Quanto è intelligente l’AI?


Guardando un piatto pulito, saremmo in grado di capire se a lavarlo sia stato un essere umano o la lavastoviglie? Probabilmente no. E questo vale anche per esempi meno banali, che vanno dalla composizione di un testo a una diagnosi medica.

Luciano FloridiSiamo circondati da macchine molto brave a svolgere compiti precisi, anche se questo non significa che siano intelligenti. “Siamo di fronte a un divorzio tra intelligenza e capacità di agire – spiega Luciano Floridi, ordinario di Filosofia ed Etica dell’informazione all’Università di Oxford – Riuscire a fare bene qualche cosa non significa essere intelligenti, a meno che non riduciamo l’intelligenza alla mera capacità di calcolo”.

Nessuno si sognerebbe mai di dire che la lavastoviglie è intelligente, anche se spesso è molto più brava di noi a lavare i bicchieri. Così come l’algoritmo che vince una partita a scacchi non è intelligente, ma solo molto più bravo di noi nel calcolare le mosse.

Siamo di fronte a un divorzio tra intelligenza e capacità di agire

“Quello che stiamo costruendo oggi, a dispetto dei nomi che attribuiamo, non è intelligente – prosegue Floridi, che è anche Ordinario di Sociologia della Cultura e della Comunicazione all’Università di Bologna – La novità è che stiamo inventando nuove forme con una capacità di azione mai vista prima. Oggi siamo di fronte a macchine che non sono dotate di intelligenza biologica, ma allo stesso tempo non somigliano alle invenzioni che hanno contraddistinto a lungo la nostra storia, dal termostato di vecchia concezione al motore a scoppio. Si tratta di qualcosa in grado di risolvere un problema, con un fine, ma a intelligenza zero, e questo è straordinario”.

Proprio da qui nasce la difficoltà a gestire qualcosa con grandi capacità operative, ma priva di intelligenza: “La cosa migliore sarebbe metterla a servizio dell’intelligenza umana. La cosa peggiore è renderla autonoma e lasciare che si autogestisca”.

Le App della salute

Un recente studio condotto da Floridi e da Jessica Morley, anche lei dell’Università di Oxford, ha analizzato la validità scientifica delle applicazioni per smartphone dedicate alla salute. Il lavoro evidenzia il vuoto di attenzione che c’è stato da parte del legislatore su questo aspetto: i risultati mostrano infatti come la qualità di queste App sia molto scarsa.

Negli ultimi anni il digitale è stato messo sempre più al centro, e gli stessi cittadini sono stati invitati a monitorarsi costantemente, anche con l’ausilio di sensori indossabili e applicazioni per smartphone. A differenza di altri dispositivi utilizzati in medicina, però, spesso questi software stabiliscono un canale di vendita diretto con il consumatore, aggirando così l’obbligo di produrre una mole di evidenze significativa prima dell’immissione sul mercato.

Dal 2014 gli esperti chiedono uno standard internazionale o un sistema di accreditamento per proteggere le persone dai rischi delle applicazioni sanitarie commercializzate in modo diretto. Da allora, però, nulla si è mosso e ancora oggi gli unici controlli sono effettuati dagli sviluppatori che lavorano per le aziende che producono gli stessi software.

Inoltre, trattandosi di applicazioni che sfuggono al controllo dei regolatori, non hanno alcun obbligo di dichiarare eventuali rischi derivanti dal loro utilizzo.

Da qui il lavoro di Morley e Floridi, che ha cercato di capire quali siano i benefici che le app per la salute intendono offrire; quali siano le prove pubblicamente disponibili a dimostrazione che i benefici dichiarati siano raggiungibili e ottenibili in modo sicuro; se queste app presentano rischi potenziali per la salute e, nel caso, quali sono. E infine: quale impatto stanno avendo gli attuali meccanismi di governance sulla disponibilità e la qualità delle prove di efficacia delle app per la salute che sono già disponibili?

Quale impatto hanno gli attuali meccanismi di governance sulla disponibilità e la qualità delle prove di efficacia delle app per la salute?

Solo un terzo delle app analizzate nel lavoro fornisce informazioni al pubblico sulle evidenze su cui si basa. Nemmeno il marchio dell’Unione europea, previsto dal Regolamento europeo per i dispositivi medici, è garanzia di efficacia e accuratezza: nello studio, sebbene le prove fornite da questi software fossero migliori, nella metà dei casi era presente un disclaimer. Non trattandosi di dispositivi medici, non sono tenuti a rispondere di eventuali imprecisioni.

“Purtroppo il quadro che emerge dal lavoro non è confortante – commenta Floridi – La maggior parte delle applicazioni analizzate non fa nulla oppure rischia di essere dannosa. E questo non riguarda solo quelle dedicate alla salute: è un problema che affligge in generale i software pensati per il benessere, che siano le diete o il fitness. Se l’Europa volesse giocare in contrattacco, dovrebbe lavorare a due regolamenti che al momento mancano: uno sulla medicina digitale e l’altro sulla realtà virtuale e aumentata”.

E le risorse?

Dal punto di vista della regolamentazione europea, esiste già molta legislazione presente: “L’Ai Act, per esempio, delega al settore della medicina molte cose in quanto sono tanti gli algoritmi utilizzati nel contesto della salute – ricorda Floridi – Servirebbe un’operazione di raccordo dell’esistente, che potrebbe essere migliorato in una versione più contemporanea”.

Tra gli aspetti del Regolamento che toccano più da vicino il mondo sanitario, c’è quello dei dispositivi medici, che, se basati su intelligenza artificiale, dovranno attenersi alle nuove indicazioni.

Lo stesso Gdpr, il regolamento per la protezione dei dati, riguarda anche le informazioni sanitarie. Guardandoci attorno, però, vediamo un settore privato molto disinvolto, a fronte di un settore pubblico piuttosto ingessato. Tutte le Big Tech stanno guardando con interesse al settore sanitario, con una che spicca sulle altre: Apple ha infatti dichiarato, nel 2019, che il più grande supporto all’umanità da parte dell’azienda di Cupertino sarà nel settore della salute. Mica male, per un’azienda partita da vendere computer.

Il tema della privacy sta ingabbiando il settore pubblico, mentre il privato si muove in maniera più disinvolta

“Credo che a questo proposito i cittadini dovrebbero avere un po’ più di fiducia nel sistema e che questo debba essere in grado di meritarsela. Al momento noi abbiamo troppa paura sulla privacy: questo ingabbia il pubblico, mentre il privato riesce a muoversi in maniera più agile”.

Per il filosofo “abbiamo bisogno di una sanità molto più data-based, più informata empiricamente. Il pubblico dovrebbe avere una maggiore capacità imprenditoriale, mentre il privato dovrebbe essere più controllato”.

L’Europa avrebbe le capacità legali per tenere a bada il privato: “Oggi gli strumenti ci sono. A breve arriveranno anche il Digital Services Act e il Digital Markets Act che, con l’Ai Act e il Gdpr costituiranno quattro pilastri importanti”.

Questi però sono tutti dei vincoli: “Quello che manca davvero oggi è una visione di che cosa vogliamo fare stando all’interno di questi paletti, come vogliamo sviluppare l’esistente su altre basi”.

Per farlo, occorrerebbe mettere insieme l’agilità, la capacità imprenditoriale del privato, ma anche la sicurezza, l’affidabilità, la solidarietà, i vincoli legali e sociali del pubblico. “Sembrano aspetti incompatibili, ma in realtà in Italia il rapporto pubblico-privato funziona abbastanza bene. Un percorso simile a livello europeo secondo me potrebbe avere successo”.

Dobbiamo capire quale progetto umano vogliamo costruire e adattare le macchine a questa visione, non il contrario

Tuttavia, si tratta di uno scenario che sembra difficile da concretizzare: “Ho partecipato in prima persona ad alcune esperienze che andavano in questa direzione, sia con soggetti privati sia con enti pubblici – rende noto Floridi – Eppure, nonostante le risorse ci fossero, si finiva sempre per incagliarsi per la mancanza di una visione di fondo. Credo esista un problema di mentalità, di strategia e di vincoli che a volte non permettono di fare quello che si desidererebbe. Servirebbe un po’ più di coraggio e una maggiore visione. Dobbiamo capire quale progetto umano vogliamo costruire e adattare le macchine a questa visione, e non adattare il mondo ai software che abbiamo costruito”.

Le resistenze culturali

Se da una parte ci sono quindi i software e le macchine che raccolgono ed elaborano dati, dall’altra occorre ragionare sull’utilizzo che viene fatto di questi dati: “Il Gdpr è un ottimo testo, ma è difficile da implementare perché servono delle risorse”, afferma Floridi. E qui la concorrenza è tra gli stipendi della Pubblica amministrazione e quelli delle grandi multinazionali tecnologiche. Il nodo resta quindi da sciogliere.

I recenti casi di cronaca che hanno al centro il furto di dati sanitari e l’hackeraggio dei sistemi di sicurezza di alcune aziende sanitarie mostrano come l’investimento in questa direzione sarebbe fondamentale.

“Credo che buona parte dei problemi in quest’ambito siano di tipo culturale – afferma Anna Vaccarelli, dirigente tecnologo dell’Istituto di Informatica e Telematica del Cnr di Pisa – La sicurezza non è ancora percepita come un asset per un’organizzazione. In questo ambito, le aziende sono più avanti rispetto alle Pubbliche amministrazioni. Purtroppo manca la cultura sull’importanza di mettere in sicurezza i propri dati, nonostante ci sia una normativa dedicata”.

La sicurezza non è ancora percepita come un asset essenziale per la Pubblica amministrazione

Il punto principale dovrebbe essere la prevenzione: attrezzarsi per mettere in sicurezza i dati sensibili che si stanno maneggiando. “E questo purtroppo manca”, afferma Vaccarelli.

Alcuni degli attacchi informatici avvenuti recentemente sarebbero passati attraverso il computer di un dipendente che lavorava da casa: “Questo significa che nell’organizzare lo smart working non si sono preoccupati abbastanza di controllare la sicurezza con cui queste persone lavoravano, a partire dal dispositivo che avevano a disposizione per arrivare all’utilizzo di una Vpn, per esempio”.

Oltre alla mancanza di cultura digitale, per Vaccarelli oggi “non è valorizzata a sufficienza la figura del tecnico specializzato in sicurezza informatica. Spesso ci si appoggia a competenze interne non necessariamente qualificate. Ora questo aspetto è cruciale perché bisogna essere sicuri che chi agisce nell’ambito della sicurezza informatica di un’organizzazione sia aggiornato, al passo con le novità”. Nella Pubblica amministrazione pesano anche i vincoli sulle assunzioni: “In questo ambito così importante, occorrerebbe una mentalità diversa dall’accontentarsi di quello che c’è: bisognerebbe potersi rivolgere a specialisti del settore in grado di costruire una pianificazione preventiva”.

Con il decreto legislativo 82/2021 dello scorso agosto si è costituita l’Agenzia per la cybersicurezza nazionale, nata per garantire la sicurezza informatica degli enti pubblici nel nostro Paese. Il ritardo, rispetto a altre nazioni, è addirittura di decenni: la Germania ha una sua agenzia dal 1991, Israele dal 2002, la Francia dal 2006. Eppure: “Nell’atto costitutivo è prevista l’assunzione di un numero consistente di esperti in cybersicurezza con livelli retributivi che si collocano al di fuori degli standard della Pubblica Amministrazione – nota Vaccarelli – Questo mi sembra un punto importante”.

La normativa sulla sicurezza dei dati è ricchissima: serve una maggiore consapevolezza che certe azioni vanno fatte

L’obiettivo dell’Agenzia è assumere i primi 90 specialisti nei primi mesi del 2022, per poi arrivare a regime entro la fine del 2023, con 300 esperti dedicati. Entro il 2027 l’intenzione è di avere a libro paga 800 persone.

La normativa, in ambito di sicurezza dei dati, è ricchissima: oltre al Gdpr, esiste una giurisprudenza che contiene sia standard tecnici sia indicazioni precise sull’attribuzione delle responsabilità: “Non è che non si sappia come fare. Il punto è essere consapevoli che certe operazioni vanno fatte – afferma Vaccarelli – Spesso infatti chi non si attiene alle norme corre solo il rischio della sanzione. Così facendo si tende a sottovalutare un problema ben più profondo: la perdita dei dati, oltre al danno d’immagine importante, è spesso anche un danno economico. Bisognerebbe avere la lucidità di calcolare i costi risparmiati grazie alla pianificazione preventiva”, conclude l’esperta.