Il dovere di usare l’Intelligenza Artificiale in sanità

Si discute spesso delle potenzialità dell’uso dell’Intelligenza Artificiale in ambito sanitario: sterminate. Eppure non ci si domanda quasi mai: cosa comporta il fatto di non usarla? “La stima è che i costi opportunità legati al sottoutilizzo tecnologico in ambito sanitario possano incidere in paesi come l’Italia fino al 2% del prodotto interno lordo”, Ugo Pagallospiega Ugo Pagallo, docente di Filosofia del diritto e Informatica giuridica all’Università degli Studi di Torino, che al problema, ancora poco esplorato, del sottoutilizzo dell’intelligenza artificiale in ambito sanitario, ha dedicato il volume Il dovere alla salute. Sul rischio di sottoutilizzo dell’intelligenza artificiale in ambito sanitario (Mimesis Edizioni).

Il professore si propone un obiettivo ambizioso: formulare un piano d’azione e un metodo con cui sfruttare tutte le potenzialità della tecnologia, a beneficio dell’umanità. Dietro ci sono numerose esperienze nel settore: il Progetto Km 0, lanciato un decennio fa alle Molinette di Torino per collegare medici di base e specialisti, Emif, AI4people, Hleg e la collaborazione con l’Organizzazione Mondiale della Sanità proprio sul tema dell’Intelligenza Artificiale.

Le potenzialità dell’Intelligenza Artificiale in ambito sanitario

“Non c’è ormai ambito e anfratto dell’ambito in esame che non sia stato interessato dalle applicazioni benefiche dell’Intelligenza Artificiale”, afferma l’accademico.

Alcuni esempi:

  • Prevenzione e diagnostica
  • Dalla ricerca medica alla medicina di precisione
  • Processi decisionali clinici
  • Monitoraggio
  • Dispositivi mobili per la salute
  • Gestione e organizzazione dei servizi

Quanto vale il sottoutilizzo dell’Intelligenza Artificiale in sanità?

“Non solo esiste il problema, ma in un paese come il nostro, che investe il 9% del Pil in sanità pubblica, vale circa il 2% del Pil – afferma il docente -. Quella che si annuncia è una rivoluzione copernicana per la medicina intesa sia come ricerca scientifica che come sanità, cura e assistenza”.

In realtà, il sottoutilizzo tecnologico non è una novità: è significativo che in un comunicato stampa del 2019 il Parlamento Europeo abbia denunciato il fenomeno come “un pericolo maggiore”.

Le ragioni del sottoutilizzo rinviano a dilemmi etici e interessi economici, istanze sociali e standard tecnici. “Il diritto non è il solo sistema regolativo: ci sono l’economia, le norme sociali, i principi dell’etica – osserva -. Ciascuno di questi sistemi regolativi spiega il perché del sottoutilizzo e mi riferisco al fatto non lo usiamo per le ragioni sbagliate”.

Perfino nei luoghi più remoti del pianeta spiega, ci sono storie di successo dell’Intelligenza Artificiale al servizio della sanità: “Se ne trovano dall’India all’Africa Subsahariana, in posti dove manca tutto. Ci sono casi commoventi che dimostrano come la necessità aguzzi l’ingegno: in Nigeria, dove ci sono almeno i cellulari con una diffusione capillare, si riesce grazie a un’app a capire dal primo vagito del neonato se abbia problemi respiratori”.

In realtà, il sottoutilizzo tecnologico non è una novità: è significativo che in un comunicato stampa del 2019 il Parlamento Europeo abbia denunciato il fenomeno come “un pericolo maggiore”

Le cause del sottoutilizzo, dunque sono tante quanti i sistemi regolativi che si prendono in considerazione: “Se ci riferiamo, per esempio, alle norme sociali, due anni di pandemia dimostrano come incida la credulità popolare concretizzandosi in teorie del complotto e follie no vax – sostiene -. Un altro punto, colossale: queste tecnologie si basano sui dati, quindi ne servono di qualità e bisogna che ci sia interoperabilità. A questi aggiungerei la burocrazia e la riluttanza professionale, perché non è così semplice aprirsi al nuovo. Inoltre, anche il legislatore può essere causa di sottoutilizzo con un intervento normativo. Il problema non è semplice ed è tanto più grave tanto più le ragioni sono molteplici”.

Il dovere alla salute e il rischio della malasanità

Quanto sia cruciale il nodo del sottoutilizzo si evince sin dal titolo: “Il dovere alla salute”. Nella quarta di copertina c’è scritto che “Il dovere alla salute non va pertanto riferito solo a eventuali obblighi degli individui verso se stessi e gli altri, ma è una responsabilità dell’autorità, dallo Stato in giù, nell’affrontare le questioni di salute”.

Nei paesi meno virtuosi il sottoutilizzo dell’Intelligenza Artificiale diventerà un problema di malasanità nell’arco di pochi anni

Il messaggio del volume di Pagallo è che esista un dovere morale e giuridico in capo all’autorità pubblica di rendere concreto il proprio dovere istituzionale di tutelare salute di ciascuno e collettività. “Nei paesi meno virtuosi il sottoutilizzo dell’Intelligenza Artificiale diventerà un problema di malasanità nell’arco di pochi anni, tenendo presente che altri paesi più virtuosi, come Singapore, sono molto attenti a questo fenomeno e si stanno muovendo in questo senso”.

Il confronto con il resto del mondo

Il libro di Pagallo analizza e mette a confronto sei realtà: Australia, Regno Unito, Singapore, Stati Uniti, Sud Africa e Unione Europea. In tutti questi casi, ciò che balza all’occhio è la messa a punto da parte delle autorità sanitarie e agenzie pubbliche di meccanismi di coordinamento e collaborazione volti a combattere il problema del sottoutilizzo tecnologico, in particolare, dei sistemi d’intelligenza artificiale.

Eppure, in generale tutte le autorità che si sono attivate per una migliore applicazione dell’Intelligenza Artificiale in ambito sanitario, insieme a organizzazioni internazionali come l’ Organizzazione per la cooperazione e lo sviluppo economico e il G20, ammettono i limiti fin qui incontrati dalle loro iniziative. Questi limiti si traducono in “costi opportunità”, ossia il prezzo che paghiamo per non usare qualcosa o qualcuno per le ragioni sbagliate.

Il piano d’azione per sfruttare le potenzialità dell’Intelligenza Artificiale

Le idee raccolte da Pagallo saranno recepite dall’Organizzazione Mondiale della Sanità in un documento che sintetizzerà un piano d’azione e un metodo per sfruttare al meglio le opportunità dell’Intelligenza Artificiale in ambito sanitario. Quale?

È necessario attivare un meccanismo di coordinamento e collaborazione con tutti i portatori d’interesse

“Il problema non risiede tanto nella forma di governance prescelta da agenzie pubbliche e Stati, quanto nel fatto che i meccanismi di coordinamento e collaborazione sono andati accumulandosi senza metodo – commenta l’esperto -. In concreto, è necessario attivare un meccanismo di coordinamento e collaborazione con tutti i portatori d’interesse. Se non sono stati instaurati, come nel caso italiano, urge correre ai ripari; se invece, come in Australia, esiste un piano di coinvolgimento degli stakeholder, si deve cominciare a capire che cosa non sta funzionando. Qualcuno è stato dimenticato? Qualche portatore di interesse non è stato coinvolto?”.

La situazione in Italia

Il paragone fra il nostro Paese e realtà avanzate come Singapore è impietoso. “A volte si cade nell’umorismo involontario, con pagine di siti istituzionali, come il Ministero della Salute, che citano l’Intelligenza Artificiale ma i relativi link non mandano da nessuna parte: 404 page not found. Manca in Italia una cultura tradizione della co-regolazione giuridica con i relativi meccanismi di coordinamento e cooperazione. Anche quando si è provato a crearli, o è mancata una robusta base teorica per la governance di sistemi complessi, o è mancata l’attenzione per fenomeni di sottoutilizzo, o, più spesso, entrambe le cose. Ma siccome non penso di essere Don Chisciotte, mi chiedo perché non dovremmo riuscirci?”.

Come fare, quindi, sia da noi che altrove? “Con un intervento scalabile, modulare, adattativo, reattivo e tecnologicamente informato – insomma Smart – che tenga conto delle ovvie differenze fra Paesi ricchi e poveri, fra Nord e Sud del mondo, oltre a Paesi ricchi con esperienza co-regolativa, come Australia e Singapore, o Paesi ricchi con nessuna o poca esperienza co-regolativa, come il nostro”.