Algoritmi e pandemia. Chiusi: “Attenzione al soluzionismo”

App di contact tracing digitale. Certificati digitali Covid. Algoritmi per stabilire l’ordine di priorità vaccinale, o fare in modo che non ne vada sprecata nemmeno una dose. Sistemi a base di intelligenza artificiale (AI) per rendere i sistemi di ventilazione dei locali a prova di coronavirus, o valutare quali viaggiatori in ingresso nel proprio paese sottoporre a test perché a maggiore rischio di infezione. Sono solo alcuni dei sistemi per decisioni automatizzate (automated decision-making systems, o Adm) realmente utilizzati in Europa in risposta alla pandemia di Covid-19, e registrati e raccontati dal progetto Tracing The Tracers dell’organizzazione non governativa tedesca AlgorithmWatch.

A spiegare come sta andando e a mettere in evidenza il pericolo principale che si corre, quello del “soluzionismo”, è il project manager di Tracing The Tracers Fabio Chiusi, docente di Nuovi Media ed Editoria e Media Digitali all’Università di San Marino e fellow del Centro Nexa su Internet e Società del Politecnico di Torino.

Cos’è Tracing the Tracers?​

Fabio Chiusi“È uno strumento per monitorare gli sviluppi avvenuti nel corso della pandemia in termini di adozione di tecnologie e automazione. Più precisamente, ci occupiamo di sistemi di automated decision-making, cioè l’insieme di scelte politiche, relazioni umane e strumenti tecnologici dispiegati per prendere decisioni in tutto o in parte automatizzati. Pensi alle app di contact tracing digitale, che tentano di automatizzare la possibilità di avere avuto un contatto a rischio infezione; o agli algoritmi di prioritizzazione delle vaccinazioni, usati anche in Italia; o a quelli, usati in Francia e altrove, per rendere più efficiente la distribuzione di dosi di vaccino avanzate”.

​​Davvero l’AI e l’automazione sono in grado di realizzare le enormi promesse che si sono accompagnate al loro sviluppo, anche nel contesto della pandemia? ​​

“Sembra presto per dirlo, ma quello che si può dire non sembra puntare a una risposta positiva. Per le app di contact tracing si è registrato qualche risultato positivo, ma unicamente grazie alla loro integrazione coi sistemi sanitari e le strategie pandemiche non hanno di certo impedito alla variante Delta di diffondersi, in ogni caso. Per gli usi dell’AI, qualunque cosa essa sia, diverse analisi giornalistiche e della letteratura disponibile dicono piuttosto chiaramente che le applicazioni concretamente utili sono state prossime allo zero, inclusi usi medici, come per riconoscere il Covid da raggi al torace.

Insomma, se ne è parlato molto, ma l’opinione condivisa, al di fuori dei circoli di innovatori e altri soggetti autointeressati, è che magari in futuro certe promesse si potranno realizzare — non tutte in ogni caso — ma per ora sarebbe bene mettere in piedi regole e controlli, quando non veri e propri divieti, come per alcuni usi della sorveglianza biometrica, prima di continuare ad autorizzare e glorificare l’uso indiscriminato o quasi di questi strumenti, in assenza di trasparenza, dati, studi, evidenze che funzionino”.​​​

Quante delle soluzioni proposte sono in realtà figlie di una visione “soluzionista” della tecnologia, e quante passano il vaglio di un’analisi evidence-based?​​

“Vale quanto detto sopra, dato che il motivo per cui mancano trasparenza, dati, evidenze — e quando ci sono si tendono a ignorare comunque — è proprio quell’ideologia soluzionista, proprio come prima della pandemia. Perché chiedersi come si produce una soluzione, se magicamente sempre si produce? È una riduzione ideologica molto pericolosa, questa che comprime problemi sociali e di salute pubblica straordinariamente complessi, come una pandemia, entro le rigide maglie del codice. Non tutti i problemi sono meri problemi di informazione: in alcuni casi, servono scelte morali, politiche, che solo un essere umano può — forse — contemplare.

Di evidence-based c’è davvero poco: stiamo sprecando un’opportunità straordinaria per ripensare la nostra società

Di evidence-based, insomma, c’è davvero poco; quel che è peggio, come accennavo, è che quand’anche ci fosse viene vissuta con indifferenza o fastidio, perlopiù ignorata o banalizzata dai media mainstream e strumentalizzata dai leader politici, ciascuno per i propri scopi di bottega. Stiamo sprecando una straordinaria opportunità per ripensare le nostre società alle fondamenta, e insieme barattando utopia e ragione con consenso immediato e baruffe epistemiche (e non) basate sul nulla. Non bene”.

​​​Quando questo non accade, quali sono di solito i problemi?

“​​L’impossibilità di dire alcunché sul sistema in esame è il principale. Come giudicare ciò che non conosci? Il nostro lavoro è cercare di conoscere per giudicare, oltre che giudicare. Ed è difficilissimo, proprio perché il muro di opacità alzato dall’indifferenza e dal soluzionismo è duro da vincere. Mancano spesso i dati, le prassi, le regole, i controlli, le sanzioni, tutto. Sembra a volte di trovarsi a giudicare dépliant di un qualche prodotto, o trovarsi a una lezione in un corso di marketing, più che nel mezzo di un dibattito che dovrebbe essere fondamentale per il mondo tutto e le democrazie in particolare: che aiuto vogliamo dalla tecnologia per le scelte politiche che prenderemo nelle pandemie future? È un anno che cerco una risposta basata sui fatti e le evidenze, ed è un anno che mi è impossibile formularla perché i fatti e le evidenze, per qualche ragione, per molti non contano”. ​

In che misura la grande fiducia riposta spesso a priori e a prescindere, rappresenta di per sé un problema nel modo in cui affrontiamo il rapporto tra tecnologia e politiche pubbliche e più specificamente, in questo caso, di sanità pubblica?​​

“È un grande problema, perché la fiducia nella tecnologia e in questi sistemi può facilmente essere tradita — sempre, quando le promesse sono viaggi in completa sicurezza e una vita sociale totalmente identica a quella pre-pandemica, grazie a un qualche device tecnologico. E quel tradimento può finire poi per riverberare sulle istituzioni sanitarie, o le istituzioni e basta. Attenzione dunque a banalizzare troppo i messaggi, come si è visto per Immuni o per il Green Pass: la democrazia, specie in emergenza, richiede più critica, più dibattito — non scelte opache, sull’onda di reazioni emotive o dell’opportunismo del momento.

Attenzione a banalizzare troppo i messaggi, come si è visto per Immuni o per il Green Pass

Il Green Pass, per esempio: diversi studi dicono che forzare l’intenzione di vaccinazione con un simile incentivo può avere effetti controproducenti su alcune fasce sociali — le più svantaggiate, peraltro — e, più in generale, di lungo periodo, paradossalmente diminuendo le intenzioni di vaccinazione. C’è da sperare il decisore pubblico ne abbia tenuto conto”.

​​Quali sono in definitiva le prospettive concrete secondo lei e quali i principali punti su cui lavorare?​​

“C’è da lavorare su tutto: la composizione dello stato dell’arte — cioè documentare cosa sta accadendo, quali sistemi ci sono, e come vengono testati e adottati; il quadro regolatorio di riferimento per molti di questi strumenti — cosa ne sarà di app di contact tracing e Green Pass, una volta passata l’emergenza, per esempio?; lo studio analitico e rigoroso di ciascuna di queste applicazioni, ciascuna nel proprio contesto di utilizzo e insieme a livello aggregato. Insomma, servirà del tempo per capire davvero la nostra risposta alla pandemia in termini di sistemi per decisioni automatizzate, intelligenza artificiale e tecnologie digitali. C’è da sperare che qualche decisore, poi, ne prenda nota: è altamente improbabile che quella di Covid-19 sia l’ultima”.