L’intelligenza artificiale? È vecchia di sessant’anni

“L’intelligenza artificiale è qualcosa di vintage, di molto vecchio”. Ha esordito così Barbara Caputo, professoressa ordinaria al Politecnico di Torino e direttrice di AI-H, l’hub interno sull’intelligenza artificiale.

Una provocazione? Per niente: “Già negli anni ’50 il New York Times intervistava lo psicologo Frank Rosenblatt che costruì una macchina intelligente, un primo algoritmo che cerca di assomigliare al funzionamento dei neuroni del cervello. Si tratta di una macchina che impara con l’esperienza, dagli errori. È la bisnonna degli algoritmi che oggi permettono alle applicazioni del nostro smartphone di funzionare”.

Caputo è intervenuta al panel “Algoritmi e Intelligenza Artificiale: uso, impatti socioeconomici e regolazione”, organizzato da Biennale Tecnologia all’interno del calendario del Festival Internazionale dell’Economia di Torino.

Sebbene di intelligenza artificiale si parli da oltre 60 anni, nell’ultimo decennio le conversazioni attorno a questo tema si sono intensificate, così come la sua applicazione agli ambiti più svariati. “In realtà, quello che oggi ci interessa moltissimo è una parte del machine learning, quella che fornisce informazioni alle macchine”.

L’intelligenza artificiale risolve molto bene problemi binari, la cui risposta si può ridurre a sì/no

Come altri esperti di Ai, anche Caputo non è convinta dell’intelligenza delle macchine: “Abbiamo algoritmi che sono molto bravi a svolgere un compito preciso – afferma – A volte, come quando è richiesta una grande capacità di calcolo, sono più bravi degli esseri umani. Tuttavia, è a noi che quell’operazione richiede intelligenza, non alle macchine”. L’intelligenza artificiale risolve molto bene problemi binari, la cui risposta si può ridurre a sì/no.

“Nel 2011-12 questi algoritmi non riuscivano più a gestire l’enorme quantità di dati che la digitalizzazione diffusa stava producendo”, ha ricordato l’esperta. Ovunque ci sia un sensore che può registrare posizione, traffico, opzioni di acquisto si producono dati digitali. Ecco quindi che il deep learning viene in aiuto a questa elaborazione con algoritmi ad alta capacità in grado di scavare in questa enorme mole di dati da cui si può estrarre informazione. “È questa la vera rivoluzione, spesso paragonata a quella dell’energia elettrica: la rivoluzione industriale ha portato ad automatizzare i processi del fare, con l’intelligenza artificiale nel mondo digitale noi ci stiamo avviando ad automatizzare i processi del capire e del gestire l’informazione”.

Fin qui gli algoritmi possono guidare le nostre scelte, ma la decisione finale spetta ancora a noi: i software ci propongono per esempio prodotti in base a che cosa ritengono ci possa piacere, ma siamo noi a cliccare su Acquista”.

Oggi ci stiamo spostando verso un’intelligenza artificiale che è in grado anche di decidere autonomamente, senza il nostro supporto

Adesso stiamo facendo un passo in più: ci stiamo spostando verso un’intelligenza artificiale che è in grado anche di decidere autonomamente, senza il nostro supporto. “Stiamo entrando nel mondo dell’Ai applicata alle cose – ha spiegato Caputo – Questo significa che l’intelligenza artificiale non si limita a estrarre senso dalle informazioni, ma poi deve essere in grado anche di compiere delle azioni. In ambienti industriali collaborativi uomo-macchina la decisione per esempio non è solo quella di porgere alla persona con cui si sta lavorando uno strumento, o spostare un pacco da un punto all’altro. La decisione è anche quella di proteggere la vita dei lavoratori: se qualcuno si sta avvicinando a una zona potenzialmente pericolosa, l’algoritmo dovrebbe decidere di fermare la macchina o almeno di rallentarla, inviando un segnale di pericolo in modo che ci si possa allontanare”.

Quando ci spostiamo dal mondo digitale a quello reale, dobbiamo affrontare tutti i problemi che riguardano non solo la percezione da parte dell’Ai, ma anche l’azione e dunque bisogna occuparsi anche degli aspetti etici e legali correlati. “La posta diventa quindi più alta e dal punto di vista tecnico è ancora più sfidante – ha affermato Caputo – Naturalmente sentiamo tutto il peso della responsabilità che questa transizione sta portando con sé”.

L’intelligenza artificiale in sanità

La cornice normativa

L’accelerazione che l’intelligenza artificiale ha avuto in questi ultimi anni necessita di una cornice normativa precisa, che tuteli i cittadini e regoli in modo chiaro il funzionamento e la libertà d’azione degli algoritmi. Proprio con questo obiettivo da un paio d’anni l’Europa sta discutendo l’Ai Act.

Alle grandi piattaforme non interessa la nostra identità, ma le nostre preferenze e abitudini

“In economia è importante il concetto di esternalità: alle grandi piattaforme non interessa la nostra identità, ma le nostre preferenze e abitudini – ha affermato Tommaso Valletti, professore di economia presso l’Imperial College Business School di Londra, che è stato anche Chief Economist della Direzione generale della concorrenza della Commissione europea – Se i dati sono già stati ottenuti da persone che sono statisticamente simili a me non posso più proteggermi”. Un esempio di esternalità globale riguarda per esempio il cambio dei termini del servizio, in particolare per quanto riguarda la privacy, che l’applicazione di messaggistica istantanea WhatsApp ha attuato a inizio 2021. “L’Unione europea ha detto che queste norme non si applicheranno ai Paesi protetti dal Gdpr – ha ricordato Valletti – Tuttavia, questo è falso poiché l’algoritmo sarà allenato su banche dati di cittadini americani e asiatici, ma i risultati di tutto questo saranno applicati anche in Europa”.

Un altro esempio riguarda la recente acquisizione di Fitbit, un’azienda che produce smartwatch, da parte di Google: “In Europa gli utenti sono relativamente pochi e si è sottovalutato il problema”, afferma Valletti. Questo infatti, non impedisce che Google testi soprattutto altrove i propri algoritmi per poi applicarli al suo ecosistema, ben più vasto, che impatta sulla vita di ciascuno di noi, europei compresi.

Con il Digital Service Act si è compiuto un passo importante provando a responsabilizzare il mondo online

“Con il Digital Service Act si è compiuto un passo importante provando a responsabilizzare il mondo online – ha affermato Valletti – È senz’altro una strada positiva, ma l’arma rischia di essere smussata dalla mancanza di incentivi”.

La privacy

Per Tommaso Valletti, che è anche professore di economia all’Università di Roma Tor Vergata esperto di concorrenza e regolamentazione, quello che l’intelligenza artificiale ha apportato alla tecnologia non è un destino ineluttabile, bensì il risultato di precise scelte economiche e di policy fatte nel passato. “Questo significa che, anche in futuro, potremo indirizzare la tecnologia in determinate direzioni, se avremo la volontà di farlo”, ha affermato.

Negli ultimi anni alcuni economisti hanno cambiato le loro opinioni a proposito del significato della privacy nel mercato digitale: “Una decina di anni fa eravamo tutti molto convinti del privacy paradox: a parole la privacy interessa a tutti, ma se si vanno a guardare i comportamenti delle persone, si vede che non sono così attente a tutelare i propri dati – spiega Valletti – La conclusione affrettata era che non esistesse un problema di privacy, perché con il loro comportamento le persone ci rivelano che non sono interessate”.

Per utilizzare servizi digitali ci viene richiesta un’autorizzazione spesso vaga: dice per esempio che la società potrebbe condividere alcuni nostri dati con enti terzi. Diverso sarebbe se ci dicessero che i dati condivisi potrebbero farci negare l’accesso al mutuo della casa tra qualche anno

Questo paradosso si è però rivelato falso: “Prima di tutto, perché molti di noi si proteggono nel mondo digitale. Inoltre, la ricerca che era stata fatta in economia comportamentale per arrivare al paradosso della privacy si basava su esperimenti molto semplici che non trovano la loro controparte nel mondo digitale”. Oggi per utilizzare qualunque servizio digitale ci viene richiesta un’autorizzazione che spesso è molto vaga: dice per esempio che la società potrebbe condividere alcuni nostri dati con enti terzi. “Diverso sarebbe se ci dicessero che i dati condivisi potrebbero farci negare l’accesso al mutuo della casa tra qualche anno”, osserva l’economista.

Come difendersi dunque da questi aspetti? “Prima di tutto si potrebbe agire sulla concorrenza – ragiona Valletti – In questo momento le grandi piattaforme sono gratis, quindi la concorrenza, se esistesse, dovrebbe esercitarsi in termini di qualità. E la privacy è un aspetto qualitativo”. Questo è avvenuto con i social network, quantomeno agli albori: “Il primo leader di settore, vent’anni fa, era MySpace – ricorda l’economista – Poi è arrivato Facebook, che ha puntato sulla privacy. Può sembrare paradossale oggi, ma all’inizio l’azienda di Mark Zuckerberg chiese a gruppi di utenti quale fosse il livello di privacy che volevano fosse messo in atti e Facebook si impegnò pubblicamente a mettere in pratica le preferenze degli utenti in tema privacy”.

In qualche anno tuttavia Facebook diventa monopolista e decide di rinnegare l’impegno preso, che non aveva alcun valore legale.

Le asimmetrie informative

“Fino a un certo momento gli economisti sono stati convinti che più informazione potesse migliorare l’efficienza di un sistema – ha osservato Valletti – Tuttavia, esistevano ambiti caratterizzati da asimmetrie informative. Tipicamente, quello bancario, quello assicurativo e quello della salute”. In questi settori, una parte aveva più informazioni dell’altra: “Chi andava a chiedere un prestito in banca, aveva più dati a disposizione rispetto alla banca stessa. Analogamente, chi sottoscriveva una polizza per la salute poteva essere in possesso di informazioni che la controparte non poteva avere. Siamo quindi in un regime di concorrenza, in cui tutte le aziende hanno all’incirca le stesse informazioni, che di solito sono inferiori a quelle che abbiamo noi”.

Con i sensori, la raccolta continua di dati e il nostro comportamento online continuamente tracciato, banche, assicurazioni ed erogatori di prestazioni sanitarie possono sapere molto di chi hanno di fronte

La digitalizzazione inverte completamente questa asimmetria: con i sensori, la raccolta continua di dati e il nostro comportamento online continuamente tracciato, banche, assicurazioni ed erogatori di prestazioni sanitarie possono sapere molto di chi hanno di fronte. “Pensiamo per esempio a Google Fitbit: che cosa succederebbe se un’azienda riuscisse a collegare i dati raccolti da questi sensori prima di sottoscrivere un’assicurazione sulla salute?”

Questo pone un doppio problema: da una parte rovina la concorrenza, perché c’è un’azienda che ha più dati rispetto ai suoi pari. E, dall’altra, non fa gli interessi del cittadino, che si ritrova magari a pagare un premio assicurativo più alto in base al proprio battito cardiaco o al proprio stile di vita. Per noi questo sarebbe lo scenario peggiore, seppur probabilmente il più efficiente. In questo modo infatti ciascuno potrebbe ricevere un’offerta estremamente personalizzata, ma non avrebbe scelta. Dovrebbe accettare quella proposta perché non ne esisterebbero altre.

In questo caso però abbiamo uno strumento a disposizione: “È la politica della concorrenza, in particolare quella sulle fusioni. Purtroppo negli ultimi vent’anni abbiamo consentito quasi tutte le acquisizioni delle Big Tech. L’unica eccezione a mia conoscenza è quella del legislatore inglese, che a fine 2021 ha bloccato per la prima volta un’acquisizione: quella di Giphy da parte di Facebook. Si tratta comunque dell’antitrust inglese e non del regolatore europeo. Una magra soddisfazione”.

Siamo le scelte che facciamo

Sugli algoritmi applicati al mondo del lavoro esistono pochi dati, poiché un’adozione massiva dell’intelligenza artificiale in questo ambito si è vista solo negli ultimi tre anni. “Tuttavia abbiamo un precedente importante: quello dell’automazione – ha ricordato Valletti – Con questa tutto funziona fino agli anni ‘80, dopodiché aumenta di molto i salari delle persone che occupano il vertice della piramide, mentre sostituisce chi svolge compiti ripetitivi. Diminuendo la domanda per quel tipo di lavoratore, questi avrà un salario più basso. Con l’intelligenza artificiale si corre lo stesso rischio, anche se, come ricordavo all’inizio, è una pagina che si scriverà in base alle scelte che verranno compiute”.

Più ottimista Barbara Caputo, che racconta la storia di una ragazza cinese migrata negli Usa: Fei Fei nasce negli anni ‘70 a Pechino e, dopo qualche anno, il padre si trasferisce negli Stati Uniti, per provare a migliorare la condizione della famiglia. Dieci anni dopo si fa raggiungere dalla moglie e dalla figlia. I genitori svolgono lavori molto umili, ma Fei Fei è brava a scuola. Così, a 17 anni, ottiene una borsa di studio per un’università prestigiosa: Harvard.

intelligenza artificiale

“Il resto è storia: Fei Fei Li è una delle artefici dell’intelligenza artificiale moderna, colei che è riuscita a portare il mondo delle reti neurali profonde nella visione computerizzata, colei che ha reso possibile tutte le applicazioni basate sull’Ai che oggi abbiamo sul nostro telefonino – ha raccontato Caputo – La sua grande intuizione è stata che, per insegnare all’intelligenza artificiale a “vedere” e a trovare le cose bisognava dare in pasto a queste rete una statistica di dati molto ricca e lei ha costruito tutta l’ontologia e la conoscenza necessaria per riuscire a fornire alle reti questa intelligenza. La mia speranza è che nel gruppo dei salari molto alti ci vadano persone un po’ diverse. Il potere trasformativo dell’Ai e di qualunque rivoluzione tecnologica è quello di sparigliare. Credo che anche in Italia ne avremmo un gran bisogno e mi auguro che succeda sempre più spesso”.

La strategia italiana per l’intelligenza artificiale