Etica del digitale: tra dati e realtà
di Massimo Cerofolini
-
21 Ottobre 2022
L’intelligenza artificiale è sempre più protagonista della nostra vita quotidiana. Con una serie straordinaria di opportunità. Ma cosa accade se l’algoritmo prevede scenari o produce decisioni viziate da errori, dati sporchi o pregiudizi presenti nelle informazioni del passato? Una filosofa di Oxford e un fisico appassionato di supercalcolo ragionano su rischi e contromisure
Dalle predizioni sui mercati finanziari e sul rischio di credito al gemello digitale di un’azienda su cui testare le decisioni prima di metterle in pratica. Dal riconoscimento di volti, voci e cose all’assistenza di chatbot nella navigazione online. Non c’è aspetto della nostra vita quotidiana che non riguardi tecnologie basate sui dati. Sempre più spesso per velocizzare e migliorare i processi, o per trovare risposte a questioni articolate, ci affidiamo ad algoritmi capaci di macinare quantità immense di informazioni e fornire risposte in tempi rapidi. Tutto meraviglioso e inimmaginabile fino ad appena pochissimi anni fa. Ma che succede se il dato a disposizione non rispecchia la realtà che vorremmo riprodurre? Come evitare conseguenze che possono derivare da risultati distorti? Sono le domande su cui si interrogano le nuove generazioni di scienziati, filosofi e tecnologi.
Stefano Cozzini, direttore dell’Istituto di ricerca per l’innovazione tecnologica di Area Science Park a Trieste, lavora da 20 anni alla gestione di infrastrutture informatiche e ha realizzato la ricerca semantica delle pubblicazioni sul covid che ha permesso ai ricercatori di trovare strumenti e studi scientifici durante la pandemia: “L’intelligenza artificiale – premette - è semplicemente una serie di algoritmi che imparano dai dati. Ne abbiamo di due tipi. Il primo: quelli che apprendono in modo guidato dall’uomo, il quale mostra loro milioni di immagini legate a diverse categorie, dai semafori ai gatti, finché a forza di individuare elementi comuni la macchina impara a distinguere. Il secondo tipo: quelli privi di supervisione, macchine cioè che imparano da sole. In pratica forniamo loro una quantità di dati che noi non sappiamo trattare e queste le processano individuando correlazioni e corrispondenze significative. In entrambi i casi, abbiamo un processo statistico che permette di azzardare previsioni. Ma, per quanto accurate, non possiamo considerare le risultanze dei software una forma di coscienza. Con i sentimenti, la percezione e l’intuito tipici degli esseri umani ”.
Aggiunge la filosofa Mariarosaria Taddeo, professore associato e ricercatrice senior all'Internet Institute dell’Università di Oxford, Defense science and technology fellow presso l'Alan Turing Institute e membro dell’Ethics Advisory Committee del Ministero della Difesa inglese: “L’intelligenza artificiale manipola i simboli. Che significa? Quando noi comunichiamo abbiamo due elementi: il simbolo e il significato. Se scrivo la parola “cosa” sto scrivendo un simbolo, il significato sta nella mia mente e allude agli oggetti che conosco. Ecco, è proprio la capacità di connettere simbolo e significato a rendere diversa una specie. E questa ce l’abbiamo soltanto noi uomini e alcune specie biologiche. Ma si tratta di un processo che si determina attraverso l’evoluzione. Non dall’esempio della mamma che insegna al bambino cosa è questo o quello. In sostanza, l’intelligenza artificiale non è una specie perché non fa questa connessione in modo autonomo. Può certamente scrivere fiumi di inchiostro e intere Divine Commedie, con apparente creatività, ma non avrà mai nessun significato. Come il compagno di classe che ripete a pappagallo: sa a memoria qualcosa ma non la capisce”.
Detto questo, bisogna però specificare che siamo davanti a una tecnologia profondamente trasformativa. Che accanto a funzioni positive e stupende abilita anche minacce altrimenti impensabili. E qui si entra nel campo dell’etica dell’intelligenza artificiale. “Il primo problema da mettere in rilievo – spiega la professoressa Taddeo – è che l’intelligenza artificiale rappresenta una tecnologia completamente diversa da tutte le altre: le altre sono un oggetto che l’uomo usa, questa invece è un agente. In altre parole interagisce tra noi e l’ambiente. E in questa mediazione ci offre piccoli suggerimenti, tipo “vai a destra o sinistra”, “leggi anche questo libro”. Ci manipola nella misura in cui diventa sempre più invisibile. Se perdiamo di vista che c’è questa mediazione finiamo in un mondo manipolato dalla tecnologia”.
Il secondo problema riguarda la responsabilità morale delle soluzioni offerte dal software. “Noi usiamo gli algoritmi – continua Taddeo - per compiti dal fortissimo impatto come la diagnostica delle malattie, la guerra con armi autonome o la valutazione di studenti e candidati a un lavoro. Decisioni importantissime, quindi. Ma nella storia dell’umanità abbiamo sempre imparato ad attribuire la responsabilità di una scelta in modo chiaro e preciso: deve cioè esserci una intenzionalità da parte di chi agisce, un voler fare qualcosa. In più bisogna essere consapevoli che ogni azione causerà degli effetti e che in base alle conseguenze potremo essere premiati o puniti. Ecco, nell’intelligenza artificiale mancano questi criteri di discernimento: non capisce il concetto di premio o di punizione e in più, imparando dalle interazioni con l’ambiente, anche se l’ho progettata per fare una cosa, una volta messa in un certo contesto potrà discostarsi agendo in modo diverso e imprevedibile. E quindi non c’è più la connessione causale e intenzionale su cui si fonda la responsabilità morale di un’azione. Non solo. Le previsioni del suo comportamento arrivano con un margine di incertezza tale che al momento non c’è alcuna garanzia di sicurezza nelle decisioni su processi complessi”.
C’è poi il grande tema della qualità dei dati che gli algoritmi elaborano. “L’intelligenza artificiale – osserva la filosofa di Oxford – non è cattiva o buona, semplicemente impara ciò che noi le insegniamo. E impara dai dati che noi abbiamo accumulato nel tempo. Purtroppo, le nostre società hanno dimostrato di avere diversi pregiudizi, ad esempio sulle donne o sulle minoranze etniche. E l’algoritmo non fa altro che riproporli in modo acritico nelle sue successive elaborazioni. In peggio, peraltro. Perché, come quando fa cose positive, anche con quelle negative si muove su larga scala. Quindi se dai calcoli escono risultati dal sapore razzista queste scelte non si applicheranno a una sola persona, ma a un’intera popolazione”.
Ecco dunque l’importanza di raccogliere bene i dati. Affinché siano puliti, annotati e ben gestiti. Altrimenti, come si dice nel gergo informatico, garbage in garbage out, immondizia entra e immondizia esce. “Come direttore di un istituto che produce dati su genomica e scienza dei materiali - dice Cozzini – sento la responsabilità di generare e gestire correttamente le informazioni che verranno poi usate per allenare algoritmi e macchine affinché ci aiutino o ci sostituiscano nelle decisioni complesse. Cerchiamo di immettere soltanto dati Fair, acronimo che sta per Findable, accessible, interoperable e reusable, dunque trovabili, accessibili, interoperabili e riutilizzabili. È fondamentale gestire il dato in modo che questo venga tracciato, annotato in modo esteso e con standard condivisi, aperto il più possibile e riservato quando necessario. Detta in modo concreto, i dati aperti permettono la verifica degli algoritmi da parte di più attori, quelli chiusi ci tutelano da un loro uso distorto in campi delicati come quello della salute. È inoltre importante come produttori di dati essere consapevoli fin da subito della posta in gioco. E concepire algoritmi che siano etici by-design, pensati già secondo principi corretti”.
Ma chi deve essere responsabile quando l’algoritmo sbaglia? Dice Taddeo: “La responsabilità non può essere attribuita alle macchine. Abbiamo una distribuzione capillare di quelli che sono i passaggi che creano i sistemi di intelligenza artificiale. I dati e gli algoritmi li creano e li processano certamente gli ingegneri, ma l’algoritmo non viene gestito da un unico soggetto. Magari viene ideato da un team, che nel tempo si smembra. E che succede se quell’algoritmo sviluppato solo per identificare cani e gatti viene usato per scovare un terrorista? Chi ne è responsabile se le cose vanno storte? Il digitale ha una natura malleabile che già di per sé si presta a usi diversi, difficilmente controllabili. E di fatto la connessione tra le intenzioni e le conseguenze pratiche è quasi impossibile da ricostruire come catena di eventi”.
Punto centrale, allora, è la governance. “Il digitale – sostiene la filosofa - ha trasformato le nostre società e lo fa sempre di più in modo costante, capillare e profondo. È qualcosa che non riguarda più soltanto noi, ma le società dei prossimi decenni. Oggi mettiamo i semi di una pianta che germoglierà domani. Non possiamo permettere che questa rivoluzione avvenga senza regole, perché altrimenti diventa senza direzione. Ce ne siamo già accorti tardi”.
Come europei, secondo Taddeo, possiamo dirci fortunati. Abbiamo cominciato per primi con il Gdpr sulla privacy nel 2018, abbiamo impostato una regolamentazione per le grandi piattaforme digitali che saranno obbligate a raccogliere e usare dati e algoritmi in modo più trasparente. Con il vantaggio che essendo l’Europa un mercato florido, quando decidiamo qualcosa di positivo, il resto del mondo – che siano cinese o americani – deve adattarsi se vuole venir qui a fare affari. E a quel punto magari, per non complicare troppo i propri processi, rivedere al rialzo le proprie normative nazionali a imitazione della nostra.
“Due cose mancano ancora. Manca una governance dell’intelligenza artificiale nel campo della difesa e manca un richiamo agli aspetti positivi. Il digitale pone rischi da mitigare, ma offre anche potenzialità enormi. Il problema più grande, a mio avviso, è che non si facciano regolamentazioni che ci permettano di cogliere queste opportunità. Che si giochi la partita soltanto in difesa e mai in contropiede. Le prossime generazioni ci potrebbero rinfacciare che avremmo potuto trovare cure per il cancro e non l’abbiamo fatto. O che potevamo fermare il cambiamento climatico e non l’abbiamo fatto. Ecco queste sfide vanno colte adesso, altrimenti rischiamo di perdere di vista il treno, l’obiettivo e la corsa”.