Padre Benanti: Intelligenza artificiale, le big tech alla sfida dell’etica
di Massimo Cerofolini
-
28 Giugno 2024
Che impatto avranno le parole del Papa al G7 sull’urgenza di tutelare l’uomo dalle minacce delle macchine? Ne parliamo con Paolo Benanti, consulente del pontefice sull’Ai e ideatore del concetto di algoretica: “Gli algoritmi sono un moltiplicatore, del bene o del male, a seconda di cosa diamo loro”. E intanto i colossi americani, tra resistenze e frenate, si misurano con le norme europee dell’Ai Act.
“Affascinante e terribile”. Per parlare di intelligenza artificiale davanti ai Grandi della Terra riuniti il 14 giugno al G7 di Borgo Egnazia, Papa Francesco ha scelto due termini agli antipodi: da una parte qualcosa di entusiasmante, dall’altra qualcosa di spaventoso. Due opposti che, in pratica, delineano le polarità dentro cui si snodano le varie posizioni sugli algoritmi sempre più presenti nelle nostre vite. Integrati e apocalittici, direbbe Umberto Eco. Con un limite, secondo il pontefice, da non superare mai: “Restiamo umani e non deleghiamo alle macchine il nostro futuro”.
Parole alte, da cui discendono richieste precise (no alle armi autonome, no alla riduzione dei lavoratori come inutili scarti, no all’aumento delle diseguaglianze), che si calano in un dibattito dove l’etica e il profitto cercano una difficile sintesi, a fronte degli sviluppi fulminanti nei nuovi modelli di software sulla scia di ChatGpt. Come tradurre in scelte concrete queste indicazioni di Bergoglio? E soprattutto come si stanno muovendo i protagonisti della quarta rivoluzione industriale, che trova nelle banche proprio il settore più esposto e insieme, per la sua storia di rigide normative, quello forse più attrezzato ad accoglierla?
Lo abbiamo chiesto a Paolo Benanti, francescano, consigliere del Papa sui temi dell’intelligenza artificiale, ideatore di un termine adottato ormai a livello internazionale, algoretica, consigliere del segretario delle Nazioni Unite Guterres, membro di due commissioni governative sull’etica degli algoritmi e docente di questa materia all’Università Gregoriana di Roma. Prima però un rapido accenno su come i giganti della tecnologia si stanno adeguando alle richieste di maggiore trasparenza, formulate peraltro dal Regolamento europeo di recente approvazione, l’Ai Act, e parzialmente accolte nelle normative in arrivo tra Stati Uniti e Cina.
A fare l’andatura è sempre lei, Open Ai, la società che nel novembre del 2022 ha stupito il mondo rendendo pubblico ChatGpt, l’algoritmo capace di dialogare in linguaggio naturale o creare testi e altri contenuti da semplici richieste di testo, prima star di uno stuolo di altri software in grado di generare anche immagini, video e servizi di ogni tipo. Oggi l’azienda guidata da Sam Altman ha smesso i panni iniziali della non profit che vigila sulla bontà dell’intelligenza artificiale e, grazie a un accordo da 13 miliardi di dollari con Microsoft, si è lanciata nella mischia del business sfornando prodotti di grande richiamo commerciale, come Sora (l'imminente algoritmo che da brevi comandi crea video spettacolari) e soprattutto Gpt4o (l’ultima versione di ChatGpt, multimediale, superpotente e priva di latenza tra domanda e risposta). È sotto la lente dei critici, Open Ai, con tanto di cause intentate da diversi editori, soprattutto per aver addestrato l’algoritmo con contenuti presi senza consenso dal web. Microsoft invece ha dovuto bloccare il lancio del suo Recall, una sorta di assistente personale che utilizza l’intelligenza artificiale all’interno del computer stesso accedendo ai dati privati dell’utente: troppi i rischi per la privacy, secondo molti osservatori, se ne riparla più avanti. Situazione analoga per Apple che, dopo aver presentato Apple intelligence (con l’intelligenza artificiale all’interno dei suoi dispositivi in grado di interagire come un chatbot con mail, calendari e note dell’utente), ne ha rimandato il lancio in Europa in attesa di chiarire la compatibilità della proposta con le norme dell’Ai Act.
Per Google, con il suo algoritmo generativo Gemini, la sfida principale sta invece nella qualità delle risposte che tutti si aspettano dal principe dei motori di ricerca, a volte compromesse dal problema delle allucinazioni che viziano i modelli di Ai generativa: è bastato, per esempio, produrre l’immagini di un soldato nazista di colore, o svariate inesattezze su alcuni quesiti, per macchiarne la reputazione globale e affossarne il valore in Borsa. Quello che si perdona a una startup come Open Ai diventa inaccettabile per i prodotti di Mountain View.
Meta, l’ex Facebook, prova a sua volta a recuperare il ritardo in questa competizione, puntando sul rilascio del suo modello Llama3 in open source, aperto cioè al contributo di qualsiasi sviluppatore in totale trasparenza. E sulla linea dell’etica si muovono anche due aziende più recenti: Anthropic, fondata da due italoamericani fuoriusciti da Open Ai, i fratelli Amodei, che sviluppa un’Ai dotata in partenza, by design, dei principi etici e del rispetto alle norme europee; e Ssi, cofondata da Ilya Sutskever, uno dei padri di Open Ai in lite con Altman proprio perché contrario alla visione affaristica della società, e oggi promotore di un approccio legato a standard etici rigorosi, alla collaborazione tra i ricercatori internazionali e all’insegna della trasparenza e della responsabilità.
Chiude la corsa Elon Musk, che Open Ai aveva cofondato nel 2015 per poi uscirne in dissenso con Altman, e che lancia spesso allarmi sui pericoli dell’intelligenza artificiale per l’umanità: con la sua xAi (e il modello Grok) promette l’arrivo di algoritmi alternativi a quelli dei concorrenti, dal carattere – parole del fondatore – “umoristico e ribelle”, ma il fatto che addestri il modello sui post dell’ex Twitter desta parecchie perplessità. Fin qui la grande gara, quasi tutta in casa americana, a cui si aggiungono una quarantina di modelli prodotti in Cina di cui si sa poco e la timida presenza europea con la francese Mistral (finanziata anche da Microsoft) e la tedesca Aleph Alpha. Ma torniamo alle parole del papa.
Padre Benanti, da dove nasce l’interesse del pontefice su un tema apparentemente lontano dalla spiritualità?
È il terzo grande tema che il Papa sembra mettere in agenda del suo pontificato: ha iniziato a Lampedusa con i migranti, ha continuato con la "Laudato Si'" e quindi con l'ecologia, e ora chiude con l'intelligenza artificiale. Ma questi tre temi sono tenuti insieme da un unico grande elemento, che è l'enciclica "Fratelli tutti". Il Papa affronta le questioni prodotte dall'uomo che provocano divisioni e si fa messaggero di unità.
Cos'è che più preoccupa il Papa dell'intelligenza artificiale?
L'intelligenza artificiale, nella sua natura, è un moltiplicatore: là dove trova bene, moltiplica il bene; dove trova ineguaglianza, rischia di aumentare ancora più le divisioni. In questo senso, il mondo del lavoro, i conflitti a cui assistiamo oggi e la disuguaglianza tra nord e sud del mondo sono tre temi che stanno a cuore al pontefice. Questa tecnologia ci ha mostrato finora di avere il grande potere di amplificare gli sforzi umani. E la storia ci insegna, ahimè, che l'umano non sempre si applica nella giusta direzione. Tutti gli sforzi bellici che stiamo vedendo adesso potrebbero essere enormemente incrementati dall'intelligenza artificiale, nel selezionare i bersagli e nel creare armi sempre più micidiali.
E le altre minacce di questa tecnologia, secondo Bergoglio, quali sono?
Riguardano prevalentemente il mondo del lavoro. Lo sforzo per accumulare ricchezze, oltre quelle che sono giuste, oltre quelle che servono, potrebbe creare un amplificatore di disuguaglianze, creando nella società civile una frattura profonda. Con ricchi sempre più ricchi e poveri sempre più poveri. Il lavoro, che è lo strumento con il quale le persone possono vivere dignitosamente la loro esistenza, rischia di essere sempre più rimpiazzato dall'intelligenza artificiale, con lavoratori che potrebbero sentirsi dire che sono inutili o di scarto rispetto a un processo produttivo. Il Papa ribadisce con forza che non esistono esseri umani di scarto.
Quali sono invece le speranze di Papa Francesco rispetto a queste tecnologie?
La speranza più grande è che l'uomo, che nella fede riconosciamo come creatura di un creatore, faccia l'uomo, cioè senta dentro di sé quella chiamata a utilizzare tutti gli strumenti a sua disposizione per il bene. Pensiamo a quello che si può fare, per esempio, applicando queste tecnologie alla medicina: scoprire nuovi farmaci, curare nuove persone, donare agli anziani una nuova autonomia grazie a macchine sempre più in grado di assistere. Oppure, nel mondo del lavoro, liberare le persone dai lavori più usuranti e pericolosi, dando loro impieghi con maggior senso e migliori guadagni. Infine, pensiamo a tutti gli usi che si possono fare nell'educazione e nella didattica, consentendo in maniera più semplice e diffusa in tutto il mondo di raggiungere livelli più alti di istruzione e maggiore capacità di inserirsi in contesti democratici.
A fronte degli investimenti miliardari delle grandi compagnie americane, che speranze ci sono che le parole del Papa vengano accolte a scapito degli enormi profitti che queste tecnologie generano?
La Presidente del Consiglio dei Ministri, Giorgia Meloni, quando ha invitato il Papa, ha fatto cenno all'algoretica, cioè all'iniziativa nata in Vaticano sull'etica degli algoritmi. Quelle proposte hanno visto firmare grandi aziende, organizzazioni internazionali come la FAO, università e alcuni governi. È vero che le parole sono parole, ma le parole fanno cultura, e la cultura è in grado di muovere i popoli e i cuori. L'effetto ce lo dirà il futuro.