Banner Pubblicitario
06 Dicembre 2024 / 05:27
Quintarelli: «Ecco cos’è davvero l’intelligenza artificiale»

 
Sicurezza

Quintarelli: «Ecco cos’è davvero l’intelligenza artificiale»

di Massimo Cerofolini - 29 Novembre 2020
Parla il pioniere del digitale in Italia, Stefano Quintarelli, membro del gruppo europeo sull’Ai e ospite il prossimo 3 dicembre del workshop Bancaforte "La nuova frontiera dell'intelligenza artificiale generativa. Addio alla certezza di ciò che è reale?" all'interno di Banche & Sicurezza: «Basta con allarmismi e attese messianiche, si tratta di modelli di calcolo che osservano i dati della realtà e formulano previsioni su base statistica. Avranno impatti enormi sulla finanza, la salute, il cibo e ogni aspetto della vita. Ma dobbiamo fissare regole chiare dal punto di vista etico e giuridico».
Mettiamo da parte gli umanoidi malvagi usciti dalle pellicole di Hollywood, lasciamo stare anche le profezie catastrofiche o, al contrario, i proclami salvifici. Per comprendere cos’è l’intelligenza artificiale bisogna ripartire dalla sua definizione più neutra, senza effetti speciali, magari noiosetta, ma di sicuro efficace: semplicemente, è un meccanismo che osserva i dati della realtà, individua le correlazioni esistenti e sulla base di un calcolo costruisce regole statistiche e previsioni affidabili. Eppure, malgrado questo modello stia plasmando tutti i paradigmi del nostro vivere quotidiano, in pochi sanno sul serio come funzioni e con quali conseguenze. E allora, visto che il settore finanziario è uno dei più esposti all’uragano degli algoritmi, proviamo a fare un po’ di chiarezza con uno dei maggiori esperti italiani del tema, che sarà ospite il prossimo 3 dicembre del workshop Bancaforte "La nuova frontiera dell'intelligenza artificiale generativa. Addio alla certezza di ciò che è reale?" all'interno di Banche & Sicurezza.
È Stefano Quintarelli, pioniere del digitale in Italia, tra i promotori dello Spid (Sistema di accesso ai servizi della Pubblica amministrazione), presidente dell’Advisory group on advanced technologies per le Nazioni Unite (Cefact), membro del Gruppo di esperti sull’Intelligenza artificiale per la Commissione Europea, e coordinatore per Bollati Boringhieri della raccolta di saggi Intelligenza artificiale, un testo di facile comprensione su cosa sia davvero il mondo dell’Ai e quali i veri problemi da affrontare.

Professor Quintarelli, nel libro partite da un lungo excursus sui film di fantascienza che hanno sagomato il nostro immaginario quando parliamo di robot. Qual è il suo preferito?

Direi 2001 - Odissea dello spazio di Stanley Kubrick, un film visionario che anticipa tantissime conquiste che noi sperimentiamo ogni giorno, come la capacità delle macchine di riconoscere ciò che diciamo, di comunicare con linguaggio naturale o di interpretare le immagini, a partire dai movimenti labiali delle persone. Ci aveva preso quasi su tutto, Kubrick, tranne su un punto: quello in cui Hal si pone come una creatura autocosciente, che per un suo calcolo decide di uccidere i passeggeri dell’astronave. Nella sequenza finale, quando viene spento, il computer comincia a perdere lucidità, la sua voce si affievolisce, regredisce in un canto da bambino, come se avesse una consapevolezza di sé. Ecco, su questo il grande regista inglese era molto lontano dalla realtà.

I computer non possono avere sentimenti, lei scrive nel libro, neppure quando sembra che esprimano emozioni come la rabbia, come a volte capita di leggere nel messaggio dei chatbot che inquinano talvolta i social network. Siamo noi al limite che la interpretiamo come tale. Loro, i software, si limitano a fare soltanto calcoli statistici, mettendo in fila miliardi di dati sotto forma di due numeri: zero e uno. È così?

Sì. Io volevo intitolare il libro Rosso di sera, bel tempo si spera. Poi però, Piero Angela - che ha scritto l’introduzione – mi ha detto che così le vendite sarebbero state un flop e abbiamo deciso di cambiare con un richiamo più diretto al tema. Il senso però rimane valido: perché questo proverbio, espressione di una saggezza popolare, è di fatto un modello statistico generato dall’osservazione della realtà. Proprio come gli algoritmi di cui oggi parliamo. Cioè, nel tempo, le persone hanno notato che esiste una correlazione costante: se la sera prima il cielo è rosso, il giorno successivo di regola arriva il sole. Questa cosa succede una, due, tre, mille volte, fino a che qualcuno si inventa il proverbio. E non occorre capire il fenomeno fisico o quello meteorologico, che pure esistono, ci basta constatare la presenza di questo rapporto regolare tra due fattori. Sta di fatto che la correlazione funziona: osservo la realtà, vedo il rosso di sera e il bel tempo di giorno, estraggo il modello, lo distillo, postulo un’ipotesi e a questo punto uso lo stesso modello per fare nuove predizioni. Ad esempio: se stasera non c’è rosso, che tempo farà domani? Probabilmente non sarà bello. Ecco, il termine "probabilmente" è molto accurato perché nel modello statistico, a differenza di quello matematico tradizionale dove 2 più 2 fa sempre 4, il risultato sarà: "più o meno" 4. Questa è la sintesi dell’intelligenza artificiale, del machine learning, dell’apprendimento da parte delle macchine. Si prendono dei dati dalla realtà e da questi si derivano dei modelli statistici usati per fare nuove predizioni.

Sgombrato questo equivoco, l’altra apprensione diffusa quando si parla di intelligenza artificiale è che prima o poi finisca per superarci in capacità mentali, o magari per prendere il sopravvento sulla razza umana. Cosa c’è di vero?

Quando noi abbiamo cominciato a usare le calcolatrici le chiamavamo calcolatori intelligenti. E se leggiamo i giornali dell’epoca è pieno di articoli serissimi che denunciavano il rischio di una perdita delle nostre facoltà, infiacchite dall’automatismo del nuovo strumento. Oggi le calcolatrici sono delle innocue app dentro il cellulare e nessuno immagina più conseguenze tragiche del loro uso sulle sorti umane. Ecco, il principio ora è lo stesso: quando affidiamo a un computer un compito, lui lo sa svolgere su una grande quantità di dati in modo estremamente più veloce di come possiamo fare noi. Quindi una volta che le insegniamo a fare una cosa, la macchina è molto più brava di noi su quello specifico compito. Peccato però che se noi addestriamo un modello a fare le previsioni del tempo, poi non gli possiamo chiedere neppure quanto fa 2 più 2, perché lui non lo sa fare. Né possiamo chiedere a un performante aspirapolvere intelligente Roomba di giocare a scacchi come il cervellone Ibm, o viceversa. Certo, alcune persone ritengono che un domani si potrebbe inventare qualcosa che oggi non conosciamo, un’intelligenza artificiale generale, un supercomputer che consente di fare qualunque cosa meglio di noi, imparando sempre da solo. Ma questa è solo una speranza di pochi, un atto di fede, per il momento privo di basi scientifiche. Il grosso dei ricercatori si ferma alla realtà dei fatti, che è molto diversa.

E qui entriamo in quella che gli informatici chiamano «intelligenza artificiale ristretta», ossia applicata a specifiche esigenze in determinati ambiti. Dal mondo bancario alla diagnostica medica, dalle auto senza pilota alla galassia dei suggerimenti che arrivano dai motori di ricerca, dai social network o dalle piattaforme come Netflix e via dicendo. Lei mette prima di tutto in evidenza i benefici di questi software, come nel caso della scoperta del vaccino anticovid, della qualità del cibo, della difesa dell’ambiente, della lotta alla povertà e alle discriminazioni, delle tecnologie per le persone con disabilità. Ma per molti, a dispetto di questi vantaggi, è più forte il timore di una secca perdita dei posti di lavoro, dovuta all’automazione di molte attività. Come stanno davvero le cose?

La questione ritorna sempre nella vicenda umana, dove ogni innovazione ha spazzato via il mondo che lo precedeva, ma a conti fatti sempre con un guadagno netto da ogni punto di vista. Oggi le autostrade le costruiamo con le ruspe e non con i cucchiai. E la storia dell’evoluzione tecnologica ha sempre teso a ridurre la fatica delle persone e a renderle più produttive. L’intelligenza artificiale non fa differenza. Il punto è capire se il saldo tra i lavori tagliati e quelli creati sia positivo o meno: la risposta, secondo quasi tutti gli osservatori, è che sia positivo. Ci saranno più posti di lavoro guadagnati che persi. Naturalmente si tratta di lavori altamente sofisticati che sostituiscono quelli più ripetitivi. E bisognerà formare velocemente le persone su nuove competenze. Occorre poi fare attenzione. I sistemi digitali possono automatizzare alcune funzioni, non i lavori. Perché, come nel caso della previsione sul rosso di sera, gli algoritmi sono tagliati per fare bene un’unica funzione, soltanto quella. Il lavoro di una persona invece è composto da tante funzioni: se una di queste è monotona e replicabile verrà probabilmente automatizzata, ma quella è esattamente la parte alienante del lavoro di cui vorremmo liberarci. Tutti ci ricordiamo Charlie Chaplin in Tempi moderni che continua a ripetere sempre lo stesso gesto con le chiavi inglesi sui bulloni alla catena di montaggio. Qualcuno rimpiange quel modello lì? All’orizzonte stanno nascendo nuovi mestieri legati alla gestione dei dati: mediatori tra chi sviluppa l’algoritmo e le aziende, allenatori e traduttori delle macchine, ispettori dei processi e via dicendo. A questo nuovo mondo dobbiamo guardare con fiducia.

E a proposito di mestieri che cambiano, a Banche & Sicurezza lei parlerà di una bomba che sta per esplodere nel campo informatico: il cosiddetto Gpt3, il più potente modello di generazione di linguaggio esistente, creato dal laboratorio OpenAi e commercializzato da Microsoft: a partire da un pugno di parole iniziali, il sistema riesce a completare non solo la frase, ma un intero discorso, dandogli senso compiuto e rendendolo plausibile come se l’avesse scritto un umano.

Il Gpt3 è un modello che è stato addestrato con 175 miliardi di parametri, cento volte circa più della versione precedente, ed è in grado, a partire da poche parole, di ricostruire frasi sensate che per noi hanno un significato. Però, di nuovo, per la macchina, quello che per il lettore è un testo comprensibile, sono soltanto una serie di correlazioni statistiche. Certo, c’è la possibilità che un umano non riconosca se quel testo sia stato scritto con o senza intenzioni. È come quando guardiamo le nuvole e ci vediamo l’immagine di un cavallo: per noi conta qualcosa, ma la nuvola non sa di somigliare a un cavallo. Idem le macchine.

Le applicazioni del Gpt3 in arrivo sono tante: sistemi di raccomandazione per i servizi online, sintesi di manuali, scrittura di documenti legali e report finanziari, servizi di customer care. Ma, come al solito, accanto a questi lati positivi c’è il rischio di mettere in moto una macchina di falsi del tutto verosimili capaci di turbare, per esempio, il mercato azionario. Per non parlare degli altri sistemi di generazione automatica di contenuti, in grado di imitare una voce a partire da pochi secondi di audio o di ricostruire un video plausibile sulla base di poche immagini di un volto. Cosa prevede?

Questo è l’ambito dell’intelligenza artificiale che a mio avviso avrà il maggiore impatto sugli utenti: l’imitazione di voci, volti, espressioni e immagini. La tecnologia oggi permette di ricostruire la voce di una persona, con il suo stesso timbro, elaborando pochi secondi di un suo campione sonoro. E questo pone ovviamente un grosso problema: vai a sapere, per esempio, se un’intercettazione telefonica è vera o falsa, oppure se chi ordina un bonifico con Alexa è davvero il titolare del conto. Il tema dell’identità delle persone è centrale, così come la custodia della nostra identità. È probabile che non ci potremo più fidare delle immagini che vediamo online né degli audio che sentiamo, solo perché somigliano all’originale. Dovremo trovare il modo per ottenere la certezza della fonte e di tutta la catena di custodia e di distribuzione di queste informazioni. Oltre a soluzioni tecnologiche, bisogna pensare a risposte di tipo culturale: le nuove generazioni, mi basta osservare le mie figlie, sono già consapevoli del fatto che ciò che si trova online può non essere attendibile come sembra. Per le altre generazioni c’è da rivalutare l’importanza di verificare sempre la fonte di ciò che troviamo in rete.

Altro nodo degli algoritmi è la presenza dei cosiddetti bias, i pregiudizi che la macchina può assorbire o dalle idee dei programmatori o dallo storico dei precedenti, che magari penalizzano chi abita in una certa zona, chi appartiene a un’etnia o a un genere particolare. Ma altri errori possono arrivare da una certa ottusità dei sofware. Lei nel libro ricorda il mito del Golem, la creatura artificiale presente nella letteratura ebraica, che interpreta alla lettera l’ordine di prendere l’acqua e finisce per allagare la città. Come evitare questo pericolo?

Il lavoro sui dati è enorme. E la raccolta non può essere separata dalla qualità con cui questa viene eseguita. Ricordo il caso di un addetto alla classificazione di un servizio con voti da 1 a 5 che, per pigrizia, pigiava sempre il tasto con il 3, quello più vicino al tasto enter. Ecco, se queste attività vengono associate per esempio ad algoritmi per la cura medica, c’è il rischio di partorire risultati dannosi sulla salute delle persone. Se non vogliamo che il software generi correlazioni spurie bisogna sempre garantire la qualità di come i dati vengono raccolti, classificati e processati.

Ma quando le scelte si complicano, che imput bisogna dare alla macchina? Per esempio, nel caso di un’auto senza pilota che sta per schiantarsi contro un pedone, l’algoritmo deve salvare il malcapitato o il guidatore?

Qui entriamo nel campo dell’etica. Ma l’etica la devono avere le persone che addestrano i modelli e che scelgono i dati. Credo che difficilmente vedremo in ambienti cittadini auto che si guidano da sole. Perché è l’ambiente stesso a essere facilmente attaccabile. Se io metto un cartello all’inizio della mia strada che segnala una velocità massima di 5 chilometri l’ora, sono sicuro che non avrò più passaggi di macchine senza guidatore sotto casa, perché queste sceglieranno vie a scorrimento più veloce. La situazione è complessa: si possono fare attacchi non solo orientati al sistema, o al modo in cui questo è stato addestrato, ma si può attaccare l’ambiente esterno e questo non è facilmente proteggibile. Ecco perché ritengo che le macchine non si troveranno mai a dover scegliere sul momento se salvare il pedone o il passeggero.

E dunque?

Dunque spetterà sempre all’uomo la scelta. Ritengo che le persone dovranno essere sempre alla guida, certamente con il supporto positivo dell’intelligenza artificiale, e che ogni decisione finale debba essere in capo all’uomo. Senza scelte etiche da programmare prima: semmai sarà un giudice a valutare successivamente la legittimità dei comportamenti per come si sono svolti. Vorrei però aggiungere una cosa. Queste sono tecnologie ridurranno tantissimo gli incidenti sulla strada, con o senza pilota, e non possiamo guardare i pochi casi limite per bloccare un processo che ha esiti complessivamente positivi. Se riusciamo a diminuire i morti per incidenti da mille a cento, per la società sarà un bene, anche se questo consolerà poco i familiari delle restanti vittime. Alla fine, credo che il modo per uscirne sia un po’ quello usato con i farmaci: li prendiamo per curarci e nella quasi totalità dei casi funzionano, ma sul bugiardino siamo messi di fronte a una certa percentuale di effetti collaterali e di situazioni critiche, che in linea di massima accettiamo come possibili.

Quanto alla responsabilità giuridica, chi paga i danni causati dagli errori degli algoritmi?

È molto complicato. Non c’è una regola unica che va bene per tutto. Occorreranno nuove norme con fiumi di interpretazioni. Non può essere tutto bianco o tutto nero. Pensiamo alla raccolta dei rifiuti fatta con i sistemi di riconoscimento automatici: se ogni tanto la macchina sbaglia e manda un tappo di plastica all’inceneritore poco male, ma se il risultato è una nuvola di diossina le responsabilità crescono. Idem nel caso in cui l’algoritmo assegni, per esempio, a una donna un salario ridotto rispetto al collega uomo, consolidando uno storico sbagliato. Molto dipende dal tipo di errore fatto. Concludo con un’immagine: se io mi coltivo l’orto per la famiglia nessuno mi dice niente, se però vendo la mia verdura ho bisogno di qualche licenza, se poi voglio trasformare i miei ortaggi in pillole per la nutraceutica avrò bisogno di altre autorizzazioni, che cresceranno se le molecole della mia produzione finiscono in un farmaco. Ecco dalla carotina che coltivo nell’orto alla morfina distribuita in ospedale l’umanità ha elaborato strati su strati di regole che si sono evolute nei secoli. Con l’intelligenza artificiale dobbiamo fare tutto più in fretta, ma l’approccio sarà lo stesso.
Scopri qui il programma e i relatori di Banche & Sicurezza 2020   Iscriviti gratuitamente e segui l’evento sulla piattaforma dedicata
TASSAZIONE 2024_Banner Medium
ALTRI ARTICOLI

 
Pagamenti

Simona Maschi: La natura ci insegna a interagire con la tecnologia

Il keynote speech della fondatrice del Copenhagen Institute of Interaction Design apre al Salone dei Pagamenti uno scenario visionario su come servizi...

 
Pagamenti

Patuelli (Presidente Abi): I pagamenti digitali? Un’opzione di libertà

Nella Sessione di apertura che dà avvio ai lavori della nona edizione del Salone dei Pagamenti, il Presidente dell’Abi, Antonio Patuelli, conferma...

 
Pagamenti

Pozzi (Banca Sella): "Cresciamo nei pagamenti puntando su innovazione tecnologica e relazione con il cliente"

In un mercato italiano che presenta ancora ampie potenzialità di crescita rispetto a quello europeo, Sella prosegue il suo sviluppo con un'offerta di...
Supervision, Risks & Profitability 2024
Supervision, Risks & Profitability è l’evento annuale promosso da ABI in collaborazione con DIPO dedicato...
Icona Facebook Icona Twitter Icona LinkedIn
Banche e Sicurezza 2024
Banche e Sicurezza è l’evento annuale promosso da ABI, in collaborazione con ABI Lab, CERTFin e OSSIF,...
Icona Facebook Icona Twitter Icona LinkedIn
Banner Pubblicitario