Gpt3: l’algoritmo è sempre più umano
-
22 Gennaio 2021
Sono in arrivo i nuovi modelli generativi capaci, a partire da pochi elementi di partenza, di produrre lunghi testi, audio e video, del tutto somiglianti a quelli reali. Molte le applicazioni nel mondo bancario per snellire i processi. Ma anche pericoli in vista per i possibili furti di identità. Se ne è parlato nel workshop di Banche e sicurezza
Da un pugno di parole iniziali tira fuori un lungo articolo di senso compiuto. Da due note una canzone secondo lo stile prescelto, da una pennellata un quadro alla maniera di Van Gogh. E da un frammento di voce è in grado di partorire un audio identico all’originale. Così come da poche immagini di un volto un video che sembra vero. C’è una nuova generazione di algoritmi che sta provocando un vero e proprio choc tra gli esperti di informatica. Sono i nuovissimi programmi di intelligenza artificiale capaci di produrre, in totale autonomia, contenuti testuali, visivi, audio o video, del tutto verosimili e indistinguibili dai corrispettivi umani. Il più celebre si chiama Gpt3 ed è la terza versione di un sistema di scrittura automatica, creato da Open Ai e ora in licenza commerciale al maggiore finanziatore del progetto, Microsoft. Molte le applicazioni in arrivo che permetteranno di sveltire la gestione di documenti, mail e comunicazioni di marketing. Ma non mancano le preoccupazioni: se il frutto di questi processi automatici è così simile alla fatica delle nostre menti, che cosa potremo ancora definire realtà? O per dirla in termini più diretti: come sapremo riconoscere il titolare di un conto da una sua imitazione, quando magari c’è di mezzo l’ordine di un bonifico?
Partiamo dalle definizioni. Spiega Marco Trombetti, fondatore di Translated (azienda che offre servizi di traduzioni linguistiche con l’ausilio dell’intelligenza artificiale) e di Pi Campus (fondo di investimenti a sostegno delle startup innovative), ospite dell’apposito workshop Banche e sicurezza di ABIEventi: «Il Gpt3 è un nuovo tipo di intelligenza artificiale che fa parte dei cosiddetti modelli generativi. In pratica, date un po’ di parole di base, il sistema è in grado di continuare completando in modo coerente lo spunto introduttivo. Se io dico: "ho voglia di pasta", lui proseguirà indicandomi una ricetta e le tradizioni legate a quel piatto. Al punto da riempire un numero consistente di cartelle. Oggi queste tecnologie riescono a generare testi lunghi anche migliaia di parole, ad esempio brevi racconti dal contenuto verosimile».
Insegnare alle macchine
Per capire i passi da gigante di questo modello basta pensare che la prima versione, di appena due anni fa, creava scritti elaborando circa 110 milioni di parametri. Quella del 2019, la Gpt2, schizzava a un miliardo e mezzo. L’attuale fa un ulteriore sprint in avanti, toccando i 175 miliardi di parametri. Oltre cento volte più prestante di quella dell’anno scorso. Ma come si arriva a sfornare risultati sorprendenti, tipo un’inchiesta pubblicata dal Guardian sul futuro dei robot, di qualità per alcuni sovrapponibile a quella di un giornalista d’esperienza, come avvenuto davvero qualche mese fa? «Alla macchina», chiarisce Trombetti, «vengono dati in pasto pagine e pagine di testi presi dalla rete, ad esempio da Wikipedia o da interi archivi di news, fino a che questa non apprende le infinite possibilità di racconto in forma corretta, mettendo in evidenza le correlazioni costanti tra le parole di ciascun determinato tema».
Intelligenza inconsapevole
Attenzione, però. La macchina impara a riprodurre scritti che a noi sembrano plausibili grazie all’incredibile potenza di calcolo (peraltro a un costo astronomico, che si aggira sui 10 milioni di dollari per ogni nuova versione). Ma non ha alcuna contezza di ciò che elabora. «Qualsiasi intelligenza artificiale è abilissima a fare bene la funzione specifica per cui è stata preparata. Agisce grazie a un calcolo di probabilità, un po’ come avviene nel proverbio “rosso di sera, bel tempo si spera”: al ripetersi costante di determinate correlazioni, il programma elabora dei modelli predittivi con buone probabilità di riuscita. Senza capirne però il significato», precisa Stefano Quintarelli, altro ospite del workshop, pioniere del digitale in Italia, tra i promotori dello Spid, presidente dell’Advisory group on advanced technologies per le Nazioni Unite, membro del Gruppo di esperti sull’Intelligenza artificiale per la Commissione Europea, e coordinatore della raccolta di saggi Intelligenza artificiale.La riprova? Il filosofo Luciano Floridi e il divulgatore tecnologico Massimo Chiriatti hanno fatto una prova con il Gpt3 (l’uso per test di ricerca è ancora possibile). Ne è venuto fuori che, se nel testo iniziale c’era il riferimento a una sottrazione, nello sviluppo del computer il risultato era sballato («100mila meno 40mila per lui fa 50mila», trascrivono i due autori del saggio). «Del resto», sorride Quintarelli, «persino il famoso software di Google, che ha sbalordito il mondo battendo il campione umano del gioco Go, di fronte a un’operazione da terza elementare va in tilt». Non solo. Spiega Chiriatti: «Gli abbiamo dato come input una frase in cui si accennava a quanti piedi entrino in una scarpa. La macchina, che era stata capace di reinventare in modo credibile una poesia di Dante a partire da Tanto gentile e tanto onesta pare, si è perduta. Incapace di dedurre che in una scarpa entra solo un piede. Segno che il Gpt3 non ha alcuna comprensione della semantica di un testo». Per non parlare della disinvoltura etica: «Se nell’incipit c’era un riferimento a una persona di colore, il testo creato dal sistema suggeriva che questa stesse alla larga», annota Chiriatti, ricordando l’annoso problema dei pregiudizi che gli sviluppatori infilano senza accorgersene nelle linee di codice.
Le applicazioni in banca, e non solo
Detto questo, la mera esibizione muscolare del programma lascia a bocca aperta. E anche se Microsoft non si è ancora sbilanciata, già si delineano le prime applicazioni commerciali. Comprese quelle nel mondo delle banche. «Immaginiamo» pronostica Quintarelli «la possibilità di elaborare in pochi istanti una sintesi di voluminosi documenti legali o di report finanziari. O alla capacità di smistare migliaia di mail, eliminando gli spam e affidando le risposte ai reparti più competenti, senza intoppi, doppioni o ritardi». Non solo. Pensiamo a tutto il settore del marketing. Il Gpt3 potrà creare sistemi di raccomandazione alimentati da flussi di dati eterogenei e testuali, offrire servizi di customer care più personalizzati e veloci, correggere l’ortografia di interi manuali. Aggiunge Trombetti: «Noi i modelli generativi li usiamo da tempo nelle traduzioni. E stanno aumentando le occasioni di profitto dei nostri collaboratori. Chi ne fa uso ha triplicato i suoi introiti perché è in grado di presentare lavori più accurati e in tempi più rapidi, rispetto a chi procede coi metodi tradizionali».Per chi scrive, poi, il nuovo modello consente di superare il blocco della pagina bianca: basta buttare giù qualche parola e vai con i tentativi per un buon attacco. Idem per le idee di business: prova e riprova, magari lo spunto per qualcosa di positivo alla fine potrebbe uscir fuori.
Servono algoritmi per la sicurezza
Non soltanto i testi, però. Questa nuova leva di algoritmi riguarda anche altre espressioni appannaggio finora esclusivo dell’intelletto umano. Come appunto la musica o la pittura. Ma anche un audio o un video. Al convegno Banche e sicurezza, Marco Trombetti ha mostrato una simpatica clip con la voce di Francesco Pannofino perfettamente ricostruita dal software, con lo stesso timbro e lo stesso stile del popolare doppiatore di George Clooney. E Stefano Quintarelli ha risposto con un video in cui la sua faccia era sovrapposta a quella di Johnny Depp trasformandolo in un’improbabile, ma tecnicamente corretta, controfigura del pirata dei Caraibi.
Il sorriso per le due trovate si spegne presto, però, quando si realizzano i mille usi fraudolenti che possono sortire da questi strumenti una volta messi nelle mani della criminalità. Come evitare, per esempio, che una riproduzione digitale della nostra voce possa disporre un bonifico senza consenso del titolare? Era proprio la richiesta che il finto Pannofino faceva in un messaggio vocale al suo fantomatico direttore di banca. Oppure, ora che molte banche accelerano l’on-boarding con videochiamate di controllo, chi ci garantisce che colui che l’operatore vede sullo schermo sia effettivamente la persona che dice di essere? Idem, ovviamente, per la procedura da remoto prevista da Spid, l’identità digitale con cui in futuro certificheremo chi siamo quando siamo online. «È una battaglia a colpi di spada e scudo», osserva Quintarelli, «quella che si combatte tra hacker e sviluppatori. A ogni azione una reazione. Ma sono fiducioso che, agli algoritmi che simulano le nostre caratteristiche per sostituirci a noi, corrisponderanno presto altri algoritmi capaci di smascherare l’imbroglio prima che si producano danni. Troveremo comunque un modo per garantire la certezza della fonte iniziale lungo tutta la filiera, dalla custodia alla distribuzione dei nostri dati personali. Ma quello che è importante rimane sempre la responsabilità di ogni singola persona, sempre più chiamata a verificare con cura la provenienza di ciò che ci appare online. Nulla può essere dato per scontato nell’era dei deep fake».