Anche le macchine devono avere un'etica
-
30 Settembre 2019
Intervista a Francesca Rossi, scienziata nel campo dell’intelligenza artificiale e global leader di IBM per l’etica dell’Ai
Ci sono più motivi di apprensione o di speranza dal sempre maggiore utilizzo dell'intelligenza artificiale nella vita quotidiana? Perché anche le macchine devono avere un'etica? Che impatto avrà questa tecnologia sulla nostra società, sulle persone, sul modo in cui lavoriamo e comunichiamo? Che ruolo devono avere la politica? Sono alcuni dei temi che affronta Francesca Rossi, scienziata nel campo dell’intelligenza artificiale e global leader dell’Ibm per l’etica dell’Ai, nel libro “Il confine del futuro. Possiamo fidarci dell’intelligenza artificiale?” da poco pubblicato da Feltrinelli. Abbiamo incontrato l'autrice, che è anche membro del Gruppo di esperti nominato dalla Commissione europea sull'intelligenza artificiale, per capire come la comunità scientifica e le istituzioni stanno affrontando le legittime preoccupazione che sono da sempre legate a cambiamenti profondi come quello legato a questa tecnologia. E, insieme, quali sono le reali potenzialità dell'AI, anche nel mondo finanziario.
Professoressa Rossi, partiamo dal titolo del suo libro: possiamo fidarci dell'intelligenza artificiale?
“I film di Hollywood e i titoli di giornali non aiutano le persone a formarsi un'opinione corretta su questo tema. Bisogna innanzitutto dire che i benefici che l'intelligenza artificiale sta portando e porterà sempre più in futuro sono rilevanti. Ma se deleghiamo alle macchine decisioni che hanno impatto sulla vita delle persone, ci deve essere trasparenza e attenzione all'etica. Le preoccupazioni sono legittime, ma la comunità scientifica e le istituzioni stanno lavorando per prevenire i rischi. Che, al di là delle suggestioni cinematografiche, sono collegate al modo in cui le macchine vengono programmate, agli eventuali pregiudizi culturali di chi le sviluppa, alle buone prassi di che le commercializza, al corretto utilizzo finale. Il libro che ho scritto è rivolto ai non esperti, per offrire una visione sul futuro e un quadro più realistico di quelle che sono le capacità e i limiti di questa tecnologia, superando i preconcetti che arrivano da suggesitioni legate a Terminator e co.”
L'intelligenza artificiale, quindi, come tecnologia che abilita nuove possibilità alle persone?
“Sì, è una tecnologia che già adesso aiuta l'uomo a fare meglio, a capire meglio, a risolvere problemi che altrimenti non saprebbe risolvere. Ed è già presente in modo massiccio nella nostra vita, sia privata sia professionale. La utilizziamo, spesso inconsapevolmente, quando scattiamo una foto, facendo acquisti con le carte di credito, usando il navigatore, facendo ricerche online. Ci accompagna da quando ci svegliamo la mattina a quando andiamo a letto la sera, permettendoci di compiere attività nuove o di gestire meglio attività tradizionali. Quello che è poco conosciuto dai non esperti è che c'è una grande complementarietà tra uomo e intelligenza artificiale. Noi siamo molto più bravi a farci le domande, ad individuare le questioni importanti, siamo più intuitivi e creativi; l'AI, invece, riesce a dare un senso all'enorme quantità di dati da cui siamo circondati e che noi non riusciamo a gestire bene, è in grado di trovare pattern che noi non vediamo e quindi ci aiuta a prendere decisioni migliori. Da qui l'interpretazione, di IBM ma non solo, dell'intelligenza artificiale come “augmented intelligence”, come strumento che aumenta, migliora ed è complementare all'intelligenza umana, piuttosto che come intelligenza autonoma”.
Si parla sempre più spesso di “super intelligenze”...
“Non esistono, se le intendiamo come macchine che sanno fare tutte le cose che sanno fare le persone, che sanno passare da un problema all'altro, imparando quando risolvono un problema per poi riutilizzare quanto appreso per un problema differente. Concretamente non ci sono ancora queste macchine e la mia idea è che non ci saranno ancora per molto tempo, perché sono tante ancora le sfide tecnologiche da risolvere per arrivare a queste capacità. Però l'intelligenza artificiale, per problemi molto specifici è già più “capace” di una persona, ma in quella che chiamiamo AI "narrow" o debole. È qui che emerge la grande complementarietà con l'uomo che dobbiamo imparare ad utilizzare. Ci sono esempio in campo medico che mostrano come l'integrazione tra uomo e intelligenza artificiale dà risultati molto superiori, anche in campi quali la diagnosi di malattie in cui anche una piccola percentuale in più ha un impatto positivo molto rilevante”.
Considerato le potenzialità dell'AI e l'impatto che avrà sempre di più sulla nostra società, sulle persone, sul modo in cui lavoriamo, comunichiamo e viviamo ogni giorno, abbiamo già formato una visione di lungo periodo, un pensiero consolidato su come gestirla e guidarla verso obiettivi positivi? Che ruolo stanno svolgendo la politica e le istituzioni in questo campo?
“Sono state avviate molto iniziative per indirizzare la tecnologia verso obiettivi positivi. Anche se più che della tecnologia, dovremmo occuparci dei suoi usi. Le preoccupazioni sono legittime, ma stiamo imparando a gestirle mano a mano che l'intelligenza artificiale si evolve. Ad esempio, molto si sta facendo sulla “fairness”, sulla capacità di prendere delle decisioni senza pregiudizi, senza creare disparità. O, ancora, sulla capacità di spiegare le proprie decisioni e i suggerimenti che offre. Anche questo è un punto molto importante perché è difficile fidarsi finché sarà vista come una “scatola nera”. Ugualmente rilevante è la gestione dei dati personali: in Europa grazie alla GDPR abbiamo un quadro chiaro, mentre in altri parti del mondo c'è molta preoccupazione su questo aspetto. I policy maker sono coinvolti, ma le leggi sono solo uno dei modi con cui si può regolamentare e indirizzare l'intelligenza artificiale affinché abbia impatti positivi sulla società. E forse non è nemmeno il più efficace, perché la tecnologia cambia velocemente e sfugge così alla regolamentazione. Poi ci sono gli standard, le best practice, le linee guida, le certificazioni, i sistemi di audit. Il tema della “fiducia” è presente in quasi tutte le iniziative che sono state lanciate. Fiducia da una parte verso la tecnologia, nel senso che dobbiamo essere sicuri - ripeto - che l'AI non faccia discriminazioni, sia trasparente, sappia spiegare le proprie decisioni, ecc. Ma fiducia anche verso chi la tecnologia la produce e verso chi la utilizza nelle varie attività. Per questo serve procedere con un approccio che sia multidisciplinare e multi-stakeholder. Non è un tema che possono risolvere solo gli esperti di intelligenza artificiale, ma devono partecipare e portare il loro contributo anche sociologi, psicologi, economisti, ecc. Il Gruppo di esperti nominato dalla Commissione europea, di cui faccio parte, è stato formato proprio seguendo questi due principi”.
Delle potenzialità e dei rischi dell'intelligenza artificiale nel mondo finanziario IBM parlerà anche al Salone dei Pagamenti 2019, di cui è partner. L'appuntamento è al MiCo di Milano il 6,7 e 8 novembre.