Banner Pubblicitario
27 Settembre 2020 / 03:02
Banner Pubblicitario
Taddeo: “Il futuro delle banche? Sempre più servizi e più protezione per i fragili”

 
Scenari

Taddeo: “Il futuro delle banche? Sempre più servizi e più protezione per i fragili”

di  Massimo Cerofolini - 28 Luglio 2020
Secondo la filosofa, docente di Etica del digitale a Oxford, gli algoritmi possono diventare uno strumento per aiutare gli utenti nelle necessità quotidiane e per proteggere le categorie più svantaggiate.  “La fiducia si mantiene sulla tutela dei dati personali”. Tre le parole chiave: privacy, trasparenza e affidabilità
“Primo: diventare sempre più un servizio. Secondo: utilizzare l’intelligenza artificiale per proteggere meglio i propri utenti. È su questo doppio binario che le banche sono chiamate a correre nei prossimi anni”. Parola di Mariarosaria Taddeo, professore associato all’Internet Institute dell’Università di Oxford e vicedirettore del Digital ethic lab, una delle ricercatrici più originali a livello mondiale nel mettere la filosofia al servizio dell’informatica. Due sfide, dunque, per accompagnare il mondo finanziario nell’era delle tecnologie digitali mature, dove algoritmi e sistemi di automazione avanzata prendono sempre più parte nelle decisioni. Ma come si educa un software a comportarsi correttamente verso noi umani in carne e ossa? E quali sono i nodi ancora da sciogliere? Ecco cosa ci ha risposto la studiosa.

Professoressa Taddeo, da filosofa in che modo le banche dovrebbero porsi di fronte alla grande trasformazione del digitale?

Credo che la sfida centrale sia quella del loro nuovo ruolo, sempre meno legato al posto fisico e alle prestazioni tradizionali, e sempre più aperto a organizzare servizi per la vita delle persone. In pratica la banca diventa un catalizzatore di servizi anche esterni, un mediatore a 360 gradi della vita sociale. Questo comporta un nuovo sforzo nel mantenere la fiducia dei consumatori. La quale, se prima aveva per oggetto la certezza di vedersi restituite le proprie somme di denaro, adesso va confermata soprattutto sulla sicurezza dei dati personali: la garanzia che gli aspetti più intimi di una persona siano adeguatamente protetti.  E dunque le parole chiave saranno tre: privacy, trasparenza e affidabilità.

E per quanto riguarda l’automazione, sempre più spinta dai software di intelligenza artificiale? Come cambierà la sfera d'azione degli istituti di credito?

Qui vedo soprattutto un ruolo propositivo da parte delle banche. La possibilità di profilare i clienti sta già aumentando l’efficienza dei servizi. A volte, però, i pregiudizi degli stessi programmatori che scrivono i codici finiscono per riflettersi sulle scelte degli algoritmi, con casi di discriminazione verso categorie più svantaggiate. Ecco, perché non ribaltare questa idea e immaginare che, proprio grazie ai big data, siano le banche stesse a proteggere i loro utenti più fragili? Immaginiamo cosa significhi, per esempio, conoscere la propensione di una persona al gioco d’azzardo, allo shopping compulsivo o alle richieste di credito esagerate: grazie all’intelligenza artificiale si potrebbe pensare a un meccanismo automatico che rilevi comportamenti a rischio e mandi un avviso prima che il destinatario compia qualcosa di sconsiderato. Oppure che rallenti le transazioni in determinati orari a rischio. Attenzione, non si tratta di parternalismo, perché non si vieta nulla. È solo quella che gli inglesi chiamano nudging, una spinta gentile, un consiglio amichevole per proteggere i più fragili e indirizzarli verso abitudini più sane. La banca sempre più come un amico sincero, insomma.

A proposito di intelligenza artificiale, il tema suscita spesso sensazioni contrapposte. C’è chi attribuisce a robot e algoritmi una potenza salvifica sui problemi del mondo, e abbiamo visto con il covid che non è sempre così, e chi – al contrario – paventa scenari apocalittici in cui le macchine rubano il lavoro agli uomini o li schiavizzano. Lei che da anni studia il tema da anni come la vede?

L’intelligenza artificiale e i robot sono diventati termini di uso comune grazie soprattutto alla fantascienza, libri e film che hanno creato un immaginario fantastico, tipo scaricare la nostra mente su un computer e continuare a esistere quando il corpo muore, da una parte, oppure, dall’altra, pensare che le macchine ci stermineranno tutti perché saranno più forti e intelligenti di noi. In realtà non è vera né una cosa né l’altra. L’intelligenza artificiale deve in realtà il suo interesse concreto al fatto che sia la prima forma di tecnologia nella storia umana che è autonoma: ossia capace di interagire e di imparare dalle interazioni con l’ambiente in modo da svolgere compiti e azioni che, quando eseguite da esseri umani, richiedono una forma di intelligenza. Ma in realtà l’intelligenza artificiale non fa altro che comportarsi ‘come se’ fosse intelligente. Di fatto non lo è. È come il compagno di classe che ripeteva la lezione a pappagallo, senza capirla. Era bravissimo a far finta di capirla, ma non la capiva. E l’intelligenza artificiale somiglia un po’ a questo allievo un po’ pedante che impara a memoria senza comprendere il senso di ciò che dice.

Ma come il compagno di banco un po’ ottuso, anche l’intelligenza artificiale può prendere forme per noi piacevoli e utili, o diventare una terribile minaccia.

È così, parlando di una tecnologia autonoma, e di fatto neutra, può essere utilizzata per scopi buoni o scopi cattivi. Ad esempio: da una parte abbiamo l’algoritmo capace di leggere migliaia di radiografie e riconoscere una malattia in maniera veloce ed efficace aiutando i medici in una diagnosi oppure la macchina che si guida autonomamente che porterà a una gestione migliore del traffico; dall’altra ci sono i killer robot, cioè macchine che possono decidere se e quando uccidere qualcuno in un contesto di guerra. Gli usi vanno da quelli più positivi a quelli più negativi. In più dobbiamo considerare che siccome queste macchine imparano, possono produrre dei comportamenti che non avevamo previsto a monte e che possono rivelarsi negativi.

Come si insegna a una macchina a guardare il mondo? Come si mettono gli occhi a un computer?

La visualizzazione è un modo di apprendere che si chiama deep learning, apprendimento profondo. E l’idea è quella di mostrare a questi agenti artificiali tantissime immagini ciascuna con un’etichetta: ad esempio, un miliardo di foto di cani con sotto la scritta “cane”, appunto, senza insegnare però al software qual è la parte che identifica l’animale rispetto allo sfondo. Il robot è così capace di estrarre le caratteristiche comuni a tutte queste immagini per imparare poi quali sono quelle specifiche del cane, del gatto o di un fiore. In questo senso fa un po’ quello che fa il bambino quando impara a dire cane perché, ogni volta che vede l’animale e lo indica, il genitore gli dà conferma. 

Però a differenza di un bambino, l’intelligenza artificiale non è dotata di intuizione e fantasia. Ad esempio, se gli facciamo vedere una tazza, le attribuisce la funzione a cui tutti pensiamo in prima battuta, ovvero contenere liquidi, ma a differenza di un umano non arriverà mai a concepire che la tazza possa diventare anche un portapenne. Come sopperite voi ricercatori a questa mancanza di immaginazione che limita le macchine?

Le macchine non hanno immaginazione perché non hanno comprensione. Apprendono una cosa per volta. Sono motori sintattici: imparano ad attaccare un simbolo al significato secondo la regola che ha dato il programmatore. È lui solo che può sopperire alla mancanza di fantasia, con degli aggiustamenti del codice, perché di loro le macchine non sono versatili.

Per quanto riguarda l’analogia col nostro modo di ragionare, negli ultimi anni i software hanno fatto discreti passi avanti nel riconoscimento vocale o nel tradurre le lingue straniere. Ma faticano a capire i linguaggi impliciti: se dico che è finita la carta della fotocopiatrice non deducono che bisogna sostituirla. Come ragionano le intelligenze artificiali?

Non comprendendo il significato vero dei simboli che manipolano e non avendo comprensione del contesto, non riescono poi ad astrarre e a capire le implicazioni di quello che si dice, per esempio il sottotesto. Eseguono brillantemente operazioni lineari e sono sofisticatissime, ma solo su operazioni specifiche: riconoscere il contenuto di una frase detta a voce, sì, ma non  quello che si vuol fare intendere. Noi studiosi diciamo che non hanno la semantica. In altri termini, provate a dire una barzelletta a Siri: per lei saranno sfumature prive di significato. 

Dopo la visione e il ragionamento, l’altro elemento umano che si cerca di innestare nella macchina è l’emozione. Qui a che punto siamo?

Qui siamo nella fantascienza. Dobbiamo fare una distinzione, però. Se vogliamo avere delle macchine che si comportano ‘come se’ avessero delle emozioni, per esempio in modo da assistere gli anziani o nel contesto di terapie psicologiche, ci sono dei robot che possono trasformare la mimica del viso per rispondere allo stato d’animo di chi sta loro di fronte. Ma è una semplice emulazione, non uno sviluppo dell’emotività. Le macchine non hanno niente di quello che permette la crescita della sfera emotiva: non c’è emozione, non c’è intuizione, non c’è comprensione del significato.

In generale cosa pensa che i robot possono fare per migliorare la nostra vita nel futuro?

Ce ne sono diverse, di opzioni, e ce ne saranno sempre di più. C’è per esempio il famoso progetto delle Nazioni Unite sugli obiettivi da raggiungere entro il 2030 per trasformare il mondo in un luogo migliore: di fatto è una guida per l’uso dei robot e dell’intelligenza artificiale a fini buoni, dalla raccolta della plastica nell’oceani al supporto della gestione dei raccolti nei Paesi in via di sviluppo per rispondere a possibili situazioni climatiche o per prevenire gli incendi. Il criterio da evidenziare è che l’utilizzo dei robot non può avvenire in modo istantaneo, ed è il motivo per cui in questa pandemia se ne sono visti pochi quando ne avevamo bisogno soprattutto negli ospedali. Perché la macchina possa operare serve prima predisporre l’ambiente. È vero che la tecnologia non è ancora pronta, ma anche l’ambiente intorno non è preparato a collaborare con questi nuovi soggetti. Immaginiamo i robot in una fabbrica: i luoghi che circondano queste macchine intelligenti sono concepiti per permettere loro di lavorare. Ecco dobbiamo ridisegnare tutti gli ambienti di vita e di lavoro in modo da rendere possibile l’operatività di questi strumenti tecnologici.

Una delle applicazioni di cui lei si è occupata è quella sui malati di Alzheimer.

L’intelligenza artificiale ha questa grandissima capacità di elaborare un enorme mole di dati ed estrarre informazioni, cosa impossibile per la mente umana. Per quanto riguarda l’Alzheimer sappiamo che nel 2050 affliggerà 115 milioni di persone e che è difficile da curare perché difficile da capire. Serve quindi usare tanti dati: e l’intelligenza artificiale può essere di grande aiuto.

Lei in particolare si occupa di etica dell’intelligenza artificiale. Un tema a voi caro è la cosiddetta black box, la scatola nera che contiene tutti i passaggi grazie a cui l’algoritmo arriva a una determinata conclusione non prevista da chi lo aveva programmato.

Il problema è che affidiamo alle macchine decisioni importati che hanno un impatto su di noi. L’auto che si guida da sola, la scelta del prestito di una banca, sono cose che l’Ai (artificial intelligence, ndr) contribuisce a definire. Con prospettive in larga parte positive. Dobbiamo essere però consci che ci stiamo fidando di una tecnologia che non possiamo comprendere fino in fondo: perché tra ciò che inseriamo come domanda e ciò che otteniamo come risposta ci sono processi che non siamo in grado di capire, né nel momento in cui avvengono né a posteriori. Se dall’algoritmo ci viene negato un mutuo non possiamo sapere le ragioni: per esempio, se perché abbiamo una brutta storia finanziaria o perché siamo donne dai capelli bruni. Sappiamo soltanto l’esito della sua decisione.

Come ovviare?

Attraverso un miglioramento della tecnologia, per prima cosa: queste macchine già oggi possono avere una black box più leggibile e trasparente, in modo da ricostruire i passaggi che portano a decisioni poco corrette. Ma soprattutto con processi di regolamentazione e governance dell’Ai: sapendo che l’intelligenza artificiale può avere conseguenze ingiuste occorre definire a monte regole che ci permettano di capire come correggere e come compensare le eventuali vittime.

Altro problema su cui lei indaga è quello della profilazione dei singoli utenti.

Molte forme di profilazione sono utili, perché possono aiutare noi clienti e le banche stesse a comprendere meglio di cosa abbiamo effettivamente bisogno. Il problema è che, essendo i codici scritti da esseri umani, possono riflettere visioni personali del mondo e dare origine a forme di discriminazione: è celebre un algoritmo di Google che anni fa mostrava annunci di lavoro su posizioni di alto livello soprattutto a utenti uomini, rifilando alle donne proposte di basso profilo. Una forma di profilazione in questo caso inaccettabile. Altro aspetto controverso è che la profilazione è di fatto una spinta costante verso alcune scelte che escludono altre. Con il rischio che, suggerimento dopo suggerimento, si rimanga confinati dentro una sfera di proposte che gli algoritmi fanno per noi, ma che non necessariamente sono la cosa migliore. Anche qui la soluzione è l’educazione degli utenti: essere consapevoli che i computer non sono oggetti magici, funzionano in questo modo e bisogna capirne la natura. E poi, di nuovo, servono processi di regolamentazione.

Per finire la domanda che le fanno più spesso. Le macchine ci sostituiranno sul lavoro?

Difficile dare una risposta scientifica, perché i dati a disposizione sono del tutto inconsistenti. Non lo sappiamo. Né quali lavori ci sostituiranno, fino a che misura e in che contesti. Di sicuro ci sarà sempre più un’integrazione di agenti artificiali e esseri umani nei posti di lavoro. E in questo vedo soprattutto un problema: ossia che, se deleghiamo sempre più compiti all’intelligenza artificiale, e dobbiamo stare attenti che gli esseri umani non perdano le capacità di eseguire quegli stessi compiti. Vogliamo avere dottori capaci di leggere le radiografie anche quando queste verranno lette solo dalle intelligenze artificiali. E poi c’è un altro punto. Abbiamo l’opportunità di delegare alle macchine compiti alienanti, ripetitivi e faticosi. Bellissimo. Potremmo presto ritrovarci con tantissimo tempo a disposizione: la sfida grande è che questo tempo liberato serva a supportare lo sviluppo delle persone. E a produrre un’umanità migliore. Altrimenti tra noi e le macchine ci sarà poca differenza.
 
 
 
 
ALTRI ARTICOLI

 
Banca

Il Muvir apre le porte dei Palazzi delle banche

Sabato 3 ottobre si tiene l’edizione 2020 di Invito a Palazzo, la manifestazione che apre le sedi delle banche e delle fondazioni di origine...

 
Banca

Bankitalia investe sulla consapevolezza finanziaria degli italiani

Magda Bianco, responsabile del Dipartimento che da giugno promuove la consapevolezza degli italiani su investimenti e mercati, spiega gli obiettivi...

 
Banca

La Bancassicurazione alla prova del new normal

I nuovi stili di vita accelerati dall’emergenza Covid chiamano l’industry a un cambiamento. Il 24 e 25 settembre, a Bancassicurazione 2020, le...
Alle porte di un cambiamento epocale
Pierpio Cerfogli, Vice Direttore Generale di BPER Banca, spiega il nuovo modello operativo ibrido di...
Icona Facebook Icona Twitter Icona LinkedIn
Approfondimenti
Digitale e green, ecco il progetto collettivo per ripartire
Intervista al filosofo dell’informazione Luciano Floridi: "Oltre l’80% del valore delle 500 maggiori...
Icona Facebook Icona Twitter Icona LinkedIn
Spunta, la blockchain può essere una rivoluzione
Savino Damico di Intesa Sanpaolo: "La Spunta oggettivamente rappresenta una pietra miliare nel panorama della...
Icona Facebook Icona Twitter Icona LinkedIn
Banner Pubblicitario