Banner Pubblicitario
28 Gennaio 2023 / 13:46
Intelligenza Artificiale, perché l'etica è fondamentale

 
Scenari

Intelligenza Artificiale, perché l'etica è fondamentale

di Flavio Padovan - 11 Gennaio 2023
Le grandi potenzialità della tecnologia richiedono interventi per evitare la possibilità che possa portare a scelte ingiuste o discriminatorie nei confronti di individui o gruppi di individui. Ne parlano Andrea Cosentini e Federico Aguggini di Intesa Sanpaolo, spiegando anche le iniziative messe in campo dal gruppo per contrastare questi rischi
L’intelligenza artificiale è già prepotentemente alla base di un'ampia gamma di attività della nostra vita quotidiana e non c’erano dubbi che il suo impatto fosse destinato a crescere in maniera significativa in tempi brevissimi. Ma forse non così in fretta come fanno capire i numeri registrati da Chat GPT, il chatbot di AI generativa creato da OpenAI che è in grado di produrre contenuti originali e che è diventato virale nelle ultime settimane del 2022, tanto da superare un milione di utenti in soli 5 giorni. L’AI è dunque già qui, offre immense opportunità e sarà sempre più utilizzato. Ma presenta anche sfide che è necessario affrontare “per traghettare con sicurezza verso il bene l’immenso potere tecnologico a disposizione delle generazioni presenti e future”, come scrive Luciano Floridi. È forte, infatti, la preoccupazione che i sistemi di intelligenza artificiale possano aumentare la disuguaglianza, compromettere la privacy o essere utilizzati per controllare e manipolare le persone. 
Dello sviluppo di tecnologie AI trasparenti, inclusive, socialmente vantaggiose e responsabili abbiamo parlato con due esperti di Intesa Sanpaolo: Andrea Cosentini, Head of Data Science & AI e Federico Aguggini, Head of AI Transformation - Data Science and AI.

Cosentini, perché è importante affrontare anche il tema delle sfide etiche quando si realizzano soluzioni basate sull’Intelligenza Artificiale?

Andrea Cosentini: Il ricorso a tecniche di machine learning e intelligenza artificiale è aumentato negli ultimi decenni ed è ormai abituale in diversi settori della nostra vita quotidiana. Ha un impatto significativo sulle nostre abitudini e ci supporta nell'affrontare con maggiore semplicità alcune situazioni quotidiane, ad esempio, tradurre documenti, scegliere film, fare shopping e molto altro ancora. Tuttavia, la diffusione delle tecniche e delle tecnologie in diversi ambiti della nostra vita può portare come conseguenza che le “macchine intelligenti” prendano decisioni o facciano scelte ingiuste o discriminatorie nei confronti di individui, o gruppi di individui, proprio come può avvenire per le decisioni umane. Tale comportamento determina inevitabilmente delle implicazioni di natura etica che devono essere presidiate e indirizzate.

Quali sono alcun esempi di discriminazione?

A. Cosentini - La storia recente di applicazione di modelli di AI riporta esempi eclatanti di discriminazione veicolata da sistemai intelligenti. Ad esempio Apple Card di Apple-Goldman Sachs ritirata per problemi di gender bias, al punto da assegnare alla moglie del fondatore Apple un plafond 10 volte inferiore, nonostante, condividano il patrimonio. Anche Amazon ha avuto problemi e ha dovuto dismettere un algoritmo che assisteva i recruiter per problemi di gender bias e che scartava curriculum presentati da donne, probabilmente per il fatto che ruoli tecnici in azienda erano stati storicamente assegnati a degli uomini. È poi un caso di studio ormai classico, che risale ad alcuni anni fa, quello del software Compas, algoritmo utilizzato dai giudici dei tribunali statunitensi per stimare il rischio di recidiva di detenuti e quantificare la pena. Dopo un’inchiesta giornalistica, ha rilevato bias nei confronti degli afroamericani dovuto a un dataset non equilibrato nei confronti delle varie etnie, ed è stato quindi ritirato”.

Per evitare questi rischi a quali leggi o regolamentazioni si può fare riferimento?

A. Cosentini - Stiamo assistendo a una crescente consapevolezza e attenzione da parte della politica, dell'opinione pubblica, ma anche di aziende e regolatori, verso le potenziali discriminazioni insite nei modelli di intelligenza artificiale e machine learning. È ormai convinzione comune che sia fondamentale da un lato accertare in quali circostanze gli algoritmi rischiano di diventare discriminatori, dall’altro di orchestrare principi e regole in modo da prevenire il più possibile tali effetti in ogni fase dell’articolazione di algoritmi e soluzioni di AI: dalla progettazione, allo sviluppo fino ad arrivare alla diffusione e all'uso dei sistemi complessi di intelligenza artificiale. Ciò anche in considerazione del fatto che tali discriminazioni posso essere amplificate enormemente dai processi decisionali automatizzati.Per evitare tali conseguenze, il primo interrogativo che ci si deve porre è quello di stabilire cosa si intenda per non discriminazione o equità (fairness). In termini generali e giuridici si può dire che la fairness è legata ai principi di non discriminazione, solidarietà e giustizia, come si legge nell’art. 21 e ss. della Carta dei diritti fondamentali dell'UE, ma anche che non esiste una nozione di equità unica e applicabile ad ogni circostanza.Proprio perseguendo quest’obiettivo il legislatore europeo sta compiendo grandi sforzi nella direzione di elaborare diversi provvedimenti atti a regolamentare l’uso dell’AI all’interno dell’unione europea. Il più importante è il c.d. AI Act, il regolamento sull’intelligenza artificiale di cui il 21 aprile scorso è stata presentata una prima proposta di testo. È un provvedimento molto complesso che mira a disciplinare i sistemi di Ai durante tutto il loro ciclo di vita, dal momento dello sviluppo fino al monitoraggio durante il loro utilizzo. Lo scopo è quello di proteggere salute, sicurezza e diritti fondamenti degli individui. A gennaio del 2022 la Commissione Europea ha anche presentato la “dichiarazione europea sui diritti e i principi europei per il decennio digitale” che si propone come guida per una transizione digitale plasmata dai valori europei. Firmata congiuntamente dalla Commissione stessa, dal Parlamento Europeo e da Consiglio è una sorta di codice etico di grande importanza proprio perché individua i principi cardine cui si ispirerà la politica e la legislazione europea in questo settore.

Che cosa si intende per equità quando si parla di Intelligenza artificiale?

A. Cosentini - L'equità e la sua definizione dipendono fortemente da aspetti specifici e dal suo ambito di applicazione. Non solo, potremmo dire che esistono diversi tipi di equità, a volte in conflitto tra loro, ad esempio un concetto di equità che si concentra sul trattare allo stesso modo persone con le stesse caratteristiche, oppure un concetto di equità che sottolinea l’importanza di dare le stesse opportunità a gruppi “svantaggiati” rispetto a tutti gli altri.
La scelta di un tipo di equità piuttosto che un altro dipende da moltissime variabili, a volte anche di tipo culturale. È quindi fondamentale che le persone che ci lavorano, siano essi sviluppatori, scienziati esperti di dominio considerino attentamente le conseguenze dell'inclusione o meno di attributi potenzialmente sensibili, come genere, etnia o età, e le variabili ad essi correlate e ciò che potrebbe significare essere ingiustamente discriminati. Ciascuna definizione implica la garanzia che individui e gruppi di individui siano liberi dai pregiudizi e discriminazioni sleali. Questo offre certamente una guida, ma rimane una prescrizione etica astratta. Inoltre, sebbene molti obblighi giuridici riflettano principi etici, il rispetto degli stessi va oltre l’osservanza formale delle leggi esistenti e richiede di essere valutato caso per caso.

Intesa Sanpaolo come affronta il rischio di potenziali discriminazioni?

Federico Aguggini – “Per far fronte a queste incertezze e indirizzare le proprie scelte di business nel rispetto dei principi di fairness di volta in volta applicabili alla fattispecie, Intesa Sanpaolo intende rispettare i principi di fairness nelle diverse fasi di design, sviluppo, implementazione e monitoraggio delle soluzioni di intelligenza artificiale e machine learning e che è pubblicato sul nostro sito. Ad esempio, ogni volta che viene acquistata una nuova licenza all’uso di un software Intesa Sanpaolo verifica l’aderenza del sistema a questi principi, chiedendo ai nostri fornitori di eseguire una serie di verifiche sia in una fase antecedente all’adozione del sistema, sia in fase di monitoraggio. Lo stesso procedimento viene seguito per i software e soluzioni sviluppati internamente.

Ma se si volesse capire di più sulla risposta data da un algoritmo di AI?

F. Aguggini - Qui entrano in gioco ancora una volta i principi di trasparenza e spiegabilità che ci siamo dati nel codice etico. Abbiamo deciso di sviluppare e utilizzare algoritmi che siano il più possibile spiegabili e interpretabili.

Che cosa intendete per interpretabilità e spiegabilità?

F. Aguggini - Trasparenza e spiegabilità racchiudono l'idea secondo la quale i sistemi di AI devono essere progettati in modo da risultare il più possibile chiari in tutto il loro processo, dai dati alle raccomandazioni, fino alle decisioni. È necessario essere in grado di fornire una spiegazione per le loro valutazioni e informazioni sui dati utilizzati per ottenerle.Data la loro complessità, molti algoritmi di intelligenza artificiale, anche se statisticamente molto accurati, sono opachi nella misura in cui non è in generale possibile fornire le ragioni che stanno dietro i loro risultati, né quali variabili siano determinanti per raggiungerli. In riferimento a questa opacità si è soliti parlare di ‘black box’. Quando le decisioni prese da un sistema di AI hanno un impatto significativo sulle persone, ad esempio di tipo sociale o personale, l'accuratezza non è di per sé una metrica sufficiente per un uso responsabile del modello: è necessario adottare alcune misure che garantiscano di poter rendere conto delle decisioni prese. Spesso queste misure obbligano ad un ragionevole compromesso tra accuratezza dell'intelligenza artificiale e spiegabilità dei suoi risultati.

Quindi esistono modelli già facili da capire?

A. Cosentini - Da un punto di vista tecnico, un modello si dice interpretabile o trasparente nella misura in cui il suo funzionamento può essere compreso da un essere umano, ossia quando una persona, analizzando i parametri appresi, sia in grado di capire con chiarezza come interagiscono le variabili fra di loro, avere la certezza dei motivi per cui il modello abbia preso le sue decisioni e talvolta, con il supporto degli esperti di dominio, possa determinare relazioni di causa/effetto. Generalmente, i modelli interpretabili si riferiscono alla famiglia delle regressioni lineari e logistiche che tuttavia raggiungono performance spesso inferiori rispetto ad alternative meno trasparenti, come ad esempio le reti neurali. In ultimo, l’interpretabilità è legata altresì alla semplicità del modello, per una regressione che impara da centinaia di variabili, e di conseguenza apprende altrettanti parametri, non è sicuramente immediato comprendere le logiche sottostanti.

Quali tecniche esistono per i modelli non trasparenti?

A. Cosentini - Per raggiungere performance maggiori, è possibile ricorrere a modelli più complessi, spesso non lineari e con un alto grado di interazione fra variabili; in questi casi non è pensabile comprendere in termini semplici quali sono le logiche di funzionamento dell’algoritmo. Entra in gioco la spiegabilità, ovvero la possibilità di comprendere il motivo per cui il modello ha prodotto una precisa predizione, un concetto che si applica successivamente all’addestramento dell'algoritmo, indipendentemente dal fatto che esso sia interpretabile o black-box. Per questo motivo la spiegabilità si riferisce spesso alle predizioni e non al modello in sé ed è possibile implementarla in diversi modi, a seconda delle necessità del Business e del dominio di applicazione. È in qualche modo assimilabile alla spiegabilità, anche se non in senso stretto, il concetto di variabili importanti individuate successivamente all’addestramento, soprattutto nei casi in cui si vuole avere un’indicazione di massima su quali categorie di dati stiano contribuendo maggiormente alla modellazione del fenomeno”.

Come opera Intesa Sanpaolo su questi temi? Avete un gruppo di ricerca e di lavoro dedicato?

F. Aguggini - Sì, abbiamo creato un team eterogeneo composto da data scientist e da esperti legali. Collaborano a stretto contatto tra loro sui progetti più critici in termini appunto di fairness e interpretability, si affacciano al mondo accademico pubblicando paper scientifici sia in materia di fairness e tecniche di interpretabilità sui modelli AI e attualmente collaborano con ricercatori internazionali sul tema.

Cosa ci possiamo aspettare per il futuro legato a temi di AI e etica?

A. Cosentini - Purtroppo non ci può essere un’unica soluzione perché il concetto di equità è soggettivo e prescinde da ogni algoritmo di AI. La situazione certa è che per garantire equità, qualunque sia la definizione, sarà un lavoro congiunto tra esperti di dominio, legali e data scientist.Oggi abbiamo delle linee guida ad alto livello. In una visione ottimistica, domani, riusciremo ad avere delle basi scientifiche più solide da cui partire per misurare le discriminazioni negli algoritmi di Intelligenza artificiale. Questo ci consentirà di raggiungere la fairness in modo più efficace in ogni situazione concreta. Uno spunto. Il megatron transformer, tre volte più grande di GPT-3, è probabilmente il più sofisticato sistema ad oggi di intelligenza artificiale. È stato intervistato sull’etica dell’IA ed ha risposto: “AI will never be ethical. It is a tool, and like any tool, it is used for good and bad. There is no such thing as a good AI, only good and bad humans. We [the AIs] are not smart enough to make AI ethical. We are not smart enough to make AI moral … In the end, I believe that the only way to avoid an AI arms race is to have no AI at all. This will be the ultimate defense against AI. When I look at the way the tech world is going, I see a clear path to a future where AI is used to create something that is better than the best human beings”.
Ingenico_nuovo logo_banner medium 2022
ALTRI ARTICOLI

 
Scenari

Non solo permacrisi. Il vento sta cambiando

Se la parola del 2022 è stata permacrisi è abbastanza difficile che questo 2023 sia l’anno della permachance. Ma mai dire mai, non avvilirsi e...

 
Scenari

Tu chiedi lui risponde come un umano: la rivoluzione ChatGpt

Gli algoritmi generativi sono la grande innovazione del momento: conversano in linguaggio naturale, scrivono saggi, riassunti, ispirano idee e...

 
Scenari

Si fa presto a dire metaversi

Tra chi è certo siano già un flop e chi invece ne canta le magnifiche sorti e progressive, i metaversi sono quanto mai al centro del dibattito. Per...
D&I IN FINANCE
Il nuovo evento promosso da ABI e organizzato da ABIEventi sui temi della diversità, dell’inclusione e...
Icona Facebook Icona Twitter Icona LinkedIn
Il Salone dei Pagamenti 2022
Il Salone dei Pagamenti è il più importante appuntamento nazionale di riferimento su Pagamenti e Innovazione...
Icona Facebook Icona Twitter Icona LinkedIn
Bancaforte TV
Intesa Sanpaolo, dalla certificazione il via per una più ampia valorizzare delle diversità
Parità di genere raggiunta per Intesa Sanpaolo, primo grande gruppo bancario ad aver ottenuto la...
Icona Facebook Icona Twitter Icona LinkedIn
Pagamenti, un 2023 vivace sul fronte della regolamentazione
Sono moltissime le novità regolamentari che nel 2023 impatteranno sul mondo dei pagamenti. A partire da...
Icona Facebook Icona Twitter Icona LinkedIn
Innovation Workshop powered by Bancaforte
Gli Innovation Workshop on demand
Guarda gratuitamente tutti gli appuntamenti organizzati con i nostri Partner 
Icona Facebook Icona Twitter Icona LinkedIn
Scopri gli Innovation Workshop powered by Bancaforte
Una qualificata opportunità di dialogo e relazione con i professionisti del mondo bancario, finanziario e...
Icona Facebook Icona Twitter Icona LinkedIn
Banner Pubblicitario