Banner Pubblicitario
02 Marzo 2026 / 13:20
 

 
Bancaforte TV

Sarrocco (Accenture): AI è un fattore di rischio da misurare e gestire

19 Giugno 2024

L'intelligenza artificiale sta avendo un impatto importante su tutta la società, e quindi anche sul mondo bancario, e lo avrà sempre di più. Fino a che punto si deve ed è possibile controllarla? Quali rischi ne deriveranno? Se ne è parlato nella sessione di apertura di Supervision Risks and Profitability 2024. Per Fabrizio Sarrocco, Strategy & Consulting Lead for Financial Services - Italy, Eastern Europe and Greece Accenture, “l’intelligenza artificiale rappresenta una rivoluzione copernicana. È giusto controllarla e con l’AI ACT è iniziato un percorso di conoscenza di questo nuovo fattore di rischio”.

Tra le complessità da affrontare c’è la natura dell’AI che, spiega Sarrocco, è il combinato disposto di tre elementi che convergono: la grande disponibilità di dati; la potenza computazionale; la capacità algoritmica. Per misurare il rischio dell’intelligenza artificiale sarà sicuramente possibile lavorare sui dati – ed è quello che AI ACT stimola a fare – sia nelle knowledge base di ingresso ai modelli, sia nell’output, cioè nei suggerimenti che i modelli producono come nuovi dati generati. Mentre avere un controllo totale della capacità algoritmica sarà la sfida dei prossimi anni.

Che cosa va fatto ora? “Entro i prossimi sei mesi dobbiamo avere la capacità di clusterizzare l'innovation technology distribuito nelle aziende nelle quattro aree di rischio che l’AI ACT suggerisce. Come farlo – sottolinea Sarrocco - è però un po' meno chiaro. Bisognerà lavorare per stabilire come applicare i principi della fairness, della trasparenza, dello human oversight e come tradurre questi principi in elementi pratici di modellizzazione concreta che ci porteranno a misurare e a gestire questi rischi”.

Il settore bancario si sta già muovendo. “E’ un tema trasversale all’organizzazione – precisa Sarrocco - che riguarda tutte le funzione di business e di governo, a partire dall’amministratore delegato. L’attuazione dell’AI Act sarà guidato da un lato dalle funzioni IT e Data office, dall’altro dalle funzione di controllo di secondo livello, quindi Compliance e Risk Management. Nei prossimi mesi saranno pubblicati 60 atti secondari che conterranno molti template che aiuteranno a costruire questo modello. È un percorso che richiede una pluralità di competenze e di stakeholder e le funzioni di controllo devono essere tra i primi attori ad essere coinvolti”.

 


di Flavio Padovan, Maddalena Libertini  - 
In una fase storica segnata da incertezza e trasformazioni profonde, cittadini e impr...
di Flavio Padovan, Maddalena Libertini  - 
Il 93% dei clienti si dichiara pronto a considerare offerte di servizi non finanziari...
Dall’intelligenza artificiale alla cybersecurity, dalla regolamentazione ai trend geo...
di Flavio Padovan, Maddalena Libertini  - 
Liliana Fratini Passi, direttore generale di CBI, fa il punto con Bancaforte sull’avv...
di Flavio Padovan, Maddalena Libertini  - 
È positivo il primo bilancio operativo della Verification of Payee (VOP), entrata rec...
La firma del nuovo Protocollo per la prevenzione della criminalità ai danni delle ban...
di Flavio Padovan, Maddalena Libertini  - 
L’ecosistema italiano dei pagamenti digitali entra nel 2025 con un quadro di maturità...
di Flavio Padovan, Maddalena Libertini  - 
Al Salone dei Pagamenti, parlare di innovazione significa inevitabilmente parlare di ...
 
1/425
ABICloud 2025 Blu_Medium
Il Salone dei Pagamenti 2025
L’appuntamento internazionale made in Italy sulle frontiere dell’innovazione nei pagamenti
Icona Facebook Icona Twitter Icona LinkedIn
Banner Pubblicitario