Agentic AI: l’equilibrio tra fiducia e tecnologia
di KPMG
-
3 Febbraio 2026
L'analisi sugli impatti che la wave Agentic AI avrà sui modelli operativi, in particolare nell'industria finanziaria.
Il dibattito sull'Intelligenza Artificiale è sempre più acceso. Agli entusiasti si affiancano sempre più soggetti dubbiosi e l'avvicinarsi di ogni trimestrale dei grandi operatori tecnologici è vissuta con preoccupazione.
Come in tutte le grandi discontinuità tecnologiche, le aspettative sono sempre fortemente anticipate rispetto al livello di maturità effettivo raggiunto. Ciò nonostante, c'è consapevolezza che soprattutto la wave Agentic AI avrà un impatto significativo sui modelli operativi, in particolare nell'industria finanziaria. Dopo averli sperimentati, però, vi è una domanda decisiva che non dovrebbe essere procrastinata e che non riguarda tanto cosa possono fare gli agenti, bensì che cosa siamo davvero disposti - e pronti - a delegare.
Finora la delega all'AI è stata soprattutto esecutiva: si scrive un prompt e si ottiene un output. All'inizio i risultati non erano pienamente soddisfacenti e quindi l'attività di controllo e verifica fonti era continua. Con il rilascio dei nuovi modelli, sempre più puntuali dal punto di vista narrativo e analitico, la necessità di verificare i risultati di un prompt si è molto attenuata connettendosi al livello di maturità del singolo. Con l'AI agentica, però, si delega il ragionamento, ossia la capacità di pianificare e attuare decisioni per raggiungere un obiettivo nel tempo. È qui che avviene il vero salto, perché non stiamo più chiedendo all'AI di rispondere, ma di decidere come arrivare ad un risultato. Questo muta radicalmente l'attenzione e la consapevolezza necessaria: l'errore non è più immediatamente visibile, ma può nascere in modo marginale e manifestarsi nel lungo periodo.
In questo contesto, emerge quello che spesso viene definito "paradosso della fiducia": quando un sistema inizia a dimostrare una maggior affidabilità, il presidio umano tende ad affievolirsi. Il rischio non è perdere il controllo quando l'AI sbaglia, ma quando ha ragione troppo spesso.
Per banche e assicurazioni la sfida non è solo organizzativa, ma anche normativa: ogni decisione rilevante deve essere governabile, auditabile e ricostruibile nel suo razionale verso autorità di vigilanza e stakeholder. Implementare l'Agentic AI significa introdurre un livello ulteriore di complessità decisionale, che richiede confini chiari di delega, controllo e possibilità di intervento. Ma non potrà essere gestito esclusivamente da processi di controllo, dovrà fortemente radicarsi nella cultura e nei comportamenti delle persone perché questi meccanismi siano implementati a tutti i livelli dell'organizzazione.
Cogliere le opportunità offerte dall'AI richiede molto più di un semplice investimento tecnologico, ma necessita di un ripensamento della strategia e del modello operativo, oltre ad un quadro etico per la sua implementazione.