Banner Pubblicitario
22 Dicembre 2025 / 16:15
Banco BPM, la pianificazione diventa predittiva

 
Scenari

Banco BPM, la pianificazione diventa predittiva

di Flavio Padovan - 22 Dicembre 2025
Con Nowcast, Banco BPM integra intelligenza artificiale e machine learning nel ciclo di pianificazione e controllo, trasformando la previsione mensile in uno strumento operativo, governabile e ripetibile. La piattaforma Board diventa l'infrastruttura che rende possibile questa evoluzione, riducendo i tempi di lavoro da giorni a ore e abilitando decisioni quando il mese è ancora aperto. Un percorso raccontato nell'Innovation Workshop di Bancaforte con il contributo diretto dei protagonisti del progetto
Anticipare la chiusura economico-contabile del mese con due settimane di anticipo e un margine d'errore così contenuto da trasformare una previsione in una base di lavoro credibile. È l'ambizione, diventata realtà, che Banco BPM ha portato al centro del controllo di gestione, industrializzandola in un modello predittivo operativo e ripetibile. E non si tratta di un "pilota" di intelligenza artificiale confinato a un laboratorio, né di un algoritmo consultato occasionalmente. Qui il punto chiave è l'innesto dell'AI e del machine learning nel ciclo mensile di pianificazione e controllo, fino a farne uno strumento consultato, verificato e utilizzato dal business per orientare scelte operative e direzionali. In altri termini: l'AI passa da iniziativa verticale a componente strutturale del processo.
Il racconto, dettagliato e concreto, è emerso nell'Innovation Workshop di Bancaforte realizzato in collaborazione con Board (guarda qui la registrazione integrale). A raccontare questo caso di studio che pone l'Italia all'avanguardia a livello internazionale sono Cristiano Perillo Marcone, Head of Commercial Network Planning, Control and Reporting di Banco BPM, Francesca Bolla, Senior Sales Executive FSI di Board, e Francesco Ballarini, Executive Manager Financial Services di SDG Group (qui per vedere la registrazione integrale dell'Innovation Workshop da cui è tratto questo articolo: https://t.ly/lOCgB)

La domanda "apicale" che cambia il ruolo del controllo di gestione

Il progetto prende avvio da una richiesta molto chiara del Chief Financial Officer: il controllo di gestione non deve limitarsi a spiegare a posteriori i risultati, ma contribuire a orientare le decisioni mentre il mese è ancora in corso. È un cambio di postura manageriale che sposta il focus dall'interpretazione all'anticipazione e, soprattutto, dall'analisi all'azione.
Perillo Marcone richiama quella indicazione del CFO, diventata un vero manifesto operativo in Banco BPM: «Non mi serve che il controllo di gestione arrivi dopo il bilancio a spiegarmi perché il mese è andato in un certo modo. Ho bisogno di saperlo prima». La richiesta è esplicita: creare uno "spazio di manovra" che consenta di intervenire prima della chiusura.
Questa esigenza mette in luce un limite dei forecast tradizionali. Per quanto strutturati e robusti, spesso non hanno la reattività necessaria per operare in finestre temporali molto strette, dove i dati si aggiornano di continuo e la velocità diventa parte integrante della qualità decisionale. È in questo spazio che Banco BPM ha cercato un modello capace di "correre" dentro il mese.

Nowcast: prevedere "adesso" in modo efficace con i dati disponibili

Il progetto è stato battezzato Nowcast perché la previsione viene costruita utilizzando i dati disponibili nel momento stesso dell'analisi. L'obiettivo è ridurre drasticamente tempi e complessità di una proiezione mensile che, in passato, richiedeva un intenso lavoro manuale.
Perillo Marcone spiega che l'iniziativa nasce da un'esigenza molto concreta: mettere insieme analisi su tassi, impieghi, saldi, spread, erogazioni e dinamiche di mercato comportava l'impegno di un team dedicato per diversi giorni. «Servivano in media tre o quattro persone al lavoro per tre o quattro giorni». Oggi quella complessità viene condensata in tempi nettamente più brevi.
Il cambio di paradigma, però, non riguarda la sostituzione del lavoro umano. La tecnologia assorbe le attività più ripetitive e dispendiose in termini di tempo, liberando risorse per l'interpretazione dei risultati, la validazione delle stime e le decisioni operative. È qui che si innesta il principio di "human in the loop": la previsione automatizzata diventa uno strumento affidabile solo se inserita in un processo governato e presidiato nel tempo.

Dal conto economico "macro" alle oltre 70 serie storiche: governare la complessità

Uno degli snodi tecnici centrali del progetto è stata la scomposizione del conto economico della rete commerciale in oltre 70 serie storiche. Ogni serie descrive un fenomeno specifico, con una propria stagionalità, una diversa sensibilità alle dinamiche di mercato e una reattività distinta alle leve commerciali.
Perillo Marcone sottolinea come dietro questa scelta ci sia un'esigenza molto concreta: «Ogni fenomeno commerciale ha un suo andamento nel corso del mese e dell'anno, una propria storia e una reazione diversa sia al contesto esterno sia alle iniziative commerciali». Ne deriva un'impostazione lontana da modelli unici e "monolitici": la previsione nasce dalla combinazione di più modelli, costruiti voce per voce, che insieme restituiscono una lettura più aderente alla realtà.
Completata la mappatura, per ciascuna serie vengono individuati i dataset di input realmente rilevanti per stimare la chiusura del mese. La qualità della previsione, in questo passaggio, non è solo una questione statistica ma soprattutto di conoscenza del business: saper distinguere i driver che incidono davvero sull'andamento di una voce da quelli che rischiano di introdurre rumore o distorsioni.

Sette anni di storia e discontinuità esterne: perché la manutenzione conta quanto il modello

Il progetto poggia su una base storica che parte dal 2018: sette anni di dati, con livelli di granularità differenti, attraversati da forti discontinuità macro e di mercato. Pandemia, inflazione, shock energetici, tensioni geopolitiche e cambiamenti nei regimi dei tassi sono entrati nella base informativa, mettendo alla prova la robustezza dei modelli nel tempo.
Perillo Marcone richiama un principio spesso sottovalutato nei progetti di intelligenza artificiale: l'affidabilità non è un risultato definitivo, ma una condizione da presidiare. «Non è un traguardo che si raggiunge una volta per tutte», spiega, perché modelli che funzionano bene in un determinato contesto possono perdere efficacia quando il contesto cambia. In particolare, le transizioni di regime - come quelle sui tassi - rendono indispensabile un lavoro continuo di verifica e aggiornamento.
Da qui la necessità di incontri ricorrenti e controlli sistematici, sia sull'esattezza sia sulla precisione delle stime, per contenere errori e dispersioni che rischierebbero di minare la credibilità del processo verso il CFO e verso gli utilizzatori interni. È in questo passaggio che il tema tecnico diventa governance: senza fiducia nei numeri, il modello non entra stabilmente nei processi decisionali.

Precisione e dispersione: la soglia che decide se un modello "vive" in produzione

Un altro punto chiave emerso nel workshop riguarda i criteri di selezione dei modelli. Perillo Marcone introduce una distinzione operativa netta: non basta ridurre l'errore medio, occorre governare la dispersione degli errori. In pratica, è preferibile un modello con scostamenti contenuti e stabili rispetto a uno molto accurato in media, ma soggetto a errori occasionali elevati.
«La dispersione è rilevante quanto la precisione», sottolinea, perché l'affidabilità nel tempo è ciò che rende possibile costruire processi di anticipazione coerenti. Se una previsione sbaglia in modo significativo anche solo in alcuni casi, l'impatto non è solo numerico ma reputazionale, e diventa immediatamente un freno all'adozione.
L'immagine del "giro veloce" chiarisce bene il concetto: quando il risultato deve arrivare in tempi rapidi, non tutto può essere controllato in corsa. La manutenzione si fa "ai box", con un lavoro metodico sui modelli, per garantire che, una volta rientrati in pista, possano sostenere il ritmo operativo. È la differenza tra costruire un modello e metterlo davvero in esercizio.

Perché Board: continuità di piattaforma e integrazione dei cicli di pianificazione

La scelta della piattaforma Board non nasce con il progetto Nowcast, ma affonda le radici in un percorso di lungo periodo. Banco BPM utilizza Board dal 2012, quando l'esigenza principale era mettere ordine e solidità nel processo di budgeting del gruppo, riducendo la dipendenza da fogli Excel complessi, difficili da governare e potenzialmente esposti a rischi operativi.
Come spiega Perillo Marcone, l'adozione iniziale fu indirizzata dal Dipartimento IT, ma ciò che ha determinato la continuità nel tempo è stata la capacità della piattaforma di accompagnare l'evoluzione delle esigenze del business. Board non è rimasta confinata al budget, ma si è progressivamente estesa ad altri ambiti, fino a diventare oggi l'ambiente unico in cui convivono budget, forecast e nowcast. È questo, sottolinea Perillo Marcone, uno degli elementi distintivi: la possibilità di confrontare in modo immediato risultati previsionali costruiti con logiche diverse, mantenendo coerenza, tracciabilità e governance del dato.
Il valore della piattaforma emerge soprattutto nella capacità di integrare processi che, in molte organizzazioni, restano separati o gestiti con strumenti differenti. In Banco BPM la pianificazione non è una sequenza di esercizi isolati, ma un ciclo continuo che richiede confrontabilità, versioning, controllo delle assunzioni e rapidità di lettura. Board funge da "regia" del processo: governa i workflow, centralizza le informazioni e rende accessibili gli output a tutti gli attori coinvolti, dal controllo di gestione al management.
Dal punto di vista architetturale, la scelta è altrettanto significativa. Board è l'interfaccia operativa del business: è qui che l'utente lancia le elaborazioni, analizza i risultati, confronta scenari e produce la reportistica. Il calcolo statistico e predittivo avviene in R, richiamato e orchestrato dalla piattaforma. Questa separazione tra motore di calcolo e ambiente di lavoro è un elemento chiave, perché consente di integrare modelli avanzati di AI e machine learning senza rompere il flusso operativo né costringere il business a cambiare linguaggio, strumenti o modalità di lavoro.
In questo modo l'intelligenza artificiale non vive "a lato" del processo, ma resta incardinata all'interno della pianificazione, sotto controllo e con piena trasparenza. È una differenza sostanziale rispetto a soluzioni puntuali o sperimentali, spesso basate su strumenti esterni che producono output difficili da integrare nei cicli decisionali. Qui, invece, la piattaforma diventa il punto di convergenza tra dati, modelli, processi e decisioni.
È anche per questo che, dall'analisi del progetto al centro del workshop, Board emerge non come semplice tecnologia abilitante, ma come infrastruttura che rende possibile la messa a terra di modelli predittivi complessi, garantendo continuità, governabilità e scalabilità. Un requisito essenziale perché l'AI possa diventare parte strutturale del controllo di gestione e non restare un esercizio avanzato, ma isolato.

La lettura di Board: "single point of truth", processi e decisioni nello stesso ambiente

Francesca Bolla inquadra con chiarezza la complessità dello use case di Banco BPM: molte variabili da governare, grandi volumi di dati, modelli predittivi avanzati e, soprattutto, la necessità di convergere su risultati affidabili, trasparenti e utilizzabili dal business. In questo contesto, la piattaforma è abilitante perché nasce per la pianificazione integrata e riduce le frizioni tipiche tra dati, processi e decisioni.
«In un unico punto di riferimento abbiamo dati da fonti eterogenee, modelli di calcolo, machine learning, workflow approvativi, reportistica direzionale e simulazioni», spiega Bolla. È questa integrazione a trasformare Board nel "single point of truth" del processo: un ambiente in cui le previsioni vengono costruite, validate e restituite in modo coerente, con dashboard di accuratezza e output immediatamente fruibili dalle funzioni coinvolte.
Il valore non è solo tecnologico, ma organizzativo. Avere processi, dati e modelli nello stesso ambiente significa garantire tracciabilità, confrontabilità tra versioni e disciplina di utilizzo. La previsione non resta un esercizio isolato o un file parallelo, ma entra stabilmente nel ciclo mensile di pianificazione e controllo, alimentando decisioni con continuità e metodo.
Anche il passaggio culturale è centrale. «L'AI non è un elemento esterno, si innesta nei processi già consolidati», osserva Bolla. È questa continuità che accelera l'adozione e rafforza la trasparenza: il business non deve imparare un nuovo linguaggio o inseguire strumenti separati, ma trova l'intelligenza artificiale dove già lavora.

"Human in the loop": l'equilibrio tra automazione e responsabilità

Bolla insiste su un principio decisivo per l'adozione nel settore bancario: l'automazione deve rafforzare, non sostituire, la responsabilità umana. La piattaforma deve consentire di mantenere il controllo, evitare l'effetto black box e permettere al controller di leggere i driver, individuare anomalie e validare gli output.
«Il modello è potente ma non è una black box», afferma, chiarendo che la scalabilità del progetto dipende proprio da questo equilibrio tra automazione e governabilità. La macchina accelera l'elaborazione e amplia la capacità di analisi, ma la certificazione del risultato resta in capo alle persone.
È un punto che trova piena conferma anche nelle parole di Perillo Marcone: l'output va sempre verificato prima di essere distribuito, perché «la credibilità è sulle persone». In una funzione come il controllo di gestione, dove la previsione anticipata per definizione non coinciderà con il consuntivo finale, il vero asset diventa la solidità del metodo e la responsabilità del presidio umano.
In questo senso, la piattaforma non è solo uno strumento di calcolo, ma un fattore di fiducia: rende leggibile il modello, strutturato il processo e sostenibile nel tempo l'uso dell'intelligenza artificiale all'interno della governance aziendale.

Il contributo SDG: competenze miste e un framework per evolvere

Francesco Ballarini ricostruisce l'execution del progetto individuando alcuni snodi che ne hanno reso possibile l'industrializzazione. In primo piano c'è la composizione del team: competenze di dominio e competenze tecnico-scientifiche hanno dovuto convivere in modo stabile, per parlare la stessa lingua del business e, allo stesso tempo, progettare, addestrare e mantenere modelli affidabili nel tempo. Servono persone che conoscano in profondità le dinamiche dei prodotti e dei servizi che alimentano il margine di intermediazione, così come le metriche tipiche della pianificazione e del controllo, ma servono anche profili capaci di padroneggiare data science e tecnologia. In questa prospettiva, il progetto non procede come una staffetta tra funzioni, ma come una co-costruzione continua, in cui competenze diverse lavorano insieme fin dall'inizio.
Accanto alla dimensione organizzativa, Ballarini richiama l'impostazione metodologica. Lavorare voce per voce su oltre 70 componenti del conto economico significa affrontare una complessità che non si governa con soluzioni ad hoc. È per questo che è stato determinante operare dentro un framework scalabile e flessibile, in grado di evolvere nel tempo. L'obiettivo non era costruire singoli modelli performanti, ma evitare che il sistema diventasse fragile, difficile da estendere e quindi oneroso da mantenere. La parola chiave, sottolinea, è proprio framework, non singolo modello.
Sul piano tecnologico, infine, la sfida riguarda la gestione delle fonti informative e l'integrazione dei modelli nel flusso operativo. Il progetto ha dovuto combinare dati eterogenei, non solo quelli tipici del controllo di gestione, ma anche informazioni provenienti da CRM e da altre sorgenti operative. Ballarini precisa che l'integrazione tra R e Board non è stata la principale complessità: le vere sfide sono state garantire la trasparenza dei modelli e l'interpretabilità degli output, condizioni indispensabili perché il risultato fosse utilizzabile e accettato dal business.

Dallo scetticismo alla routine operativa

Perillo Marcone racconta senza filtri la fase iniziale del progetto, segnata da scetticismo, dubbi sull'accuratezza e timori legati alle cosiddette "allucinazioni". Un passaggio che evidenzia come la sfida non sia solo tecnica, ma anche organizzativa e culturale.
«I primi risultati erano oggettivamente affetti da distorsioni importanti», ammette. La differenza l'hanno fatta la pazienza, la disciplina e un lavoro costante di manutenzione e affinamento dei modelli. Nel tempo l'errore si è ridotto, si è stabilizzato e ha perso le distorsioni sistematiche, fino a rendere lo strumento utilizzabile senza compromettere la credibilità del controllo di gestione.

I risultati: accuratezza, tempestività, efficienza (e un effetto inatteso)

Perillo Marcone sintetizza il valore del progetto lungo alcune dimensioni chiave che ne chiariscono l'impatto operativo. In primo luogo emerge il tema dell'accuratezza. Sul margine di interesse, nell'80% dei casi l'errore si mantiene entro l'1%; sulle commissioni e sul margine servizi della rete, più volatili per natura, lo scostamento resta entro il 3%. È un risultato particolarmente significativo perché riguarda grandezze sensibili, su cui ridurre l'incertezza fa la differenza nel momento in cui si devono prendere decisioni.
Accanto all'accuratezza si colloca la tempestività, intesa come equilibrio consapevole tra anticipo e affidabilità. La stima al 15 del mese fornisce una prima indicazione; quella al 22, spiega Perillo Marcone, rappresenta già un compromesso efficace e "non molto diverso" dal dato di fine mese. Per questo viene diffusa e utilizzata come base nei ragionamenti decisionali, quando esiste ancora un margine concreto di intervento.
Un ulteriore beneficio riguarda l'efficienza operativa. Il passaggio da diversi giorni di lavoro manuale a circa due ore di elaborazione - a cui si aggiungono analisi e reporting - consente di aumentare la frequenza delle proiezioni e di liberare risorse da attività ripetitive per concentrarle su attività a maggior valore. È in questo snodo che emerge l'industrializzazione del processo: tempi standard, ripetibilità e capacità di rendere la previsione una routine.
Infine, il progetto ha prodotto anche un effetto operativo in parte inatteso. Il modello funziona come una forma di "controllo controfattuale", capace di intercettare anomalie nei consuntivi. Perillo Marcone cita un caso concreto: un errore nel calcolo dei consuntivi gestionali è stato individuato proprio perché il Nowcast restituiva un risultato incoerente, facendo scattare un approfondimento. In questo senso, la previsione contribuisce anche a migliorare la qualità del dato consuntivo.

Decisioni abilitate dall'anticipo: dalla governance del mese alle leve commerciali

Il valore dell'anticipo cresce quanto più il mese resta "governabile". Perillo Marcone porta due esempi che chiariscono il legame diretto tra previsione e azione. Il primo riguarda il livello di governance CFO: se intorno al 22 del mese emerge che il reddito della rete non sarà allineato a obiettivi o aspettative, diventa possibile valutare interventi di stabilizzazione, compresa la gestione di leve come le plusvalenze sul portafoglio titoli.
Il secondo esempio è più vicino alle strutture operative e commerciali. L'anticipazione consente di indirizzare l'attività verso prodotti o iniziative in grado di compensare scostamenti attesi, con una finestra temporale utile - almeno una settimana - per incidere concretamente sul risultato finale. Il principio è chiaro: la previsione crea valore solo se arriva quando è ancora possibile intervenire.
Perillo Marcone aggiunge anche un caveat rilevante. Alcune leve, come il contributo del risultato netto finanziario, sono osservate con particolare attenzione dagli analisti, che tendono a privilegiare la capacità "core" di generare commissioni. Proprio per questo, sottolinea, l'anticipo sulle componenti commerciali e ricorrenti assume un valore ancora più strategico.

AI e controllo di gestione: un'integrazione ancora rara

Alla domanda su cosa renda unica questa esperienza di Banco BPM, Francesca Bolla risponde con un criterio operativo molto concreto: la collocazione dell'intelligenza artificiale all'interno del processo. «Qui l'AI entra nel cuore del controllo di gestione», spiega. Non si tratta di un output consultato occasionalmente, ma di una base ricorrente che alimenta in modo strutturale il ciclo mensile di pianificazione e controllo.
Bolla amplia poi la riflessione sul piano culturale. «Non è un esercizio sperimentale, è un vero cambio di paradigma». In molte organizzazioni l'AI resta confinata a progetti verticali o specialistici - dalla classificazione documentale all'analisi di portafoglio, fino a piccole previsioni costruite in Excel. In questo caso, invece, cambia il modo di decidere perché cambia quando e come l'informazione arriva: in anticipo, con frequenza e dentro i processi decisionali ordinari.
Francesco Ballarini aggiunge una seconda chiave di lettura, legata alla tempistica del percorso. Il progetto nasce concettualmente già nel 2018 e prende forma operativa dal 2021, ben prima dell'attuale accelerazione dell'attenzione sull'intelligenza artificiale. Questo anticipo ha contribuito a rendere l'esperienza poco confrontabile con altri casi oggi osservabili e, allo stesso tempo, ha permesso di costruire nel tempo un impianto più maturo, oggi potenzialmente replicabile.
Perillo Marcone, infine, riporta il racconto su un piano pragmatico, chiarendo che alla base del progetto non c'era l'ambizione di "fare i precursori", ma la necessità concreta di rispondere a un'esigenza operativa non più rinviabile. È questa urgenza concreta ad aver guidato le scelte, più che l'ambizione di anticipare il mercato.

Le evoluzioni: trimestre, modelli ensemble, autoadattività e gestione degli shock

Per sua natura, un progetto di questo tipo non si può dire mai "concluso". Perillo Marcone colloca una prima linea di sviluppo nell'estensione dell'orizzonte temporale: dal mese al trimestre, in coerenza con le esigenze di comunicazione verso mercato e analisti. Un passaggio che richiede scelte metodologiche nuove, perché cambiano dinamiche, driver e livelli di stabilità delle serie.
Accanto al tema dell'orizzonte, emerge poi l'opportunità di far lavorare più stimatori in parallelo. L'idea è costruire ensemble di modelli, con meccanismi di ponderazione basati sul track record dei singoli stimatori, per aumentare la stabilità delle previsioni e il grado di autoadattività del sistema. In questo modo si può ridurre la dipendenza da interventi manuali, mantenendo però un solido presidio di governance umana.
Un ulteriore fronte di evoluzione riguarda la gestione degli shock esterni. Eventi esogeni possono rendere improvvisamente non più valide alcune relazioni statistiche apprese dal modello. Perillo Marcone propone una lettura efficace: in certi casi l'"allucinazione" nasce dall'input, quando il contesto cambia radicalmente, come accaduto, ad esempio, con i tassi negativi. Rafforzare la robustezza del sistema significa anche riconoscere più rapidamente queste rotture di regime e adattare di conseguenza i modelli.

Consigli per chi vuole avviare progetti simili: sponsorship, dati, perimetro e tempo

Dalle domande arrivate durante il workshop è emerso con forza il tema della replicabilità: come avviare iniziative analoghe e con quali prerequisiti. Perillo Marcone individua alcuni punti fermi, a partire dalla sponsorship. Si tratta di un progetto lungo, che attraversa più cicli organizzativi e richiede continuità di ownership anche quando strutture, priorità o persone cambiano. Senza un presidio stabile, il rischio è che l'iniziativa si fermi prima di produrre valore.
Il secondo prerequisito è la qualità del dato. Non solo in termini di accuratezza puntuale, ma di omogeneità strutturale nel tempo. Se la base informativa non è "in ordine", un modello predittivo non può restituire output affidabili. È un richiamo concreto al lavoro spesso invisibile di data management, manutenzione e disciplina operativa, che rappresenta la vera infrastruttura di qualsiasi progetto di AI.
Il terzo punto riguarda l'approccio: partire in modo incrementale. Significa iniziare da perimetri più governabili - come alcune componenti del margine di interesse - consolidare l'affidabilità del modello e solo successivamente estendere l'ambito a voci più volatili o complesse.
Il quarto elemento è l'accettazione del tempo. «Se non sei in grado di accettare che servono quattro o cinque anni, è meglio non partire». È un messaggio che ridimensiona aspettative spesso alimentate dall'hype e riporta l'AI in un contesto industriale, dove valore e affidabilità si costruiscono nel ciclo lungo, non nel progetto "spot".
Infine, la centralità del controllo umano. Il modello non incorpora interventi manageriali: produce una stima statistica. Spetta al team validarla, assumersi la responsabilità, certificarla e inserirla nei processi decisionali. È in questo passaggio che la previsione smette di essere solo calcolo e diventa governance.

Uno snodo poco citato ma rilevante: competenze nuove senza stravolgere i processi

Alla domanda arrivata dal pubblico sulla necessità di una trasformazione radicale delle strutture per avviare progetti di questo tipo, Perillo Marcone risponde distinguendo chiaramente tra processo e strumento. Il processo, in larga parte, resta invariato. Ciò che cambia è lo strumento, che accelera, rende ripetibile e stabilizza un'attività già esistente.
Il cambiamento, però, richiede competenze nuove. Marcone descrive un team composto da risorse interne, consulenti esterni e data scientist non continuativamente presenti, a testimonianza del fatto che servono capacità specifiche per governare modelli statistici, dati e cicli di manutenzione. L'AI non sostituisce le persone, ma alza l'asticella della professionalità richiesta.
È significativa anche un'ulteriore precisazione: non c'è un LLM, né un'interazione linguistica. Il modello "dialoga" esclusivamente attraverso dati in input e output di conto economico, con livelli di errore noti e presidiati. In un contesto operativo ripetitivo, è una scelta pragmatica: la domanda è sempre la stessa, ciò che cambia sono i dati.

Un benchmark operativo, non un racconto aspirazionale

Il caso Banco BPM restituisce una traiettoria concreta: una domanda manageriale chiara, una base storica solida, una scomposizione granulare delle voci, la scelta di una piattaforma capace di integrare AI e processo, un team misto business-data science, manutenzione continua e presidio umano costante. È la combinazione di questi fattori che trasforma la previsione in uno strumento di governo del mese, e non in un esercizio statistico.
Per il settore bancario, il messaggio è altrettanto concreto: l'AI funziona quando entra nei processi, quando è governabile, quando è misurabile e quando non pretende di sostituire la responsabilità, ma la rafforza, rendendo possibili tempi e frequenze decisionali prima impraticabili. È in questo passaggio che l'innovazione smette di essere un progetto e diventa routine.
 
 
GUIDA ALLA TASSAZIONE 2025_Banner Medium
ALTRI ARTICOLI

 
Banche e Cultura

"Restituzioni", opere d’arte e d’ingegno come bene comune

Al Palazzo delle Esposizioni di Roma approda per la prima volta il programma di Intesa Sanpaolo di salvaguardia e restauro. Le 117 opere esposte...

 
Sicurezza

Quando la sicurezza diventa una responsabilità condivisa

Il confronto agli Stati Generali della Sicurezza, la firma del Protocollo tra ABI e Prefettura di Roma e i dati dell’Osservatorio Intersettoriale...

 
ESG

Compensare o non compensare: una questione di consapevolezza

Nel percorso verso la neutralità climatica, la compensazione delle emissioni non è una scorciatoia tecnica ma una scelta strategica. Il mercato...
Il Salone dei Pagamenti 2025
L’appuntamento internazionale made in Italy sulle frontiere dell’innovazione nei pagamenti
Icona Facebook Icona Twitter Icona LinkedIn
Bancaforte TV
Torriero (ABI): “Un Salone dei Pagamenti di nuovo record. Ma soprattutto partecipato”
Oltre 16.000 presenze in tre giorni, 400 relatori e 92 sessioni: numeri che raccontano il successo del Salone...
Icona Facebook Icona Twitter Icona LinkedIn
Attanasio (ABI): “La moneta diventa digitale, serve accompagnare i cittadini nel cambiamento”
Mentre si chiudono i padiglioni del Salone dei Pagamenti 2025, tra gli stand ancora animati dai saluti finali...
Icona Facebook Icona Twitter Icona LinkedIn
Banner Pubblicitario