Banner Pubblicitario
08 Gennaio 2025 / 06:21
Pre-visioni 2025. L’algoritmo che decide, crea video e ci parla: il grande balzo dell’Ai

 
Scenari

Pre-visioni 2025. L’algoritmo che decide, crea video e ci parla: il grande balzo dell’Ai

di Massimo Cerofolini - 6 Gennaio 2025
Il 2025 consacrerà alcune delle applicazioni dell’intelligenza artificiale che hanno fatto capolino nel pirotecnico finale del 2024. Abbiamo tracciato una mappa di cosa è ragionevole aspettarci sul fronte dei nuovi algoritmi e che tipo di utilizzi ne verranno fatti. 
Chissà se un giorno il nostro aspirapolvere aprirà da solo un canale su YouTube, se i selfie scattati distrattamente finiranno in qualche museo d’arte o se il nostro assistente virtuale ci chiederà un aumento. Certo è che se questi esempi vi sembrano assurdi, pensate a quello che avreste detto appena pochi mesi fa nel caso aveste saputo allora quello che è già realtà in questi primi giorni dell’anno: algoritmi chiamati a prendere decisioni in autonomia, cellulari che dialogano con noi a voce come facciamo con un nostro amico, video di grande qualità creati senza l’uso di telecamere ma solo in esecuzione di qualche parola di testo. Sembrano fantascienza, eppure sono tutte esperienze ora possibili con pochi clic sul cellulare.
Già, perché una cosa appare sicura: il 2025 consacrerà, e porterà alle masse, alcune delle applicazioni dell’intelligenza artificiale che hanno fatto capolino nel pirotecnico finale del 2024 che ci siamo lasciati alle spalle. E allora, è possibile tracciare una mappa di cosa è ragionevole aspettarci sul fronte dei nuovi algoritmi e che tipo di utilizzi ne verranno fatti?
Dal lavoro all’intrattenimento, dalla salute ai trasporti e alle relazioni, non c’è praticamente ambito in cui l’intelligenza artificiale non stia accendendo i suoi motori. Ma mentre il mondo abbraccia il cambiamento, restano aperte molte questioni legate alla privacy, all’etica e a un’adozione consapevole. Ma andiamo con ordine.

Gli agenti autonomi

Se gli algoritmi generativi, come ChatGpt o Gemini, sulla base delle nostre richieste ci hanno finora fornito contenuti di vario tipo (testi, immagini, software o video), i nuovi agenti autonomi sono software progettati per operare in modo indipendente, prendendo decisioni ed eseguendo azioni per raggiungere obiettivi specifici senza bisogno di una supervisione umana continua. A differenza dei tradizionali chatbot o assistenti virtuali, che rispondono a comandi predefiniti, gli agenti autonomi possono analizzare l'ambiente circostante, apprendere dall'esperienza e adattarsi a nuove situazioni. Strumenti ideali, insomma, per gestire compiti complessi in ambienti dinamici.
Già oggi aziende come Salesforce hanno sviluppato agenti autonomi nel customer care, rendendoli capaci di fissare appuntamenti, analizzare i problemi e contattare potenziali clienti. Mentre Microsoft li ha introdotti per potenziare i propri team di vendita, servizio clienti, pagamento e supply chain, automatizzando operazioni complicate e migliorando l'efficienza operativa. Nel campo finanziario li vedremo sempre più spesso impiegati per rilevare frodi, valutare rischi, analizzare tendenze di mercato e fornire consigli per decisioni di investimento su ogni singolo utente.
In generale, però, gli agenti autonomi diverranno familiari anche nelle attività comuni. OpenAI infatti, la società di ChatGpt, a metà gennaio dovrebbe lanciare Operator, un modello in grado di controllare i computer e operare in autonomia (ma un progetto simile lo ha presentato Anthropic con Claude): se c’è da organizzare il compleanno dei bambini, per dire, sarà il software a preparare gli inviti personalizzati, prenotare una sala, ordinare la torta in pasticceria e scegliere l’animatore al miglior prezzo sul web. Idem se c’è da organizzare un viaggio. Con il margine di autonomia sui pagamenti scelto dall’utente in base alla sua fiducia in questa svolta digitale.

Multimodalità

È stato l’aspetto più sorprendente nel rush di fine anno tra i maggiori modelli di intelligenza artificiale. Sia OpenAi con ChatGpt-4o, che Google con Astra, permettono ora di usare la camera del cellulare come occhio dell’algoritmo. In pratica quello che la lente inquadra viene letto e analizzato dall’intelligenza artificiale che, in tempo reale, può fornire indicazioni e suggerimenti di ogni tipo. Immaginiamo di entrare in un ambiente a noi sconosciuto: l’algoritmo identificherà oggetti e funzioni e ci potrà orientare passo passo, magari schivando situazioni di pericolo. Ma potrebbe anche fornirci pareri sulla nostra postura mentre camminiamo o sul vestito e l’arredo che vorremmo comprare.
La multimodalità rappresenta davvero la grande svolta nella comunicazione tra noi e le macchine: oltre al testo scritto, infatti, possiamo interagire con un cellulare o col pc attraverso immagini o in forma orale, ricevendo la stessa varietà di risposte: testi, immagini, video o una voce. E proprio sulla voce, peraltro, si gioca la grande sfida del 2025: useremo sempre meno mouse e tastiera e ci rivolgeremo sempre più ai nostri dispositivi nel modo che ci è più naturale e in un certo senso empatico. Parlandoci. Negli Stati Uniti, con ChatGpt, è già disponibile per esempio un numero fisso dove risponde una voce sintetica, ma indistinguibile da quella umana, con cui dialogare su qualsiasi tema (da noi al momento è possibile solo chattare per iscritto con l’algoritmo attraverso un numero su WhatsApp).
Ma da segnalare ci sono anche due novità di Gemini, il modello Ai di Google: quella che permette al software di leggere ciò che appare nel nostro schermo e suggerirci come andare avanti (in pratica un tutorial vocale h24) e quella che trasforma in un podcast a più voci qualsiasi contenuto, che sia un testo, un video, un link, una tabella o il libretto di istruzioni del frullatore. Volendo, tra l’altro, si può interrompere il podcast e inserirsi nella conversazione con una propria domanda, ricevendo un’immediata replica dalle voci digitali. Roba da incontro con gli alieni.
Facile immaginare gli utilizzi di questi strumenti: in Corea del Sud per esempio stanno arrivando le prime sperimentazioni per tenere compagnia agli anziani che vengono abbandonati dai figli, in modo da contrastarne il declino cognitivo. Ma in molte aziende vengono applicati per semplificare la formazione, trasformando corposi manuali di addestramento in agili colloqui virtuali, magari con la lingua del dipendente straniero.

I video

Il 2025 segnerà un passaggio storico nel campo dei video. Nelle ultime settimane dello scorso anno sono stati rilasciati due modelli, Veo2 di Google e Sora di OpenAi, capaci di creare clip personalizzate in pochi istanti. I risultati sono impressionanti: basta indicare il soggetto, l’ambientazione e lo stile e l’algoritmo genera una sequenza di grande qualità e realismo. Al momento di pochi secondi, ma è prevedibile che nei prossimi mesi le durate si allungheranno. Per farne cosa? Beh, sarà possibile testare scene di film prima di girarle realmente, o produrre contenuti per i social network di forte coinvolgimento emotivo. O ancora creare intere campagne promozionali tramite soltanto l’intelligenza artificiale, basandosi sui dati di consumo.
Purtroppo è prevedibile anche l’uso malevolo di questi software, come la realizzazione di deep fake a scopo di truffa o di danno alla reputazione altrui. Su questo molte delle grandi aziende tecnologiche, come Google, Microsoft e Meta, stanno studiano l’inserimento di filigrane digitali per garantire la provenienza e l’autenticità dei video.

L’etica

E questo aspetto apre il vaso delle criticità che quest’anno saremo chiamati a fronteggiare. Malgrado i progressi impressionanti, infatti, l’intelligenza artificiale porta con sé una serie di pericoli che richiedono vigilanza costante e strategie di mitigazione. Oltre ai contenuti falsi e alla disinformazione, un aspetto centrale è quello della privacy. Gli algoritmi raccolgono infatti quantità massicce di dati personali: ad esempio, assistenti vocali e multimodali possono accedere a informazioni sensibili, mettendo a rischio gli aspetti più delicati degli utenti. Il Garante italiano per la privacy, su questo, ha già multato OpenAI per il trattamento non trasparente dei dati. E siamo solo all’inizio.

Dati e bias

C’è poi il problema legato alla qualità dei dati con cui gli algoritmi ricevono l’addestramento. I cosiddetti bias: tradotto, l’intelligenza artificiale può perpetuare o amplificare pregiudizi preesistenti contenuti nel set su cui è stata allenata. Un esempio comune è rappresentato dai sistemi di selezione del personale, che talvolta escludono inconsapevolmente candidati che arrivano da determinati contesti socioeconomici. O il pericolo analogo, legato al mondo bancario, che un archivio carente possa privare dell’accesso al credito persone che lo meriterebbero ma che appartengono a gruppi statistici considerati senza prove insolventi.
A volte i problemi arrivano per la natura stessa dell’intelligenza artificiale generativa, soggetta a margini di errori statistici (le cosiddette allucinazioni) e alla difficoltà di capire come si producano determinate scelte (la spiegabilità, nel gergo tecnico). A volte invece c’è di mezzo la volontà umana: gli algoritmi di IA sono vulnerabili ad attacchi informatici sofisticati, con possibili conseguenze devastanti nei settori critici come la sanità, la finanza o le infrastrutture. La cronaca già riporta le prime truffe con mail di phishing scritte in modo personale e senza errori, o con voci clonate che dispongono operazioni bancarie all’insaputa del titolare.
Ci sono poi le preoccupazioni sociali. L’automazione di compiti ripetitivi e creativi rischia di ridurre la necessità di forza lavoro umana. Nel settore della logistica, ad esempio, i robot e gli agenti autonomi stanno già sostituendo molti lavori manuali. E anche mestieri che fino a poco fa sembrano immuni da questi pericoli, come quelli del giornalista, del musicista o del radiologo, sono ora minacciati dall’avanzata dei codici.
C’è infine un elemento politico da considerare. Quello della concentrazione del potere: la crescente influenza di pochi colossi tecnologici come OpenAI, Google e Meta, per non parlare del ruolo del miliardario Elon Musk (con la sua xAi), unita all’emergere di aziende cinesi particolarmente aggressive, può portare a uno squilibrio economico e politico a livello globale.
Finora l’Europa ha risposto al suo svantaggio competitivo formulando regole, come quelle del Gdpr o le più recenti dell’Ai Act: misure importanti per dare all’universo dei software una dimensione di etica e correttezza. Ma la domanda che in molti si fanno è: oltre ad arbitrare, sapremo come europei giocare anche noi questa partita? Perché, al momento, l’impressione è che nessuno dei Paesi dell’Unione sembra aver ancora toccato palla.
 
 
 
CIRCOLARI 2024
ALTRI ARTICOLI

 
Pagamenti

Pagamenti innovativi nella GDO: tra Customer experience e fidelizzazione

Gli sviluppi e le opportunità portate nella Grande distribuzione dalla digitalizzazione dei pagamenti sono stati discussi in occasione della sessone...

 
Pagamenti

Natale e Black Friday: doppia spinta per acquisti online, BNPL e prestiti finalizzati

Il periodo tra fine novembre e la vigilia di Natale è tradizionalmente un momento topico per gli acquisti retail. Con un impatto diretto sulla...
Il Salone dei Pagamenti 2024
L’appuntamento di riferimento sui Pagamenti e l’Innovazione in Italia e non solo.
Icona Facebook Icona Twitter Icona LinkedIn
Bancaforte TV
Attanasio (ABI): Pionieri e visionari, gli innovatori si ritrovano al Salone dei Pagamenti
Nove anni del Salone dei Pagamenti, nove anni di costante crescita che hanno fatto registrare 14 mila presenze...
Icona Facebook Icona Twitter Icona LinkedIn
Innovation Workshop powered by Bancaforte
DIGITALIZZARE LA PIANIFICAZIONE, PRIORITÀ STRATEGICA PER LE BANCHE. Le esperienze di Banca di Asti, Banca Sella e CSE
Registrati gratuitamente e guarda la puntata organizzata in collaborazione con Board
Icona Facebook Icona Twitter Icona LinkedIn
Banner Pubblicitario