Intelligenza artificiale, dall’Europa un modello di regole per il mondo
di Massimo Cerofolini
-
15 Dicembre 2023
Approvata la bozza dell’AI Act, che entrerà in vigore nel giro di due anni. Confermata la stretta sugli algoritmi generativi: dovranno garantire trasparenza e controllo umano. Niente mercato comunitario per i software con pregiudizi, impatto ambientale e vulnerabilità agli attacchi informatici. Benifei, relatore all’Europarlamento: “Abbiamo fatto la storia e ispireremo anche Usa e Cina”
Maggiore è il pericolo di far danni con gli algoritmi, più stringenti diventano le regole. Dopo oltre due giorni di intenso braccio di ferro, nella notte dell’Immacolata, l’Europa trova un difficile accordo tra Parlamento, Commissione e Consiglio e porta a casa i presupposti per la prima normativa organica al mondo che punta a regolare l’intelligenza artificiale, croce e delizia nel dibattito mediatico del momento. Croce, perché la lista delle cose che potrebbero andar storte a causa dei nuovi software è piuttosto lunga (allucinazioni dei modelli, fake news, pregiudizi e diseguaglianze di trattamento, frodi telematiche, violazioni della privacy e via dicendo). Delizia, perché in ogni ambito della vita civile ed economica fioriscono idee promettenti basate su questa nuova generazione informatica (servizi personalizzati, organizzazione del lavoro più efficiente, stimoli alla creatività e altro ancora). Due aspetti, i problemi e le opportunità, che riguardano in primo luogo un settore altamente sensibile come quello bancario.
Quattro i livelli di rischio che prevede appunto l’Ai Act, il nome del Regolamento che dovrà essere limato nelle prossime settimane per entrare in vigore da febbraio con una tempistica graduale lunga un paio di anni. Spiega Giusella Finocchiaro, Professoressa di Diritto Privato e Diritto di Internet all'Università di Bologna: “Il primo livello previsto dalla normativa è il cosiddetto rischio inaccettabile. L’accordo raggiunto fissa il divieto di ingresso nel mercato europeo agli algoritmi per la classificazione biometrica sulla base di caratteristiche sensibili come la razza, l’orientamento sessuale o la religione. Al bando anche il riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, insieme al social scoring, il punteggio sociale che in paesi tipo la Cina viene assegnato in base ai comportamenti sociali, come la capacità di pagare i debiti o il superamento dei limiti di velocità”.
Semaforo rosso inoltre per l’intelligenza artificiale che porta a manipolare i comportamenti umani o a sfruttare la vulnerabilità delle persone, con particolare riguardo per disabilità, età o situazione socioeconomica.
C’è poi il capitolo spinoso del riconoscimento facciale di massa tramite internert o videocamere di sorveglianza. “Qui – racconta Brando Benifei, relatore generale dell’AI Act, reduce da due notti in bianco di trattative con i rappresentanti dei vari governi e della Commissione – si è raggiunto un punto di equilibrio che mantiene il divieto per l’uso in tempo reale di questa tecnologia, ma con alcune specifiche e limitatissime deroghe. E sempre con il controllo dell’autorità giudizia. Saranno in pratica consentiti soltanto laddove ci siano rischi imminenti di terrorismo e per una ristretta serie di reati molto gravi. Alcuni Stati volevano allargare la sfera delle eccezioni, ma il Parlamento ha tenuto duro: di fatto il principio è che in Europa non ci saranno sistemi di sorveglianza collettiva”.
Il secondo livello di sicurezza riguarda quei modelli di intelligenza artificiale che possono rappresentare un elevato rischio per i diritti dei cittadini. “Rientrano in questa categoria – continua la professoressa Finocchiaro – gli algoritmi che per esempio stabiliscono una priorità delle cure sanitarie, o che riguardino la sfera giudiziaria, assunzioni lavorative o concessioni di prestiti e mutui bancari. In questo caso il pericolo è che i codici possano essere viziati da bias, cioè da pregiudizi legati alla cultura degli sviluppatori o dallo storico dei dati su cui il software viene addestrato”. Per mettere in commercio questi prodotti l’Europa richiede una sorta di nulla osta preventivo con tanto di documentazione dettagliata, valutazione dell’impatto, informazioni chiare, una supervisione umana e un alto livello di robustezza, accuratezza e sicurezza.
Sul tema della sicurezza si è rischiato lo stallo al capitolo degli algoritmi generativi come ChatGpt, quelli cioè capaci di creare in autonomia testi, immagini, video e software. Francia, Germania e Italia chiedevano una regolamentazione più snella, con una forma di autodisciplina, per non compromettere la competitività delle aziende europee entrate in questa gara globale, dove oggi la fanno da padroni le grandi compagnie americane come Open Ai, Microsoft, Google, Amazon e Meta, assieme alle emergenti società cinesi. Qui l’Europarlamento ha fatto muro strappando l’impegno per una legge piuttosto restrittiva. “Abbiamo messo degli obblighi rigidi – continua Benifei – per verificare la qualità dell’allenamento dei dati, la cybersicurezza e l’impatto ambientale che deriva dal consumo energetico dei supercalcolatori impegnati nell’intelligenza artificiale. E poi abbiamo introdotto obblighi di trasparenza che riguardano la riconoscibilità dei contenuti sfornati dagli algoritmi attraverso un watermark, un marchio che permetterà di distinguere la realtà da un falso e contrastare le fake news e la disinformazione online. Altro punto che abbiamo ottenuto nella trattativa è la tutela per gli autori e gli artisti sul copyright delle opere oggi sfruttate dagli algoritmi nella fase di raccolta ed elaborazione di testi o di immagini”.
Seguono poi altre due categorie di rischio: quello limitato (in cui rientrano per esempio gli algoritmi che suggeriscono un certo prodotto) e quello minimo (ad esempio, le applicazioni come videogiochi abilitati all'intelligenza artificiale o filtri antispam), soggetti soltanto a un obbligo di trasparenza. Pesanti infine le sanzioni per chi sgarra: dall'1,5 per cento del fatturato globale (o 7,5 milioni di euro) fino al 7 per cento (o 35 milioni).
Non tutti apprezzano l’impianto uscito nella notte di Bruxelles. Per diversi esperti del campo tecnologico le norme possono diventare un freno all’innovazione nel Vecchio continente, al punto di zavorrare la competitività delle nostre aziende impegnate nel campo dell’intelligenza artificiale, specie quella generativa (come Mistral in Francia e Aleph Alpha in Germania). “Le norme – ribatte Benifei – valgono per tutti. Specie per le aziende più strutturate, oggi presenti in America e in Cina. Mentre per le imprese europee sono previsti incentivi e deroghe, soprattutto per chi produce software aperti. In più il Regolamento punta alla creazione di una sandox per stimolare le sperimentazioni dei nuovi sistemi in un ambiente controllato. E tutto il processo sarà guidato da un’autorità di controllo europeo che entrerà subito in funzione”. Ma forse la speranza più forte è che l’insieme di regole decise in Europa facciano scuola anche fuori dai confini dell’Unione, un po’ come già successo con il Gdpr sulla protezione dei dati personali. "Abbiamo fatto la storia – conclude Benifei – ponendo la strada per un dialogo con il resto del mondo sulla costruzione di un’intelligenza artificiale responsabile".