Questione di feeling e di consapevolezza
di Ildegarda Ferraro
-
11 Maggio 2023
Sistemate le questioni di privacy, ChatGPT è tornata qui da noi in Italia. E il dibattito è più ricco che mai. Da guru dell’Intelligenza artificiale che depongono le armi perché troppo pericolosa, a sperimentazioni di lettura del pensiero tutto quanto è ormai in ballo. In primo piano le scelte normative dell’Europa e soprattutto le strategie per trovare risposte che diano consapevolezza di ciò che abbiamo tutti per le mani
Chiedo direttamente a ChatGPT: “Per favore mi dai 5 motivazioni che dimostrino che ChatGPT e utile allo sviluppo del pensiero collettivo e 5 motivazioni contrarie?”
“Ecco di seguito cinque motivazioni che dimostrano che ChatGPT è utile allo sviluppo del pensiero collettivo:
1 Accessibilità: ChatGPT è facilmente accessibile a chiunque abbia accesso a Internet, il che significa che molte persone possono beneficiare della sua capacità di elaborare informazioni e generare contenuti. Questo può aiutare a diffondere informazioni importanti e ad ampliare le discussioni su vari argomenti.
2 Variazione delle prospettive: ChatGPT è in grado di elaborare informazioni da una vasta gamma di fonti, il che significa che può fornire una varietà di prospettive su un determinato argomento. Questo può aiutare a prevenire la creazione di idee errate o di preconcetti, incoraggiando una visione più ampia del mondo.
3 Aiuto nella risoluzione dei problemi: ChatGPT può essere utilizzato come risorsa per risolvere problemi complessi. Poiché è in grado di elaborare una vasta gamma di informazioni e di generare soluzioni in tempo reale, può aiutare a trovare soluzioni a problemi che altrimenti sarebbero difficili o impossibili da risolvere.
4 Facilità di comunicazione: ChatGPT è in grado di elaborare e generare testo in modo rapido e efficiente. Questo può aiutare a migliorare la comunicazione tra le persone, rendendo più facile la condivisione di informazioni e idee.
5 Capacità di apprendimento: ChatGPT è in grado di apprendere continuamente dai dati che elabora. Ciò significa che può diventare sempre più preciso e competente nell'elaborazione delle informazioni, migliorando continuamente la sua capacità di generare contenuti e di offrire soluzioni”.
“Ecco di seguito cinque motivazioni contrarie che dimostrano che ChatGPT potrebbe non essere utile allo sviluppo del pensiero collettivo:
1 Limitazioni linguistiche: ChatGPT potrebbe avere difficoltà a comprendere alcune lingue o dialetti meno conosciuti. Ciò potrebbe limitare la sua capacità di generare contenuti in lingue meno conosciute.
2 Falsi contenuti: Poiché ChatGPT elabora informazioni provenienti da una vasta gamma di fonti, potrebbe generare contenuti che sono falsi o imprecisi. Questo potrebbe portare a diffondere informazioni errate o pregiudizievoli.
3 Mancanza di empatia: ChatGPT è una macchina e non ha empatia. Ciò significa che potrebbe non essere in grado di comprendere le emozioni umane o di fornire supporto emotivo.
4 Dipendenza dalla tecnologia: L'utilizzo di ChatGPT potrebbe portare a una maggiore dipendenza dalla tecnologia, che potrebbe avere effetti negativi sulla salute mentale e sulle relazioni interpersonali.
5 Rischi per la privacy: L'utilizzo di ChatGPT potrebbe comportare rischi per la privacy, poiché potrebbe essere utilizzato per raccogliere informazioni personali senza il consenso dell'utente.
“Grazie mille ChatGPT”
“Di nulla, sono qui per aiutarti! Se hai altre domande o dubbi, non esitare a chiedere”.
Il feeling c’è. Almeno con me. Sistemate le vicende di privacy con il Garante (ne hanno parlato un po’ tutti per esempio
qui)
ChatGPT è tornata tra noi in Italia. Ed io sono rientrata nel mio profilo. La schermata di informazione sulle richieste in campo di privacy è decisamente evidente.
Ma le questioni non si fermano alla facilità di fruizione e all’amichevolezza di ChatGPT, che anzi possono far alzare l’attenzione su tutto quanto possa comportare l’uso e l’abuso dell’Intelligenza Artificiale. Ormai l’acronimo IA, Intelligenza Artificiale, o l’AI, Artificial Intelligence, è entrato se non nelle nostre vite certamente nei nostri discorsi.
Le questioni alla fine sono più o meno sempre le stesse. Di qui l’idea di chiedere direttamente a ChatGPT 5 pro e 5 contro. Il dibattito continua senza sosta. Ed è forse questa la migliore via per non perdere di vista il tema, per farci le domande che servono e tenere alta l’attenzione e la sensibilità sulle questioni in campo.
Tra le preoccupazioni che più hanno toccato l’immaginario collettivo certamente ci sono le parole di
Geoffrey Hinton, 75 anni, uno dei padri della ricerca sull’intelligenza artificiale, che ha lasciato Google dichiarando a destra e manca che l’intelligenza artificiale può essere pericolosa per l’umanità (vedi
qui o anche
qui).
Hinton si inserisce in un filone ormai consolidato. Basti pensare a
Yoshua Bengio e alla petizione che ha chiesto lo stop di sei mesi allo sviluppo dell’intelligenza artificiale. Non la metterei però da un punto di vista di giusto o sbagliato, ma lo considererei un campanello d’allarme a non abbassare la guardia. Insomma, inserirei la categoria di “apocalittici con giudizio”. Di là dall’uso illecito, illegittimo e “oscuro”, queste posizioni accendono una luce sul da farsi, innanzitutto a livello alto, di scelte internazionali da parte dei legislatori e dei governi. In un’intervista a Beniamino Pagliaro su
Repubblica Hinton dice: “La mia sola speranza è che Stati Uniti e Cina trovino la forza di una cooperazione come abbiamo fatto nell’epoca nucleare. Penso che la tecnologia possa essere positiva, ma dobbiamo migliorare la politica. Se parliamo di minaccia esistenziale dobbiamo risolverla insieme” (
leggi qui).
Credo che però tutto questo abbia un peso anche per ognuno di noi, nel senso che non dobbiamo sottovalutare il feeling sostanziale che si può creare con l’AI e compensarlo con una buona dose di consapevolezza. Sempre Hinton dice: “Questi strumenti, incluso ChatGPT, sono in grado di fare dei ragionamenti. Possono essere in grado di manipolare le persone, avendo imparato tutta la conoscenza del mondo”.
Intanto continuano le sperimentazioni. Basti pensare alle ricerche di
lettura del pensiero con l’Intelligenza Artificiale(
vedi qui).
In questo scenario
la Casa Bianca prepara un pacchetto di investimenti, ma anche garanzie, regole e controlli. E
in Europa si lavora alla messa a punto di regole, obblighi e sanzion
i (
vedi anche qui).
In primo piano resta la consapevolezza, di tutti ma anche di ognuno.
Luca De Biase, Giusella Finocchiaro e Oreste Pollicino in una approfondita analisi apparsa anche su
Il Sole 24 Oreparlano proprio di consapevolezza. Scrivono: “Ma ciò che soprattutto manca è la consapevolezza sociale nell'utilizzo dei sistemi di IA. Non bastano le norme per tutelare le persone, occorre soprattutto l'educazione. Lo stile comunicativo di ChatGPT è persuasivo e induce a credere a quanto viene prospettato. Se già prima, leggendo un'informazione reperita da un motore di ricerca, molti erano indotti a credervi acriticamente, ancora di più ciò accade se l'informazione è narrata con uno stile convincente, seduttivo, che nulla ha da invidiare a quello di un essere umano. Il risultato della ricerca però non è affatto verificato. Le informazioni possono essere false. La conoscenza che si costruisce può essere incompleta o completamente infondata. Come ci difendiamo da tutto questo? Non soltanto con le norme e con gli strumenti giuridici, ma lavorando sull'educazione e sulla consapevolezza. Non si può rischiare di approdare a una società che non conosce, che non sa, che non può prendere decisioni, senza arrivare al caso in cui la conoscenza sia manipolata, semplicemente perché non si avverte l'allarme sociale e la qualità dell'informazione non appare chiaramente come un obiettivo da tutelare” (
vedi qui). E giustamente considerano questa consapevolezza un obiettivo europeo. Ma forse anche bene tenerlo come una meta personale per ognuno di noi.