Banner Pubblicitario
28 Novembre 2021 / 18:33
Tra robot e bugiardi: i falsi profili che infestano il web

 
Sicurezza

Tra robot e bugiardi: i falsi profili che infestano il web

di Massimo Cerofolini - 2 Ottobre 2020
Possono manipolare il consenso, condizionare gli acquisti, favorire le truffe. Sono i milioni di profili falsi che inquinano la rete. Gestiti da persone reali o da eserciti di bot rappresentano una grande minaccia anche per il mondo finanziario. Come smascherarli? Ne parliamo con gli autori del libro «Fake people»
Con un post ben piazzato e meglio condiviso possono alterare i valori della Borsa. Con un’azione coordinata possono gonfiare la reputazione di chi chiede un prestito. Con un algoritmo di intelligenza artificiale possono rubare volto, voce e identità di un cliente di banca. Se pensate che il problema principale della rete siano le fake news, non avete ancora visto tutto. Perché accanto alle notizie, di falso sul web ci sono anche le persone. Tante. Molte più di quanto si possa immaginare. C’è chi si nasconde o si spaccia per qualcun altro, tanto per cominciare. E poi ci sono loro, i social bot, programmi automatici capaci di imitare il comportamento umano senza destare sospetti. La loro falce miete su qualsiasi terreno. Dalla finanza alla politica, dal marketing alla sicurezza informatica. I danni che creano sono importanti. Come difenderci, allora? Ne parliamo con due attenti ricercatori toscani che hanno pubblicato il saggio Fake people – Storie di social bot e bugiardi digitali (Codice edizioni): sono Viola Bachini, giornalista esperta di nuove tecnologie, e Maurizio Tesconi, esperto dell’Istituto di Informatica e telematica del Cnr.

Partiamo da un caso concreto, per inquadrare la portata dello scandalo: il caso Ashley Madison, un sito di appuntamenti per persone sposate che cercano avventure extra coniugali, ancora attivo con milioni di partecipanti, che qualche anno fa ha fatto esplodere il fenomeno dei profili falsi. Cosa è successo?

BACHINI. Nel 2015 un gruppo di pirati informatici ruba i dati degli iscritti al sito, quindi nomi, età e altri identificativi, e decide di pubblicare tutto online. Ovviamente questo fa scalpore, perché tra i nomi dei frequentatori della piattaforma dei fedifraghi ci sono anche parecchi politici, giornalisti e personaggi di spicco. Ma il motivo per cui si è parlato molto di questa vicenda è un altro: analizzando meglio i dati dei soggetti registrati, infatti, si scopre che ben 9 su 10 erano uomini. Eppure ognuno di loro era convinto di chattare con un numero corrispondente di donne. E così, approfondendo l’indagine sui profili femminili, esce fuori che questi erano quasi tutti falsi. E che ad alimentarli, a fornire risposte e generare chissà quali illusioni, non erano esseri umani. Ma bot, ossia software che svolgono un compito ben preciso in totale autonomia. In pratica dei robot. Robot senza corpo. Da quel momento si alza il velo su un mondo di inganni sempre più diffuso e pervasivo.

Come possono essere classificati questi bot?

BACHINI. Classificarli è difficilissimo. Perché ne esistono di ogni tipo e anche gli scienziati faticano a mettere ordine nel loro universo. Però una prima distinzione accettata è quella tra buoni e cattivi. Un esempio di bot buono è quello che monitora il sito dell’Istituto nazionale di geofisica e vulcanologia e lancia dei tweet di allerta in caso di terremoto. È buono perché non nasconde la sua natura artificiale e offre un servizio utile. E buoni sono anche ovviamente i tanti risponditori automatici utilizzati ad esempio dai servizi assistenza delle banche. Però ci sono anche bot cattivi, con fini malevoli, che fingono di essere persone reali per raggiungere obiettivi come la diffamazione, la manipolazione di dibattiti online, la truffa. Un esempio molto comune sono gli spam-bot, ossia programmi che si fingono soggetti reali dei social network e che invitano gli altri utenti a cliccare su link che portano a piattaforme poco affidabili. Da cui poi scatta ogni genere di trappola. E poi, per completare il quadro, ci sono anche i bot buoni che combattono i cattivi, perché capita che questi software si facciano la guerra tra loro, visto che ce ne sono tantissimi online. Per esempio c’è un servizio che si chiama Re:scam, il quale permette di avere un bot che al posto nostro risponde alle mail fraudolente, quelle che puntano a rubarci le nostre password o le coordinate bancarie: in pratica trolla il suo collega cattivo e fa perdere tempo ai truffatori.

Un’altra suddivisione riguarda poi il rapporto che questi bot hanno con l’uomo. Da una parte i bugiardi digitali, dall’altra i bot, che possono essere sia autonomi che ibridi, metà uomini e metà macchine.

BACHINI. Sì, questi ultimi si chiamano cyborg. Come ci insegna la fantascienza sono quelle creature a metà tra l’umano e l’automa. In sostanza, sono squadre di account automatici che però vengono comandate da una persona in carne e ossa. La quale, con un solo clic, può fare scrivere la stessa frase da migliaia di account diversi, apparentemente letati a soggetti reali. Questo può avere un impatto importante, specie nelle campagne elettorali, dove un politico può amplificare i propri messaggi su masse enormi di potenziali votanti.

In questo caso voi parlate di marionette digitali. Qualche altro esempio concreto?

TESCONI. Uno degli esempi più celebri è stato quello di Darren Woods, tra i migliori giocatori di poker online su piazza. Aveva il pieno controllo di molti account falsi, creati in modo raffinatissimo: erano infatti associati a carte d’identità, geolocalizzati in posti diversi del mondo, con commenti sulle gare in corso. Giocatori con una storia personale plausibile, insomma. Tecnicamente si chiamano Sybil, dal nome di una povera studentessa che a causa di un disturbo dissociativo aveva 16 personalità diverse.  Bene, immaginate cosa significhi per un estraneo trovarsi a un tavolo di poker contro tre persone controllate da un’unica testa, che conosce e indirizza carte e strategia a suo piacimento. È la classica modalità del pollo da spennare, mano dopo mano. Per fortuna Woods è stato smascherato e condannato.

Resta però molto difficile, per ognuno di noi, scoprire le marionette digitali che imperversano sui siti di commercio elettronico, distribuendo falsi commenti positivi o negativi a seconda del committente. Di fronte a una massa consistente di recensioni tendiamo a fidarci.

TESCONI. Bisogna stare molto attenti alle false recensioni, specie per quanto riguarda alberghi e ristoranti, ma sempre più spesso per qualsiasi genere di bene o servizio disponibile su internet. È un fenomeno molto diffuso che serve a pompare la reputazione dei venditori o a colpire quella dei loro concorrenti. Esistono ormai agenzie specializzate che consentono di creare false recensioni difficili da scoprire perché coinvolgono persone vere: basta inviare il prodotto a casa del complice e ricevere il commento desiderato in cambio di pochi euro. Con un piccolo investimento si raggiunge una massa critica sufficiente a spostare le scelte delle persone.

Da segnalare anche una tendenza piuttosto particolare: quella dei dissenter, ossia dei robot che intervengono in un dibattito su Facebook per andare contro il loro stesso committente.

TESCONI. È una nuova strategia molto sottile, infatti. I dissenter servono per creare traffico e polarizzare un messaggio per farlo diventare virale: contrastano la tesi di chi li ha commissionati, ma argomentando in modo goffo e insufficiente, per essere poi sbugiardati in modo plateale e definitivo da chi gestisce la discussione. Un effetto plateale che spesso garantisce l’affiliazione di utenti veri.

Questo è un aspetto su cui riflettere ogni volta che ci accaloriamo dentro una discussione nei social, dove magari tra centinaia di soggetti che partecipano quelli reali si contano sulle dita di una mano.

TESCONI. Purtroppo spesso si sottovaluta l’enorme portata del fenomeno e la potenza di chi c’è dietro. Pensate che soltanto Facebook nel 2019 ha cancellato 5 miliardi di profili fasulli. Esistono vere e proprie industrie del falso, le troll factory, con migliaia di persone pagate per animare questo tipo di discussioni. Addirittura nelle Filippine ci sono delle agenzie specializzate con eserciti di dipendenti, ognuno dei quali al comando di milioni di bot, disponibili al miglior offerente per qualsiasi tipo di operazioni: dalle lodi sperticate alle tempeste di fango che possono colpire aziende, politici, Vip o istituzioni pubbliche. In qualsiasi paese del mondo.

Come si crea questa identità fasulla?

TESCONI. Nella nostra ricerca ci siamo rivolti ai più esperti hacker dell’internet sommersa. E abbiamo scoperto che sono tanti i trucchi per non essere rintracciabili. Il primo passo è fornirsi di un IP, l’indirizzo che identifica una persona su internet, totalmente anonimo. E qui ci sono varie strategie. Una è usare la rete Tor, quella che dà accesso al dark web, che anonimizza il traffico. Oppure si possono comprare delle reti private anonime a pagamento. O addirittura usare un wi-fi pubblico, meglio se lontano dalla propria abitazione. Poi bisogna aprire un’email anonima, magari grazie a sim virtuali. Ma la cosa più importante è dare al profilo una certa credibilità, perché bisogna riconoscere che Facebook e altri social fanno una grande azione di pulizia. Qualche espediente? Scrivere una biografia molto curata, con tante foto che possibilmente ritraggono le persone in vacanza, farsi una bella rete di amicizie e coltivare una feconda interazione con queste. Per le foto, o si rubano sul web e si manipolano con dei filtri per differenziarle dagli originali in modo da sfuggere ai controlli dei gestori della rete, oppure grazie all’intelligenza artificiale si possono creare da zero volti inesistenti ma del tutto verosimili.

Per chi non ha tempo di fare tutti questi passaggi c’è poi un mercato nero dove si trova di tutto.

BACHINI. Sì, i costi vanno dai 6 dollari per un profilo vuoto, una sorta di zombi digitale che si limita a un nome e un cognome fittizio, a 800 dollari per uno che invece ha un alto livello di attendibilità. Nei centri commerciali russi esistono per esempio dei distributori automatici, tipo quelli delle bevande, che smerciano eserciti di finti follower: inserisci i soldi, clicci e te li scarichi sul cellulare. La domanda non manca: basta digitare su Google “comprare follower” ed escono quasi un milione di risultati. Grandi utenti di questo servizio sono gli aspiranti influencer, ma anche tante aziende e politici in cerca di scorciatoie per accrescere la loro popolarità. Peccato che – oltre a essere alla lunga inutile e controproducente - sia una pratica dannosissima per l’intero sistema: perché tradisce la fiducia di tutti, elettori, inserzionisti, consumatori, utenti del web.

Vediamo invece i danni che questi falsi profili possono fare nel mondo della finanza.

BACHINI. Nel mondo della finanza operano algoritmi di trading che in frazioni di secondo processano articoli di giornali, decisioni politiche, soffiate sui social network, al fine di elaborare i migliori investimenti azionari: possono consigliare un operatore umano ma più spesso agiscono in autonomia e vendono o comprano pacchetti di azioni a velocità incredibili. Ecco, è evidente che, in questo sistema così fulmineo, l’azione dei bot può inserirsi con facilità e far sballare il valore reale di una società quotata. Essendo un mercato di fatto automatico, per alterare i giochi, basta schierare bot come finti utenti reali dei social network che postano false notizie positive su aziende con poco valore: è così che si possono spingere algoritmi e persone ad acquistare azioni che poi vengono vendute dal truffatore al massimo del rialzo, un attimo prima che la bolla esploda. Lasciando carta straccia nelle mani di chi si era fidato.

Come facciamo a proteggerci da queste manipolazioni così sottili e frequenti?

TESCONI. Dipende dalla tipologia. Se ci troviamo di fronte a un chatbot , un robot che chatta, è abbastanza facile: in genere hanno risposte che arrivano troppo velocemente, un istante dopo la domanda, dal sapore preconfezionato. Il problema, però, è che con l’evoluzione dell’intelligenza artificiale questi sistemi stanno imparando a emulare le pause e le indecisioni tipiche di noi umani. A quel punto, se si ha il dubbio di dialogare con un chatbot, conviene usare l’ironia o il sarcasmo, cose che gli algoritmi ancora non comprendono. Con una frase tipo: “cosa penseresti di me se mi lavassi i denti con un asciugamano?”. Ecco, questo manda in tilt l’intelligenza artificiale dietro un chatbot. Per quanto riguarda le tecniche per individuare i bot, i profili falsi, alcuni accorgimenti possono essere quello di notare una certa casualità nella scelta dei nomi, l’assenza di foto, gli intervalli tra un post e l’altro troppo regolari, oppure citazioni, aforismi e messaggi stereotipati tipo “buongiorno, caffè” con le foto dei gattini o dei tramonti. C’è poi un lavoro più tecnico che permette di distinguere un account robotico da uno umano: vengono mostrati tantissimi esempi di profili autentici e con gli strumenti del deep learning le macchine imparano a riconoscere gli elementi che fanno la differenza.

Quali sono le prossime tendenze nel mondo dei falsi?

BACHINI. È un mondo in rapida evoluzione. Sono in arrivo bot sempre più sofisticati: non polarizzano per esempio il dibattito e non retweetano tutto senza criterio, ma operano in modo oculato e discreto. Inoltre per rendersi credibili assumono atteggiamenti neutrali, magari lanciando sondaggi, che li fanno sembrare persone equilibrate. Salvo poi colpire quando è il momento. In più usano slang, gerghi specifici o abbreviazioni tipiche del linguaggio online. Insomma, sono sempre più difficili da riconoscere, tanto che in un test eseguito di recente ne veniva smascherato appena uno su quattro. Altro rischio in prospettiva riguarda poi l’uso del deep fake, la tecnologia che sfrutta l’intelligenza artificiale per produrre video, audio o foto iperrealistici. Questo genere di filmati ribalta la nostra percezione della realtà, perché si tende a dare per scontato che se vediamo il viso di una persona nota, che parla con la propria voce di fronte a una telecamera, si tratti certamente di quella persona. E invece oggi purtroppo questo non è più così. Finora abbiamo visto utilizzi al cinema o in trasmissioni satiriche come Striscia la notizia, ma ci sono purtroppo anche i deep fake, le alterazioni di video in cui il volto di un personaggio è sovrapposto al corpo di attori porno. Con conseguenze pesanti sul piano delle estorsioni sessuali, della reputazione aziendale o del dibattito politico. C’è poi il grande tema dell’identità digitale: che succede se qualcuno, con un software digitale, ci altera voce e volto e si impossessa della nostra identità?.
<img src="https://track.adform.net/adfserve/?bn=46983552;1x1inv=1;srctype=3;ord=[timestamp]" border="0" width="1" height="1"/>
TIM_Banner medium 2021
ALTRI ARTICOLI

 
Scenari

Quando col cliente parla l’algoritmo

Assistenti virtuali realistici, app per riprendersi i dati, codici per migliorare la spesa pubblicitaria, software per sintetizzare documenti tecnici...

 
Pagamenti

Euro digitale, sperimentazione al via dal 2023

Fabio Panetta (Bce) lo ha annunciato nell’audizione al Parlamento europeo, sottolineando come sia essenziale accelerare sul progetto “per...

 
Scenari

Un quarto d’ora di città

Una città da 15 minuti, o anche a voler esagerare un quartiere da 20. Ripensare gli spazi e i tempi a misura di noi umani che abbiamo visto cose…...
Wealth Management Forum 2021
La prima edizione del Wealth Management Forum vuole essere momento di confronto tra i diversi operatori del...
Icona Facebook Icona Twitter Icona LinkedIn
Il Salone dei Pagamenti 2021
Il Salone dei Pagamenti Il Salone è l’evento di riferimento del settore, un palcoscenico autorevole e...
Icona Facebook Icona Twitter Icona LinkedIn
Bancaforte TV
Torriero (ABI): pagamenti digitali più semplici per favorire l’inclusione
È stata un successo l’edizione 2021 del Salone dei Pagamenti, con un’accresciuta attenzione anche a...
Icona Facebook Icona Twitter Icona LinkedIn
Lecce (Intesa Sanpaolo): i clienti vogliono pagamenti digitali trasparenti, semplici e sicuri
Oggi i pagamenti digitali sono ancora più centrali nelle strategie delle banche. Innanzitutto, spiega Andrea...
Icona Facebook Icona Twitter Icona LinkedIn
Innovation Workshop powered by Bancaforte
AI per il Credito: soluzioni che funzionano. Le opportunità offerte dall’Artificial Intelligence & Machine Learning per il Credit Risk Management
Guarda gratuitamente il workshop del 16 novembre realizzato con il Partner Dedagroup Business Solutions,...
Icona Facebook Icona Twitter Icona LinkedIn
Scopri gli Innovation Workshop powered by Bancaforte
Una nuova e qualificata opportunità di dialogo e relazione con i professionisti del mondo bancario,...
Icona Facebook Icona Twitter Icona LinkedIn
Banner Pubblicitario