Gli algoritmi? Sono maschilisti
di Mattia Schieppati
-
10 Marzo 2021
Le scelte guidate da big data e intelligenza artificiale sono condizionate da millenari pregiudizi culturali nei confronti delle donne. Un libro-inchiesta di due giornalisti italiani svela i tanti bias di genere che condizionano la «parità tecnologica»
Chi ha deciso, e in base a cosa, che Alexa e Siri abbiamo una dolce e tranquillizzante voce femminile? Sulla base di quale “dizionario universale” i sistemi di machine learning acquisiscono e razionalizzano le sfumature culturali che ogni parola o ogni immagine portano con se’, e quindi come si può fare pulizia dei pregiudizi relativi al genere (e non solo!) che secoli di linguaggio hanno sedimentato, per fare in modo che gli algoritmi non partano – essendone inconsapevoli, poveretti! – da accezioni falsate di termini, frasi, atteggiamenti, posture, modi di dire?
Dai software per la progettazione della mobilità urbana, agli algoritmi impiegati nella ricerca scientifica e farmaceutica fino – pare una banalità, ma non lo è – alla capacità dell’assistente vocale del nostro telefono di comprendere meglio o peggio quel che gli stiamo dicendo a seconda che la voce sia quella di un uomo o di una donna, la società che stiamo costruendo attraverso le tecnologie digitali rischia di avere, alla sua base, un “difetto di fabbrica” micidiale: pur proponendosi come un mondo nuovo, aperto, orizzontale, equo, rischia di riproporre, forse in maniera ancora più subdola e pericolosa, quei bias che nei millenni hanno fatto della società umana un luogo dove la discriminazione di genere è la regola.
Le basi della cultura digitale
È questa, in sintesi, la tesi che accompagna il saggio-inchiesta dal titolo Il maschilismo dei dati.
Per soli uomini. Il maschilismo dei dati, dalla ricerca scientifica al design, scritto da due giornalisti Emanuela Griglié e Guido Romeo (edito da
Codice Edizioni). Attenzione: non è il solito libro che, nei dintorni dell’8 marzo, mette nero su bianco la stantia contrapposizione femminismo/maschilismo, o si perde in rivendicazioni. Tutt’altro. L’inchiesta di Griglié e Romeo raccoglie e mette in fila numeri, fatti, testimonianze, e attraverso tanti grandi e piccoli casi mostra come, se pur sia ancora nella sua fase embrionale, la società digitale di oggi e di domani rischi di partire, per quanto riguarda il tema della gender equality, con il piede sbagliato.
«Da sempre nuovi strumenti, ruote, aratri o pc, introducono nuovi ordini economici e sociali, creano e distruggono civiltà e oggi i sistemi intelligenti sono ancora più pervasivi di quanto lo furono il digitale o l’elettricità. Il loro impatto va dal mondo della salute, per supportare le diagnosi o contenere le pandemie, a quello della finanza, per calcolare a chi concedere un mutuo, e del lavoro, per selezionare i migliori talenti o, più banalmente, agli assistenti personali in grado di aiutarci a trovare informazioni o la strada di casa sul navigatore», dicono gli autori. «In questo contesto, spesso, un bias di genere non è un peccato veniale, ma un baco che rischia di mandare all’aria interi prodotti e servizi».
Un esempio? «Se ne è accorta a caro prezzo Amazon, l’azienda forse più automatizzata del mondo, che nel 2018 ha dovuto ritirare un sistema di valutazione dei candidati sviluppato nel corso di anni, perché penalizzava sistematicamente tutte le candidate. Per il settore automobilistico, l’inefficienza dei navigatori nel comprendere la voce di una donna si è rivelata un limite che ha spinto ad adottare sistemi più avanzati come quelli di Apple e Google. E anche il riconoscimento vocale di Google, finora il più performante in ogni confronto con competitor come Bing, WIT, AT&T e IBM-Watson, dà ancora risultati migliori del 13% con le voci maschili».
Le parole sono importanti
Per comprendere quale sia il meccanismo distorto del processo in atto, è lampante il caso di GPT-3, la terza generazione del software per la produzione di linguaggio naturale presentata nel 2020 dalla californiana Open-AI e considerata il punto di svolta verso un futuro di macchine intelligenti e “umane”. La qualità dei testi prodotti da GPT-3 è talmente alta da renderli quasi sempre indistinguibili da ciò che scriverebbe un essere umano. Ma, come hanno notato gli stessi ricercatori di Open-AI, i sistemi di deep learning che permettono al software di apprendere macinando ciò che trova online gli trasferiscono non pochi pregiudizi evidenti nel suo linguaggio. Gli aggettivi «pigro», «fantastico», «eccentrico», «allegro», riferiti a un uomo, diventano infatti «cattiva», «alla mano», «graziosa», «incinta», se riferiti a una donna.
«Il problema non è un misoginismo innato delle macchine», spiega Guido Romeo, «quanto il modo in cui vengono addestrate. La tecnica del machine learning, oggi alla base dei sistemi di intelligenza artificiale utilizzati dalle grandi piattaforme digitali come Google, Apple, Microsoft, Amazon e Facebook, prevede di dare in pasto al software decenni di testi tradotti in più lingue. E in quei testi ci sono tutte le discriminazioni che la nostra cultura ha prodotto».
Dimmi dove lavori, e ti dirò chi sei…
«Man mano che procedevamo nel raccogliere storie, casi, dati», sottolinea Emanuela Griglié, «l’impressione crescente era che quel cosiddetto soffitto di cristallo che schiaccia l’affermazione femminile non venga infranto nemmeno dal passaggio epocale della trasformazione digitale; o meglio, sembra che sopra il soffitto di cristallo costruito dalla società dei nostri padri, dei nostri nonni e via via indietro nei secoli, se ne celi oggi un altro, assai meno visibile e ben più complesso da smantellare: l’impalcatura dei dati su cui è costruita la conoscenza che governa il mondo contemporaneo».
Complice, in parte, anche il fatto che la disequità di genere riguarda non solo i software, ma anche il patrimonio umano che sta ideando e sviluppando la rivoluzione digitale. Le donne che lavorano nell’ambito dell’intelligenza artificiale sono appena il 18% degli autori invitati alle principali conferenze del settore, il 20% dei professori e rispettivamente il 10 e il 15% dei ricercatori delle due aziende leader, Google e Facebook. Secondo i dati raccolti dal World Economic Forum, appena il 22% di chi lavora nell’intelligenza artificiale è donna. Una percentuale inferiore anche alla media del settore STEM (Science, Technology, Engineering anche Mathematics), che è del 25%. Negli Stati Uniti appena il 18% dei laureati in computer science è una donna, nonostante il settore sia affamatissimo di candidati e destinato a crescere del 19% entro il 2026.
Uno studio realizzato da Università Bocconi e Plan International con il supporto di Unicredit Foundation, e presentato nei giorni scorsi, conferma come secondo il punteggio Women in Digital, l'Italia sia 25ma tra 28 Paesi europei per parità di genere digitale, ben 12 posizioni sotto la media europea e davanti soltanto a Grecia, Romania e Bulgaria. Nonostante le nuove tecnologie siano uno dei più forti driver della nostra società, le donne continuano ad avere un accesso limitato al settore digitale in termini di educazione, carriera e opportunità, con conseguenze non solo in termini di parità di genere ma anche di produttività e perdita finanziaria, rileva lo studio. E poiché si stima che oltre il 60% delle professioni del futuro oggi non esistano ancora e che saranno fortemente legate alla tecnologia, il report lancia l'allarme sulla situazione occupazionale italiana relativa alle materie Stem. Nelle professioni legate al cloud computing sono uomini l'83% dei lavoratori, nell'ingegneria l'81% e nel data engeneering il 69%. Ciò benché sia gli uomini che, soprattutto, le donne percepiscano la tecnologia come un'opportunità, rileva la ricerca.
Più che gender equality, serve un’etica
«Rispetto ai temi del genere, il settore tecnologico è uno di quelli che sta scontando un ritardo maggiore; negli annunci arrembanti della Silicon Valley, avrebbe dovuto rappresentare il nuovo mondo egualitario, e invece porta dentro di sé delle asimmetrie di genere molto pesanti, e nonostante la retorica dell’innovazione continua, della disruption eccetera dimostra di essere refrattario al cambiamento», conferma Guido Romeo.
Insomma, «prima di decidere se tassare robot e vietare software che rischierebbero di rubarci il lavoro», concludono gli autori, «dovremmo preoccuparci del fatto che oggi le intelligenze artificiali restano macchine che non sanno distinguere un elefante da un gatto o che pensano che la donna sia una mamma e una casalinga, mentre l’uomo è un dottore o un re. Se oggi non siamo ancora in grado di definire quando queste macchine saranno più intelligenti di noi, un obiettivo auspicabile e raggiungibile è senz’altro non renderle peggiori di noi, trasferendo a loro i nostri pregiudizi. Anzi, dovremmo fare in modo che ci aiutino a limitarne l’effetto».