Bias negli algoritmi: come le macchine apprendono i pregiudizi dagli esseri umani

L’impatto della tecnologia sulle nostre vite sta crescendo rapidamente. Algoritmi di Intelligenza Artificiale vengono quotidianamente applicati in diversi ambiti: in campo medico, nei veicoli a guida autonoma, per determinare se siamo meritevoli di un mutuo o stabilire se ci meritiamo una determinata posizione lavorativa, come accaduto nel caso di IMPACT, uno strumento di valutazione degli insegnanti impiegato a Washington durante l’anno scolastico 2009-10. Secondo uno studio condotto da Oberlo, il numero di aziende che adottano tecniche di Intelligenza Artificiale è cresciuto del 270% negli ultimi 4 anni. Le statistiche di Gartner mostrano come, nel 2019, un’azienda su tre sfrutti l’Intelligenza Artificiale o abbia intenzione di farlo. Risulta quindi evidente quanto questi algoritmi impattino sulle nostre vite, lasciandoci il più delle volte ignari ed impotenti nei loro confronti.

 

Un errore in un algoritmo potrebbe non sembrarci molto piacevole, ma nemmeno poi così grave: se Netflix ci consiglia un film che non ci piace o se Siri imposta la sveglia ad un orario sbagliato ci troviamo di fronte inezie per cui potremmo chiudere un occhio, viste le innumerevoli facilitazioni che ci offrono. Ma cosa accadrebbe se l’errore riguardasse un algoritmo di guida autonoma? Oppure se venissimo scartati ad un colloquio lavorativo per il sesso, la religione o la razza? 

 

Anche gli algoritmi sbagliano

 

L’errore che probabilmente ha fatto più scalpore negli ultimi anni è legato all’algoritmo di software di recruitment utilizzato da Amazon a partire dal 2014. Questo software, come spiegato nell’articolo dell’Ansa, era ritenuto in grado di analizzare i curriculum dei candidati ed automatizzare la procedura di selezione. Tuttavia è emerso come esso penalizzasse le donne, specialmente per le posizioni legate a ruoli più tecnologici. L’errore era dovuto ai dati con cui il modello è stato addestrato: dati reali, contenenti i curricula ricevuti dalla società nei 10 anni precedenti; CV prettamente maschili, data la maggioranza di uomini nel settore tecnologico. Come spiega l’articolo de Il Sole 24 Ore, il modello ha riconosciuto in modo automatico un pattern che delineasse i migliori candidati, inglobando tra le caratteristiche ideali il genere maschile, e incorrendo così in un bias. Un bias è un errore sistematico di giudizio o di interpretazione, che può portare a un errore di valutazione o a formulare un giudizio poco oggettivo. È una forma di distorsione cognitiva causata dal pregiudizio e può influenzare ideologie, opinioni e comportamenti. In informatica, il bias algoritmico è un errore dovuto da assunzioni errate nel processo di apprendimento automatico. Questo errore, ha costretto Amazon a dismettere il software.

 

Da una ricerca condotta invece nel 2018 da Joy Buolamwini e Timnit Gebru, due ricercatori del MIT e della Stanford University, è emerso che tre programmi di riconoscimento facciale rilasciati sul mercato da importanti aziende tecnologiche incorporavano pregiudizi razziali e di genere. Negli esperimenti condotti dai due ricercatori, è stato rilevato che nel determinare il sesso degli uomini di pelle chiara i tassi d’errore dei programmi di riconoscimento facciale non hanno mai superato lo 0,8% mentre, per le donne con pelle scura, le percentuali salivano al 20% in un programma e ad oltre il 34% negli altri due. Queste stesse tecniche incentrate sull’elaborazione di dati biometrici, utilizzate per cercare di determinare il sesso di qualcuno, possono essere impiegate anche per identificare un individuo e applicate in diversi ambiti, ad esempio per individuare persone sospettate di crimine.

 

Infatti, un altro caso di bias algoritmico è quello riscontrato in un software denominato COMPAS, affidato diversi anni fa ad alcuni giudici americani per supportarli nel quantificare la pena da imputare ai condannati. Come si legge in un articolo pubblicato su Internazionale, l’algoritmo di Compas incorporava pregiudizi nei confronti degli afroamericani: il dataset utilizzato nella fase di addestramento del software non includeva dati bilanciati nei confronti delle diverse etnie, e di conseguenza gli afroamericani avevano quasi il doppio delle possibilità, rispetto ai bianchi, di essere etichettati come ad alto rischio, anche se poi in futuro non commettevano altri reati.

 

 

Problemi e possibili soluzioni

 

Gli errori precedentemente riportati avvengono poiché addestrando i modelli di Intelligenza Artificiale attraverso le enormi quantità di dati a nostra disposizione, l’AI incorpora valori e bias intrinsechi della società.

 

Nonostante l’immaginario comune ci porti a considerare un algoritmo come un processo decisionale perfetto, superiore al ragionamento umano (considerato invece influenzabile e non obiettivo), perché in grado di processare una molteplicità di dati in modo imparziale, nella realtà non è così. Come spiegato nella guida di Google, gli algoritmi di intelligenza artificiale non sono liberi da bias, in quanto, come accennato prima, il bias è contenuto nei dati con cui i modelli vengono addestrati. In altre parole, i modelli ereditano il bias basato su razza, genere, religione o altre caratteristiche dai dati che vengono forniti loro e, in alcuni casi, possono addirittura enfatizzarlo. In particolare, il bias può essere introdotto in qualsiasi fase della pipeline di apprendimento: a partire dall’adozione di un dataset inadeguato, da un processo di apprendimento errato o addirittura da un’incorretta interpretazione dei risultati. 

 

L’Algorithmic fairness è un campo di ricerca in crescita che mira a mitigare gli effetti di pregiudizi e discriminazioni ingiustificate sugli individui nell’apprendimento automatico, principalmente incentrato sul formalismo matematico e sulla ricerca di soluzioni per questi formalismi. È un ambito di ricerca interdisciplinare che ha l’obiettivo di creare modelli di apprendimento in grado di effettuare previsioni corrette dal punto di vista di equità e giustizia.

 

Come riportato nel paper di Ninareh Mehrabi, una prima difficoltà che caratterizza questo ambito di ricerca è la mancanza di una definizione esaustiva e universale di correttezza (fairness): vengono infatti proposte molteplici definizioni a seconda dei diversi contesti politici, religiosi e sociali.

 

Il bias può manifestarsi infatti nei confronti di diverse minoranze, con specifiche caratteristiche di genere, religione, razza o ideologia; come precedentemente accennato, può essere introdotto da diversi fattori e manifestarsi in diverse fasi della pipeline di apprendimento. A seconda della tipologia di bias e del modo in cui esso si manifesta, lo stato dell’arte propone diverse metriche per la misurazione del bias e tecniche per attenuarlo; ne sono un esempio il toolkit per misurare e mitigare il bias proposto da IBM e gli indicatori di equità proposti da Google.

 

Lo studio di queste problematiche è all’ordine del giorno e, come evidenziato nel paper di Pessach, i diversi sotto-ambiti di ricerca sono in continua crescita e costituiscono sfide attualmente aperte. L’importanza di ottenere algoritmi equi e corretti è cruciale, e per farlo è necessario rimuovere il bias dalle diverse fasi della pipeline, a partire dalla fase di raccolta dei dati. Ad oggi, sembra più facile rimuovere il bias e rendere eticamente equi gli algoritmi piuttosto che gli esseri umani.

 

Europa: la proposta di Regolamento Europeo sull’Intelligenza Artificiale

 

Il 21 aprile 2021 la Commissione europea ha pubblicato la proposta di regolamento sull’approccio europeo all’intelligenza artificiale, un documento in cui vengono valutati i rischi connessi a questo strumento con l’obiettivo di “salvaguardare i valori e i diritti fondamentali dell’UE e la sicurezza degli utenti”.

 

Secondo la Commissione europea, di fronte al rapido sviluppo tecnologico dell’Intelligenza Artificiale e a un contesto politico globale in cui sempre più paesi stanno investendo massicciamente in questa tecnologia, l’Unione Europea deve agire all’unisono per sfruttare le numerose opportunità offerte dall’AI e al contempo affrontarne le sfide, per promuovere il suo sviluppo senza tralasciare i potenziali rischi che pone per la sicurezza delle persone.

 

Nella proposta di regolamento europeo sono presenti sia regole di trasparenza applicabili a tutti i sistemi di intelligenza artificiale, sia disposizioni più specifiche per i sistemi ad alto rischio, come ad esempio quelli impiegati per valutare gli studenti e determinare l’accesso a istituzioni di formazione, i sistemi utilizzati per la selezione del personale, per promuovere o licenziare il personale, per assegnare compiti e mansioni, e per valutarne le performances, e i sistemi per valutare l’affidabilità e veridicità delle informazioni fornite da persone fisiche per prevenire o indagare su reati, i quali saranno obbligati a rispettare alcuni requisiti relativi alla loro affidabilità. La proposta di regolamento europeo descrive inoltre alcune pratiche vietate di intelligenza artificiale, quali ad esempio l’impiego di sistemi che utilizzino tecniche subliminali su persone inconsapevoli al fine di influenzarne il comportamento e causare danni fisici o psicologici, la messa in servizio di sistemi di Intelligenza Artificiale da parte di pubbliche autorità o per loro conto che valutino o classifichino l’affidabilità delle persone fisiche sulla base del loro comportamento sociale o di caratteristiche di personalità, attribuendo loro un punteggio sociale che generi in risposta un comportamento sfavorevole sproporzionato rispetto alla gravità del loro comportamento sociale. Viene inoltre vietato l’uso di sistemi di identificazione biometrica remota in tempo reale negli spazi accessibili al pubblico ai fini dell’applicazione della legge, a meno che non ci si trovi nell’eventualità di dover cercare in maniera mirata potenziali vittime di crimini, come i bambini scomparsi, o si debba intervenire per la prevenzione di minacce imminenti come il rischio di un attacco terroristico; l’impiego di tali algoritmi è autorizzato anche per l’identificazione e la localizzazione di un autore di reato o di un sospettato punibile con una pena di almeno tre anni. Per l’uso di tali sistemi di identificazione biometrica, si legge ancora nella proposta, sono comunque previsti una serie di specifici requisiti.

 

Risulta evidente come le potenzialità dei sistemi di Intelligenza Artificiale siano molteplici, ma allo stesso tempo potenzialmente rischiose ed è incredibile come le macchine riescano ad apprendere e riprodurre il pregiudizio umano, trasformandosi in sistemi non equi ed ingiusti e ritrovandosi ad emulare quella che è la società odierna. Gli studi e le misure adottate per la mitigazione del bias algoritmico si stanno rivelando un ottimo strumento, chissà se che con altrettanti sforzi si riuscirà un giorno a correggere anche il bias umano, risolvendo così il problema alla radice.

 

 

 

 

Giulia Rizzi

Studentessa del CdLM in Informatica presso l’Università degli Studi di Milano-Bicocca. Da sempre affascinata dalla tecnologia, cerca di espandere le sue conoscenze in diversi ambiti: dagli aspetti più tecnici come l’Artificial Intelligence ed il Machine Learning a quelli più creativi come l’Interazione Uomo Macchina e la Data Visualization.
Nel tempo libero le piace sperimentare e provare sempre nuove attività.

Maria Teresa Cimmino

Studentessa di Psicologia Sociale, Economica e delle Decisioni, il lungo e talvolta incomprensibile nome del suo cdl rispecchia la sua indole da inguaribile curiosa.

 

Appassionata di comunicazione digitale, attualità e sostenibilità, punta a trasmettere ciò che impara a più persone possibili attraverso la scrittura.