top of page
  • Valeria Balestra

Coded Bias, presenti algoritmici

Aggiornamento: 10 giu 2021


Un documentario, ora disponibile su Netflix, sui pregiudizi che influenzano gli algoritmi e sugli algoritmi che, a loro volta, influenzano sempre più le società contemporanee, con conseguenze inquietanti.


Illustrazione di Valeria Balestra

Quale mente si nasconde dietro i 246 mila emendamenti presentati dalla Lega il 20 aprile contro il D.L. che prevede una maggior tutela di animali ed ambiente? Nessuna mente o, per meglio dire, uno o più programmatori piuttosto, che hanno confezionato un algoritmo in grado di creare un’ingente mole di varianti del medesimo testo cambiando qualche parola e segno interpuntivo. Basta un algoritmo nelle mani sbagliate e l’iter legislativo rischia di bloccarsi. No, non è una storia tratta da un film sci-fi.


Questa è però solo una delle possibili applicazioni delle A.I. (Artificial Intelligence), una delle più “innocue” si potrebbe dire, ed il documentario Coded Bias, da aprile su Netflix, non poteva uscire in un momento migliore per aprire uno scorcio su quanto e come gli algoritmi possono – e lo stanno già facendo – cambiare il mondo che ci circonda.


Firmato da Shalini Kentayya, regista pluripremiata, e premiato a sua volta al Sundance Film Festival del 2020, Coded Bias segue le vicende che hanno portato la ricercatrice del MIT Joy Buolamwini a scoprire come alcuni algoritmi alla base dei software più diffusi di riconoscimento facciale risentano di quei pregiudizi di genere ed etnia che caratterizzano i loro stessi creatori. Come, in sostanza, questi algoritmi siano lo specchio dei tempi in cui viviamo e dei suoi peggiori difetti.


Partendo dall’idea di progettare un Aspire Mirror, uno specchio motivazionale che associasse il volto dell’utente a ciò che più lo ispira, Joy Buolamwini si rese presto conto che tutte le tecnologie sviluppate dalle Big Tech per il riconoscimento facciale erano in grado di riconoscere il suo volto solo nel momento in cui vi anteponeva una maschera bianca.

I dati da lei raccolti provarono che queste tecnologie erano infatti tarate per riconoscere più accuratamente volti di maschi bianchi, esattamente quali sono i fondatori e creatori delle aziende che li producono. Riportando i dati di Buolamwini nello specifico caso di IBM, per esempio, le percentuali di accuratezza nel riconoscimento si distribuivano come segue: i maschi bianchi venivano riconosciuti nel 99.7% dei casi, le donne bianche nel 92.9%, i maschi neri nell’88% e le femmine nere nel 65%.


Questi dati non avrebbero grandi ripercussioni se venissero usati soltanto per creare specchi motivazionali, ma gli scenari diventano molto più allarmanti nel momento in cui Amazon, tra i fornitori di questi software, si trova a collaborare con l’FBI e le forze dell’ordine per identificare presunti criminali in circolazione. Non è difficile intuire che, per la scarsa accuratezza dei dataset, è molto più probabile associare il volto di una donna nera innocente ad una criminale ed arrestarla rispetto alla probabilità che questo accada ad un maschio bianco, proprio a causa dei pregiudizi con cui questi algoritmi vengono “nutriti” e che, più in generale, ancora affliggono la nostra società.


La cinepresa non si concentra però su un solo soggetto, ma attraversa oceani e continenti, passando dagli Stati Uniti alla Cina con uno scalo a Londra, registrando voci e storie di una costellazione di protagonisti minori, esempi di come l’utilizzo di queste tecnologie abbia delle conseguenze, spesso inquietanti.


Se infatti negli USA gli insegnanti possono essere licenziati per colpa di un algoritmo e sistemi di riconoscimento biometrico vengono installati soprattutto in comunità nere, in Cina è possibile pagare la spesa semplicemente mostrando il proprio viso ed il Sistema di Credito Sociale valuta con una percentuale, calcolata da un algoritmo, l’affidabilità di un cittadino in base alla propria opinione sul partito, permettendogli o meno di prendere un aereo o un treno.


Non è solo questa attenzione della regista alle persone, ai suoi protagonisti maggiori e minori, e, quindi, alla loro umanità a restituire la misura della sensibilità dell’occhio di Shalini Kentayya, ma anche la chiusura che apre alla speranza, sentimento tipicamente umano, in un cambiamento in positivo.


Dalla Cina, si ritorna infatti negli Stati Uniti, a Washington D.C. per la precisione, dove Joy Buolamwini presenta i risultati della sua ricerca al Congresso, mentre la regista presenta a noi, prima dei titoli di coda, i benefici che ne sono seguiti: il 10 giugno 2020 Amazon annuncia una pausa di un anno dalla sua collaborazione con le forze dell’ordine ed il 25 giugno dello stesso anno viene emanato il Facial Recognition and Biometric Technology Moratorium Act, che limita l’uso di queste tecnologie da parte di entità federali.


Il documentario è fresco e, quasi esaltando per contrasto il dato che nello stesso viene riportato, ovvero che solo il 14% dei ricercatori specializzati in A.I. è di genere femminile, la narrazione è portata avanti da quasi tutte ricercatrici, ma, più in generale, dalla voce di una grande maggioranza femminile finalmente.


Non mancano nemmeno le grandi citazioni tratte dal cinema sci-fi, dal cult firmato Kubrick 2001: Odissea nello spazio al pop Star Wars, che mette in risalto anche in questo caso, di nuovo per contrasto, quanto la realtà rischi pericolosamente di avvicinarsi alle peggiori distopie mai immaginate, lasciandoci la speranza, sì, di potercene discostare, ma, al contempo, anche l’ennesima riprova delle peggiori derive di cui, ancora oggi, siamo spettatori, pur senza andare al cinema.

bottom of page