La scoperta di un gruppo di utenti
Da una ricerca recente è emerso come le anteprime delle foto postate favoriscano sempre i volti non di colore. Non è la prima volta in cui ci si trova a riflettere sulla lunga storia di pregiudizi fra social network e sistemi di riconoscimento visivi. È ormai cosa nota che gli algoritmi dei social svelino alcune storture di base, legate a retaggi storici e pregiudizi nei confronti delle minoranze. Lo scorso giugno a finire alla sbarra degli imputati era stato Instagram, un’indagine di AlgorithmWatch aveva, infatti, dimostrato come se ti spogli sul social accumuli più likes, dal momento che l’algoritmo ti lascia in pasto su più bacheche e favorisce la tua foto rispetto ad altre, sostenendo le attività e la popolarità sul social. Alcuni utenti su Twitter hanno scoperto che postando un’immagine raffigurante un soggetto bianco e uno nero, l’anteprima che ne deriva favorisce quasi sempre il soggetto bianco. Insomma… è il bianco che resta in vetrina, perfino quando è meno importante dal punto di vista della rilevanza pubblica (un’anteprima aveva, infatti, eliminato anche Barack Obama).
Da Zoom a Twitter
La questione è emersa come in un gioco di scatole cinesi: un utente aveva infatti denunciato su Twitter un problema simile relativo a Zoom, la piattaforma per le videochiamate: non mostrava il volto di un utente di colore che partecipava a una videocall. Quando è stata pubblicata la foto su Twitter, si è scoperto che pure il social guidato da Jack Dorey favoriva il volto bianco rispetto a quello del collega.
Non solo foto
Molti altri utenti si sono poi cimentati in simili esperimenti e, a quanto pare, il meccanismo scatta anche con le illustrazioni, i cartoon e perfino con i cani, favorendo il mantello bianco o chiaro su un quadrupede con pelo scuro. La rete di Twitter, che automaticamente taglia le immagini che vengono allegate ai tweet, aveva mostrato altri problemi fin dalla fase di sviluppo iniziale. Nella discussione è intervenuto anche Dantley Davis, chief design officer di Twitter, che ha invece riportato un esempio in cui tale pregiudizio non si verificava, ammettendo tuttavia che si parlava di una prova non verificata. Insomma, si trattava un fatto casuale. Le questioni del genere sono solo la punta dell’icerberg di una lunga serie di pregiudizi che gli algoritmi, si portano dietro nelle applicazioni più articolate. Il razzismo di questi sistemi venne apertamente denunciato dopo che un’indagine dell’American Civil Liberties Union su Amazon Rekognition, confuse 28 parlamentari eletti alla Camera e al Senato con le fotosegnaletiche tratte da un database della Polizia di 25mila detenuti. Non solo imprecisione: nel 39% dei casi i parlamentari scambiati per criminali erano uomini e donne di colore che però rappresentano solo il 20% dei 535 esponenti del Congresso messi a confronto con il database.
Precedenti sui social network
Come spiegano le reazioni disorientate dei manager di Twitter, tali precedenti spesso svelano tutte le difficoltà di entrare nella cosiddetta black box in cui sono rinchiusi tutti i calcoli che vengono eseguiti dagli algoritmi. Se nel 2015 il sistema di riconoscimento di immagini di Google catalogò alcune persone di colore come “gorilla”, un paio di anni dopo un altro sistema di Big G, il Cloud Natural Language API, giudicava in modo negativo alcune affermazioni relative alla religiosità e sessualità come “sono ebreo” o “sono gay”. Intanto Facebook, che possiede una lunga storia di precedenti in questo senso con ampie ricadute su donne e minoranze, ha messo in piedi lo scorso luglio un team internazionale con il compito di verificare se i propri algoritmi, compresi quelli di Instagram, siano contraddistinti da pregiudizi razziali. Non è detto che sia sufficiente, dal momento che il punto più critico è spesso costituito dai database di partenza sui quali questi algoritmi vengono addestrati.
Costanza Falco
Leave A Reply