Gli algoritmi di intelligenza artificiale sono prevenuti contro la pelle con tonalità gialle

Gli algoritmi di intelligenza artificiale riconoscono la pelle con tonalità gialle

Dopo che nel 2018 sono emerse prove che gli algoritmi leader di analisi del viso erano meno accurati per le persone dalla pelle più scura, aziende come Google e Meta hanno adottato misure del tono della pelle per testare l’efficacia del loro software di intelligenza artificiale. Nuove ricerche di Sony suggeriscono che questi test non tengano conto di un aspetto cruciale della diversità del colore della pelle umana.

Secondo i ricercatori di Sony, le misure comuni di oggi che esprimono il tono della pelle usando solo una scala scorrevole dal più chiaro al più scuro o dal bianco al nero ignorano il contributo delle sfumature gialle e rosse alla gamma di colori della pelle umana. Hanno scoperto che i sistemi generativi di intelligenza artificiale, gli algoritmi di ritaglio delle immagini e gli strumenti di analisi fotografica hanno tutti difficoltà particolari con la pelle più gialla. La stessa debolezza potrebbe applicarsi a una serie di tecnologie la cui precisione è dimostrato essere influenzata dal colore della pelle, come il software di intelligenza artificiale per il riconoscimento facciale, il tracciamento del corpo e la rilevazione dei deepfake, o dispositivi come i monitor del battito cardiaco e i rilevatori di movimento.

“Se i prodotti vengono valutati solo in questo modo molto unidimensionale, ci sono molti pregiudizi che passeranno inosservati e non saranno mitigati”, afferma Alice Xiang, ricercatrice principale e responsabile globale di etica dell’intelligenza artificiale presso Sony. “La nostra speranza è che il lavoro che stiamo facendo qui possa contribuire a sostituire alcune delle scale esistenti che si concentrano davvero solo sulla luce rispetto al buio”.

Ma non tutti sono così sicuri che le opzioni esistenti siano insufficienti per valutare i sistemi di intelligenza artificiale. Ellis Monk, sociologo dell’Università di Harvard, afferma che una palette di 10 tonalità di pelle che offre opzioni dal chiaro al scuro, che ha introdotto insieme a Google l’anno scorso, non è unidimensionale. “Devo ammettere di essere un po’ perplesso dalla pretesa che le ricerche precedenti in questo settore abbiano ignorato le sfumature e la tonalità”, afferma Monk, il cui sistema di tonalità della pelle Monk è reso disponibile da Google per l’uso di altre persone. “La ricerca era dedicata a decidere quali sfumature privilegiare lungo la scala e in quale punto”. Ha scelto le 10 tonalità di pelle sulla sua scala basandosi sui suoi studi sul colorismo e dopo aver consultato altri esperti e persone provenienti da comunità sottorappresentate.

X. Eyeé, CEO della consulenza sull’etica dell’intelligenza artificiale Malo Santo e che in passato ha fondato il team di ricerca sulle tonalità della pelle di Google, afferma che la scala di Monk non è mai stata pensata come soluzione definitiva e definisce il lavoro di Sony un importante progresso. Ma Eyeé avverte anche che la posizione della telecamera influisce sui valori di colore CIELAB in un’immagine, uno dei vari problemi che rendono lo standard un punto di riferimento potenzialmente poco affidabile. “Prima di attivare la misurazione della tonalità della pelle negli algoritmi di intelligenza artificiale nel mondo reale, come i filtri fotocamera e le videoconferenze, è necessario fare ulteriori lavori per garantire una misurazione coerente”, afferma Eyeé.

La disputa sulle scale va oltre l’ambito accademico. Trovare misure appropriate di “equità”, come la chiamano i ricercatori di intelligenza artificiale, è una priorità importante per il settore tecnologico mentre i legislatori, compresi quelli dell’Unione europea e degli Stati Uniti, discutono la necessità che le aziende auditino i loro sistemi di intelligenza artificiale e segnalino rischi e difetti. I ricercatori di Sony sostengono che metodi di valutazione non validi potrebbero erodere alcuni dei benefici pratici delle normative.

Riguardo al colore della pelle, Xiang afferma che gli sforzi per sviluppare misure aggiuntive e migliorate saranno senza fine. “Dobbiamo continuare a cercare di progredire”, dice. Monk afferma che diverse misure potrebbero rivelarsi utili a seconda della situazione. “Sono molto contento che ci sia un crescente interesse in questo campo dopo un lungo periodo di negligenza”, afferma. Brian Gabriel, portavoce di Google, afferma che l’azienda accoglie con favore le nuove ricerche e le sta esaminando.

Se i prodotti vengono valutati solo in questo modo molto unidimensionale, i pregiudizi passeranno inosservati e non saranno mitigati

Il colore della pelle di una persona deriva dall’interazione della luce con le proteine, le cellule del sangue e i pigmenti come la melanina. Il modo standard per testare gli algoritmi per il pregiudizio causato dal colore della pelle è stato quello di verificare come si comportano su diverse tonalità di pelle, lungo una scala di sei opzioni che va dal più chiaro al più scuro nota come scala di Fitzpatrick. È stata originariamente sviluppata da un dermatologo per stimare la risposta della pelle alla luce UV. L’anno scorso, i ricercatori di intelligenza artificiale di tutto il settore hanno applaudito l’introduzione da parte di Google della scala di Monk, definendola più inclusiva.

I ricercatori di Sony affermano in uno studio presentato questa settimana alla Conferenza internazionale sulla visione artificiale a Parigi che uno standard internazionale del colore noto come CIELAB, utilizzato nella modifica delle foto e nella produzione, indica un modo ancora più fedele per rappresentare lo spettro ampio della pelle. Quando hanno applicato lo standard CIELAB per analizzare le foto di diverse persone, hanno scoperto che la loro pelle variava non solo per tonalità, ma anche per la tonalità, ovvero la gradazione di essa.

Le scale del colore della pelle che non catturano correttamente le sfumature rosse e gialle della pelle umana sembrano aver contribuito a mantenere alcuni pregiudizi non rilevati negli algoritmi di immagine. Quando i ricercatori di Sony hanno testato sistemi di intelligenza artificiale open-source, tra cui un algoritmo di ritaglio delle immagini sviluppato da Twitter e una coppia di algoritmi di generazione di immagini, hanno riscontrato una preferenza per la pelle più rossa, il che significa che un gran numero di persone con una tonalità di pelle più gialla sono sottorappresentate nelle immagini finali generate dagli algoritmi. Ciò potrebbe mettere potenzialmente in svantaggio varie popolazioni, tra cui quelle dell’Asia orientale, dell’Asia meridionale, dell’America Latina e del Medio Oriente.

I ricercatori di Sony hanno proposto un nuovo modo di rappresentare il colore della pelle per catturare quella diversità precedentemente ignorata. Il loro sistema descrive il colore della pelle in un’immagine utilizzando due coordinate, anziché un singolo numero. Specifica sia un posto lungo una scala da chiaro a scuro che su un continuum dal giallo al rosso, o quello che l’industria dei cosmetici chiama a volte sottotoni caldi o freddi.

Il nuovo metodo funziona isolando tutti i pixel di un’immagine che mostrano la pelle, convertendo i valori dei colori RGB di ogni pixel in codici CIELAB e calcolando una tonalità e un tono medi all’interno di gruppi di pixel di pelle. Un esempio nello studio mostra delle foto apparenti del ex stella del football americano Terrell Owens e della defunta attrice Eva Gabor che condividono un colore della pelle ma separati per tonalità, con l’immagine di Owens più rossa e quella di Gabor più gialla.

Le scale di colore che non catturano correttamente le tonalità rosse e gialle della pelle umana hanno contribuito a mantenere nascosti dei pregiudizi negli algoritmi di immagine.

Quando il team di Sony ha applicato il loro approccio a dati e sistemi di intelligenza artificiale disponibili online, hanno trovato problemi significativi. CelebAMask-HQ, un popolare set di dati di volti di celebrità utilizzato per addestrare riconoscimenti facciali e altri programmi di visione artificiale, aveva l’82% delle sue immagini orientate verso tonalità di pelle rosse, e un altro set di dati FFHQ, sviluppato da Nvidia, era orientato verso il lato rosso al 66%, hanno scoperto i ricercatori. Due modelli generativi di intelligenza artificiale addestrati su FFHQ hanno riprodotto il pregiudizio: Circa quattro immagini su cinque generate da ciascuno di loro erano orientate verso tonalità rosse.

Ma non finisce qui. I programmi di intelligenza artificiale ArcFace, FaceNet e Dlib hanno funzionato meglio su pelli più rosse quando sono stati chiesti di identificare se due ritratti corrispondono alla stessa persona, secondo lo studio di Sony. Davis King, lo sviluppatore che ha creato Dlib, ha detto di non essere sorpreso dal pregiudizio perché il modello è addestrato principalmente su immagini di celebrità statunitensi. Gli strumenti di intelligenza artificiale basati su cloud di Microsoft Azure e Amazon Web Services per rilevare sorrisi hanno funzionato meglio su tonalità più rosse. Nvidia ha rifiutato di commentare, e Microsoft e Amazon non hanno risposto alle richieste di commento.

Come persona con una pelle giallastra, la scoperta dei limiti del modo in cui l’intelligenza artificiale viene testata oggi preoccupa Xiang. Dice che Sony analizzerà i propri modelli di visione artificiale incentrati sull’essere umano utilizzando il nuovo sistema quando saranno sottoposti a revisione, anche se ha rifiutato di specificare quali. “Tutti noi abbiamo tipi di tonalità della pelle così diverse. Questo non dovrebbe essere qualcosa che viene usato per discriminare contro di noi”, afferma.

L’approccio di Sony ha un ulteriore potenziale vantaggio. Misure come la scala Monk di Google richiedono agli esseri umani di categorizzare in quale punto dello spettro si adatta la pelle di una persona specifica. Questo è un compito che gli sviluppatori di intelligenza artificiale dicono che introduce variabilità, perché le percezioni delle persone sono influenzate dalla loro posizione o dalle loro concezioni di razza e identità.

L’approccio di Sony è completamente automatizzato, non richiede giudizio umano. Ma Monk di Harvard si chiede se sia meglio così. Misure oggettive come quelle di Sony potrebbero finire per semplificare o ignorare altre complessità della diversità umana. “Se il nostro obiettivo è eliminare i pregiudizi, che è anche un fenomeno sociale, allora non sono così sicuro che dovremmo eliminare dal nostro analisi il modo in cui gli esseri umani percepiscono socialmente la tonalità della pelle”, dice.

Joanne Rondilla, sociologa presso l’Università di San José, che ha studiato il colorismo e le comunità asiatico-americane, apprezza il tentativo di Sony di considerare le tonalità. Spera anche che gli sviluppatori di intelligenza artificiale collaborino con gli scienziati sociali per considerare come politica, strutture di potere e dimensioni sociali aggiuntive influenzino le percezioni del colore della pelle. La scala “sviluppata tramite il progetto Sony può aiutare gli studiosi a comprendere le questioni del colorismo”, dice.

Xiang di Sony ammette che il colorismo è inevitabilmente insito nel modo in cui gli esseri umani discutono e pensano alla pelle. In definitiva, non sono solo le macchine che devono guardare i colori in modo diverso. Spera che il settore possa fare meglio, ma è consapevole che il progresso non sarà necessariamente facile. Anche se i ricercatori di intelligenza artificiale come lei hanno spinto per una visione più sfumata del genere, molti studi si limitano a classificare ogni persona nel binario maschile o femminile.

“Questi processi enormemente problematici derivano da un forte desiderio di mettere le persone nei contenitori minimi possibili necessari per ottenere una valutazione dell’equità e superare qualche tipo di test”, afferma Xiang. C’è valore nella semplicità, dice, ma aggiungere nuove dimensioni è importante quando l’atto di rendere le persone leggibili dalle macchine finisce per oscurare la loro vera diversità.