Sony AI propone una nuova soluzione per affrontare il pregiudizio della visione artificiale nei confronti della pelle gialla.

Sony AI propone una soluzione per contrastare il pregiudizio della visione artificiale verso la pelle gialla.

Il colosso giapponese della tecnologia Sony ha descritto un possibile modo per misurare il pregiudizio del sistema nei confronti di alcuni toni di pelle in un recente documento.

I sistemi di visione artificiale hanno storicamente avuto difficoltà nel rilevare e analizzare con precisione individui con sottotoni gialli nella loro tonalità della pelle. La scala standard dei tipi di pelle di Fitzpatrick non tiene adeguatamente conto delle variazioni di tonalità della pelle, concentrandosi solo sulla tonalità dalla chiara alla scura. Di conseguenza, i dataset e gli algoritmi standard mostrano una ridotta performance sulle persone con tonalità di pelle gialla.

Questo problema colpisce in modo sproporzionato certi gruppi etnici, come gli asiatici, portando a risultati ingiusti. Ad esempio, studi hanno dimostrato che i sistemi di riconoscimento facciale prodotti in Occidente hanno una precisione inferiore per i volti asiatici rispetto alle altre etnie. La mancanza di diversità nei dati di addestramento è un fattore chiave che alimenta questi pregiudizi.

Nel documento, i ricercatori di Sony AI hanno proposto un approccio multidimensionale per misurare il colore della pelle apparente nelle immagini al fine di valutare meglio l’equità nei sistemi di visione artificiale. Lo studio sostiene che l’approccio comune di utilizzare la scala dei tipi di pelle di Fitzpatrick per caratterizzare il colore della pelle è limitato, in quanto si concentra solo sulla tonalità della pelle dalla chiara alla scura. Invece, i ricercatori propongono di misurare sia la luminosità percettiva L*, per catturare la tonalità della pelle, che l’angolo di tonalità h*, per catturare la tonalità della pelle che va dal rosso al giallo. William Thong, autore principale dello studio, ha spiegato:

“Sebbene pratico ed efficace, ridurre il colore della pelle alla sua tonalità è limitante data la complessità costitutiva della pelle. […] Pertanto, promuoviamo una scala multidimensionale per rappresentare meglio le variazioni apparenti del colore della pelle tra gli individui nelle immagini.”

I ricercatori hanno dimostrato il valore di questo approccio multidimensionale in diversi esperimenti. In primo luogo, hanno mostrato che i dataset delle immagini di volti standard come CelebAMask-HQ e FFHQ sono sbilanciati verso la tonalità della pelle rossa chiara e sottorappresentano le tonalità di pelle gialla scura. I modelli generativi addestrati su questi dataset riproducono un pregiudizio simile.

In secondo luogo, lo studio ha rivelato pregiudizi di tonalità della pelle e tonalità nella modifica delle immagini basata sulla salienza e nei modelli di verifica dei volti. L’algoritmo di ritaglio delle immagini di Twitter ha mostrato una preferenza per le tonalità della pelle rosse chiare. I modelli di verifica dei volti popolari hanno anche ottenuto risultati migliori su tonalità di pelle chiara e rossa.

Infine, manipolando la tonalità e la tonalità della pelle si sono rivelati effetti causali nei modelli di previsione degli attributi. Le persone con tonalità della pelle più chiare avevano maggiori probabilità di essere classificate come femminili, mentre quelle con tonalità della pelle più rosse venivano più frequentemente previste come sorridenti. Thong ha concluso:

“I nostri contributi per valutare il colore della pelle in modo multidimensionale offrono nuove intuizioni, precedentemente invisibili, per comprendere meglio i pregiudizi nella valutazione dell’equità sia dei dataset che dei modelli.”

I ricercatori raccomandano di adottare scale multidimensionali del colore della pelle come strumento di equità durante la raccolta di nuovi dataset o nella valutazione dei modelli di visione artificiale. Ciò potrebbe contribuire ad attenuare problemi come la sottorappresentazione e le differenze di performance per specifiche tonalità di pelle.

Credit immagine in evidenza: