Riconoscimento facciale difettoso porta a falsa imprigionamento

La rilevazione del volto difettosa porta a un falso arresto

Il 26 marzo 2022, si è verificata un’aggressione violenta su un autobus dell’Amministrazione dei Trasporti del Maryland nella periferia di Baltimora. L’aggressore ha colpito ripetutamente la conducente dell’autobus, una donna, dopo una discussione sulle regole di mascheramento COVID, per poi fuggire con il suo cellulare.

Secondo un recente articolo del New Yorker report, le telecamere di sorveglianza hanno catturato delle immagini dell’aggressore. La polizia dei trasporti ha utilizzato queste immagini per creare un bollettino “Siate in guardia” distribuito alle forze dell’ordine.

Un analista presso l’ufficio del procuratore dello stato della contea di Harford ha fatto passare una delle immagini di sorveglianza attraverso un software di riconoscimento facciale. L’algoritmo ha individuato una corrispondenza con Alonzo Cornelius Sawyer, un uomo di colore di circa 50 anni di Abingdon, MD.

Sawyer è stato arrestato giorni dopo, durante un’udienza per un caso non correlato.

La polizia lo ha interrogato e gli ha mostrato le immagini del bollettino “Siate in guardia”, ma lui ha insistito sul fatto che non fosse lui – tuttavia, le sue affermazioni sono state respinte dopo che il suo ufficiale di libertà vigilata, Arron Daugherty, ha identificato positivamente Sawyer come l’aggressore dopo aver visionato le riprese. Daugherty aveva incontrato Sawyer solo brevemente due volte in precedenza, mentre Sawyer indossava una maschera.

Anche la moglie di Sawyer, Carronne Jones-Sawyer, ha negato con veemenza che le immagini mostrassero suo marito, citando differenze fisiche nell’età, nella corporatura, nell’abbigliamento e altro ancora. Ha fornito possibili alibi che mettevano Sawyer lontano dalla scena del crimine quando l’aggressione è avvenuta. Tuttavia, i detective non hanno effettuato ulteriori indagini per corroborare la corrispondenza del riconoscimento facciale.

Prevenire le discriminazioni razziali nell’IA

Questo caso illustra i rischi di un’eccessiva affidabilità degli strumenti dell’IA senza standard sufficienti.

Le discriminazioni razziali portano i sistemi di riconoscimento facciale a identificare in modo errato le persone di colore con una frequenza molto più alta. La corrispondenza algoritmica ha prevalso sulle testimonianze oculari contraddittorie nell’indagine della polizia.

Dopo un mese in prigione, le accuse sono state ritirate quando Daugherty ha espresso dubbi dopo un incontro con la moglie di Sawyer. L’uso del riconoscimento facciale non è mai stato comunicato a Sawyer. Né lui né sua moglie sono stati informati quando un altro uomo è stato poi arrestato.

La storia solleva preoccupazioni riguardo a una formazione inadeguata nel riconoscimento facciale, alla mancanza di corroboratione, alla mancata divulgazione dell’uso di questa tecnologia e al pregiudizio di conferma, che porta la polizia a respingere prove contraddittorie.

Alcuni critici sostengono che l’utilizzo del riconoscimento facciale dovrebbe essere vietato o strettamente limitato, dati i potenziali abusi e l’affermazione dell’ingiustizia senza un’adeguata supervisione. Sawyer crede che avrebbe fatto una falsa confessione di colpevolezza senza l’intervento di sua moglie, dimostrando come questa pratica possa favorire una persecuzione eccessivamente zelante.

Con l’avanzamento rapido delle tecnologie dell’IA, il pubblico ha bisogno di protezione contro tecnologie non comprovate. L’esperienza di Sawyer sottolinea l’urgente necessità di riforme, trasparenza e responsabilità per prevenire ulteriori incarcerazioni ingiuste.

Credit Immagine in primo piano: Cottonbro Studio; Pexels; Grazie!