I legislatori statunitensi stanno chiedendo al Dipartimento di Giustizia (DOJ) di smettere di finanziare ciecamente strumenti di polizia ‘predittivi’.

I membri del Congresso richiedono standard più rigorosi per le sovvenzioni federali riguardanti il finanziamento del DOJ per gli strumenti di intelligenza artificiale collegati a pratiche di polizia tendenziose

🚨 Attenzione: Strumenti di “polizia” basati su intelligenza artificiale sotto investigazione 🚓🕵️‍♀️

Il Dipartimento di Giustizia degli Stati Uniti sta affrontando una pressione crescente da parte di un gruppo di legislatori determinati a far luce sull’uso di strumenti di “polizia” basati su intelligenza artificiale che potrebbero perpetuare pregiudizi e inesattezze all’interno delle agenzie di applicazione della legge. In una lettera ottenuta da ENBLE, sette membri del Congresso hanno espresso le loro preoccupazioni sul programma di sovvenzioni per la polizia del Dipartimento di Giustizia, affermando che le recenti rivelazioni hanno solo aggravato le loro preoccupazioni.

🔍 Dove sta l’accountability?

Secondo la lettera, il Dipartimento di Giustizia ha fallito nell’indagare se i destinatari delle sovvenzioni abbiano utilizzato fondi federali per l’acquisto di software di polizia discriminatori. Di conseguenza, i legislatori stanno esortando il Dipartimento di Giustizia a sospendere tutte le sovvenzioni per i sistemi di polizia predittiva fino a quando non si possa garantire che questi strumenti non avranno un impatto discriminatorio. In altre parole, chiedono una seria presa di coscienza.

🤔 Quindi, cos’è esattamente la polizia predittiva?

La polizia predittiva si basa sui dati storici sugli illeciti per prevedere possibili attività criminali. Tuttavia, le indagini hanno dimostrato che questi sistemi spesso replicano pregiudizi radicati, concentrandosi in modo sproporzionato su quartieri prevalentemente neri e latini. Invece di utilizzare previsioni accurate, questi sistemi perpetuano pericolosi circoli viziosi, portando a arresti discriminatori e una perpetua eccessiva della presenza di forze dell’ordine.

📊 Polizia predittiva? Più simile a… imprevedibile!

In realtà, un titolo sorprendente di The Markup lo dice in modo piuttosto esplicito: “Il software di polizia predittiva è pessimo nel prevedere i reati”. I ricercatori hanno scoperto che su 23.631 previsioni di crimine della polizia, questi sistemi hanno avuto un’accuratezza solo dell’1% delle volte. Sembra che fare affidamento su dati storici distorti e pregiudizievole porti a tutto tranne che a previsioni precise dei crimini.

💡 Un appello all’azione e alla trasparenza

Guidato dal senatore Ron Wyden dell’Oregon, questo gruppo di legislatori sottolinea che il Dipartimento di Giustizia ha l’obbligo legale di rivedere periodicamente se i destinatari delle sovvenzioni rispettino il Titolo VI del Civil Rights Act. È vietato finanziare programmi che discriminano sulla base di razza, etnia o origine nazionale. Con l’imminente rapporto presidenziale sulla polizia e sull’intelligenza artificiale, i legislatori stanno spingendo per un’indagine approfondita sull’uso di strumenti di polizia predittiva. Vogliono una valutazione dettagliata dell’accuratezza, dell’interpretabilità e della validità di questi modelli, insieme alla valutazione dei rischi derivanti dalla mancanza di trasparenza da parte delle aziende che li sviluppano.

⚖️ Lasciamo parlare le prove

Se il Dipartimento di Giustizia desidera continuare a finanziare queste tecnologie, i legislatori esigono l’istituzione di standard di prova per determinare quali modelli predittivi sono discriminatori. Qualsiasi modello che non soddisfi tali standard dovrebbe essere respinto per il finanziamento. È ora di rendere questi strumenti responsabili e assicurarci che non perpetuino ulteriormente disuguaglianza e ingiustizia.

🔮 Il futuro della polizia predittiva

Questo dialogo in corso e l’indagine sugli strumenti di polizia predittiva mettono in luce la necessità di un’implementazione responsabile ed etica dell’intelligenza artificiale nell’applicazione della legge. Mentre navighiamo nell’intersezione tra tecnologia e polizia, diventa evidente che la trasparenza, l’equità e l’accuratezza sono fondamentali. È ora di immaginare nuove pratiche di polizia con uno sguardo critico sulle possibili insidie dei sistemi basati su intelligenza artificiale.

🔗 Ecco alcuni altri link correlati a questo argomento: 1. Titolo VI del Civil Rights Act 2. Pregiudizi nei sistemi di intelligenza artificiale 3. L’impatto dell’intelligenza artificiale sull’applicazione della legge 4. Polizia predittiva: sfide e critiche 5. Etica dell’intelligenza artificiale nell’applicazione della legge

📣 Facciamo una conversazione!

Cosa ne pensi della polizia predittiva? Credi che queste tecnologie possano essere utilizzate in modo responsabile ed etico? Unisciti alla discussione e condividi la tua prospettiva. E non dimenticare di diffondere la notizia sui social media!

#AI #Polizia #PoliziaPredittiva #Tecnologia #ApplicazioneDellaLegge