Software di sorveglianza IA monitora i passeggeri della metropolitana di Londra

Il Trasporto di Londra ha utilizzato un sistema di visione computerizzata per tentare di rilevare crimini e armi, persone che cadono sui binari e evasori di tariffa durante un test presso una singola stazione, secondo documenti ottenuti da WIRED.

La metropolitana di Londra sta attualmente testando strumenti avanzati di sorveglianza basati sull’intelligenza artificiale (IA) che possono identificare e prevenire attività criminali in tempo reale.

👀🚇🔎📸💻

Gli utenti della metropolitana potrebbero rimanere sorpresi nel sapere che i loro movimenti, comportamenti e linguaggi del corpo vengono monitorati da un software di sorveglianza basato sull’IA. 🤖📹 Il software, combinato con le immagini in tempo reale delle telecamere di sorveglianza, è stato progettato per rilevare segni di aggressività, la presenza di armi e situazioni non sicure come persone che cadono sui binari o che evadono il pagamento del biglietto. La sperimentazione, condotta da Transport for London (TfL), ha testato 11 algoritmi presso la stazione della metropolitana di Willesden Green.

Durante il periodo di prova, da ottobre 2022 a settembre 2023, TfL ha generato oltre 44.000 segnalazioni, di cui 19.000 sono state inviate in tempo reale al personale della stazione. Le segnalazioni generate avevano lo scopo di fornire informazioni e assistenza al personale di prima linea. Gli algoritmi basati sull’IA utilizzavano la visione artificiale per rilevare vari comportamenti, inclusi accessi non autorizzati, attività criminali potenziali e situazioni di pericolo per le persone stesse.

Tuttavia, la sperimentazione non è stata priva di difetti. Il sistema basato sull’IA ha commesso errori, ad esempio scambiando dei bambini accompagnati dai loro genitori come persone che evadono il pagamento del biglietto o non riuscendo a distinguere tra una bicicletta pieghevole e una non pieghevole. Per migliorare l’accuratezza nella rilevazione delle armi, durante la chiusura della stazione, sono stati coinvolti agenti di polizia che hanno esposto machete e pistole davanti alle telecamere di sorveglianza.

Nonostante le preoccupazioni sulla privacy riguardanti l’uso della sorveglianza basata sull’IA negli spazi pubblici, TfL sostiene che la sperimentazione sia stata condotta utilizzando immagini delle telecamere di sorveglianza esistenti e modelli di rilevamento multipli. I dati raccolti sono conformi alle politiche di TfL e vengono conservati per un massimo di 14 giorni. Mandy McGregor, responsabile della politica e della sicurezza della comunità di TfL, afferma che durante la sperimentazione non sono emerse evidenze di pregiudizi. TfL sta attualmente analizzando i risultati e sta valutando il design e l’ambito di una seconda fase della sperimentazione.

💭💻🔍

Domande e Risposte: Cosa Vogliono Sapere i Lettori?

D: Quanto accurate sono gli algoritmi di rilevamento degli oggetti utilizzati nella sperimentazione?

Gli algoritmi di rilevamento degli oggetti, come quelli utilizzati in questa sperimentazione, sono generalmente imperfetti e possono commettere errori. Il sistema basato sull’IA in questa sperimentazione aveva delle limitazioni, come ad esempio confondere determinati oggetti o comportamenti. È difficile catturare le complessità e le sfumature del comportamento umano nei dati di addestramento. Pertanto, è importante affrontare l’uso dei sistemi di apprendimento automatico per la rilevazione dell’aggressività con cautela, poiché potrebbero riprodurre pregiudizi sociali.

D: Quali sono le implicazioni sulla privacy derivanti dall’uso di sistemi di sorveglianza basati sull’IA negli spazi pubblici?

L’uso di sistemi di sorveglianza basati sull’IA solleva preoccupazioni riguardanti la privacy e i diritti individuali. Sebbene questa sperimentazione non abbia coinvolto la tecnologia del riconoscimento facciale, solleva dibattiti sulla possibile espansione dei sistemi di sorveglianza per includere metodi di rilevamento più avanzati o software di riconoscimento facciale. Sorgono questioni etiche, legali e sociali quando tali tecnologie vengono implementate senza consultazione pubblica e senza supervisione. Una governance trasparente e la fiducia pubblica sono essenziali durante l’implementazione di questi sistemi.

D: La tecnologia di sorveglianza basata sull’IA sarà implementata anche in altre stazioni?

La sperimentazione di TfL è stata una prova concettuale e non sono state prese decisioni riguardo all’uso più ampio di questa tecnologia. Se la tecnologia dovesse essere espansa, sarebbe necessaria una completa consultazione con le comunità locali, gli stakeholder rilevanti e gli esperti del settore. La sperimentazione aveva l’obiettivo di raccogliere informazioni per migliorare il personale e aumentare la sicurezza dei passeggeri. Tuttavia, qualsiasi ulteriore implementazione richiederebbe una valutazione attenta, tenendo conto del consenso e del supporto pubblico.

💡🔍📑

Approfondimenti e Sviluppi Futuri

L’uso della tecnologia di sorveglianza basata sull’IA negli spazi pubblici, inclusi i sistemi di trasporto, è in continua crescita. Sperimentazioni simili sono state condotte in città come New York, dove l’IA viene utilizzata per tracciare l’elusione del pagamento del biglietto. Queste iniziative vengono spesso viste nel contesto della creazione di città intelligenti. Tuttavia, la mancanza di leggi e regolamentazioni specifiche che disciplinano l’uso dell’IA in questi contesti ha sollevato preoccupazioni riguardo ad un vuoto normativo.

Alla luce di questi sistemi che diventano sempre più diffusi, è possibile che vi siano sviluppi e ampliamenti che potrebbero sollevare ulteriori preoccupazioni. La capacità di aggiornare e migliorare continuamente le funzionalità di questi sistemi solleva domande riguardo all’ambito e ai limiti della sorveglianza. Trovare il giusto equilibrio tra sicurezza e privacy è cruciale per prevenire la normalizzazione della sorveglianza pervasiva e l’erosione delle libertà individuali.

💡🔗 Ecco alcuni articoli pertinenti, per approfondire la lettura:

  1. La crescita della sorveglianza basata sull’IA negli spazi pubblici
  2. Il vuoto normativo nel Regno Unito riguardo alla sorveglianza basata sull’IA
  3. Le implicazioni etiche delle tecnologie di riconoscimento facciale

🙋‍♀️🙋‍♂️💬

Unisciti alla conversazione e condividi le tue opinioni

Cosa ne pensi dell’uso della sorveglianza AI negli spazi pubblici? Lo consideri uno strumento prezioso per migliorare la sicurezza o una potenziale minaccia per la privacy? Condividi le tue opinioni e facci sapere cosa ne pensi! 🗣💭

✨✨✨

Ricorda di seguirci sui social media per ulteriori articoli interessanti sulle ultime tendenze e sviluppi tecnologici. Condividi questo articolo e unisciti alla discussione con i tuoi amici e colleghi! Insieme, possiamo navigare nel mondo della tecnologia con conoscenza e umorismo! 🌐💡😄

📌 Riferimenti: – AI negli spazi pubblici – Rapporto di ENBLEPolitiche dei dati di TfLUso delle tecnologie di analisi delle emozioniTrial di elusione tariffaria