Dando voce a chi non ha voce Shotline interrompe l’attivismo per la riforma delle armi con messaggi vocali generati da intelligenza artificiale 📞🔫

Le nostre storie devono essere ascoltate, e chi è più adatto a narrarle se non noi stessi?

AI deepfakes resuscitano le voci delle vittime della violenza armata, implorando il Congresso di apportare cambiamenti.

La lotta per la riforma nazionale sulle armi da fuoco ha preso una svolta unica e straordinaria. Due organizzazioni focalizzate sulla riforma delle armi da fuoco, March For Our Lives e Change the Ref, si sono unite per lanciare una campagna innovativa chiamata The Shotline. Ma questa non è la solita strategia di advocacy. The Shotline utilizza la clonazione vocale tramite intelligenza artificiale, nota anche come deepfake audio, per consentire ai sostenitori della riforma delle armi da fuoco di contattare direttamente i loro rappresentanti tramite messaggi vocali automatizzati. E qui sta la sorpresa: questi messaggi vocali sono le voci effettive delle stesse vittime della violenza armata. 😮

Mai prima d’ora una campagna come questa ha incarnato così letteralmente la frase “dare voce ai senza voce”. The Shotline ha trovato il modo di riportare in vita le vittime decedute, almeno nel mondo virtuale, per sostenere il cambiamento. Le voci di coloro che sono stati silenziati dalla violenza armata vengono riportate in vita attraverso la tecnologia dell’intelligenza artificiale, creando un impatto potente ed emotivamente coinvolgente. È una strategia che spinge i limiti e mette alla prova le frontiere tecnologiche ed etiche.

Il potere inquietante dei deepfake e le preoccupazioni etiche

La clonazione vocale tramite intelligenza artificiale e i deepfake, sia audio che video, da tempo sollevano preoccupazioni riguardo alle implicazioni etiche. La possibilità di creare rappresentazioni artificiali di esseri umani e controllare le loro voci e azioni pone la domanda: quali sono gli effetti psicologici di tali creazioni? Sebbene ci siano sicuramente applicazioni positive, come utilizzare l’intelligenza artificiale per ricreare la voce di un caro defunto, l’uso dei deepfake tramite intelligenza artificiale non può essere preso alla leggera.

Nel caso di The Shotline, la campagna utilizza registrazioni audio fornite dalle famiglie delle vittime, combinate con l’apprendimento automatico approfondito, per generare versioni computerizzate della voce di ciascuna vittima. Le voci straordinariamente chiare dei giovani vittime della violenza armata fungono da solenne ricordo dell’impatto devastante di queste tragedie. Non si può negare il peso emotivo portato da questi messaggi vocali generati dall’intelligenza artificiale.

Superare le sfide regolamentari

Anche se l’idea di messaggi vocali generati dall’intelligenza artificiale può essere innovativa e di impatto, solleva anche preoccupazioni riguardo alle regolamentazioni. Proprio la scorsa settimana, la FCC ha dichiarato illegali le chiamate robotiche generate dall’intelligenza artificiale, portando la questione delle truffe e dei deepfake dell’intelligenza artificiale alla ribalta. Il monitoraggio e il controllo dei deepfake audio e video hanno comportato significative sfide per le aziende tecnologiche e gli enti regolamentari. Tuttavia, la campagna The Shotline sostiene che i suoi messaggi vocali automatizzati dovrebbero essere esenti dai recenti divieti della FCC perché non sono chiamate automatiche, ma vengono avviate dalle persone attraverso il sito web e forniscono un numero di richiamo.

È un paesaggio complesso che naviga il bilanciamento tra i progressi tecnologici e la necessità di salvaguardie contro un uso improprio. Le implicazioni etiche dei contenuti generati dall’intelligenza artificiale continuano ad essere un argomento caldo di discussione, e campagne come The Shotline intensificano solo il dibattito.

Voci potenti che invocano azione

I messaggi vocali generati dall’intelligenza artificiale creati da Edisen, un’agenzia creativa e specialisti dell’intelligenza artificiale, danno una piattaforma alle vittime che sono state private delle loro voci dalla violenza armata. Questi messaggi vocali mirano a rendere gli irresponsabili leader del Congresso responsabili della loro inazione e a richiedere azioni per prevenire future tragedie. Ascoltare la voce simulata di Joaquin Oliver, studente senior della Marjory Stoneman Douglas High School che ha perso la vita in una sparatoria, è un’esperienza inquietante. L’impatto emotivo di questi messaggi vocali non può essere sottovalutato.

In un esempio di messaggio vocale, la rappresentazione generata dall’intelligenza artificiale di Joaquin Oliver si confronta con i leader del Congresso, evidenziando la loro indifferenza verso le innumerevoli vite perse a causa della violenza armata. La voce di Joaquin risuona nella sfera digitale, esortando i politici ad agire prima che si perdano altre vite.

La campagna presenta anche messaggi vocali di altre vittime della violenza armata, come Uziyah Garcia, Ethan Song, Jaycee Webster, Michael Baughan e Akilah Dasilva. Ogni messaggio vocale rappresenta un commemorativo promemoria delle persone dietro alle statistiche e dell’urgente necessità di cambiamento.

Il potere dell’impulso e della disperazione

Il passaggio del movimento per la riforma delle armi da fuoco verso la tecnologia dell’intelligenza artificiale riflette la strategia di March For Our Lives di incontrare le persone dove si trovano al fine di promulgare legislazioni significative. Mentre The Shotline solleva interrogativi sul ruolo della tecnologia nell’attivismo sociale, sottolinea anche la disperazione sentita dagli sostenitori che da decenni lottano per un cambiamento.

Anni di incontri con politici lenti nel prendere decisioni e un pubblico in generale insensibile alle ricorrenti sparatorie di massa hanno portato gli sostenitori a questo punto di disperazione. Le voci delle vittime, unite in un potente video, promettono di continuare a chiamare fino a quando non verranno apportati cambiamenti. Le loro storie devono essere ascoltate, e chi meglio di loro stessi per raccontarle?

Q&A

Q: L’imitazione delle voci AI è legale? A: La legalità che circonda l’imitazione delle voci AI e i deepfake varia a seconda della giurisdizione e dei casi d’uso specifici. Nel caso di The Shotline, la campagna sostiene che le sue segreterie vocali dovrebbero essere esenti dai recenti divieti FCC sulle chiamate automatizzate generate tramite AI, poiché sono iniziate da singole persone attraverso il sito web e forniscono un numero di richiamo. Tuttavia, regolamentazioni e discussioni continuano a evolvere in risposta ai rapidi progressi della tecnologia AI.

Q: Come vengono ricreate le voci delle vittime? A: Le segreterie vocali generate da The Shotline vengono create combinando l’audio fornito dalle famiglie delle vittime con algoritmi di apprendimento profondo dell’intelligenza artificiale. Edisen, un’agenzia creativa e specialisti di intelligenza artificiale, ha utilizzato questa tecnologia per produrre una versione computerizzata della voce di ogni vittima. Il risultato è una rappresentazione accurata e carica di emozioni degli individui.

Q: Qual è stato finora l’impatto di The Shotline? A: Dalla sua lancio, The Shotline ha generato oltre 6.000 chiamate generate tramite AI a rappresentanti. Ha sicuramente suscitato conversazioni e aumentato la consapevolezza sull’urgenza della riforma delle armi da fuoco. La campagna è un tentativo di creare slancio per il cambiamento e garantire che le voci delle vittime non vengano dimenticate.

Guardando al futuro: Sfide etiche e oltre

L’utilizzo di segreterie vocali generate tramite AI nella campagna The Shotline apre una scatola di Pandora di riflessioni etiche. Mentre la tecnologia continua a progredire, la società deve confrontarsi con domande che riguardano i limiti del ruolo dell’IA nell’attivismo. Trovare il giusto equilibrio tra l’utilizzo dell’IA per un cambiamento positivo e la salvaguardia contro intenzioni malevole rimane una sfida.

Tuttavia, questo approccio innovativo all’attivismo ha sicuramente fatto scalpore e catturato l’attenzione del pubblico. Serve come un promemoria che non esiste una soluzione unica per problemi complessi della società come la violenza armata. La disperazione degli attivisti parla chiaro sull’urgenza del cambiamento. Sarà affascinante vedere come si sviluppa questa frontiera tecnologica e influisce sui futuri modi di fare attivismo.

Riferimenti

  1. Ascolta la chiamata inviata da Biden che ha fatto sorgere dubbi ai votanti sulla lotta della FCC contro le chiamate automatizzate generate tramite AI
  2. Startup segreta sulla Luna guidata da ex leader di Blue Origin raccoglie nuova tranche di finanziamenti
  3. 4 modi in cui Google sta cercando di facilitare la vita degli insegnanti con l’IA
  4. I ricercatori dicono che il deepfake della chiamata di Biden è probabilmente stato creato con strumenti della startup di AI Elevenlabs
  5. Cosa dovrebbero dire i genitori ai loro figli riguardo agli espliciti deepfake
  6. Il sopravvissuto del massacro di Parkland desidera un movimento per la riforma delle armi diverso: un movimento che metta al centro la vita dei neri
  7. 8 dei più forti appelli dagli attivisti giovanili nel 2023
  8. Come i giovani attivisti per il clima hanno portato il Montana in tribunale. E hanno vinto.
  9. Nuovo disegno di legge del Senato fornirebbe una via per le vittime di deepfake non consensuale creato con AI
  10. Cosa fare se qualcuno crea un deepfake di te

Ora è il momento di condividere le tue opinioni! Ti ispira l’uso di segreterie vocali generate tramite AI nella campagna Shotline? Quali sono le tue opinioni sulle implicazioni etiche dei deepfake? Unisciti alla conversazione e condividi la tua prospettiva! 🗣️💭

Non dimenticare di condividere questo articolo sui tuoi social media preferiti per diffondere la voce su The Shotline e la lotta continua per la riforma delle armi. Amplifichiamo le voci di coloro che sono stati silenziati. Insieme, possiamo fare la differenza. 📣✊