Deepfakes, Ricatti e i Pericoli dell’IA Generativa

'Deepfakes, Blackmail and the Dangers of Generative AI.

La capacità dell’IA generativa sta accelerando rapidamente, ma i video e le immagini false stanno già causando danni reali, scrive Dan Purcell, Fondatore di Ceartas io.

Questo recente annuncio di servizio pubblico dell’FBI ha messo in guardia sui pericoli che i deepfake dell’IA rappresentano per la privacy e la sicurezza online. I criminali informatici sono noti per sfruttare e ricattare le persone manipolando digitalmente le immagini in falsi espliciti e minacciando di pubblicarle online a meno che non venga pagata una somma di denaro.

Questo, e altre misure adottate, sono in definitiva una cosa positiva. Tuttavia, credo che il problema sia già più diffuso di quanto chiunque si renda conto, e sono necessari nuovi sforzi per combatterlo con urgenza.

Perché i Deepfake possono essere individuati così facilmente?

Ciò che mi preoccupa dei deepfake dannosi è la facilità con cui possono essere individuati. Invece che nei bui recessi dell’internet, si trovano nelle app dei social media mainstream che la maggior parte di noi già ha sui propri smartphone.

Un disegno di legge per criminalizzare coloro che condividono immagini sessuali deepfake di altre persone

Mercoledì 10 maggio, i legislatori del Senato nel Minnesota hanno approvato un disegno di legge che, una volta ratificato, criminalizzerà coloro che condividono immagini sessuali deepfake di altre persone senza il loro consenso preventivo. Il disegno di legge è stato approvato quasi all’unanimità per includere coloro che condividono deepfake per influenzare indebitamente un’elezione o danneggiare un candidato politico.

Altri stati che hanno approvato legislazioni simili includono California, Virginia e Texas.

Sono felice dell’approvazione di questo disegno di legge e spero che non passi troppo tempo prima che diventi legge a tutti gli effetti. Tuttavia, ritengo che sia necessaria una legislazione più rigorosa in tutti gli stati americani e a livello globale. L’UE sta guidando in questa direzione.

Il Senato del Minnesota e gli avvertimenti dell’FBI

Sono molto ottimista sul fatto che le azioni decise del Senato del Minnesota e gli avvertimenti dell’FBI spingeranno a un dibattito nazionale su questa questione critica. Le mie ragioni sono professionali ma anche profondamente personali. Alcuni anni fa, un ex partner ha caricato online immagini intime di natura sessuale di me senza il mio consenso preventivo.

NESSUNA protezione per l’individuo interessato – ancora

Le foto sono state online per circa due anni prima che lo scoprisssi, e quando l’ho fatto, l’esperienza è stata sia imbarazzante che traumatizzante. Mi sembrava completamente disturbante che un tale atto potesse essere commesso senza possibilità di azioni legali per il colpevole o protezione per l’individuo interessato da tale azione. Tuttavia, è stato il catalizzatore per la mia futura attività poiché ho giurato di sviluppare una soluzione che tracciasse, individuasse, verificasse e infine rimuovesse contenuti di natura non consensuale.

Immagini deepfake che hanno attirato l’interesse mondiale

Le immagini deepfake che hanno attirato l’interesse e l’attenzione mondiale di recente includono l’arresto dell’ex Donald Trump, il piumino bianco di stile del Papa Francesco e il Presidente francese Emmanuel Macron che lavora come addetto alla raccolta dei rifiuti. Quest’ultimo è avvenuto durante il picco delle proteste contro la riforma delle pensioni in Francia. La reazione immediata a queste foto è stata la loro realismo, anche se pochi spettatori sono stati ingannati. Memorabili? Sì. Dannose? Non del tutto, ma il potenziale c’è.

Il Presidente Biden ha affrontato la questione

Il Presidente Biden, che di recente ha affrontato i pericoli dell’IA con i leader tecnologici alla Casa Bianca, è stato al centro di una controversia sui deepfake nell’aprile di quest’anno. Dopo aver annunciato la sua intenzione di candidarsi per la rielezione nelle elezioni presidenziali degli Stati Uniti del 2024, il RNC (Comitato Nazionale Repubblicano) ha risposto con un annuncio su YouTube che attaccava il Presidente utilizzando immagini completamente generate dall’IA. Un piccolo disclaimer in alto a sinistra del video attesta questo, anche se il disclaimer era così piccolo che c’è una possibilità concreta che alcuni spettatori possano scambiare le immagini per reali.

Se il RNC avesse scelto di seguire una strada diversa e focalizzarsi sull’età avanzata o sulla mobilità di Biden, le immagini AI di lui in una casa di riposo o su una sedia a rotelle potrebbero potenzialmente influenzare gli elettori riguardo alla sua idoneità per l’incarico di un altro mandato quadriennale.

La manipolazione delle immagini ha il potenziale di essere estremamente pericolosa

Non c’è dubbio che la manipolazione di tali immagini abbia il potenziale di essere estremamente pericolosa. Il Primo Emendamento dovrebbe proteggere la libertà di espressione. Con la tecnologia deepfake, il dibattito politico razionale e ponderato è ora in pericolo. Posso vedere gli attacchi politici diventare sempre più caotici man mano che si avvicina il 2024.

Se il Presidente degli Stati Uniti può trovarsi in una posizione così vulnerabile per quanto riguarda la protezione della sua integrità, dei suoi valori e della sua reputazione. Che speranza hanno gli altri cittadini del mondo?

Alcuni video deepfake sono più convincenti di altri, ma ho constatato nella mia vita professionale che non sono solo ingegneri informatici altamente qualificati a essere coinvolti nella loro produzione. Un laptop e qualche conoscenza informatica di base possono essere praticamente tutto ciò che serve, e ci sono molte fonti di informazione online.

Impara a distinguere la differenza tra un video reale e uno falso

Per coloro di noi che lavorano direttamente nel campo tecnologico, distinguere tra un video reale e uno falso è relativamente facile. Ma la capacità della comunità più ampia di individuare un deepfake potrebbe non essere così semplice. Uno studio mondiale del 2022 ha mostrato che il 57% dei consumatori ha dichiarato di poter rilevare un video deepfake, mentre il 43% ha affermato di non essere in grado di distinguere la differenza tra un video deepfake e uno reale.

Questo gruppo includerà senza dubbio anche coloro che hanno raggiunto l’età per votare. Ciò significa che deepfake convincenti hanno il potenziale per determinare l’esito di un’elezione se il video in questione coinvolge un candidato politico.

Generative AI

Recentemente, il musicista e cantautore Sting ha rilasciato una dichiarazione in cui avverte che gli autori di canzoni non dovrebbero essere compiacenti poiché ora competono con sistemi di generative AI. Posso capire il suo punto di vista. Un gruppo chiamato “Human Artistry Campaign” sta attualmente conducendo una petizione online per mantenere l’espressione umana “al centro del processo creativo e proteggere i mezzi di sussistenza e il lavoro degli autori”.

La petizione afferma che l’AI non può mai essere un sostituto per il successo e la creatività umana. TDM (text and data mining) è uno dei vari modi in cui l’AI può copiare la voce di un musicista o il suo stile compositivo e implica l’addestramento di grandi quantità di dati.

L’AI può essere vantaggiosa per noi come esseri umani.

Pur vedendo come l’AI possa essere vantaggiosa per noi come esseri umani, mi preoccupano le questioni legate alla corretta governance della generative AI all’interno delle organizzazioni. Queste includono la mancanza di trasparenza, la fuga di dati, il pregiudizio, il linguaggio tossico e il diritto d’autore.

Dobbiamo avere regolamentazioni e legislazioni più forti.

Senza una regolamentazione più rigorosa, la generative AI minaccia di sfruttare gli individui, indipendentemente dal fatto che siano persone pubbliche o meno. Secondo la mia opinione, il rapido sviluppo di tale tecnologia renderà questa situazione notevolmente peggiore, come evidenziato anche dall’avvertimento recente dell’FBI.

Mentre questa minaccia continua a crescere, crescono anche il tempo e il denaro investiti nella ricerca e nello sviluppo dell’AI. Il valore di mercato globale dell’AI è attualmente stimato a quasi 100 miliardi di dollari USA e si prevede che raggiungerà quasi due trilioni di dollari USA entro il 2030.

Ecco un incidente reale riportato dalle notizie di KSL, oggi.

– Ti prego di leggere per poter proteggere i tuoi figli, specialmente gli adolescenti.

Leggi qui.

I genitori hanno recentemente divulgato queste informazioni per aiutarci tutti.

Le tre categorie principali erano furto di identità e truffe da impostori

La tecnologia è già abbastanza avanzata da poter generare un video deepfake da una sola immagine, mentre per creare una versione passabile della voce di una persona sono sufficienti pochi secondi di audio. Al contrario, tra i milioni di rapporti dei consumatori presentati l’anno scorso, le tre categorie principali erano il furto di identità e le truffe da impostori, con una perdita totale di circa 8,8 miliardi di dollari nel 2022.

Riguardo alla legge del Minnesota, i registri mostrano che un unico rappresentante ha votato contro la proposta di criminalizzare coloro che condividono immagini sessuali deepfake. Mi chiedo quale fosse la loro motivazione per farlo.

Sono stato anch’io una vittima!

Come vittima di questa tecnologia, ho espresso apertamente il mio punto di vista, quindi considero la questione abbastanza chiara. Quando mi è successo, mi sono sentito molto solo e non sapevo a chi rivolgermi per chiedere aiuto. Fortunatamente le cose sono migliorate molto da allora. Spero che questo slancio positivo continui, in modo che altre persone non debbano vivere il trauma che ho vissuto io.

Dan Purcell è il fondatore e CEO di Ceartas DMCA, un’importante azienda di protezione del copyright e dei marchi alimentata da AI che lavora con i migliori creatori, agenzie e marchi del mondo per prevenire l’uso e la distribuzione non autorizzati dei loro contenuti. Per ulteriori informazioni, visita il sito www.ceartas.io.

Immagine in evidenza: Rahul Pandit; Pexels; Grazie!