Costa solo $400 costruire una macchina di disinformazione AI

Building an AI disinformation machine only costs $400

A maggio, Sputnik International, un media russo di proprietà statale, ha pubblicato una serie di tweet criticando la politica estera degli Stati Uniti e attaccando l’amministrazione Biden. Ognuno di essi ha ricevuto una breve ma ben formulata confutazione da parte di un account chiamato CounterCloud, talvolta includendo un link a un articolo di notizie o opinione pertinente. Ha generato risposte simili ai tweet dell’ambasciata russa e dei media cinesi che criticavano gli Stati Uniti.

Le critiche russe agli Stati Uniti sono tutto tranne che insolite, ma quello che era insolito era il materiale di CounterCloud che contrapponeva: i tweet, gli articoli e persino i giornalisti e i siti di notizie erano interamente creati da algoritmi di intelligenza artificiale, secondo la persona dietro al progetto, che si fa chiamare Nea Paw e sostiene che sia stato ideato per evidenziare il pericolo della disinformazione di massa prodotta dall’IA. Paw non ha pubblicato i tweet e gli articoli di CounterCloud pubblicamente, ma li ha forniti a ENBLE e ha anche prodotto un video che illustra il progetto.

Paw afferma di essere un professionista della sicurezza informatica che preferisce l’anonimato perché alcune persone potrebbero considerare il progetto irresponsabile. La campagna di CounterCloud che contrasta la messaggistica russa è stata creata utilizzando la tecnologia di generazione di testo di OpenAI, simile a quella di ChatGPT, e altre strumenti di intelligenza artificiale facilmente accessibili per generare fotografie e illustrazioni, afferma Paw, per un costo totale di circa 400 dollari.

Paw afferma che il progetto dimostra che gli strumenti di IA generativi ampiamente disponibili rendono molto più facile creare sofisticate campagne informative per la propaganda sponsorizzata dallo stato.

“Non penso che esista una soluzione miracolosa per questo, allo stesso modo in cui non esiste una soluzione miracolosa per gli attacchi di phishing, lo spam o l’ingegneria sociale”, afferma Paw in una e-mail. Sono possibili mitigazioni, come educare gli utenti a stare attenti ai contenuti manipolativi generati dall’IA, fare in modo che i sistemi di IA generativi cerchino di bloccare l’abuso o dotare i browser di strumenti di rilevamento dell’IA. “Ma penso che nessuna di queste cose sia veramente elegante, economica o particolarmente efficace”, afferma Paw.

Negli ultimi anni, i ricercatori sulla disinformazione hanno avvertito che i modelli di linguaggio dell’IA potrebbero essere utilizzati per creare campagne di propaganda altamente personalizzate e per alimentare account dei social media che interagiscono con gli utenti in modi sofisticati.

Renee DiResta, responsabile delle ricerche tecniche per lo Stanford Internet Observatory, che monitora le campagne informative, afferma che gli articoli e i profili dei giornalisti generati come parte del progetto CounterCloud sono piuttosto convincenti.

“Oltre agli attori governativi, le agenzie di gestione dei social media e i mercenari che offrono servizi di operazioni di influenza non mancheranno di adottare questi strumenti e di incorporarli nei loro flussi di lavoro”, afferma DiResta. Diffondere e condividere contenuti falsi su larga scala è una sfida, ma può essere fatto pagando utenti influenti per condividerlo, aggiunge.

È già emersa qualche prova di campagne di disinformazione online alimentate dall’IA. Ricercatori accademici hanno recentemente scoperto una rete di bot grezza che spinge criptovalute apparentemente alimentata da ChatGPT. Il team ha dichiarato che questa scoperta suggerisce che l’IA dietro al chatbot sta probabilmente già venendo utilizzata per campagne informative più sofisticate.

Anche le legittime campagne politiche si sono rivolte all’utilizzo dell’IA in vista delle elezioni presidenziali degli Stati Uniti del 2024. Ad aprile, il Comitato Nazionale Repubblicano ha prodotto un video che attaccava Joe Biden e includeva immagini false create dall’IA. E a giugno, un account sui social media associato a Ron Desantis ha incluso immagini generate dall’IA in un video volto a screditare Donald Trump. La Federal Election Commission ha dichiarato di poter limitare l’uso dei deepfake negli annunci politici.

Micah Musser, un ricercatore che ha studiato il potenziale di disinformazione dei modelli di linguaggio dell’IA, si aspetta che le campagne politiche mainstream cerchino di utilizzare i modelli di linguaggio per generare contenuti promozionali, email di raccolta fondi o spot di attacco. “È un periodo totalmente incerto in cui non è ancora chiaro quali siano le norme”, afferma.

Gran parte del testo generato dall’IA rimane abbastanza generico e facile da individuare, afferma Musser. Ma avere esseri umani che rifiniscono contenuti generati dall’IA per diffondere disinformazione potrebbe essere molto efficace e quasi impossibile da fermare utilizzando filtri automatizzati, afferma.

Il CEO di OpenAI, Sam Altman, ha dichiarato in un tweet il mese scorso di essere preoccupato che l’intelligenza artificiale della sua azienda possa essere utilizzata per creare disinformazione automatizzata e mirata su larga scala.

Quando OpenAI ha reso disponibile per la prima volta la sua tecnologia di generazione di testo tramite un’API, ha vietato ogni uso politico. Tuttavia, a marzo, l’azienda ha aggiornato la sua politica per vietare l’uso finalizzato alla produzione in massa di messaggi per determinate fasce di pubblico. Un recente articolo del Washington Post suggerisce che GPT non blocchi di per sé la generazione di tale materiale.

Kim Malfacini, responsabile delle politiche sui prodotti presso OpenAI, afferma che l’azienda sta esplorando come la sua tecnologia di generazione di testo venga utilizzata per scopi politici. Le persone non sono ancora abituate a supporre che i contenuti che vedono possano essere generati dall’IA, dice. “È probabile che l’uso degli strumenti di IA in qualsiasi settore aumenti solo, e la società si aggiornerà a questo”, afferma Malfacini. “Ma al momento penso che le persone siano ancora nel processo di aggiornamento”.

Dato che una serie di strumenti AI simili sono ora ampiamente disponibili, inclusi modelli open source su cui è possibile costruire con poche restrizioni, gli elettori dovrebbero rendersi conto dell’uso dell’AI in politica prima piuttosto che dopo.