Questa disinformazione è solo per te

This disinformation is just for you.

È ormai ben compreso che l’IA generativa aumenterà la diffusione delle disinformazioni su Internet. Dai deepfake alle notizie false agli account bot, l’IA genererà non solo più disinformazione, ma anche disinformazione più convincente. Ma ciò che le persone stanno solo cominciando a capire è come le disinformazioni diventeranno più mirate e capaci di coinvolgere le persone e influenzare le loro opinioni.

Quando la Russia ha cercato di influenzare le elezioni presidenziali statunitensi del 2016 tramite l’ormai sciolta Internet Research Agency, l’operazione era gestita da esseri umani che spesso avevano poca conoscenza culturale o anche della lingua inglese e quindi non erano sempre in grado di relazionarsi con i gruppi che stavano prendendo di mira. Con gli strumenti di IA generativa, coloro che conducono campagne di disinformazione saranno in grado di affinare il loro approccio profilando individui e gruppi. Questi operatori possono produrre contenuti che sembrano legittimi e riconducibili alle persone dall’altra parte e persino prendere di mira singoli individui con disinformazioni personalizzate basate sui dati raccolti. Gli esperti dicono che l’IA generativa renderà anche molto più facile produrre disinformazione e quindi aumenterà la quantità di disinformazione che circola liberamente su Internet.

“L’IA generativa abbassa la barriera finanziaria per la creazione di contenuti adattati a determinati pubblici”, dice Kate Starbird, professore associato presso il Dipartimento di Design e Ingegneria centrati sull’uomo dell’Università di Washington. “Puoi adattarla ai pubblici e assicurarti che la narrazione tocchi i valori e le credenze di quei pubblici, oltre alla parte strategica della narrazione”.

Starbird aggiunge che invece di produrre solo qualche articolo al giorno, “puoi scrivere effettivamente un articolo e adattarlo a 12 pubblici diversi. Ci vogliono cinque minuti per ognuno di loro”.

Considerando la quantità di contenuti che le persone pubblicano sui social media e su altre piattaforme, è molto facile raccogliere dati per costruire una campagna di disinformazione. Una volta che gli operatori sono in grado di profilare diversi gruppi di persone in tutto il paese, possono insegnare al sistema di IA generativa che stanno utilizzando a creare contenuti che manipolano quei target in modi altamente sofisticati.

“Vedrai che la capacità di affinamento aumenterà. Vedrai che la precisione aumenterà. Vedrai che la pertinenza aumenterà”, dice Renee Diresta, direttore delle ricerche tecniche presso lo Stanford Internet Observatory.

Hany Farid, professore di informatica presso l’Università della California, Berkeley, sostiene che questo tipo di disinformazione personalizzata sarà “ovunque”. Anche se gli attori malintenzionati probabilmente prenderanno di mira le persone per gruppi quando conducono una campagna di disinformazione su larga scala, potrebbero anche utilizzare l’IA generativa per prendere di mira singoli individui.

“Potresti dire qualcosa del tipo: ‘Ecco una serie di tweet di questo utente. Scrivimi qualcosa che li coinvolga’. Questo verrà automatizzato. Penso che probabilmente arriverà”, afferma Farid.

I diffusori di disinformazione proveranno tutte le tattiche possibili fino a trovare quelle che funzionano meglio, afferma Farid, e gran parte di ciò che sta accadendo con queste campagne di disinformazione probabilmente non verrà compreso appieno fino a dopo che avranno operato per un certo periodo di tempo. Inoltre, devono essere solo in parte efficaci per raggiungere i loro obiettivi.

“Se voglio lanciare una campagna di disinformazione, posso fallire il 99 percento delle volte. Fallisci tutto il tempo, ma non importa”, afferma Farid. “Ogni tanto, il QAnon riesce a passare. La maggior parte delle tue campagne può fallire, ma quelle che non falliscono possono fare molti danni”.

Farid afferma che abbiamo visto durante il ciclo elettorale del 2016 come gli algoritmi di raccomandazione su piattaforme come Facebook hanno radicalizzato le persone e contribuito a diffondere disinformazione e teorie del complotto. In vista delle elezioni statunitensi del 2024, l’algoritmo di Facebook, esso stesso una forma di IA, probabilmente consiglierà alcuni post generati dall’IA anziché spingere solo contenuti creati interamente da attori umani. Siamo arrivati al punto in cui l’IA verrà utilizzata per creare disinformazione che un’altra IA ti raccomanda.

“Siamo stati ingannati abbastanza bene da contenuti di bassa qualità. Stiamo entrando in un periodo in cui avremo disinformazione e propaganda di qualità superiore”, afferma Starbird. “Sarà molto più facile produrre contenuti adattati a pubblici specifici rispetto a prima. Penso che dovremo solo essere consapevoli che questo è qui ora”.

Cosa si può fare per risolvere questo problema? Purtroppo, solo molto. Diresta afferma che le persone devono essere rese consapevoli di queste minacce potenziali e fare più attenzione ai contenuti con cui interagiscono. Ad esempio, si consiglia di verificare se la fonte è un sito web o un profilo sui social media creato molto di recente. Farid afferma che anche le aziende di IA devono essere spinte a implementare misure di sicurezza in modo che venga creata meno disinformazione nel complesso.

Recentemente, l’amministrazione Biden ha raggiunto un accordo con alcune delle più grandi aziende di intelligenza artificiale: OpenAI, produttrice di ChatGPT, Google, Amazon, Microsoft e Meta. Questo accordo incoraggia queste aziende ad adottare specifiche misure di sicurezza per i loro strumenti di intelligenza artificiale, tra cui test esterni degli strumenti di intelligenza artificiale e l’apposizione di watermark ai contenuti creati da intelligenza artificiale. Queste aziende di intelligenza artificiale hanno inoltre creato un gruppo focalizzato nello sviluppo di standard di sicurezza per gli strumenti di intelligenza artificiale, e il Congresso sta discutendo come regolamentare l’intelligenza artificiale.

Nonostante tali sforzi, l’intelligenza artificiale sta accelerando più velocemente di quanto sia possibile controllarla e spesso Silicon Valley non riesce a mantenere le promesse di rilasciare solo prodotti sicuri e testati. E anche se alcune aziende si comportano responsabilmente, ciò non significa che tutti gli attori in questo settore agiranno di conseguenza.

“Questa è la storia classica degli ultimi 20 anni: rilasciare la tecnologia, invadere la privacy di tutti, seminare il caos, diventare aziende con una capitalizzazione di mercato di trilioni di dollari e poi dire: ‘Beh, sì, sono accadute delle cose brutte'”, afferma Farid. “Stiamo ripetendo gli stessi errori, ma ora è tutto amplificato perché stiamo rilasciando queste cose sui dispositivi mobili, sui social media e in un caos che già esiste”.