L’IA generativa sta svolgendo un ruolo sorprendente nella disinformazione tra Israele e Hamas

L'IA generativa sta svolgendo un ruolo sorprendente nella diffusione di notizie false tra Israele e Hamas

Nelle settimane successive all’attacco a sorpresa di Hamas del 7 ottobre contro Israele, il conflitto che ne è seguito ha generato un’onda senza precedenti di disinformazione, una “nebbia di guerra guidata dall’algoritmo” che ha causato problemi alle principali organizzazioni di informazione e ha lasciato le aziende di social media a tentennare.

Il fallimento di Israele nel fermare l’attacco di Hamas mostra il pericolo di una sorveglianza eccessiva

Matt Burgess e Lily Hay Newman

Il sistema sanitario di Gaza è sull’orlo del collasso

Grace Browne

I reporter di Gaza si affidano a radio e generatori per mantenere in movimento le notizie

Tom Bennett

Eppure, nonostante tutte le immagini e i video ingannevoli che circolano sui social media, i contenuti generati dagli strumenti di intelligenza artificiale sono rimasti relativamente periferici. Anche se alcuni si sono chiesti se la guerra Israele-Hamas sarebbe stata il primo conflitto dominato da immagini false generate dall’IA, la tecnologia ha avuto un impatto più complesso e sottile.

“Ci sono sicuramente immagini generate dall’IA in circolazione, ma non al punto da svolgere un ruolo centrale nella diffusione delle informazioni”, afferma Layla Mashkoor, editor associato presso il Digital Forensic Research Lab del Atlantic Council, che studia la disinformazione online.

Prima di tutto, spiega Mashkoor, la disinformazione generata dall’IA viene utilizzata dagli attivisti per sollecitare sostegno, o dare l’impressione di un sostegno più ampio, a una determinata parte. Ad esempio, un cartellone pubblicitario generato dall’IA a Tel Aviv che sostiene le Forze di Difesa di Israele, un account israeliano che condivide immagini false di persone che applaudono l’IDF, un influencer israeliano che utilizza l’IA per generare condanne di Hamas, e immagini generate dall’IA che ritraggono le vittime dei bombardamenti di Israele su Gaza.

“Per quanto riguarda l’uso generale che ho visto online, è stato principalmente per attirare sostegno, che non è tra i modi più maliziosi per utilizzare l’IA al momento”, afferma Mashkoor.

Un fattore chiave qui è la quantità di disinformazione in circolazione, che rende difficile alle immagini generate dall’IA plasmare la conversazione. “Lo spazio delle informazioni è già allagato da immagini e filmati reali e autentici”, afferma Mashkoor, “e questo di per sé allaga le piattaforme dei social media.”

Questo punto è riflessa in un recente articolo della Harvard Kennedy School Misinformation Review sul ruolo che l’IA generativa potrebbe svolgere nella diffusione di informazioni false a livello mondiale. Gli autori scrivono che le preoccupazioni sugli effetti della tecnologia sono “esagerate”. Mentre è vero che l’IA generativa teoricamente consente alle persone di proliferare disinformazione a un ritmo futuristico, coloro che cercano queste informazioni sbagliate, spesso coloro che hanno “poca fiducia nelle istituzioni… [o sono] forti sostenitori”, hanno già un’eccedenza di sciocchezze familiari da perseguire, dai siti web delle teorie del complotto ai forum di 4chan. Non c’è domanda di altro.

“Dato il livello di creatività che gli esseri umani hanno dimostrato nel corso della storia nel creare storie (false) e la libertà di cui già godono nel creare e diffondere disinformazione in tutto il mondo, è improbabile che una grande parte della popolazione stia cercando disinformazione che non può trovare online o offline”, conclude l’articolo. Inoltre, la disinformazione acquista potere solo quando le persone la vedono e considerando che il tempo che le persone dedicano ai contenuti viral è limitato, l’impatto è trascurabile.

Per quanto riguarda le immagini che potrebbero finire nei feed principali, gli autori notano che sebbene l’IA generativa possa teoricamente generare contenuti altamente personalizzati e realistici, lo possono fare anche Photoshop o i software di editing video. Cambiare la data su un video sfocato ripreso con il cellulare può dimostrarsi altrettanto efficace. I giornalisti e i verificatori dei fatti lottano meno con i deepfake che con le immagini fuori contesto o quelle manipolate in modo grossolano in qualcosa che non sono, come il footage di un videogioco presentato come un attacco di Hamas.

In questo senso, concentrarsi eccessivamente su una nuova tecnologia di tendenza è spesso una distrazione. “Essere realistici non è sempre ciò che le persone cercano o ciò che è necessario per diventare viral su Internet”, aggiunge Sacha Altay, uno dei coautori del paper e ricercatore post-dottorato il cui campo di studi attuale riguarda la disinformazione, la fiducia e i social media presso il Digital Democracy Lab dell’Università di Zurigo (Digital Democracy Lab).

Questo è vero anche dal lato dell’offerta, spiega Mashkoor; l’invenzione non equivale all’implementazione. “Ci sono molte modi per manipolare la conversazione o lo spazio delle informazioni online”, dice. “E ci sono cose che a volte richiedono meno sforzo o sono più facili da fare e non richiedono l’accesso a una tecnologia specifica, anche se al momento l’accesso al software di generazione dell’IA è facile da ottenere, ci sono sicuramente modi più facili per manipolare qualcosa se lo stai cercando”.

Felix Simon, un altro degli autori del paper della Kennedy School e uno studente di dottorato presso l’Oxford Internet Institute, avverte che il commento del suo team non cerca di porre fine al dibattito sui possibili danni, ma è invece un tentativo di contrastare le affermazioni secondo cui l’IA genere scatenerà “un’apocalisse della verità”. Queste paure spesso accompagnano le nuove tecnologie.

Mettendo da parte la visione apocalittica, è più facile studiare come l’IA generativa si è effettivamente inserita nell’esistente ecosistema della disinformazione. È, ad esempio, molto più diffusa rispetto all’inizio dell’invasione russa dell’Ucraina, sostiene Hany Farid, professore presso la UC Berkeley School of Information.

Farid definisce la tecnologia un “spettro” che aleggia su audio e video che pretendono di provenire dal conflitto e che riceve dalle mezzo dozzina a una dozzina di chiamate giornaliere da giornalisti che cercano informazioni sulla veridicità. “Per molte persone, la capacità di respingere fatti scomodi gioca sicuramente un ruolo in questo conflitto”, afferma.

Farid cita diversi esempi che hanno immediatamente sollevato questo tipo di dubbio, come le persone che indicavano varie prove digitali su chi fosse responsabile dell’attacco con i missili all’ospedale Al-Ahli Arab a Gaza, così come le immagini di bambini sepolti sotto le macerie, alcune reali, alcune false.

Alcuni dei più noti esempi riguardano le foto di bambini bruciati pubblicate dal primo ministro israeliano Benjamin Netanyahu sul suo account X. Dopo la pubblicazione delle foto, qualcuno ha fatto analizzare le immagini tramite lo strumento di rilevazione AI or Not, che gli utenti hanno dichiarato aver determinato che erano state create con l’IA. Farid afferma che il suo team ha analizzato le foto e ha concluso che l’IA non era stata utilizzata, ma il seme del sospetto era già stato piantato. Le cose sono state ulteriormente confuse quando qualcuno ha utilizzato l’IA per sostituire il bambino in una delle immagini con un cucciolo.

“E poi quello è stato pubblicato online e le persone dicevano ‘Aspetta un attimo, se è stato in grado di crearne una, allora quella potrebbe essere falsa e ora ci sono queste due versioni in giro e tutti hanno cominciato a dire ‘Oh, il cucciolo era l’originale, questa è falsa’ e si confondono solo le acque”, dice Farid.

In altre parole, questa distribuzione segue uno schema storico: la disinformazione viene condivisa sui social media, poi amplificata tramite algoritmi e persone. “Nel quadro più ampio, nella nostra capacità di ragionare su un mondo in rapido movimento e ad alto impatto, penso che questo conflitto sia peggiore di quanto abbiamo visto in passato”, dice Farid. “E penso che l’IA genere ne faccia parte, ma non è esclusivamente l’IA genere. Sarebbe troppo semplificato.”