I bot assistiti da ChatGPT si stanno diffondendo sui social media

Bot assistiti da ChatGPT si diffondono sui social media

Per molti utenti, scorrere i feed dei social media e le notifiche è come camminare in una pozza di contenuti indesiderati. Uno studio ha identificato 1.140 bot assistiti dall’IA che diffondevano disinformazione su X (precedentemente noto come Twitter) riguardo a criptovalute e blockchain.

Tuttavia, gli account bot che pubblicano questo tipo di contenuto possono essere difficili da individuare, come hanno scoperto i ricercatori dell’Università dell’Indiana. Gli account bot utilizzavano ChatGPT per generare i loro contenuti ed erano difficili da distinguere dagli account reali, rendendo la pratica più pericolosa per le vittime.

Inoltre: Puoi provare la traduzione multilingue basata sull’IA di Meta. Ecco come

Gli account bot alimentati dall’IA avevano profili simili a quelli di esseri umani reali, con foto del profilo e biografie o descrizioni su criptovalute e blockchain. Facevano regolari pubblicazioni generate con l’IA, pubblicavano immagini rubate come proprie e facevano risposte e retweet.

I ricercatori hanno scoperto che i 1.140 account bot di Twitter appartenevano alla stessa rete di bot sociali maligni, che hanno chiamato “fox8”. Una botnet è una rete di dispositivi connessi – o, in questo caso, account – controllati centralmente da criminali informatici.

Inoltre: 4 cose che Claude AI può fare che ChatGPT non può

I bot generativi basati sull’IA sono diventati sempre più bravi nel mimare i comportamenti umani. Ciò significa che gli strumenti tradizionali e all’avanguardia per la rilevazione dei bot, come Botometer, non sono più sufficienti. Questi strumenti hanno faticato a identificare e differenziare i contenuti generati dai bot dai contenuti generati dagli esseri umani nello studio, ma uno si è distinto: il classificatore AI di OpenAI, che è stato in grado di identificare alcuni tweet dei bot.

Come puoi individuare gli account bot?

Gli account bot su Twitter mostravano modelli comportamentali simili, come seguirsi a vicenda, utilizzare gli stessi link e hashtag, pubblicare contenuti simili e persino interagire tra loro.

Inoltre: La nuova app di social media ‘BeFake’ incoraggia gli utenti a trasformare le loro foto con l’IA

I ricercatori hanno esaminato i tweet degli account bot basati sull’IA e hanno trovato 1.205 tweet che si rivelavano da soli.

Di questi, l’81% aveva la stessa frase di scuse:

“Mi dispiace, ma non posso soddisfare questa richiesta in quanto viola la politica dei contenuti di OpenAI sulla generazione di contenuti dannosi o inappropriati. Come modello di linguaggio basato sull’IA, le mie risposte devono sempre essere rispettose e appropriate per tutti gli utenti.”

L’uso di questa frase suggerisce che i bot sono istruiti a generare contenuti dannosi che violano le politiche di OpenAI per ChatGPT.

Il restante 19% utilizzava una qualche variante del linguaggio “Come modello di linguaggio basato sull’IA”, con il 12% che diceva specificamente: “Come modello di linguaggio basato sull’IA, non posso navigare su Twitter o accedere a tweet specifici per fornire risposte.”

Inoltre: ChatGPT vs. Bing Chat vs. Google Bard: quale è il miglior chatbot basato sull’IA?

Il fatto che il 3% dei tweet pubblicati da questi bot fosse collegato a uno dei tre siti web (cryptnomics.org, fox8.news e globaleconomics.news) era un altro indizio.

Questi siti sembrano normali organi di informazione, ma presentano segnali di allarme evidenti, come il fatto che siano stati tutti registrati nello stesso periodo nel febbraio 2023, abbiano popup che invitano gli utenti a installare software sospetti, sembrino utilizzare lo stesso tema WordPress e abbiano domini che risolvono allo stesso indirizzo IP.

Gli account bot maligni possono utilizzare tecniche di auto-propagazione sui social media pubblicando link con malware o contenuti infettabili, sfruttando e infettando i contatti degli utenti, rubando i cookie di sessione dai browser degli utenti e automatizzando le richieste di follow.