Pensi di poter individuare una notizia falsa generata da un’intelligenza artificiale? Fai questo quiz per scoprirlo!

Puoi riconoscere una notizia falsa creata da un'intelligenza artificiale? Partecipa a questo quiz per scoprirlo!

donna preoccupata che usa il laptop

Vedi una notizia su Internet con il titolo “Scoperta rivoluzionaria: l’IA può ora predire con precisione il tempo atmosferico con 2 mesi di anticipo”. Sembra interessante. Ma è vero? Hmm, non necessariamente.

Capire se le informazioni che trovi online sono vere o false è sempre stato difficile. Ma l’IA ha reso questo compito ancora più complicato. Un sondaggio recente condotto dal fornitore di sicurezza informatica Netskope ha rilevato che molte persone non sono in grado di distinguere tra notizie reali e quelle create dall’IA.

Inoltre: 6 strumenti IA per potenziare il tuo lavoro e la tua vita quotidiana

Come test, Netskope ha mostrato a 1.000 persone negli Stati Uniti e a 500 nel Regno Unito una notizia falsa generata dall’IA insieme a una vera. Circa l’84% delle persone nel Regno Unito vantava di essere abile nell’identificare una notizia falsa, eppure la metà di loro ha scelto la notizia falsa come vera. Negli Stati Uniti, l’88% si sentiva sicuro di poter individuare una notizia falsa, ma il 44% pensava che la notizia generata dall’IA fosse autentica.

Per vedere come te la caveresti nel distinguere una notizia falsa generata dall’IA da una vera, Netskope ti invita a fare il suo quiz sulle fake news. Qui ti vengono presentate 12 storie diverse e sei sfidato a indovinare se pensi che ognuna sia falsa o autentica.

Le persone intervistate da Netskope hanno dichiarato di utilizzare i social media e di essere interessate alle notizie. Quando sono state chieste di identificare il servizio più affidabile per le notizie, la maggior parte ha citato i giornali e le riviste scandalistiche. Ma piattaforme basate su video come TikTok e Snapchat sono arrivate al secondo posto.

Nel quadro della sua ricerca, Netskope ha anche analizzato le fake news e le foto più diffuse del 2023 in base alle visualizzazioni sui social media, all’interazione e ad altri fattori per determinare il loro impatto. Il primo elemento era un’immagine di Papa Francesco che indossava un piumino bianco oversize. Anche se la foto era falsa, ha registrato più di 20 milioni di visualizzazioni sui social media ed è stata riportata da oltre 300 testate giornalistiche.

Un altro elemento generato dall’IA che ha avuto successo è stata un’immagine di Donald Trump arrestato a Washington DC lo scorso marzo. Anche se Trump si è trovato in difficoltà con la legge in diverse occasioni, questa immagine è stata creata utilizzando il generatore di immagini basato sull’IA Midjourney. Anche se era falsa, la foto ha ottenuto oltre 10 milioni di visualizzazioni su Twitter (ora X) ed è stata citata in 671 pubblicazioni giornalistiche.

Inoltre: Come ottenere uno scambio di facce perfetto utilizzando Midjourney IA

Queste foto false mostrano quanto sia facile ingannare le persone con immagini ingannevoli. Utilizzando strumenti come Midjourney e DALL-E, praticamente chiunque può creare un’immagine così realistica da ingannare non solo la persona comune, ma anche gli editori di notizie e i professionisti che altrimenti sarebbero più attenti.

E ora sempre più strumenti di intelligenza artificiale sono capaci di generare video falsi. Alcuni dei falsi evidenziati da Netskope per il 2023 includevano uno in cui Hillary Clinton appoggiava il repubblicano Ron DeSantis per la presidenza e un altro in cui Elon Musk enfatizzava i benefici di mangiare un dolce al cannabis.

Dopo che una notizia o una foto falsa è stata promossa online, identificarla come falsa può richiedere del tempo. In media, la maggior parte di questi elementi ci ha messo circa sei giorni per essere individuata e smentita. Ma un video modificato dall’IA in cui Bill Gates interrompe un’intervista con la giornalista di ABC News Sarah Ferguson a seguito di domande sul suo coinvolgimento nella distribuzione del vaccino COVID-19 ha richiesto ben 15 giorni per essere identificato come falso.

Anche: Elezioni 2024: Come l’IA ingannerà gli elettori se non facciamo qualcosa ora

Per aiutare le persone a rilevare meglio ciò che è reale rispetto a ciò che non lo è, Netskope offre i seguenti consigli e trucchi:

Per le notizie

  • Cerca di trovare la fonte originale della notizia. Se vedi una notizia che fa affermazioni insolite o stravaganti, controlla la fonte. Potresti essere in grado di scoprire da dove proviene esaminando i social media. Se si tratta di un’immagine, esegui una ricerca inversa dell’immagine utilizzando Ricerca inversa di Google, TinEye o Yandex.

Per le storie basate su immagini

  • Ingrandisci l’immagine per verificare eventuali errori. Ingrandire l’immagine potrebbe rivelare dettagli inaccurati o di scarsa qualità, indicando un possibile coinvolgimento dell’IA.
  • Verifica le proporzioni dell’immagine. Le immagini generate dall’IA spesso commettono errori nelle proporzioni di mani, dita, denti, orecchie, occhiali e altre parti del corpo e oggetti.
  • Esamina lo sfondo. Con immagini false o modificate, lo sfondo spesso appare distorto, ripetuto o privo di dettagli.
  • Verifica eventuali imperfezioni. Nelle immagini generate dall’IA, le caratteristiche che di solito sarebbero dettagliate o anche ruvide sono spesso lisce e perfette. Pelle, capelli, denti e volti spesso sembrano troppo impeccabili per essere reali.
  • Analizza i dettagli. Le incongruenze nelle immagini spesso indicano la falsificazione da parte dell’IA. Forse il colore degli occhi della persona non corrisponde tra diverse immagini o il motivo cambia da un’immagine all’altra.

Per le storie basate su video

  • Verifica le dimensioni del video. I video che sono più piccoli e di risoluzione più bassa di quanto dovrebbero essere sono a volte un segno di generazione da parte dell’IA.
  • Osserva eventuali sottotitoli. Con video falsi, i sottotitoli sono spesso posizionati per coprire i volti in modo che sia più difficile vedere che l’audio non corrisponde ai movimenti delle labbra.
  • Controlla le forme delle labbra sfasate. Le forme delle labbra sfasate sono un altro segno di manipolazione da parte dell’IA, specialmente se l’area incollata è visibile vicino al centro delle bocche.