La maggior parte degli utenti su X non vede mai le Note della Community che correggono le informazioni errate.

La maggior parte degli utenti su X non legge mai le Note della Community che correggono le informazioni sbagliate.

Quando Elon Musk ha preso il controllo di X, precedentemente conosciuta come Twitter, uno dei suoi primi passi è stato rivedere le politiche di moderazione dei contenuti dell’azienda. Quando si tratta di disinformazione, Musk si affida agli utenti di X per gestire il problema mediante Community Notes, un programma che permette agli utenti approvati di aggiungere contesto ai post contenenti inesattezze o falsità.

Purtroppo, per Musk e la sua azienda, questa soluzione basata sulla partecipazione degli utenti sembra non funzionare. E l’afflusso di disinformazione sin dal giorno in cui Hamas ha attaccato Israele il 7 ottobre, e l’Israele ha iniziato a bombardare Gaza successivamente, ha solo peggiorato le cose.

X delega la moderazione dei contenuti a Community Notes

Il problema di disinformazione di X negli ultimi mesi è stato così evidente che l’Unione Europea ha minacciato di agire contro l’azienda, aprendo un’indagine che potrebbe portare a pesanti sanzioni per X.

Il mese scorso, X ha annunciato diverse modifiche a Community Notes nel tentativo di calmare i funzionari dell’UE. La CEO di X, Linda Yaccarino, ha pubblicato ventiquattro post non di risposta, non di retweet a ottobre. Nove di quei post riguardavano gli aggiornamenti al programma Community Notes di X. Lo stesso mese, l’esecutivo di X, Joe Benarroch, si è rivolto a ENBLE per fornire un comunicato stampa riguardante gli aggiornamenti a Community Notes, segnando la prima volta che ENBLE ha sentito parlare di X da quando Elon Musk ha acquisito l’azienda l’anno scorso.

X ha chiarito con tutto ciò che dipende da Community Notes per combattere la disinformazione. Ma Community Notes sta fallendo.

Secondo un rapporto di NBC News del mese scorso, e un recente rapporto di Bloomberg della scorsa settimana, X spesso non riusciva a mostrare in modo tempestivo i fact-check di Community Notes sui post virali che diffondevano falsità. Il tempo impiegato affinché un Community Note appaia su un post era un elemento centrale degli aggiornamenti di X al programma. Eppure, Bloomberg ha scoperto che i Community Notes impiegano in media più di sette ore per apparire, con alcuni post che diffondono disinformazione che rimangono giorni prima di apparire con un fact-check.

Negli ultimi due mesi, ENBLE ha anche monitorato gli Appunti della Comunità, tracciando 50 post virali a cui era allegato un Appunto della Comunità approvato. Il nostro obiettivo, tuttavia, era capire quanti utenti di X vedono un Appunto della Comunità dopo che è stato approvato e la piattaforma effettivamente attacca l’appunto a un post, rendendolo visibile pubblicamente a tutta la base utenti di X.

ENBLE ha scoperto che X non riesce a mettere gli Appunti della Comunità davanti ai suoi utenti, anche dopo che il fact-check è stato approvato dalla comunità.

Le false notizie ricevono molti più visualizzazioni dei fact-check

Nella notte del 17 ottobre, l’utente X @MichalSabra ha pubblicato un video che sosteneva di raffigurare un coro da parte di studenti pro-Palestina che protestavano presso l’UPenn con la frase “Vogliamo il genocidio ebraico.”

Tuttavia, gli utenti che hanno guardato il video potevano sentire che questo era falso. I manifestanti stavano intonando “Ti accusiamo di genocidio,” uno slogan accusatorio. L’ADL ha anche confermato questo nella propria confutazione della dichiarazione.

Quando ENBLE ha iniziato a monitorare il post, aveva già ricevuto più di mezzo milione di visualizzazioni in 12 ore. Quasi 20 ore dopo, sono stati presentati i primi due Appunti della Comunità che sarebbero poi stati approvati per essere valutati, il che significa che erano visibili solo ai membri del programma Appunti della Comunità e non a tutta la base utenti della piattaforma.

Il 19 ottobre, due giorni dopo che @MichalSabra ha pubblicato la falsa notizia, ENBLE ha ricevuto una notifica da X che l’Appunto della Comunità era stato approvato sul post ed era stato visto 100.000 volte.

Al 28 novembre, il post di @MichalSabra non è stato cancellato. Ha accumulato 3,9 milioni di visualizzazioni. I due Appunti della Comunità approvati visualizzati sul post hanno totalizzato solo 185.000 visualizzazioni. L’Appunto della Comunità è stato visto solo dal 4,7 percento degli utenti che hanno visualizzato la falsità originale.

Appunti della Comunità sul post di @MichalSabra.

Inoltre, secondo X, questi due Appunti della Comunità appaiono anche su altri 22 post contenenti il video di @MichalSabra e le visualizzazioni degli Appunti della Comunità includono quelle di quei post nelle loro metriche cumulative.

Appunti della Comunità che scompaiono

L’utente X @elikowaz ha pubblicato un post il 18 novembre raffigurante un “I love Hamas” che sarebbe stato stampato e affisso dal Social Justice Centre della University of British Columbia nel campus universitario.

Nelle ore successive al post, il Social Justice Centre dell’UBC ha smentito le accuse. Successivamente, Hillel BC ha condiviso che un terzo soggetto associato all’organizzazione ebraica del campus universitario era in realtà responsabile degli adesivi.

Quando ENBLE ha iniziato a monitorare questo post il 20 novembre, aveva più di 600.000 visualizzazioni. L’Appunto della Comunità approvato contenente il fact-check aveva poco più di 25.000 visualizzazioni.

Al 28 novembre, il post di @elikowaz rimane, ora con un milione di visualizzazioni. Tuttavia, ENBLE ha notato che anche dopo l’approvazione dell’Appunto della Comunità, il post originale contenente la disinformazione ha continuato ad accumulare più visualizzazioni del fact-check.

In una settimana, il post di @elikowaz con l’Appunto della Comunità allegato ha guadagnato circa altre 400.000 visualizzazioni. Questo significa che se gli Appunti della Comunità funzionassero come previsto, il fact-check avrebbe circa 425.000 visualizzazioni, ovvero poco meno della metà delle visualizzazioni sul post a cui è allegato.

Invece, il Community Note ha solo 143.000 visualizzazioni.

Post di @elikowaz con Community Note

Cosa è successo? Sembra che il Community Note non sia sempre apparso fissato al post anche dopo che il note è stato approvato. ENBLE ha notato lo stesso problema con altri post che stava monitorando. A volte, una nota perdeva l’approvazione e veniva relegata allo stato di valutazione, il che significa che solo i membri del programma Community Notes potevano vedere il post. Altre volte, la nota scompariva del tutto e non era più visibile su un post nemmeno dai membri del programma Community Notes.

Le metriche dei Community Notes di X sollevano domande

X si è vantato del numero di visualizzazioni che i Community Notes hanno ricevuto sulla piattaforma più volte. Il 14 ottobre, X ha dichiarato che i Community Notes stavano “generando più di 85 milioni di impression nella scorsa settimana” dopo l’attacco di Hamas dell’7 ottobre. Dieci giorni dopo, in un comunicato stampa inviato a ENBLE, X ha affermato che i Community Notes sono stati visti “ben oltre 100 milioni di volte” nelle ultime due settimane. Poi, il 14 novembre, X ha pubblicato un post sul blog affermando che le “note sono state visualizzate oltre cento milioni di volte” nel “primo mese del conflitto”.

Sulla base delle proprie metriche di X, a meno che il traffico verso la piattaforma e il numero di post creati non stiano diminuendo, sembra che le visualizzazioni dei Community Notes siano in una tendenza discendente.

Inoltre, sulla base della viralità di molti dei post che diffondono disinformazione esaminati da ENBLE, 100 milioni di visualizzazioni sulla totalità dei Community Notes rappresentano un numero estremamente basso.

Ad esempio, il 9 novembre, l’utente X @Partisangirl ha pubblicato un video affermando che mostrava elicotteri israeliani che aprono il fuoco sui propri cittadini al Supernova music festival dell’7 ottobre. L’asserzione è stata smentita in quanto il video mostrava elicotteri israeliani che attaccavano Hamas in un’altra località.

Tuttavia, il post di @Partisangirl con la falsa affermazione ha ottenuto ben 30 milioni di visualizzazioni al 29 novembre. Si tratta di un singolo post di X di 20 giorni fa con circa il 30% delle visualizzazioni che l’intera Community Notes ha ottenuto in un mese.

Post di @Partisangirl

Un Community Note è stato infine posto sul post di @Partisangirl. Il note ha solo circa 244.200 visualizzazioni o circa lo 0,8% delle visualizzazioni che il post originale ha ricevuto. La disinformazione è stata vista 123 volte più del fact-check.

Community Note sul post di @Partisangirl

I Community Notes non vengono visti dalla maggior parte degli utenti

Anche se il post di @Partisangirl è uno degli esempi più estremi, ENBLE ha riscontrato che nella maggior parte dei casi osservati, c’era una grande disparità tra il numero di visualizzazioni su un post e il numero di visualizzazioni sul Community Note allegato allo stesso post.

Un post del 19 ottobre di un utente X divulgatore di disinformazione regolare, @DrLoupis, attribuiva una falsa affermazione al presidente turco Erdoğan secondo cui il paese sarebbe intervenuto a Gaza. Il post di @DrLoupis contenente la falsa citazione è stato visualizzato nove milioni di volte al 29 novembre. Due diversi Community Notes sono stati presentati poche ore dopo che @DrLoupis ha pubblicato il post e sono stati successivamente approvati. Questi due note in totale hanno solo circa 740.000 visualizzazioni.

@DrLoupis post

In un altro post pubblicato il 26 novembre, l’utente @DrLoupis rappresenta falsamente una foto di un bambino a Gaza come un ragazzo israeliano. In tre giorni, questo falso post ha accumulato 6,3 milioni di visualizzazioni. La Nota della Comunità approvata non sarebbe stata inviata fino a quasi 27 ore dopo. Rispetto alle 6,3 milioni di visualizzazioni del post, la Nota della Comunità allegata ha solo poco più di 111.000 visualizzazioni. La disinformazione ha 57 volte più visualizzazioni rispetto al fact-check.

Un altro grosso diffusore di disinformazione su X, @dom_lucre, ha pubblicato un post il 23 ottobre affermando che le truppe statunitensi sono state attaccate in Siria con un’immagine raffigurante un’esplosione. L’allegato era in realtà una foto modificata che raffigurava un attacco aereo israeliano del 2018 a Gaza. La disinformazione dell’utente X @dom_lucre ha ricevuto quasi 800.000 visualizzazioni, ovvero circa 10 volte più visualizzazioni rispetto al fact-check della Nota della Comunità, che ha ricevuto solo 82.400 visualizzazioni.

Gli utenti verificati sono grandi diffusori di disinformazione

Ogni account menzionato finora in questo articolo – @MichalSabra, @elikowaz, @Partisangirl, @DrLoupis e @dom_lucre – è un abbonato del servizio di verifica a pagamento di X, X Premium, precedentemente noto come Twitter Blue.

ENBLE non si è proposto di mirare a questi utenti. I post che abbiamo monitorato erano tra i più virali pubblicati sulla piattaforma. Alcuni sono stati scoperti tramite la funzione di ricerca di X. Altri sono stati trovati tramite l’account ufficiale di X @HelpfulNotes, che condivide i post che ricevono una Nota della Comunità. Tuttavia, X offre agli abbonati di X Premium un impulso algoritmo, il che aiuta i loro post a permeare in tutta la piattaforma.

Ad esempio, l’utente X @jacksonhinklle è diventato una delle figure più influenti sulla piattaforma dal 7 ottobre, guadagnando milioni di follower in poche settimane. È anche un abbonato di X Premium e diffonde regolarmente disinformazione.

@jacksonhinklle's post

L’8 novembre, @jacksonhinklle ha postato che il cecchino israeliano Barib Yariel è stato ucciso da Hamas. Il post ha ricevuto 6,4 milioni di visualizzazioni. Tuttavia, Barib Yariel non esiste. Quattro Note della Comunità separate sono state approvate sul post, con la prima presentata 10 ore dopo il post di @jacksonhinklle. Tutte e quattro le Note della Comunità insieme hanno ricevuto circa 639.300 visualizzazioni, ovvero meno del 10% delle visualizzazioni ottenute dal post di @jacksonhinklle.

Molti abbonati di X Premium, compresi alcuni degli individui citati in questo rapporto, sono monetizzati sulla piattaforma. Ciò significa che l’azienda di Musk paga questi individui in base al numero di altri abbonati che visualizzano gli annunci posizionati sui loro post. Tuttavia, il 30 ottobre Musk ha annunciato che la politica stava cambiando e i post che ricevevano una Nota della Comunità non erano più ammissibili per il programma di condivisione dei ricavi pubblicitari. Tuttavia, come ha scoperto Newsguard in un’analisi condotta settimane dopo l’annuncio di Musk, gli annunci di importanti marchi come Microsoft, Pizza Hut e Airbnb continuavano a comparire su post contenenti disinformazione su Israele e Palestina.

Anche se questa indagine si è concentrata principalmente sulle disinformazioni riguardanti Israele e Gaza, ENBLE ha monitorato altri post e ha riscontrato gli stessi problemi in post su varie questioni e argomenti. Ad esempio, l’utente verificato X @LaurenWitzkeDE ha pubblicato un video di un “cosciotto di pollo coltivato in laboratorio” che si muoveva e tremava su un tavolo. @LaurenWitzkeDE affermava che si trattava di un esempio di “carne misteriosa coltivata in laboratorio di Bill Gates”. Tuttavia, il video non rappresentava un vero pezzo di pollo ed era in realtà un’opera d’arte creata da un artista su TikTok. Il post originale di @LaurenWitzkeDE ha ricevuto 1,6 milioni di visualizzazioni. La nota della community con il fact-check ha ottenuto poco più di 203.000 visualizzazioni.

ENBLE ha monitorato 50 post nei due mesi scorsi, abbiamo escluso alcuni dalla nostra indagine dopo che la nota della community è stata rimossa o scomparsa dal post. Solo tre post che abbiamo monitorato avevano note della community con circa la metà delle visualizzazioni del post contenente la falsità – due dei quali contenevano lo stesso media manipolato.

Molte volte, la disinformazione su X si diffonde senza alcuna nota della community. Oppure, in un’altra situazione comune, una nota della community viene approvata, ma in seguito rimossa dal post. Dei post che ricevono una nota della community, e che rimane fissata al post, la falsità viene spesso visualizzata circa 5 o 10 volte più del fact-check. E talvolta, come evidenziato negli esempi citati, questa disparità è ancora maggiore.