Il Consiglio di Sorveglianza di Meta amplia il proprio campo d’azione alle discussioni per la moderazione dei contenuti.

Il Consiglio di Sorveglianza ha svelato oggi che amplierà la sua giurisdizione per includere anche le Thread, oltre a Facebook e Instagram, al fine di esaminare le decisioni di Meta sulla moderazione dei contenuti.

“`html

Il Consiglio di Vigilanza di Meta include ora Threads.

📢 Grandi novità nel mondo della moderazione dei contenuti! Il gruppo consultivo esterno di Meta, il Consiglio di Vigilanza, ha appena annunciato che espanderà il suo campo di azione per includere Threads, insieme a Facebook e Instagram. Ciò significa che se non sei soddisfatto delle decisioni di Meta sui contenuti o sui problemi di sospensione dell’account su Threads, ora puoi appellarti al Consiglio di Vigilanza. 🆘

“L’espansione del Consiglio su Threads si basa sulla nostra fondazione nel contribuire a risolvere le domande più difficili sulla moderazione dei contenuti da parte di Meta. Avere responsabilità indipendenti fin dall’inizio per un’applicazione nuova come Threads è di vitale importanza,” ha dichiarato Helle Thorning-Schmidt, co-presidente del Consiglio di Vigilanza. 📝

Ma aspetta un attimo, approfondiamo la storia qui. Nel 2018, Mark Zuckerberg ha proposto per la prima volta l’idea di un consiglio di vigilanza indipendente. A gennaio 2020, Facebook ha proposto i regolamenti del consiglio e annunciato il primo gruppo di membri a maggio. E nell’ottobre 2020, il consiglio ha iniziato la sua missione esaminando i casi. Passiamo al 2021, e l’organo di controllo ha ampliato il suo campo di azione per revisionare la decisione di Meta di mantenere alcuni contenuti attivi. 🌍

Ora, non dimentichiamo alcuni dei casi di grande rilievo affrontati da questo consiglio. Quello che spicca di più è sicuramente la critica diretta di Facebook per il divieto “a tempo indeterminato” all’ex presidente Donald Trump. Sebbene il consiglio abbia concordato sul fatto che Trump abbia violato le regole della piattaforma, ha messo in discussione la mancanza di specifiche per un divieto a tempo indeterminato. 🚫

Ok, ora concentriamoci su Threads. Sin dal suo lancio a luglio dell’anno scorso, gli utenti hanno sollevato preoccupazioni sulle sue pratiche di moderazione. Il Washington Post ha riferito nell’ottobre scorso che la piattaforma stava bloccando termini come “Covid” e “vaccini”, così come parole come “gore”, “nude”, “sex” e “porn”. Il capo di Instagram, Adam Mosseri, ha accennato che questo divieto era temporaneo, ma sorprendentemente è ancora in vigore. 😱

Threads ha recentemente implementato un programma di fact-checking, ma non entusiasmiamoci troppo in anticipo. Le etichette che gli utenti vedono su alcuni post sono in realtà perché corrispondono ai fact-check esistenti sulle altre proprietà di Meta. Threads aveva intenzione di avere un programma di fact-check separato, ma è ancora in fase di sviluppo. 🤷‍♂️

Mosseri ha chiarito che Threads non raccomanderà contenuti politici o “amplificherà notizie” sulla piattaforma. Tuttavia, la nuova funzione di argomenti più discussi potrebbe includere contenuti politici, purché siano conformi alla politica dell’azienda. 🗞

Catalina Botero Marino, co-presidente del Consiglio di Vigilanza, ha sottolineato la crescente difficoltà della moderazione dei contenuti a causa dei conflitti in tutto il mondo, delle elezioni imminenti e dei progressi nella tecnologia AI. Con tutte queste sfide, il consiglio è in missione per trovare soluzioni che proteggano la libertà di espressione riducendo al minimo i danni. Si impegna a creare standard che migliorino l’esperienza online degli utenti di Threads. 👩‍⚖️

Parliamo ora del processo per appellarsi alle decisioni di Meta su Threads attraverso il Consiglio di Vigilanza. L’utente dovrebbe prima appellarsi direttamente a Meta e, se è ancora insoddisfatto della sentenza entro 15 giorni, può appellarsi al consiglio. Il consiglio esaminerà l’appello entro 90 giorni dalla data in cui è stato presentato. Sebbene il consiglio abbia ricevuto critiche in passato per la lentezza delle risposte, al momento non ci sono stati cambiamenti nel processo per Threads. 📅

Vale la pena notare che il consiglio può emettere raccomandazioni e decisioni. Sebbene le raccomandazioni non siano vincolanti, Meta è tenuta a seguire le decisioni del consiglio. Quindi, c’è un vero potere lì! 💪

L’espansione del Consiglio di Vigilanza di Meta per includere Threads è un passo significativo verso la garanzia di responsabilità e trasparenza nella moderazione dei contenuti. Posiziona la vigilanza indipendente dove è più necessaria e fornisce una piattaforma per gli utenti per esprimere le loro preoccupazioni. Vediamo come si sviluppa questo cambiamento e speriamo in una migliore esperienza online per gli utenti di Threads. 🙏

Angolo delle Domande e Risposte:

Domanda: Come funziona il processo di Appello con Threads e il Consiglio di Vigilanza?

Risposta: Per appellarsi alle decisioni di Meta su Threads, gli utenti devono prima appellarsi direttamente a Meta. Se sono ancora insoddisfatti dell’esito, hanno 15 giorni per presentare un appello al Consiglio di Vigilanza. Il consiglio esaminerà quindi l’appello, insieme alla risposta di Meta, entro 90 giorni. È cruciale seguire questo processo per avere la possibilità di far affrontare le proprie preoccupazioni da un organo indipendente.

“““html

Q: Può Meta ignorare le raccomandazioni fatte dall’Organo di vigilanza?

A: Anche se le raccomandazioni emesse dall’Organo di vigilanza non sono legalmente vincolanti, Meta è obbligata a considerarle e a rispondervi. Lo scopo dell’organo è fornire orientamenti indipendenti sulle decisioni di moderazione dei contenuti e, sebbene Meta mantenga l’ultima parola, le raccomandazioni hanno un peso significativo.

Q: Ci sono piani per espandere il campo d’azione dell’Organo di vigilanza ad altre app o piattaforme?

A: L’Organo di vigilanza ha già ampliato il proprio campo d’azione per includere Threads, Facebook e Instagram. Tuttavia, non ci sono informazioni ufficiali riguardo a eventuali piani futuri per ulteriori espansioni. Con l’evolversi del panorama digitale, non sarebbe sorprendente se l’organo considerasse di estendere la propria azione per affrontare problemi di moderazione dei contenuti su altre piattaforme.

Q: Come funziona il programma di fact-checking su Threads?

A: Attualmente Threads si affida ai controlli dei fatti delle altre proprietà di Meta per etichettare i post. L’intenzione era quella di istituire un programma separato di fact-checking specificamente per Threads, ma i dettagli e i fact-checker partecipanti devono ancora essere definiti. Anche se l’implementazione del fact-checking è un passo nella giusta direzione, la piattaforma sta ancora lavorando al pieno avvio del proprio programma di fact-checking indipendente.

Prospettive future:

L’ampliamento dell’Organo di vigilanza di Meta per includere Threads sottolinea l’importanza crescente di una moderazione trasparente dei contenuti su tutte le piattaforme di social media. Mentre conflitti, elezioni e progressi nella tecnologia dell’IA continuano a plasmare lo spazio digitale, trovare soluzioni efficaci per la moderazione dei contenuti diventa sempre più cruciale.

Questo passo potrebbe aprire la strada affinché altre piattaforme e applicazioni adottino organi di vigilanza simili, rafforzando la responsabilità e promuovendo esperienze online più eque. Bilanciare la libertà di espressione con la necessità di ridurre i danni rimarrà una sfida, ma con una collaborazione continua e un impegno per l’innovazione, tali organi possono contribuire a plasmare un mondo digitale più responsabile.

Riferimenti:

  1. Morning After: Meta Oversight Board Says Manipulated Biden Video Can Stay on Facebook
  2. SpaceX wrongly fired eight activist employees, US labor board alleges
  3. Recent PC cases that make us excited for what’s next (Digital Trends)
  4. Meta to Restrict Teen Instagram and Facebook Accounts from Seeing Certain Content
  5. Federal Judge Rejects Comcast Claim that California’s Content Moderation Law Violates Free Speech (TechCrunch)

“`