Azienda di Moderazione dei Contenuti Ritenuta Responsabile dei Danneggiamenti Psicologici dei Lavoratori Una Svolta nell’Industria

Un tribunale spagnolo ha trovato responsabile una società con sede a Barcellona che fornisce servizi di moderazione dei contenuti per Facebook e Instagram, come subappaltatore per Meta, di causare danni psicologici a uno dei suoi dipendenti.

Le autorità spagnole stanno mettendo pressione sul modello di sottocontratto dei moderatori di contenuti di Meta.

In una storica decisione da parte di un tribunale in Spagna, un’impresa di Barcellona che opera come sottocontratto per Meta, la casa madre di Facebook e Instagram, è stata ritenuta responsabile per aver causato danni psicologici a uno dei suoi lavoratori. Questa sentenza del tribunale segna la prima volta che un’azienda di moderazione dei contenuti viene ritenuta responsabile per i disturbi mentali subiti da un dipendente.

Secondo quanto riportato dalla stampa locale, la causa è stata intentata da un lavoratore brasiliano di 26 anni che ha seguito un trattamento psichiatrico negli ultimi cinque anni a causa dell’esposizione a contenuti estremi e violenti su Facebook e Instagram. Il contenuto consisteva in immagini inquietanti come omicidi, suicidi, terrorismo e tortura. A seguito di questa esposizione, il lavoratore ha sperimentato una serie di problemi psicologici, tra cui attacchi di panico, comportamenti di evitamento, preoccupazione eccessiva per le malattie, disturbi del sonno, difficoltà nella deglutizione e una significativa paura della morte.

Il tribunale ha riconosciuto che i problemi di salute mentale del lavoratore non erano una malattia comune, ma piuttosto il risultato diretto del suo lavoro. Tuttavia, il sottocontrattore di Meta ha cercato di respingere ogni responsabilità classificando la condizione del lavoratore come un disturbo generale. È giunto il momento che Meta e altre piattaforme di social media riconoscano e affrontino la portata di questo problema, anziché negarne l’esistenza. È soltanto quando affronteranno e accetteranno questa terrificante realtà che le cose cominceranno a cambiare.

La sentenza del tribunale è stata accolta come una grande vittoria per i lavoratori che soffrono di problemi di salute mentale a causa del loro lavoro. Lo studio legale che rappresenta il lavoratore, Espacio Jurídico Feliu Fins, ha sottolineato la necessità che Meta e altre aziende riesaminino il loro approccio e le loro strategie verso la moderazione dei contenuti.

🔍 Domande correlate:

D: L’outsourcing della moderazione dei contenuti è una pratica comune nel settore? A: Sì, l’outsourcing della moderazione dei contenuti a sottocontrattori di terze parti è una pratica comune nel settore. Questi sottocontrattori impiegano tipicamente lavoratori a basso costo che agiscono come filtri umani per i contenuti violenti e inquietanti.

D: Ci sono altri casi in cui i moderatori dei contenuti hanno subito danni psicologici? A: Sì, ci sono stati diversi casi in cui i moderatori dei contenuti hanno sviluppato problemi di salute mentale a causa dell’esposizione a immagini violente e grafiche. Ad esempio, Meta ha risolto una causa collettiva da 52 milioni di dollari negli Stati Uniti nel 2020, in cui i moderatori dei contenuti sostenevano che il loro lavoro aveva portato allo sviluppo di un disturbo da stress post-traumatico.

D: Quali misure stanno adottando le aziende per supportare la salute mentale dei moderatori dei contenuti? A: Aziende come Meta sostengono di avere determinate strutture per supportare la salute mentale dei moderatori dei contenuti. Queste includono il supporto in loco da parte di professionisti qualificati, l’accesso a cure sanitarie private dal primo giorno di lavoro e soluzioni tecniche per limitare l’esposizione a materiale grafico.

L’outsourcing della moderazione dei contenuti a aziende di terze parti è da anni motivo di preoccupazione. Storie di lavoratori sottopagati esposti a contenuti traumatici hanno sollevato questioni etiche sulla responsabilità delle piattaforme di social media. Sebbene Meta abbia rifiutato di commentare la recente decisione contro il suo sottocontrattore in Spagna, l’azienda ha difeso il suo approccio alla moderazione dei contenuti sottolineando il supporto e gli strumenti di filtraggio forniti ai sottocontrattori.

Tuttavia, è importante considerare se l’implementazione di servizi di supporto e strumenti di filtraggio possa essere compromessa da rigidità delle quote di produttività imposte dai sottocontrattori. Nella pratica, queste quote possono rendere difficile per i moderatori dei contenuti accedere a un adeguato supporto pur soddisfacendo le richieste dei loro datori di lavoro.

Inoltre, rapporti di quotidiani con sede a Barcellona hanno indicato che un significativo numero di lavoratori presso il sottocontrattore di Meta, CCC Barcelona Digital Services, si è assentato dal lavoro a causa di traumi psicologici causati dalla revisione di contenuti tossici. I lavoratori hanno criticato il livello di supporto fornito dal loro datore di lavoro come insufficiente. Inoltre, obiettivi di performance impietosi e il lavoro a turni possono contribuire ulteriormente allo sviluppo di problemi di salute mentale tra i moderatori dei contenuti.

🔍 Approfondimenti:

  1. Il lato oscuro della moderazione dei contenuti: l’impatto sulla salute mentale dei lavoratori
  2. I giganti dei social media e la responsabilità morale della moderazione dei contenuti
  3. Soluzioni basate sull’IA per la moderazione dei contenuti: bilanciare l’efficienza e il benessere psicologico
  4. Il tributo psicologico della visione della violenza sui social media

È cruciale che aziende come Meta diano priorità al benessere mentale dei loro moderatori dei contenuti e assicurino un ambiente di lavoro di supporto e sicuro. Le decisioni legali che impongono responsabilità ai revisori dei contenuti di terze parti per la protezione della salute mentale dei lavoratori potrebbero rappresentare un punto di svolta nell’industria. Sebbene la moderazione dei contenuti continuerà ad essere una sfida, la salute e il benessere di coloro che sono responsabili di proteggere gli utenti da contenuti dannosi devono essere prioritari.

In conclusione, la recente sentenza del tribunale in Spagna sottolinea la necessità che le piattaforme di social media rivalutino le loro strategie e riconoscano l’impatto della moderazione dei contenuti sulla salute mentale dei lavoratori. L’outsourcing della moderazione dei contenuti non dovrebbe avvenire a spese del benessere dei dipendenti. Mentre l’industria avanza, è fondamentale trovare un equilibrio tra la protezione degli utenti e la sicurezza e salute mentale dei moderatori dei contenuti.

💬 Lettori, quali sono i vostri pensieri sulle responsabilità delle aziende di social media nei confronti dei moderatori dei contenuti? Condividete le vostre opinioni qui sotto! E non dimenticate di cliccare quel pulsante di condivisione per diffondere consapevolezza su questa importante questione.