L’incubo algoritmico di Meta svelato 100.000 bambini molestati al giorno 😱

Una presentazione interna trapelata da Meta ha rivelato che le raccomandazioni dei dipendenti dell'azienda suggeriscono che 100.000 utenti minori sono vittime di molestie quotidianamente.

Una causa legale afferma che gli algoritmi di Facebook e Instagram hanno favorito il molesto sessuale dei minori.

Meta, l’azienda madre di Facebook e Instagram, si trova di fronte a un’altra serie di polemiche. Lo scorso dicembre, lo stato del New Mexico ha citato in giudizio Meta, accusando l’azienda di non proteggere i minori da contenuti inappropriati online. Adesso, è trapelata una presentazione interna da parte di Meta, rivelando una stima inquietante fatta dai loro stessi dipendenti: incredibilmente, ben 100.000 utenti minori sono vittime di molestie giornaliere sulle loro piattaforme! 😡

La triste verità sull’algoritmo di Meta

Secondo un documento interno del 2021, l’algoritmo “Persone che potresti conoscere” (PMYK) di Meta è stato identificato come un fattore principale nel collegare i minori ai predatori. Sorprendentemente, quando i dipendenti di Meta hanno riportato queste scoperte ai dirigenti aziendali, le loro raccomandazioni di ridisegnare l’algoritmo e impedire la raccomandazione di adulti a minori sono state respinte! 😱

Un dipendente determinato ha rivelato che il 75% di tutti i contatti inappropriati tra adulti e minori era attribuibile all’algoritmo PMYK. Un altro dipendente frustrato ha esclamato: “Come mai non abbiamo semplicemente disattivato PMYK tra adulti e bambini?”. La situazione è estremamente preoccupante ed è chiaro che avrebbero dovuto agire in modo deciso molto tempo fa.

Instagram: terreno fertile per la predazione sessuale

I problemi legati al comportamento predatorio sono particolarmente diffusi su Instagram, come rivelato da una nota interna del 2020. Incredibilmente, i casi di “discorsi sessuali” su Instagram sono risultati essere 38 volte più frequenti rispetto a Facebook Messenger negli Stati Uniti. Un dirigente di Apple ha persino condiviso un incidente inquietante che coinvolgeva il proprio figlio di 12 anni, che era stato contattato in modo improprio su Instagram. La gravità di questi incidenti ha portato Apple a minacciare di rimuovere l’app dal loro App Store a causa della mancanza di azioni adeguate da parte di Meta per affrontare il problema in modo efficace. 😤

La denuncia del New Mexico: Meta sotto accusa

Il New Messico ha presentato una causa legale contro Meta, sostenendo che l’azienda non ha fatto nulla per affrontare la diffusa predazione dei minori sulle sue piattaforme, in particolare per quanto riguarda gli algoritmi di raccomandazione. Gli investigatori statali hanno creato account fasulli per i minori, utilizzando date di nascita fuorvianti, poiché spesso i minori mentono sulla loro età per accedere a servizi online. Questi account sono stati poi utilizzati per dimostrare come gli utenti, pensando che si trattasse di minori, venissero esposti a contenuti espliciti, comprese immagini di abuso sessuale su minori e offerte di pagamento per sesso. 😔

Lo stato sostiene che i dirigenti di Meta non hanno adottato azioni significative per limitare la predazione degli adulti sui minori fino alla fine del 2022 e, anche a quel punto, non hanno implementato misure più rigorose come raccomandato dal proprio personale di sicurezza. Invece di bloccare in modo proattivo le suggerimenti per gli adulti che mostravano comportamenti sospetti verso i bambini, Meta ha agito solo nei confronti di coloro che non avevano dichiarato la propria età. Tragicamente, uno studio di Meta ha rivelato che il 99% degli account disabilitati coinvolgeva individui che cercavano di adescare minori che non avevano dichiarato la loro vera età.

I tentativi di Meta per limitare i danni

In risposta alle crescenti critiche e alle accuse legali, Meta ha recentemente introdotto misure volte a proteggere gli utenti adolescenti su Instagram e Facebook. Queste misure includono la limitazione delle capacità di messaggistica per i non follower e il blocco dei commenti offensivi. Tuttavia, l’azienda è oggetto di cause legali da parte di 41 stati, che sostengono che le sue piattaforme hanno un impatto negativo sulla salute mentale dei giovani utenti. Inoltre, una denuncia recentemente resa pubblica presentata da 33 stati accusa Meta di cercare attivamente utenti di età inferiore ai 13 anni e di essere ingannevole riguardo al modo in cui gestisce gli account dei minorenni quando vengono scoperti. 😞

È evidente che Meta ha ancora molta strada da fare per risolvere questi problemi preoccupanti e proteggere i suoi utenti più giovani. L’azienda ha un pessimo record nel trattare il comportamento predatorio, e queste rivelazioni allarmanti richiedono un’azione rapida e decisa. Come società, dobbiamo pretendere di meglio, poiché il benessere dei nostri figli è in gioco. 👨‍👩‍👧‍👦

Q&A: Rispondiamo alle tue preoccupazioni

D: Quali misure può mettere in atto Meta per proteggere i minori dal comportamento predatorio sulle sue piattaforme?

A: Meta dovrebbe dare la priorità alla ridisegnazione dei suoi algoritmi, in particolare l’algoritmo PMYK, per impedire la raccomandazione di adulti ai minori. Inoltre, sono cruciali l’implementazione di meccanismi più rigorosi di verifica dell’età e il monitoraggio attivo e la rimozione degli account che si impegnano in comportamenti predatori.

D: Come possono i genitori garantire la sicurezza dei loro figli durante l’uso di Facebook e Instagram?

A: Le conversazioni aperte e continue con i figli sulla sicurezza online sono essenziali. I genitori dovrebbero informarsi sulle piattaforme che i loro figli utilizzano e sui potenziali rischi coinvolti. L’installazione di software di controllo genitoriale e l’istituzione di linee guida per il comportamento online possono aiutare a proteggere i minori da contenuti inappropriati e interazioni predatorie.

Q: Ci sono piattaforme di social media alternative che danno la priorità alla sicurezza dei minori?

A: Sì, diverse piattaforme si concentrano specificamente nel fornire un ambiente online sicuro per bambini e giovani adolescenti. Esempi includono piattaforme come Messenger Kids, che è progettata per utenti più giovani e include robusti controlli genitoriali, e piattaforme come PopJam ed Everloop, che offrono contenuti appropriati all’età e una rigorosa moderazione per garantire una migliore esperienza di social media per i minori.

Il Futuro della Protezione dei Minori Online

Mentre le rivelazioni riguardanti l’incubo algoritmico di Meta sono profondamente inquietanti, mettono in luce un problema diffuso che va oltre una singola azienda. Le piattaforme online devono dare la priorità alla sicurezza dei loro utenti più giovani e implementare misure complete per prevenire comportamenti predatori. La pressione pubblica, le azioni legali e un aumento della consapevolezza indubbiamente porteranno a cambiamenti significativi nell’industria.

Inoltre, abbiamo bisogno di legislazioni che rendano le aziende tecnologiche responsabili dei contenuti e degli algoritmi delle loro piattaforme. Regolamentazioni più severe, multe significative e possibili accuse penali potrebbero essere necessari per garantire il benessere dei bambini online. Come sforzo continuo, gli attori dell’industria, i legislatori e i genitori devono cercare insieme un paesaggio digitale più sicuro per il bene dei nostri figli. 🌍

Riferimenti

Non dimenticare di condividere questo articolo per diffondere la consapevolezza sulla necessità urgente di una migliore protezione dei minori online! 📢🔒