📢 I problemi di fiducia e sicurezza di Twitter Uno sguardo approfondito ai tagli

L’Australia critica Twitter (ora X) per la riduzione degli ingegneri della fiducia e della sicurezza dell’80%.

Fonte immagine: Getty Images

L’Australia ha di recente criticato X (precedentemente Twitter) per la preoccupante riduzione delle risorse per la fiducia e la sicurezza online, che ne ostacola gravemente la capacità di affrontare i problemi legati ai contenuti dannosi sulla sua piattaforma. Il Commissario per la sicurezza online dell’Australia ha pubblicato un rapporto di trasparenza, che mette in luce i tagli effettuati alle squadre di fiducia e sicurezza di X dal momento dell’acquisizione nell’ottobre 2022. Questo rapporto fornisce cifre specifiche su dove sono stati effettuati questi tagli, a seguito di avvisi legali inviati a X Corp che richiedono il rispetto delle norme di sicurezza online dell’Australia.

🕵️‍♂️ Profondi tagli svelati

Il rapporto di trasparenza ha evidenziato significative riduzioni dello staff di sicurezza e politica pubblica di X. A livello globale, lo staff di fiducia e sicurezza è stato ridotto del 30%, mentre nella regione Asia-Pacifico c’è stato una incredibile diminuzione del 45%. Il numero degli ingegneri dedicati alle questioni di fiducia e sicurezza è stato ridotto dell’80% in tutto il mondo, e i moderatori dei contenuti assunti da X sono stati tagliati del 52%. Il personale di politica pubblica è stato colpito duramente, con una riduzione globale del 78% e una sorprendente riduzione del 73% nella regione Asia-Pacifico. In Australia, l’intera squadra di politica pubblica è stata sciolta.

🔍 Le aziende con un numero limitato di personale per la fiducia e la sicurezza possono incontrare difficoltà nel rispondere efficacemente all’odio online e ad altri contenuti dannosi. Ciò significa che la responsabilità per la sicurezza spesso ricade sugli stessi utenti anziché sulla piattaforma che deve assumersi la responsabilità dei contenuti presenti sul suo servizio, come giustamente sottolineato dall’agenzia governativa australiana.

⏰ Tempi di risposta più lenti

Il rapporto ha anche evidenziato l’impatto che questi tagli hanno avuto sulla capacità di X di rispondere tempestivamente alle segnalazioni degli utenti. Dall’acquisizione, il tempo di risposta mediano per le segnalazioni degli utenti è aumentato del 20%, e le risposte ai messaggi diretti si sono ridotte del 75%. Queste risposte ritardate potrebbero portare a un aumento dell’odio online e di comportamenti dannosi, poiché X si basa principalmente sulle segnalazioni degli utenti per identificare i comportamenti odiosi. Con gli strumenti automatizzati per rilevare attacchi volumetrici e bloccare collegamenti ipertestuali dannosi non utilizzati fino a maggio 2023, la situazione appare ancora più preoccupante.

🔄 Ondata di riabilitazioni degli account

Inoltre, X avrebbe reinstaurato 6.103 account precedentemente vietati tra novembre 2022 e maggio 2023. Sebbene non sia certo se questi account siano stati riabilitati a livello globale o esclusivamente in Australia, il Commissario per la sicurezza online ritiene che un numero significativo sia relativo agli utenti australiani. È importante notare che X non ha attuato ulteriori controlli sugli account riabilitati, potenzialmente aggravando i rischi per la sicurezza e la tossicità sulla piattaforma.

🔑 È quasi inevitabile che qualsiasi piattaforma di social media diventi più tossica e meno sicura quando si verificano significative riduzioni del personale di sicurezza insieme alla riabilitazione di utenti precedentemente vietati, creando una tempesta perfetta di potenziali pericoli, come ha giustamente sottolineato la Commissaria per la sicurezza online Julie Inman Grant.

💔 Preoccupazioni per la conformità di X Corp

Purtroppo, il mancato adempimento da parte di X Corp all’avviso previsto dalla Legge sulla sicurezza online ha comportato l’avvio di una procedura per sanzioni civili promossa dall’agenzia governativa australiana. Ciò avviene dopo una precedente notifica di violazione, che l’azienda deve ancora pagare o affrontare. Con la richiesta di riesame fondato sulla notifica di trasparenza, X Corp ha ulteriormente complicato la sua situazione, chiedendo che il riesame giudiziario sia sentito insieme alla procedura per sanzioni civili.

❓ I lettori potrebbero chiedersi: come ha influenzato la riduzione delle risorse di fiducia e sicurezza di X Corp l’esperienza degli utenti e la moderazione dei contenuti? Quali azioni stanno intraprendendo altre piattaforme di social media per affrontare i problemi di sicurezza online? Ci sono alternative a X Corp che danno priorità alla sicurezza degli utenti?

🎯 Le implicazioni più ampie

Anche se questo caso riguarda specificamente X Corp, riflette una tendenza più ampia delle piattaforme di social media che si trovano sotto pressione crescente per migliorare i propri sforzi di fiducia e sicurezza. Con la crescita delle comunità online, garantire un ambiente sicuro e protetto è di fondamentale importanza. Le conseguenze di trascurare le misure di sicurezza possono portare a un ambiente tossico e dannoso, con conseguente allontanamento degli utenti.

🔍 Per saperne di più sulle misure di fiducia e sicurezza sulle piattaforme di social media, compreso l’aumento dei micro-social media e gli strumenti che puoi provare, dai un’occhiata a: Micro-social media: Cos’è e quali strumenti dovresti provare?

🌐 Il Futuro della Sicurezza nei Social Media

Le questioni di fiducia e sicurezza non sono esclusive di X Corp; permeano il panorama dei social media. L’incidente amplifica l’urgenza per tutte le piattaforme di rivalutare le proprie pratiche di sicurezza e di dare priorità al benessere degli utenti. Con organismi di regolamentazione, governi e utenti che richiedono meccanismi di sicurezza più robusti, le piattaforme devono investire risorse adeguate per combattere l’odio online, il bullismo e i contenuti nocivi.

❓ Cosa possono fare le piattaforme di social media per migliorare la fiducia e la sicurezza? Le misure di regolamentazione saranno efficaci nel limitare il comportamento dannoso online? Esiste un modo per trovare un equilibrio tra la libertà di espressione e la moderazione dei contenuti?

📚 Riferimenti

  1. Report di Trasparenza: Twitter’s Trust and Safety Team Cuts
  2. Migliori Offerte Prime Day di Ottobre Ancora Disponibili su Best Buy e Walmart
  3. I Fondatori delle Startup Sbagliano Spesso Questi Errori Legali
  4. L’Approccio Basato sulla Community di X per Affrontare Informazioni Inaccurate e Ingannevoli
  5. Come Ottenere un Badge Blu di Verifica su Twitter (e Altre Piccole Funzionalità)
  6. Incontra Mammoth 2: L’App Che Vuole Rendere Mastodon Più Facile da Usare che Mai
  7. BofA Assegna a Meta e alle Piattaforme di Jio Supportate da Google una Valutazione di oltre $100 Miliardi
  8. Le Migliori Alternative a Twitter nel 2023: Bluesky, Mastodon e Threads

🔥Pensi che le misure di fiducia e sicurezza sulle piattaforme di social media siano adeguate? Condividi le tue opinioni e facciamo scattare una discussione!🔥

Nota: Questo articolo è solo a scopo informativo e non costituisce consulenza legale. Si prega di fare riferimento a fonti ufficiali e regolamentazioni per informazioni accurate e aggiornate.