ChatGPT potrebbe moderare contenuti illegali su siti come Facebook | ENBLE

ChatGPT potrebbe moderare contenuti illegali su siti come Facebook.

GPT-4 – il grande modello di linguaggio (LLM) che alimenta ChatGPT Plus – potrebbe presto assumere un nuovo ruolo come moderatore online, sorvegliando forum e social network per individuare contenuti loschi che non dovrebbero vedere la luce del giorno. Questo è quanto afferma un nuovo post sul blog dello sviluppatore di ChatGPT, OpenAI, che sostiene che ciò potrebbe offrire “una visione più positiva del futuro delle piattaforme digitali”.

Con l’impiego dell’intelligenza artificiale (IA) al posto dei moderatori umani, OpenAI afferma che GPT-4 può attuare “un’iterazione molto più veloce sui cambiamenti di politica, riducendo il ciclo da mesi a ore”. Inoltre, “GPT-4 è anche in grado di interpretare regole e sfumature in documentazioni lunghe sulle politiche dei contenuti e di adattarsi istantaneamente agli aggiornamenti delle politiche, garantendo una classificazione più coerente”, sostiene OpenAI.

Rolf van Root / Unsplash

Ad esempio, il post del blog spiega che i team di moderazione potrebbero assegnare etichette ai contenuti per spiegare se rientrano o meno nelle regole di una determinata piattaforma. GPT-4 potrebbe quindi prendere lo stesso set di dati e assegnare le sue etichette, senza conoscere le risposte in anticipo.

I moderatori potrebbero quindi confrontare i due set di etichette e utilizzare eventuali discrepanze per ridurre la confusione e aggiungere chiarimenti alle loro regole. In altre parole, GPT-4 potrebbe agire come un utente comune e valutare se le regole hanno senso.

Il costo umano

OpenAI

Attualmente, la moderazione dei contenuti su vari siti web viene effettuata da esseri umani, che vengono esposti regolarmente a contenuti potenzialmente illegali, violenti o dannosi. Abbiamo visto ripetutamente il terribile costo che la moderazione dei contenuti può avere sulle persone, con Facebook che ha pagato 52 milioni di dollari a moderatori che hanno sofferto di PTSD a causa dei traumi del loro lavoro.

Ridurre il carico sui moderatori umani potrebbe contribuire a migliorare le loro condizioni di lavoro e poiché le intelligenze artificiali come GPT-4 sono immuni dal tipo di stress mentale che gli esseri umani provano gestendo contenuti problematici, potrebbero essere impiegate senza preoccuparsi di burnout e PTSD.

Tuttavia, sorge la domanda se l’utilizzo dell’IA in questo modo comporterà la perdita di posti di lavoro. La moderazione dei contenuti non è sempre un lavoro divertente, ma è pur sempre un lavoro e se GPT-4 prende il posto degli umani in questa area, è probabile che si siano preoccupazioni sul fatto che gli ex moderatori dei contenuti saranno semplicemente resi superflui anziché essere riassegnati ad altri ruoli.

OpenAI non menziona questa possibilità nel suo post sul blog e spetta alle piattaforme dei contenuti decidere in merito. Ma potrebbe non fare molto per placare le preoccupazioni che l’IA verrà impiegata da grandi aziende semplicemente come misura di risparmio dei costi, con poca preoccupazione per le conseguenze.

Tuttavia, se l’IA può ridurre o eliminare la devastazione mentale affrontata dalle squadre oberate di lavoro e poco apprezzate che moderano i contenuti sui siti web utilizzati da miliardi di persone ogni giorno, ci potrebbe essere qualcosa di positivo in tutto ciò. Resta da vedere se ciò sarà mitigato da altrettante devastanti riduzioni di posti di lavoro.