Anche OpenAI ha rinunciato a cercare di individuare il plagio di ChatGPT | ENBLE

OpenAI abandons plagiarism detection for ChatGPT | ENBLE

OpenAI, il creatore del chatbot di intelligenza artificiale (AI) estremamente popolare, ChatGPT, ha chiuso lo strumento che aveva sviluppato per rilevare contenuti creati dall’AI anziché dagli esseri umani. Lo strumento, chiamato AI Classifier, è stato chiuso appena sei mesi dopo il suo lancio a causa della sua “bassa percentuale di accuratezza”, ha dichiarato OpenAI.

Dato che ChatGPT e servizi concorrenti hanno registrato un’enorme popolarità, ci sono state reazioni negative da parte di vari gruppi preoccupati delle conseguenze dell’uso indiscriminato dell’AI. Tra le preoccupazioni c’è quella degli insegnanti riguardo alla possibilità che gli studenti utilizzino ChatGPT per scrivere i loro saggi e compiti, per poi farli passare come propri.

Rolf van Root / Unsplash

L’AI Classifier di OpenAI era un tentativo di tranquillizzare questi e altri gruppi. L’idea era che potesse determinare se un pezzo di testo fosse stato scritto da un umano o da un chatbot di intelligenza artificiale, fornendo così alle persone uno strumento per valutare in modo equo gli studenti e combattere la disinformazione.

Tuttavia, fin dall’inizio, OpenAI non sembrava avere molta fiducia nel proprio strumento. In un post sul blog che annunciava lo strumento, OpenAI dichiarava che “Il nostro classificatore non è completamente affidabile”, notando che identificava correttamente i testi scritti da AI solo il 26% delle volte in un “gruppo di sfida”.

La decisione di abbandonare lo strumento non è stata annunciata in modo eclatante e OpenAI non ha pubblicato un post dedicato sul suo sito web. Invece, l’azienda ha aggiornato il post in cui aveva rivelato l’AI Classifier, affermando che “l’AI Classifier non è più disponibile a causa della sua bassa percentuale di accuratezza”.

L’aggiornamento continua: “Stiamo lavorando per incorporare i feedback e stiamo attualmente studiando tecniche di provenienza più efficaci per il testo, e ci siamo impegnati a sviluppare e implementare meccanismi che consentano agli utenti di capire se il contenuto audio o visivo è generato dall’IA”.

Servono strumenti migliori

Matheus Bertelli / Pexels

L’AI Classifier non è l’unico strumento sviluppato per rilevare contenuti creati dall’IA, poiché esistono rivali come GPTZero che continueranno a operare nonostante la decisione di OpenAI.

Tentativi precedenti di identificare la scrittura dell’IA sono finiti in modo spettacolare. Ad esempio, nel maggio 2023, un professore ha erroneamente bocciato l’intera classe dopo aver utilizzato ChatGPT per rilevare il plagio nei lavori degli studenti. Inutile dire che ChatGPT ha commesso un grave errore, così come il professore.

È motivo di preoccupazione quando persino OpenAI ammette di non essere in grado di rilevare correttamente il plagio creato dal suo stesso chatbot. Questo arriva in un momento di crescente ansia riguardo al potenziale distruttivo dei chatbot di intelligenza artificiale e alle richieste di una sospensione temporanea dello sviluppo in questo campo. Se l’IA avrà un impatto così significativo come alcuni prevedono, il mondo avrà bisogno di strumenti più potenti rispetto all’AI Classifier fallito di OpenAI.