Il nuovo strumento di OpenAI può individuare immagini false, ma c’è un inconveniente | ENBLE

Il nuovo strumento di OpenAI può rilevare immagini false, ma presenta un problema | ENBLE

Le immagini generate dall’intelligenza artificiale (AI) hanno causato parecchia preoccupazione negli ultimi mesi, con persone che comprensibilmente temono che possano essere utilizzate per diffondere disinformazione e ingannare il pubblico. Ora, il produttore di ChatGPT, OpenAI, sta apparentemente lavorando a un’applicazione in grado di rilevare immagini generate dall’AI con una precisione del 99%.

Secondo Bloomberg, lo strumento di OpenAI è progettato per individuare immagini generate dagli utenti create dal suo generatore di immagini Dall-E 3. Parlando all’evento Tech Live del Wall Street Journal, Mira Murati, chief technology officer di OpenAI, ha dichiarato che lo strumento è “affidabile al 99%”. Sebbene la tecnologia sia in fase di test interna, non c’è ancora una data di rilascio.

Immagine di versione di test di OpenAI Dall-E 3.
MattVidPro AI

Se è accurato come sostiene OpenAI, potrebbe essere in grado di offrire al pubblico la conoscenza che le immagini che stanno vedendo sono autentiche o generate dall’AI. Tuttavia, OpenAI non ha rivelato come esattamente questo strumento avviserà le persone delle immagini dell’AI, che sia tramite un watermark, un avviso testuale o altro.

Vale la pena notare che lo strumento è progettato solo per rilevare immagini di Dall-E e potrebbe non essere in grado di individuare falsi generati da servizi concorrenti come Midjourney, Stable Diffusion e Adobe Firefly. Ciò potrebbe limitare la sua utilità nel grande schema delle cose, ma tutto ciò che può mettere in evidenza immagini false potrebbe avere un impatto positivo.

Sviluppo in corso

Personaggi dei cartoni animati attaccati al loro telefono.
Dall-E / OpenAI

OpenAI ha lanciato in passato strumenti progettati per individuare contenuti creati dai propri chatbot e generatori. All’inizio del 2023, l’azienda ha rilasciato uno strumento che sosteneva potesse rilevare il testo generato da ChatGPT, ma è stato ritirato pochi mesi dopo perché OpenAI ha ammesso che era molto impreciso.

Oltre al nuovo strumento di rilevamento delle immagini, OpenAI ha anche discusso dei propri sforzi per ridurre la tendenza di ChatGPT a “allucinare”, ovvero a dire sciocchezze e informazioni inventate. “Abbiamo fatto molti progressi sul problema delle allucinazioni con GPT-4, ma non siamo dove dobbiamo arrivare”, ha detto Murati, suggerendo che il lavoro su GPT-5, il successore del modello GPT-4 alla base di ChatGPT, è ben avviato.

Nel marzo 2023, un gruppo di leader nel settore tecnologico ha firmato una lettera aperta invitando OpenAI a sospendere lo sviluppo di qualcosa di più potente di GPT-4, o rischiare “rischi profondi per la società e l’umanità”. Sembra che questa richiesta sia caduta nel vuoto.

Se lo strumento nuovo di OpenAI sarà più efficace del suo ultimo tentativo, che è stato annullato a causa della sua scarsa affidabilità, resta da vedere. Quello che è certo è che il lavoro di sviluppo continua a ritmo serrato, nonostante i rischi evidenti.