OpenAI sta lavorando su uno strumento per rilevare le immagini generate dall’intelligenza artificiale DALL-E 3.

OpenAI sta sviluppando uno strumento per rilevare le immagini generate dall'intelligenza artificiale DALL-E 3.

OpenAI sta lavorando su un tool per verificare le immagini create da DALL-E 3, il suo generatore di immagini AI.

Durante l’evento Tech Live del Wall Street Journal di martedì, il CTO di OpenAI, Mira Murati, ha dichiarato che l’azienda sta sviluppando una tecnologia per identificare se un’immagine è stata creata da DALL-E 3. Lo strumento è “quasi al 99% affidabile”, ha detto Murati durante l’intervista sul palco. Ma è ancora in fase di test interno. Murati non ha condiviso dettagli sulla data di rilascio di tale strumento, ma la pagina DALL-E 3 sul sito web di OpenAI ha affermato che ulteriori informazioni sullo strumento, definito “classificatore di provenienza”, sarebbero state condivise presto.

L’avanzamento delle immagini generate dall’IA ha aumentato le preoccupazioni sulla diffusione della disinformazione e delle deepfake. Strumenti come DALL-E 3 (disponibile per gli utenti di ChatGPT Plus), Midjourney, Stable Diffusion, Adobe Firefly e il generatore di immagini AI di Shutterstock – anche i chatbot gratuiti come Bing Image Creator e SGE di Google – sono o presto saranno in grado di creare immagini fotorealistiche convincenti. Le aziende che offrono questi strumenti si stanno tutelando contro comportamenti dannosi aggiungendo filigrane o impedendo agli utenti di creare immagini con persone famose o utilizzando informazioni personali identificabili.

Già oggi, le deepfake sembrano così realistiche che la loro diffusione può avere conseguenze reali. Un’immagine falsa del Pentagono in fiamme ha causato un momento di calo del mercato azionario lo scorso maggio. All’inizio di ottobre, l’attore Tom Hanks ha pubblicato su Instagram dicendo che non aveva nulla a che fare con una deepfake che lo ritraeva in una promozione di un piano dentale. Quello che precedentemente era considerato un problema ipotetico è diventato una realtà, e abbiamo bisogno di strumenti e garanzie per assicurarci che le deepfake non diventino una minaccia importante.”