Nuovo strumento di corruzione crea problemi per la tecnologia AI di testo-immagine | ENBLE

Nuovo strumento di corruzione causa complicazioni per la tecnologia di AI testo-immagine | ENBLE

Gli artisti e i fotografi professionisti infastiditi dalle aziende generative-AI che utilizzano le loro opere per addestrare la loro tecnologia potrebbero presto avere un modo efficace per rispondere senza dover ricorrere ai tribunali.

La generative AI è esplosa sulla scena con il lancio del chatbot ChatGPT di OpenAI quasi un anno fa. Lo strumento è estremamente abile nel conversare in modo molto naturale e simile a quello umano, ma per acquisire questa capacità è stato necessario addestrarlo su grandi quantità di dati scarpando dal web.

Strumenti simili basati su generative-AI possono anche produrre immagini da prompt di testo, ma come ChatGPT, vengono addestrati scarpando immagini pubblicate sul web.

Ciò significa che gli artisti e i fotografi vedono le loro opere utilizzate, senza il loro consenso o una compensazione, dalle aziende tecnologiche per sviluppare i loro strumenti generative-AI.

Per contrastare ciò, un team di ricercatori ha sviluppato uno strumento chiamato Nightshade, in grado di confondere il modello di addestramento, facendogli restituire immagini errate in risposta ai prompt.

Recentemente descritto in un articolo di MIT Technology Review, Nightshade “avvelena” i dati di addestramento aggiungendo pixel invisibili a un’opera d’arte prima che venga caricata sul web.

“Utilizzare questo strumento per ‘avvelenare’ i dati di addestramento potrebbe danneggiare le future iterazioni dei modelli di AI che generano immagini, come DALL-E, Midjourney e Stable Diffusion, rendendo alcuni dei loro output inutilizzabili – i cani diventano gatti, le auto diventano mucche e così via”, ha dichiarato il rapporto del MIT, aggiungendo che la ricerca su Nightshade è stata presentata per la revisione tra pari.

Anche se gli strumenti di generazione di immagini sono già impressionanti e stanno continuando a migliorare, il modo in cui vengono addestrati ha suscitato controversie, con molti creatori di tali strumenti attualmente affrontando cause legali da parte degli artisti che sostengono che le loro opere siano state utilizzate senza permesso o pagamento.

Ben Zhao, professore all’Università di Chicago e leader del team di ricerca di Nightshade, ha affermato che uno strumento del genere potrebbe contribuire a riequilibrare il potere a favore degli artisti, sparando un colpo d’avvertimento alle aziende tecnologiche che ignorano il copyright e la proprietà intellettuale.

“I set di dati per i grandi modelli di AI possono consistere in miliardi di immagini, quindi più immagini avvelenate possono essere inserite nel modello, maggiore sarà il danno causato dalla tecnica”, ha affermato MIT Technology Review nel suo report.

Quando verrà rilasciato Nightshade, il team prevede di renderlo open source in modo che altri possano perfezionarlo e renderlo più efficace.

Consapevole del suo potenziale di interruzione, il team di Nightshade ha dichiarato che dovrebbe essere utilizzato come “ultima difesa per i creatori di contenuti contro i web scraper” che mancano di rispetto dei loro diritti.

Nel tentativo di affrontare il problema, OpenAI, lo sviluppatore di DALL-E, ha recentemente iniziato a consentire agli artisti di rimuovere le loro opere dai dati di addestramento, ma il processo è stato descritto come estremamente oneroso in quanto richiede all’artista di inviare una copia di ogni singola immagine che desidera rimuovere, insieme a una descrizione dell’immagine, con ogni richiesta che richiede una propria domanda.

Rendere il processo di rimozione considerevolmente più semplice potrebbe contribuire a scoraggiare gli artisti dal scegliere di utilizzare uno strumento come Nightshade, che potrebbe causare molti più problemi a OpenAI e agli altri nel lungo periodo.