Un nuovo strumento potrebbe proteggere gli artisti sabotando i generatori di immagini AI

Un nuovo strumento potrebbe proteggere gli artisti impedendo il sabotaggio dei generatori di immagini AI

I artisti potrebbero presto avere un nuovo strumento per proteggere le proprie opere dal diventare cibo per l’apprendimento delle macchine. Chiamato Nightshade, lo strumento apporta piccole modifiche ai pixel di un’opera d’arte digitale per “avvelenarla” efficacemente, rendendo l’immagine inutilizzabile per scopi di addestramento dell’IA.

MIT Technology Review riporta che un team guidato dal professor Ben Zhao dell’Università di Chicago ha presentato Nightshade per la revisione tra pari alla conferenza sulla sicurezza informatica USENIX. Il software funziona apportando piccole modifiche a un’immagine che, sebbene invisibili all’occhio umano, inducono gli algoritmi dell’IA a identificarle completamente in modo errato.

Ad esempio, un artista potrebbe dipingere un quadro di un gatto che può chiaramente essere identificato come un felino da qualsiasi umano o IA che lo esamina. Tuttavia, applicando Nightshade, gli umani vedranno comunque la stessa immagine mentre l’IA crederà erroneamente che si tratti di un cane.

Se si “bombarda” l’IA con materiale di addestramento errato come questo, presto una richiesta di un’immagine di un gatto provocherà la generazione di un cane al suo posto.

È ovvio che una sola immagine “avvelenata” difficilmente avrà un effetto significativo sull’algoritmo di un generatore di immagini dell’IA. I suoi dati di addestramento avrebbero bisogno di essere contaminati da migliaia di immagini modificate prima che si possa osservare un impatto reale.

Tuttavia, è noto che i generatori di immagini dell’IA raccolgono in modo indiscriminato migliaia di nuovi campioni da internet al fine di perfezionare il loro algoritmo. Se abbastanza artisti caricano le proprie immagini con Nightshade, potrebbe renderare eventualmente tali strumenti dell’IA inutilizzabili.

Sarebbe altrimenti estremamente difficile per le aziende di IA risolvere il problema, poiché ogni immagine “avvelenata” deve essere individuata e rimossa individualmente dal loro pool di addestramento. Ciò potrebbe creare un incentivo potente affinché tali aziende si pensino due volte prima di trascinare una rete di pesca su internet e utilizzare il lavoro degli artisti senza il loro esplicito consenso.

Questa non è la prima volta che il team di Zhao crea uno strumento che interferisce con l’IA. Il gruppo ha precedentemente rilasciato Glaze, uno strumento che maschera lo stile personale di un artista in modo simile. Nightshade verrà alla fine integrato in Glaze e reso open source per consentire agli altri di costruire sulla loro opera di protezione degli artisti.