I ricercatori trovano un modo per avvelenare le immagini per l’allenamento dell’IA

Gli scienziati scoprono un metodo per contaminare le immagini per l'addestramento dell'intelligenza artificiale

L’ascesa degli strumenti di generazione artistica AI come DALL-E, Midjourney e Stable Diffusion ha scatenato un intenso dibattito e controversia. Questi sistemi possono creare immagini e arte fotorealistiche semplicemente da prompt di testo allenandosi su vasti set di dati recuperati da Internet. Tuttavia, ciò ha sollevato importanti preoccupazioni in materia di violazione del copyright, consenso e abuso del lavoro degli artisti.

In risposta, i ricercatori hanno sviluppato una nuova tecnologia radicale chiamata Nightshade che consente agli artisti di “avvelenare” la propria arte digitale. L’obiettivo è sabotare i sistemi AI che cercano di “ingerire” il loro contenuto senza permesso.

Strumenti come DALL-E 2 e Stable Diffusion utilizzano una forma di AI chiamata reti neurali. Sono addestrati su ampi set di dati di immagini abbinati a didascalie o descrizioni testuali. Questo permette loro di imparare la relazione tra i concetti testuali e le caratteristiche visive.

Ad esempio, se il modello vede milioni di immagini etichettate “cane” che mostrano pelo, quattro zampe, code, ecc., impara ad associare quei pattern visivi alla parola “cane”. Può quindi generare nuove immagini fotorealistiche di cane da zero quando viene fornito un prompt di testo come “un cucciolo carino seduto sull’erba”.

Le preoccupazioni riguardo all’acquisizione del contenuto degli artisti

I modelli diventano sempre più capaci man mano che si allenano su più dati. Ciò ha portato i giganti della tecnologia che li supportano a recuperare milioni di immagini da Internet senza il consenso degli artisti. Tuttavia, molti creatori sono infelici del fatto che il loro lavoro venga utilizzato per l’allenamento dell’AI senza permesso o compensazione.

Questo pone un dilemma agli artisti: condividere il loro lavoro pubblicamente e rischiare un uso improprio da parte dell’AI, oppure rimanere privati e perdere visibilità? Piattaforme come Instagram, DeviantArt e ArtStation sono diventate miniere di dati di allenamento per i sistemi AI.

Come Nightshade inietta veleno nei modelli AI

Secondo un recente articolo di ricerca, Nightshade offre una soluzione intelligente attaccando e corrompendo i modelli AI stessi. Aggiunge sottili modifiche ai pixel dell’arte digitale che sono invisibili agli esseri umani. Ma queste modifiche confondono i concetti delle immagini e le didascalie testuali a cui l’AI si affida.

Ad esempio, Nightshade potrebbe modificare un’immagine di un cane in modo che il modello AI la scambi per una bicicletta o un cappello. Se abbastanza immagini “avvelenate” si diffondono nel set di dati di un’AI, essa inizia a fare connessioni bizzarre tra testo e immagini.

Le prove dimostrano che Nightshade può far sì che i modelli AI come Stable Diffusion generino arte totalmente surreale e senza senso. Ad esempio, le immagini di cani diventano creature con troppe zampe e volti cartooneschi distorti dopo 50 campioni avvelenati. Dopo aver ingerito 300 foto avvelenate di cani, Stable Diffusion produce persino immagini di gatti quando viene istruito a creare un cane.

L’attacco di Nightshade sfrutta la natura a scatola nera delle reti neurali. Le cause della corruzione sono difficili da individuare all’interno dei vasti set di dati. Questo significa che la rimozione dei dati avvelenati è come cercare un ago in un pagliaio.

L’attacco si diffonde anche tra concetti correlati. Quindi avvelenare le immagini di “arte fantasy” confonde l’AI anche su termini correlati come “draghi” o “castelli”. Questo rende praticamente impossibile eliminare manualmente l’impatto di Nightshade su larga scala.

Dare agli artisti uno strumento cruciale per reagire

Data la zona grigia legale attorno alla generazione di contenuti AI, Nightshade rappresenta una tattica importante per gli artisti. Consente loro di sabotare direttamente i sistemi che traggono profitto dal loro lavoro in modo automatizzato. I ricercatori prevedono di integrarlo in un’app chiamata Glaze, che già maschera l’arte dall’analisi dell’AI.

Con Nightshade che presto diventerà open-source, potremmo vedere più versioni in grado di avvelenare i modelli AI di massa. Ciò potrebbe spingere le piattaforme generative a rivalutare le proprie strategie di acquisizione dei dati e a dare il giusto credito agli artisti. Tuttavia, gli sviluppatori di AI stanno anche cercando modi per rilevare e rimuovere tali attacchi. Al momento, Nightshade offre agli artisti uno strumento vitale per riprendere il controllo nella corsa all’arte AI, molto probabilmente solo per un breve periodo fino a quando vengono sviluppati sistemi automatizzati in grado di rilevare tali immagini avvelenate.

Immagine in evidenza: Immagine di Willo M.; Pexels; Grazie!