Lo strumento di data poisoning consente agli artisti di combattere il furto di IA. Ecco come

Lo strumento del data poisoning permette agli artisti di contrastare il furto delle IA. Ecco come

nightshade-gettyimages-1671640109

Un importante problema che affligge i modelli di intelligenza artificiale generativa è lo scraping AI, il processo utilizzato dalle aziende di AI per addestrare i loro modelli di AI catturando dati da fonti Internet senza il consenso dei proprietari. Lo scraping AI può avere un impatto particolarmente negativo sugli artisti visivi, i cui lavori vengono catturati per generare nuove opere in modelli di testo-a-immagine. Ora, però, potrebbe esserci una soluzione.

Ricercatori dell’Università di Chicago hanno creato Nightshade, un nuovo strumento che offre agli artisti la possibilità di “avvelenare” le loro opere d’arte digitali per impedire agli sviluppatori di addestrare strumenti di IA sui loro lavori.

Inoltre: Ancora divertimento con DALL-E 3 in ChatGPT: può creare una maglietta?

Utilizzando Nightshade, gli artisti possono apportare modifiche ai pixel delle loro opere che sono invisibili all’occhio umano, ma causano la rottura del modello di IA generativa in modi “caotici” e “imprevedibili”, secondo il MIT Technology Review, che ha avuto un’anteprima esclusiva della ricerca.

L’attacco specifico alla traccia provoca la resa inutile dei modelli di IA generativi a causa della manipolazione dell’apprendimento del modello, che porta il modello a confondere i soggetti tra loro.

Ad esempio, potrebbe imparare che un cane è in realtà un gatto, il che a sua volta farebbe sì che il modello produca immagini errate che non corrispondono alla traccia del testo.

Secondo il paper di ricerca, il campione velenoso di Nightshade può corrompere una traccia Stable Diffusion in meno di 100 campioni, come si può vedere nell’immagine qui sotto.

Oltre ad avvelenare il termine specifico, l’avvelenamento si propaga anche ai termini correlati.

Ad esempio, nell’esempio precedente, il termine “cane” non sarebbe solo influenzato, ma anche sinonimi come “cucciolo”, “segugio” e “husky”, secondo il paper di ricerca.

La correlazione tra i termini non deve essere necessariamente diretta come nell’esempio precedente. Ad esempio, il paper spiega come quando il termine “arte fantasy” è stato avvelenato, lo è stata anche la frase correlata “un dipinto di Michael Whelan”, un noto creatore di arte fantasy.

Esistono diverse difese potenziali che gli addestratori dei modelli potrebbero adottare, tra cui il filtraggio dei dati ad alto scarto, i metodi di rilevamento delle posizioni e i metodi di rimozione del veleno, ma tutte e tre non sono completamente efficaci.

Inoltre: Presto Apple porterà l’AI sui suoi dispositivi, secondo quanto riportato. Ecco dove

Inoltre, i dati avvelenati sono complicati da rimuovere dal modello poiché l’azienda di AI dovrebbe intervenire ed eliminare singolarmente ogni campione corrotto.

Nightshade non solo ha il potenziale per dissuadere le aziende di AI dall’utilizzare dati senza chiedere il permesso, ma incoraggia anche gli utenti a prendere precauzioni quando utilizzano questi modelli di IA generativa.

Sono stati fatti altri tentativi per mitigare il problema dell’utilizzo delle opere degli artisti senza il loro permesso. Alcuni modelli di generazione di immagini con intelligenza artificiale, come l’image generator di Getty Images e Adobe Firefly, utilizzano solo immagini approvate dall’artista o sono open source per addestrare i loro modelli e hanno un programma di compensazione in cambio.