🎨 Proteggere i diritti degli artisti nell’era dell’intelligenza artificiale generativa

Kin.art, una piattaforma per gestire le commissioni artistiche, mira ad aiutare gli artisti a combattere la formazione non autorizzata dei modelli GenAI.

Kin.art ha rilasciato un nuovo strumento gratuito chiamato ENBLE che aiuta a impedire che i modelli GenAI siano addestrati su opere d’arte.

E’ davvero sorprendente quello che l’IA generativa, specialmente i modelli di IA che trasformano testo in immagini come Midjourney e DALL-E 3 di OpenAI, può fare. Questi modelli generano immagini che possono facilmente essere scambiate per capolavori realizzati da abili artisti.

Tuttavia, questi modelli sollevano un problema significativo: molti di loro sono stati addestrati su opere d’arte senza il consenso o la conoscenza degli artisti stessi. Mentre alcuni fornitori hanno iniziato a compensare gli artisti o a fornire opzioni per “optare out” dell’addestramento dei modelli, molti altri non hanno intrapreso tali misure.

Nell’assenza di direttive chiare da parte dei tribunali e del Congresso, imprenditori e attivisti si sono messi in luce pubblicando strumenti che consentono agli artisti di modificare le loro opere d’arte. Queste modifiche garantiscono che le loro creazioni non possano essere utilizzate per addestrare modelli di IA generativa. Due di questi strumenti che hanno recentemente attirato l’attenzione sono Nightshade e Kin.art.

Nightshade, rilasciato questa settimana, altera sottilmente i pixel di un’immagine per ingannare i modelli per far percepire loro qualcosa di diverso dal contenuto effettivo. Dall’altro lato, Kin.art utilizza la segmentazione delle immagini per nascondere parti dell’opera e la randomizzazione dei tag per interrompere il processo di addestramento del modello.

Lo strumento offerto da Kin.art è stato co-sviluppato da Flor Ronsmans De Vry, uno dei co-fondatori di Kin.art, una piattaforma di gestione delle commissioni d’arte. Intervistata, Ronsmans De Vry ha spiegato che i modelli artistici generativi apprendono le associazioni tra concetti scritti e immagini attraverso dataset etichettati. Ad esempio, la parola “uccello” può indicare picchi, parrocchetti, aquile calve e anche concetti più astratti. Disturbando l’immagine stessa o le etichette associate, diventa considerevolmente più difficile per i fornitori incorporare l’opera d’arte nell’addestramento del modello.

immagine: Kin.art

“Crediamo nella creazione di un panorama in cui l’arte tradizionale e l’arte generativa possano coesistere partendo da un approccio etico all’addestramento dell’IA che rispetti i diritti degli artisti”, ha dichiarato Ronsmans De Vry via email.

Lo strumento di Kin.art è unico in quanto non richiede costose modifiche crittografiche delle immagini. Tuttavia, può essere utilizzato in combinazione con altri metodi per una protezione aggiuntiva.

immagine: Kin.art

A differenza degli altri strumenti esistenti che mirano a proteggere l’addestramento dell’IA inquinando i dataset esistenti con opere d’arte, Kin.art impedisce che l’opera d’arte venga inclusa nel dataset fin dall’inizio.

Attualmente, Kin.art offre lo strumento gratuitamente, ma gli artisti devono caricare le loro opere d’arte sulla piattaforma di portfolio di Kin.art per poterlo utilizzare. L’intento di questo approccio è probabilmente quello di indirizzare gli artisti verso i servizi a pagamento di Kin.art per la ricerca e la facilitazione delle commissioni d’arte, che formano il nucleo del loro business.

Tuttavia, Ronsmans De Vry sottolinea che questo sforzo è principalmente filantropico. Kin.art ha intenzione di rendere lo strumento disponibile a terze parti in futuro.

“Dopo aver testato la nostra soluzione sulla nostra piattaforma, abbiamo intenzione di offrirla come servizio per consentire a qualsiasi piccolo sito web e grande piattaforma di proteggere facilmente i loro dati dall’uso non autorizzato”, ha affermato Ronsmans De Vry. “Possedere e poter difendere i dati della propria piattaforma nell’era dell’IA è più importante che mai. Alcune piattaforme hanno la fortuna di poter limitare l’accesso ai loro dati bloccando gli utenti non autorizzati, ma altre devono fornire servizi pubblici e non hanno questa possibilità. Questo è dove soluzioni come la nostra entrano in gioco”.

🤔 Domande frequenti

Q: Come proteggono questi strumenti i diritti degli artisti? A: Nightshade e Kin.art offrono agli artisti i mezzi per modificare le loro opere d’arte in modo tale da renderle difficili da utilizzare per l’addestramento dei modelli di IA generativa. Nightshade modifica i pixel di un’immagine per ingannare i modelli, mentre Kin.art utilizza la segmentazione delle immagini e la randomizzazione dei tag.

Q: Questi strumenti sono completamente infallibili? I modelli possono comunque utilizzare le opere d’arte modificate? A: Sebbene questi strumenti forniscono un livello aggiuntivo di protezione per gli artisti, non sono infallibili. Alcuni modelli di IA generativa potrebbero comunque essere in grado di utilizzare le opere d’arte modificate o trovare delle soluzioni alternative. Tuttavia, questi strumenti innalzano significativamente la barriera per utilizzare il lavoro degli artisti senza il loro permesso.

Q: In che cosa si differenzia lo strumento di Kin.art da altre misure di protezione? A: Lo strumento di Kin.art si distingue nel prevenire che le opere d’arte vengano incluse nei set di dati di addestramento generativi dell’IA sin dall’inizio. Altri metodi spesso si concentrano nel mitigare i danni dopo, avvelenando i set di dati esistenti. L’approccio di Kin.art è più proattivo, offrendo agli artisti un controllo maggiore sull’uso delle loro opere.

Q: Quali misure aggiuntive possono adottare gli artisti per proteggere le loro opere da un uso non autorizzato? A: Gli artisti possono considerare di combinare lo strumento di Kin.art con altre misure di protezione, come le modifiche crittografiche delle immagini. Possono anche esplorare opportunità legali per tutelare i loro diritti ed evitare che le loro opere siano utilizzate senza il loro permesso.

Q: Esistono strumenti o iniziative simili per altri settori artistici come la musica o la scrittura? A: Mentre l’attenzione di questo articolo è principalmente rivolta all’arte visiva e alla sua interazione con l’IA generativa, si stanno facendo sforzi per proteggere gli artisti anche in altri ambiti creativi. Ad esempio, musicisti e scrittori stanno esplorando tecniche di watermarking e quadri legali per tutelare le loro opere.

🔮 L’Impatto e il Futuro della Protezione dei Diritti degli Artisti

Lo strumento di Kin.art, insieme ad altre iniziative che mirano a proteggere i diritti degli artisti nell’era dell’IA generativa, mette in evidenza l’importanza crescente delle buone pratiche etiche nell’addestramento dell’IA. Con il continuo avanzamento dell’IA e la sua diffusione in varie industrie, rispettare i diritti dei creatori e dei detentori del copyright diventa cruciale.

Con la diffusione dell’IA generativa, la possibilità di creare arte digitale senza la conoscenza o il permesso degli artisti è diventata una preoccupazione significativa. Strumenti come quelli di Kin.art possono agire come deterrenti rendendo più difficile per i fornitori incorporare opere d’arte nei set di dati di addestramento dell’IA senza consenso.

Con l’evoluzione di questo campo, è probabile che emergano soluzioni più complete per affrontare le sfide etiche e legali legate all’IA generativa e alla proprietà intellettuale. Artisti, imprenditori e decisori politici dovranno collaborare per stabilire linee guida e regolamenti che proteggano i diritti degli artisti, pur favorendo l’innovazione e la creatività.

📚 Riferimenti: – Guida alla Protezione dei Diritti degli Artisti nell’Addestramento dell’IAKin.art – Salvaguardare le Opere d’Arte dall’Uso Non Autorizzato dell’IAKin.art – Meta Rolls: Un Sito Web con Generatore di Immagini Alimentato da AI