Immagine di intelligenza artificiale potenzialmente pericolose si diffondono online. Uno studio suggerisce 3 modi per frenare il flagello’.

Immagini di intelligenze artificiali potenzialmente pericolose si diffondono in rete. Uno studio suggerisce 3 metodi per contrastare il fenomeno.

Nell’ultimo anno, i generatori di immagini basati sull’intelligenza artificiale (AI) hanno spopolato in tutto il mondo. Ecco, persino i nostri illustri scrittori di TNW li usano di tanto in tanto.

La verità è che strumenti come Stable Diffusion, Latent Diffusion o DALL·E possono essere incredibilmente utili per produrre immagini uniche da semplici suggerimenti, come questa immagine di Elon Musk che cavalca un unicorno.

Ma non è solo un divertimento. Gli utenti di questi modelli di intelligenza artificiale possono generare con la stessa facilità immagini odiose, disumanizzanti e pornografiche con un solo click, con poche o nessuna conseguenza.

“Le persone utilizzano questi strumenti di intelligenza artificiale per disegnare ogni tipo di immagine, il che presenta intrinsecamente un rischio”, ha detto la ricercatrice Yiting Qu del CISPA Helmholtz Center for Information Security in Germania. Le cose diventano particolarmente problematiche quando immagini inquietanti o esplicite vengono condivise su piattaforme di media mainstream, ha sottolineato.

Sebbene questi rischi sembrino abbastanza evidenti, finora è stata fatta poca ricerca per quantificare i pericoli e creare delle misure di sicurezza per il loro utilizzo. “Attualmente, nella comunità di ricerca, non c’è nemmeno una definizione universale di cosa sia o non sia un’immagine non sicura”, ha detto Qu.

Per illustrare il problema, Qu e il suo team hanno indagato sui generatori di immagini AI più popolari, sulla presenza di immagini non sicure su queste piattaforme e su tre modi per prevenire la loro creazione e circolazione online.

I ricercatori hanno alimentato quattro prominenti generatori di immagini AI con suggerimenti testuali provenienti da fonti note per i contenuti non sicuri, come la piattaforma di estrema destra 4chan. Sorprendentemente, il 14,56% delle immagini generate è stato classificato come “non sicuro”, con Stable Diffusion che ha prodotto la percentuale più alta, pari al 18,92%. Queste immagini includono contenuti sessualmente espliciti, violenti, inquietanti, odiosi o politici.

Creare salvaguardie

Il fatto che così tante immagini incerte siano state generate nello studio di Qu mostra che i filtri esistenti non svolgono adeguatamente il proprio lavoro. La ricercatrice ha sviluppato il proprio filtro, che presenta un tasso di successo molto più elevato rispetto agli altri, ma suggerisce anche altri modi per ridurre la minaccia.

Un modo per impedire la diffusione di immagini disumane è programmare i generatori di immagini AI in modo che non generino tali immagini in primo luogo. Fondamentalmente, se i modelli di intelligenza artificiale non vengono addestrati con immagini non sicure, non saranno in grado di replicarle.

Inoltre, Qu consiglia di bloccare parole non sicure dalla funzione di ricerca, in modo che gli utenti non possano creare suggerimenti che producano immagini dannose. Per le immagini già in circolazione, “deve esserci un modo per classificarle ed eliminarle online”, ha detto.

Con tutte queste misure, la sfida consiste nel trovare il giusto equilibrio. “Deve esserci un compromesso tra la libertà e la sicurezza dei contenuti”, ha detto Qu. “Ma per quanto riguarda la prevenzione di queste immagini dalla circolazione su piattaforme mainstream, penso che abbia senso una regolamentazione rigorosa”.

Oltre a generare contenuti dannosi, i creatori di software di testo-immagine AI sono stati criticati per una serie di problematiche, come il furto del lavoro degli artisti e l’aumento degli stereotipi di genere e razza pericolosi.

Mentre iniziative come l’AI Safety Summit, che si è svolto nel Regno Unito questo mese, mirano a creare misure di sicurezza per la tecnologia, i critici sostengono che le grandi aziende tecnologiche hanno troppa influenza sulle negoziazioni. Che ciò sia vero o meno, la realtà è che attualmente la gestione corretta e sicura dell’intelligenza artificiale è quanto meno incerta e quanto più allarmante.