Le app di generazione deepfake di spogliarelli AI stanno spopolando in popolarità

Le app di generazione di deepfake di spogliarelli con intelligenza artificiale stanno diventando sempre più popolari

App e siti web che utilizzano l’intelligenza artificiale per rimuovere digitalmente i vestiti dalle foto delle donne senza consenso stanno diventando estremamente popolari, secondo un report di Time.

Ricercatori della società di analisi dei social network Graphika hanno scoperto che solo nel mese di settembre, 24 milioni di persone hanno visitato servizi chiamati “nudify” o “undressing” che applicano algoritmi di IA a foto reali di donne vestite per generare immagini fake di nude.

La crescita impressionante corrisponde all’open-source di diversi nuovi modelli di diffusione dell’IA in grado di creare immagini fake di nude incredibilmente realistiche. Mentre le immagini modificate dall’IA in passato tendevano ad essere sfocate o irrealistiche, questi nuovi modelli consentono ai principianti di generare foto di nude convincentemente reali senza una formazione sofisticata.

La promozione di questi servizi avviene spesso apertamente su piattaforme come Reddit e Telegram, con alcuni annunci che suggeriscono addirittura agli utenti di inviare le foto nude fake alla vittima stessa. Un’app Nudify paga per il contenuto sponsorizzato su YouTube e si posiziona al primo posto nelle ricerche Google nonostante la violazione delle politiche della maggior parte dei siti. Tuttavia, i servizi operano per lo più senza controllo.

Le deepfake rappresentano un pericolo, specialmente per la pornografia non consensuale

Gli esperti avvertono che la proliferazione di foto di nude deepfake fatte in casa rappresenta una pericolosa nuova fase nella pornografia non consensuale. “Stiamo vedendo sempre più persone comuni che lo fanno con obiettivi comuni”, ha detto Eva Galperin dell’Electronic Frontier Foundation, evidenziando un aumento dei casi tra gli studenti delle scuole superiori.

Tuttavia, molte vittime non scoprono nemmeno l’esistenza di tali immagini, e coloro che lo fanno spesso faticano a convincere le forze dell’ordine ad investigare o non hanno i fondi necessari per intraprendere azioni legali.

Attualmente, la legge federale non proibisce esplicitamente la pornografia deepfake, ma solo la generazione di materiale di abuso sessuale falso su minori. A novembre, uno psichiatra della Carolina del Nord è stato condannato a 40 anni di prigione – la prima condanna del genere – per aver utilizzato app di spogliarelli basate su intelligenza artificiale su foto di pazienti minorenni.

Come risposta a questa tendenza, TikTok ha bloccato i termini di ricerca legati alle app nudify e Meta ha iniziato a bloccare parole chiave correlate sulle sue piattaforme. Tuttavia, gli analisti sostengono che sia necessaria molta più consapevolezza e azione per combattere la pornografia AI non consensuale.

Queste app trattano i corpi delle donne come materiale grezzo, senza consenso e calpestando i diritti alla privacy nel perseguimento del profitto. “Puoi creare qualcosa che sembra davvero realistica”, ha detto Santiago Lakatos. Infatti, per le vittime, questo è proprio il pericolo.

Credito immagine in primo piano: Foto di Markus Winkler; Pexels