Il Lato Oscuro della Generazione di Immagini AI Open Source

Gli strumenti open source consentono a chiunque di creare arte generata da intelligenza artificiale. Sono stati anche utilizzati per la produzione di pornografia deepfake non consensuale.

“`html

Preoccupazioni con i Generatori di Immagini AI Open Source

Crediti immagine: Reuven Cohen

Sia che si tratti del viso ad alta definizione imbronciato di una scimmia o di un sosia psichedelico dai toni rosa e rossi di se stesso, Reuven Cohen sa come catturare l’attenzione delle persone usando immagini generate dall’IA. Ma dietro le affascinanti immagini si cela un lato più oscuro della tecnologia di cui molti non sono a conoscenza.

La tecnologia di generazione di immagini open source ha scatenato un’ondata di sperimentazione e creatività sfrenata. Tuttavia, ha anche fornito un mezzo per la creazione e la distribuzione di immagini esplicite e non consensuali, che mirano principalmente alle donne. Questa tecnologia, che può essere addestrata a essere sia spaventosa che cattiva, è diventata un pilastro della pornografia deepfake e facilita lo sviluppo di applicazioni sensazionalistiche e moleste.

La comunità open source ha fatto sforzi per scoraggiare utilizzi abusivi dell’IA, ma controllare la natura di libertà totale del software open source è quasi impossibile. L’abuso di immagini fake e la pornografia non consensuale hanno prosperato come risultato, ed è un problema che non può essere edulcorato o minimizzato.

Henry Ajder, un ricercatore specializzato sull’uso dannoso dell’IA generativa, afferma che il software open source di generazione di immagini ha permesso la creazione e la diffusione di immagini esplicite e non consensuali. La diffusa disponibilità e l’assenza di limiti nei modelli open source hanno reso difficile prevenirne l’abuso.

Anche se alcuni modelli di IA sono creati appositamente per utilizzi sensazionalistici e molesti, molti strumenti possono servire sia a fini legittimi che maliziosi. Ad esempio, un popolare programma open source di scambio volti è utilizzato da professionisti del settore dell’intrattenimento ma è anche lo “strumento di scelta per i cattivi attori” che creano deepfake non consensuali.

Startup come Stability AI hanno sviluppato generatori di immagini ad alta risoluzione con limiti per prevenire la creazione di immagini esplicite e l’uso malizioso. Tuttavia, anche quando ci sono limiti, l’open source del software può rendere aggirabili tali restrizioni. Modelli di IA più piccoli, noti come LoRA, consentono inoltre la personalizzazione e lo styling delle uscite delle immagini, inclusi atti sessuali e somiglianze con celebrità.

Il problema si intensifica su forum come 4chan, noto per i contenuti non regolamentati. Esistono pagine dedicate alla pornografia deepfake non consensuale, che presentano programmi e modelli di IA liberamente disponibili appositamente progettati per immagini a sfondo sessuale. Le bacheche di immagini per adulti sono invase da nude non consensuali generate dall’IA di donne reali, da attrici porno a attrici famose come Cate Blanchett.

Alcune comunità all’interno del settore della generazione di immagini con IA hanno iniziato a contrastare la proliferazione di contenuti pornografici e maliziosi. Gli stessi creatori si preoccupano che il loro software guadagni una cattiva reputazione per immagini NSFW e incoraggiano gli altri a segnalare immagini esplicite e immagini di minori.

Per complicare ulteriormente le cose, nuovi metodi come InstantID rendono ancora più facile creare deepfakes. Una tecnica sviluppata da ricercatori dell’Università di Pechino e Xiaohongshu, InstantID consente lo scambio di volti nelle immagini con un solo esempio, riducendo i requisiti di elaborazione e preparazione. Anche se i ricercatori hanno espresso preoccupazioni sul potenziale del modello per immagini offensive o culturalmente inappropriate, altri lo promuovono come una tecnologia abilitante per “Clonazione di Volti Open Source Senza Censura”.

La facilità di creare deepfakes utilizzando questi metodi solleva serie preoccupazioni. Cohen sottolinea che chiunque potrebbe creare una falsificazione di qualcuno in una posizione compromettente, rendendola semplice e accessibile a tutti. Il potenziale per l’abuso è preoccupante.

Anche se alcuni creatori di strumenti e software scoraggiano l’uso malizioso, spesso si sentono impotenti nel prevenirlo. Altri stanno attivamente creando ostacoli per casi d’uso indesiderati, promuovendo strumenti etici per l’IA, come il “controllo” delle immagini per proteggerle dall’editing dell’IA generativa e per controllare l’accesso ai modelli caricati.

Le soluzioni tecniche come il rilascio controllato, la licenza del software open source e gli obblighi contrattuali per le piattaforme commerciali potrebbero non eliminare completamente gli utilizzi impropri, ma potrebbero fungere da deterrenti. Gli sforzi di base e l’istituzione di norme e standard della comunità possono influenzare il comportamento e definire ciò che viene considerato accettabile.

Per combattere il problema della pornografia AI non consensuale, la collaborazione tra startup di AI, sviluppatori open source, imprenditori, governi, organizzazioni femminili, accademici e società civile è cruciale. Un approccio più coordinato può aiutare a scoraggiare l’abuso e rendere individui più responsabili. Si tratta di creare una comunità online che lotti attivamente contro la diffusione di contenuti espliciti e non consensuali.

Le conseguenze dell’abuso basato sulle immagini sono spesso devastanti e colpiscono in modo sproporzionato le donne. Studi hanno dimostrato che i deepfake sono prevalentemente pornografia non consensuale, mirata principalmente alle donne. La possibilità per individui casuali di prendere di mira ed sfruttare gli altri è terrificante, ed è una preoccupazione che richiede attenzione e azione.

Mentre navighiamo nel paesaggio in continua evoluzione dell’IA e della tecnologia, dobbiamo rimanere vigili nell’affrontare le implicazioni etiche e il potenziale per il cattivo uso. È essenziale trovare un equilibrio tra innovazione e uso responsabile per creare un mondo sicuro per tutti.

“““html


Q&A

Q: Può essere controllato il software di generazione di immagini open source?

A: Controllare il software di generazione di immagini open source è difficile a causa della sua natura decentralizzata. Anche se vengono fatti sforzi per scoraggiare un uso improprio, il caos dell’open source rende quasi impossibile mantenere un pieno controllo su come la tecnologia viene utilizzata. Tuttavia, l’incorporazione di tecno-soluzioni e l’instaurazione di norme comunitarie possono aiutare a mitigare alcuni dei problemi.

Q: Ci sono misure messe in atto per impedire la creazione e la distribuzione di immagini esplicite e non consensuali?

A: Alcune startup e comunità online stanno attivamente scoraggiando l’uso malintenzionato e creando strumenti per combattere applicazioni indesiderate della generazione di immagini tramite intelligenza artificiale. Strumenti etici, come la “protezione” delle immagini, stanno venendo sviluppati per proteggere le immagini dall’editing tramite AI generativa. Tuttavia, l’efficacia di queste misure dipende dalla volontà degli utenti di conformarsi alle linee guida e dalla capacità di far rispettare la conformità.

Q: Come possiamo affrontare il problema del porno AI non consensuale?

A: Affrontare il problema del porno AI non consensuale richiede la collaborazione tra vari attori, comprese startup di intelligenza artificiale, sviluppatori open source, governi, organizzazioni femminili, accademici e società civile. Favorire dialoghi e creare partenariati può esplorare possibili deterrenti senza ostacolare l’accessibilità ai modelli open source. La collaborazione è fondamentale per creare una comunità online sicura.

Q: Quali potrebbero essere le conseguenze del porno AI non consensuale?

A: Le conseguenze del porno AI non consensuale possono essere devastanti, in particolare per le persone colpite. L’impatto psicologico ed emotivo può essere grave, portando a traumi a lungo termine. È essenziale riconoscere gli effetti nocivi e attuare misure per prevenire ulteriori danni.


🔗Riferimenti: 1. Please stop anthropomorphizing AI, treating it as an autonomous life form 2. Quickly Access Recently Viewed Files & Folders in macOS 3. OpenAI’s Policies Got a Quiet Update, Removing the Ban on Military Warfare Applications 4. Google’s AI Image Generator Finally Rolls out to the Public. Here’s How to Try It 5. Substack Commits to Proactively Removing Nazi Content, Ensuring Fallout for TechCrunch 6. Baidu denies ties to reported Chinese military training with GenAI chatbot 7. Decentralized social network Farcaster is trying to reach mass adoption with web 2.0 techniques 8. Samsung chairman Lee acquitted of financial crimes as merger of companies 9. Decoding Reddit’s plan to ‘train’ AI models 10. Lawmakers revise Kids Online Safety Act to address LGBTQ advocates’ concerns

“`