Meta ha intenzione di aumentare l’uso delle etichette sulle immagini generate dall’IA durante un anno ricco di elezioni. Questa informazione proviene da ENBLE.

Meta Amplia l'Etichettatura delle Immagini Generate da AI sulle sue Piattaforme Social, tra cui Facebook, Instagram e Threads, per Includere Immagini Sintetiche Create con la Tecnologia Generativa AI di un Competitor

🌟 Meta compie un passo verso l’etichettatura delle immagini generate dall’AI sui social media 📸

In un movimento per affrontare la disinformazione e la disinformazione alimentate dall’IA, Meta (precedentemente conosciuta come Facebook) sta espandendo l’etichettatura delle immagini generate dall’AI sulle sue piattaforme di social media, inclusi Facebook, Instagram e Threads. Questa espansione include l’etichettatura di immagini sintetiche create utilizzando strumenti di generazione AI di altre aziende, a condizione che questi strumenti includano “indicatori di standard di settore” in grado di essere rilevati da Meta. Tuttavia, Meta non ha divulgato l’esatta quantità di contenuti sintetici in circolazione sulle sue piattaforme, lasciandoci a chiederci quale potrà essere l’impatto di questa iniziativa nella lotta alla disinformazione generata dall’IA in un anno in cui si svolgono molte elezioni in tutto il mondo.

Rilevare le immagini generate dall’IA

Meta già rileva ed etichetta “immagini fotorealistiche” create con il suo proprio strumento di generazione AI chiamato “Imagine with Meta”, lanciato a dicembre dello scorso anno. Tuttavia, finora non ha etichettato le immagini sintetiche create con gli strumenti di altre aziende. Ora, Meta sta lavorando con partner del settore per stabilire standard tecnici comuni per l’identificazione di contenuti generati dall’IA. Rilevando i segnali incorporati negli strumenti rivali di generazione di immagini AI, Meta mira ad etichettare le immagini generate dall’IA che gli utenti pubblicano sulle sue piattaforme.

L’etichettatura ampliata verrà implementata gradualmente nel corso dell’anno prossimo, con particolare attenzione alle importanti elezioni in tutto il mondo. Meta intende apprendere di più su come le persone creano e condividono contenuti AI durante questo periodo, consentendo loro di sviluppare le migliori pratiche e prendere decisioni informate sulla crescita dell’etichettatura nei diversi mercati.

🔍 La sfida delle immagini generate dall’IA e dell’audio

Mentre Meta sta avanzando nell’etichettatura delle immagini, la rilevazione dei video e dell’audio generati dall’IA rimane una sfida. Le tecniche di marcatura e watermarking non sono state ampiamente adottate, rendendo difficile per gli strumenti di rilevamento identificare con precisione questi deepfake. Inoltre, l’editing e la manipolazione possono facilmente rimuovere qualsiasi segnale presente nel contenuto.

Meta sta attivamente lavorando allo sviluppo di classificatori per rilevare automaticamente i contenuti video generati dall’IA senza la necessità di marker invisibili. Stanno anche esplorando modi per migliorare la resilienza dei watermark invisibili, come l’integrazione di meccanismi di watermarking direttamente nel processo di generazione delle immagini. Per mitigare i rischi, Meta ora richiede agli utenti di dichiarare esplicitamente se pubblicano video generati dall’IA “fotorealistici” o audio che “sembra realistico”. Il mancato rispetto di questa regola può comportare penalità, inclusa la sospensione o il divieto dell’account.

🎭 Falsificare senza l’IA

È importante notare che la manipolazione dei media digitali non è limitata esclusivamente ai contenuti generati dall’IA. Creare falsi virali e ingannare le persone su larga scala è possibile con abilità di editing di base e l’accesso a un account di social media. Meta è stata criticata per le sue politiche riguardanti i video manipolati. L’Oversight Board, un organo indipendente di revisione dei contenuti istituito da Meta, ha criticato l’azienda per avere politiche “incoerenti” in relazione ai video falsi, in particolare quelli generati dall’IA. Il Consiglio ha sottolineato la necessità che Meta affronti anche i rischi legati alla manipolazione dei contenuti non correlati all’IA.

🤖 L’IA generativa come strumento di moderazione dei contenuti

Oltre all’etichettatura dei contenuti generati dall’IA, Meta sta esplorando l’uso dell’IA generativa come complemento ai suoi sforzi di moderazione dei contenuti. Il presidente di Meta, Nick Clegg, suggerisce che i grandi modelli di linguaggio (LLM) potrebbero essere utili in momenti di “rischio elevato”, come le elezioni. I test iniziali che utilizzano LLM addestrati con gli Standard della Community di Meta hanno mostrato risultati promettenti nell’individuazione delle violazioni delle politiche. LLM viene utilizzato anche per rimuovere i contenuti dalle code di revisione quando si ha una forte fiducia che non violino le politiche di Meta. Questo approccio mira a alleviare il carico sugli revisori dei contenuti umani e migliorare l’efficienza della moderazione dei contenuti.

🔍 Verifica dei fatti sui contenuti generati dall’IA

Meta consente anche a partner indipendenti di verifica dei fatti di verificare i contenuti generati dall’IA sulle sue piattaforme. Ciò significa che i contenuti generati dall’IA potrebbero non solo essere etichettati come tali, ma anche smentiti se contengono informazioni false. Tuttavia, l’applicazione simultanea di etichette e indicatori multipli ai contenuti può diventare confusa per gli utenti che navigano sulle piattaforme di social media.

👥 La sfida dell’asimmetria e la risposta di Meta

Riconoscendo l’asimmetria tra la disponibilità dei verificatori dei fatti umani e gli strumenti AI sempre più accessibili utilizzati per creare disinformazione, Meta è sotto pressione per dimostrare il suo impegno nel contrastare i falsi generati dall’IA. Senza dati concreti sulla prevalenza di contenuti sintetici rispetto a contenuti autentici sulle piattaforme di Meta e sull’efficacia dei loro sistemi di rilevamento AI, è difficile trarre conclusioni definitive. Tuttavia, con numerose elezioni in vista, gli sforzi di Meta per affrontare la disinformazione generata dall’IA stanno attirando l’attenzione.

🔗 Riferimenti:Meta lancia un generatore di immagini alimentato da AI autonomoL’Oversight Board chiede a Meta di riscrivere le regole “incoerenti” contro i video falsificatiDall’assistente AI al restyler di immagini: le nuove funzionalità AI di Meta

💡 Domande e risposte dei lettori: D: L’etichettatura estesa dei contenuti generati da AI si applica anche ai video e all’audio? R: Mentre Meta sta attualmente etichettando le immagini generate da AI, la rilevazione e l’etichettatura dei video e dell’audio generati da AI rimangono una sfida. L’azienda sta lavorando attivamente allo sviluppo di strumenti per identificare questi contenuti. Tuttavia, al momento, l’attenzione dell’etichettatura è principalmente sulle immagini generate da AI.

D: Ci sono sanzioni per gli utenti che non comunicano che i loro contenuti sono generati da AI? R: Sì, Meta ha una politica esistente di Community Standards che si applica a tutti gli utenti in tutto il mondo. Gli utenti che non rivelano manualmente video “fotorealistici” generati da AI o audio “realistici” possono subire sanzioni, comprese sospensioni o ban degli account.

D: Come intende Meta affrontare i rischi della manipolazione di contenuti non correlati all’AI? R: Mentre gli sforzi recenti di Meta si sono concentrati sui contenuti generati da AI, il Oversight Board ha esortato l’azienda a rivedere le sue politiche per affrontare i rischi della manipolazione di contenuti non correlati all’AI. Meta non ha ancora delineato piani specifici in risposta a questa raccomandazione.

D: Possono i partner di fact-checking smentire i contenuti generati da AI oltre ad etichettarli? R: Sì, i partner di fact-checking hanno l’autorità di smentire i contenuti generati da AI se contengono informazioni false. Oltre a essere etichettati come generati da AI, i contenuti ritenuti imprecisi o fuorvianti possono anche essere smentiti.

🌐 Il futuro dei contenuti generati da AI sui social media

Con il continuo avanzamento dell’AI, essa avrà un ruolo sempre più significativo nel plasmare le nostre esperienze online. Gli sforzi di Meta per etichettare i contenuti generati da AI ed esplorare l’IA generativa come strumento di moderazione dei contenuti sottolineano l’importanza di affrontare le sfide poste dalla disinformazione. Lo sviluppo di tecniche di rilevamento robuste e politiche chiare sarà fondamentale per il futuro. La prevalenza dei contenuti generati da AI, unita al rischio di manipolazione, ci ricorda la necessità di un comportamento online responsabile e di un pensiero critico.

📢 Condividi le tue opinioni!

Cosa pensi dell’espansione di Meta nell’etichettatura dei contenuti generati da AI? Pensi che aiuterà efficacemente a contrastare la disinformazione? Condividi le tue opinioni nei commenti qui sotto e partecipa alla conversazione!

🙌 Sei stato appassionato da questo articolo? Non dimenticare di condividerlo sui social media!

Disclaimer: Questo articolo è solo a scopo informativo. Le opinioni espresse in questo articolo sono esclusivamente quelle dell’autore e non riflettono necessariamente le politiche ufficiali o le posizioni di Meta o delle sue sussidiarie.


🔍 Riferimenti:Meta lancia un generatore di immagini alimentato da AI autonomoL’Oversight Board chiede a Meta di riscrivere le regole “incoerenti” contro i video falsificatiDall’assistente AI al restyler di immagini: le nuove funzionalità AI di Meta