Gli YouTuber rischiano sanzioni se utilizzano l’IA generativa, a meno che non si conformino a questa nuova regola

Gli YouTuber sono soggetti a sanzioni se utilizzano l'Intelligenza Artificiale generativa, a meno che non si adeguino alla nuova normativa

YouTube presto richiederà ai creatori di specificare se un video è stato realizzato con l’AI generativa.

Martedì, il colosso dello streaming video ha annunciato questo, e altri aggiornamenti, per contrastare gli effetti fuorvianti o dannosi dell’AI generativa.

“Quando i creatori caricano contenuti, avremo nuove opzioni per loro per indicare se contengono materiale alterato o sintetico realistico,” hanno detto Jennifer Flannery O’Connor ed Emily Moxley, Vicedirettori di gestione prodotto di YouTube.

Pannello di descrizione di YouTube su uno smartphone che mostra l'etichetta di dichiarazione che il video è stato generato dall'AI

I creatori che non rispettano regolarmente questa indicazione potrebbero essere soggetti a penalità, come la rimozione dei contenuti o la sospensione dal programma partner di YouTube. L’annuncio ha anche affermato che artisti e creatori saranno in grado di richiedere la rimozione di contenuti (compresa la musica) che utilizza la loro immagine senza consenso.

La ampia disponibilità di AI generativa ha aumentato la minaccia delle deepfake e delle disinformazioni, soprattutto in vista delle imminenti elezioni presidenziali. Sia il settore pubblico che quello privato hanno riconosciuto la necessità di rilevare e prevenire l’uso nefasto dell’AI generativa.

A titolo di esempio, l’ordinanza esecutiva sull’AI del Presidente Biden ha specificamente affrontato la necessità di etichettare o contrassegnare i contenuti generati dall’AI. OpenAI sta lavorando al suo strumento, un “classificatore di provenienza,” che rileva se un’immagine è stata creata con il suo generatore di AI DALL-E 3. Proprio la scorsa settimana, Meta ha annunciato una nuova politica che richiede ai pubblicitari politici di dichiarare se un annuncio utilizza l’AI generativa.

Su YouTube, quando un creatore carica un video, avrà l’opzione di indicare se “contiene materiale alterato o sintetico realistico,” ha detto il post del blog. “Ad esempio, potrebbe trattarsi di un video generato dall’AI che raffigura realisticamente un evento mai accaduto, o di contenuto che mostra qualcuno che dice o fa qualcosa che in realtà non ha mai detto o fatto.”

Saranno aggiunte etichette per informare gli spettatori che un video contiene contenuti generati o modificati dall’AI nel pannello di descrizione. Una “etichetta più prominente” sarà aggiunta per i contenuti che trattano argomenti sensibili. Anche se un contenuto generato dall’AI è indicato correttamente, se viola le linee guida della community di YouTube, sarà rimosso.

Come verrà applicata tutta questa moderazione dei contenuti? Tramite l’AI, ovviamente. Oltre a creare contenuti falsi che sembrano incredibilmente reali, l’AI generativa può anche identificare e individuare con successo contenuti che violano le politiche sui contenuti. YouTube sta utilizzando la tecnologia dell’AI generativa per aiutare a contestualizzare e comprendere le minacce su ampia scala.