Un video manipolato di Biden è un caso di prova per le politiche di Facebook sui deepfake.

Un video manipolato di Biden è una prova della politica di Facebook sui deepfake.

A maggio, è comparso su Facebook un video manipolato del presidente Joe Biden. Il footage originale mostrava Biden durante le elezioni di metà mandato del 2022, mettendo un adesivo “Ho votato” sul petto della sua nipote e baciandola sulla guancia. La versione manipolata faceva in modo che sembrasse che toccasse ripetutamente la bambina, con una didascalia che lo definiva un “pedofilo”.

Meta ha lasciato il video online. Oggi, l’Oversight Board dell’azienda, un organo indipendente che si occupa della moderazione dei contenuti sulla piattaforma, ha annunciato che rivedrà tale decisione, nel tentativo di spingere Meta a affrontare il modo in cui gestirà i media manipolati e la disinformazione elettorale in vista delle elezioni presidenziali degli Stati Uniti del 2024 e di oltre 50 altre votazioni che si terranno in tutto il mondo il prossimo anno.

“Le elezioni sono alla base della democrazia ed è fondamentale che le piattaforme siano in grado di proteggere l’integrità di quel processo”, afferma il portavoce dell’Oversight Board, Dan Chaison. “Esplorare come Meta possa affrontare meglio i contenuti alterati, compresi i video volti a ingannare il pubblico prima delle elezioni, è ancora più importante alla luce dei progressi nell’intelligenza artificiale”.

Meta ha dichiarato in un post sul blog che ha determinato che il video non violava le politiche di odio, molestie o media manipolati di Facebook. Secondo la politica di media manipolati di Meta, verrà rimosso un video se “è stato modificato o sintetizzato… in modi che non sono evidenti per una persona comune e che probabilmente ingannerebbero una persona comune facendole credere che una persona nel video abbia detto parole che non ha pronunciato”. Meta ha osservato che il video su Biden non utilizzava intelligenza artificiale o apprendimento automatico per manipolare il filmato.

Gli esperti avvertono da mesi che le elezioni del 2024 diventeranno più complicate e pericolose grazie all’intelligenza artificiale generativa, che consente di creare audio, video e immagini falsi più realistici. Anche se Meta si è unita ad altre aziende tecnologiche impegnandosi a cercare di limitare i danni dell’intelligenza artificiale generativa, le strategie più comuni, come l’apposizione di filigrane ai contenuti, si sono dimostrate efficaci solo in parte. La scorsa settimana, in Slovacchia, è circolata su Facebook una registrazione audio falsa in cui uno dei politici di spicco del paese sembrava discutere di brogli elettorali. I creatori sono riusciti a sfruttare una falla nelle politiche di Meta sui media manipolati, che non coprono i falsi audio.

Anche se il video su Biden stesso non è generato dall’intelligenza artificiale o manipolato, l’Oversight Board ha chiesto commenti pubblici su questo caso con l’obiettivo di esaminare più approfonditamente le politiche di Meta riguardo ai video manipolati.

“Credo che sia ancora il caso che, se guardiamo in modo ampio ciò che viene condiviso, si tratti di media contestualizzati in modo errato o modificati, e quindi le politiche devono riflettere come affrontarli”, afferma Sam Gregory, direttore del programma presso l’organizzazione no profit Witness, che aiuta le persone a utilizzare la tecnologia per promuovere i diritti umani.

L’Oversight Board può emettere decisioni vincolanti oltre a raccomandazioni, che Meta può decidere se seguire o meno. L’organismo ha cercato di affrontare casi che spera possano contribuire a plasmare l’approccio dell’azienda nell’anno delle elezioni del 2024, valutando la decisione di Meta di non rimuovere la chiamata alla violenza durante il periodo precedente alle elezioni in Cambogia da parte dell’allora primo ministro Hun Sen e un discorso di un generale brasiliano nel periodo precedente al tentativo di insurrezione successivo alle elezioni nel paese.

Tuttavia, Gregory è preoccupato anche dal fatto che, anche se l’Oversight Board emette decisioni vincolanti su come Meta dovrebbe affrontare i media manipolati, ha scarsa possibilità di influenzare la quantità di denaro o risorse che l’azienda sceglie effettivamente di dedicare al problema, specialmente in elezioni al di fuori degli Stati Uniti. Come molte altre grandi aziende tecnologiche, Meta ha licenziato membri del personale affidamento alla sicurezza che si occupano di questioni come la disinformazione e l’incitamento all’odio. Meta ha anche avuto storicamente difficoltà nel moderare i contenuti che non sono in inglese e in contesti al di fuori degli Stati Uniti.

A differenza di Google, che ha introdotto funzionalità per aiutare gli utenti a capire se un’immagine è generata da intelligenza artificiale o manipolata, Meta non ha creato strumenti rivolti ai consumatori per consentire agli utenti o ai verificatori di fatti di comprendere meglio il contesto dei contenuti che potrebbero visualizzare.

Anche se il Consiglio di Vigilanza potrebbe sperare di utilizzare il video di Biden come base per stabilire come Meta dovrebbe gestire i contenuti generati da intelligenza artificiale o manipolati da intelligenza artificiale, Gregory afferma che prevede che molte domande su contenuti manipolati rimarranno senza risposta.

“Penso che sia davvero utile che il Consiglio di Vigilanza fornisca una valutazione obiettiva di come stanno funzionando tali politiche e di come stanno funzionando a livello globale,” dice Gregory. “Non so se ciò deriverebbe da questo singolo caso.”