I problemi in agguato nell’affare storico dell’IA di Hollywood

Le insidie nell'affare storico dell'IA di Hollywood

Non tutti ad Hollywood sono felici dell’accordo storico sull’IA nell’industria cinematografica. Una clausola che permette la creazione di repliche digitali e attori sintetici potrebbe, sostengono i critici, ridurre il numero di posti di lavoro disponibili sia per gli attori che per la troupe. Questo, a sua volta, potrebbe consentire alle star di primo piano – e ai loro cloni generati dall’IA – di apparire in più progetti contemporaneamente, escludendo gli attori emergenti mentre Hollywood si riempie di attori sintetici.

Le opinioni sono così forti che il 14 percento del consiglio nazionale dello Screen Actors Guild-American Federation of Television and Radio Artists, o SAG-AFTRA per brevità, ha effettivamente votato contro l’accordo per la ratifica da parte dei suoi membri. I leader della Directors Guild of America e della Writers Guild of America, al contrario, hanno accettato in modo schiacciante che i loro membri accettassero gli accordi che avevano stipulato con l’Alliance of Motion Picture and Television Producers (AMPTP).

Con il loro accordo con l’AMPTP, gli scrittori stavano cercando di riprendere il controllo di uno strumento in grado di imparare a elaborare sceneggiature originali o modificare sceneggiature scritte da esseri umani senza autorizzazione. Per gli attori, una delle questioni chiave durante i negoziati riguardava l’IA che poteva, a loro parere, rubare la loro somiglianza. Sembra essere necessario un controllo rigoroso. “In questo accordo, ci sono effettivamente molte utilizzazioni immaginate per il futuro, sia per i personaggi secondari che quelli principali e per gli attori di background”, afferma Joshua Glick, professore associato di film e arti elettroniche presso il Bard College. “Ecco perché forse c’è più ansia riguardo alla posizione degli attori rispetto ai progressi fatti dagli scrittori”.

Uno dei critici più accesi dell’accordo è stata l’attrice di Famiglia Ties Justine Bateman, che fa parte del comitato negoziale del SAG-AFTRA come consulente sull’IA. Nei giorni successivi all’accordo provvisorio raggiunto dal SAG con l’AMPTP, ha pubblicato un thread molto condiviso su X che si concludeva con la frase: “In conclusione, ci aspetta un’epoca molto spiacevole per attori e troupe”.

La preoccupazione principale di Bateman riguarda il linguaggio dell’accordo che riguarda i “performer sintetici”, cioè le IA che somigliano agli esseri umani. “Ciò dà agli studi/streamer un via libera all’uso di oggetti basati sull’IA che sembrano umani al posto di assumere un attore umano”, ha scritto su X. “È una cosa usare l’IA generativa per creare un King Kong o un serpente volante (anche se questo mette in ombra molti artisti degli effetti speciali CGI), ma è un’altra cosa far sì che un oggetto basato sull’IA interpretti un personaggio umano al posto di un attore reale”. Questo, ha sostenuto, sarebbe simile al sindacato di autotrasportatori che permette al datore di lavoro di utilizzare camion a guida autonoma al posto dei conducenti sindacalizzati.

Come regolare le caratteristiche di questi “performer sintetici” è un’altra questione spinosa. Un sommario del nuovo accordo afferma che “se un produttore intende creare un personaggio generato al computer che ha una caratteristica facciale principale, come gli occhi, il naso, la bocca o le orecchie, che assomiglia chiaramente a un attore reale, e utilizza il nome e il volto di quell’attore per guidare il sistema IA a farlo, devono prima ottenere il permesso di quell’attore e accordarsi su come questo personaggio verrà utilizzato nel progetto”.

Gli attori possono fare affidamento sul diritto di pubblicità, noto anche come diritto di somiglianza, per proteggersi se uno studio viola palesemente la loro immagine. Ma cosa succede a un performer sintetico che mostra, ad esempio, la gravità di Denzel Washington ma che tecnicamente non è Denzel Washington? Potrebbe essere considerato una “replica digitale”, che secondo il contratto richiede il consenso all’uso? Quanto sarà facile per un attore difendere tratti più sfuggenti? Con un certo peso legale, uno studio potrebbe sostenere che il suo performer IA è semplicemente allenato sulle performance di grandi attori, come qualsiasi giovane attore, proprio come un grande modello di linguaggio “elabora” grandi opere letterarie per influenzare la scrittura che produce. (Se sia giusto o meno permettere ciò ai grandi modelli di linguaggio è oggetto di un debate in corso.)

“Dove si trova quella linea di confine tra una replica digitale e una somiglianza derivata che è simile, ma non esattamente una replica?”, afferma David Gunkel, professore nel Dipartimento di Comunicazioni presso la Northern Illinois University, che si concentra sull’Intelligenza Artificiale nei media e nell’intrattenimento. “Questo è qualcosa che verrà affrontato in tribunale in futuro, quando vedremo cause intentate da vari gruppi, poiché le persone iniziano a testare quel confine, perché non è ben definito all’interno dei termini del contratto.”

Esistono anche altre preoccupazioni riguardo al vago linguaggio di alcuni punti del contratto. Ad esempio, consideriamo la specificazione secondo cui gli studi non devono cercare il consenso “se sarebbero protetti dal Primo Emendamento (ad esempio, commento, critica, studio accademico, satira o parodia, utilizzo in un docudramma o opera storica o biografica)”. Non è difficile immaginare gli studi, se ne avessero l’intenzione, di evitare il consenso classificando un uso come satirico e usando la Costituzione degli Stati Uniti come copertura.

O consideriamo la discussione sulle modifiche digitali, in particolare il fatto che non è necessario cercare il consenso per una replica digitale se “la fotografia o la colonna sonora rimane sostanzialmente come scritta, eseguita e/o registrata”. Questo potrebbe includere cambiamenti ai capelli e all’abbigliamento, dice Glick, o, in modo significativo, un gesto o un’espressione facciale. Questo solleva a sua volta la questione dell’effetto dell’IA sull’arte dell’interpretazione: gli artisti e gli attori inizieranno a mettere il loro marchio di acqua su performance libere da IA o promuoveranno movimenti anti-IA, in stile Dogme 95? (Queste preoccupazioni iniziano a riproporre vecchi argomenti del settore sull’informatica grafica CGI.)

La precarietà degli artisti li rende vulnerabili. Se un attore ha bisogno di pagare le bollette, il consenso dell’IA e la possibile replicazione potrebbero diventare un requisito di lavoro. È probabile anche che aumenti l’ineguaglianza tra gli attori: coloro che possono permettersi di opporsi ai progetti di IA potrebbero ottenere una maggiore protezione; gli attori di grande fama che accettano di essere ricreati digitalmente possono “apparire” contemporaneamente in più progetti.

Ci sono limiti a ciò che può essere raggiunto nelle negoziazioni tra gilde e studi, come ha spiegato l’attore e regista Alex Winter in un recente articolo per ENBLE. Come ha notato anche per l’accordo WGA (Writers Guild of America), l’accordo “pone molta fiducia negli studi nel fare la cosa giusta”. Secondo lui, il suo obiettivo principale è continuare la conversazione tra lavoro e capitale. “È un passo nella giusta direzione per quanto riguarda la protezione dei lavoratori; sposta parte del controllo dalle mani dello studio a quelle dei lavoratori sindacalizzati sotto SAG-AFTRA”, afferma Gunkel. “Penso però che, poiché è limitato a un solo contratto per un periodo di tempo molto preciso, non sia qualcosa che dovremmo solo celebrare e considerare risolto.”