Non siamo pronti per l’impatto dell’IA generativa sulle elezioni

Non pronti per l'impatto dell'IA generativa sulle elezioni

Tutto questo ti fa venire voglia di piangere? Bene, anche George Washington ha pianto qui.

Hai sentito la storia su George Washington che non appoggiava la guerra rivoluzionaria?

Mentre serviva come generale che guidava le forze ribelli, George Washington era convinto che la guerra di indipendenza americana fosse un errore. Non era “affatto sicuro che meritiamo di avere successo”.

Inoltre: Come ho ingannato ChatGPT convincendolo a raccontarmi bugie

Nel 1777, un soldato al servizio del generale britannico Oliver De Lancey trovò un baule appartenente al generale Washington. Il baule conteneva una serie di lettere scritte dalla mano dello stesso Washington che parlavano del suo desiderio di riconciliazione con l’Inghilterra e persino, “Amo il mio re”.

Il baule fu trovato nelle mani del valletto di Washington (e persona schiavizzata) William Lee, quando Lee fu catturato dai britannici.

Ecco una prova tangibile che persino lo stesso Washington non appoggiava la guerra.

Anni dopo, nel 1795, quando Washington chiedeva al Senato di ratificare il Trattato di Jay con la Francia, le lettere furono citate come prova che la lealtà di Washington non poteva essere fidata e che a lui non importava davvero della democrazia. Ciò rese molto difficile l’approvazione del Trattato di Jay.

Ecco… William Lee non fu mai catturato dai britannici. Anzi, William Lee non si allontanò mai da Washington durante la guerra rivoluzionaria. Le lettere erano falsi accuratamente creati, l’equivalente del XVIII secolo delle deepfake.

Inoltre: Quanto grande è questa nuova IA generativa? Pensate a una perturbazione a livello di internet

Esse tormentavano Washington così tanto che lui scrisse – come uno dei suoi ultimi atti in carica – una confutazione delle falsificazioni in una lettera al Segretario di Stato degli Stati Uniti Timothy Pickering.

Da George Washington a Washington, DC

Andiamo avanti fino al 2018. Sto per toccare argomenti politicamente carichi. Per un momento, ignora la politica e focalizzati su questi come esempi dell’esistenza della disinformazione. Questo è l’argomento di questo articolo. La disinformazione danneggia tutte le parti coinvolte. Ma per mostrarti ciò che sta accadendo, devo citare esempi reali. E ciò significa che devo menzionare politici.

Ecco quindi…

Esempio 1: Campagna di disinformazione supportata dal Cremlino

La Commissione per l’Intelligence della Camera, che indagava sulle elezioni presidenziali del 2016, ha pubblicato una raccolta di oltre 3.500 annunci contenenti affermazioni false progettate per disturbare il sistema politico americano.

Gli annunci sono stati prodotti e acquistati da una fattoria di troll sostenuta dal Cremlino tra il 2015 e il 2017. Oltre agli annunci acquistati, la Commissione per l’Intelligence della Camera ha affermato che c’erano almeno “80.000 pezzi di contenuti organici” sui social media prodotti da interessi russi.

Esempio 2: Video modificato che finge un comportamento ubriaco

Successivamente, faremo un salto al 2019 per guardare a un video che mostrava la Speaker della Camera Nancy Pelosi che balbettava e sembrava ubriaca. Questo proveniva da un video di Pelosi che teneva un discorso presso un evento del Center for American Progress (un “think tank” di orientamento liberale).

Il video, condiviso su Facebook più di 45.000 volte e con oltre 23.000 commenti, era falso. Il video originale era stato modificato per “far sembrare la sua voce confusa e distorta” e per farla apparire ubriaca.

La strumentalizzazione dell’IA generativa nelle campagne politiche

Foto, video, audio e persino lettere scritte a mano sono state tutte contraffatte nel corso degli anni al servizio di sporchi trucchi politici. Sebbene varino in qualità in base alle abilità dei falsificatori, la pratica non è nuova.

Inoltre: Come funziona effettivamente ChatGPT?

Tienilo presente mentre passiamo a una discussione sulle deepfake nell’era dell’IA generativa. Peggy Noonan, che in una vita precedente era la principale autrice dei discorsi per il presidente Ronald Reagan, ha scritto questo nel suo articolo sul Wall Street Journal:

Quasi in ogni raduno, l’intelligenza artificiale veniva menzionata. Direi che le persone si avvicinano all’IA con un timore fluttuante mitigato da un impegno pragmatico nel trarne il massimo vantaggio, vedere cosa può fare per migliorare la vita. Non può essere fermata più di quanto si possa fermare la marea. C’è un senso del “Potrebbe svelare i codici più profondi del cancro”, combinato con “Potrebbe ribaltarsi contro di noi e farci saltare in aria con una bomba atomica”.

Questo riassume tutto. Mentre Noonan si muove in cerchie politiche raffinate, questa affermazione è la prova che anche l’elite politica considera l’IA generativa con un senso di preoccupazione.

Ciò, naturalmente, non impedisce loro di utilizzare la tecnologia a loro vantaggio.

Il mese scorso, i sostenitori di Ron DeSantis, governatore della Florida e candidato presidenziale repubblicano attualmente al secondo posto in base ai dati dei sondaggi, hanno utilizzato una voce generata dall’IA per imitare il presidente Trump in uno spot che faceva sembrare che l’ex presidente repubblicano stesse attaccando i repubblicani.

Inoltre: Come fare in modo che ChatGPT fornisca fonti e citazioni

Per essere chiari, le parole pronunciate dall’IA erano basate su un vero post di Trump sul social network Truth Social. Lo spot è stato finanziato dal Never Back Down PAC, che tecnicamente non è affiliato al governatore DeSantis. Tuttavia, il PAC sostiene fortemente DeSantis. Presumibilmente, il PAC ha ritenuto che utilizzare la voce dell’ex presidente con le sue stesse parole sarebbe stato più efficace o realistico rispetto a un annunciatore che le pronuncia in voice-over.

In un altro spot attribuito a DeSantis, viene mostrato il presidente Trump che abbraccia il dottor Anthony Fauci. Si trattava di un’immagine generata dall’IA. Fauci è un ex membro del Coronavirus Task Force di Trump, ex consulente medico capo del presidente e, per quasi 40 anni, direttore dell’Istituto nazionale di allergie e malattie infettive. Fauci, come è ben noto, è diventato una figura divisiva nei primi giorni della pandemia. La campagna di DeSantis sembrava cercare di collegare Trump a Fauci per trarne vantaggio politico.

Lo scopo di questo articolo non è quello di dibattere sul contenuto degli spot politici. Invece, si concentra sull’uso dell’IA e su cosa significhi per il futuro. Le immagini di Trump che abbraccia il dottor Fauci sono state notevoli perché generate dall’IA.

A marzo, il New York Times ha descritto come il Partito Democratico stesse testando l’uso dell’IA per redigere messaggi di raccolta fondi, con “richieste che spesso ottengono migliori risultati rispetto a quelle interamente scritte da esseri umani”.

Inoltre: Come i ricercatori hanno violato ChatGPT e cosa potrebbe significare per lo sviluppo futuro dell’IA

Il Times ha anche riferito su immagini contraffatte trasmesse sui social media che mostravano il presidente Trump arrestato a New York City.

Anche se l’IA potrebbe dimostrarsi sicuramente un moltiplicatore di forze per le elezioni nazionali, mi aspetto che venga utilizzata ampiamente nelle campagne in cui budget più bassi richiedono un uso più creativo delle risorse. Una campagna del genere, come riportato da Insider, è stata quella per il sindaco di Toronto. Insider ha condiviso un’immagine da un volantino di campagna prodotto per conto del candidato Anthony Furey che mostrava una donna con tre braccia.

Quando ho cercato online il volantino citato da Insider, non aveva l’immagine mostrata nell’articolo. Immagino che l’errore sia stato corretto da Furey o dal suo team di campagna. In ogni caso, Furey ha perso, arrivando quarto, con poco più del 10% dei voti ottenuti dal vincitore.

Quindi, mentre l’IA può aiutare a creare immagini false o ridurre i costi, non garantisce la vittoria. Nulla lo fa.

Cosa significa tutto ciò?

Il fatto che una campagna utilizzi l’IA generativa non significa che la stia militarizzando. Ci sono quattro principali categorie di utilizzo degli strumenti di IA generativa nelle campagne, e solo una è del tutto negativa per natura.

Deepfakes e falsificazioni: Questa è quella che potenzialmente può essere più distruttiva. Ogni volta che una campagna falsifica informazioni, è distruttiva e rientra nella categoria delle scorrettezze. Ciò che rende tutto ciò più preoccupante ora è che le IA rendono possibile la generazione di immagini false per molte più persone, quindi è probabile che ne vedremo sempre di più, e non solo nelle campagne.

Inoltre: 6 cose che ChatGPT non può fare (e altre 20 che rifiuta di fare)

Aiutare a comporre annunci e lettere: Ci si aspetta che l’IA aiuti lo staff della campagna a comporre annunci e lettere. Sebbene il contenuto possa contenere falsità o rappresentazioni errate, non è niente di nuovo. I lavoratori delle campagne piegavano la verità nei documenti scritti molto prima dell’avvento dell’IA generativa.

Aumentare la velocità e la personalizzazione dei contenuti per un’ampia diffusione: Le campagne più efficaci spesso dispongono di ampie banche dati sugli elettori potenziali, in particolare sui donatori potenziali. Acquistano elenchi, aggregano dati dalle campagne precedenti e da altri candidati, e cercano di creare profili che aiutino a mirare con precisione ai potenziali clienti. Ci si aspetta che l’IA generativa venga utilizzata per calibrare individualmente gli sforzi di comunicazione con ciascun potenziale cliente e farlo in modo massivo.

Eseguire l’analisi delle tendenze e dei sentimenti per cercare informazioni: In un articolo precedente, ho mostrato quanto possa essere potente l’IA nel data mining per ottenere informazioni. Le campagne hanno spesso utilizzato software di data mining di livello enterprise, ma ci si aspetta che la potenza, la facilità d’uso e il prezzo relativamente basso di strumenti come ChatGPT Plus with Code Interpreter rendano queste capacità disponibili a tutti i livelli delle campagne.

Inoltre: ho chiesto a ChatGPT, Bing e Bard cosa li preoccupa. L’IA di Google mi ha risposto come un Terminator

Lawrence Pingree, vice presidente di Gartner per le tecnologie emergenti e le tendenze – sicurezza, ha aggiunto alcuni spunti su questo argomento. Ha detto a ENBLE:

Penso che il pericolo più grande sia che i modelli linguistici generativi dell’IA di grandi dimensioni possono ora essere strumentalizzati con l’automazione. Questa automazione (esempi: AutoGPT, BabyAGI) può essere utilizzata per condurre campagne di disinformazione orientate agli obiettivi.

Questo rende molto più facile sia per i partiti politici che per gli Stati nazione portare avanti operazioni di influenza.

I modelli linguistici generativi possono anche essere abbinati a tecnologie deepfake per condurre campagne che possono persino potenzialmente includere audio e video. Portate sui social media, questi tipi di strumenti possono creare un ambiente digitale molto difficile per gli elettori che vogliono conoscere la verità.

Quando si considera l’IA generativa nelle campagne, l’impatto reale sarà al di fuori delle campagne presidenziali. Dopotutto, le campagne presidenziali dispongono di molti soldi.

Secondo la Commissione federale delle elezioni, “I candidati presidenziali hanno raccolto e speso 4,1 miliardi di dollari nei 24 mesi del ciclo elettorale 2019-2020”. Secondo Open Secrets, che monitora le spese elettorali, il candidato medio al Senato degli Stati Uniti ha speso 15,7 milioni di dollari, mentre il candidato medio alla Camera dei rappresentanti ha speso 2 milioni di dollari nelle elezioni del 2018.

Alcune campagne locali dispongono di budget di campagna relativamente grandi. Ad esempio, guardando alle elezioni del 2024 per il Consiglio comunale di Los Angeles e il Distretto scolastico unificato di Los Angeles, il candidato del Consiglio comunale del Distretto 2 Adrin Nazarian ha già raccolto 432.000 dollari, mentre il candidato del Distretto 3 di LAUSD Janie Dam ha già raccolto 38.000 dollari.

Ora, tenete presente che il Distretto 2 di Los Angeles aveva una popolazione nel 2020 di 793.342 persone. Nel complesso, la contea di Los Angeles stessa ha una popolazione di 9,7 milioni di persone. Al contrario, la piccola città rurale storica in cui vivo qui in Oregon ha una popolazione di meno di 10.000 persone.

Inoltre: Rilevamento di deepfake in tempo reale: come Intel Labs utilizza l’IA per combattere la disinformazione

Le campagne più piccole, specialmente le campagne nelle città delle dimensioni della mia, dispongono di risorse molto più limitate rispetto alle campagne nazionali. Gli strumenti di IA generativa possono offrire alle campagne più piccole strumenti di analisi precedentemente disponibili solo alle campagne con budget a sei e sette cifre.

Quindi, mentre è certo che le campagne presidenziali utilizzeranno l’IA per mettere in situazioni compromettenti i candidati avversari (o, almeno, ritrarli in un modo che i sostenitori preferirebbero condividere sui social media), ci si aspetta di vedere il maggior impatto dell’IA generativa molto più in basso nella lista.

Rimanete sintonizzati, perché mentre i trucchi sporchi delle campagne sono sempre esistiti, sicuramente ne vedremo di più ora che tutti hanno accesso agli strumenti che rendono incredibilmente facile perpetrarli.

Tutto questo ti fa venire voglia di piangere? Beh, ricorda: George Washington ha pianto qui.


Puoi seguire gli aggiornamenti del mio progetto giorno per giorno sui social media. Assicurati di iscriverti alla mia newsletter settimanale di aggiornamenti su Substack e seguimi su Twitter a @DavidGewirtz, su Facebook su Facebook.com/DavidGewirtz, su Instagram su Instagram.com/DavidGewirtz e su YouTube su YouTube.com/DavidGewirtzTV.