AI e Tu Big Tech va a Washington DC, Google affronta gli annunci politici ‘sintetici

AI e Big Tech a Washington DC, Google contro gli annunci politici 'sintetici'.

Il senatore Chuck Schumer ha invitato i leader delle grandi aziende tecnologiche a un Forum Insight sull’IA a Washington, DC, mentre gli Stati Uniti cercano di capire come regolamentare l’intelligenza artificiale. Le riunioni a porte chiuse previste per il 13 settembre si concentreranno sui rischi e sulle opportunità future mentre il pubblico continua ad abbracciare strumenti come ChatGPT di OpenAI e Bard di Google.

I dirigenti che si prevede parteciperanno includono alcuni dei principali leader tecnologici (maschi). I CEO includono Sam Altman di OpenAI, Mark Zuckerberg di Meta, Sayta Nadella di Microsoft, Sundar Pichai di Alphabet/Google, Elon Musk di Tesla e Jensen Huang di Nvidia, secondo Reuters. Schumer ha detto che il forum sarà il primo di una serie di discussioni bipartisan che si terranno questo autunno e che i colloqui saranno “di alto livello, diversi, ma soprattutto equilibrati”.

“Legiferare sull’IA non sarà certamente facile”, ha detto Schumer in un discorso del 6 settembre pubblicato sul sito web dei Democratici del Senato. “In effetti, sarà una delle cose più difficili che abbiamo mai affrontato, ma non possiamo comportarci come struzzi che infilano la testa nella sabbia quando si tratta di IA”.

“I nostri forum Insight sull’IA”, ha detto Schumer, “riuniranno alcune delle principali voci dell’IA in America, provenienti da diversi ambiti di vita e da molti punti di vista diversi. Dirigenti e leader dei diritti civili. Ricercatori, sostenitori, voci del lavoro, della difesa, del business e delle arti”.

Mentre il Regno Unito e l’Unione Europea procedono con gli sforzi per regolamentare la tecnologia dell’IA, lo scorso anno la Casa Bianca ha proposto una bozza di una Carta dei Diritti dell’IA, che merita una lettura se non l’hai ancora vista. È stata creata dall’Ufficio per la Scienza e la Tecnologia della Casa Bianca e ha cinque principi fondamentali. Gli americani, si legge:

  • Dovrebbero essere protetti da sistemi insicuri o inefficaci.

  • Non dovrebbero subire discriminazioni da algoritmi e i sistemi dovrebbero essere utilizzati e progettati in modo equo.

  • Dovrebbero essere protetti da pratiche abusive di dati tramite protezioni integrate e dovrebbero avere il controllo su come i dati che li riguardano vengono utilizzati.

  • Dovrebbero sapere che un sistema automatizzato viene utilizzato e capire come e perché contribuisce a risultati che li riguardano.

  • Dovrebbero poter scegliere di non partecipare, quando appropriato, e avere accesso a una persona in grado di considerare e risolvere rapidamente i problemi che incontrano.

Ecco altre novità nell’IA che meritano attenzione.

Google vuole che i contenuti “sintetici” siano etichettati negli annunci politici

Con strumenti generativi di IA facili da usare che portano a un aumento degli annunci politici fuorvianti, come riportato da Oscar Gonzalez di ENBLE, Google ha aggiornato questa settimana la sua politica sui contenuti politici per richiedere che gli inserzionisti elettorali “rivelino in modo prominente quando i loro annunci contengono contenuti sintetici che rappresentano in modo non autentico persone o eventi reali o realistici”.

Google vieta già i “deepfake”, cioè immagini manipolate dall’IA che sostituiscono la somiglianza di una persona con quella di un’altra persona nel tentativo di ingannare o fuorviare lo spettatore. Ma questa politica aggiornata si applica all’uso dell’IA per manipolare o creare immagini, video e audio in modo più limitato. Vengono citate diverse tecniche di modifica, tra cui “ridimensionamento dell’immagine, ritaglio, correzioni di colore o luminosità, correzione dei difetti (ad esempio, rimozione degli “occhi rossi”) o modifiche di sfondo che non creano rappresentazioni realistiche di eventi effettivi”. La nuova politica è spiegata qui.

Cosa significa tutto questo in realtà? Dato quanto sia facile utilizzare strumenti come ChatGPT di OpenAI e Dall-E 2 per creare contenuti realistici, la speranza qui è che obbligando i creatori di contenuti a dichiarare esplicitamente che il loro annuncio contiene immagini, testi o audio falsi, possano essere più attenti a quanto spingono le loro manipolazioni. Specialmente se vogliono condividerli su popolari siti di Google, inclusi YouTube, che raggiunge più di 2,5 miliardi di persone al mese.

Avere un’etichetta prominente su un annuncio manipolato dall’IA – l’etichetta deve essere chiara e visibile in un luogo “probabilmente notato dagli utenti”, ha detto Google – potrebbe aiutarci a capire la veridicità dei messaggi che stiamo vedendo. (Anche se il fatto che alcune persone credano ancora che le elezioni del 2020 siano state rubate nonostante ciò sia falso suggerisce che gli esseri umani vogliano credere a ciò che vogliono credere, a prescindere dai fatti).

“L’aggiornamento della politica arriva mentre la stagione delle campagne per le elezioni presidenziali statunitensi del 2024 si intensifica e mentre un certo numero di paesi in tutto il mondo si prepara per le proprie importanti elezioni nello stesso anno”, ha riportato CNN sull’aggiornamento della politica di Google. “Esperti di integrità delle informazioni digitali hanno lanciato l’allarme che questi nuovi strumenti di IA potrebbero portare a una serie di disinformazione elettorale che i social media e i regolatori potrebbero essere impreparati a gestire”.

Google dice che sta cercando di contrastare due cose: in primo luogo, sta cercando di fermare gli annunci politici che sembrano “come se una persona stesse dicendo o facendo qualcosa che non ha detto o fatto”; in secondo luogo, si propone di impedire qualsiasi annuncio “che altera le immagini di un evento reale o genera una rappresentazione realistica di un evento per raffigurare scene che non si sono realmente verificate”. Penso che qualsiasi persona ragionevole sarebbe d’accordo sul fatto che queste non sono buone caratteristiche di un annuncio politico.

I critici potrebbero dire che si tratta solo di un piccolo passo nel contrastare le informazioni errate, ma almeno è un passo avanti.

Come l’IA cambierà il futuro del lavoro

Sono stati pubblicati molti, molti rapporti che evidenziano come l’IA generativa porterà alla fine di certi lavori, riscriverà altri lavori e creerà nuove categorie di lavori, come ho notato riassumendo numerosi rapporti sull’argomento.

Ecco un’analisi del 16 luglio di McKinsey and Co. che esamina “L’IA generativa e la figura del lavoro in America” fino al 2030, incluso quali lavori saranno richiesti e quali scompariranno. Il rapporto di 76 pagine identifica “occupazioni resilienti e in crescita”, così come occupazioni da cui i lavoratori si sono già allontanati (come servizio clienti, vendite e servizi alimentari).

Due conclusioni: il 30% delle ore lavorate oggi potrebbe essere automatizzato entro il 2030, il che significa che le descrizioni dei lavori dovranno essere modificate per evidenziare come i lavoratori potrebbero utilizzare il loro tempo. E le nuove competenze richieste in un mondo orientato all’IA, in un momento in cui la forza lavoro complessiva negli Stati Uniti si sta riducendo, significano che “i datori di lavoro dovranno assumere in base alle competenze invece che alle credenziali, reclutare dalle popolazioni trascurate (come i lavoratori rurali e le persone con disabilità) e fornire formazione che tenga il passo con le loro esigenze in evoluzione”, ha detto McKinsey.

Confronto tra performer e IA

Senza dubbio hai letto storie su come un’IA potrebbe sostituire un lavoro o farlo in modo diverso rispetto a un essere umano, specialmente quando si tratta di scrivere o creare immagini. Ad agosto, il New York Times ha esaminato come l’IA se la cava contro i comici. TL;DR: I comici non devono preoccuparsi ancora, poiché la maggior parte delle IA sono imitazioni piuttosto che creatori e la comicità “dipende dalla novità e dalla sorpresa”.

Ciò è stato confermato anche da Katie Collins di ENBLE dopo aver partecipato al più grande festival d’arte del mondo. Circa il 20% dei 40 spettacoli che ha visto al festival di Edimburgo in Scozia erano “riguardo all’IA, facevano riferimento ad essa o erano in qualche modo co-creati da essa”.

“Sono andata al festival di Edimburgo quest’anno chiedendomi se gli spettacoli sull’IA potessero utilizzare la tecnologia in modi nuovi che mi impressionassero o mi dessero una prospettiva diversa sulla tecnologia”, ha scritto Collins.

“La risposta breve: l’IA ha ancora molta strada da fare prima di poter competere con i performer umani nel deliziare e divertire il pubblico… Anche il modo in cui noi, semplici mortali, prendiamo in giro l’IA, la esaminiamo, la ammiriamo e ridiamo di essa continuerà a evolversi, ed è importante. Come si può mai pretendere che l’IA impari ciò che troviamo veramente divertente se noi non lo facciamo?”

Per il gusto di farlo (gioco di parole inteso), ho chiesto a ChatGPT quale fosse la barzelletta più divertente che avesse mai sentito. Ecco cosa ho ottenuto:

Come modello di linguaggio IA, non ho esperienze o opinioni personali, quindi non ho una barzelletta “più divertente” che abbia sentito. Tuttavia, posso generare una barzelletta casuale per te:

Perché gli scienziati non si fidano degli atomi?

Perché costituiscono tutto!

Ehi ChatGPT, gli atomi non sono gli unici che inventano cose.

OpenAI raccoglie un miliardo, Apple investe miliardi in IA

La popolarità di ChatGPT di OpenAI sta facendo sì che l’azienda raggiunga un miliardo di dollari di vendite annuali, anche se i visitatori del chatbot sono diminuiti per il terzo mese consecutivo ad agosto.

La startup, supportata da Microsoft, Khosla Ventures, A16z, Sequoia Ventures, gli investitori Reid Hoffman e altri, sta guadagnando circa 80 milioni di dollari di ricavi al mese dopo aver guadagnato 28 milioni di dollari per tutto il 2022 e aver perso 540 milioni di dollari nello sviluppo di GPT-4 e ChatGPT, secondo The Information. Il sito di notizie ha affermato che OpenAI ha rifiutato di commentare.

Da dove arriva quel denaro? OpenAI guadagna denaro concedendo in licenza la sua tecnologia IA alle imprese e offrendo abbonamenti a ChatGPT alle persone, che pagano 20 dollari al mese per una versione “Plus” che l’azienda afferma essere più veloce e sicura rispetto all’offerta gratuita. The Information ha riferito che fino a marzo, OpenAI ha tra 1 milione e 2 milioni di abbonati individuali.

Ma la popolarità di ChatGPT non significa necessariamente grandi profitti per OpenAI, ha osservato Fortune. “Anche se inizia a generare profitti, OpenAI non potrà sfruttare appieno il suo successo per un certo periodo di tempo”, ha detto Fortune. “Le condizioni del suo accordo di quest’anno con Microsoft danno all’azienda dietro Windows il diritto al 75% dei profitti di OpenAI fino a quando non recupera i 13 miliardi di dollari investiti fino ad oggi”.

Nel frattempo, Apple sta “aumentando il suo budget di calcolo per la costruzione dell’intelligenza artificiale a milioni di dollari al giorno”, ha riferito The Information, aggiungendo che Apple lavora da quattro anni allo sviluppo di un modello di linguaggio genAI di grandi dimensioni.

“Uno dei suoi obiettivi è sviluppare funzionalità come quella che consente ai clienti iPhone di utilizzare comandi vocali semplici per automatizzare compiti che coinvolgono più passaggi, secondo persone a conoscenza dello sforzo”, ha detto The Information. “La tecnologia, ad esempio, potrebbe consentire a qualcuno di dire all’assistente vocale Siri sul proprio telefono di creare un GIF utilizzando le ultime cinque foto scattate e inviarla a un amico. Oggi, un utente di iPhone deve programmare manualmente le singole azioni”.

Al momento sarei solo felice se Siri capisse quello che dico la prima volta.

Il ghostwriter di Heart on My Sleeve vuole un contratto discografico

Ad aprile, l’industria musicale – e gli autori di canzoni – erano preoccupati per un brano chiamato Heart on My Sleeve creato da un autore sconosciuto chiamato Ghostwriter che utilizzava versioni false delle voci di Drake e The Weeknd generate dall’IA. Considerata una mossa di marketing brillante, la canzone ha accumulato milioni di ascolti prima di essere rimossa dai servizi di streaming. La questione non era la qualità musicale della canzone (meh), ma le implicazioni di copyright e legali su chi avrebbe ottenuto i diritti d’autore per questo tipo di copia generata dall’IA, che gli analisti dell’epoca hanno definito uno dei “più recenti e rumorosi esempi di un genere grigio in espansione: utilizzare l’IA generativa per sfruttare suoni che possono essere fatti passare per autentici”.

Ora arriva la notizia che Ghostwriter e il suo team si sono incontrati con “etichette discografiche, leader tecnologici, piattaforme musicali e artisti per capire al meglio come sfruttare i poteri dell’IA, incluso un dibattito virtuale organizzato quest’estate dalla Recording Academy, l’organizzazione dietro i Grammy Awards”, ha riferito The New York Times questa settimana.

Ghostwriter ha pubblicato una nuova traccia, chiamata Whiplash, che utilizza filtri vocali dell’IA per imitare le voci dei rapper Travis Scott e 21 Savage. Puoi ascoltarla su Twitter (ora conosciuto come il servizio chiamato X) e guardare mentre una persona avvolta in un lenzuolo bianco si siede su una sedia dietro il messaggio: “Ho usato l’IA per creare una canzone di Travis Scott feat. 21 Savage… il futuro della musica è qui. Chi vuole essere il prossimo?”

“Ho capito subito appena ho sentito quella registrazione che sarebbe stata una cosa con cui avremmo dovuto confrontarci dal punto di vista dell’Academy, ma anche dal punto di vista della comunità musicale e dell’industria”, ha detto Harvey Mason Jr., che guida la Recording Academy, al Times. “Quando vedi coinvolta l’IA in qualcosa di così creativo e così bello, rilevante e attuale, inizia immediatamente a farti pensare: ‘Ok, dove sta andando tutto questo? Come influenzerà la creatività? Quali saranno le implicazioni commerciali per la monetizzazione?'”

Un portavoce di Ghostwriter ha detto al Times che Whiplash, come Heart on My Sleeve, “era una composizione originale scritta e registrata da esseri umani. Ghostwriter ha cercato di corrispondere al contenuto, alla consegna, al tono e alla fraseologia delle stelle consolidate prima di utilizzare componenti di IA”.

TL;DR: Quel genere grigio potrebbe diventare verde se le case discografiche e gli artisti coinvolti accettano la proposta del team di Ghostwriter di pubblicare ufficialmente queste canzoni e trovare un accordo di licenza.

Chi fa parte del movimento dell’IA

Questa settimana, la rivista Time ha pubblicato per la prima volta una lista delle 100 persone più influenti che lavorano nell’ambito dell’IA. Si tratta di un mix di persone del mondo degli affari, tecnologi, influencer e accademici. Ma la cosa più importante sottolineata da Time riguarda il ruolo degli esseri umani nel processo.

Ha detto Time: “Dietro ogni avanzamento nell’apprendimento automatico e nei modelli di linguaggio di grandi dimensioni ci sono, infatti, persone: sia il lavoro umano spesso oscurato che rende i modelli di linguaggio di grandi dimensioni più sicuri da utilizzare, sia gli individui che prendono decisioni cruciali su quando e come utilizzare al meglio questa tecnologia”.

Frasi dell’IA della settimana: etica dell’IA

Con le domande su chi possiede cosa quando si tratta di contenuti generati dall’IA, su come l’IA dovrebbe essere utilizzata in modo responsabile e sulla determinazione delle linee guida attorno alla tecnologia per prevenire danni agli esseri umani, è importante comprendere l’intero dibattito sull’etica dell’IA. La spiegazione di questa settimana è offerta da IBM, che ha anche un pratico centro risorse sull’argomento:

“Etica dell’IA: L’etica è un insieme di principi morali che ci aiutano a discernere tra il giusto e il torto. L’etica dell’IA è un campo multidisciplinare che studia come ottimizzare l’impatto positivo dell’IA riducendo al contempo i rischi e gli esiti negativi. Esempi di questioni etiche dell’IA includono la responsabilità dei dati e la privacy, l’equità, la spiegabilità, la robustezza, la trasparenza, la sostenibilità ambientale, l’inclusione, l’agenzia morale, l’allineamento dei valori, la responsabilità, la fiducia e l’abuso della tecnologia.”

Nota degli editori: ENBLE sta utilizzando un motore di intelligenza artificiale per aiutare a creare alcune storie. Per ulteriori informazioni, consulta questo post.