IA e tu Sam Altman di OpenAI è stato licenziato, la crescita degli interpreti sintetici

L'IA e tu Sam Altman di OpenAI licenziato per la crescita degli esseri sintetici.

La sapienza convenzionale nel giornalismo è che quando un’azienda emette un comunicato il venerdì pomeriggio, di solito non si tratta di buone notizie.

E così è successo che OpenAI ha annunciato il 17 novembre che aveva licenziato il co-fondatore e CEO Sam Altman e l’avvocato capo per il chatbot generativo di IA ChatGPT dell’azienda. Il consiglio ha chiesto ad Altman di dimettersi perché non aveva più fiducia nella sua capacità di guidare l’azienda con sede a San Francisco, secondo un post sul blog in cui OpenAI ha annunciato la transizione della sua direzione.

“La partenza del Signor Altman segue un processo di revisione ponderato da parte del consiglio, che ha concluso che non era costantemente sincero nelle sue comunicazioni con il consiglio, ostacolando la sua capacità di esercitare le proprie responsabilità. Il consiglio non ha più fiducia nella sua capacità di continuare a guidare OpenAI.”

Ahi. Immagino che non sarà lì per festeggiare il primo anniversario di ChatGPT il 30 novembre.

I membri del consiglio che hanno licenziato Altman sono il capo scienziato di OpenAI Ilya Sutskever e i direttori indipendenti di OpenAI, il CEO di Quora Adam D’Angelo, l’imprenditore tecnologico Tasha McCauley e Helen Toner del Georgetown Center for Security and Emerging Technology. Mira Murati, il direttore della tecnologia dell’azienda, è stato nominato CEO ad interim mentre OpenAI cerca un sostituto permanente per Altman. Greg Brockman, co-fondatore, lascerà il ruolo di presidente del consiglio, ha anche annunciato l’azienda venerdì.

OpenAI mi ha detto che non ha commenti aggiuntivi e mi ha rimandato al suo post sul blog.

Questo è davvero un grande affare nell’industria dell’IA, dato che Altman è stato il volto dell’IA generativa dei chatbot, dal promuovere il potenziale di ChatGPT per aiutare gli avanzamenti nell’abilità umana a chiedere ai regolatori di proporre legislazioni per aiutare le aziende a capire come continuare a innovare proteggendosi anche dalle potenziali minacce per la sicurezza, la privacy e l’umanità generate da cattivi attori. Secondo Similarweb, ChatGPT è lo strumento di IA generativa più visitato, con oltre 1,5 miliardi di visite nel mese di ottobre.

Il New York Times ha detto che questo è stato un “impressionante calo per Mr. Altman, 38 anni, che nell’ultimo anno si era trasformato in uno degli esecutivi più prominenti dell’industria tecnologica e uno dei personaggi più affascinanti.” CNN ha descritto Altman come una “celebrità improvvisa e il volto di una nuova generazione di strumenti di IA in grado di generare immagini e testi in risposta a semplici richieste degli utenti”. The Guardian ha descritto l’uscita di Altman come una “rivelazione nel mondo dell’IA”. Ha sottolineato che è stato licenziato per “presunte bugie al consiglio della sua azienda”, ma che “non era chiaro cosa Altman avesse nascosto al consiglio della sua azienda.”

“Nella Silicon Valley, Altman è stato a lungo riconosciuto come un investitore intelligente e sostenitore di aziende più piccole, ma la crescita di OpenAI lo ha catapultato nella lega dei titani della tecnologia insieme a Musk, il CEO di Meta Mark Zuckerberg e persino al defunto Apple CEO Steve Jobs”, ha osservato The Washington Post. “Ancora giovedì, Altman stava interpretando il ruolo di CEO, parlando sul palco al summit dell’Asia-Pacific Economic Cooperation a San Francisco.”

Ho chiesto a ChatGPT cosa potesse dirmi riguardo al consiglio di amministrazione di OpenAI e alla sua decisione di licenziare il CEO Sam Altman. Mi ha chiesto scusa per non poter rispondere perché non ha accesso a notizie in tempo reale o informazioni specifiche sugli eventi recenti. (La sua formazione va fino a settembre 2021.) Ha descritto Altman come un “imprenditore e investitore americano”.

D’altra parte, Altman, che è diventato CEO nel 2020 dopo aver contribuito a fondare OpenAI inizialmente come organizzazione non profit nel 2015 con il sostegno dei miliardari della tecnologia Elon Musk, Peter Thiel e Reid Hoffman, ha dichiarato in un post su X (nota anche come Twitter) che “ho amato il mio tempo a openai. è stato trasformativo per me personalmente e spero anche per il mondo, almeno un po’. Soprattutto, ho amato lavorare con persone così talentuose.”

Ha aggiunto che “avrò qualcosa da dire sul futuro più avanti”.

In termini giornalistici, questo significa che si tratta di una storia in evoluzione. Restate sintonizzati.

Ecco altre notizie sull’Intelligenza Artificiale che meritano la vostra attenzione.

Cloni, duplicati digitali e attori sintetici

Una preoccupazione riguardo all’IA generativa è come la tecnologia possa essere utilizzata per copiare persone reali e illudervi che quella persona stia dicendo o facendo qualcosa che in realtà non sta facendo. Questo è il problema dei deepfake, che come suggerisce il nome sono intesi a ingannare o confondere. L’attore Tom Hanks ha avvertito nell’ottobre scorso che un clone di intelligenza artificiale stava promuovendo piani dentali in una pubblicità non autorizzata. Mentre presentava il suo Decreto Esecutivo con linee guida sullo sviluppo e l’uso dell’IA, il presidente Joe Biden ha scherzato su un sosia deepfake che imitava la sua voce.

Ma oltre alle pubblicità e alle campagne di disinformazione, attori e artisti di Hollywood sono preoccupati che l’IA generativa possa essere utilizzata da studi cinematografici e creatori di contenuti per creare doppi digitali o attori sintetici anziché utilizzare (e pagare) esseri umani. Questo rimane un problema anche dopo che è stato risolto lo sciopero di Hollywood con gli attori, accordo che comprende limitazioni sull’uso dell’IA generativa nell’industria e che richiede agli attori di dover dare il loro consenso ai produttori che desiderano creare e utilizzare le loro repliche digitali.

Justine Bateman, l’attrice che ha svolto il ruolo di consulente sindacale per le negoziazioni sull’IA generativa con Hollywood, ha così riassunto il problema più ampio in un post su X (precedentemente noto come Twitter) all’inizio di questa settimana.

“Vincere un’audizione potrebbe diventare molto difficile, perché non sarai solo a competere con gli attori disponibili che sono simili al tuo tipo, ma ora dovrai competere con ogni attore, vivo o morto, che ha reso disponibile il suo ‘doppio digitale’ in diverse età per adattarsi al personaggio,” ha scritto Bateman. “Scriverà Bateman. “Dovrai anche competere con un numero infinito di Oggetti di IA che gli studi/streamer possono utilizzare liberamente. E un intero cast di Oggetti di IA invece di attori umani elimina la necessità di un set o di una qualsiasi troupe.”

Quanto è facile utilizzare l’IA per generare doppi digitali e attori sintetici? Vi elenco tre interessanti sviluppi sull’IA delle scorse settimane che mettono in luce il problema.

Il primo proviene da Charlie Holtz, un “hacker in residenza” presso Replicate, una start-up di apprendimento automatico, che ha creato un clone di IA del biologo e storico britannico Sir David Attenborough, ha riportato Insider. In un post su X, Holtz ha mostrato come sia riuscito a replicare la voce distintiva del documentarista. Il risultato: “Ecco cosa succede quando David Attenborough narra la tua vita.”

Holtz ha condiviso liberamente il codice per assumere la voce di Attenborough. Al momento in cui scrivo, Attenborough non ha risposto alla richiesta di commento di Insider, ma l’esperimento di Holtz ha registrato più di 3,5 milioni di visualizzazioni. Un commentatore ha detto di essere ansioso di sentire Attenborough “raccontare i video del mio bambino mentre impara a mangiare il broccoli”.

Il secondo strumento sperimentale è chiamato Dream Track di YouTube, che consente di creare tracce musicali clonando le voci di nove musicisti – inclusi John Legend, Demi Lovato e Sia – previa autorizzazione. Creato in collaborazione con il laboratorio di intelligenza artificiale DeepMind di Google, Dream Track viene testato da un gruppo selezionato di creatori statunitensi che possono creare una colonna sonora per i loro video shorts di YouTube digitando la loro idea per la canzone in un prompt e quindi scegliendo uno degli artisti. Lo strumento creerà quindi una colonna sonora originale per i video shorts con la voce generata dall’intelligenza artificiale dell’artista.

“Partecipare all’esperimento di Dream Track di YouTube è un’opportunità per contribuire a plasmare le possibilità future”, ha detto Legend in una testimonianza pubblicata su un blog di YouTube. “Come artista, sono felice di avere un posto a tavola e non vedo l’ora di vedere cosa i creatori inventano durante questo periodo”.

Charli XCX sembrava un po’ più cauta nel suo sostegno. “Quando YouTube mi ha contattato per la prima volta, ero cauta e lo sono ancora, l’intelligenza artificiale trasformerà il mondo e l’industria musicale in modi che ancora non capiamo appieno. Questo esperimento offrirà una piccola visione delle opportunità creative che potrebbero essere possibili e sono interessata a vedere cosa ne verrà fuori”.

È possibile ascoltare un esempio con T-Pain generato dal prompt: “una mattina di sole in Florida, R&B.” Un altro clona Charlie Puth e produce “una ballata su come gli opposti si attraggono, acustico allegro.”

La notizia su Dream Track è arrivata contemporaneamente all’annuncio di YouTube sulle linee guida per una “innovazione responsabile dell’intelligenza artificiale” sulla sua piattaforma. I creatori di video dovranno selezionare alcune etichette di contenuto quando caricheranno un video per divulgare se “contiene materiale realistico alterato o sintetico… Questo è particolarmente importante nei casi in cui il contenuto tratta argomenti sensibili, come elezioni, conflitti in corso, crisi sanitarie o pubblici ufficiali”.

Il terzo insieme di tecnologia genAI che sto evidenziando proviene da Meta, Emu Video e Emu Edit. Un “semplice” strumento di generazione di video da testo, Emu Video consente di creare un breve video animato di 4 secondi, a 16 frame al secondo, utilizzando solo testo, solo immagine o sia testo che immagine. Emu Edit offre un modo semplice per modificare quelle immagini. Puoi vedere tu stesso come funziona.

Lo strumento dimostrativo di Meta ti consente di scegliere tra un set di immagini – un panda con gli occhiali da sole, un corgi gallese Pembroke a cervo, tra gli altri – e poi puoi selezionare i suggerimenti forniti per far apparire il tuo personaggio a Central Park o sott’acqua, camminare a rallentatore o fare skateboard in uno stile fotorealistico o Manga Anime. Io ho scelto il gatto che balla energicamente a Times Square in stile illustrazione di carta ritagliata. 

Meta’s Emu Video ti consente di creare un video animato di 4 secondi selezionando un set di immagini e descrizioni basate su testo. Io ho scelto il gatto che balla energicamente a Times Square in stile illustrazione di carta ritagliata.

Software Emu Video di Meta

Potresti pensare, “oh, è un modo facile per creare un GIF”. Ma in un futuro non troppo lontano, potrai inserire tutti i tipi di personaggi nello strumento e con solo poche parole, creare un breve filmato.

Have AI, will travel? In un certo senso

Uno dei casi d’uso più popolari per i chatbot è quello di aiutare con la pianificazione dei viaggi, un processo lungo e laborioso per mappare un itinerario dettagliato. E sebbene ci siano molti rapporti aneddotici sul successo di genAI nel fare quel lavoro per te, Katie Collins di ENBLE ci ricorda che la mappatura di un itinerario riguarda più che creare solo una lista di luoghi da vedere e cose da fare.

“I migliori itinerari collegheranno la tua giornata in un modo che abbia senso geograficamente e tematicamente”, ha scritto Collins riguardo alla mappatura di un tour della sua città natale, Edimburgo, Scozia, un luogo che, dice di conoscere bene. Si è affidata a strumenti come ChatGPT, GuideGeek, Roam Around, Wonderplan, Tripnotes e l’app Out of Office, o OOO.

“Il percorso tra l’attrazione A e l’attrazione B farà parte del divertimento, portandoti lungo una strada pittoresca o offrendoti una vista sorprendente che altrimenti non avresti mai visto. Sarà anche ben ritmato, tenendo conto che arrivati alla terza galleria del giorno, anche i più colti tra noi probabilmente si sentiranno affaticati dal museo”, ha detto.

Quindi, mentre i chatbot possono generare liste di attrazioni ben note e popolari, Collins ha detto che “ben pochi degli itinerari che ho chiesto ad AI di creare per Edimburgo rispettano questo requisito” e “il fatto che l’IA utilizzi dati storici la rende incredibilmente retrospettiva”, il che potrebbe portarti in luoghi che non esistono più.

Quindi, come accade con la maggior parte di genAI, dovrai controllare due volte, verificare e fare incroci di dati su ciò che l’AI ti sta dicendo prima di partire. Collin avverte: “Questo vale per tutto ciò che ti dice”.

Di quanto stiamo parlando di allucinazioni?

La storia di Collins mi ha ricordato tutto il problema delle “hallucination” (allucinazioni) – quando i chatbot forniscono risposte alle tue domande che non sono vere ma sembrano tali – che rimane un problema molto presente per i grandi modelli linguistici come ChatGPT e Google Bard.

Ricercatori di una startup chiamata Vectara, fondata da ex dipendenti di Google, hanno cercato di quantificare quanto sia un problema e hanno scoperto che “i chatbot inventano informazioni almeno il 3% del tempo – e fino al 27%”, ha riferito il New York Times.

Vectara sta ora pubblicando una “Hallucination Leaderboard”, che valuta quanto spesso l’LLM fa allucinare quando riassume un documento. Al 1 novembre, ha dato il punteggio più alto a GPT 4 di OpenAI (tasso di allucinazione del 3%) e i punteggi più bassi alla tecnologia Palm 2 di Google, che aveva un tasso di allucinazione del 27,2%. La classifica verrà aggiornata “regolarmente man mano che il nostro modello e gli LLM vengono aggiornati nel tempo”, ha detto l’azienda.

Microsoft presenta il proprio chip AI

Microsoft ha introdotto il primo di una serie di acceleratori Maia per l’AI, affermando che ha progettato il chip per alimentare il proprio business cloud e i servizi software in abbonamento e non per rivenderli ad altri fornitori, secondo quanto riferito da CNBC, Reuters e ENBLE.

“Il chip Maia è stato progettato per eseguire grandi modelli linguistici, un tipo di software di intelligenza artificiale che sottende Azure OpenAI di Microsoft ed è un prodotto della collaborazione di Microsoft con OpenAI, creatore di ChatGPT”, ha detto Reuters. “Microsoft e altri giganti della tecnologia come Alphabet (GOOGL.O) si stanno confrontando con l’alto costo di offrire servizi di intelligenza artificiale, che può essere 10 volte superiore rispetto ai servizi tradizionali come i motori di ricerca”.

CNBC, citando un’intervista alla vicepresidente aziendale di Microsoft, Rani Borkar, ha osservato che “Microsoft sta testando come Maia 100 si adatti alle esigenze dell’IA chatbot del motore di ricerca Bing (ora chiamato Copilot anziché Bing Chat), dell’assistente alla codifica GitHub Copilot e di GPT-3.5-Turbo, un grande modello linguistico di OpenAI supportato da Microsoft”, citando un’intervista alla vicepresidente aziendale di Microsoft, Rani Borkar.

Il Maia 100 ha 105 miliardi di transistor, rendendolo “uno dei chip più grandi sulla tecnologia di processo a 5 nanometri”, facendo riferimento alla dimensione delle più piccole strutture del chip, cinque miliardesimi di metro,” ha detto ENBLE.

Termine dell’IA della settimana: Apprendimento profondo

Quando si parla di IA, si potrebbe sentire parlare di come essa imiti (o non imiti) il cervello umano. Ecco perché appare il termine “apprendimento profondo”. Ecco due definizioni, la prima delle quali è una spiegazione diretta da Coursera.

Apprendimento profondo: Una funzione dell’IA che imita il cervello umano apprendendo da come struttura e elabora le informazioni per prendere decisioni. Invece di fare affidamento su un algoritmo che può eseguire solo un compito specifico, questa sotto-categoria del machine learning può imparare dai dati non strutturati senza supervisione.”

La seconda definizione proviene da IBM, che offre anche una spiegazione su come funziona l’apprendimento profondo.

“Apprendimento profondo: Una sotto-categoria del machine learning, che è essenzialmente una rete neurale con tre o più livelli. Queste reti neurali cercano di simulare il comportamento del cervello umano, sebbene lontane dalla sua capacità, consentendo loro di “imparare” da grandi quantità di dati. Mentre una rete neurale con un solo livello può fare previsioni approssimative, strati nascosti aggiuntivi possono aiutare ad ottimizzare e raffinare l’accuratezza.

L’apprendimento profondo alimenta molte applicazioni e servizi di intelligenza artificiale che migliorano l’automazione, eseguono compiti analitici e fisici senza intervento umano. La tecnologia di apprendimento profondo si trova dietro prodotti e servizi comuni (come assistenti digitali, telecomandi TV abilitati al riconoscimento vocale e rilevamento delle frodi con carta di credito) così come le tecnologie emergenti (come le auto a guida autonoma).”

Nota degli editori: ENBLE sta utilizzando un motore di intelligenza artificiale per aiutare a creare alcune storie. Per ulteriori informazioni, consultare questo post.