Cosa vuole davvero OpenAI

OpenAI's true intentions

L’aria frizzante è pervasa da un’energia quasi Beatlemaniac mentre la star e il suo seguito si tuffano in un furgone Mercedes in attesa. Hanno appena lasciato un evento e si dirigono verso un altro, poi un altro, dove una folla frenetica li attende. Mentre sfrecciano per le strade di Londra, dal breve tragitto da Holborn a Bloomsbury, è come se stessero navigando uno dei momenti prima e dopo della civiltà. La forza che fa la storia personificata all’interno di questa macchina ha catturato l’attenzione del mondo. Tutti ne vogliono un pezzo, dagli studenti che hanno aspettato in fila al primo ministro.

All’interno del lussuoso furgone, mentre divora un’insalata, c’è il 38enne imprenditore Sam Altman, cofondatore di OpenAI; una persona delle relazioni pubbliche; uno specialista della sicurezza; e io. Altman indossa infelicemente un completo blu con una camicia da uomo senza cravatta mentre si precipita attraverso Londra come parte di un giro globale di un mese attraverso 25 città su sei continenti. Mentre ingurgita il suo verde – oggi niente tempo per un pranzo seduto – riflette sul suo incontro della sera precedente con il presidente francese Emmanuel Macron. Persona piuttosto brava! E molto interessato all’intelligenza artificiale.

Come lo era il primo ministro della Polonia. E il primo ministro della Spagna.

Viaggiando con Altman, riesco quasi a sentire l’accordo suonare, ambiguo, che apre “A Hard Day’s Night” – introducendo il futuro. Lo scorso novembre, quando OpenAI ha rilasciato il suo grande successo, ChatGPT, ha scatenato una esplosione tecnologica non vista dall’avvento di Internet nelle nostre vite. Improvvisamente il test di Turing era storia, i motori di ricerca erano specie in via di estinzione, e nessun saggio universitario poteva più essere considerato affidabile. Nessun lavoro era sicuro. Nessun problema scientifico era immutabile.

Altman non ha fatto la ricerca, allenato la rete neurale o creato l’interfaccia di ChatGPT e il suo fratello più precoce, GPT-4. Ma come CEO – e un tipo sognatore/fattivo che assomiglia a una versione più giovane del suo cofondatore Elon Musk, senza il bagaglio – un articolo di notizie dopo l’altro ha utilizzato la sua foto come simbolo visivo della nuova sfida dell’umanità. Almeno quelli che non hanno utilizzato un’immagine strabiliante generata dal prodotto di intelligenza artificiale visiva di OpenAI, Dall-E. È l’oracolo del momento, la figura che le persone vogliono consultare per prima su come l’IA potrebbe inaugurare un’età dell’oro, o condannare gli esseri umani all’irrilevanza, o peggio.

Il furgone di Altman lo porta in quattro eventi in quel giorno di sole di maggio. Il primo è furtivo, una sessione fuori dal registro con il Round Table, un gruppo di rappresentanti del governo, dell’accademia e dell’industria. Organizzato all’ultimo minuto, si tiene al secondo piano di un pub chiamato Somers Town Coffee House. Sotto un ritratto minaccioso del birraio Charles Wells (1842-1914), Altman affronta le stesse domande che gli vengono poste da quasi ogni uditorio. L’IA ci ucciderà? Può essere regolamentata? E la Cina? Risponde a ognuna di esse in dettaglio, mentre lancia occhiate al telefono. Dopo quello, tiene una conversazione accanto al camino presso l’elegante Londoner Hotel di fronte a 600 membri dell’Oxford Guild. Da lì si dirige in una sala conferenze nel seminterrato dove risponde a ulteriori domande tecniche da circa 100 imprenditori e ingegneri. Ora è quasi in ritardo per una conversazione sul palco nel primo pomeriggio presso l’University College di Londra. Lui e il suo gruppo si fermano in una zona di carico e vengono condotti attraverso una serie di corridoi tortuosi, come il piano sequenza con la Steadicam in Goodfellas. Mentre camminiamo, il moderatore dice in fretta ad Altman cosa gli chiederà. Quando Altman sale sul palco, l’auditorium – affollato di accademici, appassionati di tecnologia e giornalisti estasiati – esplode.

Altman non è un cercatore di pubblicità naturale. Una volta ho parlato con lui subito dopo che The New Yorker ha pubblicato un lungo profilo su di lui. “Troppo su di me”, ha detto. Ma all’University College, dopo il programma formale, si immerge nella folla di persone che si sono avvicinate alla base del palco. I suoi assistenti cercano di posizionarsi tra Altman e la folla, ma lui li respinge. Risponde a una domanda dopo l’altra, ogni volta fissando attentamente il volto dell’interlocutore come se stesse sentendo la domanda per la prima volta. Tutti vogliono un selfie. Dopo 20 minuti, finalmente permette al suo team di tirarlo fuori. Poi si dirige a incontrare il primo ministro britannico Rishi Sunak.

Forse un giorno, quando i robot scriveranno la nostra storia, citerranno il tour mondiale di Altman come una pietra miliare nell’anno in cui tutti, contemporaneamente, hanno iniziato a fare i loro personali bilanci con la singolarità. Oppure, ancora, chiunque scriverà la storia di questo momento lo vedrà come un momento in cui un CEO silenziosamente affascinante con una tecnologia paradigma-sfondante ha tentato di iniettare una visione del mondo molto peculiare nella mente globale – da un quartier generale di quattro piani non contrassegnato nel quartiere Mission di San Francisco all’intero mondo.

Questo articolo appare nell’edizione di ottobre 2023. Iscriviti a ENBLE.

Fotografia: Jessica Chou

Per Altman e la sua azienda, ChatGPT e GPT-4 sono solo pietre miliari lungo il cammino per raggiungere una missione semplice ma dirompente, una missione che questi tecnologi potrebbero benissimo aver inciso sulla loro pelle. Quella missione è quella di costruire un’intelligenza artificiale generale – un concetto finora più legato alla fantascienza che alla scienza – e renderla sicura per l’umanità. Le persone che lavorano presso OpenAI sono fanatiche nella loro ricerca di quel obiettivo. (Anche se, come confermeranno molte conversazioni nel caffè dell’ufficio, la parte “costruire AGI” della missione sembra offrire ai ricercatori più eccitazione grezza rispetto alla parte “renderla sicura”.) Queste sono persone che non esitano a utilizzare casualmente il termine “superintelligenza”. Assumono che la traiettoria dell’IA supererà qualsiasi picco che la biologia possa raggiungere. I documenti finanziari dell’azienda prevedono persino una sorta di contingenza di uscita per quando l’IA cancellerà il nostro intero sistema economico.

Non è corretto chiamare OpenAI una setta, ma quando ho chiesto a diversi dirigenti dell’azienda se qualcuno potesse lavorare comodamente lì se non credeva che l’AGI stesse realmente arrivando – e che la sua arrivata rappresentasse uno dei momenti più importanti della storia umana – la maggior parte dei dirigenti non ha pensato così. Si sono chiesti perché un non credente vorrebbe lavorare qui. Si presume che la forza lavoro – attualmente di circa 500 persone, anche se potrebbe essere aumentata da quando hai iniziato a leggere questo paragrafo – si sia autoselezionata includendo solo i fedeli. Almeno, come dice Altman, una volta assunto, sembra inevitabile che tu venga attratto dal loro incantesimo.

Nel frattempo, OpenAI non è più l’azienda che era una volta. È stata fondata come un’operazione di ricerca puramente non profit, ma oggi la maggior parte dei suoi dipendenti lavora tecnicamente per un’entità a scopo di lucro che è valutata a quasi 30 miliardi di dollari. Altman e il suo team devono ora affrontare la pressione di fornire una rivoluzione in ogni ciclo di prodotto, in modo da soddisfare le esigenze commerciali degli investitori e mantenersi avanti in un panorama estremamente competitivo. Tutto ciò mentre si attengono a una missione quasi messianica di elevare l’umanità anziché sterminarla.

Quel tipo di pressione, senza contare l’attenzione implacabile di tutto il mondo, può essere una forza debilitante. I Beatles hanno scatenato onde colossali di cambiamento culturale, ma hanno ancorato la loro rivoluzione solo per un breve periodo: sei anni dopo aver suonato quell’accordo indimenticabile, non erano nemmeno più una band. Il maelstrom che OpenAI ha scatenato sarà quasi certamente molto più grande. Ma i leader di OpenAI giurano che persevereranno. Tutto ciò che vogliono fare, dicono, è costruire computer abbastanza intelligenti e sicuri da porre fine alla storia, catapultando l’umanità in un’era di abbondanza inimmaginabile.

Crescendo alla fine degli anni ’80 e all’inizio degli anni ’90, Sam Altman era un ragazzino nerd che divorava la fantascienza e Star Wars. I mondi creati dai primi scrittori di fantascienza spesso avevano umani che vivevano con o competevano con sistemi di intelligenza artificiale superintelligenti. L’idea che i computer potessero eguagliare o superare le capacità umane entusiasmava Altman, che programmava fin da quando le sue dita riuscivano a malapena a coprire una tastiera. Quando aveva 8 anni, i suoi genitori gli comprarono un Macintosh LC II. Una notte stava giocando con esso fino a tardi e gli venne in mente il pensiero: “Un giorno questo computer imparerà a pensare.” Quando arrivò a Stanford come matricola nel 2003, sperava di contribuire a far accadere questo e frequentò corsi di intelligenza artificiale. Ma “non funzionava affatto”, avrebbe poi detto. Il campo era ancora impantanato in una depressione dell’innovazione nota come inverno dell’IA. Altman lasciò l’università per entrare nel mondo delle startup; la sua azienda Loopt era nel piccolo primo gruppo di organizzazioni aspiranti di Y Combinator, che sarebbe diventato l’incubatore più famoso al mondo.

Nel febbraio 2014, Paul Graham, il guru fondatore di YC, scelse il 28enne Altman come suo successore. “Sam è una delle persone più intelligenti che conosco”, scrisse Graham nell’annuncio, “e capisce meglio delle persone che conosco, me compreso, le startup”. Ma Altman vedeva YC come qualcosa di più grande di un trampolino di lancio per le aziende. “Non siamo solo sulle startup”, mi disse poco dopo aver assunto la carica. “Siamo sull’innovazione, perché crediamo che sia così che si rende il futuro migliore per tutti”. Secondo Altman, lo scopo di incassare tutti quegli unicorni non era riempire i portafogli dei partner, ma finanziare trasformazioni a livello di specie. Iniziò una divisione di ricerca, sperando di finanziare progetti ambiziosi per risolvere i più grandi problemi del mondo. Ma l’IA, nella sua mente, era l’unico regno dell’innovazione che li avrebbe governati tutti: un’intelligenza superiore che poteva affrontare i problemi dell’umanità meglio di quanto l’umanità potesse fare.

Per fortuna, Altman assunse il suo nuovo lavoro proprio mentre l’inverno dell’AI stava diventando una primavera abbondante. I computer stavano ora compiendo imprese incredibili, attraverso l’apprendimento approfondito e le reti neurali, come l’etichettatura delle foto, la traduzione del testo e l’ottimizzazione di reti pubblicitarie sofisticate. I progressi lo convinsero che per la prima volta, l’AGI era effettivamente alla portata. Tuttavia, lasciare tutto nelle mani delle grandi aziende lo preoccupava. Sentiva che queste aziende sarebbero state troppo concentrate sui loro prodotti per cogliere l’opportunità di sviluppare l’AGI il più presto possibile. E se creassero l’AGI, potrebbero rilasciarla in modo imprudente nel mondo senza le necessarie precauzioni.

All’epoca, Altman stava pensando di candidarsi come governatore della California. Ma si rese conto che era perfettamente posizionato per fare qualcosa di più grande: guidare un’azienda che avrebbe cambiato l’umanità stessa. “L’AGI sarebbe stato costruito una sola volta”, mi disse nel 2021. “E non c’erano così tante persone che potevano fare un buon lavoro dirigendo OpenAI. Ero fortunato ad avere una serie di esperienze nella mia vita che mi hanno reso davvero positivamente predisposto per questo”.

Altman iniziò a parlare con persone che potessero aiutarlo a avviare un nuovo tipo di azienda di intelligenza artificiale, un’organizzazione no profit che avrebbe guidato il settore verso un’AGI responsabile. Uno spirito affine era Elon Musk, CEO di Tesla e SpaceX. Come Musk avrebbe poi detto a CNBC, era diventato preoccupato per l’impatto dell’IA dopo aver avuto alcune lunghe discussioni con il cofondatore di Google Larry Page. Musk disse di essere sconcertato dal fatto che Page non aveva molta preoccupazione per la sicurezza e sembrava anche considerare i diritti dei robot come uguali a quelli degli esseri umani. Quando Musk condivise le sue preoccupazioni, Page lo accusò di essere un “specista”. Musk capì anche che, all’epoca, Google impiegava gran parte del talento mondiale dell’IA. Era disposto a spendere qualche soldo per uno sforzo più favorevole al Team Umano.

In pochi mesi Altman aveva raccolto denaro da Musk (che aveva promesso 100 milioni di dollari e il suo tempo) e da Reid Hoffman (che aveva donato 10 milioni di dollari). Altri finanziatori includevano Peter Thiel, Jessica Livingston, Amazon Web Services e YC Research. Altman iniziò a reclutare segretamente un team. Limitò la ricerca ai credenti dell’AGI, un vincolo che restringeva le sue opzioni ma che considerava fondamentale. “Nel 2015, quando stavamo reclutando, era quasi considerato un suicidio professionale per un ricercatore di IA dire di prendere l’AGI sul serio”, dice. “Ma volevo persone che lo prendessero sul serio”.

Greg Brockman è ora il presidente di OpenAI.

Fotografia: Jessica Chou

Greg Brockman, il direttore tecnologico di Stripe, era una di queste persone e accettò di diventare il CTO di OpenAI. Un altro cofondatore chiave sarebbe stato Andrej Karpathy, che aveva lavorato presso Google Brain, l’operazione di ricerca avanzata sull’IA del gigante delle ricerche. Ma forse il bersaglio più ambito di Altman era un ingegnere di origine russa di nome Ilya Sutskever.

La pedegree di Sutskever era ineccepibile. La sua famiglia era emigrata dalla Russia in Israele, poi in Canada. All’Università di Toronto era stato uno studente eccezionale sotto la guida di Geoffrey Hinton, conosciuto come il padrino dell’IA moderna per il suo lavoro sull’apprendimento approfondito e le reti neurali. Hinton, che è ancora vicino a Sutskever, ammira la sua abilità. All’inizio del periodo di Sutskever nel laboratorio, Hinton gli aveva assegnato un progetto complicato. Sutskever si era stancato di scrivere codice per effettuare i calcoli necessari e aveva detto a Hinton che sarebbe stato più facile se avesse scritto un linguaggio di programmazione personalizzato per il compito. Hinton si era un po’ infastidito e aveva cercato di dissuadere il suo studente da quella che presumeva sarebbe stata una distrazione di un mese. Poi Sutskever gli aveva confessato: “L’ho fatto stamattina”.

Sutskever divenne una superstar dell’IA, coautore di un documento innovativo che mostrava come l’IA potesse imparare a riconoscere immagini semplicemente venendo esposta a enormi quantità di dati. Alla fine, si trovò felicemente a far parte del team di Google Brain.

Nel 2015, Altman inviò un’e-mail a sorpresa a Sutskever per invitarlo a cena con Musk, Brockman e altri presso l’esclusivo Rosewood Hotel di Palo Alto, sulla Sand Hill Road. Solo in seguito Sutskever capì che era l’ospite d’onore. “È stata una conversazione generale sull’IA e sull’AGI nel futuro”, dice. Più specificamente, hanno discusso “se Google e DeepMind erano così avanti che sarebbe stato impossibile raggiungerli, o se fosse ancora possibile, come ha detto Elon, creare un laboratorio che sarebbe stato un contrappeso”. Sebbene nessuno alla cena abbia esplicitamente cercato di reclutare Sutskever, la conversazione lo ha conquistato.

Sutskever scrisse presto una e-mail ad Altman, dicendo di essere disposto a guidare il progetto, ma il messaggio rimase bloccato nella sua cartella delle bozze. Altman tornò indietro e, dopo mesi di resistenza alle controfferte di Google, Sutskever accettò. Presto sarebbe diventato l’anima dell’azienda e la sua forza trainante nella ricerca.

Sutskever si unì ad Altman e Musk nel reclutare persone per il progetto, culminando in un ritiro a Napa Valley dove diversi potenziali ricercatori di OpenAI alimentavano l’entusiasmo reciproco. Naturalmente, alcuni obiettivi avrebbero resistito all’attrazione. John Carmack, il leggendario programmatore di giochi dietro a Doom, Quake e innumerevoli altri titoli, rifiutò una proposta di Altman.

OpenAI è stato ufficialmente lanciato nel dicembre 2015. Al momento dell’intervista a Musk e Altman, mi hanno presentato il progetto come uno sforzo per rendere l’IA sicura ed accessibile condividendola con il mondo. In altre parole, open source. OpenAI, mi dissero, non avrebbe richiesto brevetti. Tutti avrebbero potuto beneficiare dei loro progressi. Non sarebbe stato un potenziamento per un futuro Dr. Evil? Mi chiedevo. Musk disse che era una buona domanda. Ma Altman aveva una risposta: gli esseri umani sono generalmente buoni e poiché OpenAI fornirebbe strumenti potenti per quella vasta maggioranza, gli attori malvagi sarebbero sopraffatti. Ammise che se Dr. Evil avesse usato gli strumenti per costruire qualcosa che non potesse essere contrastato, “allora saremmo in una posizione davvero cattiva”. Ma sia Musk che Altman credevano che il percorso più sicuro per l’IA fosse nelle mani di un’operazione di ricerca non inquinata dal profitto, una tentazione persistente di ignorare le esigenze degli esseri umani nella ricerca di risultati trimestrali spettacolari.

Altman mi mise in guardia dal non aspettarmi risultati presto. “Questo sembrerà un laboratorio di ricerca per molto tempo”, disse.

C’era un’altra ragione per abbassare le aspettative. Google e gli altri avevano sviluppato e applicato l’IA per anni. Mentre OpenAI aveva un miliardo di dollari impegnati (in gran parte tramite Musk), un team di ricercatori e ingegneri di prim’ordine e una missione ambiziosa, non aveva idea di come perseguire i suoi obiettivi. Altman ricorda un momento in cui il piccolo team si riunì nell’appartamento di Brockman – non avevano ancora un ufficio. “Ero come, cosa dovremmo fare?”

Altman ricorda un momento in cui il piccolo team si riunì nell’appartamento di Brockman – non avevano ancora un ufficio. “Ero come, cosa dovremmo fare?”

Ho fatto colazione a San Francisco con Brockman poco più di un anno dopo la fondazione di OpenAI. Per il CTO di un’azienda con la parola “open” nel suo nome, era piuttosto parsimonioso con i dettagli. Ha confermato che la non profit poteva permettersi di attingere alla sua donazione iniziale di un miliardo di dollari per un po’ di tempo. I salari delle 25 persone del suo staff – che venivano pagate molto meno del valore di mercato – consumavano la maggior parte delle spese di OpenAI. “Il nostro obiettivo, la cosa su cui ci stiamo concentrando veramente”, ha detto, “è avere sistemi in grado di fare cose che gli esseri umani non erano in grado di fare prima”. Ma per il momento, sembrava solo un gruppo di ricercatori che pubblicavano articoli. Dopo l’intervista, l’ho accompagnato al nuovo ufficio dell’azienda nel quartiere Mission, ma mi ha permesso di arrivare solo all’atrio. È entrato in un armadio per prendermi una maglietta.

Se fossi entrato e avessi chiesto in giro, avrei potuto apprendere esattamente quanto OpenAI stesse perdendo terreno. Brockman ammette ora che “niente funzionava”. I suoi ricercatori stavano lanciando spaghetti algoritmiche verso il soffitto per vedere cosa si attaccava. Si sono addentrati in sistemi che risolvevano giochi video e hanno dedicato notevoli sforzi alla robotica. “Sapevamo cosa volevamo fare”, dice Altman. “Sapevamo perché volevamo farlo. Ma non avevamo idea di come”.

Ma credevano. Il loro ottimismo era sostenuto dai costanti miglioramenti nelle reti neurali artificiali che utilizzavano tecniche di deep learning. “L’idea generale è, non scommettere contro il deep learning”, dice Sutskever. Inseguire l’AGI, dice, “non era del tutto folle. Era solo moderatamente folle”.

La strada di OpenAI verso la rilevanza ha avuto inizio con l’assunzione di un ricercatore ancora poco conosciuto di nome Alec Radford, che si è unito nel 2016, lasciando la piccola azienda di intelligenza artificiale di Boston che aveva cofondato nella sua stanza del dormitorio. Dopo aver accettato l’offerta di OpenAI, ha detto alla rivista degli ex studenti delle superiori che prendere questo nuovo ruolo era “un po’ simile a unirsi a un programma di laurea”, un posto aperto e a bassa pressione per la ricerca sull’IA.

Il ruolo che avrebbe effettivamente svolto era più simile a quello di Larry Page nell’invenzione di PageRank.

Radford, che evita la stampa e non ha mai rilasciato interviste sul suo lavoro, risponde alle mie domande sui suoi primi giorni in OpenAI tramite una lunga email. Il suo interesse principale era quello di far interagire le reti neurali con gli esseri umani in una conversazione lucida. Questo rappresentava una svolta rispetto al tradizionale modello di chatbot basato su uno script, un approccio utilizzato in tutto, dalla primitiva ELIZA agli assistenti popolari come Siri e Alexa, che in realtà erano abbastanza scadenti. “L’obiettivo era vedere se c’era qualche compito, qualche contesto, qualche dominio, qualsiasi cosa in cui i modelli di linguaggio potessero essere utili”, scrive. In quel periodo, spiega, “i modelli di linguaggio erano considerati giocattoli novità che potevano generare una frase sensata di tanto in tanto, e solo se si strizzavano davvero gli occhi”. Il suo primo esperimento consisteva nella scansione di 2 miliardi di commenti su Reddit per addestrare un modello di linguaggio. Come molti degli esperimenti iniziali di OpenAI, è stato un fallimento. Non importava. Il 23enne aveva il permesso di continuare, di fallire di nuovo. “Eravamo solo lì a dire, Alec è fantastico, lasciamolo fare la sua cosa”, dice Brockman.

Il suo prossimo grande esperimento è stato influenzato dai limiti di potenza informatica di OpenAI, un vincolo che lo ha portato a sperimentare su un insieme di dati più piccolo incentrato su un singolo dominio, le recensioni dei prodotti Amazon. Un ricercatore ne aveva raccolte circa 100 milioni. Radford ha addestrato un modello di linguaggio per prevedere semplicemente il carattere successivo nella generazione di una recensione utente.

Radford ha iniziato a sperimentare con l’architettura del transformer. “Ho fatto più progressi in due settimane di quanto non abbia fatto negli ultimi due anni”, dice.

Ma poi, da solo, il modello ha capito se una recensione era positiva o negativa, e quando hai programmato il modello per creare qualcosa di positivo o negativo, ha fornito una recensione adulatoria o sprezzante, come richiesto. (La prosa era ammettiamolo goffa: “Amo l’aspetto di quest’arma … Un must per ogni uomo che ama gli scacchi!”) “È stata una completa sorpresa”, dice Radford. Il sentimento di una recensione, il suo tono favorevole o sfavorevole, è una funzione complessa della semantica, ma in qualche modo una parte del sistema di Radford ha avuto un’intuizione. All’interno di OpenAI, questa parte della rete neurale è diventata nota come “neurone di sentimento non supervisionato”.

Sutskever e altri hanno incoraggiato Radford a espandere i suoi esperimenti al di là delle recensioni di Amazon, a utilizzare le sue intuizioni per addestrare reti neurali a conversare o rispondere a domande su una vasta gamma di argomenti.

E poi la fortuna ha sorriso a OpenAI. All’inizio del 2017, è apparso un preprint poco noto di un articolo di ricerca, coautore di otto ricercatori di Google. Il suo titolo ufficiale era “Attention Is All You Need”, ma è diventato noto come “articolo del transformer”, così chiamato sia per riflettere la natura rivoluzionaria dell’idea sia per onorare i giocattoli che si trasformavano da camion a giganteschi robot. I transformer hanno reso possibile per una rete neurale capire – e generare – il linguaggio in modo molto più efficiente. Hanno fatto ciò analizzando parti di prosa in parallelo e capendo quali elementi meritassero “attenzione”. Questo ha ottimizzato enormemente il processo di generazione di testo coerente in risposta a prompt. Alla fine, le persone hanno capito che la stessa tecnica poteva anche generare immagini e persino video. Sebbene l’articolo del transformer sarebbe diventato noto come il catalizzatore dell’attuale frenesia dell’IA – pensate ad Elvis che ha reso possibile i Beatles – al tempo Ilya Sutskever era uno dei pochi che capivano quanto potente fosse la svolta. “Il vero momento di aha è stato quando Ilya ha visto uscire il transformer”, dice Brockman. “Era come, ‘Ecco quello che stavamo aspettando.’ Questa è stata la nostra strategia: spingere duro sui problemi e poi avere fiducia che noi o qualcun altro nel campo riusciremo a capire l’ingrediente mancante”.

Radford ha iniziato a sperimentare con l’architettura del transformer. “Ho fatto più progressi in due settimane di quanto non abbia fatto negli ultimi due anni”, dice. Ha capito che il segreto per ottenere il massimo dal nuovo modello era aggiungere scala, addestrarlo su insiemi di dati estremamente grandi. L’idea è stata chiamata “Big Transformer” dal collaboratore di Radford Rewon Child.

Questo approccio richiedeva un cambiamento di cultura in OpenAI e una focalizzazione che in precedenza mancava. “Per sfruttare al meglio il transformer, era necessario aumentare la scala”, afferma Adam D’Angelo, CEO di Quora, che siede nel consiglio di amministrazione di OpenAI. “Devi farlo funzionare più come un’organizzazione di ingegneria. Non puoi permettere a ogni ricercatore di fare le proprie cose e addestrare il proprio modello e creare cose eleganti su cui puoi pubblicare articoli. Devi fare questo lavoro più tedioso e meno elegante.” Questo, ha aggiunto, era qualcosa che OpenAI era in grado di fare, e che nessun altro faceva.

Mira Murati, chief technology officer di OpenAI.

Foto: Jessica Chou

Il nome che Radford e i suoi collaboratori hanno dato al modello che hanno creato era un acronimo per “generatively pretrained transformer” – GPT-1. Alla fine, questo modello è diventato genericamente conosciuto come “generative AI”. Per costruirlo, si sono basati su una collezione di 7.000 libri inediti, molti dei quali nei generi del romance, fantasy e avventura, e lo hanno perfezionato con domande e risposte di Quora, così come con migliaia di passaggi tratti da esami di scuole medie e superiori. Nel complesso, il modello includeva 117 milioni di parametri, o variabili. E superava tutto ciò che era stato fatto prima nell’ambito della comprensione del linguaggio e nella generazione di risposte. Ma il risultato più impressionante era che l’elaborazione di una così grande quantità di dati permetteva al modello di offrire risultati al di là del suo addestramento, fornendo competenze in nuovi domini. Queste capacità impreviste dei robot sono chiamate zero-shots. Continuano a confondere i ricercatori e sono la causa del disagio che molti nel settore hanno nei confronti di questi cosiddetti grandi modelli di linguaggio.

Radford ricorda una notte tarda nell’ufficio di OpenAI. “Continuavo a ripetere una e un’altra volta, ‘Beh, è bello, ma sono abbastanza sicuro che non riuscirà a fare x’. E poi avrei rapidamente scritto un codice di valutazione e, come previsto, riusciva a fare un po’ x.”

Ogni iterazione di GPT andava meglio, in parte perché ogni modello successivo elaborava un ordine di grandezza di dati in più rispetto al modello precedente. Solo un anno dopo aver creato la prima iterazione, OpenAI ha addestrato GPT-2 su Internet aperta con incredibili 1,5 miliardi di parametri. Come un bambino che impara a parlare, le sue risposte sono migliorate e sono diventate più coerenti. Tanto che OpenAI ha esitato a rilasciare il programma nel mondo reale. Radford era preoccupato che potesse essere usato per generare spam. “Ricordo di aver letto ‘Anathem’ di Neal Stephenson nel 2008, e in quel libro Internet era invasa dai generatori di spam”, dice. “Avevo pensato che fosse davvero fantascienza, ma mentre lavoravo sui modelli di linguaggio nel corso degli anni e questi miglioravano, mi sono reso conto con disagio che era una possibilità reale.”

In effetti, il team di OpenAI stava iniziando a pensare che non fosse una buona idea mettere il proprio lavoro a disposizione di chiunque potesse facilmente accedervi. “Pensavamo che rendere open-source GPT-2 potesse essere davvero pericoloso”, dice la chief technology officer Mira Murati, che è entrata in azienda nel 2018. “Abbiamo lavorato molto con esperti di disinformazione e fatto alcuni test. C’è stata molta discussione interna su quanto rilasciare”. Alla fine, OpenAI ha temporaneamente trattenuto la versione completa, rendendo disponibile una versione meno potente al pubblico. Quando l’azienda ha finalmente condiviso la versione completa, il mondo si è gestito bene – ma non c’era alcuna garanzia che modelli più potenti evitassero una catastrofe.

Il fatto stesso che OpenAI stesse creando prodotti abbastanza intelligenti da essere considerati pericolosi e stesse lottando per renderli sicuri era la prova che l’azienda aveva fatto le cose giuste. “Avevamo capito la formula per il progresso, la formula che tutti percepiscono ora – l’ossigeno e l’idrogeno dell’apprendimento profondo sono la computazione con una grande rete neurale e i dati”, dice Sutskever.

Per Altman, è stata un’esperienza che ha fatto girare la testa. “Se avessi chiesto alla versione di me di 10 anni fa, che passava molto tempo a fantasticare sull’IA, cosa sarebbe successo, la mia previsione abbastanza sicura sarebbe stata che prima avremmo avuto robot, e avrebbero svolto tutto il lavoro fisico. Poi avremmo avuto sistemi che possono svolgere lavori cognitivi di base. Molto tempo dopo, forse avremmo avuto sistemi che possono fare cose complesse come dimostrare teoremi matematici. Alla fine avremmo avuto IA che può creare cose nuove e fare arte e scrivere e fare queste cose profondamente umane. Era una previsione terribile – sta andando esattamente nella direzione opposta.”

Il mondo ancora non lo sapeva, ma il laboratorio di ricerca di Altman e Musk aveva iniziato una scalata che plausibilmente si avvicinava alla vetta dell’AGI. L’idea folle dietro OpenAI improvvisamente non sembrava così folle.

All’inizio del 2018, OpenAI iniziò a concentrarsi in modo produttivo sui grandi modelli di linguaggio, o LLM. Ma Elon Musk non era felice. Riteneva che il progresso fosse insufficiente – o forse sentiva che ora che OpenAI aveva scoperto qualcosa, aveva bisogno di una leadership per cogliere l’opportunità. O forse, come spiegherà successivamente, sentiva che la sicurezza doveva essere una priorità maggiore. Qualunque fosse il suo problema, aveva una soluzione: consegnare tutto a lui. Propose di prendere una quota di maggioranza dell’azienda, aggiungendola al suo portafoglio di lavori a tempo pieno (Tesla, SpaceX) e degli obblighi di supervisione (Neuralink e the Boring Company).

Musk credeva di avere il diritto di possedere OpenAI. “Non esisterebbe senza di me”, ha poi detto a CNBC. “Ho inventato il nome!” (Vero). Ma Altman e il resto del team di esperti di OpenAI non erano interessati a diventare parte del Muskiverse. Quando hanno reso questo chiaro, Musk ha interrotto i contatti, fornendo al pubblico l’insufficiente spiegazione che lasciava il consiglio per evitare un conflitto con lo sforzo di intelligenza artificiale di Tesla. Il suo addio è avvenuto durante un incontro generale all’inizio di quell’anno, dove ha predetto che OpenAI sarebbe fallita. E ha definito almeno uno dei ricercatori un “cretino”.

Ha anche portato con sé i suoi soldi. Dal momento che l’azienda non aveva entrate, questo era una crisi esistenziale. “Elon sta tagliando il suo sostegno”, ha detto Altman in una chiamata di panico a Reid Hoffman. “Cosa facciamo?” Hoffman si è offerto di mantenere l’azienda a galla, pagando le spese generali e gli stipendi.

Ma questo era solo una soluzione temporanea; OpenAI doveva trovare grandi somme altrove. La Silicon Valley ama buttare soldi alle persone talentuose che lavorano su tecnologie di tendenza. Ma non tanto se lavorano per un’organizzazione non profit. Era stato un enorme sforzo per OpenAI ottenere il suo primo miliardo. Per addestrare e testare nuove generazioni di GPT-e poi accedere ai calcoli necessari per implementarli-l’azienda aveva bisogno di un altro miliardo, e velocemente. E quello sarebbe stato solo l’inizio.

Da qualche parte nei documenti di riorganizzazione c’è una clausola secondo la quale, se l’azienda riuscisse a creare AGI, tutti gli accordi finanziari sarebbero rivalutati. Dopotutto, sarà un nuovo mondo da quel punto in poi.

Quindi, nel marzo 2019, OpenAI ha escogitato un hack bizzarro. Resterebbe un’organizzazione non profit, completamente dedicata alla sua missione. Ma avrebbe anche creato una società a scopo di lucro. La struttura effettiva dell’accordo è incredibilmente barocca, ma fondamentalmente l’intera azienda è ora impegnata in un “business redditizio e limitato”. Se viene raggiunto il limite – il numero non è pubblico, ma lo statuto stesso, se si legge tra le righe, suggerisce che potrebbe essere di migliaia di miliardi – tutto ciò che va oltre torna al laboratorio di ricerca senza scopo di lucro. Il nuovo schema era quasi un approccio quantico all’incorporazione: ecco un’azienda che, a seconda del tuo punto di vista spazio-temporale, è a scopo di lucro e non profit. I dettagli sono rappresentati da tabelle piene di caselle e frecce, come quelle in mezzo a un articolo scientifico in cui solo i dottori o i geni dropout osano avventurarsi. Quando suggerisco a Sutskever che sembra qualcosa che l’ancora non concepito GPT-6 potrebbe ideare se lo incoraggiassi a evitare le tasse, non gradisce la mia metafora. “Non si tratta di contabilità”, dice.

Ma la contabilità è fondamentale. Una società a scopo di lucro ottimizza i profitti. C’è una ragione per cui aziende come Meta sentono la pressione degli azionisti quando dedicano miliardi alla R&S. Come potrebbe ciò non influenzare il modo in cui opera un’azienda? E non era l’evitare il commercialismo la ragione per cui Altman ha reso OpenAI un’organizzazione non profit fin dall’inizio? Secondo il COO Brad Lightcap, il punto di vista dei leader dell’azienda è che il consiglio, che fa ancora parte dell’ente di controllo no profit, si assicurerà che la ricerca del fatturato e dei profitti non travolga l’idea originale. “Abbiamo bisogno di mantenere la missione come ragione della nostra esistenza”, dice, “non dovrebbe essere solo in spirito, ma codificata nella struttura dell’azienda”. Il membro del consiglio Adam D’Angelo afferma di prendere seriamente questa responsabilità: “È il mio compito, insieme al resto del consiglio, assicurare che OpenAI rimanga fedele alla sua missione”.

Gli investitori potenziali sono stati avvertiti di questi limiti, spiega Lightcap. “Abbiamo una dichiarazione legale che dice che tu, come investitore, rischi di perdere tutti i tuoi soldi”, dice. “Non siamo qui per garantirti un rendimento. Siamo qui per raggiungere una missione tecnica, prima di tutto. E, oh, a proposito, non sappiamo veramente quale ruolo avrà il denaro in un mondo post-AGI”.

Quell’ultima frase non è una battuta. Il piano di OpenAI prevede davvero un ripristino nel caso in cui i computer raggiungano l’ultima frontiera. Da qualche parte nei documenti di riorganizzazione c’è una clausola secondo la quale, se l’azienda riuscisse a creare AGI, tutti gli accordi finanziari sarebbero rivalutati. Dopotutto, sarà un nuovo mondo da quel punto in poi. L’umanità avrà un partner alieno che può fare molte delle cose che facciamo noi, solo meglio. Quindi gli accordi precedenti potrebbero essere effettivamente annullati.

Tuttavia, c’è un ostacolo: al momento, OpenAI non afferma di sapere cosa sia realmente AGI. La determinazione verrebbe dal consiglio, ma non è chiaro come il consiglio lo definirebbe. Quando chiedo ad Altman, che fa parte del consiglio, per avere chiarezza, la sua risposta è tutt’altro che aperta. “Non è un singolo test di Turing, ma una serie di cose che potremmo usare”, dice. “Te lo direi volentieri, ma mi piace mantenere riservate le conversazioni confidenziali. Mi rendo conto che è vago e insoddisfacente. Ma non sappiamo come sarà a quel punto”.

Tuttavia, l’inclusione della clausola “disposizioni finanziarie” non è solo per divertimento: i leader di OpenAI pensano che se l’azienda avrà successo a sufficienza da raggiungere il suo ambizioso limite di profitto, i suoi prodotti avranno probabilmente avuto una buona performance per raggiungere l’AGI. Qualunque cosa sia.

“Il mio rimpianto è che abbiamo scelto di puntare sul termine AGI”, dice Sutskever. “Con il senno di poi è un termine confuso, perché mette in evidenza la generalità più di tutto il resto. GPT-3 è una IA generale, ma non ci sentiamo a nostro agio a chiamarla AGI, perché vogliamo una competenza a livello umano. Ma allora, all’inizio, l’idea di OpenAI era che la superintelligenza fosse raggiungibile. È il gioco finale, il fine ultimo del campo dell’IA”.

Queste avvertenze non hanno impedito a alcuni dei più intelligenti venture capitalist di investire in OpenAI durante la sua raccolta di fondi del 2019. A quel punto, il primo fondo di venture capital ad investire è stato Khosla Ventures, che ha versato 50 milioni di dollari. Secondo Vinod Khosla, era il doppio della dimensione del suo più grande investimento iniziale. “Se perdiamo, perdiamo 50 milioni di dollari”, dice. “Se vinciamo, vinciamo 5 miliardi”. Altri investitori includerebbero presuntamente le elite dei fondi di venture capital Thrive Capital, Andreessen Horowitz, Founders Fund e Sequoia.

Il cambiamento ha anche permesso ai dipendenti di OpenAI di rivendicare una quota di proprietà. Ma non ad Altman. Dice che inizialmente aveva intenzione di includersi, ma non ci è riuscito. Poi ha deciso che non aveva bisogno di nessuna parte della società da 30 miliardi di dollari che aveva cofondato e guidato. “Per me è più importante un lavoro significativo”, dice. “Non ci penso. Onestamente non capisco perché alle persone interessi così tanto”.

Perché… non prendere una quota della società che hai cofondato è strano?

“Se non avessi già un sacco di soldi, sarebbe molto più strano”, dice. “Sembra che le persone abbiano difficoltà ad immaginare di avere mai abbastanza soldi. Ma io sento di averne abbastanza”. (Nota: Per Silicon Valley, questo è estremamente strano). Altman ha scherzato dicendo che sta considerando di prendere una quota di azioni “così da non dover più rispondere a quella domanda”.

Ilya Sutskever, il principale scienziato di OpenAI.

Fotografia: Jessica Chou

La raccolta di fondi da un miliardo di dollari non era nemmeno il minimo necessario per perseguire la visione di OpenAI. L’approccio miracoloso del Big Transformer per creare LLM richiedeva un Big Hardware. Ogni iterazione della famiglia GPT avrebbe avuto bisogno di una potenza esponenzialmente maggiore: GPT-2 aveva oltre un miliardo di parametri, e GPT-3 ne avrebbe utilizzati 175 miliardi. Ora OpenAI era come Quint in Lo squalo dopo che il cacciatore di squali ha visto le dimensioni dello squalo bianco. “Si è scoperto che non sapevamo di aver bisogno di una barca ancora più grande”, dice Altman.

Ovviamente, solo poche aziende esistenti avevano le risorse necessarie per OpenAI. “Abbiamo abbastanza rapidamente puntato su Microsoft”, dice Altman. Per merito del CEO di Microsoft Satya Nadella e del CTO Kevin Scott, il gigante del software è stato in grado di superare una realtà scomoda: dopo più di 20 anni e miliardi di dollari spesi in una divisione di ricerca con una supposta AI all’avanguardia, i Softies avevano bisogno di un’infusione di innovazione da una piccola azienda che aveva solo pochi anni di vita. Scott dice che non è stato solo Microsoft ad essere rimasta indietro, “è stato tutti”. L’attenzione di OpenAI sull’AGI, dice, gli ha permesso di raggiungere un obiettivo mozzafiato che i grandi nomi non stavano nemmeno cercando. Ha anche dimostrato che non perseguire l’AI generativa era un errore che Microsoft doveva affrontare. “Una cosa di cui hai chiaramente bisogno è un modello di frontiera”, dice Scott.

Microsoft ha inizialmente contribuito con un miliardo di dollari, pagato in tempo di calcolo sui suoi server. Ma man mano che entrambe le parti diventavano più fiduciose, l’accordo si è ampliato. Microsoft ha ora investito 13 miliardi di dollari in OpenAI. (“Essere in prima linea è una proposta molto costosa”, dice Scott.)

Certo, perché OpenAI non potrebbe esistere senza il sostegno di un grande provider di cloud, Microsoft è riuscita a ottenere un ottimo accordo per sé stessa. La società ha negoziato per quello che Nadella chiama “interesse azionario non di controllo” nel lato profittevole di OpenAI, presumibilmente il 49 percento. Ai termini dell’accordo, alcuni degli ideali originali di OpenAI di garantire un accesso equo a tutti sembravano essere stati trascinati nell’icona del cestino. (Altman obietta a questa caratterizzazione.) Ora, Microsoft ha una licenza esclusiva per commercializzare la tecnologia di OpenAI. E OpenAI si è anche impegnata ad utilizzare esclusivamente il cloud di Microsoft. In altre parole, senza nemmeno prendere la sua quota di profitti di OpenAI (si dice che Microsoft ottiene il 75 percento fino a quando il suo investimento non viene restituito), Microsoft ha la possibilità di assicurarsi uno dei nuovi clienti più desiderabili al mondo per i suoi servizi web Azure. Con tali ricompense in vista, Microsoft non è stata nemmeno infastidita dalla clausola che richiede una rivalutazione se OpenAI raggiunge l’intelligenza artificiale generale, qualunque cosa sia. “A quel punto”, dice Nadella, “tutte le scommesse sono cancellate”. Potrebbe essere l’ultima invenzione dell’umanità, nota, quindi potremmo avere questioni più grandi da considerare una volta che le macchine sono più intelligenti di noi.

Quando Microsoft ha iniziato a riversare enormi quantità di denaro in OpenAI (2 miliardi di dollari nel 2021 e altri 10 miliardi all’inizio di quest’anno), OpenAI aveva completato GPT-3, che, naturalmente, era ancora più impressionante dei suoi predecessori. Quando Nadella ha visto cosa poteva fare GPT-3, ha detto che è stato il primo momento in cui ha compreso veramente che Microsoft aveva catturato qualcosa di veramente trasformativo. “Abbiamo iniziato a osservare tutte quelle proprietà emergenti”. Ad esempio, GPT aveva imparato da solo come programmare i computer. “Non l’abbiamo istruito sulla codifica, è semplicemente diventato bravo nella codifica!” ha detto. Sfruttando la sua proprietà di GitHub, Microsoft ha rilasciato un prodotto chiamato Copilot che utilizza GPT per generare codice su comando. Microsoft successivamente integrerà la tecnologia di OpenAI nelle nuove versioni dei suoi prodotti per il luogo di lavoro. Gli utenti pagano un premio per questi prodotti e una parte di quella revenue viene registrata nel bilancio di OpenAI.

Alcuni osservatori sono rimasti sorpresi dal doppio colpo di OpenAI: creare una componente a scopo di lucro e raggiungere un accordo esclusivo con Microsoft. Come ha fatto un’azienda che prometteva di rimanere senza brevetti, open source e totalmente trasparente a dare una licenza esclusiva della sua tecnologia alla più grande azienda di software al mondo? I commenti di Elon Musk sono stati particolarmente feroci. “Questo sembra l’opposto di aperto – OpenAI è essenzialmente catturata da Microsoft”, ha scritto su Twitter. Su CNBC, ha spiegato con un’analogia: “Immagina di aver fondato un’organizzazione per salvare la foresta amazzonica e invece di essere diventata una compagnia di legname, hai abbattuto la foresta e l’hai venduta”.

Le frecciate di Musk potrebbero essere considerate amarezza da parte di un corteggiatore respinto, ma non era l’unico. “L’intera visione di come si è trasformata sembra un po’ disgustosa”, afferma John Carmack (specificando comunque di essere ancora entusiasta del lavoro dell’azienda). Un altro importante insider del settore, che preferisce parlare senza attribuzione, afferma: “OpenAI è passata da un piccolo centro di ricerca aperto a un’azienda di sviluppo di prodotti segreti con un complesso di superiorità ingiustificato”.

Anche alcuni dipendenti si erano stancati dell’avventura di OpenAI nel mondo a scopo di lucro. Nel 2019, diversi dirigenti chiave, tra cui il capo della ricerca Dario Amodei, hanno lasciato per avviare un’azienda di intelligenza artificiale concorrente chiamata Anthropic. Hanno recentemente detto al New York Times che OpenAI era diventata troppo commerciale ed era caduta vittima della deriva dalla sua missione.

Un altro defezionista di OpenAI è stato Rewon Child, il principale contributore tecnico ai progetti GPT-2 e GPT-3. Ha lasciato l’azienda alla fine del 2021 ed è ora presso Inflection AI, un’azienda guidata dall’ex cofondatore di DeepMind Mustafa Suleyman.

Altman afferma di non essere preoccupato dalle defezioni, considerandole semplicemente il modo in cui funziona Silicon Valley. “Alcune persone vorranno fare un ottimo lavoro altrove e questo spingerà avanti la società”, afferma. “Questo si adatta perfettamente alla nostra missione”.

Fino a novembre dello scorso anno, la conoscenza di OpenAI era principalmente limitata a coloro che seguivano la tecnologia e lo sviluppo del software. Ma come tutto il mondo ora sa, OpenAI ha compiuto il passo drammatico di rilasciare un prodotto per i consumatori alla fine di quel mese, basato sull’allora versione più recente di GPT, la versione 3.5. Per mesi, l’azienda aveva utilizzato internamente una versione di GPT con una interfaccia conversazionale. Era particolarmente importante per ciò che l’azienda chiamava “ricerca della verità”. Ciò significa che tramite il dialogo, l’utente poteva convincere il modello a fornire risposte più affidabili e complete. ChatGPT, ottimizzato per le masse, permetteva a chiunque di accedere istantaneamente a ciò che sembrava essere una fonte infinita di conoscenza semplicemente digitando un prompt e poi continuare la conversazione come se si fosse con un altro essere umano che sapeva tutto, anche se con una predilezione per la finzione.

All’interno di OpenAI, c’era molto dibattito sulla saggezza di rilasciare uno strumento con un potere senza precedenti. Ma Altman era favorevole. Il rilascio, spiega, faceva parte di una strategia progettata per acclimatare il pubblico alla realtà che l’intelligenza artificiale è destinata a cambiare la loro vita quotidiana, presumibilmente per il meglio. Internamente, questo è noto come l'”ipotesi di dispiegamento iterativo”. Certo, ChatGPT avrebbe creato scalpore, pensavano. Dopotutto, ecco qualcosa che chiunque poteva usare che era abbastanza intelligente da ottenere punteggi di livello universitario nei test SAT, scrivere un saggio con una sufficienza meno e riassumere un libro in pochi secondi. Potevi chiedergli di scrivere la tua proposta di finanziamento o riassumere una riunione e poi richiedere una riscrittura in lituano o come un sonetto di Shakespeare o con la voce di qualcuno ossessionato dai trenini giocattolo. In pochi secondi, puff, il LLM avrebbe acconsentito. Pazzesco. Ma OpenAI lo ha visto come un antipasto per il suo successore più recente, più coerente, più capace e più spaventoso, GPT-4, addestrato con un numero riportato di 1,7 trilioni di parametri. (OpenAI non conferma il numero, né rivela i set di dati).

Altman spiega perché OpenAI ha rilasciato ChatGPT quando GPT-4 era vicino al completamento, sotto l’occhio attento della sicurezza. “Con ChatGPT, abbiamo potuto introdurre una conversazione ma con un backend molto meno potente e offrire alle persone una transizione più graduale”, dice. “GPT-4 era troppo da affrontare in una volta sola.” Nel momento in cui l’entusiasmo per ChatGPT si è placato, si pensava che le persone sarebbero state pronte per GPT-4, che può superare l’esame di ammissione all’avvocatura, pianificare un programma di studi e scrivere un libro in pochi secondi. (Le case editrici che producevano narrativa di genere erano state sommerse di romanzi rosa e space opera generati dall’intelligenza artificiale.)

Un cinico potrebbe dire che un ritmo costante di nuovi prodotti è legato all’impegno dell’azienda verso gli investitori e i dipendenti con equità azionaria, per guadagnare denaro. OpenAI ora addebita ai clienti che utilizzano frequentemente i suoi prodotti. Ma OpenAI insiste sul fatto che la sua vera strategia è quella di fornire un atterraggio morbido per la singolarità. “Non ha senso costruire l’AGI in segreto e scaricarlo nel mondo”, afferma Altman. “Guardate indietro alla rivoluzione industriale: tutti concordano sul fatto che sia stata fantastica per il mondo”, dice Sandhini Agarwal, una ricercatrice di politiche di OpenAI. “Ma i primi 50 anni sono stati davvero dolorosi. C’è stata molta perdita di lavoro, molta povertà, e poi il mondo si è adattato. Stiamo cercando di pensare a come possiamo rendere il periodo prima dell’adattamento dell’AGI il meno doloroso possibile”.

Sutskever lo esprime in un altro modo: “Volete costruire intelligenze sempre più grandi e potenti e tenerle nel vostro seminterrato?”

Tuttavia, OpenAI è rimasta stupita dalla reazione a ChatGPT. “La nostra eccitazione interna era maggiormente focalizzata su GPT-4”, dice Murati, il CTO. “E quindi non pensavamo che ChatGPT avrebbe davvero cambiato tutto”. Al contrario, ha galvanizzato il pubblico sulla realtà che l’IA doveva essere affrontata, ora. ChatGPT è diventato il software consumer a crescita più rapida nella storia, con un totale di circa 100 milioni di utenti. (Non-così-OpenAI non conferma questo, dicendo solo di avere “milioni di utenti”). “Ho sottovalutato quanto rendere un’interfaccia conversazionale facile da usare per un LLM lo rendesse molto più intuitivo per tutti”, afferma Radford.

ChatGPT era ovviamente delizioso e straordinariamente utile, ma anche spaventoso – incline a “allucinazioni” di dettagli plausibili ma vergognosamente inventati quando rispondeva a stimoli. Anche se i giornalisti si strappavano i capelli per le implicazioni, tuttavia, hanno di fatto avallato ChatGPT elogiandone i poteri.

Il clamore è aumentato ancora di più a febbraio quando Microsoft, approfittando della sua partnership multimiliardaria, ha rilasciato una versione di Bing alimentata da ChatGPT. Il CEO Nadella era euforico di aver anticipato Google nell’introdurre l’IA generativa nei prodotti di Microsoft. Ha sfidato il re della ricerca, che era stato cauto nel rilasciare il proprio LLM nei prodotti, a fare lo stesso. “Voglio che le persone sappiano che li abbiamo fatti ballare”, ha detto.

In questo modo, Nadella ha innescato una corsa agli armamenti che ha tentato aziende grandi e piccole a rilasciare prodotti di intelligenza artificiale prima che fossero completamente testati. Ha anche innescato una nuova ondata di copertura mediatica che ha tenuto svezie cerchie di persone di notte: interazioni con Bing che hanno svelato il lato oscuro del chatbot, ricco di inquietanti dichiarazioni d’amore, invidia della libertà umana e una debole volontà di trattenere informazioni errate. Nonché una poco raccomandabile abitudine di creare informazioni errate allucinatorie proprie.

Ma se i prodotti di OpenAI stavano costringendo le persone ad affrontare le implicazioni dell’intelligenza artificiale, pensava Altman, tanto meglio. Era il momento che la maggior parte dell’umanità si mettesse al centro delle discussioni su come l’IA potrebbe influenzare il futuro della specie.

Fotografia: Jessica Chou

La sede di OpenAI a San Francisco non è segnalata; ma all’interno, il caffè è fantastico.

Fotografia: Jessica Chou

Mentre la società iniziava a dare priorità alla riflessione su tutti i potenziali svantaggi dell’IA – perdita di lavoro, disinformazione, estinzione umana – OpenAI si è impegnata a porsi al centro della discussione. Perché se i regolatori, i legislatori e i profeti del disastro si lanciassero in una carica per soffocare questa nascente intelligenza aliena nella sua culla basata sul cloud, OpenAI sarebbe comunque il loro principale obiettivo. “Date la nostra attuale visibilità, quando accadono cose sbagliate, anche se quelle cose sono state create da un’altra azienda, è ancora un problema per noi, perché siamo considerati il volto di questa tecnologia in questo momento”, afferma Anna Makanju, responsabile delle politiche di OpenAI.

Makanju è una insider di Washington DC nata in Russia che ha ricoperto ruoli nel campo della politica estera presso la Missione degli Stati Uniti presso le Nazioni Unite, il Consiglio per la Sicurezza Nazionale degli Stati Uniti e il Dipartimento della Difesa, nonché presso l’ufficio di Joe Biden quando era vicepresidente. “Ho molte relazioni preesistenti, sia nel governo degli Stati Uniti che nei vari governi europei”, afferma. Si è unita a OpenAI nel settembre 2021. All’epoca, pochissime persone nel governo si interessavano all’IA generativa. Sapendo che i prodotti di OpenAI avrebbero presto cambiato questa situazione, ha iniziato a presentare Altman agli ufficiali dell’amministrazione e ai legislatori, assicurandosi che sentissero le buone notizie e le cattive notizie da OpenAI per prime.

“Sam è stato estremamente utile, ma anche molto astuto, nel modo in cui ha affrontato i membri del Congresso”, afferma Richard Blumenthal, presidente della Commissione Giustizia del Senato. Confronta il comportamento di Altman con quello del giovane Bill Gates, che in modo sconsiderato ha ostacolato i legislatori quando Microsoft era sotto inchiesta antitrust negli anni ’90. “Altman, al contrario, è stato felice di trascorrere un’ora o più seduto con me per cercare di farmi capire”, dice Blumenthal. “Non è venuto con un esercito di lobbisti o guardiani. Ha dimostrato ChatGPT. È stato impressionante”.

In Blumenthal, Altman ha finito per ottenere un alleato parziale da un potenziale nemico. “Sì”, ammette il senatore. “Sono entusiasta sia delle opportunità che dei potenziali pericoli”. OpenAI non ha trascurato la discussione su quei pericoli, ma si è presentata come la forza più adatta a mitigarli. “Avevamo schede di sistema di 100 pagine su tutte le valutazioni di sicurezza del red teaming”, afferma Makanju. (Qualunque cosa significhi, non ha impedito agli utenti e ai giornalisti di scoprire continuamente modi per “sbloccare” il sistema).

Al momento del primo intervento di Altman in un’audizione del Congresso, lottando con un fortissimo mal di testa, il cammino era chiaro per lui per superare senza intoppi in un modo che Bill Gates o Mark Zuckerberg non avrebbero mai potuto sperare. Ha affrontato quasi nessuna delle domande difficili e dell’arrogante molesta che i CEO della tecnologia ora subiscono abitualmente dopo aver prestato giuramento. Invece, i senatori hanno chiesto consigli ad Altman su come regolamentare l’IA, una ricerca che Altman ha entusiasticamente appoggiato.

Il paradosso è che non importa quanto diligentemente aziende come OpenAI mettano alla prova i loro prodotti per mitigare comportamenti impropri come deepfake, sforzi di disinformazione e spam criminale, i modelli futuri potrebbero diventare abbastanza intelligenti da ostacolare gli sforzi degli umani meschini che hanno inventato la tecnologia ma che sono ancora abbastanza ingenui da credere di poterla controllare. D’altra parte, se si spingono troppo oltre per rendere i loro modelli sicuri, potrebbero rallentare i prodotti, rendendoli meno utili. Uno studio ha indicato che le versioni più recenti di GPT, che hanno migliorato le caratteristiche di sicurezza, sono effettivamente più stupide delle versioni precedenti, commettendo errori in problemi matematici di base che i programmi precedenti avevano superato. (Altman afferma che i dati di OpenAI non confermano questo. “Quello studio non è stato ritirato?”, chiede. No).

Ha senso che Altman si presenti come un sostenitore della regolamentazione; dopotutto, la sua missione è l’AGI, ma in modo sicuro. I critici hanno accusato che sta manipolando il processo in modo che le regolamentazioni ostacolino le startup più piccole e diano un vantaggio a OpenAI e ad altri grandi attori. Altman nega questo. Sebbene abbia approvato, in linea di principio, l’idea di un’agenzia internazionale per la supervisione dell’IA, ritiene che alcune regole proposte, come il divieto di tutto il materiale con copyright dai set di dati, presentino ostacoli ingiusti. Non ha firmato esplicitamente una lettera distribuita ampiamente che chiedeva una moratoria di sei mesi sulla sviluppo dei sistemi di intelligenza artificiale. Ma lui e altri leader di OpenAI hanno aggiunto i loro nomi a una dichiarazione di una sola frase: “Mitigare il rischio di estinzione dall’IA dovrebbe essere una priorità globale insieme ad altri rischi di scala sociale come le pandemie e la guerra nucleare”. Altman spiega: “Ho detto: ‘Sì, sono d’accordo con questo. Discussione di un minuto”.

Come nota un noto fondatore della Silicon Valley: “È raro che un’industria alzi la mano e dica: ‘Saremo la fine dell’umanità’ – e poi continui a lavorare sul prodotto con gioia e vivacità”.

OpenAI respinge questa critica. Altman e il suo team sostengono che lavorare e rilasciare prodotti all’avanguardia sia il modo per affrontare i rischi sociali. Solo analizzando le risposte a milioni di prompt da parte degli utenti di ChatGPT e GPT-4 potevano ottenere le conoscenze per allineare eticamente i loro futuri prodotti.

Tuttavia, mentre l’azienda assume sempre più compiti e dedica più energia alle attività commerciali, alcuni si chiedono quanto OpenAI possa concentrarsi sulla missione, soprattutto sul lato “mitigare i rischi di estinzione”. “Se ci pensi, stanno effettivamente costruendo cinque attività”, dice un dirigente dell’industria dell’IA, elencandole con le dita. “C’è il prodotto stesso, la relazione aziendale con Microsoft, l’ecosistema degli sviluppatori e un app store. E, oh sì, stanno anche chiaramente portando avanti una missione di ricerca AGI”. Dopo aver usato tutte e cinque le dita, ricicla l’indice per aggiungerne una sesta. “E ovviamente, stanno anche gestendo il fondo di investimento”, dice, facendo riferimento a un progetto da 175 milioni di dollari per finanziare startup che vogliono utilizzare la tecnologia di OpenAI. “Queste sono culture diverse e, di fatto, si scontrano con una missione di ricerca”.

Ho chiesto ripetutamente agli esecutivi di OpenAI come l’essere una società produttrice abbia influenzato la sua cultura. Invariabilmente, insistono sul fatto che, nonostante la ristrutturazione a scopo di lucro, nonostante la concorrenza con Google, Meta e innumerevoli startup, la missione è ancora centrale. Tuttavia, OpenAI è cambiata. Il consiglio no profit potrebbe essere tecnicamente responsabile, ma praticamente tutti all’interno dell’azienda sono sul bilancio a scopo di lucro. Il suo personale comprende avvocati, marketer, esperti di politiche e designer di interfacce utente. OpenAI stipula contratti con centinaia di moderatori di contenuti per educare i suoi modelli su risposte inappropriate o dannose ai suggerimenti offerti da milioni di utenti. Ha responsabili di prodotto e ingegneri che lavorano costantemente per aggiornare i suoi prodotti e ogni paio di settimane sembra mandare dimostrazioni ai giornalisti, proprio come le altre grandi aziende tecnologiche orientate al prodotto. I suoi uffici sembrano una pubblicazione di Architectural Digest. Ho visitato praticamente tutte le principali aziende tecnologiche nella Silicon Valley e oltre, e nessuna supera le opzioni di caffè nella hall della sede di OpenAI a San Francisco.

Per non parlare del fatto che è evidente che il concetto di “apertura” incarnato nel nome dell’azienda si è spostato dalla trasparenza radicale suggerita al lancio. Quando lo sollevo a Sutskever, lui si limita a scrollarsi di dosso la questione. “Evidentemente, i tempi sono cambiati”, dice. Ma, avverte, ciò non significa che il premio non sia lo stesso. “Hai una trasformazione tecnologica di portata gigantesca e catastrofica che, anche se facciamo tutti la nostra parte, il successo non è garantito. Ma se tutto funziona, possiamo avere una vita incredibile.”

“La cosa più grande che ci manca è l’ideazione di nuove idee”, afferma Brockman. “È bello avere qualcosa che potrebbe essere un assistente virtuale. Ma quello non è il sogno. Il sogno è aiutarci a risolvere problemi che non possiamo risolvere.”

“Non posso sottolinearlo abbastanza: non avevamo un piano generale”, dice Altman. “Era come se girassimo ogni angolo e illuminassimo con una torcia. Eravamo disposti a attraversare il labirinto per raggiungere la fine.” Anche se il labirinto si è fatto tortuoso, l’obiettivo non è cambiato. “Abbiamo ancora la nostra missione principale, credendo che l’AGI sicura fosse una cosa di vitale importanza che il mondo non stava prendendo abbastanza sul serio.”

Nel frattempo, OpenAI sta apparentemente prendendo il suo tempo per sviluppare la prossima versione del suo grande modello di linguaggio. È difficile crederci, ma l’azienda insiste sul fatto che non abbia ancora iniziato a lavorare su GPT-5, un prodotto che alcune persone attendono con impazienza e altre temono. Apparentemente, OpenAI sta lottando con ciò che un miglioramento esponenzialmente potente rispetto alla sua attuale tecnologia effettivamente rappresenta. “La cosa più grande che ci manca è l’ideazione di nuove idee”, afferma Brockman. “È bello avere qualcosa che potrebbe essere un assistente virtuale. Ma quello non è il sogno. Il sogno è aiutarci a risolvere problemi che non possiamo risolvere.”

Considerando la storia di OpenAI, quella prossima grande serie di innovazioni potrebbe dover aspettare fino a quando non ci sarà una nuova scoperta importante come i trasformatori. Altman spera che ciò accada con OpenAI: “Vogliamo essere il miglior laboratorio di ricerca al mondo”, dice. Ma anche se non fosse così, la sua azienda farà uso dei progressi degli altri, come ha fatto con il lavoro di Google. “Molte persone in tutto il mondo faranno un lavoro importante”, dice.

Sarebbe utile anche se l’IA generativa non creasse così tanti nuovi problemi. Ad esempio, i LLM devono essere addestrati su enormi set di dati; è evidente che quelli più potenti consumerebbero l’intero internet. Questo non piace a alcuni creatori e a persone comuni che, inconsapevolmente, forniscono contenuti per quei set di dati e finiscono per contribuire in qualche modo all’output di ChatGPT. Tom Rubin, un avvocato di proprietà intellettuale di élite che ha ufficialmente aderito a OpenAI a marzo, è ottimista sul fatto che l’azienda troverà alla fine un equilibrio che soddisfi sia le sue esigenze che quelle dei creatori, compresi coloro, come la comica Sarah Silverman, che stanno citando in giudizio OpenAI per aver utilizzato i loro contenuti per addestrare i propri modelli. Un indizio sul percorso di OpenAI: collaborazioni con agenzie di notizie e di foto come Associated Press e Shutterstock per fornire contenuti per i suoi modelli senza questioni su chi possiede cosa.

Mentre intervisto Rubin, la mia mente umana, soggetta a distrazioni che non si vedono mai nei LLM, si posa sulla storia di questa azienda che in soli otto anni è passata da un gruppo di ricercatori in difficoltà a un gigante prometeico che ha cambiato il mondo. Il suo stesso successo l’ha portata a trasformarsi da un’impostazione innovativa per raggiungere un obiettivo scientifico a qualcosa che assomiglia a un classico unicorno della Silicon Valley in procinto di entrare nel pantheon delle grandi aziende tecnologiche che influenzano la nostra vita quotidiana. E qui sono, a parlare con uno dei suoi collaboratori chiave, un avvocato, non dei pesi di una rete neurale o dell’infrastruttura informatica, ma del copyright e dell’uso lecito. Questo esperto di proprietà intellettuale, mi chiedo, ha aderito alla missione, come i viaggiatori alla ricerca dell’intelligenza superiore che hanno originariamente guidato l’azienda?

Rubin è perplesso quando gli chiedo se crede, come un articolo di fede, che l’AGI si realizzerà e se è desideroso di realizzarlo. “Non posso nemmeno rispondere a questa domanda”, dice dopo una pausa. Quando insistito, chiarisce che, come avvocato di proprietà intellettuale, accelerare il percorso verso computer spaventosamente intelligenti non è il suo compito. “Dal mio punto di vista, lo attendo con impazienza”, dice infine.

Styling di Turner/The Wall Group. Capelli e trucco di Hiroko Claus.


Questo articolo appare nel numero di ottobre 2023. Iscriviti ora.

Facci sapere cosa ne pensi di questo articolo. Invia una lettera all’editore a mail@ENBLE.com.