Chi è Mira Murati, il nuovo CEO ad interim di OpenAI?

Chi è Mira Murati, la nuova CEO ad interim di OpenAI?

Fino alla drammatica partenza del cofondatore e CEO di OpenAI, Sam Altman, venerdì scorso, Mira Murati era il suo direttore tecnologico, ma potresti anche chiamarla il suo ministro della verità. Oltre a guidare i team che sviluppano strumenti come ChatGPT e Dall-E, il suo compito è stato quello di assicurarsi che quei prodotti non ingannino le persone, mostrino pregiudizi o annientino del tutto l’umanità.

Questa intervista è stata condotta a luglio 2023 per la copertina di ENBLE su OpenAI. Viene pubblicata oggi dopo la repentina partenza di Sam Altman per fornire uno sguardo al pensiero del nuovo capo della potente azienda di intelligenza artificiale.

Steven Levy: Come sei entrata a far parte di OpenAI?

Mira Murati: La mia formazione è in ingegneria e ho lavorato nell’aerospaziale, nell’automotive, nella realtà virtuale e aumentata. Sia nel mio periodo in Tesla [dove ho guidato il Model X] che in una società di realtà virtuale [Leap Motion] ho applicato l’intelligenza artificiale nel mondo reale. Ho rapidamente creduto che l’IA generale (AGI) sarebbe stata l’ultima e più importante tecnologia principale che avremmo sviluppato e volevo essere al centro di essa. Open AI era l’unica organizzazione all’epoca che aveva l’incentivo ad occuparsi delle capacità della tecnologia dell’IA e allo stesso tempo assicurarsi che andasse bene. Quando ho aderito nel 2018, ho iniziato a lavorare alla nostra strategia di supercalcolo e a gestire un paio di team di ricerca.

Quali momenti ti sono rimasti impressi come importanti traguardi durante il tuo periodo qui?

Ci sono così tanti momenti importanti che è difficile ricordarli. Viviamo nel futuro e vediamo cose incredibili ogni giorno. Ma ricordo che GPT-3 è stato in grado di tradurre. Parlo italiano, albanese e inglese. Ricordo di aver creato semplici prompt di coppie di frasi in inglese e italiano. E all’improvviso, anche se non l’avevamo mai addestrato per tradurre in italiano, poteva farlo abbastanza bene.

Eri a OpenAI abbastanza presto da esserci quando è passata da un’organizzazione no profit a una riorganizzazione in cui è stata creata un’entità a scopo di lucro. Come ti sei sentita riguardo a ciò?

Non è stato fatto alla leggera. Per capire veramente come migliorare e rendere più sicuri i nostri modelli, è necessario implementarli su larga scala. Questo costa molto denaro. Richiede di avere un piano aziendale, perché i generosi donatori no profit non daranno miliardi come farebbero gli investitori. Per quanto ne so, non c’è un’altra struttura del genere. La cosa fondamentale era proteggere la missione della no profit.

Può essere complicato dato che collabori molto profondamente con una grande azienda tecnologica. Senti che la tua missione è in linea con quella di Microsoft?

Nel senso che loro credono che questa sia la nostra missione.

Ma non è la loro missione.

No, non è la loro missione. Ma era importante che l’investitore credesse realmente che questa sia la nostra missione.

Quando ti sei unita nel 2018, OpenAI era principalmente un laboratorio di ricerca. Sebbene tu continui a fare ricerca, ora sei molto di più una società produttrice di prodotti. Questo ha cambiato la cultura?

Certamente ha cambiato molto l’azienda. Mi sembra che quasi ogni anno ci sia una sorta di cambio di paradigma in cui dobbiamo riconsiderare il modo in cui facciamo le cose. È un po’ come un’evoluzione. Ciò che è più ovvio ora per tutti è questa necessità di adattamento continuo nella società, aiutando a portare questa tecnologia nel mondo in modo responsabile e aiutando la società ad adattarsi a questo cambiamento. Ciò non era necessariamente ovvio cinque anni fa, quando stavamo solo facendo cose nel nostro laboratorio. Ma mettere GPT-3 in un’API, lavorare con clienti e sviluppatori, ci ha aiutato a sviluppare questa capacità di comprendere il potenziale che la tecnologia ha nel cambiare le cose nel mondo reale, spesso in modi diversi da quelli che prevediamo.

Sei stata coinvolta in Dall-E. Poiché produce immagini, hai dovuto considerare cose diverse rispetto a un modello di testo, incluso chi possiede le immagini che il modello utilizza. Quali erano le tue paure e quanto ti senti di essere stata di successo?

È ovvio che abbiamo fatto un sacco di attività di valutazione. Ricordo che è stato fonte di gioia, allegria e divertimento. Le persone hanno proposto tutte queste idee creative e folli. Abbiamo deciso di rendere Dall-E disponibile nei laboratori, come un modo semplice per le persone di interagire con la tecnologia e imparare su di essa. E anche di pensare alle implicazioni politiche e a come Dall-E possa influenzare prodotti e social media, o altre cose là fuori. Abbiamo anche lavorato molto con i creativi per avere il loro contributo lungo il percorso, perché lo vediamo internamente come uno strumento che migliora davvero la creatività, anziché sostituirla. Inizialmente si era ipotizzato che l’IA avrebbe prima automatizzato una serie di lavori e la creatività era l’area in cui noi umani avevamo il monopolio. Ma abbiamo visto che questi modelli di IA hanno effettivamente il potenziale di essere veramente creativi. Quando vedi gli artisti lavorare con Dall-E, i risultati sono davvero magnifici.

Dal momento che OpenAI ha rilasciato i suoi prodotti, sono sorte domande riguardo al loro impatto immediato su questioni come il copyright, il plagio e i posti di lavoro. Mettendo cose come GPT-4 alla mercé del pubblico, è quasi come costringere la gente ad affrontare questi problemi. È stato intenzionale?

Sicuramente. È molto importante capire come renderlo disponibile in modo sicuro e responsabile, aiutando le persone ad integrarlo nel loro flusso di lavoro. Cambierà intere industrie; alcune persone lo hanno paragonato all’elettricità o alla stampa. Perciò è fondamentale cominciare a integrarlo in ogni aspetto della società e riflettere su questioni come le leggi sul copyright, la privacy, la governance e la regolamentazione. Dobbiamo assicurarci che la gente possa sperimentare davvero cosa questa tecnologia è in grado di fare, anziché leggerne in qualche comunicato stampa, soprattutto considerando quanto rapidi sono i progressi tecnologici. È inutile resistere. Penso sia importante abbracciarla e capire come farla funzionare bene.

Sei convinto che sia il modo ottimale per avvicinarci alla AGI?

Non ho trovato un modo migliore delle implementazioni iterative per capire come ottenere questa adattabilità continua e ottenere feedback dal mondo reale che alimenti la tecnologia rendendola più robusta in questi casi d’uso. È molto importante farlo ora, quando le conseguenze ancora sono basse. Man mano che ci avviciniamo alla AGI, probabilmente si evolverà di nuovo, e la nostra strategia di implementazione cambierà man mano che ci avviciniamo ad essa.