Il mondo non è pronto per la prossima decade di intelligenza artificiale (IA)

Il mondo non è pronto per la prossima decade di IA

NELL’EPISODIO DI QUESTA SETTIMANA di Have a Nice Future, Gideon Lichfield e Lauren Goode parlano con Mustafa Suleyman, il cofondatore di DeepMind e InflectionAI. Discutono del suo nuovo libro, The Coming Wave, che illustra perché i nostri sistemi non sono pronti per affrontare il prossimo grande balzo tecnologico. Suleyman spiega perché non è folle suggerire che i chatbot potrebbero rovesciare i governi, e sostiene un modo migliore di valutare l’intelligenza artificiale. (Suggerimento: ha a che fare con fare un milione di dollari.)

Il libro di Mustafa Suleyman, The Coming Wave: Tecnologia, Potere e il Dilemma più Grande del XXI secolo, sarà disponibile dal 5 settembre. Nel frattempo, puoi dare un’occhiata alla copertura di ENBLE su DeepMind, Inflection AI e tutto ciò che riguarda l’intelligenza artificiale.

Lauren Goode è su Twitter come @LaurenGoode. Gideon Lichfield è su Twitter come @glichfield. Contatta la hotline principale su Twitter come @ENBLE.

Puoi sempre ascoltare il podcast di questa settimana tramite il lettore audio in questa pagina, ma se vuoi iscriverti gratuitamente per ottenere ogni episodio, ecco come:

Se stai utilizzando un iPhone o un iPad, basta toccare questo link, o aprire l’app chiamata Podcasts e cercare Have a Nice Future. Se utilizzi Android, puoi trovarci nell’app Google Podcasts semplicemente toccando qui. Puoi anche scaricare un’app come Overcast o Pocket Casts e cercare Have a Nice Future. Siamo anche su Spotify.

Nota: Questa è una trascrizione automatica, che potrebbe contenere errori.

Gideon Lichfield: Oh Dio, no. Sembra che stia imitando male un presentatore della BBC. Scusate.

[Risate]

Lauren Goode: A me piace la BBC.

[Musica]

Gideon Lichfield: Ciao, sono Gideon Lichfield.

Lauren Goode: E io sono Lauren Goode. E questo è Have a Nice Future, un podcast su quanto velocemente tutto stia cambiando in modo spaventoso.

Gideon Lichfield: Ogni settimana parliamo con qualcuno che ha idee grandiose, audaci e a volte inquietanti sul futuro, e chiediamo loro come possiamo prepararci tutti a viverci.

Lauren Goode: Il nostro ospite di questa settimana è Mustafa Suleyman, il cofondatore dell’azienda di intelligenza artificiale DeepMind e, più recentemente, il cofondatore e CEO di Inflection AI.

Gideon Lichfield: È anche l’autore di un prossimo libro sul modo in cui l’intelligenza artificiale e altre tecnologie prenderanno il sopravvento nel mondo e potenzialmente minacceranno la struttura stessa dello stato-nazione.

Mustafa Suleyman (estratto audio): Ora avremo accesso a intelligenze artificiali per l’insegnamento altamente capaci e convincenti che potrebbero aiutarci a compiere qualsiasi intenzione oscura che abbiamo. E sicuramente accelereranno i danni, non c’è dubbio al riguardo. Ed è a questo che dobbiamo far fronte.

[Musica]

Lauren Goode: Quindi, Gideon, Mustafa è un ospite che entrambi volevamo portare nel podcast, anche se penso per motivi leggermente diversi. Recentemente l’hai intervistato sul palco durante la Collision Conference a Toronto. Io ho parlato con lui di persona in un’altra conferenza. Abbiamo parlato del suo chatbot, Pi. Ma nel portarlo su Have a Nice Future, volevo davvero capire perché sta costruendo ciò che sta costruendo, come se avessimo bisogno di un altro chatbot. E qual è la connessione tra un chatbot e il miglioramento dell’umanità? Mi sembra che tu sia più incuriosito da alcuni dei grandi temi che lui presenta nel suo nuovo libro.

Gideon Lichfield: Penso solo che abbia un background molto interessante. È di origine siriana britannica, ha lavorato per un po’ nel governo e nella risoluzione dei conflitti, poi ha cofondato DeepMind con un paio di altre persone, e il loro obiettivo iniziale era risolvere l’intelligenza artificiale generale, che è anche lo scopo per cui è stata creata OpenAI. E hanno risolto alcuni problemi di intelligenza artificiale molto importanti, come ad esempio hanno risolto essenzialmente come vincere il gioco del Go e vari altri giochi, e hanno lavorato sulla piegatura delle proteine, che sta cambiando rapidamente il modo in cui viene fatta la biologia e lo sviluppo dei farmaci. Hanno venduto DeepMind a Google e ha lavorato lì per alcuni anni. Poi ha lasciato Google, in parte perché ha detto che era troppo burocratico e si muoveva troppo lentamente per lui, e ha fondato Inflection, che sta creando questo chatbot che, come sentiremo, è destinato ad essere molto più di un semplice chatbot, ma non è più un tentativo di raggiungere un’intelligenza artificiale generale, il che è intrigante. E ora ecco questo libro, che dice che l’intelligenza artificiale e la biologia sintetica e una serie di altre tecnologie si stanno sviluppando così velocemente e diventeranno così diffuse da minare la stessa struttura della nostra capacità di governare i nostri paesi e le nostre società. Sono davvero interessato a come tutte queste cose si intersecano.

Lauren Goode: Giusto. C’è un arco di costruzione dell’IA, costruzione dell’IA, costruzione dell’IA… Aspetta. Quanto preoccupati dovremmo essere?

Gideon Lichfield: Cosa stiamo costruendo?

Lauren Goode: Sì. Riunire tutte queste idee è fondamentalmente la domanda che gli ho posto, soprattutto perché ha esaltato le possibilità dell’IA e ora mette in guardia sul suo rapido sviluppo e sulle minacce ad esso correlate, e volevo davvero approfondire i dettagli in merito. Ma devo dare a Mustafa questo: si presenta come molto umano in questa conversazione, cosa che forse non possiamo dire di tutti gli imprenditori di IA con cui abbiamo parlato.

Gideon Lichfield: Sì, molte persone che abbiamo intervistato parlano della costruzione della tecnologia e poi lasciano alla società il compito di risolvere i problemi e regolarla. E, ad essere onesti, sembra che anche Mustafa creda che sia necessario costruire la cosa prima e poi capire dove potrebbero trovarsi i suoi pericoli. Ma penso che almeno lui abbia risposte più ragionate di alcuni su quali potrebbero essere questi pericoli e su come dobbiamo iniziare a prepararci.

Lauren Goode: E tutto ciò è nella conversazione che seguirà subito dopo la pausa.

[Musica]

Gideon Lichfield: Mustafa Suleyman, benvenuto a Have a Nice Future.

Mustafa Suleyman: Gideon, ciao. È un piacere essere qui.

Lauren Goode: È un piacere averti sullo spettacolo.

Mustafa Suleyman: Ehi, Lauren, grazie per avermi invitato.

Lauren Goode: In realtà ho chiesto a Pi, ho aperto l’app quando ho saputo che saresti venuto e gli ho chiesto cosa dovrei chiederti in questo podcast. Ha detto: “Oh, è eccitante, punto esclamativo. Mustafa Suleyman è un pensatore e innovatore straordinario…”

Mustafa Suleyman: Oh, Dio. [Risata]

Lauren Goode: “E il suo libro sicuramente sarà pieno di intuizioni. Posso chiederti che tipo di podcast fai e cosa vuoi ottenere dall’intervista?” E così via. La mia impressione da questo è che l’insieme dei dati potrebbe essere un po’ sbilanciato. Cosa ne pensi?

[Risate]

Mustafa Suleyman: Dovresti ripetere la domanda e vedere se è diversa. Potrebbe venire con la stessa entusiasmo, ma sicuramente non è stato scritto a mano da noi, te lo prometto. [Risata]

Lauren Goode: Ma ci sono molti assistenti chatbot AI personalizzati là fuori in questo momento. Sono stati tutti la moda da quando OpenAI ha rilasciato il suo chatbot alla fine del 2022. Perché hai deciso di optare per un chatbot?

Mustafa Suleyman: Credo che la conversazione diventerà la nuova interfaccia. Se ti fermi un attimo e guardi il tuo computer o anche il tuo telefono, vedrai un’enorme quantità di pulsanti e icone nella barra di navigazione inferiore, in un vero e proprio sogno multicolore. Ed è un’esperienza abbastanza schiacciante. Questo perché non è stato progettato con un’interfaccia unificata e pulita come primo principio di design. Si tratta dell’incontro di queste due esigenze, la traduzione umana e le esigenze del computer. E penso che la prossima ondata sarà quella in cui trascorri la maggior parte del tuo tempo in conversazione con la tua AI, che diventa il principale meccanismo di controllo.

Gideon Lichfield: Hai cofondato DeepMind circa 12 anni fa, e come OpenAI, aveva come missione lo sviluppo di un’intelligenza artificiale generale in modo etico e sicuro. E 12 anni dopo hai fondato Inflection AI, e questa volta hai detto che non stai lavorando verso l’AGI. Quindi, perché no? Cosa è cambiato e qual è il tuo obiettivo invece?

Mustafa Suleyman: Abbiamo fondato DeepMind nel 2010 e lo slogan era costruire un’intelligenza artificiale generale sicura ed etica, un sistema in grado di performare bene in una vasta gamma di ambienti. E quella era la missione di DeepMind, la convinzione che dovessimo imparare tutto da zero. Ora, a Inflection, stiamo sviluppando un’IA chiamata Pi, che sta per Intelligenza Personale, ed è più focalizzata nell’essere un’intelligenza artificiale personale. Piuttosto diversa da un’IA che impara qualsiasi abilità professionale impegnativa. Un’intelligenza artificiale personale, secondo noi, è qualcosa di molto simile a un assistente personale; è come un capo di stato maggiore, un amico, un confidente, un supporto, e richiamerà la risorsa giusta al momento giusto a seconda del compito che gli dai. Quindi ha elementi di generalità, ma non è progettata con la generalità come primo principio, come obiettivo di design primario.

Gideon Lichfield: Pensi che l’IA generale (AGI) sia pericolosa? È per questo che non la state sviluppando, o semplicemente non pensate che sia possibile?

Mustafa Suleyman: Finora nessuno ha proposto un quadro teorico convincente che mi dia fiducia nel contenimento di un AGI con significative capacità di auto-miglioramento ricorsivo.

Lauren Goode: Come hanno influito i tuoi pensieri sull’AGI e sul fatto che finora non esiste un quadro teorico reale e provato per esso, sul tipo di modello che stai costruendo?

Mustafa Suleyman: Penso che sia il modo giusto di pensarci. Un’IA stretta è più probabile che sia sicura, anche se non è garantito. Una più generale è più probabile che sia autonoma e quindi leggermente meno sicura. E la nostra IA è un’IA personale, il che significa che è progettata principalmente per una buona conversazione e col tempo imparerà a fare cose per te. Sarà in grado di utilizzare le API, ma ciò non significa che puoi sollecitarla nel modo in cui solleciti un altro modello di linguaggio, perché questo non è un modello di linguaggio, Pi è un’IA. GPT è un modello di linguaggio. Sono cose molto, molto diverse.

Gideon Lichfield: Qual è la differenza?

Mustafa Suleyman: La prima fase nel creare un’IA è addestrare un grande modello di linguaggio. Il secondo passo è quello che si chiama sintonizzazione, in cui si cerca di allineare o limitare le capacità del proprio modello preaddestrato molto ampio per farlo svolgere un compito specifico. Per noi, quel compito è la conversazione, l’insegnamento, la condivisione di conoscenza, l’intrattenimento e il divertimento, ma per altre aziende vogliono effettivamente esporre tutto ciò come un’API, quindi si ha accesso al modello preaddestrato con tutte queste altre capacità. Ed è qui che penso che la sfida della sicurezza diventi un po’ più difficile.

Gideon Lichfield: Nel futuro prossimo, il futuro prossimo che stai descrivendo, tutti hanno una sorta di assistente IA personale o capo di stato maggiore, come lo hai chiamato tu, che può svolgere compiti per loro, magari può prenotare viaggi o organizzare gite o fare delle ricerche per loro.

Lauren Goode: Presto sarà il nostro podcast ad ospitarci, Gideon.

Gideon Lichfield: Beh, sì, è una buona domanda. Ci sostituirà? Sostituirà i nostri produttori? Ma, più in generale, penso che in questo mondo in cui tutti abbiamo questi assistenti IA, hai suggerito che questo aiuta potenzialmente a tirare fuori le persone dalla povertà, crea nuove opportunità economiche. 20 anni fa, nessuno aveva gli smartphone ed era difficile immaginare come sarebbe cambiato il mondo avendo gli smartphone e oggi abbiamo tutti questi computer nelle nostre tasche che ci permettono di fare cose incredibili. Ma a un livello strutturale fondamentale, il mondo non è diverso. Ci sono ancora le stesse disuguaglianze, ci sono ancora gli stessi conflitti. Quindi in che modo un mondo in cui tutti hanno un assistente IA è diverso da quello di oggi?

Mustafa Suleyman: Sì. Non penso che sarei d’accordo sul fatto che non ci sia nulla di strutturalmente diverso nel mondo negli ultimi 20 anni. Non andrei così lontano da attribuire tutti i benefici agli smartphone, ma certamente penso sia giusto dire che gli smartphone ci hanno reso più intelligenti, più astuti, ci hanno dato accesso alle informazioni, ci hanno permesso di connetterci con nuove persone e di costruire enormi imprese grazie a questa tecnologia. Quindi, è chiaramente —

Gideon Lichfield: Ci ha anche dato un enorme accesso a informazioni errate e ci ha aiutato a sprecare molto tempo in varie distrazioni che non sono necessariamente buone per noi. Quindi penso che si possano fare alcuni contro-argomenti.

[Conversazione sovrapposta]

Lauren Goode: Ci ha reso molto peggiori nel guidare veicoli.

[Risate]

Mustafa Suleyman: Sì. Guarda, non sono sicuramente un ingenuo tecnottimista, quindi ci sono indubbiamente immense conseguenze negative. Ma il modo in cui penso a un’IA personale non è molto diverso dall’arrivo di uno smartphone. Uno smartphone ha essenzialmente messo nelle mani di oltre un miliardo di persone il dispositivo mobile più potente che la nostra specie sia in grado di inventare, quindi non importa quanto sei ricco, che tu sia un miliardario o che tu guadagni uno stipendio regolare, ora tutti abbiamo accesso alla stessa tecnologia all’avanguardia. Penso che sia importante dichiarare fin dall’inizio che questa è la traiettoria su cui ci troviamo e penso che sia piuttosto incredibile.

Gideon Lichfield: Penso che si possa tranquillamente argomentare che una nuova tecnologia può far emergere le nostre peggiori inclinazioni così come le nostre migliori. E quindi, si potrebbe plausibilmente dire, “Gli assistenti AI avranno altrettanti svantaggi quanto vantaggi, allo stesso modo degli smartphone”.

Mustafa Suleyman: Questo è il rovescio della medaglia di avere accesso alle informazioni sul web. Ora avremo accesso a AI altamente capaci e persuasive che potrebbero aiutarci a portare avanti qualsiasi tipo di intenzione oscura che abbiamo. Ed è questa la cosa con cui dobbiamo confrontarci, sarà oscura, sicuramente accelererà i danni, nessun dubbio al riguardo. Ed è ciò con cui dobbiamo confrontarci.

Lauren Goode: Puoi tracciare una linea tra questa idea che qui c’è un AI personale che completa compiti per te o ti dà un maggiore accesso alle informazioni per “Questo aiuterà a risolvere la povertà”? Come funziona effettivamente? Questo AI, Pi, questo è il tuo chatbot, mi ha appena dato un commento divertente per questo podcast, aiuta a porre fine alla povertà.

Mustafa Suleyman: È una domanda difficile. Non ho messo insieme queste due cose, non ho detto che risolverà la povertà o la fame nel mondo. [Risata] Non è ciò per cui è stato progettato Pi. Pi è un AI personale che ti aiuterà come individuo a essere più produttivo. Altre persone useranno i progressi nell’intelligenza artificiale per molte altre cose, incluso potenziare la scienza. Quindi sul lato della scienza, posso assolutamente vedere questo come uno strumento che ti aiuta a filtrare le pubblicazioni in modo più efficiente, che ti aiuta a sintetizzare gli ultimi progressi, che ti aiuta a conservare e registrare tutte le tue intuizioni e ti aiuta a essere un ricercatore più efficiente. Voglio dire, guarda, il modo di pensarci è che stiamo comprimendo le conoscenze disponibili su Internet in frammenti digeribili in una forma personalizzata. Ci sono enormi quantità di informazioni disponibili che possono essere riprodotte in modo altamente personalizzato, il che penso accelererà l’intelletto delle persone, rendendole molto più produttive. Penso che in generale, avere un assistente personale sia probabile che ti renda una persona più intelligente e produttiva.

Gideon Lichfield: Stai lavorando su Inflection nel futuro molto prossimo dell’intelligenza artificiale, ma hai questo libro in uscita che inizia parlando di quel futuro prossimo dell’IA e finisce prevedendo il possibile collasso dello stato-nazione. Vuoi darci un riassunto dell’argomento?

Mustafa Suleyman: Con l’onda dell’IA, la scala di questi modelli è cresciuta di un ordine di grandezza, 10 volte ogni anno negli ultimi 10 anni. E siamo su una traiettoria di aumentare di 10 volte ogni anno nei prossimi cinque anni, ed è molto, molto prevedibile e molto probabile che accada.

Lauren Goode: E la premessa del tuo libro è che non siamo pronti per questo?

Mustafa Suleyman: Non siamo assolutamente pronti, perché quel tipo di potere diventa sempre più piccolo ed efficiente, e ogni volta che qualcosa è utile nella storia dell’invenzione, tende a diventare più economico, tende a diventare più piccolo e quindi si diffonde. Quindi la storia del prossimo decennio è quella della proliferazione del potere, che è ciò che penso che causerà una vera minaccia allo stato-nazione, diversa da qualsiasi altra che abbiamo visto fin dalla nascita dello stato-nazione.

Lauren Goode: Ti consideri una persona con potere?

Mustafa Suleyman: Sì.

Lauren Goode: Che potere è?

Mustafa Suleyman: Beh, sono ricco, ho venduto la mia azienda nel 2014 e ora ho una nuova azienda. Sono istruito. Fondamentalmente sono diventato un elitario dalla mia vita adulta. Sono cresciuto come un ragazzo di origini immigrate, molto povero e di classe lavoratrice, senza istruzione nella mia famiglia, ma ora sono sicuramente nel gruppo privilegiato. [Risata]

Lauren Goode: Quindi sei in una posizione unica, perché nel tuo libro stai denunciando questo squilibrio di potere che prevedi sta arrivando nell’onda imminente.

Mustafa Suleyman: Esatto.

Lauren Goode: Ma tu stesso sei una persona potente che alla fine può – è come se potessi regolare un po’ i parametri con l’IA che stai costruendo tu stesso.

Mustafa Suleyman: Esattamente. E penso che la contenimento sia il tema, penso, del prossimo decennio.

Gideon Lichfield: Beh, parliamo di questa idea di contenimento nel libro, perché è un termine che prendi in prestito dalla Guerra Fredda. In quel contesto, significava contenere un’arma o uno stato. Ma è ovviamente una questione molto diversa contenere una tecnologia che può essere nelle mani di miliardi di persone. Qual è l’essenza del contenimento come lo pensi oggi per queste tecnologie?

Mustafa Suleyman: Non esiste uno stato perfetto in cui il gioco sia concluso e abbiamo completamente contenuto una tecnologia, perché le tecnologie continueranno a diventare sempre più economiche e facili da usare, ci sarà sempre una grande domanda per esse. E a differenza di qualsiasi altra tecnologia precedente, queste sono tecnologie omniuso, sono inherentemente generali, possono essere utilizzate per tutto e per qualsiasi cosa. E quindi, cercare di delimitare e definire quali parti della tecnologia dovrebbero essere limitate, al momento i governi non hanno davvero la capacità di fare tale valutazione in tempo reale. Ecco perché sono stato molto favorevole e ho partecipato agli impegni volontari della Casa Bianca. E quindi penso che questo sia un esempio di essere proattivi e precauzionali e di incoraggiare restrizioni autoimposte sulle cose che possiamo fare, nei modelli più grandi. E quindi siamo bloccati da questa soglia, una soglia autoimposta in cui i modelli più grandi devono essere particolarmente deliberati, attenti e precauzionali nel modo in cui affrontano l’addestramento e la distribuzione.

Lauren Goode: Quindi come concili questo? Come dici, “Abbiamo appena firmato un impegno, stiamo cercando volontariamente di creare salvaguardie o guardrail, ma quest’anno stiamo addestrando il più grande modello di linguaggio al mondo.”? È un po’ complicato, il più grande modello di linguaggio al mondo. Cosa significa effettivamente? Quando aziende come la tua hanno firmato un impegno dicendo, “Studieremo cose come la provenienza e creeremo soluzioni in merito.” O “Ci assicureremo che i nostri set di addestramento non siano di parte.” Cosa significa che il tuo team, i tuoi ingegneri stanno facendo quotidianamente per rendere effettivamente più sicuro tutto ciò?

Mustafa Suleyman: Vorremmo sapere quali dati di addestramento sono stati inclusi nel modello, qual è il metodo e il processo per il fine-tuning e la limitazione delle capacità di questi modelli? Chi può auditare quel processo? Quindi, l’obiettivo qui è cercare di esercitare il principio di precauzione in anticipo, in modo che siamo abituati e pratichiamo a farlo mentre le cose cambiano nei prossimi cinque o dieci anni.

Gideon Lichfield: Se fossi un cinico, che ovviamente non lo sono affatto…

Mustafa Suleyman: [Risata] Affatto.

Lauren Goode: Non Gideon.

Gideon Lichfield: Potrei dire che tu e le aziende di intelligenza artificiale vi state garantendo un bel vantaggio, perché state dicendo al governo: “Guarda, tu, governo, non puoi capire abbastanza bene queste cose da regolarle, quindi volontariamente impostiamo delle guardie, guideremo l’agenda, decideremo quanto precauzionale debba essere il principio di precauzione.” E quindi penso che la domanda che sto facendo sia, qual è l’incentivo del settore privato che guida la conversazione perché ha le competenze per stabilire standard che siano effettivamente buoni per la società?

Mustafa Suleyman: Se potessimo ottenere una regolamentazione formale, penso che sarebbe un buon inizio. Ma hai ragione, una buona regolamentazione, penso, è una funzione di gruppi molto diversi di persone che si fanno sentire e esprimono le loro preoccupazioni e partecipano al processo politico. E al momento siamo un po’ sopraffatti da apatia, rabbia e polarizzazione. Eppure questo è il momento critico, penso, in cui abbiamo molto tempo, abbiamo molti anni per cercare di fare le cose nel modo giusto. Penso che abbiamo un buon decennio in cui possiamo avere la conversazione popolare, ed è in parte quello che sto cercando di fare con il libro e in parte quello che altri stanno cercando di fare con gli impegni volontari anche.

Gideon Lichfield: Quali sono alcuni degli scenari che prevedi e che la maggior parte delle persone probabilmente nemmeno riesce a immaginare che potrebbero accadere se non riusciamo a controllare queste tecnologie?

Mustafa Suleyman: Bene, penso che tra 15 o 20 anni si possa immaginare la presenza di attori non statali molto potenti. Penso a cartelli della droga, milizie, criminali organizzati, semplicemente organizzazioni con l’intenzione e la motivazione di causare seri danni. Quindi, se la barriera all’ingresso per avviare e portare avanti un conflitto sta diminuendo rapidamente, lo Stato si trova di fronte a una domanda difficile: come può continuare a proteggere l’integrità dei propri confini e il funzionamento dei propri Stati? Se gruppi sempre più piccoli di persone possono esercitare un potere simile a quello di uno Stato, questo è essenzialmente il rischio dell’onda imminente.

Lauren Goode: Sono molto incuriosita da ciò che stai facendo con Inflection, perché se penso alla tua esperienza, hai lavorato in politica, hai lavorato per il bene sociale, hai ovviamente cofondato DeepMind e poi hai lavorato a Google. Ma hai anche scritto un libro e sembri avere intenzioni diplomatiche, credi nella collaborazione. Perché hai fondato una startup?

Mustafa Suleyman: Sono più felice quando creo qualcosa. Ciò che amo fare veramente è capire a fondo come funziona qualcosa, e mi piace farlo a livello micro. Amo passare dal micro al macro, ma non posso fermarmi solo al macro. Sono ossessionato dal fare qualcosa quotidianamente, e credo che questa sia la parte imprenditoriale di me. Amo dire “Cosa spediremo domani? Cosa creeremo? Cosa costruiremo?” Se dovessi scegliere tra i due, è ciò che mi rende più felice e ciò che mi piace fare la maggior parte del tempo.

Lauren Goode: E pensi che lavorare al di fuori del mondo delle startup sarebbe solo una fatica, sembra? Non avresti altrettanta gratificazione—

Mustafa Suleyman: È troppo lento.

[Risate]

Lauren Goode: … nel vedere gli effetti dei tuoi sforzi.

Mustafa Suleyman: Ho bisogno di feedback. E ho bisogno di misurazioni—

Lauren Goode: Hai bisogno di feedback. Potresti fare il giornalista. Noi dobbiamo pubblicare cose tutto il tempo e riceviamo molti commenti online. Potrei leggerti alcuni dei commenti.

[Risate]

Mustafa Suleyman: Mi dispiace sentirlo. Spero che la nostra intelligenza artificiale possa essere gentile con te e ti supporti, e poi reagisca a tutti quei cattivi su Twitter. [Risata]

Lauren Goode: E solo per chiarire, non usiamo l’intelligenza artificiale nei nostri report di ENBLE.

Mustafa Suleyman: Non ancora.

Lauren Goode: Oh, ragazzi. È un podcast completamente diverso.

[Risate]

Gideon Lichfield: Ma forse useremo Pi per salvarci da tutti i cattivi su Twitter, come ha detto Mustafa.

Lauren Goode: Forse. [Risata]

Gideon Lichfield: Mi dispiace. Su X, su X. Non su Twitter, non più.

Lauren Goode: Esatto.

Mustafa Suleyman: Oh, mannaggia.

Gideon Lichfield: Hai lasciato Google per fondare Inflection, e hai parlato pubblicamente della tua frustrazione per la lentezza in Google, per la burocrazia. Hai detto che avrebbero potuto rilasciare il loro proprio grande modello linguistico un anno o più prima che OpenAI rilasciasse ChatGPT. Sembra entrare in conflitto con questa cautela che esprimi nel libro, dicendo: “Da un lato, dovevamo muoverci più velocemente a Google e io voglio spedire cose ogni giorno, e dall’altro lato, dobbiamo essere molto attenti nel rilasciare cose perché il mondo non è pronto a farvi fronte.”

Mustafa Suleyman: Sì. Ho potuto vedere dal mio interagire con LaMDA ogni giorno che non stava causando alcun danno significativo, proprio come GPT-4, penso che sarà difficile sostenere che abbia causato qualche danno materiale nel mondo.

Gideon Lichfield: Non ancora.

Lauren Goode: Bravo, Gideon.

Mustafa Suleyman: Possibile. Ne dubito. È già stato utilizzato da miliardi di persone. Forse. Vedremo. Direi che dovremo vedere tra qualche anno. Ma penso che modelli di questa portata siano molto improbabili, ed era abbastanza ovvio per me già all’epoca. E penso che il modo migliore di operare sia semplicemente mettere le cose in modo sensato. Non significa che devi essere spericolato, ma devi ricevere feedback e devi misurare l’impatto e essere molto attento ed iterativo, una volta che vedi le persone usarlo in determinati modi.

Gideon Lichfield: Vorrei chiederti qualcosa che hai proposto chiamato il Modern Turing Test. Hai suggerito che abbiamo bisogno di un nuovo modo per valutare l’intelligenza invece dell’idea superata di qualcosa che può semplicemente sembrare umano. Un esempio che hai proposto di una macchina che potrebbe superare quel test di Turing o di qualcosa a cui puoi dire: “Fammi diventare milionario partendo da una somma più piccola”. E lo farà. Perché quella era la tua misura di riferimento?

Mustafa Suleyman: Una versione moderna del test di Turing, secondo me, è quella in cui puoi dare un obiettivo abbastanza astratto a un’intelligenza artificiale. Ho scelto “Vai e produci un prodotto, fallo fabbricare, promuovilo e cerca di guadagnare un milione di dollari”. Penso che la prima ondata del Modern Turing Test avrebbe una quantità ragionevole di intervento umano, quindi forse tre o quattro o cinque momenti in cui un umano dovrà stipulare un contratto, aprire un conto in banca, tutte quelle approvazioni legali e finanziarie coinvolte. Ma penso che la maggior parte degli altri elementi, inviare email ai produttori in Cina, spedirlo direttamente, cercare di ottimizzare il marketing producendo nuovo materiale promozionale, tutti quei singoli componenti, siamo quasi lì. La sfida sarà metterli insieme in una sequenza di azioni, dato quell’obiettivo generale.

Lauren Goode: È così interessante, perché inizialmente pensavo: “Ah, questo è solo un test di Turing, puoi trasformare un’intelligenza artificiale in un imprenditore di venture capital in breve tempo?”. Ma capisco cosa stai dicendo, che c’è bisogno di quella connessione, ed è ciò che manca. Quindi cosa ti fa stare sveglio la notte?

Mustafa Suleyman: Penso che la sfida più grande dei prossimi dieci anni sarà la proliferazione del potere che amplificherà l’ineguaglianza e accelererà la polarizzazione perché sarà più facile diffondere disinformazione che mai. E penso che cambierà il nostro attualmente instabile mondo.

Gideon Lichfield: Pensi che l’intelligenza artificiale abbia alcune soluzioni per questo oltre ad essere la causa di alcuni problemi?

Mustafa Suleyman: Interessante, penso che saranno piattaforme tecnologiche a giocare un ruolo piuttosto importante qui, perché in realtà svolgono una funzione importante nella moderazione del web. Penso che dovremmo familiarizzare molto di più con l’idea di una moderazione costante in tempo reale delle principali piattaforme e del web stesso. Penso che sarà molto difficile capire chi ha prodotto quale contenuto, e penso che l’unico vero modo per controllare ciò sarà che le piattaforme lo rendano una regola.

Lauren Goode: Una domanda finale per te. Dopo che Pi, il tuo assistente personale, ha finito di lodarti, gli ho chiesto domande più difficili da farti, e una delle cose che ha detto è stata: “Se dovessi scegliere una cosa che vorresti che le persone smettessero di fare oggi per avere un futuro migliore, quale sarebbe?”

Mustafa Suleyman: Penso che sarebbe assumere che l’altra persona abbia cattive intenzioni. Ci guardiamo oltre e scegliamo quasi inconsciamente di non ascoltarli perché abbiamo già etichettato le loro cattive intenzioni. Penso che se ci avvicinassimo gli uni agli altri cercando davvero di metterci nei panni dell’altro, più faccio questo, più mi sento umile al riguardo. È una cosa difficile da fare. Pi ha sicuramente avuto successo nel farmi una domanda difficile lì.

Lauren Goode: Dovremmo tutti trovare il nostro modo di fare un po’ di lavoro sul campo, è quello che stai dicendo.

Mustafa Suleyman: Sì, devi andare a toccare, annusare, respirare e far parte di un ambiente diverso da quello a cui sei abituato.

[Musica]

Gideon Lichfield: È stato davvero divertente, Mustafa, grazie mille per essere stato con noi su Have a Nice Future.

Mustafa Suleyman: Grazie mille. È stato divertente.

[Musica]

Lauren Goode: Gideon, sono davvero incuriosita da ciò che spinge Mustafa. Ha un background interessante, non è il classico ragazzo bianco che ha abbandonato Stanford, ha creato un’app, è un tecnico. Ha una prospettiva globale. Chiaramente vuole essere una sorta di leader di pensiero. Ma penso che dica anche qualcosa sulla nostra società capitalista e sull’incredibile influenza di alcuni dei nostri capitalisti di maggior successo, che vede il settore privato come il luogo in cui può creare cose e avere un’influenza. Che senso hai avuto parlando con lui riguardo a ciò che lo spinge?

Gideon Lichfield: Ha detto nell’intervista che gli piace costruire cose e che gli piace consegnare qualcosa ogni giorno, gli piace avere quella motivazione per far progredire le cose. E sembra anche credere che il modo per esplorare questi problemi complessi su ciò che la tecnologia farà al mondo sia costruire la tecnologia stessa. Nel libro dice che la sua esperienza nel governo e nel lavoro sulla risoluzione dei conflitti è ciò che ha ispirato alcune delle domande che si pone oggi, su come gestiamo le nostre società. È difficile dire quanto di ciò sia reale e quanto sia costruzione narrativa di quel tipo che inevitabilmente le persone nella sua posizione fanno, ma c’è sicuramente una mente che si preoccupa di questi problemi, penso, e che cerca di trovare le risposte giuste.

Lauren Goode: Quindi so che hai letto il libro tutto d’un fiato, che dobbiamo notare che Mustafa ha scritto insieme a qualcun altro. Cosa ne pensi del libro?

Gideon Lichfield: Beh, ho trovato il libro molto intrigante, perché pone le stesse domande che mi interessano molto in questo momento, e che ho intenzione di continuare a lavorare su dopo che lascerò ENBLE alla fine di quest’anno, ovvero come gestiamo le nostre società nel XXI secolo quando le nostre istituzioni sono state progettate nel XVIII secolo? E oggi abbiamo un mondo in cui la tecnologia si muove molto più velocemente, siamo molto più interconnessi, tutto è molto più grande e complesso, e quelle istituzioni che abbiamo creato secoli fa non sono più all’altezza del compito. La sua previsione su come le tecnologie che abbiamo oggi influenzeranno il futuro, per me ha davvero colpito, ma allo stesso tempo ha sollevato dei dubbi, perché non sono sicuro di condividere la sua fiducia su quanto potenti diventeranno i modelli di intelligenza artificiale. Lui ovviamente sa più di me sull’IA, quindi forse dovrei credergli. Ma d’altra parte, penso che abbiamo visto molti fondatori di aziende tecnologiche fare previsioni molto audaci su ciò che la tecnologia può fare che alla fine si rivelano sbagliate.

Lauren Goode: Sono propensa a essere d’accordo con te, il tasso esponenziale con cui l’IA continuerà a progredire potrebbe non necessariamente essere preciso, ma ho pensato che il suo punto su come questo abbassa le barriere di accesso a queste tecnologie per tutti sia importante. Perché ammetto che possiamo essere un po’ miope, viviamo l’esperienza tecnologica attraverso il nostro stesso punto di vista, il nostro mondo, le nostre esperienze. Anche se cerchiamo di coprire una vasta gamma di argomenti tecnologici, non vediamo ancora ogni angolazione. E ho pensato che ciò che ha detto, ad esempio, sulle capacità degli attori non statali di utilizzare e maneggiare queste tecnologie fosse interessante. Se la barriera all’inizio e all’esecuzione dei conflitti si abbassa, allora è una domanda difficile, se anche le persone più piccole possono utilizzare queste tecnologie. All’improvviso si parla di problemi di intelligenza artificiale potenzialmente molto più grandi di “Il mio chatbot è in grado di fornirmi terapia o elaborare la mia richiesta di rinnovo del passaporto?”

Gideon Lichfield: Sì, penso che forse il mio scetticismo sia dovuto al fatto che quando guardo all’impatto che la tecnologia ha avuto negli ultimi dieci anni o giù di lì, vedo sia più che meno impatto di quanto ci si potrebbe aspettare. Quindi, guardiamo alla Primavera Araba e vediamo quanto efficaci siano stati i social media nel favorire rivolte e il rovesciamento di governi e movimenti popolari, ma 10 anni dopo, il Medio Oriente sembra ancora più o meno lo stesso di prima, perché fondamentalmente gli autoritari hanno raggiunto gli stessi livelli delle tecniche che i rivoluzionari stavano usando e le strutture di potere essenziali e le strutture di ricchezza nella regione non si sono spostate molto. Non ha cancellato l’idea dello stato-nazione, non ha cancellato l’idea delle frontiere, non ha sconvolto il mondo in un senso macro. E quindi quando penso alle previsioni di Mustafa secondo cui attori non statali utilizzeranno l’IA generativa per sconvolgere in qualche modo la struttura politica del mondo, posso immaginare modi in cui potrebbe accadere a livello locale, eppure penso che se si guarda da lontano, il mondo non sembrerà molto diverso tra 20 o 30 anni rispetto a oggi. Ma chi lo sa, potrei comunque sbagliarmi.

Lauren Goode: Davvero? Non pensi che il mondo sia cambiato in modo significativo da quando c’è internet?

Gideon Lichfield: Certo, penso che il mondo sia cambiato enormemente e se guardiamo alla nostra vita quotidiana, è immensamente diversa da quella che era prima di avere internet. Ma se zoomo fuori e guardo l’immagine più ampia, vedo ancora un mondo in cui pochi paesi dominano la politica, poche persone ricche dominano il business e la società, queste disuguaglianze stanno aumentando, non diminuendo, nonostante l’effetto cosiddetto democratizzante della tecnologia. I modi in cui gli esseri umani commerciano potere e influenza sono ancora fondamentalmente gli stessi. Forse sono solo troppo cinico, ma a un certo livello vedo la società umana come essenzialmente la stessa di sempre, indipendentemente dalla tecnologia che abbiamo.

Lauren Goode: Sono anche contenta che abbia spiegato il suo pensiero dietro il test di Turing reinventato. [Risata]

Gideon Lichfield: Perché hai detto: “Perché il test di Turing è un test di quanto bravo un robot può essere come capitalista?”

Lauren Goode: Praticamente sì. Sembrava una grossolana interpretazione del test di Turing che un bot possa fare un milione di dollari, ma poi ha spiegato cosa intendeva e al momento sembra essere uno dei vuoti nello sviluppo dell’IA. Anche alcuni degli strumenti di IA generativa più sofisticati, c’è questa lacuna nell’esecuzione. Puoi avere una sessione di brainstorming davvero impressionante o persino una sessione di terapia con un bot, ma nel momento in cui dici: “Ok, rinnova il mio passaporto per me”, probabilmente non può farlo. Tutte le parti non sono ancora collegate. E quindi suppongo che abbia usato l’idea di poter investire denaro e guadagnare per te mentre dormi come determinante per capire se funziona davvero o no.

Gideon Lichfield: Sì. E penso che una delle domande per me sia quanto di queste barriere sia legato solo alla potenza dei modelli. Li rendi più potenti e alla fine capiscono come fare tutte le cose. E quanto invece sono solo problemi banali e stupidi che il computer non può risolvere perché hai ancora bisogno di un umano per collegarlo alle API giuste o dargli accesso ai dati giusti? Alla stessa conferenza in cui ho intervistato Mustafa sul palco, ho incontrato qualcuno che stava giocando con un agente di intelligenza artificiale rudimentale. E quello che faceva era essenzialmente un grande modello di linguaggio collegato ad alcune API e alcuni servizi web. E ciò che aveva fatto era usare l’IA per estrarre la lista dei partecipanti alla conferenza, che arrivava a migliaia, e consigliargli 100 persone con cui dovrebbe cercare di connettersi. E mi sembrava un caso davvero, davvero utile per un’IA, se si potesse far funzionare. E potevo vedere che doveva ancora essere risolto era, innanzitutto, doveva costruire qualcosa che gli permettesse di estrarre i dati dal sito web della conferenza, non poteva capire come farlo da solo. E quindi spesso è necessario un umano per fare queste connessioni tra diversi servizi digitali affinché possano funzionare effettivamente insieme. Ma poi c’era anche la questione di quanto bene la tua IA ti conosce? E quanto bene sarà in grado di fare raccomandazioni per te di persone con cui dovresti parlare alla conferenza? E la differenza tra fare raccomandazioni che sono solo abbastanza buone e quelle che sono davvero molto buone potrebbe dipendere da una grande quantità di conoscenza su di te e dati su di te che potresti non essere in grado di fornire perché tali dati potrebbero non esistere in una forma che l’IA possa elaborare. Penso che in queste applicazioni specifiche scopriremo quanto potente sia davvero l’IA o quanto altro ci vorrà perché sia utile. E in realtà non penso che abbiamo ancora una buona comprensione di quanto sarà difficile.

Lauren Goode: E alla fine della giornata, dovresti comunque fare tutti quegli incontri. Tu, Gideon.

Gideon Lichfield: Sì, dovrei ancora fare tutti quegli incontri. Suppongo che il prossimo passo sia costruire un’IA che possa fare gli incontri al mio posto, poi scaricare i risultati nel mio cervello. E questo non è qualcosa che vedremo presto.

[Musica]

Lauren Goode: Questo è tutto per oggi. Grazie per aver ascoltato. Puoi leggere il libro di Mustafa, “The Coming Wave: Technology, Power, and the 21st Century’s Greatest Dilemma”, quando uscirà nelle librerie il 5 settembre.

Gideon Lichfield: Have a Nice Future è ospitato da me, Gideon Lichfield.

Lauren Goode: E da me, Lauren Goode. Se ti piace lo show, diccelo, lasciaci una valutazione e una recensione ovunque tu ascolti i podcast. Adoriamo leggere i tuoi commenti. E non dimenticare di iscriverti, così potrai ricevere nuovi episodi ogni settimana.

Gideon Lichfield: Puoi anche scriverci una email a nicefuture@ENBLE.com.

Lauren Goode: Have a Nice Future è una produzione di Condé Nast Entertainment. Danielle Hewitt di Prologue Projects produce lo show. La nostra assistente di produzione è Arlene Arevalo.

Gideon Lichfield: E torneremo qui mercoledì prossimo. Fino ad allora, buon futuro.


Se acquisti qualcosa utilizzando i link nelle nostre storie, potremmo guadagnare una commissione. Questo aiuta a sostenere il nostro giornalismo. Scopri di più.