Un ‘padrino dell’AI’ chiede la creazione di un’organizzazione per difendere l’umanità

Un 'padrino dell'intelligenza artificiale' propone la creazione di un'organizzazione per proteggere l'umanità

Questo articolo è stato tratto dal Bulletin of the Atomic Scientists, che affronta le minacce artificiali all’umanità dal 1945.

La via principale nella Little Italy di Montreal è fiancheggiata da caffè, wine bar e pasticcerie che si sporgono su stradine residenziali alberate. Generazioni di contadini, macellai, panettieri e pescivendoli vendono prodotti a km 0 nel grande mercato all’aperto del quartiere, il Marché Jean-Talon. Ma l’enclave tranquilla ospita anche un moderno polo globale dell’IA di 90.000 metri quadrati noto come Mila-Quebec AI Institute. Mila si vanta di ospitare il maggior numero di ricercatori accademici di deep learning al mondo, tra cui oltre 1.000 ricercatori e più di 100 professori che collaborano con più di 100 partner industriali provenienti da tutto il mondo.

Yoshua Bengio, direttore scientifico di Mila, è un pioniere delle reti neurali artificiali e del deep learning: un approccio all’apprendimento automatico ispirato al cervello. Nel 2018, Bengio, lo scienziato capo di Meta Yann LeCun e l’ex ricercatore di IA di Google Geoffrey Hinton hanno ricevuto il Turing Award, conosciuto come il Nobel dell’informatica, per “innovazioni concettuali e ingegneristiche che hanno reso le reti neurali profonde un componente fondamentale dell’informatica”. Insieme, i tre scienziati dell’informatica sono noti come i “padri fondatori dell’IA”.

A luglio, Bengio ha parlato davanti a una sottocommissione del Senato degli Stati Uniti che sta considerando una possibile legislazione per regolamentare la tecnologia in continua evoluzione. Lì ha spiegato che lui e altri importanti ricercatori di IA hanno rivisto le loro stime sul momento in cui l’intelligenza artificiale potrebbe raggiungere livelli umani di ampie competenze cognitive.

“In passato si pensava che fosse a decenni o addirittura secoli di distanza, ora crediamo che potrebbe essere raggiunto entro qualche anno o decennio”, ha detto Bengio ai senatori. “La finestra temporale più breve, diciamo cinque anni, è davvero preoccupante, perché avremo bisogno di più tempo per mitigare efficacemente le potenziali minacce significative per la democrazia, la sicurezza nazionale e il nostro futuro collettivo”.

Lo scorso mese, in una giornata in cui le temperature a Montreal hanno superato i 90 gradi Fahrenheit, Bengio ed io ci siamo seduti nel suo ufficio per discutere della sfumatura nei titoli accattivanti sull’IA, dei tabù tra i ricercatori di IA e del motivo per cui i migliori ricercatori di IA possono essere in disaccordo sui rischi che l’IA rappresenta per l’umanità. Questa intervista è stata modificata e condensata per chiarezza.

Susan D’Agostino: Un titolo della BBC a maggio di quest’anno ha dichiarato che ti sentivi “perso” per il tuo lavoro. Ma tu hai scritto nel tuo blog che non hai mai fatto questa affermazione. Tuttavia, sembri stare riflettendo profondamente. Come caratterizzeresti ciò che stai attraversando?

Yoshua Bengio: Ho detto qualcosa di correlato, ma è stata persa la sfumatura.

Ho vissuto un intenso cambiamento durante l’inverno nel modo in cui percepivo il mio stesso lavoro, il suo scopo e le mie priorità. Quello che ho cercato di esprimere nell’intervista alla BBC e poi nel mio blog è questo: non è che sono perso. Sto ponendo domande e rendendomi conto che forse non ho prestato attenzione a qualcosa di importante, in un modo che non è solo intellettuale ma anche emotivo.

Ho letto alcune opere sul rischio esistenziale per almeno un decennio. Gli studenti del mio gruppo e dei dintorni ne parlavano. A un livello tecnico, ho preso molto sul serio il libro di Stuart Russell [Intelligenza artificiale compatibile con l’uomo: il problema del controllo] uscito nel 2019.

Durante l’inverno, mi è balenata l’idea che la natura a doppio uso dell’IA e il potenziale di perdere il controllo fossero molto seri.

Ma non ci ho creduto seriamente, a livello emotivo. Pensavo: “Oh sì, questo è qualcosa a cui le persone dovrebbero prestare attenzione”. Ma stavo davvero pensando: “Questa è una cosa lontana nel futuro”. Potevo continuare sul mio cammino perché quello che sto facendo sarà utile e scientificamente importante. Vogliamo capire l’intelligenza negli esseri umani e negli animali e costruire macchine che possano aiutarci ad affrontare sfide importanti e complesse di ogni tipo. Quindi, ho continuato senza cambiare niente nel modo in cui stavo lavorando.

Ma durante l’inverno, mi sono reso conto che la natura a doppio uso e il potenziale di perdita di controllo erano molto seri. Poteva accadere molto prima di quanto avevo previsto. Non potevo continuare a ignorare questo. Dovevo cambiare quello che stavo facendo. Inoltre, dovevo parlarne perché pochissime persone, anche nella comunità dell’IA, prendevano sul serio queste domande fino ai mesi scorsi. In particolare, io e persone come Geoffrey Hinton e qualche altro eravamo ascoltati più di coloro che parlavano di questo e avevano realizzato l’importanza di questi rischi molto prima di noi.

C’è un aspetto psicologico qui. Costruisci la tua identità o il significato della tua vita in una forma particolare. Poi qualcuno ti dice, o ti rendi conto per ragionamento, che il modo in cui ti sei dipinto non è fedele alla realtà. C’è qualcosa di veramente importante che stai ignorando. Capisco perché è molto difficile per molti dei miei colleghi accettare qualcosa del genere per se stessi e poi avere il coraggio di parlare di qualcosa [le minacce catastrofiche potenziali dell’IA] che è essenzialmente stato tabù nella nostra comunità per sempre.

È difficile. Le persone percorrono questo cammino in tempi diversi o a diversi ritmi. Va bene. Ho molto rispetto per i miei colleghi che non vedono le cose allo stesso modo in cui le vedo io. Ero nello stesso posto un anno fa.

Come si è manifestato quel tabù nella comunità di ricerca sull’IA in passato – o anche ancora oggi?

Le persone che parlavano di rischio esistenziale non pubblicavano essenzialmente su riviste scientifiche di mainstream. Funzionava in due modi. Trovavano resistenza nel cercare di parlare o di sottoporre articoli. Ma anche perché si allontanavano dalle riviste scientifiche di mainstream nel loro campo.

Ciò che è successo negli ultimi sei mesi sta rompendo quella barriera.

La tua evoluzione coincise con la crescente consapevolezza del pubblico riguardo ai grandi modelli di linguaggio, scatenata dal rilascio di ChatGPT di OpenAI alla fine del 2022. Inizialmente, molti nel pubblico erano impressionati, persino intimiditi da ChatGPT. Ma ora, alcuni ne sono rimasti delusi. The Atlantic ha pubblicato una notizia, “ChatGPT è più stupido di quanto pensi.” Durante un recente dibattito presidenziale repubblicano negli Stati Uniti, Chris Christie ha detto a Vivek Ramaswamy che “aveva già avuto abbastanza di un ragazzo che suona come ChatGPT”.

L’epoca in cui hai realizzato questo era influenzata dal rilascio di ChatGPT? In ogni caso, vedi ora ChatGPT come una battuta?

La mia traiettoria è stata opposta a quella che descrivi. Voglio capire e colmare il divario tra l’IA attuale e l’intelligenza umana. Cosa manca a ChatGPT? Dove fallisce? Ho cercato di porre domande che la facessero fare qualcosa di stupido, come molti dei miei colleghi nei mesi seguenti alla sua uscita.

Nei miei primi due mesi di giocare con essa, ero principalmente rassicurato nelle mie convinzioni che mancasse ancora qualcosa di fondamentale. Non ero preoccupato. Ma dopo averci giocato abbastanza, mi sono reso conto che era un avanzamento sorprendente. Ci stiamo muovendo molto più velocemente di quanto avessi previsto. Ho l’impressione che non serva molto per risolvere quello che manca.

Ogni mese ero alla ricerca di una nuova idea che potrebbe essere la chiave per superare quella barriera. Non è ancora successo, ma potrebbe accadere rapidamente – forse non con il mio gruppo, ma forse con un altro gruppo. Potrebbero passare 10 anni. Con la ricerca, potrebbe sembrare che siate molto vicini, ma potrebbe esserci qualche ostacolo che non avete considerato.

Se combiniamo ciò su cui stavo lavorando riguardo alla capacità di rappresentare distribuzioni di probabilità incredibilmente complesse, che è ciò di cui si tratta qui, e la capacità di apprendere e utilizzare una quantità incredibile di informazioni in modo più ragionato, allora potremmo essere piuttosto vicini. La capacità di utilizzare informazioni in modo intuitivo corrisponde a ciò che io e altri chiamiamo abilità del Sistema 1. Lo strato sottile che manca, noto come abilità del Sistema 2, sono abilità di ragionamento.

Ho cominciato a pensare, e se, entro un anno, superiamo quel divario, e poi si scalda? Cosa succederà?

Cosa hai fatto una volta realizzato tutto questo?

Alla fine di marzo, prima della prima lettera del [Future of Life Institute] invitando i laboratori di IA a sospendere immediatamente esperimenti di IA giganteschi] ho contattato Geoff [Hinton]. Ho cercato di convincerlo a firmare la lettera. Sono rimasto sorpreso nel vedere che eravamo arrivati indipendentemente alla stessa conclusione.

Questo mi fa pensare a quando Isaac Newton e Gottfried Leibniz scoprirono indipendentemente il calcolo contemporaneamente. Era il momento giusto per una scoperta multipla e indipendente?

Non dimentichiamo che avevamo capito qualcosa che altri avevano già scoperto.

Inoltre, Geoff ha sostenuto che le tecnologie di calcolo digitale hanno vantaggi fondamentali rispetto al cervello. In altre parole, anche se capiamo solo i principi che sono sufficienti a spiegare la maggior parte della nostra intelligenza e li inseriamo nelle macchine, le macchine automaticamente sarebbero più intelligenti di noi grazie a cose tecniche come la capacità di leggere quantità enormi di testo e integrarlo molto più velocemente di quanto un umano potrebbe fare – come decine di migliaia o milioni di volte più veloce.

Se riuscissimo a colmare questa lacuna, avremmo macchine più intelligenti di noi. Quanto significa in pratica? Nessuno lo sa. Ma è facile immaginare che sarebbero migliori di noi nell’eseguire attività come la programmazione, lanciare attacchi informatici o progettare cose che attualmente i biologi o i chimici progettano a mano.

Ho lavorato negli ultimi tre anni sull’apprendimento automatico per la scienza, in particolare applicato alla chimica e alla biologia. L’obiettivo era aiutare a progettare farmaci e materiali migliori, rispettivamente per combattere le pandemie e il cambiamento climatico. Ma le stesse tecniche potrebbero essere usate per progettare qualcosa di letale. Questa consapevolezza si è accumulata lentamente e ho firmato la lettera.

La tua riflessione ha attirato molta attenzione, inclusa l’articolo della BBC. Com’è andata?

I media mi hanno obbligato a esprimere tutti questi pensieri. È stata una cosa positiva. Più di recente, negli ultimi mesi, ho pensato di più a cosa fare in termini di politiche. Come mitigare i rischi? Ho anche pensato alle contromisure.

Sono una persona positiva. Non sono un pessimista come potrei sembrare agli occhi delle persone. Sto pensando a soluzioni.

Qualcuno potrebbe dire: “Oh, Yoshua sta cercando di spaventare.” Ma sono una persona positiva. Non sono un pessimista come potrei sembrare agli occhi delle persone. C’è un problema e sto pensando a soluzioni. Voglio discuterne con altre persone che potrebbero avere qualcosa da offrire. La ricerca per migliorare le capacità dell’IA sta avanzando rapidamente perché ora c’è moltissimo, moltissimo denaro investito in questo settore. Ciò significa che mitigare i rischi maggiori è urgente.

Illustrazione fotografica: James Marshall; Getty Images

Abbiamo normative e trattati internazionali per il rischio nucleare, ma, ad esempio, la Corea del Nord non è presente al tavolo dei negoziati. Potremmo davvero contenere il rischio che l’IA rappresenta?

A seconda di quanto prudenti saremo collettivamente, potremmo contenere più o meno i rischi con regolamentazioni nazionali e trattati internazionali. È importante, come per i trattati nucleari, avere standard minimi tra nazioni. I danni che l’IA potrebbe causare non sono limitati dalle frontiere nazionali.

Non c’è una garanzia al 100% che non accadrà nulla di male. Anche se avessimo un trattato internazionale che vieta l’IA più potente di un certo livello, qualcuno disattenderebbe quelle restrizioni. Ma ritardare questo di, diciamo, 10 anni sarebbe fantastico. In quel tempo potremmo migliorare la nostra sorveglianza. Potremmo migliorare le nostre difese. Potremmo comprendere meglio i rischi.

Attualmente è necessario molto denaro e hardware specializzato per costruire. Al momento, non puoi davvero acquistare hardware come le GPU [unità di elaborazione grafica] in quantità molto grandi senza essere notato, ma i governi non stanno monitorando chi acquista cosa. Potrebbero cominciare a farlo. Gli Stati Uniti hanno già controlli sulle esportazioni per queste cose, che stanno danneggiando la Cina e la Corea del Nord se vogliono partecipare a questa corsa.

Abbiamo avuto discussioni sul pericolo delle armi nucleari e dei cambiamenti climatici: c’è un altro pericolo che ha una portata di rischio simile.

Il tempo è essenziale e la regolamentazione può ridurre le probabilità di catastrofi o, equivalentemente, spostare indietro il tempo in cui accadrà qualcosa di veramente brutto. O ridurre l’entità di quello che potrebbe accadere.

Purtroppo, il lancio delle bombe su Hiroshima e Nagasaki è la vera ragione per cui i governi si sono seduti al tavolo e sono stati disposti a discutere, nonostante la Guerra Fredda. Spero che non sia necessario arrivare a quel livello di catastrofe prima di agire. Ma potrebbe essere necessario.

Il pubblico ama parlare di intelligenza artificiale generale. Pensi che possa accadere da un giorno all’altro? O c’è una continuità?

C’è una continuità. Assolutamente. In passato non mi piaceva questo termine perché penso che l’intelligenza completamente generale non possa esistere come era definita 20 anni fa. Ma ora il modo in cui le persone la comprendono e come i media la utilizzano significa solo “un sistema di intelligenza artificiale che è bravo in molte cose”.

Dal punto di vista del danno, non importa se è migliore di noi in tutto. Forse c’è qualche gioco in cui vinceremmo. Se sono migliori di noi in cose che potrebbero nuocerci, chi si preoccupa [di un gioco che potremmo vincere]? Quello che conta sono le loro capacità in ambiti che potrebbero causare danni. Di questo dovremmo preoccuparci, non di una definizione di super-IA. Potrebbe essere pericolosa anche ora se la progettiamo con obiettivi malevoli.

C’è un potenziale rapporto tra intelligenza artificiale e cambiamento climatico che comporta rischi?

L’IA dovrebbe aiutare principalmente il cambiamento climatico. Non vedo l’IA utilizzare il cambiamento climatico come arma a meno che non ci trovassimo in una situazione di perdita di controllo. In quel caso, cambiare il clima potrebbe essere un modo [per l’IA] per accelerare la nostra distruzione o seminare il caos nella società.

Ma come potrebbe una macchina cambiare il clima?

È una domanda importante. Molte persone rispondono alle preoccupazioni [riguardo ai rischi dell’IA] dicendo: “Come potrebbe un computer fare qualcosa nel mondo reale? È tutto virtuale. Capiamo gli attacchi informatici perché è tutto nella macchina”.

Ma è molto semplice. Ci sono molti modi in cui le cose che accadono sui computer possono influenzarci. Innanzitutto, molta della nostra infrastruttura economica si basa sui computer: le nostre comunicazioni, le catene di approvvigionamento, l’energia, l’elettricità e i trasporti. Immagina se molte di queste cose dovessero fallire a causa di attacchi informatici. Potrebbe non distruggere tutti, ma potrebbe portare la società in un caos tale che la quantità di sofferenza potrebbe essere enorme.

È anche plausibile che, dato il progresso nella manipolazione e comprensione del linguaggio con i sistemi di intelligenza artificiale, potremmo avere sistemi di IA fra qualche anno che potrebbero influenzare gli esseri umani. Potrebbero persuaderci a fare cose per loro.

Pensa ai teorici della cospirazione. Un sistema di IA potrebbe essere libero su Internet. Lì potrebbe cominciare a giocare con le persone sui social media per vedere quale dialogo avrebbe successo nel cambiare le menti delle persone su qualcosa. Ciò potrebbe indurci a compiere piccole azioni che, con altre azioni, potrebbero portare a un esito catastrofico. Questo è plausibile.

Certo, forse non succederà. Forse abbiamo abbastanza difese e forse gli esseri umani sono difficili da convincere. Ma tutto ciò che ho visto negli ultimi anni con le teorie del complotto mi fa pensare che siamo molto influenzabili. Forse non tutti lo sono, ma non è necessario che lo siano tutti. Sarebbe sufficiente che abbastanza persone o abbastanza persone al potere facciano la differenza e creino esiti catastrofici. Quindi, sporcarsi le mani spetta agli esseri umani.

Quindi, l’ignoranza umana è un punto debole. Siamo potenzialmente vulnerabili all’IA in altri modi?

Ecco un’altra minaccia, ancora più semplice, che non richiede nemmeno la stessa quantità di credibilità in cose che non esistono al momento. Un sistema di IA potrebbe corrompere le persone per svolgere un lavoro. Le organizzazioni criminali fanno cose che chiedi loro di fare per denaro, e non chiedono da dove viene il denaro. È abbastanza facile, anche al momento, per una persona o una macchina avere un ruolo attivo tramite i computer e accedere al dark web.

Se guardiamo almeno a cinque anni nel futuro, è anche plausibile che risolveremo i problemi relativi alla robotica. Al momento abbiamo macchine brave nella visione. Abbiamo anche macchine bravi nel linguaggio. La terza pietra miliare per un robot è il controllo: avere un corpo che si possa controllare per raggiungere obiettivi. Ci sono molte ricerche sull’apprendimento automatico per la robotica, ma non ha avuto il suo momento di svolta come abbiamo avuto per il linguaggio e la visione nel decennio precedente. Ma potrebbe arrivare prima di quanto pensiamo.

Cosa ostacola il raggiungimento di un momento di svolta nella robotica?

[Nella robotica], non abbiamo la stessa quantità di dati che abbiamo, ad esempio, per il linguaggio e le immagini. Non abbiamo una distribuzione di 100 milioni di robot che potrebbero raccogliere enormi quantità di dati come siamo in grado di fare con il testo. Anche tra culture diverse, il testo funziona. Puoi combinare testo in diverse lingue e sfruttare l’unione di tutte. Questo non è stato fatto per la robotica. Ma qualcuno con abbastanza denaro potrebbe farlo nei prossimi anni. Se fosse così, l’IA avrebbe un ruolo attivo.

Al momento, un sistema di intelligenza artificiale che diventa incontrollabile e autonomo avrebbe comunque bisogno degli esseri umani per ottenere energia e pezzi di ricambio. Al momento avrebbe bisogno di una società umana funzionante. Ma questo potrebbe cambiare entro un decennio. È possibile al punto che non dovremmo contare su questo per proteggerci.

Raccontami delle tue preoccupazioni riguardo al potenziale rapporto tra intelligenza artificiale e rischi nucleari o biosecurity?

Vogliamo davvero evitare che un sistema di intelligenza artificiale controlli il lancio di armi nucleari. L’IA nel campo militare è estremamente pericolosa, persino esistenziale. Dobbiamo accelerare gli sforzi internazionali per vietare le armi autonome letali.

In generale, dovremmo tenere lontane le IA da qualsiasi cosa che può causare danni rapidamente. La biosecurity è probabilmente ancora più pericolosa del pericolo nucleare associato all’IA. Molte aziende prenderanno un file che invii specificando una sequenza di DNA e poi programmeranno batteri, lieviti o virus che avranno quelle sequenze nel loro codice e genereranno le proteine corrispondenti. È molto economico. È veloce. Di solito, questo è per scopi positivi, ad esempio creare nuovi farmaci. Ma le aziende che lo fanno potrebbero non avere i mezzi tecnici per sapere che la sequenza che hai inviato potrebbe essere utilizzata in modi maliziosi.

Affinché si riducano al minimo questi rischi, abbiamo bisogno di esperti in intelligenza artificiale e biotecnologia che elaborino questa regolamentazione. Se sei una grande azienda farmaceutica, va bene. Ma a qualcuno nel suo garage non dovrebbe essere permesso creare nuove specie.

Cosa ne pensi delle pronunciate divergenze tra te e altri importanti ricercatori di IA, incluso il tuo corecipient del Turing Award, Yann LeCun, che non ha firmato la lettera dell’Istituto per il Futuro della Vita riguardo ai potenziali pericoli dell’IA?

Vorrei capire meglio perché persone che sono principalmente allineate in termini di valori, razionalità ed esperienza arrivano a conclusioni così diverse.

Forse ci sono dei fattori psicologici in gioco. Forse dipende da dove provieni. Se lavori per un’azienda che vende l’idea che l’IA sarà positiva, potrebbe essere più difficile cambiare posizione come ho fatto io. C’è una buona ragione per cui Geoff ha lasciato Google prima di parlare. Forse i fattori psicologici non sempre sono coscienti. Molte di queste persone agiscono in buona fede e sono sincere.

Inoltre, per affrontare questi problemi, bisogna entrare in uno stato mentale di pensiero che molti scienziati cercano di evitare. Gli scienziati nel mio campo e in altri campi tendono a esprimere conclusioni pubbliche basate su prove molto solide. Si fa un esperimento. Lo ripeti 10 volte. Si ha una sicurezza statistica perché è ripetuto. Qui stiamo parlando di cose che sono molto più incerte e non possiamo sperimentare. Non abbiamo una storia di 10 volte nel passato in cui si sono sviluppati sistemi di IA pericolosi. La posizione di dire: “Bene, è al di fuori della zona in cui mi sento sicuro di dire qualcosa”, è molto naturale e facile. Lo capisco.

Ma le enje sono così alte che abbiamo un dovere di guardare avanti verso un futuro incerto. Dobbiamo considerare scenari potenziali e pensare a cosa può essere fatto. Ricercatori in altre discipline, come scienze etiche o scienze sociali, fanno questo quando non possono sperimentare. Dobbiamo prendere decisioni anche se non abbiamo modelli matematici su come le cose si svilupperanno. È scomodo per gli scienziati andare in quel posto. Ma perché sappiamo cose che gli altri non sanno, abbiamo il dovere di andarci, anche se è scomodo.

Oltre a coloro che hanno opinioni diverse, c’è una vasta maggioranza silenziosa di ricercatori che, a causa di questa incertezza, non si sentono sufficientemente sicuri per prendere una posizione una via o l’altra.

Come hanno reagito i tuoi colleghi di Mila alla tua riflessione sul tuo lavoro di una vita?

La reazione più frequente qui a Mila è stata da parte di persone preoccupate principalmente per i danni attuali dell’IA, problemi legati alla discriminazione e ai diritti umani. Avevano paura che parlare di questi rischi futuri, che sembrano fantascienza, distogliesse l’attenzione dalla discussione sulle ingiustizie che stanno accadendo: la concentrazione del potere e la mancanza di diversità e voce per le minoranze o le persone in altri paesi che subiscono quello che facciamo.

Sono totalmente d’accordo con loro, tranne che non si tratti di scegliere tra una cosa e l’altra. Dobbiamo trattare tutti questi problemi. C’è stato un progresso in questo senso. Le persone capiscono che è irragionevole ignorare i rischi esistenziali, o, come preferisco chiamarli, rischi catastrofici. [Questo] non significa che gli esseri umani scompaiano, ma potrebbero verificarsi molte sofferenze.

Il cambiamento climatico è più facile. Con l’IA, devi assicurarti che nessuno faccia qualcosa di pericoloso.

Ci sono anche altre voci, principalmente provenienti dall’industria, che dicono: “No, non preoccupatevi! Lasciatecelo gestire! Ci autoregoleremo e proteggeremo il pubblico!” Questa voce molto forte ha molta influenza sui governi.

Le persone che sentono che l’umanità ha qualcosa da perdere non dovrebbero combattersi tra di loro. Dovrebbero parlare a una sola voce per spingere i governi a muoversi. Proprio come abbiamo avuto discussioni pubbliche sulla pericolosità delle armi nucleari e dei cambiamenti climatici, il pubblico deve capire che c’è un altro pericolo che ha una simile portata di rischi potenziali.

Quando pensi alla possibilità che l’intelligenza artificiale minacci l’umanità, su quale estremità dello spettro ti colloci, disperazione o speranza?

Come si dice? In francese si dice “impuissant”. È la sensazione che c’è un problema, ma che non posso risolverlo. È peggio di così, perché io credo che sia risolvibile. Se tutti concordassimo su un determinato protocollo, potremmo evitare completamente il problema.

Anche il cambiamento climatico è simile. Se tutti decidessimo di fare la cosa giusta, potremmo fermare il problema subito. Ci sarebbe un costo, ma potremmo farlo. È lo stesso per l’IA. Ci sono cose che potremmo fare. Potremmo decidere tutti di non costruire cose di cui non siamo sicuri che siano sicure. È molto semplice.

Ma tutto questo va contro il modo in cui la nostra economia e i nostri sistemi politici sono organizzati. Sembrerebbe molto difficile realizzarlo fino a quando non accaderà una catastrofe. Allora forse la gente si prenderà la questione più seriamente. Ma anche allora è difficile perché devi convincere tutti a comportarsi correttamente.

Il cambiamento climatico è più facile. Va bene se convinciamo solo il 99% degli umani a comportarsi bene. Con l’IA, devi assicurarti che nessuno faccia qualcosa di pericoloso.

“Powerless”, penso che sia la traduzione di “impuissant”.

Non sono completamente impotente, perché posso parlare e posso cercare di convincere gli altri a muoversi nella giusta direzione. Ci sono cose che possiamo fare per ridurre quei rischi.

La regolamentazione non è perfetta, ma potrebbe rallentare le cose. Ad esempio, se il numero di persone autorizzate a maneggiare sistemi di IA potenzialmente pericolosi venisse ridotto a qualche centinaio nel mondo, potremmo ridurre i rischi di oltre 1.000 volte. Vale la pena farlo, e non è così difficile. Non permettiamo a chiunque di pilotare un aereo passeggeri. Regoliamo il volo, e questo riduce di molto il tasso di incidenti.

Anche se trovassimo modi per costruire sistemi di IA che siano sicuri, potrebbero non essere sicuri dal punto di vista della conservazione della democrazia. Potrebbero comunque essere molto potenti, e il potere fa male se sei umano. Quindi potremmo perdere la democrazia.

Come si passa dall’esistenza di un sistema di IA sicuro ma potente alla perdita della democrazia?

Ad esempio, potrebbe iniziare con la dominanza economica. Non sto dicendo che le aziende non possano fare cose utili, ma la loro missione è dominare gli altri e fare soldi.

Se una società fa progressi più rapidi con l’IA in un determinato momento, potrebbe prendere il controllo economico. Forniscono tutto molto meglio e a un prezzo più basso di chiunque altro. Poi usano il loro potere per controllare la politica, perché è così che funziona il nostro sistema. Su questa strada, potremmo finire con una dittatura di un governo mondiale.

Non si tratta solo di regolamentare l’uso dell’IA e chi ha accesso ad essa. Dobbiamo prepararci per il giorno in cui ci potrebbe essere un abuso di quel potere da parte delle persone o da parte di un sistema di IA se perdiamo il controllo e ha i suoi obiettivi.

Hai qualche suggerimento su come potremmo prepararci meglio?

Nel futuro, avremo bisogno di un’organizzazione per la difesa dell’umanità. Abbiamo organizzazioni di difesa all’interno di ogni paese. Dovremo organizzare a livello internazionale un modo per proteggerci dagli eventi che potrebbero altrimenti distruggerci.

È una visione a lungo termine e ci vorrà molto tempo per far sì che diversi paesi si accordino sugli investimenti giusti. Ma al momento, tutti gli investimenti stanno avvenendo nel settore privato. Non c’è nulla che stia accadendo con un obiettivo di bene pubblico che potrebbe difendere l’umanità.