Sei mesi fa Elon Musk ha chiesto una pausa sull’IA. Invece, lo sviluppo si è accelerato

Elon Musk ha chiesto una pausa sull'IA, ma lo sviluppo si è accelerato.

Sei mesi fa questa settimana, molti prominenti ricercatori, ingegneri e imprenditori nel campo dell’IA hanno firmato una lettera aperta chiedendo una pausa di sei mesi nello sviluppo di sistemi di intelligenza artificiale più avanzati del generatore di linguaggio GPT-4 di OpenAI. Si sosteneva che l’IA sta avanzando così velocemente e in modo imprevedibile che potrebbe eliminare innumerevoli posti di lavoro, sommergerci di disinformazione e, come hanno riportato una serie di titoli allarmistici, distruggere l’umanità. Ops!

Come avrete notato, la lettera non ha portato a una pausa nello sviluppo dell’IA, né a un rallentamento di ritmo più misurato. Le aziende hanno invece accelerato i loro sforzi per costruire IA più avanzate.

Elon Musk, uno dei firmatari più noti, non ha aspettato molto per ignorare il proprio appello a un rallentamento. A luglio ha annunciato xAI, una nuova azienda che, secondo lui, cercherà di andare oltre le IA esistenti e competere con OpenAI, Google e Microsoft. E molti dipendenti di Google che hanno firmato la lettera aperta sono rimasti fedeli alla loro azienda mentre si prepara a lanciare un modello di IA chiamato Gemini, che vanta capacità più ampie del GPT-4 di OpenAI.

ENBLE ha contattato più di una dozzina di firmatari della lettera per chiedere quale effetto pensano che abbia avuto e se la loro preoccupazione per l’IA si sia approfondita o attenuata negli ultimi sei mesi. Nessuno dei rispondenti sembrava aspettarsi che la ricerca sull’IA si fermasse davvero.

“Non ho mai pensato che le aziende si sarebbero fermate volontariamente”, dice Max Tegmark, un astrofisico al MIT che guida l’Istituto del Futuro della Vita, l’organizzazione dietro la lettera – un’ammissione che alcuni potrebbero sostenere rende l’intero progetto cinico. Tegmark afferma che il suo obiettivo principale non era fermare l’IA, ma legittimare la conversazione sui pericoli della tecnologia, incluso il fatto che potrebbe rivoltarsi contro l’umanità. Il risultato “ha superato le mie aspettative”, afferma.

Le risposte al mio follow-up mostrano anche l’enorme diversità di preoccupazioni che gli esperti hanno riguardo all’IA e che molti firmatari non sono ossessionati dal rischio esistenziale.

Lars Kotthoff, professore associato presso l’Università del Wyoming, afferma che non firmerebbe la stessa lettera oggi perché molti di coloro che hanno chiesto una pausa stanno ancora lavorando per far avanzare l’IA. “Sono disponibile a firmare lettere che vanno nella stessa direzione, ma non esattamente come questa”, dice Kotthoff. Aggiunge che ciò che lo preoccupa di più oggi è la prospettiva di una “reazione della società contro lo sviluppo dell’IA, che potrebbe precipitare un’altra ‘stagione dell’IA'” schiacciando i finanziamenti alla ricerca e facendo sì che le persone rifiutino i prodotti e gli strumenti dell’IA.

Dopo aver firmato la lettera, cosa ho fatto nell’ultimo anno circa? Ho fatto ricerca sull’IA.

Altri firmatari mi hanno detto che firmerebbero volentieri di nuovo, ma le loro grandi preoccupazioni sembrano riguardare problemi a breve termine, come la disinformazione e la perdita di posti di lavoro, piuttosto che scenari Terminator.

“Nell’era di Internet e Trump, posso vedere più facilmente come l’IA possa portare alla distruzione della civiltà umana distorta informazione e corruzione delle conoscenze”, afferma Richard Kiehl, un professore che lavora su microelettronica presso l’Università di Arizona State.

“Avremo Skynet che hackererà tutti questi server militari e lancerà bombe nucleari su tutto il pianeta? Davvero non penso”, dice Stephen Mander, uno studente di dottorato che lavora sull’IA presso l’Università di Lancaster nel Regno Unito. Tuttavia, vede il rischio di una diffusa sostituzione dei posti di lavoro incombere e lo definisce un “rischio esistenziale” per la stabilità sociale. Ma si preoccupa anche che la lettera abbia spinto più persone a sperimentare con l’IA e riconosce di non aver agito sull’appello della lettera a rallentare. “Dopo aver firmato la lettera, cosa ho fatto nell’ultimo anno circa? Ho fatto ricerca sull’IA”, afferma.

Nonostante il fallimento della lettera nel provocare una pausa diffusa, ha contribuito a far sì che l’idea che l’IA potesse cancellare l’umanità diventasse un argomento di discussione di massa. È stata seguita da una dichiarazione pubblica firmata dai leader di OpenAI e dalla divisione AI di DeepMind di Google che ha paragonato il rischio esistenziale rappresentato dall’IA a quello delle armi nucleari e delle pandemie. Il prossimo mese, il governo britannico ospiterà una conferenza internazionale sulla “sicurezza dell’IA”, in cui i leader di numerosi paesi discuteranno dei possibili danni che l’IA potrebbe causare, inclusi minacce esistenziali.

Forse gli apocalittici dell’IA hanno dirottato la narrazione con la lettera di pausa, ma l’inquietudine intorno ai recenti rapidi progressi nell’IA è abbastanza reale e comprensibile. Alcune settimane prima che la lettera fosse scritta, OpenAI aveva rilasciato GPT-4, un grande modello di linguaggio che dava a ChatGPT un nuovo potere nel rispondere alle domande e che ha colto di sorpresa i ricercatori di AI. Man mano che il potenziale di GPT-4 e di altri modelli di linguaggio è diventato più evidente, i sondaggi suggeriscono che il pubblico è sempre più preoccupato che entusiasta della tecnologia dell’IA. I modi evidenti in cui questi strumenti potrebbero essere usati impropriamente stanno spingendo i regolatori di tutto il mondo ad agire.

La richiesta della lettera di un moratorio di sei mesi sullo sviluppo dell’IA potrebbe aver creato l’impressione che i firmatari si aspettassero che accadesse qualcosa di negativo a breve. Ma per molti di loro, un tema chiave sembra essere l’incertezza – su quanto sia effettivamente capace l’IA, quanto rapidamente le cose possano cambiare e come la tecnologia stia venendo sviluppata.

“Molti scettici dell’IA vogliono sentire uno scenario di rovina concreto”, afferma Scott Niekum, professore presso l’Università del Massachusetts Amherst che lavora sul rischio dell’IA e ha firmato la lettera. “Per me, il fatto che sia difficile immaginare scenari dettagliati e concreti è un po’ il punto – mostra quanto sia difficile anche per esperti di AI di livello mondiale prevedere il futuro dell’IA e come influenzerà un mondo complesso. Penso che questo dovrebbe far scattare qualche allarme.”

L’incertezza è ben lungi dall’essere una prova che l’umanità sia in pericolo. Ma il fatto che così tante persone che lavorano nell’IA sembrino ancora insicure potrebbe essere motivo sufficiente per le aziende che sviluppano l’IA di adottare un approccio più riflessivo o più lento.

“Molte persone che si troverebbero in una posizione ideale per trarre vantaggio da ulteriori progressi preferiscono ora vedere una pausa”, afferma Vincent Conitzer, firmatario e professore che lavora sull’IA presso la CMU. “Se non altro, questo dovrebbe essere un segnale che qualcosa di molto insolito sta accadendo.”