La seconda venuta di Sam Altman fa nascere nuovi timori sull’apocalisse dell’IA

Il ritorno di Sam Altman rinnova le preoccupazioni sull'apocalisse dell'Intelligenza Artificiale

Il nuovo capo di Open AI è lo stesso del vecchio capo. Ma l’azienda – e l’industria dell’intelligenza artificiale – potrebbero essere stati profondamente influenzati dagli ultimi cinque giorni di soap opera ad alto rischio. Sam Altman, CEO, cofondatore e figura di spicco di OpenAI, è stato rimosso dal consiglio di amministrazione venerdì. Martedì sera, dopo una massiccia protesta da parte della maggioranza dei dipendenti della startup, Altman stava tornando indietro, e la maggior parte del consiglio esistente era scomparsa. Ma quel consiglio, per lo più indipendente dalle operazioni di OpenAI, vincolato a una missione “per il bene dell’umanità”, era fondamentale per l’unicità dell’azienda.

Mentre Altman girava il mondo nel 2023, avvertendo i media e i governi sui pericoli esistenziali della tecnologia che lui stesso stava sviluppando, ha descritto la struttura insolita di OpenAI, una società con scopo di lucro all’interno di una no-profit, come un argine contro lo sviluppo irresponsabile di una potente AI. Qualunque cosa Altman abbia fatto con i miliardi di Microsoft, il consiglio poteva tenerlo a bada insieme agli altri leader aziendali. Se avesse iniziato a comportarsi in modo pericoloso o contrario agli interessi dell’umanità, secondo il consiglio, il gruppo avrebbe potuto espellerlo. “Il consiglio può licenziarmi, penso che sia importante”, ha detto Altman a Bloomberg a giugno.

“Si è scoperto che non potevano licenziarlo, ed è stato un bene”, afferma Toby Ord, ricercatore senior in filosofia presso l’Università di Oxford e voce di spicco tra coloro che mettono in guardia sul fatto che l’AI potrebbe rappresentare un rischio esistenziale per l’umanità.

Il riassetto caotico della leadership in OpenAI si è concluso con una ristrutturazione del consiglio, che ora è composto da figure di spicco nel settore tecnologico e l’ex segretario del tesoro degli Stati Uniti Larry Summers. Due direttrici associate al movimento “altruismo efficace”, le uniche donne, sono state rimosse dal consiglio. Ciò ha cristallizzato le divisioni esistenti su come il futuro dell’IA dovrebbe essere governato. L’esito è visto molto diversamente da coloro che temono che l’AI distrugga l’umanità, da coloro che pensano che la tecnologia accelererà un futuro utopistico, da coloro che credono nel libero mercato e da coloro che sostengono una regolamentazione rigorosa per contenere i giganti della tecnologia che non possono essere fidati di bilanciare i potenziali danni di una tecnologia profondamente disruptiva con il desiderio di fare soldi.

“In un certo senso, questo era un corso di collisione che era stato impostato per molto tempo”, dice Ord, che è anche accreditato come co-fondatore del movimento altruismo efficace, alcune parti del quale sono ossessionate dal lato più catastrofista dello spettro dei rischi dell’IA. “Se è vero che il consiglio di amministrazione non profit di OpenAI era fondamentalmente impotente nel influenzare effettivamente il suo comportamento, penso che rivelare che era impotente fosse probabilmente una cosa buona”.

Il motivo per cui il consiglio di OpenAI ha deciso di agire contro Altman rimane un mistero. Il comunicato che annunciava l’uscita di Altman dalla carica di CEO diceva che “non era stato costantemente sincero nelle sue comunicazioni con il consiglio, ostacolando la sua capacità di esercitare le sue responsabilità”. Un memorandum interno di OpenAI ha successivamente specificato che l’espulsione di Altman “non è stata motivata da cattiva condotta”. Emmett Shear, il secondo dei due CEO ad interim a guidare l’azienda tra venerdì sera e mercoledì mattina, ha scritto dopo aver accettato il ruolo che aveva chiesto perché Altman fosse stato rimosso. “Il consiglio non ha rimosso Sam per alcun disaccordo specifico sulla sicurezza”, ha scritto. “Le loro motivazioni erano completamente diverse da quelle”. Si è impegnato ad avviare un’inchiesta sulle ragioni del licenziamento di Altman.

L’assenza di direttori ha lasciato spazio a voci, tra cui quella che Altman stesse dedicando troppo tempo a progetti collaterali o fosse troppo deferente verso Microsoft. Ha anche alimentato teorie del complotto, come l’idea che OpenAI avesse creato intelligenza artificiale generale (AGI) e che il consiglio avesse disattivato l’interruttore di emergenza su consiglio dello scienziato capo, cofondatore e membro del consiglio Ilya Sutskever.

“Quello che so con certezza è che non abbiamo AGI”, afferma David Shrier, professore di pratica, AI e innovazione presso la Imperial College Business School di Londra. “So con certezza che c’è stato un fallimento colossale della governance”.

Shrier, che ha fatto parte di diversi consigli di amministrazione di aziende tecnologiche, afferma che tale fallimento non è solo dovuto alla tensione evidente tra la missione non-profit del consiglio e le ambizioni commerciali degli esecutivi e degli investitori coinvolti nella divisione a scopo di lucro di OpenAI. È anche una conseguenza della rapida crescita in dimensioni e influenza dell’azienda, riflesso del crescente peso dell’industria dell’IA. “ChatGPT ha impiegato sei settimane per raggiungere 100 milioni di utenti. La world wide web ci ha messo sette anni per raggiungere quella scala”, afferma. “Sette anni sono abbastanza tempo per consentire al cervello umano di tenere il passo con la tecnologia. Sei settimane, è a malapena abbastanza tempo per programmare una riunione del consiglio”.

Nonostante il potere supremo del consiglio sulla carta, la complessità e l’entità delle operazioni di OpenAI “chiaramente hanno superato” la capacità dei direttori di supervisionare l’azienda, afferma Shrier. Questo lo considera preoccupante, dato il bisogno reale e immediato di comprendere i rischi della tecnologia AI. Imprese come OpenAI “certamente non sono progetti scientifici. Non sono nemmeno più solo aziende di software”, afferma. “Si tratta di imprese globali che hanno un impatto significativo su come pensiamo, come votiamo, come gestiamo le nostre aziende, come interagiamo tra noi. E come tali, è necessario avere un meccanismo di governance maturo e robusto in atto”.

Le autorità di regolamentazione di tutto il mondo seguiranno attentamente gli sviluppi futuri di OpenAI. Mentre Altman negoziava il suo ritorno in OpenAI martedì, la Commissione Federale per il Commercio degli Stati Uniti ha votato per conferire al suo staff i poteri per indagare sulle aziende che vendono servizi basati su intelligenza artificiale, consentendo loro di ottenere legalmente documenti, testimonianze ed altre prove.

Anche il dramma che si è svolto nella sala conferenze di OpenAI avviene in un momento cruciale delle negoziazioni sull’Atto Legislativo sull’Intelligenza Artificiale dell’Unione Europea – una legislazione che potrebbe delineare le regolamentazioni a livello globale. L’UE, ferita da precedenti insuccessi nel mitigare gli impatti sociali delle piattaforme tecnologiche, ha adottato un approccio più muscolare alla regolamentazione dei Big Tech. Tuttavia, funzionari dell’UE e stati membri hanno diverse opinioni su come trattare le aziende di intelligenza artificiale, se con severità o permettendo un certo grado di autoregolamentazione.

Uno dei principali punti di disaccordo nelle negoziazioni dell’UE riguarda la regolamentazione dei cosiddetti modelli fondamentali, come il GPT-4 di OpenAI, o se la legislazione dovrebbe concentrarsi sulle applicazioni create utilizzando questi modelli fondamentali. L’argomento a favore di individuare i modelli fondamentali sta nel fatto che, essendo sistemi di intelligenza artificiale con molte capacità diverse, verranno utilizzati come base per molte diverse applicazioni, come nel caso in cui GPT-4 alimenta l’assistente chatbot ChatGPT di OpenAI.

In questa settimana, Francia, Germania e Italia hanno dichiarato di sostenere “un’autoregolamentazione obbligatoria attraverso codici di condotta” per i modelli fondamentali, secondo un articolo congiunto riferito per la prima volta dalla Reuters, suggerendo effettivamente che OpenAI e altre aziende possano essere affidate a mantenere sotto controllo la propria tecnologia. La Francia e la Germania sono sede di due dei principali produttori europei di modelli fondamentali, Mistral e Aleph Alpha. In merito, il CEO di Mistral, Arthur Mensch, ha espresso il suo favore all’idea di valutare i propri compiti. “Non regolamentiamo il linguaggio C (un tipo di linguaggio di programmazione) perché può essere utilizzato per sviluppare malware”, ha detto.

Ma per i sostenitori di un regime regolatorio più robusto per l’IA, gli eventi degli ultimi giorni dimostrano che l’autoregolamentazione non è sufficiente per proteggere la società. “Quello che è successo con questo dramma intorno a Sam Altman ci mostra che non possiamo fare affidamento sui CEO visionari o sugli ambasciatori di queste aziende, ma abbiamo invece bisogno di regolamentazione”, afferma Brando Benifei, uno dei due parlamentari del Parlamento europeo che guidano le negoziazioni sulle nuove norme. “Questi eventi ci mostrano che c’è inaffidabilità e imprevedibilità nella governance di queste imprese.”

Il fallimento di alto profilo della struttura di governo di OpenAI probabilmente amplificherà le richieste di una maggiore vigilanza pubblica. “I governi sono gli unici che possono dire no agli investitori”, afferma Nicolas Moës, direttore del governo europeo dell’IA presso la Future Society, un think tank con sede a Bruxelles.

Rumman Chowdhury, fondatore della no-profit Humane Intelligence e ex capo del team etico dell’IA di Twitter, afferma che la crisi e il reset di OpenAI dovrebbero essere un campanello d’allarme. Gli eventi dimostrano che l’idea di un capitalismo etico, che lega insieme entità non a scopo di lucro e a scopo di lucro, non funzionerà; è necessario un intervento governativo. “In un certo senso, sono contento che sia successo”, ha detto Chowdhury in riferimento all’allontanamento e al reinserimento di Altman.

Tra coloro che sono più pessimisti circa i rischi dell’IA, il dramma di Altman ha suscitato reazioni contrastanti. Portando il rischio esistenziale al centro delle conversazioni internazionali, dal podio di una società tecnologica multimiliardaria, il CEO di OpenAI ha dato impulso a idee relativamente di nicchia popolari tra una certa fetta di altruisti efficaci nel mainstream. Ma le persone all’interno della comunità che ha incubato per prima quelle idee non erano cieche alle incongruenze della posizione di Altman, anche se ha favorito la loro fortuna.

La strategia di Altman di raccogliere miliardi di dollari e collaborare con un gigante della tecnologia per perseguire un’IA sempre più avanzata, mentre ammetteva di non capire appieno dove potesse portare, era difficile da conciliare con le sue paure dichiarate di eventi che potrebbero portare all’estinzione. I tre membri indipendenti del consiglio di amministrazione che avrebbero guidato la decisione di rimuovere Altman avevano tutti collegamenti con l’altruismo efficace (EA), e la loro demonizzazione da parte di alcuni sostenitori di Altman – compresi importanti manipolatori di potere nella Silicon Valley – non era ben vista anche dai membri della comunità EA che precedentemente avevano professato il loro sostegno ad Altman.

L’apparizione di Altman come volto pubblico del pessimismo sull’IA ha anche infastidito molti che sono più preoccupati per i rischi immediati posti da un’IA accessibile e potente rispetto alle scenari di fantascienza. Altman ha ripetutamente chiesto ai governi di regolamentare lui e la sua azienda per il bene dell’umanità: “La mia peggior paura è che noi – il campo, la tecnologia, l’industria – causiamo danni significativi al mondo”, ha detto in un’audizione al Congresso a maggio, dicendo che voleva lavorare con i governi per evitarlo.

“Penso che l’intera idea di parlare di ‘Regolateci, perché se non ci regolate distruggeremo il mondo e l’umanità’ sia una marea di fregnacce”, dice Rayid Ghani, professore di carriera distinto presso la Carnegie Mellon University che studia l’IA e la politica pubblica. “Penso che distolga completamente l’attenzione dai veri rischi che stanno accadendo adesso riguardo alla perdita di posti di lavoro, alla discriminazione, alla trasparenza e all’accountability.”

Anche se alla fine Altman è stato ripristinato, OpenAI e altre importanti startup di IA appaiono un po’ diverse mentre il polverone si deposita dopo i cinque giorni di dramma. I creatori di ChatGPT e i rivali che lavorano su chatbot o generatori di immagini sembrano meno progetti utopistici che cercano un futuro migliore e più come iniziative convenzionali motivate principalmente a generare ritorni sul capitale dei loro investitori. L’IA si rivela molto simile ad altre aree di business e tecnologia, un settore in cui tutto avviene nel campo gravitazionale del Big Tech, che ha il potere di calcolo, il capitale e la quota di mercato per dominare.

OpenAI ha descritto la nuova composizione del consiglio di amministrazione annunciata ieri come temporanea ed è probabile che aggiunga altri nomi all’attuale elenco tutto al maschile. La forma finale del consiglio che supervisiona Altman avrà probabilmente più figure tecnologiche e meno sentimenti di catastrofismo, e gli analisti prevedono che sia questo consiglio che l’azienda stessa tenderanno ad avvicinarsi a Microsoft, che ha promesso $13 miliardi a OpenAI. Il CEO di Microsoft Satya Nadella ha espresso frustrazione in interviste ai media lunedì per il fatto che il consiglio potesse riservargli sorprese. “Sarò molto, molto chiaro: non torneremo mai più in una situazione in cui ci stupiamo così, mai più”, ha detto in un episodio congiunto dei podcast Pivot e Kara Swisher On. “È finito.”

Anche se Altman ha descritto la sua riapertura come un ritorno agli affari come prima, si prevede che OpenAI operi più direttamente come avatar di Microsoft nella sua battaglia con Google e altri giganti. Anche Meta e Amazon hanno aumentato i loro investimenti in AI e Amazon ha impegnato un investimento di 1,25 miliardi di dollari in Anthropic, avviato da ex dipendenti di OpenAI nel 2021.

“E così ora non è solo una corsa tra questi laboratori di Intelligenza Artificiale, dove le persone che li hanno fondati, credo, si interessano genuinamente alla rilevanza storica di ciò che potrebbero fare”, dice Ord. “È anche una corsa tra alcune delle più grandi aziende al mondo e questo ha cambiato la sua natura. Penso che questo aspetto sia piuttosto pericoloso.”

Ulteriori informazioni di Khari Johnson.