Come la struttura bizzarra di OpenAI ha dato a 4 persone il potere di licenziare Sam Altman

Come la peculiare struttura di OpenAI ha conferito a 4 individui il potere di cacciare Sam Altman

Quando Sam Altman, Elon Musk e altri investitori hanno formato la startup dietro ChatGPT come un’organizzazione no-profit negli Stati Uniti nel 2015, Altman ha detto a Vanity Fair che aveva pochissima esperienza con le organizzazioni no-profit. “Quindi non sono sicuro di come andrà”, ha detto.

Non avrebbe potuto immaginare il dramma di questa settimana, con quattro direttori del consiglio no-profit di OpenAI che lo hanno licenziato inaspettatamente come CEO e rimosso il presidente dell’azienda come presidente del consiglio. Ma i regolamenti statutari che Altman e i suoi cofondatori avevano inizialmente stabilito e una riorganizzazione nel 2019 che ha aperto la porta a miliardi di dollari di investimenti da parte di Microsoft hanno dato a un pugno di persone senza interessi finanziari nell’azienda il potere di mettere in discussione il progetto a loro piacimento.

Un tentativo di ripristinare Altman come CEO e sostituire il consiglio ha incontrato difficoltà domenica riguardo al ruolo dei direttori esistenti nella scelta dei propri sostituti, ha riferito Bloomberg.

Il licenziamento di Altman ha colto di sorpresa gli investitori, tra cui importanti società come Khosla Ventures, che ha una quota significativa in OpenAI, così come Andreessen Horowitz e Sequoia Capital, che hanno quote minori, secondo due persone informate sulla faccenda non autorizzate a parlare con i media sulla startup. Portavoce di Khosla, Sequoia e Andreessen hanno rifiutato di commentare.

Una delle fonti afferma che alcuni investitori avevano precedentemente temuto che i rimanenti direttori indipendenti di OpenAI, con poca esperienza nella governance aziendale, potessero non riuscire adeguatamente nei loro compiti di supervisione. Meno attenzione è stata dedicata alla possibilità di azioni aggressive come quella intrapresa contro Altman. “Non mi sarei mai aspettato che fossero degli attivisti,” dice la persona.

Le norme statutarie di 11 pagine stabilite da OpenAI Inc. nel gennaio 2016 conferiscono ai membri del consiglio il diritto esclusivo di eleggere e rimuovere i propri colleghi direttori e anche di determinare la dimensione del consiglio stesso. Le regole stabiliscono anche che la maggioranza del consiglio può prendere qualsiasi decisione senza preavviso o riunione formale, purché la maggioranza dei membri del consiglio fornisca un consenso scritto.

Nathan Benaich, socio generale di Air Street Capital e coautore del “State of AI Report,” dice che la struttura aziendale di OpenAI si è rivelata in contrasto con la necessità di supportare la ricerca all’avanguardia attraverso ingenti investimenti in equity. “È stata una sperimentazione per sfidare le leggi della fisica aziendale, e sembra che la fisica abbia vinto,” dice.

Non è chiaro se la no-profit di OpenAI abbia apportato modifiche a quelle norme statutarie dalla presentazione iniziale al Registro delle Fiduciarie di Beneficenza del Dipartimento di Giustizia della California. La no-profit non ha segnalato “cambiamenti significativi ai propri documenti statutari” nelle segnalazioni alle autorità fiscali statunitensi fino al 2021, l’ultimo anno per il quale è possibile ottenere dati.

Ma le regole originali e la graduale riduzione dei membri del consiglio, a causa di conflitti d’interesse e una disputa con Musk, potrebbero spiegare come un piccolo gruppo abbia potuto licenziare Altman senza il coinvolgimento del presidente Greg Brockman e espellere sia Brockman che Altman dal consiglio. OpenAI, l’agenzia della California, Altman, Brockman e i quattro direttori rimanenti non hanno risposto alle richieste di commento. OpenAI aveva avvertito gli investitori nella copertina dei documenti chiave che “sarebbe stato saggio considerare ogni investimento in OpenAI come una donazione,” secondo una dichiarazione fiscale federale.

OpenAI è stata creata come no-profit in linea con la missione del progetto di sviluppare l’intelligenza artificiale che sia sicura e vantaggiosa per l’umanità e che fornisca un contrappeso ai laboratori di AI guidati dal profitto presso giganti come Google.

Altman e Musk erano gli unici membri iniziali del consiglio, secondo l’intervista di Vanity Fair. “Realizziamo che noi due non siamo un campione perfetto di quello che tutti nel mondo pensano sia importante”, ha detto Altman. “Direi che abbiamo intenzione di ampliare quel gruppo”.

OpenAI ha ampliato il suo consiglio, ma i nuovi membri erano generalmente anche uomini bianchi provenienti dalla fetta di Silicon Valley preoccupata che l’IA futura, ultra-potente, potesse rivoltarsi contro l’umanità. Nel 2017, dirigenti coinvolti fin dai primi giorni, tra cui Brockman, il capo della ricerca Ilya Sutskever e l’allora COO Chris Clark, si sono uniti al consiglio, secondo le dichiarazioni fiscali federali dell’organizzazione no profit.

Faceva parte del consiglio anche Holden Karnofsky, fondatore di Open Philanthropy, un gruppo di efficace altruismo che ha donato a OpenAI. Reid Hoffman, cofondatore di LinkedIn e venture capitalist, uno dei primi sostenitori del progetto, si è unito nel 2018.

Una disputa sulla direzione di OpenAI ha portato Musk a dimettersi dal consiglio nel 2018 dopo aver fallito nel tentativo di prendere il controllo del progetto. L’anno successivo, OpenAI ha creato una controllata a scopo di lucro per attirare i finanziamenti e i dipendenti necessari per perseguire i piani ambiziosi ed costosi dello sviluppo dell’IA dei suoi leader.

Gli investitori di venture capital e i dipendenti potevano ora ottenere un ritorno sul denaro o lo sforzo investito nell’azienda, ma il consiglio dell’organizzazione no profit manteneva comunque l’ultima parola sulla società a scopo di lucro attraverso nuove disposizioni legali, secondo OpenAI.

Il dovere fiduciario primario dei direttori rimase quello di difendere la missione dello sviluppo sicuro di un’intelligenza artificiale generale benefica per tutta l’umanità. Solo una minoranza dei direttori poteva avere interessi finanziari nella società a scopo di lucro e i documenti fondativi della società a scopo di lucro richiedevano che fosse data priorità ai benefici pubblici rispetto alla massimizzazione dei profitti.

La struttura riveduta ha sbloccato un flusso di finanziamenti verso OpenAI, in particolare da parte di Microsoft, consentendo infine a OpenAI di ottenere il potere di calcolo cloud necessario per creare ChatGPT.

Fra i nuovi membri del consiglio che guidavano questa struttura unica c’erano Shivon Zilis, una lunga collaboratrice di Elon Musk e poi madre di gemelli dell’imprenditore, che si è unita nel 2019 dopo aver ricoperto il ruolo di consulente. Will Hurd, ex congressista repubblicano, si è unito nel 2021.

Nel 2023, il consiglio di OpenAI ha iniziato a restringersi, riducendo il suo gruppo di esperienza e creando le condizioni per l’allontanamento di Altman. Hoffman ha lasciato a gennaio, secondo il suo profilo LinkedIn, e in seguito ha citato potenziali conflitti di interesse con altri investimenti nell’IA. Zilis si è dimessa a marzo e Hurd a luglio per concentrarsi su una candidatura infruttuosa alla presidenza degli Stati Uniti.

Le uscite hanno ridotto il consiglio di OpenAI a soli sei direttori, uno in meno rispetto al massimo consentito nei suoi statuti originali. Con Brockman, Sutskever e Altman ancora membri del gruppo, si è diviso equamente tra dirigenti e persone esterne ad OpenAI, e non era più a maggioranza indipendente, come Altmann aveva testimoniato settimane prima al Senato degli Stati Uniti.

La svolta drammatica è avvenuta venerdì quando, secondo quanto riferito da Brockman, il capo scienziato Sutskever li ha informati di essere stati rimossi dal consiglio poco prima di un annuncio pubblico delle modifiche, che includevano anche il licenziamento di Altman come CEO perché “non era coerentemente sincero nelle sue comunicazioni con il consiglio”. Brockman si è dimesso successivamente dal suo ruolo di presidente di OpenAI. Si dice che Sutskever fosse preoccupato del suo ruolo ridotto all’interno di OpenAI e della rapida commercializzazione delle sue tecnologie da parte di Altman.

La crisi di leadership ha gettato OpenAI nel caos, ma si potrebbe arguire che il consiglio ha funzionato come previsto, come un ente indipendente dalla società a scopo di lucro e dotato dei poteri necessari per agire secondo le necessità per portare a termine la missione complessiva del progetto. Sutskever e i tre direttori indipendenti costituirebbero la maggioranza necessaria per apportare modifiche senza preavviso secondo i regolamenti statutari iniziali. Queste regole prevedono la rimozione di qualsiasi direttore, compreso il presidente, in qualsiasi momento da parte degli altri direttori, con o senza causa.

Oltre a Sutskever, gli altri direttori includono Adam D’Angelo, un ex dipendente di Facebook che serve nel consiglio dal 2018 ed è CEO del forum Q&A Quora, che licenzia tecnologia da OpenAI e da rivali nell’IA; l’imprenditrice Tasha McCauley, che ha preso il suo posto nel 2018; e Helen Toner, una ricercatrice sulla sicurezza dell’intelligenza artificiale presso la Georgetown University che è entrata a far parte del consiglio nel 2021. Toner ha lavorato in precedenza presso il gruppo di effective-altruism Open Philanthropy, mentre McCauley fa parte del consiglio del Regno Unito di Effective Ventures, un altro gruppo focalizzato sull’effective-altruism.

In un’intervista a luglio per un articolo di copertina di ENBLE sull’OpenAI, D’Angelo ha detto di essersi unito e di essere rimasto nel consiglio per contribuire a guidare lo sviluppo dell’intelligenza artificiale generale verso “risultati migliori”. Ha descritto l’entità a scopo di lucro come un vantaggio per la missione senza scopo di lucro, non in conflitto con essa. “Dover effettivamente far funzionare l’economia, secondo me, è una buona forza per un’organizzazione”, ha detto D’Angelo.

Il dramma degli ultimi giorni ha portato i leader, il personale e gli investitori di OpenAI a mettere in discussione la struttura di governance del progetto.

Modificare le regole del consiglio di OpenAI non è facile: le regole statutarie iniziali danno il potere di farlo esclusivamente a una maggioranza del consiglio. Mentre gli investitori di OpenAI incoraggiano il consiglio a riportare Altman, lui ha dichiarato di non tornare senza cambiamenti nella struttura di governance che ha contribuito a creare. Ciò richiederebbe che il consiglio raggiunga un consenso con l’uomo che ha appena licenziato.

La struttura di OpenAI, un tempo celebrata per tracciare un corso audace, sta ora ricevendo condanne in tutto Silicon Valley. Marissa Mayer, ex dirigente di Google e poi CEO di Yahoo, ha analizzato la governance di OpenAI in una serie di articoli su X. I posti rimasti vacanti quest’anno avrebbero dovuto essere riempiti rapidamente, ha detto. “La maggior parte delle aziende delle dimensioni e dell’importanza di OpenAI ha consigli di amministrazione composti da 8-15 direttori, la maggior parte dei quali indipendenti e tutti con più esperienza di consiglio a questa scala rispetto ai 4 direttori indipendenti di OpenAI”, ha scritto. “L’IA è troppo importante per sbagliare”.

Anthropic, un’azienda rivale di intelligenza artificiale fondata nel 2021 da ex dipendenti di OpenAI, ha intrapreso un proprio esperimento nel formulare una struttura aziendale per mantenere l’IA futura sui binari. È stata fondata come società a beneficio pubblico legalmente impegnata a dare priorità all’aiuto all’umanità oltre alla massimizzazione del profitto. Il suo consiglio è supervisionato da un trust con cinque fiduciari indipendenti scelti per esperienza al di là del business e dell’IA, che alla fine avranno il potere di selezionare la maggioranza dei seggi del consiglio di Anthropic.

Seth Berman, CEO di Ethical Compass Advisors, che ha aiutato Anthropic a progettare la sua struttura di governance, afferma che il team coinvolto ha passato innumerevoli ore a studiare diverse opzioni. Il design scelto dovrebbe creare un equilibrio di potere. I direttori scelti dai fiduciari avranno i voti per imporre la loro volontà, ma non possono farlo senza almeno ascoltare il resto del consiglio. E la maggioranza qualificata degli azionisti può rimuovere i direttori sostenuti dai fiduciari, ma i fiduciari hanno il potere di scegliere i sostituti, dice Berman. “Non vuoi mettere tutto il potere in nessuna di queste fazioni, né quella senza scopo di lucro né quella a scopo di lucro”, afferma Berman.

Nell’annuncio di quella struttura, Anthropic ha riconosciuto che la struttura innovativa sarà giudicata dai suoi risultati. “Non siamo ancora pronti a presentarla come un esempio da seguire; siamo empirici e vogliamo vedere come funziona”, ha detto l’annuncio dell’azienda. Ora OpenAI si sta affrettando a ripensare il proprio esperimento nel progettare una governance aziendale resistente sia a un’intelligenza artificiale superintelligente che a normali dispute umane.

Ulteriori relazioni di Will Knight and Steven Levy. Aggiornato il 19/11/2023, 8:25 pm EST: Questo articolo è stato aggiornato con dettagli aggiuntivi sulla struttura aziendale di Anthropic.

Aggiornato il 19/11/2023, 5:30 pm EST: Questo articolo è stato aggiornato con un commento passato di Adam D’Angelo.