Il cofondatore di OpenAI Reid Hoffman dà a Sam Altman un voto di fiducia

Reid Hoffman, cofondatore di OpenAI, conferisce a Sam Altman una fiducia assoluta

Il cofondatore di OpenAI, Reid Hoffman, afferma che l’azienda si trova in una posizione migliore con Sam Altman ripristinato come CEO e che è rimasto sorpreso nel constatare che i membri del consiglio con cui aveva lavorato in precedenza pensassero diversamente. Hoffman, che ha lasciato il consiglio di OpenAI a marzo dopo aver fondato il concorrente Inflection AI, ha dato i suoi primi commenti sul recente caos di OpenAI sul palco dell’evento di anniversario di ENBLE a San Francisco martedì scorso.

“La sorpresa sarebbe un eufemismo”, ha detto riguardo alla sua reazione alla notizia dell’allontanamento di Altman. Dopo la rivolta dei dipendenti e degli investitori, Altman ha riavuto il suo lavoro pochi giorni dopo. “Siamo in una posizione molto migliore per il mondo avendo Sam come CEO. È molto competente”, ha detto Hoffman, che insieme a Elon Musk e ad altri luminari della tecnologia ricchi ha dato vita alla visione iniziale di OpenAI quando è stata fondata nel 2015.

“Non penso di aver mai visto nella storia di tutte le aziende che un consiglio licenzi un CEO e che quasi il 100 percento dei dipendenti firmino una lettera dicendo ‘reintegra il CEO o ce ne andiamo'”, ha detto Hoffman. “È un evento storico”.

Hoffman ha parlato durante un panel chiamato “AI Optimist Club” martedì scorso. In un panel separato a LiveENBLE, la scienziata informatica Joy Buolamwini ha affermato che, sebbene Altman si presenti come molti leader tecnologici con un senso di “ottimismo privilegiato su ciò che l’IA può fare e su come l’IA può essere vantaggiosa”, ha accolto il fatto di trovare punti in comune con lui su questioni come la necessità di una regolamentazione governativa dell’IA.

Il redattore di ENBLE, Steven Levy, ha discusso l’intelligenza artificiale con i pionieri dell’IA Fei-Fei Li e l’investitore e cofondatore di OpenAI Reid Hoffman a LiveENBLE a San Francisco.

Fotografia: Kimberly White/Getty Images

Il sostegno ad Altman da parte dei leader tecnologici è significativo mentre OpenAI cerca di superare la crisi, anche se rimangono molte incognite sulle preoccupazioni che hanno portato quattro membri del consiglio a cacciarlo. L’ampia adozione di tecnologie come ChatGPT di OpenAI sta fornendo i primi segnali di come potenti sistemi di intelligenza artificiale potrebbero ridefinire il lavoro e l’intrattenimento, con quelli al comando, come Altman, che hanno la maggiore influenza sul corso del cambiamento. Mercoledì, Google ha annunciato Gemini, un nuovo modello di AI multifunzionale inteso a contrastare OpenAI.

“Solo perché puoi costruire la tecnologia non significa necessariamente che si ottenga un buon risultato”, ha detto Hoffman, cofondatore di LinkedIn e investitore presso la società di venture capital Greylock. “Devi plasmarla. Devi dirigere ciò che stai facendo: essere un plasmatore intelligente e guidare nella giusta direzione”.

Tra le domande a cui OpenAI dovrà rispondere nel suo rinnovamento del consiglio e, presumibilmente, nel rafforzare la sua missione, c’è come bilanciare la focalizzazione sul potenziale di profitto e valore dei sistemi di intelligenza artificiale oggi con la prospettiva di futuri sistemi che diventano più intelligenti degli esseri umani.

Alcuni relatori a LiveENBLE hanno affermato che le questioni attuali, come il potenziale di ChatGPT nel diffondere false informazioni o stereotipi razziali, di genere o religiosi problematici, dovrebbero avere la priorità per aiutare la società a correggere ciò che sembra essere un percorso preoccupante.

I problemi di domani possono aspettare, ha detto Margaret Mitchell, ricercatrice e scienziata capo della startup Hugging Face, che ospita progetti di intelligenza artificiale open source. “Non è che qualcosa cambierà improvvisamente in modo fondamentale e molte persone moriranno”, ha detto. “Le persone stanno già morendo oggi a causa dei droni dell’intelligenza artificiale schierati che prendono decisioni di uccidere persone”.

L’autore senior di ENBLE Khari Johnson ha intervistato la scienziata informatica Joy Buolamwini, presidente del gruppo di difesa AI harms Algorithmic Justice League, e Margaret Mitchell, ricercatrice e scienziata capo della startup Hugging Face, a LiveENBLE a San Francisco.

Fotografia: Kimberly White/Getty Images

Hoffman e altri hanno detto che non c’è bisogno di fermare lo sviluppo dell’intelligenza artificiale. Ha definito quella misura drastica, per cui alcuni ricercatori di intelligenza artificiale hanno fatto petizioni, sciocca e distruttiva. Hoffman si definisce un “accelerationist” razionale, qualcuno che sa rallentare quando guida intorno a una curva ma che, presumibilmente, è felice di accelerare quando la strada davanti è libera. “Consiglio a tutti di unirsi al nostro club degli ottimisti, non perché sia l’utopia e tutto si risolva per il meglio, ma perché può far parte di una soluzione straordinaria”, ha detto. “Verso questo stiamo cercando di costruire”.

Mitchell e Buolamwini, che è artista capo e presidente del gruppo di difesa AI harms Algorithmic Justice League, hanno detto che fare affidamento sulle promesse delle aziende per mitigare il pregiudizio e l’abuso dell’intelligenza artificiale non sarebbe sufficiente. Secondo loro, i governi devono stabilire chiaramente che i sistemi di intelligenza artificiale non possono compromettere i diritti delle persone al trattamento equo o all’umanità. “Coloro che rischiano di essere sfruttati o ricattati, persino eliminati”, devono essere protetti, ha detto Buolamwini, aggiungendo che i sistemi come i droni letali dovrebbero essere fermati. “Siamo già in un mondo in cui l’intelligenza artificiale è pericolosa”, ha detto. “Abbiamo l’intelligenza artificiale come angeli della morte”.

Applicazioni come armamenti sono lontane dall’obiettivo principale di OpenAI di aiutare programmatori, scrittori e altri professionisti. Gli strumenti dell’azienda, secondo i termini stabiliti, non possono essere utilizzati in ambito militare e bellico, sebbene il principale sostenitore e cliente entusiasta di OpenAI, Microsoft, abbia una consistente attività con l’esercito degli Stati Uniti. Ma Buolamwini ha suggerito che le aziende che sviluppano applicazioni commerciali meritano lo stesso livello di attenzione. Con l’intelligenza artificiale che prende il sopravvento su compiti banali come la composizione, le aziende devono essere pronte ad affrontare le conseguenze sociali di un mondo che potrebbe offrire ai lavoratori meno opportunità significative per imparare le basi di un lavoro che potrebbero rivelarsi fondamentali per diventare altamente qualificati. “Cosa significa passare attraverso il processo di creazione, trovare la parola giusta, capire come esprimersi e imparare qualcosa nello sforzo di farlo?”, ha detto.

Fei-Fei Li ha guidato lo sviluppo di un set di dati chiamato ImageNet che ha contribuito a far decollare l’apprendimento profondo che ha reso possibile ChatGPT.

Fotografia: Aldo Chacon

Fei-Fei Li, scienziata informatica presso la Stanford University che dirige l’Istituto per l’Intelligenza Artificiale Umana Centrata sulla Persona della scuola, ha detto che la comunità dell’intelligenza artificiale deve essere concentrata sulle sue implicazioni per le persone, dalla dignità individuale alle grandi società. “Dovrei fondare un nuovo club chiamato techno-umanista”, ha detto. “È troppo semplice dire: ‘Vuoi accelerare o decelerare?’ Dovremmo parlare di dove vogliamo accelerare e dove dovremmo rallentare”.

Li è uno dei pionieri dell’IA moderna, avendo sviluppato il sistema di visione artificiale noto come ImageNet. Vorrebbero alla OpenAI una voce apparentemente equilibrata come la sua nel suo nuovo consiglio? Il presidente del consiglio di OpenAI, Bret Taylor, non ha risposto a una richiesta di commento. Ma se si presentasse l’opportunità, Li ha detto: “Lo valuterò attentamente”.