Ilya Sutskever di OpenAI ha un piano per tenere sotto controllo l’Intelligenza Artificiale super-intelligente

Ilya Sutskever di OpenAI ha una strategia per gestire l'Intelligenza Artificiale super-intelligente

OpenAI è stata fondata sulla promessa di costruire intelligenza artificiale che beneficia l’umanità, anche quando quella IA diventa considerevolmente più intelligente dei suoi creatori. Dopo il debutto di ChatGPT l’anno scorso e durante la recente crisi di governance dell’azienda, le sue ambizioni commerciali sono state più evidenti. Ora, l’azienda dice che un nuovo gruppo di ricerca che si occupa di domare le AI superintelligenti del futuro sta iniziando a dare frutti.

“L’AGI si sta avvicinando molto velocemente”, afferma Leopold Aschenbrenner, un ricercatore di OpenAI coinvolto con il team di ricerca Superalignment istituito a luglio. “Vedremo modelli sovrumani, avranno capacità immense e potrebbero essere molto, molto pericolosi, e ancora non abbiamo i metodi per controllarli”. OpenAI ha dichiarato di dedicare un quinto della sua potenza di calcolo disponibile al progetto Superalignment.

Un paper di ricerca pubblicato oggi da OpenAI enfatizza i risultati di esperimenti progettati per testare un modo per permettere a un modello di intelligenza artificiale inferiore di guidare il comportamento di uno molto più intelligente senza renderlo meno intelligente. Sebbene la tecnologia coinvolta sia ancora lontana dal superare la flessibilità degli esseri umani, lo scenario è stato progettato per rappresentare un futuro in cui gli umani devono lavorare con sistemi di intelligenza artificiale più intelligenti di loro.

I ricercatori di OpenAI hanno esaminato il processo, chiamato supervisione, che viene utilizzato per regolare i sistemi come GPT-4, il grande modello di linguaggio dietro ChatGPT, in modo che siano più utili e meno dannosi. Attualmente, ciò comporta che gli esseri umani diano feedback al sistema di intelligenza artificiale su quali risposte siano buone e quali siano cattive. Con gli avanzamenti dell’intelligenza artificiale, i ricercatori stanno esplorando come automatizzare questo processo per risparmiare tempo, ma anche perché pensano che potrebbe diventare impossibile per gli esseri umani fornire feedback utili man mano che l’IA diventa più potente.

In un esperimento di controllo utilizzando il generatore di testo di OpenAI, GPT-2, rilasciato per la prima volta nel 2019, per insegnare a GPT-4, il sistema più recente è diventato meno capace e simile al sistema inferiore. I ricercatori hanno testato due idee per risolvere questo problema. Una prevedeva la formazione di modelli progressivamente più grandi per ridurre le prestazioni perse ad ogni passaggio. Nell’altra, il team ha aggiunto un accorgimento algoritmico a GPT-4 che ha permesso al modello più forte di seguire le indicazioni del modello più debole senza ridurre le sue prestazioni come accadrebbe normalmente. Ciò si è rivelato più efficace, sebbene i ricercatori ammettano che questi metodi non garantiscono che il modello più forte si comporterà in modo perfetto, e lo considerano un punto di partenza per ulteriori ricerche.

“È fantastico vedere OpenAI affrontare attivamente il problema di controllare le AI superumane”, afferma Dan Hendryks, direttore del Center for AI Safety, un’organizzazione senza scopo di lucro di San Francisco dedicata alla gestione dei rischi dell’intelligenza artificiale. “Ci vorranno molti anni di impegno dedicato per affrontare questa sfida”.

Aschenbrenner e altri due membri del team Superintelligence che hanno parlato con ENBLE, Collin Burns e Pavel Izmailov, dicono di essere incoraggiati da quello che vedono come un importante primo passo verso la gestione delle AI superumane potenziali. “Anche se uno studente di sesta elementare conosce meno matematica di uno studente universitario di matematica, possono comunque trasmettere ciò che vogliono raggiungere allo studente universitario”, afferma Izmailov. “È quello che stiamo cercando di fare qui”.

Il gruppo Superalignment è co-presieduto da Ilya Sutskever, uno dei cofondatori di OpenAI, chief scientist e uno dei membri del consiglio che il mese scorso ha votato per licenziare il CEO Sam Altman, per poi recedere e minacciare di dimettersi se non fosse stato reintegrato. Sutskever è uno dei coautori del paper pubblicato oggi, ma OpenAI ha rifiutato di renderlo disponibile per discutere del progetto.

Dopo che Altman è tornato in OpenAI il mese scorso in un accordo che ha portato alla dimissioni della maggior parte del consiglio, il futuro di Sutskever all’azienda sembrava incerto.

“Siamo molto grati a Ilya”, afferma Aschenbrenner. “È stato una grande motivazione e una forza trainante per il progetto”.

I ricercatori di OpenAI non sono i primi a cercare di utilizzare la tecnologia dell’IA di oggi per testare tecniche che potrebbero aiutare a controllare i sistemi di IA di domani. Come lavori precedenti in laboratori aziendali e accademici, è impossibile sapere se le idee che funzionano in un esperimento accuratamente progettato saranno pratiche in futuro. I ricercatori descrivono la capacità di far addestrare un modello di IA più debole a uno più forte che stanno cercando di perfezionare come “un blocco di costruzione chiave per il problema più ampio della superallineamento.”

Gli esperimenti sull’allineamento chiamati IA sollevano anche questioni su quanta fiducia si possa avere in qualsiasi sistema di controllo. Il cuore delle nuove tecniche di OpenAI dipende dal fatto che il sistema di IA più potente decide da solo quali indicazioni del sistema più debole possono essere ignorate, una decisione che potrebbe portarlo a ignorare informazioni che impedirebbero un comportamento non sicuro in futuro. Perché tale sistema sia utile, sarà necessario progredire nel fornire garanzie sull’allineamento. “In definitiva, avrai bisogno di un grado molto elevato di fiducia,” afferma Burns, il terzo membro del team di OpenAI.

Stuart Russell, professore presso UC Berkeley che lavora sulla sicurezza dell’IA, afferma che l’idea di utilizzare un modello di IA meno potente per controllare uno più potente esiste già da un po’ di tempo. Afferma inoltre che non è chiaro che i metodi attualmente esistenti per insegnare all’IA a comportarsi siano la via da seguire, perché finora non sono riusciti a far sì che i modelli attuali si comportino in modo affidabile.

Anche se OpenAI sta promuovendo un primo passo verso il controllo di IA più avanzate, l’azienda è anche desiderosa di ottenere aiuto esterno. L’azienda ha annunciato oggi che offrirà 10 milioni di dollari in sovvenzioni in collaborazione con Eric Schmidt, l’influente investitore e ex CEO di Google, a ricercatori esterni che compiono ulteriori progressi su argomenti tra cui la supervisione debole-forte, l’interpretabilità dei modelli avanzati e il rafforzamento dei modelli contro le richieste progettate per superare le loro restrizioni. OpenAI organizzerà anche una conferenza l’anno prossimo sul superallineamento, dicono i ricercatori coinvolti nel nuovo articolo.

Sutskever, cofondatore di OpenAI e co-leader del team di Superalignment, ha guidato gran parte del lavoro tecnico più importante dell’azienda ed è tra le figure di spicco dell’IA sempre più preoccupate su come controllare l’IA man mano che diventa più potente. La questione di come controllare la tecnologia futura dell’IA ha ottenuto nuova attenzione quest’anno, in gran parte grazie a ChatGPT. Sutskever ha studiato per il suo dottorato con Geoffrey Hinton, un pioniere delle reti neurali profonde che ha lasciato Google a maggio di quest’anno per avvertire della velocità con cui l’IA sembra ora raggiungere i livelli umani in alcune attività.