Il team Superalignment di OpenAI innova i metodi di controllo per l’IA superintelligente.

Il team Superalignment di OpenAI sta innovando i metodi di controllo per l'IA superintelligente.

OpenAI afferma di fare progressi nelle sue capacità di gestire i sistemi di intelligenza artificiale super-intelligenti, secondo un recente rapporto ENBLE report. Il team di Superalignment, guidato dal capo scienziato di OpenAI Ilya Sutskever, ha sviluppato un metodo per guidare il comportamento dei modelli di intelligenza artificiale man mano che diventano sempre più intelligenti.

Il team di Superalignment, istituito a luglio, si concentra sulla sfida di garantire che l’intelligenza artificiale rimanga sicura e vantaggiosa mentre si avvicina e supera l’intelligenza umana. “L’AGI si sta avvicinando molto velocemente”, ha detto Leopold Aschenbrenner, un ricercatore di OpenAI, a ENBLE. “Vedremo modelli superumanisti, avranno vaste capacità e potrebbero essere molto, molto pericolosi, e non abbiamo ancora i metodi per controllarli”.

Il nuovo articolo di ricerca di OpenAI presenta una tecnica chiamata supervisione, in cui un modello di intelligenza artificiale meno avanzato guida il comportamento di uno più sofisticato. Questo metodo mira a mantenere le capacità superiori del modello garantendo al contempo il rispetto di linee guida sicure ed etiche. L’approccio è considerato un passo cruciale verso la gestione delle potenziali intelligenze artificiali superumane.

Gli esperimenti hanno coinvolto l’uso del generatore di testo GPT-2 di OpenAI per insegnare a GPT-4, un sistema più avanzato. I ricercatori hanno testato due metodi per evitare la degradazione delle prestazioni di GPT-4. Il primo metodo prevedeva la formazione di modelli progressivamente più grandi, mentre il secondo aggiungeva un aggiustamento algoritmico a GPT-4. Quest’ultimo si è rivelato più efficace, anche se i ricercatori riconoscono che il controllo del comportamento perfetto non è ancora garantito.

Risposta dell’industria e future direzioni

Dan Hendryks, direttore del Center for AI Safety, ha elogiato l’approccio proattivo di OpenAI nel controllo delle intelligenze artificiali superumane. Il lavoro del team di Superalignment è considerato un importante primo passo, ma ulteriori ricerche e sviluppi sono necessari per garantire sistemi di controllo efficaci.

OpenAI ha pianificato di dedicare una parte significativa della sua potenza di calcolo al progetto Superalignment e sta cercando collaborazioni esterne. In collaborazione con Eric Schmidt, l’azienda offre 10 milioni di dollari in sovvenzioni a ricercatori che lavorano su tecniche di controllo dell’intelligenza artificiale. Inoltre, l’anno prossimo ci sarà una conferenza sulla superalignment per esplorare ulteriormente questa area critica.

Ilya Sutskever, co-fondatore di OpenAI e figura chiave negli avanzamenti tecnici dell’azienda, co-gestisce il team di Superalignment. Il suo coinvolgimento nel progetto è cruciale, specialmente dopo la recente crisi di governance crisi a OpenAI. L’esperienza e il leadership di Sutskever sono fondamentali per spingere avanti il progetto.

Lo sviluppo di metodi per controllare l’intelligenza artificiale superintelligente è un compito complesso ed urgente. Con l’avanzare rapido della tecnologia dell’IA, garantire il suo allineamento con i valori umani e la sicurezza diventa sempre più critico. L’iniziativa di OpenAI in questo settore rappresenta un passo significativo, ma il percorso verso sistemi di controllo dell’IA affidabili ed efficaci è in corso e richiede sforzi collaborativi da parte della comunità globale di ricerca sull’IA.