Il sistema avanzato di intelligenza artificiale Q* di OpenAI solleva preoccupazioni sulla sicurezza.

Il sistema di intelligenza artificiale avanzata Q* di OpenAI sta sollevando preoccupazioni riguardo alla sicurezza.

OpenAI, l’azienda dietro ChatGPT, stava apparentemente lavorando su un sistema innovativo, chiamato Q*, prima del temporaneo allontanamento del CEO Sam Altman, secondo un recente rapporto del The Guardian. Questo avanzato modello di intelligenza artificiale ha dimostrato la capacità di risolvere problemi matematici di base sconosciuti, segnando un significativo passo avanti nelle capacità dell’IA.

Lo sviluppo rapido di Q* ha sollevato preoccupazioni sulla sicurezza tra i ricercatori di OpenAI, portando a un avviso al consiglio di amministrazione riguardo alla sua potenziale minaccia per l’umanità. Questo allarme ha fatto parte del contesto delle recenti turbolenze presso OpenAI, che hanno visto Altman momentaneamente licenziato e poi riassunto a seguito delle pressioni del personale e degli investitori.

Q* di OpenAI e la corsa verso l’AGI

Lo sviluppo di Q* alimenta il dibattito più ampio sul ritmo di progresso verso l’Intelligenza Artificiale Generale. L’AGI rappresenta un sistema capace di svolgere una vasta gamma di compiti a livelli di intelligenza umana o superiori, potenzialmente al di là del controllo umano. OpenAI è all’avanguardia in questa corsa, suscitando preoccupazioni tra gli esperti sulle implicazioni di tali progressi rapidi.

Andrew Rogoyski dell’Istituto per un’Intelligenza Artificiale Centrata sulle Persone dell’Università di Surrey ha commentato l’importanza di un LLM (math-solving LLM). Ha osservato che questa intrinseca capacità degli LLM di svolgere compiti analitici rappresenta un importante avanzamento nel campo.

La missione di OpenAI e la governance

OpenAI, fondata inizialmente come organizzazione no-profit, opera con una sussidiaria commerciale governata da un consiglio di amministrazione. Microsoft è il suo più grande investitore. La missione dell’organizzazione è sviluppare “un’intelligenza artificiale generale sicura e vantaggiosa per il bene dell’umanità”. I recenti cambiamenti nella governance di OpenAI riflettono questo impegno per la sicurezza e lo sviluppo etico dell’IA.

Il futuro della sicurezza dell’IA

La controversia che ha circondato l’allontanamento temporaneo di Altman ha evidenziato la tensione tra lo sviluppo rapido dell’IA e la sicurezza. Emmett Shear, il breve successore di Altman, ha chiarito che la decisione del consiglio non è stata presa a causa di un disaccordo specifico sulla sicurezza. Tuttavia, l’incidente sottolinea le sfide e le responsabilità che i sviluppatori di AI devono affrontare nel bilanciare l’innovazione con le considerazioni etiche e la sicurezza umana.

Immagine in primo piano di Sanket Mishra tramite Pexels