OpenAI assembla un team di esperti per combattere i rischi catastrofici dell’IA – inclusa la guerra nucleare

OpenAI riunisce un team di specialisti per affrontare i pericoli catastrofici dell'IA - tra cui la guerra nucleare

Globo che rappresenta l'uso dell'IA

Mentre l’IA continua a rivoluzionare il nostro modo di interagire con la tecnologia, non si può negare che avrà un impatto incredibile sul nostro futuro. Non si può nemmeno negare che l’IA presenti alcuni rischi piuttosto seri se non viene controllata.

Entra in gioco un nuovo team di esperti creato da OpenAI.

Inoltre: Google amplia il programma di ricompense per la segnalazione di bug per includere anche scenari di attacco all’IA

Progettato per contrastare ciò che definisce rischi “catastrofici”, il team di esperti di OpenAI, chiamato Preparedness, ha intenzione di valutare i modelli di IA attuali e futuri per diversi fattori di rischio. Questi includono la persuasione individualizzata (o l’adattamento del contenuto di un messaggio a ciò che il destinatario vuole sentire), la sicurezza informatica generale, la replicazione e l’adattamento autonomi (ovvero, un’IA che si modifica da sola) e persino minacce di livello di estinzione come attacchi chimici, biologici, radiologici e nucleari.

Se sembra un po’ fantascientifico pensare che l’IA possa causare una guerra nucleare, ricorda che proprio quest’anno un gruppo di top ricercatori di IA, ingegneri e CEO, tra cui il CEO di Google DeepMind Demis Hassabis, ha lanciato un avvertimento inquietante, affermando: “Gestire il rischio di estinzione causato dall’IA dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale come le pandemie e la guerra nucleare.”

Come potrebbe l’IA causare una guerra nucleare? I computer sono presenti ovunque nel determinare quando, dove e come avvengono gli attacchi militari oggi, e l’IA sarà sicuramente coinvolta. Tuttavia, l’IA è incline a avere allucinazioni e non necessariamente condivide le stesse filosofie di un essere umano. In breve, l’IA potrebbe decidere che è il momento di lanciare un attacco nucleare quando non lo è.

Inoltre: Le organizzazioni stanno lottando per l’adozione etica dell’IA. Ecco come puoi contribuire.

“Crediamo che i modelli di IA di frontiera, che supereranno le capacità attualmente presenti nei modelli esistenti più avanzati,” recita una dichiarazione di OpenAI, “abbiano il potenziale di beneficiare tutta l’umanità. Ma presentano anche rischi sempre più gravi.”

Per contribuire a tenere sotto controllo l’IA, OpenAI afferma che il team si concentrerà su tre domande principali:

  • Quanto pericolosi sono i sistemi di IA di frontiera che abbiamo oggi e quelli che verranno in futuro quando utilizzati intenzionalmente in modo errato?
  • Se venissero rubati i pesi dei modelli di IA di frontiera, cosa potrebbe fare un attore malintenzionato?
  • Come si può creare un framework che monitori, valuti, preveda e protegga dalle capacità pericolose dei sistemi di IA di frontiera?

A capo di questo team c’è Aleksander Madry, direttore del MIT Center for Deployable Machine Learning e co-leader della facoltà del MIT AI Policy Forum.

Inoltre: L’etica dell’IA generativa: come possiamo sfruttare questa potente tecnologia

Per ampliare la propria ricerca, OpenAI ha anche lanciato quello che chiama “AI Preparedness Challenge” per la prevenzione dell’abuso catastrofico. L’azienda offre fino a $25.000 in crediti API per le prime 10 proposte che pubblichino un possibile, ma potenzialmente catastrofico abuso di OpenAI.