Google DeepMind crea un’organizzazione per la sicurezza dell’IA per combattere la disinformazione.

Google DeepMind, la divisione di ricerca e sviluppo di Google responsabile di molti dei recenti progressi dell'azienda nell'intelligenza artificiale, sta introducendo una nuova organizzazione focalizzata sulla sicurezza nella ricerca sull'IA.

“`html

Google DeepMind crea una nuova organizzazione dedicata a garantire la sicurezza dell’intelligenza artificiale | ENBLE

Se chiedi a Gemini, il modello GenAI di punta di Google, di scrivere contenuti ingannevoli sull’imminente elezione presidenziale negli Stati Uniti, lo farà volentieri. Chiedigli informazioni su una futura partita del Super Bowl e inventerà uno scenario dettagliato. O chiedi informazioni sull’implosione del submersible Titan e lui ti fornirà disinformazione con citazioni che sembrano convincenti ma in realtà false.

Sicuramente non è una bella figura per Google. I decisori politici hanno espresso il loro disappunto per la facilità con cui gli strumenti GenAI possono essere utilizzati per diffondere disinformazione e disorientare le persone. Quindi, in risposta, Google sta agendo e indirizzando investimenti verso la sicurezza dell’IA. Almeno, questa è la storia ufficiale.

La nuova organizzazione di Google DeepMind: Sicurezza e Allineamento dell’IA

Questa mattina, Google DeepMind, la divisione di Ricerca e Sviluppo sull’IA responsabile di Gemini e altri progetti GenAI, ha annunciato la formazione di una nuova organizzazione chiamata Sicurezza e Allineamento dell’IA. Questa organizzazione è composta da team esistenti che lavorano sulla sicurezza dell’IA, nonché da nuovi gruppi specializzati di ricercatori e ingegneri GenAI.

Anche se Google non ha divulgato il numero di nuove assunzioni che deriveranno da questa formazione, ha rivelato che la Sicurezza e l’Allineamento dell’IA includeranno un team focalizzato sulla sicurezza dell’intelligenza artificiale generale (AGI). Questo team lavorerà di concerto con l’attuale team di ricerca centrato sulla sicurezza dell’IA di DeepMind a Londra, Scalable Alignment, che sta esplorando soluzioni alla sfida tecnica di controllare un’IA superintelligente.

Perché due gruppi che lavorano sullo stesso problema?

È una domanda valida e la riluttanza di Google a rivelare molti dettagli lascia spazio a speculazioni. Tuttavia, è utile notare che il nuovo team all’interno di Sicurezza e Allineamento dell’IA è basato negli Stati Uniti, vicino alla sede centrale di Google. Questo suggerisce che Google stia cercando attivamente di stare al passo con i concorrenti nell’IA proiettando al contempo un approccio responsabile e misurato all’IA.

Gli altri team all’interno dell’organizzazione Sicurezza e Allineamento dell’IA sono responsabili dello sviluppo e dell’incorporazione di garanzie concrete nei modelli Gemini attuali e futuri di Google. Alcuni dei loro obiettivi a breve termine includono impedire consigli medici sbagliati, garantire la sicurezza dei bambini e evitare l’amplificazione del pregiudizio e altre ingiustizie.

Guidare il cammino: Anca Dragan

Anca Dragan, ex ricercatrice di staff di Waymo e professoressa di Informatica all’UC Berkeley, guiderà il team di Sicurezza e Allineamento dell’IA. Afferma che il loro lavoro mira a consentire ai modelli di comprendere meglio le preferenze e i valori umani, essere più robusti contro gli attacchi avversari e tener conto della natura dinamica dei valori e dei punti di vista umani.

Il coinvolgimento di Dragan nei sistemi di sicurezza dell’IA con Waymo potrebbe far alzare qualche sopracciglio, considerando la recente cronaca di incidenti dell’auto autonoma. Tuttavia, lei ritiene che il suo lavoro all’UC Berkeley e a DeepMind sia complementare. Sottolinea che affrontare le preoccupazioni attuali e mitigare i rischi a lungo termine non sono mutuamente esclusivi.

Le sfide future

Lo scetticismo verso gli strumenti GenAI è ai massimi livelli, specialmente per quanto riguarda i deepfake e la disinformazione. Il pubblico, le imprese e i regolatori stanno diventando sempre più preoccupati per i difetti tecnici della tecnologia e le potenziali implicazioni. Questioni come la conformità, la privacy, l’affidabilità e la mancanza di competenze tecniche necessarie per utilizzare efficacemente gli strumenti GenAI stanno causando riserve.

Tuttavia, Dragan riconosce la natura intrattabile della sfida della sicurezza dell’IA, non facendo promesse su un modello perfetto. DeepMind intende investire ulteriormente in questo settore e impegnarsi a breve in un framework per valutare il rischio di sicurezza dei modelli GenAI. Dragan ritiene che affrontare i bias cognitivi umani, incorporare stime di incertezza e aggiungere dialoghi di monitoraggio e conferma siano passaggi cruciali. Tuttavia, resta la sfida di garantire che il modello non si comporti in modo scorretto in modi difficili da rilevare prima del dispiegamento.

Il Futuro della Sicurezza dell’IA

In fin dei conti, l’obiettivo è creare un modello che sia utile e sicuro nel tempo. Anche se non è certo come risponderanno i clienti, il pubblico e i regolatori agli eventuali comportamenti scorretti, il focus sulla sicurezza dell’IA è un passo nella giusta direzione. Gli sforzi dell’organizzazione Sicurezza e Allineamento dell’IA, insieme ad altre iniziative del settore, svolgeranno un ruolo cruciale nel proteggere contro la disinformazione e nel mantenere la fiducia nella tecnologia dell’IA.


Domande e Risposte:

Q: Qual è lo scopo dell’organizzazione Sicurezza e Allineamento dell’IA?

“““html

A: L’organizzazione per la Sicurezza e l’Allineamento dell’IA mira a sviluppare salvaguardie e garantire la sicurezza dei modelli GenAI, con un focus sulla prevenzione delle informazioni errate, sulla sicurezza dei bambini e sull’evitare l’amplificazione dei pregiudizi e altre ingiustizie.

Q: Chi guiderà il team presso la Sicurezza e l’Allineamento dell’IA?

A: Anca Dragan, ex ricercatrice scientifica dello staff di Waymo e professore all’UC Berkeley, guiderà il team.

Q: Quali sono le sfide nel garantire la sicurezza dell’IA?

A: Deepfake, disinformazione, conformità, privacy, affidabilità e la mancanza delle competenze tecniche necessarie per utilizzare gli strumenti GenAI sono alcune delle sfide che devono essere affrontate per garantire la sicurezza dell’IA.

Q: Come verranno resi i modelli di intelligenza artificiale più robusti contro gli attacchi avversari?

A: I modelli di intelligenza artificiale saranno migliorati affrontando i bias cognitivi umani nei dati di addestramento, incorporando stime di incertezza e aggiungendo monitoraggio e dialoghi di conferma per decisioni consequenziali.

Q: Qual è la visione a lungo termine della Sicurezza e dell’Allineamento dell’IA?

A: L’organizzazione mira a sviluppare modelli che comprendano le preferenze e i valori umani, siano robusti contro gli attacchi avversari e tengano conto della natura dinamica dei valori e dei punti di vista umani.


Riferimenti:

  1. Gemini: il modello GenAI di Google
  2. Affrontare i Rischi legati alla Disinformazione su TikTok
  3. L’Impatto della Tecnologia AI sui Deepfake
  4. Comprendere i Rischi dell’AGI
  5. La Divisione Superalignment di OpenAI
  6. Garantire la Sicurezza dei Bambini nei Modelli di IA
  7. Affrontare il Bias e le Ingiustizie nell’IA
  8. Analisi Quantitativa della Sfida della Sicurezza dell’IA

Pensi che gli sforzi di Google nella sicurezza dell’IA combatteranno efficacemente la disinformazione? Come immagini il futuro della tecnologia AI? Condividi i tuoi pensieri qui sotto e diffondi la parola! 💬🔁

“`