Elon Musk annuncia Grok, un’IA ‘ribelle’ con poche barriere di sicurezza

Elon Musk annuncia Grok, un'intelligenza artificiale “ribelle” con poche barriere di sicurezza

La settimana scorsa, Elon Musk è volato nel Regno Unito per amplificare il rischio esistenziale rappresentato dall’intelligenza artificiale. Un paio di giorni dopo, ha annunciato che la sua ultima azienda, xAI, ha sviluppato un potente IA—uno con meno protezioni rispetto alla concorrenza.

Il modello di IA, chiamato Grok (un nome che significa “capire” nei circoli tecnologici), “è progettato per rispondere alle domande con un po’ di spirito e ha un’anima ribelle, quindi per favore non usarlo se odiate l’umorismo!” recita un annuncio sul sito web dell’azienda. “Risponderà anche a domande piccanti che vengono rifiutate dalla maggior parte degli altri sistemi di IA.”

L’annuncio non spiega cosa significhi “piccante” o “ribelle”, ma la maggior parte dei modelli di IA commerciali rifiuterà di generare contenuti sessualmente espliciti, violenti o illegali, e sono progettati per evitare di esprimere pregiudizi acquisiti dai dati di addestramento. Senza tali salvaguardie, il timore è che un modello di IA possa aiutare i terroristi a sviluppare una bomba o portare a prodotti che discriminano gli utenti in base a caratteristiche come razza, genere o età.

xAI non elenca alcuna informazione di contatto sul suo sito web, e le email inviate agli indirizzi comuni sono state respinte. Un’email inviata all’indirizzo stampa per X ha ricevuto una risposta automatica con la scritta “Ocupato ora, per favore torna più tardi”.

L’annuncio di xAI afferma che Grok si basa su un modello di linguaggio chiamato Grok-1 che ha 33 miliardi di parametri. L’azienda afferma di aver sviluppato Grok in due mesi, un periodo relativamente breve secondo gli standard del settore, e afferma anche che un vantaggio fondamentale è la sua “conoscenza in tempo reale del mondo tramite la piattaforma X,” o la piattaforma precedentemente nota come Twitter, che Musk ha acquisito per 44 miliardi di dollari nel 2022.

Stella Biderman, una ricercatrice di IA presso EleutherAI, un’iniziativa di IA open source, sostiene che le affermazioni fatte nell’annuncio di xAI sembrano plausibili. Biderman suggerisce che Grok utilizzerà ciò che è noto come “generazione potenziata da recupero” per includere informazioni aggiornate da X nella sua produzione. Altri modelli di linguaggio all’avanguardia fanno questo utilizzando i risultati dei motori di ricerca e altre informazioni.

I grandi modelli di linguaggio si sono dimostrati sorprendentemente capaci nel corso dell’ultimo anno circa, come ha evidenziato principalmente la chatbot innovativa di OpenAI, ChatGPT.

Questi modelli si nutrono di enormi quantità di testo tratto da libri e dal web, per poi generare testo in risposta a una richiesta. Di solito vengono anche sottoposti ad ulteriore addestramento da parte di esseri umani per renderli meno inclini a produrre output offensivi, maleducati o pericolosi, e per renderli più propensi a rispondere alle domande in modo coerente e plausibilmente corretto, anche se sono ancora propensi a produrre errori e pregiudizi.

I modelli di linguaggio sviluppati da OpenAI, Google e startup come Anthropic, Cohere e Inflection AI, di solito si rifiutano, per esempio, di offrire consigli su come commettere crimini, e si dimostrano riservati quando richiesti di fornire materiale provocante.

Dall’annuncio di xAI non è chiaro se Grok è stato addestrato ad essere più aperto rispetto a richieste ritenute inappropriate da altri modelli, o se semplicemente non ha ricevuto lo stesso tipo di addestramento secondario.

xAI ha pubblicato i risultati di diversi test di benchmark progettati per valutare le capacità dei grandi modelli di linguaggio. Andrei Barbu, un ricercatore scientifico presso il MIT, afferma che i risultati sembrano simili ad altri modelli popolari.

xAI afferma che Grok è stato finora testato da un piccolo numero di utenti, ma sarà ora reso disponibile a un gruppo più ampio di persone che ne faccio richiesta. Musk ha detto in un post su X che il modello sarà reso disponibile a tutti gli abbonati X Premium+. xAI non ha detto che rilascerà modelli pubblicamente.

L’annuncio di xAI afferma che l’azienda sta lavorando su diversi problemi chiave legati all’avanzamento dell’IA, tra cui la costruzione di modelli in grado di valutare l’affidabilità dei propri output e chiedere assistenza quando necessario, e la creazione di modelli più robusti contro “attacchi avversari” progettati per farli comportare in modo errato. Si afferma: “lavoreremo per sviluppare garanzie affidabili contro forme catastrofiche di uso malizioso”.

Musk è stato un investitore precoce nell’AI generativa. Il miliardario ha aiutato OpenAI ad iniziare investendo tra i 50 e i 100 milioni di dollari nella compagnia nel 2015. Nel 2018 ha ritirato il suo supporto per la compagnia (che all’epoca era un’organizzazione non-profit) dopo aver fallito nel cercare di prenderne il controllo.

Dopo che OpenAI è diventata un’azienda a scopo di lucro e ha accettato investimenti da parte di Microsoft, e in seguito al grande successo di ChatGPT, l’uomo più ricco del mondo ha apertamente criticato OpenAI e ha accusato i suoi modelli linguistici di essere eccessivamente “woke”.

Musk ha quindi annunciato a luglio 2023 di aver creato una piccola ma rispettata squadra di ricercatori di intelligenza artificiale per sviluppare forme di AI “meno influenzate”.

Alcuni ricercatori di AI hanno già provato a costruire modelli linguistici con una gamma più diversificata di opinioni politiche. OpenAI ha anche dichiarato che lavorerà per rimuovere i bias politici dai suoi modelli.

Nell’anno in cui Musk ha preso il controllo di X, la piattaforma ha reintegrato diversi utenti controversi, inclusi quelli di estrema destra, in linea con la posizione del nuovo proprietario di non moderare il contenuto sui social media. Diversi studi hanno evidenziato un aumento della disinformazione sulla piattaforma da quando Musk ne è diventato il responsabile.

L’annuncio di Grok afferma: “Stiamo costruendo strumenti di intelligenza artificiale che beneficiano al massimo di tutta l’umanità. Crediamo che sia importante progettare strumenti di AI che siano utili a persone di tutte le origini e opinioni politiche. Vogliamo anche fornire ai nostri utenti i nostri strumenti di AI, nel rispetto della legge. Il nostro obiettivo con Grok è esplorare e dimostrare questo approccio pubblicamente”.

Un altro ricercatore di AI a conoscenza dei piani di xAI, ma che non vuole essere nominato perché le discussioni riguardanti l’azienda sono private, ha affermato che xAI sta lavorando anche su uno strumento di programmazione che utilizzerà il modello. Microsoft offre un plug-in per il suo programma di programmazione, Visual Studio Code, che è alimentato da un modello di linguaggio specifico per la programmazione sviluppato da OpenAI. Addestrare un modello sul codice informatico può migliorare le sue prestazioni in altre attività.

ENBLE ha contattato diversi rinomati ricercatori di AI ma non è stato in grado di trovarne nessuno che abbia accesso a Grok al momento.

Barbu al MIT afferma che ora che ci sono così tanti buoni modelli linguistici disponibili, la domanda è cosa Musk intende fare con Grok e come spera che possa generare denaro. “Hanno riunito buone persone ed sembra che stiano per fare qualcosa”, dice. “Solo non è chiaro cosa”.