L’Olanda sta costruendo la propria versione di ChatGPT nel tentativo di ottenere un’intelligenza artificiale più sicura.

L'Olanda sta sviluppando la propria versione di ChatGPT nell'ambito della ricerca di un'intelligenza artificiale più sicura.

Olanda sta costruendo il suo proprio grande modello linguistico (LLM) che cerca di fornire un’alternativa “trasparente, equa e verificabile” ai chatbot di IA come il popolarissimo ChatGPT.

Sembra che tutti, compreso il cane, stiano sviluppando il proprio chatbot di IA in questi giorni, dal Bard di Google e dal Bing Chat di Microsoft al recentemente annunciato Grok, un nuovo concorrente di ChatGPT rilasciato dalla società xAI di Elon Musk questa settimana.

Ma mentre Silicon Valley sviluppa l’IA dietro porte chiuse, le autorità sono lasciate al buio sulla conformità di questi LLM a qualsiasi tipo di standard etico. L’UE ha già avvertito le aziende di IA che una legislazione più rigorosa è in arrivo.

Al contrario, il nuovo LLM olandese, chiamato GPT-NL, sarà un modello aperto, consentendo a tutti di vedere come funziona il software sottostante e come l’IA giunge a certe conclusioni, hanno dichiarato i suoi creatori. L’IA è sviluppata dall’organizzazione di ricerca TNO, dall’Istituto Forense dei Paesi Bassi e dalla cooperativa IT SURF.

“Con l’introduzione di GPT-NL, il nostro paese avrà presto il proprio modello linguistico ed ecosistema, sviluppato secondo i valori e le linee guida olandesi”, ha detto il TNO. Il finanziamento per GPT-NL proviene da un contributo di €13,5 milioni del Ministero degli Affari Economici e della Politica sul Clima, una frazione modesta rispetto ai miliardi utilizzati per creare e gestire i chatbot di Silicon Valley.

“Vogliamo avere un modello molto più equo e responsabile”, ha detto Selmar Smit, fondatore di GPT-NL. “I dati di origine e l’algoritmo diventeranno completamente pubblici.” Il modello è rivolto a istituti accademici, ricercatori, governi, aziende e utenti in generale.

Nel prossimo anno, i partner si concentreranno sullo sviluppo e l’addestramento del LLM, dopodiché verrà reso disponibile per l’uso e i test. GPT-NL sarà collegato al supercomputer nazionale Snellius del paese, che fornisce la potenza di elaborazione necessaria per far funzionare il modello.

Forse in modo appropriato, il lancio di GPT-NL la scorsa settimana è coinciso con il primo summit sulla sicurezza dell’IA. L’evento, che si è svolto a Bletchley Park nel Regno Unito, ha considerato modi per mitigare i rischi legati all’IA attraverso un’azione coordinata a livello internazionale. Giorni prima del summit, il Primo Ministro britannico Rishi Sunak ha annunciato il lancio di un chatbot di IA per aiutare il pubblico a pagare le tasse e accedere alle pensioni. Tuttavia, a differenza di GPT-NL, la tecnologia dietro il servizio sperimentale è gestita da OpenAI, simbolo dell’approccio più liberale del Regno Unito nel far fronte alla grande tecnologia rispetto all’UE.

In altre parti del mondo, gli Emirati Arabi Uniti hanno lanciato un grande modello linguistico rivolto ai oltre 400 milioni di parlanti arabi del mondo, mentre i ricercatori giapponesi stanno costruendo la propria versione di ChatGPT perché sostengono che i sistemi di IA addestrati su lingue straniere non riescano a comprendere le sfumature della lingua e della cultura giapponese. Negli Stati Uniti, persino la CIA sta creando il suo chatbot.

Evidentemente, quindi, i governi e le istituzioni di tutto il mondo sembrano rendersi conto che, quando si tratta di modelli di IA, l’approccio unico probabilmente non è una buona cosa.