🤖 OpenAI, Google e altre aziende di intelligenza artificiale divulgano lo sviluppo dei modelli di base

Un avviso, stiamo sviluppando potenti LLM che potenzialmente costituiscono una significativa minaccia per la sicurezza nazionale.

OpenAI e Google dovranno informare il governo sui loro modelli di intelligenza artificiale.

Il mondo dell’IA sta per diventare un po’ più trasparente. Grazie alla Defense Production Act, aziende di intelligenza artificiale come OpenAI e Google saranno presto obbligate a informare il governo dello sviluppo dei modelli di base. Questo nuovo requisito è stato condiviso dalla segretaria al Commercio degli Stati Uniti, Gina Raimondo, durante un evento presso l’Istituto Hoover dell’Università di Stanford.

“Stiamo utilizzando la Defense Production Act… per effettuare un sondaggio che richiede alle aziende di condividere con noi ogni volta che addestrano un nuovo modello di linguaggio di grandi dimensioni e di condividere con noi i risultati, i dati sulla sicurezza, in modo da poterli valutare”, ha spiegato Raimondo.

Questo sviluppo fa parte del vasto ordine esecutivo sull’IA del presidente Biden, che è stato annunciato lo scorso ottobre. Tra le molte disposizioni, l’ordine richiede alle aziende che sviluppano qualsiasi modello di base che rappresenta un rischio serio per la sicurezza nazionale, la sicurezza economica nazionale o la salute e la sicurezza pubblica nazionale di avvisare il governo federale e condividere i risultati dei test di sicurezza. I modelli di base, come il GPT-4 di OpenAI e il Gemini di Google, alimentano chatbot generativi di intelligenza artificiale. È importante notare che il GPT-4 probabilmente non soddisferà la soglia che richiede la supervisione del governo a causa della sua potenza di calcolo.

Tuttavia, la vera preoccupazione riguarda i futuri modelli di base che possiedono una potenza di calcolo senza precedenti. Questi modelli hanno il potenziale di rappresentare significativi rischi per la sicurezza nazionale, invocando così la Defense Production Act. Curiosamente, questa legge è stata precedentemente invocata dal Presidente Biden nel 2021 per aumentare la produzione di attrezzature e forniture di protezione legate alla pandemia.

Nell’ambito dell’evento, Raimondo ha anche affrontato un altro aspetto dell’ordine esecutivo, che richiede ai fornitori di servizi di cloud computing statunitensi come Amazon, Google e Microsoft di divulgare l’uso estero dei loro servizi. Questa mossa mira a garantire trasparenza e sicurezza nel cloud computing.

Cosa significa questo per le aziende di intelligenza artificiale e per il futuro dell’IA?

L’obbligo per le aziende di intelligenza artificiale di divulgare lo sviluppo dei modelli di base rappresenta un passo significativo verso la responsabilità e la trasparenza. Condividendo i dati sulla sicurezza con il governo, le aziende di intelligenza artificiale possono assicurare che i loro modelli siano stati attentamente testati e non rappresentino rischi significativi per la sicurezza nazionale, la sicurezza economica o la sicurezza pubblica.

Anche se questo requisito potrebbe sembrare un ulteriore onere per le aziende di intelligenza artificiale, è essenziale per mantenere la fiducia del pubblico nei sistemi di intelligenza artificiale. Con l’aumento dell’influenza e dell’impatto dell’IA in vari settori, è fondamentale mitigare i potenziali rischi e garantire uno sviluppo responsabile.

Per quanto riguarda il futuro dell’IA, è chiaro che l’attenzione sarà rivolta allo sviluppo di modelli di base con una potenza di calcolo senza precedenti. Questi modelli hanno un enorme potenziale ma comportano anche rischi significativi. Mediante la notifica al governo e la condivisione dei dati sulla sicurezza, le aziende di intelligenza artificiale possono navigare sul sottile confine tra innovazione e sicurezza.

Vale la pena notare che lo sviluppo e l’attuazione di tali regolamentazioni richiedono una attenta considerazione. Trovare il giusto equilibrio tra regolamentazione, innovazione e privacy è una sfida che i legislatori e gli esperti di intelligenza artificiale continueranno ad affrontare.

Q&A: Di cosa altro potrebbero preoccuparsi i lettori?

Q: Questo requisito inibirà l’innovazione nell’industria dell’IA?

A: Nonostante la possibilità di un maggiore vincolo regolamentare, è importante considerare questo requisito come un passo necessario per garantire lo sviluppo e l’implementazione responsabile dei sistemi di intelligenza artificiale. Affrontando i potenziali rischi e condividendo i dati sulla sicurezza, le aziende di intelligenza artificiale possono costruire fiducia tra i consumatori e i regolatori, favorendo alla fine un’industria dell’IA più sostenibile e sicura.

Q: Come si occuperà il governo della revisione dei dati sulla sicurezza?

A: Il governo si affiderà alla propria competenza e alla collaborazione con le aziende di intelligenza artificiale per valutare i dati di sicurezza condivisi. Questo processo è cruciale per identificare eventuali rischi o vulnerabilità legate allo sviluppo dei modelli di base. La comunicazione trasparente e la collaborazione continua tra il governo e le aziende di intelligenza artificiale saranno fondamentali per una valutazione efficace della sicurezza.

L’impatto e gli sviluppi futuri

L’obbligo per le aziende di intelligenza artificiale di divulgare lo sviluppo dei modelli di base rappresenta un cambiamento significativo nel panorama dell’IA. Dimostra la necessità di una maggiore responsabilità e trasparenza nel settore. Man mano che le tecnologie dell’IA continuano a evolversi e a svolgere un ruolo cruciale nella società, è probabile che le regolamentazioni e la supervisione diventino più diffuse.

Nel futuro, è fondamentale che i legislatori, gli esperti di intelligenza artificiale e gli attori dell’industria collaborino nello sviluppo di quadri normativi completi che bilancino l’innovazione, la sicurezza e le considerazioni etiche. Favorire un ambiente favorevole allo sviluppo responsabile dell’IA ci permetterà di sfruttare appieno il suo potenziale, affrontando i rischi potenziali e garantendo la fiducia del pubblico.

📚 Elenco delle referenze:

  1. OpenAI rilascia una patch di correzione per la fuga di dati su ChatGPT; problema completamente risolto
  2. Sì, ChatGPT è diventato più pigro. Ma OpenAI ha finalmente una soluzione.
  3. Il creatore della finta chiamata robo di Biden sospeso dalla startup di voce di intelligenza artificiale
  4. Il nuovo generatore di video AI di Google è ottimo, ma cosa succede con i deepfake?
  5. L’esecutivo di IA diventa un crociato dell’IA per difendere gli artisti

Ricordati di condividere questo articolo sui social media e farci sapere cosa ne pensi dell’obbligo del governo per le aziende di intelligenza artificiale di divulgare lo sviluppo dei modelli di base. Cosa pensi che questo avrà un impatto sul futuro dell’IA? 🤔💭 #IA #OpenAI #Google #Trasparenza