La risposta di OpenAI all’ordinanza esecutiva sull’IA? Silenzio.

La reazione di OpenAI alla disposizione esecutiva sull'IA? Silenzio.

A seguito dell’ordinanza esecutiva del Presidente Biden lunedì, le aziende di intelligenza artificiale e i leader del settore si sono espressi su questo momento storico nella regolamentazione dell’IA. Ma il maggior giocatore nello spazio dell’IA, OpenAI, è rimasto sospettosamente silenzioso.

Il vasto decreto esecutivo dell’amministrazione Biden-Harris che affronta i rischi dell’IA si basa sugli impegni volontari garantiti da 15 importanti aziende di IA. OpenAI era tra le prime aziende a promettere alla Casa Bianca uno sviluppo sicuro, protetto e affidabile dei suoi strumenti di intelligenza artificiale. Tuttavia, l’azienda non ha rilasciato alcuna dichiarazione sul suo sito web o su X (precedentemente noto come Twitter). Il CEO Sam Altman, che condivide regolarmente notizie di OpenAI su X, non ha pubblicato nulla neanche lui.

OpenAI non ha risposto alla richiesta di commento di ENBLE.

Delle 15 aziende che hanno fatto un impegno volontario all’amministrazione Biden, le seguenti hanno rilasciato dichiarazioni pubbliche, tutte e che hanno espresso il loro sostegno all’ordinanza esecutiva: Adobe, Amazon, Anthropic, Google, IBM, Microsoft, Salesforce e Scale AI. Nvidia ha rifiutato di commentare.

Oltre al silenzio da parte di OpenAI, ENBLE non ha ancora ricevuto riscontri da Cohere, Inflection, Meta, Palantir e Stability AI. Ma il tour mediatico di OpenAI e di Altman nel proclamare l’urgenza dei rischi dell’IA e la necessità di regolamentazione rendono il silenzio dell’azienda ancora più evidente.

Altman si è mostrato preoccupato per la minaccia che l’IA generativa, prodotta dalla sua stessa azienda, rappresenta. A maggio, Altman, insieme ai pionieri della tecnologia Geoffrey Hinton e Bill Gates, ha firmato una lettera aperta, affermando: “Mitigare il rischio di estinzione causato dall’IA dovrebbe essere una priorità globale, insieme ad altre minacce su scala sociale come le pandemie e la guerra nucleare”.

In un audizione del Senato a maggio, Altman ha espresso la necessità di una regolamentazione dell’IA: “Penso che se questa tecnologia fallisce, può fallire in modo significativo, e vogliamo essere chiari al riguardo”, ha detto Altman in risposta all’interrogatorio del Senatore Blumenthal, D-CT, sulla minaccia di un’intelligenza artificiale superumana.

Fino ad ora, la collaborazione con i legislatori e i leader mondiali ha funzionato a favore di OpenAI. Altman ha partecipato al summit AI bipartisan a porte chiuse del Senato, dando a OpenAI un posto al tavolo per la formulazione della legislazione sull’IA. Poco dopo la testimonianza di Altman, documenti trapelati da OpenAI hanno mostrato che l’azienda è favorevole a una regolamentazione meno stringente nell’Unione Europea.

Non è chiaro quale posizione assuma OpenAI riguardo all’ordinanza esecutiva, ma gli sostenitori dell’open source sostengono che l’azienda abbia già troppa influenza nelle attività di lobbying. Mercoledì, lo stesso giorno del summit sulla sicurezza dell’IA nel Regno Unito, più di 70 leader dell’IA hanno emesso una dichiarazione congiunta che chiede un approccio più trasparente alla regolamentazione dell’IA. “L’idea che un controllo stretto e proprietario dei modelli di base dell’IA sia l’unico modo per proteggerci dai danni di scala sociale è al meglio ingenua, al peggio pericolosa”, si legge nella dichiarazione.

Yann LeCun, il capo scienziato di IA di Meta, uno dei firmatari, ha ribadito questo sentimento su X (precedentemente noto come Twitter) mettendo in discussione OpenAI, DeepMind (una sussidiaria di Google) e Anthropic per l’uso del fear-mongering per garantire esiti favorevoli. “Altman, Hassabis e Amodei sono quelli che stanno facendo massicce attività di lobbying aziendale al momento. Sono quelli che stanno cercando di appropriarsi dell’industria dell’AI attraverso la regolamentazione”, ha scritto.

Sia Anthropic che la dirigenza di Google hanno rilasciato dichiarazioni a sostegno dell’ordine esecutivo, lasciando OpenAI come unica azienda accusata di cattura regolamentare che ancora non ha rilasciato alcun commento.

Cosa potrebbe significare l’ordine esecutivo per OpenAI?

Molte delle disposizioni di prova nell’OE riguardano modelli di fondazione enormi ancora non presenti sul mercato e lo sviluppo futuro di sistemi di IA, il che suggerisce che strumenti per i consumatori come ChatGPT di OpenAI non saranno molto influenzati.

“Non penso che vedremo cambiamenti immediati in nessuno dei tool di AI generativa disponibili per i consumatori”, ha detto Jake Williams, ex hacker della National Security Agency (NSA) degli Stati Uniti e membro del corpo docente presso IANS Research. “OpenAI, Google e altri stanno sicuramente allenando modelli di fondazione e questi sono specificamente citati nell’OE se potrebbero avere un impatto sulla sicurezza nazionale.”

Quindi, qualunque cosa OpenAI stia sviluppando potrebbe essere soggetta a test governativi.

Per quanto riguarda l’impatto diretto che l’ordine esecutivo potrebbe avere su OpenAI, Beth Simone Noveck, direttrice del Burnes Center for Social Change, ha detto che potrebbe rallentare il ritmo di nuovi prodotti e aggiornamenti che vengono rilasciati e le aziende dovranno investire di più nella ricerca e sviluppo e nella conformità.

“Le aziende che sviluppano modelli linguistici su larga scala (ad esempio ChatGPT, Bard e quelli allenati su miliardi di parametri di dati) dovranno fornire informazioni continue al governo federale, compresi i dettagli su come testano le loro piattaforme”, ha detto Noveck, che in passato è stata la prima vice CTO degli Stati Uniti sotto il presidente Obama.

Più che altro, l’ordine esecutivo segnala un’allineamento con le crescenti aspettative dei consumatori per un maggiore controllo e protezione dei loro dati personali, ha detto Avani Desai, CEO di Schellman, una delle principali società di revisione dei conti specializzata in audit IT e cybersecurity.

“Questo è una grande vittoria per i sostenitori della privacy poiché le misure di trasparenza e di protezione dei dati possono aumentare la fiducia degli utenti nei prodotti e servizi alimentati dall’AI”, ha detto Desai.

Quindi, sebbene le conseguenze dell’ordine esecutivo potrebbero non essere immediate, si applicano direttamente agli strumenti e alle pratiche di OpenAI. Si potrebbe pensare che OpenAI abbia qualcosa da dire in merito.