C’è un grande rischio nel non sapere cosa sta costruendo OpenAI nel cloud, avvertono gli studiosi di Oxford

Studi di Oxford avvertono del rischio di non conoscere cosa OpenAI sta costruendo nel cloud.

Uno degli eventi fondamentali nell’intelligenza artificiale (AI) nel 2023 è stata la decisione da parte di OpenAI, il creatore di ChatGPT, di divulgare poche informazioni sul suo ultimo grande modello di linguaggio (LLM), GPT-4, quando l’azienda ha introdotto il programma a marzo.

Questo improvviso passaggio al segreto sta diventando una questione etica importante per l’industria tecnologica perché nessuno, al di fuori di OpenAI e del suo partner Microsoft, sa cosa sta succedendo nella scatola nera nel loro cloud di calcolo.

Inoltre: Con GPT-4, OpenAI opta per il segreto rispetto alla divulgazione

L’oscuramento è oggetto di un rapporto questo mese degli studiosi Emanuele La Malfa presso l’Università di Oxford e dei collaboratori presso l’Alan Turing Institute e l’Università di Leeds.

In un articolo pubblicato sul server di pre-stampa arXiv, La Malfa e i suoi colleghi esplorano il fenomeno di “Language-Models-as-a-Service” (LMaaS), facendo riferimento a LLM ospitati online, sia dietro un’interfaccia utente che tramite un’API. Gli esempi principali di questo approccio sono ChatGPT di OpenAI e GPT-4.

“La pressione commerciale ha portato allo sviluppo di grandi LLM ad alte prestazioni, accessibili esclusivamente come servizio per i clienti, che restituiscono stringhe o token in risposta all’input testuale dell’utente – ma per i quali non sono disponibili informazioni sull’architettura, l’implementazione, la procedura di formazione o i dati di formazione, né è offerta la possibilità di ispezionare o modificare i suoi stati interni”, scrivono gli autori.

Differenze tra modelli di linguaggio open source e LMaaS. Un utente di programmi open source ha il controllo completo, mentre i clienti di un servizio LMaaS devono accontentarsi di ciò che ottengono attraverso un browser o un’API.

Queste restrizioni di accesso “inherenti a LMaaS, combinate con la loro natura di scatola nera, sono in contrasto con la necessità del pubblico e della comunità di ricerca di comprendere, fidarsi e controllarli meglio”, osservano. “Questo crea un problema significativo nel cuore del settore: i modelli più potenti e rischiosi sono anche i più difficili da analizzare.”

Il problema è stato evidenziato da molte parti, compresi i concorrenti di OpenAI, specialmente quelli che puntano sul codice open source per battere il codice closed source. Ad esempio, Emad Mostaque, CEO della startup di intelligenza artificiale generativa Stability.ai, che produce strumenti come il generatore di immagini Stable Diffusion, ha affermato che nessuna azienda può fidarsi di programmi closed source come GPT-4.

“I modelli aperti saranno essenziali per i dati privati”, ha detto Mostaque durante una piccola riunione di stampa ed esecutivi a maggio. “Devi conoscere tutto ciò che c’è dentro; questi modelli sono così potenti.”

Inoltre: GPT-3.5 vs GPT-4: Vale la pena sottoscrivere ChatGPT Plus?

La Malfa e il suo team esaminano la letteratura dei vari modelli di linguaggio e identificano come l’oscuramento impedisce un’audizione dei programmi su quattro fattori critici: accessibilità, replicabilità, comparabilità e affidabilità.

Gli autori notano che queste preoccupazioni sono un nuovo sviluppo nell’etica dell’IA: “Queste questioni sono specifiche del paradigma LMaaS e distinte dalle preoccupazioni preesistenti legate ai modelli di linguaggio.”

Inoltre: Perché il codice open source è essenziale per attenuare le paure legate all’IA, secondo il fondatore di Stability.ai

La questione dell’accessibilità riguarda il problema di mantenere segreto il codice, che favorisce in modo sproporzionato le grandi aziende con grandi budget di R&D, sostengono gli scrittori.

“Con la potenza di calcolo distribuita in modo disuguale e concentrata in un numero esiguo di aziende”, scrivono, “coloro che hanno un vantaggio tecnologico ma non di calcolo si trovano di fronte a un dilemma: se open-sourciano il loro LMaaS ne trarrebbero vantaggio in termini di esposizione al mercato e contribuzione al loro codice da parte della comunità, ma rilasciare il codice che alimenta un modello potrebbe bruciare rapidamente il loro vantaggio competitivo a favore di attori con risorse computazionali più elevate.”

Inoltre, la tariffazione uniforme dei programmi LMaaS significa che le persone nelle economie meno sviluppate sono svantaggiate nell’accedere agli strumenti. “Un punto di partenza per attenuare questi problemi è quindi analizzare l’impatto di LMaaS e, più in generale, dei servizi di intelligenza artificiale a pagamento per utilizzo come una tecnologia autonoma, pervasiva e rivoluzionaria”, suggeriscono.

Un altro problema è il crescente divario nella formazione degli LLM: quelli commerciali possono riutilizzare le richieste dei clienti e distinguersi così dai programmi che utilizzano solo dati pubblici, osservano gli autori.

Inoltre: Come funziona ChatGPT?

Le licenze commerciali di LMaaS, scrivono, “concedono alle aziende il diritto di utilizzare richieste per fornire, mantenere e migliorare i loro servizi”, quindi non esiste una base comune di dati di formazione da cui tutti attingono.

Offrono un grafico (sotto) che valuta la disparità nel modo in cui i modelli di linguaggio raccolgono le richieste dei clienti per la formazione e “il raffinamento”, che è una fase che in alcuni casi migliora le capacità di un modello di linguaggio, e se consentono agli utenti di escludersi.

Confronto su se i modelli di linguaggio offrono l’opzione di esclusione ai propri clienti per quanto riguarda i dati e se utilizzano i dati per la formazione e il raffinamento dei loro modelli black-box.

Dopo aver descritto a lungo i vari rischi, La Malfa e il team propongono “un programma provvisorio” per affrontare le quattro aree, sollecitando, “dobbiamo lavorare come comunità per trovare soluzioni che consentano a ricercatori, responsabili delle politiche e membri del pubblico di fidarsi di LMaaS”.

Innanzitutto, raccomandano che “le aziende dovrebbero rilasciare il codice sorgente” dei loro programmi LMaaS, se non al pubblico in generale, almeno “LMaaS dovrebbe essere disponibile agli ispettori/valutatori/red team con restrizioni sulla condivisione”.

Inoltre: I bot di intelligenza artificiale stanno superando gli esami delle scuole di medicina, ma dovrebbero diventare i tuoi medici?

Le aziende, propongono, non dovrebbero completamente eliminare i modelli di linguaggio più vecchi mentre introducono quelli nuovi. O almeno, “tutti i parametri che compongono un modello dovrebbero essere hashati e il responsabile del modello dovrebbe offrire un registro degli ‘aggiornamenti del modello’ all’utente, man mano che il responsabile aggiorna il modello”. E il settore, compresi riviste e conferenze, dovrebbe “sconsigliare l’uso di modelli” che non perseguono tali precauzioni.

Per il benchmarking, è necessario sviluppare strumenti per testare quali elementi un LMaaS ha assimilato dalle sue richieste, in modo che il punto di riferimento possa essere stabilito in modo accurato.

È evidente che, con LMaaS, il tema dell’etica dell’IA è entrato in una nuova fase, in cui le informazioni critiche sono tenute sotto chiave, rendendo le scelte etiche una questione più difficile per tutti rispetto al passato.