Personalizzati test di benchmark e apertura cruciale mentre i modelli di intelligenza artificiale generativa si evolvono

Personalizzati test di benchmark e apertura cruciale per i modelli di intelligenza artificiale generativa in evoluzione

Alla luce dell’evoluzione dei modelli di intelligenza artificiale generativa (AI), la collaborazione industriale e i benchmark di test personalizzati saranno cruciali negli sforzi delle organizzazioni per trovare la soluzione più adatta alle loro attività.

Tale sforzo sarà necessario poiché le imprese cercano ampi modelli di linguaggio (LLM) addestrati su dati specifici del loro settore e i paesi cercano di garantire che i modelli di intelligenza artificiale siano addestrati su dati e principi basati sui loro valori unici, secondo quanto affermato da Ong Cheng Hui, vice direttore esecutivo del gruppo aziendale e tecnologico dell’Infocomm Media Development Authority (IMDA).

Inoltre: il 40% dei lavoratori dovrà acquisire nuove competenze nei prossimi tre anni a causa dell’IA, secondo uno studio di IBM

Ha sollevato il dubbio se un unico grande modello di base sia davvero la strada da seguire o se sia necessario avere modelli più specializzati, citando gli sforzi di Bloomberg per costruire il proprio grande modello di intelligenza artificiale generativa, BloombergGPT, specificamente addestrato sui dati finanziari.

Finché l’esperienza, i dati e le risorse di calcolo “non sono bloccati”, l’industria può continuare a fare progressi, ha affermato Ong durante una conferenza stampa al margine del Red Hat Summit di questa settimana.

Il fornitore di software è membro della AI Verify Foundation di Singapore, che mira a coinvolgere la comunità open source nello sviluppo di kit di test per guidare l’uso responsabile ed etico dell’IA. Lanciata a giugno insieme ad altri sei membri di spicco tra cui Google e Microsoft, l’iniziativa è guidata dall’IMDA e conta attualmente oltre 60 membri.

Inoltre: I migliori chatbot di intelligenza artificiale al momento

Singapore ha la più alta adozione di tecnologie open source e principi nella regione Asia-Pacifico, secondo Guna Chellappan, general manager di Red Hat Singapore. Citando i risultati di una ricerca commissionata dal fornitore, Chellappan ha sottolineato che il 72% delle organizzazioni di Singapore ha dichiarato di aver compiuto “progressi elevati o molto elevati” nell’adozione dell’open source.

L’operatore portuale PSA Singapore e UOB sono tra i clienti locali di Red Hat, con il primo che utilizza applicazioni open source per automatizzare le operazioni e la banca locale UOB che sfrutta Red Hat OpenShift per supportare lo sviluppo cloud.

La scelta di adottare l’open source è fondamentale perché la trasparenza è importante per diffondere il messaggio sull’etica dell’IA, ha affermato Ong, sottolineando che sarebbe paradossale chiedere al pubblico di fidarsi dei kit di test della fondazione se i dettagli su di essi non fossero liberamente disponibili.

Ha anche preso ispirazione da altri settori, in particolare dalla sicurezza informatica, dove gli strumenti vengono spesso sviluppati in un ambiente open source e dove la comunità contribuisce continuamente ad aggiornare queste applicazioni.

“Vogliamo che AI Verify sia la stessa cosa”, ha affermato, aggiungendo che se la fondazione sviluppasse i kit di test in modo isolato, non sarebbe in grado di tenere il passo con gli sviluppi rapidi del settore.

Inoltre: Come questa semplice modifica della richiesta ChatGPT può aiutare a migliorare i contenuti generati dall’IA

Questa collaborazione aperta aiuterà anche a individuare le migliori e più efficaci soluzioni, ha osservato. Anche l’industria automobilistica ha vissuto un ciclo simile, in cui le cinture di sicurezza sono state progettate, testate e ridisegnate, per determinare quella che potesse proteggere al meglio i conducenti.

Lo stesso approccio deve ora essere adottato per l’IA generativa, in cui modelli e applicazioni dovrebbero essere continuamente testati e modificati per garantire che possano essere utilizzati in modo sicuro all’interno dei limiti dell’organizzazione.

Tuttavia, le decisioni dei grandi attori come OpenAI di non divulgare i dettagli tecnici dei loro LLM preoccupano alcune parti del settore.

Un team di accademici guidato da Emanuele La Malfa dell’Università di Oxford ha pubblicato il mese scorso un articolo di ricerca che evidenzia i problemi che potrebbero emergere dalla mancanza di informazioni sui grandi modelli di intelligenza artificiale linguistica in quattro aree: accessibilità, replicabilità, affidabilità e fiducia (AART).

Gli studiosi notano che “la pressione commerciale” ha spinto i protagonisti del mercato a rendere i loro modelli di intelligenza artificiale accessibili come servizio ai clienti, di solito tramite API. Tuttavia, non vengono fornite né rese disponibili informazioni sull’architettura, l’implementazione, i dati di formazione o i processi di formazione dei modelli.

Anche: come utilizzare ChatGPT per creare grafici e tabelle

Queste restrizioni di accesso, insieme al fatto che gli LLM sono spesso una “scatola nera”, contrastano la necessità della comunità pubblica e della comunità di ricerca di comprendere, fidarsi e controllare meglio questi modelli, ha scritto il team di La Malfa. “Questo causa un problema significativo nel cuore del settore: i modelli più potenti e rischiosi sono anche i più difficili da analizzare”, hanno notato.

OpenAI ha precedentemente difeso la sua decisione di non fornire dettagli sulla sua iterazione GPT-4, facendo riferimento al panorama competitivo e alle implicazioni per la sicurezza derivanti dal rilascio di informazioni su modelli su larga scala, compresa la loro architettura, il metodo di addestramento e la costruzione del set di dati.

Quando gli è stato chiesto come le organizzazioni dovrebbero adottare l’IA generativa, Ong ha detto che emergeranno due fazioni nel livello del modello di base, una composta da alcuni modelli di IA linguistica proprietari su larga scala, tra cui ChatGPT-4 di OpenAI, e l’altra che opterà per la costruzione dei propri modelli su un’architettura open-source, come Llama-v2 di Meta.

Ha suggerito che le aziende che si preoccupano della trasparenza possono scegliere le alternative open-source.

Sono necessari benchmark di test personalizzati

Allo stesso tempo, le aziende costruiranno sempre più sopra il livello di base per implementare applicazioni di IA generativa che soddisfino meglio le loro esigenze specifiche di settore, come l’istruzione e i servizi finanziari.

Inoltre: uno su quattro lavoratori teme di essere considerato “pigro” se utilizza strumenti di intelligenza artificiale

Anche questo livello di applicazione dovrà avere delle linee guida e, quindi, sarà necessario stabilire un certo livello di trasparenza e fiducia, ha detto Ong.

È qui che AI Verify, con i suoi strumenti di test, spera di aiutare le aziende a orientarsi nella giusta direzione. Con organizzazioni che operano in diversi mercati, regioni e settori, la loro preoccupazione principale non sarà se un modello di IA è open-source, ma se le loro applicazioni di IA generativa rispettano i principi etici e di sicurezza dell’IA, ha spiegato.

Ong ha osservato che molte aziende, così come i governi, stanno attualmente testando e valutando strumenti di IA generativa, sia per casi d’uso rivolti ai consumatori che non. Spesso iniziano con questi ultimi per ridurre al minimo i rischi potenziali e l’impatto sui clienti, e ampliano i test pilota per includere applicazioni rivolte ai consumatori quando hanno raggiunto un certo livello di comfort.

Le organizzazioni in settori altamente regolamentati, come i servizi finanziari, saranno ancora più caute con le applicazioni rivolte ai consumatori, ha aggiunto.

Anche i paesi e le società hanno valori e culture diverse. I governi vorranno assicurarsi che i modelli di IA siano basati su dati di formazione e principi che si basano sulla combinazione unica della loro popolazione.

Inoltre: Perché l’IA generativa è così popolare: tutto ciò che devi sapere

Ad esempio, la demografia di Singapore è multirazziale, multireligiosa e multilingue. L’armonia razziale è unica nella sua società, così come le strutture e le politiche locali, come il suo sistema nazionale di risparmio per la sicurezza sociale, ha detto Ong.

Osservando che gli LLM che vengono ampiamente utilizzati oggi non si comportano uniformemente bene quando vengono testati con domande culturali, si è chiesta se questa mancanza suggerisca la necessità per Singapore di costruire il proprio LLM e, in tal caso, se disponga di dati sufficienti – come paese con una piccola popolazione – per addestrare il modello di IA.

Visto che anche i giocatori di mercato in altre regioni, in particolare in Cina, stanno rilasciando i propri LLM addestrati su dati locali, ENBLE ha chiesto se ci fosse un modo per fondere o integrare modelli di base provenienti da diverse regioni, in modo che siano meglio adattati alla combinazione della popolazione di Singapore.

Ong ritiene che potrebbe esserci la possibilità che diversi LLM imparino l’uno dall’altro, il che è una potenziale applicazione che può essere esplorata nel campo della ricerca. Gli sforzi in questo ambito dovranno garantire la privacy dei dati e la protezione dei dati sensibili, ha detto.

Al momento, Singapore sta valutando la fattibilità di tali opzioni, compreso il potenziale di costruire il proprio LLM, secondo Ong.

Inoltre: L’esplosione dell’IA amplificherà i problemi sociali se non agiamo ora, dice l’etico dell’IA

Le esigenze per modelli di IA generativa specializzati aumenteranno ulteriormente l’importanza di toolkit personalizzati e benchmark con cui testare e valutare i modelli di IA, ha detto Ong.

Questi benchmark saranno necessari per testare le applicazioni di IA generativa, compresi gli strumenti di terze parti e quelli specifici per settori verticali, rispetto ai principi di IA di un’organizzazione o di un paese e per garantire che la loro implementazione rimanga responsabile ed etica.