LLMs inclini al rischio di avvelenamento dei dati e di iniezione rapida, avverte l’autorità britannica

LLMs rischiano avvelenamento dati e iniezione rapida, avverte autorità britannica

Il National Cyber Security Centre (NCSC) del Regno Unito sta avvertendo le organizzazioni di essere prudenti rispetto ai prossimi rischi informatici associati all’integrazione dei Large Language Models (LLM), come ChatGPT, nei loro affari, prodotti o servizi.

In una serie di articoli sul blog, il NCSC ha sottolineato che la comunità tecnologica globale non comprende ancora appieno le capacità, le debolezze e (soprattutto) le vulnerabilità dei LLM. “Potremmo dire che la nostra comprensione dei LLM è ancora ‘in versione beta'”, ha affermato l’autorità.

Una delle debolezze di sicurezza più ampiamente segnalate dei LLM esistenti è la loro suscettibilità agli attacchi maliziosi di “iniezione di prompt”. Questi si verificano quando un utente crea un input mirato a far sì che il modello di intelligenza artificiale si comporti in modo non intenzionale, come generare contenuti offensivi o divulgare informazioni confidenziali.

Inoltre, i dati su cui sono addestrati i LLM rappresentano un rischio a doppia faccia. In primo luogo, una vasta quantità di questi dati viene raccolta dal web aperto, il che significa che può includere contenuti inaccurati, controversi o tendenziosi.

In secondo luogo, i criminali informatici possono non solo distorcere i dati disponibili per pratiche maliziose (anche note come “avvelenamento dei dati”), ma anche usarli per nascondere attacchi di iniezione di prompt. In questo modo, ad esempio, l’assistente AI di una banca per i titolari di conti può essere ingannato per trasferire denaro agli aggressori.

“L’emergere dei LLM è senza dubbio un momento molto eccitante nella tecnologia – e molte persone e organizzazioni (compreso il NCSC) desiderano esplorarlo e trarne vantaggio”, ha detto l’autorità.

“Tuttavia, le organizzazioni che costruiscono servizi che utilizzano i LLM devono essere prudenti, allo stesso modo in cui lo sarebbero se stessero utilizzando un prodotto o una libreria di codice in versione beta”, ha aggiunto il NCSC. Cioè, con cautela.

L’autorità britannica sta esortando le organizzazioni a stabilire principi di sicurezza informatica e assicurarsi che anche lo “scenario peggiore” di ciò che le loro applicazioni basate su LLM sono autorizzate a fare sia qualcosa con cui possono fare i conti.