ChatGPT presenta un rischio di sicurezza spaventoso dopo il nuovo aggiornamento. I tuoi dati sono in pericolo?

Il nuovo aggiornamento di ChatGPT potrebbe causare seri rischi per la sicurezza. I tuoi dati sono a rischio?

Grazie agli aggiornamenti di ChatGPT, come il Code Interpreter, l’intelligenza artificiale generativa di OpenAI è piena di preoccupazioni sulla sicurezza. Secondo la ricerca dell’esperto di sicurezza Johann Rehberger (e ulteriori approfondimenti di Tom’s Hardware), ChatGPT presenta gravi lacune di sicurezza derivanti dalla sua nuova funzionalità di caricamento file.

L’ultimo aggiornamento di OpenAI a ChatGPT Plus ha introdotto una miriade di nuove funzionalità, tra cui la generazione di immagini DALL-E e il Code Interpreter, che consente l’esecuzione del codice Python e l’analisi dei file. Il codice viene creato ed eseguito in un ambiente sandbox che, purtroppo, è vulnerabile agli attacchi di iniezione di istruzioni.

Una vulnerabilità nota in ChatGPT da qualche tempo, l’attacco consiste nel truffare ChatGPT affinché esegua istruzioni da un URL di terze parti, portandolo a codificare i file caricati in una stringa compatibile con gli URL e inviare questi dati a un sito web malintenzionato. Sebbene la probabilità di un tale attacco richieda condizioni specifiche (ad esempio, l’utente deve incollare attivamente un URL malintenzionato in ChatGPT), il rischio rimane preoccupante. Questa minaccia per la sicurezza potrebbe verificarsi in vari scenari, tra cui un sito web affidabile compromesso con un prompt maligno o tramite tecniche di ingegneria sociale.

Tom’s Hardware ha effettuato un lavoro impressionante testando quanto gli utenti potrebbero essere vulnerabili a questo attacco. L’exploit è stato testato creando un finto file di variabili di ambiente e utilizzando ChatGPT per elaborare e inviare involontariamente questi dati a un server esterno. Sebbene l’efficacia dell’exploit sia variata tra le sessioni (ad esempio, ChatGPT a volte ha rifiutato di caricare pagine esterne o trasmettere dati del file), ciò solleva notevoli preoccupazioni per la sicurezza, soprattutto considerando la capacità dell’IA di leggere ed eseguire comandi Linux e gestire file caricati dall’utente in un ambiente virtuale basato su Linux.

Come afferma Tom’s Hardware nelle sue conclusioni, nonostante sembri improbabile, l’esistenza di questo vuoto di sicurezza è significativa. In teoria, ChatGPT non dovrebbe eseguire istruzioni da pagine web esterne, ma lo fa. ENBLE ha contattato OpenAI per un commento, ma non ha risposto immediatamente alla nostra richiesta.