Hacker colpisce OpenAI Rivelata perdita dati su ChatGPT

Il responsabile è un hacker, non una violazione dei dati.

OpenAI risponde alla presunta conversazione privata trapelata che coinvolge ChatGPT.

Pubblicato il 30 gennaio 2024, ore 16:01 EST

AGGIORNAMENTO: Questa storia è stata aggiornata per includere una dichiarazione da parte di OpenAI riguardo alla sua indagine e una conferma sulla fonte del problema.

Ciò che inizialmente si pensava fosse una fuga di dati di ChatGPT è invece il lavoro di un hacker, secondo quanto riferito da OpenAI.

Fonte immagine: Nome immagine

Secondo un rapporto di Ars Technica, un utente di nome Chase Whiteside ha involontariamente ricevuto credenziali di accesso e informazioni personali da quello che sembrava essere un cliente di una farmacia su un portale di prescrizione di farmaci. Queste informazioni sono state fornite in risposta a una query non correlata e Whiteside, a sua volta, le ha condivise con il sito di notizie tecnologiche.

“Sono andato a fare una query (in questo caso, aiuto per trovare nomi intelligenti per i colori in una palette)”, ha scritto Whiteside in una e-mail. “Quando sono tornato per accedere poco dopo, ho notato le conversazioni aggiuntive.” In una dichiarazione a ENBLE, OpenAI ha chiarito che l’“abuso” era dovuto all’hacking dell’account.

“Sulla base delle nostre indagini, le credenziali di accesso dell’account degli utenti sono state compromesse e un attore malintenzionato ha quindi utilizzato l’account. La cronologia delle chat e i file visualizzati sono conversazioni derivanti dall’abuso di questo account e non erano un caso di ChatGPT che mostrava la cronologia di un altro utente.”

Risulta che le risposte che sembravano rivelare informazioni erano il risultato di conversazioni create in Sri Lanka, non nella posizione di Whiteside a Brooklyn. L’attività temporale di questa corrisponde a un accesso dalla stessa località, che si aggiunge alle prove di hacking.

Tuttavia, Whiteside rimane scettico riguardo al fatto che il suo account sia stato compromesso. Afferma di utilizzare una password di nove caratteri con simboli speciali, una combinazione di lettere minuscole e maiuscole e di usarla solo per il suo account Microsoft, da nessun’altra parte. È un po’ come avere una fortezza con guardie armate che proteggono un tesoro semplice ma prezioso, solo per scoprire che un ladro intelligente ha ingannato tutti e si è intrufolato tra le difese.

D’altra parte, OpenAI sostiene di non aver riscontrato questo problema altrove.

Le conversazioni trapelate sembrano coinvolgere un dipendente frustrato che risolve problemi con un’app utilizzata dalla farmacia. Oltre all’intero testo che denigra l’app, la fuga ha incluso il nome utente di un cliente, la password e il numero di negozio dell’impiegato. Sebbene non sia ancora chiaro se i contenuti siano genuini, sembra che l’intero ticket di feedback sia stato incluso nella risposta di ChatGPT. È come scoprire i segreti di una ricetta di pasticceria, compreso l’ingrediente segreto, rivelato accidentalmente in una conversazione tra due chef.

Fonte immagine: Nome immagine

Da un po’ di tempo ChatGPT sta sollevando preoccupazioni per la privacy e la sicurezza dei dati. Hacker e ricercatori hanno scoperto vulnerabilità che consentono loro di estrarre informazioni sensibili, sia tramite l’iniezione di input che il jailbreaking. È come avere una serratura sulla porta di ingresso che può essere facilmente scassinata o hackerata, rendendola inutile.

In passato ci sono stati casi, ad esempio, di un bug che ha rivelato le informazioni di pagamento degli utenti di ChatGPT Plus. Sebbene OpenAI abbia affrontato alcuni problemi legati agli utenti di ChatGPT, le informazioni personali o confidenziali condivise con ChatGPT rimangono non protette. È stato evidente quando ChatGPT è stato utilizzato dai dipendenti di Samsung per aiutare con il codice, portando a fughe accidentali di segreti aziendali. Non sorprende che molte aziende abbiano vietato l’uso di ChatGPT del tutto. È come dare a un assistente AI l’accesso al tuo diario, solo per scoprire che condivide i segreti più succulenti con il mondo.

Secondo la politica sulla privacy di OpenAI, i dati di input dovrebbero essere anonimizzati e privi di qualsiasi informazione personalmente identificabile. Tuttavia, anche gli stessi creatori non riescono sempre a capire cosa porta a determinate risposte, il che sottolinea i rischi intrinseci dei Large Language Models (LLM). È come avere un animale domestico super intelligente ma imprevedibile che a volte ti sorprende con le sue azioni inaspettate.

Sebbene questo incidente possa essere stato il lavoro astuto di un hacker, è sempre importante ricordare: non condividere informazioni sensibili o personali con ChatGPT. È come rivelare i tuoi segreti più profondi a un pappagallo parlante con un becco particolarmente sciolto.

Q&A: Rispondendo alle preoccupazioni dei lettori

D: Ci sono aggiornamenti riguardanti l’indagine di OpenAI sulle falle di sicurezza dei dati di ChatGPT?

OpenAI ha rilasciato una dichiarazione riconoscendo che la presunta fuga di dati è stata il risultato di un hacker che ha compromesso l’account di un utente, anziché essere un problema di ChatGPT stesso. Hanno confermato che le conversazioni visualizzate erano il risultato dell’abuso di questo account hackerato. Tuttavia, OpenAI assicura ai suoi utenti che non ha riscontrato questo problema altrove.

D: È sicuro utilizzare ChatGPT per informazioni sensibili?

Pur avendo adottato misure per affrontare determinate problematiche legate all’uso di ChatGPT, OpenAI non protegge completamente le informazioni personali o confidenziali condivise con l’AI. Incidenti precedenti, come la fuga accidentale di informazioni di pagamento e segreti aziendali, evidenziano i rischi coinvolti. È consigliabile non condividere informazioni sensibili o personali con ChatGPT al fine di evitare possibili violazioni della privacy e della sicurezza dei dati.

D: Quali misure dovrebbero adottare singoli individui e aziende per proteggersi quando utilizzano ChatGPT?

Per garantire la sicurezza delle informazioni personali e confidenziali, è meglio astenersi dal condividere tali informazioni con ChatGPT. Inoltre, singoli individui e aziende dovrebbero considerare l’implementazione di misure di sicurezza aggiuntive come l’utilizzo di password solide e uniche, l’abilitazione dell’autenticazione a due fattori e l’aggiornamento regolare dei propri sistemi per correggere eventuali vulnerabilità.

Impatto e Sviluppi Futuri

Il recente incidente di fuga di dati che coinvolge ChatGPT mette in luce le sfide e i rischi continui legati alla privacy e alla sicurezza dei dati nel campo dei Large Language Models. L’incidente sottolinea l’importanza di migliorare costantemente le misure di sicurezza intorno ai sistemi AI e dell’esercizio di cautela da parte degli utenti nell’interagire con tali tecnologie.

In futuro, è previsto che gli sviluppatori di intelligenza artificiale, compresa OpenAI, intensificheranno i loro sforzi per migliorare le funzionalità di sicurezza e privacy dei propri sistemi. Questo incidente potrebbe fungere da catalizzatore per normative e linee guida più rigorose che riguardano l’utilizzo e la gestione di informazioni sensibili nelle applicazioni AI.

Riferimenti:

  1. OpenAI rilascia una patch per la fuga di dati di ChatGPT, ma il problema non è completamente risolto
  2. Gli hacker della macchina del gelato di McDonald’s dicono di aver trovato la prova definitiva che ha ucciso una startup
  3. Attenzione! C’è un nuovo cuoco robot in città, ed è realizzato dai ricercatori di Google DeepMind
  4. ChatGPT vs. ChatGPT Plus: Vale la pena pagare la tariffa di abbonamento?
  5. OpenAI si impegna a ridurre il rischio di regolamentazione affrontando la privacy dei dati nell’UE
  6. Google e Samsung fondono ‘Nearby Share’ e ‘Quick Share’ in una singolare soluzione cross-Android
  7. Meta va oltre l’intelligenza artificiale generale