Gli hacker stanno utilizzando l’intelligenza artificiale per creare malware pericolosi, afferma l’FBI | ENBLE

Hacker utilizzano intelligenza artificiale per malware pericolosi, afferma FBI | ENBLE

L’FBI ha avvertito che gli hacker stanno facendo razzia con strumenti di intelligenza artificiale (AI) generativi come ChatGPT, creando rapidamente codici dannosi e lanciando crimini informatici che in passato avrebbero richiesto molto più sforzo.

L’FBI ha dettagliato le sue preoccupazioni in una conferenza telefonica con i giornalisti, e ha spiegato che i chatbot di intelligenza artificiale hanno alimentato ogni tipo di attività illecita, dai truffatori che perfezionano le loro tecniche ai terroristi che consultano gli strumenti su come lanciare attacchi chimici più dannosi.

Sora Shimazaki / Pexels

Secondo un alto funzionario dell’FBI (tramite Tom’s Hardware), “ci aspettiamo che nel tempo, con il proseguimento dell’adozione e della democratizzazione dei modelli di intelligenza artificiale, queste tendenze aumenteranno”. Gli attori malevoli stanno utilizzando l’AI per integrare le loro attività criminali regolari, continuano, incluso l’uso di generatori di voce con intelligenza artificiale per impersonare persone fidate al fine di truffare parenti o anziani.

Non è la prima volta che vediamo hacker che prendono strumenti come ChatGPT e li distorto per creare malware pericolosi. Nel febbraio 2023, i ricercatori dell’azienda di sicurezza Checkpoint hanno scoperto che attori malintenzionati erano stati in grado di modificare l’API di un chatbot, consentendogli di generare codice malware e mettendo la creazione di virus alla portata di quasi qualsiasi aspirante hacker.

ChatGPT rappresenta una minaccia per la sicurezza?

Hatice Baran / Unsplash

L’FBI adotta un atteggiamento molto diverso rispetto ad alcuni esperti di cyber che abbiamo intervistato nel maggio 2023. Ci hanno detto che la minaccia dai chatbot di intelligenza artificiale è stata in gran parte esagerata, con la maggior parte degli hacker che trovano migliori vulnerabilità di codice da tradizionali falle di dati e ricerche open-source.

Ad esempio, Martin Zugec, Direttore delle Soluzioni Tecniche presso Bitdefender, ha spiegato che “la maggior parte dei programmatori di malware principianti probabilmente non possiede le competenze necessarie” per aggirare le protezioni anti-malware dei chatbot. Inoltre, Zugec ha spiegato che “la qualità del codice malware prodotto dai chatbot tende ad essere bassa”.

Questo offre un punto di vista opposto alle affermazioni dell’FBI, e dovremo vedere quale lato si dimostrerà corretto. Ma con OpenAI, l’azienda produttrice di ChatGPT, che interrompe il proprio strumento progettato per rilevare il plagio generato dai chatbot, le notizie non sono state incoraggianti ultimamente. Se l’FBI ha ragione, potrebbero esserci tempi difficili in vista nella battaglia contro gli hacker e i loro tentativi di malware alimentati dai chatbot.