La Rivoluzione dell’IA 5 Preoccupazioni sulla Sicurezza Informatica per il 2024

Nel 2024, il miglior esperto di malware al mondo rivela le sue maggiori preoccupazioni per la cibersicurezza.

Esperto di IA Mikko Hyppönen prevede 5 principali minacce di sicurezza informatica nel 2024

Mikko Hyppönen, Chief Research Officer di WithSecure e rinomato esperto di sicurezza informatica, ha combattuto contro i malware per decenni. Dalla lotta ai computer worm distruttivi al rintracciamento dei creatori del primo virus per PC, l’esperienza di Hyppönen gli ha guadagnato un posto tra le menti più brillanti del settore. Ma ora si trova di fronte a una nuova sfida: l’era dell’intelligenza artificiale (IA). Secondo Hyppönen, la rivoluzione dell’IA sarà più grande della rivoluzione di internet. Nel 2024, rivela le sue cinque principali preoccupazioni per l’anno, evidenziando le potenziali minacce che l’IA porta sul tavolo.

1. Deepfakes: Il crimine più preoccupante dell’IA

Uno degli utilizzi più allarmanti dell’IA per il crimine è la creazione di deepfake. I deepfake sono media sintetici che manipolano video, immagini o audio per far sembrare che qualcuno abbia detto o fatto qualcosa che non ha fatto. Sebbene questi deepfake non siano ancora completamente realizzati, recenti segnalazioni mostrano un aumento significativo dei tentativi di frode con deepfake. Nel solo 2023, i tentativi di frode con deepfake sono aumentati del 3000%.

Hyppönen avverte che, man mano che i deepfake diventano più raffinati, accessibili ed economici, la loro portata potrebbe espandersi rapidamente, rappresentando un rischio significativo. Per affrontare questo problema, suggerisce di implementare una difesa vecchio stile: parole di sicurezza. Impostando parole di sicurezza durante le videochiamate, le persone possono verificare l’autenticità delle richieste di informazioni o transazioni sensibili, riducendo il rischio di cadere vittima di truffe basate su deepfake.

Q: Come posso proteggermi dalle truffe con deepfake?

A: Impostare parole di sicurezza durante le videochiamate può aiutare a verificare l’autenticità delle richieste di informazioni o transazioni sensibili. Inoltre, rimanere vigili e scettici di richieste o offerte sospette può contribuire a proteggere se stessi dalle truffe con deepfake.

2. Deep Scams: Il lato oscuro dell’automazione

Anche se i deep scams potrebbero sembrare simili ai deepfake, sono completamente diversi per natura. I deep scams coinvolgono truffe su larga scala facilitate dall’automazione. Sfruttando tecnologie di intelligenza artificiale come modelli di linguaggio estesi (LLM) e generatori di immagini, i truffatori possono prendere di mira migliaia di vittime contemporaneamente, amplificando l’impatto delle loro attività fraudolente.

Siano truffe di investimento, truffe di phishing, truffe immobiliari, truffe dei biglietti o truffe sentimentali, l’automazione fornita dall’IA consente ai truffatori di aumentare la portata delle loro operazioni. Hyppönen avverte che i truffatori dotati di strumenti alimentati dall’IA potrebbero sfruttare vulnerabilità e ingannare le vittime su una scala senza precedenti.

Q: Come può l’IA essere utilizzata per rilevare i deep scams?

A: L’IA può essere utilizzata per rilevare i deep scams analizzando i modelli, identificando comportamenti sospetti e confrontandoli con le tecniche di truffa conosciute. Sfruttando algoritmi di intelligenza artificiale e modelli di apprendimento automatico, le organizzazioni possono migliorare le proprie capacità di rilevamento delle frodi e ridurre al minimo il rischio di cadere vittima di deep scams.

3. Malware abilitato da LLM: La minaccia silenziosa

L’IA non è limitata solo alla difesa contro le minacce informatiche; può anche essere impiegata per scrivere malware. Il team di Hyppönen ha scoperto tre worm che utilizzano modelli di linguaggio estesi (LLM) per riscrivere il loro codice ad ogni replica, rendendoli altamente sfuggenti e difficili da rilevare. Sebbene questi campioni di malware abilitati da LLM non siano ancora stati trovati nelle reti reali, la loro presenza nei repository pubblici è motivo di preoccupazione.

Sfruttando tecnologie di intelligenza artificiale come GPT di OpenAI, questi worm possono generare codice unico per ogni obiettivo infettato. La natura closed-source di questi sistemi AI generativi di scrittura del codice rende difficile inserirli in una blacklist. Hyppönen sottolinea l’importanza di affrontare questo problema e impedire l’uso diffuso di sistemi AI closed-source a scopi maliziosi.

Q: È possibile rilevare ed attenuare efficacemente il malware con intelligenza artificiale?

A: Rilevare ed attenuare il malware alimentato da AI richiede lo sviluppo di soluzioni avanzate di sicurezza informatica che sfruttino algoritmi di intelligenza artificiale e tecniche di apprendimento automatico. Monitorando continuamente il traffico di rete, analizzando i modelli e utilizzando la rilevazione delle anomalie, le organizzazioni possono migliorare la loro capacità di identificare e neutralizzare efficacemente il malware basato su AI.

4. Scoperta di Zero-Days: Una Spada a Doppio Taglio

Le vulnerabilità Zero-day, scoperte dagli attaccanti prima che gli sviluppatori abbiano la possibilità di correggerle, rappresentano una minaccia significativa per la sicurezza informatica. Mentre l’IA può essere utilizzata per individuare e correggere queste vulnerabilità, può anche essere impiegata per generarne di nuove. Hyppönen sottolinea che l’uso dell’IA per sfruttare le vulnerabilità è una realtà imminente.

Cita uno studio di tesi condotto da uno studente presso F-Secure, in cui lo studente ha automatizzato il processo di scansione delle vulnerabilità su un computer con Windows 11. Questo esempio dimostra che l’uso dell’IA nell’esplorazione delle vulnerabilità non è una possibilità lontana, ma potenzialmente imminente.

D: Come possono le organizzazioni proteggersi dagli Zero-Day Exploits?

R: Per mitigare il rischio di Zero-Day Exploits, le organizzazioni dovrebbero prioritizzare misure di sicurezza informatica come applicare tempestivamente gli aggiornamenti e le correzioni software, implementare la segmentazione di rete e utilizzare sistemi di rilevamento delle intrusioni. Inoltre, è fondamentale coltivare una forte cultura della sicurezza informatica all’interno dell’organizzazione, al fine di aumentare la consapevolezza e mantenere la vigilanza contro le minacce emergenti.

5. Malware Automatizzato: La Minaccia del Futuro

Mentre le operazioni manuali costituiscono la base della maggior parte delle campagne di malware odierno, la diffusione dell’IA apre la strada al malware completamente automatizzato. Ciò potrebbe trasformare la dinamica del panorama della sicurezza informatica, trasformandolo in una battaglia tra una buona IA e una cattiva IA. Se lasciato incontrollato, il malware completamente automatizzato potrebbe rappresentare una grave minaccia per individui, organizzazioni e l’ecosistema digitale nel suo complesso.

Hyppönen classifica il malware completamente automatizzato come la principale minaccia per la sicurezza nel 2024, sottolineando la necessità urgente di prepararsi all’impatto potenziale.

D: Come può l’IA essere utilizzata per difendersi dal malware automatizzato?

R: L’utilizzo dell’IA per la sicurezza informatica è fondamentale nel contrastare il malware automatizzato. Utilizzando algoritmi di intelligenza artificiale per la rilevazione delle minacce, l’analisi del comportamento e la rilevazione delle anomalie, le organizzazioni possono migliorare la loro capacità di identificare e neutralizzare il malware automatizzato. Inoltre, la collaborazione tra ricercatori della sicurezza, esperti del settore e sviluppatori di IA è essenziale per rimanere un passo avanti alle minacce in evoluzione.

Il Percorso Pericoloso verso AGI

Oltre alle minacce immediate per la sicurezza informatica, Hyppönen esprime preoccupazione riguardo all’intelligenza artificiale generale (AGI). Prevede che durante la sua vita, gli esseri umani diventeranno il secondo essere più intelligente del pianeta, superati dall’AGI. Per garantire lo sviluppo e l’utilizzo sicuro dell’AGI, Hyppönen sottolinea la necessità di un forte allineamento con obiettivi e valori umani.

Mentre i potenziali benefici dell’AGI sono immensi, la mancanza di priorità nell’allineamento e la comprensione delle implicazioni a lungo termine potrebbero portare a conseguenze impreviste.

D: Come possiamo garantire l’allineamento dell’AGI con gli interessi umani?

R: Garantire l’allineamento dell’AGI con gli interessi umani richiede la promozione di pratiche responsabili nello sviluppo dell’IA, quadri di governance robusti e considerazioni etiche. Gli sforzi collaborativi tra ricercatori, responsabili delle politiche, leader del settore e il pubblico più ampio sono cruciali per plasmare lo sviluppo e l’implementazione dell’AGI in modo da prioritare il benessere umano e allinearsi con i nostri interessi a lungo termine.


La rivoluzione dell’IA porta immense opportunità e sfide. Con deepfake, truffe sofisticate, malware abilitato da LLM, zero-day exploits e il potenziale impatto devastante del malware automatizzato, è fondamentale rimanere informati e proattivi di fronte a queste minacce emergenti. Adottando misure di sicurezza proattive, promuovendo lo sviluppo responsabile dell’IA e coltivando una cultura della sicurezza informatica, possiamo navigare nell’era dell’IA garantendo allo stesso tempo la sicurezza del nostro ecosistema digitale.

🔗 Link di riferimento: 1. Primo virus per PC 2. Profilo di Vanity Fair 3. WithSecure 4. Museo del malware 5. Intelligenza Artificiale 6. Deepfakes 7. Ricerca Onfido 8. Manipolazioni dei media 9. Truffatore di Tinder 10. Legge di Hyppönen 11. Allineamento


Adesso tocca a te! Quale preoccupazione di sicurezza informatica ti preoccupa di più? Condividi le tue opinioni nei commenti qui sotto e non dimenticare di diffondere la parola sulla sicurezza informatica condividendo questo articolo sui social media! 👇💻✨