Attenzione l’intelligenza artificiale generativa farà salire di livello gli attacchi informatici, secondo un nuovo rapporto di Google

Nuovo rapporto di Google l'intelligenza artificiale generativa innalzerà il livello degli attacchi informatici

Illustrazione delle minacce alla sicurezza informatica

Man mano che la tecnologia diventa sempre più intelligente con sviluppi come l’IA generativa, anche gli attacchi alla sicurezza informatica lo diventano. Il nuovo scenario della sicurezza informatica di Google rivela l’aumento dell’IA che porta nuove minacce di cui dovresti essere consapevole.

Mercoledì, Google ha lanciato il suo Scenario di sicurezza informatica di Google Cloud 2024, un rapporto realizzato attraverso una collaborazione con numerose squadre di sicurezza di Google Cloud che approfondisce il panorama informatico per l’anno a venire.

Inoltre: ChatGPT non funzionava ieri? OpenAI sostiene che fosse dovuto a un attacco DDoS

Il rapporto ha scoperto che l’IA generativa e i grandi modelli di linguaggio (LLM) verranno utilizzati in vari attacchi informatici come phishing, SMS ed altre operazioni di ingegneria sociale allo scopo di rendere i contenuti e i materiali, come voce e video, più legittimi.

Ad esempio, è più difficile individuare gli attacchi di phishing che presentano errori di ortografia, grammatica e mancanza di contesto culturale quando viene impiegata l’IA generativa, poiché questa fa un ottimo lavoro nel mimare il linguaggio naturale.

In altri casi, gli aggressori possono fornire a un LLM contenuti legittimi e generare una versione modificata che soddisfi gli obiettivi dell’aggressore ma mantenga lo stesso stile dell’input originale.

Inoltre: L’Australia indagherà sull’interruzione di Optus che ha colpito milioni di utenti

Il rapporto prevede inoltre che LLM e altri strumenti di IA generativa offerti come servizio a pagamento per aiutare gli aggressori a effettuare i loro attacchi in modo più efficiente con meno sforzo saranno sempre più sviluppati.

Tuttavia, l’IA dannosa o i LLM non saranno nemmeno necessari poiché l’utilizzo dell’IA generativa per creare contenuti, come redigere un promemoria di fattura, non è di per sé malevolo, ma può essere sfruttato dagli aggressori per perseguire i propri obiettivi.

Ad esempio, ENBLE ha già coperto come gli truffatori stiano utilizzando l’IA per impersonare le voci di familiari o amici in difficoltà al fine di estorcere loro denaro.

Un’altra potenziale minaccia della IA generativa riguarda le operazioni informative. Semplicemente utilizzando spunti di IA, gli aggressori possono utilizzare modelli di IA generativa per creare notizie false, chiamate telefoniche false e foto e video deepfake.

Inoltre:Cosa sono le passkeys? Scopri la magia che cambia la vita dell’eliminazione delle password

Secondo il rapporto, queste operazioni potrebbero entrare nel ciclo delle notizie mainstream. La scalabilità di queste operazioni potrebbe ridurre la fiducia del pubblico nelle notizie e nelle informazioni online, fino al punto in cui tutti diventano più scettici o smettono di fidarsi delle notizie che consumano.

“Ciò potrebbe rendere sempre più difficile per le aziende e i governi comunicare con il proprio pubblico in un futuro prossimo”, afferma il rapporto.

Anche se gli aggressori stanno utilizzando l’IA per rendere i loro attacchi più potenti, i difensori informatici possono anche sfruttare la tecnologia per contrastare con difese più avanzate.

Inoltre:3 modi in cui la nuova iniziativa di Secure Future di Microsoft mira a contrastare le crescenti minacce informatiche

“L’IA sta già offrendo un enorme vantaggio ai nostri difensori informatici, consentendo loro di migliorare le capacità, ridurre le attività ripetitive e proteggere meglio contro le minacce”, ha dichiarato Phil Venables, CISO di Google Cloud sull’IA. “Ci aspettiamo che queste capacità e benefici aumentino nel 2024, poiché i difensori possiedono la tecnologia e ne dirigono lo sviluppo con casi d’uso specifici in mente.”

Alcuni casi d’uso di intelligenza artificiale generativa per i difensori includono il suo sfruttamento per sintetizzare grandi quantità di dati, ottenere rilevamenti efficaci e agire con maggiore rapidità.