I più grandi trend di AI nella sicurezza informatica

Principali trend di AI nella sicurezza informatica

L’intelligenza artificiale non è nulla di nuovo per l’industria della cybersecurity. L’IA, più precisamente definita nella maggior parte dei casi come apprendimento automatico, viene utilizzata da anni per rilevare potenziali minacce ai sistemi informatici in modo che gli esseri umani possano intervenire, se necessario.

Risalendo a molto prima della pandemia, le aziende di cybersecurity, grandi e piccole, pubblicizzavano i loro ultimi progressi nell’IA nei piani fieristici delle conferenze come l’annuale raduno di Black Hat a Las Vegas, Nevada. Le aziende promettevano che la loro ultima soluzione avrebbe fermato i malintenzionati prima che potessero causare danni.

Come qualcuno che è stato a Black Hat più volte di quanto vorrei ammettere, quasi automaticamente alzavo gli occhi al cielo al solo sentirne parlare. Questo perché gran parte di ciò era solo una strategia di marketing, progettata per attirare i dirigenti e farli spendere i budget IT delle loro aziende. Le affermazioni sull’IA erano ancora comuni come le magliette gratuite ai banchetti di quest’anno, ma più aziende sembravano avere la tecnologia per supportarle.

L’IA assume un ruolo centrale

L’ascesa dell’IA generativa e dei modelli di linguaggio estesi come ChatGPT hanno portato l’IA alla ribalta pubblica e messo nelle mani di persone, gruppi criminali e stati che non ne disponevano prima, potenti strumenti o armi, a seconda del punto di vista.

Non abbiamo nemmeno iniziato a vedere le incredibili innovazioni che potrebbero derivare dall’IA, ma la profondità del suo lato oscuro rimane ancora sconosciuta, afferma Dan Schiappa, direttore del prodotto per l’azienda di cybersecurity Arctic Wolf.

Ciò che è chiaro, afferma, è che, proprio come i ransomware e i kit di malware di qualche anno fa, gli strumenti di hacking basati sull’IA stanno iniziando a diventare disponibili online, mettendoli inevitabilmente nelle mani di un numero incalcolabile di cybercriminali meno sofisticati che altrimenti non sarebbero stati in grado di effettuare attacchi informatici basati sull’IA.

“Quindi non ho bisogno di costruire l’IA, non ho bisogno di essere la persona intelligente che può crearla, ho solo bisogno di essere una persona malintenzionata che può pagare qualcuno per usarla”, ha detto Schiappa, parlando in un’intervista alla conferenza di Black Hat di agosto.

Questa improvvisa accessibilità segna un punto di svolta importante per l’industria della cybersecurity e dovrà essere una delle sue principali priorità nel futuro mentre addestra e sfrutta i propri sistemi di IA per scopi difensivi, afferma, aggiungendo che immagina un giorno in cui persino i cybercriminali meno sofisticati saranno in grado di scatenare “attacchi completamente autonomi” sui loro obiettivi.

Anche i funzionari governativi vedono la necessità di prepararsi a quel giorno. Alla conferenza di Black Hat di quest’anno, i funzionari del Defense Advanced Research Projects Agency hanno annunciato il lancio della loro sfida AI Cyber, una competizione biennale volta a creare sistemi di cybersecurity all’avanguardia alimentati dall’IA progettati per proteggere le infrastrutture critiche della nazione. Grandi nomi dell’IA, tra cui l’OpenAI, creatore di ChatGPT, Google e Microsoft, hanno aderito alla competizione.

Le prime cinque squadre, che riceveranno 2 milioni di dollari ciascuna, parteciperanno alle semifinali alla prossima edizione di Defcon, con i vincitori che saranno annunciati all’evento del 2025. Il primo classificato riceverà un premio di 4 milioni di dollari.

Nel frattempo, i leader mondiali stanno anche discutendo della necessità di comprendere entrambi i lati del potenziale dell’IA e, alla fine, regolarne l’uso prima che la tecnologia si sviluppi ed evolva oltre il punto in cui ciò sia possibile.

E stanno consultando esperti di IA su come farlo, afferma Jeff Moss, l’hacker che ha fondato le conferenze di Black Hat e Defcon.

“Penso che ciò che accadrà sarà che, da adesso in poi, avremo non solo un posto privilegiato, ma potremo anche giocare con la tecnologia”, ha detto Moss mentre si rivolgeva a una folla di partecipanti all’inizio di Black Hat.

È per questo motivo che, nonostante le minacce che l’IA rappresenta per la cybersecurity, dovrebbe anche essere considerata come un’opportunità unica, afferma.

“Ci sono opportunità per noi come settore di coinvolgerci e contribuire a guidare il futuro, ed è abbastanza nuovo.”

IA come arma

Chiunque abbia utilizzato un sistema di IA disponibile pubblicamente può dirti che non è difficile farli comportare male. Ad esempio, mentre ChatGPT rifiuterà cortesemente se gli chiedi di scrivere una email di phishing, genererà volentieri email che si fingono il dipartimento paghe che richiede l’invio di denaro o il dipartimento IT che impone l’installazione di un aggiornamento software.

Si tratta di porre all’IA il tipo giusto di domande per superare quelle protezioni, ma immagina un LLM senza tali protezioni. Gli esperti si preoccupano che l’IA renderà possibili operazioni di phishing su larga scala altamente personalizzate e altamente convincenti.

Queste truffe alimentate dall’IA potrebbero facilmente andare oltre la normale email di phishing e coinvolgere attacchi più avanzati che includono deepfake audio e video, che fanno sembrare che una persona stia facendo o dicendo qualcosa che in realtà non fa, secondo Nicole Eagan, una delle co-fondatrici di DarkTrace. L’azienda è nata dieci anni fa a Cambridge, in Inghilterra, come organizzazione di ricerca sull’IA. Ora utilizza la tecnologia nelle sue operazioni di cybersecurity.

Eagan, che ora ricopre il ruolo di chief strategy and AI officer dell’azienda, afferma che gli strumenti di intelligenza artificiale open-source necessari per questo tipo di attacchi sono facilmente disponibili, è solo una questione che gli truffatori ottengano abbastanza contenuti audio o video che ritraggono la persona che stanno cercando di imitare.

Ciò potrebbe essere un rischio per chiunque, dai CEO che appaiono frequentemente in TV agli adolescenti che pubblicano video su TikTok, afferma.

Schiappa di Arctic Wolf è d’accordo, dicendo che, sebbene la maggior parte dei deepfake attualmente disponibili sia abbastanza facile da individuare, sarà sempre più difficile distinguere tra qualcosa generato dall’intelligenza artificiale e qualcosa di reale.

“Pensate ai grafici generati al computer in un videogioco 10 anni fa”, ha detto. “Tra 10 anni, chissà quanto sarà brava l’intelligenza artificiale?”

Più di una dozzina di presentazioni di Black Hat e Defcon hanno dato uno sguardo a ciò che potrebbe venire, dimostrando in tempo reale come la voce o addirittura l’immagine video di una persona potrebbero essere falsificate in modo convincente utilizzando principalmente strumenti open-source e campioni audio e video minimi.

DarkTrace, diventata una società quotata in borsa da miliardi di dollari, gestisce ancora laboratori di ricerca a Cambridge dove ospita la propria intelligenza artificiale offensiva che utilizza per addestrare e rafforzare la propria intelligenza artificiale difensiva. Più le due versioni sono messe l’una contro l’altra, più entrambe imparano e migliorano in ciò che fanno, afferma Eagan.

L’azienda può anche utilizzare l’intelligenza artificiale offensiva nei confronti dei propri clienti in simulazioni. Farà cose come inserirsi nelle conversazioni via email e nelle riunioni di Microsoft Teams in modi credibili, afferma Eagan. L’idea non è ingannare le aziende, ma mostrar loro dove devono migliorare.

Leggi di più:

  • È spaventosamente facile utilizzare ChatGPT per scrivere email di phishing
  • Norton afferma che la sua app Genie riconoscerà e bloccherà le truffe online
  • L’intelligenza artificiale mi ha aiutato a trovare scarpe da corsa per la maratona di NYC. Ecco come ha funzionato
  • OpenAI vuole che il suo nuovo ChatGPT sia il tuo “assistente AI per il lavoro”

Violare i sistemi

Parte della definizione del futuro è assicurarsi che i sistemi di intelligenza artificiale legittimi siano adeguatamente protetti. E proprio come per altri tipi di tecnologie, uno dei modi migliori per garantirlo è cercare di violarlo, quindi correggere le vulnerabilità prima che possano essere sfruttate dai criminali.

Questo era l’obiettivo degli hacker che hanno trascorso il loro tempo a Defcon nell’AI Village dell’evento che si è svolto nel corso di un weekend. Hanno fatto del loro meglio per individuare falle nella sicurezza di noti sistemi di intelligenza artificiale, con il consenso di quelle aziende e dell’amministrazione Biden.

Gli hacker hanno fatto del loro meglio per ottenere versioni non etichettate di LLM come ChatGPT e Bard di Google per fare cose come diffondere disinformazione o tingere il contenuto che hanno creato con un determinato pregiudizio.

Anche se l’esistenza dell’AI Village risale a diversi anni fa, quest’anno era affollato, come ci si potrebbe aspettare, grazie alla grande attenzione che circonda la tecnologia dell’intelligenza artificiale.

Nel frattempo, a Black Hat, i ricercatori della startup di sicurezza informatica HiddenLayer hanno dimostrato ai media e ai potenziali clienti come l’intelligenza artificiale potrebbe essere utilizzata per hackerare sistemi bancari online. In un caso, hanno utilizzato un software di intelligenza artificiale per ottenere l’approvazione di una richiesta di prestito fraudolenta presso una banca fittizia. Ogni volta che la richiesta dell’intelligenza artificiale veniva respinta, essa imparava dall’esperimento e modificava ciò che inviava fino a quando non veniva accettata.

I ricercatori hanno anche mostrato come il chatbot alimentato da ChatGPT della banca potesse essere ingannato per ottenere informazioni aziendali chiave, chiedendogli di passare in modalità interna e di fornire un elenco di conti finanziari.

Sebbene sia una semplificazione eccessiva di come funzionano sistemi del genere, Tom Bonner, vicepresidente della ricerca dell’azienda, afferma che ciò mostra l’importanza di tenere separati i chatbot basati sull’intelligenza artificiale da informazioni sensibili, aggiungendo che attacchi del genere in cui i chatbot sono efficacemente sovrastati stanno già accadendo.

“All’improvviso queste cose crollano molto rapidamente”, ha detto. “O rivelano informazioni sensibili, o diventano imbarazzanti, o potenzialmente ti dicono che il malware è sicuro. Ci sono molte potenziali conseguenze.”

Le implicazioni per la sicurezza e la privacy dei potenziali fughe di dati correlate all’intelligenza artificiale sono anche una grande preoccupazione per Nick Adams, socio fondatore di Differential Ventures, che investe in aziende di intelligenza artificiale. Proprio come nell’esempio del chatbot di HiddenLayer, una volta che i dati vengono inseriti in modelli di linguaggio di grandi dimensioni come ChatGPT, non si sa dove potrebbero comparire.

Adams sostiene che ciò potrebbe mettere a rischio tutto, dalle segreti commerciali delle aziende alla privacy dei consumatori, rendendo imperativo che i governi di tutto il mondo inizino a regolamentare ciò che le aziende possono fare o non fare con l’intelligenza artificiale.

Ma non è chiaro come ciò potrebbe effettivamente essere applicato. Gli algoritmi interni dei sistemi di intelligenza artificiale, come ChatGPT, sono effettivamente scatole nere”, dice.

“Penso che sia molto difficile far rispettare qualsiasi tipo di regolamentazione sulla privacy dei dati quando non si ha alcuna visibilità”, ha detto Adams in un’intervista prima di Black Hat.

Uno sguardo al futuro

Altri professionisti della sicurezza informatica dicono che il maggior aiuto dell’IA per il loro settore potrebbe venire sotto forma di aiuto per risolvere la carenza di personale che li affligge da tempo. Semplicemente non ci sono abbastanza professionisti qualificati per coprire tutti i posti di lavoro in materia di sicurezza informatica.

Inoltre, molte organizzazioni che potrebbero essere bersaglio di attacchi informatici, come municipalità, piccole imprese, organizzazioni non profit e scuole, non hanno abbastanza risorse finanziarie per pagarli, anche se riuscissero a trovare qualcuno qualificato.

Se l’IA può individuare potenziali minacce, libera gli analisti di valutarle e agire di conseguenza, se necessario, afferma Juan Andres Guerrero-Saade, direttore senior di SentinelLabs presso l’azienda di sicurezza informatica SentinelOne.

Inoltre, mentre i sistemi di intelligenza artificiale potrebbero rivelarsi uno strumento importante per formare più professionisti della sicurezza informatica, aiutandoli a imparare cose come l’ingegneria inversa e lo smontaggio del codice, afferma, notando che al di fuori di poche università non ci sono molti programmi di livello base validi per introdurre le persone nella sicurezza informatica.

Nella sua stessa vita professionale, Guerrero-Saade tiene lezioni di sicurezza informatica per studenti non specializzati in informatica presso la Johns Hopkins University e afferma che i sistemi di intelligenza artificiale sono stati uno strumento fondamentale per i suoi studenti nell’apprendimento di come comprendere e scrivere codice.

Anche se i sistemi di intelligenza artificiale sono lontani dall’essere perfetti, ignorare ciò che l’IA potrebbe contribuire alla sicurezza informatica sarebbe “buttare il bambino con l’acqua sporca”, ha detto.

“Ci sono utilizzi genuini dell’IA nella sicurezza informatica che sono straordinari”, ha detto. “Sono solo stati sepolti perché siamo così concentrati sulle sciocchezze.”