WormGPT Cosa sapere sul cugino malizioso di ChatGPT

WormGPT Tutto ciò che c'è da sapere sul perfido cugino di ChatGPT

redkeys-gettyimages-1563732897

Quando ChatGPT è stato reso disponibile al pubblico nel 2022, il chatbot basato su intelligenza artificiale ha sconvolto il mondo.

Il software è sviluppato da OpenAI, un’azienda di ricerca e intelligenza artificiale. ChatGPT è uno strumento di elaborazione del linguaggio naturale in grado di rispondere a domande e fornire informazioni provenienti da set di dati. È diventato uno strumento prezioso per la raccolta di informazioni, l’analisi e la scrittura in tempo reale per milioni di utenti in tutto il mondo.

Caratteristica Speciale

Best Practices di Cybersecurity per Proteggere i tuoi Asset Digitali

Ammettiamolo: i tuoi dati personali e aziendali sono minacciati 24 ore su 24, 7 giorni su 7 – e proteggere quegli asset digitali mentre fai acquisti, fai operazioni bancarie e giochi online rimane il compito principale. Ecco la buona notizia: sono disponibili più strumenti e strategie focalizzati sulla sicurezza che mai. Le guide sulla sicurezza informatica più aggiornate di ENBLE forniscono consigli pratici per rimanere al sicuro e produttivi oggi, nel mezzo di un panorama delle minacce in continua evoluzione.

La prima versione pubblicamente disponibile di ChatGPT aveva una limitazione significativa: non poteva accedere a Internet. Tuttavia, gli abbonati a pagamento possono ora utilizzare plugin del browser per consentire al chatbot di accedere al web in tempo reale e fornire collegamenti alle fonti utilizzate per le sue risposte.

Mentre alcuni esperti credono che la tecnologia possa raggiungere un livello di interruzione a livello di Internet, altri notano che ChatGPT dimostra una “sicurezza inesatta e sicura”. Gli studenti in massa sono stati colti a copiare il lavoro scolastico attraverso lo strumento. Se i set di dati non vengono verificati, ChatGPT e altri modelli di linguaggio di grandi dimensioni (LLM) potrebbero diventare involontari diffusori di disinformazione e propaganda.

Inoltre: I migliori chatbot basati su intelligenza artificiale

Infatti, ora che il chatbot può accedere al web, sarà interessante vedere l’impatto a lungo termine sulla validità dei suoi risultati e delle sue risposte.

Esistono anche preoccupazioni normative, con la Federal Trade Commission (FTC) degli Stati Uniti che sta indagando sulla gestione delle informazioni personali da parte di OpenAI e sui dati utilizzati per creare il suo modello di linguaggio.

Inoltre: L’intelligenza artificiale generativa supererà di gran lunga ciò che ChatGPT può fare. Ecco tutto ciò che riguarda i progressi tecnologici.

Tuttavia, oltre alle preoccupazioni sulla protezione dei dati, ogni volta che viene fatta un’innovazione tecnologica, vengono creati anche percorsi per il suo abuso. Era solo una questione di tempo prima che i chatbot basati su intelligenza artificiale e i modelli di linguaggio di grandi dimensioni venissero usati per scopi maliziosi – e alcuni strumenti sono già sul mercato, noti come WormGPT e FraudGPT.

Cos’è WormGPT?

Il 13 luglio, i ricercatori dell’azienda di sicurezza informatica SlashNext hanno pubblicato un post sul blog che ha rivelato la scoperta di WormGPT, uno strumento che viene promosso per la vendita su un forum di hacker.

Secondo l’utente del forum, il progetto WormGPT mira a essere un’alternativa “blackhat” a ChatGPT, “uno strumento che ti permette di fare ogni tipo di attività illegale e venderla facilmente online in futuro.”

Inoltre: Come trovare e rimuovere lo spyware dal tuo telefono

SlashNext ha ottenuto accesso allo strumento, descritto come un modulo AI basato sul modello linguistico GPT-J. WormGPT è stato presumibilmente addestrato con fonti di dati, inclusi dati correlati al malware, ma i dataset specifici sono noti solo all’autore di WormGPT.

Potrebbe essere possibile per WormGPT generare codice maligno, ad esempio, o convincere tramite email di phishing.

Per cosa viene utilizzato WormGPT?

WormGPT viene descritto come “simile a ChatGPT ma non ha limiti o restrizioni etiche.”

ChatGPT ha un insieme di regole per cercare di impedire agli utenti di abusare in modo non etico del chatbot. Ciò include il rifiuto di completare compiti legati alla criminalità e al malware. Tuttavia, gli utenti trovano costantemente modi per aggirare queste limitazioni con le giuste richieste.

Inoltre: L’etica dell’IA generativa: come possiamo sfruttare questa potente tecnologia

I ricercatori sono stati in grado di utilizzare WormGPT per “generare una email al fine di mettere pressione a un ignaro responsabile dell’account per il pagamento di una fattura fraudolenta.” Il team è rimasto sorpreso da quanto bene il modello linguistico abbia svolto il compito, definendo i risultati “notevolmente persuasivi e strategicamente astuti.”

Sebbene non abbiano specificato se abbiano provato il servizio di scrittura di malware, è plausibile che il bot dell’IA possa farlo, dal momento che le limitazioni di ChatGPT non esistono.

Che cosa riserva il futuro per WormGPT?

Secondo l’esperto di sicurezza Brian Krebs, WormGPT è stato creato da uno sviluppatore portoghese di nome “Last,” che ha poco più di vent’anni. Il sistema è stato, o è, utilizzato da circa 200 clienti e, a causa dell’interesse mediatico verso il chatbot, Last sembra stia cercando di orientare il progetto in una nuova direzione.

Inoltre: Cybersecurity 101: tutto su come proteggere la tua privacy e stare al sicuro online

Last ha detto di voler cambiare la conversazione da maliziosa a senza censure e, per farlo, verranno implementati dei vincoli in WormGPT. Last ha detto a Krebs:

“Qualsiasi cosa legata a omicidi, traffico di droga, rapimenti, pornografia infantile, ransomware, crimini finanziari. Stiamo lavorando anche per bloccare BEC, al momento è ancora possibile ma nella maggior parte dei casi sarà incompleto perché abbiamo già aggiunto alcune limitazioni. Il nostro piano è quello di far diventare WormGPT un’intelligenza artificiale senza censure, non nel campo dei blackhat.”

Inoltre: Questa truffa di fattura criptata generata dall’IA mi ha quasi fregato, e sono un esperto di sicurezza

Tuttavia, un giorno dopo la pubblicazione del rapporto, il canale degli sviluppatori di Telegram per WormGPT è stato chiuso. Potrebbe essere che il progetto sia ancora in corso o che verrà ribrandizzato, ma solo il tempo lo dirà. Lo sviluppatore ha detto:

“Alla fine WormGPT non è nient’altro che una ChatGPT senza restrizioni. Chiunque su Internet può utilizzare una tecnica di jailbreak ben nota e ottenere gli stessi, se non migliori, risultati usando versioni con jailbreak di ChatGPT.”

Cosa succede con FraudGPT?

Secondo la ricerca di Trustwave, un’altra LLM maliziosa alternativa è apparsa sul mercato nel luglio del 2023. Conosciuta come FraudGPT, lo sviluppatore ha pubblicizzato il servizio su Telegram e sul Dark Web come un’alternativa “senza restrizioni” a ChatGPT.

Inoltre: 9 principali minacce alla sicurezza mobile e come evitarle

Lo sviluppatore afferma che FraudGPT è ottimo per imparare come hackerare, per scrivere malware e codice maligno, per creare contenuti di phishing e per individuare vulnerabilità.

Non è possibile verificare le affermazioni dello sviluppatore riguardo al chatbot, che viene offerto su base di abbonamento.

WormGPT e FraudGPT sono la stessa cosa di ChatGPT?

No. ChatGPT è stato sviluppato da OpenAI, un’organizzazione legittima e rispettata.

WormGPT e FraudGPT non sono loro creazioni. Invece, sono esempi di come i criminali informatici possono trarre ispirazione dai chatbot avanzati di intelligenza artificiale per sviluppare i propri strumenti maligni utilizzando LLM (Large Language Models).

Vedremo in futuro più strumenti come WormGPT e FraudGPT?

Anche nelle mani dei principianti e degli scammers tipici, i modelli di linguaggio naturale potrebbero trasformare le truffe di phishing e BEC di base e facili da evitare in operazioni sofisticate più probabili di riuscire. Non c’è dubbio che dove c’è da guadagnare soldi, i criminali informatici perseguiranno il vantaggio, e strumenti come WormGPT sono solo l’inizio di una nuova gamma di prodotti destinati a essere scambiati nei mercati sotterranei.

Inoltre: 6 competenze che devi avere per diventare un ingegnere di prompt di IA

Come hanno scoperto i ricercatori, alcuni attori minaccia stanno cercando di trarre profitto da LLM maligni offrendo modelli di abbonamento. I prezzi variano da $100 al mese a migliaia di dollari per configurazioni private.

Dovremmo anche considerare che i ricercatori hanno dimostrato come aggirare le protezioni di sicurezza in ChatGPT, Bard e Claude. Anche se i LLM maligni non vanno oltre alcuni modelli sul mercato sotterraneo, i criminali informatici potrebbero comunque utilizzare servizi legittimi per i propri scopi.

Cosa dicono i regolatori sull’abuso degli strumenti di IA?

  • Europol: Europol ha dichiarato nel rapporto del 2023, “The impact of Large Language Models on Law Enforcement”, che “sarà cruciale monitorare […] lo sviluppo, poiché LLM oscuri (Large Language Models) addestrati per facilitare risultati dannosi potrebbero diventare un modello di business criminale chiave del futuro. Ciò rappresenta una nuova sfida per le forze dell’ordine, in cui diventerà più facile che mai per attori malintenzionati perpetrare attività criminali senza la necessaria conoscenza preventiva”.
  • Federal Trade Commission: La FTC sta indagando su OpenAI, la società che ha sviluppato ChatGPT, per le politiche di utilizzo dei dati e l’accuratezza delle informazioni.
  • UK National Crime Agency (NCA): La NCA avverte che l’IA potrebbe portare a un’esplosione dei rischi per i giovani e agli abusi.
  • UK Information Commission’s Office (ICO): L’ICO ha ricordato alle organizzazioni che i loro strumenti di intelligenza artificiale sono ancora vincolati alle leggi esistenti sulla protezione dei dati.

ChatGPT può essere utilizzato per scopi illegali?

Screenshot di Charlie Osborne/ZDNET

Non senza tattiche nascoste, ma con i giusti prompt, molti modelli di linguaggio naturale possono essere persuasi a compiere azioni e compiti particolari.

Inoltre: 6 semplici regole di sicurezza informatica da applicare subito

Ad esempio, ChatGPT può redigere email professionali, lettere di presentazione, curriculum, ordini di acquisto e altro ancora. Questo da solo può eliminare alcuni degli indicatori più comuni di una email di phishing: errori di ortografia, problemi di grammatica e problemi di lingua secondaria. Questo potrebbe creare problemi alle aziende che cercano di rilevare e addestrare il loro personale a riconoscere messaggi sospetti.

I ricercatori di SlashNext affermano che “i cybercriminali possono utilizzare questa tecnologia per automatizzare la creazione di email fasulle altamente convincenti, personalizzate per il destinatario, aumentando così le probabilità di successo dell’attacco”.

Quindi, anche se un LLM rifiuta un prompt chiaramente illegale, ci sono comunque modi in cui i cybercriminali possono sfruttare queste tecnologie.

Inoltre: 7 suggerimenti avanzati per scrivere prompt su ChatGPT che devi conoscere

Per istruzioni dettagliate sull’utilizzo di ChatGPT per scopi legittimi, consulta la guida di ENBLE su come iniziare ad utilizzare ChatGPT.

Quanto costa ChatGPT?

Il modello di base di ChatGPT è gratuito. Lo strumento può rispondere a domande generali, scrivere contenuti e codice o generare prompt per tutto, dalle storie creative ai progetti di marketing.

Inoltre: Come accedere, installare e utilizzare i plugin AI ChatGPT-4 (e perché dovresti farlo)

L’abbonamento ChatGPT Plus copre l’utilizzo su chat.openai.com, dà priorità alle domande (riducendo i tempi di attesa) e include funzionalità avanzate al costo di $20 al mese. È disponibile anche una versione di ChatGPT per utenti enterprise.