I Pericoli delle Immagini False Generate come Documenti d’Identità nella Verifica KYC

La generazione di strumenti di intelligenza artificiale come Stable Diffusion rappresenta una minaccia per l'efficacia dei strumenti KYC (Know Your Customer), in quanto produce ID sintetici e selfie che li rendono virtualmente inefficaci.

Gen AI potrebbe rendere le procedure Know Your Customer (KYC) effettivamente inutili, secondo ENBLE.

📷 Immagine di Shutterstock

KYC, o “Know Your Customer”, è un processo utilizzato dalle istituzioni finanziarie, dalle startup fintech e dalle banche per verificare l’identità dei propri clienti. Uno dei metodi comuni utilizzati nell’autenticazione KYC è attraverso le “immagini di identificazione”, che consistono nel verificare le selfie con documenti di identificazione ufficiali. Piattaforme come Wise, Revolut, Gemini e LiteBit si affidano alle immagini di identificazione per l’onboarding della sicurezza, garantendo che gli utenti siano chi dicono di essere. Tuttavia, la crescita dell’intelligenza artificiale generativa rappresenta una vera minaccia per questo processo di verifica. 😱

Recenti post virali su X (precedentemente Twitter) e Reddit hanno mostrato come gli aggressori possano manipolare le immagini di identificazione utilizzando strumenti di intelligenza artificiale generativa. Scaricando una selfie di una persona, modificandola con software facilmente disponibili e utilizzando l’immagine alterata per un test KYC, è possibile eludere potenzialmente il processo di verifica. Sebbene attualmente non ci siano prove di strumenti di intelligenza artificiale generativa utilizzati per ingannare un legittimo sistema KYC, la facilità con cui possono essere create immagini di identificazione deepfake è motivo di preoccupazione. 👥

Ingannando il KYC

In una tipica autenticazione delle immagini di identificazione KYC, i clienti caricano un’immagine di se stessi che reggono un documento di identificazione, come un passaporto o una patente di guida, che solo loro dovrebbero possedere. Un algoritmo o un individuo poi confronta l’immagine con documenti esistenti e selfie per prevenire tentativi di impersonificazione. Tuttavia, l’autenticazione delle immagini di identificazione non è mai stata infallibile. I truffatori da tempo vendono documenti falsificati e selfie sul mercato nero. Quello che l’intelligenza artificiale generativa porta sul tavolo è un nuovo livello di realismo e autenticità a questi tentativi fraudolenti. 🕵️‍♂️

I tutorial online mostrano come Stable Diffusion, un generatore di immagini open-source, possa sintetizzare rappresentazioni realistiche di una persona su vari sfondi. Con un po’ di tentativi ed errori, gli aggressori possono manipolare queste rappresentazioni per far sembrare che il bersaglio stia reggendo un documento di identificazione. Aggiungendo quindi un documento reale o falso nelle mani della persona deepfake utilizzando un editor di immagini, possono creare un’immagine di identificazione apparentemente genuina. 😮

Immagine – Risultato di Stable Diffusion

Creare immagini deepfake convincenti per KYC richiede strumenti ed estensioni aggiuntive, nonché circa una dozzina di immagini del bersaglio. Come spiegato dall’utente Reddit harsh, che ha condiviso un flusso di lavoro per creare selfie deepfake di identificazione, può richiedere circa 1-2 giorni per produrre un’immagine convincente. Sebbene il processo possa avere alcune barriere all’ingresso, sta diventando sempre più accessibile rispetto ai metodi precedenti che richiedevano competenze avanzate di fotoritocco. 😈

Alimentare queste immagini deepfake KYC in un’app è ancora più facile rispetto alla creazione delle stesse. Le app Android eseguite su emulatori desktop, come Bluestacks, possono essere ingannate nel accettare immagini deepfake al posto di un feed di telecamera live. Le applicazioni online possono anche essere ingannate utilizzando software che converte qualsiasi immagine o fonte video in una webcam virtuale. Il potenziale per gli abusi è allarmante. 🚫

La crescente minaccia

Alcune app e piattaforme implementano ulteriori misure di sicurezza chiamate “controlli di vivacità” per verificare l’identità di un utente. Questi controlli coinvolgono tipicamente la registrazione di un breve video di una persona che gira la testa, che sbatte le palpebre o dimostra qualche altra azione in tempo reale per dimostrare che non sta utilizzando un video o un’immagine pre-registrata. Purtroppo, anche i controlli di vivacità possono essere bypassati utilizzando intelligenza artificiale generativa. 😱

Immagine – Bypassaggio del controllo di vivacità

Secondo Jimmy Su, direttore della sicurezza per lo scambio di criptovalute Binance, gli strumenti deepfake disponibili oggi sono in grado di superare i controlli di vivacità, compresi quelli che richiedono movimenti della testa in tempo reale. Ciò implica che KYC, già una misura di sicurezza imperfetta, potrebbe presto diventare completamente inefficace. Su riconosce che le immagini e i video deepfake non sono ancora arrivati al punto di ingannare i revisori umani, ma la possibilità di avanzamenti in questa tecnologia rappresenta una preoccupazione imminente. ⏳

Il futuro della verifica KYC

I potenziali rischi rappresentati dalle immagini di identificazione deepfake richiedono misure più rigorose per garantire l’autenticità delle identità degli utenti. Le aziende e le istituzioni dovrebbero rimanere vigili e investire attivamente in tecnologie avanzate per contrastare questi tentativi fraudolenti. Nuove soluzioni come la verifica biometrica, l’autenticazione a più fattori e algoritmi di intelligenza artificiale avanzati potrebbero diventare cruciali nella lotta contro la frode dell’identità. 💪

🔗 Riferimenti:Apple vende modelli di orologi contestati nonostante una pausa nel divieto di importazioneTutorial online: Padronanza delle immagini ID DeepfakedRivelare i pericoli delle immagini ID DeepfakedSuperare i controlli di liveness: come i deepfake possono ingannare la KYCIl futuro della verifica KYC: sviluppi e sfide


Q&A: Affrontare le preoccupazioni dei lettori

Q1: Può un sistema KYC essere completamente sicuro anche senza l’utilizzo di IA generative?

Sebbene sia difficile creare un sistema totalmente sicuro, le misure KYC possono essere significativamente migliorate per rafforzare la verifica dell’identità. Combinando tecnologie avanzate come la biometria, l’autenticazione multi-fattore e algoritmi di intelligenza artificiale migliorati, istituti finanziari e aziende possono ridurre notevolmente il rischio di frodi. Tuttavia, è importante adattare ed evolvere continuamente queste misure per stare al passo con le tattiche ingannevoli.

Q2: Come possono gli individui proteggersi dal rischio di manipolazione delle proprie immagini ID?

Sebbene gli individui abbiano un controllo limitato sul processo di verifica KYC, possono adottare misure per proteggere la propria identità. Essere cauti nel condividere informazioni personali online, monitorare regolarmente i conti finanziari per segnalare eventuali attività sospette e segnalare tempestivamente segni di furto d’identità sono pratiche essenziali. Inoltre, incoraggiare le organizzazioni ad adottare misure di sicurezza robuste e sostenere regolamenti più rigidi può contribuire a mitigare i rischi associati alla manipolazione delle immagini ID.


Mentre ci avviciniamo a un mondo in cui le immagini ID deepfaked possono potenzialmente ingannare persino i recensori umani, è fondamentale affrontare le debolezze nel processo di verifica KYC. Esplorando soluzioni innovative e implementando misure di sicurezza più solide, possiamo garantire che la fiducia e l’autenticazione rimangano fondamentali nel mondo digitale. Condividi le tue opinioni su questa questione e contribuiamo insieme a costruire un futuro più sicuro e protetto! 💻🌐

✨ Non dimenticare di condividere questo articolo con i tuoi amici e follower sui social media per diffondere consapevolezza sui rischi delle immagini ID deepfaked nella verifica KYC. Insieme, possiamo fare la differenza! ✨