Ai deepfake kyc exchange

La recente diffusione della tecnologia AI ha portato all'espansione di tecniche di impersonificazione fraudolenta note come deepfake, che ora minacciano anche i controlli KYC degli exchange di criptovalute.

Di recente è emerso sul web un nuovo strumento, denominato ProKYC, in grado di eludere i controlli di riconoscimento dell’identità “Conosci il tuo cliente” degli exchange.

Rappresenta un nuovo livello di frode finanziaria altamente sofisticata, in grado di causare gravi danni a varie società di criptovalute.

A questo si aggiungono le sempre più frequenti violazioni di dati che purtroppo coinvolgono anche note società di investimento, mettendo a rischio le loro informazioni online.

Vediamo tutti i dettagli qui sotto.

AI: l'avvento della minaccia deepfake e le misure di sicurezza KYC degli exchange

Negli ultimi due anni, l'espansione della tecnologia AI ha innescato l'aumento delle truffe finanziarie sul web, guidate dall'uso sempre più massiccio di video deepfake.

Questi video, creati con l'aiuto dell'intelligenza artificiale, consentono ai truffatori di impersonare personaggi famosi e celebrità replicandone fedelmente aspetto e voce. Con questi video, i truffatori propongono poi alle loro vittime meno attente di entrare tramite link di phishing o di acquistare token truffa.

Su Twitter, Youtube e altri social media, vediamo sempre più spesso casi come questo, con video deepfake che mostrano i volti di Cristiano Ronaldo, Elon Musk, ecc.

A volte questi modelli vengono utilizzati anche nelle videochiamate aziendali, allo scopo di convincere collaboratori, dipendenti e manager ad estrarre dati preziosi.

I truffatori di Deepfake AI hanno rubato 26 milioni di dollari impersonando il CFO dell'azienda in una videochiamata pic.twitter.com/6k0TqvxIcr

— Dexerto (@Dexerto) 6 febbraio 2024

Ovviamente buona parte del fenomeno deepfake è legato al mondo delle criptovalute, data la componente di pseudo-anonimato che gli stessi truffatori sfruttano per monetizzare.

Esistono però anche sistemi di sicurezza, come la verifica KYC degli exchange, che impediscono che l'intelligenza artificiale venga sfruttata con intenti malevoli.

Le piattaforme di scambio utilizzano il KYC per la registrazione dei nuovi utenti, richiedendo foto, video e analisi biometrica del volto e presentando barriere anti-deepfake.

In questo modo, gli exchange impediscono che la loro piattaforma venga sfruttata per attività illegali come il riciclaggio di denaro e la vendita di proventi derivanti da truffe.

Ora, però, stiamo entrando in una nuova fase di truffe basate sull'intelligenza artificiale, con tecnologie super sofisticate che a volte riescono a colpire anche i più grandi exchange di criptovalute.

I danni potenziali che possono causare sono illimitati se non vengono bloccati con nuove contromisure.

Un nuovo strumento deepfake basato sull'intelligenza artificiale in grado di aggirare il KYC degli exchange di criptovalute

Come affermato dalla società di sicurezza informatica Cato Networks, si sta diffondendo uno strumento di intelligenza artificiale per la creazione di deepfake che riesce a eludere i controlli KYC degli exchange.

Si tratta di ProKYC, uno strumento scaricabile con un abbonamento di 629 dollari annui, tramite il quale i truffatori possono creare falsi documenti d'identità e generare video pseudo-reali.

Il pacchetto include una fotocamera, un emulatore virtuale, animazioni facciali, impronte digitali e la generazione di foto di verifica.

Lo strumento è stato personalizzato appositamente per le società finanziarie i cui protocolli KYC richiedono un controllo incrociato tra i controlli biometrici del volto e i documenti.

L'evidenza sembra così reale che riesce a superare questa barriera fino ad oggi mai varcata nemmeno dai migliori sistemi di intelligenza artificiale.

Un deepfake creato con ProKYC e pubblicato sul blog di Cato mostra come l'intelligenza artificiale può generare documenti di identità falsi aggirando l'exchange Bybit.

L'utente completa la verifica KYC della piattaforma utilizzando un nome fittizio, un documento falso e un video artificiale.

🚨Nuova ricerca sulle minacce!

🕵️‍♂️Cato CTRL ha scoperto un autore di minacce, ProKYC, che vende uno strumento deepfake nel mondo della criminalità informatica per consentire nuove frodi sugli account degli exchange di criptovalute.

🔗 Blog: https://t.co/STI3xjCUV#NetworkSecurity#deepfake#SASEpic.twitter.com/sAKrR2MaYb

— Cato Networks (@CatoNetworks) 10 ottobre 2024

In un recente rapporto, il responsabile della sicurezza di Cato Network Etay Maor ha affermato che ProKYC si presenta come un nuovo livello di sofisticazione nelle truffe finanziarie.

Il nuovo strumento di intelligenza artificiale rappresenta un significativo passo avanti rispetto ai vecchi metodi utilizzati dai criminali informatici per eludere l'autenticazione a due fattori e il KYC.
I truffatori non sono più costretti ad acquistare identità false (o rubate) sul deep web, ma possono sfruttare questo nuovo comodo servizio.

Le frodi di identità aumentano in modo massiccio nel mondo delle criptovalute con l'intelligenza artificiale e la violazione dei dati

L'avvento del ProKYC con l'intelligenza artificiale deepfake che aggira i controlli KYC degli exchange rischia di portare a un aumento delle truffe finanziarie, già di per sé pericolosamente elevate.

Grazie a una funzionalità nota come New Account Fraud (NAF), gli autori ora possono effettivamente creare più account sugli exchange.

Inoltre, ProKYC afferma di essere in grado di aggirare le misure KYC anche per le piattaforme di pagamento Stripe e Revolut.

Inevitabilmente, se le piattaforme finanziarie non sviluppano nuovi sistemi di riconoscimento contro i deepfake, potrebbero subire gravi danni alle loro strutture.

Il problema è che i controlli biometrici troppo rigorosi rischiano di causare “falsi positivi”, rendendo l’esperienza dell’utente davvero fastidiosa.

Come afferma Catone a questo proposito:

"La creazione di sistemi di autenticazione biometrica super restrittivi può portare a molti falsi positivi. D'altro canto, controlli poco severi possono portare a frodi".

Esistono, tuttavia, metodi di rilevamento alternativi contro gli strumenti di intelligenza artificiale deepfake, che prevedono la presenza di un essere umano come controllore.

Un dipendente della borsa dovrebbe identificare manualmente le immagini e i video, individuando incongruenze nei movimenti facciali e nella qualità delle immagini.

Discorso a parte, invece, per la violazione dei dati e per le fughe di identità, che sfruttano documenti e prove reali per lanciare un'ampia gamma di truffe online.

Solo pochi giorni fa, la società di investimenti Fidelity ha subito una violazione dei dati che ha interessato oltre 77.000 clienti. Sono state rubate patenti di guida, numeri di previdenza sociale e informazioni personali, che saranno sicuramente vendute sul dark web e utilizzate per vari tipi di truffe sulle criptovalute.

ULTIMA ORA: Fidelity, gestore patrimoniale da 5,4 trilioni di dollari, conferma che sono stati hackerati oltre 77.000 dati dei clienti, tra cui patenti, numeri di previdenza sociale e informazioni personali.

— Watcher.Guru (@WatcherGuru) 10 ottobre 2024

Ti ricordiamo in ogni caso che le sanzioni per frode d'identità negli Stati Uniti possono essere severe e variare a seconda della natura e dell'entità del reato.

La pena massima è di 15 anni di reclusione con pesanti multe.