La tecnologia deepfake utilizzata dai truffatori di criptovalute per aggirare la verifica KYC (know-your-customer) sugli scambi di criptovalute come Binance diventerà sempre più avanzata, avverte il responsabile della sicurezza di Binance.

I deepfake sono realizzati utilizzando strumenti di intelligenza artificiale che utilizzano l'apprendimento automatico per creare audio, immagini o video convincenti con le sembianze di una persona. Sebbene esistano casi d'uso legittimi per la tecnologia, può essere utilizzata anche per truffe e bufale.

L’IA profondamente falsa rappresenta una seria minaccia per l’umanità e non è più solo un’idea inverosimile. Recentemente mi sono imbattuto in un video che mostra un profondo fake di @cz_binance, ed è spaventosamente convincente. pic.twitter.com/BRCN7KaDgq

— DigitalMicropreneur.eth (@rbkasr) 24 febbraio 2023

Parlando con Cointelegraph, Jimmy Su, responsabile della sicurezza di Binance, ha affermato che c'è stato un aumento dei truffatori che utilizzano la tecnologia per cercare di eludere i processi di verifica dei clienti dell'exchange.

"L'hacker cercherà da qualche parte online una foto normale della vittima. Sulla base di ciò, utilizzando strumenti deep fake, è in grado di produrre video per aggirare il problema."

Su ha affermato che gli strumenti sono diventati così avanzati che possono persino rispondere correttamente alle istruzioni audio concepite per verificare se il richiedente è un essere umano e possono farlo in tempo reale.

"Alcune verifiche richiedono all'utente, ad esempio, di sbattere le palpebre con l'occhio sinistro o di guardare a sinistra o a destra, di guardare in alto o in basso. I deep fake sono oggi abbastanza avanzati da poter effettivamente eseguire quei comandi", ha spiegato.

Tuttavia, Su ritiene che i video falsi non siano ancora al livello tale da poter ingannare un operatore umano.

"Quando guardiamo quei video, ci sono alcune parti che possiamo rilevare con l'occhio umano", ad esempio, quando all'utente viene chiesto di girare la testa di lato", ha affermato Su.

"L'intelligenza artificiale li supererà nel tempo. Quindi non è qualcosa su cui possiamo sempre contare".

Nell'agosto 2022, il responsabile delle comunicazioni di Binance, Patrick Hillmann, ha avvertito che un "sofisticato team di hacker" stava utilizzando le sue precedenti interviste e apparizioni televisive per creare una versione "deepfake" di lui.

La versione deepfake di Hillmann è stata poi utilizzata per condurre riunioni Zoom con vari team di progetti crittografici, promettendo l'opportunità di quotare i propri asset su Binance, ovviamente a un prezzo.

Gli hacker hanno creato un "deep fake" di me e sono riusciti a ingannare un certo numero di ignari progetti crypto. I progetti crypto sono virtualmente sotto attacco costante da parte dei criminali informatici. Ecco perché chiediamo alla maggior parte dei dipendenti di @binance di rimanere anonimi su LinkedIn. https://t.co/tScNg4Qpkx

— Patrick Hillmann (@PRHillmann) 17 agosto 2022

"È un problema molto difficile da risolvere", ha detto Su, quando gli è stato chiesto come combattere tali attacchi.

"Anche se possiamo controllare i nostri video, ci sono video là fuori che non sono di nostra proprietà. Quindi una cosa, ancora una volta, è l'educazione dell'utente."

Binance ha in programma di pubblicare una serie di post sul blog volti a spiegare agli utenti come identificare e combattere meglio le minacce informatiche.

In una prima versione del post del blog visionata da Cointelegraph, Binance ha affermato di utilizzare algoritmi di intelligenza artificiale e apprendimento automatico per i propri scopi, tra cui il rilevamento di modelli di accesso e di transazioni insoliti e altre "attività anomale sulla piattaforma".

AI Eye: il più grande balzo in avanti di sempre nell’intelligenza artificiale, nuovi fantastici strumenti, le IA sono le vere DAO