La technologie Deepfake utilisée par les fraudeurs crypto pour contourner la vérification de la connaissance du client (KYC) sur les échanges cryptographiques tels que Binance ne fera que devenir plus avancée, prévient le responsable de la sécurité de Binance.

Les deepfakes sont créés à l’aide d’outils d’intelligence artificielle qui utilisent l’apprentissage automatique pour créer des sons, des images ou des vidéos convaincants à l’effigie d’une personne. Bien qu'il existe des cas d'utilisation légitimes de cette technologie, elle peut également être utilisée à des fins d'escroquerie et de canulars.

S'adressant à Cointelegraph, Jimmy Su, responsable de la sécurité de Binance, a déclaré qu'il y avait une augmentation du nombre de fraudeurs utilisant cette technologie pour tenter de contourner les processus de vérification des clients de l'échange.

«Le pirate informatique cherchera quelque part en ligne une photo normale de la victime. Sur cette base, en utilisant des outils de deep fake, ils sont capables de produire des vidéos pour contourner le problème. »

Su a déclaré que les outils sont devenus si avancés qu'ils peuvent même répondre correctement aux instructions audio conçues pour vérifier si le candidat est un humain et peuvent le faire en temps réel.

« Certaines vérifications nécessitent par exemple que l'utilisateur cligne de l'œil gauche ou regarde à gauche ou à droite, regarde vers le haut ou vers le bas. Les deep fakes sont suffisamment avancés aujourd’hui pour pouvoir réellement exécuter ces commandes », a-t-il expliqué.

Cependant, Su pense que les fausses vidéos ne sont pas encore au niveau où elles peuvent tromper un opérateur humain.

"Lorsque nous regardons ces vidéos, il y a certaines parties que nous pouvons détecter à l'œil humain", par exemple lorsque l'utilisateur doit tourner la tête sur le côté", a déclaré Su.

« L’IA les surmontera au fil du temps. Ce n’est donc pas quelque chose sur lequel nous pouvons toujours compter.

En août 2022, Patrick Hillmann, directeur des communications de Binance, a averti qu’une « équipe de piratage sophistiquée » utilisait ses précédentes interviews d’actualité et ses apparitions télévisées pour créer une version « deepfake » de lui.

La version deepfake de Hillmann a ensuite été déployée pour organiser des réunions Zoom avec diverses équipes de projets de cryptographie, promettant la possibilité de répertorier leurs actifs sur Binance – moyennant un prix, bien sûr.

"C'est un problème très difficile à résoudre", a déclaré Su, interrogé sur la manière de lutter contre de telles attaques.

«Même si nous pouvons contrôler nos propres vidéos, il existe des vidéos qui ne nous appartiennent pas. Encore une fois, l’éducation des utilisateurs est une chose.

Binance prévoit de publier une série d'articles de blog visant à informer les utilisateurs sur la manière de mieux identifier et combattre les cybermenaces.

Dans une première version du billet de blog consulté par Cointelegraph, Binance a déclaré qu'elle utilisait des algorithmes d'IA et d'apprentissage automatique à ses propres fins, notamment la détection de modèles de connexion et de transactions inhabituels et d'autres « activités anormales sur la plate-forme ».