La technologie Deepfake utilisée par les fraudeurs en crypto-monnaie pour contourner la vérification KYC (Know Your Customer) sur les échanges de crypto-monnaie tels que Binance ne fera que devenir plus avancée, prévient le responsable de la sécurité de Binance.

Les deepfakes sont créés à l'aide d'outils d'intelligence artificielle qui utilisent l'apprentissage automatique pour créer des fichiers audio, des images ou des vidéos convaincants présentant l'image d'une personne. Bien qu'il existe des cas d'utilisation légitimes de cette technologie, elle peut également être utilisée pour des escroqueries et des canulars.

L'IA deep fake représente une menace sérieuse pour l'humanité, et ce n'est plus seulement une idée farfelue. Je suis récemment tombé sur une vidéo présentant un deep fake de @cz_binance, et c'est terriblement convaincant. pic.twitter.com/BRCN7KaDgq

— DigitalMicropreneur.eth (@rbkasr) 24 février 2023

S'exprimant auprès de Cointelegraph, le directeur de la sécurité de Binance, Jimmy Su, a déclaré qu'il y avait eu une augmentation des fraudeurs utilisant la technologie pour essayer de passer les processus de vérification des clients de l'échange.

“Le hacker cherchera une photo normale de la victime en ligne quelque part. À partir de cela, en utilisant des outils de deep fake, ils sont capables de produire des vidéos pour contourner.”

Su a déclaré que les outils étaient devenus si avancés qu'ils pouvaient même répondre correctement à des instructions audio conçues pour vérifier si le candidat est un humain et peuvent le faire en temps réel.

“Certaines des vérifications exigent que l'utilisateur, par exemple, cligne de l'œil gauche ou regarde à gauche ou à droite, regarde en haut ou en bas. Les deep fakes sont suffisamment avancés aujourd'hui pour qu'ils puissent réellement exécuter ces commandes,” a-t-il expliqué.

Cependant, Su pense que les vidéos falsifiées ne sont pas encore à un niveau où elles peuvent tromper un opérateur humain.

“Lorsque nous regardons ces vidéos, il y a certaines parties que nous pouvons détecter à l'œil humain,” par exemple, lorsque l'utilisateur doit tourner la tête sur le côté,” a déclaré Su.

“L'IA les surmontera [avec le temps]. Donc ce n'est pas quelque chose sur lequel nous pouvons toujours compter.”

En août 2022, le directeur de la communication de Binance, Patrick Hillmann, a averti qu'une “équipe de hacking sophistiquée” utilisait ses précédentes interviews et apparitions à la télévision pour créer une version “deepfake” de lui.

La version deepfake de Hillmann a ensuite été déployée pour mener des réunions Zoom avec diverses équipes de projets crypto promettant une opportunité de lister leurs actifs sur Binance — pour un prix, bien sûr.

Des hackers ont créé un "deep fake" de moi et ont réussi à tromper un certain nombre de projets crypto sans méfiance. Les projets crypto sont pratiquement sous une attaque constante de cybercriminels. C'est pourquoi nous demandons à la plupart des employés de @binance de rester anonymes sur LinkedIn. https://t.co/tScNg4Qpkx

— Patrick Hillmann (@PRHillmann) 17 août 2022

“C'est un problème très difficile à résoudre,” a déclaré Su, lorsqu'on lui a demandé comment lutter contre de telles attaques.

“Même si nous pouvons contrôler nos propres vidéos, il y a des vidéos qui ne nous appartiennent pas. Donc une chose, encore une fois, est l'éducation des utilisateurs.”

Binance prévoit de publier une série d'articles de blog visant à éduquer les utilisateurs sur la manière de mieux identifier et combattre les menaces cybernétiques.

Dans une version précoce de l'article de blog vue par Cointelegraph, Binance a déclaré qu'elle utilisait des algorithmes d'IA et d'apprentissage automatique pour ses propres besoins, y compris la détection de modèles de connexion inhabituels et de modèles de transaction et d'autres "activités anormales sur la plateforme."

AI Eye : ‘Plus grand jamais’ bond en avant dans l'IA, nouveaux outils sympas, les IA sont les véritables DAO