La tecnología deepfake utilizada por los estafadores criptográficos para eludir la verificación de conocimiento de su cliente (KYC) en intercambios criptográficos como Binance solo se volverá más avanzada, advierte el director de seguridad de Binance.

Los deepfakes se crean utilizando herramientas de inteligencia artificial que utilizan el aprendizaje automático para crear audio, imágenes o videos convincentes con la imagen de una persona. Si bien existen casos de uso legítimos para esta tecnología, también se puede utilizar para estafas y engaños.

La IA profundamente falsa representa una seria amenaza para la humanidad y ya no es solo una idea descabellada. Recientemente me encontré con un video que presenta una falsificación profunda de @cz_binance y es terriblemente convincente. pic.twitter.com/BRCN7KaDgq

— DigitalMicropreneur.eth (@rbkasr) 24 de febrero de 2023

En declaraciones a Cointelegraph, el director de seguridad de Binance, Jimmy Su, dijo que ha habido un aumento en el número de estafadores que utilizan la tecnología para intentar eludir los procesos de verificación de clientes del exchange.

“El hacker buscará una foto normal de la víctima en algún lugar de Internet. En base a eso, usando herramientas de deepfake, puede producir videos para eludir la amenaza”.

Su dijo que las herramientas se han vuelto tan avanzadas que incluso pueden responder correctamente a instrucciones de audio diseñadas para verificar si el solicitante es un humano y pueden hacerlo en tiempo real.

“Algunas de las verificaciones requieren que el usuario, por ejemplo, parpadee con el ojo izquierdo o mire a la izquierda o a la derecha, hacia arriba o hacia abajo. Hoy en día, las falsificaciones profundas son lo suficientemente avanzadas como para que puedan ejecutar esos comandos”, explicó.

Sin embargo, Su cree que los vídeos falsificados aún no han alcanzado el nivel necesario para engañar a un operador humano.

“Cuando vemos esos videos, hay ciertas partes que podemos detectar con el ojo humano”, por ejemplo, cuando se le pide al usuario que gire la cabeza hacia un lado”, dijo Su.

“La IA los superará con el tiempo, por lo que no siempre podemos confiar en ello”.

En agosto de 2022, el director de comunicaciones de Binance, Patrick Hillmann, advirtió que un “sofisticado equipo de piratería” estaba utilizando sus anteriores entrevistas de prensa y apariciones en televisión para crear una versión “deepfake” de él.

Luego se implementó la versión deepfake de Hillmann para realizar reuniones de Zoom con varios equipos de proyectos de criptomonedas prometiéndoles una oportunidad de incluir sus activos en Binance, por un precio, por supuesto.

Los piratas informáticos crearon una "falsificación profunda" de mi identidad y lograron engañar a varios proyectos de criptomonedas que no sospechaban nada. Los proyectos de criptomonedas están bajo ataque prácticamente constante por parte de cibercriminales. Por eso les pedimos a la mayoría de los empleados de @binance que permanezcan anónimos en LinkedIn. https://t.co/tScNg4Qpkx

– Patrick Hillmann (@PRHillmann) 17 de agosto de 2022

"Es un problema muy difícil de resolver", dijo Su, cuando se le preguntó cómo combatir estos ataques.

“Aunque podamos controlar nuestros propios vídeos, hay vídeos que no nos pertenecen. Por eso, una cosa, una vez más, es la educación del usuario”.

Binance está planeando lanzar una serie de publicaciones de blog destinadas a educar a los usuarios sobre cómo identificar y combatir mejor las amenazas cibernéticas.

En una versión preliminar de la publicación del blog vista por Cointelegraph, Binance dijo que utiliza inteligencia artificial y algoritmos de aprendizaje automático para sus propios fines, incluida la detección de patrones de inicio de sesión y patrones de transacciones inusuales y otras "actividades anormales en la plataforma".

AI Eye: el salto más grande de la historia en IA, nuevas herramientas interesantes, las IA son las verdaderas DAO