A tecnologia deepfake usada por fraudadores de criptomoedas para contornar a verificação KYC (conheça seu cliente) em bolsas de criptomoedas como a Binance só vai ficar mais avançada, alerta o diretor de segurança da Binance.
Deepfakes são feitos usando ferramentas de inteligência artificial que usam aprendizado de máquina para criar áudio, imagens ou vídeos convincentes com a semelhança de uma pessoa. Embora existam casos de uso legítimos para a tecnologia, ela também pode ser usada para golpes e fraudes.
A IA deep fake representa uma séria ameaça à humanidade, e não é mais apenas uma ideia absurda. Recentemente, me deparei com um vídeo apresentando uma deep fake de @cz_binance, e é assustadoramente convincente. pic.twitter.com/BRCN7KaDgq
— DigitalMicropreneur.eth (@rbkasr) 24 de fevereiro de 2023
Em declarações ao Cointelegraph, o diretor de segurança da Binance, Jimmy Su, disse que houve um aumento de fraudadores usando a tecnologia para tentar passar pelos processos de verificação de clientes da exchange.
“O hacker vai procurar uma foto normal da vítima online em algum lugar. Com base nisso, usando ferramentas de deep fake, eles conseguem produzir vídeos para fazer o bypass.”
Su disse que as ferramentas se tornaram tão avançadas que podem até responder corretamente a instruções de áudio projetadas para verificar se o candidato é humano, e podem fazer isso em tempo real.
“Parte da verificação requer que o usuário, por exemplo, pisque o olho esquerdo ou olhe para a esquerda ou para a direita, olhe para cima ou para baixo. Os deep fakes são avançados o suficiente hoje para que possam realmente executar esses comandos”, ele explicou.
No entanto, Su acredita que os vídeos falsificados ainda não estão no nível em que podem enganar um operador humano.
“Quando assistimos a esses vídeos, há certas partes que podemos detectar com o olho humano”, por exemplo, quando o usuário precisa virar a cabeça para o lado”, disse Su.
“A IA vai superá-los com o tempo. Então não é algo em que podemos sempre confiar.”
Em agosto de 2022, o diretor de comunicações da Binance, Patrick Hillmann, alertou que uma “equipe sofisticada de hackers” estava usando suas entrevistas de notícias anteriores e aparições na TV para criar uma versão “deepfake” dele.
A versão deepfake de Hillmann foi então usada para conduzir reuniões no Zoom com várias equipes de projetos de criptomoedas, prometendo uma oportunidade de listar seus ativos na Binance — por um preço, é claro.
Hackers criaram uma "deep fake" minha e conseguiram enganar vários projetos de criptomoedas desavisados. Projetos de criptomoedas estão virtualmente sob ataque constante de criminosos cibernéticos. É por isso que pedimos à maioria dos funcionários da @binance que permaneçam anônimos no LinkedIn. https://t.co/tScNg4Qpkx
-Patrick Hillmann (@PRHillmann) 17 de agosto de 2022
“Esse é um problema muito difícil de resolver”, disse Su, quando questionado sobre como combater tais ataques.
“Mesmo que possamos controlar nossos próprios vídeos, há vídeos por aí que não são de nossa propriedade. Então, uma coisa, novamente, é a educação do usuário.”
A Binance está planejando lançar uma série de postagens de blog com o objetivo de educar os usuários sobre como identificar e combater melhor as ameaças cibernéticas.
Em uma versão inicial da postagem do blog vista pelo Cointelegraph, a Binance disse que usa algoritmos de IA e aprendizado de máquina para seus próprios propósitos, incluindo a detecção de padrões incomuns de login e transações e outras "atividades anormais na plataforma".
AI Eye: O maior salto de todos os tempos na IA, novas ferramentas interessantes, as IAs são os verdadeiros DAOs
