O aumento do uso de ferramentas impulsionadas por IA para criar conteúdo deepfake levantou novas preocupações sobre a segurança pública.
À medida que a tecnologia se torna mais avançada e amplamente acessível, também surgem questões sobre a confiabilidade dos sistemas de verificação de identidade visual utilizados pelas bolsas centralizadas.
Governos tomam medidas contra deepfakes
Vídeos enganosos se espalham rapidamente nas plataformas de mídia social e intensificam as preocupações sobre uma nova onda de desinformação e conteúdo fabricado. O uso crescente dessa tecnologia está minando cada vez mais a segurança pública e a integridade pessoal.
O problema alcançou novas alturas, e autoridades em todo o mundo aprovaram leis que tornam o uso de deepfakes ilegal.
Nesta semana, a Malásia e a Indonésia se tornaram os primeiros países a implementar restrições ao Grok, o chatbot de inteligência artificial desenvolvido pela xAI de Elon Musk. As autoridades afirmaram que a decisão veio após preocupações sobre o uso indevido para gerar imagens sexualmente explícitas e não consentidas.
O ministro da Justiça da Califórnia, Rob Bonta, anunciou uma medida semelhante. Na quarta-feira, ele confirmou que seu escritório está investigando vários relatos sobre imagens sexualizadas de pessoas reais sem consentimento.
«Este material, que mostra mulheres e crianças em situações nuas e sexualmente explícitas, tem sido usado para assediar pessoas na internet. Peço à xAI que tome medidas imediatas para garantir que isso não se espalhe mais», afirmou Bonta em um comunicado à imprensa.
Ao contrário dos deepfakes anteriores, as ferramentas mais recentes podem responder dinamicamente a solicitações. Elas imitam convincentemente movimentos faciais naturais e fala sincronizada.
Portanto, controles simples como piscar, sorrir ou movimentos de cabeça não podem mais confirmar de forma confiável a identidade de um usuário.
Esses avanços têm consequências diretas para bolsas centralizadas que dependem da verificação visual no processo de onboarding.
Bolsas centralizadas sob pressão
O efeito econômico da fraude baseada em deepfake não é mais teórico.
Observadores da indústria e pesquisadores de tecnologia alertaram que imagens e vídeos gerados por IA estão aparecendo cada vez mais em contextos como reivindicações de seguros e litígios.
Plataformas de criptomoedas, que operam globalmente e muitas vezes dependem de onboarding automatizado, podem se tornar um alvo atraente para essa atividade se as medidas de proteção não forem desenvolvidas junto com a tecnologia.
À medida que o conteúdo gerado por IA se torna mais acessível, a confiança baseada apenas na verificação visual não é necessariamente suficiente.
O desafio para as plataformas de criptomoedas será se adaptar rapidamente, antes que a tecnologia ultrapasse as medidas de proteção que devem garantir usuários e sistemas seguros.
