O aumento do uso de ferramentas impulsionadas por IA para criar conteúdo deepfake levantou novas preocupações sobre a segurança pública.

À medida que a tecnologia se torna mais avançada e amplamente acessível, também surgem questões sobre a confiabilidade dos sistemas de verificação de identidade visual utilizados pelas bolsas centralizadas.

Governos tomam medidas contra deepfakes

Vídeos enganosos se espalham rapidamente nas plataformas de mídia social e intensificam as preocupações sobre uma nova onda de desinformação e conteúdo fabricado. O uso crescente dessa tecnologia está minando cada vez mais a segurança pública e a integridade pessoal.

O problema alcançou novas alturas, e autoridades em todo o mundo aprovaram leis que tornam o uso de deepfakes ilegal.

Nesta semana, a Malásia e a Indonésia se tornaram os primeiros países a implementar restrições ao Grok, o chatbot de inteligência artificial desenvolvido pela xAI de Elon Musk. As autoridades afirmaram que a decisão veio após preocupações sobre o uso indevido para gerar imagens sexualmente explícitas e não consentidas.

O ministro da Justiça da Califórnia, Rob Bonta, anunciou uma medida semelhante. Na quarta-feira, ele confirmou que seu escritório está investigando vários relatos sobre imagens sexualizadas de pessoas reais sem consentimento.

«Este material, que mostra mulheres e crianças em situações nuas e sexualmente explícitas, tem sido usado para assediar pessoas na internet. Peço à xAI que tome medidas imediatas para garantir que isso não se espalhe mais», afirmou Bonta em um comunicado à imprensa.

Ao contrário dos deepfakes anteriores, as ferramentas mais recentes podem responder dinamicamente a solicitações. Elas imitam convincentemente movimentos faciais naturais e fala sincronizada.

Portanto, controles simples como piscar, sorrir ou movimentos de cabeça não podem mais confirmar de forma confiável a identidade de um usuário.

Esses avanços têm consequências diretas para bolsas centralizadas que dependem da verificação visual no processo de onboarding.

Bolsas centralizadas sob pressão

O efeito econômico da fraude baseada em deepfake não é mais teórico.

Observadores da indústria e pesquisadores de tecnologia alertaram que imagens e vídeos gerados por IA estão aparecendo cada vez mais em contextos como reivindicações de seguros e litígios.

Plataformas de criptomoedas, que operam globalmente e muitas vezes dependem de onboarding automatizado, podem se tornar um alvo atraente para essa atividade se as medidas de proteção não forem desenvolvidas junto com a tecnologia.

À medida que o conteúdo gerado por IA se torna mais acessível, a confiança baseada apenas na verificação visual não é necessariamente suficiente.

O desafio para as plataformas de criptomoedas será se adaptar rapidamente, antes que a tecnologia ultrapasse as medidas de proteção que devem garantir usuários e sistemas seguros.