Stále větší rozšíření nástrojů založených na umělé inteligenci pro generování deepfake obsahu znovu vyvolalo obavy o veřejnou bezpečnost.
S tím, jak se technologie stává stále pokročilejší a široce dostupnou, vznikají také otázky týkající se důvěryhodnosti systémů ověřování identity, které používají centrální burzy.
Vlády přijímají opatření na omezení deepfake
Lhářské videa se rychle šíří na sociálních médiích, což dále zvyšuje obavy z nové vlny dezinformace a falešného obsahu. Rostoucí zneužívání této technologie stále více ohrožuje veřejnou bezpečnost a osobní integritu.
Problém dosáhl nových úrovní, což vedlo vlády po celém světě k schválení zákonů, které činí používání deepfake nezákonným.
Tento týden se Malajsie a Indonésie staly prvními zeměmi, které omezily přístup k Grok, chatbotu založenému na umělé inteligenci vyvinutém xAI Elona Muska. Úřady uvedly, že rozhodnutí bylo přijato na základě obav týkajících se zneužívání systému k vytváření sexuálně explicitních a nedobrovolných obrázků.
Generální prokurátor Kalifornie, Rob Bonta, oznámil podobný krok. Ve středu potvrdil, že jeho úřad vyšetřuje mnoho hlášení, která zahrnují sexualizované a nedobrovolné obrázky skutečných osob.
„Tento materiál, který zobrazuje ženy a děti v situacích nahoty a sexuálně explicitních činů, byl použit k obtěžování lidí po celé síti. Naléhám na xAI, aby okamžitě zasáhlo, aby se situace dále nezhoršovala,“ uvedl Bonta ve vyjádření.
Na rozdíl od prvních deepfake, nové nástroje mohou dynamicky reagovat na vstupy a přesvědčivě napodobují přirozené obličejové pohyby a synchronizovaný projev.
V důsledku toho mohou základní kontroly, jako je mrknutí, úsměv nebo naklonění hlavy, už nemusí být dostatečné pro spolehlivé potvrzení identity uživatele.
Tyto pokroky mají přímé důsledky pro centralizované burzy, které se spoléhají na vizuální ověření během procesu onboarding.
Centralizované burzy pod tlakem
Finanční dopad podvodů usnadněných deepfake již není pouze teoretický.
Odvětvoví pozorovatelé a technologičtí výzkumníci varovali, že obrázky a videa generovaná AI se objevují stále častěji v kontextech, jako jsou žádosti o pojištění a právní spory.
Krypto platformy, které fungují na globální úrovni a často se spoléhají na automatizované procesy onboarding, by se mohly stát zajímavým cílem pro tyto aktivity, pokud se bezpečnostní systémy nevyvinou zároveň s technologií.
Jak se obsah generovaný AI stává přístupnějším, důvěra založená pouze na vizuálním ověření již nemusí být dostatečná.
Výzvou pro krypto platformy bude rychle se přizpůsobit, než technologie překoná bezpečnostní opatření navržená k ochraně uživatelů a systémů.
