Rosnąca popularność narzędzi opartych na sztucznej inteligencji do tworzenia treści deepfake ożywiła obawy dotyczące bezpieczeństwa publicznego.
Wraz z rozwijaniem się technologii i ich szerokim dostępem, pojawiają się również pytania dotyczące wiarygodności systemów weryfikacji tożsamości wizualnej używanych przez centralizowane giełdy.
Rządy podjęły działania w celu ograniczenia deepfake
Podstępne wideo szybko się rozprzestrzeniają na platformach społecznościowych, dodatkowo podsycając obawy przed nową falą dezinformacji i fałszywych treści. Rosnące nadużywanie tej technologii coraz bardziej podważa bezpieczeństwo publiczne i prywatność osobistą.
Problem osiągnął nowe poziomy, skłaniając rządy na całym świecie do uchwalania ustaw, które czynią użycie deepfake'ów nielegalnym.
W tym tygodniu Malezja i Indonezja stały się pierwszymi krajami, które ograniczyły dostęp do Grok, chatbota opartego na sztucznej inteligencji opracowanego przez xAI Elona Muska. Władze ogłosiły, że decyzja została podjęta w odpowiedzi na obawy dotyczące nadużywania systemu do generowania seksualnie jednoznacznych i niezgodnych z wolą obrazów.
Prokurator generalny Kalifornii, Rob Bonta, ogłosił podobny krok. W środę potwierdził, że jego biuro prowadzi dochodzenie w sprawie wielu zgłoszeń dotyczących seksualizowanych i niezgodnych z wolą wizerunków prawdziwych osób.
„Ten materiał, który przedstawia kobiety i dzieci w sytuacjach nagości oraz aktach seksualnych, był wykorzystywany do molestowania ludzi w całej sieci. Wzywam xAI do natychmiastowego działania, aby zapobiec dalszemu pogarszaniu się sytuacji,” powiedział Bonta w oświadczeniu.
W przeciwieństwie do pierwszych deepfake'ów, nowe narzędzia mogą dynamicznie reagować na dane wejściowe i przekonująco naśladować naturalne ruchy twarzy oraz zsynchronizowaną mowę.
W związku z tym podstawowe kontrole, takie jak mruganie, uśmiech czy przechylanie głowy, mogą już nie być wystarczające do wiarygodnego potwierdzenia tożsamości użytkownika.
Te postępy mają bezpośrednie konsekwencje dla scentralizowanych giełd, które polegają na weryfikacji wizualnej podczas procesu wprowadzania.
Scentralizowane giełdy pod presją
Finansowy wpływ oszustw ułatwianych przez deepfake nie jest już tylko teoretyczny.
Obserwatorzy branżowi i badacze technologiczni ostrzegali, że obrazy i wideo generowane przez AI pojawiają się coraz częściej w kontekstach takich jak wnioski ubezpieczeniowe i spory prawne.
Platformy kryptowalutowe, działające na poziomie globalnym i często polegające na zautomatyzowanych procesach wprowadzania, mogą stać się interesującym celem dla tych działań, jeśli systemy bezpieczeństwa nie będą ewoluować równolegle z technologią.
W miarę jak treści generowane przez AI stają się coraz bardziej dostępne, zaufanie oparte wyłącznie na weryfikacji wizualnej może już nie być wystarczające.
Wyzwanie dla platform kryptowalutowych polega na szybkim dostosowaniu się, zanim technologia przewyższy środki bezpieczeństwa zaprojektowane w celu ochrony użytkowników i systemów.
