Der Sicherheitschef von Binance warnt, dass die Deepfake-Technologie, die von Krypto-Betrügern verwendet wird, um die Know-Your-Customer (KYC)-Verifizierung auf Krypto-Börsen wie Binance zu umgehen, nur noch weiter ausgereift sein wird.
Deepfakes werden mithilfe künstlicher Intelligenz erstellt, die maschinelles Lernen nutzen, um überzeugende Audiodateien, Bilder oder Videos mit dem Abbild einer Person zu erstellen. Obwohl es für die Technologie legitime Anwendungsfälle gibt, kann sie auch für Betrug und Scherze missbraucht werden.
Deep Fake-KI stellt eine ernsthafte Bedrohung für die Menschheit dar und ist nicht länger nur eine weit hergeholte Idee. Ich bin kürzlich auf ein Video gestoßen, das einen Deep Fake von @cz_binance zeigt und es ist erschreckend überzeugend. pic.twitter.com/BRCN7KaDgq
— DigitalMicropreneur.eth (@rbkasr) 24. Februar 2023
In einem Gespräch mit Cointelegraph sagte Jimmy Su, Sicherheitschef von Binance, dass die Zahl der Betrüger, die diese Technologie nutzen, um die Kundenverifizierungsprozesse der Börse zu umgehen, zugenommen habe.
„Der Hacker sucht irgendwo online nach einem normalen Bild des Opfers. Auf dieser Grundlage kann er mithilfe von Deep-Fake-Tools Videos erstellen, um das System zu umgehen.“
Su sagte, die Tools seien mittlerweile so weit fortgeschritten, dass sie sogar in Echtzeit auf Audioanweisungen reagieren könnten, mit denen überprüft werden soll, ob es sich bei dem Antragsteller um einen Menschen handelt.
„Bei manchen Überprüfungen muss der Benutzer beispielsweise mit dem linken Auge blinzeln oder nach links oder rechts, nach oben oder unten schauen. Die Deep Fakes sind heute so weit fortgeschritten, dass sie diese Befehle tatsächlich ausführen können“, erklärte er.
Su glaubt jedoch, dass die gefälschten Videos noch nicht so gut sind, dass sie einen menschlichen Bediener täuschen könnten.
„Wenn wir uns diese Videos ansehen, gibt es bestimmte Teile davon, die wir mit dem menschlichen Auge erkennen können“, beispielsweise, wenn der Benutzer seinen Kopf zur Seite drehen muss“, sagte Su.
„KI wird sie mit der Zeit überwinden. Wir können uns also nicht immer darauf verlassen.“
Im August 2022 warnte Patrick Hillmann, Chief Communications Officer von Binance, dass ein „hochentwickeltes Hackerteam“ seine früheren Nachrichteninterviews und Fernsehauftritte nutzte, um eine „Deepfake“-Version von ihm zu erstellen.
Die Deepfake-Version von Hillmann wurde dann eingesetzt, um Zoom-Meetings mit verschiedenen Krypto-Projektteams durchzuführen und ihnen die Möglichkeit zu versprachen, ihre Vermögenswerte auf Binance zu listen – natürlich gegen Bezahlung.
Hacker haben ein „Deep Fake“ von mir erstellt und es geschafft, eine Reihe ahnungsloser Kryptoprojekte zu täuschen. Kryptoprojekte werden praktisch ständig von Cyberkriminellen angegriffen. Aus diesem Grund bitten wir die meisten @binance-Mitarbeiter, auf LinkedIn anonym zu bleiben. https://t.co/tScNg4Qpkx
— Patrick Hillmann (@PRHillmann) August 17, 2022
„Das ist ein sehr schwer zu lösendes Problem“, sagte Su, als er gefragt wurde, wie man solche Angriffe bekämpfen könne.
„Auch wenn wir unsere eigenen Videos kontrollieren können, gibt es Videos da draußen, die uns nicht gehören. Eine Sache ist also erneut die Aufklärung der Benutzer.“
Binance plant die Veröffentlichung einer Blog-Post-Serie, die den Benutzern beibringen soll, wie sie Cyber-Bedrohungen besser erkennen und bekämpfen können.
In einer frühen Version des Blogbeitrags, die Cointelegraph einsehen konnte, erklärte Binance, dass es KI und Algorithmen des maschinellen Lernens für seine eigenen Zwecke nutzt, darunter das Erkennen ungewöhnlicher Anmelde- und Transaktionsmuster und anderer „abnormaler Aktivitäten auf der Plattform“.
AI Eye: Der größte Sprung aller Zeiten in der KI, coole neue Tools, KIs sind die wahren DAOs
