Gestern wurde Worldcoin, ein vom OpenAI-Gründer Sam Altman mitbegründetes Verschlüsselungsprojekt, offiziell gestartet. Dabei handelt es sich um ein verschlüsseltes Identitätssystemprojekt, das eine Welt-ID (Identität) für Benutzer generiert und überprüft, indem die Iris des Benutzers mit dem Augenscanner Orb gescannt wird.

Am selben Tag veröffentlichte Ethereum LianVin einen Artikel „Was halte ich von biometrischen Persönlichkeitsnachweisen?“, in dem er seine Ansichten zu Worldcoin und menschlichen Identitätsnachweisen darlegte. Das Baize Research Institute hat Folgendes zusammengestellt:

Die Menschen in der Ethereum-Community haben versucht, eine dezentrale Lösung für den Beweis der Menschlichkeit zu entwickeln, der schon immer eines der schwierigsten, aber wertvollsten Probleme war. Human ID ist eine begrenzte Form der realen Identität, die es ermöglicht, ein registriertes Konto von einer realen Person zu kontrollieren, im Idealfall ohne die reale Person dahinter preiszugeben.

Die Krypto-Community hat bereits viele Anstrengungen unternommen, um dieses Problem zu lösen: BrightID, Idena und Circles sind repräsentative Beispiele. Einige von ihnen verfügen über eigene Anwendungen (normalerweise UBI-Tokens), und einige haben in Gitcoin Passport Workarounds gefunden, um zu überprüfen, welche Konten für die sekundäre Abstimmung gültig sind. Zero-Knowledge-Technologien wie Sismo verleihen vielen ähnlichen Lösungen mehr Privatsphäre.

Erst kürzlich haben wir den Aufstieg eines größeren und ehrgeizigeren Projekts zur menschlichen Identität erlebt: Worldcoin.

Worldcoin wurde von Sam Altman gegründet, der zuvor als CEO von OpenAI bekannt war. Die Idee hinter dem Projekt ist einfach: Künstliche Intelligenz (KI) wird großen Reichtum für die Menschheit schaffen, aber möglicherweise auch die Arbeitsplätze vieler Menschen vernichten, denn die KI wird sich irgendwann so weit entwickeln, dass es fast unmöglich ist, zu sagen, wer ist ein Mensch und kein Roboter. Also müssen wir diese Lücke füllen, indem wir:

(1) Erstellen Sie ein sehr gutes System zur Identifizierung von Menschen, damit Menschen beweisen können, dass sie tatsächlich echte Menschen sind.

(2) UBI für alle bereitstellen. Worldcoin ist insofern einzigartig, als es auf einer hochentwickelten biometrischen Technologie basiert, die sogenannte

Die spezielle Hardware von „Orb“ scannt die Iris jedes Benutzers.

Das Ziel von Worldcoin besteht darin, große Mengen dieser „Kugeln“ zu produzieren und sie weltweit zu verteilen und sie an öffentlichen Orten zu platzieren, sodass jeder problemlos seinen eigenen Ausweis – einen Weltausweis – erhalten kann.

Man muss sagen, dass sich Worldcoin auch für die Entwicklung der Dezentralisierung einsetzt. Dies bedeutet eine Dezentralisierung der Technologie: Verwendung von OP Stack, um zum L2 von Ethereum zu werden, und Verwendung von ZK-SNARK und anderen Verschlüsselungstechnologien zum Schutz der Privatsphäre der Benutzer, aber auch die Einbeziehung einer dezentralen Steuerung des Systems selbst. Worldcoin wurde wegen der Datenschutz- und Sicherheitsbedenken von Orb, wegen Problemen mit dem Design seines Tokens und wegen der Ethik einiger Entscheidungen, die das Unternehmen getroffen hat, kritisiert. Tatsächlich befindet sich das Worldcoin-Projekt selbst noch in der Überarbeitung und Entwicklung. Einige haben jedoch grundlegendere Bedenken geäußert, ob die Biometrie – nicht nur die Augenscan-Biometrie von Worldcoin, sondern auch die einfacheren Gesichtsvideo-Uploads und -Verifizierungen, die in Proof of Humanity und Idena verwendet werden – in der Öffentlichkeit Anklang finden werden.

An Kritikern dieser Projekte mangelt es sicherlich nicht, denn zu den Risiken gehören unvermeidliche Datenschutzverletzungen, eine weitere Beeinträchtigung der Möglichkeiten der Menschen, anonym im Internet zu surfen, Zwang durch autoritäre Regierungen und die Frage, wie man die Sicherheit bei gleichzeitiger Dezentralisierung aufrechterhalten kann.

Dieser Artikel wird diese Probleme diskutieren und einige Argumente liefern, die Ihnen bei der Entscheidung helfen sollen, ob das Scannen Ihrer Iris vor dem „sphärischen“ Tool von Worldcoin eine gute Idee ist? Und was sind die Alternativen zum Verzicht auf die Entwicklung menschlicher Identitätsnachweise?

Was ist ein menschliches Identifikationssystem und warum ist es wichtig?

Der einfachste Weg, ein Identitätsnachweissystem zu definieren, besteht darin, eine Liste öffentlicher Schlüssel zu erstellen. Das System garantiert, dass jeder Schlüssel von einer eindeutigen Person kontrolliert wird. Mit anderen Worten: Wenn Sie ein Mensch sind, können Sie einen Schlüssel auf die Liste setzen, aber Sie können nicht zwei Schlüssel auf die Liste setzen, und wenn Sie ein Roboter sind, können Sie keinen Schlüssel auf die Liste setzen.

Die Identifizierung von Menschen ist wertvoll, weil sie die Anti-Spam- und Anti-Zentralisierungsprobleme vieler Menschen auf eine Weise löst, die die Abhängigkeit von einer zentralen Autorität vermeidet und so wenig Informationen wie möglich preisgibt. Wenn die Überprüfung der menschlichen Identität nicht angegangen wird, wird die dezentrale Governance (einschließlich „Mikro-Governance“ wie die Abstimmung über Social-Media-Beiträge) leichter von sehr wohlhabenden Akteuren, einschließlich feindseliger Regierungen, kontrolliert. Viele Dienste können vor Denial-of-Service-Angriffen nur dadurch schützen, dass sie einen Preis für den Zugang festlegen, und manchmal ist ein Preis, der hoch genug ist, um Angreifer auszuschließen, auch für viele legitime Benutzer mit niedrigem Einkommen zu hoch.

Viele wichtige Anwendungen auf der Welt lösen dieses Problem heute durch die Verwendung staatlich unterstützter Identitätssysteme wie Personalausweise und Reisepässe. Dies löst zwar das Problem, stellt jedoch einen großen und inakzeptablen Verlust an Privatsphäre dar und kann zu geringfügigen Angriffen seitens der Regierung selbst führen.

In vielen Projekten zur menschlichen Identität – nicht nur bei Worldcoin, sondern auch bei „Flaggschiff-Anwendungen“ wie Circles – ist der Code für „jeder zugängliche Token“ integriert (auch bekannt als „UBI-Token“). Jeder im System registrierte Benutzer erhält täglich (oder stündlich oder wöchentlich) eine feste Menge an Token. Es gibt viele andere Anwendungen, darunter:

- Airdrop-Mechanismus zur Token-Verteilung

- Token- oder NFT-Verkäufe zu besseren Konditionen für weniger vermögende Nutzer

- Abstimmung im DAO

- So initialisieren Sie das grafische Reputationssystem

- Sekundärabstimmung (Auszahlung von Geldern und Aufmerksamkeit)

- Schützen Sie sich vor Bot-/Sybil-Angriffen in sozialen Medien

- CAPTCHA-Alternative zur Verhinderung von DoS-Angriffen

In vielen dieser Fälle ist das gemeinsame Thema die Schaffung offener und demokratischer Mechanismen, die die zentralisierte Kontrolle der Projektbetreiber und die Dominanz der wohlhabendsten Nutzer vermeiden. Letzteres ist insbesondere bei dezentraler Governance wichtig.

In Situationen wie dieser basieren die heutigen Lösungen auf:

(1) Äußerst undurchsichtige KI-Algorithmen, die eine nicht erkennbare Diskriminierung von Benutzern vornehmen, die der Betreiber nicht mag

(2) Zentralisierte Identität, nämlich „KYC“.

Eine effiziente Lösung zur Identitätsprüfung wäre daher eine bessere Option, um die für diese Anwendungen erforderlichen Sicherheitseigenschaften zu erreichen, ohne in die Fallen bestehender zentralisierter Ansätze zu tappen.

Was waren einige frühe Versuche zur Identifizierung des Menschen?

Es gibt zwei Hauptformen der menschlichen Identifizierung: soziale Diagramme und Biometrie.

Der Nachweis der menschlichen Identität auf der Grundlage sozialer Diagramme beruht auf irgendeiner Form von Beweisen: Wenn Alice, Bob, Charlie und David alle verifizierte Menschen sind und sie alle sagen, dass Emily ein verifizierter Mensch ist, dann ist Emily wahrscheinlich auch eine verifizierte menschliche Menschheit.

Diese Rechtfertigung wird oft durch Anreize verstärkt: Wenn Alice sagt, dass Emily eine echte Person ist, sich aber herausstellt, dass sie keine echte Person ist, dann können sowohl Alice als auch Emily bestraft werden.

Bei der biometrischen Identifizierung von Menschen werden einige physische oder Verhaltensmerkmale von Emily überprüft, die Menschen von Robotern (und einzelne Menschen voneinander) unterscheiden.

Die meisten Projekte verwenden eine Kombination dieser beiden Technologien.

Die vier Systeme, die ich am Anfang dieses Artikels erwähnt habe, sind ungefähr die folgenden:

(1) Beweis der Menschlichkeit: Sie laden Ihr eigenes Video hoch und leisten eine Anzahlung. Um genehmigt zu werden, müssen bestehende Benutzer für Sie bürgen, und andere Herausforderer werden Sie im Laufe der Zeit herausfordern. Wenn es einen Herausforderer gibt, überprüft das dezentrale Gericht von Kleros, ob Ihr Video authentisch ist; andernfalls verfällt die Anzahlung und der Herausforderer erhält die Belohnung.

(2) BrightID: Sie nehmen mit anderen Benutzern an einer Videoanruf-„Verifizierungsparty“ teil und alle verifizieren sich gegenseitig. Mit Bitu können Sie eine höhere Verifizierungsstufe erhalten, sofern genügend andere von Bitu verifizierte Benutzer für Sie bürgen.

(3) Idee: Sie müssen zu einem bestimmten Zeitpunkt ein CAPTCHA-Spiel spielen (um zu verhindern, dass Personen mehr als einmal teilnehmen). Ein Teil des CAPTCHA-Spiels besteht darin, CAPTCHAs zu erstellen und zu überprüfen, die zur Überprüfung anderer verwendet werden.

(4) Circle: Bestehende Circle-Benutzer müssen für Sie bürgen. Circles ist insofern einzigartig, als es nicht versucht, eine „global überprüfbare ID“ zu erstellen, sondern ein Vertrauensdiagramm erstellt, in dem die Vertrauenswürdigkeit einer Person nur anhand Ihrer eigenen Position in diesem Diagramm überprüft werden kann.

Wie funktioniert Worldcoin?

Jeder Worldcoin-Benutzer muss auf seinem Telefon eine App installieren, die private und öffentliche Schlüssel generiert, genau wie eine Ethereum-Wallet. Anschließend müssen sie offline gehen und den nachweisbaren „Orb“ persönlich finden. Benutzer starren in die Kamera von Orb, während sie Orb einen von ihrer Worldcoin-Anwendung generierten QR-Code präsentieren, der ihren öffentlichen Schlüssel enthält. Orb scannt die Augen des Benutzers und verwendet hochentwickelte Hardware-Scans und Klassifikatoren für maschinelles Lernen, um Folgendes zu überprüfen:

(1) Ob der Benutzer eine echte Person ist; (2) Die Iris des Benutzers stimmt nicht mit der Iris eines anderen Benutzers überein, der das System zuvor verwendet hat.

Wenn beide Scans erfolgreich sind, signiert Orb eine Nachricht, in der der private Hash des Iris-Scans des Benutzers genehmigt wird. Die Hashes werden in eine Datenbank hochgeladen – derzeit ein zentraler Server, der durch ein dezentrales On-Chain-System ersetzt werden soll, sobald festgestellt wird, dass der Hashing-Mechanismus funktioniert. Das System speichert nicht den vollständigen Iris-Scan, sondern nur die Hashes, die zur Überprüfung der Eindeutigkeit verwendet werden. Ab diesem Zeitpunkt verfügt der Benutzer über eine „World ID“.

Inhaber einer Welt-ID können nachweisen, dass sie ein einzigartiger Mensch sind, indem sie ein ZK-SNARK generieren, um zu beweisen, dass sie einen privaten Schlüssel besitzen, der einem öffentlichen Schlüssel in der Datenbank entspricht, ohne preiszugeben, welchen Schlüssel sie besitzen. Selbst wenn also jemand Ihre Iris erneut scannt, kann er keine von Ihnen durchgeführten Aktionen sehen.

Was sind die Hauptprobleme beim Aufbau von Worldcoin?

Die Menschen machen sich vor allem über vier Risiken Sorgen:

(1) Datenschutz

Das Register der Iris-Scans kann Informationen preisgeben. Wenn jemand anderes Ihre Iris scannt, kann er dies zumindest mit einer Datenbank vergleichen, um festzustellen, ob Sie einen Weltausweis haben. Ein Iris-Scan könnte mehr Aufschluss geben.

(2) Zugänglichkeit

Sofern nicht genügend Orbs vorhanden sind, sodass jeder auf der Welt leicht eine finden kann, ist World ID nicht zuverlässig zugänglich.

(3) Zentralisierung

Orb ist ein Hardwaregerät und wir können nicht überprüfen, ob es korrekt konstruiert ist und keine Hintertüren hat. Selbst wenn die Softwareschicht perfekt und vollständig dezentralisiert wäre, hätte die Worldcoin Foundation daher immer noch die Möglichkeit, eine Hintertür in das System einzubauen, die es ihr ermöglichen würde, so viele gefälschte menschliche Identitäten zu erstellen, wie sie möchte.

(4)Sicherheit

Die Telefone von Benutzern könnten gehackt werden, Benutzer könnten gezwungen werden, ihre eigene Iris zu scannen, während sie einen öffentlichen Schlüssel vorlegen, der einer anderen Person gehört, und es ist möglich, einen „Dummy“ in 3D zu drucken und ihre Iris zu scannen, um eine Welt-ID zu erhalten.

Es ist wichtig zu unterscheiden:

(1) Worldcoin-spezifische Auswahlprobleme;

(2) Probleme, die in jedem auf Biometrie basierenden System zur menschlichen Identifizierung unvermeidlich sind;

(3) Probleme, die in jedem menschlichen Identifikationssystem auftreten können. Wenn Sie sich beispielsweise für Proof of Humanity anmelden, müssen Sie Ihr Gesicht im Internet veröffentlichen.

Daran wird sich auch die Teilnahme an der Videoanruf-„Verifizierungsparty“ von BrightID nicht vollständig ändern, da Ihre Identität weiterhin vielen anderen Personen zugänglich gemacht wird. Durch den Beitritt zu Circles wird Ihr Social Graph öffentlich angezeigt.

Worldcoin schützt die Privatsphäre viel besser als beide.

Worldcoin hingegen setzt auf spezielle Hardware, was die Frage aufwirft, ob man den Herstellern des Orb uneingeschränkt vertrauen kann. Dies ist in Proof of Humanity, BrightID oder Circles nicht zu finden. Es ist sogar denkbar, dass in Zukunft jemand eine dedizierte Hardwarelösung entwickelt, die sich von Worldcoin unterscheidet und andere Kompromisse mit sich bringt.

Wie geht ein auf Biometrie basierendes System zur menschlichen Identifizierung auf Datenschutzbedenken ein?

Der offensichtlichste und größte potenzielle Verstoß gegen die Privatsphäre aller menschlichen Identifizierungssysteme besteht darin, die Handlungen jeder Person mit ihrer realen Identität zu verknüpfen. Diese Art von Datenverlust ist sehr groß und kann als inakzeptabel groß bezeichnet werden. Aber zum Glück ist es mit wissensfreien Beweistechniken leicht zu lösen.

Anstatt direkt mit einem privaten Schlüssel zu signieren, dessen entsprechender öffentlicher Schlüssel sich in der Datenbank befindet, können Benutzer ein ZK-SNARK generieren, das beweist, dass sie den privaten Schlüssel besitzen, der einem bestimmten öffentlichen Schlüssel in der Datenbank entspricht, ohne stattdessen preiszugeben, welchen spezifischen Schlüssel sie haben direkt mit dem privaten Schlüssel zu signieren, der dem öffentlichen Schlüssel in der Datenbank entspricht. Dies kann mit Tools wie Sismo erfolgen, während Worldcoin über eine eigene integrierte Implementierung verfügt. An dieser Stelle lohnt es sich, Worldcoin dafür zu loben, dass es sich um ein „krypto-natives“ System zum Nachweis menschlicher Identität handelt: Es geht ihnen tatsächlich darum, den grundlegenden Schritt von ZK-SNARKs zu unternehmen und eine Anonymisierung bereitzustellen, die fast alle zentralisierten Identitätslösungen nicht bieten.

Die Existenz eines öffentlichen Registers für biometrische Daten stellt eine subtilere Verletzung der Privatsphäre dar. Im Fall von Proof of Humanity zentralisiert dies eine große Datenmenge: Sie erhalten ein Video von jedem Teilnehmer von Proof of Humanity und machen so für jeden auf der Welt, der bereit ist zu untersuchen, wer die Teilnehmer von Proof of Humanity sind, sehr deutlich.

Im Fall von Worldcoin ist der Leak viel geringer: Orb berechnet und veröffentlicht lokal nur den „Hash“ des Iris-Scans jeder Person. Bei diesem Hash handelt es sich nicht um einen regulären Hash wie SHA256, sondern um einen speziellen Algorithmus, der auf dem Gabor-Filter des maschinellen Lernens basiert und die mit jedem biometrischen Scan verbundenen Ungenauigkeiten verarbeitet und sicherstellt, dass die Iris derselben Person ähnliche Ergebnisse liefert.

Blau: Der Prozentsatz der Bitunterschiede zwischen zwei Scans der Iris derselben Person. Orange: Prozentsatz der Bitunterschiede zwischen zwei Scans der Iris zweier verschiedener Personen

Diese Iris-Hashes können nur eine kleine Datenmenge preisgeben. Wenn ein Angreifer Ihre Iris zwangsweise (oder heimlich) scannen kann, kann er Ihren Iris-Hash selbst berechnen und ihn mit einer Datenbank mit Iris-Hashes vergleichen, um zu sehen, ob Sie am System teilnehmen. Diese Möglichkeit, zu überprüfen, ob sich jemand bereits registriert hat, ist für das System selbst notwendig, um zu verhindern, dass sich Personen mehrfach registrieren, birgt jedoch auch das Potenzial für Missbrauch.

Darüber hinaus besteht beim Iris-Hashing die Gefahr, dass eine bestimmte Menge medizinischer Daten (Geschlecht, Rasse und möglicherweise medizinischer Zustand) verloren geht, aber dieser Verlust ist weitaus geringer als bei fast jedem anderen groß angelegten Datenerfassungssystem, das heute verwendet wird (z. B. sogar Straßendaten). Kameras) die Daten, die erfasst werden können. Insgesamt denke ich, dass die Privatsphäre beim Speichern von Iris-Hashes ausreichend ist.

Wenn jemand mit diesem Urteil nicht einverstanden ist und beschließt, ein System mit mehr Privatsphäre zu entwerfen, gibt es zwei Möglichkeiten:

1. Wenn der Iris-Hashing-Algorithmus verbessert werden kann, sodass der Unterschied zwischen zwei Scans derselben Person kleiner ist (z. B. zuverlässig weniger als 10 % Bit-Flips), dann kann das System eine geringere Anzahl fehlerkorrigierter Iris-Hashes-Bits speichern (siehe: Fuzzy Extractor), anstatt den vollständigen Iris-Hash zu speichern. Wenn der Unterschied zwischen den beiden Scans weniger als 10 % beträgt, müssen mindestens fünfmal weniger Bits veröffentlicht werden.

2. Wenn wir noch weiter gehen wollen, können wir die Iris-Hash-Datenbank in einem Multi-Party-Computing-System (MPC) speichern, auf das nur Orb zugreifen kann (mit Ratenbeschränkungen), wodurch die Daten völlig unzugänglich werden, allerdings auf Kosten von Erhebliche Protokollkomplexität und soziale Komplexität bei der Verwaltung einer Sammlung von MPC-Teilnehmern. Dies hätte den Vorteil, dass Benutzer selbst dann nicht in der Lage wären, einen Zusammenhang zwischen zwei verschiedenen World IDs, die sie zu unterschiedlichen Zeiten hatten, nachzuweisen, selbst wenn sie dies wollten.

Leider sind diese Techniken nicht auf Proof of Humanity anwendbar, bei dem das vollständige Video jedes Teilnehmers öffentlich zugänglich sein muss, damit bei Anzeichen von Fälschungen (einschließlich KI-generierter Fälschung) Klage erhoben werden kann, und in solchen Fällen wird detaillierter vorgegangen Die Untersuchung wird unten durchgeführt.

Insgesamt scheinen spezialisierte Hardwaresysteme trotz der dystopischen Atmosphäre, auf eine Kugel zu starren und sie Ihre Augäpfel gründlich scannen zu lassen, beim Schutz der Privatsphäre ziemlich gute Arbeit zu leisten. Die Kehrseite davon ist jedoch, dass spezialisierte Hardwaresysteme größere Zentralisierungsprobleme mit sich bringen. Wir Cypherpunks scheinen also in einem Dilemma zu stecken: Wir müssen einen Kompromiss zwischen zwei tief verwurzelten Cypherpunk-Werten finden.

Was sind die Barrierefreiheitsprobleme bei biometrischen Identifikationssystemen für Menschen?

Spezialisierte Hardware führt zu Zugänglichkeitsproblemen, da spezielle Hardware nicht ohne weiteres verfügbar ist. Mittlerweile besitzen zwischen 51 % und 64 % der Afrikaner südlich der Sahara ein Smartphone, und dieser Anteil wird voraussichtlich bis 2030 auf 87 % ansteigen.

Doch während es weltweit Milliarden von Smartphones gibt, gibt es nur ein paar Hundert Orbs. Selbst bei einer verteilten Fertigung in größerem Maßstab wird es schwierig sein, einen Orb im Umkreis von fünf Kilometern um jeden herum zu erreichen.

Aber es ist lobenswert, dass Worldcoin hart gearbeitet hat!

Es ist auch erwähnenswert, dass viele andere Formen der menschlichen Identifizierung noch schlimmere Barrierefreiheitsprobleme haben. Sofern Sie nicht bereits jemanden im Social Graph kennen, ist es sehr schwierig, sich einem menschlichen Identitätssystem anzuschließen, das auf dem Social Graph basiert. Dadurch können solche Systeme leicht auf eine einzelne Gemeinde in einem einzigen Land beschränkt werden.

Sogar zentralisierte Identitätssysteme haben diese Lektion gelernt: Indiens Aadhaar-ID-System basiert auf biometrischen Daten, weil es die einzige Möglichkeit war, die riesige Bevölkerung des Landes schnell zu absorbieren und gleichzeitig massiven Betrug durch doppelte und gefälschte Konten zu vermeiden (und so eine Menge Kosten zu sparen). Natürlich schützt das Aadhaar-System die Privatsphäre weitaus weniger als alles, was die Krypto-Community in großem Umfang vorschlägt.

Die leistungsstärksten Systeme aus Sicht der Barrierefreiheit sind tatsächlich Systeme wie Proof of Humanity, bei denen Sie sich nur mit Ihrem Smartphone anmelden können. Wie wir gesehen haben, sind solche Systeme jedoch mit verschiedenen anderen Kompromissen verbunden.

Was sind die Zentralisierungsprobleme in biometrischen Identifikationssystemen für Menschen?

Es gibt drei Arten von Fragen:

(1) Es besteht die Gefahr einer Zentralisierung bei der Steuerung des Systems auf höchster Ebene (insbesondere wenn verschiedene Teilnehmer des Systems Meinungsverschiedenheiten über subjektive Urteile haben und das System die endgültige Entscheidung auf höchster Ebene trifft).

(2) Zentralisierungsrisiken, die nur bei Systemen auftreten, die dedizierte Hardware verwenden;

(3) Zentralisierungsrisiko bei der Verwendung proprietärer Algorithmen zur Bestimmung der tatsächlichen Teilnehmer.

Jedes menschliche Identifikationssystem muss sich mit Problem (1) auseinandersetzen, es sei denn, die „akzeptierten“ IDs im System sind völlig subjektiv. Wenn ein System externe Vermögenswerte (z. B. ETH, USDC, DAI) nutzt, um Preisanreize zu setzen, kann dies nicht völlig subjektiv sein, sodass ein Governance-Risiko unvermeidlich ist.

Problem (2) ist für Worldcoin viel riskanter als Proof of Humanity (oder BrightID), da Worldcoin auf spezielle Hardware angewiesen ist, die bei anderen Systemen nicht der Fall ist.

Problem (3) stellt ein besonderes Risiko für zentralisierte Systeme dar, die über ein einziges System zur Verifizierung verfügen, es sei denn, alle Algorithmen sind Open Source und wir haben die Gewissheit, dass sie tatsächlich den Code ausführen, für den sie sich ausgeben. Bei Systemen, die ausschließlich darauf angewiesen sind, dass Benutzer andere Benutzer authentifizieren (wie Proof of Humanity), stellt dies kein Risiko dar.

Wie löst Worldcoin das Problem der Hardware-Zentralisierung?

Derzeit ist Tools for Humanity die einzige Organisation, die Orbs herstellt. Allerdings ist der Quellcode von Orb größtenteils öffentlich: Sie können die Hardware-Spezifikationen im Github-Repository einsehen, und der Rest des Quellcodes wird voraussichtlich bald veröffentlicht. Orbs Lizenz ist eine weitere „Teilen Sie den Quellcode, aber technisch erst nach vier Jahren Open Source“, ähnlich der Uniswap BSL, und verhindert nicht nur Forks, sondern verhindert auch das, was sie als unethisches Verhalten betrachten – die Massenüberwachung und drei internationale Menschenrechte Erklärungen sind ausdrücklich aufgeführt.

Das erklärte Ziel von Tools for Humanity besteht darin, anderen Organisationen die Erstellung von Orbs zu ermöglichen und zu ermutigen und im Laufe der Zeit von den von Tools for Humanity erstellten Orbs zu einer Art DAO überzugehen, das genehmigt und verwaltet, welche Organisationen Orbs herstellen können, die das System genehmigt.

Dieses Design kann jedoch auf zwei Arten scheitern:

1. Die Dezentralisierung gelingt tatsächlich nicht. Dies kann auf eine häufige Falle von DAOs zurückzuführen sein: Ein Hersteller wird in der Fertigung dominant, was zu einer Neuzentralisierung des Systems führt. Grob gesagt kann die Governance begrenzen, wie viele gültige Orbs jeder Hersteller produzieren kann, aber dies muss sorgfältig verwaltet werden, und es besteht ein großer Druck auf die Governance, sowohl dezentralisiert zu sein als auch in der Lage zu sein, das Ökosystem effektiv zu überwachen und effektiv auf Bedrohungen zu reagieren: dies Viel schwieriger als ein ziemlich statisches DAO, das nur Streitbeilegungsaufgaben auf höchster Ebene übernimmt.

2. Es ist möglicherweise nicht möglich, einen solchen dezentralen Herstellungsmechanismus zu schaffen, um die Sicherheit zu gewährleisten. Hier sehe ich zwei Risiken:

(1) Das Aufkommen von Orb-Herstellern: Selbst wenn es einen böswilligen oder gehackten Orb-Hersteller gibt, kann er eine unbegrenzte Anzahl gefälschter Iris-Scan-Hashes generieren und ihnen Welt-IDs geben.

(2) Staatliche Beschränkungen für Orbs: Regierungen, die nicht möchten, dass ihre Bürger am Worldcoin-Ökosystem teilnehmen, können ihren Ländern die Verwendung von Orbs verbieten. Um noch einen Schritt weiter zu gehen, könnten sie die Bürger sogar dazu zwingen, sich einem Iris-Scan zu unterziehen, sodass die Regierung auf ihre Konten zugreifen kann, ohne dass die Bürger damit umgehen können.

Um das System widerstandsfähiger gegen fehlerhafte Orb-Hersteller zu machen, schlägt das Worldcoin-Team vor, regelmäßige Audits der Orbs durchzuführen, um sicherzustellen, dass sie korrekt gebaut sind, dass kritische Hardwarekomponenten den Spezifikationen entsprechen und dass sie nachträglich nicht manipuliert wurden Tatsache. Es ist eine herausfordernde Mission: Es ist im Grunde wie die Atominspektionsbehörde der IAEA, nur für Orbs. Wir hoffen, dass selbst ein sehr unvollkommenes Auditing-System die Anzahl gefälschter Orbs deutlich reduzieren kann.

Um den durch einen fehlerhaften Orb verursachten Schaden zu begrenzen, ist eine zweite Schadensbegrenzungsmaßnahme erforderlich. Selbst die Verwendung von Welt-IDs, die von verschiedenen Orb-Herstellern registriert wurden, sollte im Idealfall bei Verwendung unterschiedlicher Orbs voneinander unterscheidbar sein. Dies ist akzeptabel, wenn die Informationen privat sind und nur auf dem Gerät des World-ID-Inhabers gespeichert sind. Dies muss jedoch bei Bedarf nachgewiesen werden. Dies ermöglicht es dem Ökosystem, auf (unvermeidliche) Angriffe zu reagieren, indem es bei Bedarf jederzeit einzelne Orb-Hersteller oder sogar einzelne Orbs von der Whitelist entfernt. Wenn wir sehen, dass die nordkoreanische Regierung die Menschen dazu zwingt, ihre Augäpfel zu scannen, könnten diese Orbs und alle von ihnen erstellten Konten sofort rückwirkend deaktiviert werden.

Welche Sicherheitsprobleme gibt es bei der allgemeinen Identifizierung von Menschen?

Neben Worldcoin-spezifischen Problemen gibt es auch Probleme, die sich auf die Gestaltung menschlicher Identifikationssysteme auswirken. Die wichtigsten, die mir einfallen, sind:

(1) 3D-gedruckte Dummies: Mithilfe von KI können Fotos oder sogar 3D-Drucke von Dummies erstellt werden, die realistisch genug sind, um von der Orb-Software akzeptiert zu werden. Wenn eine Gruppe dies tut, kann sie eine unbegrenzte Anzahl von Identitäten generieren.

(2) Welt-ID kann verkauft werden: Bei der Registrierung können Personen anstelle ihres eigenen den öffentlichen Schlüssel einer anderen Person angeben und so gegen Geld die Kontrolle über ihre registrierte ID an andere übertragen. Dies scheint bereits zu passieren. Neben dem Verkauf besteht auch die Möglichkeit, den Ausweis für einen kurzen Zeitraum zu vermieten.

(3) Handy-Hacking: Wenn das Telefon einer Person gehackt wird, kann der Hacker den Schlüssel stehlen, der ihre Welt-ID kontrolliert.

(4) Von der Regierung erzwungener Identitätsdiebstahl: Eine Regierung kann ihre Bürger dazu zwingen, sich zu verifizieren und dabei einen QR-Code der Regierung vorzuzeigen. Auf diese Weise könnte eine böswillige Regierung Zugriff auf Millionen von Ausweisen erhalten. In biometrischen Systemen kann dies sogar im Verborgenen erfolgen: Regierungen können verdeckte Orbs verwenden, um an Passkontrollkiosken jedem, der in sein Land einreist, einen Weltausweis zu entlocken.

Der erste Punkt betrifft speziell biometrische Identitätsnachweissysteme. Der zweite und dritte Punkt sind sowohl bei biometrischen als auch bei nicht-biometrischen Designs üblich. Auch der vierte Punkt ist in beiden Fällen gleich, obwohl die erforderliche Technologie in beiden Fällen sehr unterschiedlich sein wird, werde ich mich in diesem Abschnitt auf das Problem im biometrischen Fall konzentrieren.

Das sind sehr gravierende Schwächen. Einige werden bereits in bestehenden Protokollen behoben, andere können durch zukünftige Verbesserungen behoben werden und wieder andere scheinen grundlegende Einschränkungen zu sein.

Wie gehen wir mit Dummies um?

Für Worldcoin ist dies viel weniger riskant als ein System wie Proof of Humanity: Ein Live-Scan einer Person kann viele Merkmale einer Person überprüfen, und es ist im Vergleich zum bloßen Deepfake eines Videos ziemlich schwierig zu fälschen. Spezialisierte Hardware ist von Natur aus schwieriger zu fälschen als gewöhnliche Hardware, die wiederum schwieriger zu fälschen ist als die digitale algorithmische Überprüfung von per Fernzugriff gesendeten Bildern und Videos.

Kann jemand etwas in 3D drucken, das die Kugel täuschen kann? Die Chancen stehen hoch. Ich gehe davon aus, dass wir irgendwann eine wachsende Spannung zwischen den Zielen erleben werden, Mechanismen offen zu halten und sie sicher zu halten: Open-Source-KI-Algorithmen sind von Natur aus anfälliger für kontroverses maschinelles Lernen. Irgendwann in der Zukunft könnten selbst die besten KI-Algorithmen von den besten 3D-gedruckten Dummies getäuscht werden.

Aus meinen Gesprächen mit den Entwicklungsteams von Worldcoin und Proof of Humanity geht jedoch hervor, dass keines der Protokolle derzeit nennenswerte Deepfake-Angriffe erlebt, und zwar aus dem einfachen Grund, dass es unglaublich günstig ist, echte Niedriglohnarbeiter einzustellen, die sich in Ihrem Namen anmelden Einfach.

Können wir verhindern, dass Ausweise verkauft werden?

Kurzfristig ist es schwierig, diesen Verkauf zu verhindern, da die meisten Menschen auf der Welt nicht einmal etwas über das Human-ID-Protokoll wissen, und wenn man ihnen sagt, dass sie 30 US-Dollar verdienen können, indem sie einen QR-Code hochhalten und ihre Augen scannen, werden sie es tun.

Sobald mehr Menschen wussten, was das Human Identification Protocol ist, wurde eine ziemlich einfache Abhilfe möglich: Personen mit registrierten Ausweisen können sich erneut registrieren und ihre vorherigen Ausweise löschen. Dies macht „Ausweisverkäufe“ viel weniger glaubwürdig, da die Person, die Ihnen den Ausweis verkauft, sich erneut registrieren und den gerade verkauften Ausweis abmelden kann. Um an diesen Punkt zu gelangen, muss das Protokoll jedoch sehr bekannt sein und die Orbs müssen weithin zugänglich sein, um eine sofortige Registrierung zu ermöglichen.

Dies ist einer der Gründe, warum die Integration von UBI-Tokens in menschliche Identitätssysteme wertvoll ist: UBI-Tokens bieten einen leicht verständlichen Anreiz für Menschen, das Protokoll zu verstehen und sich zu registrieren, und wenn sie sich im Namen einer anderen Person registriert haben, werden sie sich erneut registrieren - Melden Sie sich sofort an.

Können wir Bedrohungen durch die Durchsetzung biometrischer Identifikationssysteme verhindern?

Es kommt darauf an, um welche Art von Zwang es sich handelt. Zu den möglichen Formen der Nötigung gehören:

- Regierungen scannen die Augen (oder Gesichter oder...) von Menschen an Grenzkontrollen und anderen regulären Kontrollpunkten der Regierung und nutzen dies, um ihre Bürger zu registrieren (und häufig erneut zu registrieren).

– Die Regierung verbietet Orbs im Land, um zu verhindern, dass sich Personen selbstständig registrieren

- Manche Leute kaufen Ausweise und drohen dem Besitzer dann mit Schaden, wenn sie herausfinden, dass der Besitzer sich neu registriert hat und der Ausweis ungültig wurde.

- Die (möglicherweise von der Regierung betriebene) App erfordert, dass sich Personen „anmelden“, indem sie direkt mit ihrem öffentlichen Schlüssel „signieren“, sodass sie den entsprechenden biometrischen Scan und damit die aktuelle ID des Benutzers und die, die sie durch die erneute Registrierung erhalten haben, sehen können Verbindungen zwischen zukünftigen IDs. Es besteht die allgemeine Sorge, dass es dadurch zu einfach wird, eine „permanente Aufzeichnung“ zu erstellen, die ein Leben lang Bestand hat.

Für weniger erfahrene Benutzer scheint es schwierig zu sein, diese Situation vollständig zu verhindern. Benutzer können ihr Land verlassen, um sich bei Orb in einem sichereren Land (erneut) zu registrieren. Dies ist jedoch ein schwieriger Prozess und mit hohen Kosten verbunden. In einem wirklich feindseligen rechtlichen Umfeld erscheint es zu schwierig und riskant, einen unabhängigen Orb zu finden.

Was funktioniert, ist, dass dieser Missbrauch umständlicher und leichter zu erkennen ist. Der Ansatz von Proof of Humanity, der verlangt, dass eine Person bei der Registrierung einen bestimmten Satz spricht, ist ein gutes Beispiel: Es kann ausreichen, verdeckte Scans zu blockieren, die Zwang erfordern, um offensichtlicher zu sein, und der Registrierungssatz könnte sogar eine Erklärung enthalten, die bestätigt, dass die Befragten es sind sich darüber im Klaren, dass sie das Recht haben, sich eigenständig neu zu registrieren und möglicherweise UBI-Tokens oder andere Belohnungen zu erhalten. Bei Kugeln, die zur Durchsetzung der Registrierung in großem Umfang verwendet werden, kann der Zugriff entzogen werden, wenn Zwang festgestellt wird.

Ein allgemeines menschliches Authentifizierungssystem kann den Schlüssel des Benutzers in vertrauenswürdiger Hardware sperren und so verhindern, dass der Prozess einer Anwendung den Schlüssel direkt verwendet, ohne dass eine ZK-SNARK-Zwischenschicht erforderlich ist. Wenn Regierungen oder App-Entwickler dieses Problem lösen wollen, müssen sie die Verwendung ihrer eigenen benutzerdefinierten Apps erzwingen.

Durch eine Kombination dieser Techniken und proaktiver Warnung scheint es möglich, die wirklich feindseligen Regime ins Visier zu nehmen und diejenigen, die lediglich neutral sind (wie ein Großteil der Welt), ehrlich zu halten. Dies könnte dadurch geschehen, dass Projekte wie Worldcoin oder Proof of Humanity ihre eigene Bürokratie für diese Aufgabe beibehalten oder indem sie weitere Informationen darüber offenlegen, wie die ID registriert wurde (z. B. in Worldcoin, von welchem ​​Orb sie stammt) und diese Klassifizierungsaufgabe dem überlassen Gemeinschaft.

Können wir das Ausleihen von Ausweisen (z. B. Ausleihen von Stimmzetteln) verhindern?

Eine erneute Registrierung wird einige Leute nicht davon abhalten, ihre Ausweise zu vermieten. Dies ist in einigen Anwendungen in Ordnung: Die Kosten für die Vermietung Ihres Rechts auf den Erhalt des Anteils an UBI-Münzen an diesem Tag entsprechen einfach dem Wert der UBI-Münzen an diesem Tag. Aber bei Anwendungen wie der Stimmabgabe ist der einfache Verkauf von Stimmrechten ein großes Problem.

Systeme wie MACI verhindern, dass Sie Ihre Stimme verkaufen, und ermöglichen es Ihnen, später eine weitere Stimme abzugeben, wodurch Ihre vorherige Stimme ungültig wird, sodass niemand wissen kann, ob Sie diese Stimme tatsächlich abgegeben haben. Aber es hilft nichts, wenn der Bestechungsgelder den Schlüssel kontrolliert, den Sie bei der Anmeldung erhalten haben.

Ich sehe hier zwei Lösungen:

(1) Führen Sie den gesamten Bewerbungsprozess im Rahmen einer Mehrparteienberechnung (MPC) durch. Dazu gehört auch der Ummeldevorgang: Bei der Neuanmeldung beim MPC vergibt das MPC eine von der persönlichen Identifikationsnummer getrennte und mit dieser nicht in Verbindung stehende ID, bei der Ummeldung nur das MPC wissen, welches Konto deaktiviert werden muss. Dies verhindert, dass Benutzer ihre Aktionen bestätigen, da jeder wichtige Schritt innerhalb des MPC unter Verwendung privater Informationen durchgeführt wird, die nur dem MPC bekannt sind.

(2) Dezentrale Registrierungszeremonie. Im Grunde ist die Implementierung so etwas wie dieses Live-Key-Registrierungsprotokoll, bei dem vier zufällig ausgewählte lokale Teilnehmer zusammenarbeiten müssen, um jemanden zu registrieren. Dadurch wird sichergestellt, dass die Registrierung ein „vertrauenswürdiger“ Prozess ist, den Angreifer nicht abhören können.

Hier können auf Social Graphen basierende Systeme eine bessere Leistung erbringen, da sie als Nebenprodukt ihrer Arbeitsweise automatisch einen lokalen dezentralen Registrierungsprozess erstellen können.

Biometrische Überprüfung der menschlichen Identität im Vergleich zur Überprüfung auf Basis sozialer Diagramme

Neben biometrischen Methoden ist derzeit die Social-Graph-basierte Verifizierung der Hauptanwärter für die Personenidentifikation. Auf Social Graphen basierende Verifizierungssysteme folgen alle dem gleichen Prinzip: Wenn es eine große Gruppe bereits verifizierter Identitäten gibt, die beweisen, dass Ihre Identität gültig ist, dann sind Sie wahrscheinlich gültig und sollten auch über eine verifizierte Identität verfügen.

Wenn nur wenige echte Benutzer (entweder versehentlich oder böswillig) gefälschte Benutzer verifizieren, können Sie mithilfe grundlegender Techniken der Graphentheorie eine Obergrenze für die Anzahl gefälschter Benutzer bestimmen, die Ihr System verifizieren kann.

Befürworter von auf sozialen Graphen basierenden Systemen zur menschlichen Identifizierung beschreiben sie aus folgenden Gründen häufig als bessere Alternative zur Biometrie:

- Es ist nicht auf spezielle Hardware angewiesen, was die Bereitstellung erleichtert;

- Es vermeidet ein permanentes Wettrüsten zwischen Herstellern, die Dummys herstellen wollen, und Orbs, die aktualisiert werden müssen, um solche Dummys abzulehnen.

- Keine Notwendigkeit, biometrische Daten zu sammeln, mehr Schutz der Privatsphäre;

- Möglicherweise ist es der Anonymität zuträglicher, denn wenn sich jemand dazu entschließt, sein Online-Leben auf mehrere Identitäten zu verteilen, die er getrennt voneinander verwaltet, können alle diese Identitäten potenziell verifiziert werden (die Aufrechterhaltung mehrerer realer und getrennter Identitäten geht jedoch zu Lasten von Netzwerkeffekte und ist kostspielig, so dass ein Angreifer dies nicht einfach tun kann)

Biometrische Methoden ergeben eine binäre Bewertung von „ist menschlich“ oder „ist nicht menschlich“, was fragil ist: Personen, die versehentlich abgelehnt werden, können keine UBI-Token verdienen und möglicherweise nicht am Online-Leben teilnehmen. Auf sozialen Diagrammen basierende Methoden können detailliertere numerische Ergebnisse liefern, was für einige Teilnehmer unfair sein kann, aber es ist unwahrscheinlich, dass eine Person vollständig „eliminiert“ wird.

Meine Meinung zu diesen Argumenten ist, dass ich ihnen grundsätzlich zustimme! Dies sind echte Vorteile von Social-Graph-basierten Ansätzen und sollten ernst genommen werden. Es lohnt sich jedoch auch, die Schwächen von Social-Graph-basierten Ansätzen zu berücksichtigen:

- Hinweis: Damit ein Benutzer einem System beitreten kann, das auf einem sozialen Diagramm basiert, muss der Benutzer jemanden kennen, der sich bereits im Diagramm befindet. Dies erschwert die Masseneinführung und schließt möglicherweise Regionen der Welt aus, die bei der ersten Einführung Pech hatten.

- Privatsphäre: Soziographenbasierte Ansätze verzichten zwar auf die Erfassung biometrischer Daten, geben aber häufig Informationen über die sozialen Beziehungen einer Person preis, was zu größeren Risiken führen kann. Natürlich können Zero-Knowledge-Techniken dieses Problem lindern (siehe beispielsweise diesen Vorschlag von Barry Whitehat), aber die gegenseitigen Abhängigkeiten im Diagramm und die Notwendigkeit einer mathematischen Analyse des Diagramms machen es schwieriger, das gleiche Datenniveau zu erreichen als Biometrie versteckt.

- Ungleichheit: Jede Person kann nur eine biometrische ID haben, aber eine wohlhabende und gut vernetzte Person kann ihre Verbindungen nutzen, um mehrere IDs zu generieren. Im Wesentlichen könnte die gleiche Flexibilität es einem auf sozialen Graphen basierenden System ermöglichen, mehrere Pseudonyme an jemanden (z. B. einen Aktivisten) zu vergeben, der diese Funktion tatsächlich benötigt, wahrscheinlicher jedoch an jemanden, der mächtiger und sozial verbundener ist. Mehr Aliase können von weniger erhalten werden Menschen.

- Gefahr einer Zentralisierung: Die meisten Menschen sind zu faul, sich die Zeit zu nehmen, in einer Internetanwendung zu melden, wer eine reale Person ist und wer nicht. Daher besteht die Gefahr, dass das System im Laufe der Zeit eher zu „einfachen“ Onboarding-Methoden tendiert, die auf einer zentralisierten Autorität basieren, und dass der „soziale Graph“ der Benutzer des Systems tatsächlich dahingehend wird, welche Länder wen als Bürger anerkennen – – Bringt uns zentralisiertes KYC, erfordert aber zusätzliche Schritte.

Ist die menschliche Identifikation mit Pseudonymen in der realen Welt vereinbar?

Grundsätzlich ist die Personenidentifikation mit verschiedenen Pseudonymen vereinbar. Apps können so gestaltet werden, dass eine Person mit einem einzigen physischen Ausweis bis zu fünf Profile innerhalb der App erstellen kann, wodurch Platz für pseudonyme Konten bleibt. Man kann sogar die quadratische Formel verwenden: $N² Kosten für N Konten. Aber werden sie?

Ein Pessimist könnte jedoch argumentieren, dass es naiv ist, zu versuchen, eine stärker auf die Privatsphäre ausgerichtete Art der Identifikation zu schaffen, und zu hoffen, dass diese auf die richtige Art und Weise übernommen wird, weil den Mächtigen die Privatsphäre egal ist, und wenn ein mächtiger Akteur eine hat Werkzeuge, mit denen mehr Informationen über eine Person gewonnen werden können. In einer solchen Welt, so wird argumentiert, bestehe der einzig realistische Weg leider darin, jegliche Identifizierungslösung zu untergraben und eine Welt völlig anonymer und digitaler Inseln äußerst vertrauenswürdiger Gemeinschaften zu verteidigen.

Ich verstehe die Beweggründe hinter dieser Denkweise, aber ich mache mir Sorgen, dass dieser Ansatz, selbst wenn er erfolgreich ist, zu einer Welt führen wird, in der es keine Möglichkeit mehr gibt, etwas gegen die Konzentration des Reichtums und die Zentralisierung der Regierungsführung zu unternehmen, weil man immer so tun kann, als wäre man es Zehntausend Menschen. Ein solcher zentraler Punkt wiederum wäre leicht von den Mächtigen zu kontrollieren. Stattdessen bevorzuge ich einen bescheidenen Ansatz, bei dem wir uns nachdrücklich für persönliche Beweislösungen mit strengem Datenschutz einsetzen und bei Bedarf möglicherweise sogar einen „$N²-Kosten für N-Konten“-Mechanismus auf Protokollebene einbeziehen und etwas schaffen sollten, das mit datenschutzfreundlichen Werten übereinstimmt ​​und hat eine Chance, von der Außenwelt akzeptiert zu werden.

Also... was denke ich?

Wenn es um die persönliche Identifizierung geht, gibt es keine ideale Form. Stattdessen haben wir mindestens drei verschiedene Ansätze, von denen jeder seine eigenen Vor- und Nachteile hat. Eine Vergleichstabelle könnte so aussehen:

Idealerweise sollten wir diese drei Technologien als komplementär betrachten und kombinieren. Wie Aadhaar aus Indien demonstriert, bieten dedizierte Hardware-Biometrie den Vorteil der Sicherheit im großen Maßstab. Sie sind sehr schwach in der Dezentralisierung, obwohl dies dadurch gelöst werden kann, dass einzelne Bereiche die Verantwortung übernehmen.

Universelle Biometrie lässt sich heute leicht übernehmen, ihre Sicherheit nimmt jedoch rapide ab und sie funktioniert möglicherweise nur noch ein bis zwei Jahre lang. Auf Social Graphs basierende Systeme, die von Hunderten von Personen geleitet werden, die dem Gründerteam sozial nahe stehen, stehen möglicherweise vor dem ständigen Kompromiss, entweder große Teile der Welt vollständig zu verpassen oder anfällig für Angriffe von Gemeinschaften zu sein, die sie nicht sehen können. Allerdings könnte ein auf sozialen Graphen basierendes System, das von zig Millionen biometrischen ID-Inhabern gebootet wird, tatsächlich funktionieren. Biometrische Führung könnte kurzfristig besser funktionieren, während auf sozialen Graphen basierende Technologien langfristig robuster sein könnten und im Laufe der Zeit mit der Verbesserung der Algorithmen eine größere Verantwortung übernehmen könnten.

Mögliche gemischte Entwicklungspfade in der Zukunft

Alle diese Teams können viele Fehler machen und es gibt unvermeidliche Spannungen zwischen Unternehmensinteressen und den Bedürfnissen der breiteren Gemeinschaft, daher müssen wir äußerst wachsam bleiben. Als Community können und sollten wir alle Teilnehmer über die Komfortzone des Open-Sourcing ihrer Technologien hinausdrängen und neben anderen Kontrollen und Abwägungen auch Prüfungen durch Dritte und sogar von Dritten geschriebene Software verlangen. Wir brauchen auch mehr Auswahl in jeder Kategorie.

Gleichzeitig ist es auch wichtig, die geleistete Arbeit anzuerkennen: Viele der Teams, die diese Systeme betreiben, haben gezeigt, dass sie bereit sind, den Datenschutz ernster zu nehmen als fast jedes Identitätssystem der Regierung oder eines großen Unternehmens, und das ist ein Erfolg, den wir haben sollten lernen von.

Das Problem, ein effektives und zuverlässiges physisches Beweissystem in die Hände von Menschen zu bringen, die weit von der bestehenden Krypto-Community entfernt sind, scheint eine ziemliche Herausforderung zu sein. Ich beneide diejenigen, die sich dieser Aufgabe stellen, auf keinen Fall. Es kann mehrere Jahre dauern, bis eine funktionierende Lösung gefunden ist. Das Prinzip der physischen Identifizierung scheint grundsätzlich sehr wertvoll zu sein, und während verschiedene Implementierungsmethoden ihre Risiken haben, birgt das Fehlen einer physischen Identifizierung auch ihre Risiken: Eine Welt ohne physische Identifizierung ist eher eine Welt, die von zentralisierten Identitätslösungen dominiert wird. Eine Welt dominiert von Geld, kleinen Wohnanlagen oder einer Kombination aus allen dreien. Ich freue mich auf weitere Fortschritte bei allen Arten der Personenzertifizierung und hoffe, dass die unterschiedlichen Ansätze schließlich zu einem kohärenten Ganzen zusammengeführt werden.

Risikowarnung:

Gemäß der „Mitteilung zur weiteren Verhinderung und Bewältigung von Spekulationsrisiken bei Transaktionen mit virtuellen Währungen“ der Zentralbank und anderer Abteilungen dient der Inhalt dieses Artikels nur der Informationsweitergabe und fördert oder befürwortet kein Geschäfts- oder Investitionsverhalten der Leser werden gebeten, sich strikt an die Gesetze und Vorschriften ihrer Region zu halten und sich nicht an illegalen Finanzpraktiken zu beteiligen.