Twitter (X) war in den letzten zwei Jahren turbulent. Letztes Jahr kaufte Elon Musk die Plattform für 44 Milliarden US-Dollar und überarbeitete dann die Personalbesetzung, die Moderation von Inhalten, das Geschäftsmodell und die Website-Kultur des Unternehmens. Diese Änderungen haben möglicherweise eher mit Elon Musks Soft Power zu tun als mit spezifischen politischen Entscheidungen. Inmitten dieser kontroversen Aktionen ist jedoch eine neue Funktion auf Twitter schnell wichtig geworden und scheint bei Menschen aus dem gesamten politischen Spektrum beliebt zu sein: Community Notes.

Community Notes ist ein Tool zur Faktenprüfung, das manchmal kontextbezogene Notizen an Tweets anfügt, wie zum Beispiel den Tweet von Elon Musk oben, als Tool zur Faktenprüfung und Bekämpfung von Desinformation. Es hieß ursprünglich Birdwatch und startete erstmals im Januar 2021 als Pilotprojekt. Seitdem ist es schrittweise gewachsen, wobei die stärkste Expansion mit der Übernahme von Twitter durch Elon Musk im letzten Jahr zusammenfiel. Community Notes gehören regelmäßig zu den Tweets, die heutzutage auf Twitter große Beachtung finden, darunter auch solche, die sich mit kontroversen politischen Themen befassen. Meiner Meinung nach und meiner Schlussfolgerung aus Gesprächen mit vielen Menschen aus dem gesamten politischen Spektrum sind diese Notizen so informativ und wertvoll, wie sie erscheinen.
Was mich jedoch am meisten interessiert, sind Community Notes, die zwar kein „Krypto-Projekt“ sind, aber wahrscheinlich das am nächsten kommende Beispiel für „Krypto-Werte“ sind, das wir in der Mainstream-Welt gesehen haben. Community-Notizen werden nicht von einigen zentral ausgewählten Experten geschrieben oder kuratiert, sondern jeder kann schreiben und abstimmen, und welche Notizen erscheinen oder nicht, wird vollständig durch Open-Source-Algorithmen bestimmt. Auf der Twitter-Website gibt es eine detaillierte und umfassende Anleitung, die die Funktionsweise des Algorithmus beschreibt. Sie können die Daten mit veröffentlichten Notizen und Umfragen herunterladen, den Algorithmus lokal ausführen und überprüfen, ob die Ausgabe mit dem übereinstimmt, was auf der Twitter-Website sichtbar ist. Es ist zwar nicht perfekt, kommt aber in durchaus kontroversen Situationen dem Ideal vertrauenswürdiger Neutralität überraschend nahe und ist gleichzeitig sehr nützlich.
Wie funktioniert der Community Notes-Algorithmus?
Jeder mit einem Twitter-Konto, das bestimmte Kriterien erfüllt (im Grunde: seit mehr als 6 Monaten aktiv, keine Richtlinienverstöße, verifizierte Mobiltelefonnummer), kann sich für die Teilnahme an Community Notes anmelden. Derzeit werden die Teilnehmer langsam und nach dem Zufallsprinzip aufgenommen, aber letztendlich ist geplant, jedem, der sich dafür qualifiziert, die Teilnahme zu ermöglichen. Nach der Annahme können Sie zunächst an der Bewertung bestehender Notizen teilnehmen. Sobald Ihre Bewertungen gut genug sind (gemessen daran, welche Bewertungen mit den Endergebnissen für diese Notiz übereinstimmen), können Sie auch Ihre eigenen Notizen schreiben.

Wenn Sie eine Notiz schreiben, erhält die Notiz eine Bewertung, die auf der Überprüfung durch andere Community Notes-Mitglieder basiert. Diese Bewertungen können als Abstimmungen auf den drei Ebenen „hilfreich“, „eher hilfreich“ und „nicht hilfreich“ betrachtet werden, Bewertungen können jedoch auch andere Labels enthalten, die im Algorithmus eine Rolle spielen. Basierend auf diesen Bewertungen wird Notes eine Punktzahl zugewiesen. Wenn die Punktzahl der Note 0,40 überschreitet, wird die Note angezeigt; andernfalls wird die Note nicht angezeigt.
Das Besondere am Algorithmus ist die Art und Weise, wie die Ergebnisse berechnet werden. Im Gegensatz zu einfachen Algorithmen, die lediglich darauf ausgelegt sind, eine Summe oder einen Durchschnitt der Benutzerbewertungen zu berechnen und diese als Endergebnis zu verwenden, versucht der Community Notes-Bewertungsalgorithmus explizit, diejenigen zu priorisieren, die positive Bewertungen von Personen mit unterschiedlichen Perspektiven erhalten haben. Das heißt, wenn sich Personen, die normalerweise bei der Bewertung nicht einig sind, einer bestimmten Note zustimmen, wird diese Note hoch bewertet.
Schauen wir uns genauer an, wie es funktioniert. Wir haben eine Reihe von Benutzern und eine Reihe von Notizen; wir können eine Matrix M erstellen, in der Zelle Mij darstellt, wie der i-te Benutzer die j-ten Notizen bewertet hat.
Für bestimmte Notizen haben die meisten Benutzer diese Notizen nicht bewertet, sodass die meisten Einträge in der Matrix Null sind, aber das ist in Ordnung. Das Ziel des Algorithmus besteht darin, ein vierspaltiges Modell von Benutzern und Notizen zu erstellen und jedem Benutzer zwei Statistiken zuzuweisen, die wir „Freundlichkeit“ und „Polarität“ nennen können, sowie zwei Statistiken für jede Notiz, die wir „Nützlichkeit“ nennen " und "Polarität". Das Modell versucht, die Matrix als Funktion dieser Werte vorherzusagen, indem es die folgende Formel verwendet:

Beachten Sie, dass ich hier die im Birdwatch-Artikel verwendete Terminologie sowie meine eigene Terminologie vorstelle, um ein intuitiveres Verständnis der Bedeutung der Variablen zu ermöglichen, ohne mathematische Konzepte einzubeziehen:
μ ist ein Parameter der „öffentlichen Stimmung“, der misst, wie hoch die Bewertungen im Allgemeinen von Benutzern abgegeben werden.
iu ist die „Freundlichkeit“ des Nutzers, also wie wahrscheinlich es ist, dass der Nutzer dazu neigt, eine hohe Bewertung abzugeben.
Dabei geht es um die „Nützlichkeit“ der Schuldverschreibungen, also darum, wie wahrscheinlich es ist, dass die Schuldverschreibungen hoch bewertet werden. Das ist die Variable, die uns am Herzen liegt.
fu oder fn ist die „Polarität“ des Benutzers oder der Notizen, d. h. ihre Position auf der dominanten Achse der politischen Extreme. In der Praxis bedeutet negative Polarität ungefähr „Linksneigung“ und positive Polarität bedeutet „Rechtsneigung“. Bitte beachten Sie jedoch, dass die extremen Achsen durch die Analyse von Benutzer- und Notes-Daten abgeleitet werden und die Konzepte von links und rechts nicht fest codiert sind.
Der Algorithmus verwendet ein ziemlich einfaches Modell des maschinellen Lernens (Standardgradientenabstieg), um die besten Variablenwerte für die Vorhersage von Matrixwerten zu finden. Der einer bestimmten Note zugewiesene Nutzen ist die endgültige Bewertung dieser Note. Eine Notiz wird angezeigt, wenn ihr Nutzen mindestens +0,4 beträgt.
Die Kernkompetenz besteht darin, dass „Polarität“ die Eigenschaften einer Note aufnimmt, die dazu führen, dass sie von einigen Benutzern gemocht und von anderen nicht gemocht wird, während „Nützlichkeit“ nur die Eigenschaften einer Note misst. Diese Eigenschaften führen dazu, dass sie allen gefällt Benutzer. Die Auswahl der Nützlichkeit identifiziert somit Notizen, die von allen Stämmen unterstützt werden, und schließt Notizen aus, die von einem Stamm bejubelt, von einem anderen jedoch verärgert werden.
Das Obige beschreibt nur den Kernteil des Algorithmus. Tatsächlich sind noch viele weitere Mechaniken dazugekommen. Glücklicherweise sind sie in der öffentlichen Dokumentation beschrieben. Zu diesen Mechanismen gehören die folgenden:
Der Algorithmus wird mehrmals ausgeführt, wobei jedes Mal einige zufällig generierte extreme „Fake-Stimmen“ zur Abstimmung hinzugefügt werden. Dies bedeutet, dass die wahre Ausgabe des Algorithmus für jede Note ein Wertebereich ist und das Endergebnis von einer „geringeren Konfidenz“ aus diesem Bereich abhängt und mit einem Schwellenwert von 0,32 verglichen wird.
Wenn viele Benutzer (insbesondere diejenigen mit einer Notizen-Polarität) eine Notiz als „nicht nützlich“ bewerten und sie auch das gleiche „Tag“ (z. B. „argumentative oder voreingenommene Sprache“, „ungewöhnliche Quelle“) „Support-Notizen“) zuweisen wie B. den Grund für die Bewertung, dann erhöht sich die für die Veröffentlichung der Schuldverschreibungen erforderliche Nützlichkeitsschwelle von 0,4 auf 0,5 (dies mag klein erscheinen, ist aber in der Praxis sehr wichtig).
Wenn eine Note angenommen wird, muss ihr Nutzen auf 0,01 Punkte unter dem für die Annahme der Note erforderlichen Schwellenwert reduziert werden.
Der Algorithmus führt mehrere Läufe mit mehreren Modellen durch und steigert manchmal Notes mit rohen Nützlichkeitswerten zwischen 0,3 und 0,4.
Alles in allem erhalten Sie einen ziemlich komplexen Python-Code mit insgesamt 6282 Zeilen, verteilt auf 22 Dateien. Aber es ist alles offen und Sie können Notizen und die Bewertungsdaten herunterladen und selbst ausführen, um zu sehen, ob die Ausgabe mit dem übereinstimmt, was tatsächlich auf Twitter passiert.
Wie sieht das also in der Praxis aus?
Der wahrscheinlich größte Unterschied zwischen diesem Algorithmus und der einfachen Ermittlung einer durchschnittlichen Punktzahl aus den Stimmen der Menschen ist das Konzept dessen, was ich „polare“ Werte nenne. In der Algorithmusdokumentation werden sie als „fu“ und „fn“ bezeichnet, wobei „f“ für „Faktor“ verwendet wird, da sich die beiden Begriffe gegenseitig multiplizieren. Die allgemeinere Terminologie ist teilweise auf den letztendlichen Wunsch zurückzuführen, „fu“ und „fn“ multidimensional zu machen.
Polarität wird Benutzern und Notizen zugewiesen. Die Verknüpfung zwischen der Benutzer-ID und dem zugrunde liegenden Twitter-Konto wird absichtlich geheim gehalten, Notes ist jedoch öffentlich. Tatsächlich korreliert die vom Algorithmus erzeugte Polarität zumindest für den englischen Datensatz sehr eng mit links und rechts.
Hier sind einige Notes-Beispiele mit einer Polarität um -0,8:

Beachten Sie, dass ich hier keine Rosinen herauspicke. Dies sind tatsächlich die ersten drei Zeilen in der Kalkulationstabelle „scored_notes.tsv“, die ich beim lokalen Ausführen des Algorithmus generiert habe, und ihre Polaritätswerte (in der Kalkulationstabelle „coreNoteFactor1“ genannt) liegen unter – 0,8.
Hier sind einige Noten mit einer Polarität von etwa +0,8. Es stellt sich heraus, dass es sich bei vielen von ihnen entweder um Leute handelt, die auf Portugiesisch über brasilianische Politik sprechen, oder um Tesla-Fans, die wütend Kritik an Tesla zurückweisen. Lassen Sie mich also ein wenig herauspicken und einige Notizen finden, die in keine der beiden Kategorien fallen:

Zur Erinnerung: Die „Links-Rechts-Division“ ist in keiner Weise fest im Algorithmus verankert, sondern wird rechnerisch ermittelt. Das lässt darauf schließen, dass dieser Algorithmus, wenn man ihn auf andere kulturelle Kontexte anwendet, deren wichtigste politische Spaltungen automatisch erkennen und Brücken zwischen diesen Spaltungen bauen kann.
Mittlerweile sehen Notizen für maximalen Nutzen so aus. Da die Notizen dieses Mal tatsächlich auf Twitter angezeigt werden, kann ich einfach einen Screenshot machen:

Da ist noch einer:

Bei den zweiten Notizen geht es direkter um sehr parteiische politische Themen, aber es handelt sich um klare, qualitativ hochwertige und informative Notizen, die eine hohe Bewertung erhalten. Insgesamt scheint der Algorithmus zu funktionieren und es scheint machbar, die Ausgabe des Algorithmus durch Ausführen des Codes zu überprüfen.
Was halte ich von diesem Algorithmus?
Was mir bei der Analyse dieses Algorithmus am meisten auffiel, war seine Komplexität. Es gibt eine „akademische Papierversion“, die den Gradientenabstieg verwendet, um die beste Anpassung von Vektor- und Matrixgleichungen mit fünf Termen zu finden, und dann gibt es die echte Version, eine komplexe Reihe von Ausführungen des Algorithmus mit vielen verschiedenen Ausführungen und viel Willkür der Weg.
Sogar die Version der wissenschaftlichen Arbeit verbirgt die zugrunde liegende Komplexität. Die optimierte Gleichung ist eine negative vierte Ordnung (da die Vorhersageformel einen quadratischen fu*fn-Term enthält und die Kostenfunktion das Quadrat des Fehlers misst). Während die Optimierung einer quadratischen Gleichung in einer beliebigen Anzahl von Variablen fast immer eine eindeutige Lösung hat, die Sie mit ziemlich einfacher linearer Algebra herausfinden können, hat die Optimierung einer quartischen Gleichung in vielen Variablen normalerweise viele Lösungen, weshalb die mehreren Runden der Gradientenabstiegsalgorithmen unterschiedlich sind Antworten können erhalten werden. Kleine Eingabeänderungen können dazu führen, dass der Einbruch von einem lokalen Minimum zu einem anderen wechselt, was die Ausgabeergebnisse erheblich verändert.
Der Unterschied zwischen diesem und den Algorithmen, die ich mitentwickelt habe, wie z. B. der Sekundärfinanzierung, ist für mich wie der Unterschied zwischen dem Algorithmus eines Wirtschaftswissenschaftlers und dem Algorithmus eines Ingenieurs. Die Algorithmen der Wirtschaftswissenschaftler legen im besten Fall Wert auf Einfachheit, sind relativ einfach zu analysieren und haben klare mathematische Eigenschaften, die darauf hinweisen, dass sie für die zu lösende Aufgabe am besten (oder am wenigsten schlecht) sind und im Idealfall auch bewiesen werden können Wie viel Schaden kann jemand anrichten, wenn er versucht, es auszunutzen? Der Algorithmus eines Ingenieurs hingegen wird durch einen iterativen Prozess aus Versuch und Irrtum abgeleitet, um zu sehen, was in der Betriebsumgebung des Ingenieurs funktioniert und was nicht. Die Algorithmen der Ingenieure sind pragmatisch und erledigen ihre Arbeit; die Algorithmen der Ökonomen verlieren nicht völlig die Kontrolle, wenn sie mit unerwarteten Situationen konfrontiert werden.
Oder wie es der angesehene Internet-Philosoph Roon (alias tszzl) in einem verwandten Thread ausdrückt:

Natürlich würde ich sagen, dass der „theoretische ästhetische“ Aspekt von Kryptowährungen notwendig ist, um genau zwischen Protokollen unterscheiden zu können, die wirklich vertrauenswürdig sind, und solchen, die auf den ersten Blick gut aussehen und gut funktionieren, aber tatsächlich Vertrauen in einen zentralisierten Akteur erfordern. Oder noch schlimmer, es könnte sich um einen kompletten Betrug handeln.
Deep Learning ist unter normalen Umständen effektiv, weist jedoch bei verschiedenen gegnerischen Angriffen auf maschinelles Lernen unvermeidbare Schwächen auf. Bei guter Umsetzung können technische Fallen und hochstufige Abstraktionsleitern diese Angriffe bekämpfen. Ich habe also eine Frage: Können wir Community Notes selbst eher in einen Wirtschaftsalgorithmus verwandeln?
Um zu sehen, was das in der Praxis bedeutet, untersuchen wir einen Algorithmus, den ich vor einigen Jahren für einen ähnlichen Zweck entwickelt habe: die paarweise beschränkte quadratische Finanzierung.

Das Ziel der paarweise begrenzten quadratischen Finanzierung besteht darin, eine Lücke in der „regulären“ quadratischen Finanzierung zu schließen, wobei zwei Teilnehmer, selbst wenn sie miteinander zusammenarbeiten, sehr hohe Beträge zu einem gefälschten Projekt beitragen, die Mittel an sie zurückzahlen und große Mengen erhalten können Subventionen, die den gesamten Kapitalpool belasten. Bei der paarweise begrenzten quadratischen Finanzierung weisen wir jedem Akteurpaar ein begrenztes Budget M zu. Der Algorithmus durchläuft alle möglichen Akteurspaare, und wenn der Algorithmus beschließt, einem bestimmten Projekt P eine Subvention hinzuzufügen, weil sowohl Akteur A als auch Akteur B es unterstützen, wird diese Subvention von dem dem Paar (A, B) zugewiesenen Budget abgezogen ). Daher beträgt der Betrag, den sie aus dem Mechanismus stehlen können, selbst wenn k Teilnehmer zusammenarbeiten, höchstens k (k-1) M.
Diese Form des Algorithmus funktioniert im Kontext von Community Notes nicht gut, da jeder Benutzer nur eine kleine Anzahl von Stimmen abgibt: Im Durchschnitt ist die Anzahl der gemeinsamen Stimmen zwischen zwei beliebigen Benutzern Null, also einfach jedes Paar einzeln betrachten Benutzer, Algorithmus kann die Polarität des Benutzers nicht verstehen. Das Ziel eines maschinellen Lernmodells besteht genau darin, eine Matrix aus sehr spärlichen Quelldaten zu „befüllen“, die auf diese Weise nicht direkt analysiert werden können. Die Herausforderung bei diesem Ansatz besteht jedoch darin, dass zusätzliche Anstrengungen erforderlich sind, um angesichts einer geringen Anzahl schlechter Abstimmungen sehr volatile Ergebnisse zu vermeiden.
Können Community Notes wirklich links und rechts standhalten?
Wir können analysieren, ob der Community Notes-Algorithmus tatsächlich in der Lage ist, Extremen zu widerstehen, das heißt, ob er besser abschneidet als ein naiver Abstimmungsalgorithmus. Dieser Abstimmungsalgorithmus widersteht bereits einigermaßen Extremen: Ein Beitrag mit 200 Likes und 100 Dislikes schneidet schlechter ab als ein Beitrag mit nur 200 Likes. Aber sind Community Notes besser?
Aus der Perspektive eines abstrakten Algorithmus ist das schwer zu sagen. Warum sollte ein polarisierender Beitrag mit einer hohen Durchschnittsbewertung nicht eine starke Polarität und einen hohen Nutzen aufweisen? Die Idee ist, dass bei widersprüchlichen Abstimmungen die Polarität die Merkmale „absorbieren“ sollte, die dazu geführt haben, dass der Beitrag viele Stimmen erhalten hat. Aber ist das tatsächlich der Fall?
Um dies zu überprüfen, habe ich meine eigene vereinfachte Implementierung 100 Runden lang ausgeführt. Die durchschnittlichen Ergebnisse sind wie folgt:

In diesem Test erhielten „gute“ Notes eine Bewertung von +2 bei Benutzern derselben politischen Zugehörigkeit und eine Bewertung von +0 bei Benutzern der anderen politischen Zugehörigkeit, und „gute, aber extremere“ Notes erhielten eine Bewertung von +0 bei Benutzern derselben politischen Zugehörigkeit gleiche politische Zugehörigkeit erhielt eine Bewertung von +4 bei Benutzern der anderen Fraktion und eine Bewertung von -2 bei Benutzern der anderen Fraktion. Obwohl die Durchschnittswerte gleich sind, ist die Polarität unterschiedlich. Und tatsächlich scheint der durchschnittliche Nutzen „guter“ Notizen höher zu sein als der von „guten, aber extremeren“ Notizen.
Wenn man einen Algorithmus hat, der näher am „Algorithmus des Wirtschaftswissenschaftlers“ ist, erhält man eine klarere Aussage darüber, wie der Algorithmus Extreme bestraft.
Wie nützlich ist das alles in Situationen, in denen viel auf dem Spiel steht?
Einiges davon können wir lernen, indem wir uns eine bestimmte Situation ansehen. Vor etwa einem Monat beschwerte sich Ian Bremmer darüber, dass einem Tweet über einen chinesischen Regierungsbeamten eine äußerst kritische Community-Notiz hinzugefügt worden sei, die Notizen jedoch inzwischen entfernt worden seien.

Das ist eine schwierige Aufgabe. Es ist eine Sache, Mechanismen in einer Ethereum-Community-Umgebung zu entwerfen, in der die größte Beschwerde vielleicht darin besteht, dass 20.000 US-Dollar an einen extremen Twitter-Influencer gehen. Ganz anders verhält es sich, wenn es um politische und geopolitische Themen geht, die Millionen von Menschen betreffen und bei denen jeder vernünftigerweise oft von den schlimmsten Beweggründen ausgeht. Die Interaktion mit diesen hochriskanten Umgebungen ist jedoch unerlässlich, wenn Mechanikdesigner einen signifikanten Einfluss auf die Welt haben wollen.
Im Fall von Twitter gibt es einen offensichtlichen Grund, zentralisierte Manipulation als Grund für die Entfernung von Notes zu vermuten: Elon Musk hat viele Geschäftsinteressen in China, daher ist es möglich, dass Elon Musk das Community Notes-Team gezwungen hat, in die Ausgabe des Algorithmus einzugreifen und entfernen Sie diese besonderen Notizen.
Glücklicherweise ist der Algorithmus Open Source und überprüfbar, sodass wir uns tatsächlich damit befassen können! Lass uns das machen. Die URL des Original-Tweets lautet https://twitter.com/MFA_China/status/1676157337109946369. Die Nummer 1676157337109946369 am Ende ist die ID des Tweets. Wir können in den herunterladbaren Daten nach dieser ID suchen und die spezifische Zeile in der Tabelle identifizieren, die die oben genannten Hinweise enthält:

Hier erhalten wir die ID von Notes selbst, 1676391378815709184. Anschließend suchen wir in den durch die Ausführung des Algorithmus generierten Dateien „scored_notes.tsv“ und „note_status_history.tsv“ nach dieser ID. Wir haben folgende Ergebnisse erhalten:

Die zweite Spalte in der ersten Ausgabe ist die aktuelle Bewertung für diese Notizen. Die zweite Ausgabe zeigt den Verlauf der Notizen: Ihr aktueller Status befindet sich in Spalte sieben (NEEDS_MORE_RATINGS), und der erste Status, den sie zuvor erhalten hat und der nicht NEEDS_MORE_RATINGS war, befindet sich in Spalte fünf (CURRENTLY_RATED_HELPFUL). Wir können also sehen, dass der Algorithmus selbst die Notiz zuerst angezeigt und dann entfernt hat, nachdem ihre Bewertung leicht gesunken ist – es scheint also kein zentraler Eingriff dabei gewesen zu sein.
Wir können dieses Problem auch aus einer anderen Perspektive betrachten, indem wir uns die Abstimmung selbst ansehen. Wir können die Datei „Bewertungen-00000.tsv“ scannen, um alle Bewertungen für diese Notizen zu isolieren und zu sehen, wie viele als „HELPFUL“ und „NICHT HILFREICH“ bewertet wurden:

Wenn Sie sie jedoch nach Zeitstempel sortieren und sich die ersten 50 Stimmen ansehen, werden Sie feststellen, dass es 40 HILFREICHE Stimmen und 9 NICHT_HELPFUL-Stimmen gibt. Wir kommen also zu dem gleichen Schluss: Das anfängliche Publikum von Notes bewertete Notes positiver, während die nachfolgenden Zielgruppen von Notes es weniger positiv bewerteten, sodass die Bewertungen zunächst höher waren und mit der Zeit sanken.
Leider ist es schwer zu erklären, wie sich der Status von Notes genau geändert hat: Es geht nicht einfach darum: „Früher wurde es über 0,40 bewertet, jetzt liegt es unter 0,40, also wurde es entfernt.“ Stattdessen löst eine große Anzahl von NOT_HELPFUL-Antworten eine der Ausnahmebedingungen aus und erhöht die Nützlichkeitsbewertung, die Notes benötigt, um über dem Schwellenwert zu bleiben.
Dies ist eine weitere großartige Lernmöglichkeit, die uns eine Lektion erteilt: Um einen vertrauenswürdigen neutralen Algorithmus wirklich vertrauenswürdig zu machen, muss er einfach gehalten werden. Wenn eine Notiz von „Angenommen“ zu „Nicht angenommen“ wechselt, sollte es eine einfache und klare Erklärung dafür geben, warum dies der Fall ist.
Natürlich gibt es eine ganz andere Möglichkeit, diese Abstimmung zu manipulieren: Brigading. Jemand, der Notizen sieht, die er ablehnt, kann eine äußerst engagierte Community (oder, schlimmer noch, eine Legion gefälschter Konten) dazu aufrufen, sie als NICHT_HILFREICHEN zu bewerten, und es sind möglicherweise nicht allzu viele Stimmen erforderlich, um Notizen von „Nützlich“ zu „Extrem“ zu verschieben. Es sind weitere Analysen und Arbeiten erforderlich, um die Anfälligkeit des Algorithmus für solche koordinierten Angriffe angemessen zu verringern. Eine mögliche Verbesserung wäre, keinem Benutzer die Möglichkeit zu geben, über Notizen abzustimmen, sondern Notizen stattdessen nach dem Zufallsprinzip den Bewertern zuzuweisen, wie vom „Für Sie“-Algorithmus empfohlen, und den Bewertern nur zu erlauben, die Notizen zu bewerten, denen sie zugewiesen wurden.
Sind Community Notes nicht „mutig“ genug?
Der Hauptkritikpunkt, den ich an Community Notes sehe, ist grundsätzlich, dass es nicht genug leistet. Ich habe kürzlich zwei Artikel gesehen, in denen dies erwähnt wurde. Um einen der Artikel zu zitieren:
Das Programm leidet unter einer schwerwiegenden Einschränkung: Damit Community Notes öffentlich werden, müssen sie von einem Konsens aller Menschen aus dem gesamten politischen Spektrum allgemein akzeptiert werden.
„Es muss einen ideologischen Konsens geben“, sagte er. „Das bedeutet, dass die Leute auf der linken Seite und die Leute auf der rechten Seite zustimmen müssen, dass die Notiz dem Tweet beigefügt werden muss.“
Im Wesentlichen, sagte er, erfordere es „eine ideologische Einigung über die Wahrheit, die in einem zunehmend parteiischen Umfeld kaum zu erreichen ist“.
Das ist eine schwierige Frage, aber letztendlich bin ich der Meinung, dass es besser ist, zehn Tweets mit Fehlinformationen frei zu verbreiten, als einen Tweet mit unfairen Anmerkungen zu versehen. Wir haben jahrelange Faktenprüfungen erlebt, und es ist mutig, und zwar aus der Perspektive: „Eigentlich kennen wir die Wahrheit, wir wissen, dass eine Seite häufiger lügt als die andere.“ Was wird das Ergebnis sein?

Ehrlich gesagt herrscht ein ziemlich weit verbreitetes Misstrauen gegenüber dem Konzept der Faktenprüfung. Hier ist eine Strategie, die besagt: Ignorieren Sie die Kritiker, denken Sie daran, dass Faktenprüfer die Fakten wirklich besser kennen als jedes Wahlsystem, und bleiben Sie dabei. Es scheint jedoch riskant, bei diesem Ansatz alles zu tun. Es ist sinnvoll, stammesübergreifende Institutionen aufzubauen, die von allen zumindest bis zu einem gewissen Grad respektiert werden. Wie William Blackstones Maxime und die Gerichte bin ich der Meinung, dass die Wahrung dieses Respekts ein System erfordert, das Fehler eher durch Unterlassungen als durch proaktives Handeln macht. Daher scheint es mir sinnvoll zu sein, dass mindestens eine große Organisation diesen anderen Weg einschlägt und ihren seltenen stammesübergreifenden Respekt als wertvolle Ressource betrachtet.
Ein weiterer Grund, warum ich denke, dass es in Ordnung ist, dass Community Notes konservativ sind, besteht darin, dass ich nicht der Meinung bin, dass jeder Fehlinformations-Tweet, und selbst die meisten Fehlinformations-Tweets, eine korrigierende Anmerkung erhalten sollten. Auch wenn weniger als ein Prozent der Falschinformations-Tweets Anmerkungen enthalten, die Kontext oder Korrekturen liefern, stellen Community Notes dennoch einen äußerst wertvollen Dienst als Lehrmittel dar. Das Ziel besteht nicht darin, alles zu korrigieren; das Ziel besteht vielmehr darin, die Leute daran zu erinnern, dass es mehrere Standpunkte gibt, dass einige Beiträge, die für sich genommen überzeugend und fesselnd erscheinen, eigentlich völlig falsch sind und dass man, ja, normalerweise eine einfache Internetsuche durchführen kann um zu überprüfen, ob es falsch ist.
Community Notes können kein Allheilmittel für alle Probleme der öffentlichen Erkenntnistheorie sein und sollen es auch nicht sein. Welche Probleme es auch nicht löst, es gibt jede Menge Raum für andere Mechanismen, um es zu füllen, sei es ein neumodisches Gerät wie ein Prognosemarkt oder eine etablierte Organisation, die Vollzeitmitarbeiter mit Fachkenntnissen beschäftigt und versuchen kann, die Lücken zu schließen.
abschließend
Community Notes ist nicht nur ein faszinierendes Social-Media-Experiment, sondern auch ein Beispiel für eine faszinierende neue Art von Mechanismusdesign: Mechanismen, die bewusst versuchen, Extreme zu identifizieren und dazu neigen, Grenzüberschreitungen zu fördern, anstatt Spaltungen aufrechtzuerhalten.
Zwei weitere Beispiele in dieser Kategorie, die mir bekannt sind, sind: (i) der paarweise sekundäre Finanzierungsmechanismus, der in Gitcoin Grants verwendet wird, und (ii) Polis, ein Diskussionstool, das Clustering-Algorithmen verwendet, um der Community dabei zu helfen, gemeinsame populäre Aussagen verschiedener Menschen zu identifizieren die oft unterschiedliche Ansichten haben. Dieser Bereich des Mechanismusdesigns ist wertvoll und ich hoffe, dass wir in diesem Bereich weitere wissenschaftliche Arbeiten sehen.
Die algorithmische Transparenz, die Community Notes bietet, ist nicht genau die gleiche wie bei vollständig dezentralisierten sozialen Medien. Wenn Sie mit der Funktionsweise von Community Notes nicht einverstanden sind, gibt es keine Möglichkeit, denselben Inhalt über einen anderen Algorithmus anzuzeigen. Dies ist jedoch das Beste, was Hyperscale-Anwendungen in den nächsten Jahren erreichen werden, und wir können sehen, dass dies bereits einen großen Mehrwert bietet, sowohl bei der Verhinderung zentralisierter Manipulationen als auch bei der Sicherstellung, dass Plattformen, die sich nicht an solchen Manipulationen beteiligen, die ihnen zustehende Anerkennung erhalten .
Ich freue mich darauf, die Entwicklung und das Wachstum von Community Notes und vielen ähnlichen Algorithmen im Laufe des nächsten Jahrzehnts zu beobachten.
