Hatte ein interessantes Gespräch mit meinen juristischen Freunden über "glaubwürdige Neutralität"
Hier ist die Wendung: "maximal zensurresistent und glaubwürdig neutral zu sein" könnte die am wenigsten neutrale Haltung sein
Warum?
Indem man die Zensurresistenz priorisiert, nimmt man eine starke politische Haltung ein, die individuelle Souveränität über gemeinsame Moral stellt
Betrachten Sie dies: Stellen Sie sich unwiderlegbare Beweise vor, dass der Eigentümer einer bestimmten Adresse schreckliche Taten wie Menschenhandel begeht
Verbannen Sie ihre Adresse oder nicht?
Nicht zu zensieren ist eine extreme Position im Kompromiss zwischen individuellen Rechten und kollektiver Ethik
Einige könnten argumentieren, dass es in Richtung moralischen Relativismus tendiert - indem man sie nicht verbietet, wird suggeriert, dass es kein absolutes Richtig oder Falsch gibt
Ich bin nicht ganz von dieser Ansicht überzeugt, aber sie bietet eine faszinierende Perspektive auf glaubwürdige Neutralität
Wer hat die beste Datenplattform für tiefgehende L2-Analysen?
Ich suche nach - Kostenstruktur der Transaktionen (Basis/Prio-Aufteilung) über Zeit und Perioden - Gebührenvolatilität - Median/Durchschnittsgebühr nach Transaktionsart (Tausch/Übertragungen)
Diese Woche lese ich die Whitepapers für Schwarmstil- / dezentrale KI-Trainingsprotokolle und bin erstaunt über das, was nicht darin enthalten ist: Determinismus.
GPU-Inferenz ist berüchtigt unzuverlässig - winzige FP32-Neuordnungen, Atomiken in Faltungsschichten, Tensor-Core-Abwärtskonvertierungen, Multi-Stream-Rennen - all das summiert sich zu unterschiedlichen Logits beim "gleichen" Vorwärtsdurchlauf. Die Literatur ist voller Umgehungslösungen (cuDNN-deterministische Modi, Ticket-Lock-Kernel, gefrorene Engine-Bauten), doch nichts davon findet sich in den glänzenden DTrain-Papieren.
Warum sollte es einen interessieren? Wenn jeder Peer in einem Mesh leicht unterschiedliche Gradienten ausspuckt, viel Glück beim Erreichen eines On-Chain-Konsenses oder beim Nachweisen eines ehrlichen Beitrags. Die Verifizierungskosten explodieren, Logikbrüche werden durchtrennt und der ganze Slogan "vertrauensminimiertes Training" beginnt sich mehr wie ein Ideal als wie eine Umsetzung anzufühlen.
Also, Crypto-ML Twitter: Wer geht tatsächlich das Problem der Nicht-Determinismus in einem verteilten, adversarialen Umfeld an? Gibt es irgendwelche Papiere / Blogs, die ich lesen sollte? Analogie zu anderen Konsensschichten? Links bitte unten ablegen.
habe gerade einen großartigen Tag in Stanford verbracht
Die Hälfte der Zeit habe ich einen Vortrag über Intersubjektivität gehalten, die andere Hälfte habe ich mit Leuten gesprochen, die sich über Krypto austauschen
Grüße an @0xfishylosopher für den Aufbau einer soliden Krypto-Szene für Studenten und den Wettbewerb mit KI
alle sind begeistert, neugierig und voller Leidenschaft
fühle mich super optimistisch über die Zukunft von Stanford Krypto!
- Gesetzgebung für Stablecoins im Senat verabschiedet - SEC-Taskforce leistet großartige Arbeit - Solana kündigt neues Konsensprotokoll an - Coinbase kämpft darum, Circle von Ripple fernzuhalten