Wie sind die Gedanken des neuen Artikels von @VitalikButerin zur Expansion von Ethereum zu verstehen? Manche Leute sagen, dass Vitaliks Auftrag für die Blob-Inschrift unverschämt ist.
Wie funktionieren Blob-Pakete? Warum wird der Blob-Speicherplatz nach dem Upgrade in Cancun nicht effizient genutzt? DAS-Datenverfügbarkeitsstichprobe zur Vorbereitung auf das Sharding?
Meiner Meinung nach ist die Leistung von Cancun nach dem Upgrade nutzbar, und Vitalik ist besorgt über die Entwicklung von Rollup. Warum? Lassen Sie mich als Nächstes über mein Verständnis sprechen:

1) Wie bereits mehrfach erläutert, handelt es sich bei Blob um ein temporäres Datenpaket, das von den EVM-Aufrufdaten entkoppelt ist und direkt von der Konsensschicht aufgerufen werden kann. Der direkte Vorteil besteht darin, dass EVM bei der Ausführung von Transaktionen nicht auf Blob-Daten zugreifen muss und dies daher nicht möglich ist führen zu höheren Ausführungsraten. Schichtberechnungsgebühr.

Derzeit sind eine Reihe von Faktoren ausgeglichen. Eine Batch-Transaktion zum Hauptnetzwerk kann bis zu zwei Blobs übertragen. Idealerweise besteht das Ziel darin, etwa 128 Blob-Pakete zu übertragen .

Daher muss das Rollup-Projektteam Faktoren wie die Anzahl der Blob-Blöcke, die TPS-Transaktionskapazität und die Speicherkosten des Blob-Hauptnetzwerkknotens so gut wie möglich ausbalancieren, mit dem Ziel, den Blob-Speicherplatz mit der optimalen Kostenleistung zu nutzen.

Am Beispiel von @Optimism gibt es derzeit etwa 500.000 Transaktionen pro Tag. Im Durchschnitt wird alle 2 Minuten eine Transaktion an das Hauptnetzwerk gesendet, die jeweils ein Blob-Datenpaket überträgt. Warum eins mitbringen? Da es nur eine begrenzte Anzahl von TPSs gibt, die nicht verwendet werden können, ist die Kapazität jedes Blobs nicht voll, aber dies erhöht die Speicherkosten, was unnötig ist.

Was sollen wir tun, wenn das Transaktionsvolumen außerhalb der Rollup-Kette zunimmt, beispielsweise 50 Millionen Transaktionen täglich verarbeitet werden? 1. Komprimieren komprimiert das Transaktionsvolumen jedes Batches und ermöglicht so viele Transaktionen wie möglich im Blob-Bereich. 2. Erhöht die Anzahl der Blobs. 3. Verkürzt die Häufigkeit von Batch-Transaktionen.

2) Da die vom Hauptnetzwerkblock übertragene Datenmenge durch das Gaslimit und die Speicherkosten beeinflusst wird, sind 128 Blobs pro Slot-Block ein idealer Zustand. Derzeit verwenden wir nicht so viele Blobs alle 2 Minuten es für Schicht2 Es gibt noch viel Raum für die Projektseite, um TPS zu verbessern und die Anzahl der Marktnutzer und den ökologischen Wohlstand zu erhöhen.

Daher war Rollup für einen Zeitraum nach dem Cancun-Upgrade hinsichtlich der Anzahl und Häufigkeit der verwendeten Blobs sowie der Verwendung von Blob-Platz-Geboten nicht „volatil“.

Der Grund, warum Vitalik Blobscription-Inschriften erwähnte, liegt darin, dass diese Art von Inschriften das Transaktionsvolumen vorübergehend erhöhen kann, was zu einem Anstieg der Nachfrage nach Blob-Nutzung führen wird, sodass die Verwendung von Inschriften als Beispiel ein tieferes Verständnis dafür liefern kann Arbeitsmechanismus von Blobs. Was Vitalik wirklich ausdrücken möchte, und die Inschriften spielen keine Rolle.

Denn theoretisch gibt es eine Layer-2-Projektpartei, die Batch-Transaktionen mit hoher Frequenz und hoher Kapazität an das Hauptnetzwerk durchführt und den Blob-Block jedes Mal auffüllt, solange sie bereit ist, die hohen Kosten gefälschter Transaktionen zu tragen Batches wirken sich auf das Interesse anderer Layer2 an Blobs aus. In der aktuellen Situation ist dies jedoch theoretisch machbar, genau wie bei jemandem, der Rechenleistung kauft, um einen 51-prozentigen Hard-Fork-Angriff auf BTC durchzuführen, aber in der Praxis fehlt es an Gewinnmotivation.

Der Zweck der Einführung von Blob besteht darin, die Belastung von EVM zu verringern und die Betriebs- und Wartungsfunktionen von Knoten zu verbessern. Dies ist zweifellos eine maßgeschneiderte Lösung für Rollup. Offensichtlich wird es derzeit nicht effizient genutzt und der Gaspreis für die zweite Schicht wird noch lange stabil im „unteren“ Bereich bleiben. Dies wird dem Layer-2-Markt ein langfristiges goldenes Entwicklungsfenster geben, um „Truppen zu vergrößern und Nahrung zu sammeln“.

3) Was also, wenn der Layer-2-Markt eines Tages bis zu einem gewissen Grad floriert und die Anzahl der Transaktionen von Batch zum Hauptnetzwerk jeden Tag eine riesige Menge erreicht und die aktuellen Blob-Datenpakete nicht ausreichen? Ethereum hat bereits eine Lösung bereitgestellt: mithilfe der Data Availability Sampling-Technologie (DAS):

Ein einfaches Verständnis besteht darin, dass die Daten, die ursprünglich in einem Knoten gespeichert werden müssen, gleichzeitig auf mehrere Knoten verteilt werden können. Beispielsweise speichert jeder Knoten 1/8 aller Blob-Daten und 8 Knoten bilden eine Gruppe, um die Anforderungen zu erfüllen DA-Fähigkeit, die der aktuellen entspricht. Die Blob-Speicherkapazität wurde um das Achtfache erweitert. Dies ist tatsächlich das, was Sharding in der zukünftigen Sharding-Phase tun wird.

Aber jetzt hat Vitalik dies oft und sehr charmant wiederholt und scheint die Mehrheit der Layer2-Projektparteien zu warnen: Beschweren Sie sich nicht immer über die teuren DA-Funktionen von Ethereum. Mit Ihrer aktuellen TPS-Kapazität haben Sie die Fähigkeiten von nicht entwickelt Beeilen Sie sich und erhöhen Sie die Kapazität, um das Ökosystem zu entwickeln, die Benutzer und das Transaktionsvolumen zu erweitern, und denken Sie nicht immer daran, dass DA davonläuft und sich auf die Veröffentlichung in der One-Click-Kette einlässt.

Später fügte Vitalik hinzu, dass von den aktuellen Kern-Rollups nur Arbitum Stufe 1 erreicht habe. Obwohl @DeGateDex, Fuel usw. Stufe 2 erreicht haben, seien sie der breiteren Community noch nicht bekannt. Stufe 2 ist das ultimative Ziel der Rollup-Sicherheit. Nur sehr wenige Rollups haben Stufe 1 erreicht, und die meisten Rollups befinden sich in Stufe 0. Es ist ersichtlich, dass die Entwicklung der Rollup-Branche Vitalik wirklich beunruhigt.

4) Tatsächlich gibt es im Hinblick auf das Problem des Erweiterungsengpasses noch viel Spielraum für die Rollup-Layer-2-Lösung, um die Leistung zu verbessern.

1. Nutzen Sie den Blob-Speicherplatz effizienter durch Datenkomprimierung. Zur Durchführung dieser Arbeit verfügt OP-Rollup derzeit über eine eigene Off-Chain-Komprimierung. SNARK/STARK beweist, dass die Übermittlung an das Hauptnetzwerk „komprimiert“ ist.

2. Reduzieren Sie die Abhängigkeit von Layer2 vom Hauptnetzwerk so weit wie möglich und verwenden Sie nur unter besonderen Umständen optimistische Proof-Technologie, um die L2-Sicherheit sicherzustellen. Beispielsweise befinden sich die meisten Daten von Plasma in der Kette, Ein- und Auszahlungen erfolgen jedoch im Hauptnetzwerk. Daher kann Mainnet seine Sicherheit versprechen.

Dies bedeutet, dass Schicht 2 nur wichtige Vorgänge wie Ein- und Auszahlungen berücksichtigen sollte, die stark mit dem Hauptnetzwerk verbunden sind, was nicht nur die Belastung des Hauptnetzwerks verringert, sondern auch die eigene Leistung von L2 verbessert. Die „Parallelverarbeitung“-Fähigkeit von Sequencer, die bereits erwähnt wurde, wenn es um paralleles EVM geht, kann eine große Anzahl von Transaktionen außerhalb der Kette filtern, klassifizieren und vorverarbeiten, ebenso wie das von @MetisL2 geförderte Hybrid-Rollup. Normale Transaktionen laufen über OP-Rollup , spezielle Auszahlungsanfragen laufen über ZK Route usw. usw. Alle haben ähnliche Überlegungen.

das ist alles

Es sollte gesagt werden, dass Vitaliks Artikel über den zukünftigen Expansionsplan von Ethereum sehr aufschlussreich ist. Insbesondere war er mit dem aktuellen Entwicklungsstand von Layer 2 unzufrieden, optimistisch hinsichtlich des Leistungsraums von Blobs und freute sich auf die zukünftige Sharding-Technologie. Er wies sogar auf einige Richtungen für Layer 2 hin, die optimiert werden sollten usw.

Tatsächlich bleibt die einzige Unsicherheit jetzt bei Layer2 selbst. Wie kann die Entwicklung beschleunigt werden?