Napisał: Hakeen

1. Mapa drogowa aktualizacji Ethereum M2SVPS

Połączenie

W fazie łączenia mechanizm konsensusu POW zostanie przekształcony w POS, a łańcuchy sygnałów nawigacyjnych zostaną połączone. Dla ułatwienia zrozumienia upraszczamy strukturę Ethereum do poniższego rysunku:

Najpierw zdefiniujmy, czym jest sharding: proste zrozumienie to proces poziomego dzielenia bazy danych w celu rozłożenia obciążenia.

Po przejściu na POS: proponujący bloki i walidatorzy bloków zostają rozdzieleni, a przepływ pracy w POS wygląda następująco (rozumiany na podstawie powyższego rysunku):

Transakcje są zatwierdzane na Rollup Validatorzy dodają transakcje do bloków shardów Łańcuch Beacon wybiera walidatorów, którzy proponują nowe bloki Pozostali walidatorzy tworzą losowe komitety i weryfikują propozycje na shardach

Zarówno zaproponowanie bloku, jak i udowodnienie propozycji należy ukończyć w ciągu jednego przedziału czasu, zwykle 12 sekund. Każde 32 przedziały tworzą cykl epoki, a każda epoka zakłóci sortowanie walidatora i ponownie wybierze komisję.

Po fuzji Ethereum wdroży separację proponującego i budującego (PBS) dla warstwy konsensusu. Vitalik wierzy, że ostatecznym rozwiązaniem dla wszystkich łańcuchów bloków będzie scentralizowana produkcja bloków i zdecentralizowana weryfikacja bloków. Ponieważ podzielone dane blokowe Ethereum są bardzo gęste, centralizacja produkcji bloków jest konieczna ze względu na wysokie wymagania dotyczące dostępności danych. Jednocześnie musi istnieć sposób na utrzymanie zdecentralizowanego zestawu walidatorów, którzy mogą sprawdzać poprawność bloków i przeprowadzać próbkowanie dostępności danych.

Weryfikacja górników i bloków jest oddzielona. Górnicy konstruują bloki, a następnie przesyłają je do walidatorów. Walidatorzy ubiegają się o wybranie własnych bloków, a następnie walidatorzy głosują, aby zdecydować, czy blok jest ważny.

Sharding to metoda partycjonowania, która umożliwia dystrybucję zadań obliczeniowych i obciążeń związanych z pamięcią masową w sieci P2P. Po zastosowaniu tej metody przetwarzania każdy węzeł nie musi być odpowiedzialny za przetwarzanie obciążenia transakcyjnego w całej sieci, a jedynie musi przechowywać informacje związane z nim. wystarczy informacja o partycji (lub fragmentowaniu). Każdy fragment ma własną sieć walidatorów lub węzłów.

Kwestie bezpieczeństwa związane z shardingiem: Na przykład, jeśli cała sieć ma 10 łańcuchów fragmentów, zniszczenie całej sieci wymaga 51% mocy obliczeniowej, wówczas zniszczenie pojedynczego fragmentu wymaga tylko 5,1% mocy obliczeniowej. Dlatego wśród kolejnych ulepszeń znalazł się algorytm SSF, który może skutecznie zapobiegać atakom wykorzystującym 51% mocy obliczeniowej. Według podsumowania Vitalika przejście na SSF to wieloletni plan działania. Nawet jeśli obecnie wykonano wiele pracy, będzie to jedna z głównych zmian wprowadzonych później w Ethereum i będzie daleko w tyle za mechanizmem sprawdzającym PoS Ethereum, shardingiem i shardingiem. Drzewo Verkle. Po pełnym wdrożeniu.

Łańcuch beaconów odpowiada za generowanie liczb losowych, przypisywanie węzłów do shardów, przechwytywanie migawek poszczególnych shardów i inne różnorodne funkcje. Jest odpowiedzialny za realizację komunikacji pomiędzy shardami i koordynację synchronizacji sieci.

Etapy wykonania łańcucha sygnałów nawigacyjnych są następujące:

Producent bloku zatwierdza nagłówek bloku wraz z ofertą. Bloker (weryfikator) w łańcuchu beaconów wybiera zwycięski nagłówek bloku i ofertę, a opłatę za zwycięską ofertę otrzyma bezwarunkowo niezależnie od tego, czy osoba pakująca blok ostatecznie wygeneruje treść bloku. Komisja (wybrana losowo spośród walidatorów) głosuje za zatwierdzeniem otrzymanego nagłówka bloku. Osoba pakująca blok ujawnia korpus bloku.

Fala

Głównym celem tej trasy jest zapewnienie skalowania zorientowanego na pakiety zbiorcze. Surge odnosi się do dodania Ethereum shardingu, skalowalnego rozwiązania, które według Fundacji Ethereum jeszcze bardziej umożliwi utworzenie drugiej warstwy blockchain z niskimi opłatami za gaz, obniży koszty transakcji zbiorczych lub pakietowych oraz ułatwi użytkownikom obsługę węzłów, które zabezpieczają sieci Ethereum.

Schemat można nadal zrozumieć za pomocą następującego uproszczonego diagramu:

Weźmy na przykład zasadę działania zkrollup: zkrollup jest podzielony na sekwencer i agregator. Sekwencer odpowiada za sortowanie transakcji użytkowników, pakowanie ich w partie i wysyłanie do agregatora. Agregator wykonuje transakcję, zaczynając od korzenia poprzedniego stanu (korzeń poprzedniego stanu), generując korzeń stanu post (korzeń stanu post), a następnie generując dowód (dowód). Na koniec agregator wysyła korzeń stanu poprzedniego i korzeń stanu post , dane transakcji i dowód do L1. Kontrakt odpowiada za weryfikację ważności certyfikatu, a dane transakcji są przechowywane w calldata. Dostępność danych Zkrollup pozwala każdemu przywrócić globalny status konta na podstawie danych transakcyjnych przechowywanych w sieci.

Jednak koszt korzystania z danych połączeń jest bardzo wysoki, dlatego cały protokół EIP-4844 (który może ulec zmianie w dowolnym momencie) proponuje zmianę rozmiaru bloku transakcyjnego na 1 ~ 2 MB, kładąc solidny fundament pod przyszłe pakiety zbiorcze i fragmentowanie danych . Obecny rozmiar bloku Ethereum wynosi około 60 KB ~ 100 KB. Biorąc za przykład EIP-4844, limit rozmiaru bloku można zwiększyć o 10 ~ 34x. Ten format bloku nazywany jest obiektem typu blob (nazywanym także fragmentem danych).

Plaga

Na tym etapie Scourge stanowi uzupełnienie planu działania i służy głównie do rozwiązywania problemów z MEV. Czym więc jest MEV?

Pełna nazwa MEV to Wartość ekstrakcyjna dla górnika / maksymalna wartość ekstrakcyjna. Koncepcja ta została po raz pierwszy zastosowana w kontekście dowodu pracy i pierwotnie nosiła nazwę „Wartość ekstrakcyjna dla górnika”. Dzieje się tak dlatego, że w przypadku dowodu pracy górnicy opanowują takie możliwości, jak włączanie, wyłączanie i porządkowanie transakcji. Jednakże po przejściu na Proof-of-Stake poprzez połączenie, walidatorzy będą odpowiedzialni za te role, a eksploracja nie będzie już miała zastosowania (przedstawiona tutaj metoda wyodrębniania wartości pozostanie po tym przejściu, stąd potrzeba zmiany nazwy). Aby nadal używać tego samego akronimu i zapewnić ciągłość przy jednoczesnym zachowaniu tego samego podstawowego znaczenia, „maksymalna wartość możliwa do wyodrębnienia” jest obecnie stosowana jako bardziej inkluzywna alternatywa.

Przestrzeń arbitrażowa obejmuje:

Kompresując przestrzeń magazynową, uzyskuje się różnicę w cenie opłat za gaz; Sędzia front-running: Szerokie wyszukiwanie transakcji w pamięci, maszyna wykonuje obliczenia lokalnie, aby sprawdzić, czy będzie to opłacalne, a jeśli tak, inicjuje tę samą transakcję ze swoim własny adres i stosuj wyższe opłaty za gaz; Znajdź cele likwidacyjne: Roboty rywalizują o jak najszybszą analizę danych blockchain, aby określić, których pożyczkobiorców można upłynnić, a następnie jako pierwsi zgłoszą transakcje likwidacyjne i samodzielnie pobiorą opłaty likwidacyjne. Transakcje kanapkowe: Wyszukiwacze monitorują duże transakcje na DEX w pamięci. Na przykład ktoś chce kupić 10 000 UNI za pomocą DAI na Uniswap. Tak duże transakcje miałyby znaczący wpływ na parę UNI/DAI, potencjalnie znacząco zwiększając cenę UNI w stosunku do DAI. Wyszukiwarka może obliczyć przybliżony wpływ cenowy tej dużej transakcji na parę UNI/DAI i wykonać optymalne zlecenie kupna bezpośrednio przed dużą transakcją, aby kupić UNI po niskiej cenie, a następnie wykonać zlecenie sprzedaży natychmiast po dużej transakcji, przy dużym zamówieniu skutkującym wyższą ceną sprzedaży.

Wady MEV:

Niektóre formy MEV, takie jak transakcje typu „sandwich”, mogą skutkować znacznie gorszym doświadczeniem użytkownika. Użytkownicy złapani w środku muszą zmierzyć się z większym poślizgiem i gorszą realizacją transakcji. Na poziomie sieci główni liderzy i aukcje opłat eksploatacyjnych, w których często uczestniczą (kiedy dwóch lub więcej pionierów stopniowo zwiększa opłaty eksploatacyjne w ramach swoich własnych transakcji, tak że ich transakcje są pakowane w następny blok), prowadzą do sieci zatory i wysokie opłaty wydobywcze od innych osób próbujących przeprowadzić normalne transakcje. Oprócz tego, co dzieje się w obrębie bloku, MEV może mieć również szkodliwe skutki między blokami. Jeśli MEV dostępny w bloku znacznie przekracza standardową nagrodę za blok, górnicy mogą zostać zmotywowani do przypominania sobie bloku i przechwytywania MEV dla siebie, co prowadzi do reorganizacji łańcucha bloków i niestabilności konsensusu.

Większość MEV jest wyodrębniana przez niezależnych uczestników sieci, zwanych „poszukiwaczami”. Wyszukiwarki uruchamiają złożone algorytmy na danych blockchain, aby wykryć zyskowne możliwości MEV, a istnieją boty, które automatycznie przesyłają te zyskowne transakcje do sieci. Problem MEV w Ethereum polega na wykorzystaniu botów do wykorzystywania transakcji sieciowych, co powoduje zatory i wysokie opłaty.

Krawędź

Verge wdroży „drzewo Verkle” (dowód matematyczny) i „klienta bezstanowego”. Te ulepszenia techniczne pozwolą użytkownikom zostać weryfikatorami sieci bez konieczności przechowywania dużych ilości danych na swoich komputerach. Jest to również jeden z etapów rozwijania zestawienia Jak wspomniano wcześniej, prosta zasada działania pakietu zbiorczego zk polega na tym, że agregator przesyła dowód, a kontrakt weryfikacyjny w warstwie 1 musi jedynie zweryfikować zobowiązanie KZG w obiekcie blob i wygenerowanym. dowód. Oto krótkie wprowadzenie do zobowiązania KZG, które polega na tym, aby uwzględnić w nim wszystkie transakcje. Ponieważ pakiet zbiorczy może przedstawiać częściowe transakcje i generować dowody, w przypadku użycia KZG wszystkie transakcje zostaną uwzględnione w celu wygenerowania dowodów.

The Verge zapewnia, że ​​weryfikacja jest bardzo prosta. Wystarczy pobrać N bajtów danych i wykonać podstawowe obliczenia, aby zweryfikować dowód dostarczony przez rollup.

Warto wspomnieć, że rollup ZK posiada wiele rozwiązań takich jak stark, snark czy kuloodporny. Każdy schemat ma inne podejście do dowodu i weryfikacji, więc istnieją kompromisy. SNARK są obecnie łatwiejsze w użyciu niż technologia STARK, a technologia jest również bardziej kompletna, dlatego wiele projektów wykorzystuje na początku SNARK, ale wraz z udoskonaleniem technologii STARK ostatecznie zaczną się one skupiać na STARKach odpornych na ataki kwantowe. Chociaż jednym z głównych ulepszeń Ethereum w EIP-4844 w celu dostosowania do rollupu jest blob w formacie transakcji, który zwiększa pojemność bloku, głównym wąskim gardłem wszystkich obecnych dowodów z wiedzą zerową nadal jest jego własny algorytm dowodu z jednej strony można to rozwiązać poprzez ulepszenie algorytmu, z drugiej strony problem dowodu można poprawić poprzez układanie sprzętu w stosy, co również dało początek ścieżce wydobywczej ZK. Zainteresowani mogą przejść do tego artykułu.

Czystka

Purge zmniejszy ilość miejsca potrzebnego do przechowywania ETH na dysku twardym, próbując uprościć protokół Ethereum i wyeliminować potrzebę przechowywania historii przez węzły. Może to znacznie poprawić przepustowość sieci.

EIP-4444:

Klienci muszą zaprzestać udostępniania historycznych nagłówków, treści i odbiorców w warstwie P2P, które są starsze niż rok. Klienci mogą wyczyścić te dane historyczne lokalnie. Zachowanie historii Ethereum ma fundamentalne znaczenie i uważam, że można to osiągnąć na różne sposoby poza pasmem. Dane historyczne można pakować i udostępniać za pośrednictwem łączy magnetycznych lub sieci takich jak IPFS. Dodatkowo do pozyskiwania danych historycznych można wykorzystać systemy takie jak Portal Network czy The Graph. Klient powinien umożliwić import i eksport danych historycznych. Klienci mogą udostępnić skrypty do uzyskiwania/weryfikacji danych i automatycznego ich importowania.

Spluwa

Ta trasa składa się głównie z kilku fragmentarycznych poprawek optymalizacyjnych, takich jak abstrakcja kont, optymalizacja EVM i schemat liczb losowych VDF.

Wspomniana tutaj abstrakcja konta (AA) zawsze była pierwszym celem, który chce osiągnąć warstwa 2 serii ZK. Czym zatem jest abstrakcja konta? Po wdrożeniu abstrakcji konta, konto inteligentnej umowy może również aktywnie inicjować transakcje bez polegania na mechanizmie „metatransakcji” (co zaproponowano w EIP-4844).

W Ethereum konta dzielą się na konta kontraktowe i konta zewnętrzne. Obecnie w Ethereum istnieje tylko jeden rodzaj transakcji, która musi zostać zainicjowana przez adres zewnętrzny. Adresy kontraktowe nie mogą aktywnie inicjować transakcji. Dlatego każda zmiana stanu własnego kontraktu musi opierać się na transakcji inicjowanej przez adres zewnętrzny. Niezależnie od tego, czy jest to konto z wieloma podpisami, mikser walutowy, czy jakakolwiek zmiana konfiguracji inteligentnego kontraktu, musi zostać wywołana przez co najmniej jedno konto zewnętrzne. .

Bez względu na to, jaka aplikacja jest używana w Ethereum, użytkownicy muszą posiadać Ethereum (i ponosić ryzyko wahań cen Ethereum). Po drugie, użytkownicy muszą radzić sobie ze złożoną logiką kosztów, ceną gazu, limitem gazu i blokowaniem transakcji. Pojęcia te są dla użytkowników zbyt skomplikowane. Wiele portfeli lub aplikacji typu blockchain próbuje poprawić wygodę użytkownika poprzez optymalizację produktu, ale z niewielkim skutkiem.

Celem rozwiązania skupionego na koncie jest utworzenie konta dla użytkownika w oparciu o inteligentne zarządzanie kontraktami. Korzyści z wdrożenia abstrakcji kont to:

Obecna umowa może zawierać ETH i bezpośrednio zawierać transakcję ze wszystkimi podpisami. Użytkownik nie musi koniecznie płacić opłat za gaz za transakcję, zależy to całkowicie od projektu. Ze względu na wdrożenie niestandardowej kryptografii w przyszłości stosowanie krzywych eliptycznych ESCDA w podpisach nie będzie obowiązkowe. W przyszłości jako metody składania podpisów będzie można stosować rozpoznawanie odcisków palców w telefonie komórkowym, rozpoznawanie twarzy, biometrię i inne technologie. To znacznie poprawia komfort interakcji użytkownika z Ethereum.

2. Modularyzacja Ethereum

Całe Ethereum obserwuje obecnie trend modularyzacji, a warstwa wykonawcza odpowiada za Warstwę 2 (taką jak arbitrum, zksync, starknet, wielokąt zkevm itp.). Są odpowiedzialni za realizację transakcji użytkowników na L2 i przesyłanie dowodów. Warstwa 2 generalnie wykorzystuje technologię OP/technologię ZK Teoretycznie TPS technologii ZK jest znacznie wyższy niż OP. Obecnie duża liczba ekosystemów znajduje się w systemie OP, ale w przyszłości nastąpi ulepszenie technologii ZK coraz więcej aplikacji będzie migrowanych do działu ZK. W tej sekcji znajduje się szczegółowy opis planu działania uzupełniony o powód i sposób.

Obecnie Ethereum oddziela jedynie warstwę wykonawczą, w rzeczywistości inne warstwy są nadal ze sobą mieszane. W wizji Celestii warstwa wykonawcza robi tylko dwie rzeczy: w przypadku pojedynczej transakcji wykonuje transakcję i następuje zmiana stanu dla transakcji w tej samej partii, oblicza pierwiastek stanu partii. Część bieżącej pracy warstwy wykonawczej Ethereum jest przypisana do Rollup, znanego jako StarkNet, zkSync, Arbitrum i Optimism.

Teraz optymizm, wielokąt, starknet, zksync itp. eksplorują ścieżkę modułowości.

Optymizm zaproponował stos podstawowy/operacyjny, Polygon opracowuje również wielokąt dostępny jako warstwę dostępności danych, a supersieci służą do uproszczenia tworzenia łańcuchów i udostępniania zestawów walidatorów.

Warstwa rozliczeniowa: Można ją rozumieć jako proces weryfikacji ważności roota przed stanem, roota po stanie, dowodu (zkRollup) lub dowodu oszustwa (Optimistic Rollup) wspomnianego powyżej przez kontrakt Rollup w głównym łańcuchu. Warstwa konsensusu: Niezależnie od tego, czy używany jest PoW, PoS czy inne algorytmy konsensusu, warstwa konsensusu ma na celu osiągnięcie konsensusu w sprawie czegoś w systemie rozproszonym, to znaczy osiągnięcie konsensusu w sprawie ważności przejścia stanu (korzeń przed stanem to obliczony i przekonwertowany na pierwiastek po stanie). W kontekście modułowości warstwa osadnicza i warstwa konsensusu mają nieco podobne znaczenie, dlatego niektórzy badacze ujednolicają warstwę osadniczą i warstwę konsensusową. Warstwa dostępności danych: upewnij się, że dane transakcji zostały w całości przesłane do warstwy dostępności danych, a węzeł weryfikacji może odtworzyć wszystkie zmiany stanu za pośrednictwem danych w tej warstwie.

Należy tu rozróżnić różnicę pomiędzy dostępnością danych a ich przechowywaniem:

Dostępność danych wyraźnie różni się od przechowywania danych, przy czym to pierwsze skupia się na dostępności danych opublikowanych w najnowszym bloku, podczas gdy drugie polega na bezpiecznym przechowywaniu danych i zapewnieniu dostępu do nich w razie potrzeby.

1. Różne Rollupy na warstwie osadniczej

Z punktu widzenia warstwy osadniczej obecnie uważa się, że w centrum uwagi rollup znajduje się seria ZK. Jeśli rollup systemu ZK zostanie zastosowany w celu poprawy rozmiaru, zużycia gazu i kosztu systemu proof ZK oraz w połączeniu z przetwarzaniem rekursyjnym i równoległym, jego TPS można znacznie rozszerzyć. Zacznijmy więc od rollupu ZK.

Wraz z rozwojem ekspansji Ethereum, technologia Zero Knowledge Proof (ZKP) jest uważana przez Vitalika za rozwiązanie, które ma być ostatecznym wynikiem bitwy o ekspansję.

Istotą ZKP jest umożliwienie komuś udowodnienia, że ​​coś wie lub posiada. Mogę na przykład udowodnić, że mam klucz do drzwi, bez konieczności jego wyjmowania. Technologia ta, udowadniająca, że ​​znasz hasło do konta bez konieczności jego wprowadzania i narażenia na ryzyko ujawnienia, ma wpływ na prywatność osobistą, szyfrowanie, działalność gospodarczą, a nawet rozbrojenie nuklearne. Zyskaj głębsze zrozumienie dzięki zmodyfikowanej wersji Problemu milionera Yao: Problem ten dotyczy dwóch milionerów, Alicji i Boba, którzy chcą wiedzieć, który z nich jest bogatszy, bez ujawniania swojego faktycznego bogactwa.

Zakładając, że czynsz za mieszkanie wynosi 1000 dolarów miesięcznie, aby kwalifikować się jako wynajem, trzeba zapłacić co najmniej 40-krotność miesięcznego czynszu. Następnie my (najemcy) musimy udowodnić, że nasz roczny dochód przekracza 40 000 USD. Ale wynajmujący nie chciał, żebyśmy znaleźli luki prawne, więc zdecydował się nie publikować konkretnego czynszu. Jego celem było sprawdzenie, czy spełniamy standardy, a odpowiedź brzmiała tylko, czy spełniamy te standardy, czy nie, i nie odpowiedzialny za konkretną kwotę.

Obecnie dostępnych jest dziesięć pudełek oznaczonych wartością od 10 do 100 tys. dolarów w odstępach co 10 tys. dolarów. Każdy ma klucz i szczelinę. Właściciel wszedł do pokoju ze skrzynką i zniszczył 9 kluczy, zabierając klucz ze skrzynki oznaczonej 40 tys. dolarów.

Roczne wynagrodzenie najemcy sięga 75 000 dolarów. Agent bankowy nadzoruje wydanie dokumentu potwierdzającego majątek. Istotą tego dokumentu jest zestawienie aktywów banku w celu sprawdzenia dokumentu roszczenia. Następnie umieszczamy plik w koszu 10k~70k. Następnie właściciel domu otwiera skrzynkę kluczem 40 tys., a kiedy widzi w środku możliwy do zweryfikowania dokument roszczenia, stwierdza, że ​​najemca spełnia kryteria.

Dotyczy to zarówno zgłaszającego (banku) wystawiającego certyfikat zgodności majątku, jak i weryfikatora (właściciela domu) weryfikującego kwalifikacje najemcy za pomocą klucza. Jeszcze raz podkreśla się, że istnieją tylko dwie możliwości weryfikacji wyników – kwalifikowana lub niekwalifikowana i nie wymaga i nie może wymagać określonej wielkości majątku najemcy.

Nadal możemy używać poniższego rysunku jako zrozumienia. Transakcje są wykonywane w warstwie 2, a transakcje są przesyłane na fragmentach. Warstwa 2 ogólnie przyjmuje formę podsumowania, co oznacza, że ​​wiele transakcji jest pakowanych w partię w warstwie 2 w celu przetworzenia transakcji, a następnie przesyłanych do inteligentnego kontraktu zbiorczego warstwy 1. Zawiera stary i nowy stan główny. Kontrakt w warstwie 1 sprawdzi, czy oba elementy główne stanu są zgodne. Jeśli są zgodne, stary stan główny w głównym łańcuchu zostanie zastąpiony nowym stanem głównym. Jak więc sprawdzić, czy stan główny uzyskany po przetwarzaniu wsadowym jest poprawny. Tutaj wyprowadzono optymistyczne zestawienie i zk zestawienie. Do potwierdzania transakcji i weryfikacji stanu głównego wykorzystywana jest odpowiednio technologia oszustwa i technologia ZK.

Warstwa 2 (rollup) jest tu odpowiednikiem zgłaszającego (banku) z powyższego przykładu. Jej operacją pakowania jest operacja deklaracji. Nie deklaruje konkretnej kwoty, ale potwierdza, czy spełniony jest standard. To, co jest pakowane i przesyłane do warstwy 1, to dokument podlegający reklamacji. Podstawą weryfikacji starego i nowego statusu jest to, że wynajmujący za pomocą klucza sprawdza, czy oczekiwana przez niego siła finansowa najemcy spełnia standardy. Problemem weryfikacji stanu głównego jest oświadczenie złożone przez bank. Jak sporządzić oświadczenie, aby problem był wiarygodny.

W oparciu o optymistyczny, czyli odporny na oszustwa pakiet zbiorczy, kontrakt zbiorczy głównego łańcucha rejestruje pełny zapis wewnętrznych zmian stanu głównego pakietu zbiorczego, a także wartość skrótu każdej partii (która wyzwala zmianę głównego stanu). Jeśli ktoś odkryje, że nowy katalog główny stanu odpowiadający określonej partii jest błędny, może opublikować w głównym łańcuchu dowód, że nowy katalog główny stanu wygenerowany przez tę partię jest błędny. Umowa weryfikuje dowód i jeśli weryfikacja przebiegnie pomyślnie, wszystkie transakcje przetwarzania wsadowego po przetworzeniu wsadowym zostaną wycofane.

Metoda weryfikacji w tym przypadku jest równoważna złożeniu przez zgłaszającego (bank) weryfikowalnego dokumentu oświadczenia o stanie majątkowym, a następnie opublikowaniu w sieci wszystkich dokumentów dotyczących majątku, przy czym dane również muszą zostać opublikowane w sieci, a inni kwestionujący dokonają obliczeń na podstawie oryginału dane, aby zobaczyć możliwe do sprawdzenia. Sprawdź, czy w dokumentach majątku nie ma błędów lub fałszerstw. Jeśli są jakieś problemy, złóż skargę. Jeśli wyzwanie zakończy się sukcesem, złożysz reklamację w banku. Najważniejszą kwestią jest tu konieczność przeznaczenia przez pretendenta czasu na zebranie danych i weryfikację autentyczności dokumentu.

W przypadku Rollupu wykorzystującego technologię Zero Knowledge Proof (ZKP), każda partia zawiera dowód kryptograficzny o nazwie ZK-SNARK. Banki wykorzystują technologię dowodu kryptograficznego do generowania dokumentów deklaracji majątkowych. W ten sposób nie ma potrzeby rezerwowania czasu dla pretendentów i dlatego rola pretendenta nie istnieje.

2. Powód, dla którego rollup serii ZK nie jest obecnie tak dobry, jak oczekiwano

Obecnie wydano hermez oparty na wielokątach, uruchomiono także główne sieci Zksync dev i Starknet. Jednakże prędkość ich transakcji wydaje się odbiegać od naszej teorii. W szczególności użytkownicy Starknet mogą wyraźnie odczuć, że prędkość jego sieci głównej jest zaskakująco niska. Powodem jest to, że nadal bardzo trudno jest wygenerować dowody przy użyciu technologii dowodu z zerową wiedzą, koszt jest nadal wysoki, a także istnieje kompromis pomiędzy kompatybilnością Ethereum a wydajnością zkevm. Zespół Polygon przyznał również: „Wersja testnetowa Polygon zkEVM ma również ograniczoną przepustowość, co oznacza, że ​​daleko jej do ostatecznej formy zoptymalizowanej maszyny skalującej”.

3. Warstwa dostępności danych

Abstrakcyjne etapy wykonania Ethereum są następujące:

W procesie decentralizacji Ethereum możemy to zobaczyć również na mapie drogowej The Merge – zdecentralizowane walidatory. Najważniejsze z nich to uświadomienie różnorodności klientów, obniżenie progu wejścia dla maszyn i zwiększenie liczby walidatorów. Dlatego jeśli niektórzy walidatorzy, których maszyny nie spełniają standardów, chcą uczestniczyć w sieci, mogą skorzystać z lekkich klientów. Zasada działania lekkich węzłów polega na żądaniu nagłówków bloków przez pobliskie pełne węzły. Wystarczy pobrać i zweryfikować nagłówki bloków. Jeśli węzły lekkie nie uczestniczą, wszystkie transakcje wymagają weryfikacji od pełnych węzłów, więc pełne węzły muszą pobrać i zweryfikować każdą transakcję w bloku. Jednocześnie wraz ze wzrostem wolumenu transakcji, pełne węzły znajdują się pod coraz większą presją , więc sieć węzłów stopniowo staje się wydajna i scentralizowana.

Problem polega jednak na tym, że złośliwy pełny węzeł może podać brakujący/nieprawidłowy nagłówek bloku, ale lekki węzeł nie może go sfałszować. Istnieją dwa sposoby rozwiązania tego problemu. Pierwszym jest użycie zabezpieczenia przed oszustwami, które wymaga zaufanego pełnego węzła . Monitoruj ważność bloku i skonstruuj dowód oszustwa po wykryciu nieprawidłowego bloku. Jeśli dowód oszustwa nie zostanie odebrany w określonym czasie, zostanie on uznany za ważny nagłówek bloku. Ale tutaj oczywiście potrzebujemy zaufanego pełnego węzła, który wymaga zaufanych ustawień lub uczciwych założeń. Jednak producent bloku może ukryć niektóre transakcje, a dowód oszustwa jest oczywiście nieważny, ponieważ uczciwe węzły również polegają na danych producenta bloku. Jeśli same dane są ukryte, zaufane węzły uważają, że przesłane dane są wystarczające danych, wówczas oczywiście nie zostanie wygenerowany żaden dowód oszustwa.

W artykule, którego współautorami są Mustarfa AI-Bassam i Vitalik, zaproponowano nowe rozwiązanie - kodowanie kasujące. Kody kasowania służą do rozwiązywania problemów z dostępnością danych. Na przykład celestia i wielokąt korzystają z kodów kasowania Reeda-Salomona. Ale jak zapewnić, że przesyłane dane są kompletne, dane można połączyć z zobowiązaniem KZG/odpornością na oszustwa.

W przypadku zobowiązań KZG/odporności na oszustwa może zapewnić, że producent bloku opublikuje kompletne dane bez ukrywania transakcji, a następnie dane zostaną zakodowane poprzez kodowanie kasujące, a następnie poprzez próbkowanie dostępności danych, aby węzły świetlne mogły poprawnie zweryfikować dane.

Dane przesłane przez agregator w Rollupie są przechowywane w łańcuchu w formie calldata, ponieważ dane calldata są tańsze niż inne obszary przechowywania.

Koszt transmisji danych w gazie = Rozmiar transakcji × 16 gazu na bajt

Głównym kosztem każdej transakcji jest koszt transmisji danych, ponieważ przechowywanie w łańcuchu jest niezwykle drogie, a ta część stanowi aż 80% do 95% kosztu zbiorczego.

Z powodu tego problemu zaproponowaliśmy nowy blob formatu transakcji EIP-4844, aby zwiększyć pojemność bloku i zmniejszyć opłatę za gaz wymaganą do przesłania do sieci.

4. Warstwa dostępności danych w łańcuchu i poza łańcuchem

Jak zatem rozwiązać problem drogich danych w łańcuchu? Istnieje kilka metod:

Pierwszym z nich jest kompresja rozmiaru danych połączeń przesyłanych do L1. W tym obszarze wprowadzono wiele optymalizacji. Drugim jest zmniejszenie kosztów przechowywania danych w łańcuchu, zapewnienie „dużych bloków” i większej przestrzeni dostępności danych do rollupu poprzez proto-danksharding i danksharding Ethereum oraz wykorzystanie kodowania kasującego i zaangażowania KZG w celu rozwiązania problemu lekkich węzłów. Takich jak EIP-4844. Trzecim jest udostępnienie danych poza łańcuchem. Typowe rozwiązania dla tej części obejmują korzystanie z celestii/wielokątów itp.

W zależności od miejsca przechowywania dostępności danych dzielimy je na jak pokazano na poniższym rysunku:

Rozwiązanie Validium: odłącz dostępność danych od łańcucha, wówczas dane transakcyjne będą obsługiwane przez scentralizowanych operatorów, a użytkownicy będą potrzebować zaufanych ustawień, ale koszt będzie bardzo niski, ale jednocześnie nie będzie prawie żadnego bezpieczeństwa. Później zarówno starkex, jak i arbitrum nova zaproponowały utworzenie DAC odpowiedzialnego za przechowywanie danych transakcyjnych. Członkowie DAC to osoby lub organizacje, które są dobrze znane i podlegają jurysdykcji prawnej, a założeniem zaufania jest to, że nie będą zmowy i nie czynią zła.

Zkporter proponuje opiekunom (posiadaczom tokena zksync) zobowiązanie się do utrzymania dostępności danych. W przypadku wystąpienia awarii dostępności danych zadeklarowane środki przepadną. Volition umożliwia użytkownikom wybór dostępności danych w łańcuchu/poza łańcuchem oraz wybór pomiędzy bezpieczeństwem a kosztem w zależności od potrzeb.

Wtedy właśnie pojawiają się celestia i wielokąt. Jeśli Validium ma wymagania dotyczące dostępności danych poza łańcuchem, ale boi się niskiej decentralizacji, która może prowadzić do ataków na klucz prywatny podobnych do mostów między łańcuchami, wówczas zdecentralizowane uniwersalne rozwiązanie DA może rozwiązać ten problem. Celestia i Polygon zapewniają validium z rozwiązaniem DA poza łańcuchem, stając się oddzielnym łańcuchem. Jednak poprzez oddzielny łańcuch, chociaż bezpieczeństwo zostanie poprawione, koszt zostanie odpowiednio zwiększony.

Rozbudowa Rollupa składa się właściwie z dwóch części. Jedna dotyczy szybkości realizacji agregatora, a druga wymaga współpracy warstwy dostępności danych. Obecnie agregator jest obsługiwany przez scentralizowany serwer dotrzeć do nieskończoności, wówczas głównym dylematem związanym z ekspansją jest to, że ma na nią wpływ przepustowość danych podstawowego rozwiązania w zakresie dostępności danych. Jeśli pakiet zbiorczy ma zmaksymalizować przepustowość transakcji, kluczowe znaczenie ma maksymalizacja przepustowości przestrzeni danych rozwiązania zapewniającego dostępność danych.

Wracając do początku, użyj zobowiązania KZG lub zabezpieczenia przed oszustwami, aby zapewnić integralność danych i użyj kodowania usuwania, aby rozszerzyć dane transakcji, aby pomóc węzłom świetlnym w przeprowadzaniu próbkowania dostępności danych, co dodatkowo zapewni, że węzły świetlne będą mogły poprawnie zweryfikować dane.

Możesz także zapytać, jak działa zobowiązanie KZG, aby zapewnić integralność swoich danych? Może uda się trochę odpowiedzieć:

KZG Zobowiązanie: Udowodnić, że wartość wielomianu w określonym miejscu jest zgodna z określoną wartością liczbową. Zobowiązanie KZG to nic innego jak rodzaj zobowiązania wielomianowego, które jest w stanie zweryfikować komunikat bez podawania konkretnego komunikatu. Przybliżony proces jest następujący:

Konwertuj dane na wielomiany poprzez kodowanie kasujące i rozwijaj je. Korzystanie z KZG gwarantuje skuteczność naszej ekspansji i aktualność oryginalnych danych. Następnie użyj rozwinięcia, aby zrekonstruować dane i na koniec wykonaj próbkowanie dostępności danych.

Osoba zatwierdzająca generuje zobowiązanie i wiąże je z komunikatem. Wyślij związaną wiadomość do weryfikatora. Schemat komunikacji jest tutaj powiązany z rozmiarem próbki. Weryfikator (weryfikator), wprowadzając wiele wartości do pola skończonego, sprawdza, czy nadal są równe a (jest to proces próbkowania dostępności). Podstawowa zasada jest taka, że ​​im więcej czasów weryfikacji, tym większe prawdopodobieństwo poprawności.

Celestia wymaga od walidatorów pobierania całych bloków, a teraz danksharding wykorzystuje techniki próbkowania dostępności danych.

Ponieważ bloki są częściowo dostępne, w każdym momencie rekonstrukcji bloków musimy zapewnić synchronizację. Kiedy blok staje się częściowo dostępny, węzły komunikują się ze sobą, aby go złożyć w całość.

Porównanie zobowiązania KZG i dowodu na oszustwo dotyczące danych:

Widać, że KZG obiecuje zadbać o poprawność rozwinięcia i danych, a zabezpieczenie przed oszustwem wprowadza do obserwacji osobę trzecią. Najbardziej oczywistą różnicą jest to, że dowody oszustwa wymagają czasu, w którym obserwatorzy mogą zareagować przed zgłoszeniem oszustwa. W tym momencie wymagana jest bezpośrednia synchronizacja węzłów, aby cała sieć mogła na czas otrzymać dowody oszustwa. KZG jest znacznie szybszy niż dowód oszustwa. Wykorzystuje metody matematyczne, aby zapewnić poprawność danych bez konieczności oczekiwania.

Może wykazać, że dane i ich rozszerzenie są prawidłowe. Ponieważ jednak jednowymiarowe zaangażowanie KZG wymaga większych zasobów, Ethereum wybiera dwuwymiarowe zaangażowanie KZG.

Na przykład 100 wierszy × 100 kolumn, czyli 100,00 udziałów. Jednak każda próbka nie stanowi gwarancji jednej na 10 000. Zatem czterokrotne rozwinięcie oznacza, że ​​co najmniej 1/4 całego udziału musi być niedostępna. Dopiero wtedy można narysować niedostępny udział, co oznacza, że ​​jest on naprawdę niedostępny, ponieważ nie można go odzyskać. Tylko wtedy, gdy 1/4 jest niedostępna i nie można jej odzyskać, błąd można naprawdę skutecznie wykryć, więc prawdopodobieństwo jednorazowego losowania wynosi około 1/4. Po przepompowaniu więcej niż dziesięć lub piętnaście razy można osiągnąć 99% gwarancję niezawodności. Teraz wybierz z zakresu 15–20 razy.

5, EIP-4844 (Proto-Danksharding)

W implementacji proto-danksharding wszyscy walidatorzy i użytkownicy muszą nadal bezpośrednio weryfikować dostępność pełnych danych.

Główną funkcją wprowadzoną przez proto-danksharding jest nowy typ transakcji, który nazywamy transakcjami przenoszącymi obiekty blob. Transakcja przenosząca obiekt typu blob jest podobna do zwykłej transakcji, z tą różnicą, że zawiera także dodatkowy fragment danych zwany obiektem typu blob. Obiekty BLOB są bardzo duże (~125 kB) i znacznie tańsze niż podobne ilości danych połączeń. Jednak te obiekty BLOB nie są dostępne z poziomu EVM (istnieją jedynie obietnice dla obiektów BLOB). Obiekty BLOB są przechowywane przez warstwę konsensusu (łańcuch sygnałów nawigacyjnych), a nie warstwę wykonawczą. To właściwie początek stopniowego kształtowania się koncepcji data shardingu.

Ponieważ weryfikatorzy i klienci nadal muszą pobrać pełną zawartość obiektu BLOB, docelowa przepustowość danych w proto-danksharding wynosi 1 MB na gniazdo zamiast pełnych 16 MB. Ponieważ jednak dane te nie konkurują ze zużyciem gazu w istniejących transakcjach Ethereum, nadal można zaobserwować duży wzrost skalowalności.

Chociaż wdrożenie pełnego shardingu (przy użyciu próbkowania dostępności danych itp.) jest zadaniem złożonym i pozostaje złożonym zadaniem po proto-dankshardingu, złożoność ta jest zawarta w warstwie konsensusu. Po wdrożeniu proto-danksharding zespoły klientów wykonawczych, programiści pakietów zbiorczych i użytkownicy nie będą musieli już więcej pracować, aby ukończyć przejście na pełne sharding. Proto-danksharding oddziela również dane obiektów BLOB od danych wywołań, ułatwiając klientom przechowywanie danych obiektów BLOB w krótszym czasie.

Warto zaznaczyć, że cała praca jest zmieniana przez warstwę konsensusu i nie wymaga żadnej dodatkowej pracy ze strony zespołu klienta, użytkowników czy twórców Rollupów.

Zarówno EIP-4488, jak i proto-danksharding powodują długoterminowe maksymalne wykorzystanie około 1 MB na gniazdo (12 sekund). Odpowiada to około 2,5 terabajtom rocznie, znacznie więcej niż tempo wzrostu, jakiego potrzebuje dzisiaj Ethereum.

W przypadku EIP-4488 rozwiązanie tego problemu wymaga propozycji wygaśnięcia historii EIP-4444 (wspomnianej w sekcji planu działania), w której klienci nie są już zobowiązani do przechowywania historii powyżej określonego czasu.

6. Fragmentacja danych

Tutaj wyjaśnię jak najdokładniej z perspektywy początkującego kwestie, które wszyscy dyskutują podczas ekspansji Ethereum. Wróćmy więc do shardingu i jeszcze raz podkreślmy jednostronną koncepcję shardingu: proste zrozumienie to proces poziomego podziału bazy danych w celu rozłożenia obciążenia.

Tutaj bardzo ważnym problemem związanym z naszym fragmentowaniem danych jest to, że w PBS (proponenci i twórcy bloków są oddzieleni, jak wspomniano w planie działania The Merge), w przypadku fragmentowania każda grupa węzłów przetwarza tylko transakcje w ramach fragmentu, które będą stosunkowo niezależne między fragmentami. Jak więc użytkownicy A i B powinni przekazywać sobie nawzajem środki, jeśli znajdują się na różnych fragmentach? W takim razie potrzebujesz dobrych możliwości komunikacji między segmentami.

Stary sposób polegał na podziale warstwy dostępności danych, przy czym każdy fragment miał niezależnych wnioskodawców i komitety. W zestawie walidatorów każdy walidator na zmianę weryfikuje podzielone na fragmenty dane i pobiera wszystkie dane do weryfikacji.

słabość to:

Aby zapewnić walidatorom możliwość synchronizacji w slocie, wymagana jest ścisła technologia synchronizacji. Walidatorzy muszą zebrać głosy ze wszystkich komisji i tutaj również wystąpią opóźnienia. Co więcej, pobieranie wszystkich danych w całości jest również bardzo stresujące dla weryfikatora.

Drugie podejście polega na rezygnacji z pełnej walidacji danych i zamiast tego przyjęciu podejścia polegającego na próbkowaniu dostępności danych (zaimplementowanego później w The Surge). Istnieją dwie metody losowego doboru próby: 1) Próbkowanie losowe blokowe, próbkowanie części danych w wycinkach. Jeżeli weryfikacja przebiegła pomyślnie, weryfikator składa znak. Problem polega jednak na tym, że mogą zdarzyć się przypadki pominięcia transakcji. 2) Reinterpretuj dane na wielomiany poprzez kodowanie kasujące, a następnie wykorzystaj cechy wielomianów do przywrócenia danych w określonych warunkach, aby zapewnić pełną dostępność danych.

Kluczem do „shardingu” jest to, że walidator nie jest odpowiedzialny za pobranie wszystkich danych i dlatego Proto-danksharding nie jest uważany za „sharding” (mimo że w nazwie ma „sharding”). Proto-danksharding wymaga, aby każdy walidator w całości pobrał wszystkie obiekty BLOB typu Shard, aby sprawdzić ich dostępność; Danksharding wprowadzi wówczas próbkowanie, a pojedynczy walidator musi pobrać jedynie fragmenty obiektów BLOB typu Shard.

3. Przyszłość Ethereum: Warstwa 3

Seria ZK Layer 2, uważana za przyszłą ekspansję Ethereum, taka jak zksync i starknet, zaproponowała koncepcję warstwy 3. Prostym zrozumieniem jest warstwa 2 warstwy 2.

Wysokie koszty transakcji na Ethereum sprawiają, że (L3) staje się warstwą rozliczeniową dla L2. Uważa się, że w najbliższej przyszłości, ze względu na znacznie niższe koszty transakcyjne, rosnące wsparcie dla narzędzi DeFi i zwiększoną płynność zapewnianą przez L2, użytkownicy końcowi będą prowadzić większość swoich działań na L2, a warstwą rozliczeniową stopniowo stanie się Ethereum.

L2 poprawia skalowalność poprzez zmniejszenie kosztów gazu na transakcję i zwiększenie stawek transakcyjnych. Jednocześnie L2 zachowuje zalety decentralizacji, uniwersalnej logiki i komponowalności. Jednak niektóre aplikacje wymagają specyficznych dostosowań, które mogą być lepiej obsługiwane przez nową niezależną warstwę: L3!

L3 jest powiązany z L2, tak jak L2 jest powiązany z L1. Tak długo, jak L2 może obsługiwać inteligentne kontrakty Verifier, L3 można wdrożyć przy użyciu dowodów ważności. Kiedy L2 wykorzystuje również dowody ważności przesłane do L1, tak jak robi to StarkNet, staje się to bardzo elegancką strukturą rekurencyjną, w której zalety kompresji dowodów L2 są mnożone przez zalety kompresji dowodów L3. Teoretycznie, gdyby każda warstwa osiągnęła, powiedzmy, 1000-krotną redukcję kosztów, wówczas warstwa L3 mogłaby być 1 000 000 razy tańsza niż warstwa L1 – przy jednoczesnym zachowaniu bezpieczeństwa warstwy L1. Jest to również prawdziwy przypadek użycia dowodów rekurencyjnych, z których Starknet jest dumny.

Potrzebna jest tu część wiedzy na temat „warstwy dostępności danych w łańcuchu i poza łańcuchem”. Cała warstwa 3 obejmuje:

Rollup (dostępność danych w łańcuchu), ważność (dostępność danych poza łańcuchem). Obydwa typy odpowiadają różnym wymaganiom aplikacji. Firmy Web2, które są wrażliwe na cenę i dane, mogą używać Validium do umieszczania danych poza łańcuchem, co znacznie zmniejsza koszty gazu w łańcuchu i może zapewnić prywatność bez ujawniania danych użytkownika, umożliwiając firmom pełną kontrolę nad swoimi danymi przy użyciu niestandardowych formatów danych. poprzednie modele biznesowe dotyczące danych korporacyjnych mogą nadal działać sprawnie.

L2 służy do rozszerzeń, a L3 do funkcji niestandardowych, takich jak prywatność.

W tej wizji nie ma mowy o zapewnieniu „skalowalności kwadratowej”; zamiast tego na stosie znajduje się jedna warstwa, która pomaga skalować aplikacje, a następnie warstwy są rozdzielane w oparciu o niestandardowe wymagania funkcjonalne dla różnych przypadków użycia.

L2 jest przeznaczony do rozszerzeń ogólnych, a L3 do rozszerzeń niestandardowych.

Niestandardowe rozszerzenia mogą mieć różne formy: wyspecjalizowane aplikacje, które do obliczeń używają czegoś innego niż EVM, pakiety zbiorcze, których kompresja danych jest zoptymalizowana dla formatu danych specyficznego dla aplikacji (w tym oddzielanie „danych” od „dowodów” i całkowite zastąpienie dowodu pojedynczy SNARK na blok) itp.

L2 służy do rozwijania bez zaufania (rollup), a L3 służy do rozszerzania słabego zaufania (validium).

Validium to system, który wykorzystuje SNARK do weryfikacji obliczeń, ale pozostawia dostępność danych zaufanej stronie trzeciej lub komisji. Moim zdaniem Validium jest mocno niedoceniane: w szczególności wiele aplikacji typu „korporacyjny łańcuch bloków” może w rzeczywistości najlepiej obsługiwać scentralizowany serwer, na którym działa narzędzie Validium i regularnie przesyła skróty do łańcucha. Validium jest mniej bezpieczne niż rollup, ale może być znacznie tańsze.

Dla programistów dApp istnieje kilka opcji dotyczących infrastruktury:

Opracuj samodzielnie Rollup (Rollupy ZK lub Rollupy Optymistyczne)

Zaletą jest to, że możesz odziedziczyć ekosystem Ethereum (użytkownicy) i jego bezpieczeństwo, ale dla zespołu dApp koszt rozwoju Rollupu jest oczywiście zbyt wysoki.

Wybierz Kosmos, Polkadot lub Lawinę

Koszt rozwoju będzie niższy (np. dydx wybrał Cosmos), ale stracisz ekosystem Ethereum (użytkowników) i bezpieczeństwo.

Opracuj własny łańcuch bloków warstwy 1

Koszt rozwoju i trudności z nim związane są bardzo wysokie, ale może mieć najwyższą kontrolę.

Porównajmy trzy sytuacje:

Stopień trudności/koszt: Alt-warstwa 1 > Rollup > Cosmos Bezpieczeństwo: Rollup > Cosmos > Alt-layer 1 Ekologia / Użytkownicy: Rollup > Cosmos > Alt-layer 1 Sterowanie: Alt-warstwa 1 > Cosmos > Rollup

Jako programista dApp, jeśli chcesz odziedziczyć bezpieczeństwo i ruch Ethereum, nie możesz ponownie rozwijać sieci, a możesz wybrać jedynie pakiet zbiorczy. Jednakże samodzielne opracowanie pakietu zbiorczego warstwy 2 jest bardzo kosztowne, dlatego właściwym rozwiązaniem staje się użycie pakietu SDK warstwy 3 do opracowania pakietu zbiorczego specyficznego dla aplikacji (rollup specyficznego dla aplikacji), czyli warstwy 3.

4. Przyszły rozwój Warstwy 2

Ponieważ Ethereum zostało zaprojektowane w oparciu o model konta, wszyscy użytkownicy znajdują się w całym drzewie stanów, więc nie można zastosować równoległości. Dlatego też okowy samego Ethereum wymagają od niego oddzielenia operacji wykonawczych i połączenia wielu transakcji podsumowujących w jedną. Transakcja istnieje jako. warstwę osadniczą. Wszystkie problemy skupiają się teraz na poprawie przepustowości warstwy 2. Użycie warstwy 3 może nie tylko poprawić przepustowość transakcji, ale także wdrożenie przetwarzania równoległego w warstwie 2 może również znacznie poprawić przepustowość całej sieci.

Starknet aktywnie bada również kwestię równoległości. Chociaż obecny algorytm sprawdzający nadal stanowi wyzwanie, nie oczekuje się, że będzie stanowić przeszkodę w przyszłości. Potencjalne wąskie gardła obejmują:

Obsługa sortowania tx: Niektóre zadania sortowania wydają się być z natury seryjne. Przepustowość: Połączenia między wieloma sekwencerami będą ograniczone. Rozmiar stanu L2

Członkowie społeczności Starknet również zwrócili uwagę, że metoda równoległego przetwarzania aptos jest bardzo dobra. Ze swojej strony Starknet obecnie rozwija także możliwość sortowania równoległego TX w ramach sortownika.

5. Podsumowanie

Ethereum usuwa warstwę wykonawczą i przesuwa wszystko w kierunku swojej wizji „globalnej” warstwy rozliczeniowej. Chociaż całe Ethereum rozwija się obecnie powoli, dzieje się tak dlatego, że jako całość jest zbyt duże, a każda aktualizacja wiąże się z wieloma interesami i kompromisami. Nie można jednak zaprzeczyć, że Ethereum przechodzi poważne zmiany w zakresie dużej liczby działań w łańcuchu, ulepszeń mechanizmów ekonomicznych i skalowalności Ethereum 2.0. Prowadzi innowacyjne ICO, Defi, NFT i wiele innych rzeczy godnych ekscytacji podekscytowania społeczności Ethereum. Wierzę, że w miarę jak coraz więcej krajów wdraża węzły Ethereum, na przykład rząd stolicy Argentyny planuje wdrożyć węzły weryfikacyjne Ethereum w 2023 r., Ethereum naprawdę będzie w stanie zrealizować swoją wielką wizję w najbliższej przyszłości.