Jak zrozumieć przemyślenia nowego artykułu @VitalikButerin na temat ekspansji Ethereum? Niektórzy mówią, że zamówienie Vitalika na Blob Inscription jest oburzające.
Jak więc działają pakiety blob? Dlaczego przestrzeń typu blob nie jest efektywnie wykorzystywana po aktualizacji w Cancun? Próbkowanie dostępności danych DAS w ramach przygotowań do fragmentowania?
Moim zdaniem wydajność Cancun po aktualizacji będzie przydatna, a Vitalik martwi się rozwojem Rollupa. Dlaczego? Następnie opowiem o moim rozumieniu:
1) Jak wyjaśniono wiele razy wcześniej, Blob to tymczasowy pakiet danych, który jest oddzielony od danych wywołań EVM i może być bezpośrednio wywoływany przez warstwę konsensusu.Bezpośrednią korzyścią jest to, że EVM nie musi uzyskiwać dostępu do danych Blob podczas wykonywania transakcji, więc nie może generować wyższe wskaźniki wykonania.opłata za obliczenie warstwy.
Obecnie równoważonych jest wiele czynników. Rozmiar obiektu Blob wynosi 128 tys. Transakcja wsadowa do sieci głównej może przenosić maksymalnie dwa obiekty Blob. W idealnym przypadku ostatecznym celem głównego bloku sieciowego jest przenoszenie około 128 pakietów obiektów Blob o rozmiarze 16 MB .
Dlatego zespół projektu Rollup musi w jak największym stopniu zrównoważyć takie czynniki, jak liczba bloków obiektów Blob, pojemność transakcji TPS i koszty przechowywania głównego węzła sieci obiektu Blob, mając na celu wykorzystanie przestrzeni obiektów Blob przy optymalnej wydajności kosztowej.
Biorąc za przykład @Optimism, obecnie odbywa się średnio około 500 000 transakcji dziennie co 2 minuty do sieci głównej, przenosząc jednocześnie 1 pakiet danych Blob. Po co przynosić jeden? Ponieważ jest tak wiele TPS, że nie można ich użyć. Oczywiście można też nosić dwa. Wtedy pojemność każdego obiektu blob nie będzie pełna, ale zwiększy to koszt przechowywania, co jest niepotrzebne.
Co zrobić, gdy wzrasta wolumen transakcji poza łańcuchem Rollup, np. dziennie przetwarzanych jest 50 milionów transakcji? 1. Kompresja kompresuje wolumen transakcji każdej partii i pozwala na jak największą liczbę transakcji w przestrzeni Blob; 2. Zwiększa liczbę obiektów Blob; 3. Skraca częstotliwość transakcji wsadowych;
2) Ponieważ na ilość danych przesyłanych przez główny blok sieci wpływa limit gazu i koszt przechowywania, stanem idealnym jest 128 obiektów Blob na blok gniazda. Obecnie nie używamy tak dużej liczby obiektów Optymizm to dla warstwy 2 Strona projektowa ma jeszcze dużo miejsca na poprawę TPS i zwiększenie liczby użytkowników rynku oraz dobrobytu ekologicznego.
Dlatego też przez pewien czas po aktualizacji w Cancun pakiet zbiorczy nie charakteryzował się „zmiennością” pod względem liczby i częstotliwości używanych obiektów BLOB, a także wykorzystania licytacji przestrzeni BLOB.
Powodem, dla którego Vitalik wspomniał o napisach Blob, jest to, że tego typu napisy mogą tymczasowo zwiększyć wolumen transakcji, co doprowadzi do wzrostu zapotrzebowania na wykorzystanie Blobów, a tym samym zwiększenie rozmiaru. Użycie napisów jako przykładu może zapewnić głębsze zrozumienie mechanizm działania Blobów. Co tak naprawdę Vitalik chce wyrazić, a napisy To nie ma większego znaczenia.
Ponieważ teoretycznie, jeśli istnieje strona projektu warstwy 2, która wykonuje transakcje wsadowe z dużą częstotliwością i dużą wydajnością do sieci głównej i za każdym razem wypełnia blok Blob, o ile jest gotowa ponieść wysokie koszty sfałszowanej transakcji partiami, wpłynie to na zainteresowanie innych warstw 2 Blobami. Normalne użycie, ale w obecnej sytuacji, tak jak ktoś kupuje moc obliczeniową, aby przeprowadzić 51% atak typu hard fork na BTC, jest to teoretycznie wykonalne, ale w praktyce brakuje motywacji do zysku.
Celem wprowadzenia Bloba jest odciążenie EVM oraz poprawa możliwości operacyjno-utrzymaniowych węzłów, co niewątpliwie jest rozwiązaniem szytym na miarę dla Rollupa. Oczywiście nie jest on obecnie wykorzystywany efektywnie i opłata za gaz za drugą warstwę przez długi czas będzie stabilna w „dolnym” przedziale. Zapewni to rynkowi warstwy 2 długoterminowe złote okno rozwoju na „zwiększanie liczby żołnierzy i gromadzenie żywności”.
3) A co jeśli pewnego dnia rynek warstwy 2 rozkwitnie do pewnego stopnia, a liczba transakcji z Batcha do sieci głównej będzie każdego dnia osiągać ogromną ilość, a obecne pakiety danych Blob nie wystarczą? Etherum dostarczyło już rozwiązanie: wykorzystując technologię próbkowania dostępności danych (DAS):
Proste zrozumienie jest takie, że dane, które pierwotnie miały być przechowywane w jednym węźle, mogą być dystrybuowane w wielu węzłach jednocześnie. Na przykład każdy węzeł przechowuje 1/8 wszystkich danych obiektu Blob, a 8 węzłów tworzy grupę spełniającą te wymagania Możliwości DA odpowiadające aktualnej pojemności Blob Storage zostały zwiększone 8-krotnie. To właśnie zrobi Sharding w przyszłym etapie Shardingu.
Ale teraz Vitalik powtarzał to wiele razy, w bardzo uroczy sposób, i wydaje się ostrzegać większość uczestników projektu warstwy 2: nie zawsze narzekaj na drogie możliwości DA Ethereum. Przy obecnej wydajności TPS nie rozwinąłeś możliwości Pakiety danych typu Blob do granic możliwości. Pospiesz się i zwiększ pojemność. Wykorzystaj siłę ognia, aby rozwijać ekologię, zwiększać liczbę użytkowników i wolumen transakcji, i nie myśl o ucieczce DA, aby zaangażować się w publikowanie łańcuchowe jednym kliknięciem.
Później Vitalik dodał, że spośród obecnych core rollupów jedynie Arbitum osiągnął etap 1. Chociaż @DeGateDex, Fuel itp. osiągnęły etap 2, nie były jeszcze znane szerszej społeczności. Etap 2 jest ostatecznym celem bezpieczeństwa rollupów Bardzo niewiele rollupów osiągnęło Etap 1, a większość rollupów znajduje się w Etapie 0. Można zauważyć, że rozwój branży rollupów naprawdę niepokoi Vitalika.
4) W rzeczywistości, jeśli chodzi o problem wąskiego gardła w ekspansji, nadal jest dużo miejsca na rozwiązanie warstwy zbiorczej 2 w celu poprawy wydajności.
1. Efektywniej korzystaj z przestrzeni Blob poprzez kompresję danych. OP-Rollup ma obecnie dedykowany komponent Compressor do wykonywania tej pracy. Własna kompresja poza łańcuchem SNARK/STARK firmy ZK-Rollup udowadnia, że przesyłanie do sieci głównej powoduje „kompresję”;
2. Zmniejsz w jak największym stopniu zależność warstwy 2 od sieci głównej i używaj wyłącznie technologii optymistycznego dowodu, aby zapewnić bezpieczeństwo warstwy L2 w szczególnych okolicznościach. Na przykład większość danych Plazmy znajduje się w łańcuchu, ale wpłaty i wypłaty odbywają się w sieci głównej. aby Mainnet mógł obiecać swoje bezpieczeństwo.
Oznacza to, że w warstwie 2 należy uwzględniać jedynie ważne operacje, takie jak wpłaty i wypłaty, które są silnie powiązane z siecią główną, co nie tylko zmniejsza obciążenie sieci głównej, ale także poprawia wydajność L2. Wspomniana wcześniej funkcja „przetwarzania równoległego” Sequencera, gdy mowa o równoległym EVM, umożliwia filtrowanie, klasyfikowanie i wstępne przetwarzanie dużej liczby transakcji poza łańcuchem, a także hybrydowe gromadzenie danych promowane przez @MetisL2. Normalne transakcje przechodzą przez OP-Rollup , specjalne prośby o wypłatę przechodzą przez ZK Route itp. itd. wszystkie mają podobne względy.
to wszystko
Należy powiedzieć, że artykuł Vitalika dotyczący przyszłego planu ekspansji Ethereum jest bardzo pouczający. W szczególności był niezadowolony z obecnego stanu rozwoju warstwy 2, optymistycznie oceniał przestrzeń wydajności obiektów Blob i nie mógł się doczekać przyszłej technologii shardingu. Wskazał nawet pewne wskazówki dotyczące optymalizacji warstwy 2 itp.
Tak naprawdę jedyną niewiadomą pozostaje teraz sama warstwa 2, jak przyspieszyć rozwój?
