原文: Dzielenie się na fragmenty danych o zmiennym bezpieczeństwie —— Polynya
Tłumacz: Evelyn|W3.Autostopowicz
Zastrzeżenie: wszystko tutaj jest myśleniem czysto spekulatywnym, jest wiele nadmiernych uproszczeń, żadnego z nich nie należy traktować poważnie, mam tylko nadzieję, że jest trochę do myślenia.
Piękny pomysł Danksharding jest taki: tylko konstruktor (co i tak jest uczciwym założeniem mniejszości) będzie musiał uruchomić drogi sprzęt. Z biegiem czasu pakiety zbiorcze skalują się do milionów TPS przy bardzo minimalnych kosztach dla walidatorów, użytkowników i wszystkich innych osób. Problem w tym, że urzeczywistnienie tej ambitnej wizji zajmie trochę czasu. Może to być od 2 do 5 lat, oczywiście w zależności od tego, kogo zapytam. Chociaż przestrzeń kryptograficzna zawsze cierpiała z powodu skrajnego błędu planowania, sytuacja zdecydowanie się poprawia, ale nie ufam też żadnemu planowi działania, dopóki nie zobaczę pojawienia się w pełni funkcjonalnego prototypu.
EIP-4844 to ogromna poprawa i uważam, że będzie więcej niż wystarczający dla wszystkich aplikacji i cennych transakcji wymagających wysokiego bezpieczeństwa w dającej się przewidzieć przyszłości i umożliwia rozszerzenie rollupów 100x w stosunku do bieżącej aktywności ~ 1000 razy. Istnieją jednak różne kategorie aplikacji wymagających dużej ilości danych, które mogą wymagać „milionów TPS” bez konieczności zapewnienia wysokiego bezpieczeństwa.
Jednocześnie widać, że twórcy nie zamierzają czekać na pełny danksharding. Obecnie spośród 15 najlepszych projektów L2Beat 7 to nie pakiety zbiorcze, ale walidacje i optymistyczne łańcuchy wykorzystujące zewnętrzne warstwy dostępności danych. (Zakładam, że znasz te struktury i wiesz, dlaczego są one wciąż lepsze niż sidechainy itp.) StarkEx (teraz 6 walidacji!), Arbitrum i Metis mają już zewnętrzne warstwy dostępności danych, podczas gdy StarkNet, zkSync, Polygon i inne firmy już tak budowanie wewnętrznych warstw dostępności danych, nie wspominając o takich jak EigenDA czy Celestia. Te rozwiązania hybrydowe nie wymagają ani protokołu EIP-4844, ani pełnego dankshardingu, aby utrzymać opłaty transakcyjne na niskim poziomie, a co najważniejsze, już są dostępne.
Jednym ze sposobów jest pozwolenie im na robienie swoich rzeczy, a użytkownicy wybiorą mniej bezpieczną opcję sprawdzania poprawności, jeśli jej potrzebują (ale wciąż wyższą niż alt-L1). Magia Volitions polega na tym, że użytkownicy mogą wybierać w zależności od transakcji lub użytkownika.
Ale inne podejście jest następujące: Jak możemy ulepszyć warstwę dostępności danych zewnętrznych?
Chociaż nie jest to reprezentatywna próba, obecnie 20% walidatorów Ethereum przekracza typowy zakres. Tymczasem 45% woli mieć bardzo konserwatywne wymagania dotyczące przepustowości/ruchu. W przypadku EIP-4844 optymalizujemy te 45%, ale pozostałe 55% będzie nadal działać na niewykorzystanej przepustowości. Pomysł polega więc na wykorzystaniu tej wolnej przepustowości poprzez dodanie prostego fragmentowania danych, podczas którego zestaw walidatorów zostanie podzielony. Nie mam zielonego pojęcia o inżynierii, ale wierzę na słowo Dankradowi, że jest to „trywialne”.
Dzięki EIP-4844 mamy nową warstwę dostępności danych. Nazywam to fragmentem danych numer 0 (DS0). DS0 jest obowiązkowy i gwarantowany przez pełny zestaw walidatorów Ethereum.
Tutaj możemy mieć więcej fragmentów danych (S1, DS2... itd.), które mogą wyrazić zgodę od walidatorów. Dlatego 30% z powyższego obozu od 2 TB do 10 TB może obsługiwać 2 lub 3 fragmenty danych. Tak więc, podczas gdy DS0 jest gwarantowane w 100% przez zestaw walidatora Ethereum, DS1 to 55%, DS2 to 50% i tak dalej. Teraz, gdy mamy już uruchomionych weryfikatorów Hyper-Spec (którzy najwyraźniej błędnie myśleli, że są to weryfikatorzy Solany), którzy czują się komfortowo przy ruchu powyżej 20 TB lub przepustowości powyżej 100 Mb/s, te 20% jest również w stanie obsłużyć więcej fragmentów. Zatem Twój ostatni fragment danych (DS16) zapewnia tylko 10% bezpieczeństwa Ethereum. Oczywiście mówię to niedbale, ale w zależności od struktury komitetu Beacon Chain mogą istnieć pewne wyraźne podziały. Ale sedno jest takie, że DS0 zapewnia 100% bezpieczeństwa (więc wszystkie pakiety zbiorcze będą HRE). DS1 jest w 50% bezpieczny, DS10 jest w 25% bezpieczny, DS16 jest w 10% bezpieczny i tak dalej, w przypadku nowego typu konstrukcji, jest on pomiędzy pełnym pakietem (DS0 / 100% bezpieczny) a łańcuchem ważności/optymizmu.
W rzeczywistości, ponieważ w Internecie pojawia się wiele walidacji i warstw danych, bezpieczeństwo wymagane dla każdej aplikacji, użytkownika i przypadku użycia to spektrum. Nie wszystko musi być gwarantowane setkami miliardów dolarów bezpieczeństwa gospodarczego.
Rzecz jednak w tym, że jeśli założymy, że stawką jest 30% podaży ETH, nawet przy „minimalnym bezpieczeństwie” DS16 jest nadal wspierany przez bezpieczeństwo ekonomiczne w wysokości 5 miliardów dolarów, nawet przy bessie, i to wciąż jest najwyższy zakres bezpieczeństwa na poziomie alt-L1 . Należy również pamiętać, że ten obszar zabezpieczeń dotyczy wyłącznie dostępności danych. Dowody ważności i dowody oszustwa są nadal weryfikowane ze 100% bezpieczeństwem! Zatem nawet pół-rollup/pół-validium DS16 ma znacznie lepsze bezpieczeństwo niż najwyższej klasy alt-L1.
Może to nadal stanowić znaczną poprawę w porównaniu z opcją zewnętrznej warstwy danych. Oczywiście transakcje finansowe o dużej wartości będą rozliczane na DS0, ale niektóre transakcje NFT o średniej wartości mogą wymagać jedynie DS8, a w przypadku gier o zerowej wartości nawet DS16 może być zbędny. Jak wspomniano powyżej, w przypadku ustawienia dobrowolnego każda aplikacja może wybrać wymagany poziom bezpieczeństwa w oparciu o własne okoliczności.
A co z użytkownikami rollupów? Muszą jedynie uruchomić powiązane z nimi fragmenty danych, więc wymagania systemowe nie będą się różnić od wymagań EIP-4844. Dlatego nawet jeśli istnieją kompromisy w zakresie bezpieczeństwa, nie ma kompromisów w zakresie decentralizacji w porównaniu z EIP-4844. (Chyba że jest to gigarollup rozliczany na wielu fragmentach danych – ale jest to coś, o czym użytkownicy będą doskonale wiedzieć)
Żeby było jasne, nie spodziewam się, że takie rzeczy się wydarzą, to tylko bełkot szalonego, nietechnicznego blogera-amatora. Ścieżką najmniejszego oporu będzie osiągnięcie EIP-4844 w 2023 r., a po jego nasyceniu w ciągu kilku lat przypadki użycia wymagające dużych ilości danych rozprzestrzenią się na wiele zewnętrznych warstw danych, a wszystkie dane zostaną w dużym stopniu utowarowione i wzbogacone. W końcu, z biegiem lat, danksharding pojawił się w Internecie i stał się najlepszym rozwiązaniem. Ale może ktoś to przeczyta i znajdzie lepszy pomysł na wypełnienie ogromnej luki między 4844 a pełnym shardingiem…
