原文:Sharding dei dati di sicurezza variabile —— polynya
Traduttore: Evelyn|W3.Hitchhiker
Disclaimer: Tutto qui è un pensiero puramente speculativo, ci sono molte semplificazioni eccessive, niente di tutto questo dovrebbe essere preso sul serio, spero solo che ci sia qualche spunto di riflessione.
La bella idea di Danksharding è questa: solo il costruttore (che è comunque un'onesta ipotesi di minoranza) dovrà gestire l'hardware costoso. Nel tempo, i rollup raggiungono milioni di TPS a costi minimi per validatori, utenti e tutti gli altri. Il problema è che ci vorrà del tempo per dimostrare questa visione ambiziosa. Potrebbero volerci dai 2 ai 5 anni, a seconda di chi chiedo, ovviamente. Anche se il settore delle criptovalute ha sempre sofferto di estremi errori di pianificazione, le cose stanno decisamente migliorando, ma mi rifiuto di fidarmi di qualsiasi tabella di marcia finché non avrò visto un prototipo completamente funzionante.
EIP-4844 rappresenta un enorme miglioramento e credo che sarà più che sufficiente per tutte le applicazioni e le transazioni di valore che richiedono elevata sicurezza per il prossimo futuro e consente ai rollup di espandersi di 100 volte sull'attività corrente ~ 1000 volte. Tuttavia, ci saranno diverse categorie di applicazioni affamate di dati che potrebbero richiedere "milioni di TPS" senza richiedere un'elevata sicurezza.
Allo stesso tempo è chiaro che gli sviluppatori non intendono aspettare il danksharding completo. Oggi, dei 15 principali progetti di L2Beat, 7 non sono rollup, ma validium e catene ottimistiche che utilizzano livelli di disponibilità dei dati esterni. (Qui presumo che tu abbia familiarità con queste strutture e sappia perché sono ancora migliori delle sidechain ecc.) StarkEx (6 validium ora!), Arbitrum e Metis hanno già livelli di disponibilità dei dati esterni mentre StarkNet, zkSync, Polygon e altre società lo sono; costruendo livelli di disponibilità dei dati interni, per non parlare di artisti del calibro di EigenDA o Celestia. Queste soluzioni ibride non richiedono né EIP-4844 né un danksharding completo per mantenere basse le commissioni di transazione e, soprattutto, sono già disponibili.
Un modo è lasciare loro fare le loro cose e gli utenti sceglieranno l'opzione validium meno sicura se ne avranno bisogno (ma comunque più alta di alt-L1s). La magia di Volitions è che gli utenti possono scegliere in base alla transazione o all'utente.
Ma un altro approccio è: come possiamo migliorare il livello di disponibilità dei dati esterni?
Sebbene questo sia lungi dall'essere un campione rappresentativo, il 20% dei validatori di Ethereum oggi supera l'intervallo tipico. Nel frattempo, il 45% preferisce avere requisiti di larghezza di banda/traffico molto conservativi. Con EIP-4844 stiamo ottimizzando questo 45%, ma il restante 55% continuerà a funzionare su una larghezza di banda sottoutilizzata. Quindi l'idea è quella di utilizzare questa larghezza di banda gratuita aggiungendo un semplice condivisione dei dati, in cui il set di validatori verrà suddiviso. Non so nulla di ingegneria, ma prendo in parola Dankrad che è "banale".
Con EIP-4844 abbiamo un nuovo livello di disponibilità dei dati. Lo chiamo data shard numero 0 (DS0). DS0 è obbligatorio e garantito dal set completo di validatori Ethereum.
Qui possiamo avere più frammenti di dati (S1, DS2... ecc.) che possono aderire ai validatori. Pertanto, il 30% dei suddetti gruppi da 2 TB a 10 TB può eseguire 2 o 3 frammenti di dati. Quindi, mentre DS0 è garantito al 100% dal set di validatori Ethereum, DS1 è al 55%, DS2 è al 50% e così via. Ora che abbiamo in funzione quei validatori iper-specifici (che apparentemente pensavano erroneamente di essere validatori Solana) che si sentono a proprio agio con più di 20 TB di traffico o 100 Mbps+ di larghezza di banda, quel 20% è anche in grado di eseguire più shard. Pertanto, il tuo ultimo frammento di dati (DS16) fornisce solo il 10% della sicurezza di Ethereum. Naturalmente lo faccio sembrare casuale, ma a seconda di come è strutturato il comitato Beacon Chain, potrebbero esserci delle divisioni chiare. Ma il nocciolo della questione è che DS0 è dotato di sicurezza al 100% (quindi tutti i rollup saranno HRE). DS1 è sicuro al 50%, DS10 è sicuro al 25%, DS16 è sicuro al 10% e così via, per un nuovo tipo di costruzione, si trova tra il rollup completo (DS0 / sicuro al 100%) e la catena di validità/ottimistica.
In realtà, poiché vediamo molti validium e livelli di dati arrivare online, la sicurezza richiesta per ogni applicazione, utente e caso d’uso è uno spettro. Non tutto deve essere garantito da centinaia di miliardi di dollari in sicurezza economica.
Ma il fatto è che, se assumiamo che il 30% dell'offerta di ETH sia vincolata, anche il DS16 di "sicurezza minima" è ancora supportato da 5 miliardi di dollari in sicurezza economica anche in questo mercato ribassista, e questo è ancora l'intervallo di sicurezza di livello alt-L1 più alto. . È inoltre importante ricordare che questo perimetro di sicurezza riguarda solo la disponibilità dei dati. Le prove di validità e le prove di frode vengono comunque verificate con sicurezza al 100%! Quindi anche un mezzo rollup/mezzo validium di un DS16 ha una sicurezza significativamente migliore rispetto a un alt-L1 di livello superiore.
Questo potrebbe comunque rappresentare un miglioramento significativo rispetto all'opzione del livello dati esterno. A dire il vero, le transazioni finanziarie di alto valore sceglieranno di essere regolate su DS0, ma alcuni NFT di medio valore potrebbero richiedere solo DS8 e, per le applicazioni di gioco a valore zero, anche DS16 potrebbe essere ridondante. Come accennato in precedenza, in ambito volontario, ciascuna applicazione può scegliere il livello di sicurezza richiesto in base alle proprie circostanze.
E gli utenti di rollup? Devono solo eseguire i frammenti di dati ad essi associati, quindi i requisiti di sistema non saranno diversi da EIP-4844. Questo è il motivo per cui, anche se ci sono compromessi sulla sicurezza, non ci sono compromessi sul decentramento relativi a EIP-4844. (A meno che non si tratti di un gigarollup distribuito su più frammenti di dati, ma è qualcosa di cui gli utenti saranno ben consapevoli)
Per essere chiari, non mi aspetto che succedano queste cose, queste sono solo le divagazioni di un blogger amatoriale pazzo e non tecnico. Il percorso di minor resistenza è arrivare all’EIP-4844 nel 2023 e, una volta saturato in pochi anni, i casi d’uso affamati di dati si diffonderanno a molti livelli di dati esterni e i dati saranno tutti altamente mercificati e arricchiti. Alla fine, nel corso degli anni, danksharding è arrivato online ed è diventato la soluzione migliore. Ma forse qualcuno leggerà questo e troverà un'idea migliore per colmare l'enorme divario tra 4844 e lo sharding completo...
