Comment comprendre les réflexions du nouvel article de @VitalikButerin sur l’expansion d’Ethereum ? Certaines personnes disent que la commande de Vitalik pour Blob Inscription est scandaleuse.
Alors, comment fonctionnent les paquets blob ? Pourquoi l’espace blob n’est-il pas utilisé efficacement après la mise à niveau à Cancun ? Échantillonnage de la disponibilité des données DAS en vue du partitionnement ?
À mon avis, les performances de Cancun sont utilisables après la mise à niveau, et Vitalik s'inquiète du développement de Rollup. Pourquoi? Ensuite, permettez-moi de parler de ma compréhension :
1) Comme expliqué à plusieurs reprises précédemment, Blob est un package de données temporaire qui est découplé des données d'appel EVM et peut être directement appelé par la couche de consensus. L'avantage direct est qu'EVM n'a pas besoin d'accéder aux données Blob lors de l'exécution de transactions, il ne peut donc pas produire des taux d'exécution plus élevés.frais de calcul de couche.
Actuellement, une série de facteurs sont équilibrés. La taille d'un Blob est de 128 Ko. Une transaction par lots vers le réseau principal peut transporter jusqu'à deux Blobs. Idéalement, l'objectif ultime d'un bloc de réseau principal est de transporter environ 128 paquets Blob de 16 Mo. .
Par conséquent, l'équipe du projet Rollup doit équilibrer autant que possible des facteurs tels que le nombre de blocs Blob, la capacité de transaction TPS et les coûts de stockage des nœuds du réseau principal Blob, dans le but d'utiliser l'espace Blob avec un rapport coût-performance optimal.
En prenant @Optimism comme exemple, il y a actuellement environ 500 000 transactions par jour. En moyenne, une transaction est envoyée par lots sur le réseau principal toutes les 2 minutes, transportant 1 paquet de données Blob à la fois. Pourquoi en apporter un ? Parce qu'il n'y a qu'un nombre limité de TPS qui ne peuvent pas être utilisés. Bien sûr, vous pouvez également en transporter deux. La capacité de chaque blob ne sera pas pleine, mais cela augmentera le coût de stockage, ce qui est inutile.
Que devons-nous faire lorsque le volume de transactions hors de la chaîne Rollup augmente, par exemple lorsque 50 millions de transactions sont traitées chaque jour ? 1. Compresser compresse le volume de transactions de chaque lot et autorise autant de transactions que possible dans l'espace Blob ; 2. Augmente le nombre de Blobs ; 3. Raccourcit la fréquence des transactions par lots ;
2) Étant donné que la quantité de données transportées par le bloc réseau principal est affectée par la limite de gaz et le coût de stockage, 128 blobs par bloc d'emplacement sont un état idéal. Actuellement, nous n'en utilisons pas autant, Optimism n'en utilise que 1 toutes les 2 minutes. pour la couche 2 Il reste encore beaucoup de place pour que le projet améliore le TPS et augmente le nombre d'utilisateurs du marché et la prospérité écologique.
Par conséquent, pendant un certain temps après la mise à niveau de Cancun, le Rollup n'était pas « volatile » en termes de nombre et de fréquence de blobs utilisés, ainsi que d'utilisation des enchères d'espace blob.
La raison pour laquelle Vitalik a mentionné les inscriptions Blobscription est que ce type d'inscription peut augmenter temporairement le volume des transactions, ce qui entraînera une augmentation de la demande d'utilisation du Blob, augmentant ainsi la taille. L'utilisation des inscriptions comme exemple peut fournir une compréhension plus approfondie du. mécanisme de fonctionnement des Blobs. Ce que Vitalik veut vraiment exprimer et les inscriptions Cela n'a pas vraiment d'importance.
Parce qu'en théorie, s'il existe un projet de couche 2 qui effectue des transactions par lots à haute fréquence et de grande capacité sur le réseau principal et remplit le bloc Blob à chaque fois, tant qu'il est prêt à supporter le coût élevé d'une transaction falsifiée par lots, cela affectera l'intérêt des autres couches 2 pour les Blobs. Utilisation normale, mais dans la situation actuelle, tout comme quelqu'un qui achète de la puissance de calcul pour mener une attaque hard fork à 51 % sur BTC, c'est théoriquement faisable, mais en pratique, cela manque de motivation pour le profit.
Le but de l'introduction de Blob est de réduire la charge sur EVM et d'améliorer les capacités d'exploitation et de maintenance des nœuds, ce qui est sans aucun doute une solution sur mesure pour Rollup. De toute évidence, il n’est pas utilisé efficacement pour le moment et les frais de gaz pour la deuxième couche resteront stables dans la fourchette « inférieure » pendant longtemps. Cela donnera au marché de couche 2 une fenêtre de développement en or à long terme pour « augmenter les troupes et rassembler de la nourriture ».
3) Alors, que se passerait-il si un jour le marché de la couche 2 prospérait dans une certaine mesure et que le nombre de transactions de Batch vers le réseau principal atteignait un montant énorme chaque jour et que les paquets de données Blob actuels ne suffisaient pas ? Ethereum a déjà fourni une solution : en utilisant la technologie d'échantillonnage de disponibilité des données (DAS) :
Une compréhension simple est que les données qui doivent initialement être stockées dans un nœud peuvent être distribuées sur plusieurs nœuds en même temps. Par exemple, chaque nœud stocke 1/8 de toutes les données Blob et 8 nœuds forment un groupe pour répondre aux besoins. La capacité DA, qui équivaut à la capacité de stockage actuelle du Blob, a été multipliée par 8. C'est en fait ce que Sharding fera lors de la future étape de sharding.
Mais maintenant, Vitalik l'a répété à plusieurs reprises, avec beaucoup de charme, et semble avertir la majorité des parties au projet de couche 2 : ne vous plaignez pas toujours des capacités DA coûteuses d'Ethereum. Avec votre capacité TPS actuelle, vous n'avez pas développé les capacités d'Ethereum. Paquets de données Blob à l'extrême. Dépêchez-vous et augmentez la capacité. Utilisez la puissance de feu pour développer l'écologie, augmenter les utilisateurs et le volume des transactions, et ne pensez pas toujours à la fuite de DA pour vous lancer dans la publication en chaîne en un clic.
Plus tard, Vitalik a ajouté que parmi les cumuls de base actuels, seul Arbitum a atteint le stade 1. Bien que @DeGateDex, Fuel, etc. aient atteint le stade 2, ils ne sont pas encore familiers à la communauté au sens large. L'étape 2 est l'objectif ultime de la sécurité des rollups. Très peu de rollups ont atteint l'étape 1, et la plupart des rollups sont au stade 0. On voit que le développement de l'industrie des rollups inquiète vraiment Vitalik.
4) En fait, en termes de problème de goulot d'étranglement d'expansion, il reste encore beaucoup de place pour que la solution Rollup layer 2 améliore les performances.
1. Utilisez l'espace Blob plus efficacement grâce à la compression des données. OP-Rollup dispose actuellement d'un composant Compressor dédié pour effectuer ce travail. La compression hors chaîne SNARK/STARK de ZK-Rollup prouve que la soumission au réseau principal est une « compression » ;
2. Réduire autant que possible la dépendance de la couche 2 à l'égard du réseau principal et utiliser uniquement la technologie de preuve optimiste pour garantir la sécurité L2 dans des circonstances particulières. Par exemple, la plupart des données de Plasma se trouvent sur la chaîne, mais les dépôts et les retraits ont lieu sur le réseau principal. afin que Mainnet puisse promettre sa sécurité.
Cela signifie que la couche 2 ne devrait considérer que les opérations importantes telles que les dépôts et les retraits comme étant fortement liées au réseau principal, ce qui non seulement réduit la charge sur le réseau principal, mais améliore également les propres performances de L2. La capacité de « traitement parallèle » de Sequencer mentionnée précédemment en parlant d'EVM parallèle peut filtrer, classer et prétraiter un grand nombre de transactions hors chaîne, ainsi que le cumul hybride promu par @MetisL2. Les transactions normales passent par OP-Rollup. , les demandes de retrait spéciales passent par ZK Route, etc. etc. ont toutes des considérations similaires.
c'est tout
Il faut dire que l’article de Vitalik réfléchissant au futur plan d’expansion d’Ethereum est très éclairant. En particulier, il n'était pas satisfait de l'état de développement actuel de la couche 2, optimiste quant à l'espace de performances des Blobs et attendait avec impatience la future technologie de sharding. Il a même souligné certaines directions pour la couche 2 qui méritaient d'être optimisées, etc.
En fait, la seule incertitude réside désormais dans la couche 2 elle-même. Comment accélérer le développement ?
