¿Cómo entender los pensamientos del nuevo artículo de @VitalikButerin sobre la expansión de Ethereum? Algunas personas dicen que el pedido de Vitalik de Blob Inscription es escandaloso.
Entonces, ¿cómo funcionan los paquetes de blobs? ¿Por qué el espacio blob no se utiliza de manera eficiente después de la actualización en Cancún? ¿Muestreo de disponibilidad de datos DAS en preparación para la fragmentación?
En mi opinión, el rendimiento de Cancún se puede utilizar después de la actualización y Vitalik está preocupado por el desarrollo de Rollup. ¿Por qué? A continuación, déjame hablar sobre mi comprensión:
1) Como se explicó muchas veces antes, Blob es un paquete de datos temporal que está desacoplado de los datos de llamada de EVM y puede ser llamado directamente por la capa de consenso. El beneficio directo es que EVM no necesita acceder a los datos de Blob al ejecutar transacciones, por lo que no puede producir tasas de ejecución más altas tarifa de cálculo de capa.
Actualmente, se equilibran una serie de factores. El tamaño de un Blob es de 128k. Una transacción por lotes a la red principal puede transportar hasta dos Blobs. Idealmente, el objetivo final de un bloque de red principal es transportar aproximadamente 128 paquetes de Blob de 16 MB. .
Por lo tanto, el equipo del proyecto Rollup debe equilibrar factores como la cantidad de bloques Blob, la capacidad de transacción de TPS y los costos de almacenamiento del nodo de red principal de Blob tanto como sea posible, con el objetivo de utilizar el espacio Blob con el rendimiento de costos óptimo.
Tomando @Optimism como ejemplo, actualmente hay alrededor de 500.000 transacciones por día. En promedio, una transacción se envía por lotes a la red principal cada 2 minutos y transporta 1 paquete de datos Blob a la vez. ¿Por qué traer uno? Porque hay un número limitado de TPS que no se pueden usar. Por supuesto, también puedes llevar dos. Entonces la capacidad de cada blob no estará llena, pero aumentará el costo de almacenamiento, lo cual es innecesario.
¿Qué debemos hacer cuando aumenta el volumen de transacciones fuera de la cadena Rollup, por ejemplo, se procesan 50 millones de transacciones cada día? 1. Comprimir comprime el volumen de transacciones de cada lote y permite tantas transacciones como sea posible en el espacio Blob; 2. Aumenta el número de Blobs; 3. Acorta la frecuencia de las transacciones por lotes;
2) Dado que la cantidad de datos transportados por el bloque de red principal se ve afectada por el límite de gas y el costo de almacenamiento, 128 blobs por bloque de ranura es un estado ideal. Actualmente, no usamos tantos. Optimism solo usa 1 cada 2 minutos, lo que deja it for Layer2 Todavía hay mucho espacio para que el lado del proyecto mejore el TPS y amplíe el número de usuarios del mercado y la prosperidad ecológica.
Por lo tanto, durante un período de tiempo después de la actualización de Cancún, Rollup no fue "volátil" en términos de la cantidad y frecuencia de los blobs utilizados, así como el uso de ofertas de espacio de blobs.
La razón por la que Vitalik mencionó las inscripciones de Blobscription es porque este tipo de inscripción puede aumentar temporalmente el volumen de transacciones, lo que conducirá a un aumento en la demanda de uso de Blob, ampliando así el tamaño. El uso de inscripciones como ejemplo puede proporcionar una comprensión más profunda del Mecanismo de trabajo de los Blobs. Lo que Vitalik realmente quiere expresar y las inscripciones realmente no importan.
Porque, en teoría, si hay una parte del proyecto de capa 2 que realiza transacciones por lotes de alta frecuencia y alta capacidad a la red principal y llena el bloque Blob cada vez, siempre que esté dispuesta a soportar el alto costo de la transacción falsificada lotes, afectará el interés de otras capas 2 en Blobs. El uso es normal, pero en la situación actual, al igual que alguien que compra potencia informática para realizar un ataque de bifurcación dura del 51% en BTC, es teóricamente factible, pero en la práctica carece de motivación para obtener ganancias.
El propósito de introducir Blob es reducir la carga de EVM y mejorar las capacidades de operación y mantenimiento de los nodos, lo que sin duda es una solución personalizada para Rollup. Obviamente, en este momento no se está utilizando de manera eficiente y la tarifa del gas para la segunda capa se mantendrá estable en el rango "inferior" durante mucho tiempo. Esto le dará al mercado de capa 2 una ventana dorada de desarrollo a largo plazo para “incrementar tropas y recolectar alimentos”.
3) Entonces, ¿qué pasa si un día el mercado de capa 2 prospera hasta cierto punto y el número de transacciones desde Batch a la red principal alcanza una gran cantidad todos los días y los paquetes de datos Blob actuales no son suficientes? Ethereum ya ha proporcionado una solución: utilizando la tecnología de muestreo de disponibilidad de datos (DAS):
Una comprensión simple es que los datos que originalmente deben almacenarse en un nodo se pueden distribuir en varios nodos al mismo tiempo. Por ejemplo, cada nodo almacena 1/8 de todos los datos de Blob y 8 nodos forman un grupo para cumplir con los requisitos. La capacidad de DA, que es equivalente a la actual. La capacidad de almacenamiento de Blob se ha ampliado 8 veces. En realidad, esto es lo que hará Sharding en la futura etapa de fragmentación.
Pero ahora Vitalik lo ha reiterado muchas veces, de manera muy encantadora, y parece estar advirtiendo a la mayoría de las partes del proyecto Layer2: no siempre se quejen de las costosas capacidades DA de Ethereum. Con su capacidad TPS actual, no han desarrollado las capacidades de Blob paquetes de datos al extremo. Date prisa y aumenta la capacidad. Usa la potencia de fuego para desarrollar la ecología, expandir los usuarios y el volumen de transacciones, y no siempre pienses en DA huyendo para participar en la publicación en cadena con un solo clic.
Más tarde, Vitalik agregó que entre los paquetes acumulativos actuales, solo Arbitum ha alcanzado la etapa 1. Aunque @DeGateDex, Fuel, etc. han alcanzado la etapa 2, aún no son familiares para la comunidad en general. La etapa 2 es el objetivo final de la seguridad de los rollups. Muy pocos rollups han alcanzado la etapa 1 y la mayoría de los rollups están en la etapa 0. Se puede ver que el desarrollo de la industria de los rollups realmente preocupa a Vitalik.
4) De hecho, en términos del problema del cuello de botella de expansión, todavía hay mucho espacio para que la solución Rollup Layer 2 mejore el rendimiento.
1. Utilice el espacio Blob de manera más eficiente a través de la compresión de datos. OP-Rollup actualmente tiene un componente Compressor dedicado para realizar este trabajo. La propia compresión fuera de cadena SNARK/STARK de ZK-Rollup demuestra que enviar a la red principal es "comprimir";
2. Reduzca la dependencia de la capa 2 de la red principal tanto como sea posible y solo utilice tecnología de prueba optimista para garantizar la seguridad de la capa 2 en circunstancias especiales. Por ejemplo, la mayoría de los datos de Plasma están en la cadena, pero los depósitos y retiros ocurren en la red principal. para que Mainnet pueda prometer su seguridad.
Esto significa que la capa 2 solo debe considerar operaciones importantes como depósitos y retiros que estén fuertemente relacionadas con la red principal, lo que no solo reduce la carga en la red principal, sino que también mejora el propio rendimiento de la L2. La capacidad de "procesamiento paralelo" de Sequencer mencionada anteriormente cuando se habla de EVM paralelo puede filtrar, clasificar y preprocesar una gran cantidad de transacciones fuera de la cadena, así como el rollup híbrido promovido por @MetisL2. Las transacciones normales pasan por OP-Rollup , las solicitudes de retiro especiales pasan por la ruta ZK, etc., etc., todas tienen consideraciones similares.
eso es todo
Cabe decir que el artículo de Vitalik sobre el futuro plan de expansión de Ethereum es muy esclarecedor. En particular, no estaba satisfecho con el estado de desarrollo actual de la capa 2, era optimista sobre el espacio de rendimiento de Blobs y esperaba con ansias la futura tecnología de fragmentación, e incluso señaló algunas direcciones para la capa 2 que valía la pena optimizar, etc.
De hecho, ahora la única incertidumbre la deja la propia capa 2. ¿Cómo acelerar el desarrollo?
