Como entender os pensamentos do novo artigo de @VitalikButerin sobre a expansão do Ethereum? Algumas pessoas dizem que o pedido de Vitalik para Blob Inscription é ultrajante.
Então, como funcionam os pacotes blob? Por que o espaço blob não está sendo usado de forma eficiente após a atualização em Cancún? Amostragem de disponibilidade de dados DAS em preparação para fragmentação?
Na minha opinião, o desempenho de Cancún pode ser aproveitado após a atualização, e Vitalik está preocupado com o desenvolvimento do Rollup. Por que? A seguir, deixe-me falar sobre meu entendimento:
1) Como explicado muitas vezes antes, Blob é um pacote de dados temporário que é desacoplado dos dados de chamada do EVM e pode ser chamado diretamente pela camada de consenso. O benefício direto é que o EVM não precisa acessar os dados do Blob ao executar transações, portanto não pode produzir taxas de execução mais altas.taxa de cálculo da camada.
Atualmente, uma série de fatores são equilibrados. O tamanho de um Blob é 128k. Uma transação em lote para a rede principal pode transportar até dois Blobs. Idealmente, o objetivo final de um bloco de rede principal é transportar aproximadamente 128 pacotes Blob de 16MB. .
Portanto, a equipe do projeto Rollup deve equilibrar fatores como o número de blocos Blob, a capacidade de transação TPS e os custos de armazenamento do nó da rede principal do Blob, tanto quanto possível, com o objetivo de usar o espaço Blob com o desempenho de custo ideal.
Tomando o @Optimism como exemplo, existem atualmente cerca de 500.000 transações por dia. Em média, uma transação é enviada para a rede principal a cada 2 minutos, transportando 1 pacote de dados Blob por vez. Por que trazer um? Porque existem tantos TPSs que não podem ser usados. Claro, você também pode carregar dois. Então a capacidade de cada blob não estará cheia, mas aumentará o custo de armazenamento, o que é desnecessário.
O que devemos fazer quando o volume de transações fora da cadeia Rollup aumenta, por exemplo, 50 milhões de transações são processadas todos os dias? 1. Compress comprime o volume de transações de cada Batch e permite tantas transações quanto possível no espaço Blob; 2. Aumenta o número de Blobs; 3. Reduz a frequência das transações em Batch;
2) Como a quantidade de dados transportados pelo bloco de rede principal é afetada pelo limite de gás e pelo custo de armazenamento, 128 Blobs por bloco de slot é o estado ideal. Atualmente, não usamos tantos. O Optimism usa apenas 1 a cada 2 minutos, deixando para a camada 2 Ainda há muito espaço para o lado do projeto melhorar o TPS e expandir o número de usuários do mercado e a prosperidade ecológica.
Portanto, por um período após a atualização de Cancún, o Rollup não foi "volátil" em termos de número e frequência de blobs usados, bem como no uso de lances de espaço de blob.
A razão pela qual Vitalik mencionou as inscrições do Blob é porque esse tipo de inscrição pode aumentar temporariamente o volume de transações, o que levará a um aumento na demanda pelo uso do Blob, ampliando assim o tamanho. Usar as inscrições como exemplo pode fornecer uma compreensão mais profunda do mecanismo de funcionamento dos Blobs. O que Vitalik realmente quer expressar e as inscrições Realmente não importa.
Porque, em teoria, se houver uma parte do projeto da camada 2 que execute transações em lote de alta frequência e alta capacidade para a rede principal e preencha o bloco Blob todas as vezes, desde que esteja disposto a arcar com o alto custo da transação forjada lotes, afetará o interesse de outras camadas 2 em Blobs. Uso normal, mas na situação atual, assim como alguém comprando poder de computação para realizar um ataque hard fork de 51% no BTC, é teoricamente viável, mas na prática carece de motivação de lucro.
O objetivo da introdução do Blob é reduzir a carga sobre o EVM e melhorar as capacidades de operação e manutenção dos nós, o que é, sem dúvida, uma solução sob medida para o Rollup. Obviamente, não está sendo usado de forma eficiente no momento, e a taxa de gás para a segunda camada ficará estável na faixa “inferior” por muito tempo. Isto dará ao mercado da camada 2 uma janela dourada de desenvolvimento a longo prazo para “aumentar as tropas e recolher alimentos”.
3) Então, e se um dia o mercado da camada 2 prosperar até certo ponto, e o número de transações do Lote para a rede principal atingir uma quantidade enorme todos os dias, e os pacotes de dados Blob atuais não forem suficientes? Ethereum já forneceu uma solução: usando tecnologia de amostragem por disponibilidade de dados (DAS):
Um entendimento simples é que os dados que originalmente precisam ser armazenados em um nó podem ser distribuídos em vários nós ao mesmo tempo.Por exemplo, cada nó armazena 1/8 de todos os dados do Blob e 8 nós formam um grupo para atender aos requisitos. A capacidade DA, que é equivalente à capacidade atual de armazenamento de Blob, foi expandida em 8 vezes. Na verdade, isso é o que o Sharding fará no estágio de sharding futuro.
Mas agora Vitalik reiterou isso muitas vezes, de forma muito charmosa, e parece estar alertando a maioria das partes do projeto da camada 2: "Não reclame sempre dos caros recursos de DA do Ethereum. Com sua atual capacidade de TPS, você não desenvolveu os recursos de Blob pacotes de dados ao extremo. Apresse-se e aumente a capacidade. Use o poder de fogo para desenvolver a ecologia, expandir usuários e volume de transações, e nem sempre pense em DA fugindo para se envolver na publicação em cadeia de um clique.
Mais tarde, Vitalik acrescentou que entre os principais rollups atuais, apenas Arbitum atingiu o estágio 1. Embora @DeGateDex, Fuel, etc. tenham alcançado o estágio 2, eles ainda não são familiares à comunidade em geral. O objetivo final da segurança do rollup é o estágio 2. Muito poucos rollups atingiram o estágio 1, e a maioria dos rollups está no estágio 0. Pode-se ver que o desenvolvimento da indústria de rollup realmente preocupa Vitalik.
4) Na verdade, em termos do problema do gargalo de expansão, ainda há muito espaço para a solução Rollup da camada 2 melhorar o desempenho.
1. Use o espaço Blob de forma mais eficiente por meio da compactação de dados. O OP-Rollup atualmente possui um componente Compressor dedicado para realizar este trabalho. A compactação off-chain SNARK/STARK do próprio ZK-Rollup prova que enviar para a rede principal é "compactar";
2. Reduza ao máximo a dependência da camada 2 da rede principal e use apenas tecnologia de prova otimista para garantir a segurança L2 em circunstâncias especiais.Por exemplo, a maioria dos dados do Plasma está na cadeia, mas os depósitos e retiradas ocorrem na rede principal, então a Mainnet pode prometer sua segurança.
Isto significa que a camada 2 deve considerar apenas operações importantes, como depósitos e levantamentos, como fortemente relacionadas com a rede principal, o que não só reduz a carga sobre a rede principal, mas também melhora o desempenho do próprio L2. A capacidade de "processamento paralelo" do Sequencer mencionada anteriormente ao falar sobre EVM paralelo pode filtrar, classificar e pré-processar um grande número de transações fora da cadeia, bem como o rollup híbrido promovido pelo @MetisL2. As transações normais passam pelo OP-Rollup , solicitações especiais de retirada passam pela ZK Route, etc., todas têm considerações semelhantes.
isso é tudo
Deve-se dizer que o artigo de Vitalik pensando sobre o futuro plano de expansão da Ethereum é muito esclarecedor. Em particular, ele estava insatisfeito com o status atual de desenvolvimento da camada 2, otimista sobre o espaço de desempenho dos Blobs e ansioso pela futura tecnologia de fragmentação. Ele até apontou algumas direções para a camada 2 que valem a pena otimizar, etc.
Na verdade, a única incerteza agora recai sobre a própria camada 2. Como acelerar o desenvolvimento?
