Alguns dias atrás, ao tentar rodar o fine-tuning de LLM no laboratório, enfrentei novamente aquele conhecido problema—o disco rígido estava cheio. Ao redor, apenas arquivos de checkpoint, dezenas de gigabytes de modelos pesados, mas não havia lugar confiável para armazená-los. Então, de repente, pensei: temos falado sobre a integração de AI e Crypto por tanto tempo, mas por que ainda não existe uma solução real para armazenar esses enormes arquivos de modelo de forma descentralizada? Justamente no meio dessa pergunta, meu olhar caiu sobre o Walrus.
Para ser honesto, no início eu estava bastante cético. O projeto de armazenamento da Mysten Labs tem muitos exemplos onde a camada de armazenamento se torna completamente dependente da cadeia principal, transformando-se em um "parasita". Mas depois de ler atentamente o whitepaper do Walrus e de escrever algumas linhas de script de upload, percebi que a situação é diferente aqui. Eles separaram de forma consciente a camada de dados da camada de consenso. O Sui está sendo usado como plano de controle, enquanto os dados pesados reais estão indo em forma de Blob para a rede Walrus.
Como teste, tentei fazer upload de um modelo LLaMA com 7B parâmetros na rede de teste do Walrus. Usei o Greenfield ao mesmo tempo para comparação. O grande problema do Greenfield é que está muito ligado à BNB Chain. Embora a gestão de permissões seja refinada, a configuração é tão complexa que se torna frustrante usá-la. Em contraste, ao usar o Walrus, sinto como se estivesse utilizando um S3 totalmente descentralizado. Especialmente o conceito de "Armazenamento Programável" é um verdadeiro divisor de águas aqui. Usando contratos inteligentes do Sui, consigo controlar diretamente as permissões de leitura e escrita do Blob. Isso abre enormes possibilidades para automação de Agentes de IA. Imagine que um contrato é escrito—enquanto nenhum Agente estiver pagando uma quantidade específica de tokens ou completando uma tarefa de raciocínio específica, não poderá baixar o peso do modelo. Para realizar tal operação atômica na nuvem Web2, é preciso passar por muitas dificuldades, mas aqui algumas linhas de código Move fazem o trabalho.
Mas a experiência real não é completamente perfeita. O maior problema ocorreu ao tentar fazer upload de arquivos super grandes. No SDK atual, a funcionalidade de retomar ponto de interrupção praticamente não funciona. Tentei fazer upload do modelo 7B três vezes e, a cada vez, tive que recomeçar o upload do zero. Isso é realmente frustrante, especialmente quando o mainnet está quase chegando. A falta de uma funcionalidade tão básica nesta fase é uma grande fraqueza. Além disso, há o problema de ter um número reduzido de nós. A latência que experimentei ao puxar dados de nós na América do Norte para Tóquio me fez lembrar os dias de internet dial-up.
Ainda assim, essas limitações provam que o projeto ainda está em estágio inicial, e é aqui que a oportunidade se esconde. A topologia da rede ainda é relativamente simples. No futuro, à medida que o número de nós aumentar, o modelo de distribuição baseado em Erasure Coding do Walrus naturalmente se comportará como um CDN. Como os dados estão espalhados em forma de fragmentos em vários lugares, será possível recuperar rapidamente a partir de nós próximos.
Em vez do modelo "uma vez pago, armazenamento vitalício" como o da Arweave, o Walrus enfatiza a gestão do ciclo de vida do armazenamento. Para dados mutáveis como modelos de IA, isso é muito mais realista. Quem realmente precisa manter um modelo antigo por toda a vida? Também comparei em termos de custo—embora os dados da rede de teste não sejam definitivos, o Walrus eliminou a computação de prova de armazenamento cara de acordo com a arquitetura. Teoricamente, seu custo deveria ser pelo menos uma ordem de magnitude menor do que o do Filecoin. Para aqueles que querem criar algo do tipo Hugging Face descentralizado, isso é um enorme ponto positivo.
Durante o teste, escrevi intencionalmente alguns loops infinitos para ler repetidamente o mesmo ID de Blob, só para ver se a rede falharia. A resposta estava lenta, mas os dados nunca desapareceram. Isso demonstra que o mecanismo de recuperação baseado em Erasure Coding realmente funciona e é mais resiliente do que se esperava.
No geral, posso dizer que o Walrus ainda está em estágio inicial. Não há um navegador visual adequado, quase tudo precisa ser feito na linha de comando. Mas para aqueles que realmente entendem a tecnologia, este é o "sabor do Alpha". Porque aqui não há uma história financeira de Ponzi—existe um problema real: como conectar grandes dados ao ecossistema on-chain. E é exatamente esse problema que o Walrus está enfrentando diretamente.


