Начало
Уведомление
Профил
Популярни статии
Новини
Отметки
Хронология
Център за създатели
Настройки
Daft Punk马到成功版
2.2k
Публикации
Daft Punk马到成功版
Потвърден създател
Докладване
Блокиране на потребител
Последвай
文章均为个人看法,不构成投资建议。
Високочестотен трейдър
1.1 години
331
Следвани
47.5K+
Последователи
39.4K+
Харесано
5.9K+
Споделено
Публикации
Всички
Оферти
На живо
PINNED
Daft Punk马到成功版
·
--
兄弟们,听说又有行业元老拿着推流洗人家第一的稿子,一张嘴就是和这个合作和那个合作,最后原来是和豆包合作洗人家稿,原来炫耀的分数都是洗出来的,你是蓝月亮么这么能洗。此处不点名,自己看榜猜😂
兄弟们,听说又有行业元老拿着推流洗人家第一的稿子,一张嘴就是和这个合作和那个合作,最后原来是和豆包合作洗人家稿,原来炫耀的分数都是洗出来的,你是蓝月亮么这么能洗。此处不点名,自己看榜猜😂
PINNED
Daft Punk马到成功版
·
--
广场的创作环境大致如此,我们这些普通创作者只是给推流选手提供素材的,听说你还在搞什么原创,别搞笑了,洗洗睡吧,抄袭才是广场唯一的出路,原创的已经饿死了。推流选手10分钟十几k浏览,你不推流我还真发现不了这么过分,标题都不改哈哈哈。
广场的创作环境大致如此,我们这些普通创作者只是给推流选手提供素材的,听说你还在搞什么原创,别搞笑了,洗洗睡吧,抄袭才是广场唯一的出路,原创的已经饿死了。推流选手10分钟十几k浏览,你不推流我还真发现不了这么过分,标题都不改哈哈哈。
WAL
SUI
Daft Punk马到成功版
·
--
盯着账户里跌得面目全非的余额,我也曾动过把XPL直接拉黑的念头,毕竟接近90%的回撤对于任何持币者来说都是一场心理霸凌。但作为一个习惯在代码里找逻辑的“技术控”,当情绪退潮,我反而看到了被市场错杀的真实价值。我们在Web3喊了太久的Mass Adoption,可现实是极度割裂的:你要给圈外朋友转一笔USDT,得先教他买ETH或者SOL做Gas费,这种反人类的门槛直接把99%的新用户挡在了门外。所以我重新审视@Plasma 时,那个Paymaster机制确是击中了我,它让你在转账稳定币时完全不需要持有原生代币,这种丝滑的“Zero Gas”体验,才真正有了点支付宝或者微信支付的影子,比起那些还在比拼TPS但忽视交互体验的竞品公链,这才是支付赛道该有的底层逻辑。 资金是最聪明的,它从来不看喊单只看安全。我去扒了链上数据,Maple Finance上面的SyrupUSDT借贷池TVL竟然稳稳趴着11亿美元,这种体量的机构资金沉淀是非常诚实的投票。机构敢把这笔巨款放在这,看中的无非是它把状态定期锚定到比特币网络的设计,这种借力BTC安全性的架构,比很多纯粹依靠自身共识的PoS链要厚重得多。还有一点容易被忽视,Rain cards覆盖的1.5亿商户和Oobit接入Visa网络,这些都是实打实的支付落地,而不是飘在天上的空气PPT。 当然,我也必须客观吐槽目前的问题,现在的验证者网络中心化程度依然很高,团队控盘的痕迹明显,这始终是悬在头顶的达摩克利斯之剑。而且生态应用的匮乏也是不争的事实,除了转账和借贷,我想找个好玩的DApp交互一下都显得捉襟见肘,这种生态的贫瘠限制了资金的流转效率。但在如今这个甚至连白皮书都懒得写的浮躁市场里,能踏实解决“支付痛点”并且有巨额TVL托底的项目,或许值得我在这个极度悲观的价格区间,再多给它一点耐心和时间。#plasma $XPL
盯着账户里跌得面目全非的余额,我也曾动过把XPL直接拉黑的念头,毕竟接近90%的回撤对于任何持币者来说都是一场心理霸凌。但作为一个习惯在代码里找逻辑的“技术控”,当情绪退潮,我反而看到了被市场错杀的真实价值。我们在Web3喊了太久的Mass Adoption,可现实是极度割裂的:你要给圈外朋友转一笔USDT,得先教他买ETH或者SOL做Gas费,这种反人类的门槛直接把99%的新用户挡在了门外。所以我重新审视
@Plasma
时,那个Paymaster机制确是击中了我,它让你在转账稳定币时完全不需要持有原生代币,这种丝滑的“Zero Gas”体验,才真正有了点支付宝或者微信支付的影子,比起那些还在比拼TPS但忽视交互体验的竞品公链,这才是支付赛道该有的底层逻辑。
资金是最聪明的,它从来不看喊单只看安全。我去扒了链上数据,Maple Finance上面的SyrupUSDT借贷池TVL竟然稳稳趴着11亿美元,这种体量的机构资金沉淀是非常诚实的投票。机构敢把这笔巨款放在这,看中的无非是它把状态定期锚定到比特币网络的设计,这种借力BTC安全性的架构,比很多纯粹依靠自身共识的PoS链要厚重得多。还有一点容易被忽视,Rain cards覆盖的1.5亿商户和Oobit接入Visa网络,这些都是实打实的支付落地,而不是飘在天上的空气PPT。
当然,我也必须客观吐槽目前的问题,现在的验证者网络中心化程度依然很高,团队控盘的痕迹明显,这始终是悬在头顶的达摩克利斯之剑。而且生态应用的匮乏也是不争的事实,除了转账和借贷,我想找个好玩的DApp交互一下都显得捉襟见肘,这种生态的贫瘠限制了资金的流转效率。但在如今这个甚至连白皮书都懒得写的浮躁市场里,能踏实解决“支付痛点”并且有巨额TVL托底的项目,或许值得我在这个极度悲观的价格区间,再多给它一点耐心和时间。
#plasma
$XPL
SOL
XPL
Daft Punk马到成功版
·
--
当并行EVM的叙事退潮后:我在Plasma链上跑了一周的全节点真实体验与Reth架构的冷思考盯着屏幕上不断跳动的块高,看着左侧终端里Reth客户端吞吐日志像瀑布一样流淌,这大概是这周以来最让我感到内心平静的时刻。外面市场吵翻了天,大家都在追逐着Monad的上线预期和Berachain的流动性挖矿,好像如果不参与那些高达三位数的APY游戏,你就被这个行业抛弃了。但我偏偏在这个时候,选择在这个所谓“老旧概念重启”的@Plasma 链上折腾了一周,不仅是为了那点潜在的节点奖励,更是想弄清楚,在2026年这个时间节点,当我们谈论高性能L1时,除了堆砌硬件和修改共识,到底还有没有别的路可走。 说实话,刚开始决定同步全节点的时候,我是带着挑刺的心态来的。毕竟现在的公链赛道太卷了,Solana已经证明了只要硬件够强,中心化一点也能跑得飞快;而以太坊的L2们则在排序器的黑盒子里玩得不亦乐乎。Plasma在这个节点切入,宣称用Reth重写底层,这就好比在一群开F1赛车的人中间,突然来了一个说自己重新发明了轮子的工程师。但我实际跑下来的体验,确实给了我一记闷棍,那种冲击感不是来自于TPS的数字,而是来自于一种久违的“工程美学”的回归。 我跑节点用的机器配置并不算豪华,就是一台普通的消费级服务器。按照以往跑Geth或者Solana验证者的经验,内存泄露和硬盘IO爆炸几乎是家常便饭,你得像伺候大爷一样盯着Prometheus的监控面板。但在Plasma这儿,Reth的表现冷静得可怕。Rust语言的内存安全性在这里体现得淋漓尽致,整个同步过程,内存占用曲线平滑得像刚熨过的衬衫。这不仅仅是省资源的问题,它意味着在处理高并发交易时,底层的执行环境不会因为垃圾回收机制(GC)的停顿而造成莫名的延迟。这种底层的确定性,对于一个标榜要做“支付原语”的链来说,比单纯吹嘘10万TPS要关键得多。 这就引出了我在使用过程中发现的第一个核心差异,也是它跟目前市面上最大的竞品——那些并行EVM链(比如Monad或Sei)的区别。并行EVM的逻辑是“大力出奇迹”,通过多线程同时处理互不冲突的交易来提升速度,这听起来很性感,但在实际的支付场景中,交易往往是有序且高频冲突的。比如在某个热门NFT发售或者抢购场景下,并行执行往往会退化成串行。而我在Plasma上做压力测试的时候,发现它并没有盲目追求并行,而是利用Reth的高效状态读取能力,把单线程的执行效率压榨到了极致。这种感觉怎么形容呢,就像是一个内功深厚的武林高手,不需要花里胡哨的招式,一拳就能打死老师傅。 当然,吹了半天架构,还得聊聊实际转账的体验。这也正是我要吐槽的地方,也是目前Plasma面临的最大问题。虽然官方一直在推崇那个Gas Abstraction(Gas抽象)机制,说是用户可以用USDT甚至BTC直接付手续费,但我实际操作下来,发现这个功能的磨合期还很长。有好几次,我试图用钱包里的小额USDC去支付一笔转账的Gas,结果交易卡在了Mempool(内存池)里半天没动静。后来查了半天文档才明白,原来是底层的Paymaster(代付合约)在那个时间段的流动性枯竭了,导致验证者不愿意打包这类交易。这就很尴尬了,本来是想降低门槛,结果反而增加了用户的心智负担。相比之下,Tron虽然被大家诟病中心化,但人家转账是真的傻瓜式操作。Plasma想要做支付链,这种基础设施的细节如果不打磨好,再牛逼的技术架构也白搭。 再来说说跟以太坊L2的对比。现在的L2,像Base或者Arbitrum,虽然体验不错,但那个最终确认性(Finality)始终是个心病。你从交易所提币到L2,或者从L2跨回主网,那个等待期有时候能让人焦虑症发作。Plasma在这里用了一个很讨巧的PlasmaBFT共识,我看了一下代码,它其实是在HotStuff的基础上做了改动,把流水线作业引入了共识层。我在测试网的一笔跨链交易,从发起请求到那边确认,体感上只用了不到3秒。这在支付场景下是质的飞跃。想象一下,你在便利店买瓶水,肯定不能等你那个Optimistic Rollup过七天的欺诈挑战期吧?即便是ZK Rollup,生成证明也是要时间的。Plasma这种即时确定性,确实切中了支付的痛点。但是,这也带来了另一个隐忧,那就是验证者节点的准入门槛。虽然官方号称去中心化,但我看目前活跃的验证者列表,大部分还是那些熟悉的机构名字。这种速度的提升,多少还是牺牲了一部分去中心化的程度换来的。 在使用过程中,我还发现了一个很有意思但也很让人头疼的现象,就是它的UTXO模型跟账户模型的混合。Plasma为了兼容EVM,搞了一套很复杂的映射机制。对于开发者来说,这简直是噩梦。我尝试部署一个简单的Uniswap V2分叉合约,结果报错报得我怀疑人生。很多在以太坊上理所当然的全局状态调用,在这里都需要重新思考。虽然官方文档说这是为了状态隔离,为了防范未来的状态爆炸,但对于现阶段想进来“撸毛”或者搞土狗项目的开发者来说,这简直就是一道叹息之墙。这也就解释了为什么链上目前的生态看起来这么“荒凉”,除了官方扶持的几个DeFi协议,几乎看不到什么野生的创新项目。 这让我不禁想到了当年的EOS,也是技术强得一塌糊涂,也是号称要解决扩展性,结果最后变成了菠菜链。Plasma现在的处境其实挺微妙的。它有着比Monad更务实的执行层架构,有着比L2更快的最终确定性,但它缺的是一种“市井气”。现在的链上太干净了,干净得像个无菌实验室。我们知到,区块链的活力往往来自于那些乱七八糟的、甚至带有灰色地带的创新。如果Plasma一直这么端着,搞什么完美的支付原语,很可能会陷入“叫好不叫座”的窘境。 不过,从另一个角度看,这或许也是它的护城河。在大家都忙着发Meme币、搞庞氏盘子的时候,能有一条链沉下心来死磕Reth客户端的优化,死磕状态存储的压缩,这本身就是一种稀缺的品质。我在翻看它的Github提交记录时,发现核心开发团队对于每一个Opcode的Gas定价都在反复推敲,甚至为了一个数据库的读写索引优化能争论好几天。这种工程师文化在现在的币圈简直是珍稀动物。 回头看看这几天的Gas消耗,低得惊人。这得益于Reth对存储布局的优化,它不再像Geth那样产生大量的读写放大。对于我这种全节点运营者来说,这意味着我的硬盘寿命能延长不少,运维成本也直线下降。这其实是一个被很多人忽视的竞争力。现在的Solana节点,光是硬件成本就劝退了99%的人,导致最后节点都集中在几个大机房里。而Plasma如果能把节点门槛降下来,让更多像我这样的散户能跑得起全节点,那它的去中心化叙事才算是真正立住了。 还有一个不得不提的竞品是TON。最近TON借着Telegram的流量势头很猛,主打的也是支付和高并发。但TON那个异步架构,开发难度简直是地狱级,而且经常出现丢消息的情况。相比之下,Plasma坚持EVM兼容(虽然有点水土不服)还是明智的。至少,它保留了把以太坊庞大生态迁移过来的可能性。只是目前这个桥接的过程,还需要极大的优化。我试着把一笔资产从以太坊主网跨过去,那个官方桥的UI简陋得像上个世纪的产物,而且中间还因为RPC节点不同步失败了一次,吓得我以为资产丢失了。这种惊心动魄的体验,绝对是阻碍大规模采用(Mass Adoption)的拦路虎。 写到这里,窗外的天已经快亮了,屏幕上的同步日志依然在平稳地滚动。这一周的体验,让我对Plasma这个项目有了更复杂的感情。它不是完美的,甚至在很多用户体验的细节上是粗糙的。它没有Monad那样铺天盖地的营销,也没有Base那样背靠大树的好乘凉。它像个执拗理工男,认准了Reth这条路,认准了支付这个最难啃的骨头,就在那儿死磕。 在2026年,我们见过了太多昙花一现的“高性能公链”,它们大多死于生态枯竭或者资本撤退。Plasma能不能活下来,不取决于它的Reth架构有多精妙,而取决于它能不能放下身段,去解决我上面提到的那些具体的、琐碎的、甚至有点无聊的问题:比如Paymaster的流动性怎么保证,比如跨链桥的UI能不能改改,比如怎么让开发者更爽地部署合约。 技术是骨架,应用才是血肉。现在的Plasma,骨架很硬朗,甚至是惊艳,但血肉还太干瘪。作为一名在这个行业摸爬滚打多年的老韭菜,我或许不会把全副身家都押注在它上面,但我会保留这个全节点,继续跑下去。因为在这个浮躁的、充满了快钱和欺诈的行业里,我愿意为这种对技术底层的尊重和对工程极限的探索,保留一份小小的期待。或许有一天,当我们不再谈论TPS,不再谈论Gas费的时候,真正的支付革命才会悄无声息地发生,而Plasma,或许就是那个在后台默默支撑的影子。但这之前,它得先活过这个残酷的冬天,还得把那些该死的Bug修完,别再让我转账的时候卡在内存池里怀疑人生了,毕竟,信任这东西,建立起来如抽丝,崩塌起来如山倒。对于支付链而言,每一次卡顿,都是对共识的一次削弱。希望下一次升级,能看到真正的改变,而不是白皮书上又多了一堆看不懂的数学公式。#plasma $XPL
当并行EVM的叙事退潮后:我在Plasma链上跑了一周的全节点真实体验与Reth架构的冷思考
盯着屏幕上不断跳动的块高,看着左侧终端里Reth客户端吞吐日志像瀑布一样流淌,这大概是这周以来最让我感到内心平静的时刻。外面市场吵翻了天,大家都在追逐着Monad的上线预期和Berachain的流动性挖矿,好像如果不参与那些高达三位数的APY游戏,你就被这个行业抛弃了。但我偏偏在这个时候,选择在这个所谓“老旧概念重启”的
@Plasma
链上折腾了一周,不仅是为了那点潜在的节点奖励,更是想弄清楚,在2026年这个时间节点,当我们谈论高性能L1时,除了堆砌硬件和修改共识,到底还有没有别的路可走。
说实话,刚开始决定同步全节点的时候,我是带着挑刺的心态来的。毕竟现在的公链赛道太卷了,Solana已经证明了只要硬件够强,中心化一点也能跑得飞快;而以太坊的L2们则在排序器的黑盒子里玩得不亦乐乎。Plasma在这个节点切入,宣称用Reth重写底层,这就好比在一群开F1赛车的人中间,突然来了一个说自己重新发明了轮子的工程师。但我实际跑下来的体验,确实给了我一记闷棍,那种冲击感不是来自于TPS的数字,而是来自于一种久违的“工程美学”的回归。
我跑节点用的机器配置并不算豪华,就是一台普通的消费级服务器。按照以往跑Geth或者Solana验证者的经验,内存泄露和硬盘IO爆炸几乎是家常便饭,你得像伺候大爷一样盯着Prometheus的监控面板。但在Plasma这儿,Reth的表现冷静得可怕。Rust语言的内存安全性在这里体现得淋漓尽致,整个同步过程,内存占用曲线平滑得像刚熨过的衬衫。这不仅仅是省资源的问题,它意味着在处理高并发交易时,底层的执行环境不会因为垃圾回收机制(GC)的停顿而造成莫名的延迟。这种底层的确定性,对于一个标榜要做“支付原语”的链来说,比单纯吹嘘10万TPS要关键得多。
这就引出了我在使用过程中发现的第一个核心差异,也是它跟目前市面上最大的竞品——那些并行EVM链(比如Monad或Sei)的区别。并行EVM的逻辑是“大力出奇迹”,通过多线程同时处理互不冲突的交易来提升速度,这听起来很性感,但在实际的支付场景中,交易往往是有序且高频冲突的。比如在某个热门NFT发售或者抢购场景下,并行执行往往会退化成串行。而我在Plasma上做压力测试的时候,发现它并没有盲目追求并行,而是利用Reth的高效状态读取能力,把单线程的执行效率压榨到了极致。这种感觉怎么形容呢,就像是一个内功深厚的武林高手,不需要花里胡哨的招式,一拳就能打死老师傅。
当然,吹了半天架构,还得聊聊实际转账的体验。这也正是我要吐槽的地方,也是目前Plasma面临的最大问题。虽然官方一直在推崇那个Gas Abstraction(Gas抽象)机制,说是用户可以用USDT甚至BTC直接付手续费,但我实际操作下来,发现这个功能的磨合期还很长。有好几次,我试图用钱包里的小额USDC去支付一笔转账的Gas,结果交易卡在了Mempool(内存池)里半天没动静。后来查了半天文档才明白,原来是底层的Paymaster(代付合约)在那个时间段的流动性枯竭了,导致验证者不愿意打包这类交易。这就很尴尬了,本来是想降低门槛,结果反而增加了用户的心智负担。相比之下,Tron虽然被大家诟病中心化,但人家转账是真的傻瓜式操作。Plasma想要做支付链,这种基础设施的细节如果不打磨好,再牛逼的技术架构也白搭。
再来说说跟以太坊L2的对比。现在的L2,像Base或者Arbitrum,虽然体验不错,但那个最终确认性(Finality)始终是个心病。你从交易所提币到L2,或者从L2跨回主网,那个等待期有时候能让人焦虑症发作。Plasma在这里用了一个很讨巧的PlasmaBFT共识,我看了一下代码,它其实是在HotStuff的基础上做了改动,把流水线作业引入了共识层。我在测试网的一笔跨链交易,从发起请求到那边确认,体感上只用了不到3秒。这在支付场景下是质的飞跃。想象一下,你在便利店买瓶水,肯定不能等你那个Optimistic Rollup过七天的欺诈挑战期吧?即便是ZK Rollup,生成证明也是要时间的。Plasma这种即时确定性,确实切中了支付的痛点。但是,这也带来了另一个隐忧,那就是验证者节点的准入门槛。虽然官方号称去中心化,但我看目前活跃的验证者列表,大部分还是那些熟悉的机构名字。这种速度的提升,多少还是牺牲了一部分去中心化的程度换来的。
在使用过程中,我还发现了一个很有意思但也很让人头疼的现象,就是它的UTXO模型跟账户模型的混合。Plasma为了兼容EVM,搞了一套很复杂的映射机制。对于开发者来说,这简直是噩梦。我尝试部署一个简单的Uniswap V2分叉合约,结果报错报得我怀疑人生。很多在以太坊上理所当然的全局状态调用,在这里都需要重新思考。虽然官方文档说这是为了状态隔离,为了防范未来的状态爆炸,但对于现阶段想进来“撸毛”或者搞土狗项目的开发者来说,这简直就是一道叹息之墙。这也就解释了为什么链上目前的生态看起来这么“荒凉”,除了官方扶持的几个DeFi协议,几乎看不到什么野生的创新项目。
这让我不禁想到了当年的EOS,也是技术强得一塌糊涂,也是号称要解决扩展性,结果最后变成了菠菜链。Plasma现在的处境其实挺微妙的。它有着比Monad更务实的执行层架构,有着比L2更快的最终确定性,但它缺的是一种“市井气”。现在的链上太干净了,干净得像个无菌实验室。我们知到,区块链的活力往往来自于那些乱七八糟的、甚至带有灰色地带的创新。如果Plasma一直这么端着,搞什么完美的支付原语,很可能会陷入“叫好不叫座”的窘境。
不过,从另一个角度看,这或许也是它的护城河。在大家都忙着发Meme币、搞庞氏盘子的时候,能有一条链沉下心来死磕Reth客户端的优化,死磕状态存储的压缩,这本身就是一种稀缺的品质。我在翻看它的Github提交记录时,发现核心开发团队对于每一个Opcode的Gas定价都在反复推敲,甚至为了一个数据库的读写索引优化能争论好几天。这种工程师文化在现在的币圈简直是珍稀动物。
回头看看这几天的Gas消耗,低得惊人。这得益于Reth对存储布局的优化,它不再像Geth那样产生大量的读写放大。对于我这种全节点运营者来说,这意味着我的硬盘寿命能延长不少,运维成本也直线下降。这其实是一个被很多人忽视的竞争力。现在的Solana节点,光是硬件成本就劝退了99%的人,导致最后节点都集中在几个大机房里。而Plasma如果能把节点门槛降下来,让更多像我这样的散户能跑得起全节点,那它的去中心化叙事才算是真正立住了。
还有一个不得不提的竞品是TON。最近TON借着Telegram的流量势头很猛,主打的也是支付和高并发。但TON那个异步架构,开发难度简直是地狱级,而且经常出现丢消息的情况。相比之下,Plasma坚持EVM兼容(虽然有点水土不服)还是明智的。至少,它保留了把以太坊庞大生态迁移过来的可能性。只是目前这个桥接的过程,还需要极大的优化。我试着把一笔资产从以太坊主网跨过去,那个官方桥的UI简陋得像上个世纪的产物,而且中间还因为RPC节点不同步失败了一次,吓得我以为资产丢失了。这种惊心动魄的体验,绝对是阻碍大规模采用(Mass Adoption)的拦路虎。
写到这里,窗外的天已经快亮了,屏幕上的同步日志依然在平稳地滚动。这一周的体验,让我对Plasma这个项目有了更复杂的感情。它不是完美的,甚至在很多用户体验的细节上是粗糙的。它没有Monad那样铺天盖地的营销,也没有Base那样背靠大树的好乘凉。它像个执拗理工男,认准了Reth这条路,认准了支付这个最难啃的骨头,就在那儿死磕。
在2026年,我们见过了太多昙花一现的“高性能公链”,它们大多死于生态枯竭或者资本撤退。Plasma能不能活下来,不取决于它的Reth架构有多精妙,而取决于它能不能放下身段,去解决我上面提到的那些具体的、琐碎的、甚至有点无聊的问题:比如Paymaster的流动性怎么保证,比如跨链桥的UI能不能改改,比如怎么让开发者更爽地部署合约。
技术是骨架,应用才是血肉。现在的Plasma,骨架很硬朗,甚至是惊艳,但血肉还太干瘪。作为一名在这个行业摸爬滚打多年的老韭菜,我或许不会把全副身家都押注在它上面,但我会保留这个全节点,继续跑下去。因为在这个浮躁的、充满了快钱和欺诈的行业里,我愿意为这种对技术底层的尊重和对工程极限的探索,保留一份小小的期待。或许有一天,当我们不再谈论TPS,不再谈论Gas费的时候,真正的支付革命才会悄无声息地发生,而Plasma,或许就是那个在后台默默支撑的影子。但这之前,它得先活过这个残酷的冬天,还得把那些该死的Bug修完,别再让我转账的时候卡在内存池里怀疑人生了,毕竟,信任这东西,建立起来如抽丝,崩塌起来如山倒。对于支付链而言,每一次卡顿,都是对共识的一次削弱。希望下一次升级,能看到真正的改变,而不是白皮书上又多了一堆看不懂的数学公式。
#plasma
$XPL
XPL
Daft Punk马到成功版
·
--
别再被算力租赁忽悠了,@Vanar 这套原生“大脑”架构才有点意思 这一轮AI赛道炒得热火朝天,但我越看越觉得不对劲。满屏的DePIN都在讲算力租赁的故事,说白了不就是个去中心化的AWS二房东吗?这种简单的物理堆砌,离真正的Web3原生智能差了十万八千里。最近跑去翻Vanar的白皮书和Github,本来是抱着找茬的心态去的,结果发现这帮人思路挺清奇,他们没卷TPS也没卷算力分发,而是死磕了一个很多公链都没想明白的痛点:链上AI的“记忆”和“推理”成本。 咱们搞技术的都知道,以太坊这种状态机本质上是健忘的,你要让AI Agent在链上跑,光把模型传上去没用,推理过程产生的大量上下文数据存哪?存Arweave太慢,存链上Gas贵到爆炸。Vanar搞的那个Neutron架构,把我看乐了,这不就是给区块链装了个海马体吗?利用TensorRT做推理优化,把复杂的语义数据压缩成链上可读的Seeds,这意味着Agent不再是每一次交互都要重头算一遍的“傻瓜”,而是具备了低成本的连续记忆能力。这就把那些还在靠跨链桥硬接GPT-4的项目甩开了一个身位,前者是让区块链学会思考,后者充其量就是给AI打个长途电话。 说实话,现在生态体验确实还比较早期,跑了一圈DApp,稍微有点“荒凉”,界面交互也还有bug,昨天那个swap就在那转圈圈转了半天,但这种底层逻辑的闭环让我觉得很踏实。相比于那些PPT做得花里胡哨、实质上只是卖节点的项目,Vanar明显是在铺那层最难啃的“计算基础设施”。如果未来DeFi真的能进化成由AI驱动的动态风控模型,或者链游NPC能有自主意识,那地基一定是在这种能原生处理高并发推理的链上,而不是那些为了为了迁就EVM而阉割性能的老古董。咱们做研究的,别总盯着短期的K线波动,得看看代码库里到底是在堆积木还是在造引擎。#vanar $VANRY
别再被算力租赁忽悠了,
@Vanarchain
这套原生“大脑”架构才有点意思
这一轮AI赛道炒得热火朝天,但我越看越觉得不对劲。满屏的DePIN都在讲算力租赁的故事,说白了不就是个去中心化的AWS二房东吗?这种简单的物理堆砌,离真正的Web3原生智能差了十万八千里。最近跑去翻Vanar的白皮书和Github,本来是抱着找茬的心态去的,结果发现这帮人思路挺清奇,他们没卷TPS也没卷算力分发,而是死磕了一个很多公链都没想明白的痛点:链上AI的“记忆”和“推理”成本。
咱们搞技术的都知道,以太坊这种状态机本质上是健忘的,你要让AI Agent在链上跑,光把模型传上去没用,推理过程产生的大量上下文数据存哪?存Arweave太慢,存链上Gas贵到爆炸。Vanar搞的那个Neutron架构,把我看乐了,这不就是给区块链装了个海马体吗?利用TensorRT做推理优化,把复杂的语义数据压缩成链上可读的Seeds,这意味着Agent不再是每一次交互都要重头算一遍的“傻瓜”,而是具备了低成本的连续记忆能力。这就把那些还在靠跨链桥硬接GPT-4的项目甩开了一个身位,前者是让区块链学会思考,后者充其量就是给AI打个长途电话。
说实话,现在生态体验确实还比较早期,跑了一圈DApp,稍微有点“荒凉”,界面交互也还有bug,昨天那个swap就在那转圈圈转了半天,但这种底层逻辑的闭环让我觉得很踏实。相比于那些PPT做得花里胡哨、实质上只是卖节点的项目,Vanar明显是在铺那层最难啃的“计算基础设施”。如果未来DeFi真的能进化成由AI驱动的动态风控模型,或者链游NPC能有自主意识,那地基一定是在这种能原生处理高并发推理的链上,而不是那些为了为了迁就EVM而阉割性能的老古董。咱们做研究的,别总盯着短期的K线波动,得看看代码库里到底是在堆积木还是在造引擎。
#vanar
$VANRY
VANRY
Daft Punk马到成功版
·
--
当 AI 跑在区块链的“土路”上:关于 Vanar、计算成本与所谓“原生性”的残酷实验笔记盯着屏幕右下角的时间,凌晨三点半,这种作息对于我们这种在这个圈子里摸爬滚打的人来说早已是常态,尤其是当你试图跑通一个真正意义上的链上 Agent 逻辑时,挫败感往往比困意来得更猛烈。最近这一个月,我几乎把市面上所有标榜“AI 公链”的项目文档都翻了一遍,那种感觉就像是在一堆精装修的样板房里找承重墙,外表光鲜亮丽,全是叙事和概念,一铲子下去全是泡沫。绝大多数项目所谓的 AI 叙事,无非就是给传统的 EVM 链套了个 API 接口,或者是搞个没什么用的算力租赁市场,这种拼接式的架构在我看来简直是对去中心化智能的侮辱。我不想点名道姓,但看着那些几十亿市值的项目还在用着两年前的侧链逻辑来讲 AI 的故事,实属让人发笑。 也就是在這種极度厌倦的情绪下,我重新把目光投向了@Vanar ,说实话,最开始看到 $VANRY 的时候,我也带着偏见,以为又是一个蹭热点的老盘子,毕竟在这个行业里,改名换姓重新发币的戏码我也见多了。但当我真正沉下心去跑他们的测试网,去读那份甚至有点枯燥的技术黄皮书时,我意识到自己可能犯了一个经验主义的错误。这一周我没有干别的,就是尝试把一个简单的交易预测 Agent 部署到 Vanar 的 Vanguard 测试环境里,对比组是目前流动性最好的 Base 和所谓的性能之王 Solana。结果非常残酷,这种残酷不是体现在币价上,而是体现在作为基础设施的“物理属性”上。在 Base 上,我的 Agent 每进行一次推理和状态更新,Gas 费的波动简直就像心电图一样让人心惊肉跳,一旦链上拥堵,成本直接飙升到不可接受的程度,更别提那个让人头疼的最终确认时间,对于需要高频交互的 AI 来说,几秒钟的延迟就是致命的。而 Solana 虽然快,但那个宕机风险始终像把达摩克利斯之剑悬在头顶,而且 Rust 的开发门槛对于很多从 Python 生态过来的 AI 开发者来说,简直就是一道叹息之墙。 Vanar 给我的体验完全不同,它没有那种为了炫技而堆砌的复杂参数,反倒有一种工业级的冷峻感。当你深入它的架构,你会发现它解决的核心痛点其实非常朴素:成本的可预测性和计算的原生性。现在的 AI 链项目最大的谎言就是试图让链去适应 AI,但这在物理上是行不通的,因为区块链的本质是冗余计算,而 AI 的本质是暴力计算,这两者天生互斥。Vanar 的聪明之处在于,它没有试图把大模型直接塞进区块里,也没有搞那种虚无缥缈的去中心化训练,而是专注于“验证”和“交互”这两个环节。我在部署合约时,明显感觉到它的 Kaion 模块(虽然文档里名字很酷,但我更愿意称之为链上验证器)在处理推理结果时的丝滑,它不是在链上重跑一遍模型,而是验证推理路径的有效性,这种四两拨千斤的设计,才是 Web3 AI 该有的样子。 这让我想起了当年的以太坊杀手之争,大家都觉得 TPS 是王道,结果最后活下来的反而是生态最丰富的。现在的 AI 链竞争也是一样,大家都在比谁的算力大,谁的模型多,完全搞错了方向。真正的 AI 基础设施,应该是像 Vanar 这样,提供一个极低摩擦的环境,让 Agent 可以像在本地服务器一样运行,但又具备区块链的不可篡改性。我在测试中发现,Vanar 的交易结构对机器非常友好,它把很多需要通过智能合约复杂逻辑才能实现的功能,直接做成了底层的预编译指令,这意味着我的 Agent 调用这些功能时,不需要支付昂贵的一般性计算 Gas,而是以一种极低的固定成本在运行。这种设计对于人类用户来说可能感知不强,反正大家都是手动点两下鼠标,但对于每分钟可能要交互成千上万次的 AI Agent 来说,这就是生与死的区别。 在这个充满噪音的市场里,大家都在追逐那些只会喊口号的 MEME 或者是 VC 组局的天王级项目,却忽略了像 Vanar 这种在底层代码上做减法的项目。我甚至觉得 Vanar 的团队有点过于工程师思维了,他们的宣发简直烂得一塌糊涂,很多极具革命性的技术特性,被藏在晦涩的技术文档角落里,如果不是我这种闲得无聊愿意扒代码的人,根本发现不了。比如那个 Neutron 存储层,我本来以为就是个普通的 IPFS 封装,结果用了才发现,它是专门为 AI 的热数据设计的,不仅读取速度快,而且支持数据的细粒度权限控制,这对于需要保护隐私的 AI 应用来说太关键了。在其他链上,我要实现同样的功能,得外挂三个不同的中间件,复杂度和安全性简直是灾难。 对比竞品,这种差距感更加明显。我看过很多所谓的“算力链”,实际上就是在卖显卡租赁的期货,和区块链技术本身关系不大,更像是一个淘宝租赁平台。而 Vanar 是实打实的 Layer 1,它在处理并发请求时的那种稳定性,让我想起了早期的 Google Cloud,虽然没有什么花哨的 UI,但就是稳。我知道很多人会说,Vanar 的生态还不够大,没人用技术再好也是白搭。这话没错,但在这个阶段,生态是可以被资本催熟的,而底层的基因是无法改变的。一个为了 DeFi 设计的链,哪怕上面堆了再多的钱,它也跑不起这一波 AI 的浪潮。以太坊现在就像是一个拥挤的闹市区,寸土寸金,适合开奢侈品店(DeFi),但不适合建工厂(AI 计算)。Vanar 更像是一个规划完善的新兴工业园区,水电煤气(基础设施)一应俱全,而且地价便宜,这才是 AI 创业者真正需要的土壤。 而且,我不禁要吐槽一下现在市场的浮躁,大家似乎都忘记了区块链的初衷是为了降低信任成本,而不是增加技术门槛。我在研究 Vanar 的经济模型时,发现它对 $VANRY 的定位非常清晰,就是这一整套自动化体系的燃料。现在的很多项目,代币除了治理投票一点用没有,但在 Vanar 的网络里,如果我的 Agent 想要调用链上的数据,想要验证它的推理结果,甚至只是想要在链上存活下去,都必须消耗 $VANRY。这种刚性需求让我想到了当年的 ETH,而不是那些纯粹为了挖矿而存在的空气币。虽然现在的币价还在低位徘徊,甚至有时候看着K线那一潭死水的样子让人想骂娘,但如果你把眼光放长一点,想象一下未来如果有几百万个 Agent 在这个网络上不间断地运行,每秒钟都在消耗代币,那个通缩的画面简直美得不敢看。 当然,我也不是在无脑吹捧,Vanar 也有它的问题。比如跨链的互操作性目前还做得不够好,虽然他们宣称在做,但我实际体验下来,资产进出的流畅度还是不如那些成熟的 L2。而且,文档的更新速度赶不上代码的迭代,经常出现我照着文档写代码报错,结果去 Discord 问才知道接口已经改了的情况,这种草台班子的即视感确实很劝退开发者。但这恰恰也说明了它还在早期的野蛮生长阶段,还没有被那些只会做 PPT 的职业经理人给僵化。 在这几天的深度交互中,我还发现了一个很有意思的点,就是 Vanar 对传统的 Web2 巨头似乎有一种莫名的吸引力。我看他们的合作伙伴列表,Google Cloud、Nvidia 这种名字赫然在列,这在币圈其实挺少见的。很多项目所谓的合作可能就是买了人家几台服务器,但我感觉 Vanar 和他们的合作更深一点,尤其是在技术栈的兼容性上,感觉他们是在有意地降低 Web2 开发者进入 Web3 的门槛。对于我这种习惯了 Docker 和 Kubernetes 的人来说,Vanar 的开发环境让我感到久违的亲切,没有那些神神叨叨的黑话,代码就是代码,逻辑就是逻辑。 回过头来看,我们现在的行业正处在一个极其尴尬的裂缝中,一边是 AI 技术的日新月异,Sora 都出来炸场了,这边的区块链还在为几千 TPS 沾沾自喜。这种错位感让我经常感到焦虑,我们是不是在做一件毫无意义的事情?但 Vanar 给了我一点微小的希望,它让我看到了一种可能,就是区块链不需要去蹭 AI 的热度,而是真正成为 AI 离不开的底座。当 AI 拥有了自主意识(哪怕只是初级的),它需要一个地方来存放它的私房钱,需要一个地方来记录它的思考过程,需要一个不被人类随时拔电源的避难所,而 Vanar 正在试图建造这个避难所。 这种基础设施的价值,往往是隐形的,就像你平时感觉不到下水道的存在,直到下暴雨的时候才知道它的重要性。现在的市场还在为各种 MEME 狂欢,但我隐约感觉到,资金的聪明钱已经在开始寻找下一个十年的叙事载体了。AI + Crypto 绝对不仅仅是一个炒作的板块,它是未来数字社会的底层逻辑,而在这个逻辑里,谁能解决计算的验证和数据的确权,谁就是新的王。Vanar 现在看起来就像是一个在角落里默默拧螺丝的工匠,比起隔壁那些在舞台上跳大神的项目显得格格不入,甚至有点土气,但我打赌,当潮水退去,当那些华丽的 PPT 变成废纸的时候,这些拧上去的螺丝才是支撑起摩天大楼的关键。 写到这里,窗外的天已经蒙蒙亮了,屏幕上的 Agent 依然在稳定地运行,Gas 费低得几乎可以忽略不计。这种平静感在这个充满了暴涨暴跌的赌场里显得格外珍贵。我不知道 $VANRY 最终能不能跑出来,毕竟这个圈子从来不缺好技术死于烂运营的故事,但至少在技术路线上,它没有在骗我,也没有在骗自己。对于我们这些真正的信徒来说,有时候这一点点的“真诚”,就足够让我们押上筹码了。这可能是一场漫长的赌局,但既然已经坐在了桌上,比起那些虚张声势的对手,我更愿意相信手里这把看起来并不起眼,但质地坚硬的牌。在这个充满不确定的变革前夜,做一个清醒的旁观者,或许比做一个狂热的参与者更能看清未来的方向,而 Vanar,正好提供了这样一个冷静观察的窗口,透过它,我似乎看到了一点点未来互联网该有的样子——高效、冷漠、但绝对公正。#vanar
当 AI 跑在区块链的“土路”上:关于 Vanar、计算成本与所谓“原生性”的残酷实验笔记
盯着屏幕右下角的时间,凌晨三点半,这种作息对于我们这种在这个圈子里摸爬滚打的人来说早已是常态,尤其是当你试图跑通一个真正意义上的链上 Agent 逻辑时,挫败感往往比困意来得更猛烈。最近这一个月,我几乎把市面上所有标榜“AI 公链”的项目文档都翻了一遍,那种感觉就像是在一堆精装修的样板房里找承重墙,外表光鲜亮丽,全是叙事和概念,一铲子下去全是泡沫。绝大多数项目所谓的 AI 叙事,无非就是给传统的 EVM 链套了个 API 接口,或者是搞个没什么用的算力租赁市场,这种拼接式的架构在我看来简直是对去中心化智能的侮辱。我不想点名道姓,但看着那些几十亿市值的项目还在用着两年前的侧链逻辑来讲 AI 的故事,实属让人发笑。
也就是在這種极度厌倦的情绪下,我重新把目光投向了
@Vanarchain
,说实话,最开始看到
$VANRY
的时候,我也带着偏见,以为又是一个蹭热点的老盘子,毕竟在这个行业里,改名换姓重新发币的戏码我也见多了。但当我真正沉下心去跑他们的测试网,去读那份甚至有点枯燥的技术黄皮书时,我意识到自己可能犯了一个经验主义的错误。这一周我没有干别的,就是尝试把一个简单的交易预测 Agent 部署到 Vanar 的 Vanguard 测试环境里,对比组是目前流动性最好的 Base 和所谓的性能之王 Solana。结果非常残酷,这种残酷不是体现在币价上,而是体现在作为基础设施的“物理属性”上。在 Base 上,我的 Agent 每进行一次推理和状态更新,Gas 费的波动简直就像心电图一样让人心惊肉跳,一旦链上拥堵,成本直接飙升到不可接受的程度,更别提那个让人头疼的最终确认时间,对于需要高频交互的 AI 来说,几秒钟的延迟就是致命的。而 Solana 虽然快,但那个宕机风险始终像把达摩克利斯之剑悬在头顶,而且 Rust 的开发门槛对于很多从 Python 生态过来的 AI 开发者来说,简直就是一道叹息之墙。
Vanar 给我的体验完全不同,它没有那种为了炫技而堆砌的复杂参数,反倒有一种工业级的冷峻感。当你深入它的架构,你会发现它解决的核心痛点其实非常朴素:成本的可预测性和计算的原生性。现在的 AI 链项目最大的谎言就是试图让链去适应 AI,但这在物理上是行不通的,因为区块链的本质是冗余计算,而 AI 的本质是暴力计算,这两者天生互斥。Vanar 的聪明之处在于,它没有试图把大模型直接塞进区块里,也没有搞那种虚无缥缈的去中心化训练,而是专注于“验证”和“交互”这两个环节。我在部署合约时,明显感觉到它的 Kaion 模块(虽然文档里名字很酷,但我更愿意称之为链上验证器)在处理推理结果时的丝滑,它不是在链上重跑一遍模型,而是验证推理路径的有效性,这种四两拨千斤的设计,才是 Web3 AI 该有的样子。
这让我想起了当年的以太坊杀手之争,大家都觉得 TPS 是王道,结果最后活下来的反而是生态最丰富的。现在的 AI 链竞争也是一样,大家都在比谁的算力大,谁的模型多,完全搞错了方向。真正的 AI 基础设施,应该是像 Vanar 这样,提供一个极低摩擦的环境,让 Agent 可以像在本地服务器一样运行,但又具备区块链的不可篡改性。我在测试中发现,Vanar 的交易结构对机器非常友好,它把很多需要通过智能合约复杂逻辑才能实现的功能,直接做成了底层的预编译指令,这意味着我的 Agent 调用这些功能时,不需要支付昂贵的一般性计算 Gas,而是以一种极低的固定成本在运行。这种设计对于人类用户来说可能感知不强,反正大家都是手动点两下鼠标,但对于每分钟可能要交互成千上万次的 AI Agent 来说,这就是生与死的区别。
在这个充满噪音的市场里,大家都在追逐那些只会喊口号的 MEME 或者是 VC 组局的天王级项目,却忽略了像 Vanar 这种在底层代码上做减法的项目。我甚至觉得 Vanar 的团队有点过于工程师思维了,他们的宣发简直烂得一塌糊涂,很多极具革命性的技术特性,被藏在晦涩的技术文档角落里,如果不是我这种闲得无聊愿意扒代码的人,根本发现不了。比如那个 Neutron 存储层,我本来以为就是个普通的 IPFS 封装,结果用了才发现,它是专门为 AI 的热数据设计的,不仅读取速度快,而且支持数据的细粒度权限控制,这对于需要保护隐私的 AI 应用来说太关键了。在其他链上,我要实现同样的功能,得外挂三个不同的中间件,复杂度和安全性简直是灾难。
对比竞品,这种差距感更加明显。我看过很多所谓的“算力链”,实际上就是在卖显卡租赁的期货,和区块链技术本身关系不大,更像是一个淘宝租赁平台。而 Vanar 是实打实的 Layer 1,它在处理并发请求时的那种稳定性,让我想起了早期的 Google Cloud,虽然没有什么花哨的 UI,但就是稳。我知道很多人会说,Vanar 的生态还不够大,没人用技术再好也是白搭。这话没错,但在这个阶段,生态是可以被资本催熟的,而底层的基因是无法改变的。一个为了 DeFi 设计的链,哪怕上面堆了再多的钱,它也跑不起这一波 AI 的浪潮。以太坊现在就像是一个拥挤的闹市区,寸土寸金,适合开奢侈品店(DeFi),但不适合建工厂(AI 计算)。Vanar 更像是一个规划完善的新兴工业园区,水电煤气(基础设施)一应俱全,而且地价便宜,这才是 AI 创业者真正需要的土壤。
而且,我不禁要吐槽一下现在市场的浮躁,大家似乎都忘记了区块链的初衷是为了降低信任成本,而不是增加技术门槛。我在研究 Vanar 的经济模型时,发现它对
$VANRY
的定位非常清晰,就是这一整套自动化体系的燃料。现在的很多项目,代币除了治理投票一点用没有,但在 Vanar 的网络里,如果我的 Agent 想要调用链上的数据,想要验证它的推理结果,甚至只是想要在链上存活下去,都必须消耗
$VANRY
。这种刚性需求让我想到了当年的 ETH,而不是那些纯粹为了挖矿而存在的空气币。虽然现在的币价还在低位徘徊,甚至有时候看着K线那一潭死水的样子让人想骂娘,但如果你把眼光放长一点,想象一下未来如果有几百万个 Agent 在这个网络上不间断地运行,每秒钟都在消耗代币,那个通缩的画面简直美得不敢看。
当然,我也不是在无脑吹捧,Vanar 也有它的问题。比如跨链的互操作性目前还做得不够好,虽然他们宣称在做,但我实际体验下来,资产进出的流畅度还是不如那些成熟的 L2。而且,文档的更新速度赶不上代码的迭代,经常出现我照着文档写代码报错,结果去 Discord 问才知道接口已经改了的情况,这种草台班子的即视感确实很劝退开发者。但这恰恰也说明了它还在早期的野蛮生长阶段,还没有被那些只会做 PPT 的职业经理人给僵化。
在这几天的深度交互中,我还发现了一个很有意思的点,就是 Vanar 对传统的 Web2 巨头似乎有一种莫名的吸引力。我看他们的合作伙伴列表,Google Cloud、Nvidia 这种名字赫然在列,这在币圈其实挺少见的。很多项目所谓的合作可能就是买了人家几台服务器,但我感觉 Vanar 和他们的合作更深一点,尤其是在技术栈的兼容性上,感觉他们是在有意地降低 Web2 开发者进入 Web3 的门槛。对于我这种习惯了 Docker 和 Kubernetes 的人来说,Vanar 的开发环境让我感到久违的亲切,没有那些神神叨叨的黑话,代码就是代码,逻辑就是逻辑。
回过头来看,我们现在的行业正处在一个极其尴尬的裂缝中,一边是 AI 技术的日新月异,Sora 都出来炸场了,这边的区块链还在为几千 TPS 沾沾自喜。这种错位感让我经常感到焦虑,我们是不是在做一件毫无意义的事情?但 Vanar 给了我一点微小的希望,它让我看到了一种可能,就是区块链不需要去蹭 AI 的热度,而是真正成为 AI 离不开的底座。当 AI 拥有了自主意识(哪怕只是初级的),它需要一个地方来存放它的私房钱,需要一个地方来记录它的思考过程,需要一个不被人类随时拔电源的避难所,而 Vanar 正在试图建造这个避难所。
这种基础设施的价值,往往是隐形的,就像你平时感觉不到下水道的存在,直到下暴雨的时候才知道它的重要性。现在的市场还在为各种 MEME 狂欢,但我隐约感觉到,资金的聪明钱已经在开始寻找下一个十年的叙事载体了。AI + Crypto 绝对不仅仅是一个炒作的板块,它是未来数字社会的底层逻辑,而在这个逻辑里,谁能解决计算的验证和数据的确权,谁就是新的王。Vanar 现在看起来就像是一个在角落里默默拧螺丝的工匠,比起隔壁那些在舞台上跳大神的项目显得格格不入,甚至有点土气,但我打赌,当潮水退去,当那些华丽的 PPT 变成废纸的时候,这些拧上去的螺丝才是支撑起摩天大楼的关键。
写到这里,窗外的天已经蒙蒙亮了,屏幕上的 Agent 依然在稳定地运行,Gas 费低得几乎可以忽略不计。这种平静感在这个充满了暴涨暴跌的赌场里显得格外珍贵。我不知道
$VANRY
最终能不能跑出来,毕竟这个圈子从来不缺好技术死于烂运营的故事,但至少在技术路线上,它没有在骗我,也没有在骗自己。对于我们这些真正的信徒来说,有时候这一点点的“真诚”,就足够让我们押上筹码了。这可能是一场漫长的赌局,但既然已经坐在了桌上,比起那些虚张声势的对手,我更愿意相信手里这把看起来并不起眼,但质地坚硬的牌。在这个充满不确定的变革前夜,做一个清醒的旁观者,或许比做一个狂热的参与者更能看清未来的方向,而 Vanar,正好提供了这样一个冷静观察的窗口,透过它,我似乎看到了一点点未来互联网该有的样子——高效、冷漠、但绝对公正。
#vanar
BTC
ETH
VANRY
Daft Punk马到成功版
·
--
遇到难回答的问题又不说话了。
遇到难回答的问题又不说话了。
Daft Punk马到成功版
·
--
我将辞职全身心研究土狗。
我将辞职全身心研究土狗。
Daft Punk马到成功版
·
--
对着XPL现在这个跌幅发呆,心里没点波动那是骗人的,毕竟真金白银砸进去缩水了快90%,换谁都得骂娘。但既然决定在这个圈子做研究,就不能只会被情绪带着跑,我强迫自己关掉K线图,去翻了翻@Plasma 最近的Github提交和链上数据,反倒看出点不一样的东西。咱们整天喊Web3大规模应用,其实最大的拦路虎根本不是TPS不够高,而是门槛太反人类,你想想,为了转几u的稳定币,还得先去买ETH或者SOL当Gas,这逻辑在圈外人看来简直荒谬。Plasma底层的Paymaster机制算是我最近测过最顺手的,原生支持稳定币支付Gas,这种“零磨损”体验才像是正经做支付的样子,比那些单纯堆砌吞吐量的公链稍微懂点产品逻辑。 这就不得不提它跟竞品的差异,现在市面上的L2虽然便宜,但交互逻辑依然是割裂的,而Plasma不仅EVM全兼容,还搞了个比特币网络定锚,把状态定期刻在BTC链上。这招挺聪明的,在这个不确定的行情下,借比特币的安全性给自己背书,比自己在那喊共识强得多。我又去扒了一下Maple上的数据,SyrupUSDT借贷池的TVL居然稳在11亿美元,这数据有点吓人,机构资金不是傻子,能在这个位置还敢大体量沉淀,说明Smart Money对它的流动性和安全性是有底的。这种真金白银的投票,比推特上的喊单靠谱。 当然,作为一个严谨的调研,我也得泼点冷水。现在的验证者节点还是太集中在团队手里,去中心化程度肉眼可见的低,这始终是个雷。而且生态除了支付和借贷,确实荒凉得可以,想找个好玩的Dapp都难。但这可能就是盈亏同源吧,市场现在极度悲观,大家只盯着价格骂,却忽略了Rain cards和Oobit接入Visa网络这种实打实的落地数据。我在想,如果支付赛道真能跑出来,是选那些还在讲故事的,还是选这种已经把路铺到线下的?#plasma $XPL
对着XPL现在这个跌幅发呆,心里没点波动那是骗人的,毕竟真金白银砸进去缩水了快90%,换谁都得骂娘。但既然决定在这个圈子做研究,就不能只会被情绪带着跑,我强迫自己关掉K线图,去翻了翻
@Plasma
最近的Github提交和链上数据,反倒看出点不一样的东西。咱们整天喊Web3大规模应用,其实最大的拦路虎根本不是TPS不够高,而是门槛太反人类,你想想,为了转几u的稳定币,还得先去买ETH或者SOL当Gas,这逻辑在圈外人看来简直荒谬。Plasma底层的Paymaster机制算是我最近测过最顺手的,原生支持稳定币支付Gas,这种“零磨损”体验才像是正经做支付的样子,比那些单纯堆砌吞吐量的公链稍微懂点产品逻辑。
这就不得不提它跟竞品的差异,现在市面上的L2虽然便宜,但交互逻辑依然是割裂的,而Plasma不仅EVM全兼容,还搞了个比特币网络定锚,把状态定期刻在BTC链上。这招挺聪明的,在这个不确定的行情下,借比特币的安全性给自己背书,比自己在那喊共识强得多。我又去扒了一下Maple上的数据,SyrupUSDT借贷池的TVL居然稳在11亿美元,这数据有点吓人,机构资金不是傻子,能在这个位置还敢大体量沉淀,说明Smart Money对它的流动性和安全性是有底的。这种真金白银的投票,比推特上的喊单靠谱。
当然,作为一个严谨的调研,我也得泼点冷水。现在的验证者节点还是太集中在团队手里,去中心化程度肉眼可见的低,这始终是个雷。而且生态除了支付和借贷,确实荒凉得可以,想找个好玩的Dapp都难。但这可能就是盈亏同源吧,市场现在极度悲观,大家只盯着价格骂,却忽略了Rain cards和Oobit接入Visa网络这种实打实的落地数据。我在想,如果支付赛道真能跑出来,是选那些还在讲故事的,还是选这种已经把路铺到线下的?
#plasma
$XPL
BTC
SOL
XPL
Daft Punk马到成功版
·
--
支付原语的暴力回归:在 Rollup 垄断下,我对 Plasma 架构、Reth 客户端与确定性终局的逆向审视在Layer 2扩容方案也就是Rollup几乎统治了以太坊生态话语权的当下,我又回过头去啃了一遍@Plasma 的白皮书和最新的技术文档,这种感觉多少有点像是在满大街跑满电动爹的时代,突然在一个不起眼的车库里发现了一台经过魔改的大排量自吸燃油车,既显得格格不入,又透着一股子让人着迷的机械暴力美学。我看很多人都在聊Plasma的币价或者是那个看起来有点吓人的解锁盘子,但作为一个喜欢在该死的链上交互细节里找茬的人,我更想聊聊我在测试网和早期主网环境里折腾这几天下来的真实感受,特别是当把视线从那些宏大的叙事上移开,真正去跑一跑它的节点,发几笔交易,甚至去对比一下它和现在市面上那些被吹上天的“高性能链”到底有什么本质的区别时,很多有意思的细节才慢慢浮现出来。 说实话,最开始我对Plasma这个新版本的架构是带着有色眼镜的,毕竟上一轮周期的老人谁没被“Plasma扩容方案”那个著名的退出机制(Exit Game)折磨过?那种把用户资金安全完全寄托在必须时刻在线盯着挑战期的设计,简直就是反人性的巅峰,导致后来Optimistic Rollup和ZK Rollup崛起时,大家几乎是毫无留恋地把Plasma抛进了故纸堆。但这次不一样,当你真正深入到这个基于Reth构建的执行层内部时,你会发现这帮人选了一条极窄的路。他们没打算做一个什么都能干的通用型计算平台,而是极其偏执地把技能点全点在了“支付原语”和“确定性”上。我试着同步了一下节点,Reth客户端给我的反馈是非常直观的——轻快。如果你跑过Geth节点,甚至是被Bloat到爆炸的Solana验证者节点,你就能体会到这种Rust写出来的东西在内存管理和同步效率上有多恐怖,这不仅仅是代码写得漂不漂亮的问题,而是这种底层客户端的选择直接决定了这条链在极端高并发状况下的鲁棒性。 我在链上做压测的时候发现了一个很有趣的现象,也是我现在对很多L2颇有微词的地方。现在的L2看似TPS很高,但那个所谓的“即时确认”其实是Soft Finality,实际上还是得等排序器(Sequencer)把数据打包扔到L1上才算完事,中间那个时间差里,排序器要想作恶或者单纯只是宕机,用户除了干瞪眼什么都做不了。而Plasma这次搞的这个BFT共识,虽然名字听起来有点复古,但在实际体验中,那种交易发出去几乎瞬间就能获得确定性Finality的感觉,真的太像Web2的支付体验了。这让我想到Solana,Solana快是快,但那种时不时就给你来个全网停机维护的“特色”真的让人心里没底,特别是做支付业务,你不可能跟商家说“不好意思,现在链停机了,您的咖啡钱得等两小时”。Plasma这种牺牲了一部分去中心化极致追求(指节点数量可能不如以太坊主网那么庞大)来换取极致BFT确认速度的思路,在支付这个垂直赛道上,逻辑是完全自洽的。 再来说说那个被吹得很神的Gas Abstraction(Gas抽象),也就是用稳定币直接付Gas费这事。市面上很多做账户抽象(AA)的钱包都在推这个概念,但那是合约层面的模拟,中间经过了Paymaster的中继,不仅逻辑复杂,还多了一层信任成本和潜在的故障点。我在Plasma上操作的时候,这种体验是原生的,协议层直接支持。这意味着我只要钱包里有USDT或者XPL,我就能动,不需要像在Arbitrum或Optimism上那样,为了转那一两百U,还得专门留个十几刀的ETH当过路费,一旦ETH没了,整个账户就跟废了一样动弹不得。这种“原生感”非常重要,它消除了用户在使用加密货币进行日常支付时最大的心理阻碍。我对比了下Celo,虽然Celo很早也在做类似的事,但Celo的生态割裂感太强,兼容性也没做好,而Plasma直接骑在EVM的脖子上,既保留了EVM的开发惯性,又把支付体验这一块单独拎出来做了魔改,这一招确实挺聪明的。 不过,技术上的自洽不代表没有隐患。我在翻阅技术文档和社区讨论时,发现大家对Data Availability(DA)也就是数据可用性的讨论还是有点避重就轻。虽然现在的方案不再像当年那样需要用户下载所有数据来做欺诈证明,但作为一条独立的L1,它的安全性天花板依然取决于它自己的验证者集合,而不是以太坊。这就带来一个很现实的问题:如果XPL的价格撑不住,验证者的作恶成本会不会变得过低?现在的经济模型设计里,把大量的代币分配给了生态激励和流动性挖矿,这在短期内肯定能把TVL拉起来,我看链上数据也确实在增长,但这种靠“补贴”维持的繁荣能持续多久?一旦补贴退坡,那些撸毛党和雇佣兵资本撤离的速度绝对比谁都快。这点上我还是比较担心的,毕竟我们在上一轮DeFi Summer里见多了这种死法。 竞品方面,除了那些通用的L2,我觉得Plasma真正要面对的对手其实是Monad这种正在路上的并行EVM巨兽,以及像Tron这样虽然土但垄断了USDT转账市场的霸主。Tron虽然被我们这些自诩为技术原教旨主义者的人看不起,但人家确实稳,转账确实便宜。Plasma要想在这个红海里杀出来,光靠技术上的“优雅”是没用的,Reth再快,BFT再稳,如果用户习惯了Tron地址里那个T开头的字符串,迁移成本是巨大的。而且我发现Plasma在跨链互操作性上目前的体验还比较生涩,虽然官方在推各种Bridge,但实际操作下来,资金进出的摩擦成本还是偏高,特别是大额资金的跨链,滑点和等待时间都还有优化的空间。如果未来不能做到像CEX提币那样丝滑,想要大规模取代现有的支付网络还是挺难的。 还有一个让我觉得比较讽刺的点是隐私。在这个大家都喊着要合规、要拥抱监管的时代,Plasma在底层其实预留了一些隐私交易的接口(Confidential Transactions),这有点像Pederson Commitments那一套东西。我在链上浏览器里扒拉数据的时候,偶尔能看到一些结构很奇怪的交易,我不确定这是不是官方在测试相关功能,如果是真的,那这把双刃剑可就太锋利了。一方面,商业支付绝对需要隐私,谁也不想自己的工资单或者供应链货款被全世界围观;但另一方面,这也绝对是监管机构的眼中钉。如何在“抗审查”和“可监管”之间走钢丝,可能是技术之外最大的挑战。现在的设计似乎是想引入类似View Keys的机制,给监管方开个后门,同时对公众保持匿名,这思路听着很美好,但工程实现上极容易出Bug,一旦隐私泄露,那就是灭顶之灾。 这几天沉浸式体验下来,我最大的感觉就是Plasma这帮人是真懂现在以太坊生态的痛点的。他们没有去跟风搞什么模块化(Modular)区块链的套娃游戏,也没有去卷什么ZK-EVM的证明速度,而是回到了最朴素的“价值转移”这个原点。现在的区块链世界太浮躁了,大家都想做世界计算机,都想承载几亿用户的社交网络,结果连最基本的转账体验都没做到完美。Plasma给我一种“反璞归真”的感觉,它就像是一把瑞士军刀,没有那么花哨的功能,但那把主刀磨得足够快,足够锋利。 当然,作为用户,我也必须吐槽一下现在的钱包适配问题。虽然说是EVM兼容,但很多主流钱包在切到Plasma网络时,对于代币显示的逻辑还是经常出Bug,好几次我明明转进去了USDT,钱包里就是显示不出来,得手动添加合约地址,甚至有时候得清除缓存才能刷出来。这种前端的小毛病虽然不致命,但极其搞心态,特别是在你急着确认一笔交易的时候。还有就是区块浏览器,目前的功能虽然够用,但在解析复杂合约交互,特别是涉及到它那个原生Paymaster逻辑的交易时,经常显示得一塌糊涂,全是一堆乱码一样的Input Data,根本看不出Gas到底是谁付的,付了多少。对于开发者和深究党来说,这简直就是灾难。 再深入聊聊那个让人又爱又恨的Rust。现在公链圈子里似乎有个鄙视链,用Rust写的就是比用Go写的牛逼,Plasma全是Rust写的,确实在性能压榨上做到了极致。但我也不得不泼盆冷水,Rust的学习曲线导致了开发者社区的门槛变高了。现在的EVM生态之所以繁荣,是因为Solidity简单,是个程序员都能写两行。Plasma虽然支持EVM,但如果要在底层做一些深度的定制开发,或者利用它那些高性能的特性,你就得去啃Rust。我看GitHub上的活跃度,核心贡献者就那么几个面孔,虽然提交代码的频率很高,质量也不错,但这种“精英开发模式”能不能撑得起一个庞大的生态,我是存疑的。一旦这几个核心大牛哪天不干了,或者社区出现了分叉,后面的人能不能接得住这套复杂的架构,真的是个未知数。 回过头看,Plasma这次的回归,更像是一次对Layer 1价值的重新确认。在L2们为了争夺以太坊正统性打得头破血流的时候,Plasma跳出来说:“哥们不陪你们玩了,我自己搞个专门做支付的L1。”这种勇气是值得佩服的。它放弃了通用计算的星辰大海,选择了支付结算的这一亩三分地。但这块地,恰恰是区块链最原始、最核心、也是目前现金流最充沛的领域。如果它能把稳定币支付的Gas磨损降到几乎可以忽略不计,同时保持秒级的确定性,那它确实有可能成为那个连接Web2和Web3的隐形桥梁。 现在的币圈,大家都在找下一个百倍叙事,AI+Crypto也好,DePin也好,都听着很性感。但Plasma这种看起来“枯燥”的基础设施重构,反倒让我觉得更踏实。它没有什么花里胡哨的概念,就是在那死磕TPS,死磕延迟,死磕数据库读写性能。这种工程师思维在现在的市场环境下显得有点笨拙,甚至有点不合群。但我喜欢这种笨拙,因为所有的摩天大楼,最后都得建在这些不起眼的泥瓦匠铺好的地基上。 最后,还是得提醒一下,虽然技术看着不错,但千万别对那个代币经济模型掉以轻心。我看那个释放曲线,早期投资人和团队的筹码还是太集中了。现在的流动性就像是虚胖,看着热闹,一针扎下去可能全是水。如果你是冲着技术去体验的,那我强烈建议你去跑跑节点,去读读那份写得确实很漂亮的代码;但如果你是冲着炒币去的,那就盯着那个解锁日历看吧,别被技术术语忽悠瘸了。在这个圈子里,代码不会骗人,但K线会。Plasma是不是那个最终的答案我不知道,但它绝对是目前我在支付赛道上看到的最像样、最能打的一个尝试。至于能不能成,就看市场是更在乎技术的真理,还是更在乎资本的故事了。反正我会留一部分仓位在XPL上,不是因为信仰,纯粹是作为这张通往“支付终局”门票的押注,哪怕最后证明我是错的,至少我也见证了一个技术团队是如何试图用代码去对抗这个世界的熵增的。这就够了,不是吗?#plasma $XPL
支付原语的暴力回归:在 Rollup 垄断下,我对 Plasma 架构、Reth 客户端与确定性终局的逆向审视
在Layer 2扩容方案也就是Rollup几乎统治了以太坊生态话语权的当下,我又回过头去啃了一遍
@Plasma
的白皮书和最新的技术文档,这种感觉多少有点像是在满大街跑满电动爹的时代,突然在一个不起眼的车库里发现了一台经过魔改的大排量自吸燃油车,既显得格格不入,又透着一股子让人着迷的机械暴力美学。我看很多人都在聊Plasma的币价或者是那个看起来有点吓人的解锁盘子,但作为一个喜欢在该死的链上交互细节里找茬的人,我更想聊聊我在测试网和早期主网环境里折腾这几天下来的真实感受,特别是当把视线从那些宏大的叙事上移开,真正去跑一跑它的节点,发几笔交易,甚至去对比一下它和现在市面上那些被吹上天的“高性能链”到底有什么本质的区别时,很多有意思的细节才慢慢浮现出来。
说实话,最开始我对Plasma这个新版本的架构是带着有色眼镜的,毕竟上一轮周期的老人谁没被“Plasma扩容方案”那个著名的退出机制(Exit Game)折磨过?那种把用户资金安全完全寄托在必须时刻在线盯着挑战期的设计,简直就是反人性的巅峰,导致后来Optimistic Rollup和ZK Rollup崛起时,大家几乎是毫无留恋地把Plasma抛进了故纸堆。但这次不一样,当你真正深入到这个基于Reth构建的执行层内部时,你会发现这帮人选了一条极窄的路。他们没打算做一个什么都能干的通用型计算平台,而是极其偏执地把技能点全点在了“支付原语”和“确定性”上。我试着同步了一下节点,Reth客户端给我的反馈是非常直观的——轻快。如果你跑过Geth节点,甚至是被Bloat到爆炸的Solana验证者节点,你就能体会到这种Rust写出来的东西在内存管理和同步效率上有多恐怖,这不仅仅是代码写得漂不漂亮的问题,而是这种底层客户端的选择直接决定了这条链在极端高并发状况下的鲁棒性。
我在链上做压测的时候发现了一个很有趣的现象,也是我现在对很多L2颇有微词的地方。现在的L2看似TPS很高,但那个所谓的“即时确认”其实是Soft Finality,实际上还是得等排序器(Sequencer)把数据打包扔到L1上才算完事,中间那个时间差里,排序器要想作恶或者单纯只是宕机,用户除了干瞪眼什么都做不了。而Plasma这次搞的这个BFT共识,虽然名字听起来有点复古,但在实际体验中,那种交易发出去几乎瞬间就能获得确定性Finality的感觉,真的太像Web2的支付体验了。这让我想到Solana,Solana快是快,但那种时不时就给你来个全网停机维护的“特色”真的让人心里没底,特别是做支付业务,你不可能跟商家说“不好意思,现在链停机了,您的咖啡钱得等两小时”。Plasma这种牺牲了一部分去中心化极致追求(指节点数量可能不如以太坊主网那么庞大)来换取极致BFT确认速度的思路,在支付这个垂直赛道上,逻辑是完全自洽的。
再来说说那个被吹得很神的Gas Abstraction(Gas抽象),也就是用稳定币直接付Gas费这事。市面上很多做账户抽象(AA)的钱包都在推这个概念,但那是合约层面的模拟,中间经过了Paymaster的中继,不仅逻辑复杂,还多了一层信任成本和潜在的故障点。我在Plasma上操作的时候,这种体验是原生的,协议层直接支持。这意味着我只要钱包里有USDT或者XPL,我就能动,不需要像在Arbitrum或Optimism上那样,为了转那一两百U,还得专门留个十几刀的ETH当过路费,一旦ETH没了,整个账户就跟废了一样动弹不得。这种“原生感”非常重要,它消除了用户在使用加密货币进行日常支付时最大的心理阻碍。我对比了下Celo,虽然Celo很早也在做类似的事,但Celo的生态割裂感太强,兼容性也没做好,而Plasma直接骑在EVM的脖子上,既保留了EVM的开发惯性,又把支付体验这一块单独拎出来做了魔改,这一招确实挺聪明的。
不过,技术上的自洽不代表没有隐患。我在翻阅技术文档和社区讨论时,发现大家对Data Availability(DA)也就是数据可用性的讨论还是有点避重就轻。虽然现在的方案不再像当年那样需要用户下载所有数据来做欺诈证明,但作为一条独立的L1,它的安全性天花板依然取决于它自己的验证者集合,而不是以太坊。这就带来一个很现实的问题:如果XPL的价格撑不住,验证者的作恶成本会不会变得过低?现在的经济模型设计里,把大量的代币分配给了生态激励和流动性挖矿,这在短期内肯定能把TVL拉起来,我看链上数据也确实在增长,但这种靠“补贴”维持的繁荣能持续多久?一旦补贴退坡,那些撸毛党和雇佣兵资本撤离的速度绝对比谁都快。这点上我还是比较担心的,毕竟我们在上一轮DeFi Summer里见多了这种死法。
竞品方面,除了那些通用的L2,我觉得Plasma真正要面对的对手其实是Monad这种正在路上的并行EVM巨兽,以及像Tron这样虽然土但垄断了USDT转账市场的霸主。Tron虽然被我们这些自诩为技术原教旨主义者的人看不起,但人家确实稳,转账确实便宜。Plasma要想在这个红海里杀出来,光靠技术上的“优雅”是没用的,Reth再快,BFT再稳,如果用户习惯了Tron地址里那个T开头的字符串,迁移成本是巨大的。而且我发现Plasma在跨链互操作性上目前的体验还比较生涩,虽然官方在推各种Bridge,但实际操作下来,资金进出的摩擦成本还是偏高,特别是大额资金的跨链,滑点和等待时间都还有优化的空间。如果未来不能做到像CEX提币那样丝滑,想要大规模取代现有的支付网络还是挺难的。
还有一个让我觉得比较讽刺的点是隐私。在这个大家都喊着要合规、要拥抱监管的时代,Plasma在底层其实预留了一些隐私交易的接口(Confidential Transactions),这有点像Pederson Commitments那一套东西。我在链上浏览器里扒拉数据的时候,偶尔能看到一些结构很奇怪的交易,我不确定这是不是官方在测试相关功能,如果是真的,那这把双刃剑可就太锋利了。一方面,商业支付绝对需要隐私,谁也不想自己的工资单或者供应链货款被全世界围观;但另一方面,这也绝对是监管机构的眼中钉。如何在“抗审查”和“可监管”之间走钢丝,可能是技术之外最大的挑战。现在的设计似乎是想引入类似View Keys的机制,给监管方开个后门,同时对公众保持匿名,这思路听着很美好,但工程实现上极容易出Bug,一旦隐私泄露,那就是灭顶之灾。
这几天沉浸式体验下来,我最大的感觉就是Plasma这帮人是真懂现在以太坊生态的痛点的。他们没有去跟风搞什么模块化(Modular)区块链的套娃游戏,也没有去卷什么ZK-EVM的证明速度,而是回到了最朴素的“价值转移”这个原点。现在的区块链世界太浮躁了,大家都想做世界计算机,都想承载几亿用户的社交网络,结果连最基本的转账体验都没做到完美。Plasma给我一种“反璞归真”的感觉,它就像是一把瑞士军刀,没有那么花哨的功能,但那把主刀磨得足够快,足够锋利。
当然,作为用户,我也必须吐槽一下现在的钱包适配问题。虽然说是EVM兼容,但很多主流钱包在切到Plasma网络时,对于代币显示的逻辑还是经常出Bug,好几次我明明转进去了USDT,钱包里就是显示不出来,得手动添加合约地址,甚至有时候得清除缓存才能刷出来。这种前端的小毛病虽然不致命,但极其搞心态,特别是在你急着确认一笔交易的时候。还有就是区块浏览器,目前的功能虽然够用,但在解析复杂合约交互,特别是涉及到它那个原生Paymaster逻辑的交易时,经常显示得一塌糊涂,全是一堆乱码一样的Input Data,根本看不出Gas到底是谁付的,付了多少。对于开发者和深究党来说,这简直就是灾难。
再深入聊聊那个让人又爱又恨的Rust。现在公链圈子里似乎有个鄙视链,用Rust写的就是比用Go写的牛逼,Plasma全是Rust写的,确实在性能压榨上做到了极致。但我也不得不泼盆冷水,Rust的学习曲线导致了开发者社区的门槛变高了。现在的EVM生态之所以繁荣,是因为Solidity简单,是个程序员都能写两行。Plasma虽然支持EVM,但如果要在底层做一些深度的定制开发,或者利用它那些高性能的特性,你就得去啃Rust。我看GitHub上的活跃度,核心贡献者就那么几个面孔,虽然提交代码的频率很高,质量也不错,但这种“精英开发模式”能不能撑得起一个庞大的生态,我是存疑的。一旦这几个核心大牛哪天不干了,或者社区出现了分叉,后面的人能不能接得住这套复杂的架构,真的是个未知数。
回过头看,Plasma这次的回归,更像是一次对Layer 1价值的重新确认。在L2们为了争夺以太坊正统性打得头破血流的时候,Plasma跳出来说:“哥们不陪你们玩了,我自己搞个专门做支付的L1。”这种勇气是值得佩服的。它放弃了通用计算的星辰大海,选择了支付结算的这一亩三分地。但这块地,恰恰是区块链最原始、最核心、也是目前现金流最充沛的领域。如果它能把稳定币支付的Gas磨损降到几乎可以忽略不计,同时保持秒级的确定性,那它确实有可能成为那个连接Web2和Web3的隐形桥梁。
现在的币圈,大家都在找下一个百倍叙事,AI+Crypto也好,DePin也好,都听着很性感。但Plasma这种看起来“枯燥”的基础设施重构,反倒让我觉得更踏实。它没有什么花里胡哨的概念,就是在那死磕TPS,死磕延迟,死磕数据库读写性能。这种工程师思维在现在的市场环境下显得有点笨拙,甚至有点不合群。但我喜欢这种笨拙,因为所有的摩天大楼,最后都得建在这些不起眼的泥瓦匠铺好的地基上。
最后,还是得提醒一下,虽然技术看着不错,但千万别对那个代币经济模型掉以轻心。我看那个释放曲线,早期投资人和团队的筹码还是太集中了。现在的流动性就像是虚胖,看着热闹,一针扎下去可能全是水。如果你是冲着技术去体验的,那我强烈建议你去跑跑节点,去读读那份写得确实很漂亮的代码;但如果你是冲着炒币去的,那就盯着那个解锁日历看吧,别被技术术语忽悠瘸了。在这个圈子里,代码不会骗人,但K线会。Plasma是不是那个最终的答案我不知道,但它绝对是目前我在支付赛道上看到的最像样、最能打的一个尝试。至于能不能成,就看市场是更在乎技术的真理,还是更在乎资本的故事了。反正我会留一部分仓位在XPL上,不是因为信仰,纯粹是作为这张通往“支付终局”门票的押注,哪怕最后证明我是错的,至少我也见证了一个技术团队是如何试图用代码去对抗这个世界的熵增的。这就够了,不是吗?
#plasma
$XPL
ETH
XPL
Daft Punk马到成功版
·
--
【从行为熵到执行模型:为什么 DBTI 是 AI 交易时代的 MBTI?】加密市场本质上是一个高维度的“博弈沙盒”。散户亏损的根源往往被归结为信息差,但从行为金融学视角看,更核心的因素在于:交易行为与底层性格结构的长期错配。 性急者被迫长线,性慢者盲目高频——这种执行层面的“排异反应”导致了大多数人的纪律崩溃。 1. DBTI:从“主观问卷”到“逆强化学习(IRL)”的进化 不同于传统心理学测试,Calculus Finance(https://x.com/CalculusFinance) 推动的 DBTI(去中心化交易人格系统) 采用的是非侵入式的数据挖掘模型: 策略基因提取:通过逆强化学习(Inverse Reinforcement Learning),从链上顶级交易员和鲸鱼钱包的完整轨迹中,反向推导其奖励函数(Reward Function)与决策逻辑。 16 类执行原型:系统将隐藏的行为习惯聚类,抽象出 16 种在极端市场环境中验证过的生存模式。它定义的不是“你是谁”,而是“你在高压力下的反应函数”。 2. 样本观测:系统优先 vs. 动态节奏 利用 DBTI 框架观测行业核心决策者,可以发现极具参考价值的逻辑差异: @CZ (DCTS 倾向):系统与规则优先(D/C),逻辑与数据驱动(T),对系统性风险高度敏感(S)。这是一种典型的“结构稳定性”模型,通过放弃短期极端弹性来换取长期系统确定性。 @heyi (NBVA 倾向):共识与阶段性节奏导向(N/B),高推进速度(V),对复杂环境具高容忍度(A)。其核心竞争力在于动态环境下的博弈控制与节奏对齐。 3. 从“自动执行”到“自动理解”:Agent Gateway 的校准 DBTI 的核心价值并非止于“贴标签”,而是为 Agent-Native 时代的到来提供意图接口: 暴露风险盲区:量化性格中的结构性弱点,将易错场景的决策权移交给 AI。 人格 × 策略映射:用户不再是选择一种“收益率”,而是选择一个与自己交易人格对齐的 AI 智能体。 在 MEV 和高频策略统治的市场,竞争维度已从“获取信息”转向“决策结构的自我认知”。 Calculus 的愿景是显而易见的:DeFi 的下一阶段不是更复杂的合约,而是更精准的意图对齐。 认识自己,是接入 AI 交易时代的唯一入口。 测试地址:https://www.calculus.finance/ 邀请码:Ow69
【从行为熵到执行模型:为什么 DBTI 是 AI 交易时代的 MBTI?】
加密市场本质上是一个高维度的“博弈沙盒”。散户亏损的根源往往被归结为信息差,但从行为金融学视角看,更核心的因素在于:交易行为与底层性格结构的长期错配。
性急者被迫长线,性慢者盲目高频——这种执行层面的“排异反应”导致了大多数人的纪律崩溃。
1. DBTI:从“主观问卷”到“逆强化学习(IRL)”的进化
不同于传统心理学测试,Calculus Finance(https://x.com/CalculusFinance) 推动的 DBTI(去中心化交易人格系统) 采用的是非侵入式的数据挖掘模型:
策略基因提取:通过逆强化学习(Inverse Reinforcement Learning),从链上顶级交易员和鲸鱼钱包的完整轨迹中,反向推导其奖励函数(Reward Function)与决策逻辑。
16 类执行原型:系统将隐藏的行为习惯聚类,抽象出 16 种在极端市场环境中验证过的生存模式。它定义的不是“你是谁”,而是“你在高压力下的反应函数”。
2. 样本观测:系统优先 vs. 动态节奏
利用 DBTI 框架观测行业核心决策者,可以发现极具参考价值的逻辑差异:
@CZ
(DCTS 倾向):系统与规则优先(D/C),逻辑与数据驱动(T),对系统性风险高度敏感(S)。这是一种典型的“结构稳定性”模型,通过放弃短期极端弹性来换取长期系统确定性。
@Yi He
(NBVA 倾向):共识与阶段性节奏导向(N/B),高推进速度(V),对复杂环境具高容忍度(A)。其核心竞争力在于动态环境下的博弈控制与节奏对齐。
3. 从“自动执行”到“自动理解”:Agent Gateway 的校准
DBTI 的核心价值并非止于“贴标签”,而是为 Agent-Native 时代的到来提供意图接口:
暴露风险盲区:量化性格中的结构性弱点,将易错场景的决策权移交给 AI。
人格 × 策略映射:用户不再是选择一种“收益率”,而是选择一个与自己交易人格对齐的 AI 智能体。
在 MEV 和高频策略统治的市场,竞争维度已从“获取信息”转向“决策结构的自我认知”。
Calculus 的愿景是显而易见的:DeFi 的下一阶段不是更复杂的合约,而是更精准的意图对齐。
认识自己,是接入 AI 交易时代的唯一入口。
测试地址:https://www.calculus.finance/
邀请码:Ow69
BTC
ETH
Daft Punk马到成功版
·
--
说实话,看了这么多打着AI旗号的L1公链,大多还在玩那种“把大象塞进冰箱”的粗暴逻辑,强行把模型接口往链上一挂就敢叫智能。最近深度体验了@Vanar 的V23协议,这套架构确实有点意思,它不像那些只知道堆叠TPS的竞品,比如Solana虽然快,但面对AI Agent那种需要持续状态记忆和复杂推理的需求时,底层逻辑依然显得有些“健忘”。Vanar最吸引我的点在于它那个五层堆栈里的Neutron层,它把语义记忆和持久化上下文直接做进了基础设施,而不是像很多二层方案那样还得通过跨链桥去外面“借脑子”。 不过在实际交互中,我也发现了一些让人头大的细节。比如目前的节点响应在极端高频交易下,偶尔会出现数据检索的延迟,这对于主打PayFi和实时推理的场景来说,稳定性依然有待打磨。比起隔壁那些动不动就拿NVIDIA合作出来炒作、实则连CUDA加速都还没搞明白的项目,Vanar加入Inception计划后的动作显得克制许多,甚至克制得有点让人着急。它目前的代币捕获逻辑也变了,不再是单纯的Gas消耗,而是更像订阅AI服务的门票,这种范式转移确实比单纯的炒作算力代币化要硬核。如果未来能把Google Cloud的集成做得更无感一些,避开那些繁杂的私钥管理,那这套“智能基础设施”才算真正跑通了从Web2到Web3的价值转易。当然,现在说它能彻底颠覆传统公链还为时过早,毕竟生态建设不是光靠技术架构就能堆出来的,能不能接住下一波AI流量的爆发,还得看它在Vanguard测试网上的真实表现到底能不能扛住压力。 #vanar $VANRY
说实话,看了这么多打着AI旗号的L1公链,大多还在玩那种“把大象塞进冰箱”的粗暴逻辑,强行把模型接口往链上一挂就敢叫智能。最近深度体验了
@Vanarchain
的V23协议,这套架构确实有点意思,它不像那些只知道堆叠TPS的竞品,比如Solana虽然快,但面对AI Agent那种需要持续状态记忆和复杂推理的需求时,底层逻辑依然显得有些“健忘”。Vanar最吸引我的点在于它那个五层堆栈里的Neutron层,它把语义记忆和持久化上下文直接做进了基础设施,而不是像很多二层方案那样还得通过跨链桥去外面“借脑子”。
不过在实际交互中,我也发现了一些让人头大的细节。比如目前的节点响应在极端高频交易下,偶尔会出现数据检索的延迟,这对于主打PayFi和实时推理的场景来说,稳定性依然有待打磨。比起隔壁那些动不动就拿NVIDIA合作出来炒作、实则连CUDA加速都还没搞明白的项目,Vanar加入Inception计划后的动作显得克制许多,甚至克制得有点让人着急。它目前的代币捕获逻辑也变了,不再是单纯的Gas消耗,而是更像订阅AI服务的门票,这种范式转移确实比单纯的炒作算力代币化要硬核。如果未来能把Google Cloud的集成做得更无感一些,避开那些繁杂的私钥管理,那这套“智能基础设施”才算真正跑通了从Web2到Web3的价值转易。当然,现在说它能彻底颠覆传统公链还为时过早,毕竟生态建设不是光靠技术架构就能堆出来的,能不能接住下一波AI流量的爆发,还得看它在Vanguard测试网上的真实表现到底能不能扛住压力。
#vanar
$VANRY
VANRY
Daft Punk马到成功版
·
--
别再盯着TPS意淫了:我在Vanar的代码里看到了AI Agent真正需要的记忆体与灵魂最近这几周的市场躁动得让人无法静心写代码,满屏都是“AI+Crypto”的融资快讯和甚至连白皮书都没写完的土狗项目。我也差点被这种情绪带偏,觉得是不是只要是个链,套上个LLM的壳子就能飞。直到昨天凌晨,我为了验证一个跨链Agent的想法,硬着头皮去翻了好几个所谓的AI公链文档,最后停在了Vanar的架构图前。说实话,最开始我是抱着找茬的心态去的,毕竟在这个圈子里,把Web2的东西重新包装一下就敢叫“革命”的项目我见得多了,但当真的深入到@Vanar 的底层逻辑,特别是看到它怎么处理数据(Neutron)和推理验证(Kaion)的时候,我那种作为开发者的傲慢被击碎了一半。现在的公链市场陷入了一个极其无聊的怪圈,大家都在疯狂卷TPS,卷每秒能处理多少笔交易,仿佛把吞吐量做上去,AI就能在区块链上跑起来了一样,但这完全是个逻辑谬误。 我昨晚试着跑了一遍Vanar的测试网环境,这种体感和在Solana或者Base上完全不同。在Solana上,你感受到的是一种单纯的“快”,像是在高速公路上狂飙,但路两边是荒原本,没有任何基础设施能帮你处理复杂的逻辑交互;而在Vanar上,感觉更像是在进如一个装修好的工作室。为什么这么说?因为现有的EVM架构对于AI Agent来说简直就是监狱。你想想看,一个真正的智能体,它需要的不仅仅是把交易发出去,它需要“记忆”,需要知道上一步发生了什么,甚至需要理解三天前某个用户行为的上下文。在以太坊或者现在的L2上,想要实现这一点,你得自己在链下搭数据库,还得搞个预言机把数据喂回去,这一来一回,不仅Gas费爆炸,信任层也断了。但Vanar居然直接在链的底层架构里把“记忆”这个问题给解了,它的Neutron层不是简单的存储,而是一种带索引、可验证的动态数据库,这让我这种写合约的人感到一种久违的兴奋。 拿我现在手头在做的一个DeFi自动交易Agent来说,如果部署在Arbitrum上,我每一秒的决策都需要消耗Gas去查询历史价格,还得担心链下计算会不会作恶。但在Vanar的逻辑里,计算和验证被很巧妙地剥离了。我仔细研究了他们对于Kaion模块的描述,这东西本质上是在给智能合约装上了一个大脑皮层。它允许推理过程本身成为共识的一部分,而不是像现在这样,推理在黑盒子里完成,链上只记一个结果。这种区别对于不做技术的人可能很难理解,但对于我们这种想做真东西的人来说,这就是从“计算器”到“计算机”的跨越。我之前也看过ICP(互联网计算机),技术确实牛,但那个架构太封闭了,像个孤岛,开发门槛高得离谱。Vanar聪明的地方在于它没有完全抛弃EVM的生态习惯,而是做了一个极深度的魔改,这种兼容性让我原来的Solidity代码改改就能跑,但能力边界却被极大地拓宽了。 不过,我也不是来无脑吹捧的,Vanar目前的问题也很明显,或者说是整个赛道面临的尴尬。我在浏览他们浏览器数据的时候发现,虽然架构很美,但上面真正跑起来的高频原生应用还不够多。这就像是建了一座设施完美的超级工厂,流水线、机器人、电力系统全是顶配,但目前进驻的工队还不够多,导致很多时候这台精密的机器是在空转。而且,这种“重架构”的打法,在现在这个快餐化的市场里是很吃亏的。大家都在玩Memecoin,都在玩盘子,谁有耐心去研究你的底层是不是真的能支持大规模AI协作?这可能也是Vanar价值被严重低估的原因,市场现在的审美还停留在“快”和“炒”上,对于“智能”和“承载”没有概念。 这也引出了我对竞争对手的思考。现在市面上喊得最响的AI链,很多其实只是在做算力租赁,把GPU算力代币化,这确实是刚需,但那不是Layer 1该干的事,那是去中心化云服务的事。Vanar走的不是这条路,它走的是“数据引力”的路。我看它跟Google Cloud还有Nvidia的合作,起初以为是PR噱头,但结合技术文档看,这其实是在为Web2的庞大算力和数据进入Web3开后门。传统的公链是封闭的,外面的数据进来极难,但Vanar似乎在有意模糊这个边界。如果未来的AI Agent大多是由Web2的大模型驱动,但需要在Web3上进行经济结算,那么Vanar这种既有Web2级别的处理能力,又有Web3结算特性的中间层,确实卡位卡得很准。 我在测试过程中还发现了一个很有趣的细节,就是关于Gas费的设计。传统的模型是用户付费,这简直是反人类,这也是大规模应用起不来的根本原因。Vanar好像在推行一种类似于“应用方付费”或者“Agent付费”的模式,这意味着未来的用户可能根本感知不到Gas的存在。这在技术上不难实现,但在经济模型的博弈上很难。我看Vanar的代码里预留了很多这方面的接口,说明他们从一开始就是奔着“M2M”(机器对机器)经济去的。在这个体系里,$VANRY 不再仅仅是过路费,它更像是这个智能网络的“带宽”和“存储空间”的定价单位。想象一下,成千上万个AI在链上没日没夜地交互、交易、套利,它们消耗代币的速度和逻辑,跟我们要死要活去抢一次土狗发射完全是两个量级。 说到这,我不得不吐槽一下现在很多所谓的“链抽象”项目,搞得花里胡哨,把简单的逻辑复杂化。Vanar给我的感觉反而是“极简主义”的复杂。它的底层很重,包含了VRF、数据层、共识层,但暴露给开发者的接口却非常干净。这种“脏活累活我来干,你只管写逻辑”的态度,才是基础设施该有的样子。我还特意去对比了Near的分片技术,Near确实厉害,能把并发做得很高,但Near对于AI数据流的处理并没有专门的优化,它更多解决的是扩容问题。而Vanar是直接奔着AI数据的“热读取”和“冷存储”去的,这种针对特定场景的优化(Application-Specific Optimization)在通用的L1上几乎是不可能实现的。 当然,作为开发者我也有一层隐忧。这种高度集成的系统,一旦某个环节出问题,比如Kaion的验证节点出现大规模宕机,或者Neutron的数据索引出现错乱,那对于链上的Agent来说就是毁灭性的打击。去中心化和高性能、高功能性之间永远存在张力,Vanar目前的节点数量和去中心化程度,相较于以太坊肯定是有差距的。这在初期可能不是问题,毕竟效率优先,但如果真的要承载万亿级别的AI经济,安全性的考验才刚刚开始。我看代码的时候发现了一些关于节点惩罚机制的参数还在调整中,说明团队也还在摸索这个平衡点。 还有一个点让我觉得很有意思,就是Vanar生态里的社交属性。它不像Lens那样强行要做一个社交图谱,它更像是把社交行为变成了一种数据资产。当AI介入社交后,什么是真实的?什么是机器人?在Vanar的逻辑里,这可能都不重要,重要的是行为被验证,价值被流转。我看到有一些早期的SocialFi项目在Vanar上尝试,利用它的低成本优势做高频互动,这种体验确实比在BSC或者Polygon上顺滑,不会出现点个赞都要弹窗签名半天的情况。这种无感知的交互,才是我心中Web3该有的样子。 写到这里,窗外的天已经快亮了。我又看了一眼屏幕上还在跑的测试脚本,终端里跳动的一行行绿字,让我有一种奇怪的安宁感。在这个充满了欺诈、泡沫和焦虑的行业里,能看到一个团队在认认真真地思考“如果未来全是AI,区块链该长什么样”这个问题,并给出了代码级别的回应,这本身就是一种稀缺价值。Vanar可能不会像某些MEME币那样一夜百倍,但它在铺设的那条铁轨,可能是通往下一个时代的唯一路径。我们现在看到的只是它冰山一角,真正的威力要等到第一个杀手级的AI Agent在上面跑通商业闭环的时候才会爆发。 现在的币价走势我看都不想看,那都是K线画给韭菜看的心理按摩。真正的价值流转在代码里,在GitHub的提交记录里,在那些甚至还没被写进文档的底层优化里。我对Vanar的信心不来自于什么大V的喊单,也不来自于那些光鲜的合作伙伴Logo,而是来自于我作为一个程序员,在调用它的API时那种流畅的爽感。它让我相信,那个由代码编织的、无需许可的、智能体自由协作的未来,并不是科幻小说,它正在被一行一行地写出来。或许现在的Vanar还是个只有极少数极客关注的“鬼城”,但别忘了,当年的以太坊,也不过是几个疯子在谈论的世界计算机。在这个新旧世界交替的缝隙里,我选择相信技术的直觉,而不是市场的噪音。#vanar $VANRY
别再盯着TPS意淫了:我在Vanar的代码里看到了AI Agent真正需要的记忆体与灵魂
最近这几周的市场躁动得让人无法静心写代码,满屏都是“AI+Crypto”的融资快讯和甚至连白皮书都没写完的土狗项目。我也差点被这种情绪带偏,觉得是不是只要是个链,套上个LLM的壳子就能飞。直到昨天凌晨,我为了验证一个跨链Agent的想法,硬着头皮去翻了好几个所谓的AI公链文档,最后停在了Vanar的架构图前。说实话,最开始我是抱着找茬的心态去的,毕竟在这个圈子里,把Web2的东西重新包装一下就敢叫“革命”的项目我见得多了,但当真的深入到
@Vanarchain
的底层逻辑,特别是看到它怎么处理数据(Neutron)和推理验证(Kaion)的时候,我那种作为开发者的傲慢被击碎了一半。现在的公链市场陷入了一个极其无聊的怪圈,大家都在疯狂卷TPS,卷每秒能处理多少笔交易,仿佛把吞吐量做上去,AI就能在区块链上跑起来了一样,但这完全是个逻辑谬误。
我昨晚试着跑了一遍Vanar的测试网环境,这种体感和在Solana或者Base上完全不同。在Solana上,你感受到的是一种单纯的“快”,像是在高速公路上狂飙,但路两边是荒原本,没有任何基础设施能帮你处理复杂的逻辑交互;而在Vanar上,感觉更像是在进如一个装修好的工作室。为什么这么说?因为现有的EVM架构对于AI Agent来说简直就是监狱。你想想看,一个真正的智能体,它需要的不仅仅是把交易发出去,它需要“记忆”,需要知道上一步发生了什么,甚至需要理解三天前某个用户行为的上下文。在以太坊或者现在的L2上,想要实现这一点,你得自己在链下搭数据库,还得搞个预言机把数据喂回去,这一来一回,不仅Gas费爆炸,信任层也断了。但Vanar居然直接在链的底层架构里把“记忆”这个问题给解了,它的Neutron层不是简单的存储,而是一种带索引、可验证的动态数据库,这让我这种写合约的人感到一种久违的兴奋。
拿我现在手头在做的一个DeFi自动交易Agent来说,如果部署在Arbitrum上,我每一秒的决策都需要消耗Gas去查询历史价格,还得担心链下计算会不会作恶。但在Vanar的逻辑里,计算和验证被很巧妙地剥离了。我仔细研究了他们对于Kaion模块的描述,这东西本质上是在给智能合约装上了一个大脑皮层。它允许推理过程本身成为共识的一部分,而不是像现在这样,推理在黑盒子里完成,链上只记一个结果。这种区别对于不做技术的人可能很难理解,但对于我们这种想做真东西的人来说,这就是从“计算器”到“计算机”的跨越。我之前也看过ICP(互联网计算机),技术确实牛,但那个架构太封闭了,像个孤岛,开发门槛高得离谱。Vanar聪明的地方在于它没有完全抛弃EVM的生态习惯,而是做了一个极深度的魔改,这种兼容性让我原来的Solidity代码改改就能跑,但能力边界却被极大地拓宽了。
不过,我也不是来无脑吹捧的,Vanar目前的问题也很明显,或者说是整个赛道面临的尴尬。我在浏览他们浏览器数据的时候发现,虽然架构很美,但上面真正跑起来的高频原生应用还不够多。这就像是建了一座设施完美的超级工厂,流水线、机器人、电力系统全是顶配,但目前进驻的工队还不够多,导致很多时候这台精密的机器是在空转。而且,这种“重架构”的打法,在现在这个快餐化的市场里是很吃亏的。大家都在玩Memecoin,都在玩盘子,谁有耐心去研究你的底层是不是真的能支持大规模AI协作?这可能也是Vanar价值被严重低估的原因,市场现在的审美还停留在“快”和“炒”上,对于“智能”和“承载”没有概念。
这也引出了我对竞争对手的思考。现在市面上喊得最响的AI链,很多其实只是在做算力租赁,把GPU算力代币化,这确实是刚需,但那不是Layer 1该干的事,那是去中心化云服务的事。Vanar走的不是这条路,它走的是“数据引力”的路。我看它跟Google Cloud还有Nvidia的合作,起初以为是PR噱头,但结合技术文档看,这其实是在为Web2的庞大算力和数据进入Web3开后门。传统的公链是封闭的,外面的数据进来极难,但Vanar似乎在有意模糊这个边界。如果未来的AI Agent大多是由Web2的大模型驱动,但需要在Web3上进行经济结算,那么Vanar这种既有Web2级别的处理能力,又有Web3结算特性的中间层,确实卡位卡得很准。
我在测试过程中还发现了一个很有趣的细节,就是关于Gas费的设计。传统的模型是用户付费,这简直是反人类,这也是大规模应用起不来的根本原因。Vanar好像在推行一种类似于“应用方付费”或者“Agent付费”的模式,这意味着未来的用户可能根本感知不到Gas的存在。这在技术上不难实现,但在经济模型的博弈上很难。我看Vanar的代码里预留了很多这方面的接口,说明他们从一开始就是奔着“M2M”(机器对机器)经济去的。在这个体系里,
$VANRY
不再仅仅是过路费,它更像是这个智能网络的“带宽”和“存储空间”的定价单位。想象一下,成千上万个AI在链上没日没夜地交互、交易、套利,它们消耗代币的速度和逻辑,跟我们要死要活去抢一次土狗发射完全是两个量级。
说到这,我不得不吐槽一下现在很多所谓的“链抽象”项目,搞得花里胡哨,把简单的逻辑复杂化。Vanar给我的感觉反而是“极简主义”的复杂。它的底层很重,包含了VRF、数据层、共识层,但暴露给开发者的接口却非常干净。这种“脏活累活我来干,你只管写逻辑”的态度,才是基础设施该有的样子。我还特意去对比了Near的分片技术,Near确实厉害,能把并发做得很高,但Near对于AI数据流的处理并没有专门的优化,它更多解决的是扩容问题。而Vanar是直接奔着AI数据的“热读取”和“冷存储”去的,这种针对特定场景的优化(Application-Specific Optimization)在通用的L1上几乎是不可能实现的。
当然,作为开发者我也有一层隐忧。这种高度集成的系统,一旦某个环节出问题,比如Kaion的验证节点出现大规模宕机,或者Neutron的数据索引出现错乱,那对于链上的Agent来说就是毁灭性的打击。去中心化和高性能、高功能性之间永远存在张力,Vanar目前的节点数量和去中心化程度,相较于以太坊肯定是有差距的。这在初期可能不是问题,毕竟效率优先,但如果真的要承载万亿级别的AI经济,安全性的考验才刚刚开始。我看代码的时候发现了一些关于节点惩罚机制的参数还在调整中,说明团队也还在摸索这个平衡点。
还有一个点让我觉得很有意思,就是Vanar生态里的社交属性。它不像Lens那样强行要做一个社交图谱,它更像是把社交行为变成了一种数据资产。当AI介入社交后,什么是真实的?什么是机器人?在Vanar的逻辑里,这可能都不重要,重要的是行为被验证,价值被流转。我看到有一些早期的SocialFi项目在Vanar上尝试,利用它的低成本优势做高频互动,这种体验确实比在BSC或者Polygon上顺滑,不会出现点个赞都要弹窗签名半天的情况。这种无感知的交互,才是我心中Web3该有的样子。
写到这里,窗外的天已经快亮了。我又看了一眼屏幕上还在跑的测试脚本,终端里跳动的一行行绿字,让我有一种奇怪的安宁感。在这个充满了欺诈、泡沫和焦虑的行业里,能看到一个团队在认认真真地思考“如果未来全是AI,区块链该长什么样”这个问题,并给出了代码级别的回应,这本身就是一种稀缺价值。Vanar可能不会像某些MEME币那样一夜百倍,但它在铺设的那条铁轨,可能是通往下一个时代的唯一路径。我们现在看到的只是它冰山一角,真正的威力要等到第一个杀手级的AI Agent在上面跑通商业闭环的时候才会爆发。
现在的币价走势我看都不想看,那都是K线画给韭菜看的心理按摩。真正的价值流转在代码里,在GitHub的提交记录里,在那些甚至还没被写进文档的底层优化里。我对Vanar的信心不来自于什么大V的喊单,也不来自于那些光鲜的合作伙伴Logo,而是来自于我作为一个程序员,在调用它的API时那种流畅的爽感。它让我相信,那个由代码编织的、无需许可的、智能体自由协作的未来,并不是科幻小说,它正在被一行一行地写出来。或许现在的Vanar还是个只有极少数极客关注的“鬼城”,但别忘了,当年的以太坊,也不过是几个疯子在谈论的世界计算机。在这个新旧世界交替的缝隙里,我选择相信技术的直觉,而不是市场的噪音。
#vanar
$VANRY
VANRY
Daft Punk马到成功版
·
--
我不太喜欢用“包赚”“必涨”这种词。 但我会看三件事:是不是正式网、是不是头矿、是不是被专业机构提前下注。 miniARTX 今天正式网上线,就把Fuyuan Zhou的作品《Coral Realm》 $CRL放在头矿; 艺术家还没毕业,画廊已经在抢;作品 4–5 倍成长预期,再叠加 14 倍机制。 李黑地那种“起步即高端、无低价试水期”,最吃的就是这套结构。 剩下的,其实不用我多说了。 今晚$CRL开启认购,千万不能错过了 #Ultiland $ARTX {alpha}(560x8105743e8a19c915a604d7d9e7aa3a060a4c2c32) #miniARTX #ARToken
我不太喜欢用“包赚”“必涨”这种词。
但我会看三件事:是不是正式网、是不是头矿、是不是被专业机构提前下注。
miniARTX 今天正式网上线,就把Fuyuan Zhou的作品《Coral Realm》 $CRL放在头矿;
艺术家还没毕业,画廊已经在抢;作品 4–5 倍成长预期,再叠加 14 倍机制。
李黑地那种“起步即高端、无低价试水期”,最吃的就是这套结构。
剩下的,其实不用我多说了。
今晚$CRL开启认购,千万不能错过了
#Ultiland
$ARTX
#miniARTX
#ARToken
ARTX
Alpha
+7.59%
Daft Punk马到成功版
·
--
忽略K线噪生,关于Plasma支付叙事的冷思考与真伪辨析 市场现在的风气确实浮躁,大家都在冲着AI和MEME杀红了眼,回头看一眼账户里跌了快90%的XPL,心里没点波澜那是假的。但我这人就爱钻牛角尖,越是没人喊单的时候越得翻翻白皮书。说实话,在一众Layer 2还在那搞“左脚踩右脚”的积分盘时,@Plasma 的Paymaster机制确实是少有的能落地的东西。你们试过给圈外朋友转U吗?还得让人家先去搞点ETH当Gas,这简直就是反人类,而XPL这种直接用稳定币抵扣手续费的顺滑感,才让我觉得Web3支付有点支付宝那味儿了。这点上,哪怕是Optimism或者Arbitrum这种头部L2,用户体验上还是差了一截,门槛依然在。 再看看链上数据,Maple Finance那个借贷池TVL居然悄悄爬到了11亿美金,这大概率是机构资金在里面趴着吃利息,毕竟接入Visa网络的Rain cards和Oobit覆盖了上亿商户,这种实打实的支付场景比那些空气治理代币要有底气得多。但我也不是盲目吹,这项目的硬伤也明显得刺眼,验证者节点高度集中,说难听点现在就跟个中心化服务器没啥区别,安全性全靠定期锚定BTC网络那点背书撑着。生态更是荒凉,除了那一两个DeFi协议,连个能打的土狗盘都没有,想在这个链上玩出花来基本没戏。可反过想,既然欧盟的EUROP合规稳定币都接进来了,说明项目方压根没想走流量盘的路线,就是在赌合规支付的未来。在这个充满噪生的市场里,我觉的与其去高位接盘那些虚无缥缈的故事,不如在无人问津的角落埋伏这种真在解决“转账难”痛点的基建,虽有风险,但逻辑通顺。#plasma $XPL
忽略K线噪生,关于Plasma支付叙事的冷思考与真伪辨析
市场现在的风气确实浮躁,大家都在冲着AI和MEME杀红了眼,回头看一眼账户里跌了快90%的XPL,心里没点波澜那是假的。但我这人就爱钻牛角尖,越是没人喊单的时候越得翻翻白皮书。说实话,在一众Layer 2还在那搞“左脚踩右脚”的积分盘时,
@Plasma
的Paymaster机制确实是少有的能落地的东西。你们试过给圈外朋友转U吗?还得让人家先去搞点ETH当Gas,这简直就是反人类,而XPL这种直接用稳定币抵扣手续费的顺滑感,才让我觉得Web3支付有点支付宝那味儿了。这点上,哪怕是Optimism或者Arbitrum这种头部L2,用户体验上还是差了一截,门槛依然在。
再看看链上数据,Maple Finance那个借贷池TVL居然悄悄爬到了11亿美金,这大概率是机构资金在里面趴着吃利息,毕竟接入Visa网络的Rain cards和Oobit覆盖了上亿商户,这种实打实的支付场景比那些空气治理代币要有底气得多。但我也不是盲目吹,这项目的硬伤也明显得刺眼,验证者节点高度集中,说难听点现在就跟个中心化服务器没啥区别,安全性全靠定期锚定BTC网络那点背书撑着。生态更是荒凉,除了那一两个DeFi协议,连个能打的土狗盘都没有,想在这个链上玩出花来基本没戏。可反过想,既然欧盟的EUROP合规稳定币都接进来了,说明项目方压根没想走流量盘的路线,就是在赌合规支付的未来。在这个充满噪生的市场里,我觉的与其去高位接盘那些虚无缥缈的故事,不如在无人问津的角落埋伏这种真在解决“转账难”痛点的基建,虽有风险,但逻辑通顺。
#plasma
$XPL
BTC
ETH
XPL
Daft Punk马到成功版
·
--
支付链的终局博弈:在通用L2的尸横遍野中重估专有架构的冷峻价值盯着屏幕上那几条为了领取空投而不得不交互的Layer 2网络交易记录,我突然感到一种前所未有的疲惫感,这种疲惫不是源于Gas费的涨跌,而是源于一种深层的技术虚无主义,现在的加密世界太拥挤了,每隔几天就有一条新的链宣称自己解决了不可能三角,实际上不过是把Geth代码复制粘贴再改个参数,那种感觉就像是在看一群穿着不同颜色马甲的克隆人在同一个拥挤的房间里互殴,直到我重新把目光聚焦回@Plasma ,或者说是XPL,这种技术上的审美疲劳才稍微得到了一点缓解。我并不是在鼓吹这个项目有多完美,相反它那一堆让人头疼的不管是经济模型还是生态早期的荒芜感都让我数次想清仓走人,但每当我真的去跑一笔交易,去深究它底层那个Reth客户端的响应速度时,又会被那种几乎是工业级的冷峻美感给拉回来,这种纠结的心态贯穿了我过去三个月的持仓周期,也让我开始重新思考到底什么样的基础设施才能在即将到来的大规模采用中活下来。 我们现在的行业陷入了一个误区,就是过分迷信通用计算,以太坊是世界计算机,所以大家都想做世界计算机的分身,Optimism也好Arbitrum也罢,本质上都是在试图把一个通用的操作系统搬到链下运行,但问题在于绝大多数用户的真实需求其实非常贫瘠,仅仅就是支付和转账而已,当我试图用Plasma进行一笔简单的USDT转账时,那种体验是完全不同的,没有复杂的授权流程,不需要为了支付Gas而去专门买一点作为燃料的原生代币,这种Paymaster的设计在白皮书里看着像是个花哨的术语,但真落到实处时你才会发现这是对用户心理门槛的一次降维打击。回想一下我们在Polygon或者Solana上的体验,虽然速度快了,但那个心智负担依然存在,你得时刻算计着钱包里留的那点SOL够不够下一次交互,这种焦虑感在XPL的架构里被抹平了,它允许用稳定币直接支付手续费的设计,让我第一次感觉像是在用微信支付而不是在操作一个复杂的分布式账本,这种底层的产品直觉比任何高大上的TPS数据都来得实在。 说到TPS,这又是一个被行业玩坏了的指标,Solana宣称的几万TPS在宕机面前就是个笑话,而Plasma选择了基于Reth构建执行层,这是一个非常大胆但也非常极客的选择。熟悉客户端开发的人都知道,Rust写的Reth在内存安全和执行效率上对Go写的Geth简直就是降维打击,我在本地节点同步数据的时候能明显感觉到这种差异,Plasma的同步速度和对硬件的压榨效率让我惊讶,它没有像其他EVM兼容链那样随着状态爆炸而变得臃肿不堪,这种轻量化的特质在现在的胖协议时代显得格格不入却又异常珍贵。我一直认为未来的公链竞争不应该是比谁的生态更庞大,而是比谁的代码更干净,谁的架构更能扛得住熵增。很多L2现在的状态就像是那个为了展示肌肉而疯狂打药的健美运动员,看着壮实但虚火很旺,而Plasma给我的感觉更像是一个精瘦的长跑选手,它舍弃了很多花里胡哨的通用计算功能,专注于把支付这一件事做到极致,这种做减法的哲学在充斥着庞氏骗局和各种Yield Farming的圈子里简直就是一股清流,或者说是一股泥石流,毕竟并不是所有人都喜欢这种枯燥的叙事。 当然我也必须得吐槽一下现在的市场环境对这种垂直链的偏见,大家都被以太坊的模块化叙事洗脑了,觉得未来就是Rollup的天下,所有的应用都该长在L2上,但事实真的如此吗,看看现在Fragmented的流动性吧,跨链桥成了黑客的提款机,资产在不同的L2之间流转就像是在过安检一样麻烦,Plasma这种试图在Layer 1层面就解决支付问题的思路,其实是在反抗这种过度分层的趋势。我拿它和Tron做过对比,虽然孙哥的链名声不好,但不得不承认USDT在Tron上的体验确实是目前的标杆,快且便宜,Plasma要想从Tron手里抢食,光靠技术上的优越感是没用的,Reth再好,如果交易所不支持,如果OTC商家不认可,那也就是个自嗨的玩具。这也是我最担心的地方,技术团队往往容易陷入一种代码洁癖,觉得只要我把技术做牛了用户自然会来,但支付是一个双边市场,需要极强的地推能力和商务拓展,目前看XPL在这方面的动作还是太慢了,虽然看到了一些关于CoW Swap集成的消息,但距离真正形成网络效应还有很长的路要走,这种漫长的等待期对于我们这些二级市场的投机者来说简直就是一种煎熬,看着隔壁的Meme币一天十倍,手里握着一堆技术愿景宏大的代币不动如山,这种心理落差需要极强的信仰充值才能抵消。 再来说说那个让我爱恨交织的稳定币机制,Plasma想做的不只是一个链,更像是一个自带央行的金融体系,它试图通过协议层面的收益分配来激励流动性,这种想法很美好,但在具体的执行上充满了不确定性。我看过他们的经济模型设计,大部分代币被锁定用于生态激励,这意味着未来会有持续的抛压,虽然团队说是线性释放,但在币圈大家都被VC币的解锁砸怕了,那种对未知抛压的恐惧是刻在骨子里的。而且现在的稳定币赛道太拥挤了,Tether是霸主,USDC是合规代表,还有Ethena这种带收益的怪胎,Plasma原生的稳定币要想突围,除非能提供不可抗拒的收益率或者极深的流动性,否则用户凭什么要把钱从USDT换成你的XPL或者原生稳定币呢,这就陷入了一个先有鸡还是先有蛋的死循环。但我又转念一想,正是因为难所以才有护城河,如果只是发个币搞个流动性挖矿,那这种项目我连看都不回看一眼,正是因为它试图触碰法币出入金和底层支付清算这个最硬的骨头,才让我觉得它具备成为下一个周期黑马的潜质,哪怕这个概率可能只有百分之十。 我还特别关注了它和比特币生态的互动,这在之前很多分析里都被忽略了,Plasma似乎在有意无意地向BTC靠拢,不管是pBTC的设计还是对UTXO模型的某种致敬,都透露出一种想做比特币侧链或者说支付层的野心。现在的BTC L2赛道火得一塌糊涂,但大部分都是挂羊头卖狗肉,本质上还是个EVM链,而Plasma在底层架构上对状态转换的理解,其实和比特币的理念更契合。如果未来它能打通比特币的流动性,让BTC在它的网络上实现毫秒级支付且不需要信任跨链桥,那这个叙事空间瞬间就被打开了。这比在以太坊生态里卷那些DeFi乐高要有意义得多,毕竟比特币才是这个行业最大的资金池,谁能把这部分沉睡的资金盘活,谁就是下一个周期的王,但我目前还没看到特别落地的产品出来,这部分更多还是停留在我的意淫阶段,或者是团队在下一盘很大的棋,大到我们这些散户暂时还看不懂。 在这个充满了噪音的市场里,保持独立思考太难了,我也经常被各种FUD消息影响,一会儿听说团队闹矛盾了,一会儿又听说开发进度不及预期,但每次回到代码库,看到那些提交记录,看到Reth客户端一点点完善,我又会觉得这些噪音其实都不重要。区块链行业发展到现在,已经到了一个去伪存真的时候,那些靠着PPT和空洞叙事融资的项目迟早会归零,最后留下来的一定是那些真正解决了问题的基础设施。Plasma解决的问题很具体,就是支付,这个听起来最不性感但最刚需的场景。我甚至觉得它有点像早期的Solana,在被FTX暴雷牵连之前,Solana也是靠着高性能和低费率在支付领域默默耕耘,虽然经常宕机,但它确实切中了一部分高频交易的需求。Plasma现在的处境更像是黎明前的黑暗,技术已经成型,但市场还没反应过来,或者说市场还在观望,等待一个引爆点。 关于竞品,我必须得提一下Monad和Sei,这两个也是主打高性能并行EVM的当红炸子鸡,估值高得吓人,资本捧得也很高。相比之下Plasma显得有点孤单,没有那么多顶级VC站台,社区声量也不如它们大,但从技术纯粹性的角度看,Monad更多是在做EVM的优化,是在修补一辆旧车让它跑得更快,而Plasma更像是重新造了一辆车,专门为了跑支付这条赛道。这种差异在牛市初期可能看不出来,甚至因为缺乏炒作题材而跑输大盘,但一旦进入深水区,当链上活动真正爆发时,架构上的优势就会体现出来。我看过Sei的代码逻辑,为了追求速度牺牲了很多去中心化的特性,而Plasma在Retn的基础上似乎找到了一个更好的平衡点,当然这也可能是我的幸存者偏差在作祟,毕竟屁股决定脑袋,持仓决定信仰。 还有一个很有意思的现象,就是现在的用户其实并不关心底层技术,他们只关心哪里有金狗,哪里能赚钱,这对Plasma这种技术导向型项目是个巨大的挑战。你跟用户讲Reth,讲Gas抽象,讲Merkle树,用户只会问你币价什么时候拉盘。这就逼着项目方必须在运营上下功夫,怎么把技术优势转化为赚钱效应,这是Plasma团队目前最薄弱的环节。我看他们的推特运营,简直像个理工男在自言自语,缺乏那种煽动性,这在币圈是很吃亏的。不过反过来看,这也筛掉了一批浮躁的投机客,留下来的社区成员相对比较硬核,这种社区氛围在长周期来看其实更健康,不会因为一次暴跌就作鸟兽散,大家更愿意去讨论技术落地的可能性,而不是整天喊单。 写到这我突然意识到,我之所以对Plasma这么执着,可能潜意识里是在寻找那个“完美的区块链”,一个既有比特币的安全性,又有Web2级别体验的乌托邦。理性告诉我这种东西不存在,所有的技术都是权衡(Trade-off),Plasma选择了支付体验,必然在某些方面做出了妥协,比如验证节点的门槛,比如早期流动性的匮乏。但这种不完美恰恰是真实世界的写照,我们不需要另一个以太坊杀手,我们需要的是一个能真正让我想去楼下便利店买瓶水时,愿意掏出手机扫码支付的区块链网络,而不是还要担心这笔交易会不会卡在mempool里,或者手续费会不会比水还贵。现在的L2们都在忙着搞ZK证明,搞复杂的交互证明,却忘了最简单的道理:好用的技术应该是无感的。Plasma正在尝试做这种无感的基础设施,虽然现在它还很粗糙,甚至有点丑陋,bug也没修完,偶尔还会出现一些莫名奇妙的转账延迟,但那个方向是对的。 未来的几个月对Plasma来说至关重要,代币解锁的压力,主网稳定性的考验,以及竞品们的围剿,每一个都是生死关。我有时候看着K线图会想,如果它失败了,那也不过是我众多归零投资中的一个,顶多是多了一笔学费;但如果它做成了,那它改变的不仅仅是支付方式,而是我们对Layer 1存在意义的理解。它证明了通用计算并不是唯一的出路,垂直领域的深耕依然有巨大的价值。这种赌注,不仅仅是关于财富,更是关于认知。在这个充斥着复制粘贴代码的行业里,支持一点原创性的尝试,哪怕最后证明是错的,我觉得也是值得的。毕竟,如果所有人都去搞通用的Rollup,那这个行业也未免太无趣了些。我愿意为了这份不同,再多忍受一会儿账户浮亏的刺痛,等待那个属于支付链的时代的到来,或者是等待它的彻底消亡,无论是哪种结果,都是一场精彩的实验。#plasma $XPL
支付链的终局博弈:在通用L2的尸横遍野中重估专有架构的冷峻价值
盯着屏幕上那几条为了领取空投而不得不交互的Layer 2网络交易记录,我突然感到一种前所未有的疲惫感,这种疲惫不是源于Gas费的涨跌,而是源于一种深层的技术虚无主义,现在的加密世界太拥挤了,每隔几天就有一条新的链宣称自己解决了不可能三角,实际上不过是把Geth代码复制粘贴再改个参数,那种感觉就像是在看一群穿着不同颜色马甲的克隆人在同一个拥挤的房间里互殴,直到我重新把目光聚焦回
@Plasma
,或者说是XPL,这种技术上的审美疲劳才稍微得到了一点缓解。我并不是在鼓吹这个项目有多完美,相反它那一堆让人头疼的不管是经济模型还是生态早期的荒芜感都让我数次想清仓走人,但每当我真的去跑一笔交易,去深究它底层那个Reth客户端的响应速度时,又会被那种几乎是工业级的冷峻美感给拉回来,这种纠结的心态贯穿了我过去三个月的持仓周期,也让我开始重新思考到底什么样的基础设施才能在即将到来的大规模采用中活下来。
我们现在的行业陷入了一个误区,就是过分迷信通用计算,以太坊是世界计算机,所以大家都想做世界计算机的分身,Optimism也好Arbitrum也罢,本质上都是在试图把一个通用的操作系统搬到链下运行,但问题在于绝大多数用户的真实需求其实非常贫瘠,仅仅就是支付和转账而已,当我试图用Plasma进行一笔简单的USDT转账时,那种体验是完全不同的,没有复杂的授权流程,不需要为了支付Gas而去专门买一点作为燃料的原生代币,这种Paymaster的设计在白皮书里看着像是个花哨的术语,但真落到实处时你才会发现这是对用户心理门槛的一次降维打击。回想一下我们在Polygon或者Solana上的体验,虽然速度快了,但那个心智负担依然存在,你得时刻算计着钱包里留的那点SOL够不够下一次交互,这种焦虑感在XPL的架构里被抹平了,它允许用稳定币直接支付手续费的设计,让我第一次感觉像是在用微信支付而不是在操作一个复杂的分布式账本,这种底层的产品直觉比任何高大上的TPS数据都来得实在。
说到TPS,这又是一个被行业玩坏了的指标,Solana宣称的几万TPS在宕机面前就是个笑话,而Plasma选择了基于Reth构建执行层,这是一个非常大胆但也非常极客的选择。熟悉客户端开发的人都知道,Rust写的Reth在内存安全和执行效率上对Go写的Geth简直就是降维打击,我在本地节点同步数据的时候能明显感觉到这种差异,Plasma的同步速度和对硬件的压榨效率让我惊讶,它没有像其他EVM兼容链那样随着状态爆炸而变得臃肿不堪,这种轻量化的特质在现在的胖协议时代显得格格不入却又异常珍贵。我一直认为未来的公链竞争不应该是比谁的生态更庞大,而是比谁的代码更干净,谁的架构更能扛得住熵增。很多L2现在的状态就像是那个为了展示肌肉而疯狂打药的健美运动员,看着壮实但虚火很旺,而Plasma给我的感觉更像是一个精瘦的长跑选手,它舍弃了很多花里胡哨的通用计算功能,专注于把支付这一件事做到极致,这种做减法的哲学在充斥着庞氏骗局和各种Yield Farming的圈子里简直就是一股清流,或者说是一股泥石流,毕竟并不是所有人都喜欢这种枯燥的叙事。
当然我也必须得吐槽一下现在的市场环境对这种垂直链的偏见,大家都被以太坊的模块化叙事洗脑了,觉得未来就是Rollup的天下,所有的应用都该长在L2上,但事实真的如此吗,看看现在Fragmented的流动性吧,跨链桥成了黑客的提款机,资产在不同的L2之间流转就像是在过安检一样麻烦,Plasma这种试图在Layer 1层面就解决支付问题的思路,其实是在反抗这种过度分层的趋势。我拿它和Tron做过对比,虽然孙哥的链名声不好,但不得不承认USDT在Tron上的体验确实是目前的标杆,快且便宜,Plasma要想从Tron手里抢食,光靠技术上的优越感是没用的,Reth再好,如果交易所不支持,如果OTC商家不认可,那也就是个自嗨的玩具。这也是我最担心的地方,技术团队往往容易陷入一种代码洁癖,觉得只要我把技术做牛了用户自然会来,但支付是一个双边市场,需要极强的地推能力和商务拓展,目前看XPL在这方面的动作还是太慢了,虽然看到了一些关于CoW Swap集成的消息,但距离真正形成网络效应还有很长的路要走,这种漫长的等待期对于我们这些二级市场的投机者来说简直就是一种煎熬,看着隔壁的Meme币一天十倍,手里握着一堆技术愿景宏大的代币不动如山,这种心理落差需要极强的信仰充值才能抵消。
再来说说那个让我爱恨交织的稳定币机制,Plasma想做的不只是一个链,更像是一个自带央行的金融体系,它试图通过协议层面的收益分配来激励流动性,这种想法很美好,但在具体的执行上充满了不确定性。我看过他们的经济模型设计,大部分代币被锁定用于生态激励,这意味着未来会有持续的抛压,虽然团队说是线性释放,但在币圈大家都被VC币的解锁砸怕了,那种对未知抛压的恐惧是刻在骨子里的。而且现在的稳定币赛道太拥挤了,Tether是霸主,USDC是合规代表,还有Ethena这种带收益的怪胎,Plasma原生的稳定币要想突围,除非能提供不可抗拒的收益率或者极深的流动性,否则用户凭什么要把钱从USDT换成你的XPL或者原生稳定币呢,这就陷入了一个先有鸡还是先有蛋的死循环。但我又转念一想,正是因为难所以才有护城河,如果只是发个币搞个流动性挖矿,那这种项目我连看都不回看一眼,正是因为它试图触碰法币出入金和底层支付清算这个最硬的骨头,才让我觉得它具备成为下一个周期黑马的潜质,哪怕这个概率可能只有百分之十。
我还特别关注了它和比特币生态的互动,这在之前很多分析里都被忽略了,Plasma似乎在有意无意地向BTC靠拢,不管是pBTC的设计还是对UTXO模型的某种致敬,都透露出一种想做比特币侧链或者说支付层的野心。现在的BTC L2赛道火得一塌糊涂,但大部分都是挂羊头卖狗肉,本质上还是个EVM链,而Plasma在底层架构上对状态转换的理解,其实和比特币的理念更契合。如果未来它能打通比特币的流动性,让BTC在它的网络上实现毫秒级支付且不需要信任跨链桥,那这个叙事空间瞬间就被打开了。这比在以太坊生态里卷那些DeFi乐高要有意义得多,毕竟比特币才是这个行业最大的资金池,谁能把这部分沉睡的资金盘活,谁就是下一个周期的王,但我目前还没看到特别落地的产品出来,这部分更多还是停留在我的意淫阶段,或者是团队在下一盘很大的棋,大到我们这些散户暂时还看不懂。
在这个充满了噪音的市场里,保持独立思考太难了,我也经常被各种FUD消息影响,一会儿听说团队闹矛盾了,一会儿又听说开发进度不及预期,但每次回到代码库,看到那些提交记录,看到Reth客户端一点点完善,我又会觉得这些噪音其实都不重要。区块链行业发展到现在,已经到了一个去伪存真的时候,那些靠着PPT和空洞叙事融资的项目迟早会归零,最后留下来的一定是那些真正解决了问题的基础设施。Plasma解决的问题很具体,就是支付,这个听起来最不性感但最刚需的场景。我甚至觉得它有点像早期的Solana,在被FTX暴雷牵连之前,Solana也是靠着高性能和低费率在支付领域默默耕耘,虽然经常宕机,但它确实切中了一部分高频交易的需求。Plasma现在的处境更像是黎明前的黑暗,技术已经成型,但市场还没反应过来,或者说市场还在观望,等待一个引爆点。
关于竞品,我必须得提一下Monad和Sei,这两个也是主打高性能并行EVM的当红炸子鸡,估值高得吓人,资本捧得也很高。相比之下Plasma显得有点孤单,没有那么多顶级VC站台,社区声量也不如它们大,但从技术纯粹性的角度看,Monad更多是在做EVM的优化,是在修补一辆旧车让它跑得更快,而Plasma更像是重新造了一辆车,专门为了跑支付这条赛道。这种差异在牛市初期可能看不出来,甚至因为缺乏炒作题材而跑输大盘,但一旦进入深水区,当链上活动真正爆发时,架构上的优势就会体现出来。我看过Sei的代码逻辑,为了追求速度牺牲了很多去中心化的特性,而Plasma在Retn的基础上似乎找到了一个更好的平衡点,当然这也可能是我的幸存者偏差在作祟,毕竟屁股决定脑袋,持仓决定信仰。
还有一个很有意思的现象,就是现在的用户其实并不关心底层技术,他们只关心哪里有金狗,哪里能赚钱,这对Plasma这种技术导向型项目是个巨大的挑战。你跟用户讲Reth,讲Gas抽象,讲Merkle树,用户只会问你币价什么时候拉盘。这就逼着项目方必须在运营上下功夫,怎么把技术优势转化为赚钱效应,这是Plasma团队目前最薄弱的环节。我看他们的推特运营,简直像个理工男在自言自语,缺乏那种煽动性,这在币圈是很吃亏的。不过反过来看,这也筛掉了一批浮躁的投机客,留下来的社区成员相对比较硬核,这种社区氛围在长周期来看其实更健康,不会因为一次暴跌就作鸟兽散,大家更愿意去讨论技术落地的可能性,而不是整天喊单。
写到这我突然意识到,我之所以对Plasma这么执着,可能潜意识里是在寻找那个“完美的区块链”,一个既有比特币的安全性,又有Web2级别体验的乌托邦。理性告诉我这种东西不存在,所有的技术都是权衡(Trade-off),Plasma选择了支付体验,必然在某些方面做出了妥协,比如验证节点的门槛,比如早期流动性的匮乏。但这种不完美恰恰是真实世界的写照,我们不需要另一个以太坊杀手,我们需要的是一个能真正让我想去楼下便利店买瓶水时,愿意掏出手机扫码支付的区块链网络,而不是还要担心这笔交易会不会卡在mempool里,或者手续费会不会比水还贵。现在的L2们都在忙着搞ZK证明,搞复杂的交互证明,却忘了最简单的道理:好用的技术应该是无感的。Plasma正在尝试做这种无感的基础设施,虽然现在它还很粗糙,甚至有点丑陋,bug也没修完,偶尔还会出现一些莫名奇妙的转账延迟,但那个方向是对的。
未来的几个月对Plasma来说至关重要,代币解锁的压力,主网稳定性的考验,以及竞品们的围剿,每一个都是生死关。我有时候看着K线图会想,如果它失败了,那也不过是我众多归零投资中的一个,顶多是多了一笔学费;但如果它做成了,那它改变的不仅仅是支付方式,而是我们对Layer 1存在意义的理解。它证明了通用计算并不是唯一的出路,垂直领域的深耕依然有巨大的价值。这种赌注,不仅仅是关于财富,更是关于认知。在这个充斥着复制粘贴代码的行业里,支持一点原创性的尝试,哪怕最后证明是错的,我觉得也是值得的。毕竟,如果所有人都去搞通用的Rollup,那这个行业也未免太无趣了些。我愿意为了这份不同,再多忍受一会儿账户浮亏的刺痛,等待那个属于支付链的时代的到来,或者是等待它的彻底消亡,无论是哪种结果,都是一场精彩的实验。
#plasma
$XPL
BTC
XPL
Daft Punk马到成功版
·
--
拒绝虚假繁荣,聊聊为什么大多数所谓的AI公链其实连个Agent都跑不动 这两天盯着盘面发呆,满屏都是AI概念币在乱飞,但说实话,真正能把“智能”刻进底层的项目少得可怜。我又翻了一遍@Vanar 的技术文档,越看越觉得现在的市场充满了信息不对称。大家都在卷TPS,仿佛只要速度够快,AI就能在链上起飞,这简直是最大的误区。试想一下,你在某条以高吞吐著称的L1上部署一个复杂的Agent,光是状态存储和上下文调用的Gas费就能让你破产,更别提那个并没有针对非确定性计算做优化的虚拟机了,简直就是灾难。 Vanar给我的感觉完全不同,它不是那种硬给马车装发动机的缝合怪,而是从一开始就在解决“计算”和“记忆”的问题。特别是那个Neutron层,我甚至觉得它比主链本身更性感。它解决了一个核心痛点:链上数据通常是“死”的,没有语义,而Neutron让合约能读懂数据背后的逻辑。这跟那些只会在链下跑模型、链上存个哈希的“假AI项目”完全是两个维度的东西。我看竞品大多还在搞简单的预言机喂价,或者单纯蹭英伟达的热度,而Vanar是在做链上原生的推理环境。 还有个很有意思的点,如果你仔细算笔帐,会发现Vanar的经济模型其实是对高频AI交互极其友好的。对于开发者来说,我们要的不是每秒几十万次的虚假TPS,而是一个能跑得起推理、存得下记忆、且合规的执行环境。那个零碳的叙事很多人不当回事,但放在大模型训练能耗爆炸的背景下,这其实是很多Web2巨头进场的入场券。别被市面上的噪音带偏了,当潮水退去,还得看谁到底穿了裤子,能真正承载机器经济的基建,才配得上下一轮的主升浪。#vanar $VANRY
拒绝虚假繁荣,聊聊为什么大多数所谓的AI公链其实连个Agent都跑不动
这两天盯着盘面发呆,满屏都是AI概念币在乱飞,但说实话,真正能把“智能”刻进底层的项目少得可怜。我又翻了一遍
@Vanarchain
的技术文档,越看越觉得现在的市场充满了信息不对称。大家都在卷TPS,仿佛只要速度够快,AI就能在链上起飞,这简直是最大的误区。试想一下,你在某条以高吞吐著称的L1上部署一个复杂的Agent,光是状态存储和上下文调用的Gas费就能让你破产,更别提那个并没有针对非确定性计算做优化的虚拟机了,简直就是灾难。
Vanar给我的感觉完全不同,它不是那种硬给马车装发动机的缝合怪,而是从一开始就在解决“计算”和“记忆”的问题。特别是那个Neutron层,我甚至觉得它比主链本身更性感。它解决了一个核心痛点:链上数据通常是“死”的,没有语义,而Neutron让合约能读懂数据背后的逻辑。这跟那些只会在链下跑模型、链上存个哈希的“假AI项目”完全是两个维度的东西。我看竞品大多还在搞简单的预言机喂价,或者单纯蹭英伟达的热度,而Vanar是在做链上原生的推理环境。
还有个很有意思的点,如果你仔细算笔帐,会发现Vanar的经济模型其实是对高频AI交互极其友好的。对于开发者来说,我们要的不是每秒几十万次的虚假TPS,而是一个能跑得起推理、存得下记忆、且合规的执行环境。那个零碳的叙事很多人不当回事,但放在大模型训练能耗爆炸的背景下,这其实是很多Web2巨头进场的入场券。别被市面上的噪音带偏了,当潮水退去,还得看谁到底穿了裤子,能真正承载机器经济的基建,才配得上下一轮的主升浪。
#vanar
$VANRY
VANRY
Daft Punk马到成功版
·
--
告别虚火:在 Vanar 的架构里,我终于嗅到了 Web3 该有的工业气味此刻盯着屏幕上不断跳动的 Gas 费用和几个 AI Agent 报错的日志,我陷入了一种深深的疲惫。这种疲惫不是因为熬夜,而是源于一种技术认知上的撕裂感。过去这一周,我像个偏执狂一样试图在以太坊的 Layer 2 和 Solana 上部署一套哪怕是最基础的链上自动化逻辑,结果却是一地鸡毛。市面上那些喊着“AI 驱动”的公链,剥开华丽的官网和白皮书,底下跑的依然是那套为 DeFi 量身定制的老旧逻辑。就在我准备关机睡觉,承认这个行业所谓的 AI 叙事不过是又一场资本泡沫时,我鬼使神差地翻开了@Vanar 的开发者文档。这一看,原本困顿的神经竟然被某种久违的、属于工程师的直觉给刺醒了。我不打算给你们讲什么百倍币的故事,只想聊聊在这个充满噪点的市场里,为什么 Vanar 给我一种脱离了低级趣味的真实感,以及它到底是如何狠狠打了那些所谓高性能公链的脸。 为了搞清楚现状,我们需要先对自己诚实一点。现在的区块链基础设施,根本配不上 AI。我之前的尝试非常典型,在一个号称几万 TPS 的“以太坊杀手”上跑一个高频交易意图识别 Agent,结果遇到了两个致命问题。第一是成本的不确定性,你没法让一个全天候运行的 AI 代理去承担波动的 Gas 费,这就像你开一家 24 小时便利店,但房租每分钟都在变,有时候甚至比你的营业额还高,这在商业逻辑上是跑不通的。第二是状态的割裂,现有的公链只负责记录结果,不负责计算过程,AI 需要大量的上下文推理,而这些数据如果全部上链,成本会高到让你怀疑人生,如果不上链,又变成了中心化的黑盒。这就是我面临的困境,也是目前几乎所有 Web3 AI 项目的通病。 但 Vanar 给我的感觉完全不同,它不像是一个为了发币而拼凑出来的公链,更像是一个从 Web2 巨头机房里生长出来的怪胎,带着一种让加密原教旨主义者不适但又不得不服的工业标准。我看代码的时候发现一个很有趣的细节,Vanar 在处理链上交互时,似乎有意在模糊“交易”和“计算”的界限。在别的链上,每一次操作都是一次昂贵的资产转移,而在 Vanar 的架构里,交互更像是一次 API 调用。这种体验上的差异,对于我们这种习惯了云服务开发环境的人来说,简直是降维打击。它解决了我最头疼的那个成本问题,那种类似 Web2 的固定费率模式,让开发者终于可以像做 SaaS 一样去估算运营成本,而不是每天盯着 Gas Tracker 提心吊胆。 这就引出了一个非常尖锐的对比。看看现在的 Solana,虽然快,但它的这种快是建立在极高的硬件门槛和并不稳定的网络状态之上的,而且它的架构对于复杂的 AI 逻辑并不友好,更适合那种高并发的简单转账或 meme 炒作。再看看 Base 或者 Arbitrum 这样的 L2,它们确实继承了以太坊的安全性,但本质上还是在给一辆老爷车加装涡轮增压,底层的 EVM 逻辑限制了它们无法原生支持 AI 所需的大规模并行计算。Vanar 走了一条很贼的路,它没有去卷那个毫无意义的 TPS 数字,而是把重点放在了“兼容性”和“确定性”上。它的技术栈里透着一股谷歌和英伟达的味道,这不奇怪,毕竟那些合作不是摆设。但我看到的不是简单的品牌背书,而是技术基因的渗透。Vanar 的链上环境对于处理来自传统 AI 模型的数据流表现得异常顺滑,就好像它天生就是为了让 Web2 的数据无损流入 Web3 而设计的。 我在测试网跑了一段简单的代码,尝试将一个链下的用户行为数据同步到链上并触发奖励。如果在以太坊上,我需要写一堆复杂的 Oracle 预言机合约,还得担心数据被篡改。但在 Vanar 上,这个过程流畅得让我以为自己在操作一个中心化的数据库。这种流畅感来自于它底层的针对性优化,它似乎在链的共识层就对这种高频、轻量级的数据验证开了绿灯。这才是真正的 L1 该做的事情,不是去抢上层应用的生意,而是把底层的路修得足够平、足够宽。我觉得现在的市场有个很大的误区,大家都在找下一个爆款应用,却忽略了如果没有像样的路,法拉利也跑不过拖拉机。Vanar 就是那个默默修路的人,而且它修的不是乡间土路,是能够起降波音客机的工业级跑道。 当然,作为一个长期在代码堆里打滚的人,我不会盲目吹捧任何项目。Vanar 也有它的问题,或者说是挑战。现在的生态相比于以太坊确实还显得冷清,你找不到那么多眼花缭乱的土狗盘子,也没有那种一夜暴富的 fomo 情绪。这种冷清可能会劝退很多投机者,但对于构建者来说,这反而是个利好。在一个嘈杂的市场里,你很难安心写代码,但在 Vanar 的社区里,我看到更多的是关于技术实现的讨论,而不是币价的涨跌。这种氛围让我想起了早期的以太坊社区,那时候大家都在讨论智能合约能做什么,而不是在这歌合约里能赚多少钱。 说到竞品,我不防直说,很多所谓的 AI 公链其实就是个套壳。它们拿着通用的 SDK 改个名字,发个币,就敢宣称自己是 AI 基础设施。你在它们的链上根本跑不动真正的 AI 模型,甚至连稍微复杂一点的推理脚本都会因为 Gas Limit 而失败。Vanar 的优势在于它从一开始就是奔着“大规模应用”去的。它知道 AI Agent 的未来不在于互相割韭菜,而在于服务实体经济,在于处理那些海量的、低价值但高频的微交易。这就要求链本身必须足够“隐形”,用户在使用应用时,不应该感知到链的存在,更不应该被签名弹窗打断几十次。Vanar 的无感交互体验,是我目前用过的所有公链里最接近 Web2 丝滑程度的。 还有一个让我深思的点是 Vanar 对待“错误”的态度。在传统的区块链逻辑里,代码即法律,一旦出错就是万劫不复。但 AI 的本质是概率和试错,它需要一个能够容忍一定程度模糊性的环境。Vanar 的架构似乎在尝试解决这个矛盾,它提供了一种更加灵活的账户抽象和权限管理机制,让 AI Agent 可以在受控的范围内进行自我修正。这种设计思路非常超前,它承认了机器智能的不完美,并为此预留了缓冲地带。相比之下,那些追求绝对精确和原子性的老牌公链,在面对 AI这种具有随机性的生物时,显得格格不入,就像非要让一个爵士乐手去走正步一样别扭。 此时窗外的天已经蒙蒙亮了,我合上电脑,脑子里却还在回放刚才测试代码运行时的那几行绿字。如果你问我 Vanar 是不是完美的,我会告诉你现阶段没有完美的代码,只有不断迭代的系统。但我可以肯定的是,它切中了目前行业的痛点,而且是用一种非常务实、非常工程师思维的方式去切的。它没有画大饼,没有搞那些虚头巴脑的概念创新,就是实实在在地把性能、成本和易用性这三个不可能三角给平衡了一下。这种平衡在牛市里可能显得不够性感,不够爆炸,但当潮水退去,当大家发现手里的 AI 币除了炒作一无是处时,Vanar 这种能够真正承载业务逻辑的基础设施,才会显露出它可怕的护城河。 在这个充满谎言和泡沫的圈子里,找到一个能让你安静下来写代码、并且代码能按预期跑通的平台,其实是一种奢侈。Vanar 给了我这种奢侈感。它让我相信,Web3 和 AI 的结合不仅仅是为了制造更高效的赌场,而是真的有可能创造出一种全新的、去中心化的数字生产关系。这种关系不再依赖于中心化巨头的施舍,也不受制于昂贵且低效的旧公链体系。我们正在见证一种新的物种进化,它不再是简单的“区块链+AI”,而是一种原生的、融合的、有机的智能网络。而 Vanar,很有可能就是这个新物种的骨架。对于我们这些还在坚持的技术信徒来说,这或许就是在这个寒冬里最大的慰藉了。#vanar $VANRY
告别虚火:在 Vanar 的架构里,我终于嗅到了 Web3 该有的工业气味
此刻盯着屏幕上不断跳动的 Gas 费用和几个 AI Agent 报错的日志,我陷入了一种深深的疲惫。这种疲惫不是因为熬夜,而是源于一种技术认知上的撕裂感。过去这一周,我像个偏执狂一样试图在以太坊的 Layer 2 和 Solana 上部署一套哪怕是最基础的链上自动化逻辑,结果却是一地鸡毛。市面上那些喊着“AI 驱动”的公链,剥开华丽的官网和白皮书,底下跑的依然是那套为 DeFi 量身定制的老旧逻辑。就在我准备关机睡觉,承认这个行业所谓的 AI 叙事不过是又一场资本泡沫时,我鬼使神差地翻开了
@Vanarchain
的开发者文档。这一看,原本困顿的神经竟然被某种久违的、属于工程师的直觉给刺醒了。我不打算给你们讲什么百倍币的故事,只想聊聊在这个充满噪点的市场里,为什么 Vanar 给我一种脱离了低级趣味的真实感,以及它到底是如何狠狠打了那些所谓高性能公链的脸。
为了搞清楚现状,我们需要先对自己诚实一点。现在的区块链基础设施,根本配不上 AI。我之前的尝试非常典型,在一个号称几万 TPS 的“以太坊杀手”上跑一个高频交易意图识别 Agent,结果遇到了两个致命问题。第一是成本的不确定性,你没法让一个全天候运行的 AI 代理去承担波动的 Gas 费,这就像你开一家 24 小时便利店,但房租每分钟都在变,有时候甚至比你的营业额还高,这在商业逻辑上是跑不通的。第二是状态的割裂,现有的公链只负责记录结果,不负责计算过程,AI 需要大量的上下文推理,而这些数据如果全部上链,成本会高到让你怀疑人生,如果不上链,又变成了中心化的黑盒。这就是我面临的困境,也是目前几乎所有 Web3 AI 项目的通病。
但 Vanar 给我的感觉完全不同,它不像是一个为了发币而拼凑出来的公链,更像是一个从 Web2 巨头机房里生长出来的怪胎,带着一种让加密原教旨主义者不适但又不得不服的工业标准。我看代码的时候发现一个很有趣的细节,Vanar 在处理链上交互时,似乎有意在模糊“交易”和“计算”的界限。在别的链上,每一次操作都是一次昂贵的资产转移,而在 Vanar 的架构里,交互更像是一次 API 调用。这种体验上的差异,对于我们这种习惯了云服务开发环境的人来说,简直是降维打击。它解决了我最头疼的那个成本问题,那种类似 Web2 的固定费率模式,让开发者终于可以像做 SaaS 一样去估算运营成本,而不是每天盯着 Gas Tracker 提心吊胆。
这就引出了一个非常尖锐的对比。看看现在的 Solana,虽然快,但它的这种快是建立在极高的硬件门槛和并不稳定的网络状态之上的,而且它的架构对于复杂的 AI 逻辑并不友好,更适合那种高并发的简单转账或 meme 炒作。再看看 Base 或者 Arbitrum 这样的 L2,它们确实继承了以太坊的安全性,但本质上还是在给一辆老爷车加装涡轮增压,底层的 EVM 逻辑限制了它们无法原生支持 AI 所需的大规模并行计算。Vanar 走了一条很贼的路,它没有去卷那个毫无意义的 TPS 数字,而是把重点放在了“兼容性”和“确定性”上。它的技术栈里透着一股谷歌和英伟达的味道,这不奇怪,毕竟那些合作不是摆设。但我看到的不是简单的品牌背书,而是技术基因的渗透。Vanar 的链上环境对于处理来自传统 AI 模型的数据流表现得异常顺滑,就好像它天生就是为了让 Web2 的数据无损流入 Web3 而设计的。
我在测试网跑了一段简单的代码,尝试将一个链下的用户行为数据同步到链上并触发奖励。如果在以太坊上,我需要写一堆复杂的 Oracle 预言机合约,还得担心数据被篡改。但在 Vanar 上,这个过程流畅得让我以为自己在操作一个中心化的数据库。这种流畅感来自于它底层的针对性优化,它似乎在链的共识层就对这种高频、轻量级的数据验证开了绿灯。这才是真正的 L1 该做的事情,不是去抢上层应用的生意,而是把底层的路修得足够平、足够宽。我觉得现在的市场有个很大的误区,大家都在找下一个爆款应用,却忽略了如果没有像样的路,法拉利也跑不过拖拉机。Vanar 就是那个默默修路的人,而且它修的不是乡间土路,是能够起降波音客机的工业级跑道。
当然,作为一个长期在代码堆里打滚的人,我不会盲目吹捧任何项目。Vanar 也有它的问题,或者说是挑战。现在的生态相比于以太坊确实还显得冷清,你找不到那么多眼花缭乱的土狗盘子,也没有那种一夜暴富的 fomo 情绪。这种冷清可能会劝退很多投机者,但对于构建者来说,这反而是个利好。在一个嘈杂的市场里,你很难安心写代码,但在 Vanar 的社区里,我看到更多的是关于技术实现的讨论,而不是币价的涨跌。这种氛围让我想起了早期的以太坊社区,那时候大家都在讨论智能合约能做什么,而不是在这歌合约里能赚多少钱。
说到竞品,我不防直说,很多所谓的 AI 公链其实就是个套壳。它们拿着通用的 SDK 改个名字,发个币,就敢宣称自己是 AI 基础设施。你在它们的链上根本跑不动真正的 AI 模型,甚至连稍微复杂一点的推理脚本都会因为 Gas Limit 而失败。Vanar 的优势在于它从一开始就是奔着“大规模应用”去的。它知道 AI Agent 的未来不在于互相割韭菜,而在于服务实体经济,在于处理那些海量的、低价值但高频的微交易。这就要求链本身必须足够“隐形”,用户在使用应用时,不应该感知到链的存在,更不应该被签名弹窗打断几十次。Vanar 的无感交互体验,是我目前用过的所有公链里最接近 Web2 丝滑程度的。
还有一个让我深思的点是 Vanar 对待“错误”的态度。在传统的区块链逻辑里,代码即法律,一旦出错就是万劫不复。但 AI 的本质是概率和试错,它需要一个能够容忍一定程度模糊性的环境。Vanar 的架构似乎在尝试解决这个矛盾,它提供了一种更加灵活的账户抽象和权限管理机制,让 AI Agent 可以在受控的范围内进行自我修正。这种设计思路非常超前,它承认了机器智能的不完美,并为此预留了缓冲地带。相比之下,那些追求绝对精确和原子性的老牌公链,在面对 AI这种具有随机性的生物时,显得格格不入,就像非要让一个爵士乐手去走正步一样别扭。
此时窗外的天已经蒙蒙亮了,我合上电脑,脑子里却还在回放刚才测试代码运行时的那几行绿字。如果你问我 Vanar 是不是完美的,我会告诉你现阶段没有完美的代码,只有不断迭代的系统。但我可以肯定的是,它切中了目前行业的痛点,而且是用一种非常务实、非常工程师思维的方式去切的。它没有画大饼,没有搞那些虚头巴脑的概念创新,就是实实在在地把性能、成本和易用性这三个不可能三角给平衡了一下。这种平衡在牛市里可能显得不够性感,不够爆炸,但当潮水退去,当大家发现手里的 AI 币除了炒作一无是处时,Vanar 这种能够真正承载业务逻辑的基础设施,才会显露出它可怕的护城河。
在这个充满谎言和泡沫的圈子里,找到一个能让你安静下来写代码、并且代码能按预期跑通的平台,其实是一种奢侈。Vanar 给了我这种奢侈感。它让我相信,Web3 和 AI 的结合不仅仅是为了制造更高效的赌场,而是真的有可能创造出一种全新的、去中心化的数字生产关系。这种关系不再依赖于中心化巨头的施舍,也不受制于昂贵且低效的旧公链体系。我们正在见证一种新的物种进化,它不再是简单的“区块链+AI”,而是一种原生的、融合的、有机的智能网络。而 Vanar,很有可能就是这个新物种的骨架。对于我们这些还在坚持的技术信徒来说,这或许就是在这个寒冬里最大的慰藉了。
#vanar
$VANRY
VANRY
Daft Punk马到成功版
·
--
都在喊RWA万亿叙事,却没人谈机构“裸奔”的尴尬 最近复盘RWA赛道的时候发现一个很有意思的现象,市场都在盯着贝莱德的动作,却忽略了基础设施最致命的逻辑硬伤。现在的公链环境对于传统金融机构来说简直就是修罗场,要么像以太坊那样全裸奔,所有交易策略和持仓在链上被看得底裤都不剩,要么就是搞个许可链做成局域网。这几天深入啃了一下@Dusk_Foundation 的技术白皮书,才发现这帮人切入的点有点刁钻,他们不是在做简单的资产上链,而是在解决“想合规又不想被看光”这个看似矛盾的死结。 跟Ondo或者Centrifuge这些在应用层折腾的项目不同,Dusk直接在Layer 1协议层动刀子。我特意去跑了一下他们的Piecrust虚拟机代码,说实话上手门槛有点高,但逻辑确实惊艳。它那个Citadel协议把KYC做成了非交互式的零知识证明,这就好比我进酒吧不需要把身份证拍在桌子上让所有人看见我的住址,只需要出示一个“已成年”的数学证明。这种原生支持的隐私合规,比起以太坊上那些外挂式的隐私混币器,安全性完全不是一个量级。 不过有一说一,技术虽然性感,实际体验还是有摩擦。我在测试网交互的时候明显感觉到,本地生成零知识证明对硬件算力还是有要求的,偶尔会出现Proof生成卡顿的情况,这对高频交易的做市商来说是个不小的挑战。而且目前Dusk这种独立的Layer 1架构,怎么解决与其他生态的资产跨链互通也是个大问题,搞不好容易变成一座技术很牛的孤岛。但反过来看,如果这种RegDeFi的模式真能跑通,它给机构提供的安全感是目前EVM系公链给不了的。毕竟对于华尔街那帮老钱来说,比起Gas费的高低,他们更在乎的是自己的交易底牌会不会因为合规审计而被全网直播。这种把监管逻辑写进底层代码的思路,大概率才是RWA下半场的正解。 #dusk $DUSK
都在喊RWA万亿叙事,却没人谈机构“裸奔”的尴尬
最近复盘RWA赛道的时候发现一个很有意思的现象,市场都在盯着贝莱德的动作,却忽略了基础设施最致命的逻辑硬伤。现在的公链环境对于传统金融机构来说简直就是修罗场,要么像以太坊那样全裸奔,所有交易策略和持仓在链上被看得底裤都不剩,要么就是搞个许可链做成局域网。这几天深入啃了一下
@Dusk
的技术白皮书,才发现这帮人切入的点有点刁钻,他们不是在做简单的资产上链,而是在解决“想合规又不想被看光”这个看似矛盾的死结。
跟Ondo或者Centrifuge这些在应用层折腾的项目不同,Dusk直接在Layer 1协议层动刀子。我特意去跑了一下他们的Piecrust虚拟机代码,说实话上手门槛有点高,但逻辑确实惊艳。它那个Citadel协议把KYC做成了非交互式的零知识证明,这就好比我进酒吧不需要把身份证拍在桌子上让所有人看见我的住址,只需要出示一个“已成年”的数学证明。这种原生支持的隐私合规,比起以太坊上那些外挂式的隐私混币器,安全性完全不是一个量级。
不过有一说一,技术虽然性感,实际体验还是有摩擦。我在测试网交互的时候明显感觉到,本地生成零知识证明对硬件算力还是有要求的,偶尔会出现Proof生成卡顿的情况,这对高频交易的做市商来说是个不小的挑战。而且目前Dusk这种独立的Layer 1架构,怎么解决与其他生态的资产跨链互通也是个大问题,搞不好容易变成一座技术很牛的孤岛。但反过来看,如果这种RegDeFi的模式真能跑通,它给机构提供的安全感是目前EVM系公链给不了的。毕竟对于华尔街那帮老钱来说,比起Gas费的高低,他们更在乎的是自己的交易底牌会不会因为合规审计而被全网直播。这种把监管逻辑写进底层代码的思路,大概率才是RWA下半场的正解。
#dusk
$DUSK
DUSK
Daft Punk马到成功版
·
--
谁在裸泳,谁在造船:抛开价格噪音,重构我对Dusk技术护城河的认知这几天盯着屏幕上不断跳动的K线,心里却异常平静,这种平静来源于一种近乎偏执的直觉:我们正处在加密货币历史的一个诡异拐点。这一轮牛市的叙事极其割裂,一边是MEME币在Solana上制造着一天百倍的暴富神话,另一边是VC币在高估值低流通的陷阱里让散户绝望,这种割裂感让我不得不重新审视那些真正试图解决行业痛点的基础设施。当我把目光从那些喧嚣的L2赛道移开,重新翻看Dusk Network最近在Github上的代码提交记录时,一种久违的兴奋感涌上心头,这种感觉就像是当年第一次看懂以太坊智能合约原理时那样,意识到某些根本性的东西正在被改变。Dusk并不是那种会喊单的项目,甚至在推特上的营销都显得有些笨拙,但正是这种笨拙让我看到了工程师文化的影子,在RWA(现实世界资产)这个被喊烂了的赛道里,绝大多数项目都在做简单的资产上链,也就是搞个SPV发个币完事,但@Dusk_Foundation 在做的是更底层的事情,他们试图用零知识证明构建一个既能满足合规要求,又能保护用户隐私的Layer 1,这听起来像是既要又要的贪婪,但仔细研究Piecrust虚拟机的架构后,我发现他们可能真的做到了。 谈到隐私公链,大多数人的第一反应还是Monero或者Zcash,但老实说,那属于上个时代的产物,完全的匿名在现在的监管环境下就是死路一条,根本跑不通大规模的商业应用。Monero像是躲在暗网里的黑客工具,而我们现在需要的是能让贝莱德、摩根大通这些巨鳄放心进场的合规暗池。这就不得不提Dusk的核心架构Piecrust VM,这玩意儿在技术圈的讨论度远不如它的实际价值高。大多数ZK-Rollup还在苦哈哈地兼容EVM,试图在旧地基上盖摩天大楼,而Dusk直接另起炉灶。Piecrust最让我惊艳的是它的零拷贝(Zero-Copy)架构,对于搞底层开发的人来说,这意味着在执行智能合约时,数据不需要在内存里搬来搬去。你可能觉得这无所谓,但在涉及零知识证明生成的场景下,这简直就是降维打击。现在的ZK项目最大的瓶颈就是证明生成慢、消耗大,导致Gas费降不下来,体验极差,Piecrust通过内存映射直接读取数据,把效率提升了一个数量级。那天我试着在测试网上跑了一笔复杂的隐私交易,原本以为要像在Aztec上那样等个几分钟,结果几乎是秒级确认,那一刻我意识到,这种技术上的“过度设计”其实是为了未来承载高频金融交易做的准备,只有这种级别的吞吐量,才配谈真正的链上纳斯达克。 我在研究竞品的时候,不自觉地会把Dusk拿来和Aleo或者Midnight做对比。Aleo风头正劲,融资额吓人,主打通用的隐私计算,但它的问题在于太“重”了,对硬件要求极高,而且编程模型对开发者来说门槛不低,这就好比给了你一把瑞士军刀,但你其实只需要一把切菜刀。相比之下,Dusk更像是一把精心打磨的手术刀,专门针对受监管的金融资产交易(RegDeFi)这个场景。它的Citadel协议非常有意思,这就好比我们在进入夜店时,只需要向保安出示一个“我已成年”的证明,而不需要把身份证拍在他脸上让他看你的家庭住址。在传统的DeFi里,我们要么完全透明(像Uniswap,谁都能看见大户的底裤),要么完全黑箱(像Tornado Cash,结果被监管一锅端),Citadel提供了一种中间状态:我对交易对手和公众隐身,但我对监管机构“可审计”。这种设计极其狡猾,也极其聪明,它完美地切中了传统金融机构的痛点。机构不怕上链,怕的是上链后交易策略曝光,怕的是合规部门找麻烦。Dusk这种“可编程的隐私”刚好解决了这个问题。我看了一下他们的文档,这种KYC/AML的合规性是直接嵌入在底层协议里的,而不是像某些项目那样在应用层打补丁,这就保证了整个生态的纯净度,不会出现因为某个应用违规而导致整条链被封杀的尴尬局面。 当然,没有完美的技术,我在体验过程中也发现了不少槽点。现在的钱包体验说实话还有很大的提升空间,比起MetaMask或者Phantom那种丝滑感,Dusk的官方钱包显得有些硬核,对于小白用户不太友好。而且在跨链桥这块,虽然理论上可以通过ZK技术实现去中心化的资产映射,但目前的流动性还是个大问题。我尝试把一笔ETH跨过去参与质押,整个过程虽然安全,但步骤繁琐得让我差点放弃,中间还出现了一次交易卡顿,吓得我以为资产丢了,后来才发现是本地节点的同步问题。这说明在去中心化和用户体验的平衡上,Dusk还有很长的路要走。另外,作为一条L1公链,生态的冷启动是地狱难度的,现在的开发者都被以太坊L2和Solana吸走了,Dusk虽然技术牛逼,但如果没人来上面发RWA资产,那也就是个空荡荡的豪宅。我看社区里有人在喊单,说等主网上线就是百倍,这种言论我向来是嗤之以鼻的。技术落地到商业闭环,中间隔着十万八千里,Dusk现在的状态更像是一个技术验证成功的原型机,距离成为波音747那样的商业载具,还需要大量的运营和BD工作。 这几天深夜翻看白皮书,我经常在想一个问题:为什么我们需要隐私RWA?现在的RWA大多是国债代币化,这种低频、大额的资产其实对隐私要求没那么高,毕竟买国债的都是明牌机构。但如果未来要把企业债、应收账款、甚至未上市公司的股权也搬到链上,隐私就是刚需了。试想一下,一家公司要融资,它肯定不希望竞争对手看到它的融资条款和利率,这时候Dusk的价值就体现出来了。它不仅仅是一个隐私支付网络,更是一个隐私金融计算平台。在这个平台上,我可以发行一种债券,只有持有特定NFT资格的投资者才能看到债券的详细信息和进行交易,而其他人只能看到这笔交易发生了,并且是合规的。这种细粒度的访问控制,是目前以太坊架构很难高效实现的。Aztec虽然也在做类似的事情,但它是作为以太坊的L2,受限于主网的DA(数据可用性)成本,而Dusk作为L1,可以自己在共识层做优化,这种自主性在未来会是一个巨大的优势,尤其是在处理高吞吐量的复杂金融合约时。 再聊聊那个容易被忽视的共识机制SBA(隔离拜占庭协议)。这个机制我看名字就觉得头大,但深入理解后发现它其实是在解决PoS(权益证明)的一个顽疾:长程攻击和中心化趋势。一般的PoS链,节点越做越大,最后就变成了寡头垄断,而SBA通过这种随机抽取验证者的方式,让小节点也有机会参与共识,而且还能保持极快的最终确认性(Finality)。这对于金融交易至关重要,你不能让一笔几百万的转账在链上飘个几分钟还不确定是否到账。我在测试网观察节点的出块情况,发现它的去中心化程度比我想象的要好,没有出现那种几个大节点包揽所有出块的情况。不过,这也有可能是因为现在参与的人还不够多,未来主网上线后,面对真正的利益博弈,这套机制能不能扛得住压力测试,还是个未知数。毕竟,理论上的完美在现实的贪婪面前往往不堪一击。 还有一个让我觉得很有意思的点,就是Dusk团队对于“合规”的理解。在加密原教旨主义者眼里,合规就是投降,就是背叛了去中心化的精神。但我越来越觉得,这种二元对立的思维已经过时了。去中心化的目的不是为了逃避法律,而是为了消除中间人,降低信任成本。如果Dusk能通过技术手段,在不引入中心化审查机构的前提下,实现自动化的合规,那这其实是更高维度的去中心化。它把法律代码化了,把监管逻辑写入了智能合约。这意味着未来的监管者不再是坐在办公室里审批文件的人,而是一段段开源的代码。这种愿景太宏大了,宏大到让我觉得有点不真实,但看着Dusk一步步把这些拼图拼凑起来,我又觉得这并非不可能。相比于那些整天炒作“AI+Crypto”概念却拿不出产品的空气项目,Dusk这种死磕底层逻辑的笨功夫显得尤为珍贵。 这几天我还在琢磨他们的经济模型,质押奖励确实诱人,但通胀率的控制是个艺术活。如果通胀太高,币价肯定承压;如果通胀太低,又不足以激励节点维护网络安全。目前看下来,Dusk似乎是想通过交易手续费的销毁来平衡通胀,但这前提是链上要有足够的活跃度。这就又回到了那个鸡生蛋蛋生鸡的问题:没有应用就没有交易量,没有交易量经济模型就跑不转。所以接下来的半年,对于Dusk来说是生死攸关的。他们必须拉来几个重量级的合作伙伴,真正把RWA的业务跑通,哪怕只是一个小规模的试点,也足以证明这条路是通的。我看到有些传言说欧洲的一些受监管交易所正在和他们接触,如果是真的,那将是一个巨大的催化剂。毕竟欧洲的MiCA法案已经落地,合规门槛不仅是紧箍咒,也是护城河,能跨过去的就只剩下正规军了。 写到这里,看着窗外已经泛白的天色,我不禁苦笑。在这个充满暴富神话和庞氏骗局的圈子里,寻找价值就像在垃圾堆里找金子。Dusk肯定不是那个能让你一夜暴富的项目,它没有那个基因,它的代码里写满了克制和严谨。这种气质注定了它会被只有七秒记忆的韭菜们忽略,但也正是这种气质,吸引了像我这样对技术有洁癖、对未来有执念的人。我不确定它最终能不能成功,毕竟技术领先不等于商业成功,历史上有太多技术牛逼但死掉的项目(看看EOS当年的豪言壮语)。但我愿意押注这个方向,押注隐私和合规的融合是Web3走向大规模采用的必经之路。如果Dusk能做成,它将不再是一条简单的公链,而是一套全新的金融基础设施标准。就算它失败了,它在零知识证明虚拟机和合规隐私协议上的探索,也足以给后来的建设者留下宝贵的遗产。在这个浮躁的行业里,能沉下心来造船的人不多了,既然看见了,就陪他们走一程吧,哪怕前面是惊涛骇浪。#dusk $DUSK
谁在裸泳,谁在造船:抛开价格噪音,重构我对Dusk技术护城河的认知
这几天盯着屏幕上不断跳动的K线,心里却异常平静,这种平静来源于一种近乎偏执的直觉:我们正处在加密货币历史的一个诡异拐点。这一轮牛市的叙事极其割裂,一边是MEME币在Solana上制造着一天百倍的暴富神话,另一边是VC币在高估值低流通的陷阱里让散户绝望,这种割裂感让我不得不重新审视那些真正试图解决行业痛点的基础设施。当我把目光从那些喧嚣的L2赛道移开,重新翻看Dusk Network最近在Github上的代码提交记录时,一种久违的兴奋感涌上心头,这种感觉就像是当年第一次看懂以太坊智能合约原理时那样,意识到某些根本性的东西正在被改变。Dusk并不是那种会喊单的项目,甚至在推特上的营销都显得有些笨拙,但正是这种笨拙让我看到了工程师文化的影子,在RWA(现实世界资产)这个被喊烂了的赛道里,绝大多数项目都在做简单的资产上链,也就是搞个SPV发个币完事,但
@Dusk
在做的是更底层的事情,他们试图用零知识证明构建一个既能满足合规要求,又能保护用户隐私的Layer 1,这听起来像是既要又要的贪婪,但仔细研究Piecrust虚拟机的架构后,我发现他们可能真的做到了。
谈到隐私公链,大多数人的第一反应还是Monero或者Zcash,但老实说,那属于上个时代的产物,完全的匿名在现在的监管环境下就是死路一条,根本跑不通大规模的商业应用。Monero像是躲在暗网里的黑客工具,而我们现在需要的是能让贝莱德、摩根大通这些巨鳄放心进场的合规暗池。这就不得不提Dusk的核心架构Piecrust VM,这玩意儿在技术圈的讨论度远不如它的实际价值高。大多数ZK-Rollup还在苦哈哈地兼容EVM,试图在旧地基上盖摩天大楼,而Dusk直接另起炉灶。Piecrust最让我惊艳的是它的零拷贝(Zero-Copy)架构,对于搞底层开发的人来说,这意味着在执行智能合约时,数据不需要在内存里搬来搬去。你可能觉得这无所谓,但在涉及零知识证明生成的场景下,这简直就是降维打击。现在的ZK项目最大的瓶颈就是证明生成慢、消耗大,导致Gas费降不下来,体验极差,Piecrust通过内存映射直接读取数据,把效率提升了一个数量级。那天我试着在测试网上跑了一笔复杂的隐私交易,原本以为要像在Aztec上那样等个几分钟,结果几乎是秒级确认,那一刻我意识到,这种技术上的“过度设计”其实是为了未来承载高频金融交易做的准备,只有这种级别的吞吐量,才配谈真正的链上纳斯达克。
我在研究竞品的时候,不自觉地会把Dusk拿来和Aleo或者Midnight做对比。Aleo风头正劲,融资额吓人,主打通用的隐私计算,但它的问题在于太“重”了,对硬件要求极高,而且编程模型对开发者来说门槛不低,这就好比给了你一把瑞士军刀,但你其实只需要一把切菜刀。相比之下,Dusk更像是一把精心打磨的手术刀,专门针对受监管的金融资产交易(RegDeFi)这个场景。它的Citadel协议非常有意思,这就好比我们在进入夜店时,只需要向保安出示一个“我已成年”的证明,而不需要把身份证拍在他脸上让他看你的家庭住址。在传统的DeFi里,我们要么完全透明(像Uniswap,谁都能看见大户的底裤),要么完全黑箱(像Tornado Cash,结果被监管一锅端),Citadel提供了一种中间状态:我对交易对手和公众隐身,但我对监管机构“可审计”。这种设计极其狡猾,也极其聪明,它完美地切中了传统金融机构的痛点。机构不怕上链,怕的是上链后交易策略曝光,怕的是合规部门找麻烦。Dusk这种“可编程的隐私”刚好解决了这个问题。我看了一下他们的文档,这种KYC/AML的合规性是直接嵌入在底层协议里的,而不是像某些项目那样在应用层打补丁,这就保证了整个生态的纯净度,不会出现因为某个应用违规而导致整条链被封杀的尴尬局面。
当然,没有完美的技术,我在体验过程中也发现了不少槽点。现在的钱包体验说实话还有很大的提升空间,比起MetaMask或者Phantom那种丝滑感,Dusk的官方钱包显得有些硬核,对于小白用户不太友好。而且在跨链桥这块,虽然理论上可以通过ZK技术实现去中心化的资产映射,但目前的流动性还是个大问题。我尝试把一笔ETH跨过去参与质押,整个过程虽然安全,但步骤繁琐得让我差点放弃,中间还出现了一次交易卡顿,吓得我以为资产丢了,后来才发现是本地节点的同步问题。这说明在去中心化和用户体验的平衡上,Dusk还有很长的路要走。另外,作为一条L1公链,生态的冷启动是地狱难度的,现在的开发者都被以太坊L2和Solana吸走了,Dusk虽然技术牛逼,但如果没人来上面发RWA资产,那也就是个空荡荡的豪宅。我看社区里有人在喊单,说等主网上线就是百倍,这种言论我向来是嗤之以鼻的。技术落地到商业闭环,中间隔着十万八千里,Dusk现在的状态更像是一个技术验证成功的原型机,距离成为波音747那样的商业载具,还需要大量的运营和BD工作。
这几天深夜翻看白皮书,我经常在想一个问题:为什么我们需要隐私RWA?现在的RWA大多是国债代币化,这种低频、大额的资产其实对隐私要求没那么高,毕竟买国债的都是明牌机构。但如果未来要把企业债、应收账款、甚至未上市公司的股权也搬到链上,隐私就是刚需了。试想一下,一家公司要融资,它肯定不希望竞争对手看到它的融资条款和利率,这时候Dusk的价值就体现出来了。它不仅仅是一个隐私支付网络,更是一个隐私金融计算平台。在这个平台上,我可以发行一种债券,只有持有特定NFT资格的投资者才能看到债券的详细信息和进行交易,而其他人只能看到这笔交易发生了,并且是合规的。这种细粒度的访问控制,是目前以太坊架构很难高效实现的。Aztec虽然也在做类似的事情,但它是作为以太坊的L2,受限于主网的DA(数据可用性)成本,而Dusk作为L1,可以自己在共识层做优化,这种自主性在未来会是一个巨大的优势,尤其是在处理高吞吐量的复杂金融合约时。
再聊聊那个容易被忽视的共识机制SBA(隔离拜占庭协议)。这个机制我看名字就觉得头大,但深入理解后发现它其实是在解决PoS(权益证明)的一个顽疾:长程攻击和中心化趋势。一般的PoS链,节点越做越大,最后就变成了寡头垄断,而SBA通过这种随机抽取验证者的方式,让小节点也有机会参与共识,而且还能保持极快的最终确认性(Finality)。这对于金融交易至关重要,你不能让一笔几百万的转账在链上飘个几分钟还不确定是否到账。我在测试网观察节点的出块情况,发现它的去中心化程度比我想象的要好,没有出现那种几个大节点包揽所有出块的情况。不过,这也有可能是因为现在参与的人还不够多,未来主网上线后,面对真正的利益博弈,这套机制能不能扛得住压力测试,还是个未知数。毕竟,理论上的完美在现实的贪婪面前往往不堪一击。
还有一个让我觉得很有意思的点,就是Dusk团队对于“合规”的理解。在加密原教旨主义者眼里,合规就是投降,就是背叛了去中心化的精神。但我越来越觉得,这种二元对立的思维已经过时了。去中心化的目的不是为了逃避法律,而是为了消除中间人,降低信任成本。如果Dusk能通过技术手段,在不引入中心化审查机构的前提下,实现自动化的合规,那这其实是更高维度的去中心化。它把法律代码化了,把监管逻辑写入了智能合约。这意味着未来的监管者不再是坐在办公室里审批文件的人,而是一段段开源的代码。这种愿景太宏大了,宏大到让我觉得有点不真实,但看着Dusk一步步把这些拼图拼凑起来,我又觉得这并非不可能。相比于那些整天炒作“AI+Crypto”概念却拿不出产品的空气项目,Dusk这种死磕底层逻辑的笨功夫显得尤为珍贵。
这几天我还在琢磨他们的经济模型,质押奖励确实诱人,但通胀率的控制是个艺术活。如果通胀太高,币价肯定承压;如果通胀太低,又不足以激励节点维护网络安全。目前看下来,Dusk似乎是想通过交易手续费的销毁来平衡通胀,但这前提是链上要有足够的活跃度。这就又回到了那个鸡生蛋蛋生鸡的问题:没有应用就没有交易量,没有交易量经济模型就跑不转。所以接下来的半年,对于Dusk来说是生死攸关的。他们必须拉来几个重量级的合作伙伴,真正把RWA的业务跑通,哪怕只是一个小规模的试点,也足以证明这条路是通的。我看到有些传言说欧洲的一些受监管交易所正在和他们接触,如果是真的,那将是一个巨大的催化剂。毕竟欧洲的MiCA法案已经落地,合规门槛不仅是紧箍咒,也是护城河,能跨过去的就只剩下正规军了。
写到这里,看着窗外已经泛白的天色,我不禁苦笑。在这个充满暴富神话和庞氏骗局的圈子里,寻找价值就像在垃圾堆里找金子。Dusk肯定不是那个能让你一夜暴富的项目,它没有那个基因,它的代码里写满了克制和严谨。这种气质注定了它会被只有七秒记忆的韭菜们忽略,但也正是这种气质,吸引了像我这样对技术有洁癖、对未来有执念的人。我不确定它最终能不能成功,毕竟技术领先不等于商业成功,历史上有太多技术牛逼但死掉的项目(看看EOS当年的豪言壮语)。但我愿意押注这个方向,押注隐私和合规的融合是Web3走向大规模采用的必经之路。如果Dusk能做成,它将不再是一条简单的公链,而是一套全新的金融基础设施标准。就算它失败了,它在零知识证明虚拟机和合规隐私协议上的探索,也足以给后来的建设者留下宝贵的遗产。在这个浮躁的行业里,能沉下心来造船的人不多了,既然看见了,就陪他们走一程吧,哪怕前面是惊涛骇浪。
#dusk
$DUSK
DUSK
Влезте, за да разгледате още съдържание
Вход
Разгледайте най-новите крипто новини
⚡️ Бъдете част от най-новите дискусии в криптовалутното пространство
💬 Взаимодействайте с любимите си създатели
👍 Насладете се на съдържание, което ви интересува
Имейл/телефонен номер
Регистрация
Вход
Набиращи популярност теми
CZAMAonBinanceSquare
4.5M показвания
36,544 обсъждат
AMA tomorrow, in 21 hours or so: here.
CZ
·
3.1k харесвания
·
3.5M показвания
USNFPBlowout
604,876 показвания
8,088 обсъждат
TrumpCanadaTariffsOverturned
271,945 показвания
5,288 обсъждат
Вижте повече
Последни новини
AI Stocks, Crypto Downturn, Metals Selloff Discussed by Jim Bianco
--
Rising Protein Costs Boost Demand for Dark Chicken Meat
--
Chile to Provide Humanitarian Aid to Cuba Amid Crisis
--
Вижте повече
Карта на сайта
Предпочитания за бисквитки
Правила и условия на платформата