Binance Square

Luna月芽

Otwarta transakcja
Trader systematyczny
Miesiące: 4.7
47 Obserwowani
13.5K+ Obserwujący
5.0K+ Polubione
952 Udostępnione
Posty
Portfolio
PINNED
·
--
Byczy
💗Jak to możliwe, że każde twoje ruchy stają na moim sercu, czy jesteś Beethovena?
💗Jak to możliwe, że każde twoje ruchy stają na moim sercu, czy jesteś Beethovena?
PINNED
Przyjdź się bawić🥰
Przyjdź się bawić🥰
Zobacz tłumaczenie
Firedancer加持下的Layer 1突围:@fogo 的SVM野心与中心化隐忧 Fogo的主网实测数据确实让我重新评估了SVM侧链的上限。不同于Monad那种还在PPT阶段的并行EVM叙事,Fogo直接基于Jump Crypto的Firedancer客户端构建,实测40毫秒的区块时间简直离谱。我在链上跑了一圈高频策略,这种亚秒级的确认速度让我在套利时几乎感觉不到共识延迟带来的滑点损耗。大多数Layer 1还在纠结怎么通过Rollup扩容,Fogo直接在L1层面把物理性能拉满,这种暴力美学在当前模块化区块链泛滥的背景下显得尤为独特。 核心的差异化在于协议层内置的CLOB(中央限价订单簿)和原生预言机。这种设计本质上是把DeFi最基础的流动性和定价权从应用层下沉到了共识层。传统的AMM机制在面对机构级流动性时效率极低,而Fogo让所有DApp共享同一个订单薄流动性池,这直接消除了流动性碎片化的问题。更关键的是,验证节点直接把价格数据写入区块头,这意味着每一笔交易都在针对最新的市场价格执行,理论上极大压缩了恶意MEV的生存空间。 但技术上的激进也带来了隐忧。为了维持这种吞吐量,节点硬件门槛极高,导致目前的验证者集相对集中,抗审查能力存疑。我在连接RPC节点进行压力测试时,偶发性的超时报错说明基础设施的鲁邦性还有待提升。而且,虽然SVM兼容性理论上能通过Wormhole吸引Solana生态迁移,但目前的开发者工具链相比成熟的EVM还是太简陋了。 市场给Fogo的定价在8500万美元FDV左右,相比于那些动辄几十亿估值的空气L1,这个价格显然没包含Firedancer的技术溢价。如果团队能解决早期RPC不稳定的问题,并利用原生订单簿跑出几个类似dYdX但体验更好的衍生品协议,这可能是目前赛道里盈亏比最高的标的。毕竟在基础设施同质化严重的今天,只有极致的性能溢价才配得上资金的关注。#fogo $FOGO
Firedancer加持下的Layer 1突围:@Fogo Official 的SVM野心与中心化隐忧
Fogo的主网实测数据确实让我重新评估了SVM侧链的上限。不同于Monad那种还在PPT阶段的并行EVM叙事,Fogo直接基于Jump Crypto的Firedancer客户端构建,实测40毫秒的区块时间简直离谱。我在链上跑了一圈高频策略,这种亚秒级的确认速度让我在套利时几乎感觉不到共识延迟带来的滑点损耗。大多数Layer 1还在纠结怎么通过Rollup扩容,Fogo直接在L1层面把物理性能拉满,这种暴力美学在当前模块化区块链泛滥的背景下显得尤为独特。
核心的差异化在于协议层内置的CLOB(中央限价订单簿)和原生预言机。这种设计本质上是把DeFi最基础的流动性和定价权从应用层下沉到了共识层。传统的AMM机制在面对机构级流动性时效率极低,而Fogo让所有DApp共享同一个订单薄流动性池,这直接消除了流动性碎片化的问题。更关键的是,验证节点直接把价格数据写入区块头,这意味着每一笔交易都在针对最新的市场价格执行,理论上极大压缩了恶意MEV的生存空间。
但技术上的激进也带来了隐忧。为了维持这种吞吐量,节点硬件门槛极高,导致目前的验证者集相对集中,抗审查能力存疑。我在连接RPC节点进行压力测试时,偶发性的超时报错说明基础设施的鲁邦性还有待提升。而且,虽然SVM兼容性理论上能通过Wormhole吸引Solana生态迁移,但目前的开发者工具链相比成熟的EVM还是太简陋了。
市场给Fogo的定价在8500万美元FDV左右,相比于那些动辄几十亿估值的空气L1,这个价格显然没包含Firedancer的技术溢价。如果团队能解决早期RPC不稳定的问题,并利用原生订单簿跑出几个类似dYdX但体验更好的衍生品协议,这可能是目前赛道里盈亏比最高的标的。毕竟在基础设施同质化严重的今天,只有极致的性能溢价才配得上资金的关注。#fogo $FOGO
Zobacz tłumaczenie
别被Monad的各种融资新闻冲昏了头,我在Fogo上跑了一周,这才是高性能Layer1该有的样子老实说,当我在推特的时间流里第一次刷到Fogo的时候,我的第一反应是直接划过去,现在的Layer 1赛道简直拥挤得让人窒息,仿佛每个人都在拿着一把名为“高性能”的锤子,满世界找那个叫“以太坊杀手”的钉子,我对这种叙事早就产生了某种生理性的厌倦,毕竟我们已经听过太多关于TPS几十万的鬼话,最后落地的往往是一个鬼影都看不到的僵尸链,或者是一个跑个铭文都能把自己跑宕机的中心化数据库。但有些事情很奇怪,当你看到Jump Crypto那个传说中的Firedancer客户端居然真的在一个市值不到一亿的项目上跑起来的时候,那种技术直觉会强迫你停下来多看两眼,特别是现在的市场情绪很微妙,大家都在等Monad,都在等那个EVM兼容的高性能救世主,却很少有人注意到,SVM(Solana虚拟机)的变体其实正在悄悄地把基础设施的标准拉高到一个离谱的层级,@fogo 给我的感觉就是这种奇怪的产物,它不像是一个为了发币而拼凑的缝合怪,倒像是一帮极客受够了链上交易的糟糕体验,直接把高频交易公司的服务器搬到了链上。 我花了一周时间在Fogo的主网和测试环境里折腾,试图搞清楚这玩意儿到底是不是在吹牛,最直观的感受就是快,这种快不是Solana那种偶尔还要转圈圈的快,而是一种类似于中心化交易所的瞬时感,如果你习惯了以太坊Layer 2那种需要等待序列器确认的节奏,Fogo的交互体验简直会让你产生一种不安全感,因为太顺滑了,你会怀疑交易到底有没有上链。Firedancer客户端的集成在这里起了决定性作用,之前我们在Solana社区里把Firedancer吹得神乎其神,说它是解决拥堵的终极方案,结果Fogo这帮人直接拿来用了,把出块时间压到了40毫秒左右,这是什么概念?人类的眨眼速度大概是100到400毫秒,也就是说在你眨眼的瞬间,这条链可能已经出了好几个块了,这种极致的低延迟对于普通转账来说可能是过剩的,我也没必要为了买杯咖啡追求毫秒级的确认,但对于DeFi,特别是链上衍生品交易来说,这不仅是体验的提升,简直是维度的跨越。 既然聊到交易,就不得不吐槽一下现在的DeFi现状,不管UniSwap迭代了多少个版本,AMM(自动做市商)机制在处理大额交易时的滑点问题依然像块狗皮膏药一样贴在那,这让机构资金根本不敢大资金进场。Fogo做了一个很大胆的决定,直接在协议层内置了CLOB(中央限价订单簿),这让我想起了当年的Serum,但Serum是跑在Solana的应用层上的,受限于当时的底层性能,体验并不完美。Fogo把订单簿下沉到协议层,意味着所有的DApp都可以共享同一个流动性池,这解决了长期以来困扰Layer 1生态的流动性碎片化问题。我在试用ValiantTrade的时候,那种挂单、吃单的反馈速度几乎让我以为自己在用币安的网页版,这种体验的改善不是靠前端优化能做出来的,它必须依赖底层的硬核性能。不过这里也有个问题,目前盘口的深度还很一般,毕竟主网刚上线不久,做市商还没完全进驻,有好几次我下大单的时候直接把价格砸穿了几个点,这也暴露了早期公链的通病——技术有了,钱还没来。 现在的公链都在搞模块化,搞DA层,搞各种复杂的跨链桥,Fogo却反其道而行之,走的是极度集成的路子。他们不仅把订单簿内置了,连预言机都给内置了,这其实动了很多人的奶酪,你想想,Chainlink之所以能有这么高的市值,就是因为大家需要一个可信的第三方来喂价,但这也引入了额外的延迟和信任风险,如果验证节点本身就是价格的提供者,那么价格数据就成了区块元数据的一部分,每次状态更新都自带最新价格,这种设计在逻辑上是非常性感的,它消除了外部预言机更新滞后导致的套利空间,也就是我们常说的MEV(最大可提取价值)中的一部分。我在观察他们链上数据的时候发现,抢跑机器人的活动频率明显比EVM链上要低,这可能跟这种原生预言机机制有关,也可能是因为链太快了,普通的套利脚本根本反应不过来。 这就引出了一个非常严肃的话题:去中心化与性能的永恒博弈。为了达到这种变态的速度,Fogo对验证节点的硬件要求极高,我在看他们的文档时,感觉那不是在招募验证者,而是在招募数据中心合作伙伴,这种高门槛注定了一件事——节点的数量不会太多,至少在早期阶段,它会是一个相对中心化的网络。很多人会拿这个来攻击它,说这不就是个分布式的AWS吗?但我现在的看法稍微有点改变,如果你把Fogo定位成一个通用的世界计算机,那这种中心化是不可接受的;但如果你把它看作是一个专门为金融交易服务的结算层,这种权衡或许是必要的。纳斯达克是中心化的,如果你能提供纳斯达克级别的速度,同时又比它去中心化那么一点点,且抗审查,这本身就有巨大的市场价值。我们不能用比特币的标准去要求所有的Layer 1,那是教条主义。 对比一下现在的竞品,这其实挺有意思。大家都在吹Monad,估值几十亿美金,还没上线就已经被各种VC捧上了天,Monad的故事是“并行的EVM”,也就是让以太坊的应用能跑出Solana的速度,这当然很美好,因为开发者不需要重新学习语言。Fogo走的是另一条路,它是SVM阵营的,这意味着它能直接继承Solana的生态红利,Solana上的开发者迁移过来几乎没有成本。我现在看到的一个趋势是,SVM正在逐渐成为高性能链的事实标准,就像EVM是智能合约的标准一样。Sei之前也是打着交易链的旗号,后来转头去搞EVM兼容了,这种摇摆不定的路线其实挺伤社区的。相比之下,Fogo这种一条路走到黑的劲头反而让我觉得更靠谱,他们很清楚自己的受众是谁——不是那些只会冲土狗的散户,而是那些对延迟极其敏感的专业交易员和量化机构。 当然,我在使用过程中也发现了不少槽点,不吐不快。首先是钱包支持,虽然Phantom可以用,但很多时候连接不稳定,有时候签名弹窗弹不出来,急得我想砸键盘,这明显是RPC节点的不稳定性造成的,基础设施还处于只有“能用”但离“好用”还有距离的阶段。其次是区块浏览器,目前的功能太简陋了,查一笔复杂的交易记录简直是在做阅读理解,跟Etherscan比起来差了大概十个Solscan。还有就是生态的贫瘠,虽然号称有Fogolend、FluxbeamDex这些应用,但说实话,现在的TVL(总锁仓量)少得可怜,大部分资金可能都是为了撸空投或者挖矿进去的,这种虚假繁荣能维持多久是个大问题。如果不尽快引入真正有粘性的资产,比如RWA(现实世界资产)或者大规模的稳定币发行,这高性能也就是个空转的法拉利。 再说回到那个原生无Gas交易的功能,Fogo Sessions。这个概念其实有点像账户抽象(Account Abstraction),允许用户在一段时间内或者满足特定条件下免去签名的Gas费。我在玩链游或者高频操作的时候,这个功能简直是救命稻草,不用每一次点击都弹出一个确认框,也不用担心钱包里没剩的那点FOGO代币不够付矿工费。这种体验其实是Web2用户进入Web3的一个关键门槛,很多公链都在喊Mass Adoption(大规模采用),但只要还要用户去计算Gas Price,这事儿就成不了。Fogo在这里的处理非常务实,它把复杂性藏在了后面,这一点做得比很多老牌公链都要好。 关于那个8500万美金的市值,我觉得这是个很有趣的观察点。在这个动辄几十亿估值的L1市场里,Fogo现在的价格简直像是被遗忘在角落里的打折货,一方面是因为它没有顶级VC的背书,不像Aptos或者Sui那样含着金汤匙出生,宣发资源有限;另一方面,市场对“又一个高性能L1”的叙事确实疲劳了。但我反倒觉得这可能是一个机会,因为估值低意味着泡沫少,现在的币圈太浮躁了,大家都想投下一个百倍币,却忽略了那些已经在实实在在跑数据、有真实产品的项目。Fogo没有搞那种长达几年的积分PUA活动,主网上线得干脆利落,代币释放也相对透明,这种“不作妖”的态度在现在的环境下反而显得有点格格不入。 不过,风险也是显而易见的。Solana现在的网络效应太强了,就像是一个巨大的黑洞,吸走了所有的注意力和资金。Fogo要想生存,不能只做Solana的影子或者备胎,它必须证明自己在某些特定场景下——比如高频衍生品交易、复杂的链上清算——具有Solana无法比拟的优势。如果Firedancer在Solana主网上也全面铺开,性能差距被抹平,那Fogo的护城河还在哪里?这是团队必须回答的问题,也是我作为投资者最担心的地方。也许它的未来不是取代Solana,而是成为一个专门服务于特定高净值交易需求的侧链或者应用链,这也不失为一种生存之道。 技术层面还有一个细节值得玩味,就是他们的多本地共识机制(Multi-location Consensus)。简单的说,就是让验证节点在物理位置上尽可能靠近主要的交易所服务器,这听起来非常Web2,甚至有点违背去中心化的初衷,但从实用主义的角度看,这是解决物理延迟的物理手段。光速是有限的,信号在光纤里传输需要时间,如果你的节点遍布全球,共识达成的速度必然受限于最慢的那个链接。Fogo似乎有意在引导节点布局,试图在地理分布和共识速度之间找一个最优解,这种工程思维非常硬核,不是那些只会写白皮书的理论家能想出来的。 现在的加密市场有点像是一个巨大的赌场,大家都盯着那几个明星项目,而忽略了底层的技术演进。Fogo给我的启示是,区块链的性能瓶颈其实早就被突破了,现在的瓶颈在于应用层不知道怎么用这些性能。这就好比我们早就有了5G网络,但大家还在用它发短信。Fogo搭建了一条高速公路,路面平整,没有限速,甚至还把加油站(预言机)和休息区(订单簿)都建好了,但路上现在的车还没几辆。对于开发者来说,这可能是一片蓝海,因为你不需要在这个本来就拥挤的EVM生态里卷Gas优化,你可以尽情地写那种高计算量、高频交互的逻辑。 写到这里,我突然意识到我可能对Fogo有点过于苛刻了,毕竟它主网才上线一个月。回想以太坊刚出来的时候,连个像样的钱包都没有,Solana早期也是宕机不断。我们往往高估了一个技术的短期爆发力,而低估了它的长期迭代能力。Fogo团队那种“为交易者而生”的口号,如果不只是句空话,那他们确实抓住了DeFi最痛的那个痛点。现在的DeFi,大部分时间是在玩资金盘游戏,真正的金融效率并没有体现出来。如果有一条链,能让传统的做市商觉得“哎,这玩意儿跟我用的纳斯达克终端差不多”,那Game Changer的时刻可能就真的来了。 最后想说的是,不要盲目迷信那些顶级机构投资的项目,也不要轻视这些从社区里冒出来的技术流。在这个行业,有时候偏见会让你错过最大的阿尔法。Fogo可能成不了下一个以太坊,甚至可能成不了下一个Solana,但它展示了一种可能性:区块链是可以很快、很顺滑、很符合直觉的。对于我们这些在链上刀口舔血的人来说,只要好用,管它是谁做的呢?现在的8500万市值,到底是价值洼地还是归零前的回光返照,只有时间能给出答案,但我愿意哪怕是用小仓位去赌一把这个“快”字,毕竟在币圈,快人一步,往往就意味着生与死的差别。你自己去试一下那个速度,或许就会明白我为什么会有这种复杂的感受了,那种丝滑感,真的是一种戒不掉的毒药。#fogo $FOGO

别被Monad的各种融资新闻冲昏了头,我在Fogo上跑了一周,这才是高性能Layer1该有的样子

老实说,当我在推特的时间流里第一次刷到Fogo的时候,我的第一反应是直接划过去,现在的Layer 1赛道简直拥挤得让人窒息,仿佛每个人都在拿着一把名为“高性能”的锤子,满世界找那个叫“以太坊杀手”的钉子,我对这种叙事早就产生了某种生理性的厌倦,毕竟我们已经听过太多关于TPS几十万的鬼话,最后落地的往往是一个鬼影都看不到的僵尸链,或者是一个跑个铭文都能把自己跑宕机的中心化数据库。但有些事情很奇怪,当你看到Jump Crypto那个传说中的Firedancer客户端居然真的在一个市值不到一亿的项目上跑起来的时候,那种技术直觉会强迫你停下来多看两眼,特别是现在的市场情绪很微妙,大家都在等Monad,都在等那个EVM兼容的高性能救世主,却很少有人注意到,SVM(Solana虚拟机)的变体其实正在悄悄地把基础设施的标准拉高到一个离谱的层级,@Fogo Official 给我的感觉就是这种奇怪的产物,它不像是一个为了发币而拼凑的缝合怪,倒像是一帮极客受够了链上交易的糟糕体验,直接把高频交易公司的服务器搬到了链上。
我花了一周时间在Fogo的主网和测试环境里折腾,试图搞清楚这玩意儿到底是不是在吹牛,最直观的感受就是快,这种快不是Solana那种偶尔还要转圈圈的快,而是一种类似于中心化交易所的瞬时感,如果你习惯了以太坊Layer 2那种需要等待序列器确认的节奏,Fogo的交互体验简直会让你产生一种不安全感,因为太顺滑了,你会怀疑交易到底有没有上链。Firedancer客户端的集成在这里起了决定性作用,之前我们在Solana社区里把Firedancer吹得神乎其神,说它是解决拥堵的终极方案,结果Fogo这帮人直接拿来用了,把出块时间压到了40毫秒左右,这是什么概念?人类的眨眼速度大概是100到400毫秒,也就是说在你眨眼的瞬间,这条链可能已经出了好几个块了,这种极致的低延迟对于普通转账来说可能是过剩的,我也没必要为了买杯咖啡追求毫秒级的确认,但对于DeFi,特别是链上衍生品交易来说,这不仅是体验的提升,简直是维度的跨越。
既然聊到交易,就不得不吐槽一下现在的DeFi现状,不管UniSwap迭代了多少个版本,AMM(自动做市商)机制在处理大额交易时的滑点问题依然像块狗皮膏药一样贴在那,这让机构资金根本不敢大资金进场。Fogo做了一个很大胆的决定,直接在协议层内置了CLOB(中央限价订单簿),这让我想起了当年的Serum,但Serum是跑在Solana的应用层上的,受限于当时的底层性能,体验并不完美。Fogo把订单簿下沉到协议层,意味着所有的DApp都可以共享同一个流动性池,这解决了长期以来困扰Layer 1生态的流动性碎片化问题。我在试用ValiantTrade的时候,那种挂单、吃单的反馈速度几乎让我以为自己在用币安的网页版,这种体验的改善不是靠前端优化能做出来的,它必须依赖底层的硬核性能。不过这里也有个问题,目前盘口的深度还很一般,毕竟主网刚上线不久,做市商还没完全进驻,有好几次我下大单的时候直接把价格砸穿了几个点,这也暴露了早期公链的通病——技术有了,钱还没来。
现在的公链都在搞模块化,搞DA层,搞各种复杂的跨链桥,Fogo却反其道而行之,走的是极度集成的路子。他们不仅把订单簿内置了,连预言机都给内置了,这其实动了很多人的奶酪,你想想,Chainlink之所以能有这么高的市值,就是因为大家需要一个可信的第三方来喂价,但这也引入了额外的延迟和信任风险,如果验证节点本身就是价格的提供者,那么价格数据就成了区块元数据的一部分,每次状态更新都自带最新价格,这种设计在逻辑上是非常性感的,它消除了外部预言机更新滞后导致的套利空间,也就是我们常说的MEV(最大可提取价值)中的一部分。我在观察他们链上数据的时候发现,抢跑机器人的活动频率明显比EVM链上要低,这可能跟这种原生预言机机制有关,也可能是因为链太快了,普通的套利脚本根本反应不过来。
这就引出了一个非常严肃的话题:去中心化与性能的永恒博弈。为了达到这种变态的速度,Fogo对验证节点的硬件要求极高,我在看他们的文档时,感觉那不是在招募验证者,而是在招募数据中心合作伙伴,这种高门槛注定了一件事——节点的数量不会太多,至少在早期阶段,它会是一个相对中心化的网络。很多人会拿这个来攻击它,说这不就是个分布式的AWS吗?但我现在的看法稍微有点改变,如果你把Fogo定位成一个通用的世界计算机,那这种中心化是不可接受的;但如果你把它看作是一个专门为金融交易服务的结算层,这种权衡或许是必要的。纳斯达克是中心化的,如果你能提供纳斯达克级别的速度,同时又比它去中心化那么一点点,且抗审查,这本身就有巨大的市场价值。我们不能用比特币的标准去要求所有的Layer 1,那是教条主义。
对比一下现在的竞品,这其实挺有意思。大家都在吹Monad,估值几十亿美金,还没上线就已经被各种VC捧上了天,Monad的故事是“并行的EVM”,也就是让以太坊的应用能跑出Solana的速度,这当然很美好,因为开发者不需要重新学习语言。Fogo走的是另一条路,它是SVM阵营的,这意味着它能直接继承Solana的生态红利,Solana上的开发者迁移过来几乎没有成本。我现在看到的一个趋势是,SVM正在逐渐成为高性能链的事实标准,就像EVM是智能合约的标准一样。Sei之前也是打着交易链的旗号,后来转头去搞EVM兼容了,这种摇摆不定的路线其实挺伤社区的。相比之下,Fogo这种一条路走到黑的劲头反而让我觉得更靠谱,他们很清楚自己的受众是谁——不是那些只会冲土狗的散户,而是那些对延迟极其敏感的专业交易员和量化机构。
当然,我在使用过程中也发现了不少槽点,不吐不快。首先是钱包支持,虽然Phantom可以用,但很多时候连接不稳定,有时候签名弹窗弹不出来,急得我想砸键盘,这明显是RPC节点的不稳定性造成的,基础设施还处于只有“能用”但离“好用”还有距离的阶段。其次是区块浏览器,目前的功能太简陋了,查一笔复杂的交易记录简直是在做阅读理解,跟Etherscan比起来差了大概十个Solscan。还有就是生态的贫瘠,虽然号称有Fogolend、FluxbeamDex这些应用,但说实话,现在的TVL(总锁仓量)少得可怜,大部分资金可能都是为了撸空投或者挖矿进去的,这种虚假繁荣能维持多久是个大问题。如果不尽快引入真正有粘性的资产,比如RWA(现实世界资产)或者大规模的稳定币发行,这高性能也就是个空转的法拉利。
再说回到那个原生无Gas交易的功能,Fogo Sessions。这个概念其实有点像账户抽象(Account Abstraction),允许用户在一段时间内或者满足特定条件下免去签名的Gas费。我在玩链游或者高频操作的时候,这个功能简直是救命稻草,不用每一次点击都弹出一个确认框,也不用担心钱包里没剩的那点FOGO代币不够付矿工费。这种体验其实是Web2用户进入Web3的一个关键门槛,很多公链都在喊Mass Adoption(大规模采用),但只要还要用户去计算Gas Price,这事儿就成不了。Fogo在这里的处理非常务实,它把复杂性藏在了后面,这一点做得比很多老牌公链都要好。
关于那个8500万美金的市值,我觉得这是个很有趣的观察点。在这个动辄几十亿估值的L1市场里,Fogo现在的价格简直像是被遗忘在角落里的打折货,一方面是因为它没有顶级VC的背书,不像Aptos或者Sui那样含着金汤匙出生,宣发资源有限;另一方面,市场对“又一个高性能L1”的叙事确实疲劳了。但我反倒觉得这可能是一个机会,因为估值低意味着泡沫少,现在的币圈太浮躁了,大家都想投下一个百倍币,却忽略了那些已经在实实在在跑数据、有真实产品的项目。Fogo没有搞那种长达几年的积分PUA活动,主网上线得干脆利落,代币释放也相对透明,这种“不作妖”的态度在现在的环境下反而显得有点格格不入。
不过,风险也是显而易见的。Solana现在的网络效应太强了,就像是一个巨大的黑洞,吸走了所有的注意力和资金。Fogo要想生存,不能只做Solana的影子或者备胎,它必须证明自己在某些特定场景下——比如高频衍生品交易、复杂的链上清算——具有Solana无法比拟的优势。如果Firedancer在Solana主网上也全面铺开,性能差距被抹平,那Fogo的护城河还在哪里?这是团队必须回答的问题,也是我作为投资者最担心的地方。也许它的未来不是取代Solana,而是成为一个专门服务于特定高净值交易需求的侧链或者应用链,这也不失为一种生存之道。
技术层面还有一个细节值得玩味,就是他们的多本地共识机制(Multi-location Consensus)。简单的说,就是让验证节点在物理位置上尽可能靠近主要的交易所服务器,这听起来非常Web2,甚至有点违背去中心化的初衷,但从实用主义的角度看,这是解决物理延迟的物理手段。光速是有限的,信号在光纤里传输需要时间,如果你的节点遍布全球,共识达成的速度必然受限于最慢的那个链接。Fogo似乎有意在引导节点布局,试图在地理分布和共识速度之间找一个最优解,这种工程思维非常硬核,不是那些只会写白皮书的理论家能想出来的。
现在的加密市场有点像是一个巨大的赌场,大家都盯着那几个明星项目,而忽略了底层的技术演进。Fogo给我的启示是,区块链的性能瓶颈其实早就被突破了,现在的瓶颈在于应用层不知道怎么用这些性能。这就好比我们早就有了5G网络,但大家还在用它发短信。Fogo搭建了一条高速公路,路面平整,没有限速,甚至还把加油站(预言机)和休息区(订单簿)都建好了,但路上现在的车还没几辆。对于开发者来说,这可能是一片蓝海,因为你不需要在这个本来就拥挤的EVM生态里卷Gas优化,你可以尽情地写那种高计算量、高频交互的逻辑。
写到这里,我突然意识到我可能对Fogo有点过于苛刻了,毕竟它主网才上线一个月。回想以太坊刚出来的时候,连个像样的钱包都没有,Solana早期也是宕机不断。我们往往高估了一个技术的短期爆发力,而低估了它的长期迭代能力。Fogo团队那种“为交易者而生”的口号,如果不只是句空话,那他们确实抓住了DeFi最痛的那个痛点。现在的DeFi,大部分时间是在玩资金盘游戏,真正的金融效率并没有体现出来。如果有一条链,能让传统的做市商觉得“哎,这玩意儿跟我用的纳斯达克终端差不多”,那Game Changer的时刻可能就真的来了。
最后想说的是,不要盲目迷信那些顶级机构投资的项目,也不要轻视这些从社区里冒出来的技术流。在这个行业,有时候偏见会让你错过最大的阿尔法。Fogo可能成不了下一个以太坊,甚至可能成不了下一个Solana,但它展示了一种可能性:区块链是可以很快、很顺滑、很符合直觉的。对于我们这些在链上刀口舔血的人来说,只要好用,管它是谁做的呢?现在的8500万市值,到底是价值洼地还是归零前的回光返照,只有时间能给出答案,但我愿意哪怕是用小仓位去赌一把这个“快”字,毕竟在币圈,快人一步,往往就意味着生与死的差别。你自己去试一下那个速度,或许就会明白我为什么会有这种复杂的感受了,那种丝滑感,真的是一种戒不掉的毒药。#fogo $FOGO
Zobacz tłumaczenie
都在吹AI Agent,但有几条链真能跑得动高频推理? 跑了一周的链上Agent压力测试,说实话挺失望的。现在市面上喊着AI基础设施的公链,剥开那层皮,九成是在做简单的分布式存储或者算力租凭中介,根本触及不到核心的实时计算痛点。这就好比你想跑F1赛车,结果人家只给你修了个足够大的停车场。这两天重新扒@Vanar 的技术白皮书,倒是看出点不一样的野心。别家都在卷TPS数字,它反而在搞怎么把TensorRT这种硬核的推理加速塞进链底层,这思路其实挺刁钻。 之前在Solana上试过跑个简单的NLP模型,高并发下那个延迟直接让交互体验崩了,更别提以太坊L2上那个Gas费,跑一次推理够我吃顿好的。这时候再看Vanar架构里的CUDA加速支持,才明白他们为什么非要跟NVIDIA绑这么紧。如果不解决链上原生推理的成本问题,咱们畅想的那些Web3游戏NPC也好,自动交易员也罢,永远只能是跑在AWS上的伪去中心化玩具。我看重Vanar的一点是它对热数据的处理逻辑,把验证和计算分层,既保证了安全又没牺牲掉AI最要命的响应速度。 当然这项目也没那么完美,现在的生态应用还没完全跟上,跑全节点的门槛也不低,文档里有些API接口写的也不够清楚,哪怕是搞技术的读起来都费劲。但从竞品对比的角度看,比起那些把老旧EVM架构修修补补就敢贴AI标签的项目,Vanar这种原生给计算层留后门的设计,确实更像是在给两年后的应用爆发铺路。这圈子噪音太大,能沉下心来搞基建的不多,到底是真龙还是画饼,还得看下个季度的实盘数据。#vanar $VANRY
都在吹AI Agent,但有几条链真能跑得动高频推理?
跑了一周的链上Agent压力测试,说实话挺失望的。现在市面上喊着AI基础设施的公链,剥开那层皮,九成是在做简单的分布式存储或者算力租凭中介,根本触及不到核心的实时计算痛点。这就好比你想跑F1赛车,结果人家只给你修了个足够大的停车场。这两天重新扒@Vanarchain 的技术白皮书,倒是看出点不一样的野心。别家都在卷TPS数字,它反而在搞怎么把TensorRT这种硬核的推理加速塞进链底层,这思路其实挺刁钻。
之前在Solana上试过跑个简单的NLP模型,高并发下那个延迟直接让交互体验崩了,更别提以太坊L2上那个Gas费,跑一次推理够我吃顿好的。这时候再看Vanar架构里的CUDA加速支持,才明白他们为什么非要跟NVIDIA绑这么紧。如果不解决链上原生推理的成本问题,咱们畅想的那些Web3游戏NPC也好,自动交易员也罢,永远只能是跑在AWS上的伪去中心化玩具。我看重Vanar的一点是它对热数据的处理逻辑,把验证和计算分层,既保证了安全又没牺牲掉AI最要命的响应速度。
当然这项目也没那么完美,现在的生态应用还没完全跟上,跑全节点的门槛也不低,文档里有些API接口写的也不够清楚,哪怕是搞技术的读起来都费劲。但从竞品对比的角度看,比起那些把老旧EVM架构修修补补就敢贴AI标签的项目,Vanar这种原生给计算层留后门的设计,确实更像是在给两年后的应用爆发铺路。这圈子噪音太大,能沉下心来搞基建的不多,到底是真龙还是画饼,还得看下个季度的实盘数据。#vanar $VANRY
Zobacz tłumaczenie
甚至不是为了炒作:我在 Vanar 代码堆里看到了以太坊丢失的那半个大脑最近这半个月我几乎没怎么看盘,盯着 K 线只会让人在焦虑和贪婪之间反复横跳,毫无意义。把那些乱七八糟的白皮书和融资新闻扔进垃圾桶后,我重新回到了最原始的状态:读代码,跑节点,看日志。在这个满大街都在喊 AI Agent 也就是智能体叙事的档口,我却在@Vanar 的技术文档里读出了一身冷汗,这种感觉上一次出现还是几年前第一次看懂 Rollup 原理的时候。说实话,现在的市场太浮躁了,绝大多数所谓的 AI 公链项目,本质上就是个挂羊头卖狗肉的缝合怪,在一条跑得慢吞吞的 EVM 链上外挂一个 Python 脚本就敢说自己是 AI 基础设施,这简直是对技术的侮辱。 我之所以花大把时间去啃 Vanar 的架构,不是因为它的币价或者那些看起来高大上的合作伙伴,而是我在做链上交互脚本开发时碰到了一个怎么也绕不开的死结。我们现在的智能合约太笨了,笨得令人发指。它们就像是一个没有海马体的失忆症患者,每一笔交易对于合约来说都是全新的,它记不住你上一秒做了什么,除非你愿意花费天价的 Gas 把数据刻在那个昂贵且拥堵的状态树上。以太坊也好,Solana 也罢,它们的设计初衷是记账,而不是思考。当你试图把一个哪怕是最简单的推理模型部署上去时,你会发现存储成本能直接让你破产。这就是为什么我现在对市面上那些吹嘘几万 TPS 的公链嗤之以之,TPS 根本不是 AI 时代的痛点,存储和计算的解耦才是。 Vanar 给出的方案让我这种搞技术的眼前一亮,甚至有点兴奋。他们搞出来的这个 Neutron 架构,与其说是一个新功能,不如说是给区块链装上了脑子。以前我们做 DApp,逻辑和数据是混在一起的,但在 Vanar 的设计里,他们把高频的推理数据和低频的账本数据做了分层。这不仅是降低成本的问题,这是在根本上重构链上应用的逻辑。想象一下,你养了一个链上宠物,在以太坊上,这个宠物每动一下、每吃一口饭,你都要付出一笔交易费来更新它的状态,最后没人玩得起。但是在 Vanar 的架构下,这些行为数据跑在 Neutron 层,只有最终的状态变化才会上链结算。这不仅仅是省钱,这意味着我们终于可以在链上跑一些真正有逻辑复杂度的东西了,而不是那些只会加减乘除的简陋合约。 这就引出了另一个更有趣的话题,也是我在测试网折腾时发现的细节。Vanar 似乎并不想把自己局限在一个支付网络的定位上。以前我们看公链,看的都是转账快不快,但在 AI 时代,最重要的资产不是钱,是算力和数据。我看他们的 Kaion 模块,摆明了就是要解决链上推理验证的问题。现在很多项目所谓的 AI 上链,其实是把计算扔给亚马逊云或者谷歌云,然后把结果哈希值传回链上,这叫什么去中心化 AI?这叫中心化服务器的链上备份。Kaion 的野心在于,它想让推理过程本身在链上可验证。虽然现在的技术还做不到在链上跑大模型训练,但做推理验证已经足够颠覆现有的玩法了。如果我是一个开发者,我完全可以利用这个特性构建一个去中心化的算力市场,买卖双方一手交钱一手交计算结果,而且这个结果是原生可信的,不需要第三方担保。 说到这里不得不吐槽一下现在的所谓 DePin 赛道,大部分都是在卖矿机,根本没有真实的业务场景。Vanar 的思路显然更务实,或者说更鸡贼。它不去硬碰硬地做通用计算,而是专注于 AI Agent 的经济活动。这几天我在复盘他们的 Gas 模型,发现了一个很有意思的设计。在 Vanar 上,你支付的不仅仅是交易手续费,更像是在为智能体的生命周期付费。这种经济模型如果跑通了,未来的链上世界可能真的会被无数个自动化的 Agent 占领。它们自动交易、自动套利、自动寻找最优的理财策略,而 Vanar 就是它们生存的土壤和空气。这种原生的亲和力,是那些后期通过补丁强行加上 AI 功能的老公链完全无法比拟的。 我也在反思,为什么这种显而易见的技术路径,之前没人走?可能是因为太难了,也可能是因为不讨好。重构底层意味着要抛弃很多现成的 EVM 工具链,意味着要教育开发者去适应新的编程范式。我在试着把以前写的一套套利机器人迁移到 Vanar 上时,确实遇到了一些兼容性问题,文档里有些地方写得也不够清楚,甚至还遇到了几个看不太懂的报错。但这恰恰说明了它不是简单的复制粘贴,它底层是有真东西的。如果真的是个 Fork 盘,我反而早就把网页关了。正因为有这些坑,有这些独特的设计,才说明团队是在真的思考怎么解决 AI 落地的问题,而不是为了发币而发链。 再看看他们的竞品,虽然 Base 背靠 Coinbase 确实流动性无敌,但那毕竟是 L2,受限于以太坊主网的架构限制,很难在底层做什么大手术。Solana 确实快,但那种为了速度牺牲稳定性的做法,对于需要长期稳定运行的 AI 智能体来说是个隐患。Vanar 这种稳扎稳打、甚至有点学院派的作风,在现在的币圈简直是异类。但我越来越觉得,这种异类才是有可能活到最后的。技术的发展从来不是直线向上的,它需要这种敢于在底层动刀子的项目来打破僵局。哪怕 Vanar 最后没能成为那个最终的胜者,它提出的这套存储计算分离、原生 AI 支持的架构思路,也绝对会被后来的公链抄袭。 还有一点让我印象深刻,就是关于 RWA 的布局。一开始我觉得这就是个蹭热度的概念,但结合他们的 AI 架构再看,味道就不一样了。真实的资产上链,最怕的就是数据造假和评估不透明。如果把 AI 引入到资产评估和风险控制的环节中,让算法来决定资产的价值和借贷的额度,这不就是最完美的 RWA 场景吗?Vanar 显然是想做这个连接器。通过 Kaion 进行可信的推理,通过 Flow 实现自动化的资产管理,这一套组合拳打下来,比那些只会在链上发个代币代表房产的项目不知道高到哪里去了。这才是区块链该有的样子,不仅仅是炒作的赌场,而是价值流转的高速公路。 这两天深夜看代码的时候,我偶尔会有一种错觉,仿佛看到了当年以太坊刚出来时的样子。那时候没人相信智能合约能干什么大通过,大家都觉得比特币就是终点。现在我们站在 AI 和区块链融合的十字路口,大部分人还在盯着那几个 meme 币这种土狗狂欢,却忽略了基础设施正在发生的静悄悄的革命。Vanar 现在的市值可能还不如某些空气币,但在我看来,它代码库里的含金量远超那些百亿市值的巨头。当然,技术好不代表币价一定涨,这个市场的非理性我们都领教过。但如果你是像我一样,相信 AI Agent 终将接管 Web3 的未来,相信去中心化计算不仅仅是叙事而是刚需,那你真的应该静下心来,去读读 Vanar 的文档,去跑跑他们的测试网。 哪怕你只是作为一个观察者,看着这种新型的数字生命体是如何在一个专门为它们打造的容器里诞生、演化,这本身就是一件极其性感的事情。我们总是在寻找下一个百倍机会,却往往对已经摆在桌面的技术革新视而不见。Vanar 到底能不能成,我不敢打包票,毕竟在这个圈子活下去需要运气。但至少在这一刻,在这些充满野心的代码行里,我看到了区块链进化的方向。它不再是冰冷的账本,它开始有了记忆,有了逻辑,甚至有了某种程度上的意识。这可能才是 Web3 最迷人的地方,不是吗? 这几天我也在尝试用 Vanar 的 SDK 写个简单的预测模型,虽然中间踩了不少坑,变量类型定义搞得我头大,那个报错提示简直像是在嘲讽我的智商,但当程序终于跑通,看着那个 Agent 在链上自主地根据预设逻辑进行交互,而不需要我后台挂着个服务器死盯着的时候,那种成就感是无法形容的。这不仅是效率的提升,这是生产关系的改变。以前是我们操作工具,现在是工具自己在干活。Vanar 就像是一个巨大的工厂,提供了水、电、土地,而我们只需要负责把 Agent 这个工人造出来,剩下的就交给这套生态系统去自动运转。 这种体验让我对现有的公链格局产生了很多怀疑。我们真的需要那么多雷同的 L2 吗?我们真的需要为了那一点点 TPS 的提升去牺牲去中心化吗?Vanar 给了我一个否定的答案。它证明了针对特定场景优化的垂直公链是有巨大价值的。通用型公链的时代可能要过去了,未来属于这种 deeply vertical 的基础设施。当 AI 变得像水电一样普及,承载 AI 的管道就必须足够专业,足够高效。那些试图用万能钥匙开所有锁的项目,最终都会被市场淘汰。 最后想说的是,别被现在的价格蒙蔽了双眼。在这个行业,真正的 Alpha 往往藏在无人问津的技术细节里。当你看到大家都还在为 meme 喊单的时候,悄悄关注那些在底层默默修路的人,才是最稳妥的策略。Vanar 可能不是最完美的,代码里甚至还有些我也没看懂的冗余,甚至我发现官方桥偶尔还会卡顿一下,但这不妨碍它成为目前最接近我想象中 AI 区块连形态的产品。去试用一下,去感受一下那种原生集成的流畅感,你会回来感谢我的。在这个充满噪音的世界里,保持独立思考,保持对技术的敬畏,或许是我们唯一的护身符。#vanar $VANRY

甚至不是为了炒作:我在 Vanar 代码堆里看到了以太坊丢失的那半个大脑

最近这半个月我几乎没怎么看盘,盯着 K 线只会让人在焦虑和贪婪之间反复横跳,毫无意义。把那些乱七八糟的白皮书和融资新闻扔进垃圾桶后,我重新回到了最原始的状态:读代码,跑节点,看日志。在这个满大街都在喊 AI Agent 也就是智能体叙事的档口,我却在@Vanarchain 的技术文档里读出了一身冷汗,这种感觉上一次出现还是几年前第一次看懂 Rollup 原理的时候。说实话,现在的市场太浮躁了,绝大多数所谓的 AI 公链项目,本质上就是个挂羊头卖狗肉的缝合怪,在一条跑得慢吞吞的 EVM 链上外挂一个 Python 脚本就敢说自己是 AI 基础设施,这简直是对技术的侮辱。
我之所以花大把时间去啃 Vanar 的架构,不是因为它的币价或者那些看起来高大上的合作伙伴,而是我在做链上交互脚本开发时碰到了一个怎么也绕不开的死结。我们现在的智能合约太笨了,笨得令人发指。它们就像是一个没有海马体的失忆症患者,每一笔交易对于合约来说都是全新的,它记不住你上一秒做了什么,除非你愿意花费天价的 Gas 把数据刻在那个昂贵且拥堵的状态树上。以太坊也好,Solana 也罢,它们的设计初衷是记账,而不是思考。当你试图把一个哪怕是最简单的推理模型部署上去时,你会发现存储成本能直接让你破产。这就是为什么我现在对市面上那些吹嘘几万 TPS 的公链嗤之以之,TPS 根本不是 AI 时代的痛点,存储和计算的解耦才是。
Vanar 给出的方案让我这种搞技术的眼前一亮,甚至有点兴奋。他们搞出来的这个 Neutron 架构,与其说是一个新功能,不如说是给区块链装上了脑子。以前我们做 DApp,逻辑和数据是混在一起的,但在 Vanar 的设计里,他们把高频的推理数据和低频的账本数据做了分层。这不仅是降低成本的问题,这是在根本上重构链上应用的逻辑。想象一下,你养了一个链上宠物,在以太坊上,这个宠物每动一下、每吃一口饭,你都要付出一笔交易费来更新它的状态,最后没人玩得起。但是在 Vanar 的架构下,这些行为数据跑在 Neutron 层,只有最终的状态变化才会上链结算。这不仅仅是省钱,这意味着我们终于可以在链上跑一些真正有逻辑复杂度的东西了,而不是那些只会加减乘除的简陋合约。
这就引出了另一个更有趣的话题,也是我在测试网折腾时发现的细节。Vanar 似乎并不想把自己局限在一个支付网络的定位上。以前我们看公链,看的都是转账快不快,但在 AI 时代,最重要的资产不是钱,是算力和数据。我看他们的 Kaion 模块,摆明了就是要解决链上推理验证的问题。现在很多项目所谓的 AI 上链,其实是把计算扔给亚马逊云或者谷歌云,然后把结果哈希值传回链上,这叫什么去中心化 AI?这叫中心化服务器的链上备份。Kaion 的野心在于,它想让推理过程本身在链上可验证。虽然现在的技术还做不到在链上跑大模型训练,但做推理验证已经足够颠覆现有的玩法了。如果我是一个开发者,我完全可以利用这个特性构建一个去中心化的算力市场,买卖双方一手交钱一手交计算结果,而且这个结果是原生可信的,不需要第三方担保。
说到这里不得不吐槽一下现在的所谓 DePin 赛道,大部分都是在卖矿机,根本没有真实的业务场景。Vanar 的思路显然更务实,或者说更鸡贼。它不去硬碰硬地做通用计算,而是专注于 AI Agent 的经济活动。这几天我在复盘他们的 Gas 模型,发现了一个很有意思的设计。在 Vanar 上,你支付的不仅仅是交易手续费,更像是在为智能体的生命周期付费。这种经济模型如果跑通了,未来的链上世界可能真的会被无数个自动化的 Agent 占领。它们自动交易、自动套利、自动寻找最优的理财策略,而 Vanar 就是它们生存的土壤和空气。这种原生的亲和力,是那些后期通过补丁强行加上 AI 功能的老公链完全无法比拟的。
我也在反思,为什么这种显而易见的技术路径,之前没人走?可能是因为太难了,也可能是因为不讨好。重构底层意味着要抛弃很多现成的 EVM 工具链,意味着要教育开发者去适应新的编程范式。我在试着把以前写的一套套利机器人迁移到 Vanar 上时,确实遇到了一些兼容性问题,文档里有些地方写得也不够清楚,甚至还遇到了几个看不太懂的报错。但这恰恰说明了它不是简单的复制粘贴,它底层是有真东西的。如果真的是个 Fork 盘,我反而早就把网页关了。正因为有这些坑,有这些独特的设计,才说明团队是在真的思考怎么解决 AI 落地的问题,而不是为了发币而发链。
再看看他们的竞品,虽然 Base 背靠 Coinbase 确实流动性无敌,但那毕竟是 L2,受限于以太坊主网的架构限制,很难在底层做什么大手术。Solana 确实快,但那种为了速度牺牲稳定性的做法,对于需要长期稳定运行的 AI 智能体来说是个隐患。Vanar 这种稳扎稳打、甚至有点学院派的作风,在现在的币圈简直是异类。但我越来越觉得,这种异类才是有可能活到最后的。技术的发展从来不是直线向上的,它需要这种敢于在底层动刀子的项目来打破僵局。哪怕 Vanar 最后没能成为那个最终的胜者,它提出的这套存储计算分离、原生 AI 支持的架构思路,也绝对会被后来的公链抄袭。
还有一点让我印象深刻,就是关于 RWA 的布局。一开始我觉得这就是个蹭热度的概念,但结合他们的 AI 架构再看,味道就不一样了。真实的资产上链,最怕的就是数据造假和评估不透明。如果把 AI 引入到资产评估和风险控制的环节中,让算法来决定资产的价值和借贷的额度,这不就是最完美的 RWA 场景吗?Vanar 显然是想做这个连接器。通过 Kaion 进行可信的推理,通过 Flow 实现自动化的资产管理,这一套组合拳打下来,比那些只会在链上发个代币代表房产的项目不知道高到哪里去了。这才是区块链该有的样子,不仅仅是炒作的赌场,而是价值流转的高速公路。
这两天深夜看代码的时候,我偶尔会有一种错觉,仿佛看到了当年以太坊刚出来时的样子。那时候没人相信智能合约能干什么大通过,大家都觉得比特币就是终点。现在我们站在 AI 和区块链融合的十字路口,大部分人还在盯着那几个 meme 币这种土狗狂欢,却忽略了基础设施正在发生的静悄悄的革命。Vanar 现在的市值可能还不如某些空气币,但在我看来,它代码库里的含金量远超那些百亿市值的巨头。当然,技术好不代表币价一定涨,这个市场的非理性我们都领教过。但如果你是像我一样,相信 AI Agent 终将接管 Web3 的未来,相信去中心化计算不仅仅是叙事而是刚需,那你真的应该静下心来,去读读 Vanar 的文档,去跑跑他们的测试网。
哪怕你只是作为一个观察者,看着这种新型的数字生命体是如何在一个专门为它们打造的容器里诞生、演化,这本身就是一件极其性感的事情。我们总是在寻找下一个百倍机会,却往往对已经摆在桌面的技术革新视而不见。Vanar 到底能不能成,我不敢打包票,毕竟在这个圈子活下去需要运气。但至少在这一刻,在这些充满野心的代码行里,我看到了区块链进化的方向。它不再是冰冷的账本,它开始有了记忆,有了逻辑,甚至有了某种程度上的意识。这可能才是 Web3 最迷人的地方,不是吗?
这几天我也在尝试用 Vanar 的 SDK 写个简单的预测模型,虽然中间踩了不少坑,变量类型定义搞得我头大,那个报错提示简直像是在嘲讽我的智商,但当程序终于跑通,看着那个 Agent 在链上自主地根据预设逻辑进行交互,而不需要我后台挂着个服务器死盯着的时候,那种成就感是无法形容的。这不仅是效率的提升,这是生产关系的改变。以前是我们操作工具,现在是工具自己在干活。Vanar 就像是一个巨大的工厂,提供了水、电、土地,而我们只需要负责把 Agent 这个工人造出来,剩下的就交给这套生态系统去自动运转。
这种体验让我对现有的公链格局产生了很多怀疑。我们真的需要那么多雷同的 L2 吗?我们真的需要为了那一点点 TPS 的提升去牺牲去中心化吗?Vanar 给了我一个否定的答案。它证明了针对特定场景优化的垂直公链是有巨大价值的。通用型公链的时代可能要过去了,未来属于这种 deeply vertical 的基础设施。当 AI 变得像水电一样普及,承载 AI 的管道就必须足够专业,足够高效。那些试图用万能钥匙开所有锁的项目,最终都会被市场淘汰。
最后想说的是,别被现在的价格蒙蔽了双眼。在这个行业,真正的 Alpha 往往藏在无人问津的技术细节里。当你看到大家都还在为 meme 喊单的时候,悄悄关注那些在底层默默修路的人,才是最稳妥的策略。Vanar 可能不是最完美的,代码里甚至还有些我也没看懂的冗余,甚至我发现官方桥偶尔还会卡顿一下,但这不妨碍它成为目前最接近我想象中 AI 区块连形态的产品。去试用一下,去感受一下那种原生集成的流畅感,你会回来感谢我的。在这个充满噪音的世界里,保持独立思考,保持对技术的敬畏,或许是我们唯一的护身符。#vanar $VANRY
L1 gra pod architekturą Firedancer: Technologiczna przewaga Fogo i obawy związane z centralizacją Po dogłębnej analizie kodu @fogo , odkryłem, że jego modyfikacja dla wirtualnej maszyny Solana (SVM) jest znacznie bardziej radykalna, niż opisano w białej księdze. Kluczowym elementem jest to, że nie jest to prosta forka, lecz zupełnie nowa warstwa konsensusu zbudowana na kliencie Firedancer, przepisanym w C++. Ta rekonstrukcja architektury podstawowej pozwoliła Fogo na osiągnięcie 40-milisekundowego czasu blokady. Na Valiant DEX w praktyce, ta subsekundowa potwierdzenie spowodowała jakościową zmianę w strategiach market making na łańcuchu, gdzie pierwotnie na Ethereum byłyby zniszczone przez MEV (maksymalną wartość możliwą do wydobycia) wysokofrekencyjne arbitraże, tutaj potrafiły osiągnąć Alpha. Ta ekstremalna wydajność ma swoją cenę. Aby utrzymać 40 ms rytmu, Fogo ma praktycznie surowe wymagania sprzętowe dla węzłów walidacyjnych, co bezpośrednio prowadzi do fizycznej centralizacji topologii sieci. Mechanizmy konsensusu wielolokalnego, chociaż rozwiązują opóźnienia świetlne przez geograficzne podziały, w istocie poświęcają część odporności na cenzurę dla TPS. Porównując z Monadem i Sei na tym samym torze, Fogo jest bardziej jak „zdecentralizowany silnik koordynacji Nasdaq”. Monad nadal zmaga się z problemem równoległości kompatybilności EVM, Sei stara się wprowadzić poprawki w architekturze Cosmos, a Fogo bezpośrednio uderza w najtwardszą kość, jaką jest handel wysokofrekencyjny, wykorzystując wysoką współbieżność SVM do płynnego działania order booka na łańcuchu. W aspekcie ekologicznym, mechanizm rozliczenia Ignition poniżej 40 milisekund jest rzeczywiście zachwycający, ale obecna głębokość płynności nie jest wystarczająca do obsługi funduszy na poziomie instytucjonalnym. Spojrzałem na dane z łańcucha, doświadczenie bez podpisu w Fogo Sessions, mimo że jest płynne, sprawiło, że użytkownicy stali się mniej świadomi zagrożeń. Na poziomie technicznym, pojedynczy klient (Firedancer) stanowi największe ryzyko systemowe, ponieważ w przypadku pojawienia się luk w kodzie podstawowym, cała sieć brakuje zapasowych klientów (jak klient Labs Solana lub Jito) do awaryjnego odzyskiwania, a ryzyko awarii w punkcie centralnym będzie się mnożyć przy wysokim obciążeniu głównej sieci. Wracając do samego tokena, 80 milionów dolarów kapitalizacji rynkowej w L1 rzeczywiście znajduje się na niskim poziomie, ale biorąc pod uwagę, że ponad 60% tokenów czeka na odblokowanie, presja inflacyjna jest nie do zlekceważenia. Obecny przedział cenowy 0,02 dolara to bardziej gra dotycząca jego premii technologicznej. #fogo $FOGO
L1 gra pod architekturą Firedancer: Technologiczna przewaga Fogo i obawy związane z centralizacją
Po dogłębnej analizie kodu @Fogo Official , odkryłem, że jego modyfikacja dla wirtualnej maszyny Solana (SVM) jest znacznie bardziej radykalna, niż opisano w białej księdze. Kluczowym elementem jest to, że nie jest to prosta forka, lecz zupełnie nowa warstwa konsensusu zbudowana na kliencie Firedancer, przepisanym w C++. Ta rekonstrukcja architektury podstawowej pozwoliła Fogo na osiągnięcie 40-milisekundowego czasu blokady. Na Valiant DEX w praktyce, ta subsekundowa potwierdzenie spowodowała jakościową zmianę w strategiach market making na łańcuchu, gdzie pierwotnie na Ethereum byłyby zniszczone przez MEV (maksymalną wartość możliwą do wydobycia) wysokofrekencyjne arbitraże, tutaj potrafiły osiągnąć Alpha.
Ta ekstremalna wydajność ma swoją cenę. Aby utrzymać 40 ms rytmu, Fogo ma praktycznie surowe wymagania sprzętowe dla węzłów walidacyjnych, co bezpośrednio prowadzi do fizycznej centralizacji topologii sieci. Mechanizmy konsensusu wielolokalnego, chociaż rozwiązują opóźnienia świetlne przez geograficzne podziały, w istocie poświęcają część odporności na cenzurę dla TPS. Porównując z Monadem i Sei na tym samym torze, Fogo jest bardziej jak „zdecentralizowany silnik koordynacji Nasdaq”. Monad nadal zmaga się z problemem równoległości kompatybilności EVM, Sei stara się wprowadzić poprawki w architekturze Cosmos, a Fogo bezpośrednio uderza w najtwardszą kość, jaką jest handel wysokofrekencyjny, wykorzystując wysoką współbieżność SVM do płynnego działania order booka na łańcuchu.
W aspekcie ekologicznym, mechanizm rozliczenia Ignition poniżej 40 milisekund jest rzeczywiście zachwycający, ale obecna głębokość płynności nie jest wystarczająca do obsługi funduszy na poziomie instytucjonalnym. Spojrzałem na dane z łańcucha, doświadczenie bez podpisu w Fogo Sessions, mimo że jest płynne, sprawiło, że użytkownicy stali się mniej świadomi zagrożeń. Na poziomie technicznym, pojedynczy klient (Firedancer) stanowi największe ryzyko systemowe, ponieważ w przypadku pojawienia się luk w kodzie podstawowym, cała sieć brakuje zapasowych klientów (jak klient Labs Solana lub Jito) do awaryjnego odzyskiwania, a ryzyko awarii w punkcie centralnym będzie się mnożyć przy wysokim obciążeniu głównej sieci.
Wracając do samego tokena, 80 milionów dolarów kapitalizacji rynkowej w L1 rzeczywiście znajduje się na niskim poziomie, ale biorąc pod uwagę, że ponad 60% tokenów czeka na odblokowanie, presja inflacyjna jest nie do zlekceważenia. Obecny przedział cenowy 0,02 dolara to bardziej gra dotycząca jego premii technologicznej. #fogo $FOGO
Ekstremalne zakłady pod silnikiem Firedancer: doznania 40 milisekund szybkiego poczucia i głębokiego niepokoju, które przeżyłem na łańcuchu FogoPatrząc na szaleńczo skaczącą wysokość bloków w przeglądarce, poczułem rodzaj zawrotów głowy, który rzadko doświadcza się w świecie blockchaina, a to uczucie pojawiło się ostatnio, gdy po raz pierwszy używałem Solany, ale tym razem uderzenie było zdecydowanie bardziej bezpośrednie. Jako stary gracz i badacz, który od wielu lat porusza się w świecie blockchain, mam już odporność na tak zwaną narrację „wysokiej wydajności”, w końcu każdy może narysować TPS w prezentacji, ale kiedy naprawdę przeniosłem aktywa na główną sieć Fogo i w momencie kliknięcia Swap na Valiant DEX, ta architektura SVM oparta na optymalizacji klienta Firedancer rzeczywiście dała mi głośny policzek. 40 milisekund czasu blokowania, co to oznacza? Oznacza to, że mój palec dopiero co opuścił lewy przycisk myszy, a okno potwierdzenia transakcji już trafiło mi w twarz, ta niemal odruchowa szybkość interakcji sprawiła, że nawet ja, który przyzwyczaiłem się do czekania na głównym łańcuchu Ethereum przez kilka sekund, a nawet minut, poczułem odrobinę nierealności.

Ekstremalne zakłady pod silnikiem Firedancer: doznania 40 milisekund szybkiego poczucia i głębokiego niepokoju, które przeżyłem na łańcuchu Fogo

Patrząc na szaleńczo skaczącą wysokość bloków w przeglądarce, poczułem rodzaj zawrotów głowy, który rzadko doświadcza się w świecie blockchaina, a to uczucie pojawiło się ostatnio, gdy po raz pierwszy używałem Solany, ale tym razem uderzenie było zdecydowanie bardziej bezpośrednie. Jako stary gracz i badacz, który od wielu lat porusza się w świecie blockchain, mam już odporność na tak zwaną narrację „wysokiej wydajności”, w końcu każdy może narysować TPS w prezentacji, ale kiedy naprawdę przeniosłem aktywa na główną sieć Fogo i w momencie kliknięcia Swap na Valiant DEX, ta architektura SVM oparta na optymalizacji klienta Firedancer rzeczywiście dała mi głośny policzek. 40 milisekund czasu blokowania, co to oznacza? Oznacza to, że mój palec dopiero co opuścił lewy przycisk myszy, a okno potwierdzenia transakcji już trafiło mi w twarz, ta niemal odruchowa szybkość interakcji sprawiła, że nawet ja, który przyzwyczaiłem się do czekania na głównym łańcuchu Ethereum przez kilka sekund, a nawet minut, poczułem odrobinę nierealności.
Nie daj się oszukać tymi prezentacjami PPT z milionami TPS, ponieważ prawdziwy "obszar lądowania" dla AI wcale nie jest związany z prędkością. Ostatnio przez kilka dni testowałem prawie wszystkie projekty, które nazywają się "publicznymi łańcuchami AI". Szczerze mówiąc, im więcej oglądam, tym bardziej uważam, że obecny rynek jest pełen fałszywych tez. Wszyscy szaleńczo Fomo różnych tokenów mocy obliczeniowej, pragnąc włożyć karty graficzne Nvidii bezpośrednio do Ethereum, ale kiedy naprawdę uruchomiłem dane testowe @Vanar , odkryłem, że wiele wcześniejszych przekonań o infrastrukturze było całkowicie błędnych. Co robią obecnie konkurenci? Walczą o TPS, walczą o przepustowość. Ale tak naprawdę, spróbuj uruchomić model AI generowany w czasie rzeczywistym na łańcuchu? Ten opóźnienie (Latency) i koszty gazu mogą sprawić, że zaczniesz wątpić w sens życia. Tradycyjna architektura EVM jest po prostu jak mycie się w puchowej kurtce — ciężka i zbędna, jeśli chodzi o wysokoczęstotliwościowe wnioskowanie AI. To również powód, dla którego ostatnio intensywnie przyswajam dokumentację techniczną Vanar, która nie stawia na "szybszego konia", lecz bezpośrednio wymienia silnik. Ostatnie dni badałem sieć testową Vanguard i odkryłem, że jej integracja z Google Cloud jest nieco przerażająca, to zdecydowanie nie jest proste umieszczenie logo. Rozwiązała niezwykle niezręczny, ale śmiertelny problem: Giganci Web2 chcą wejść na rynek, ale z powodu ograniczeń związanych z przestrzeganiem przepisów i wąskich gardeł wydajnościowych, po prostu boją się dotykać tych całkowicie zdecentralizowanych dzikich łańcuchów. Muszę to skrytykować, ponieważ obecnie wiele tak zwanych łańcuchów AI jest z gruntu tylko zeszytem do notowania, który nie może obsłużyć skomplikowanych zadań generatywnych. Architektura Vanar, mimo że jest krytykowana przez wielu ortodoksów za to, że nie jest wystarczająco "Crypto Native", stanowi naprawdę użyteczną rzecz dla studiów gier, które muszą obsługiwać duże modele. Uważam, że jego etykieta "neutralności węglowej" nie jest tylko ekologicznym show, ale bardziej przypomina drogę dla dużych przedsiębiorstw z Europy i Ameryki, które są ograniczone przez standardy ESG. To jest prawdziwy mur obronny, albo mówiąc inaczej, "przewodnik po zgodności z przepisami". Jeśli dokładnie przeanalizujesz obecny ekosystem Vanar, odkryjesz, że właściwie tworzy "zaufane środowisko obliczeniowe". Kiedyś musieliśmy zarządzać kluczami prywatnymi, ale w przyszłości Agenci AI działający na łańcuchu nie będą potrzebować tych nieludzkich operacji. Chociaż obecne doświadczenie interakcji wydaje się nieco zbyt poważne i nudne w porównaniu do "kasynowych" łańcuchów takich jak Solana, to właśnie ta stabilność jest potrzebna w zastosowaniach na poziomie przedsiębiorstwa. #vanar $VANRY
Nie daj się oszukać tymi prezentacjami PPT z milionami TPS, ponieważ prawdziwy "obszar lądowania" dla AI wcale nie jest związany z prędkością.
Ostatnio przez kilka dni testowałem prawie wszystkie projekty, które nazywają się "publicznymi łańcuchami AI". Szczerze mówiąc, im więcej oglądam, tym bardziej uważam, że obecny rynek jest pełen fałszywych tez. Wszyscy szaleńczo Fomo różnych tokenów mocy obliczeniowej, pragnąc włożyć karty graficzne Nvidii bezpośrednio do Ethereum, ale kiedy naprawdę uruchomiłem dane testowe @Vanarchain , odkryłem, że wiele wcześniejszych przekonań o infrastrukturze było całkowicie błędnych.
Co robią obecnie konkurenci? Walczą o TPS, walczą o przepustowość. Ale tak naprawdę, spróbuj uruchomić model AI generowany w czasie rzeczywistym na łańcuchu? Ten opóźnienie (Latency) i koszty gazu mogą sprawić, że zaczniesz wątpić w sens życia. Tradycyjna architektura EVM jest po prostu jak mycie się w puchowej kurtce — ciężka i zbędna, jeśli chodzi o wysokoczęstotliwościowe wnioskowanie AI. To również powód, dla którego ostatnio intensywnie przyswajam dokumentację techniczną Vanar, która nie stawia na "szybszego konia", lecz bezpośrednio wymienia silnik. Ostatnie dni badałem sieć testową Vanguard i odkryłem, że jej integracja z Google Cloud jest nieco przerażająca, to zdecydowanie nie jest proste umieszczenie logo. Rozwiązała niezwykle niezręczny, ale śmiertelny problem: Giganci Web2 chcą wejść na rynek, ale z powodu ograniczeń związanych z przestrzeganiem przepisów i wąskich gardeł wydajnościowych, po prostu boją się dotykać tych całkowicie zdecentralizowanych dzikich łańcuchów.
Muszę to skrytykować, ponieważ obecnie wiele tak zwanych łańcuchów AI jest z gruntu tylko zeszytem do notowania, który nie może obsłużyć skomplikowanych zadań generatywnych. Architektura Vanar, mimo że jest krytykowana przez wielu ortodoksów za to, że nie jest wystarczająco "Crypto Native", stanowi naprawdę użyteczną rzecz dla studiów gier, które muszą obsługiwać duże modele. Uważam, że jego etykieta "neutralności węglowej" nie jest tylko ekologicznym show, ale bardziej przypomina drogę dla dużych przedsiębiorstw z Europy i Ameryki, które są ograniczone przez standardy ESG. To jest prawdziwy mur obronny, albo mówiąc inaczej, "przewodnik po zgodności z przepisami".
Jeśli dokładnie przeanalizujesz obecny ekosystem Vanar, odkryjesz, że właściwie tworzy "zaufane środowisko obliczeniowe". Kiedyś musieliśmy zarządzać kluczami prywatnymi, ale w przyszłości Agenci AI działający na łańcuchu nie będą potrzebować tych nieludzkich operacji. Chociaż obecne doświadczenie interakcji wydaje się nieco zbyt poważne i nudne w porównaniu do "kasynowych" łańcuchów takich jak Solana, to właśnie ta stabilność jest potrzebna w zastosowaniach na poziomie przedsiębiorstwa. #vanar $VANRY
Czego naprawdę oczekujemy, mówiąc o publicznych łańcuchach AI? Nietypowy raport eksperymentalny na temat architektury VanarPóźną nocą wpatrując się w K-line na ekranie i pełne ekrany raportów "AI + Web3", czuję fizyczne mdłości, które pojawiły się również pod koniec poprzedniego cyklu DeFi Summer. Wtedy wszyscy emitowali tokeny, teraz wszyscy wydają modele, lub co gorsza, na siłę przypisują etykietę AI swoim starym publicznym łańcuchom, jakby naklejali naklejkę wyścigową F1 na stary samochód, który przejechał dziesięć tysięcy kilometrów, a potem mówili ci, że to coś jutro będzie mogło wygrać z Ferrari. Ta zbiorowa ekscytacja w branży sprawiła, że prawie chciałem wyprzedać wszystkie altcoiny, aż zmusiłem się do zamknięcia Twittera i powrotu do świata kodu i białych ksiąg, próbując znaleźć w tych hałasach choć trochę naprawdę użytecznego sygnału.

Czego naprawdę oczekujemy, mówiąc o publicznych łańcuchach AI? Nietypowy raport eksperymentalny na temat architektury Vanar

Późną nocą wpatrując się w K-line na ekranie i pełne ekrany raportów "AI + Web3", czuję fizyczne mdłości, które pojawiły się również pod koniec poprzedniego cyklu DeFi Summer. Wtedy wszyscy emitowali tokeny, teraz wszyscy wydają modele, lub co gorsza, na siłę przypisują etykietę AI swoim starym publicznym łańcuchom, jakby naklejali naklejkę wyścigową F1 na stary samochód, który przejechał dziesięć tysięcy kilometrów, a potem mówili ci, że to coś jutro będzie mogło wygrać z Ferrari. Ta zbiorowa ekscytacja w branży sprawiła, że prawie chciałem wyprzedać wszystkie altcoiny, aż zmusiłem się do zamknięcia Twittera i powrotu do świata kodu i białych ksiąg, próbując znaleźć w tych hałasach choć trochę naprawdę użytecznego sygnału.
Odrzuć emocjonalne przejęcia, porozmawiajmy o @Plasma tej fali 90% spadku i technicznych „wadach” oraz kapitałowych pułapkach Patrząc na wykres świecowy XPL z niemal pionowym spadkiem, szczerze mówiąc, serce mi na chwilę zamarło, taki poziom spadku w sezonie klonów zazwyczaj oznacza spiralę śmierci, ale zmusiłem się do zamknięcia strony z cenami, wracając do perspektywy kodu i danych na łańcuchu. Przez ostatnie dni testowałem proces na sieci testowej, a moim najprostszym odczuciem jest płynność, którą zapewnia mechanizm Paymster, to rodzaj natywnego wsparcia dla płatności stablecoinami za gaz, który w porównaniu do tych, którzy twierdzą, że są wysokowydajni, ale muszą najpierw kupić natywne tokeny na CEX, jest znacznie lepszy, to właśnie powinien być obraz płatności Web3, a nie zmuszanie użytkowników do uczenia się, co to jest most cross-chain. Co bardziej interesujące, dane na Maple pokazują, że TVL SyrupUSDT wynosi aż 1,1 miliarda dolarów, co w obecnej sytuacji braku płynności jest wręcz nietypowe. Fundusze instytucjonalne nie są dobroczyńcami, a to, że te pieniądze są tutaj, jest samo w sobie potwierdzeniem bezpieczeństwa warstwy bazowej, w końcu regularnie kotwiczy je do sieci Bitcoin, a ta logika bezpieczeństwa, polegająca na wykorzystaniu siły, jest znacznie mądrzejsza niż tworzenie własnego mechanizmu konsensusu. Patrząc na zasięg kart Rain i Oobit w sieci Visa, przejście dla setek milionów sprzedawców nie jest pustym marzeniem, ma to znacznie większą wartość praktyczną niż te DeFi, które nadal bawią się w wzajemne obciążanie lewą i prawą nogą. Oczywiście nie przyszłem tu, aby śpiewać pieśni pochwalne, muszę, wręcz można powiedzieć, złośliwie wskazać, że obecny poziom centralizacji sieci weryfikatorów jest przerażająco wysoki, niemal pod kontrolą zespołu, taki poziom decentralizacji w oczach fundamentalistów nie różni się od bazy danych w chmurze. Ponadto ekosystem jest naprawdę jałowy, poza przelewami i pożyczkami, interakcje na łańcuchu wydają się puste, brakuje takich projektów, które mogłyby wywołać eksplozję w społeczności. Zgodność stablecoinów EUROP w ramach ram regulacyjnych MiCA to krok w dobrym kierunku, ale w tym dzikim świecie kryptowalut, zgodność często oznacza krótkoterminowe ograniczenia płynności. W tej brutalnej fali czyszczenia, widzę, że podstawy technologiczne stają się twardsze, ale ekosystem traci krew, to niezwykle podzielony przedmiot. Nawet jeśli wierzysz, że płatności są jedyną drogą do masowej adopcji, to obecna cena XPL rzeczywiście jest krwawym żetonem, ale pod warunkiem, że musisz znieść jego obecne poczucie „jednoosobowego” blockchainu oraz wiszącą nad głową centralizowaną miecz Damoklesa. #plasma $XPL
Odrzuć emocjonalne przejęcia, porozmawiajmy o @Plasma tej fali 90% spadku i technicznych „wadach” oraz kapitałowych pułapkach
Patrząc na wykres świecowy XPL z niemal pionowym spadkiem, szczerze mówiąc, serce mi na chwilę zamarło, taki poziom spadku w sezonie klonów zazwyczaj oznacza spiralę śmierci, ale zmusiłem się do zamknięcia strony z cenami, wracając do perspektywy kodu i danych na łańcuchu. Przez ostatnie dni testowałem proces na sieci testowej, a moim najprostszym odczuciem jest płynność, którą zapewnia mechanizm Paymster, to rodzaj natywnego wsparcia dla płatności stablecoinami za gaz, który w porównaniu do tych, którzy twierdzą, że są wysokowydajni, ale muszą najpierw kupić natywne tokeny na CEX, jest znacznie lepszy, to właśnie powinien być obraz płatności Web3, a nie zmuszanie użytkowników do uczenia się, co to jest most cross-chain.
Co bardziej interesujące, dane na Maple pokazują, że TVL SyrupUSDT wynosi aż 1,1 miliarda dolarów, co w obecnej sytuacji braku płynności jest wręcz nietypowe. Fundusze instytucjonalne nie są dobroczyńcami, a to, że te pieniądze są tutaj, jest samo w sobie potwierdzeniem bezpieczeństwa warstwy bazowej, w końcu regularnie kotwiczy je do sieci Bitcoin, a ta logika bezpieczeństwa, polegająca na wykorzystaniu siły, jest znacznie mądrzejsza niż tworzenie własnego mechanizmu konsensusu. Patrząc na zasięg kart Rain i Oobit w sieci Visa, przejście dla setek milionów sprzedawców nie jest pustym marzeniem, ma to znacznie większą wartość praktyczną niż te DeFi, które nadal bawią się w wzajemne obciążanie lewą i prawą nogą.
Oczywiście nie przyszłem tu, aby śpiewać pieśni pochwalne, muszę, wręcz można powiedzieć, złośliwie wskazać, że obecny poziom centralizacji sieci weryfikatorów jest przerażająco wysoki, niemal pod kontrolą zespołu, taki poziom decentralizacji w oczach fundamentalistów nie różni się od bazy danych w chmurze. Ponadto ekosystem jest naprawdę jałowy, poza przelewami i pożyczkami, interakcje na łańcuchu wydają się puste, brakuje takich projektów, które mogłyby wywołać eksplozję w społeczności. Zgodność stablecoinów EUROP w ramach ram regulacyjnych MiCA to krok w dobrym kierunku, ale w tym dzikim świecie kryptowalut, zgodność często oznacza krótkoterminowe ograniczenia płynności.
W tej brutalnej fali czyszczenia, widzę, że podstawy technologiczne stają się twardsze, ale ekosystem traci krew, to niezwykle podzielony przedmiot. Nawet jeśli wierzysz, że płatności są jedyną drogą do masowej adopcji, to obecna cena XPL rzeczywiście jest krwawym żetonem, ale pod warunkiem, że musisz znieść jego obecne poczucie „jednoosobowego” blockchainu oraz wiszącą nad głową centralizowaną miecz Damoklesa. #plasma $XPL
Zrywanie zasłony wysokiego TPS: Co tak naprawdę zobaczyłem w eksperymencie z rekonstrukcją Reth i prymitywami płatności?Patrząc na zieloną linię K, która nadal pulsuje na ekranie, nie mogę nacisnąć przycisku myszy, mimo że trzymam ją w dłoni. To nie dlatego, że waham się co do punktu otwarcia transakcji, ale przez tę przeklętą nieudaną transakcję sprzed chwilą, która wyprowadziła mnie z równowagi. To już trzeci raz w tym tygodniu, gdy na tak zwanym "wysokowydajnym" L2 napotykam zacięcie sekwencera. To sprawia, że znów kieruję wzrok na architekturę, którą ostatnio ciągle testuję, szczególnie na tę opartą na warstwie wykonawczej Reth. Szczerze mówiąc, na początku poszedłem tam z nastawieniem szukania problemów, bo w tej branży jest znacznie więcej projektów, które się chwalą, niż takich, które piszą kod. Ale kiedy naprawdę uruchomiłem węzeł i zanurzyłem się w jego podstawowy mechanizm abstrakcji gazu, pojawiło się uczucie ekscytacji, które od dawna nie miało miejsca, wymieszane z niepokojem. To uczucie jest jakbyś przyzwyczaił się do jazdy automatycznym samochodem osobowym, a nagle ktoś wrzuca cię do samochodu wyścigowego z manualną skrzynią biegów, a mechaniczne odczucie zgrzytania biegów sprawia, że jesteś zarówno zafascynowany, jak i zestresowany.

Zrywanie zasłony wysokiego TPS: Co tak naprawdę zobaczyłem w eksperymencie z rekonstrukcją Reth i prymitywami płatności?

Patrząc na zieloną linię K, która nadal pulsuje na ekranie, nie mogę nacisnąć przycisku myszy, mimo że trzymam ją w dłoni. To nie dlatego, że waham się co do punktu otwarcia transakcji, ale przez tę przeklętą nieudaną transakcję sprzed chwilą, która wyprowadziła mnie z równowagi. To już trzeci raz w tym tygodniu, gdy na tak zwanym "wysokowydajnym" L2 napotykam zacięcie sekwencera. To sprawia, że znów kieruję wzrok na architekturę, którą ostatnio ciągle testuję, szczególnie na tę opartą na warstwie wykonawczej Reth. Szczerze mówiąc, na początku poszedłem tam z nastawieniem szukania problemów, bo w tej branży jest znacznie więcej projektów, które się chwalą, niż takich, które piszą kod. Ale kiedy naprawdę uruchomiłem węzeł i zanurzyłem się w jego podstawowy mechanizm abstrakcji gazu, pojawiło się uczucie ekscytacji, które od dawna nie miało miejsca, wymieszane z niepokojem. To uczucie jest jakbyś przyzwyczaił się do jazdy automatycznym samochodem osobowym, a nagle ktoś wrzuca cię do samochodu wyścigowego z manualną skrzynią biegów, a mechaniczne odczucie zgrzytania biegów sprawia, że jesteś zarówno zafascynowany, jak i zestresowany.
Odmówić fałszywego dobrobytu, porozmawiajmy o tym, dlaczego ta runda narracji AI publicznych łańcuchów wydaje mi się rażąca Patrząc na ekran przez cały dzień, szczerze mówiąc, te tzw. „wysokowydajne publiczne łańcuchy” na rynku sprawiają, że mam ochotę wymiotować. Wszyscy szaleją za danymi TPS, jakby wystarczyło, że prędkość będzie wystarczająco szybka, a Agent AI będzie mógł działać na łańcuchu, ale ta logika to jak zamontowanie silnika rakietowego w dorożce – wygląda dobrze, ale w rzeczywistości nie da się tego zrobić. Ostatnio, aby zrozumieć, jak AI i Web3 mogą się połączyć, specjalnie przeszukałem dokumentację techniczną @Vanar i trochę pobawiłem się w sieci testowej, a potem odkryłem, że ci ludzie wydają się naprawdę rozumieć, gdzie leży problem, a nie jak ci konkurenci, którzy potrafią tylko umieścić API na łańcuchu i śmiało twierdzić, że są AI publicznym łańcuchem. Wszyscy, którzy zajmują się programowaniem, wiedzą, że największym problemem obecnych inteligentnych kontraktów jest „zapominanie”. Nie możesz sprawić, by pamiętały wcześniejszy kontekst, chyba że jesteś gotów zapłacić horrendalne koszty przechowywania, co prowadzi do tego, że większość projektów AI na rynku to tylko proste „wyzwalacze”, a nie prawdziwe „inteligentne agenty”. Uważam, że warstwa Neutron projektu Vanar jest całkiem interesująca, stworzyli bezpośrednio na łańcuchu zestaw indeksów semantycznych, co oznacza, że przyszłe DAppy będą nie tylko wykonywać kod, ale również „rozumieć” relacje między danymi. Dla porównania, sąsiedni znany L1, mimo że jest szybki, ma dane w formie izolowanej, a AI działający na nim nie różni się od ślepego człowieka dotykającego słonia. Jednak podczas korzystania z tego zauważyłem bardzo realistyczny problem, że ta architektura w rzeczywistości stawia dość wysokie wymagania dla deweloperów. Kiedyś pisanie w Solidity polegało głównie na zarządzaniu logiką, teraz trzeba także brać pod uwagę strukturę danych semantycznych, co dla programistów przyzwyczajonych do tradycyjnego rozwoju EVM jest z pewnością dużym wyzwaniem. A obecne narzędzia w ekosystemie jeszcze nie nadążają, więc pisanie jest trochę męczące. Ale wręcz uważam, że to jest normalna ścieżka iteracji technologicznej; projekty, które od razu ogłaszają „jedno kliknięcie do wdrożenia”, prawdopodobnie oszukują. Jeśli przyszłość to naprawdę królestwo Agent Economy, to mikropłatności (Micro-transactions) będą absolutnie niezbędne. Wyobraziłem sobie, że jeśli chciałbym wdrożyć AI Agenta o wysokiej częstotliwości interakcji na Ethereum lub Solanie, sama opłata za gaz generowana przez rozumowanie mogłaby mnie doprowadzić do bankructwa. #vanar $VANRY
Odmówić fałszywego dobrobytu, porozmawiajmy o tym, dlaczego ta runda narracji AI publicznych łańcuchów wydaje mi się rażąca
Patrząc na ekran przez cały dzień, szczerze mówiąc, te tzw. „wysokowydajne publiczne łańcuchy” na rynku sprawiają, że mam ochotę wymiotować. Wszyscy szaleją za danymi TPS, jakby wystarczyło, że prędkość będzie wystarczająco szybka, a Agent AI będzie mógł działać na łańcuchu, ale ta logika to jak zamontowanie silnika rakietowego w dorożce – wygląda dobrze, ale w rzeczywistości nie da się tego zrobić. Ostatnio, aby zrozumieć, jak AI i Web3 mogą się połączyć, specjalnie przeszukałem dokumentację techniczną @Vanarchain i trochę pobawiłem się w sieci testowej, a potem odkryłem, że ci ludzie wydają się naprawdę rozumieć, gdzie leży problem, a nie jak ci konkurenci, którzy potrafią tylko umieścić API na łańcuchu i śmiało twierdzić, że są AI publicznym łańcuchem.
Wszyscy, którzy zajmują się programowaniem, wiedzą, że największym problemem obecnych inteligentnych kontraktów jest „zapominanie”. Nie możesz sprawić, by pamiętały wcześniejszy kontekst, chyba że jesteś gotów zapłacić horrendalne koszty przechowywania, co prowadzi do tego, że większość projektów AI na rynku to tylko proste „wyzwalacze”, a nie prawdziwe „inteligentne agenty”. Uważam, że warstwa Neutron projektu Vanar jest całkiem interesująca, stworzyli bezpośrednio na łańcuchu zestaw indeksów semantycznych, co oznacza, że przyszłe DAppy będą nie tylko wykonywać kod, ale również „rozumieć” relacje między danymi. Dla porównania, sąsiedni znany L1, mimo że jest szybki, ma dane w formie izolowanej, a AI działający na nim nie różni się od ślepego człowieka dotykającego słonia.
Jednak podczas korzystania z tego zauważyłem bardzo realistyczny problem, że ta architektura w rzeczywistości stawia dość wysokie wymagania dla deweloperów. Kiedyś pisanie w Solidity polegało głównie na zarządzaniu logiką, teraz trzeba także brać pod uwagę strukturę danych semantycznych, co dla programistów przyzwyczajonych do tradycyjnego rozwoju EVM jest z pewnością dużym wyzwaniem. A obecne narzędzia w ekosystemie jeszcze nie nadążają, więc pisanie jest trochę męczące. Ale wręcz uważam, że to jest normalna ścieżka iteracji technologicznej; projekty, które od razu ogłaszają „jedno kliknięcie do wdrożenia”, prawdopodobnie oszukują.
Jeśli przyszłość to naprawdę królestwo Agent Economy, to mikropłatności (Micro-transactions) będą absolutnie niezbędne. Wyobraziłem sobie, że jeśli chciałbym wdrożyć AI Agenta o wysokiej częstotliwości interakcji na Ethereum lub Solanie, sama opłata za gaz generowana przez rozumowanie mogłaby mnie doprowadzić do bankructwa. #vanar $VANRY
Nie daj się oszukać TPS, w kodzie Vanar zobaczyłem, dokąd naprawdę dąży AIWczoraj wieczorem znów wpatrywałem się w te wszystkie chaotyczne wiadomości o finansowaniu "AI+Web3", a mój kubek z wystygłą kawą był jak obecny rynek – wydaje się pobudzający, ale w rzeczywistości jest gorzki i pełen osadów. Szczerze mówiąc, przez ostatnie kilka miesięcy byłem wystawiony na różne projekty, które pod szyldem "zdecentralizowanego ChatGPT" potrafiły mocno dać mi w kość. Każdy miał przygotowaną piękną prezentację PPT i opowiadał, że będą uruchamiać duże modele na blockchainie, a gdy tylko zajrzałem w kod, okazywało się, że to tylko przekierowanie API Web2 i wypuszczenie tokena jako "infrastruktura AI". Takie oszukiwanie klientów to po prostu obraza dla nas, którzy naprawdę chcemy zrozumieć logikę technologiczną. W takim stanie skrajnego zmęczenia estetycznego i prawie znieczulenia na narrację branżową, ponownie otworzyłem dokumentację techniczną @Vanar ; tym razem nie traktowałem jej jako obiektu spekulacji, lecz jako próbkę eksperymentalną mającą na celu rozwiązanie problemów pozostawionych przez Ethereum.

Nie daj się oszukać TPS, w kodzie Vanar zobaczyłem, dokąd naprawdę dąży AI

Wczoraj wieczorem znów wpatrywałem się w te wszystkie chaotyczne wiadomości o finansowaniu "AI+Web3", a mój kubek z wystygłą kawą był jak obecny rynek – wydaje się pobudzający, ale w rzeczywistości jest gorzki i pełen osadów. Szczerze mówiąc, przez ostatnie kilka miesięcy byłem wystawiony na różne projekty, które pod szyldem "zdecentralizowanego ChatGPT" potrafiły mocno dać mi w kość. Każdy miał przygotowaną piękną prezentację PPT i opowiadał, że będą uruchamiać duże modele na blockchainie, a gdy tylko zajrzałem w kod, okazywało się, że to tylko przekierowanie API Web2 i wypuszczenie tokena jako "infrastruktura AI". Takie oszukiwanie klientów to po prostu obraza dla nas, którzy naprawdę chcemy zrozumieć logikę technologiczną. W takim stanie skrajnego zmęczenia estetycznego i prawie znieczulenia na narrację branżową, ponownie otworzyłem dokumentację techniczną @Vanarchain ; tym razem nie traktowałem jej jako obiektu spekulacji, lecz jako próbkę eksperymentalną mającą na celu rozwiązanie problemów pozostawionych przez Ethereum.
Nie skupiaj się tylko na TPS i nie chwal się, to Paymaster Plasma jest prawdziwą rzeczą w płatnościach Ostatnio patrząc na pełen ekran L2, który szaleje z danymi TPS, szczerze mówiąc, czuję pewne zmęczenie estetyczne. Kiedy faktycznie wchodzimy w interakcje na łańcuchu, kilka tysięcy TPS w ogóle nie ma odczucia, a to kilka dolarów opłat za gaz naprawdę boli. Dlatego właśnie nadal śledzę @Plasma , chociaż wykres K XPL wygląda naprawdę źle, spadł prawie o 90%, kto patrzy, ten się gubi? Ale pomijając szumy cenowe, czysto z perspektywy doświadczenia interakcji z produktem, mechanizm Paymaster rzeczywiście ma coś do zaoferowania. Używałem już wielu publicznych łańcuchów skoncentrowanych na płatnościach, większość z nich wymaga, aby najpierw uzyskać rodzimy token, aby przeprowadzić Gsa, ta logika jest katastrofą dla osób spoza branży. Plasma bezpośrednio pomija ten krok, transfery stablecoinów bez utraty wartości, to naprawdę wygląda jak Web3, który powinien istnieć, a nie jak półprodukt, który poświęca doświadczenie dla decentralizacji. A pełna zgodność z EVM oznacza, że dostępne narzędzia deweloperskie mogą być używane bezpośrednio, próg wejścia jest naprawdę niski, ale niestety deweloperów tam jest wciąż za mało, poza oficjalnym zestawem, innowacje społeczności są prawie niewidoczne. Porównanie z konkurencją jest naprawdę oczywiste, większość tzw. wysoko wydajnych łańcuchów wciąż gra w lewą nogę z prawą nogą, ale tutaj puli pożyczkowej Maple TVL potrafi wygenerować 11 miliardów dolarów, pieniądze są najinteligentniejsze, chęć instytucji do zatrzymywania funduszy jest jedynym standardem oceny bezpieczeństwa. Dodatkowo, to, co zrobili z tym bitcoinowym zakotwiczeniem, chociaż brzmi trochę staroświecko, ale w aktualnych warunkach, pożyczanie BTC jako zabezpieczenia jest znacznie stabilniejsze niż sztuczne tworzenie konsensusu. Słyszałem, że nawet wprowadzili zgodny z regulacjami MiCA stablecoin euro EURØP, ten ruch był ryzykowny, ale wystarczająco dziki, wyraźnie chcą zdobyć rynek płatności zgodnych z przepisami. A także sytuacja z dostępem do sieci VIsa, dane Rain cards i Oobit rzeczywiście nie są fałszywe, mogą bezpośrednio pokryć miliony sprzedawców, to znacznie lepsze niż projekty, które tylko rozdają airdropy, aby przyciągnąć ludzi. Oczywiście problemy też istnieją, węzły walidacyjne są teraz w zasadzie kontrolowane przez oficjalne podmioty, stopień decentralizacji jest widocznie niski, to również powód, dla którego nie odważam się na dużą pozycję. Ekosystem jest również rzeczywiście nieco ubogi, poza transferami i pożyczkami prawie nie ma ciekawych Dapp. #plasma $XPL
Nie skupiaj się tylko na TPS i nie chwal się, to Paymaster Plasma jest prawdziwą rzeczą w płatnościach
Ostatnio patrząc na pełen ekran L2, który szaleje z danymi TPS, szczerze mówiąc, czuję pewne zmęczenie estetyczne. Kiedy faktycznie wchodzimy w interakcje na łańcuchu, kilka tysięcy TPS w ogóle nie ma odczucia, a to kilka dolarów opłat za gaz naprawdę boli. Dlatego właśnie nadal śledzę @Plasma , chociaż wykres K XPL wygląda naprawdę źle, spadł prawie o 90%, kto patrzy, ten się gubi? Ale pomijając szumy cenowe, czysto z perspektywy doświadczenia interakcji z produktem, mechanizm Paymaster rzeczywiście ma coś do zaoferowania. Używałem już wielu publicznych łańcuchów skoncentrowanych na płatnościach, większość z nich wymaga, aby najpierw uzyskać rodzimy token, aby przeprowadzić Gsa, ta logika jest katastrofą dla osób spoza branży. Plasma bezpośrednio pomija ten krok, transfery stablecoinów bez utraty wartości, to naprawdę wygląda jak Web3, który powinien istnieć, a nie jak półprodukt, który poświęca doświadczenie dla decentralizacji. A pełna zgodność z EVM oznacza, że dostępne narzędzia deweloperskie mogą być używane bezpośrednio, próg wejścia jest naprawdę niski, ale niestety deweloperów tam jest wciąż za mało, poza oficjalnym zestawem, innowacje społeczności są prawie niewidoczne.
Porównanie z konkurencją jest naprawdę oczywiste, większość tzw. wysoko wydajnych łańcuchów wciąż gra w lewą nogę z prawą nogą, ale tutaj puli pożyczkowej Maple TVL potrafi wygenerować 11 miliardów dolarów, pieniądze są najinteligentniejsze, chęć instytucji do zatrzymywania funduszy jest jedynym standardem oceny bezpieczeństwa. Dodatkowo, to, co zrobili z tym bitcoinowym zakotwiczeniem, chociaż brzmi trochę staroświecko, ale w aktualnych warunkach, pożyczanie BTC jako zabezpieczenia jest znacznie stabilniejsze niż sztuczne tworzenie konsensusu. Słyszałem, że nawet wprowadzili zgodny z regulacjami MiCA stablecoin euro EURØP, ten ruch był ryzykowny, ale wystarczająco dziki, wyraźnie chcą zdobyć rynek płatności zgodnych z przepisami. A także sytuacja z dostępem do sieci VIsa, dane Rain cards i Oobit rzeczywiście nie są fałszywe, mogą bezpośrednio pokryć miliony sprzedawców, to znacznie lepsze niż projekty, które tylko rozdają airdropy, aby przyciągnąć ludzi. Oczywiście problemy też istnieją, węzły walidacyjne są teraz w zasadzie kontrolowane przez oficjalne podmioty, stopień decentralizacji jest widocznie niski, to również powód, dla którego nie odważam się na dużą pozycję. Ekosystem jest również rzeczywiście nieco ubogi, poza transferami i pożyczkami prawie nie ma ciekawych Dapp. #plasma $XPL
Rozszyfrowanie fałszywego dobrobytu Layer2: ponowne przemyślenie narracji płatności Plasma i prawdziwych kłamstw dotyczących abstrakcji Gas w architekturze RethPrzez ostatnie dni wpatrywałem się w kilka linii skaczącego kodu Rust na ekranie, a dźwięk deszczu za oknem mieszał się z odgłosami mechanicznej klawiatury, co wywoływało we mnie dziwne poczucie dezorientacji. Przez te wszystkie lata w ekosystemie Ethereum kręciliśmy się w kółko, tworząc tzw. skalowalność z Optimistic Rollups, ZK-EVM, a nawet zaczynając promować narrację Layer 3, ale gdy naprawdę chciałem kupić kawę za USDT lub przelać pieniądze przyjacielowi na drugim końcu świata, musiałem najpierw udać się na zdecentralizowaną giełdę, aby kupić ETH jako Gas, a także ostrożnie obliczyć ten przeklęty slajd i Base Fee. To absurdalne doświadczenie zmusiło mnie do ponownego przemyślenia projektu Plasma XPL; nie wygląda to jak tworzenie nowego łańcucha publicznego, ale raczej jak brutalna rekonstrukcja istniejącego systemu płatności na blockchainie przez geeków, szczególnie gdy odrzucimy te wspaniałe terminy marketingowe i porównamy jego warstwę wykonawczą Reth z aktualnie popularnym OP Stack lub Arbitrum na stole operacyjnym, odkryjesz, że kryje się tu prawda, której branża od zawsze bała się stawić czoła.

Rozszyfrowanie fałszywego dobrobytu Layer2: ponowne przemyślenie narracji płatności Plasma i prawdziwych kłamstw dotyczących abstrakcji Gas w architekturze Reth

Przez ostatnie dni wpatrywałem się w kilka linii skaczącego kodu Rust na ekranie, a dźwięk deszczu za oknem mieszał się z odgłosami mechanicznej klawiatury, co wywoływało we mnie dziwne poczucie dezorientacji. Przez te wszystkie lata w ekosystemie Ethereum kręciliśmy się w kółko, tworząc tzw. skalowalność z Optimistic Rollups, ZK-EVM, a nawet zaczynając promować narrację Layer 3, ale gdy naprawdę chciałem kupić kawę za USDT lub przelać pieniądze przyjacielowi na drugim końcu świata, musiałem najpierw udać się na zdecentralizowaną giełdę, aby kupić ETH jako Gas, a także ostrożnie obliczyć ten przeklęty slajd i Base Fee. To absurdalne doświadczenie zmusiło mnie do ponownego przemyślenia projektu Plasma XPL; nie wygląda to jak tworzenie nowego łańcucha publicznego, ale raczej jak brutalna rekonstrukcja istniejącego systemu płatności na blockchainie przez geeków, szczególnie gdy odrzucimy te wspaniałe terminy marketingowe i porównamy jego warstwę wykonawczą Reth z aktualnie popularnym OP Stack lub Arbitrum na stole operacyjnym, odkryjesz, że kryje się tu prawda, której branża od zawsze bała się stawić czoła.
Biegałem przez dwa dni przez dokumentację techniczną @Vanar , dopiero wtedy zdałem sobie sprawę, że nasze zrozumienie AI publicznego łańcucha jest trochę głębokie Ostatnio przeglądałem sporo białych ksiąg projektów dotyczących połączenia Layer 1 i AI, szczerze mówiąc, większość z nich bawi się w gry słowne, na siłę łącząc te dwa popularne pojęcia. Jednak w ciągu tych dwóch dni przeglądałem architekturę techniczną Vanar, porównując ją z istniejącym ekosystemem EVM, zauważyłem, że to coś naprawdę ma potencjał, rozwiązuje problem, który wcześniej był dla mnie szczególnie uciążliwy podczas wdrażania AI na łańcuchu — nieprzewidywalność kosztów. Kiedy mówimy o AI Agencie, zawsze przyzwyczajamy się do podkręcania TPS, jakby szybki czas reakcji mógł rozwiązać wszystko. W rzeczywistości dla prawdziwego programisty zajmującego się wysoką częstotliwością wnioskowania (Inference) szybkość jest drugorzędna, najgorsze są wahania opłat za gaz. Wyobraź sobie, że mój Agent musi podejmować setki mikro-decyzji na minutę, zgodnie z logiką rozliczeniową Ethereum lub ogólnym L2, a przy minimalnym zatorze na łańcuchu koszt przeprowadzenia wnioskowania jest droższy niż wywołanie API, ten model biznesowy po prostu nie działa. Vanar daje mi wrażenie, że nie robi ogólnego rejestru, ale raczej buduje specjalne środowisko obliczeniowe dla maszyn. To, co robi w zakresie optymalizacji dla mikrotransakcji, ewidentnie dostrzega wysoką częstotliwość interakcji AI, co wiele łańcuchów publicznych, które nazywają się „wysokowydajnymi”, w rzeczywistości nie robi. Porozmawiajmy teraz o tej często pomijanej właściwości ekologicznej. Wcześniej myślałem, że to tylko chwyt marketingowy, aby dostosować się do ESG, ale po głębszym zbadaniu logiki współpracy z Google Cloud i NVIDIA, zdałem sobie sprawę, że to jest zgodna z przepisami bariera. Przyszłe zużycie mocy obliczeniowej AI będzie zdecydowanie astronomiczne, a organy regulacyjne nie mogą zignorować źródła zużycia energii. Vanar na poziomie podstawowym wprowadził śledzenie źródeł energii, co dla dużych firm z Web2, które chcą wejść na rynek Web3, może być bardziej atrakcyjne niż same wskaźniki techniczne. Uważam, że $VANRY nie jest jedynie tokenem zarządzającym do spekulacji, ale bardziej przypomina paliwo do działania całego ekosystemu; tak długo, jak Agent na górze działa, zużycie jest sztywne. Rynek jest teraz zbyt niestabilny, wszyscy szukają następnej setnej monety, a niewiele osób martwi się, czy infrastruktura może pomieścić nadchodzący wybuch mocy obliczeniowej. #vanar $VANRY
Biegałem przez dwa dni przez dokumentację techniczną @Vanarchain , dopiero wtedy zdałem sobie sprawę, że nasze zrozumienie AI publicznego łańcucha jest trochę głębokie
Ostatnio przeglądałem sporo białych ksiąg projektów dotyczących połączenia Layer 1 i AI, szczerze mówiąc, większość z nich bawi się w gry słowne, na siłę łącząc te dwa popularne pojęcia. Jednak w ciągu tych dwóch dni przeglądałem architekturę techniczną Vanar, porównując ją z istniejącym ekosystemem EVM, zauważyłem, że to coś naprawdę ma potencjał, rozwiązuje problem, który wcześniej był dla mnie szczególnie uciążliwy podczas wdrażania AI na łańcuchu — nieprzewidywalność kosztów.
Kiedy mówimy o AI Agencie, zawsze przyzwyczajamy się do podkręcania TPS, jakby szybki czas reakcji mógł rozwiązać wszystko. W rzeczywistości dla prawdziwego programisty zajmującego się wysoką częstotliwością wnioskowania (Inference) szybkość jest drugorzędna, najgorsze są wahania opłat za gaz. Wyobraź sobie, że mój Agent musi podejmować setki mikro-decyzji na minutę, zgodnie z logiką rozliczeniową Ethereum lub ogólnym L2, a przy minimalnym zatorze na łańcuchu koszt przeprowadzenia wnioskowania jest droższy niż wywołanie API, ten model biznesowy po prostu nie działa. Vanar daje mi wrażenie, że nie robi ogólnego rejestru, ale raczej buduje specjalne środowisko obliczeniowe dla maszyn. To, co robi w zakresie optymalizacji dla mikrotransakcji, ewidentnie dostrzega wysoką częstotliwość interakcji AI, co wiele łańcuchów publicznych, które nazywają się „wysokowydajnymi”, w rzeczywistości nie robi.
Porozmawiajmy teraz o tej często pomijanej właściwości ekologicznej. Wcześniej myślałem, że to tylko chwyt marketingowy, aby dostosować się do ESG, ale po głębszym zbadaniu logiki współpracy z Google Cloud i NVIDIA, zdałem sobie sprawę, że to jest zgodna z przepisami bariera. Przyszłe zużycie mocy obliczeniowej AI będzie zdecydowanie astronomiczne, a organy regulacyjne nie mogą zignorować źródła zużycia energii. Vanar na poziomie podstawowym wprowadził śledzenie źródeł energii, co dla dużych firm z Web2, które chcą wejść na rynek Web3, może być bardziej atrakcyjne niż same wskaźniki techniczne. Uważam, że $VANRY nie jest jedynie tokenem zarządzającym do spekulacji, ale bardziej przypomina paliwo do działania całego ekosystemu; tak długo, jak Agent na górze działa, zużycie jest sztywne.
Rynek jest teraz zbyt niestabilny, wszyscy szukają następnej setnej monety, a niewiele osób martwi się, czy infrastruktura może pomieścić nadchodzący wybuch mocy obliczeniowej. #vanar $VANRY
Nie daj się więcej oszukiwać TPS: dogłębna analiza, dlaczego Vanar jest prawdziwym "cyfrowym ciałem" agenta AI i ostatnią częścią układanki w gospodarce maszynowejPatrząc na ten skaczący wykres K, mój kubek z zimną kawą już dawno pokrył się warstwą oleju. To uczucie otępienia spowodowane długotrwałym nocnym czuwaniem nad rynkiem sprawia, że odczuwam fizyczną niechęć do wszelkich narracji „AI+Web3”, które zasypują rynek. Szczerze mówiąc, obecny świat kryptowalut przypomina hałaśliwy targ warzywny, gdzie każdy krzyczy przez megafon, że jest następnym Nvidią, ale gdy spróbujesz przejrzeć ich repozytoria kodu, okazuje się, że większość tzw. publicznych łańcuchów AI tak naprawdę działa na starym EVM, uruchamiając kilka skryptów i nazywając to inteligencją. Tego typu działania, które są niczym innym jak sprzedawaniem wizerunku, zaczęły ustępować mojemu niepokojowi dopiero wtedy, gdy zmusiłem się do przestudiowania technicznych dokumentów @Vanar , ponieważ odkryłem, że ci ludzie naprawdę nie zajmują się marketingiem, lecz wykonują pracę, którą tylko prawdziwi geekowie mogą zrozumieć.

Nie daj się więcej oszukiwać TPS: dogłębna analiza, dlaczego Vanar jest prawdziwym "cyfrowym ciałem" agenta AI i ostatnią częścią układanki w gospodarce maszynowej

Patrząc na ten skaczący wykres K, mój kubek z zimną kawą już dawno pokrył się warstwą oleju. To uczucie otępienia spowodowane długotrwałym nocnym czuwaniem nad rynkiem sprawia, że odczuwam fizyczną niechęć do wszelkich narracji „AI+Web3”, które zasypują rynek. Szczerze mówiąc, obecny świat kryptowalut przypomina hałaśliwy targ warzywny, gdzie każdy krzyczy przez megafon, że jest następnym Nvidią, ale gdy spróbujesz przejrzeć ich repozytoria kodu, okazuje się, że większość tzw. publicznych łańcuchów AI tak naprawdę działa na starym EVM, uruchamiając kilka skryptów i nazywając to inteligencją. Tego typu działania, które są niczym innym jak sprzedawaniem wizerunku, zaczęły ustępować mojemu niepokojowi dopiero wtedy, gdy zmusiłem się do przestudiowania technicznych dokumentów @Vanarchain , ponieważ odkryłem, że ci ludzie naprawdę nie zajmują się marketingiem, lecz wykonują pracę, którą tylko prawdziwi geekowie mogą zrozumieć.
Warstwa 2 jest wojną fałszywych twierdzeń, w której prawdziwą logiką jest 'degradowanie' na torze płatności. Patrząc na tę świecę K, która spadła o prawie 90% z najwyższego punktu, szczerze mówiąc, czułem się trochę nieswojo, ale w tej branży tak to już jest, dopiero po dużych spadkach ludzie zaczynają głębiej analizować kod. Ostatnio rynek kręci się wokół różnych wysoko wydajnych L2, nawet jeśli Base i Arb są tańsze, przelew wciąż wymaga ETH jako Gas, to poczucie rozdzielenia w obliczu mechanizmu Paymaster @Plasma naprawdę wydaje się pierwotne. Uważam się za doświadczonego gracza w różnych łańcuchach, specjalnie przetestowałem jego transfery stablecoinów, to doświadczenie bez strat ma rzeczywiście trochę smak Web2, tak powinien wyglądać Mass Adoption, a nie zmuszanie użytkowników do nauki, jak kupować Gas przez różne łańcuchy, w tej kwestii jest znacznie mądrzejszy niż te kilka Layer 2, które wciąż walczą o TPS, bezpośrednio trafiając w najboleśniejszy tor płatności. Zbadałem dane na łańcuchu, a zbiornik SyrupUSDT Maple Finance ma zdumiewające 11 miliardów dolarów TVL, pieniądze instytucji są bardziej ostrożne niż pieniądze drobnych inwestorów, chętnie inwestują tę ogromną kwotę, co świadczy o konsensusie co do bezpieczeństwa podstawowej warstwy. W końcu opiera swoje statusy na sieci BTC, a ta 'parasol ochronny' w obecnych niestabilnych warunkach rzeczywiście może dodać odwagi. Dodatkowo, dostęp do Rain Cards i sieci Visa obejmuje setki milionów sprzedawców, ta zdolność do realizacji przewyższa te projekty, które potrafią tylko tweetować, krzyczeć o inwestycjach i rysować plany przez dziesięciolecia. Jednak wracając do tematu, ta inicjatywa ma również wiele wad. Obecnie węzły walidacyjne są głównie obsługiwane przez sam zespół, stopień decentralizacji jest żałośnie niski, mówiąc wprost, to obecnie 'łańcuch prywatny', z tego powodu zawsze bałem się inwestować większe kwoty. Ekosystem jest zbyt ubogi, poza przelewami i pożyczkami, prawie nie ma ciekawych DApp na łańcuchu, nie ma porównania z tą chaotyczną sceną Solany, gdzie wszędzie latają 'kryptowaluty'. Mimo że wprowadzili zgodne z przepisami stablecoiny EUROP, wygląda na to, że (typo: wzór) jest w trakcie rozwoju, ale dla ludzi, którzy chcą szybko zarobić, ta historia zbyt długo trwa. To przypomina wyjątkowo utalentowanego ucznia, który ma świetną infrastrukturę, ale słabą ekosystemową. #plasma $XPL
Warstwa 2 jest wojną fałszywych twierdzeń, w której prawdziwą logiką jest 'degradowanie' na torze płatności.
Patrząc na tę świecę K, która spadła o prawie 90% z najwyższego punktu, szczerze mówiąc, czułem się trochę nieswojo, ale w tej branży tak to już jest, dopiero po dużych spadkach ludzie zaczynają głębiej analizować kod. Ostatnio rynek kręci się wokół różnych wysoko wydajnych L2, nawet jeśli Base i Arb są tańsze, przelew wciąż wymaga ETH jako Gas, to poczucie rozdzielenia w obliczu mechanizmu Paymaster @Plasma naprawdę wydaje się pierwotne. Uważam się za doświadczonego gracza w różnych łańcuchach, specjalnie przetestowałem jego transfery stablecoinów, to doświadczenie bez strat ma rzeczywiście trochę smak Web2, tak powinien wyglądać Mass Adoption, a nie zmuszanie użytkowników do nauki, jak kupować Gas przez różne łańcuchy, w tej kwestii jest znacznie mądrzejszy niż te kilka Layer 2, które wciąż walczą o TPS, bezpośrednio trafiając w najboleśniejszy tor płatności.
Zbadałem dane na łańcuchu, a zbiornik SyrupUSDT Maple Finance ma zdumiewające 11 miliardów dolarów TVL, pieniądze instytucji są bardziej ostrożne niż pieniądze drobnych inwestorów, chętnie inwestują tę ogromną kwotę, co świadczy o konsensusie co do bezpieczeństwa podstawowej warstwy. W końcu opiera swoje statusy na sieci BTC, a ta 'parasol ochronny' w obecnych niestabilnych warunkach rzeczywiście może dodać odwagi. Dodatkowo, dostęp do Rain Cards i sieci Visa obejmuje setki milionów sprzedawców, ta zdolność do realizacji przewyższa te projekty, które potrafią tylko tweetować, krzyczeć o inwestycjach i rysować plany przez dziesięciolecia.
Jednak wracając do tematu, ta inicjatywa ma również wiele wad. Obecnie węzły walidacyjne są głównie obsługiwane przez sam zespół, stopień decentralizacji jest żałośnie niski, mówiąc wprost, to obecnie 'łańcuch prywatny', z tego powodu zawsze bałem się inwestować większe kwoty. Ekosystem jest zbyt ubogi, poza przelewami i pożyczkami, prawie nie ma ciekawych DApp na łańcuchu, nie ma porównania z tą chaotyczną sceną Solany, gdzie wszędzie latają 'kryptowaluty'. Mimo że wprowadzili zgodne z przepisami stablecoiny EUROP, wygląda na to, że (typo: wzór) jest w trakcie rozwoju, ale dla ludzi, którzy chcą szybko zarobić, ta historia zbyt długo trwa. To przypomina wyjątkowo utalentowanego ucznia, który ma świetną infrastrukturę, ale słabą ekosystemową. #plasma $XPL
Kiedy mówimy o równoległym EVM i abstrakcji łańcucha, zapomniane prymitywy płatnicze przekształcają rowy ochronne warstwy 1Patrzyłem na ekranie na białą księgę Monad i Sei przez całe dwa popołudnia, a w mojej głowie krążyła tylko jedna myśl: obecna narracja L1 osiągnęła oburzający poziom, wszyscy próbują ukryć nierówności drogi szybszą prędkością. Wszyscy mówią o TPS, mówią o równoległym wykonywaniu, mówią o tym „prędkości na poziomie Nasdaq”, która nie wiadomo kiedy naprawdę wejdzie w życie, ale niewielu chce się zatrzymać i zastanowić, jak długo porzuciliśmy najbardziej pierwotną i najbardziej seksowną funkcję blockchaina - „płatności”. Dlatego, gdy ponownie zwróciłem uwagę na Plasma, to lekko przestarzałe, a nawet noszące pewien zapach „przegranego” z poprzedniej rundy, imię, poczułem iluzję dostrzegania stali inżynieryjnej w ruinach. W tym tygodniu nie brałem udziału w airdropach, lecz rzeczywiście uruchomiłem węzeł @Plasma , a nawet przejrzałem ich zmodyfikowany kod warstwy wykonawczej Reth, szczerze mówiąc, to uczucie było dziwne, jakbyś wszedł do prawie upadłego sklepu Nokii, a okazało się, że sprzedają urządzenia do komunikacji kwantowej.

Kiedy mówimy o równoległym EVM i abstrakcji łańcucha, zapomniane prymitywy płatnicze przekształcają rowy ochronne warstwy 1

Patrzyłem na ekranie na białą księgę Monad i Sei przez całe dwa popołudnia, a w mojej głowie krążyła tylko jedna myśl: obecna narracja L1 osiągnęła oburzający poziom, wszyscy próbują ukryć nierówności drogi szybszą prędkością. Wszyscy mówią o TPS, mówią o równoległym wykonywaniu, mówią o tym „prędkości na poziomie Nasdaq”, która nie wiadomo kiedy naprawdę wejdzie w życie, ale niewielu chce się zatrzymać i zastanowić, jak długo porzuciliśmy najbardziej pierwotną i najbardziej seksowną funkcję blockchaina - „płatności”. Dlatego, gdy ponownie zwróciłem uwagę na Plasma, to lekko przestarzałe, a nawet noszące pewien zapach „przegranego” z poprzedniej rundy, imię, poczułem iluzję dostrzegania stali inżynieryjnej w ruinach. W tym tygodniu nie brałem udziału w airdropach, lecz rzeczywiście uruchomiłem węzeł @Plasma , a nawet przejrzałem ich zmodyfikowany kod warstwy wykonawczej Reth, szczerze mówiąc, to uczucie było dziwne, jakbyś wszedł do prawie upadłego sklepu Nokii, a okazało się, że sprzedają urządzenia do komunikacji kwantowej.
Zaloguj się, aby odkryć więcej treści
Poznaj najnowsze wiadomości dotyczące krypto
⚡️ Weź udział w najnowszych dyskusjach na temat krypto
💬 Współpracuj ze swoimi ulubionymi twórcami
👍 Korzystaj z treści, które Cię interesują
E-mail / Numer telefonu
Mapa strony
Preferencje dotyczące plików cookie
Regulamin platformy