Binance Square

Daft Punk马到成功版

image
Preverjeni ustvarjalec
文章均为个人看法,不构成投资建议。
Visokofrekvenčni trgovalec
1 let
329 Sledite
47.4K+ Sledilci
39.3K+ Všečkano
5.9K+ Deljeno
Objave
PINNED
·
--
兄弟们,听说又有行业元老拿着推流洗人家第一的稿子,一张嘴就是和这个合作和那个合作,最后原来是和豆包合作洗人家稿,原来炫耀的分数都是洗出来的,你是蓝月亮么这么能洗。此处不点名,自己看榜猜😂
兄弟们,听说又有行业元老拿着推流洗人家第一的稿子,一张嘴就是和这个合作和那个合作,最后原来是和豆包合作洗人家稿,原来炫耀的分数都是洗出来的,你是蓝月亮么这么能洗。此处不点名,自己看榜猜😂
PINNED
广场的创作环境大致如此,我们这些普通创作者只是给推流选手提供素材的,听说你还在搞什么原创,别搞笑了,洗洗睡吧,抄袭才是广场唯一的出路,原创的已经饿死了。推流选手10分钟十几k浏览,你不推流我还真发现不了这么过分,标题都不改哈哈哈。
广场的创作环境大致如此,我们这些普通创作者只是给推流选手提供素材的,听说你还在搞什么原创,别搞笑了,洗洗睡吧,抄袭才是广场唯一的出路,原创的已经饿死了。推流选手10分钟十几k浏览,你不推流我还真发现不了这么过分,标题都不改哈哈哈。
都在喊RWA万亿叙事,却没人谈机构“裸奔”的尴尬 最近复盘RWA赛道的时候发现一个很有意思的现象,市场都在盯着贝莱德的动作,却忽略了基础设施最致命的逻辑硬伤。现在的公链环境对于传统金融机构来说简直就是修罗场,要么像以太坊那样全裸奔,所有交易策略和持仓在链上被看得底裤都不剩,要么就是搞个许可链做成局域网。这几天深入啃了一下@Dusk_Foundation 的技术白皮书,才发现这帮人切入的点有点刁钻,他们不是在做简单的资产上链,而是在解决“想合规又不想被看光”这个看似矛盾的死结。 跟Ondo或者Centrifuge这些在应用层折腾的项目不同,Dusk直接在Layer 1协议层动刀子。我特意去跑了一下他们的Piecrust虚拟机代码,说实话上手门槛有点高,但逻辑确实惊艳。它那个Citadel协议把KYC做成了非交互式的零知识证明,这就好比我进酒吧不需要把身份证拍在桌子上让所有人看见我的住址,只需要出示一个“已成年”的数学证明。这种原生支持的隐私合规,比起以太坊上那些外挂式的隐私混币器,安全性完全不是一个量级。 不过有一说一,技术虽然性感,实际体验还是有摩擦。我在测试网交互的时候明显感觉到,本地生成零知识证明对硬件算力还是有要求的,偶尔会出现Proof生成卡顿的情况,这对高频交易的做市商来说是个不小的挑战。而且目前Dusk这种独立的Layer 1架构,怎么解决与其他生态的资产跨链互通也是个大问题,搞不好容易变成一座技术很牛的孤岛。但反过来看,如果这种RegDeFi的模式真能跑通,它给机构提供的安全感是目前EVM系公链给不了的。毕竟对于华尔街那帮老钱来说,比起Gas费的高低,他们更在乎的是自己的交易底牌会不会因为合规审计而被全网直播。这种把监管逻辑写进底层代码的思路,大概率才是RWA下半场的正解。 #dusk $DUSK
都在喊RWA万亿叙事,却没人谈机构“裸奔”的尴尬
最近复盘RWA赛道的时候发现一个很有意思的现象,市场都在盯着贝莱德的动作,却忽略了基础设施最致命的逻辑硬伤。现在的公链环境对于传统金融机构来说简直就是修罗场,要么像以太坊那样全裸奔,所有交易策略和持仓在链上被看得底裤都不剩,要么就是搞个许可链做成局域网。这几天深入啃了一下@Dusk 的技术白皮书,才发现这帮人切入的点有点刁钻,他们不是在做简单的资产上链,而是在解决“想合规又不想被看光”这个看似矛盾的死结。
跟Ondo或者Centrifuge这些在应用层折腾的项目不同,Dusk直接在Layer 1协议层动刀子。我特意去跑了一下他们的Piecrust虚拟机代码,说实话上手门槛有点高,但逻辑确实惊艳。它那个Citadel协议把KYC做成了非交互式的零知识证明,这就好比我进酒吧不需要把身份证拍在桌子上让所有人看见我的住址,只需要出示一个“已成年”的数学证明。这种原生支持的隐私合规,比起以太坊上那些外挂式的隐私混币器,安全性完全不是一个量级。
不过有一说一,技术虽然性感,实际体验还是有摩擦。我在测试网交互的时候明显感觉到,本地生成零知识证明对硬件算力还是有要求的,偶尔会出现Proof生成卡顿的情况,这对高频交易的做市商来说是个不小的挑战。而且目前Dusk这种独立的Layer 1架构,怎么解决与其他生态的资产跨链互通也是个大问题,搞不好容易变成一座技术很牛的孤岛。但反过来看,如果这种RegDeFi的模式真能跑通,它给机构提供的安全感是目前EVM系公链给不了的。毕竟对于华尔街那帮老钱来说,比起Gas费的高低,他们更在乎的是自己的交易底牌会不会因为合规审计而被全网直播。这种把监管逻辑写进底层代码的思路,大概率才是RWA下半场的正解。 #dusk $DUSK
谁在裸泳,谁在造船:抛开价格噪音,重构我对Dusk技术护城河的认知这几天盯着屏幕上不断跳动的K线,心里却异常平静,这种平静来源于一种近乎偏执的直觉:我们正处在加密货币历史的一个诡异拐点。这一轮牛市的叙事极其割裂,一边是MEME币在Solana上制造着一天百倍的暴富神话,另一边是VC币在高估值低流通的陷阱里让散户绝望,这种割裂感让我不得不重新审视那些真正试图解决行业痛点的基础设施。当我把目光从那些喧嚣的L2赛道移开,重新翻看Dusk Network最近在Github上的代码提交记录时,一种久违的兴奋感涌上心头,这种感觉就像是当年第一次看懂以太坊智能合约原理时那样,意识到某些根本性的东西正在被改变。Dusk并不是那种会喊单的项目,甚至在推特上的营销都显得有些笨拙,但正是这种笨拙让我看到了工程师文化的影子,在RWA(现实世界资产)这个被喊烂了的赛道里,绝大多数项目都在做简单的资产上链,也就是搞个SPV发个币完事,但@Dusk_Foundation 在做的是更底层的事情,他们试图用零知识证明构建一个既能满足合规要求,又能保护用户隐私的Layer 1,这听起来像是既要又要的贪婪,但仔细研究Piecrust虚拟机的架构后,我发现他们可能真的做到了。 谈到隐私公链,大多数人的第一反应还是Monero或者Zcash,但老实说,那属于上个时代的产物,完全的匿名在现在的监管环境下就是死路一条,根本跑不通大规模的商业应用。Monero像是躲在暗网里的黑客工具,而我们现在需要的是能让贝莱德、摩根大通这些巨鳄放心进场的合规暗池。这就不得不提Dusk的核心架构Piecrust VM,这玩意儿在技术圈的讨论度远不如它的实际价值高。大多数ZK-Rollup还在苦哈哈地兼容EVM,试图在旧地基上盖摩天大楼,而Dusk直接另起炉灶。Piecrust最让我惊艳的是它的零拷贝(Zero-Copy)架构,对于搞底层开发的人来说,这意味着在执行智能合约时,数据不需要在内存里搬来搬去。你可能觉得这无所谓,但在涉及零知识证明生成的场景下,这简直就是降维打击。现在的ZK项目最大的瓶颈就是证明生成慢、消耗大,导致Gas费降不下来,体验极差,Piecrust通过内存映射直接读取数据,把效率提升了一个数量级。那天我试着在测试网上跑了一笔复杂的隐私交易,原本以为要像在Aztec上那样等个几分钟,结果几乎是秒级确认,那一刻我意识到,这种技术上的“过度设计”其实是为了未来承载高频金融交易做的准备,只有这种级别的吞吐量,才配谈真正的链上纳斯达克。 我在研究竞品的时候,不自觉地会把Dusk拿来和Aleo或者Midnight做对比。Aleo风头正劲,融资额吓人,主打通用的隐私计算,但它的问题在于太“重”了,对硬件要求极高,而且编程模型对开发者来说门槛不低,这就好比给了你一把瑞士军刀,但你其实只需要一把切菜刀。相比之下,Dusk更像是一把精心打磨的手术刀,专门针对受监管的金融资产交易(RegDeFi)这个场景。它的Citadel协议非常有意思,这就好比我们在进入夜店时,只需要向保安出示一个“我已成年”的证明,而不需要把身份证拍在他脸上让他看你的家庭住址。在传统的DeFi里,我们要么完全透明(像Uniswap,谁都能看见大户的底裤),要么完全黑箱(像Tornado Cash,结果被监管一锅端),Citadel提供了一种中间状态:我对交易对手和公众隐身,但我对监管机构“可审计”。这种设计极其狡猾,也极其聪明,它完美地切中了传统金融机构的痛点。机构不怕上链,怕的是上链后交易策略曝光,怕的是合规部门找麻烦。Dusk这种“可编程的隐私”刚好解决了这个问题。我看了一下他们的文档,这种KYC/AML的合规性是直接嵌入在底层协议里的,而不是像某些项目那样在应用层打补丁,这就保证了整个生态的纯净度,不会出现因为某个应用违规而导致整条链被封杀的尴尬局面。 当然,没有完美的技术,我在体验过程中也发现了不少槽点。现在的钱包体验说实话还有很大的提升空间,比起MetaMask或者Phantom那种丝滑感,Dusk的官方钱包显得有些硬核,对于小白用户不太友好。而且在跨链桥这块,虽然理论上可以通过ZK技术实现去中心化的资产映射,但目前的流动性还是个大问题。我尝试把一笔ETH跨过去参与质押,整个过程虽然安全,但步骤繁琐得让我差点放弃,中间还出现了一次交易卡顿,吓得我以为资产丢了,后来才发现是本地节点的同步问题。这说明在去中心化和用户体验的平衡上,Dusk还有很长的路要走。另外,作为一条L1公链,生态的冷启动是地狱难度的,现在的开发者都被以太坊L2和Solana吸走了,Dusk虽然技术牛逼,但如果没人来上面发RWA资产,那也就是个空荡荡的豪宅。我看社区里有人在喊单,说等主网上线就是百倍,这种言论我向来是嗤之以鼻的。技术落地到商业闭环,中间隔着十万八千里,Dusk现在的状态更像是一个技术验证成功的原型机,距离成为波音747那样的商业载具,还需要大量的运营和BD工作。 这几天深夜翻看白皮书,我经常在想一个问题:为什么我们需要隐私RWA?现在的RWA大多是国债代币化,这种低频、大额的资产其实对隐私要求没那么高,毕竟买国债的都是明牌机构。但如果未来要把企业债、应收账款、甚至未上市公司的股权也搬到链上,隐私就是刚需了。试想一下,一家公司要融资,它肯定不希望竞争对手看到它的融资条款和利率,这时候Dusk的价值就体现出来了。它不仅仅是一个隐私支付网络,更是一个隐私金融计算平台。在这个平台上,我可以发行一种债券,只有持有特定NFT资格的投资者才能看到债券的详细信息和进行交易,而其他人只能看到这笔交易发生了,并且是合规的。这种细粒度的访问控制,是目前以太坊架构很难高效实现的。Aztec虽然也在做类似的事情,但它是作为以太坊的L2,受限于主网的DA(数据可用性)成本,而Dusk作为L1,可以自己在共识层做优化,这种自主性在未来会是一个巨大的优势,尤其是在处理高吞吐量的复杂金融合约时。 再聊聊那个容易被忽视的共识机制SBA(隔离拜占庭协议)。这个机制我看名字就觉得头大,但深入理解后发现它其实是在解决PoS(权益证明)的一个顽疾:长程攻击和中心化趋势。一般的PoS链,节点越做越大,最后就变成了寡头垄断,而SBA通过这种随机抽取验证者的方式,让小节点也有机会参与共识,而且还能保持极快的最终确认性(Finality)。这对于金融交易至关重要,你不能让一笔几百万的转账在链上飘个几分钟还不确定是否到账。我在测试网观察节点的出块情况,发现它的去中心化程度比我想象的要好,没有出现那种几个大节点包揽所有出块的情况。不过,这也有可能是因为现在参与的人还不够多,未来主网上线后,面对真正的利益博弈,这套机制能不能扛得住压力测试,还是个未知数。毕竟,理论上的完美在现实的贪婪面前往往不堪一击。 还有一个让我觉得很有意思的点,就是Dusk团队对于“合规”的理解。在加密原教旨主义者眼里,合规就是投降,就是背叛了去中心化的精神。但我越来越觉得,这种二元对立的思维已经过时了。去中心化的目的不是为了逃避法律,而是为了消除中间人,降低信任成本。如果Dusk能通过技术手段,在不引入中心化审查机构的前提下,实现自动化的合规,那这其实是更高维度的去中心化。它把法律代码化了,把监管逻辑写入了智能合约。这意味着未来的监管者不再是坐在办公室里审批文件的人,而是一段段开源的代码。这种愿景太宏大了,宏大到让我觉得有点不真实,但看着Dusk一步步把这些拼图拼凑起来,我又觉得这并非不可能。相比于那些整天炒作“AI+Crypto”概念却拿不出产品的空气项目,Dusk这种死磕底层逻辑的笨功夫显得尤为珍贵。 这几天我还在琢磨他们的经济模型,质押奖励确实诱人,但通胀率的控制是个艺术活。如果通胀太高,币价肯定承压;如果通胀太低,又不足以激励节点维护网络安全。目前看下来,Dusk似乎是想通过交易手续费的销毁来平衡通胀,但这前提是链上要有足够的活跃度。这就又回到了那个鸡生蛋蛋生鸡的问题:没有应用就没有交易量,没有交易量经济模型就跑不转。所以接下来的半年,对于Dusk来说是生死攸关的。他们必须拉来几个重量级的合作伙伴,真正把RWA的业务跑通,哪怕只是一个小规模的试点,也足以证明这条路是通的。我看到有些传言说欧洲的一些受监管交易所正在和他们接触,如果是真的,那将是一个巨大的催化剂。毕竟欧洲的MiCA法案已经落地,合规门槛不仅是紧箍咒,也是护城河,能跨过去的就只剩下正规军了。 写到这里,看着窗外已经泛白的天色,我不禁苦笑。在这个充满暴富神话和庞氏骗局的圈子里,寻找价值就像在垃圾堆里找金子。Dusk肯定不是那个能让你一夜暴富的项目,它没有那个基因,它的代码里写满了克制和严谨。这种气质注定了它会被只有七秒记忆的韭菜们忽略,但也正是这种气质,吸引了像我这样对技术有洁癖、对未来有执念的人。我不确定它最终能不能成功,毕竟技术领先不等于商业成功,历史上有太多技术牛逼但死掉的项目(看看EOS当年的豪言壮语)。但我愿意押注这个方向,押注隐私和合规的融合是Web3走向大规模采用的必经之路。如果Dusk能做成,它将不再是一条简单的公链,而是一套全新的金融基础设施标准。就算它失败了,它在零知识证明虚拟机和合规隐私协议上的探索,也足以给后来的建设者留下宝贵的遗产。在这个浮躁的行业里,能沉下心来造船的人不多了,既然看见了,就陪他们走一程吧,哪怕前面是惊涛骇浪。#dusk $DUSK

谁在裸泳,谁在造船:抛开价格噪音,重构我对Dusk技术护城河的认知

这几天盯着屏幕上不断跳动的K线,心里却异常平静,这种平静来源于一种近乎偏执的直觉:我们正处在加密货币历史的一个诡异拐点。这一轮牛市的叙事极其割裂,一边是MEME币在Solana上制造着一天百倍的暴富神话,另一边是VC币在高估值低流通的陷阱里让散户绝望,这种割裂感让我不得不重新审视那些真正试图解决行业痛点的基础设施。当我把目光从那些喧嚣的L2赛道移开,重新翻看Dusk Network最近在Github上的代码提交记录时,一种久违的兴奋感涌上心头,这种感觉就像是当年第一次看懂以太坊智能合约原理时那样,意识到某些根本性的东西正在被改变。Dusk并不是那种会喊单的项目,甚至在推特上的营销都显得有些笨拙,但正是这种笨拙让我看到了工程师文化的影子,在RWA(现实世界资产)这个被喊烂了的赛道里,绝大多数项目都在做简单的资产上链,也就是搞个SPV发个币完事,但@Dusk 在做的是更底层的事情,他们试图用零知识证明构建一个既能满足合规要求,又能保护用户隐私的Layer 1,这听起来像是既要又要的贪婪,但仔细研究Piecrust虚拟机的架构后,我发现他们可能真的做到了。
谈到隐私公链,大多数人的第一反应还是Monero或者Zcash,但老实说,那属于上个时代的产物,完全的匿名在现在的监管环境下就是死路一条,根本跑不通大规模的商业应用。Monero像是躲在暗网里的黑客工具,而我们现在需要的是能让贝莱德、摩根大通这些巨鳄放心进场的合规暗池。这就不得不提Dusk的核心架构Piecrust VM,这玩意儿在技术圈的讨论度远不如它的实际价值高。大多数ZK-Rollup还在苦哈哈地兼容EVM,试图在旧地基上盖摩天大楼,而Dusk直接另起炉灶。Piecrust最让我惊艳的是它的零拷贝(Zero-Copy)架构,对于搞底层开发的人来说,这意味着在执行智能合约时,数据不需要在内存里搬来搬去。你可能觉得这无所谓,但在涉及零知识证明生成的场景下,这简直就是降维打击。现在的ZK项目最大的瓶颈就是证明生成慢、消耗大,导致Gas费降不下来,体验极差,Piecrust通过内存映射直接读取数据,把效率提升了一个数量级。那天我试着在测试网上跑了一笔复杂的隐私交易,原本以为要像在Aztec上那样等个几分钟,结果几乎是秒级确认,那一刻我意识到,这种技术上的“过度设计”其实是为了未来承载高频金融交易做的准备,只有这种级别的吞吐量,才配谈真正的链上纳斯达克。
我在研究竞品的时候,不自觉地会把Dusk拿来和Aleo或者Midnight做对比。Aleo风头正劲,融资额吓人,主打通用的隐私计算,但它的问题在于太“重”了,对硬件要求极高,而且编程模型对开发者来说门槛不低,这就好比给了你一把瑞士军刀,但你其实只需要一把切菜刀。相比之下,Dusk更像是一把精心打磨的手术刀,专门针对受监管的金融资产交易(RegDeFi)这个场景。它的Citadel协议非常有意思,这就好比我们在进入夜店时,只需要向保安出示一个“我已成年”的证明,而不需要把身份证拍在他脸上让他看你的家庭住址。在传统的DeFi里,我们要么完全透明(像Uniswap,谁都能看见大户的底裤),要么完全黑箱(像Tornado Cash,结果被监管一锅端),Citadel提供了一种中间状态:我对交易对手和公众隐身,但我对监管机构“可审计”。这种设计极其狡猾,也极其聪明,它完美地切中了传统金融机构的痛点。机构不怕上链,怕的是上链后交易策略曝光,怕的是合规部门找麻烦。Dusk这种“可编程的隐私”刚好解决了这个问题。我看了一下他们的文档,这种KYC/AML的合规性是直接嵌入在底层协议里的,而不是像某些项目那样在应用层打补丁,这就保证了整个生态的纯净度,不会出现因为某个应用违规而导致整条链被封杀的尴尬局面。
当然,没有完美的技术,我在体验过程中也发现了不少槽点。现在的钱包体验说实话还有很大的提升空间,比起MetaMask或者Phantom那种丝滑感,Dusk的官方钱包显得有些硬核,对于小白用户不太友好。而且在跨链桥这块,虽然理论上可以通过ZK技术实现去中心化的资产映射,但目前的流动性还是个大问题。我尝试把一笔ETH跨过去参与质押,整个过程虽然安全,但步骤繁琐得让我差点放弃,中间还出现了一次交易卡顿,吓得我以为资产丢了,后来才发现是本地节点的同步问题。这说明在去中心化和用户体验的平衡上,Dusk还有很长的路要走。另外,作为一条L1公链,生态的冷启动是地狱难度的,现在的开发者都被以太坊L2和Solana吸走了,Dusk虽然技术牛逼,但如果没人来上面发RWA资产,那也就是个空荡荡的豪宅。我看社区里有人在喊单,说等主网上线就是百倍,这种言论我向来是嗤之以鼻的。技术落地到商业闭环,中间隔着十万八千里,Dusk现在的状态更像是一个技术验证成功的原型机,距离成为波音747那样的商业载具,还需要大量的运营和BD工作。
这几天深夜翻看白皮书,我经常在想一个问题:为什么我们需要隐私RWA?现在的RWA大多是国债代币化,这种低频、大额的资产其实对隐私要求没那么高,毕竟买国债的都是明牌机构。但如果未来要把企业债、应收账款、甚至未上市公司的股权也搬到链上,隐私就是刚需了。试想一下,一家公司要融资,它肯定不希望竞争对手看到它的融资条款和利率,这时候Dusk的价值就体现出来了。它不仅仅是一个隐私支付网络,更是一个隐私金融计算平台。在这个平台上,我可以发行一种债券,只有持有特定NFT资格的投资者才能看到债券的详细信息和进行交易,而其他人只能看到这笔交易发生了,并且是合规的。这种细粒度的访问控制,是目前以太坊架构很难高效实现的。Aztec虽然也在做类似的事情,但它是作为以太坊的L2,受限于主网的DA(数据可用性)成本,而Dusk作为L1,可以自己在共识层做优化,这种自主性在未来会是一个巨大的优势,尤其是在处理高吞吐量的复杂金融合约时。
再聊聊那个容易被忽视的共识机制SBA(隔离拜占庭协议)。这个机制我看名字就觉得头大,但深入理解后发现它其实是在解决PoS(权益证明)的一个顽疾:长程攻击和中心化趋势。一般的PoS链,节点越做越大,最后就变成了寡头垄断,而SBA通过这种随机抽取验证者的方式,让小节点也有机会参与共识,而且还能保持极快的最终确认性(Finality)。这对于金融交易至关重要,你不能让一笔几百万的转账在链上飘个几分钟还不确定是否到账。我在测试网观察节点的出块情况,发现它的去中心化程度比我想象的要好,没有出现那种几个大节点包揽所有出块的情况。不过,这也有可能是因为现在参与的人还不够多,未来主网上线后,面对真正的利益博弈,这套机制能不能扛得住压力测试,还是个未知数。毕竟,理论上的完美在现实的贪婪面前往往不堪一击。
还有一个让我觉得很有意思的点,就是Dusk团队对于“合规”的理解。在加密原教旨主义者眼里,合规就是投降,就是背叛了去中心化的精神。但我越来越觉得,这种二元对立的思维已经过时了。去中心化的目的不是为了逃避法律,而是为了消除中间人,降低信任成本。如果Dusk能通过技术手段,在不引入中心化审查机构的前提下,实现自动化的合规,那这其实是更高维度的去中心化。它把法律代码化了,把监管逻辑写入了智能合约。这意味着未来的监管者不再是坐在办公室里审批文件的人,而是一段段开源的代码。这种愿景太宏大了,宏大到让我觉得有点不真实,但看着Dusk一步步把这些拼图拼凑起来,我又觉得这并非不可能。相比于那些整天炒作“AI+Crypto”概念却拿不出产品的空气项目,Dusk这种死磕底层逻辑的笨功夫显得尤为珍贵。
这几天我还在琢磨他们的经济模型,质押奖励确实诱人,但通胀率的控制是个艺术活。如果通胀太高,币价肯定承压;如果通胀太低,又不足以激励节点维护网络安全。目前看下来,Dusk似乎是想通过交易手续费的销毁来平衡通胀,但这前提是链上要有足够的活跃度。这就又回到了那个鸡生蛋蛋生鸡的问题:没有应用就没有交易量,没有交易量经济模型就跑不转。所以接下来的半年,对于Dusk来说是生死攸关的。他们必须拉来几个重量级的合作伙伴,真正把RWA的业务跑通,哪怕只是一个小规模的试点,也足以证明这条路是通的。我看到有些传言说欧洲的一些受监管交易所正在和他们接触,如果是真的,那将是一个巨大的催化剂。毕竟欧洲的MiCA法案已经落地,合规门槛不仅是紧箍咒,也是护城河,能跨过去的就只剩下正规军了。
写到这里,看着窗外已经泛白的天色,我不禁苦笑。在这个充满暴富神话和庞氏骗局的圈子里,寻找价值就像在垃圾堆里找金子。Dusk肯定不是那个能让你一夜暴富的项目,它没有那个基因,它的代码里写满了克制和严谨。这种气质注定了它会被只有七秒记忆的韭菜们忽略,但也正是这种气质,吸引了像我这样对技术有洁癖、对未来有执念的人。我不确定它最终能不能成功,毕竟技术领先不等于商业成功,历史上有太多技术牛逼但死掉的项目(看看EOS当年的豪言壮语)。但我愿意押注这个方向,押注隐私和合规的融合是Web3走向大规模采用的必经之路。如果Dusk能做成,它将不再是一条简单的公链,而是一套全新的金融基础设施标准。就算它失败了,它在零知识证明虚拟机和合规隐私协议上的探索,也足以给后来的建设者留下宝贵的遗产。在这个浮躁的行业里,能沉下心来造船的人不多了,既然看见了,就陪他们走一程吧,哪怕前面是惊涛骇浪。#dusk $DUSK
最近看盘看得头疼,满屏的L2都在吹自己TPS多少万,仿佛大家缺的是那几十毫秒的确认速度,其实对于咱们这种链上老油条来说,最劝退的永远是那笔该死的Gas费。每次想转点稳定币,发现钱包里ETH不够还得专门去买,这种为了喝水还得先挖井的逻辑,简直是Web3最大的笑话。这也是为什么即便XPL现在的价格走势看着让人心梗,我还是愿意花时间去测试@Plasma 网络的原因,毕竟Paymaster机制搞出来的零Gas体验,确实是目前支付赛道里最接近Web2丝滑感的东西。 技术层面我不爱掉书袋,但Plasma这波操作挺务实。全兼容EVM意味着开发者不用重新学一套Rust或者Move,直接拿Hardhat就能把代码搬过来,这种低门槛才有可能让生态快速起量。而且他们没打算自己硬抗安全性,而是把状态定期锚定到比特币网络,相当于花钱雇了BTC当保镖,在现在这个动荡的行情下,这种抱大腿的策略反而比自己搞一套还没经过验证的共识机制要靠谱得多。 当然,数据是不会骗人的。我特意去看了眼Maple Finance,SyrupUSDT池子的TVL居然还有11亿美金,这年头能沉淀这麽多机构资金的项目不多见,说明Smart Money对它底层的安全性是有共识的。再加上Rain cards和Oobit接入Visa网络覆盖的那一堆商户,这已经不是停留在PPT上的叙事了。不过有一说一,这项目的槽点也明显得像秃子头上的虱子。验证者节点现在还是高度中心化,基本就是团队自己在玩,这也算是早期项目的通病吧,但去中心化程度不够始终是个雷。而且整个生态除了转账借贷,真的是荒凉,想找个土狗打都找不到地儿。只能说,在这个大家都忙着发资产的躁动周期里,肯沉下心来修路解决“过路费”问题的项目,我还是愿意多给点耐心,毕竟路修好了,车早晚会跑起来的。#plasma $XPL
最近看盘看得头疼,满屏的L2都在吹自己TPS多少万,仿佛大家缺的是那几十毫秒的确认速度,其实对于咱们这种链上老油条来说,最劝退的永远是那笔该死的Gas费。每次想转点稳定币,发现钱包里ETH不够还得专门去买,这种为了喝水还得先挖井的逻辑,简直是Web3最大的笑话。这也是为什么即便XPL现在的价格走势看着让人心梗,我还是愿意花时间去测试@Plasma 网络的原因,毕竟Paymaster机制搞出来的零Gas体验,确实是目前支付赛道里最接近Web2丝滑感的东西。
技术层面我不爱掉书袋,但Plasma这波操作挺务实。全兼容EVM意味着开发者不用重新学一套Rust或者Move,直接拿Hardhat就能把代码搬过来,这种低门槛才有可能让生态快速起量。而且他们没打算自己硬抗安全性,而是把状态定期锚定到比特币网络,相当于花钱雇了BTC当保镖,在现在这个动荡的行情下,这种抱大腿的策略反而比自己搞一套还没经过验证的共识机制要靠谱得多。
当然,数据是不会骗人的。我特意去看了眼Maple Finance,SyrupUSDT池子的TVL居然还有11亿美金,这年头能沉淀这麽多机构资金的项目不多见,说明Smart Money对它底层的安全性是有共识的。再加上Rain cards和Oobit接入Visa网络覆盖的那一堆商户,这已经不是停留在PPT上的叙事了。不过有一说一,这项目的槽点也明显得像秃子头上的虱子。验证者节点现在还是高度中心化,基本就是团队自己在玩,这也算是早期项目的通病吧,但去中心化程度不够始终是个雷。而且整个生态除了转账借贷,真的是荒凉,想找个土狗打都找不到地儿。只能说,在这个大家都忙着发资产的躁动周期里,肯沉下心来修路解决“过路费”问题的项目,我还是愿意多给点耐心,毕竟路修好了,车早晚会跑起来的。#plasma $XPL
哪怕被骂是“倒退”,我也要说:在L2泛滥的今天,Plasma这种“极简主义”的支付裸奔才是扩容的唯一解药昨晚盯着屏幕上那几行 Rust 代码发呆,窗外的车流声已经稀疏了,手里的冷咖啡也没顾上喝,脑子里一直盘旋着一个极其荒谬又真实的念头:我们这几年在 Layer 2 上堆砌的所谓“模块化”大厦,是不是从地基开始就歪了?最近这段时间我高强度地在测试网和早期主网之间来回折腾,把市面上号称 TPS 破万的公链都摸了一遍,说实话,越测越心凉,那种为了叙事而叙事的疲惫感让我对现在的基础设施赛道充满了怀疑,直到我重新把目光聚焦回 @Plasma ,这个曾经被以太坊社区宣判“死刑”又秽土转生的老东西,在深入看懂它的 Reth 执行层重构和那个看似反直觉的 UTXO 模型后,我甚至感到了一丝久违的兴奋,这种兴奋不是因为币价涨跌,而是看见某种技术上的“洁癖”终于落地了。 现在的扩容方案太重了,真的太重了,你看看现在的 Optimism 或者 Arbitrum,虽然我也在用,但那种臃肿感是掩盖不住的,为了兼容 EVM 我们背负了太多的历史包袱,每一笔交易都要在全网状态树上留下痕迹,导致状态爆炸(State Bloat)成了悬在所有人头顶的达摩克利斯之剑,而 Plasma 这次回归,最让我意外的是它那种近乎疯狂的“做减法”逻辑,它实际上是放弃了通用计算的妄想,承认了一个早就该承认的事实:99% 的用户根本不需要在链上跑复杂的 DeFi 乐高,他们只需要一个快到极致、便宜到忽略不计的支付通道,仅此而已。 我在测试 Plasma 网络转账的时候,那种丝滑感让我一度以为自己在用中心化的支付宝,而不是区块链,这背后其实是执行层(Execution Layer)的彻底重构,他们抛弃了臃肿的 Geth,转而使用了 Rust 编写的 Reth,我知道很多人会说这不就是换个语言重写一遍吗有什么稀奇的,大错特错,Rust 的内存安全性和并发处理能力在处理高频交易时简直是降维打击,这就好比你让一个开惯了卡车的老司机去开 F1 赛车,Geth 就是那个装满货物的重卡,虽然稳但转身慢,而 Reth 在并行交易执行(Parallel Transaction Processing)上的表现,直接让我在看浏览器数据时愣住了,那种并发量上来之后依然保持极低延迟的表现,绝对不是靠堆硬件堆出来的,而是底层架构对死锁和资源竞争的极致优化,这才是一个金融基础设施该有的样子,而不是靠着 Rollup 那个昂贵的定序器在链下假装高效。 说到这里我不得不吐槽一下现在的竞品,比如 Tron,也就是波场,虽然我们圈内人尤其是技术派总是看不起孙哥,觉得那玩意儿代码抄袭、节点中心化,但你不得不承认,在 USDT 支付这个场景下,波场目前是无敌的,为什么?因为简单粗暴,用户不在乎去中心化,只在乎转账能不能秒到,手续费是不是便宜,Plasma 现在的打法其实非常聪明,它没有试图去讲什么“万链互联”的宏大叙事,而是精准地切入了波场的腹地——支付,但它比波场高级的地方在于,它是在保证了以太坊主网安全性的前提下做到了这一点,这也就是所谓的“无信任假设”,我在研究它的欺诈证明机制时发现,团队对用户资金退出的路径做了极度的简化,不像早期的 Plasma MVP 还需要用户时刻在线监控,现在的架构引入了轻量级的观察者节点,即便运营商跑路,资金也能通过默克尔树的路径证明安全撤回主网,这种安全感是波场那种“由于某种不可抗力节点冻结”的黑箱系统永远给不了的。 当然,在使用过程中我也发现了不少坑,甚至可以说是劝退点,比如那个为了追求极致性能而采用的 UTXO 模型,这对开发者来说简直是噩梦,如果你习惯了以太坊的账户模型(Account Model),写智能合约时那种随心所欲调用全局状态的感觉在 Plasma 上荡然无存,UTXO 要求你必须精确地管理每一笔输入的来源和输出的去向,并发处理时如果逻辑写得不对,很容易搞出双花或者交易死锁,我在试着部署一个简单的批量转账脚本时,就因为对 input 索引的处理不当,导致一笔交易卡在内存池里半天出不来,最后不得不手动重置 nonce,这种开发体验对新手极其不友好,甚至可以说是在开倒车,把我们拉回了比特币脚本的蛮荒时代,但转念一想,这不正是为了并行化必须付出的代价吗?账户模型下的状态依赖是阻碍并行执行的最大拦路虎,Sui 和 Aptos 搞了半天 Move 语言不也是为了解决这个问题?Plasma 直接复用 UTXO 这种经过时间检验的“老古董”,反而是一种返璞归真的智慧,它把复杂性留给了开发者,把简单留给了用户。 还有一个让我觉得很有意思但又充满争议的点,就是它的 Gas Abstraction(Gas 抽象),这玩意儿喊了好几年了,但在 Plasma 上我是第一次见到如此原生级别的支持,我在测试网尝试用 USDT 直接支付 Gas 费时,那种体验真的太爽了,你完全不需要钱包里留一点 ETH 或者 XPL 作为燃料,协议层直接通过 Paymaster 帮你把这事儿平了,这对于圈外用户来说是革命性的,想想看,你想给住在南美的亲戚转一笔钱,还得先教他怎么去交易所买 ETH 充进钱包做 Gas,这简直是反人类,而 Plasma 的这个设计,明显就是冲着大规模采用(Mass Adoption)去的,但这背后也隐藏着一个经济学上的隐患:如果 XPL 代币不作为强制性的 Gas 消耗,那它的价值捕获在哪里?完全靠验证者的质押和节点运营?这也太单薄了,虽然白皮书里写了一堆关于排序器收入回购销毁的机制,但我总觉得在极端市场行情下,这种脱钩可能会导致代币价格的螺旋下跌,毕竟对于矿工(或者说验证者)来说,收硬通货 USDT 远比收自家那个波动剧烈的代币来得实在,这可能也是团队在代币经济学设计上的一次豪赌。 再聊聊竞品对比,除了刚才说的波场,其实 Celo 也是一个很强的对手,Celo 一直主打移动端优先和稳定币支付,而且最近也转型做了 L2,但我总觉得 Celo 的技术栈还是太偏向于 EVM 的原本逻辑,没有像 Plasma 这样大刀阔斧地改到底层数据结构,Celo 更像是一个优化版的以太坊侧链,而 Plasma 更像是一个挂在以太坊上的比特币闪电网络进阶版,这种架构上的本质区别决定了天花板的高度,当网络负载真正达到千万级 TPS 的时候,EVM 的串行处理机制必死无疑,而 UTXO 的并行优势就会显现出来,这就好比一个是不断给马车换更快的马,一个是直接造了辆高铁,虽然高铁的轨道铺设(开发适配)要难得多,但上限是马车无法企及的。 我在翻看 Github 上的提交记录时,发现团队对于数据可用性(DA)的处理也非常激进,他们似乎并不打算完全依赖以太坊主网来存所有数据,毕竟那个成本太高了,而是采用了一种混合模式,只有状态根和必要的欺诈证明数据上链,绝大部分交易数据在链下通过委员会(DAC)或者未来的专用 DA 层来解决,这其实是有中心化风险的,如果数据扣留攻击(Data Withholding Attack)真的发生,用户虽然理论上资金安全,但可能会面临长时间的提款冻结,这也是 Vitalik 当年通过 Plasma 时最担心的问题,虽然现在有了零知识证明(ZK)可以缓解一部分,但 Plasma 目前的版本似乎并没有全面拥抱 ZK,可能是出于成本和生成证明速度的考量,毕竟 ZK 的计算开销对于一个主打低手续费的支付链来说还是太奢侈了,这种在安全性、去中心化和性能之间的走钢丝行为,让我既佩服又捏把汗。 这两天我也看到社区里有人在骂,说 Plasma 的节点门槛太高,普通人根本跑不起来,这确实是事实,为了维持那个变态的 TPS,节点对带宽和 SSD 的读写速度要求极高,这注定了它不可能像以太坊那样拥有成千上万个家庭节点,未来很可能就是几十个高性能节点在跑共识,这又回到了那个老生常谈的问题:我们到底为了去中心化愿意牺牲多少效率?对于一个支付系统来说,也许 Visa 级别的中心化是我们不得不接受的妥协,只要结算层依然在以太坊,只要没有任何人能没收我的私钥,这种程度的中心化我是肯能接受的,毕竟我不想买杯咖啡还要等 12 秒的区块确认。 还有一个细节特别戳我,就是他们的客户端代码里竟然保留了大量的比特币风格的命名习惯,比如 scriptSig 这种词汇,这让我在阅读代码时有一种时空错乱的感觉,仿佛中本聪的思想在以太坊的土壤里开出了另一朵花,这种技术审美的延续性,比那些满口 Web3.0 黑话的项目要迷人得多,但也正是这种技术上的特立独行,让我担心它的生态兼容性,现在的 DeFi 协议大多是基于 Solidity 的账户模型写的,要想迁移到 Plasma 上,基本上等于重写,这巨大的迁移成本很可能会导致初期生态的荒漠化,除非官方能掏出巨额的激励基金,否则很难吸引那些已经赚得盆满钵满的头部协议过来“开荒”,这也就是为什么我判断 Plasma 初期只能做支付,做不了复杂的金融衍生品,因为它天然排斥状态依赖过重的逻辑。 写到这儿,我突然意识到自己可能过于苛刻了,在如今这个遍地都是一键发链、L2 多如牛毛的时代,还能有一帮人沉下心来去啃 UTXO、去重写执行层、去死磕 Rust,这本身就是一件值得尊敬的事,哪怕它最后失败了,哪怕它因为生态起不来而变成一条“僵尸链”,它在技术架构上的探索也给行业留下了宝贵的遗产,而不是像某些项目那样,fork 一下代码,改个 logo,发个币就开始收割,我甚至觉得,Plasma 的这种“复古”恰恰是通向未来的捷径,因为我们终于意识到,区块链不是万能的,它不应该承载所有的计算,它只需要做好最底层的那一件事:价值的确权与转移。 最后再啰嗦一句,别看现在币价波动挺大,技术的基本面是不会骗人的,我看好 Plasma 不是因为我相信它能翻多少倍,而是因为我在它的架构里看到了解决拥堵问题的另一种可能,一种不依赖堆砌 Rollup 而是回归账本本质的可能,这种直觉在过去几年里帮我避开了不少坑,希望这次也没错,当然,如果它真的做到了大规模支付的落地,那今天的这些技术分歧和争论,都将成为教科书里无关痛痒的注脚,而我们,都是这场宏大实验的小白鼠。#plasma $XPL

哪怕被骂是“倒退”,我也要说:在L2泛滥的今天,Plasma这种“极简主义”的支付裸奔才是扩容的唯一解药

昨晚盯着屏幕上那几行 Rust 代码发呆,窗外的车流声已经稀疏了,手里的冷咖啡也没顾上喝,脑子里一直盘旋着一个极其荒谬又真实的念头:我们这几年在 Layer 2 上堆砌的所谓“模块化”大厦,是不是从地基开始就歪了?最近这段时间我高强度地在测试网和早期主网之间来回折腾,把市面上号称 TPS 破万的公链都摸了一遍,说实话,越测越心凉,那种为了叙事而叙事的疲惫感让我对现在的基础设施赛道充满了怀疑,直到我重新把目光聚焦回 @Plasma ,这个曾经被以太坊社区宣判“死刑”又秽土转生的老东西,在深入看懂它的 Reth 执行层重构和那个看似反直觉的 UTXO 模型后,我甚至感到了一丝久违的兴奋,这种兴奋不是因为币价涨跌,而是看见某种技术上的“洁癖”终于落地了。
现在的扩容方案太重了,真的太重了,你看看现在的 Optimism 或者 Arbitrum,虽然我也在用,但那种臃肿感是掩盖不住的,为了兼容 EVM 我们背负了太多的历史包袱,每一笔交易都要在全网状态树上留下痕迹,导致状态爆炸(State Bloat)成了悬在所有人头顶的达摩克利斯之剑,而 Plasma 这次回归,最让我意外的是它那种近乎疯狂的“做减法”逻辑,它实际上是放弃了通用计算的妄想,承认了一个早就该承认的事实:99% 的用户根本不需要在链上跑复杂的 DeFi 乐高,他们只需要一个快到极致、便宜到忽略不计的支付通道,仅此而已。
我在测试 Plasma 网络转账的时候,那种丝滑感让我一度以为自己在用中心化的支付宝,而不是区块链,这背后其实是执行层(Execution Layer)的彻底重构,他们抛弃了臃肿的 Geth,转而使用了 Rust 编写的 Reth,我知道很多人会说这不就是换个语言重写一遍吗有什么稀奇的,大错特错,Rust 的内存安全性和并发处理能力在处理高频交易时简直是降维打击,这就好比你让一个开惯了卡车的老司机去开 F1 赛车,Geth 就是那个装满货物的重卡,虽然稳但转身慢,而 Reth 在并行交易执行(Parallel Transaction Processing)上的表现,直接让我在看浏览器数据时愣住了,那种并发量上来之后依然保持极低延迟的表现,绝对不是靠堆硬件堆出来的,而是底层架构对死锁和资源竞争的极致优化,这才是一个金融基础设施该有的样子,而不是靠着 Rollup 那个昂贵的定序器在链下假装高效。
说到这里我不得不吐槽一下现在的竞品,比如 Tron,也就是波场,虽然我们圈内人尤其是技术派总是看不起孙哥,觉得那玩意儿代码抄袭、节点中心化,但你不得不承认,在 USDT 支付这个场景下,波场目前是无敌的,为什么?因为简单粗暴,用户不在乎去中心化,只在乎转账能不能秒到,手续费是不是便宜,Plasma 现在的打法其实非常聪明,它没有试图去讲什么“万链互联”的宏大叙事,而是精准地切入了波场的腹地——支付,但它比波场高级的地方在于,它是在保证了以太坊主网安全性的前提下做到了这一点,这也就是所谓的“无信任假设”,我在研究它的欺诈证明机制时发现,团队对用户资金退出的路径做了极度的简化,不像早期的 Plasma MVP 还需要用户时刻在线监控,现在的架构引入了轻量级的观察者节点,即便运营商跑路,资金也能通过默克尔树的路径证明安全撤回主网,这种安全感是波场那种“由于某种不可抗力节点冻结”的黑箱系统永远给不了的。
当然,在使用过程中我也发现了不少坑,甚至可以说是劝退点,比如那个为了追求极致性能而采用的 UTXO 模型,这对开发者来说简直是噩梦,如果你习惯了以太坊的账户模型(Account Model),写智能合约时那种随心所欲调用全局状态的感觉在 Plasma 上荡然无存,UTXO 要求你必须精确地管理每一笔输入的来源和输出的去向,并发处理时如果逻辑写得不对,很容易搞出双花或者交易死锁,我在试着部署一个简单的批量转账脚本时,就因为对 input 索引的处理不当,导致一笔交易卡在内存池里半天出不来,最后不得不手动重置 nonce,这种开发体验对新手极其不友好,甚至可以说是在开倒车,把我们拉回了比特币脚本的蛮荒时代,但转念一想,这不正是为了并行化必须付出的代价吗?账户模型下的状态依赖是阻碍并行执行的最大拦路虎,Sui 和 Aptos 搞了半天 Move 语言不也是为了解决这个问题?Plasma 直接复用 UTXO 这种经过时间检验的“老古董”,反而是一种返璞归真的智慧,它把复杂性留给了开发者,把简单留给了用户。
还有一个让我觉得很有意思但又充满争议的点,就是它的 Gas Abstraction(Gas 抽象),这玩意儿喊了好几年了,但在 Plasma 上我是第一次见到如此原生级别的支持,我在测试网尝试用 USDT 直接支付 Gas 费时,那种体验真的太爽了,你完全不需要钱包里留一点 ETH 或者 XPL 作为燃料,协议层直接通过 Paymaster 帮你把这事儿平了,这对于圈外用户来说是革命性的,想想看,你想给住在南美的亲戚转一笔钱,还得先教他怎么去交易所买 ETH 充进钱包做 Gas,这简直是反人类,而 Plasma 的这个设计,明显就是冲着大规模采用(Mass Adoption)去的,但这背后也隐藏着一个经济学上的隐患:如果 XPL 代币不作为强制性的 Gas 消耗,那它的价值捕获在哪里?完全靠验证者的质押和节点运营?这也太单薄了,虽然白皮书里写了一堆关于排序器收入回购销毁的机制,但我总觉得在极端市场行情下,这种脱钩可能会导致代币价格的螺旋下跌,毕竟对于矿工(或者说验证者)来说,收硬通货 USDT 远比收自家那个波动剧烈的代币来得实在,这可能也是团队在代币经济学设计上的一次豪赌。
再聊聊竞品对比,除了刚才说的波场,其实 Celo 也是一个很强的对手,Celo 一直主打移动端优先和稳定币支付,而且最近也转型做了 L2,但我总觉得 Celo 的技术栈还是太偏向于 EVM 的原本逻辑,没有像 Plasma 这样大刀阔斧地改到底层数据结构,Celo 更像是一个优化版的以太坊侧链,而 Plasma 更像是一个挂在以太坊上的比特币闪电网络进阶版,这种架构上的本质区别决定了天花板的高度,当网络负载真正达到千万级 TPS 的时候,EVM 的串行处理机制必死无疑,而 UTXO 的并行优势就会显现出来,这就好比一个是不断给马车换更快的马,一个是直接造了辆高铁,虽然高铁的轨道铺设(开发适配)要难得多,但上限是马车无法企及的。
我在翻看 Github 上的提交记录时,发现团队对于数据可用性(DA)的处理也非常激进,他们似乎并不打算完全依赖以太坊主网来存所有数据,毕竟那个成本太高了,而是采用了一种混合模式,只有状态根和必要的欺诈证明数据上链,绝大部分交易数据在链下通过委员会(DAC)或者未来的专用 DA 层来解决,这其实是有中心化风险的,如果数据扣留攻击(Data Withholding Attack)真的发生,用户虽然理论上资金安全,但可能会面临长时间的提款冻结,这也是 Vitalik 当年通过 Plasma 时最担心的问题,虽然现在有了零知识证明(ZK)可以缓解一部分,但 Plasma 目前的版本似乎并没有全面拥抱 ZK,可能是出于成本和生成证明速度的考量,毕竟 ZK 的计算开销对于一个主打低手续费的支付链来说还是太奢侈了,这种在安全性、去中心化和性能之间的走钢丝行为,让我既佩服又捏把汗。
这两天我也看到社区里有人在骂,说 Plasma 的节点门槛太高,普通人根本跑不起来,这确实是事实,为了维持那个变态的 TPS,节点对带宽和 SSD 的读写速度要求极高,这注定了它不可能像以太坊那样拥有成千上万个家庭节点,未来很可能就是几十个高性能节点在跑共识,这又回到了那个老生常谈的问题:我们到底为了去中心化愿意牺牲多少效率?对于一个支付系统来说,也许 Visa 级别的中心化是我们不得不接受的妥协,只要结算层依然在以太坊,只要没有任何人能没收我的私钥,这种程度的中心化我是肯能接受的,毕竟我不想买杯咖啡还要等 12 秒的区块确认。
还有一个细节特别戳我,就是他们的客户端代码里竟然保留了大量的比特币风格的命名习惯,比如 scriptSig 这种词汇,这让我在阅读代码时有一种时空错乱的感觉,仿佛中本聪的思想在以太坊的土壤里开出了另一朵花,这种技术审美的延续性,比那些满口 Web3.0 黑话的项目要迷人得多,但也正是这种技术上的特立独行,让我担心它的生态兼容性,现在的 DeFi 协议大多是基于 Solidity 的账户模型写的,要想迁移到 Plasma 上,基本上等于重写,这巨大的迁移成本很可能会导致初期生态的荒漠化,除非官方能掏出巨额的激励基金,否则很难吸引那些已经赚得盆满钵满的头部协议过来“开荒”,这也就是为什么我判断 Plasma 初期只能做支付,做不了复杂的金融衍生品,因为它天然排斥状态依赖过重的逻辑。
写到这儿,我突然意识到自己可能过于苛刻了,在如今这个遍地都是一键发链、L2 多如牛毛的时代,还能有一帮人沉下心来去啃 UTXO、去重写执行层、去死磕 Rust,这本身就是一件值得尊敬的事,哪怕它最后失败了,哪怕它因为生态起不来而变成一条“僵尸链”,它在技术架构上的探索也给行业留下了宝贵的遗产,而不是像某些项目那样,fork 一下代码,改个 logo,发个币就开始收割,我甚至觉得,Plasma 的这种“复古”恰恰是通向未来的捷径,因为我们终于意识到,区块链不是万能的,它不应该承载所有的计算,它只需要做好最底层的那一件事:价值的确权与转移。
最后再啰嗦一句,别看现在币价波动挺大,技术的基本面是不会骗人的,我看好 Plasma 不是因为我相信它能翻多少倍,而是因为我在它的架构里看到了解决拥堵问题的另一种可能,一种不依赖堆砌 Rollup 而是回归账本本质的可能,这种直觉在过去几年里帮我避开了不少坑,希望这次也没错,当然,如果它真的做到了大规模支付的落地,那今天的这些技术分歧和争论,都将成为教科书里无关痛痒的注脚,而我们,都是这场宏大实验的小白鼠。#plasma $XPL
都在喊 AI Agent 大爆发,但谁来给它们付 Gas 账单? 这一轮 AI 叙事看下来,感觉市场挺浮躁的,大家都在拿 PPT 讲故事,真正能跑通逻辑的没几个。前两天我在测几个号称 Web3 智能龙头的测试网,跑个简单的 Agent 交互,Gas 费烧得我肉疼,这要是以后大规模商用,哪怕是 L2 也扛不住这种吞吐量。这时候回过头看 Vanar 的架构,才觉得这帮人是真的懂 AI 的痛点,比起那些还在硬蹭算力概念的项目,Vanar 明显是想解决更实际的生存问题。 区别于现在市面上那些只管堆砌算力、不管落地成本的模块化方案,@Vanar 给我的感觉更像是给 AI 铺了一条专用高速路。特别是深入研究他们对 NVIDIA 技术栈的集成后,发现这不是简单的营销噱头,而是真在底层做了 CUDA 核心的兼容。这就很有意思了,对比我之前看好的某几个高性能公链,Vanar 的 Neutron 架构把数据验证做得极其克制且高效。它不要求把所有训练历史都硬塞上链,而是通过元数据验证来确保可信度,这种设计对于需要高频读写的 AI 应用来说简直是救命稻草。 说实话,现在的行业误区在于过分迷信“去中心化算力”这个宏大叙事,却忽略了应用落地的经济账。如果每一个 AI 的推理步骤都要消耗几十美分的过路费,那链上智能永远是伪命题。Vanar 在环保和能效上的死磕,虽然看着不如某些 meme 币那样性感,但这种低能耗、低延迟的环境才是企业级用户进场的前提。我看好它不是因为什么复杂的代币模型,仅仅是因为它解决了一个最朴素的问题:让 AI 在链上能“活”得起。别总盯着短期的 K 线跳动,这种能真正承载商业级流量的基建,等潮水退去后才会显现出真正的护城河。#vanar $VANRY
都在喊 AI Agent 大爆发,但谁来给它们付 Gas 账单?
这一轮 AI 叙事看下来,感觉市场挺浮躁的,大家都在拿 PPT 讲故事,真正能跑通逻辑的没几个。前两天我在测几个号称 Web3 智能龙头的测试网,跑个简单的 Agent 交互,Gas 费烧得我肉疼,这要是以后大规模商用,哪怕是 L2 也扛不住这种吞吐量。这时候回过头看 Vanar 的架构,才觉得这帮人是真的懂 AI 的痛点,比起那些还在硬蹭算力概念的项目,Vanar 明显是想解决更实际的生存问题。
区别于现在市面上那些只管堆砌算力、不管落地成本的模块化方案,@Vanarchain 给我的感觉更像是给 AI 铺了一条专用高速路。特别是深入研究他们对 NVIDIA 技术栈的集成后,发现这不是简单的营销噱头,而是真在底层做了 CUDA 核心的兼容。这就很有意思了,对比我之前看好的某几个高性能公链,Vanar 的 Neutron 架构把数据验证做得极其克制且高效。它不要求把所有训练历史都硬塞上链,而是通过元数据验证来确保可信度,这种设计对于需要高频读写的 AI 应用来说简直是救命稻草。
说实话,现在的行业误区在于过分迷信“去中心化算力”这个宏大叙事,却忽略了应用落地的经济账。如果每一个 AI 的推理步骤都要消耗几十美分的过路费,那链上智能永远是伪命题。Vanar 在环保和能效上的死磕,虽然看着不如某些 meme 币那样性感,但这种低能耗、低延迟的环境才是企业级用户进场的前提。我看好它不是因为什么复杂的代币模型,仅仅是因为它解决了一个最朴素的问题:让 AI 在链上能“活”得起。别总盯着短期的 K 线跳动,这种能真正承载商业级流量的基建,等潮水退去后才会显现出真正的护城河。#vanar $VANRY
看着满屏的AI+Crypto焦虑,我把节点迁到了Vanar:一次关于伪需求与真基建的深度复盘昨晚盯着屏幕上跳动的Gas费和拥堵的Mempool数据,那种熟悉的无力感又涌上来了,这已经是我在这个所谓的“AI叙事爆发年”里第三次感到逻辑崩塌,市面上充斥着各种缝合怪项目,拿着GPT-4的API接口套个壳,再发个币,就敢喊自己是AI公链,这种荒诞的景象像极了2017年的ICO狂潮,只不过当年的白皮书换成了现在的Hugging Face链接。 作为一名在链上摸爬滚打多年的开发者,我有着极度务实甚至冷酷的评判标准,我不看你PPT画得有多科幻,我只关心我的代码跑在上面会不会因为Gas飙升而报错,我的Agent能不能在毫秒级内完成一次无需许可的套利。这段时间我把市面上号称“高性能”的公链几乎跑了个遍,从Solana的本地费率市场到Near的分片机制,再到Base的各种OP Stack魔改,最后鬼使神差地测到了@Vanar ,这种感觉很微妙,就像你在满是躁动重金属摇滚的夜店里,突然走进了一间隔音极好的精密实验室。 这不是一篇吹捧文,恰恰相反,我是带着挑刺的心态去读Vanar文档的,起初我对它所谓的“AI-First”非常不屑,毕竟在这个圈子里,概念造假是常态,但当我真正尝试在Vanar测试网上部署那个为此调试了半个月的链上推理模型时,我发现事情有点不对劲,以往在以太坊L2上,为了把一次简单的AI模型权重验证放上链,我需要写大量的胶水代码来处理链下计算和链上验证的异步问题,那种割裂感就像是用电报机在发短视频,但在Vanar的架构里,这种体验消失了,它底层的资源调度逻辑似乎天生就是为高并发的机器通信设计的,而不是为人肉点击设计的。 拿Solana做个对比,Solana确实快,这点没人否认,但它的快是一种“洪水式”的快,为了维持高TPS,它牺牲了太多的状态确定性,对于DeFi degens来说,交易失败重发一次无非是多点一下鼠标,但对于AI Agent来说,一次执行失败可能意味着整个推理逻辑链条的断裂,我的Agent在Solana上运行时,经常因为局部热点导致交易被丢弃,这种不确定性是自动化经济的噩梦,而Vanar给我的感觉是“稳”,这种稳不是慢,而是一种工业级的确定性,它的Gas模型不仅仅是便宜,更重要的是可预测,这对于企业级的AI应用来说简直是救命稻草,想象一下,如果你的AI服务成本会随着某只土狗币的暴涨而波动,哪家正经公司敢把业务搬上来。 我在深入研究Vanar的技术栈时,发现了一个很有意思的细节,也就是他们对EVM的兼容处理,很多所谓的“高性能链”为了追求速度,搞了一套全新的虚拟机语言,美其名曰创新,实则是在制造开发者孤岛,Move语言再好,我也没那个精力去重写我所有的Solidity合约,Vanar聪明的地方在于,它没有去挑战开发者的使用习惯,而是在底层设施上做了外科手术般的改造,这让我想起了当年的BSC,但Vanar明显更懂现在的痛点,它不仅兼容,更是把Google Cloud和Nvidia的算力资源做了一种很诡异但有效的映射。 说到这里我不得不吐槽一下Near,Near的分片技术从学术角度看确实优雅,但在实际应用中,跨分片的通信延迟简直让人抓狂,我的一个跨合约调用在Near上跑起来总有一种“在迷宫里找出口”的滞涩感,而Vanar的单体架构在处理原子化交易时表现出的顺滑度,让我重新思考了单体链和模块化链的优劣,也许在AI高频交互的场景下,模块化带来的通信开销本身就是一种累赘,Vanar这种“重单体”的思路,反而可能是一条被忽视的捷径。 当然Vanar也不是没有槽点,作为一个深度的链上用户,我对它的钱包适配体验还是颇有微词的,虽然兼容MetaMask,但在一些特定的AI数据签名环节,UX交互流程显得过于极客,缺乏那种把小白用户当傻瓜照顾的细腻,而且目前的生态应用确实还比较单薄,看着隔壁Base上每天土狗满天飞的热闹景象,Vanar这边安静得像个图书馆,但这恰恰是我觉得它被低估的原因,在这个喧嚣的市场里,安静意味着开发者在干活,而不是在喊单。 我特别关注了Vanar对于“数据隐私”的处理方式,这是目前AI+Crypto赛道最大的雷区,Worldcoin那种激进的生物识别采集让我感到生理不适,而Vanar似乎选择了一条更温和的中间路线,它利用零知识证明技术在底层构建了一个数据隔离层,这让企业级的数据敢于上链,我看代码的时候就在想,这帮人是真的懂B端客户在怕什么,他们怕的不是技术不先进,而是怕数据裸奔,这一点上,Vanar比那些只会喊“去中心化”口号的项目要成熟得多,它有一种Web2巨头做产品的严谨感,又不失Web3的自由度。 这两天我也在反思,为什么我们对“AI公链”的定义如此狭隘,现在的市场逻辑依然停留在“AI发币”的阶段,比如Fetch.ai或者SingularityNET,它们更多是在做一个去中心化的交易市场,而Vanar给我的感觉,它更像是在做铺路石,它不生产AI,它只是把路修得足够平、足够宽,让那些重型卡车般的AI模型能跑得起来,这种定位在币圈其实很吃亏,因为“修路”的故事远没有“造车”来得性感,没有那么多炫酷的代币经济学模型,只有枯燥的TPS、延迟和存储成本对比。 在测试过程中我还发现了一个被很多人忽略的竞品优势,那就是它与传统Web2接口的互操作性,在Polygon上,如果你想让智能合约去调用一个外部的Web2 API,你需要预言机,需要复杂的各种桥,流程繁琐且昂贵,Vanar似乎在原生层面上就对这种外部调用做了优化,我的一个测试脚本在调用链下气象数据触发链上交易时,响应速度快得让我以为是在跑本地服务器,这种“无感”的体验,才是Mass Adoption该有的样子,而不是让用户去理解什么是Oracle,什么是VRF。 我不禁想起了以太坊现在的窘境,Vitalik是伟大的,但以太坊现在的技术包袱太重了,L2的碎片化导致流动性被割裂成无数个小岛,我的AI Agent如果在Arbitrum上赚了钱,想去Optimism上花,中间的跨链成本和时间成本足以抹平我的利润,Vanar这种统一的流动性环境,对于未来的机器经济来说至关重要,机器不会像人一样去忍受跨链桥的等待时间,机器只追求效率,哪里效率高,算力就会流向哪里。 写着写着窗外的天都快亮了,看着Vanar浏览器上不断生成的区块高度,我突然有一种久违的踏实感,这几年我们在这个圈子里见惯了起高楼宴宾客楼塌了,太多项目死于过度承诺和交付不足,Vanar没有那种动不动就“颠覆谷歌”“拳打亚马逊”的狂妄,它更像是一个沉默的工匠,在默默打磨着齿轮的咬合度,我也承认,现在买入Vanar可能不是一个能让你一夜暴富的决定,它没有MEME币那种百倍的爆发力,甚至在牛市的初期会跑输大盘,因为它太重基本面了,而现在的市场只看情绪。 但如果你把时间拉长到三年,当AI Agent真正开始接管链上交易,当大部分虚浮的“AI概念币”因为无法落地而归零时,像Vanar这种真正具备承载能力的基建才会显露出它的獠牙,我把我的节点从那些拥挤的L2上撤了下来,全部部署到了Vanar上,这不仅是一次技术迁移,更是一次对未来赌注的重新下注,我不赌谁喊得声音大,我赌谁的代码跑得稳。 另外还要提一嘴那个被很多人忽视的生态合作伙伴名单,我不觉得Google Cloud的标志贴在官网上只是为了好看,深入挖掘你会发现他们在底层算力调度上是真的有数据交换的,这比那些单纯拿个AWS标以此充好的项目不知道高到哪里去了,这是一种深度的资源互换,意味着Vanar有机会直接触达那些Web2顶级的开发者资源,这才是真正的护城河。 在这个充满噪音的世界里,保持独立思考太难了,K线图会干扰你的判断,推特上的KOL会左右你的情绪,唯有代码不会撒谎,唯有真实的交互体验不会骗人,Vanar现在的价格在我看来是完全被低估的,市场还没有意识到“AI Native”和“AI Compatible”之间的巨大鸿沟,前者是基因里的进化,后者只是拙劣的模仿,我不敢说Vanar一定会成为最终的胜者,毕竟这个行业的黑天鹅太多了,但在这一刻,它是我见过的最接近“机器金融”愿景的形态。 最后想说的是,不要盲目跟风,也不要因为我这篇文章就无脑冲,去读读文档,去跑跑测试网,甚至去刁难一下他们的技术团队,你会得到属于你自己的答案,在这个只有偏执狂才能生存的行业里,Vanar这种“老派”的硬核作风,或许正是我们通向下一个时代的唯一船票,不管是作为开发者还是投资者,我选择相信我看得到的代码,而不是听得到的口号,毕竟在Web3的世界里,信任是昂贵的,而验证是免费的。#vanar $VANRY

看着满屏的AI+Crypto焦虑,我把节点迁到了Vanar:一次关于伪需求与真基建的深度复盘

昨晚盯着屏幕上跳动的Gas费和拥堵的Mempool数据,那种熟悉的无力感又涌上来了,这已经是我在这个所谓的“AI叙事爆发年”里第三次感到逻辑崩塌,市面上充斥着各种缝合怪项目,拿着GPT-4的API接口套个壳,再发个币,就敢喊自己是AI公链,这种荒诞的景象像极了2017年的ICO狂潮,只不过当年的白皮书换成了现在的Hugging Face链接。
作为一名在链上摸爬滚打多年的开发者,我有着极度务实甚至冷酷的评判标准,我不看你PPT画得有多科幻,我只关心我的代码跑在上面会不会因为Gas飙升而报错,我的Agent能不能在毫秒级内完成一次无需许可的套利。这段时间我把市面上号称“高性能”的公链几乎跑了个遍,从Solana的本地费率市场到Near的分片机制,再到Base的各种OP Stack魔改,最后鬼使神差地测到了@Vanarchain ,这种感觉很微妙,就像你在满是躁动重金属摇滚的夜店里,突然走进了一间隔音极好的精密实验室。
这不是一篇吹捧文,恰恰相反,我是带着挑刺的心态去读Vanar文档的,起初我对它所谓的“AI-First”非常不屑,毕竟在这个圈子里,概念造假是常态,但当我真正尝试在Vanar测试网上部署那个为此调试了半个月的链上推理模型时,我发现事情有点不对劲,以往在以太坊L2上,为了把一次简单的AI模型权重验证放上链,我需要写大量的胶水代码来处理链下计算和链上验证的异步问题,那种割裂感就像是用电报机在发短视频,但在Vanar的架构里,这种体验消失了,它底层的资源调度逻辑似乎天生就是为高并发的机器通信设计的,而不是为人肉点击设计的。
拿Solana做个对比,Solana确实快,这点没人否认,但它的快是一种“洪水式”的快,为了维持高TPS,它牺牲了太多的状态确定性,对于DeFi degens来说,交易失败重发一次无非是多点一下鼠标,但对于AI Agent来说,一次执行失败可能意味着整个推理逻辑链条的断裂,我的Agent在Solana上运行时,经常因为局部热点导致交易被丢弃,这种不确定性是自动化经济的噩梦,而Vanar给我的感觉是“稳”,这种稳不是慢,而是一种工业级的确定性,它的Gas模型不仅仅是便宜,更重要的是可预测,这对于企业级的AI应用来说简直是救命稻草,想象一下,如果你的AI服务成本会随着某只土狗币的暴涨而波动,哪家正经公司敢把业务搬上来。
我在深入研究Vanar的技术栈时,发现了一个很有意思的细节,也就是他们对EVM的兼容处理,很多所谓的“高性能链”为了追求速度,搞了一套全新的虚拟机语言,美其名曰创新,实则是在制造开发者孤岛,Move语言再好,我也没那个精力去重写我所有的Solidity合约,Vanar聪明的地方在于,它没有去挑战开发者的使用习惯,而是在底层设施上做了外科手术般的改造,这让我想起了当年的BSC,但Vanar明显更懂现在的痛点,它不仅兼容,更是把Google Cloud和Nvidia的算力资源做了一种很诡异但有效的映射。
说到这里我不得不吐槽一下Near,Near的分片技术从学术角度看确实优雅,但在实际应用中,跨分片的通信延迟简直让人抓狂,我的一个跨合约调用在Near上跑起来总有一种“在迷宫里找出口”的滞涩感,而Vanar的单体架构在处理原子化交易时表现出的顺滑度,让我重新思考了单体链和模块化链的优劣,也许在AI高频交互的场景下,模块化带来的通信开销本身就是一种累赘,Vanar这种“重单体”的思路,反而可能是一条被忽视的捷径。
当然Vanar也不是没有槽点,作为一个深度的链上用户,我对它的钱包适配体验还是颇有微词的,虽然兼容MetaMask,但在一些特定的AI数据签名环节,UX交互流程显得过于极客,缺乏那种把小白用户当傻瓜照顾的细腻,而且目前的生态应用确实还比较单薄,看着隔壁Base上每天土狗满天飞的热闹景象,Vanar这边安静得像个图书馆,但这恰恰是我觉得它被低估的原因,在这个喧嚣的市场里,安静意味着开发者在干活,而不是在喊单。
我特别关注了Vanar对于“数据隐私”的处理方式,这是目前AI+Crypto赛道最大的雷区,Worldcoin那种激进的生物识别采集让我感到生理不适,而Vanar似乎选择了一条更温和的中间路线,它利用零知识证明技术在底层构建了一个数据隔离层,这让企业级的数据敢于上链,我看代码的时候就在想,这帮人是真的懂B端客户在怕什么,他们怕的不是技术不先进,而是怕数据裸奔,这一点上,Vanar比那些只会喊“去中心化”口号的项目要成熟得多,它有一种Web2巨头做产品的严谨感,又不失Web3的自由度。
这两天我也在反思,为什么我们对“AI公链”的定义如此狭隘,现在的市场逻辑依然停留在“AI发币”的阶段,比如Fetch.ai或者SingularityNET,它们更多是在做一个去中心化的交易市场,而Vanar给我的感觉,它更像是在做铺路石,它不生产AI,它只是把路修得足够平、足够宽,让那些重型卡车般的AI模型能跑得起来,这种定位在币圈其实很吃亏,因为“修路”的故事远没有“造车”来得性感,没有那么多炫酷的代币经济学模型,只有枯燥的TPS、延迟和存储成本对比。
在测试过程中我还发现了一个被很多人忽略的竞品优势,那就是它与传统Web2接口的互操作性,在Polygon上,如果你想让智能合约去调用一个外部的Web2 API,你需要预言机,需要复杂的各种桥,流程繁琐且昂贵,Vanar似乎在原生层面上就对这种外部调用做了优化,我的一个测试脚本在调用链下气象数据触发链上交易时,响应速度快得让我以为是在跑本地服务器,这种“无感”的体验,才是Mass Adoption该有的样子,而不是让用户去理解什么是Oracle,什么是VRF。
我不禁想起了以太坊现在的窘境,Vitalik是伟大的,但以太坊现在的技术包袱太重了,L2的碎片化导致流动性被割裂成无数个小岛,我的AI Agent如果在Arbitrum上赚了钱,想去Optimism上花,中间的跨链成本和时间成本足以抹平我的利润,Vanar这种统一的流动性环境,对于未来的机器经济来说至关重要,机器不会像人一样去忍受跨链桥的等待时间,机器只追求效率,哪里效率高,算力就会流向哪里。
写着写着窗外的天都快亮了,看着Vanar浏览器上不断生成的区块高度,我突然有一种久违的踏实感,这几年我们在这个圈子里见惯了起高楼宴宾客楼塌了,太多项目死于过度承诺和交付不足,Vanar没有那种动不动就“颠覆谷歌”“拳打亚马逊”的狂妄,它更像是一个沉默的工匠,在默默打磨着齿轮的咬合度,我也承认,现在买入Vanar可能不是一个能让你一夜暴富的决定,它没有MEME币那种百倍的爆发力,甚至在牛市的初期会跑输大盘,因为它太重基本面了,而现在的市场只看情绪。
但如果你把时间拉长到三年,当AI Agent真正开始接管链上交易,当大部分虚浮的“AI概念币”因为无法落地而归零时,像Vanar这种真正具备承载能力的基建才会显露出它的獠牙,我把我的节点从那些拥挤的L2上撤了下来,全部部署到了Vanar上,这不仅是一次技术迁移,更是一次对未来赌注的重新下注,我不赌谁喊得声音大,我赌谁的代码跑得稳。
另外还要提一嘴那个被很多人忽视的生态合作伙伴名单,我不觉得Google Cloud的标志贴在官网上只是为了好看,深入挖掘你会发现他们在底层算力调度上是真的有数据交换的,这比那些单纯拿个AWS标以此充好的项目不知道高到哪里去了,这是一种深度的资源互换,意味着Vanar有机会直接触达那些Web2顶级的开发者资源,这才是真正的护城河。
在这个充满噪音的世界里,保持独立思考太难了,K线图会干扰你的判断,推特上的KOL会左右你的情绪,唯有代码不会撒谎,唯有真实的交互体验不会骗人,Vanar现在的价格在我看来是完全被低估的,市场还没有意识到“AI Native”和“AI Compatible”之间的巨大鸿沟,前者是基因里的进化,后者只是拙劣的模仿,我不敢说Vanar一定会成为最终的胜者,毕竟这个行业的黑天鹅太多了,但在这一刻,它是我见过的最接近“机器金融”愿景的形态。
最后想说的是,不要盲目跟风,也不要因为我这篇文章就无脑冲,去读读文档,去跑跑测试网,甚至去刁难一下他们的技术团队,你会得到属于你自己的答案,在这个只有偏执狂才能生存的行业里,Vanar这种“老派”的硬核作风,或许正是我们通向下一个时代的唯一船票,不管是作为开发者还是投资者,我选择相信我看得到的代码,而不是听得到的口号,毕竟在Web3的世界里,信任是昂贵的,而验证是免费的。#vanar $VANRY
感谢海豹老师仗义执言❤️
感谢海豹老师仗义执言❤️
快乐的小海豹
·
--
📐🤦‍♂️技术性分析|两位币安顶流间的抄袭指控:附详细证据链和原始文本
1️⃣ 前情和声明
近日,币安广场发生一起抄袭指控,一位顶流发帖指控另一位顶流,举报给币安后被驳回,表达了强烈的失望感。
⓵ 被抄袭文:
https://www.binance.com/zh-CN/square/post/35796825707177
⓶ 疑似抄袭文:
https://www.binance.com/zh-CN/square/post/35828295322393

申明:
⓵ 本人与两位当事人无私交、无私怨,仅属于隔着网线的陌生网友。
⓶ 本人发帖纯粹出于技术性好奇,以及简单的正义感。
⓷ 本人反对任何抄袭和洗稿行为,但本人不是法官,无意做任何道德审判,也不为任何人背书
⓸ 仅代表本人个人看法,欢迎提出不同意见。
2️⃣ 整体相似度评估
基于两篇文章内容,我从内容重合度(关键观点、比喻、数据描述的相似性)、文章结构框架(组织方式、分段逻辑)、逻辑链(论证流程和因果关系)三个维度进行比较。
总体而言,两篇文章高度相似,疑似抄袭文(以下简称A文)像是对疑似被抄袭文(以下简称B文)的浓缩、改写和提炼版。A文保留了B文的核心元素,但简化了表达、删减了细节,并调整了部分结构以使其更简洁。
•  整体相似度:约80-90%。A文几乎完全继承了B文的主题、核心观点和逻辑框架,但长度缩短(A文约600字,B文约2000字),通过合并段落和去除冗余来实现。标题和引言(如用户所述)相似度近100%,主体内容重合度高,但A文添加了少量原创表述(如“凌晨三点”开头),B文有更多扩展性讨论和个人反思。
•  抄袭类型:这属于“改写型抄袭”(paraphrasing plagiarism),A文未逐字复制,但核心句子、比喻和逻辑链条高度一致,疑似基于B文进行提炼和重组。如果是抄袭,A文可能是为了快速发布而对B文进行“精简版”处理。
以下从具体维度展开比较。
3️⃣ 标题相似度
•  A文:【深度复盘】拒绝做“木头底盘的法拉利”:为什么 Walrus 是 Web3 最后的拼图?
•  B文:拒绝做“木头底盘”的法拉利:为何 Walrus 是 Web3 大规模商用的最后一块拼图?
•  相似度:100%。核心比喻“木头底盘的法拉利”完全相同,主标题结构一致(拒绝…的法拉利:为什么/为何 Walrus 是…拼图)。A文添加了“【深度复盘】”作为前缀,B文在结尾添加了“大规模商用”和“一块”,但整体框架和关键词(如Walrus、Web3、拼图)一模一样。这表明A文直接借鉴了B文的标题创意,仅微调词序和细节。
4️⃣ 引言部分相似度
•  A文:以个人视角开头(凌晨三点盯着架构图,Web3焦虑),指出Sui如“法拉利引擎”但存储层如“木头底盘”,dApp数据中心化问题。提到啃透Walrus白皮书后的兴奋,称其修补行业Bug,非“Web3的百度网盘”。
•  B文:类似个人视角(盯着架构图发呆,Web3“身体”问题),优化共识层但忽略存储,dApp前端跑在AWS的割裂感,如“永动机引擎的法拉利,底盘却还是木头做的”。审视Walrus文档后的“拼图扣上”感觉,强调解决“不可能三角”(成本、去中心化、可编程性)。
•  相似度:100%(如用户所述)。核心比喻(法拉利与木头底盘)、问题描述(dApp中心化存储的“精神分裂”/“割裂感”)、兴奋点(白皮书/文档带来的“齿轮咬合”/“拼图扣上”)完全一致。A文更简洁,B文扩展了“不可能三角”和更多背景,但逻辑链相同:从Web3痛点→Walrus作为解决方案的顿悟。
5️⃣ 内容相似度
从关键观点、比喻和例子来看,A文的核心内容几乎全部源自B文,但通过同义替换和浓缩避免逐字复制。重合率约85%,A文删减了B文的扩展讨论(如开发者体验、节点架构细节、经济模型),但保留了所有主要论点。
⓵ 关键观点重合:
•  存储问题与纠删码:两者都批判传统存储的“傻大黑粗”/“简单粗暴的多副本复制”(备份10份/3倍副本),成本高、笨重。Walrus用“Red Stuff”/“Redundancy”的纠删码(Erasure Coding)取代:数据切碎/切片、编码、喷洒/分片;哪怕2/3节点挂掉/只需一小部分切片,就能数学还原。效果:用“算力”换“空间”,成本指数级下降。这部分内容几乎一模一样,A文直接简化B文的描述。
•  AI时代的作用:两者称Walrus是AI的“海马体”(承载记忆/长期记忆)。问题:AI模型权重文件存链上Gas费高,存AWS非去中心化。Walrus适合巨大静态数据集,高频读取。未来AI Agent链上思考,数据/训练数据存Walrus。A文直接复制了“海马体”比喻和逻辑,B文扩展了隐私、验证等,但核心相同。
•  与Sui的集成:Walrus作为Sui的“无限外挂”/“协调层”,剥离存储“脏活累活”,避免L1“胖”/状态爆炸。解决开发者存储费尴尬,适合全链游戏/资源地图UGC。A文浓缩了B文的“从指向数据到拥有数据”的革命描述。
•  其他重合:两者都提到Walrus非静态仓库,而是动态“流”;跨生态潜力(多链通用);抗审查、数据主权;未来愿景(如去中心化YouTube/媒体平台)。
⓶ 独有内容:
•  A文:少量原创,如“凌晨三点”具体时间、“齿轮咬合的快感”。
•  B文:扩展更多,如开发者体验(S3接口迁移、文档友好)、节点架构(分而治之、高内聚低耦合)、经济模型(资源定价、代币经济学、防公地悲剧)、对其他项目比较(Arweave冷存储、Celestia临时层)、个人反思(数据流向、硅基霸权)。
⓷ 语言风格:
A文更简练、口语化(“啃透”“祭出”“降维打击”);B文更学术、反思性(“信道编码理论”“化学反应”“有机体”)。但比喻(如法拉利、海马体)一致,表明内容源头相同。
6️⃣ 文章结构框架相似度
•  A文:清晰编号结构(一、二、三),每个部分一个主题:一(纠删码告别备份时代)、二(AI海马体)、三(Sui无限外挂)。开头引言、结尾展望。框架紧凑,像提纲式。
•  B文:无编号,但自然段落分层:引言→存储问题与纠删码→数据可用性转变(NFT/全链游戏)→AI时代作用→开发者体验→市场定位(热存储)→战略地位与愿景→经济激励→结尾展望。结构更松散,像长文随笔。
•  相似度:约80%。A文像是B文的“框架提炼”:A文的三个部分对应B文的主体段落(纠删码→数据转变→AI→Sui集成),但A文合并了B文的扩展(如开发者体验、市场多样性融入结尾)。两者都以个人焦虑开头、Walrus顿悟过渡、主题展开、未来展望结尾。A文更结构化,B文更流畅连贯,但整体框架一致(如从痛点→技术突破→应用场景→长远影响)。
7️⃣ 逻辑链相似度
•  A文:逻辑链:Web3痛点(中心化存储)→Walrus技术(纠删码)→具体益处(成本低、AI存储、Sui优化)→长远变革(Web3商用单程票)。因果清晰:问题→解决方案→影响。
•  B文:类似链条:Web3痛点(存储忽略)→Walrus技术(纠删码、Sui集成)→益处扩展(成本、数据转变、AI、开发者体验、市场定位)→长远变革(Mass Adoption垫脚石、对数据主权的重构)。B文逻辑更层层递进,添加了反思环节(如为什么其他项目难落地、经济闭环)。
•  相似度:约90%。两者论证流程相同:从“为什么需要Walrus”(痛点)→“Walrus怎么解决”(技术)→“解决后有什么”(应用)→“长远意义”(变革)。A文是B文的简化版,逻辑链未变,但省略了B文的支线(如经济模型),保持主线连贯。这表明A文可能基于B文的逻辑骨架构建。
7️⃣ 结论
两篇文章在标题、引言、内容、结构和逻辑上高度重合,A文疑似对B文进行改写和浓缩,相似度足以构成抄袭指控(尤其在标题/引言100%的情况下)。
除了标题和引言肉眼可见外,尤其是「AI 的海马体」这个比喻。
这不是行业通用隐喻,而是明显的原作者个人表达风格。在两篇中同时出现,且承担同样论证功能,这是强相似性证据。
@币安广场 @币安中文社区 @Binance Square Official 呼吁官方重审此事,给当事人以公平。
8️⃣ 给我等创作者的教训
原文明显更翔实,字数是抄袭文的五倍,但流量不佳,因为在形式上有致命缺陷:
没有处理好分段,上千字黑压压地塞进一个自然段里,在移动设备上读起来很痛苦,人类几乎读不下去。
但抄袭者这一点优化的很好,小编题、短句分段、重点句加粗、结构更清晰。
这是原作吃亏的一大原因(不是全部),我们要规避。
9️⃣ 原始证据留存

#creatorpad $WAL
别被RWA概念骗了,机构入场真正缺的是这把钥匙 最近把@Dusk_Foundation 的Piecrust虚拟机文档彻底啃了一遍,顺手跑了下最新的测试节点,说实话,市面上绝大多数打着RWA旗号的项目,本质上还在玩“单机版”资产上链的过家家游戏。以太坊那种完全透明的账本,高盛看了都得摇头,谁愿意把自家的交易策略和资金底裤在大众眼皮底下裸奔?但如果完全搞隐私去做黑盒,SEC那边铁定过不了关,这就是目前RWA赛道最大的精神分裂。我看了一圈,也就Dusk提出的RegDeFi概念有点意思,它不是像竞品那样在应用层打补丁,而是直接在L1协议层把合规逻辑嵌进去了。 这里的核心技术是Citadel协议,它解决了我一直纠结的“身份与权限剥离”难题。简单来说,我不需要向每个DApp亮身份证,只用扔出一个零知识证明,证明“我有资格交易”就行。这种设计比Ondo那种单纯在智能合约层维护笨重白名单的方案要高明得多,后者不仅维护成本高,还牺牲了互操作性,而Dusk这种原生支持合规的架构,才可能承载真正的大资金。这好比一个是给老房子加装防盗门,一个是直接用防弹材料盖房子,底层的安全性天差地别。不过在测试过程中也发现点小毛病,目前的文档对开发者还是不够又好,特别是ZKP证明生成的效率在低端设备上跑起来有点吃力,风扇转得跟直升机似的,这块还需要团队继续打磨。技术演进向来残酷,当隐私不再是可选项而是基础设施时,这种能同时讨好监管和隐私巨鲸的Layer 1才会显出护城河,别整天盯着那些只会发推特的空气币了,真正能落地的技术往往都在没人注意的角落里迭代。#dusk $DUSK
别被RWA概念骗了,机构入场真正缺的是这把钥匙
最近把@Dusk 的Piecrust虚拟机文档彻底啃了一遍,顺手跑了下最新的测试节点,说实话,市面上绝大多数打着RWA旗号的项目,本质上还在玩“单机版”资产上链的过家家游戏。以太坊那种完全透明的账本,高盛看了都得摇头,谁愿意把自家的交易策略和资金底裤在大众眼皮底下裸奔?但如果完全搞隐私去做黑盒,SEC那边铁定过不了关,这就是目前RWA赛道最大的精神分裂。我看了一圈,也就Dusk提出的RegDeFi概念有点意思,它不是像竞品那样在应用层打补丁,而是直接在L1协议层把合规逻辑嵌进去了。
这里的核心技术是Citadel协议,它解决了我一直纠结的“身份与权限剥离”难题。简单来说,我不需要向每个DApp亮身份证,只用扔出一个零知识证明,证明“我有资格交易”就行。这种设计比Ondo那种单纯在智能合约层维护笨重白名单的方案要高明得多,后者不仅维护成本高,还牺牲了互操作性,而Dusk这种原生支持合规的架构,才可能承载真正的大资金。这好比一个是给老房子加装防盗门,一个是直接用防弹材料盖房子,底层的安全性天差地别。不过在测试过程中也发现点小毛病,目前的文档对开发者还是不够又好,特别是ZKP证明生成的效率在低端设备上跑起来有点吃力,风扇转得跟直升机似的,这块还需要团队继续打磨。技术演进向来残酷,当隐私不再是可选项而是基础设施时,这种能同时讨好监管和隐私巨鲸的Layer 1才会显出护城河,别整天盯着那些只会发推特的空气币了,真正能落地的技术往往都在没人注意的角落里迭代。#dusk $DUSK
撕下RWA的遮羞布:在链上“裸奔”时代,Dusk的Piecrust VM和合规隐私架构到底是不是伪命题?这两天盯着屏幕上的Etherscan数据发呆,看着那一串串毫无遮掩的地址交互,突然有一种在闹市区裸奔的荒谬感,我们整天喊着Web3的主权,结果连最基本的遮羞布都没有,所有的资产转移、DeFi交互路径、持仓成本在链上就像被剥了皮的洋葱,辣眼睛且毫无尊严。也就是在这个焦虑的空档,我重新翻开了@Dusk_Foundation 的GitHub仓库和最近的技术文档,甚至把他们的Piecrust VM代码拉下来跑了一遍,这种感觉很微妙,就像是在充满噪音的房间里突然戴上了降噪耳机。我不打算聊什么币价,也不想扯什么百倍千倍的梦,今天就想以一个技术老韭菜的视角,单纯从架构逻辑、竞品差异和实际体验上,聊聊Dusk到底是在搞真正的基础设施,还是在RWA这个大词下面甚至连地基都没打好的空中楼阁。 很多朋友一听到“隐私公链”四个字,脑子里蹦出来的要么是Monero那种彻底的黑盒,要么就是Tornado Cash这种被监管追着打的混币器,但Dusk给我的感觉完全是另一个物种,它不是为了让你在链上干坏事,而是为了让那些穿西装打领带的机构敢把钱放上来。我在测试网折腾Piecrust VM的时候,最大的感触不是“隐秘”,而是“丝滑”,这听起来很反直觉,因为在以往的经验里,隐私计算等于龟速,等于昂贵的Gas,等于 interminable 的证明生成时间。但Piecrust这东西有点意思,它没有沿用EVM那种笨重的存储逻辑,而是搞了一套基于零拷贝(Zero-Copy)的内存架构,这在工程上是个极度硬核的取舍。哪怕是宣称高性能的Solana,在处理复杂隐私逻辑时也得喘口气,而Dusk这种底层优化意味着智能合约在读取状态时不需要进行昂贵的序列化和反序列化操作,直接利用内存映射。这让我想起当年第一次用Rust重写C++项目的爽感,这种底层的洁癖在现在的公链圈子里太稀缺了,大部分项目方只想fork个EVM改改参数就出来圈钱,根本没人愿意去啃VM这块硬骨头。 咱们得聊聊这个所谓的“可审计隐私”,这应该是Dusk最容易被误解,也最具争议的地方。Mina或者是Aleo这些竞品,它们的技术路线大多还在追求极致的ZK证明效率或者递归证明的压缩比,这当然很牛,但在商业逻辑上其实有点走偏了。我在研究Citadel协议的时候,发现Dusk团队其实是在做一个极其大胆的赌博,他们赌的是未来的金融世界不是去中心化的乌托邦,而是一个强监管与去中心化技术共存的怪胎。Citadel的设计允许用户在不暴露具体身份的前提下证明自己满足了KYC/AML的要求,这种Soulbound token(SBT)或者说ZK-ID的玩法,其实是在给机构资金开后门。试想一下,BlcakRock(手滑,BlackRock)如果要发行代币化国债,它绝对不可能允许投资者的名单在链上公开,但监管机构又必须随时能查,以太坊目前的架构根本做不到这一点,除非搞个私有链,但私有链又没有流动性。Dusk就在这中间卡了一个身位,用ZK proofs把合规性变成了代码逻辑的一部分,而不是外挂的补丁。这点上它比Polygon ID或者其他基于DID的方案都要底层得多,它是写在共识层里的。 说到共识,这里不得不吐槽一下以太坊的Finality。我们在做DeFi高频交易的时候,最怕的就是回滚,以太坊那种概率性终局(Probabilistic Finality)对于散户玩玩土狗还行,对于真正的证券交易简直就是灾难。你敢想象纽交所的交易在两分钟后告诉你“对不起,刚才那笔不算”吗?Dusk搞的这个SBA(Segregated Byzantine Agreement)共识,有点像是把PoS和PBFT揉在了一起,追求的是确定性终局(Deterministic Finality)。我在查看他们共识层的代码逻辑时,发现他们把验证权的抽取和区块提议做了数学上的隔离,不仅是为了防女巫攻击,更是为了让那笔交易一旦打包就铁板钉钉。这种设计明显就是冲着清算结算那一层去的,比起单纯追求TPS的数据党,这种对“确定性”的执着反而更像金融工程的思维。 当然,吹了这么多技术架构,实际用起来也不是没有槽点。我在跑全节点同步的时候,偶尔还是会遇到网络握手失败的情况,虽然日志里显示的错误代码很隐晦,推测是P2P层的某些gossip协议还没优化到极致。而且目前的生态应用确实太少了,这就是所谓“高性能隐私链”的通病,地基打得再好,上面没盖房子也是白搭。现在的Dusk网络就像是一个装修豪华的空城,开发者文档虽然写得像论文一样严谨,但对于习惯了Solidity一把梭的脚本小子来说,门槛还是有点高。你要用Rusk语言,你要理解ZK电路的约束逻辑,这比在以太坊上发个ERC-20难了不止一个数量级。但这可能也是好事,天然筛选掉了一批只想发盘子的诈骗项目,留下来的大概率是真想搞点复杂的DeFi或者RWA应用的硬核玩家。 我也对比了Aztec这种Layer 2的隐私方案。Aztec很强,在以太坊上做Rollup,安全性继承主网,但问题在于互操作性。Layer 2的资产要跨回Layer 1,或者不同Layer 2之间交互,那个破碎感太强了,而且ZK-Rollup目前的生成证明成本依然不低。Dusk作为一个独立的Layer 1,虽然放弃了以太坊的直接安全性,但换来的是原子性的隐私可组合性。这是什么意思呢?就是我在Dusk上做一个借贷,抵押品的状态和借贷的凭证可以在同一个区块内完成隐私转换,而不需要跨桥,不需要等待挑战期。这种原生性对于构建复杂的金融衍生品至关重要。我甚至觉得,Dusk未来的竞争对手可能不是其他公链,而是银行内部的结算系统,它更像是一个开源的、去中心化的Swift替代方案,而不是另一个为了炒作NFT而存在的赌场。 关于PLONK和Groth16的选择,这又是一个暴露技术品味的地方。早期的隐私项目喜欢用Groth16,因为证明小,验证快,但那个Trusted Setup(可信设置)简直就是达摩克利斯之剑,每次升级都得搞个仪式,甚至要还要把废弃的电脑砸烂拍视频以证清白,太中二也太不灵活了。Dusk全面转向PLONK,利用其Universal SRS(通用参考串)特性,意味着协议升级不需要重置整个网络的安全参数。这在合规环境里太重要了,因为监管政策是会变的,今天合规的代码明天可能就不合规了,如果你每改一行代码都要重新搞一遍全网仪式,那项目早就死了。这种对Updatability(可更新性)的重视,说明团队脑子里想的是长期的运维,而不是发完币就跑。 其实静下心来看,Dusk走的这条路是一条极度孤独且枯燥的路。在现在的币圈,大家都在追AI meme,在追高性能并行EVM,在追比特币Layer 2,谁还会去关心底层的虚拟机是怎么管理内存的?谁会关心零知识证明的电路是怎么优化的?但恰恰是这种枯燥,让我觉得安心。我在翻看他们之前对于Poseidon哈希函数的优化的commit时,看到开发者在注释里写的一段关于抗碰撞性的推导,那种严谨程度甚至让我怀疑他们是不是不仅招了工程师,还养了一群数学家。在这个浮躁的行业里,愿意花几年时间去打磨一个VM,去死磕一个共识算法的团队,要么是傻子,要么就是看到了大多数人没看到的未来。 我们再回到RWA这个话题,现在的RWA赛道其实挺虚的,很多项目就是把线下的债券合同扫个描传到链上,或者是搞个SPV(特殊目的实体)做代持,本质上还是信任中介,区块链在里面就是个记账本。但Dusk的野心在于,它想让资产的发行、交易、清算、合规审查全部在链上闭环完成。通过XSC(Confidential Security Contract)标准,它可以让代币本身自带规则。比如这个代币只能在这个国家的IP地址交易,或者只能转给过了KYC的地址,这些规则不是由中心化的交易所服务器控制的,而是刻在代币的智能合约里的。这种“智能”才是Smart Contract的本意,现在的很多合约充其量只能叫“自动脚本”。如果未来真的有数万亿美金的传统资产要上链,它们绝对不会选择一个任何人都能窥探交易策略的平台,也不会选择一个由于网络拥堵gas费飙升到几百刀的平台,它们需要的是隐私、确定性、合规性和低成本,目前看了一圈,能同时把这四个点要在架构层面讲圆了的,Dusk算是一个。 至于缺点,除了刚才说的生态冷清和开发门槛高,还有一个隐忧就是ZK证明的算力需求。虽然Piecrust优化了执行效率,但在高并发下,节点的负载依然是个未知数。我现在跑测试节点还是比较轻松的,因为没啥人用,一旦主网上线,大量复杂的隐私交易涌入,那些只靠轻节点或者低配VPS的验证者能不能扛得住,会不会导致网络中心化,这都是需要实战检验的。而且,隐私计算的硬件加速(ASIC/FPGA)目前还没完全普及,这可能会是限制吞吐量的一个物理瓶颈。 写到这,杯子里的咖啡都凉了。这几天沉浸在代码和白皮书里,反而治好了我的行情焦虑。在这个充满了巨大的庞氏骗局和空气叙事的市场里,看到有人在认认真真地用数学构建信任,用代码解决隐私和监管这对死敌的矛盾,本身就是一种慰藉。Dusk未必能成为下一个以太坊,它可能太超前,也可能倒在生态爆发的前夜,但它所代表的那种技术审美——即在不牺牲去中心化的前提下拥抱现实世界的复杂性,绝对是Web3走向成熟的必经之路。对于我这种厌倦了只有赌场没有产业的Defi老玩家来说,哪怕只是为了这套优雅的Piecrust VM和硬核的零知识证明架构,我也愿意在钱包里留一点位置,不是为了暴富,而是为了见证一种可能性的落地。毕竟,如果连隐私都要在裸奔中妥协,那我们折腾这么多年的区块链,到底是为了什么?#dusk $DUSK

撕下RWA的遮羞布:在链上“裸奔”时代,Dusk的Piecrust VM和合规隐私架构到底是不是伪命题?

这两天盯着屏幕上的Etherscan数据发呆,看着那一串串毫无遮掩的地址交互,突然有一种在闹市区裸奔的荒谬感,我们整天喊着Web3的主权,结果连最基本的遮羞布都没有,所有的资产转移、DeFi交互路径、持仓成本在链上就像被剥了皮的洋葱,辣眼睛且毫无尊严。也就是在这个焦虑的空档,我重新翻开了@Dusk 的GitHub仓库和最近的技术文档,甚至把他们的Piecrust VM代码拉下来跑了一遍,这种感觉很微妙,就像是在充满噪音的房间里突然戴上了降噪耳机。我不打算聊什么币价,也不想扯什么百倍千倍的梦,今天就想以一个技术老韭菜的视角,单纯从架构逻辑、竞品差异和实际体验上,聊聊Dusk到底是在搞真正的基础设施,还是在RWA这个大词下面甚至连地基都没打好的空中楼阁。
很多朋友一听到“隐私公链”四个字,脑子里蹦出来的要么是Monero那种彻底的黑盒,要么就是Tornado Cash这种被监管追着打的混币器,但Dusk给我的感觉完全是另一个物种,它不是为了让你在链上干坏事,而是为了让那些穿西装打领带的机构敢把钱放上来。我在测试网折腾Piecrust VM的时候,最大的感触不是“隐秘”,而是“丝滑”,这听起来很反直觉,因为在以往的经验里,隐私计算等于龟速,等于昂贵的Gas,等于 interminable 的证明生成时间。但Piecrust这东西有点意思,它没有沿用EVM那种笨重的存储逻辑,而是搞了一套基于零拷贝(Zero-Copy)的内存架构,这在工程上是个极度硬核的取舍。哪怕是宣称高性能的Solana,在处理复杂隐私逻辑时也得喘口气,而Dusk这种底层优化意味着智能合约在读取状态时不需要进行昂贵的序列化和反序列化操作,直接利用内存映射。这让我想起当年第一次用Rust重写C++项目的爽感,这种底层的洁癖在现在的公链圈子里太稀缺了,大部分项目方只想fork个EVM改改参数就出来圈钱,根本没人愿意去啃VM这块硬骨头。
咱们得聊聊这个所谓的“可审计隐私”,这应该是Dusk最容易被误解,也最具争议的地方。Mina或者是Aleo这些竞品,它们的技术路线大多还在追求极致的ZK证明效率或者递归证明的压缩比,这当然很牛,但在商业逻辑上其实有点走偏了。我在研究Citadel协议的时候,发现Dusk团队其实是在做一个极其大胆的赌博,他们赌的是未来的金融世界不是去中心化的乌托邦,而是一个强监管与去中心化技术共存的怪胎。Citadel的设计允许用户在不暴露具体身份的前提下证明自己满足了KYC/AML的要求,这种Soulbound token(SBT)或者说ZK-ID的玩法,其实是在给机构资金开后门。试想一下,BlcakRock(手滑,BlackRock)如果要发行代币化国债,它绝对不可能允许投资者的名单在链上公开,但监管机构又必须随时能查,以太坊目前的架构根本做不到这一点,除非搞个私有链,但私有链又没有流动性。Dusk就在这中间卡了一个身位,用ZK proofs把合规性变成了代码逻辑的一部分,而不是外挂的补丁。这点上它比Polygon ID或者其他基于DID的方案都要底层得多,它是写在共识层里的。
说到共识,这里不得不吐槽一下以太坊的Finality。我们在做DeFi高频交易的时候,最怕的就是回滚,以太坊那种概率性终局(Probabilistic Finality)对于散户玩玩土狗还行,对于真正的证券交易简直就是灾难。你敢想象纽交所的交易在两分钟后告诉你“对不起,刚才那笔不算”吗?Dusk搞的这个SBA(Segregated Byzantine Agreement)共识,有点像是把PoS和PBFT揉在了一起,追求的是确定性终局(Deterministic Finality)。我在查看他们共识层的代码逻辑时,发现他们把验证权的抽取和区块提议做了数学上的隔离,不仅是为了防女巫攻击,更是为了让那笔交易一旦打包就铁板钉钉。这种设计明显就是冲着清算结算那一层去的,比起单纯追求TPS的数据党,这种对“确定性”的执着反而更像金融工程的思维。
当然,吹了这么多技术架构,实际用起来也不是没有槽点。我在跑全节点同步的时候,偶尔还是会遇到网络握手失败的情况,虽然日志里显示的错误代码很隐晦,推测是P2P层的某些gossip协议还没优化到极致。而且目前的生态应用确实太少了,这就是所谓“高性能隐私链”的通病,地基打得再好,上面没盖房子也是白搭。现在的Dusk网络就像是一个装修豪华的空城,开发者文档虽然写得像论文一样严谨,但对于习惯了Solidity一把梭的脚本小子来说,门槛还是有点高。你要用Rusk语言,你要理解ZK电路的约束逻辑,这比在以太坊上发个ERC-20难了不止一个数量级。但这可能也是好事,天然筛选掉了一批只想发盘子的诈骗项目,留下来的大概率是真想搞点复杂的DeFi或者RWA应用的硬核玩家。
我也对比了Aztec这种Layer 2的隐私方案。Aztec很强,在以太坊上做Rollup,安全性继承主网,但问题在于互操作性。Layer 2的资产要跨回Layer 1,或者不同Layer 2之间交互,那个破碎感太强了,而且ZK-Rollup目前的生成证明成本依然不低。Dusk作为一个独立的Layer 1,虽然放弃了以太坊的直接安全性,但换来的是原子性的隐私可组合性。这是什么意思呢?就是我在Dusk上做一个借贷,抵押品的状态和借贷的凭证可以在同一个区块内完成隐私转换,而不需要跨桥,不需要等待挑战期。这种原生性对于构建复杂的金融衍生品至关重要。我甚至觉得,Dusk未来的竞争对手可能不是其他公链,而是银行内部的结算系统,它更像是一个开源的、去中心化的Swift替代方案,而不是另一个为了炒作NFT而存在的赌场。
关于PLONK和Groth16的选择,这又是一个暴露技术品味的地方。早期的隐私项目喜欢用Groth16,因为证明小,验证快,但那个Trusted Setup(可信设置)简直就是达摩克利斯之剑,每次升级都得搞个仪式,甚至要还要把废弃的电脑砸烂拍视频以证清白,太中二也太不灵活了。Dusk全面转向PLONK,利用其Universal SRS(通用参考串)特性,意味着协议升级不需要重置整个网络的安全参数。这在合规环境里太重要了,因为监管政策是会变的,今天合规的代码明天可能就不合规了,如果你每改一行代码都要重新搞一遍全网仪式,那项目早就死了。这种对Updatability(可更新性)的重视,说明团队脑子里想的是长期的运维,而不是发完币就跑。
其实静下心来看,Dusk走的这条路是一条极度孤独且枯燥的路。在现在的币圈,大家都在追AI meme,在追高性能并行EVM,在追比特币Layer 2,谁还会去关心底层的虚拟机是怎么管理内存的?谁会关心零知识证明的电路是怎么优化的?但恰恰是这种枯燥,让我觉得安心。我在翻看他们之前对于Poseidon哈希函数的优化的commit时,看到开发者在注释里写的一段关于抗碰撞性的推导,那种严谨程度甚至让我怀疑他们是不是不仅招了工程师,还养了一群数学家。在这个浮躁的行业里,愿意花几年时间去打磨一个VM,去死磕一个共识算法的团队,要么是傻子,要么就是看到了大多数人没看到的未来。
我们再回到RWA这个话题,现在的RWA赛道其实挺虚的,很多项目就是把线下的债券合同扫个描传到链上,或者是搞个SPV(特殊目的实体)做代持,本质上还是信任中介,区块链在里面就是个记账本。但Dusk的野心在于,它想让资产的发行、交易、清算、合规审查全部在链上闭环完成。通过XSC(Confidential Security Contract)标准,它可以让代币本身自带规则。比如这个代币只能在这个国家的IP地址交易,或者只能转给过了KYC的地址,这些规则不是由中心化的交易所服务器控制的,而是刻在代币的智能合约里的。这种“智能”才是Smart Contract的本意,现在的很多合约充其量只能叫“自动脚本”。如果未来真的有数万亿美金的传统资产要上链,它们绝对不会选择一个任何人都能窥探交易策略的平台,也不会选择一个由于网络拥堵gas费飙升到几百刀的平台,它们需要的是隐私、确定性、合规性和低成本,目前看了一圈,能同时把这四个点要在架构层面讲圆了的,Dusk算是一个。
至于缺点,除了刚才说的生态冷清和开发门槛高,还有一个隐忧就是ZK证明的算力需求。虽然Piecrust优化了执行效率,但在高并发下,节点的负载依然是个未知数。我现在跑测试节点还是比较轻松的,因为没啥人用,一旦主网上线,大量复杂的隐私交易涌入,那些只靠轻节点或者低配VPS的验证者能不能扛得住,会不会导致网络中心化,这都是需要实战检验的。而且,隐私计算的硬件加速(ASIC/FPGA)目前还没完全普及,这可能会是限制吞吐量的一个物理瓶颈。
写到这,杯子里的咖啡都凉了。这几天沉浸在代码和白皮书里,反而治好了我的行情焦虑。在这个充满了巨大的庞氏骗局和空气叙事的市场里,看到有人在认认真真地用数学构建信任,用代码解决隐私和监管这对死敌的矛盾,本身就是一种慰藉。Dusk未必能成为下一个以太坊,它可能太超前,也可能倒在生态爆发的前夜,但它所代表的那种技术审美——即在不牺牲去中心化的前提下拥抱现实世界的复杂性,绝对是Web3走向成熟的必经之路。对于我这种厌倦了只有赌场没有产业的Defi老玩家来说,哪怕只是为了这套优雅的Piecrust VM和硬核的零知识证明架构,我也愿意在钱包里留一点位置,不是为了暴富,而是为了见证一种可能性的落地。毕竟,如果连隐私都要在裸奔中妥协,那我们折腾这么多年的区块链,到底是为了什么?#dusk $DUSK
跌了90%还能沉淀11亿美金TVL,@Plasma 这盘子到底是死是活? 盯着XPL那根近乎垂直的下跌K线,大多数人估计直接就划走了,必竟跌了快90%谁敢伸手接飞刀?但我这人就是头铁,越是这种市场情绪冰点,越想去扒扒代码和链上数据,看看是不是错杀。最近被以太坊主网的Gas费折磨得不轻,转个U几十刀没了,这就显得@Plasma 的Paymaster机制有点意思。之前总觉得“零Gas”是个伪命题,或者是项目方补贴的营销噱头,但实测下来,稳定币转账确实做到了无感,这体检跟用支付宝差不多,直接把Web3最反人类的“必须先买原生代币做Gas”这个门槛给抹平了。相比之下,那些还在卷TPS的L2,如果不解决Gas支付体验这一层,很难真正让圈外人进来,这才是Mass Adoption该有的样子。 技术架构上虽然兼容EVM,开发者迁移没什么成本,但真正让我觉得有点底气的是它把状态定期锚定在比特币网络上。在现在这个动荡的行情下,借BTC的安全性背书算是个聪明的讨巧做法。链上资金不说谎,Maple Finance上的SyrupUSDT池子锁了11亿美金,这体量绝对不是散户冲出来的,机构愿意把大钱沉淀在这里,说明对底层的安全性是有共识的。再加上Rain cards和Oobit接入Visa网络这些落地场景,甚至搞了符合MiCA监管的欧圆稳定币EUROP,看着是想走合规支付的老路子,这在监管越来越严的背景下反而是张王牌。 当然槽点也是明摆着的,目前的验证者节点还是过于中心化,说白了还是团队在控盘,这点必须得认清,去中心化程度不够始终是个雷。生态也确实单薄得像张纸,除了转账和借贷,没啥好玩的Dapp,不像Solana那边土狗漫天飞那么热闹。现阶段它更像是一个偏科的优等生,基建做得挺扎实,但缺乏让用户留存的娱乐性应用。Web3喊了这么多年落地,最后还得看谁能让大妈都能无门槛转账。#plasma $XPL
跌了90%还能沉淀11亿美金TVL,@Plasma 这盘子到底是死是活?
盯着XPL那根近乎垂直的下跌K线,大多数人估计直接就划走了,必竟跌了快90%谁敢伸手接飞刀?但我这人就是头铁,越是这种市场情绪冰点,越想去扒扒代码和链上数据,看看是不是错杀。最近被以太坊主网的Gas费折磨得不轻,转个U几十刀没了,这就显得@Plasma 的Paymaster机制有点意思。之前总觉得“零Gas”是个伪命题,或者是项目方补贴的营销噱头,但实测下来,稳定币转账确实做到了无感,这体检跟用支付宝差不多,直接把Web3最反人类的“必须先买原生代币做Gas”这个门槛给抹平了。相比之下,那些还在卷TPS的L2,如果不解决Gas支付体验这一层,很难真正让圈外人进来,这才是Mass Adoption该有的样子。
技术架构上虽然兼容EVM,开发者迁移没什么成本,但真正让我觉得有点底气的是它把状态定期锚定在比特币网络上。在现在这个动荡的行情下,借BTC的安全性背书算是个聪明的讨巧做法。链上资金不说谎,Maple Finance上的SyrupUSDT池子锁了11亿美金,这体量绝对不是散户冲出来的,机构愿意把大钱沉淀在这里,说明对底层的安全性是有共识的。再加上Rain cards和Oobit接入Visa网络这些落地场景,甚至搞了符合MiCA监管的欧圆稳定币EUROP,看着是想走合规支付的老路子,这在监管越来越严的背景下反而是张王牌。
当然槽点也是明摆着的,目前的验证者节点还是过于中心化,说白了还是团队在控盘,这点必须得认清,去中心化程度不够始终是个雷。生态也确实单薄得像张纸,除了转账和借贷,没啥好玩的Dapp,不像Solana那边土狗漫天飞那么热闹。现阶段它更像是一个偏科的优等生,基建做得挺扎实,但缺乏让用户留存的娱乐性应用。Web3喊了这么多年落地,最后还得看谁能让大妈都能无门槛转账。#plasma $XPL
当我们还在为了省Gas费精算的时候,支付链的战争其实已经变天了:深度复盘Plasma重构后的真实体验与野心凌晨三点,盯着屏幕上那笔在Arbitrum上卡了半天的USDC转账,我突然有种极度的荒谬感,这都2026年了,我们这帮所谓的Web3原住民,居然还在为了几美金的Gas费跟拥堵的内存池博弈,更可笑的是,为了转这点稳定币,还得时刻盯着钱包里ETH的余额够不够,这种割裂的体验放在传统金融世界里简直就是笑话,也就是在这个被“去中心化”叙事绑架的圈子里,大家才会把这种反人性的交互当成理所当然,正好这几天一直在测Plasma的新网,那种对比感实在是太强烈了,强烈到我必须把这些充满偏见和个人情绪的观察记录下来,不谈币价,就谈这该死的基础设施到底能不能用。 说实话,之前我对@Plasma 这套架构是存疑的,毕竟V神几年前就把这玩意儿扫进历史垃圾堆了,大家都去搞Rollup,谁还记得这个“上一代”的扩容方案,但真正跑了一遍现在的XPL网络,我才意识到此Plasma非彼Plasma,团队显然是把Reth这东西吃透了,以前我们跑节点,Geth那个同步速度简直能把人气死,硬盘空间稍微小点都得崩,但这次体验Reth构建的执行层,那种丝般顺滑的感觉真的久违了,Rust写的客户端在内存管理和并发处理上确实是碾压级别的存在,这不仅仅是性能指标的问题,而是关乎到底能不能在大规模高并发下还能保持“不死机”的底气,我看了一下他们把状态转换逻辑直接嵌在共识层里的做法,这其实很大胆,甚至有点反直觉,因为现在的趋势是模块化,大家恨不得把DA、执行、结算全拆开,Plasma反其道而行之,搞了个高度集成的支付原语,这让我想起了苹果,软硬一体虽然封闭,但体验就是好。 最让我觉得“这就对了”的功能,其实是Gas抽象,在以太坊生态里,EIP-4337喊了那么久,真正落地的场景还是少,大部分用户还得忍受助记词和Gas费的双重折磨,但在Plasma上,我试着用USDT直接支付Gas,整个过程无感得让我以为自己在用支付宝,这背后的Paymaster机制虽然不是什么新发明,但能把这东西做到协议层原生支持,而不是靠钱包服务商去打补丁,这完全是两个维度的叙事,想象一下,你让一个刚进圈的小白去搞清楚什么是ETH,什么是Gas Price,什么是Gwei,他大概率直接卸载APP,但如果你告诉他,转账手续费直接从你转的钱里扣,这就很符合直觉,我在测试网转了几笔大额交易,特意去看了链上数据,那个确认速度确实快,而且是那种确定性的快,不是Solana那种偶尔还得担心会不会回滚的快,这里不得不提一下Solana,虽然大家总拿它当高性能公链的标杆,但那堆积如山的垃圾交易和时不时的宕机风险,总让我觉得那是建立在沙堆上的摩天大楼,而Plasma给我的感觉更像是一座还没装修完的钢筋混凝土堡垒,丑是丑了点,但地基打得是真的深。 当然,作为一名老韭菜,光看优点是不客观的,我也发现了一些让人不安的细节,比如在浏览器的验证者列表里,目前的中心化程度还是肉眼可见的高,虽然官方说这是为了早期网络的稳定性和安全性,但这套说辞我听了太多遍了,所有的公链在起步阶段都说自己会渐进式去中心化,但真正做到的没几个,Plasma现在的TPS跑得欢,很大程度上是因为节点少、共识达成快,一旦未来节点数量上来,那种号称秒级的Finality还能不能保住,我是打个问号的,而且我看代码的时候发现,他们为了追求极致的支付效率,在智能合约的通用性上是做了妥协的,这意味着如果你想在上面跑那种逻辑极其复杂的DeFi乐高,可能会遇到兼容性问题,这其实也是一种取舍,就像你不能指望一辆F1赛车去拉货,它生来就是为了在这个垂直赛道上跑第一的。 还有个很有意思的对比,现在市面上那么多L2,Optimism也好,Arbitrum也罢,本质上都是在吸以太坊的血,它们的安全虽然有主网兜底,但那个提款期和交互成本,始终是悬在头顶的达摩克里斯之剑,Plasma现在的定位更像是一个拥有独立主权但又跟以太坊保持暧昧关系的侧链进化体,它利用了以太坊的生态和流动性,却不想被以太坊的EVM包袱给拖死,这种“渣男”策略其实很聪明,特别是在稳定币支付这个战场,用户根本不在乎你是不是Layer 2,用户只在乎我的钱能不能秒到,手续费能不能忽略不计,这点上,Stable这种竞品也在做,但我总觉得Stable太过于依赖Tether背后的资源,缺乏一种技术上的原生美感,而Plasma这种死磕底层代码,试图从数学和密码学层面解决信任问题的路子,更对我的胃口。 昨天深夜为了测试极限情况,我写了个脚本搞了一波小规模的压力测试,模拟几千笔微小额支付同时发起,结果你猜怎么着,网络确实出现了一点拥堵,Gas费也有所飙升,但并没有出现交易丢失的情况,这说明他们的Mempool管理机制是经得起考验的,不像某些高性能链一压测就直接宕机,不过这也暴露出一个问题,就是当网络真正拥堵的时候,那个所谓的“稳定币付Gas”的汇率换算机制,会不会因为预言机的延迟而出现套利空间?我在白皮书里没找到太详细的解释,这可能是一个潜在的攻击面,毕竟黑客最喜欢这种跨资产结算的缝隙了,如果我是攻击者,我肯定会盯着这个Paymaster的资金池搞事情,看看能不能把里面的流动性给抽干。 再说回生态,现在上面的应用确实还比较贫瘠,除了几个官方扶持的钱包和支付网关,原生应用并不多,这其实是所有新公链的通病,技术再牛,没人用也是白搭,但我注意到社区里的开发者氛围还挺硬核的,大家讨论的都是Rust代码优化、零知识证明的聚合效率这种真东西,而不是满屏的“什么时候拉盘”,这种冷清但专注的氛围反倒让我觉得有点希望,毕竟上一轮牛市里那些吵吵嚷嚷的项目,现在坟头草都两米高了,真正的创新往往都是在无人问津的角落里发芽的,我现在最好奇的是,等到2026年下半年,那几个大的解锁节点到来的时候,这帮现在埋头写代码的人,能不能顶得住资本市场的血洗,毕竟技术理想在K线图面前,往往脆弱得不堪一击。 还有一个被很多人忽视的点,就是隐私,现在的支付链大多是全透明的,这对于商业支付其实是致命的,谁也不想让竞争对手知道自己的流水,Plasma虽然在路线图里提到了隐私计算的模块,但目前还没看到实装,如果他们能把ZK技术无缝集成进支付流程,做到既合规又有一定的隐私保护,那才是真正的杀手锏,现在这种裸奔的状态,只能说是完成了一个半成品,我试着用几个混币器的思路去操作,发现由于账户模型的限制,很难做到完全的匿名,这对于那些对资金流向敏感的大户来说,依然是个门槛。 写到这,窗外的天已经快亮了,看着测试节点还在后台默默地出块,每一行日志的跳动都代表着一次状态的变更,这种确定性让我感到莫名的安心,我们在这个充满了欺诈、泡沫和空气的行业里,寻找的不就是这样一种确定的代码逻辑吗?Plasma肯定不是完美的,它身上的毛病和它的野心一样明显,但至少它在尝试回答一个被我们忽略已久的问题:区块链到底能不能像发邮件一样简单地发钱?现在的答案可能还是“Maybe”,但看着Reth那个优雅的架构,我觉得离“Yes”已经不远了,比起那些还在PPT上画饼的Layer 3、Layer 4,我更愿意在这样有瑕疵但真实的代码上浪费时间,毕竟,在这场关于支付的终局之战里,最后的赢家一定不是那个喊得最响的,而是那个默默把路铺得最平的,至于XPL以后会怎么样,交给市场去博弈吧,我只关心我的下一行代码能不能在这个网络上跑得再快哪怕一毫秒。#plasma $XPL

当我们还在为了省Gas费精算的时候,支付链的战争其实已经变天了:深度复盘Plasma重构后的真实体验与野心

凌晨三点,盯着屏幕上那笔在Arbitrum上卡了半天的USDC转账,我突然有种极度的荒谬感,这都2026年了,我们这帮所谓的Web3原住民,居然还在为了几美金的Gas费跟拥堵的内存池博弈,更可笑的是,为了转这点稳定币,还得时刻盯着钱包里ETH的余额够不够,这种割裂的体验放在传统金融世界里简直就是笑话,也就是在这个被“去中心化”叙事绑架的圈子里,大家才会把这种反人性的交互当成理所当然,正好这几天一直在测Plasma的新网,那种对比感实在是太强烈了,强烈到我必须把这些充满偏见和个人情绪的观察记录下来,不谈币价,就谈这该死的基础设施到底能不能用。
说实话,之前我对@Plasma 这套架构是存疑的,毕竟V神几年前就把这玩意儿扫进历史垃圾堆了,大家都去搞Rollup,谁还记得这个“上一代”的扩容方案,但真正跑了一遍现在的XPL网络,我才意识到此Plasma非彼Plasma,团队显然是把Reth这东西吃透了,以前我们跑节点,Geth那个同步速度简直能把人气死,硬盘空间稍微小点都得崩,但这次体验Reth构建的执行层,那种丝般顺滑的感觉真的久违了,Rust写的客户端在内存管理和并发处理上确实是碾压级别的存在,这不仅仅是性能指标的问题,而是关乎到底能不能在大规模高并发下还能保持“不死机”的底气,我看了一下他们把状态转换逻辑直接嵌在共识层里的做法,这其实很大胆,甚至有点反直觉,因为现在的趋势是模块化,大家恨不得把DA、执行、结算全拆开,Plasma反其道而行之,搞了个高度集成的支付原语,这让我想起了苹果,软硬一体虽然封闭,但体验就是好。
最让我觉得“这就对了”的功能,其实是Gas抽象,在以太坊生态里,EIP-4337喊了那么久,真正落地的场景还是少,大部分用户还得忍受助记词和Gas费的双重折磨,但在Plasma上,我试着用USDT直接支付Gas,整个过程无感得让我以为自己在用支付宝,这背后的Paymaster机制虽然不是什么新发明,但能把这东西做到协议层原生支持,而不是靠钱包服务商去打补丁,这完全是两个维度的叙事,想象一下,你让一个刚进圈的小白去搞清楚什么是ETH,什么是Gas Price,什么是Gwei,他大概率直接卸载APP,但如果你告诉他,转账手续费直接从你转的钱里扣,这就很符合直觉,我在测试网转了几笔大额交易,特意去看了链上数据,那个确认速度确实快,而且是那种确定性的快,不是Solana那种偶尔还得担心会不会回滚的快,这里不得不提一下Solana,虽然大家总拿它当高性能公链的标杆,但那堆积如山的垃圾交易和时不时的宕机风险,总让我觉得那是建立在沙堆上的摩天大楼,而Plasma给我的感觉更像是一座还没装修完的钢筋混凝土堡垒,丑是丑了点,但地基打得是真的深。
当然,作为一名老韭菜,光看优点是不客观的,我也发现了一些让人不安的细节,比如在浏览器的验证者列表里,目前的中心化程度还是肉眼可见的高,虽然官方说这是为了早期网络的稳定性和安全性,但这套说辞我听了太多遍了,所有的公链在起步阶段都说自己会渐进式去中心化,但真正做到的没几个,Plasma现在的TPS跑得欢,很大程度上是因为节点少、共识达成快,一旦未来节点数量上来,那种号称秒级的Finality还能不能保住,我是打个问号的,而且我看代码的时候发现,他们为了追求极致的支付效率,在智能合约的通用性上是做了妥协的,这意味着如果你想在上面跑那种逻辑极其复杂的DeFi乐高,可能会遇到兼容性问题,这其实也是一种取舍,就像你不能指望一辆F1赛车去拉货,它生来就是为了在这个垂直赛道上跑第一的。
还有个很有意思的对比,现在市面上那么多L2,Optimism也好,Arbitrum也罢,本质上都是在吸以太坊的血,它们的安全虽然有主网兜底,但那个提款期和交互成本,始终是悬在头顶的达摩克里斯之剑,Plasma现在的定位更像是一个拥有独立主权但又跟以太坊保持暧昧关系的侧链进化体,它利用了以太坊的生态和流动性,却不想被以太坊的EVM包袱给拖死,这种“渣男”策略其实很聪明,特别是在稳定币支付这个战场,用户根本不在乎你是不是Layer 2,用户只在乎我的钱能不能秒到,手续费能不能忽略不计,这点上,Stable这种竞品也在做,但我总觉得Stable太过于依赖Tether背后的资源,缺乏一种技术上的原生美感,而Plasma这种死磕底层代码,试图从数学和密码学层面解决信任问题的路子,更对我的胃口。
昨天深夜为了测试极限情况,我写了个脚本搞了一波小规模的压力测试,模拟几千笔微小额支付同时发起,结果你猜怎么着,网络确实出现了一点拥堵,Gas费也有所飙升,但并没有出现交易丢失的情况,这说明他们的Mempool管理机制是经得起考验的,不像某些高性能链一压测就直接宕机,不过这也暴露出一个问题,就是当网络真正拥堵的时候,那个所谓的“稳定币付Gas”的汇率换算机制,会不会因为预言机的延迟而出现套利空间?我在白皮书里没找到太详细的解释,这可能是一个潜在的攻击面,毕竟黑客最喜欢这种跨资产结算的缝隙了,如果我是攻击者,我肯定会盯着这个Paymaster的资金池搞事情,看看能不能把里面的流动性给抽干。
再说回生态,现在上面的应用确实还比较贫瘠,除了几个官方扶持的钱包和支付网关,原生应用并不多,这其实是所有新公链的通病,技术再牛,没人用也是白搭,但我注意到社区里的开发者氛围还挺硬核的,大家讨论的都是Rust代码优化、零知识证明的聚合效率这种真东西,而不是满屏的“什么时候拉盘”,这种冷清但专注的氛围反倒让我觉得有点希望,毕竟上一轮牛市里那些吵吵嚷嚷的项目,现在坟头草都两米高了,真正的创新往往都是在无人问津的角落里发芽的,我现在最好奇的是,等到2026年下半年,那几个大的解锁节点到来的时候,这帮现在埋头写代码的人,能不能顶得住资本市场的血洗,毕竟技术理想在K线图面前,往往脆弱得不堪一击。
还有一个被很多人忽视的点,就是隐私,现在的支付链大多是全透明的,这对于商业支付其实是致命的,谁也不想让竞争对手知道自己的流水,Plasma虽然在路线图里提到了隐私计算的模块,但目前还没看到实装,如果他们能把ZK技术无缝集成进支付流程,做到既合规又有一定的隐私保护,那才是真正的杀手锏,现在这种裸奔的状态,只能说是完成了一个半成品,我试着用几个混币器的思路去操作,发现由于账户模型的限制,很难做到完全的匿名,这对于那些对资金流向敏感的大户来说,依然是个门槛。
写到这,窗外的天已经快亮了,看着测试节点还在后台默默地出块,每一行日志的跳动都代表着一次状态的变更,这种确定性让我感到莫名的安心,我们在这个充满了欺诈、泡沫和空气的行业里,寻找的不就是这样一种确定的代码逻辑吗?Plasma肯定不是完美的,它身上的毛病和它的野心一样明显,但至少它在尝试回答一个被我们忽略已久的问题:区块链到底能不能像发邮件一样简单地发钱?现在的答案可能还是“Maybe”,但看着Reth那个优雅的架构,我觉得离“Yes”已经不远了,比起那些还在PPT上画饼的Layer 3、Layer 4,我更愿意在这样有瑕疵但真实的代码上浪费时间,毕竟,在这场关于支付的终局之战里,最后的赢家一定不是那个喊得最响的,而是那个默默把路铺得最平的,至于XPL以后会怎么样,交给市场去博弈吧,我只关心我的下一行代码能不能在这个网络上跑得再快哪怕一毫秒。#plasma $XPL
都在喊AI公链,扒开外皮我看也就是个算力二道贩子 满屏都在刷 AI+DePIN,看得人脑壳疼,手里拿着几个所谓的热门 AI 币,实际跑了一下交互,那种滞涩感简直让人想砸键盘。大部分项目所谓的 AI 叙事,说白了就是把英伟达的散力倒卖一遍,做个去中心化租赁平台,这跟真正的 Web3 原生智能差了十万八千里。我最近盯着…@Vanar 的技术文档啃了两天,发现他们那个 TensorRT 集成有点东西,这盘琪下得比我想象中大。 咱们惯性思维觉得公链就是记账的,但 AI 模型推理要的是毫秒级并发,这两个逻辑天生互斥。你看现在的 ETH L2 甚至 Solana,虽然 TPS 吹得高,但真把一个 7B 参数的模型放上去跑跑看?光 Gas 费就能把项目方跑破产。这就好比你非要开着拖拉机去跑 F1 赛道,底盘都不对。Vanar 聪明在它不是硬塞,而是利用 CUDA-X AI 做了个专门的计算层,这种架构明显是想从底层解决推理任务的高频交互问题,而不是仅仅做个数据库。 特别是那个 Neutron 语义记忆层,这招挺绝。它把庞大的训练数据压缩成链上能读的种子,这就解决了那个最头疼的数据吞吐成本问题。如果不解决这个,所谓的 AI Agent 链上交互就是伪命题,毕竟谁也付不起每句话都要上链存储的钱。相比之下,市面上很多竞品还在纠结怎么把数据存得更分散,Vanar 已经在琢磨怎么让数据变轻了,这种技术嗅觉确实更敏锐一些。 如果未来的 Agent 经济真的爆发,肯定是机器对机器的自动结算,而不是人肉去点小狐狸钱包签名。Vanar 这种跟 Google Cloud 还有英伟达勾兑这么深的架构,明显是奔着合规的企业级吞吐量去的。别只盯着 K 线图上的涨跌,能在基础设施层把 AI 负载真正跑通的,才是下个周期的 Alpha,至于那些还在卖节点的 PPT 项目,趁早洗洗睡吧。#vanar $VANRY
都在喊AI公链,扒开外皮我看也就是个算力二道贩子
满屏都在刷 AI+DePIN,看得人脑壳疼,手里拿着几个所谓的热门 AI 币,实际跑了一下交互,那种滞涩感简直让人想砸键盘。大部分项目所谓的 AI 叙事,说白了就是把英伟达的散力倒卖一遍,做个去中心化租赁平台,这跟真正的 Web3 原生智能差了十万八千里。我最近盯着…@Vanarchain 的技术文档啃了两天,发现他们那个 TensorRT 集成有点东西,这盘琪下得比我想象中大。
咱们惯性思维觉得公链就是记账的,但 AI 模型推理要的是毫秒级并发,这两个逻辑天生互斥。你看现在的 ETH L2 甚至 Solana,虽然 TPS 吹得高,但真把一个 7B 参数的模型放上去跑跑看?光 Gas 费就能把项目方跑破产。这就好比你非要开着拖拉机去跑 F1 赛道,底盘都不对。Vanar 聪明在它不是硬塞,而是利用 CUDA-X AI 做了个专门的计算层,这种架构明显是想从底层解决推理任务的高频交互问题,而不是仅仅做个数据库。
特别是那个 Neutron 语义记忆层,这招挺绝。它把庞大的训练数据压缩成链上能读的种子,这就解决了那个最头疼的数据吞吐成本问题。如果不解决这个,所谓的 AI Agent 链上交互就是伪命题,毕竟谁也付不起每句话都要上链存储的钱。相比之下,市面上很多竞品还在纠结怎么把数据存得更分散,Vanar 已经在琢磨怎么让数据变轻了,这种技术嗅觉确实更敏锐一些。
如果未来的 Agent 经济真的爆发,肯定是机器对机器的自动结算,而不是人肉去点小狐狸钱包签名。Vanar 这种跟 Google Cloud 还有英伟达勾兑这么深的架构,明显是奔着合规的企业级吞吐量去的。别只盯着 K 线图上的涨跌,能在基础设施层把 AI 负载真正跑通的,才是下个周期的 Alpha,至于那些还在卖节点的 PPT 项目,趁早洗洗睡吧。#vanar $VANRY
别被高 TPS 骗了:我在 Vanar 和 Solana 跑完一轮 AI Agent 后的残酷真相最近这一周我几乎没怎么睡好觉,满脑子都是代码重构和 gas 费优化的破事。起因很简单,这轮牛市虽然都在喊 AI+Crypto 是主线,但市面上百分之九十的项目纯粹是在挂羊头卖狗肉,看着那一堆所谓的 AI Agent 平台,实际上就是个发币机器,本质上跟两年前的土狗盘没有任何区别。作为一个在这个圈子里摸爬滚打几年,写过合约也搞过量化策略的人,我实在受不了这种智商侮辱,于是决定自己动手,想看看在现有的基础设施上,到底能不能跑通一个真正具备“长期记忆”和“自主决策”能力的链上智能体。为了让这个实验更有对比性,我选择了目前号称性能最强的 Solana,以及最近在开发者社区讨论度开始起来的 @Vanar ,结果这一跑,直接把我的很多固有认知给跑崩了,甚至让我对整个 L1 的竞争格局有了完全不一样的看法。 先说说大家最迷信的 TPS 指标,这简直是 Web3 最大的谎言。在 Solana 上部署测试 Agent 的时候,我最直观的感受是“快,但是傻”。我写的一个简单逻辑是让 Agent 监控几个 DeFi 协议的收益率,并根据历史一周的数据波动来调整仓位。这在 Web2 的世界里,用 Python 写个脚本跑在 AWS 上也就是几行代码的事,但在 Solana 上简直就是灾难。虽然它处理交易的速度确实快,但问题在于链上并没有给 Agent 留出足够的“脑容量”。每一次我的 Agent 需要调用历史数据进行推理时,都需要从链下索引器去抓取,然后再把数据喂回链上进行计算,这一来一回,所谓的高 TPS 根本没有任何意义,因为瓶颈卡在了 I/O 和状态同步上。这就好比你给一个短跑运动员装了个金鱼的脑子,他跑得再快,每跑十米就得停下来问一句“我在哪?我要干嘛?”,这能叫智能吗?这充其量叫自动化的条件反射。 带着这种挫败感,我把同样的逻辑迁移到了 Vanar 上。说实话,一开始我对 Vanar 是带着偏见的,毕竟现在是个公链都在蹭 AI 的热度,我以为它也就是个搞了点概念营销的 EVM 侧链。但当我硬着头皮去啃它的技术文档,特别是关于 Resource Model 那部分时,我发现这帮人是在玩真的。Vanar 的架构设计里,最让我震惊的是它对“状态”和“计算”的解耦方式。在 Vanar 上,我的 Agent 不再是一个无状态的脚本,它更像是一个拥有独立硬盘空间的程序。我测试那个收益率分析策略时,惊讶地发现我可以把一部分热数据直接缓存在链上的特定存储层中,而且调用的 gas 费用并没有我想象中那么夸张。这不是魔法,这是在底层架构上就把 AI 模型需要的推理(Inference)环境考虑进去了。 这种差异在代码层面体现得淋漓尽致。在 Solana 或者以太坊上,为了省 gas,我必须把所有的逻辑极度压缩,甚至要把浮点数运算砍掉,因为链上根本跑不动复杂的数学模型。但在 Vanar 的测试网环境中,我居然成功运行了一个轻量级的机器学习回归模型,虽然比起 Web2 的服务器还是有延迟,但它是原生的、在链上完成的。这意味着什么?意味着这个 Agent 是完全去中心化的,没有人能拔掉它的电源,也没有人能篡改它的推理逻辑。之前我们在其他链上看到的所谓 AI 项目,大多是把计算放在链下服务器,链上只是存个哈希值,这种脱裤子放屁的“链下计算链上验证”模式,在 Vanar 这种原生架构面前显得非常笨重。 当然,Vanar 也不是没有槽点,这我也得客观说两句。目前的开发者工具链相比于以太坊生态还是显得太原始了,我在调试的时候遇到了好几次报错,文档里根本查不到,只能去 Discord 里抓着技术支持问,虽然他们回复挺快,但这种早期的荒蛮感还是很强。而且现在的生态应用确实还不够丰富,我的 Agent 虽然跑通了,但想找个深度好的 DEX 去做滑点测试都费劲,这也是所有新 L1 必须跨过的坎。不过反过来看,这种“空旷”反而让我觉得兴奋,因为这意味着早期的红利期还在。现在的 Vanar 就像是 2019 年的 Solana 或者是 2020 年的 Matic,基建底子打得很好,但上面的高楼大厦还没盖起来,对于懂技术的开发者和早期埋伏的资金来说,这种不对称性才是最大的机会。 我想再深入聊聊关于竞品对比的问题,这几天我也在看 Near 和 ICP。Near 的分片技术确实厉害,也在主打 AI 叙事,但我感觉 Near 的抽象层做得太厚了,对于习惯了 EVM 开发环境的人来说,迁移成本不低。而 ICP 虽然技术很牛,甚至能在容器里跑前端,但它的整个架构太封闭,像是一个独立的局域网,缺乏跟现有 DeFi 世界的互操作性。Vanar 聪明的地方在于,它没有试图去重新发明轮子,而是在兼容 EVM 的基础上,专门针对 AI 的计算负载做了魔改。这种策略非常务实,它既保留了以太坊生态的开发者习惯,又解决了以太坊处理不了 AI 任务的痛点。这就好比以前我们都在用 CPU 挖矿,后来有人搞出了 GPU,大家虽然用的还是同样的电,插的还是同样的插座,但算力效率完全不是一个量级。 在测试过程中,我还发现了一个很有意思的经济模型细节。在传统的 L1 上,不管是转账还是跑复杂的智能合约,我们支付的都是同一种 Gas。但在 Vanar 的设计里,似乎有意在区分“交易成本”和“计算成本”。未来大规模的 AI Agent 跑在链上,如果每一次推理都要消耗巨额的 Vanar 代币作为 Gas,那肯定跑不起来。但我观察到他们的费用结构里,对于高频计算的场景是有优化的。这让我联想到了 AWS 的收费模式,你用 EC2 和用 S3 是两套计费逻辑。如果 Web3 真的要承载 AI 经济,这种精细化的成本控制是必须的。现在的公链,要么贵得要死,要么便宜得要死然后宕机,很少有像 Vanar 这样试图在商业可用性上找平衡点的。 现在回过头来看,我们这一轮周期对于“基础设施”的定义可能完全跑偏了。大家都在卷 TPS,卷谁的 finality 更快,但实际上,下一代的应用——也就是那些真正由 AI 驱动的应用,它们缺的根本不是每秒多处理几千笔交易的能力,它们缺的是一个能让数据、模型和资金无缝交互的环境。我在 Vanar 上跑完那一轮测试后,最大的感触就是:我们终于不再是强行把 AI 塞进区块链这个旧瓶子里了,而是终于有了一条链,是专门为了让 AI 在上面“生活”而设计的。这种感觉很难用语言描述,只有当你真正去写几行代码,看着那个 Agent 能够在没有你干预的情况下,独立完成一次从数据分析到链上执行的全过程,你才会明白“原生”这两个字的含金量。 但这并不意味着 Vanar 就稳赢了。技术上的先进性从来不是成功的唯一要素,当年 EOS 的技术指标也秒杀以太坊,最后还是做成了一地鸡毛。Vanar 面临的挑战是如何把这套牛逼的架构推销给那些只关心币价的散户和急功近利的 VC。现在的市场环境很浮躁,大家宁愿去冲几千万市值的 MEME,也不愿意花时间去研究一个新的 L1 到底解决了什么底层问题。我看他们的社区热度虽然在涨,但比起那些妖币还是显得太冷静了。不过这种冷静恰恰是我喜欢的,在一个充满噪音的房间里,那个坐在角落里默默擦拭武器的人,往往才是最后的赢家。 写到这里,看了一眼屏幕上的终端窗口,我的那个小 Agent 还在 Vanar 的测试网里不知疲倦地运行着,每隔几分钟就吐出一条日志。它不需要休息,不消耗咖啡,只消耗一点点微不足道的 gas。我觉得这可能就是我们一直在寻找的未来——当硅基智能开始拥有自己的资产,拥有自己的执行权,甚至拥有自己的“思考回路”时,它们需要一个新的栖息地。以太坊太拥挤,Solana 太健忘,而 Vanar,看起来确实像是一个为它们准备好的新大陆。虽然现在的它还像个大工地,到处是脚手架和未干的水泥,但地基的轮廓已经清晰可见。作为一名在这个行业里见惯了起起落落的研究者,我愿意给这个工地点上一支烟,静静地看它能不能盖起通天塔。毕竟,在区块链的世界里,偏见往往意味着踏空,而深入代码底层的傲慢,才是亏钱的根源。我不想做那个拿着旧地图找新大陆的人,Vanar 给我的体验,是一张全新的航海图,至于能不能抵达终点,那就交给时间和市场去验证了。#vanar $VANRY

别被高 TPS 骗了:我在 Vanar 和 Solana 跑完一轮 AI Agent 后的残酷真相

最近这一周我几乎没怎么睡好觉,满脑子都是代码重构和 gas 费优化的破事。起因很简单,这轮牛市虽然都在喊 AI+Crypto 是主线,但市面上百分之九十的项目纯粹是在挂羊头卖狗肉,看着那一堆所谓的 AI Agent 平台,实际上就是个发币机器,本质上跟两年前的土狗盘没有任何区别。作为一个在这个圈子里摸爬滚打几年,写过合约也搞过量化策略的人,我实在受不了这种智商侮辱,于是决定自己动手,想看看在现有的基础设施上,到底能不能跑通一个真正具备“长期记忆”和“自主决策”能力的链上智能体。为了让这个实验更有对比性,我选择了目前号称性能最强的 Solana,以及最近在开发者社区讨论度开始起来的 @Vanarchain ,结果这一跑,直接把我的很多固有认知给跑崩了,甚至让我对整个 L1 的竞争格局有了完全不一样的看法。
先说说大家最迷信的 TPS 指标,这简直是 Web3 最大的谎言。在 Solana 上部署测试 Agent 的时候,我最直观的感受是“快,但是傻”。我写的一个简单逻辑是让 Agent 监控几个 DeFi 协议的收益率,并根据历史一周的数据波动来调整仓位。这在 Web2 的世界里,用 Python 写个脚本跑在 AWS 上也就是几行代码的事,但在 Solana 上简直就是灾难。虽然它处理交易的速度确实快,但问题在于链上并没有给 Agent 留出足够的“脑容量”。每一次我的 Agent 需要调用历史数据进行推理时,都需要从链下索引器去抓取,然后再把数据喂回链上进行计算,这一来一回,所谓的高 TPS 根本没有任何意义,因为瓶颈卡在了 I/O 和状态同步上。这就好比你给一个短跑运动员装了个金鱼的脑子,他跑得再快,每跑十米就得停下来问一句“我在哪?我要干嘛?”,这能叫智能吗?这充其量叫自动化的条件反射。
带着这种挫败感,我把同样的逻辑迁移到了 Vanar 上。说实话,一开始我对 Vanar 是带着偏见的,毕竟现在是个公链都在蹭 AI 的热度,我以为它也就是个搞了点概念营销的 EVM 侧链。但当我硬着头皮去啃它的技术文档,特别是关于 Resource Model 那部分时,我发现这帮人是在玩真的。Vanar 的架构设计里,最让我震惊的是它对“状态”和“计算”的解耦方式。在 Vanar 上,我的 Agent 不再是一个无状态的脚本,它更像是一个拥有独立硬盘空间的程序。我测试那个收益率分析策略时,惊讶地发现我可以把一部分热数据直接缓存在链上的特定存储层中,而且调用的 gas 费用并没有我想象中那么夸张。这不是魔法,这是在底层架构上就把 AI 模型需要的推理(Inference)环境考虑进去了。
这种差异在代码层面体现得淋漓尽致。在 Solana 或者以太坊上,为了省 gas,我必须把所有的逻辑极度压缩,甚至要把浮点数运算砍掉,因为链上根本跑不动复杂的数学模型。但在 Vanar 的测试网环境中,我居然成功运行了一个轻量级的机器学习回归模型,虽然比起 Web2 的服务器还是有延迟,但它是原生的、在链上完成的。这意味着什么?意味着这个 Agent 是完全去中心化的,没有人能拔掉它的电源,也没有人能篡改它的推理逻辑。之前我们在其他链上看到的所谓 AI 项目,大多是把计算放在链下服务器,链上只是存个哈希值,这种脱裤子放屁的“链下计算链上验证”模式,在 Vanar 这种原生架构面前显得非常笨重。
当然,Vanar 也不是没有槽点,这我也得客观说两句。目前的开发者工具链相比于以太坊生态还是显得太原始了,我在调试的时候遇到了好几次报错,文档里根本查不到,只能去 Discord 里抓着技术支持问,虽然他们回复挺快,但这种早期的荒蛮感还是很强。而且现在的生态应用确实还不够丰富,我的 Agent 虽然跑通了,但想找个深度好的 DEX 去做滑点测试都费劲,这也是所有新 L1 必须跨过的坎。不过反过来看,这种“空旷”反而让我觉得兴奋,因为这意味着早期的红利期还在。现在的 Vanar 就像是 2019 年的 Solana 或者是 2020 年的 Matic,基建底子打得很好,但上面的高楼大厦还没盖起来,对于懂技术的开发者和早期埋伏的资金来说,这种不对称性才是最大的机会。
我想再深入聊聊关于竞品对比的问题,这几天我也在看 Near 和 ICP。Near 的分片技术确实厉害,也在主打 AI 叙事,但我感觉 Near 的抽象层做得太厚了,对于习惯了 EVM 开发环境的人来说,迁移成本不低。而 ICP 虽然技术很牛,甚至能在容器里跑前端,但它的整个架构太封闭,像是一个独立的局域网,缺乏跟现有 DeFi 世界的互操作性。Vanar 聪明的地方在于,它没有试图去重新发明轮子,而是在兼容 EVM 的基础上,专门针对 AI 的计算负载做了魔改。这种策略非常务实,它既保留了以太坊生态的开发者习惯,又解决了以太坊处理不了 AI 任务的痛点。这就好比以前我们都在用 CPU 挖矿,后来有人搞出了 GPU,大家虽然用的还是同样的电,插的还是同样的插座,但算力效率完全不是一个量级。
在测试过程中,我还发现了一个很有意思的经济模型细节。在传统的 L1 上,不管是转账还是跑复杂的智能合约,我们支付的都是同一种 Gas。但在 Vanar 的设计里,似乎有意在区分“交易成本”和“计算成本”。未来大规模的 AI Agent 跑在链上,如果每一次推理都要消耗巨额的 Vanar 代币作为 Gas,那肯定跑不起来。但我观察到他们的费用结构里,对于高频计算的场景是有优化的。这让我联想到了 AWS 的收费模式,你用 EC2 和用 S3 是两套计费逻辑。如果 Web3 真的要承载 AI 经济,这种精细化的成本控制是必须的。现在的公链,要么贵得要死,要么便宜得要死然后宕机,很少有像 Vanar 这样试图在商业可用性上找平衡点的。
现在回过头来看,我们这一轮周期对于“基础设施”的定义可能完全跑偏了。大家都在卷 TPS,卷谁的 finality 更快,但实际上,下一代的应用——也就是那些真正由 AI 驱动的应用,它们缺的根本不是每秒多处理几千笔交易的能力,它们缺的是一个能让数据、模型和资金无缝交互的环境。我在 Vanar 上跑完那一轮测试后,最大的感触就是:我们终于不再是强行把 AI 塞进区块链这个旧瓶子里了,而是终于有了一条链,是专门为了让 AI 在上面“生活”而设计的。这种感觉很难用语言描述,只有当你真正去写几行代码,看着那个 Agent 能够在没有你干预的情况下,独立完成一次从数据分析到链上执行的全过程,你才会明白“原生”这两个字的含金量。
但这并不意味着 Vanar 就稳赢了。技术上的先进性从来不是成功的唯一要素,当年 EOS 的技术指标也秒杀以太坊,最后还是做成了一地鸡毛。Vanar 面临的挑战是如何把这套牛逼的架构推销给那些只关心币价的散户和急功近利的 VC。现在的市场环境很浮躁,大家宁愿去冲几千万市值的 MEME,也不愿意花时间去研究一个新的 L1 到底解决了什么底层问题。我看他们的社区热度虽然在涨,但比起那些妖币还是显得太冷静了。不过这种冷静恰恰是我喜欢的,在一个充满噪音的房间里,那个坐在角落里默默擦拭武器的人,往往才是最后的赢家。
写到这里,看了一眼屏幕上的终端窗口,我的那个小 Agent 还在 Vanar 的测试网里不知疲倦地运行着,每隔几分钟就吐出一条日志。它不需要休息,不消耗咖啡,只消耗一点点微不足道的 gas。我觉得这可能就是我们一直在寻找的未来——当硅基智能开始拥有自己的资产,拥有自己的执行权,甚至拥有自己的“思考回路”时,它们需要一个新的栖息地。以太坊太拥挤,Solana 太健忘,而 Vanar,看起来确实像是一个为它们准备好的新大陆。虽然现在的它还像个大工地,到处是脚手架和未干的水泥,但地基的轮廓已经清晰可见。作为一名在这个行业里见惯了起起落落的研究者,我愿意给这个工地点上一支烟,静静地看它能不能盖起通天塔。毕竟,在区块链的世界里,偏见往往意味着踏空,而深入代码底层的傲慢,才是亏钱的根源。我不想做那个拿着旧地图找新大陆的人,Vanar 给我的体验,是一张全新的航海图,至于能不能抵达终点,那就交给时间和市场去验证了。#vanar $VANRY
还好买完突然想起那句,孙割的话你得听,孙割推的项目你别碰,果断撤销买入。
还好买完突然想起那句,孙割的话你得听,孙割推的项目你别碰,果断撤销买入。
创始人在卖热狗。
创始人在卖热狗。
Daft Punk马到成功版
·
--
狗狗币创始人Billy Markus洛杉矶街头卖热狗,支持DOGE支付:从Meme币到Meme热狗的“终极闭环”
洛杉矶,2025年8月24日 —— 狗狗币(DOGE)联合创始人Billy Markus近日被拍到在美国洛杉矶街头摆摊卖热狗,招牌上赫然写着:“1 DOGE = 1热狗”,引发网友热议。这位曾经的加密货币先驱,如今以另一种方式延续了他的“Meme精神”。
“1 DOGE = 1热狗”:价格恒定,情怀无价
Markus的热狗摊位于洛杉矶Venice Beach附近,招牌上的定价简单粗暴:1枚DOGE兑换1个热狗。按当前DOGE价格(约0.12美元)计算,这个价格甚至比普通热狗(通常3-5美元)便宜不少。但Markus在接受采访时表示:
“这不是生意,这是行为艺术。DOGE本来就是玩笑,现在我用玩笑养活自己,很合理吧?”
现场不少加密货币爱好者专程前来用DOGE支付,甚至有人一次性买了10个热狗,就为了“体验一把用Meme币买Meme食品”的仪式感。
网友调侃:“从Meme币到Meme热狗,狗狗币生态闭环了”
这一场景迅速在社交媒体上疯传,网友纷纷玩梗:
- “狗狗币最初是笑话,现在创始人卖热狗也是笑话,这才是真正的去中心化!”
- “建议改名叫HotDoge,直接发币融资!”
- “下一步是不是该出热狗NFT了?吃过的热狗上链存证?”
甚至有人建议Markus发行“热狗链”(HotDog Chain),用热狗作为Gas费,实现“物理+虚拟双重Meme经济”。
Billy Markus的“加密再就业”之路
Markus在2013年与Jackson Palmer共同创建狗狗币,初衷是嘲讽当时疯狂的ICO泡沫。然而,DOGE却意外成为市值前十的加密货币,并被马斯克多次带货。2021年,Markus清仓所有DOGE,套现后一度淡出币圈。
如今,他以“街头热狗商贩”身份回归,似乎是对加密货币行业的一种另类反思。他在X(原Twitter)上写道:
“十年后,DOGE还活着,但我只是个卖热狗的。这大概就是去中心化的胜利吧。”
市场反应:DOGE价格短暂拉升5%
消息传出后,DOGE价格短时间内上涨约5%,但随后回落。有分析师调侃:
“这是史上最便宜的企业回购——用热狗回收DOGE,建议所有项目方学习。”
目前,Markus尚未透露是否会将“热狗摊”扩展成连锁品牌,但网友已经自发创建了DogeHotDogChallenge,鼓励全球DOGE持有者用代币购买热狗并晒单。$DOGE
{future}(DOGEUSDT)
服务业越来越卷了。
服务业越来越卷了。
转账活动。
转账活动。
撕开Dusk的Citadel协议:除了合规,ZK还能这么玩? 最近跑了一遍@Dusk_Foundation 的测试网数据,顺便扒了下Citadel协议的底层逻辑,说实话有点意思。市面上大多数隐私公链,要么像Monero那样做绝对的匿名,要么像Oasis那样搞个隐私计算层Sapphire,但Dusk这套路子有点野,它直接把合规层嵌到了Layer 1里。这就好比你在以太坊发一笔交易,原本只需要Gas费,现在还需要附带一个“我合规”的零知识证明,这种强制性的架构设计在目前的EVM体系里非常少见。 很多人没搞懂Citadel的核心竞争力,以为它只是个KYC工具,其实它解决的是DeFi目前最恶心的“白名单困境”。现在的RWA项目或者许可池,比如Aave Arc,为了合规通常得搞个中心化的白名单合约,把你的地址写进去,这既笨重又暴露隐私。Dusk的做法是用ZKP把身份验证变成了本地化行为,我向节点证明“我是合格投资者”,但节点根本不知道我是谁,只知道我的证明有效。这比那些简单的隐私币高了不止一个维度,它是在做可编程的隐私。 不过有一说一,这种架构对客户端的压力不小。我在测试交互的时候明显感觉到,生成Proof的过程比普通签名要慢,如果碰上配置低的电脑,浏览器可能会卡顿。这也是ZK类项目的通病,计算下放到前端,体验必然会有折损。但这可能是机构入场的唯一解,毕竟高盛那帮人不可能把交易记录裸奔在链上,也不可能像散户一样去玩Tornado Cash。比起以太坊上那些打补丁式的Layer 2隐私方案,Dusk这种原生的合规底层反而更像未来金融基础设施该有的样子,只是不知道主网上线后,这个Prover的生成效率能不能扛得住高并发,毕竟合规虽好,若是交互太繁索,流动性肯定会打折扣。#dusk $DUSK
撕开Dusk的Citadel协议:除了合规,ZK还能这么玩?
最近跑了一遍@Dusk 的测试网数据,顺便扒了下Citadel协议的底层逻辑,说实话有点意思。市面上大多数隐私公链,要么像Monero那样做绝对的匿名,要么像Oasis那样搞个隐私计算层Sapphire,但Dusk这套路子有点野,它直接把合规层嵌到了Layer 1里。这就好比你在以太坊发一笔交易,原本只需要Gas费,现在还需要附带一个“我合规”的零知识证明,这种强制性的架构设计在目前的EVM体系里非常少见。
很多人没搞懂Citadel的核心竞争力,以为它只是个KYC工具,其实它解决的是DeFi目前最恶心的“白名单困境”。现在的RWA项目或者许可池,比如Aave Arc,为了合规通常得搞个中心化的白名单合约,把你的地址写进去,这既笨重又暴露隐私。Dusk的做法是用ZKP把身份验证变成了本地化行为,我向节点证明“我是合格投资者”,但节点根本不知道我是谁,只知道我的证明有效。这比那些简单的隐私币高了不止一个维度,它是在做可编程的隐私。
不过有一说一,这种架构对客户端的压力不小。我在测试交互的时候明显感觉到,生成Proof的过程比普通签名要慢,如果碰上配置低的电脑,浏览器可能会卡顿。这也是ZK类项目的通病,计算下放到前端,体验必然会有折损。但这可能是机构入场的唯一解,毕竟高盛那帮人不可能把交易记录裸奔在链上,也不可能像散户一样去玩Tornado Cash。比起以太坊上那些打补丁式的Layer 2隐私方案,Dusk这种原生的合规底层反而更像未来金融基础设施该有的样子,只是不知道主网上线后,这个Prover的生成效率能不能扛得住高并发,毕竟合规虽好,若是交互太繁索,流动性肯定会打折扣。#dusk $DUSK
Prijavite se, če želite raziskati več vsebin
Raziščite najnovejše novice o kriptovalutah
⚡️ Sodelujte v najnovejših razpravah o kriptovalutah
💬 Sodelujte z najljubšimi ustvarjalci
👍 Uživajte v vsebini, ki vas zanima
E-naslov/telefonska številka
Zemljevid spletišča
Nastavitve piškotkov
Pogoji uporabe platforme