Binance Square

Daft Punk马到成功版

image
Preverjeni ustvarjalec
文章均为个人看法,不构成投资建议。
Visokofrekvenčni trgovalec
1 let
329 Sledite
47.4K+ Sledilci
39.2K+ Všečkano
5.9K+ Deljeno
Objave
PINNED
·
--
兄弟们,听说又有行业元老拿着推流洗人家第一的稿子,一张嘴就是和这个合作和那个合作,最后原来是和豆包合作洗人家稿,原来炫耀的分数都是洗出来的,你是蓝月亮么这么能洗。此处不点名,自己看榜猜😂
兄弟们,听说又有行业元老拿着推流洗人家第一的稿子,一张嘴就是和这个合作和那个合作,最后原来是和豆包合作洗人家稿,原来炫耀的分数都是洗出来的,你是蓝月亮么这么能洗。此处不点名,自己看榜猜😂
PINNED
广场的创作环境大致如此,我们这些普通创作者只是给推流选手提供素材的,听说你还在搞什么原创,别搞笑了,洗洗睡吧,抄袭才是广场唯一的出路,原创的已经饿死了。推流选手10分钟十几k浏览,你不推流我还真发现不了这么过分,标题都不改哈哈哈。
广场的创作环境大致如此,我们这些普通创作者只是给推流选手提供素材的,听说你还在搞什么原创,别搞笑了,洗洗睡吧,抄袭才是广场唯一的出路,原创的已经饿死了。推流选手10分钟十几k浏览,你不推流我还真发现不了这么过分,标题都不改哈哈哈。
感谢海豹老师仗义执言❤️
感谢海豹老师仗义执言❤️
快乐的小海豹
·
--
📐🤦‍♂️技术性分析|两位币安顶流间的抄袭指控:附详细证据链和原始文本
1️⃣ 前情和声明
近日,币安广场发生一起抄袭指控,一位顶流发帖指控另一位顶流,举报给币安后被驳回,表达了强烈的失望感。
⓵ 被抄袭文:
https://www.binance.com/zh-CN/square/post/35796825707177
⓶ 疑似抄袭文:
https://www.binance.com/zh-CN/square/post/35828295322393

申明:
⓵ 本人与两位当事人无私交、无私怨,仅属于隔着网线的陌生网友。
⓶ 本人发帖纯粹出于技术性好奇,以及简单的正义感。
⓷ 本人反对任何抄袭和洗稿行为,但本人不是法官,无意做任何道德审判,也不为任何人背书
⓸ 仅代表本人个人看法,欢迎提出不同意见。
2️⃣ 整体相似度评估
基于两篇文章内容,我从内容重合度(关键观点、比喻、数据描述的相似性)、文章结构框架(组织方式、分段逻辑)、逻辑链(论证流程和因果关系)三个维度进行比较。
总体而言,两篇文章高度相似,疑似抄袭文(以下简称A文)像是对疑似被抄袭文(以下简称B文)的浓缩、改写和提炼版。A文保留了B文的核心元素,但简化了表达、删减了细节,并调整了部分结构以使其更简洁。
•  整体相似度:约80-90%。A文几乎完全继承了B文的主题、核心观点和逻辑框架,但长度缩短(A文约600字,B文约2000字),通过合并段落和去除冗余来实现。标题和引言(如用户所述)相似度近100%,主体内容重合度高,但A文添加了少量原创表述(如“凌晨三点”开头),B文有更多扩展性讨论和个人反思。
•  抄袭类型:这属于“改写型抄袭”(paraphrasing plagiarism),A文未逐字复制,但核心句子、比喻和逻辑链条高度一致,疑似基于B文进行提炼和重组。如果是抄袭,A文可能是为了快速发布而对B文进行“精简版”处理。
以下从具体维度展开比较。
3️⃣ 标题相似度
•  A文:【深度复盘】拒绝做“木头底盘的法拉利”:为什么 Walrus 是 Web3 最后的拼图?
•  B文:拒绝做“木头底盘”的法拉利:为何 Walrus 是 Web3 大规模商用的最后一块拼图?
•  相似度:100%。核心比喻“木头底盘的法拉利”完全相同,主标题结构一致(拒绝…的法拉利:为什么/为何 Walrus 是…拼图)。A文添加了“【深度复盘】”作为前缀,B文在结尾添加了“大规模商用”和“一块”,但整体框架和关键词(如Walrus、Web3、拼图)一模一样。这表明A文直接借鉴了B文的标题创意,仅微调词序和细节。
4️⃣ 引言部分相似度
•  A文:以个人视角开头(凌晨三点盯着架构图,Web3焦虑),指出Sui如“法拉利引擎”但存储层如“木头底盘”,dApp数据中心化问题。提到啃透Walrus白皮书后的兴奋,称其修补行业Bug,非“Web3的百度网盘”。
•  B文:类似个人视角(盯着架构图发呆,Web3“身体”问题),优化共识层但忽略存储,dApp前端跑在AWS的割裂感,如“永动机引擎的法拉利,底盘却还是木头做的”。审视Walrus文档后的“拼图扣上”感觉,强调解决“不可能三角”(成本、去中心化、可编程性)。
•  相似度:100%(如用户所述)。核心比喻(法拉利与木头底盘)、问题描述(dApp中心化存储的“精神分裂”/“割裂感”)、兴奋点(白皮书/文档带来的“齿轮咬合”/“拼图扣上”)完全一致。A文更简洁,B文扩展了“不可能三角”和更多背景,但逻辑链相同:从Web3痛点→Walrus作为解决方案的顿悟。
5️⃣ 内容相似度
从关键观点、比喻和例子来看,A文的核心内容几乎全部源自B文,但通过同义替换和浓缩避免逐字复制。重合率约85%,A文删减了B文的扩展讨论(如开发者体验、节点架构细节、经济模型),但保留了所有主要论点。
⓵ 关键观点重合:
•  存储问题与纠删码:两者都批判传统存储的“傻大黑粗”/“简单粗暴的多副本复制”(备份10份/3倍副本),成本高、笨重。Walrus用“Red Stuff”/“Redundancy”的纠删码(Erasure Coding)取代:数据切碎/切片、编码、喷洒/分片;哪怕2/3节点挂掉/只需一小部分切片,就能数学还原。效果:用“算力”换“空间”,成本指数级下降。这部分内容几乎一模一样,A文直接简化B文的描述。
•  AI时代的作用:两者称Walrus是AI的“海马体”(承载记忆/长期记忆)。问题:AI模型权重文件存链上Gas费高,存AWS非去中心化。Walrus适合巨大静态数据集,高频读取。未来AI Agent链上思考,数据/训练数据存Walrus。A文直接复制了“海马体”比喻和逻辑,B文扩展了隐私、验证等,但核心相同。
•  与Sui的集成:Walrus作为Sui的“无限外挂”/“协调层”,剥离存储“脏活累活”,避免L1“胖”/状态爆炸。解决开发者存储费尴尬,适合全链游戏/资源地图UGC。A文浓缩了B文的“从指向数据到拥有数据”的革命描述。
•  其他重合:两者都提到Walrus非静态仓库,而是动态“流”;跨生态潜力(多链通用);抗审查、数据主权;未来愿景(如去中心化YouTube/媒体平台)。
⓶ 独有内容:
•  A文:少量原创,如“凌晨三点”具体时间、“齿轮咬合的快感”。
•  B文:扩展更多,如开发者体验(S3接口迁移、文档友好)、节点架构(分而治之、高内聚低耦合)、经济模型(资源定价、代币经济学、防公地悲剧)、对其他项目比较(Arweave冷存储、Celestia临时层)、个人反思(数据流向、硅基霸权)。
⓷ 语言风格:
A文更简练、口语化(“啃透”“祭出”“降维打击”);B文更学术、反思性(“信道编码理论”“化学反应”“有机体”)。但比喻(如法拉利、海马体)一致,表明内容源头相同。
6️⃣ 文章结构框架相似度
•  A文:清晰编号结构(一、二、三),每个部分一个主题:一(纠删码告别备份时代)、二(AI海马体)、三(Sui无限外挂)。开头引言、结尾展望。框架紧凑,像提纲式。
•  B文:无编号,但自然段落分层:引言→存储问题与纠删码→数据可用性转变(NFT/全链游戏)→AI时代作用→开发者体验→市场定位(热存储)→战略地位与愿景→经济激励→结尾展望。结构更松散,像长文随笔。
•  相似度:约80%。A文像是B文的“框架提炼”:A文的三个部分对应B文的主体段落(纠删码→数据转变→AI→Sui集成),但A文合并了B文的扩展(如开发者体验、市场多样性融入结尾)。两者都以个人焦虑开头、Walrus顿悟过渡、主题展开、未来展望结尾。A文更结构化,B文更流畅连贯,但整体框架一致(如从痛点→技术突破→应用场景→长远影响)。
7️⃣ 逻辑链相似度
•  A文:逻辑链:Web3痛点(中心化存储)→Walrus技术(纠删码)→具体益处(成本低、AI存储、Sui优化)→长远变革(Web3商用单程票)。因果清晰:问题→解决方案→影响。
•  B文:类似链条:Web3痛点(存储忽略)→Walrus技术(纠删码、Sui集成)→益处扩展(成本、数据转变、AI、开发者体验、市场定位)→长远变革(Mass Adoption垫脚石、对数据主权的重构)。B文逻辑更层层递进,添加了反思环节(如为什么其他项目难落地、经济闭环)。
•  相似度:约90%。两者论证流程相同:从“为什么需要Walrus”(痛点)→“Walrus怎么解决”(技术)→“解决后有什么”(应用)→“长远意义”(变革)。A文是B文的简化版,逻辑链未变,但省略了B文的支线(如经济模型),保持主线连贯。这表明A文可能基于B文的逻辑骨架构建。
7️⃣ 结论
两篇文章在标题、引言、内容、结构和逻辑上高度重合,A文疑似对B文进行改写和浓缩,相似度足以构成抄袭指控(尤其在标题/引言100%的情况下)。
除了标题和引言肉眼可见外,尤其是「AI 的海马体」这个比喻。
这不是行业通用隐喻,而是明显的原作者个人表达风格。在两篇中同时出现,且承担同样论证功能,这是强相似性证据。
@币安广场 @币安中文社区 @Binance Square Official 呼吁官方重审此事,给当事人以公平。
8️⃣ 给我等创作者的教训
原文明显更翔实,字数是抄袭文的五倍,但流量不佳,因为在形式上有致命缺陷:
没有处理好分段,上千字黑压压地塞进一个自然段里,在移动设备上读起来很痛苦,人类几乎读不下去。
但抄袭者这一点优化的很好,小编题、短句分段、重点句加粗、结构更清晰。
这是原作吃亏的一大原因(不是全部),我们要规避。
9️⃣ 原始证据留存

#creatorpad $WAL
别被RWA概念骗了,机构入场真正缺的是这把钥匙 最近把@Dusk_Foundation 的Piecrust虚拟机文档彻底啃了一遍,顺手跑了下最新的测试节点,说实话,市面上绝大多数打着RWA旗号的项目,本质上还在玩“单机版”资产上链的过家家游戏。以太坊那种完全透明的账本,高盛看了都得摇头,谁愿意把自家的交易策略和资金底裤在大众眼皮底下裸奔?但如果完全搞隐私去做黑盒,SEC那边铁定过不了关,这就是目前RWA赛道最大的精神分裂。我看了一圈,也就Dusk提出的RegDeFi概念有点意思,它不是像竞品那样在应用层打补丁,而是直接在L1协议层把合规逻辑嵌进去了。 这里的核心技术是Citadel协议,它解决了我一直纠结的“身份与权限剥离”难题。简单来说,我不需要向每个DApp亮身份证,只用扔出一个零知识证明,证明“我有资格交易”就行。这种设计比Ondo那种单纯在智能合约层维护笨重白名单的方案要高明得多,后者不仅维护成本高,还牺牲了互操作性,而Dusk这种原生支持合规的架构,才可能承载真正的大资金。这好比一个是给老房子加装防盗门,一个是直接用防弹材料盖房子,底层的安全性天差地别。不过在测试过程中也发现点小毛病,目前的文档对开发者还是不够又好,特别是ZKP证明生成的效率在低端设备上跑起来有点吃力,风扇转得跟直升机似的,这块还需要团队继续打磨。技术演进向来残酷,当隐私不再是可选项而是基础设施时,这种能同时讨好监管和隐私巨鲸的Layer 1才会显出护城河,别整天盯着那些只会发推特的空气币了,真正能落地的技术往往都在没人注意的角落里迭代。#dusk $DUSK
别被RWA概念骗了,机构入场真正缺的是这把钥匙
最近把@Dusk 的Piecrust虚拟机文档彻底啃了一遍,顺手跑了下最新的测试节点,说实话,市面上绝大多数打着RWA旗号的项目,本质上还在玩“单机版”资产上链的过家家游戏。以太坊那种完全透明的账本,高盛看了都得摇头,谁愿意把自家的交易策略和资金底裤在大众眼皮底下裸奔?但如果完全搞隐私去做黑盒,SEC那边铁定过不了关,这就是目前RWA赛道最大的精神分裂。我看了一圈,也就Dusk提出的RegDeFi概念有点意思,它不是像竞品那样在应用层打补丁,而是直接在L1协议层把合规逻辑嵌进去了。
这里的核心技术是Citadel协议,它解决了我一直纠结的“身份与权限剥离”难题。简单来说,我不需要向每个DApp亮身份证,只用扔出一个零知识证明,证明“我有资格交易”就行。这种设计比Ondo那种单纯在智能合约层维护笨重白名单的方案要高明得多,后者不仅维护成本高,还牺牲了互操作性,而Dusk这种原生支持合规的架构,才可能承载真正的大资金。这好比一个是给老房子加装防盗门,一个是直接用防弹材料盖房子,底层的安全性天差地别。不过在测试过程中也发现点小毛病,目前的文档对开发者还是不够又好,特别是ZKP证明生成的效率在低端设备上跑起来有点吃力,风扇转得跟直升机似的,这块还需要团队继续打磨。技术演进向来残酷,当隐私不再是可选项而是基础设施时,这种能同时讨好监管和隐私巨鲸的Layer 1才会显出护城河,别整天盯着那些只会发推特的空气币了,真正能落地的技术往往都在没人注意的角落里迭代。#dusk $DUSK
撕下RWA的遮羞布:在链上“裸奔”时代,Dusk的Piecrust VM和合规隐私架构到底是不是伪命题?这两天盯着屏幕上的Etherscan数据发呆,看着那一串串毫无遮掩的地址交互,突然有一种在闹市区裸奔的荒谬感,我们整天喊着Web3的主权,结果连最基本的遮羞布都没有,所有的资产转移、DeFi交互路径、持仓成本在链上就像被剥了皮的洋葱,辣眼睛且毫无尊严。也就是在这个焦虑的空档,我重新翻开了@Dusk_Foundation 的GitHub仓库和最近的技术文档,甚至把他们的Piecrust VM代码拉下来跑了一遍,这种感觉很微妙,就像是在充满噪音的房间里突然戴上了降噪耳机。我不打算聊什么币价,也不想扯什么百倍千倍的梦,今天就想以一个技术老韭菜的视角,单纯从架构逻辑、竞品差异和实际体验上,聊聊Dusk到底是在搞真正的基础设施,还是在RWA这个大词下面甚至连地基都没打好的空中楼阁。 很多朋友一听到“隐私公链”四个字,脑子里蹦出来的要么是Monero那种彻底的黑盒,要么就是Tornado Cash这种被监管追着打的混币器,但Dusk给我的感觉完全是另一个物种,它不是为了让你在链上干坏事,而是为了让那些穿西装打领带的机构敢把钱放上来。我在测试网折腾Piecrust VM的时候,最大的感触不是“隐秘”,而是“丝滑”,这听起来很反直觉,因为在以往的经验里,隐私计算等于龟速,等于昂贵的Gas,等于 interminable 的证明生成时间。但Piecrust这东西有点意思,它没有沿用EVM那种笨重的存储逻辑,而是搞了一套基于零拷贝(Zero-Copy)的内存架构,这在工程上是个极度硬核的取舍。哪怕是宣称高性能的Solana,在处理复杂隐私逻辑时也得喘口气,而Dusk这种底层优化意味着智能合约在读取状态时不需要进行昂贵的序列化和反序列化操作,直接利用内存映射。这让我想起当年第一次用Rust重写C++项目的爽感,这种底层的洁癖在现在的公链圈子里太稀缺了,大部分项目方只想fork个EVM改改参数就出来圈钱,根本没人愿意去啃VM这块硬骨头。 咱们得聊聊这个所谓的“可审计隐私”,这应该是Dusk最容易被误解,也最具争议的地方。Mina或者是Aleo这些竞品,它们的技术路线大多还在追求极致的ZK证明效率或者递归证明的压缩比,这当然很牛,但在商业逻辑上其实有点走偏了。我在研究Citadel协议的时候,发现Dusk团队其实是在做一个极其大胆的赌博,他们赌的是未来的金融世界不是去中心化的乌托邦,而是一个强监管与去中心化技术共存的怪胎。Citadel的设计允许用户在不暴露具体身份的前提下证明自己满足了KYC/AML的要求,这种Soulbound token(SBT)或者说ZK-ID的玩法,其实是在给机构资金开后门。试想一下,BlcakRock(手滑,BlackRock)如果要发行代币化国债,它绝对不可能允许投资者的名单在链上公开,但监管机构又必须随时能查,以太坊目前的架构根本做不到这一点,除非搞个私有链,但私有链又没有流动性。Dusk就在这中间卡了一个身位,用ZK proofs把合规性变成了代码逻辑的一部分,而不是外挂的补丁。这点上它比Polygon ID或者其他基于DID的方案都要底层得多,它是写在共识层里的。 说到共识,这里不得不吐槽一下以太坊的Finality。我们在做DeFi高频交易的时候,最怕的就是回滚,以太坊那种概率性终局(Probabilistic Finality)对于散户玩玩土狗还行,对于真正的证券交易简直就是灾难。你敢想象纽交所的交易在两分钟后告诉你“对不起,刚才那笔不算”吗?Dusk搞的这个SBA(Segregated Byzantine Agreement)共识,有点像是把PoS和PBFT揉在了一起,追求的是确定性终局(Deterministic Finality)。我在查看他们共识层的代码逻辑时,发现他们把验证权的抽取和区块提议做了数学上的隔离,不仅是为了防女巫攻击,更是为了让那笔交易一旦打包就铁板钉钉。这种设计明显就是冲着清算结算那一层去的,比起单纯追求TPS的数据党,这种对“确定性”的执着反而更像金融工程的思维。 当然,吹了这么多技术架构,实际用起来也不是没有槽点。我在跑全节点同步的时候,偶尔还是会遇到网络握手失败的情况,虽然日志里显示的错误代码很隐晦,推测是P2P层的某些gossip协议还没优化到极致。而且目前的生态应用确实太少了,这就是所谓“高性能隐私链”的通病,地基打得再好,上面没盖房子也是白搭。现在的Dusk网络就像是一个装修豪华的空城,开发者文档虽然写得像论文一样严谨,但对于习惯了Solidity一把梭的脚本小子来说,门槛还是有点高。你要用Rusk语言,你要理解ZK电路的约束逻辑,这比在以太坊上发个ERC-20难了不止一个数量级。但这可能也是好事,天然筛选掉了一批只想发盘子的诈骗项目,留下来的大概率是真想搞点复杂的DeFi或者RWA应用的硬核玩家。 我也对比了Aztec这种Layer 2的隐私方案。Aztec很强,在以太坊上做Rollup,安全性继承主网,但问题在于互操作性。Layer 2的资产要跨回Layer 1,或者不同Layer 2之间交互,那个破碎感太强了,而且ZK-Rollup目前的生成证明成本依然不低。Dusk作为一个独立的Layer 1,虽然放弃了以太坊的直接安全性,但换来的是原子性的隐私可组合性。这是什么意思呢?就是我在Dusk上做一个借贷,抵押品的状态和借贷的凭证可以在同一个区块内完成隐私转换,而不需要跨桥,不需要等待挑战期。这种原生性对于构建复杂的金融衍生品至关重要。我甚至觉得,Dusk未来的竞争对手可能不是其他公链,而是银行内部的结算系统,它更像是一个开源的、去中心化的Swift替代方案,而不是另一个为了炒作NFT而存在的赌场。 关于PLONK和Groth16的选择,这又是一个暴露技术品味的地方。早期的隐私项目喜欢用Groth16,因为证明小,验证快,但那个Trusted Setup(可信设置)简直就是达摩克利斯之剑,每次升级都得搞个仪式,甚至要还要把废弃的电脑砸烂拍视频以证清白,太中二也太不灵活了。Dusk全面转向PLONK,利用其Universal SRS(通用参考串)特性,意味着协议升级不需要重置整个网络的安全参数。这在合规环境里太重要了,因为监管政策是会变的,今天合规的代码明天可能就不合规了,如果你每改一行代码都要重新搞一遍全网仪式,那项目早就死了。这种对Updatability(可更新性)的重视,说明团队脑子里想的是长期的运维,而不是发完币就跑。 其实静下心来看,Dusk走的这条路是一条极度孤独且枯燥的路。在现在的币圈,大家都在追AI meme,在追高性能并行EVM,在追比特币Layer 2,谁还会去关心底层的虚拟机是怎么管理内存的?谁会关心零知识证明的电路是怎么优化的?但恰恰是这种枯燥,让我觉得安心。我在翻看他们之前对于Poseidon哈希函数的优化的commit时,看到开发者在注释里写的一段关于抗碰撞性的推导,那种严谨程度甚至让我怀疑他们是不是不仅招了工程师,还养了一群数学家。在这个浮躁的行业里,愿意花几年时间去打磨一个VM,去死磕一个共识算法的团队,要么是傻子,要么就是看到了大多数人没看到的未来。 我们再回到RWA这个话题,现在的RWA赛道其实挺虚的,很多项目就是把线下的债券合同扫个描传到链上,或者是搞个SPV(特殊目的实体)做代持,本质上还是信任中介,区块链在里面就是个记账本。但Dusk的野心在于,它想让资产的发行、交易、清算、合规审查全部在链上闭环完成。通过XSC(Confidential Security Contract)标准,它可以让代币本身自带规则。比如这个代币只能在这个国家的IP地址交易,或者只能转给过了KYC的地址,这些规则不是由中心化的交易所服务器控制的,而是刻在代币的智能合约里的。这种“智能”才是Smart Contract的本意,现在的很多合约充其量只能叫“自动脚本”。如果未来真的有数万亿美金的传统资产要上链,它们绝对不会选择一个任何人都能窥探交易策略的平台,也不会选择一个由于网络拥堵gas费飙升到几百刀的平台,它们需要的是隐私、确定性、合规性和低成本,目前看了一圈,能同时把这四个点要在架构层面讲圆了的,Dusk算是一个。 至于缺点,除了刚才说的生态冷清和开发门槛高,还有一个隐忧就是ZK证明的算力需求。虽然Piecrust优化了执行效率,但在高并发下,节点的负载依然是个未知数。我现在跑测试节点还是比较轻松的,因为没啥人用,一旦主网上线,大量复杂的隐私交易涌入,那些只靠轻节点或者低配VPS的验证者能不能扛得住,会不会导致网络中心化,这都是需要实战检验的。而且,隐私计算的硬件加速(ASIC/FPGA)目前还没完全普及,这可能会是限制吞吐量的一个物理瓶颈。 写到这,杯子里的咖啡都凉了。这几天沉浸在代码和白皮书里,反而治好了我的行情焦虑。在这个充满了巨大的庞氏骗局和空气叙事的市场里,看到有人在认认真真地用数学构建信任,用代码解决隐私和监管这对死敌的矛盾,本身就是一种慰藉。Dusk未必能成为下一个以太坊,它可能太超前,也可能倒在生态爆发的前夜,但它所代表的那种技术审美——即在不牺牲去中心化的前提下拥抱现实世界的复杂性,绝对是Web3走向成熟的必经之路。对于我这种厌倦了只有赌场没有产业的Defi老玩家来说,哪怕只是为了这套优雅的Piecrust VM和硬核的零知识证明架构,我也愿意在钱包里留一点位置,不是为了暴富,而是为了见证一种可能性的落地。毕竟,如果连隐私都要在裸奔中妥协,那我们折腾这么多年的区块链,到底是为了什么?#dusk $DUSK

撕下RWA的遮羞布:在链上“裸奔”时代,Dusk的Piecrust VM和合规隐私架构到底是不是伪命题?

这两天盯着屏幕上的Etherscan数据发呆,看着那一串串毫无遮掩的地址交互,突然有一种在闹市区裸奔的荒谬感,我们整天喊着Web3的主权,结果连最基本的遮羞布都没有,所有的资产转移、DeFi交互路径、持仓成本在链上就像被剥了皮的洋葱,辣眼睛且毫无尊严。也就是在这个焦虑的空档,我重新翻开了@Dusk 的GitHub仓库和最近的技术文档,甚至把他们的Piecrust VM代码拉下来跑了一遍,这种感觉很微妙,就像是在充满噪音的房间里突然戴上了降噪耳机。我不打算聊什么币价,也不想扯什么百倍千倍的梦,今天就想以一个技术老韭菜的视角,单纯从架构逻辑、竞品差异和实际体验上,聊聊Dusk到底是在搞真正的基础设施,还是在RWA这个大词下面甚至连地基都没打好的空中楼阁。
很多朋友一听到“隐私公链”四个字,脑子里蹦出来的要么是Monero那种彻底的黑盒,要么就是Tornado Cash这种被监管追着打的混币器,但Dusk给我的感觉完全是另一个物种,它不是为了让你在链上干坏事,而是为了让那些穿西装打领带的机构敢把钱放上来。我在测试网折腾Piecrust VM的时候,最大的感触不是“隐秘”,而是“丝滑”,这听起来很反直觉,因为在以往的经验里,隐私计算等于龟速,等于昂贵的Gas,等于 interminable 的证明生成时间。但Piecrust这东西有点意思,它没有沿用EVM那种笨重的存储逻辑,而是搞了一套基于零拷贝(Zero-Copy)的内存架构,这在工程上是个极度硬核的取舍。哪怕是宣称高性能的Solana,在处理复杂隐私逻辑时也得喘口气,而Dusk这种底层优化意味着智能合约在读取状态时不需要进行昂贵的序列化和反序列化操作,直接利用内存映射。这让我想起当年第一次用Rust重写C++项目的爽感,这种底层的洁癖在现在的公链圈子里太稀缺了,大部分项目方只想fork个EVM改改参数就出来圈钱,根本没人愿意去啃VM这块硬骨头。
咱们得聊聊这个所谓的“可审计隐私”,这应该是Dusk最容易被误解,也最具争议的地方。Mina或者是Aleo这些竞品,它们的技术路线大多还在追求极致的ZK证明效率或者递归证明的压缩比,这当然很牛,但在商业逻辑上其实有点走偏了。我在研究Citadel协议的时候,发现Dusk团队其实是在做一个极其大胆的赌博,他们赌的是未来的金融世界不是去中心化的乌托邦,而是一个强监管与去中心化技术共存的怪胎。Citadel的设计允许用户在不暴露具体身份的前提下证明自己满足了KYC/AML的要求,这种Soulbound token(SBT)或者说ZK-ID的玩法,其实是在给机构资金开后门。试想一下,BlcakRock(手滑,BlackRock)如果要发行代币化国债,它绝对不可能允许投资者的名单在链上公开,但监管机构又必须随时能查,以太坊目前的架构根本做不到这一点,除非搞个私有链,但私有链又没有流动性。Dusk就在这中间卡了一个身位,用ZK proofs把合规性变成了代码逻辑的一部分,而不是外挂的补丁。这点上它比Polygon ID或者其他基于DID的方案都要底层得多,它是写在共识层里的。
说到共识,这里不得不吐槽一下以太坊的Finality。我们在做DeFi高频交易的时候,最怕的就是回滚,以太坊那种概率性终局(Probabilistic Finality)对于散户玩玩土狗还行,对于真正的证券交易简直就是灾难。你敢想象纽交所的交易在两分钟后告诉你“对不起,刚才那笔不算”吗?Dusk搞的这个SBA(Segregated Byzantine Agreement)共识,有点像是把PoS和PBFT揉在了一起,追求的是确定性终局(Deterministic Finality)。我在查看他们共识层的代码逻辑时,发现他们把验证权的抽取和区块提议做了数学上的隔离,不仅是为了防女巫攻击,更是为了让那笔交易一旦打包就铁板钉钉。这种设计明显就是冲着清算结算那一层去的,比起单纯追求TPS的数据党,这种对“确定性”的执着反而更像金融工程的思维。
当然,吹了这么多技术架构,实际用起来也不是没有槽点。我在跑全节点同步的时候,偶尔还是会遇到网络握手失败的情况,虽然日志里显示的错误代码很隐晦,推测是P2P层的某些gossip协议还没优化到极致。而且目前的生态应用确实太少了,这就是所谓“高性能隐私链”的通病,地基打得再好,上面没盖房子也是白搭。现在的Dusk网络就像是一个装修豪华的空城,开发者文档虽然写得像论文一样严谨,但对于习惯了Solidity一把梭的脚本小子来说,门槛还是有点高。你要用Rusk语言,你要理解ZK电路的约束逻辑,这比在以太坊上发个ERC-20难了不止一个数量级。但这可能也是好事,天然筛选掉了一批只想发盘子的诈骗项目,留下来的大概率是真想搞点复杂的DeFi或者RWA应用的硬核玩家。
我也对比了Aztec这种Layer 2的隐私方案。Aztec很强,在以太坊上做Rollup,安全性继承主网,但问题在于互操作性。Layer 2的资产要跨回Layer 1,或者不同Layer 2之间交互,那个破碎感太强了,而且ZK-Rollup目前的生成证明成本依然不低。Dusk作为一个独立的Layer 1,虽然放弃了以太坊的直接安全性,但换来的是原子性的隐私可组合性。这是什么意思呢?就是我在Dusk上做一个借贷,抵押品的状态和借贷的凭证可以在同一个区块内完成隐私转换,而不需要跨桥,不需要等待挑战期。这种原生性对于构建复杂的金融衍生品至关重要。我甚至觉得,Dusk未来的竞争对手可能不是其他公链,而是银行内部的结算系统,它更像是一个开源的、去中心化的Swift替代方案,而不是另一个为了炒作NFT而存在的赌场。
关于PLONK和Groth16的选择,这又是一个暴露技术品味的地方。早期的隐私项目喜欢用Groth16,因为证明小,验证快,但那个Trusted Setup(可信设置)简直就是达摩克利斯之剑,每次升级都得搞个仪式,甚至要还要把废弃的电脑砸烂拍视频以证清白,太中二也太不灵活了。Dusk全面转向PLONK,利用其Universal SRS(通用参考串)特性,意味着协议升级不需要重置整个网络的安全参数。这在合规环境里太重要了,因为监管政策是会变的,今天合规的代码明天可能就不合规了,如果你每改一行代码都要重新搞一遍全网仪式,那项目早就死了。这种对Updatability(可更新性)的重视,说明团队脑子里想的是长期的运维,而不是发完币就跑。
其实静下心来看,Dusk走的这条路是一条极度孤独且枯燥的路。在现在的币圈,大家都在追AI meme,在追高性能并行EVM,在追比特币Layer 2,谁还会去关心底层的虚拟机是怎么管理内存的?谁会关心零知识证明的电路是怎么优化的?但恰恰是这种枯燥,让我觉得安心。我在翻看他们之前对于Poseidon哈希函数的优化的commit时,看到开发者在注释里写的一段关于抗碰撞性的推导,那种严谨程度甚至让我怀疑他们是不是不仅招了工程师,还养了一群数学家。在这个浮躁的行业里,愿意花几年时间去打磨一个VM,去死磕一个共识算法的团队,要么是傻子,要么就是看到了大多数人没看到的未来。
我们再回到RWA这个话题,现在的RWA赛道其实挺虚的,很多项目就是把线下的债券合同扫个描传到链上,或者是搞个SPV(特殊目的实体)做代持,本质上还是信任中介,区块链在里面就是个记账本。但Dusk的野心在于,它想让资产的发行、交易、清算、合规审查全部在链上闭环完成。通过XSC(Confidential Security Contract)标准,它可以让代币本身自带规则。比如这个代币只能在这个国家的IP地址交易,或者只能转给过了KYC的地址,这些规则不是由中心化的交易所服务器控制的,而是刻在代币的智能合约里的。这种“智能”才是Smart Contract的本意,现在的很多合约充其量只能叫“自动脚本”。如果未来真的有数万亿美金的传统资产要上链,它们绝对不会选择一个任何人都能窥探交易策略的平台,也不会选择一个由于网络拥堵gas费飙升到几百刀的平台,它们需要的是隐私、确定性、合规性和低成本,目前看了一圈,能同时把这四个点要在架构层面讲圆了的,Dusk算是一个。
至于缺点,除了刚才说的生态冷清和开发门槛高,还有一个隐忧就是ZK证明的算力需求。虽然Piecrust优化了执行效率,但在高并发下,节点的负载依然是个未知数。我现在跑测试节点还是比较轻松的,因为没啥人用,一旦主网上线,大量复杂的隐私交易涌入,那些只靠轻节点或者低配VPS的验证者能不能扛得住,会不会导致网络中心化,这都是需要实战检验的。而且,隐私计算的硬件加速(ASIC/FPGA)目前还没完全普及,这可能会是限制吞吐量的一个物理瓶颈。
写到这,杯子里的咖啡都凉了。这几天沉浸在代码和白皮书里,反而治好了我的行情焦虑。在这个充满了巨大的庞氏骗局和空气叙事的市场里,看到有人在认认真真地用数学构建信任,用代码解决隐私和监管这对死敌的矛盾,本身就是一种慰藉。Dusk未必能成为下一个以太坊,它可能太超前,也可能倒在生态爆发的前夜,但它所代表的那种技术审美——即在不牺牲去中心化的前提下拥抱现实世界的复杂性,绝对是Web3走向成熟的必经之路。对于我这种厌倦了只有赌场没有产业的Defi老玩家来说,哪怕只是为了这套优雅的Piecrust VM和硬核的零知识证明架构,我也愿意在钱包里留一点位置,不是为了暴富,而是为了见证一种可能性的落地。毕竟,如果连隐私都要在裸奔中妥协,那我们折腾这么多年的区块链,到底是为了什么?#dusk $DUSK
跌了90%还能沉淀11亿美金TVL,@Plasma 这盘子到底是死是活? 盯着XPL那根近乎垂直的下跌K线,大多数人估计直接就划走了,必竟跌了快90%谁敢伸手接飞刀?但我这人就是头铁,越是这种市场情绪冰点,越想去扒扒代码和链上数据,看看是不是错杀。最近被以太坊主网的Gas费折磨得不轻,转个U几十刀没了,这就显得@Plasma 的Paymaster机制有点意思。之前总觉得“零Gas”是个伪命题,或者是项目方补贴的营销噱头,但实测下来,稳定币转账确实做到了无感,这体检跟用支付宝差不多,直接把Web3最反人类的“必须先买原生代币做Gas”这个门槛给抹平了。相比之下,那些还在卷TPS的L2,如果不解决Gas支付体验这一层,很难真正让圈外人进来,这才是Mass Adoption该有的样子。 技术架构上虽然兼容EVM,开发者迁移没什么成本,但真正让我觉得有点底气的是它把状态定期锚定在比特币网络上。在现在这个动荡的行情下,借BTC的安全性背书算是个聪明的讨巧做法。链上资金不说谎,Maple Finance上的SyrupUSDT池子锁了11亿美金,这体量绝对不是散户冲出来的,机构愿意把大钱沉淀在这里,说明对底层的安全性是有共识的。再加上Rain cards和Oobit接入Visa网络这些落地场景,甚至搞了符合MiCA监管的欧圆稳定币EUROP,看着是想走合规支付的老路子,这在监管越来越严的背景下反而是张王牌。 当然槽点也是明摆着的,目前的验证者节点还是过于中心化,说白了还是团队在控盘,这点必须得认清,去中心化程度不够始终是个雷。生态也确实单薄得像张纸,除了转账和借贷,没啥好玩的Dapp,不像Solana那边土狗漫天飞那么热闹。现阶段它更像是一个偏科的优等生,基建做得挺扎实,但缺乏让用户留存的娱乐性应用。Web3喊了这么多年落地,最后还得看谁能让大妈都能无门槛转账。#plasma $XPL
跌了90%还能沉淀11亿美金TVL,@Plasma 这盘子到底是死是活?
盯着XPL那根近乎垂直的下跌K线,大多数人估计直接就划走了,必竟跌了快90%谁敢伸手接飞刀?但我这人就是头铁,越是这种市场情绪冰点,越想去扒扒代码和链上数据,看看是不是错杀。最近被以太坊主网的Gas费折磨得不轻,转个U几十刀没了,这就显得@Plasma 的Paymaster机制有点意思。之前总觉得“零Gas”是个伪命题,或者是项目方补贴的营销噱头,但实测下来,稳定币转账确实做到了无感,这体检跟用支付宝差不多,直接把Web3最反人类的“必须先买原生代币做Gas”这个门槛给抹平了。相比之下,那些还在卷TPS的L2,如果不解决Gas支付体验这一层,很难真正让圈外人进来,这才是Mass Adoption该有的样子。
技术架构上虽然兼容EVM,开发者迁移没什么成本,但真正让我觉得有点底气的是它把状态定期锚定在比特币网络上。在现在这个动荡的行情下,借BTC的安全性背书算是个聪明的讨巧做法。链上资金不说谎,Maple Finance上的SyrupUSDT池子锁了11亿美金,这体量绝对不是散户冲出来的,机构愿意把大钱沉淀在这里,说明对底层的安全性是有共识的。再加上Rain cards和Oobit接入Visa网络这些落地场景,甚至搞了符合MiCA监管的欧圆稳定币EUROP,看着是想走合规支付的老路子,这在监管越来越严的背景下反而是张王牌。
当然槽点也是明摆着的,目前的验证者节点还是过于中心化,说白了还是团队在控盘,这点必须得认清,去中心化程度不够始终是个雷。生态也确实单薄得像张纸,除了转账和借贷,没啥好玩的Dapp,不像Solana那边土狗漫天飞那么热闹。现阶段它更像是一个偏科的优等生,基建做得挺扎实,但缺乏让用户留存的娱乐性应用。Web3喊了这么多年落地,最后还得看谁能让大妈都能无门槛转账。#plasma $XPL
当我们还在为了省Gas费精算的时候,支付链的战争其实已经变天了:深度复盘Plasma重构后的真实体验与野心凌晨三点,盯着屏幕上那笔在Arbitrum上卡了半天的USDC转账,我突然有种极度的荒谬感,这都2026年了,我们这帮所谓的Web3原住民,居然还在为了几美金的Gas费跟拥堵的内存池博弈,更可笑的是,为了转这点稳定币,还得时刻盯着钱包里ETH的余额够不够,这种割裂的体验放在传统金融世界里简直就是笑话,也就是在这个被“去中心化”叙事绑架的圈子里,大家才会把这种反人性的交互当成理所当然,正好这几天一直在测Plasma的新网,那种对比感实在是太强烈了,强烈到我必须把这些充满偏见和个人情绪的观察记录下来,不谈币价,就谈这该死的基础设施到底能不能用。 说实话,之前我对@Plasma 这套架构是存疑的,毕竟V神几年前就把这玩意儿扫进历史垃圾堆了,大家都去搞Rollup,谁还记得这个“上一代”的扩容方案,但真正跑了一遍现在的XPL网络,我才意识到此Plasma非彼Plasma,团队显然是把Reth这东西吃透了,以前我们跑节点,Geth那个同步速度简直能把人气死,硬盘空间稍微小点都得崩,但这次体验Reth构建的执行层,那种丝般顺滑的感觉真的久违了,Rust写的客户端在内存管理和并发处理上确实是碾压级别的存在,这不仅仅是性能指标的问题,而是关乎到底能不能在大规模高并发下还能保持“不死机”的底气,我看了一下他们把状态转换逻辑直接嵌在共识层里的做法,这其实很大胆,甚至有点反直觉,因为现在的趋势是模块化,大家恨不得把DA、执行、结算全拆开,Plasma反其道而行之,搞了个高度集成的支付原语,这让我想起了苹果,软硬一体虽然封闭,但体验就是好。 最让我觉得“这就对了”的功能,其实是Gas抽象,在以太坊生态里,EIP-4337喊了那么久,真正落地的场景还是少,大部分用户还得忍受助记词和Gas费的双重折磨,但在Plasma上,我试着用USDT直接支付Gas,整个过程无感得让我以为自己在用支付宝,这背后的Paymaster机制虽然不是什么新发明,但能把这东西做到协议层原生支持,而不是靠钱包服务商去打补丁,这完全是两个维度的叙事,想象一下,你让一个刚进圈的小白去搞清楚什么是ETH,什么是Gas Price,什么是Gwei,他大概率直接卸载APP,但如果你告诉他,转账手续费直接从你转的钱里扣,这就很符合直觉,我在测试网转了几笔大额交易,特意去看了链上数据,那个确认速度确实快,而且是那种确定性的快,不是Solana那种偶尔还得担心会不会回滚的快,这里不得不提一下Solana,虽然大家总拿它当高性能公链的标杆,但那堆积如山的垃圾交易和时不时的宕机风险,总让我觉得那是建立在沙堆上的摩天大楼,而Plasma给我的感觉更像是一座还没装修完的钢筋混凝土堡垒,丑是丑了点,但地基打得是真的深。 当然,作为一名老韭菜,光看优点是不客观的,我也发现了一些让人不安的细节,比如在浏览器的验证者列表里,目前的中心化程度还是肉眼可见的高,虽然官方说这是为了早期网络的稳定性和安全性,但这套说辞我听了太多遍了,所有的公链在起步阶段都说自己会渐进式去中心化,但真正做到的没几个,Plasma现在的TPS跑得欢,很大程度上是因为节点少、共识达成快,一旦未来节点数量上来,那种号称秒级的Finality还能不能保住,我是打个问号的,而且我看代码的时候发现,他们为了追求极致的支付效率,在智能合约的通用性上是做了妥协的,这意味着如果你想在上面跑那种逻辑极其复杂的DeFi乐高,可能会遇到兼容性问题,这其实也是一种取舍,就像你不能指望一辆F1赛车去拉货,它生来就是为了在这个垂直赛道上跑第一的。 还有个很有意思的对比,现在市面上那么多L2,Optimism也好,Arbitrum也罢,本质上都是在吸以太坊的血,它们的安全虽然有主网兜底,但那个提款期和交互成本,始终是悬在头顶的达摩克里斯之剑,Plasma现在的定位更像是一个拥有独立主权但又跟以太坊保持暧昧关系的侧链进化体,它利用了以太坊的生态和流动性,却不想被以太坊的EVM包袱给拖死,这种“渣男”策略其实很聪明,特别是在稳定币支付这个战场,用户根本不在乎你是不是Layer 2,用户只在乎我的钱能不能秒到,手续费能不能忽略不计,这点上,Stable这种竞品也在做,但我总觉得Stable太过于依赖Tether背后的资源,缺乏一种技术上的原生美感,而Plasma这种死磕底层代码,试图从数学和密码学层面解决信任问题的路子,更对我的胃口。 昨天深夜为了测试极限情况,我写了个脚本搞了一波小规模的压力测试,模拟几千笔微小额支付同时发起,结果你猜怎么着,网络确实出现了一点拥堵,Gas费也有所飙升,但并没有出现交易丢失的情况,这说明他们的Mempool管理机制是经得起考验的,不像某些高性能链一压测就直接宕机,不过这也暴露出一个问题,就是当网络真正拥堵的时候,那个所谓的“稳定币付Gas”的汇率换算机制,会不会因为预言机的延迟而出现套利空间?我在白皮书里没找到太详细的解释,这可能是一个潜在的攻击面,毕竟黑客最喜欢这种跨资产结算的缝隙了,如果我是攻击者,我肯定会盯着这个Paymaster的资金池搞事情,看看能不能把里面的流动性给抽干。 再说回生态,现在上面的应用确实还比较贫瘠,除了几个官方扶持的钱包和支付网关,原生应用并不多,这其实是所有新公链的通病,技术再牛,没人用也是白搭,但我注意到社区里的开发者氛围还挺硬核的,大家讨论的都是Rust代码优化、零知识证明的聚合效率这种真东西,而不是满屏的“什么时候拉盘”,这种冷清但专注的氛围反倒让我觉得有点希望,毕竟上一轮牛市里那些吵吵嚷嚷的项目,现在坟头草都两米高了,真正的创新往往都是在无人问津的角落里发芽的,我现在最好奇的是,等到2026年下半年,那几个大的解锁节点到来的时候,这帮现在埋头写代码的人,能不能顶得住资本市场的血洗,毕竟技术理想在K线图面前,往往脆弱得不堪一击。 还有一个被很多人忽视的点,就是隐私,现在的支付链大多是全透明的,这对于商业支付其实是致命的,谁也不想让竞争对手知道自己的流水,Plasma虽然在路线图里提到了隐私计算的模块,但目前还没看到实装,如果他们能把ZK技术无缝集成进支付流程,做到既合规又有一定的隐私保护,那才是真正的杀手锏,现在这种裸奔的状态,只能说是完成了一个半成品,我试着用几个混币器的思路去操作,发现由于账户模型的限制,很难做到完全的匿名,这对于那些对资金流向敏感的大户来说,依然是个门槛。 写到这,窗外的天已经快亮了,看着测试节点还在后台默默地出块,每一行日志的跳动都代表着一次状态的变更,这种确定性让我感到莫名的安心,我们在这个充满了欺诈、泡沫和空气的行业里,寻找的不就是这样一种确定的代码逻辑吗?Plasma肯定不是完美的,它身上的毛病和它的野心一样明显,但至少它在尝试回答一个被我们忽略已久的问题:区块链到底能不能像发邮件一样简单地发钱?现在的答案可能还是“Maybe”,但看着Reth那个优雅的架构,我觉得离“Yes”已经不远了,比起那些还在PPT上画饼的Layer 3、Layer 4,我更愿意在这样有瑕疵但真实的代码上浪费时间,毕竟,在这场关于支付的终局之战里,最后的赢家一定不是那个喊得最响的,而是那个默默把路铺得最平的,至于XPL以后会怎么样,交给市场去博弈吧,我只关心我的下一行代码能不能在这个网络上跑得再快哪怕一毫秒。#plasma $XPL

当我们还在为了省Gas费精算的时候,支付链的战争其实已经变天了:深度复盘Plasma重构后的真实体验与野心

凌晨三点,盯着屏幕上那笔在Arbitrum上卡了半天的USDC转账,我突然有种极度的荒谬感,这都2026年了,我们这帮所谓的Web3原住民,居然还在为了几美金的Gas费跟拥堵的内存池博弈,更可笑的是,为了转这点稳定币,还得时刻盯着钱包里ETH的余额够不够,这种割裂的体验放在传统金融世界里简直就是笑话,也就是在这个被“去中心化”叙事绑架的圈子里,大家才会把这种反人性的交互当成理所当然,正好这几天一直在测Plasma的新网,那种对比感实在是太强烈了,强烈到我必须把这些充满偏见和个人情绪的观察记录下来,不谈币价,就谈这该死的基础设施到底能不能用。
说实话,之前我对@Plasma 这套架构是存疑的,毕竟V神几年前就把这玩意儿扫进历史垃圾堆了,大家都去搞Rollup,谁还记得这个“上一代”的扩容方案,但真正跑了一遍现在的XPL网络,我才意识到此Plasma非彼Plasma,团队显然是把Reth这东西吃透了,以前我们跑节点,Geth那个同步速度简直能把人气死,硬盘空间稍微小点都得崩,但这次体验Reth构建的执行层,那种丝般顺滑的感觉真的久违了,Rust写的客户端在内存管理和并发处理上确实是碾压级别的存在,这不仅仅是性能指标的问题,而是关乎到底能不能在大规模高并发下还能保持“不死机”的底气,我看了一下他们把状态转换逻辑直接嵌在共识层里的做法,这其实很大胆,甚至有点反直觉,因为现在的趋势是模块化,大家恨不得把DA、执行、结算全拆开,Plasma反其道而行之,搞了个高度集成的支付原语,这让我想起了苹果,软硬一体虽然封闭,但体验就是好。
最让我觉得“这就对了”的功能,其实是Gas抽象,在以太坊生态里,EIP-4337喊了那么久,真正落地的场景还是少,大部分用户还得忍受助记词和Gas费的双重折磨,但在Plasma上,我试着用USDT直接支付Gas,整个过程无感得让我以为自己在用支付宝,这背后的Paymaster机制虽然不是什么新发明,但能把这东西做到协议层原生支持,而不是靠钱包服务商去打补丁,这完全是两个维度的叙事,想象一下,你让一个刚进圈的小白去搞清楚什么是ETH,什么是Gas Price,什么是Gwei,他大概率直接卸载APP,但如果你告诉他,转账手续费直接从你转的钱里扣,这就很符合直觉,我在测试网转了几笔大额交易,特意去看了链上数据,那个确认速度确实快,而且是那种确定性的快,不是Solana那种偶尔还得担心会不会回滚的快,这里不得不提一下Solana,虽然大家总拿它当高性能公链的标杆,但那堆积如山的垃圾交易和时不时的宕机风险,总让我觉得那是建立在沙堆上的摩天大楼,而Plasma给我的感觉更像是一座还没装修完的钢筋混凝土堡垒,丑是丑了点,但地基打得是真的深。
当然,作为一名老韭菜,光看优点是不客观的,我也发现了一些让人不安的细节,比如在浏览器的验证者列表里,目前的中心化程度还是肉眼可见的高,虽然官方说这是为了早期网络的稳定性和安全性,但这套说辞我听了太多遍了,所有的公链在起步阶段都说自己会渐进式去中心化,但真正做到的没几个,Plasma现在的TPS跑得欢,很大程度上是因为节点少、共识达成快,一旦未来节点数量上来,那种号称秒级的Finality还能不能保住,我是打个问号的,而且我看代码的时候发现,他们为了追求极致的支付效率,在智能合约的通用性上是做了妥协的,这意味着如果你想在上面跑那种逻辑极其复杂的DeFi乐高,可能会遇到兼容性问题,这其实也是一种取舍,就像你不能指望一辆F1赛车去拉货,它生来就是为了在这个垂直赛道上跑第一的。
还有个很有意思的对比,现在市面上那么多L2,Optimism也好,Arbitrum也罢,本质上都是在吸以太坊的血,它们的安全虽然有主网兜底,但那个提款期和交互成本,始终是悬在头顶的达摩克里斯之剑,Plasma现在的定位更像是一个拥有独立主权但又跟以太坊保持暧昧关系的侧链进化体,它利用了以太坊的生态和流动性,却不想被以太坊的EVM包袱给拖死,这种“渣男”策略其实很聪明,特别是在稳定币支付这个战场,用户根本不在乎你是不是Layer 2,用户只在乎我的钱能不能秒到,手续费能不能忽略不计,这点上,Stable这种竞品也在做,但我总觉得Stable太过于依赖Tether背后的资源,缺乏一种技术上的原生美感,而Plasma这种死磕底层代码,试图从数学和密码学层面解决信任问题的路子,更对我的胃口。
昨天深夜为了测试极限情况,我写了个脚本搞了一波小规模的压力测试,模拟几千笔微小额支付同时发起,结果你猜怎么着,网络确实出现了一点拥堵,Gas费也有所飙升,但并没有出现交易丢失的情况,这说明他们的Mempool管理机制是经得起考验的,不像某些高性能链一压测就直接宕机,不过这也暴露出一个问题,就是当网络真正拥堵的时候,那个所谓的“稳定币付Gas”的汇率换算机制,会不会因为预言机的延迟而出现套利空间?我在白皮书里没找到太详细的解释,这可能是一个潜在的攻击面,毕竟黑客最喜欢这种跨资产结算的缝隙了,如果我是攻击者,我肯定会盯着这个Paymaster的资金池搞事情,看看能不能把里面的流动性给抽干。
再说回生态,现在上面的应用确实还比较贫瘠,除了几个官方扶持的钱包和支付网关,原生应用并不多,这其实是所有新公链的通病,技术再牛,没人用也是白搭,但我注意到社区里的开发者氛围还挺硬核的,大家讨论的都是Rust代码优化、零知识证明的聚合效率这种真东西,而不是满屏的“什么时候拉盘”,这种冷清但专注的氛围反倒让我觉得有点希望,毕竟上一轮牛市里那些吵吵嚷嚷的项目,现在坟头草都两米高了,真正的创新往往都是在无人问津的角落里发芽的,我现在最好奇的是,等到2026年下半年,那几个大的解锁节点到来的时候,这帮现在埋头写代码的人,能不能顶得住资本市场的血洗,毕竟技术理想在K线图面前,往往脆弱得不堪一击。
还有一个被很多人忽视的点,就是隐私,现在的支付链大多是全透明的,这对于商业支付其实是致命的,谁也不想让竞争对手知道自己的流水,Plasma虽然在路线图里提到了隐私计算的模块,但目前还没看到实装,如果他们能把ZK技术无缝集成进支付流程,做到既合规又有一定的隐私保护,那才是真正的杀手锏,现在这种裸奔的状态,只能说是完成了一个半成品,我试着用几个混币器的思路去操作,发现由于账户模型的限制,很难做到完全的匿名,这对于那些对资金流向敏感的大户来说,依然是个门槛。
写到这,窗外的天已经快亮了,看着测试节点还在后台默默地出块,每一行日志的跳动都代表着一次状态的变更,这种确定性让我感到莫名的安心,我们在这个充满了欺诈、泡沫和空气的行业里,寻找的不就是这样一种确定的代码逻辑吗?Plasma肯定不是完美的,它身上的毛病和它的野心一样明显,但至少它在尝试回答一个被我们忽略已久的问题:区块链到底能不能像发邮件一样简单地发钱?现在的答案可能还是“Maybe”,但看着Reth那个优雅的架构,我觉得离“Yes”已经不远了,比起那些还在PPT上画饼的Layer 3、Layer 4,我更愿意在这样有瑕疵但真实的代码上浪费时间,毕竟,在这场关于支付的终局之战里,最后的赢家一定不是那个喊得最响的,而是那个默默把路铺得最平的,至于XPL以后会怎么样,交给市场去博弈吧,我只关心我的下一行代码能不能在这个网络上跑得再快哪怕一毫秒。#plasma $XPL
都在喊AI公链,扒开外皮我看也就是个算力二道贩子 满屏都在刷 AI+DePIN,看得人脑壳疼,手里拿着几个所谓的热门 AI 币,实际跑了一下交互,那种滞涩感简直让人想砸键盘。大部分项目所谓的 AI 叙事,说白了就是把英伟达的散力倒卖一遍,做个去中心化租赁平台,这跟真正的 Web3 原生智能差了十万八千里。我最近盯着…@Vanar 的技术文档啃了两天,发现他们那个 TensorRT 集成有点东西,这盘琪下得比我想象中大。 咱们惯性思维觉得公链就是记账的,但 AI 模型推理要的是毫秒级并发,这两个逻辑天生互斥。你看现在的 ETH L2 甚至 Solana,虽然 TPS 吹得高,但真把一个 7B 参数的模型放上去跑跑看?光 Gas 费就能把项目方跑破产。这就好比你非要开着拖拉机去跑 F1 赛道,底盘都不对。Vanar 聪明在它不是硬塞,而是利用 CUDA-X AI 做了个专门的计算层,这种架构明显是想从底层解决推理任务的高频交互问题,而不是仅仅做个数据库。 特别是那个 Neutron 语义记忆层,这招挺绝。它把庞大的训练数据压缩成链上能读的种子,这就解决了那个最头疼的数据吞吐成本问题。如果不解决这个,所谓的 AI Agent 链上交互就是伪命题,毕竟谁也付不起每句话都要上链存储的钱。相比之下,市面上很多竞品还在纠结怎么把数据存得更分散,Vanar 已经在琢磨怎么让数据变轻了,这种技术嗅觉确实更敏锐一些。 如果未来的 Agent 经济真的爆发,肯定是机器对机器的自动结算,而不是人肉去点小狐狸钱包签名。Vanar 这种跟 Google Cloud 还有英伟达勾兑这么深的架构,明显是奔着合规的企业级吞吐量去的。别只盯着 K 线图上的涨跌,能在基础设施层把 AI 负载真正跑通的,才是下个周期的 Alpha,至于那些还在卖节点的 PPT 项目,趁早洗洗睡吧。#vanar $VANRY
都在喊AI公链,扒开外皮我看也就是个算力二道贩子
满屏都在刷 AI+DePIN,看得人脑壳疼,手里拿着几个所谓的热门 AI 币,实际跑了一下交互,那种滞涩感简直让人想砸键盘。大部分项目所谓的 AI 叙事,说白了就是把英伟达的散力倒卖一遍,做个去中心化租赁平台,这跟真正的 Web3 原生智能差了十万八千里。我最近盯着…@Vanarchain 的技术文档啃了两天,发现他们那个 TensorRT 集成有点东西,这盘琪下得比我想象中大。
咱们惯性思维觉得公链就是记账的,但 AI 模型推理要的是毫秒级并发,这两个逻辑天生互斥。你看现在的 ETH L2 甚至 Solana,虽然 TPS 吹得高,但真把一个 7B 参数的模型放上去跑跑看?光 Gas 费就能把项目方跑破产。这就好比你非要开着拖拉机去跑 F1 赛道,底盘都不对。Vanar 聪明在它不是硬塞,而是利用 CUDA-X AI 做了个专门的计算层,这种架构明显是想从底层解决推理任务的高频交互问题,而不是仅仅做个数据库。
特别是那个 Neutron 语义记忆层,这招挺绝。它把庞大的训练数据压缩成链上能读的种子,这就解决了那个最头疼的数据吞吐成本问题。如果不解决这个,所谓的 AI Agent 链上交互就是伪命题,毕竟谁也付不起每句话都要上链存储的钱。相比之下,市面上很多竞品还在纠结怎么把数据存得更分散,Vanar 已经在琢磨怎么让数据变轻了,这种技术嗅觉确实更敏锐一些。
如果未来的 Agent 经济真的爆发,肯定是机器对机器的自动结算,而不是人肉去点小狐狸钱包签名。Vanar 这种跟 Google Cloud 还有英伟达勾兑这么深的架构,明显是奔着合规的企业级吞吐量去的。别只盯着 K 线图上的涨跌,能在基础设施层把 AI 负载真正跑通的,才是下个周期的 Alpha,至于那些还在卖节点的 PPT 项目,趁早洗洗睡吧。#vanar $VANRY
别被高 TPS 骗了:我在 Vanar 和 Solana 跑完一轮 AI Agent 后的残酷真相最近这一周我几乎没怎么睡好觉,满脑子都是代码重构和 gas 费优化的破事。起因很简单,这轮牛市虽然都在喊 AI+Crypto 是主线,但市面上百分之九十的项目纯粹是在挂羊头卖狗肉,看着那一堆所谓的 AI Agent 平台,实际上就是个发币机器,本质上跟两年前的土狗盘没有任何区别。作为一个在这个圈子里摸爬滚打几年,写过合约也搞过量化策略的人,我实在受不了这种智商侮辱,于是决定自己动手,想看看在现有的基础设施上,到底能不能跑通一个真正具备“长期记忆”和“自主决策”能力的链上智能体。为了让这个实验更有对比性,我选择了目前号称性能最强的 Solana,以及最近在开发者社区讨论度开始起来的 @Vanar ,结果这一跑,直接把我的很多固有认知给跑崩了,甚至让我对整个 L1 的竞争格局有了完全不一样的看法。 先说说大家最迷信的 TPS 指标,这简直是 Web3 最大的谎言。在 Solana 上部署测试 Agent 的时候,我最直观的感受是“快,但是傻”。我写的一个简单逻辑是让 Agent 监控几个 DeFi 协议的收益率,并根据历史一周的数据波动来调整仓位。这在 Web2 的世界里,用 Python 写个脚本跑在 AWS 上也就是几行代码的事,但在 Solana 上简直就是灾难。虽然它处理交易的速度确实快,但问题在于链上并没有给 Agent 留出足够的“脑容量”。每一次我的 Agent 需要调用历史数据进行推理时,都需要从链下索引器去抓取,然后再把数据喂回链上进行计算,这一来一回,所谓的高 TPS 根本没有任何意义,因为瓶颈卡在了 I/O 和状态同步上。这就好比你给一个短跑运动员装了个金鱼的脑子,他跑得再快,每跑十米就得停下来问一句“我在哪?我要干嘛?”,这能叫智能吗?这充其量叫自动化的条件反射。 带着这种挫败感,我把同样的逻辑迁移到了 Vanar 上。说实话,一开始我对 Vanar 是带着偏见的,毕竟现在是个公链都在蹭 AI 的热度,我以为它也就是个搞了点概念营销的 EVM 侧链。但当我硬着头皮去啃它的技术文档,特别是关于 Resource Model 那部分时,我发现这帮人是在玩真的。Vanar 的架构设计里,最让我震惊的是它对“状态”和“计算”的解耦方式。在 Vanar 上,我的 Agent 不再是一个无状态的脚本,它更像是一个拥有独立硬盘空间的程序。我测试那个收益率分析策略时,惊讶地发现我可以把一部分热数据直接缓存在链上的特定存储层中,而且调用的 gas 费用并没有我想象中那么夸张。这不是魔法,这是在底层架构上就把 AI 模型需要的推理(Inference)环境考虑进去了。 这种差异在代码层面体现得淋漓尽致。在 Solana 或者以太坊上,为了省 gas,我必须把所有的逻辑极度压缩,甚至要把浮点数运算砍掉,因为链上根本跑不动复杂的数学模型。但在 Vanar 的测试网环境中,我居然成功运行了一个轻量级的机器学习回归模型,虽然比起 Web2 的服务器还是有延迟,但它是原生的、在链上完成的。这意味着什么?意味着这个 Agent 是完全去中心化的,没有人能拔掉它的电源,也没有人能篡改它的推理逻辑。之前我们在其他链上看到的所谓 AI 项目,大多是把计算放在链下服务器,链上只是存个哈希值,这种脱裤子放屁的“链下计算链上验证”模式,在 Vanar 这种原生架构面前显得非常笨重。 当然,Vanar 也不是没有槽点,这我也得客观说两句。目前的开发者工具链相比于以太坊生态还是显得太原始了,我在调试的时候遇到了好几次报错,文档里根本查不到,只能去 Discord 里抓着技术支持问,虽然他们回复挺快,但这种早期的荒蛮感还是很强。而且现在的生态应用确实还不够丰富,我的 Agent 虽然跑通了,但想找个深度好的 DEX 去做滑点测试都费劲,这也是所有新 L1 必须跨过的坎。不过反过来看,这种“空旷”反而让我觉得兴奋,因为这意味着早期的红利期还在。现在的 Vanar 就像是 2019 年的 Solana 或者是 2020 年的 Matic,基建底子打得很好,但上面的高楼大厦还没盖起来,对于懂技术的开发者和早期埋伏的资金来说,这种不对称性才是最大的机会。 我想再深入聊聊关于竞品对比的问题,这几天我也在看 Near 和 ICP。Near 的分片技术确实厉害,也在主打 AI 叙事,但我感觉 Near 的抽象层做得太厚了,对于习惯了 EVM 开发环境的人来说,迁移成本不低。而 ICP 虽然技术很牛,甚至能在容器里跑前端,但它的整个架构太封闭,像是一个独立的局域网,缺乏跟现有 DeFi 世界的互操作性。Vanar 聪明的地方在于,它没有试图去重新发明轮子,而是在兼容 EVM 的基础上,专门针对 AI 的计算负载做了魔改。这种策略非常务实,它既保留了以太坊生态的开发者习惯,又解决了以太坊处理不了 AI 任务的痛点。这就好比以前我们都在用 CPU 挖矿,后来有人搞出了 GPU,大家虽然用的还是同样的电,插的还是同样的插座,但算力效率完全不是一个量级。 在测试过程中,我还发现了一个很有意思的经济模型细节。在传统的 L1 上,不管是转账还是跑复杂的智能合约,我们支付的都是同一种 Gas。但在 Vanar 的设计里,似乎有意在区分“交易成本”和“计算成本”。未来大规模的 AI Agent 跑在链上,如果每一次推理都要消耗巨额的 Vanar 代币作为 Gas,那肯定跑不起来。但我观察到他们的费用结构里,对于高频计算的场景是有优化的。这让我联想到了 AWS 的收费模式,你用 EC2 和用 S3 是两套计费逻辑。如果 Web3 真的要承载 AI 经济,这种精细化的成本控制是必须的。现在的公链,要么贵得要死,要么便宜得要死然后宕机,很少有像 Vanar 这样试图在商业可用性上找平衡点的。 现在回过头来看,我们这一轮周期对于“基础设施”的定义可能完全跑偏了。大家都在卷 TPS,卷谁的 finality 更快,但实际上,下一代的应用——也就是那些真正由 AI 驱动的应用,它们缺的根本不是每秒多处理几千笔交易的能力,它们缺的是一个能让数据、模型和资金无缝交互的环境。我在 Vanar 上跑完那一轮测试后,最大的感触就是:我们终于不再是强行把 AI 塞进区块链这个旧瓶子里了,而是终于有了一条链,是专门为了让 AI 在上面“生活”而设计的。这种感觉很难用语言描述,只有当你真正去写几行代码,看着那个 Agent 能够在没有你干预的情况下,独立完成一次从数据分析到链上执行的全过程,你才会明白“原生”这两个字的含金量。 但这并不意味着 Vanar 就稳赢了。技术上的先进性从来不是成功的唯一要素,当年 EOS 的技术指标也秒杀以太坊,最后还是做成了一地鸡毛。Vanar 面临的挑战是如何把这套牛逼的架构推销给那些只关心币价的散户和急功近利的 VC。现在的市场环境很浮躁,大家宁愿去冲几千万市值的 MEME,也不愿意花时间去研究一个新的 L1 到底解决了什么底层问题。我看他们的社区热度虽然在涨,但比起那些妖币还是显得太冷静了。不过这种冷静恰恰是我喜欢的,在一个充满噪音的房间里,那个坐在角落里默默擦拭武器的人,往往才是最后的赢家。 写到这里,看了一眼屏幕上的终端窗口,我的那个小 Agent 还在 Vanar 的测试网里不知疲倦地运行着,每隔几分钟就吐出一条日志。它不需要休息,不消耗咖啡,只消耗一点点微不足道的 gas。我觉得这可能就是我们一直在寻找的未来——当硅基智能开始拥有自己的资产,拥有自己的执行权,甚至拥有自己的“思考回路”时,它们需要一个新的栖息地。以太坊太拥挤,Solana 太健忘,而 Vanar,看起来确实像是一个为它们准备好的新大陆。虽然现在的它还像个大工地,到处是脚手架和未干的水泥,但地基的轮廓已经清晰可见。作为一名在这个行业里见惯了起起落落的研究者,我愿意给这个工地点上一支烟,静静地看它能不能盖起通天塔。毕竟,在区块链的世界里,偏见往往意味着踏空,而深入代码底层的傲慢,才是亏钱的根源。我不想做那个拿着旧地图找新大陆的人,Vanar 给我的体验,是一张全新的航海图,至于能不能抵达终点,那就交给时间和市场去验证了。#vanar $VANRY

别被高 TPS 骗了:我在 Vanar 和 Solana 跑完一轮 AI Agent 后的残酷真相

最近这一周我几乎没怎么睡好觉,满脑子都是代码重构和 gas 费优化的破事。起因很简单,这轮牛市虽然都在喊 AI+Crypto 是主线,但市面上百分之九十的项目纯粹是在挂羊头卖狗肉,看着那一堆所谓的 AI Agent 平台,实际上就是个发币机器,本质上跟两年前的土狗盘没有任何区别。作为一个在这个圈子里摸爬滚打几年,写过合约也搞过量化策略的人,我实在受不了这种智商侮辱,于是决定自己动手,想看看在现有的基础设施上,到底能不能跑通一个真正具备“长期记忆”和“自主决策”能力的链上智能体。为了让这个实验更有对比性,我选择了目前号称性能最强的 Solana,以及最近在开发者社区讨论度开始起来的 @Vanarchain ,结果这一跑,直接把我的很多固有认知给跑崩了,甚至让我对整个 L1 的竞争格局有了完全不一样的看法。
先说说大家最迷信的 TPS 指标,这简直是 Web3 最大的谎言。在 Solana 上部署测试 Agent 的时候,我最直观的感受是“快,但是傻”。我写的一个简单逻辑是让 Agent 监控几个 DeFi 协议的收益率,并根据历史一周的数据波动来调整仓位。这在 Web2 的世界里,用 Python 写个脚本跑在 AWS 上也就是几行代码的事,但在 Solana 上简直就是灾难。虽然它处理交易的速度确实快,但问题在于链上并没有给 Agent 留出足够的“脑容量”。每一次我的 Agent 需要调用历史数据进行推理时,都需要从链下索引器去抓取,然后再把数据喂回链上进行计算,这一来一回,所谓的高 TPS 根本没有任何意义,因为瓶颈卡在了 I/O 和状态同步上。这就好比你给一个短跑运动员装了个金鱼的脑子,他跑得再快,每跑十米就得停下来问一句“我在哪?我要干嘛?”,这能叫智能吗?这充其量叫自动化的条件反射。
带着这种挫败感,我把同样的逻辑迁移到了 Vanar 上。说实话,一开始我对 Vanar 是带着偏见的,毕竟现在是个公链都在蹭 AI 的热度,我以为它也就是个搞了点概念营销的 EVM 侧链。但当我硬着头皮去啃它的技术文档,特别是关于 Resource Model 那部分时,我发现这帮人是在玩真的。Vanar 的架构设计里,最让我震惊的是它对“状态”和“计算”的解耦方式。在 Vanar 上,我的 Agent 不再是一个无状态的脚本,它更像是一个拥有独立硬盘空间的程序。我测试那个收益率分析策略时,惊讶地发现我可以把一部分热数据直接缓存在链上的特定存储层中,而且调用的 gas 费用并没有我想象中那么夸张。这不是魔法,这是在底层架构上就把 AI 模型需要的推理(Inference)环境考虑进去了。
这种差异在代码层面体现得淋漓尽致。在 Solana 或者以太坊上,为了省 gas,我必须把所有的逻辑极度压缩,甚至要把浮点数运算砍掉,因为链上根本跑不动复杂的数学模型。但在 Vanar 的测试网环境中,我居然成功运行了一个轻量级的机器学习回归模型,虽然比起 Web2 的服务器还是有延迟,但它是原生的、在链上完成的。这意味着什么?意味着这个 Agent 是完全去中心化的,没有人能拔掉它的电源,也没有人能篡改它的推理逻辑。之前我们在其他链上看到的所谓 AI 项目,大多是把计算放在链下服务器,链上只是存个哈希值,这种脱裤子放屁的“链下计算链上验证”模式,在 Vanar 这种原生架构面前显得非常笨重。
当然,Vanar 也不是没有槽点,这我也得客观说两句。目前的开发者工具链相比于以太坊生态还是显得太原始了,我在调试的时候遇到了好几次报错,文档里根本查不到,只能去 Discord 里抓着技术支持问,虽然他们回复挺快,但这种早期的荒蛮感还是很强。而且现在的生态应用确实还不够丰富,我的 Agent 虽然跑通了,但想找个深度好的 DEX 去做滑点测试都费劲,这也是所有新 L1 必须跨过的坎。不过反过来看,这种“空旷”反而让我觉得兴奋,因为这意味着早期的红利期还在。现在的 Vanar 就像是 2019 年的 Solana 或者是 2020 年的 Matic,基建底子打得很好,但上面的高楼大厦还没盖起来,对于懂技术的开发者和早期埋伏的资金来说,这种不对称性才是最大的机会。
我想再深入聊聊关于竞品对比的问题,这几天我也在看 Near 和 ICP。Near 的分片技术确实厉害,也在主打 AI 叙事,但我感觉 Near 的抽象层做得太厚了,对于习惯了 EVM 开发环境的人来说,迁移成本不低。而 ICP 虽然技术很牛,甚至能在容器里跑前端,但它的整个架构太封闭,像是一个独立的局域网,缺乏跟现有 DeFi 世界的互操作性。Vanar 聪明的地方在于,它没有试图去重新发明轮子,而是在兼容 EVM 的基础上,专门针对 AI 的计算负载做了魔改。这种策略非常务实,它既保留了以太坊生态的开发者习惯,又解决了以太坊处理不了 AI 任务的痛点。这就好比以前我们都在用 CPU 挖矿,后来有人搞出了 GPU,大家虽然用的还是同样的电,插的还是同样的插座,但算力效率完全不是一个量级。
在测试过程中,我还发现了一个很有意思的经济模型细节。在传统的 L1 上,不管是转账还是跑复杂的智能合约,我们支付的都是同一种 Gas。但在 Vanar 的设计里,似乎有意在区分“交易成本”和“计算成本”。未来大规模的 AI Agent 跑在链上,如果每一次推理都要消耗巨额的 Vanar 代币作为 Gas,那肯定跑不起来。但我观察到他们的费用结构里,对于高频计算的场景是有优化的。这让我联想到了 AWS 的收费模式,你用 EC2 和用 S3 是两套计费逻辑。如果 Web3 真的要承载 AI 经济,这种精细化的成本控制是必须的。现在的公链,要么贵得要死,要么便宜得要死然后宕机,很少有像 Vanar 这样试图在商业可用性上找平衡点的。
现在回过头来看,我们这一轮周期对于“基础设施”的定义可能完全跑偏了。大家都在卷 TPS,卷谁的 finality 更快,但实际上,下一代的应用——也就是那些真正由 AI 驱动的应用,它们缺的根本不是每秒多处理几千笔交易的能力,它们缺的是一个能让数据、模型和资金无缝交互的环境。我在 Vanar 上跑完那一轮测试后,最大的感触就是:我们终于不再是强行把 AI 塞进区块链这个旧瓶子里了,而是终于有了一条链,是专门为了让 AI 在上面“生活”而设计的。这种感觉很难用语言描述,只有当你真正去写几行代码,看着那个 Agent 能够在没有你干预的情况下,独立完成一次从数据分析到链上执行的全过程,你才会明白“原生”这两个字的含金量。
但这并不意味着 Vanar 就稳赢了。技术上的先进性从来不是成功的唯一要素,当年 EOS 的技术指标也秒杀以太坊,最后还是做成了一地鸡毛。Vanar 面临的挑战是如何把这套牛逼的架构推销给那些只关心币价的散户和急功近利的 VC。现在的市场环境很浮躁,大家宁愿去冲几千万市值的 MEME,也不愿意花时间去研究一个新的 L1 到底解决了什么底层问题。我看他们的社区热度虽然在涨,但比起那些妖币还是显得太冷静了。不过这种冷静恰恰是我喜欢的,在一个充满噪音的房间里,那个坐在角落里默默擦拭武器的人,往往才是最后的赢家。
写到这里,看了一眼屏幕上的终端窗口,我的那个小 Agent 还在 Vanar 的测试网里不知疲倦地运行着,每隔几分钟就吐出一条日志。它不需要休息,不消耗咖啡,只消耗一点点微不足道的 gas。我觉得这可能就是我们一直在寻找的未来——当硅基智能开始拥有自己的资产,拥有自己的执行权,甚至拥有自己的“思考回路”时,它们需要一个新的栖息地。以太坊太拥挤,Solana 太健忘,而 Vanar,看起来确实像是一个为它们准备好的新大陆。虽然现在的它还像个大工地,到处是脚手架和未干的水泥,但地基的轮廓已经清晰可见。作为一名在这个行业里见惯了起起落落的研究者,我愿意给这个工地点上一支烟,静静地看它能不能盖起通天塔。毕竟,在区块链的世界里,偏见往往意味着踏空,而深入代码底层的傲慢,才是亏钱的根源。我不想做那个拿着旧地图找新大陆的人,Vanar 给我的体验,是一张全新的航海图,至于能不能抵达终点,那就交给时间和市场去验证了。#vanar $VANRY
还好买完突然想起那句,孙割的话你得听,孙割推的项目你别碰,果断撤销买入。
还好买完突然想起那句,孙割的话你得听,孙割推的项目你别碰,果断撤销买入。
创始人在卖热狗。
创始人在卖热狗。
Daft Punk马到成功版
·
--
狗狗币创始人Billy Markus洛杉矶街头卖热狗,支持DOGE支付:从Meme币到Meme热狗的“终极闭环”
洛杉矶,2025年8月24日 —— 狗狗币(DOGE)联合创始人Billy Markus近日被拍到在美国洛杉矶街头摆摊卖热狗,招牌上赫然写着:“1 DOGE = 1热狗”,引发网友热议。这位曾经的加密货币先驱,如今以另一种方式延续了他的“Meme精神”。
“1 DOGE = 1热狗”:价格恒定,情怀无价
Markus的热狗摊位于洛杉矶Venice Beach附近,招牌上的定价简单粗暴:1枚DOGE兑换1个热狗。按当前DOGE价格(约0.12美元)计算,这个价格甚至比普通热狗(通常3-5美元)便宜不少。但Markus在接受采访时表示:
“这不是生意,这是行为艺术。DOGE本来就是玩笑,现在我用玩笑养活自己,很合理吧?”
现场不少加密货币爱好者专程前来用DOGE支付,甚至有人一次性买了10个热狗,就为了“体验一把用Meme币买Meme食品”的仪式感。
网友调侃:“从Meme币到Meme热狗,狗狗币生态闭环了”
这一场景迅速在社交媒体上疯传,网友纷纷玩梗:
- “狗狗币最初是笑话,现在创始人卖热狗也是笑话,这才是真正的去中心化!”
- “建议改名叫HotDoge,直接发币融资!”
- “下一步是不是该出热狗NFT了?吃过的热狗上链存证?”
甚至有人建议Markus发行“热狗链”(HotDog Chain),用热狗作为Gas费,实现“物理+虚拟双重Meme经济”。
Billy Markus的“加密再就业”之路
Markus在2013年与Jackson Palmer共同创建狗狗币,初衷是嘲讽当时疯狂的ICO泡沫。然而,DOGE却意外成为市值前十的加密货币,并被马斯克多次带货。2021年,Markus清仓所有DOGE,套现后一度淡出币圈。
如今,他以“街头热狗商贩”身份回归,似乎是对加密货币行业的一种另类反思。他在X(原Twitter)上写道:
“十年后,DOGE还活着,但我只是个卖热狗的。这大概就是去中心化的胜利吧。”
市场反应:DOGE价格短暂拉升5%
消息传出后,DOGE价格短时间内上涨约5%,但随后回落。有分析师调侃:
“这是史上最便宜的企业回购——用热狗回收DOGE,建议所有项目方学习。”
目前,Markus尚未透露是否会将“热狗摊”扩展成连锁品牌,但网友已经自发创建了DogeHotDogChallenge,鼓励全球DOGE持有者用代币购买热狗并晒单。$DOGE
{future}(DOGEUSDT)
服务业越来越卷了。
服务业越来越卷了。
转账活动。
转账活动。
撕开Dusk的Citadel协议:除了合规,ZK还能这么玩? 最近跑了一遍@Dusk_Foundation 的测试网数据,顺便扒了下Citadel协议的底层逻辑,说实话有点意思。市面上大多数隐私公链,要么像Monero那样做绝对的匿名,要么像Oasis那样搞个隐私计算层Sapphire,但Dusk这套路子有点野,它直接把合规层嵌到了Layer 1里。这就好比你在以太坊发一笔交易,原本只需要Gas费,现在还需要附带一个“我合规”的零知识证明,这种强制性的架构设计在目前的EVM体系里非常少见。 很多人没搞懂Citadel的核心竞争力,以为它只是个KYC工具,其实它解决的是DeFi目前最恶心的“白名单困境”。现在的RWA项目或者许可池,比如Aave Arc,为了合规通常得搞个中心化的白名单合约,把你的地址写进去,这既笨重又暴露隐私。Dusk的做法是用ZKP把身份验证变成了本地化行为,我向节点证明“我是合格投资者”,但节点根本不知道我是谁,只知道我的证明有效。这比那些简单的隐私币高了不止一个维度,它是在做可编程的隐私。 不过有一说一,这种架构对客户端的压力不小。我在测试交互的时候明显感觉到,生成Proof的过程比普通签名要慢,如果碰上配置低的电脑,浏览器可能会卡顿。这也是ZK类项目的通病,计算下放到前端,体验必然会有折损。但这可能是机构入场的唯一解,毕竟高盛那帮人不可能把交易记录裸奔在链上,也不可能像散户一样去玩Tornado Cash。比起以太坊上那些打补丁式的Layer 2隐私方案,Dusk这种原生的合规底层反而更像未来金融基础设施该有的样子,只是不知道主网上线后,这个Prover的生成效率能不能扛得住高并发,毕竟合规虽好,若是交互太繁索,流动性肯定会打折扣。#dusk $DUSK
撕开Dusk的Citadel协议:除了合规,ZK还能这么玩?
最近跑了一遍@Dusk 的测试网数据,顺便扒了下Citadel协议的底层逻辑,说实话有点意思。市面上大多数隐私公链,要么像Monero那样做绝对的匿名,要么像Oasis那样搞个隐私计算层Sapphire,但Dusk这套路子有点野,它直接把合规层嵌到了Layer 1里。这就好比你在以太坊发一笔交易,原本只需要Gas费,现在还需要附带一个“我合规”的零知识证明,这种强制性的架构设计在目前的EVM体系里非常少见。
很多人没搞懂Citadel的核心竞争力,以为它只是个KYC工具,其实它解决的是DeFi目前最恶心的“白名单困境”。现在的RWA项目或者许可池,比如Aave Arc,为了合规通常得搞个中心化的白名单合约,把你的地址写进去,这既笨重又暴露隐私。Dusk的做法是用ZKP把身份验证变成了本地化行为,我向节点证明“我是合格投资者”,但节点根本不知道我是谁,只知道我的证明有效。这比那些简单的隐私币高了不止一个维度,它是在做可编程的隐私。
不过有一说一,这种架构对客户端的压力不小。我在测试交互的时候明显感觉到,生成Proof的过程比普通签名要慢,如果碰上配置低的电脑,浏览器可能会卡顿。这也是ZK类项目的通病,计算下放到前端,体验必然会有折损。但这可能是机构入场的唯一解,毕竟高盛那帮人不可能把交易记录裸奔在链上,也不可能像散户一样去玩Tornado Cash。比起以太坊上那些打补丁式的Layer 2隐私方案,Dusk这种原生的合规底层反而更像未来金融基础设施该有的样子,只是不知道主网上线后,这个Prover的生成效率能不能扛得住高并发,毕竟合规虽好,若是交互太繁索,流动性肯定会打折扣。#dusk $DUSK
无趣的胜利:当我拆解Dusk的“合规隐私”架构后,才看懂Monero为何走不进华尔街凌晨三点,屏幕上的终端还在跑着Dusk节点的同步日志,风扇的呼啸声在寂静的房间里显得格外刺耳。盯着这行跳动的Rust代码,我突然意识到一个极其反直觉的事实:我们过去十年在加密隐私赛道上的狂欢,可能完全搞错了方向。作为一名深耕底层协议的研究者,这种挫败感并不常有,上一次还是在硬啃Polkadot的Substrate框架时。这次让我陷入沉思的,是刚刚在Dusk主网上跑通的一笔Citadel验证交易。说实话,体验并不算丝滑,甚至在生成零知识证明(ZKP)的那几秒钟里,浏览器的内存占用飙升得让我以为Chrome要崩了。但就在那个绿色的“Verified”跳出来的瞬间,一种微妙的战栗感油然而生——这不是我们在Tornado Cash里习惯的那种“隐身”,而是一种带着镣铐跳舞的艺术,一种让监管者和自由意志主义者都能闭嘴的工程学妥协。 我不喜欢用“颠覆”这个词,但@Dusk_Foundation 在架构设计上的取舍确实让我不得不重新审视所谓的“隐私金融”。以前我们玩Monero,追求的是绝对的匿名,那种环签名带来的混淆让人觉得安全,像是在数字丛林里穿上了吉利服。但问题也是显而易见的,流动性是孤岛,合规资金进不来,只能在灰产边缘徘徊。Monero是黑客的乐园,却不是金融的未来。反观以太坊上的Aztec或者以前的Railgun,虽然在L2层面试图解决这个问题,但那个割裂感太强了,资产跨过去不仅贵,而且L1和L2之间的状态无法原子化互通,导致DeFi的可组合性大打折扣。我在测试Dusk的Piecrust虚拟机时,最直观的感受就是它试图在L1层面就把这件事解决了。它不是在透明的链上打补丁,而是直接把地基换成了ZK友好的结构。 Piecrust VM这个名字听起来很美味,但啃起来真的硬。它是基于Rkyv实现的零拷贝(Zero-Copy)数据处理,这意味着智能合约在执行时不需要进行昂贵的序列化和反序列化操作。对于搞过Solidity开发的兄弟来说,这简直是降维打击。在以太坊EVM里,我们为了省那点gas,恨不得把所有变量都压成uint256,而在Dusk这里,内存映射(Memory Mapping)直接让数据读取变成了原生级别的速度。不过,实际上手写合约的时候你也别指望太轻松,Rust的学习曲线摆在那,而且你要时刻考虑隐私状态的转换。我在写一个简单的机枪池逻辑时,就因为搞错了Note(票据)的加密生命周期,导致调试了整整两天。这种开发门槛,注定了它早期生态不会像EVM链那样山寨土狗满天飞,能留下来的,大概率是真懂密码学的硬核团队。 说到这,不得不提Dusk最让我纠结也最让我佩服的Citadel协议。这也是它和Aleo、IronFish这些竞品最大的区别。Aleo也在讲隐私计算,但Dusk的切入点非常刁钻——它专注于“RegDeFi”(合规去中心化金融)。Citadel把KYC/AML流程变成了一个可以在链上验证的ZKP。想象一下,你不需要把护照照片传给某个不知名的交易所运营,而是自己在本地生成一个“我是合格投资者”的证明,链上的Dusk节点只负责验证这个证明的真伪,而不知道你具体是谁。这听起来很美好,但在实际交互中,我发现目前的客户端证明生成效率还是个瓶颈。我的M2芯片MacBook在这个过程中都有明显的发热,如果是手机端用户,体验可能会打折。这是ZK赛道的通病,不仅仅是Dusk的问题,但考虑到它要在金融场景落地,高频交易下的证明生成速度必须还得优化。 拿它和Midnight(Cardano那边搞的隐私侧链)做个对比会很有意思。Midnight也在讲合规隐私,但它的架构更偏向于联盟链的思路,中心化程度让我这种老韭菜本能地警惕。而Dusk的SBA(Segregated Byzantine Agreement)共识机制,虽然为了确定性牺牲了一些TPS,但它至少保持了去中心化的底色。我在查看区块浏览器时发现,验证者的分布比我想象的要分散,这不是那种几个大户把持的伪公链。SBA利用VRF(可验证随机函数)来进行分层抽签,这让攻击者很难预测下一个出块者是谁。这种设计在学术上很漂亮,但在工程实现上极具挑战,我注意到偶尔会有区块传播延迟的情况,大概率是网络层在处理大量ZK证明时出现了拥堵。这也不奇怪,毕竟要在一个全球分布的网络上同步这么重的数据,不是件容易事。 真正让我觉得Dusk可能“成了”的时刻,是我在测试它的XSC(Confidential Smart Contracts)标准时。我部署了一个简单的借贷合约,试图在不暴露抵押率的情况下进行清算。在以太坊上,这是不可能的,所有人的仓位都是公开的,大户一旦被盯上,链上狙击手就像闻到血腥味的鲨鱼。但在Dusk上,我看不到对手盘的具体仓位,只能看到系统的整体偿付能力。这种“黑暗森林”般的交易环境,才是机构资金敢进场的关键。BlackRock如果要在链上发RWA,它绝不希望全世界都知道它的底牌。以前我觉得隐私是给黑产用的,现在我才明白,隐私其实是给大资金用的。散户那点钱,谁在乎呢? 但这并不意味着Dusk完美无缺。除了前面提到的客户端性能问题,它的开发者工具链还处于一个相对早期的阶段。文档虽然齐全,但很多example代码跑不通,需要自己去Github的issue里翻答案。而且,这种深度的隐私架构带来了一个巨大的监管悖论:虽然技术上支持审计,但如果节点运营者拒绝配合呢?或者如果私钥丢失,资产就彻底变成了死账。它的“可审计性”是建立在用户主动配合或者预设View Key(查看密钥)的基础上的。这是一个极微妙的平衡,Dusk赌的是机构会为了合规而主动交出查看权限,但对于我们这种DeFi老degen来说,把查看权限交给第三方(哪怕是审计机构)心理上还是有点膈应。 再聊聊它的经济模型对技术的影响。Dusk不仅是gas,还是共识层的抵押资产。这就带来了一个类似以太坊的EIP-1559的问题:如果网络使用率不高,代币价值捕获能力就弱,进而影响节点的安全性。目前主网上的交易活跃度还没有完全起来,大部分是我们在做压力测试。我看了一下mempool(内存池),有些交易因为手续费设置不合理卡了很久。它的费用市场机制似乎还在调优中,对于隐私交易来说,估算gas limit本来就比普通交易难,因为你不知道计算复杂度到底会膨胀到什么程度。我有一次因为稍微复杂点的ZK电路逻辑,gas直接爆表,那种心疼的感觉真实得让人想砸键盘。 在这个充斥着MEME和高频叙事切换的周期里,Dusk显得有点格格不入。它没有Solana那种即时的快感,也没有比特币那种宗教般的信仰。它更像是一个穿着西装的工程师,坐在角落里默默拧着螺丝。但我隐约觉得,这才是Web3该有的样子。我们喊了那么多年的Mass Adoption,最后可能不是靠什么SocialFi或者GameFi带来的,而是靠这种无聊的、严谨的、甚至有点难用的基础设施,把传统金融的庞然大物们一个个接进来。我看好它,不是因为它现在有多好用,而是因为它解决的问题是真的痛点。 当你习惯了在Etherscan上被人窥视一切,第一次在Dusk上完成一笔完全不透明却又合规的转账时,你会理解这种“无趣”的价值。它不是为了让你去买土狗更爽,而是为了让未来的国债、股票、甚至房地产交易能够在链上安全地跑起来。这需要极强的技术定力,去打磨Piecrust,去优化PLONK算法,去和欧洲的监管机构扯皮。我看这几周Github上的提交记录,核心团队几乎没有休息,这种代码更新频率装是装不出来的。 当然,风险依然存在。隐私赛道的最大黑天鹅永远是监管态度的骤变。虽然Dusk主打合规,但只要涉及“隐匿”,在某些强权眼里就是原罪。加上技术实现的复杂度,任何一个ZK电路的漏洞都可能导致灾难性的后果。我现在的策略是,保持节点运行,没事上去写两个合约测试一下,但绝不全仓梭哈。技术研究的乐趣在于发现这种不对称性:市场还在炒作AI和Depin的时候,真正的变革可能正隐藏在这些晦涩的密码学公式里。 现在的Dusk就像是2016年的以太坊,充满了毛刺,工具简陋,甚至偶尔还会卡顿,但你透过那些粗糙的表象,能看到骨子里透出的那股子精密的逻辑美感。它试图在不可能三角中硬生生挤出一条路,这条路不拥挤,因为太难走了。作为一名技术信徒,我愿意陪它走一段,看看这条“可审计隐私”的路,到底能不能通向那个我们许诺已久的金融自由港。反正闲着也是闲着,不如多跑几个Proof,给未来的金融大厦添块砖。#dusk $DUSK

无趣的胜利:当我拆解Dusk的“合规隐私”架构后,才看懂Monero为何走不进华尔街

凌晨三点,屏幕上的终端还在跑着Dusk节点的同步日志,风扇的呼啸声在寂静的房间里显得格外刺耳。盯着这行跳动的Rust代码,我突然意识到一个极其反直觉的事实:我们过去十年在加密隐私赛道上的狂欢,可能完全搞错了方向。作为一名深耕底层协议的研究者,这种挫败感并不常有,上一次还是在硬啃Polkadot的Substrate框架时。这次让我陷入沉思的,是刚刚在Dusk主网上跑通的一笔Citadel验证交易。说实话,体验并不算丝滑,甚至在生成零知识证明(ZKP)的那几秒钟里,浏览器的内存占用飙升得让我以为Chrome要崩了。但就在那个绿色的“Verified”跳出来的瞬间,一种微妙的战栗感油然而生——这不是我们在Tornado Cash里习惯的那种“隐身”,而是一种带着镣铐跳舞的艺术,一种让监管者和自由意志主义者都能闭嘴的工程学妥协。
我不喜欢用“颠覆”这个词,但@Dusk 在架构设计上的取舍确实让我不得不重新审视所谓的“隐私金融”。以前我们玩Monero,追求的是绝对的匿名,那种环签名带来的混淆让人觉得安全,像是在数字丛林里穿上了吉利服。但问题也是显而易见的,流动性是孤岛,合规资金进不来,只能在灰产边缘徘徊。Monero是黑客的乐园,却不是金融的未来。反观以太坊上的Aztec或者以前的Railgun,虽然在L2层面试图解决这个问题,但那个割裂感太强了,资产跨过去不仅贵,而且L1和L2之间的状态无法原子化互通,导致DeFi的可组合性大打折扣。我在测试Dusk的Piecrust虚拟机时,最直观的感受就是它试图在L1层面就把这件事解决了。它不是在透明的链上打补丁,而是直接把地基换成了ZK友好的结构。
Piecrust VM这个名字听起来很美味,但啃起来真的硬。它是基于Rkyv实现的零拷贝(Zero-Copy)数据处理,这意味着智能合约在执行时不需要进行昂贵的序列化和反序列化操作。对于搞过Solidity开发的兄弟来说,这简直是降维打击。在以太坊EVM里,我们为了省那点gas,恨不得把所有变量都压成uint256,而在Dusk这里,内存映射(Memory Mapping)直接让数据读取变成了原生级别的速度。不过,实际上手写合约的时候你也别指望太轻松,Rust的学习曲线摆在那,而且你要时刻考虑隐私状态的转换。我在写一个简单的机枪池逻辑时,就因为搞错了Note(票据)的加密生命周期,导致调试了整整两天。这种开发门槛,注定了它早期生态不会像EVM链那样山寨土狗满天飞,能留下来的,大概率是真懂密码学的硬核团队。
说到这,不得不提Dusk最让我纠结也最让我佩服的Citadel协议。这也是它和Aleo、IronFish这些竞品最大的区别。Aleo也在讲隐私计算,但Dusk的切入点非常刁钻——它专注于“RegDeFi”(合规去中心化金融)。Citadel把KYC/AML流程变成了一个可以在链上验证的ZKP。想象一下,你不需要把护照照片传给某个不知名的交易所运营,而是自己在本地生成一个“我是合格投资者”的证明,链上的Dusk节点只负责验证这个证明的真伪,而不知道你具体是谁。这听起来很美好,但在实际交互中,我发现目前的客户端证明生成效率还是个瓶颈。我的M2芯片MacBook在这个过程中都有明显的发热,如果是手机端用户,体验可能会打折。这是ZK赛道的通病,不仅仅是Dusk的问题,但考虑到它要在金融场景落地,高频交易下的证明生成速度必须还得优化。
拿它和Midnight(Cardano那边搞的隐私侧链)做个对比会很有意思。Midnight也在讲合规隐私,但它的架构更偏向于联盟链的思路,中心化程度让我这种老韭菜本能地警惕。而Dusk的SBA(Segregated Byzantine Agreement)共识机制,虽然为了确定性牺牲了一些TPS,但它至少保持了去中心化的底色。我在查看区块浏览器时发现,验证者的分布比我想象的要分散,这不是那种几个大户把持的伪公链。SBA利用VRF(可验证随机函数)来进行分层抽签,这让攻击者很难预测下一个出块者是谁。这种设计在学术上很漂亮,但在工程实现上极具挑战,我注意到偶尔会有区块传播延迟的情况,大概率是网络层在处理大量ZK证明时出现了拥堵。这也不奇怪,毕竟要在一个全球分布的网络上同步这么重的数据,不是件容易事。
真正让我觉得Dusk可能“成了”的时刻,是我在测试它的XSC(Confidential Smart Contracts)标准时。我部署了一个简单的借贷合约,试图在不暴露抵押率的情况下进行清算。在以太坊上,这是不可能的,所有人的仓位都是公开的,大户一旦被盯上,链上狙击手就像闻到血腥味的鲨鱼。但在Dusk上,我看不到对手盘的具体仓位,只能看到系统的整体偿付能力。这种“黑暗森林”般的交易环境,才是机构资金敢进场的关键。BlackRock如果要在链上发RWA,它绝不希望全世界都知道它的底牌。以前我觉得隐私是给黑产用的,现在我才明白,隐私其实是给大资金用的。散户那点钱,谁在乎呢?
但这并不意味着Dusk完美无缺。除了前面提到的客户端性能问题,它的开发者工具链还处于一个相对早期的阶段。文档虽然齐全,但很多example代码跑不通,需要自己去Github的issue里翻答案。而且,这种深度的隐私架构带来了一个巨大的监管悖论:虽然技术上支持审计,但如果节点运营者拒绝配合呢?或者如果私钥丢失,资产就彻底变成了死账。它的“可审计性”是建立在用户主动配合或者预设View Key(查看密钥)的基础上的。这是一个极微妙的平衡,Dusk赌的是机构会为了合规而主动交出查看权限,但对于我们这种DeFi老degen来说,把查看权限交给第三方(哪怕是审计机构)心理上还是有点膈应。
再聊聊它的经济模型对技术的影响。Dusk不仅是gas,还是共识层的抵押资产。这就带来了一个类似以太坊的EIP-1559的问题:如果网络使用率不高,代币价值捕获能力就弱,进而影响节点的安全性。目前主网上的交易活跃度还没有完全起来,大部分是我们在做压力测试。我看了一下mempool(内存池),有些交易因为手续费设置不合理卡了很久。它的费用市场机制似乎还在调优中,对于隐私交易来说,估算gas limit本来就比普通交易难,因为你不知道计算复杂度到底会膨胀到什么程度。我有一次因为稍微复杂点的ZK电路逻辑,gas直接爆表,那种心疼的感觉真实得让人想砸键盘。
在这个充斥着MEME和高频叙事切换的周期里,Dusk显得有点格格不入。它没有Solana那种即时的快感,也没有比特币那种宗教般的信仰。它更像是一个穿着西装的工程师,坐在角落里默默拧着螺丝。但我隐约觉得,这才是Web3该有的样子。我们喊了那么多年的Mass Adoption,最后可能不是靠什么SocialFi或者GameFi带来的,而是靠这种无聊的、严谨的、甚至有点难用的基础设施,把传统金融的庞然大物们一个个接进来。我看好它,不是因为它现在有多好用,而是因为它解决的问题是真的痛点。
当你习惯了在Etherscan上被人窥视一切,第一次在Dusk上完成一笔完全不透明却又合规的转账时,你会理解这种“无趣”的价值。它不是为了让你去买土狗更爽,而是为了让未来的国债、股票、甚至房地产交易能够在链上安全地跑起来。这需要极强的技术定力,去打磨Piecrust,去优化PLONK算法,去和欧洲的监管机构扯皮。我看这几周Github上的提交记录,核心团队几乎没有休息,这种代码更新频率装是装不出来的。
当然,风险依然存在。隐私赛道的最大黑天鹅永远是监管态度的骤变。虽然Dusk主打合规,但只要涉及“隐匿”,在某些强权眼里就是原罪。加上技术实现的复杂度,任何一个ZK电路的漏洞都可能导致灾难性的后果。我现在的策略是,保持节点运行,没事上去写两个合约测试一下,但绝不全仓梭哈。技术研究的乐趣在于发现这种不对称性:市场还在炒作AI和Depin的时候,真正的变革可能正隐藏在这些晦涩的密码学公式里。
现在的Dusk就像是2016年的以太坊,充满了毛刺,工具简陋,甚至偶尔还会卡顿,但你透过那些粗糙的表象,能看到骨子里透出的那股子精密的逻辑美感。它试图在不可能三角中硬生生挤出一条路,这条路不拥挤,因为太难走了。作为一名技术信徒,我愿意陪它走一段,看看这条“可审计隐私”的路,到底能不能通向那个我们许诺已久的金融自由港。反正闲着也是闲着,不如多跑几个Proof,给未来的金融大厦添块砖。#dusk $DUSK
L2都在卷TPS的时候,只有这里真的把Gas费干掉了? ​盯着XPL那根几乎垂直向下的K线看久了确实容易心态崩,高点下来跌了快90%,这种盘面放在任何社群里大概率都是维权现场。但抛开情绪看数据,最近链上的动静反而让我觉得有点意思。现在市面上Layer 2多如牛毛,Arbitrum和Optimism哪怕再便宜,用户转账稳定币还得手里捏着点ETH做Gas,这种体验对于圈外人来说简直是灾难。@Plasma 搞的这个Paymaster机制倒是真的有点东西,直接把稳定币转账做到了零Gas,这种无感体验才有点Web2支付应用该有的样子,比起还在卷TPS的那些公链,这才是Mass Adoption的刚需。从开发者视角看,完全兼容EVM且支持Hardhat和Foundry,意味着迁移成本极低,不用像在Solana上还得重学Rust。更“鸡贼”的是它把状态锚定到了比特币网络,这招借力打力玩得不错,在这个BTC统治力回归的周期里,安全性叙事站得住脚。 ​资金流向往往比K线更诚实,Maple Finance上那个SyrupUSDT池子TVL居然悄摸干到了11亿美金,机构资金愿意沉淀在这里吃利息,本身就说明了对底层安全性的认可。加上Rain cards和Oobit接入Visa网络覆盖几亿商户,还有合规的欧元稳定币EUROP,这路子走得明显比那些纯炒作空气的土狗要稳。不过有一说一,隐患也不少。目前的验证者网络还是高度中心化,基本是团队自己在玩,这在Crypto圈子里始终是个雷。而且生态除了转账和借贷,真是干干净净,想找个好玩的土狗或者NFT项目都难,应用场景太单一导致用户除了存钱没别的事干。现在的Plasma就像个有点偏科的理工男,基建和支付体验做得极好,但毫无娱乐精神。在这个价格区间,我倒不急着抄底,而是想看看这种“零Gas”体验能不能真的把机构资金转化为长期的用户留存,毕竟技术再好,没人用的公链最后也只是一行行代码而已。#plasma $XPL
L2都在卷TPS的时候,只有这里真的把Gas费干掉了?
​盯着XPL那根几乎垂直向下的K线看久了确实容易心态崩,高点下来跌了快90%,这种盘面放在任何社群里大概率都是维权现场。但抛开情绪看数据,最近链上的动静反而让我觉得有点意思。现在市面上Layer 2多如牛毛,Arbitrum和Optimism哪怕再便宜,用户转账稳定币还得手里捏着点ETH做Gas,这种体验对于圈外人来说简直是灾难。@Plasma 搞的这个Paymaster机制倒是真的有点东西,直接把稳定币转账做到了零Gas,这种无感体验才有点Web2支付应用该有的样子,比起还在卷TPS的那些公链,这才是Mass Adoption的刚需。从开发者视角看,完全兼容EVM且支持Hardhat和Foundry,意味着迁移成本极低,不用像在Solana上还得重学Rust。更“鸡贼”的是它把状态锚定到了比特币网络,这招借力打力玩得不错,在这个BTC统治力回归的周期里,安全性叙事站得住脚。
​资金流向往往比K线更诚实,Maple Finance上那个SyrupUSDT池子TVL居然悄摸干到了11亿美金,机构资金愿意沉淀在这里吃利息,本身就说明了对底层安全性的认可。加上Rain cards和Oobit接入Visa网络覆盖几亿商户,还有合规的欧元稳定币EUROP,这路子走得明显比那些纯炒作空气的土狗要稳。不过有一说一,隐患也不少。目前的验证者网络还是高度中心化,基本是团队自己在玩,这在Crypto圈子里始终是个雷。而且生态除了转账和借贷,真是干干净净,想找个好玩的土狗或者NFT项目都难,应用场景太单一导致用户除了存钱没别的事干。现在的Plasma就像个有点偏科的理工男,基建和支付体验做得极好,但毫无娱乐精神。在这个价格区间,我倒不急着抄底,而是想看看这种“零Gas”体验能不能真的把机构资金转化为长期的用户留存,毕竟技术再好,没人用的公链最后也只是一行行代码而已。#plasma $XPL
抛弃 Layer 2 的虚假繁荣:在 Reth 与稳定币支付的缝隙里,我看到了 Plasma 的野心与尴尬最近这几晚盯着屏幕上的 Gas 费波动,突然觉得我们是不是都在集体致幻,看着那些疯狂内卷的 Layer 2 赛道,我不禁怀疑这种为了扩容而扩容的俄罗斯套娃游戏到底还要玩多久,当你把资产跨到第六层网络,仅仅是为了在一个没人用的 DEX 上刷一笔所谓的空投交互时,区块链原本承诺的“价值流转”早就变成了一地鸡毛,这种疲惫感让我在重读 @Plasma 白皮书和测试网代码时产生了一种奇怪的共鸣,甚至说是某种久违的清醒。我必须承认,起初我对 Plasma 的回归是带着极度偏见的,毕竟在 2018 年那场扩容大战中它输得底裤都不剩,Vitalik 甚至都很少再公开提及这个“旧爱”,但当我们剥离掉那些复杂的 ZK-Rollup 叙事,回到最本源的支付需求时,你会发现 Plasma 现在的架构设计简直是在往以太坊生态最痛的伤口上撒盐,当然,这或许正是它存在的唯一理由。 ​很多人还没意识到,我们现在所谓的“高性能链”大多是在牺牲去中心化和堆砌硬件之间做极其丑陋的妥协,我看过太多标榜 TPS 破万的项目,实际上节点跑在 AWS 的中心化服务器上,一旦宕机就全网停摆,这时候你再看 Plasma 选择基于 Reth 构建执行层这个决定,就会觉得非常有意思,Reth 是 Rust 重写的以太坊执行客户端,它的核心优势不是什么花里胡哨的新共识,而是极致的工程化实现和对内存的疯狂压榨,我在本地跑过 Reth 节点,同步速度快得让我以为数据出了问题,这种底层的扎实感是那些用 Go 或者更慢语言堆出来的 L2 无法比拟的,Plasma 赌的就是在未来高并发的支付场景下,执行效率才是真正的瓶颈,而不是数据可用性。这让我想起了 Solana,虽然大家都骂它宕机,但你不得不承认它在并行执行上的探索是对的,而 Plasma 现在的路子更像是一个“不宕机且兼容 EVM 的 Solana”,它试图用 Reth 的强悍性能去承接那些以太坊主网根本处理不了,而 Rollup 又嫌太贵的支付流量。 ​但我真正想聊的不是代码,而是体验,上周我试着在 Plasma 测试网上转了几笔 USDT,这种体验让我对“Gas Abstraction”这个被喊烂了的概念有了全新的生理性反应,在以太坊或者 Arbitrum 上,你永远需要像个保姆一样还要时刻盯着 ETH 的余额够不够支付 Gas,这种心智负担是阻碍 Web2 用户进场的最大高墙,但在 Plasma 的设计里,原生支持用稳定币支付手续费,甚至由 Paymaster 代付,这意味着什么,意味着只要我钱包里有 USDT,我就能转账,这种看似微小的改动,实际上是对现有钱包逻辑的降维打击。回想一下波场 TRON 为什么能占据 USDT 转账的半壁江山,是因为它的技术牛逼吗,显然不是,孙哥的代码也就是复制粘贴的水平,之所以大家用,就是因为便宜和直觉,尽管 TRON 的去中心化程度一直是个笑话,但市场是最诚实的,用户根本不在乎什么状态根验证,他们只在乎钱能不能快点到账且不心疼手续费,Plasma 现在的打法非常鸡贼,它想要吃掉的就是波场这块巨大的支付蛋糕,但它用的是更正统、更安全的技术栈,这简直就是一场针对波场的降维围猎。 ​不过,技术上的性感掩盖不了生态的荒凉,这也是我目前最担心的地方,我在浏览器上翻了半天,除了几个测试用的 Swap 和跨链桥,链上几乎是一座鬼城,这就是所有新公链的死穴,即使你的路修得再平,没有车跑也是白搭,Plasma 把宝押在了“支付”这个单一赛道上,这本身就是一场豪赌,现在的加密世界,大家都在玩 Meme,在玩链上博彩,在玩高杠杆借贷,真正拿 USDT 买咖啡的人有多少,这让我不禁怀疑,Plasma 这种“支付原语”的重构,是不是有点过于理想主义了,就像一个造出了完美发动机的工程师,却发现大家都在骑共享单车。而且,竞品们并没有坐以待毙,Base 依托 Coinbase 的流量入口也在推支付,Solana 的 Pay 更是已经铺到了线下,Plasma 的护城河到底在哪里,仅仅是 Reth 带来的执行效率优势吗,在这个流动性为王的时代,这点技术优势很可能瞬间被资本的洪流淹没。 ​还有一个让我彻夜思考的问题是关于“状态所有权”的哲学分歧,现在的 Rollup,不管是 OP 还是 ZK,本质上都是把用户的资产“托管”在了 L2 的合约里,那个 Sequencer 就是事实上的上帝,它想夹你就夹你,想停你就停你,而 Plasma 的旧设计最让人着迷的一点就是“用户离场权”,即便全网节点都作恶,只要你手里握着那该死的 Merkle Proof,你就能把资产退回到主网,现在的 Plasma 虽然引入了新的数据可用性方案,甚至有点像 Validium 的变体,但我看到它依然保留了那种对“资产主权”的执拗,这种执拗在现在的 VC 链中几乎绝迹了,大家都忙着搞中心化排序器来赚 MEV,谁还管用户能不能在极端情况下提款呢,从这个角度看,Plasma 简直就是行业里的一股清流,或者说是一个不合时宜的老古董,它试图在性能和去中心化之间找回那个被遗忘的平衡点,哪怕这个平衡点可能会牺牲掉一部分可组合性。 ​说到可组合性,这可能是我在使用过程中发现的最大槽点,Plasma 为了实现极致的支付性能,似乎在跨合约调用上做了一些取舍,我在尝试部署一个需要多层嵌套调用的 DeFi 合约时,发现 Gas 计算逻辑和主网有细微差别,虽然官方文档说是为了防 DoS 攻击,但这直接导致现有的很多复杂的 DeFi 积木无法直接平移过来,这意味着开发者需要专门为 Plasma 重写代码,在这个开发者时间比金子还贵的年代,这无疑是个巨大的门槛。如果 Plasma 最终变成了一个只能转账、跑不了复杂 DApp 的“支付专用链”,那它和闪电网络有什么区别,它的估值天花板又在哪里,这是我作为一个投资者最纠结的地方,我看到了它在支付体验上的丝滑,也看到了它在生态扩展性上的局限,这种矛盾感贯穿了我整个测试过程。 ​再来看看它的经济模型设计,这一点也是极其大胆甚至疯狂的,没有原生的通胀奖励来维持节点,完全靠手续费养活验证者,在网络启动初期,这简直就是自杀,除非它能在一夜之间获得 Visa 级别的交易量,否则节点凭什么陪你玩,现在的公链都是靠通胀补贴来维持虚假的安全,Plasma 试图打破这个庞氏骗局,回归到“服务换收益”的商业本质,这听起来很美好,但在币圈这个充满投机客的丛林里,这种正直可能会让它死得很惨,我甚至能想象到主网上线后,因为手续费收入覆盖不了服务器成本,导致验证节点大量退出的场景,那时候所谓的安全性和抗审查性就会变成一个笑话,除非,它背后有我们不知道的巨鲸在输血,或者它真的能像当年的 USDT 一样,在某个灰色领域找到爆炸性的应用场景。 ​对比一下现在的 Layer 2 巨头,Arbitrum 现在的日活确实高,但你去看看它的数据结构,那是堆满了垃圾交易的垃圾场,为了刷 TPS 而存在的虚假繁荣,而 Plasma 的链上数据结构显得异常“干净”,Reth 的存储优化让每一个字节都物尽其用,这种代码层面的洁癖让我这个技术控非常上头,但我也知道,市场不相信洁癖,市场相信的是赚钱效应,如果 Plasma 不能尽快弄出一两个爆款应用,哪怕是土狗盘子也好,只要能把 TPS 跑起来,证明这套架构真的能承载高并发,否则它永远只能是极客圈子里的一个玩具。这几天我还特意去对比了同样主打高性能的 Sui 和 Aptos,说实话,Move 语言确实有优势,但在这个 EVM 统领天下的世界,让开发者去学一门新语言太难了,Plasma 坚持用 Rust 写底层但向上兼容 EVM,这个策略是非常务实的,它不需要开发者重新学习,只需要你把在以太坊上的合约部署过来,就能享受接近 Solana 的速度,这种“存量优化”的思路比“推倒重来”要稳健得多。 ​我还注意到一个很有趣的细节,就是 Plasma 对轻客户端的支持,在他们的路线图里,未来甚至可以在手机端直接运行验证节点,这简直是对现在那些动不动就要几 T 硬盘的节点的嘲讽,如果真的能实现手机端的去中心化验证,那支付场景的想象空间就彻底打开了,想一想,你的手机钱包不仅是用来签名的,它本身就是一个全功能的节点,你可以不依赖任何第三方 RPC 直接和网络交互,这种真正的“点对点现金系统”才是中本聪白皮书里的愿景,而不是现在这种依赖 Infura 和 Alchemy 的伪去中心化。当然,愿景归愿景,工程实现的难度是指数级的,现在的移动端带宽和算力能不能撑得住还是个未知数,但我哪怕只看到了一线希望,也觉得比那些整天发币圈钱的 L2 强上一万倍。 ​此时此刻,窗外的天已经快亮了,看着测试网那个孤零零的区块高度在缓慢增加,我心里五味杂陈,Plasma 就像是一个从旧时代穿越回来的剑客,手里拿着一把经过现代工艺重铸的古剑,试图挑战拿着机关枪的资本巨头,它的招式很纯粹,就是支付,就是确权,就是性能,没有任何花哨的 DeFi 乐高,也没有眼花缭乱的积分系统,这种纯粹在现在的市场环境下显得格格不入,甚至有点傻,但我就是会被这种傻劲打动,因为我们内心深处都知道,现在的 Web3 也是虚火过旺,我们需要一些真正能落地的东西,哪怕它只是一个更好用的转账工具。我也在反思,是不是我对它太苛刻了,毕竟它才刚刚重启,代码还需要打磨,生态还需要从零建设,用成熟公链的标准去要求一个还在测试网阶段的项目本身就不公平,但我控制不住这种苛刻,因为它是 Plasma,它背负着上一轮周期的遗憾,也背负着我们对“扩容终局”的最后一点幻想。 ​如果让我给现在的 Plasma 下个定义,我觉得它是一个“有着洁癖的实干家”,它看不起那些为了兼容性而牺牲性能的妥协,也看不起那些为了去中心化而牺牲体验的教条,它试图走出一条属于自己的路,这条路注定布满荆棘,旁边是波场筑起的高墙,头顶是 Rollup 织下的天罗地网,Plasma 能不能杀出重围,不在于它的 TPS 能跑多高,而在于它能不能让哪怕一个普通用户,在买一瓶水的时候,没有任何感知地使用了一次加密货币支付。这听起来卑微,却是整个行业十年未竟的梦想。我不知道手中的这些测试币未来会不会归零,但在这一刻,在体验了那种久违的丝滑转账后,我愿意给这个老兵一点耐心,哪怕最后证明这又是一场技术乌托邦的破灭,至少它在这个浮躁的深夜,给了我一点关于“技术改变世界”的真实触感,而不是满屏的 K 线和焦虑。 ​这种感觉很奇妙,就像你明知道前面的路可能不通,但看到有人在认真地铺路,你还是会忍不住想上去帮把手,或者至少,站在路边鼓个掌。Plasma 的重启,或许不是为了打败谁,而是为了证明,区块链不应该只是富人的赌场,它本该是属于每一个人的自由金融工具,在这个愿景实现之前,我会一直盯着这个该死的 Mempool,看着每一笔交易被打包,被确认,直到它成为我们生活的一部分,或者彻底消失在历史的尘埃里,这就是我对 Plasma 全部的情感,复杂,矛盾,但依然充满期待。最后再吐槽一句,那个官方的跨链桥 UI 设计得真是丑到了灵魂深处,简直就是程序员审美的巅峰展示,希望能赶紧找个美工改改吧,不然这门面实在是对不起底层的硬核代码。#plasma $XPL

抛弃 Layer 2 的虚假繁荣:在 Reth 与稳定币支付的缝隙里,我看到了 Plasma 的野心与尴尬

最近这几晚盯着屏幕上的 Gas 费波动,突然觉得我们是不是都在集体致幻,看着那些疯狂内卷的 Layer 2 赛道,我不禁怀疑这种为了扩容而扩容的俄罗斯套娃游戏到底还要玩多久,当你把资产跨到第六层网络,仅仅是为了在一个没人用的 DEX 上刷一笔所谓的空投交互时,区块链原本承诺的“价值流转”早就变成了一地鸡毛,这种疲惫感让我在重读 @Plasma 白皮书和测试网代码时产生了一种奇怪的共鸣,甚至说是某种久违的清醒。我必须承认,起初我对 Plasma 的回归是带着极度偏见的,毕竟在 2018 年那场扩容大战中它输得底裤都不剩,Vitalik 甚至都很少再公开提及这个“旧爱”,但当我们剥离掉那些复杂的 ZK-Rollup 叙事,回到最本源的支付需求时,你会发现 Plasma 现在的架构设计简直是在往以太坊生态最痛的伤口上撒盐,当然,这或许正是它存在的唯一理由。
​很多人还没意识到,我们现在所谓的“高性能链”大多是在牺牲去中心化和堆砌硬件之间做极其丑陋的妥协,我看过太多标榜 TPS 破万的项目,实际上节点跑在 AWS 的中心化服务器上,一旦宕机就全网停摆,这时候你再看 Plasma 选择基于 Reth 构建执行层这个决定,就会觉得非常有意思,Reth 是 Rust 重写的以太坊执行客户端,它的核心优势不是什么花里胡哨的新共识,而是极致的工程化实现和对内存的疯狂压榨,我在本地跑过 Reth 节点,同步速度快得让我以为数据出了问题,这种底层的扎实感是那些用 Go 或者更慢语言堆出来的 L2 无法比拟的,Plasma 赌的就是在未来高并发的支付场景下,执行效率才是真正的瓶颈,而不是数据可用性。这让我想起了 Solana,虽然大家都骂它宕机,但你不得不承认它在并行执行上的探索是对的,而 Plasma 现在的路子更像是一个“不宕机且兼容 EVM 的 Solana”,它试图用 Reth 的强悍性能去承接那些以太坊主网根本处理不了,而 Rollup 又嫌太贵的支付流量。
​但我真正想聊的不是代码,而是体验,上周我试着在 Plasma 测试网上转了几笔 USDT,这种体验让我对“Gas Abstraction”这个被喊烂了的概念有了全新的生理性反应,在以太坊或者 Arbitrum 上,你永远需要像个保姆一样还要时刻盯着 ETH 的余额够不够支付 Gas,这种心智负担是阻碍 Web2 用户进场的最大高墙,但在 Plasma 的设计里,原生支持用稳定币支付手续费,甚至由 Paymaster 代付,这意味着什么,意味着只要我钱包里有 USDT,我就能转账,这种看似微小的改动,实际上是对现有钱包逻辑的降维打击。回想一下波场 TRON 为什么能占据 USDT 转账的半壁江山,是因为它的技术牛逼吗,显然不是,孙哥的代码也就是复制粘贴的水平,之所以大家用,就是因为便宜和直觉,尽管 TRON 的去中心化程度一直是个笑话,但市场是最诚实的,用户根本不在乎什么状态根验证,他们只在乎钱能不能快点到账且不心疼手续费,Plasma 现在的打法非常鸡贼,它想要吃掉的就是波场这块巨大的支付蛋糕,但它用的是更正统、更安全的技术栈,这简直就是一场针对波场的降维围猎。
​不过,技术上的性感掩盖不了生态的荒凉,这也是我目前最担心的地方,我在浏览器上翻了半天,除了几个测试用的 Swap 和跨链桥,链上几乎是一座鬼城,这就是所有新公链的死穴,即使你的路修得再平,没有车跑也是白搭,Plasma 把宝押在了“支付”这个单一赛道上,这本身就是一场豪赌,现在的加密世界,大家都在玩 Meme,在玩链上博彩,在玩高杠杆借贷,真正拿 USDT 买咖啡的人有多少,这让我不禁怀疑,Plasma 这种“支付原语”的重构,是不是有点过于理想主义了,就像一个造出了完美发动机的工程师,却发现大家都在骑共享单车。而且,竞品们并没有坐以待毙,Base 依托 Coinbase 的流量入口也在推支付,Solana 的 Pay 更是已经铺到了线下,Plasma 的护城河到底在哪里,仅仅是 Reth 带来的执行效率优势吗,在这个流动性为王的时代,这点技术优势很可能瞬间被资本的洪流淹没。
​还有一个让我彻夜思考的问题是关于“状态所有权”的哲学分歧,现在的 Rollup,不管是 OP 还是 ZK,本质上都是把用户的资产“托管”在了 L2 的合约里,那个 Sequencer 就是事实上的上帝,它想夹你就夹你,想停你就停你,而 Plasma 的旧设计最让人着迷的一点就是“用户离场权”,即便全网节点都作恶,只要你手里握着那该死的 Merkle Proof,你就能把资产退回到主网,现在的 Plasma 虽然引入了新的数据可用性方案,甚至有点像 Validium 的变体,但我看到它依然保留了那种对“资产主权”的执拗,这种执拗在现在的 VC 链中几乎绝迹了,大家都忙着搞中心化排序器来赚 MEV,谁还管用户能不能在极端情况下提款呢,从这个角度看,Plasma 简直就是行业里的一股清流,或者说是一个不合时宜的老古董,它试图在性能和去中心化之间找回那个被遗忘的平衡点,哪怕这个平衡点可能会牺牲掉一部分可组合性。
​说到可组合性,这可能是我在使用过程中发现的最大槽点,Plasma 为了实现极致的支付性能,似乎在跨合约调用上做了一些取舍,我在尝试部署一个需要多层嵌套调用的 DeFi 合约时,发现 Gas 计算逻辑和主网有细微差别,虽然官方文档说是为了防 DoS 攻击,但这直接导致现有的很多复杂的 DeFi 积木无法直接平移过来,这意味着开发者需要专门为 Plasma 重写代码,在这个开发者时间比金子还贵的年代,这无疑是个巨大的门槛。如果 Plasma 最终变成了一个只能转账、跑不了复杂 DApp 的“支付专用链”,那它和闪电网络有什么区别,它的估值天花板又在哪里,这是我作为一个投资者最纠结的地方,我看到了它在支付体验上的丝滑,也看到了它在生态扩展性上的局限,这种矛盾感贯穿了我整个测试过程。
​再来看看它的经济模型设计,这一点也是极其大胆甚至疯狂的,没有原生的通胀奖励来维持节点,完全靠手续费养活验证者,在网络启动初期,这简直就是自杀,除非它能在一夜之间获得 Visa 级别的交易量,否则节点凭什么陪你玩,现在的公链都是靠通胀补贴来维持虚假的安全,Plasma 试图打破这个庞氏骗局,回归到“服务换收益”的商业本质,这听起来很美好,但在币圈这个充满投机客的丛林里,这种正直可能会让它死得很惨,我甚至能想象到主网上线后,因为手续费收入覆盖不了服务器成本,导致验证节点大量退出的场景,那时候所谓的安全性和抗审查性就会变成一个笑话,除非,它背后有我们不知道的巨鲸在输血,或者它真的能像当年的 USDT 一样,在某个灰色领域找到爆炸性的应用场景。
​对比一下现在的 Layer 2 巨头,Arbitrum 现在的日活确实高,但你去看看它的数据结构,那是堆满了垃圾交易的垃圾场,为了刷 TPS 而存在的虚假繁荣,而 Plasma 的链上数据结构显得异常“干净”,Reth 的存储优化让每一个字节都物尽其用,这种代码层面的洁癖让我这个技术控非常上头,但我也知道,市场不相信洁癖,市场相信的是赚钱效应,如果 Plasma 不能尽快弄出一两个爆款应用,哪怕是土狗盘子也好,只要能把 TPS 跑起来,证明这套架构真的能承载高并发,否则它永远只能是极客圈子里的一个玩具。这几天我还特意去对比了同样主打高性能的 Sui 和 Aptos,说实话,Move 语言确实有优势,但在这个 EVM 统领天下的世界,让开发者去学一门新语言太难了,Plasma 坚持用 Rust 写底层但向上兼容 EVM,这个策略是非常务实的,它不需要开发者重新学习,只需要你把在以太坊上的合约部署过来,就能享受接近 Solana 的速度,这种“存量优化”的思路比“推倒重来”要稳健得多。
​我还注意到一个很有趣的细节,就是 Plasma 对轻客户端的支持,在他们的路线图里,未来甚至可以在手机端直接运行验证节点,这简直是对现在那些动不动就要几 T 硬盘的节点的嘲讽,如果真的能实现手机端的去中心化验证,那支付场景的想象空间就彻底打开了,想一想,你的手机钱包不仅是用来签名的,它本身就是一个全功能的节点,你可以不依赖任何第三方 RPC 直接和网络交互,这种真正的“点对点现金系统”才是中本聪白皮书里的愿景,而不是现在这种依赖 Infura 和 Alchemy 的伪去中心化。当然,愿景归愿景,工程实现的难度是指数级的,现在的移动端带宽和算力能不能撑得住还是个未知数,但我哪怕只看到了一线希望,也觉得比那些整天发币圈钱的 L2 强上一万倍。
​此时此刻,窗外的天已经快亮了,看着测试网那个孤零零的区块高度在缓慢增加,我心里五味杂陈,Plasma 就像是一个从旧时代穿越回来的剑客,手里拿着一把经过现代工艺重铸的古剑,试图挑战拿着机关枪的资本巨头,它的招式很纯粹,就是支付,就是确权,就是性能,没有任何花哨的 DeFi 乐高,也没有眼花缭乱的积分系统,这种纯粹在现在的市场环境下显得格格不入,甚至有点傻,但我就是会被这种傻劲打动,因为我们内心深处都知道,现在的 Web3 也是虚火过旺,我们需要一些真正能落地的东西,哪怕它只是一个更好用的转账工具。我也在反思,是不是我对它太苛刻了,毕竟它才刚刚重启,代码还需要打磨,生态还需要从零建设,用成熟公链的标准去要求一个还在测试网阶段的项目本身就不公平,但我控制不住这种苛刻,因为它是 Plasma,它背负着上一轮周期的遗憾,也背负着我们对“扩容终局”的最后一点幻想。
​如果让我给现在的 Plasma 下个定义,我觉得它是一个“有着洁癖的实干家”,它看不起那些为了兼容性而牺牲性能的妥协,也看不起那些为了去中心化而牺牲体验的教条,它试图走出一条属于自己的路,这条路注定布满荆棘,旁边是波场筑起的高墙,头顶是 Rollup 织下的天罗地网,Plasma 能不能杀出重围,不在于它的 TPS 能跑多高,而在于它能不能让哪怕一个普通用户,在买一瓶水的时候,没有任何感知地使用了一次加密货币支付。这听起来卑微,却是整个行业十年未竟的梦想。我不知道手中的这些测试币未来会不会归零,但在这一刻,在体验了那种久违的丝滑转账后,我愿意给这个老兵一点耐心,哪怕最后证明这又是一场技术乌托邦的破灭,至少它在这个浮躁的深夜,给了我一点关于“技术改变世界”的真实触感,而不是满屏的 K 线和焦虑。
​这种感觉很奇妙,就像你明知道前面的路可能不通,但看到有人在认真地铺路,你还是会忍不住想上去帮把手,或者至少,站在路边鼓个掌。Plasma 的重启,或许不是为了打败谁,而是为了证明,区块链不应该只是富人的赌场,它本该是属于每一个人的自由金融工具,在这个愿景实现之前,我会一直盯着这个该死的 Mempool,看着每一笔交易被打包,被确认,直到它成为我们生活的一部分,或者彻底消失在历史的尘埃里,这就是我对 Plasma 全部的情感,复杂,矛盾,但依然充满期待。最后再吐槽一句,那个官方的跨链桥 UI 设计得真是丑到了灵魂深处,简直就是程序员审美的巅峰展示,希望能赶紧找个美工改改吧,不然这门面实在是对不起底层的硬核代码。#plasma $XPL
拒绝TPS虚火,AI赛道的基础设施还得看合规性适配 最近都在疯狂炒作AI赛道,但我把手里的几个Agent在链上实跑了一圈,发现大部分所谓的高性能公链简直就是灾难。市面上那些动不动喊几万TPS的项目,真到了高频交互的时候,Gas费的微小抖动能把量化策略的利润吃得渣都不剩。这就好比你开着法拉利去送外卖,车是好车,但油费你烧不起。这也是我最近死磕@Vanar 技术白皮书的原因,很多人只盯着它和Google Cloud的合作觉得是营销噱头,其实根本没看懂这是为了解决什么核心痛点。 拿我之前深研过的Near做个竟品对比,虽然人家的分片技术确实很强,但对于那些想要进场的大型Web2游戏工作室或者AI企业来说,纯粹的技术牛逼不是门槛,财务合规和成本可控才是命门。Vanar那个零碳和极低费率的设计,表面看是打环保牌,实际上是给了这些有ESG考核的大厂一张安全入场券。我在Vanguard测试网跑数据的时候就在想,未来的AI交互肯定不是人点鼠标,而是机器对机器的M2M高频流转,这种场景下,甚至连以太坊L2那种Sequencer的中心化延迟都难以忍受。Vanar这种混合架构,给我的体感就像是在Web2的服务器速度上加了一层Web3的资产确权,虽然现在生态应用还稍显单薄,早期的跨链桥体验也偶尔会抽风,但架构逻辑是通的。 咱们得承认,现在的AI项目很多都是旧瓶装新酒,硬往EVM的旧框架上套。但凡你真的去写过几行合约,就知道让Solidity去直接处理大模型推理是多么荒谬的事。Vanar聪明的点在于它没去硬碰硬搞什么通用计算,而是把繁重的计算扔给链下或者特制的执行层,链上只做最终的状态验证,这才是符合软件工程学逻辑的解法。#vanar $VANRY
拒绝TPS虚火,AI赛道的基础设施还得看合规性适配
最近都在疯狂炒作AI赛道,但我把手里的几个Agent在链上实跑了一圈,发现大部分所谓的高性能公链简直就是灾难。市面上那些动不动喊几万TPS的项目,真到了高频交互的时候,Gas费的微小抖动能把量化策略的利润吃得渣都不剩。这就好比你开着法拉利去送外卖,车是好车,但油费你烧不起。这也是我最近死磕@Vanarchain 技术白皮书的原因,很多人只盯着它和Google Cloud的合作觉得是营销噱头,其实根本没看懂这是为了解决什么核心痛点。
拿我之前深研过的Near做个竟品对比,虽然人家的分片技术确实很强,但对于那些想要进场的大型Web2游戏工作室或者AI企业来说,纯粹的技术牛逼不是门槛,财务合规和成本可控才是命门。Vanar那个零碳和极低费率的设计,表面看是打环保牌,实际上是给了这些有ESG考核的大厂一张安全入场券。我在Vanguard测试网跑数据的时候就在想,未来的AI交互肯定不是人点鼠标,而是机器对机器的M2M高频流转,这种场景下,甚至连以太坊L2那种Sequencer的中心化延迟都难以忍受。Vanar这种混合架构,给我的体感就像是在Web2的服务器速度上加了一层Web3的资产确权,虽然现在生态应用还稍显单薄,早期的跨链桥体验也偶尔会抽风,但架构逻辑是通的。
咱们得承认,现在的AI项目很多都是旧瓶装新酒,硬往EVM的旧框架上套。但凡你真的去写过几行合约,就知道让Solidity去直接处理大模型推理是多么荒谬的事。Vanar聪明的点在于它没去硬碰硬搞什么通用计算,而是把繁重的计算扔给链下或者特制的执行层,链上只做最终的状态验证,这才是符合软件工程学逻辑的解法。#vanar $VANRY
别再盯着TPS高潮了:深入Vanar架构后,我发现AI需要的根本不是更快的马车​最近这一周我几乎没怎么看盘,盯着满屏乱飞的AI概念币只觉得脑仁疼,这种感觉就像是回到了2017年哪怕是个做大饼夹馍的只要把白皮书里加上区块链三个字就能圈钱的荒诞时代,现在的逻辑换汤不换药,随便搞个GPT套壳应用或者发个根本跑不起来的渲染概念就能把市值拉到天上。作为在技术圈混了这么些年的老韭菜,我对于这种单纯堆砌叙事的项目有着本能的生理厌恶,前几天为了验证我的这种偏见,我特意去扒了扒最近风很大的@Vanar 的代码和文档,本来是抱着挑刺找茬的心态去的,想看看这又是个什么样的新瓶装旧酒,结果这一看反而让我陷入了长考,甚至开始怀疑我们要么是彻底低估了AI Native公链的门槛,要么就是整个市场现在对于AI基础设施的理解完全跑偏了。 ​我必须直白地说,现在市面上绝大多数所谓的AI公链都在耍流氓,它们解决问题的思路还是典型的Web2思维,觉得AI需要算力那就做个算力市场,觉得AI需要数据那就做个数据湖,这在逻辑上看似闭环,但落实到工程实现上完全是两张皮。我在测试其他几条标榜高性能的L1时发现一个极其尴尬的现象,它们所谓的支持AI其实就是单纯地把链作为一个结算层,AI模型的推理、训练、数据处理全都在链下黑盒子里跑,最后把结果传回链上,这和我们现在用的中心化服务器有什么本质区别,无非就是多了一步上链存证的手续费,这叫哪门子的AI公链。 ​Vanar给我的第一感觉不是惊艳,而是那种理工男特有的轴劲,它好像完全不屑于去卷什么TPS数据,这在当下的公链竞争里简直是异类。我去跑了一下他们的测试网,最大的感触是Vanar对于EVM环境的改造是动了手术刀的,而不是像某些L2那样仅仅是打个补丁。传统的EVM是个死脑筋,它是无状态的,这意味着每次交易结束它就把刚才发生的事忘得一干二净,但凡写过两个Agent脚本的人都知道,AI的核心恰恰是记忆和上下文,如果我想在以太坊上跑一个哪怕最简单的拥有长期记忆的NPC,光是存储状态的Gas费就能让我破产,更别提那个慢到令人发指的读取速度。Vanar在这里引入的Neutron架构很有意思,它没有选择去外挂一个去中心化存储(比如AR或Filecoin),而是直接在链的底层协议里内嵌了一个热数据层,这就好比给原本只有短期记忆的金鱼装了一个海马体,我在部署合约时明显感觉到调用历史数据的逻辑要比在Arb或者Op上顺滑得多,这种原生集成的流畅感是任何跨链桥或者预言机都模拟不出来的。 ​再说个让我觉得很讽刺的对比,现在大家都在吹Solana的高并发,说那是AI时代的纳斯达克,但我反倒觉得Solana那种单纯追求速度的架构是AI Agent的噩梦。我在Solana上试着写过一个自动化套利的高频Agent,结果发现一旦网络拥堵,或者需要处理复杂的链上逻辑时,那个看起来很美的TPS瞬间就变成了不可靠的幻影,因为AI交互不仅仅是转账,它包含着大量的逻辑判断和推理过程。Vanar这里的Kaion引擎给了我一点小小的震撼,它居然在尝试把推理过程直接纳入共识机制,我不确定我理解得是否完全准确,但这确实解决了一个痛点,那就是信任问题。以前我们不仅要信任智能合约的代码,还得信任那个在链下跑模型的人不会篡改输入输出,现在如果推理本身就是链上行为的一部分,那这就不仅仅是效率的提升,而是真正意义上的去信任化AI。 ​深入研究Vanar的经济模型时我发现团队并没有落入俗套,没有搞那种复杂的双代币或者质押挖矿的庞氏模型,而是非常务实地在解决Gas费这个拦路虎。对于人类用户来说一笔交易几美分可能无所谓,但对于未来可能每秒钟要进行成百上千次微交互的AI Agent来说,这个成本就是生与死的界限。我在对比ICP的时候其实也看到过类似的愿景,ICP的技术确实很牛,甚至能直接托管前端,但它的开发门槛实在太高了,那套特有的语言和架构把99%的开发者都挡在了门外面。Vanar聪明就聪明在它没有为了创新而抛弃兼容性,它依然是熟悉的EVM环境,这意味着我手里现成的Solidity代码改改就能用,但在底层它又偷偷把引擎换成了适应AI负载的核动力,这种对于开发者体验的妥协和尊重反而是很多所谓天王级项目最欠缺的。 ​不过我也不是在无脑吹Vanar,在使用过程中我也发现了不少让人头秃的问题。目前的生态确实还是太荒凉了,除了官方那几个演示性的Demo,真正能跑起来的重型应用几乎没有,这就像是修了一条跑车专用的高速公路,路面平整设施豪华,但上面跑的还是一堆三轮车。而且作为一个技术导向的项目,他们的文档有时候写得简直是天书,很多关键参数的配置语焉不详,我不得不去Discord里硬着头皮问才搞明白几个接口的调用方式,这种糟糕的开发者支持如果在主网上线后还不改善,绝对会劝退一大波想尝鲜的人。再者就是中心化的问题,虽然都在喊去中心化,但在早期阶段为了保证这种高性能和特殊的AI功能,节点的门槛肉眼可见的高,这必然会导致算力在一定程度上的集中,这也是目前所有高性能公链都无法回避的不可能三角。 ​让我真正对Vanar产生兴趣的其实是它对于Web2巨头的态度,它没有像其他Web3原教旨主义者那样喊着要打倒Google打倒AWS,反而是很鸡贼地选择了合作和融合。我在查阅资料时发现他们和Google Cloud的合作深度远超一般的PR通稿,这种务实甚至有点投机的策略反而让我觉得靠谱。因为我们要清楚一件事,未来的AI世界不可能是完全去中心化的,那些大模型大算力依然会掌握在巨头手里,Web3能做的不是去替代它们,而是作为一种价值结算和数据确权的中间层存在。Vanar似乎很早就看透了这一点,它的架构设计明显预留了很多给传统企业级应用接入的接口,这种骑墙派的作风虽然在极客圈子里可能不受待见,但在商业落地上绝对是最聪明的做法。 ​回过头来看现在的市场,大家都在寻找下一个百倍币,都在赌谁是AI赛道的以太坊,但我越来越觉得这种寻找本身就是刻舟求剑。AI时代的公链逻辑已经变了,它不再是单纯的账本,而是一个具备计算能力和记忆能力的生命体。以太坊现在就像是一个步履蹒跚的老会计,虽然算账精准且从未出错,但你让他去指挥一场复杂的现代化战争显然是力不从心的。Layer 2们则像是给这个老会计配了一堆跑腿的小弟,虽然能分担一部分工作,但核心的决策和处理依然受限于那个老化的大脑。而Vanar给我的感觉更像是一个年轻的参谋长,虽然资历尚浅,经验也不足,但它的思维方式和工具箱全都是为了这场新战争而准备的。 ​在这个充斥着躁动和焦虑的圈子里,能静下心来去啃底层代码的人越来越少了,大家都更愿意去相信KOL嘴里的财富密码。我也曾是那个追逐热点的一员,今天冲土狗明天冲铭文,但每当夜深人静看着账户里的数字像坐过山车一样跳动时,内心那种虚无感是无法掩饰的。这次对于Vanar的研究让我久违地找回了当初刚接触区块链时那种对于技术改变世界的兴奋感。我看到的不是一个代币,而是一套精密的齿轮系统,它试图咬合住AI这头狂奔的野兽,将它的蛮力转化为可被度量、可被交易的价值。 ​当然技术归技术,币价归币价,这两者往往不是正相关的。Vanar这种重技术的项目往往在牛市初期跑不过那些会喊口号的Meme,甚至可能在很长一段时间里都会被市场冷落。但我始终相信,当潮水退去,当所有的AI概念都被证伪,当人们发现那些所谓的AI Agent因为Gas费太高而一步都动不了的时候,资金自然会流向那些真正铺好了铁轨的地方。我现在甚至有点享受这种还没被大众发现的孤独感,就像是在2019年囤积LINK或者在2020年研究Matic一样,这是一种基于认知的套利,也是对我们这些技术信仰者最好的奖赏。 ​这几天我一直在思考一个问题,如果未来的互联网真的被AI接管,那我们要靠什么来证明自己的存在?是钱包里的余额吗,还是我们在链上留下的那些不可篡改的行为痕迹?Vanar提出的那个Reputation Reputation系统虽然现在还很雏形,但我隐约感觉到这可能会是未来数字身份的一个雏形。在那个世界里,你的信用、你的偏好、你的历史不仅仅是冷冰冰的数据,而是可以被AI理解、被智能合约执行的活的资产。想到这里我不禁打了个冷战,这既令人兴奋又让人恐惧,我们正在亲手通过像Vanar这样的工具,把人类社会的最后一点隐私和复杂性都献祭给算法,只为了换取更高效率的生存。 ​写到这里我想我该停笔了,窗外的天已经蒙蒙亮,隔壁邻居家那条傻狗又开始叫唤。我并没有劝谁去买Vanar的意思,毕竟在这个圈子里没人能对你的钱包负责。我只是觉得,在大家都忙着捡地上的六便士时,偶尔抬头看看月亮,思考一下这辆通往未来的列车到底是用什么引擎驱动的,或许能让我们在下一次崩盘来临时,少一份慌张多一份底气。Vanar未必是那个最终的胜者,它身上有着明显的实验性质和不确定性,但它所代表的那种从底层重构AI与区块链关系的尝试,绝对是这个周期里最值得关注的实验之一。与其在那些虚无缥缈的空气项目里浪费生命,不如花点时间去理解一下这些硬核的东西,毕竟在Web3的世界里,认知才是唯一的杠杆。#vanar $VANRY

别再盯着TPS高潮了:深入Vanar架构后,我发现AI需要的根本不是更快的马车

​最近这一周我几乎没怎么看盘,盯着满屏乱飞的AI概念币只觉得脑仁疼,这种感觉就像是回到了2017年哪怕是个做大饼夹馍的只要把白皮书里加上区块链三个字就能圈钱的荒诞时代,现在的逻辑换汤不换药,随便搞个GPT套壳应用或者发个根本跑不起来的渲染概念就能把市值拉到天上。作为在技术圈混了这么些年的老韭菜,我对于这种单纯堆砌叙事的项目有着本能的生理厌恶,前几天为了验证我的这种偏见,我特意去扒了扒最近风很大的@Vanarchain 的代码和文档,本来是抱着挑刺找茬的心态去的,想看看这又是个什么样的新瓶装旧酒,结果这一看反而让我陷入了长考,甚至开始怀疑我们要么是彻底低估了AI Native公链的门槛,要么就是整个市场现在对于AI基础设施的理解完全跑偏了。
​我必须直白地说,现在市面上绝大多数所谓的AI公链都在耍流氓,它们解决问题的思路还是典型的Web2思维,觉得AI需要算力那就做个算力市场,觉得AI需要数据那就做个数据湖,这在逻辑上看似闭环,但落实到工程实现上完全是两张皮。我在测试其他几条标榜高性能的L1时发现一个极其尴尬的现象,它们所谓的支持AI其实就是单纯地把链作为一个结算层,AI模型的推理、训练、数据处理全都在链下黑盒子里跑,最后把结果传回链上,这和我们现在用的中心化服务器有什么本质区别,无非就是多了一步上链存证的手续费,这叫哪门子的AI公链。
​Vanar给我的第一感觉不是惊艳,而是那种理工男特有的轴劲,它好像完全不屑于去卷什么TPS数据,这在当下的公链竞争里简直是异类。我去跑了一下他们的测试网,最大的感触是Vanar对于EVM环境的改造是动了手术刀的,而不是像某些L2那样仅仅是打个补丁。传统的EVM是个死脑筋,它是无状态的,这意味着每次交易结束它就把刚才发生的事忘得一干二净,但凡写过两个Agent脚本的人都知道,AI的核心恰恰是记忆和上下文,如果我想在以太坊上跑一个哪怕最简单的拥有长期记忆的NPC,光是存储状态的Gas费就能让我破产,更别提那个慢到令人发指的读取速度。Vanar在这里引入的Neutron架构很有意思,它没有选择去外挂一个去中心化存储(比如AR或Filecoin),而是直接在链的底层协议里内嵌了一个热数据层,这就好比给原本只有短期记忆的金鱼装了一个海马体,我在部署合约时明显感觉到调用历史数据的逻辑要比在Arb或者Op上顺滑得多,这种原生集成的流畅感是任何跨链桥或者预言机都模拟不出来的。
​再说个让我觉得很讽刺的对比,现在大家都在吹Solana的高并发,说那是AI时代的纳斯达克,但我反倒觉得Solana那种单纯追求速度的架构是AI Agent的噩梦。我在Solana上试着写过一个自动化套利的高频Agent,结果发现一旦网络拥堵,或者需要处理复杂的链上逻辑时,那个看起来很美的TPS瞬间就变成了不可靠的幻影,因为AI交互不仅仅是转账,它包含着大量的逻辑判断和推理过程。Vanar这里的Kaion引擎给了我一点小小的震撼,它居然在尝试把推理过程直接纳入共识机制,我不确定我理解得是否完全准确,但这确实解决了一个痛点,那就是信任问题。以前我们不仅要信任智能合约的代码,还得信任那个在链下跑模型的人不会篡改输入输出,现在如果推理本身就是链上行为的一部分,那这就不仅仅是效率的提升,而是真正意义上的去信任化AI。
​深入研究Vanar的经济模型时我发现团队并没有落入俗套,没有搞那种复杂的双代币或者质押挖矿的庞氏模型,而是非常务实地在解决Gas费这个拦路虎。对于人类用户来说一笔交易几美分可能无所谓,但对于未来可能每秒钟要进行成百上千次微交互的AI Agent来说,这个成本就是生与死的界限。我在对比ICP的时候其实也看到过类似的愿景,ICP的技术确实很牛,甚至能直接托管前端,但它的开发门槛实在太高了,那套特有的语言和架构把99%的开发者都挡在了门外面。Vanar聪明就聪明在它没有为了创新而抛弃兼容性,它依然是熟悉的EVM环境,这意味着我手里现成的Solidity代码改改就能用,但在底层它又偷偷把引擎换成了适应AI负载的核动力,这种对于开发者体验的妥协和尊重反而是很多所谓天王级项目最欠缺的。
​不过我也不是在无脑吹Vanar,在使用过程中我也发现了不少让人头秃的问题。目前的生态确实还是太荒凉了,除了官方那几个演示性的Demo,真正能跑起来的重型应用几乎没有,这就像是修了一条跑车专用的高速公路,路面平整设施豪华,但上面跑的还是一堆三轮车。而且作为一个技术导向的项目,他们的文档有时候写得简直是天书,很多关键参数的配置语焉不详,我不得不去Discord里硬着头皮问才搞明白几个接口的调用方式,这种糟糕的开发者支持如果在主网上线后还不改善,绝对会劝退一大波想尝鲜的人。再者就是中心化的问题,虽然都在喊去中心化,但在早期阶段为了保证这种高性能和特殊的AI功能,节点的门槛肉眼可见的高,这必然会导致算力在一定程度上的集中,这也是目前所有高性能公链都无法回避的不可能三角。
​让我真正对Vanar产生兴趣的其实是它对于Web2巨头的态度,它没有像其他Web3原教旨主义者那样喊着要打倒Google打倒AWS,反而是很鸡贼地选择了合作和融合。我在查阅资料时发现他们和Google Cloud的合作深度远超一般的PR通稿,这种务实甚至有点投机的策略反而让我觉得靠谱。因为我们要清楚一件事,未来的AI世界不可能是完全去中心化的,那些大模型大算力依然会掌握在巨头手里,Web3能做的不是去替代它们,而是作为一种价值结算和数据确权的中间层存在。Vanar似乎很早就看透了这一点,它的架构设计明显预留了很多给传统企业级应用接入的接口,这种骑墙派的作风虽然在极客圈子里可能不受待见,但在商业落地上绝对是最聪明的做法。
​回过头来看现在的市场,大家都在寻找下一个百倍币,都在赌谁是AI赛道的以太坊,但我越来越觉得这种寻找本身就是刻舟求剑。AI时代的公链逻辑已经变了,它不再是单纯的账本,而是一个具备计算能力和记忆能力的生命体。以太坊现在就像是一个步履蹒跚的老会计,虽然算账精准且从未出错,但你让他去指挥一场复杂的现代化战争显然是力不从心的。Layer 2们则像是给这个老会计配了一堆跑腿的小弟,虽然能分担一部分工作,但核心的决策和处理依然受限于那个老化的大脑。而Vanar给我的感觉更像是一个年轻的参谋长,虽然资历尚浅,经验也不足,但它的思维方式和工具箱全都是为了这场新战争而准备的。
​在这个充斥着躁动和焦虑的圈子里,能静下心来去啃底层代码的人越来越少了,大家都更愿意去相信KOL嘴里的财富密码。我也曾是那个追逐热点的一员,今天冲土狗明天冲铭文,但每当夜深人静看着账户里的数字像坐过山车一样跳动时,内心那种虚无感是无法掩饰的。这次对于Vanar的研究让我久违地找回了当初刚接触区块链时那种对于技术改变世界的兴奋感。我看到的不是一个代币,而是一套精密的齿轮系统,它试图咬合住AI这头狂奔的野兽,将它的蛮力转化为可被度量、可被交易的价值。
​当然技术归技术,币价归币价,这两者往往不是正相关的。Vanar这种重技术的项目往往在牛市初期跑不过那些会喊口号的Meme,甚至可能在很长一段时间里都会被市场冷落。但我始终相信,当潮水退去,当所有的AI概念都被证伪,当人们发现那些所谓的AI Agent因为Gas费太高而一步都动不了的时候,资金自然会流向那些真正铺好了铁轨的地方。我现在甚至有点享受这种还没被大众发现的孤独感,就像是在2019年囤积LINK或者在2020年研究Matic一样,这是一种基于认知的套利,也是对我们这些技术信仰者最好的奖赏。
​这几天我一直在思考一个问题,如果未来的互联网真的被AI接管,那我们要靠什么来证明自己的存在?是钱包里的余额吗,还是我们在链上留下的那些不可篡改的行为痕迹?Vanar提出的那个Reputation Reputation系统虽然现在还很雏形,但我隐约感觉到这可能会是未来数字身份的一个雏形。在那个世界里,你的信用、你的偏好、你的历史不仅仅是冷冰冰的数据,而是可以被AI理解、被智能合约执行的活的资产。想到这里我不禁打了个冷战,这既令人兴奋又让人恐惧,我们正在亲手通过像Vanar这样的工具,把人类社会的最后一点隐私和复杂性都献祭给算法,只为了换取更高效率的生存。
​写到这里我想我该停笔了,窗外的天已经蒙蒙亮,隔壁邻居家那条傻狗又开始叫唤。我并没有劝谁去买Vanar的意思,毕竟在这个圈子里没人能对你的钱包负责。我只是觉得,在大家都忙着捡地上的六便士时,偶尔抬头看看月亮,思考一下这辆通往未来的列车到底是用什么引擎驱动的,或许能让我们在下一次崩盘来临时,少一份慌张多一份底气。Vanar未必是那个最终的胜者,它身上有着明显的实验性质和不确定性,但它所代表的那种从底层重构AI与区块链关系的尝试,绝对是这个周期里最值得关注的实验之一。与其在那些虚无缥缈的空气项目里浪费生命,不如花点时间去理解一下这些硬核的东西,毕竟在Web3的世界里,认知才是唯一的杠杆。#vanar $VANRY
都在喊RWA机构进场,没隐私保护的公链简直就是在裸奔 这几天深度复盘RWA赛道的几个龙头,越发觉得现在的市场逻辑有点本末倒置。大家都在盯着资产怎么代币化,却没人关心机构最在意的隐私痛点。昨天特意去跑了几个号称做合规层的L2测试网,体验简直灾难。你要么把护照信息交给中心化节点,等着数据泄露,要么就在公链上完全透明,交易策略被链上机器人盯着狙击。这种二元对立的架构,机构资金敢进场才怪。 反观@Dusk_Foundation 的技术文档,路子倒是野得很。它不像Polymesh那样在应用层打补丁,而是直接在Layer 1协议层就嵌如了合规逻辑。这点差异在实际交互中感觉很明显,以前做KYC得给每个DApp重复授权,现在通过Citadel协议,直接在链下生成一个零知识证明,链上只负责验证这个凭证的有校性。这种只验证不泄露的设计,才稍微有点Web3该有的样子。对比以太坊生态里那些笨重的白名单合约,Dusk这种原生合规的底层架构确实要轻量不少,Gas费的预估也合理很多。 最有意思的是它的Piecrust虚拟机,我看它不是为了卷TPS,而是专门优化了ZK电路的验证效率。这意味着未来在链上执行高频交易时,合规验证不会成为性能瓶颈。现在的RWA赛道太缺这种基础设施了,大家都忙着发资产,却忘了修路。如果Dusk能把这套隐私与合规并存的逻辑跑通,那才是给传统金融撕开了一道口子。当然技术愿景归愿景,ZKP生成的计算开销在主网高并发下能不能抗住,目前还得打个问号,毕竟在这个圈子,PPT造车的项目实在太多了,咱们还得盯着代码更新看实效。#dusk $DUSK
都在喊RWA机构进场,没隐私保护的公链简直就是在裸奔
这几天深度复盘RWA赛道的几个龙头,越发觉得现在的市场逻辑有点本末倒置。大家都在盯着资产怎么代币化,却没人关心机构最在意的隐私痛点。昨天特意去跑了几个号称做合规层的L2测试网,体验简直灾难。你要么把护照信息交给中心化节点,等着数据泄露,要么就在公链上完全透明,交易策略被链上机器人盯着狙击。这种二元对立的架构,机构资金敢进场才怪。
反观@Dusk 的技术文档,路子倒是野得很。它不像Polymesh那样在应用层打补丁,而是直接在Layer 1协议层就嵌如了合规逻辑。这点差异在实际交互中感觉很明显,以前做KYC得给每个DApp重复授权,现在通过Citadel协议,直接在链下生成一个零知识证明,链上只负责验证这个凭证的有校性。这种只验证不泄露的设计,才稍微有点Web3该有的样子。对比以太坊生态里那些笨重的白名单合约,Dusk这种原生合规的底层架构确实要轻量不少,Gas费的预估也合理很多。
最有意思的是它的Piecrust虚拟机,我看它不是为了卷TPS,而是专门优化了ZK电路的验证效率。这意味着未来在链上执行高频交易时,合规验证不会成为性能瓶颈。现在的RWA赛道太缺这种基础设施了,大家都忙着发资产,却忘了修路。如果Dusk能把这套隐私与合规并存的逻辑跑通,那才是给传统金融撕开了一道口子。当然技术愿景归愿景,ZKP生成的计算开销在主网高并发下能不能抗住,目前还得打个问号,毕竟在这个圈子,PPT造车的项目实在太多了,咱们还得盯着代码更新看实效。#dusk $DUSK
Prijavite se, če želite raziskati več vsebin
Raziščite najnovejše novice o kriptovalutah
⚡️ Sodelujte v najnovejših razpravah o kriptovalutah
💬 Sodelujte z najljubšimi ustvarjalci
👍 Uživajte v vsebini, ki vas zanima
E-naslov/telefonska številka
Zemljevid spletišča
Nastavitve piškotkov
Pogoji uporabe platforme