Binance Square

Daft Punk马到成功版

image
認証済みクリエイター
文章均为个人看法,不构成投资建议。
超高頻度トレーダー
1年
329 フォロー
47.4K+ フォロワー
39.3K+ いいね
5.9K+ 共有
投稿
PINNED
·
--
兄弟们,听说又有行业元老拿着推流洗人家第一的稿子,一张嘴就是和这个合作和那个合作,最后原来是和豆包合作洗人家稿,原来炫耀的分数都是洗出来的,你是蓝月亮么这么能洗。此处不点名,自己看榜猜😂
兄弟们,听说又有行业元老拿着推流洗人家第一的稿子,一张嘴就是和这个合作和那个合作,最后原来是和豆包合作洗人家稿,原来炫耀的分数都是洗出来的,你是蓝月亮么这么能洗。此处不点名,自己看榜猜😂
PINNED
広場の創作環境は大体こんな感じです。私たち普通のクリエイターは、ストリーミング選手に素材を提供するだけです。あなたがまだ何かオリジナルをやっていると聞きましたが、冗談はやめて、さっさと寝てください。盗作こそが広場の唯一の道です。オリジナルはすでに飢え死にしています。ストリーミング選手は10分で十数kの視聴を得ます。あなたがストリーミングをしなければ、私は本当にこんなにひどいとは気づきませんでした。タイトルも変えずに、ははは。
広場の創作環境は大体こんな感じです。私たち普通のクリエイターは、ストリーミング選手に素材を提供するだけです。あなたがまだ何かオリジナルをやっていると聞きましたが、冗談はやめて、さっさと寝てください。盗作こそが広場の唯一の道です。オリジナルはすでに飢え死にしています。ストリーミング選手は10分で十数kの視聴を得ます。あなたがストリーミングをしなければ、私は本当にこんなにひどいとは気づきませんでした。タイトルも変えずに、ははは。
都在喊 AI Agent 大爆发,但谁来给它们付 Gas 账单? 这一轮 AI 叙事看下来,感觉市场挺浮躁的,大家都在拿 PPT 讲故事,真正能跑通逻辑的没几个。前两天我在测几个号称 Web3 智能龙头的测试网,跑个简单的 Agent 交互,Gas 费烧得我肉疼,这要是以后大规模商用,哪怕是 L2 也扛不住这种吞吐量。这时候回过头看 Vanar 的架构,才觉得这帮人是真的懂 AI 的痛点,比起那些还在硬蹭算力概念的项目,Vanar 明显是想解决更实际的生存问题。 区别于现在市面上那些只管堆砌算力、不管落地成本的模块化方案,@Vanar 给我的感觉更像是给 AI 铺了一条专用高速路。特别是深入研究他们对 NVIDIA 技术栈的集成后,发现这不是简单的营销噱头,而是真在底层做了 CUDA 核心的兼容。这就很有意思了,对比我之前看好的某几个高性能公链,Vanar 的 Neutron 架构把数据验证做得极其克制且高效。它不要求把所有训练历史都硬塞上链,而是通过元数据验证来确保可信度,这种设计对于需要高频读写的 AI 应用来说简直是救命稻草。 说实话,现在的行业误区在于过分迷信“去中心化算力”这个宏大叙事,却忽略了应用落地的经济账。如果每一个 AI 的推理步骤都要消耗几十美分的过路费,那链上智能永远是伪命题。Vanar 在环保和能效上的死磕,虽然看着不如某些 meme 币那样性感,但这种低能耗、低延迟的环境才是企业级用户进场的前提。我看好它不是因为什么复杂的代币模型,仅仅是因为它解决了一个最朴素的问题:让 AI 在链上能“活”得起。别总盯着短期的 K 线跳动,这种能真正承载商业级流量的基建,等潮水退去后才会显现出真正的护城河。#vanar $VANRY
都在喊 AI Agent 大爆发,但谁来给它们付 Gas 账单?
这一轮 AI 叙事看下来,感觉市场挺浮躁的,大家都在拿 PPT 讲故事,真正能跑通逻辑的没几个。前两天我在测几个号称 Web3 智能龙头的测试网,跑个简单的 Agent 交互,Gas 费烧得我肉疼,这要是以后大规模商用,哪怕是 L2 也扛不住这种吞吐量。这时候回过头看 Vanar 的架构,才觉得这帮人是真的懂 AI 的痛点,比起那些还在硬蹭算力概念的项目,Vanar 明显是想解决更实际的生存问题。
区别于现在市面上那些只管堆砌算力、不管落地成本的模块化方案,@Vanarchain 给我的感觉更像是给 AI 铺了一条专用高速路。特别是深入研究他们对 NVIDIA 技术栈的集成后,发现这不是简单的营销噱头,而是真在底层做了 CUDA 核心的兼容。这就很有意思了,对比我之前看好的某几个高性能公链,Vanar 的 Neutron 架构把数据验证做得极其克制且高效。它不要求把所有训练历史都硬塞上链,而是通过元数据验证来确保可信度,这种设计对于需要高频读写的 AI 应用来说简直是救命稻草。
说实话,现在的行业误区在于过分迷信“去中心化算力”这个宏大叙事,却忽略了应用落地的经济账。如果每一个 AI 的推理步骤都要消耗几十美分的过路费,那链上智能永远是伪命题。Vanar 在环保和能效上的死磕,虽然看着不如某些 meme 币那样性感,但这种低能耗、低延迟的环境才是企业级用户进场的前提。我看好它不是因为什么复杂的代币模型,仅仅是因为它解决了一个最朴素的问题:让 AI 在链上能“活”得起。别总盯着短期的 K 线跳动,这种能真正承载商业级流量的基建,等潮水退去后才会显现出真正的护城河。#vanar $VANRY
看着满屏的AI+Crypto焦虑,我把节点迁到了Vanar:一次关于伪需求与真基建的深度复盘昨晚盯着屏幕上跳动的Gas费和拥堵的Mempool数据,那种熟悉的无力感又涌上来了,这已经是我在这个所谓的“AI叙事爆发年”里第三次感到逻辑崩塌,市面上充斥着各种缝合怪项目,拿着GPT-4的API接口套个壳,再发个币,就敢喊自己是AI公链,这种荒诞的景象像极了2017年的ICO狂潮,只不过当年的白皮书换成了现在的Hugging Face链接。 作为一名在链上摸爬滚打多年的开发者,我有着极度务实甚至冷酷的评判标准,我不看你PPT画得有多科幻,我只关心我的代码跑在上面会不会因为Gas飙升而报错,我的Agent能不能在毫秒级内完成一次无需许可的套利。这段时间我把市面上号称“高性能”的公链几乎跑了个遍,从Solana的本地费率市场到Near的分片机制,再到Base的各种OP Stack魔改,最后鬼使神差地测到了@Vanar ,这种感觉很微妙,就像你在满是躁动重金属摇滚的夜店里,突然走进了一间隔音极好的精密实验室。 这不是一篇吹捧文,恰恰相反,我是带着挑刺的心态去读Vanar文档的,起初我对它所谓的“AI-First”非常不屑,毕竟在这个圈子里,概念造假是常态,但当我真正尝试在Vanar测试网上部署那个为此调试了半个月的链上推理模型时,我发现事情有点不对劲,以往在以太坊L2上,为了把一次简单的AI模型权重验证放上链,我需要写大量的胶水代码来处理链下计算和链上验证的异步问题,那种割裂感就像是用电报机在发短视频,但在Vanar的架构里,这种体验消失了,它底层的资源调度逻辑似乎天生就是为高并发的机器通信设计的,而不是为人肉点击设计的。 拿Solana做个对比,Solana确实快,这点没人否认,但它的快是一种“洪水式”的快,为了维持高TPS,它牺牲了太多的状态确定性,对于DeFi degens来说,交易失败重发一次无非是多点一下鼠标,但对于AI Agent来说,一次执行失败可能意味着整个推理逻辑链条的断裂,我的Agent在Solana上运行时,经常因为局部热点导致交易被丢弃,这种不确定性是自动化经济的噩梦,而Vanar给我的感觉是“稳”,这种稳不是慢,而是一种工业级的确定性,它的Gas模型不仅仅是便宜,更重要的是可预测,这对于企业级的AI应用来说简直是救命稻草,想象一下,如果你的AI服务成本会随着某只土狗币的暴涨而波动,哪家正经公司敢把业务搬上来。 我在深入研究Vanar的技术栈时,发现了一个很有意思的细节,也就是他们对EVM的兼容处理,很多所谓的“高性能链”为了追求速度,搞了一套全新的虚拟机语言,美其名曰创新,实则是在制造开发者孤岛,Move语言再好,我也没那个精力去重写我所有的Solidity合约,Vanar聪明的地方在于,它没有去挑战开发者的使用习惯,而是在底层设施上做了外科手术般的改造,这让我想起了当年的BSC,但Vanar明显更懂现在的痛点,它不仅兼容,更是把Google Cloud和Nvidia的算力资源做了一种很诡异但有效的映射。 说到这里我不得不吐槽一下Near,Near的分片技术从学术角度看确实优雅,但在实际应用中,跨分片的通信延迟简直让人抓狂,我的一个跨合约调用在Near上跑起来总有一种“在迷宫里找出口”的滞涩感,而Vanar的单体架构在处理原子化交易时表现出的顺滑度,让我重新思考了单体链和模块化链的优劣,也许在AI高频交互的场景下,模块化带来的通信开销本身就是一种累赘,Vanar这种“重单体”的思路,反而可能是一条被忽视的捷径。 当然Vanar也不是没有槽点,作为一个深度的链上用户,我对它的钱包适配体验还是颇有微词的,虽然兼容MetaMask,但在一些特定的AI数据签名环节,UX交互流程显得过于极客,缺乏那种把小白用户当傻瓜照顾的细腻,而且目前的生态应用确实还比较单薄,看着隔壁Base上每天土狗满天飞的热闹景象,Vanar这边安静得像个图书馆,但这恰恰是我觉得它被低估的原因,在这个喧嚣的市场里,安静意味着开发者在干活,而不是在喊单。 我特别关注了Vanar对于“数据隐私”的处理方式,这是目前AI+Crypto赛道最大的雷区,Worldcoin那种激进的生物识别采集让我感到生理不适,而Vanar似乎选择了一条更温和的中间路线,它利用零知识证明技术在底层构建了一个数据隔离层,这让企业级的数据敢于上链,我看代码的时候就在想,这帮人是真的懂B端客户在怕什么,他们怕的不是技术不先进,而是怕数据裸奔,这一点上,Vanar比那些只会喊“去中心化”口号的项目要成熟得多,它有一种Web2巨头做产品的严谨感,又不失Web3的自由度。 这两天我也在反思,为什么我们对“AI公链”的定义如此狭隘,现在的市场逻辑依然停留在“AI发币”的阶段,比如Fetch.ai或者SingularityNET,它们更多是在做一个去中心化的交易市场,而Vanar给我的感觉,它更像是在做铺路石,它不生产AI,它只是把路修得足够平、足够宽,让那些重型卡车般的AI模型能跑得起来,这种定位在币圈其实很吃亏,因为“修路”的故事远没有“造车”来得性感,没有那么多炫酷的代币经济学模型,只有枯燥的TPS、延迟和存储成本对比。 在测试过程中我还发现了一个被很多人忽略的竞品优势,那就是它与传统Web2接口的互操作性,在Polygon上,如果你想让智能合约去调用一个外部的Web2 API,你需要预言机,需要复杂的各种桥,流程繁琐且昂贵,Vanar似乎在原生层面上就对这种外部调用做了优化,我的一个测试脚本在调用链下气象数据触发链上交易时,响应速度快得让我以为是在跑本地服务器,这种“无感”的体验,才是Mass Adoption该有的样子,而不是让用户去理解什么是Oracle,什么是VRF。 我不禁想起了以太坊现在的窘境,Vitalik是伟大的,但以太坊现在的技术包袱太重了,L2的碎片化导致流动性被割裂成无数个小岛,我的AI Agent如果在Arbitrum上赚了钱,想去Optimism上花,中间的跨链成本和时间成本足以抹平我的利润,Vanar这种统一的流动性环境,对于未来的机器经济来说至关重要,机器不会像人一样去忍受跨链桥的等待时间,机器只追求效率,哪里效率高,算力就会流向哪里。 写着写着窗外的天都快亮了,看着Vanar浏览器上不断生成的区块高度,我突然有一种久违的踏实感,这几年我们在这个圈子里见惯了起高楼宴宾客楼塌了,太多项目死于过度承诺和交付不足,Vanar没有那种动不动就“颠覆谷歌”“拳打亚马逊”的狂妄,它更像是一个沉默的工匠,在默默打磨着齿轮的咬合度,我也承认,现在买入Vanar可能不是一个能让你一夜暴富的决定,它没有MEME币那种百倍的爆发力,甚至在牛市的初期会跑输大盘,因为它太重基本面了,而现在的市场只看情绪。 但如果你把时间拉长到三年,当AI Agent真正开始接管链上交易,当大部分虚浮的“AI概念币”因为无法落地而归零时,像Vanar这种真正具备承载能力的基建才会显露出它的獠牙,我把我的节点从那些拥挤的L2上撤了下来,全部部署到了Vanar上,这不仅是一次技术迁移,更是一次对未来赌注的重新下注,我不赌谁喊得声音大,我赌谁的代码跑得稳。 另外还要提一嘴那个被很多人忽视的生态合作伙伴名单,我不觉得Google Cloud的标志贴在官网上只是为了好看,深入挖掘你会发现他们在底层算力调度上是真的有数据交换的,这比那些单纯拿个AWS标以此充好的项目不知道高到哪里去了,这是一种深度的资源互换,意味着Vanar有机会直接触达那些Web2顶级的开发者资源,这才是真正的护城河。 在这个充满噪音的世界里,保持独立思考太难了,K线图会干扰你的判断,推特上的KOL会左右你的情绪,唯有代码不会撒谎,唯有真实的交互体验不会骗人,Vanar现在的价格在我看来是完全被低估的,市场还没有意识到“AI Native”和“AI Compatible”之间的巨大鸿沟,前者是基因里的进化,后者只是拙劣的模仿,我不敢说Vanar一定会成为最终的胜者,毕竟这个行业的黑天鹅太多了,但在这一刻,它是我见过的最接近“机器金融”愿景的形态。 最后想说的是,不要盲目跟风,也不要因为我这篇文章就无脑冲,去读读文档,去跑跑测试网,甚至去刁难一下他们的技术团队,你会得到属于你自己的答案,在这个只有偏执狂才能生存的行业里,Vanar这种“老派”的硬核作风,或许正是我们通向下一个时代的唯一船票,不管是作为开发者还是投资者,我选择相信我看得到的代码,而不是听得到的口号,毕竟在Web3的世界里,信任是昂贵的,而验证是免费的。#vanar $VANRY

看着满屏的AI+Crypto焦虑,我把节点迁到了Vanar:一次关于伪需求与真基建的深度复盘

昨晚盯着屏幕上跳动的Gas费和拥堵的Mempool数据,那种熟悉的无力感又涌上来了,这已经是我在这个所谓的“AI叙事爆发年”里第三次感到逻辑崩塌,市面上充斥着各种缝合怪项目,拿着GPT-4的API接口套个壳,再发个币,就敢喊自己是AI公链,这种荒诞的景象像极了2017年的ICO狂潮,只不过当年的白皮书换成了现在的Hugging Face链接。
作为一名在链上摸爬滚打多年的开发者,我有着极度务实甚至冷酷的评判标准,我不看你PPT画得有多科幻,我只关心我的代码跑在上面会不会因为Gas飙升而报错,我的Agent能不能在毫秒级内完成一次无需许可的套利。这段时间我把市面上号称“高性能”的公链几乎跑了个遍,从Solana的本地费率市场到Near的分片机制,再到Base的各种OP Stack魔改,最后鬼使神差地测到了@Vanarchain ,这种感觉很微妙,就像你在满是躁动重金属摇滚的夜店里,突然走进了一间隔音极好的精密实验室。
这不是一篇吹捧文,恰恰相反,我是带着挑刺的心态去读Vanar文档的,起初我对它所谓的“AI-First”非常不屑,毕竟在这个圈子里,概念造假是常态,但当我真正尝试在Vanar测试网上部署那个为此调试了半个月的链上推理模型时,我发现事情有点不对劲,以往在以太坊L2上,为了把一次简单的AI模型权重验证放上链,我需要写大量的胶水代码来处理链下计算和链上验证的异步问题,那种割裂感就像是用电报机在发短视频,但在Vanar的架构里,这种体验消失了,它底层的资源调度逻辑似乎天生就是为高并发的机器通信设计的,而不是为人肉点击设计的。
拿Solana做个对比,Solana确实快,这点没人否认,但它的快是一种“洪水式”的快,为了维持高TPS,它牺牲了太多的状态确定性,对于DeFi degens来说,交易失败重发一次无非是多点一下鼠标,但对于AI Agent来说,一次执行失败可能意味着整个推理逻辑链条的断裂,我的Agent在Solana上运行时,经常因为局部热点导致交易被丢弃,这种不确定性是自动化经济的噩梦,而Vanar给我的感觉是“稳”,这种稳不是慢,而是一种工业级的确定性,它的Gas模型不仅仅是便宜,更重要的是可预测,这对于企业级的AI应用来说简直是救命稻草,想象一下,如果你的AI服务成本会随着某只土狗币的暴涨而波动,哪家正经公司敢把业务搬上来。
我在深入研究Vanar的技术栈时,发现了一个很有意思的细节,也就是他们对EVM的兼容处理,很多所谓的“高性能链”为了追求速度,搞了一套全新的虚拟机语言,美其名曰创新,实则是在制造开发者孤岛,Move语言再好,我也没那个精力去重写我所有的Solidity合约,Vanar聪明的地方在于,它没有去挑战开发者的使用习惯,而是在底层设施上做了外科手术般的改造,这让我想起了当年的BSC,但Vanar明显更懂现在的痛点,它不仅兼容,更是把Google Cloud和Nvidia的算力资源做了一种很诡异但有效的映射。
说到这里我不得不吐槽一下Near,Near的分片技术从学术角度看确实优雅,但在实际应用中,跨分片的通信延迟简直让人抓狂,我的一个跨合约调用在Near上跑起来总有一种“在迷宫里找出口”的滞涩感,而Vanar的单体架构在处理原子化交易时表现出的顺滑度,让我重新思考了单体链和模块化链的优劣,也许在AI高频交互的场景下,模块化带来的通信开销本身就是一种累赘,Vanar这种“重单体”的思路,反而可能是一条被忽视的捷径。
当然Vanar也不是没有槽点,作为一个深度的链上用户,我对它的钱包适配体验还是颇有微词的,虽然兼容MetaMask,但在一些特定的AI数据签名环节,UX交互流程显得过于极客,缺乏那种把小白用户当傻瓜照顾的细腻,而且目前的生态应用确实还比较单薄,看着隔壁Base上每天土狗满天飞的热闹景象,Vanar这边安静得像个图书馆,但这恰恰是我觉得它被低估的原因,在这个喧嚣的市场里,安静意味着开发者在干活,而不是在喊单。
我特别关注了Vanar对于“数据隐私”的处理方式,这是目前AI+Crypto赛道最大的雷区,Worldcoin那种激进的生物识别采集让我感到生理不适,而Vanar似乎选择了一条更温和的中间路线,它利用零知识证明技术在底层构建了一个数据隔离层,这让企业级的数据敢于上链,我看代码的时候就在想,这帮人是真的懂B端客户在怕什么,他们怕的不是技术不先进,而是怕数据裸奔,这一点上,Vanar比那些只会喊“去中心化”口号的项目要成熟得多,它有一种Web2巨头做产品的严谨感,又不失Web3的自由度。
这两天我也在反思,为什么我们对“AI公链”的定义如此狭隘,现在的市场逻辑依然停留在“AI发币”的阶段,比如Fetch.ai或者SingularityNET,它们更多是在做一个去中心化的交易市场,而Vanar给我的感觉,它更像是在做铺路石,它不生产AI,它只是把路修得足够平、足够宽,让那些重型卡车般的AI模型能跑得起来,这种定位在币圈其实很吃亏,因为“修路”的故事远没有“造车”来得性感,没有那么多炫酷的代币经济学模型,只有枯燥的TPS、延迟和存储成本对比。
在测试过程中我还发现了一个被很多人忽略的竞品优势,那就是它与传统Web2接口的互操作性,在Polygon上,如果你想让智能合约去调用一个外部的Web2 API,你需要预言机,需要复杂的各种桥,流程繁琐且昂贵,Vanar似乎在原生层面上就对这种外部调用做了优化,我的一个测试脚本在调用链下气象数据触发链上交易时,响应速度快得让我以为是在跑本地服务器,这种“无感”的体验,才是Mass Adoption该有的样子,而不是让用户去理解什么是Oracle,什么是VRF。
我不禁想起了以太坊现在的窘境,Vitalik是伟大的,但以太坊现在的技术包袱太重了,L2的碎片化导致流动性被割裂成无数个小岛,我的AI Agent如果在Arbitrum上赚了钱,想去Optimism上花,中间的跨链成本和时间成本足以抹平我的利润,Vanar这种统一的流动性环境,对于未来的机器经济来说至关重要,机器不会像人一样去忍受跨链桥的等待时间,机器只追求效率,哪里效率高,算力就会流向哪里。
写着写着窗外的天都快亮了,看着Vanar浏览器上不断生成的区块高度,我突然有一种久违的踏实感,这几年我们在这个圈子里见惯了起高楼宴宾客楼塌了,太多项目死于过度承诺和交付不足,Vanar没有那种动不动就“颠覆谷歌”“拳打亚马逊”的狂妄,它更像是一个沉默的工匠,在默默打磨着齿轮的咬合度,我也承认,现在买入Vanar可能不是一个能让你一夜暴富的决定,它没有MEME币那种百倍的爆发力,甚至在牛市的初期会跑输大盘,因为它太重基本面了,而现在的市场只看情绪。
但如果你把时间拉长到三年,当AI Agent真正开始接管链上交易,当大部分虚浮的“AI概念币”因为无法落地而归零时,像Vanar这种真正具备承载能力的基建才会显露出它的獠牙,我把我的节点从那些拥挤的L2上撤了下来,全部部署到了Vanar上,这不仅是一次技术迁移,更是一次对未来赌注的重新下注,我不赌谁喊得声音大,我赌谁的代码跑得稳。
另外还要提一嘴那个被很多人忽视的生态合作伙伴名单,我不觉得Google Cloud的标志贴在官网上只是为了好看,深入挖掘你会发现他们在底层算力调度上是真的有数据交换的,这比那些单纯拿个AWS标以此充好的项目不知道高到哪里去了,这是一种深度的资源互换,意味着Vanar有机会直接触达那些Web2顶级的开发者资源,这才是真正的护城河。
在这个充满噪音的世界里,保持独立思考太难了,K线图会干扰你的判断,推特上的KOL会左右你的情绪,唯有代码不会撒谎,唯有真实的交互体验不会骗人,Vanar现在的价格在我看来是完全被低估的,市场还没有意识到“AI Native”和“AI Compatible”之间的巨大鸿沟,前者是基因里的进化,后者只是拙劣的模仿,我不敢说Vanar一定会成为最终的胜者,毕竟这个行业的黑天鹅太多了,但在这一刻,它是我见过的最接近“机器金融”愿景的形态。
最后想说的是,不要盲目跟风,也不要因为我这篇文章就无脑冲,去读读文档,去跑跑测试网,甚至去刁难一下他们的技术团队,你会得到属于你自己的答案,在这个只有偏执狂才能生存的行业里,Vanar这种“老派”的硬核作风,或许正是我们通向下一个时代的唯一船票,不管是作为开发者还是投资者,我选择相信我看得到的代码,而不是听得到的口号,毕竟在Web3的世界里,信任是昂贵的,而验证是免费的。#vanar $VANRY
感谢海豹老师仗义执言❤️
感谢海豹老师仗义执言❤️
快乐的小海豹
·
--
📐🤦‍♂️技术性分析|两位币安顶流间的抄袭指控:附详细证据链和原始文本
1️⃣ 前情和声明
近日,币安广场发生一起抄袭指控,一位顶流发帖指控另一位顶流,举报给币安后被驳回,表达了强烈的失望感。
⓵ 被抄袭文:
https://www.binance.com/zh-CN/square/post/35796825707177
⓶ 疑似抄袭文:
https://www.binance.com/zh-CN/square/post/35828295322393

申明:
⓵ 本人与两位当事人无私交、无私怨,仅属于隔着网线的陌生网友。
⓶ 本人发帖纯粹出于技术性好奇,以及简单的正义感。
⓷ 本人反对任何抄袭和洗稿行为,但本人不是法官,无意做任何道德审判,也不为任何人背书
⓸ 仅代表本人个人看法,欢迎提出不同意见。
2️⃣ 整体相似度评估
基于两篇文章内容,我从内容重合度(关键观点、比喻、数据描述的相似性)、文章结构框架(组织方式、分段逻辑)、逻辑链(论证流程和因果关系)三个维度进行比较。
总体而言,两篇文章高度相似,疑似抄袭文(以下简称A文)像是对疑似被抄袭文(以下简称B文)的浓缩、改写和提炼版。A文保留了B文的核心元素,但简化了表达、删减了细节,并调整了部分结构以使其更简洁。
•  整体相似度:约80-90%。A文几乎完全继承了B文的主题、核心观点和逻辑框架,但长度缩短(A文约600字,B文约2000字),通过合并段落和去除冗余来实现。标题和引言(如用户所述)相似度近100%,主体内容重合度高,但A文添加了少量原创表述(如“凌晨三点”开头),B文有更多扩展性讨论和个人反思。
•  抄袭类型:这属于“改写型抄袭”(paraphrasing plagiarism),A文未逐字复制,但核心句子、比喻和逻辑链条高度一致,疑似基于B文进行提炼和重组。如果是抄袭,A文可能是为了快速发布而对B文进行“精简版”处理。
以下从具体维度展开比较。
3️⃣ 标题相似度
•  A文:【深度复盘】拒绝做“木头底盘的法拉利”:为什么 Walrus 是 Web3 最后的拼图?
•  B文:拒绝做“木头底盘”的法拉利:为何 Walrus 是 Web3 大规模商用的最后一块拼图?
•  相似度:100%。核心比喻“木头底盘的法拉利”完全相同,主标题结构一致(拒绝…的法拉利:为什么/为何 Walrus 是…拼图)。A文添加了“【深度复盘】”作为前缀,B文在结尾添加了“大规模商用”和“一块”,但整体框架和关键词(如Walrus、Web3、拼图)一模一样。这表明A文直接借鉴了B文的标题创意,仅微调词序和细节。
4️⃣ 引言部分相似度
•  A文:以个人视角开头(凌晨三点盯着架构图,Web3焦虑),指出Sui如“法拉利引擎”但存储层如“木头底盘”,dApp数据中心化问题。提到啃透Walrus白皮书后的兴奋,称其修补行业Bug,非“Web3的百度网盘”。
•  B文:类似个人视角(盯着架构图发呆,Web3“身体”问题),优化共识层但忽略存储,dApp前端跑在AWS的割裂感,如“永动机引擎的法拉利,底盘却还是木头做的”。审视Walrus文档后的“拼图扣上”感觉,强调解决“不可能三角”(成本、去中心化、可编程性)。
•  相似度:100%(如用户所述)。核心比喻(法拉利与木头底盘)、问题描述(dApp中心化存储的“精神分裂”/“割裂感”)、兴奋点(白皮书/文档带来的“齿轮咬合”/“拼图扣上”)完全一致。A文更简洁,B文扩展了“不可能三角”和更多背景,但逻辑链相同:从Web3痛点→Walrus作为解决方案的顿悟。
5️⃣ 内容相似度
从关键观点、比喻和例子来看,A文的核心内容几乎全部源自B文,但通过同义替换和浓缩避免逐字复制。重合率约85%,A文删减了B文的扩展讨论(如开发者体验、节点架构细节、经济模型),但保留了所有主要论点。
⓵ 关键观点重合:
•  存储问题与纠删码:两者都批判传统存储的“傻大黑粗”/“简单粗暴的多副本复制”(备份10份/3倍副本),成本高、笨重。Walrus用“Red Stuff”/“Redundancy”的纠删码(Erasure Coding)取代:数据切碎/切片、编码、喷洒/分片;哪怕2/3节点挂掉/只需一小部分切片,就能数学还原。效果:用“算力”换“空间”,成本指数级下降。这部分内容几乎一模一样,A文直接简化B文的描述。
•  AI时代的作用:两者称Walrus是AI的“海马体”(承载记忆/长期记忆)。问题:AI模型权重文件存链上Gas费高,存AWS非去中心化。Walrus适合巨大静态数据集,高频读取。未来AI Agent链上思考,数据/训练数据存Walrus。A文直接复制了“海马体”比喻和逻辑,B文扩展了隐私、验证等,但核心相同。
•  与Sui的集成:Walrus作为Sui的“无限外挂”/“协调层”,剥离存储“脏活累活”,避免L1“胖”/状态爆炸。解决开发者存储费尴尬,适合全链游戏/资源地图UGC。A文浓缩了B文的“从指向数据到拥有数据”的革命描述。
•  其他重合:两者都提到Walrus非静态仓库,而是动态“流”;跨生态潜力(多链通用);抗审查、数据主权;未来愿景(如去中心化YouTube/媒体平台)。
⓶ 独有内容:
•  A文:少量原创,如“凌晨三点”具体时间、“齿轮咬合的快感”。
•  B文:扩展更多,如开发者体验(S3接口迁移、文档友好)、节点架构(分而治之、高内聚低耦合)、经济模型(资源定价、代币经济学、防公地悲剧)、对其他项目比较(Arweave冷存储、Celestia临时层)、个人反思(数据流向、硅基霸权)。
⓷ 语言风格:
A文更简练、口语化(“啃透”“祭出”“降维打击”);B文更学术、反思性(“信道编码理论”“化学反应”“有机体”)。但比喻(如法拉利、海马体)一致,表明内容源头相同。
6️⃣ 文章结构框架相似度
•  A文:清晰编号结构(一、二、三),每个部分一个主题:一(纠删码告别备份时代)、二(AI海马体)、三(Sui无限外挂)。开头引言、结尾展望。框架紧凑,像提纲式。
•  B文:无编号,但自然段落分层:引言→存储问题与纠删码→数据可用性转变(NFT/全链游戏)→AI时代作用→开发者体验→市场定位(热存储)→战略地位与愿景→经济激励→结尾展望。结构更松散,像长文随笔。
•  相似度:约80%。A文像是B文的“框架提炼”:A文的三个部分对应B文的主体段落(纠删码→数据转变→AI→Sui集成),但A文合并了B文的扩展(如开发者体验、市场多样性融入结尾)。两者都以个人焦虑开头、Walrus顿悟过渡、主题展开、未来展望结尾。A文更结构化,B文更流畅连贯,但整体框架一致(如从痛点→技术突破→应用场景→长远影响)。
7️⃣ 逻辑链相似度
•  A文:逻辑链:Web3痛点(中心化存储)→Walrus技术(纠删码)→具体益处(成本低、AI存储、Sui优化)→长远变革(Web3商用单程票)。因果清晰:问题→解决方案→影响。
•  B文:类似链条:Web3痛点(存储忽略)→Walrus技术(纠删码、Sui集成)→益处扩展(成本、数据转变、AI、开发者体验、市场定位)→长远变革(Mass Adoption垫脚石、对数据主权的重构)。B文逻辑更层层递进,添加了反思环节(如为什么其他项目难落地、经济闭环)。
•  相似度:约90%。两者论证流程相同:从“为什么需要Walrus”(痛点)→“Walrus怎么解决”(技术)→“解决后有什么”(应用)→“长远意义”(变革)。A文是B文的简化版,逻辑链未变,但省略了B文的支线(如经济模型),保持主线连贯。这表明A文可能基于B文的逻辑骨架构建。
7️⃣ 结论
两篇文章在标题、引言、内容、结构和逻辑上高度重合,A文疑似对B文进行改写和浓缩,相似度足以构成抄袭指控(尤其在标题/引言100%的情况下)。
除了标题和引言肉眼可见外,尤其是「AI 的海马体」这个比喻。
这不是行业通用隐喻,而是明显的原作者个人表达风格。在两篇中同时出现,且承担同样论证功能,这是强相似性证据。
@币安广场 @币安中文社区 @Binance Square Official 呼吁官方重审此事,给当事人以公平。
8️⃣ 给我等创作者的教训
原文明显更翔实,字数是抄袭文的五倍,但流量不佳,因为在形式上有致命缺陷:
没有处理好分段,上千字黑压压地塞进一个自然段里,在移动设备上读起来很痛苦,人类几乎读不下去。
但抄袭者这一点优化的很好,小编题、短句分段、重点句加粗、结构更清晰。
这是原作吃亏的一大原因(不是全部),我们要规避。
9️⃣ 原始证据留存

#creatorpad $WAL
别被RWA概念骗了,机构入场真正缺的是这把钥匙 最近把@Dusk_Foundation 的Piecrust虚拟机文档彻底啃了一遍,顺手跑了下最新的测试节点,说实话,市面上绝大多数打着RWA旗号的项目,本质上还在玩“单机版”资产上链的过家家游戏。以太坊那种完全透明的账本,高盛看了都得摇头,谁愿意把自家的交易策略和资金底裤在大众眼皮底下裸奔?但如果完全搞隐私去做黑盒,SEC那边铁定过不了关,这就是目前RWA赛道最大的精神分裂。我看了一圈,也就Dusk提出的RegDeFi概念有点意思,它不是像竞品那样在应用层打补丁,而是直接在L1协议层把合规逻辑嵌进去了。 这里的核心技术是Citadel协议,它解决了我一直纠结的“身份与权限剥离”难题。简单来说,我不需要向每个DApp亮身份证,只用扔出一个零知识证明,证明“我有资格交易”就行。这种设计比Ondo那种单纯在智能合约层维护笨重白名单的方案要高明得多,后者不仅维护成本高,还牺牲了互操作性,而Dusk这种原生支持合规的架构,才可能承载真正的大资金。这好比一个是给老房子加装防盗门,一个是直接用防弹材料盖房子,底层的安全性天差地别。不过在测试过程中也发现点小毛病,目前的文档对开发者还是不够又好,特别是ZKP证明生成的效率在低端设备上跑起来有点吃力,风扇转得跟直升机似的,这块还需要团队继续打磨。技术演进向来残酷,当隐私不再是可选项而是基础设施时,这种能同时讨好监管和隐私巨鲸的Layer 1才会显出护城河,别整天盯着那些只会发推特的空气币了,真正能落地的技术往往都在没人注意的角落里迭代。#dusk $DUSK
别被RWA概念骗了,机构入场真正缺的是这把钥匙
最近把@Dusk 的Piecrust虚拟机文档彻底啃了一遍,顺手跑了下最新的测试节点,说实话,市面上绝大多数打着RWA旗号的项目,本质上还在玩“单机版”资产上链的过家家游戏。以太坊那种完全透明的账本,高盛看了都得摇头,谁愿意把自家的交易策略和资金底裤在大众眼皮底下裸奔?但如果完全搞隐私去做黑盒,SEC那边铁定过不了关,这就是目前RWA赛道最大的精神分裂。我看了一圈,也就Dusk提出的RegDeFi概念有点意思,它不是像竞品那样在应用层打补丁,而是直接在L1协议层把合规逻辑嵌进去了。
这里的核心技术是Citadel协议,它解决了我一直纠结的“身份与权限剥离”难题。简单来说,我不需要向每个DApp亮身份证,只用扔出一个零知识证明,证明“我有资格交易”就行。这种设计比Ondo那种单纯在智能合约层维护笨重白名单的方案要高明得多,后者不仅维护成本高,还牺牲了互操作性,而Dusk这种原生支持合规的架构,才可能承载真正的大资金。这好比一个是给老房子加装防盗门,一个是直接用防弹材料盖房子,底层的安全性天差地别。不过在测试过程中也发现点小毛病,目前的文档对开发者还是不够又好,特别是ZKP证明生成的效率在低端设备上跑起来有点吃力,风扇转得跟直升机似的,这块还需要团队继续打磨。技术演进向来残酷,当隐私不再是可选项而是基础设施时,这种能同时讨好监管和隐私巨鲸的Layer 1才会显出护城河,别整天盯着那些只会发推特的空气币了,真正能落地的技术往往都在没人注意的角落里迭代。#dusk $DUSK
撕下RWA的遮羞布:在链上“裸奔”时代,Dusk的Piecrust VM和合规隐私架构到底是不是伪命题?这两天盯着屏幕上的Etherscan数据发呆,看着那一串串毫无遮掩的地址交互,突然有一种在闹市区裸奔的荒谬感,我们整天喊着Web3的主权,结果连最基本的遮羞布都没有,所有的资产转移、DeFi交互路径、持仓成本在链上就像被剥了皮的洋葱,辣眼睛且毫无尊严。也就是在这个焦虑的空档,我重新翻开了@Dusk_Foundation 的GitHub仓库和最近的技术文档,甚至把他们的Piecrust VM代码拉下来跑了一遍,这种感觉很微妙,就像是在充满噪音的房间里突然戴上了降噪耳机。我不打算聊什么币价,也不想扯什么百倍千倍的梦,今天就想以一个技术老韭菜的视角,单纯从架构逻辑、竞品差异和实际体验上,聊聊Dusk到底是在搞真正的基础设施,还是在RWA这个大词下面甚至连地基都没打好的空中楼阁。 很多朋友一听到“隐私公链”四个字,脑子里蹦出来的要么是Monero那种彻底的黑盒,要么就是Tornado Cash这种被监管追着打的混币器,但Dusk给我的感觉完全是另一个物种,它不是为了让你在链上干坏事,而是为了让那些穿西装打领带的机构敢把钱放上来。我在测试网折腾Piecrust VM的时候,最大的感触不是“隐秘”,而是“丝滑”,这听起来很反直觉,因为在以往的经验里,隐私计算等于龟速,等于昂贵的Gas,等于 interminable 的证明生成时间。但Piecrust这东西有点意思,它没有沿用EVM那种笨重的存储逻辑,而是搞了一套基于零拷贝(Zero-Copy)的内存架构,这在工程上是个极度硬核的取舍。哪怕是宣称高性能的Solana,在处理复杂隐私逻辑时也得喘口气,而Dusk这种底层优化意味着智能合约在读取状态时不需要进行昂贵的序列化和反序列化操作,直接利用内存映射。这让我想起当年第一次用Rust重写C++项目的爽感,这种底层的洁癖在现在的公链圈子里太稀缺了,大部分项目方只想fork个EVM改改参数就出来圈钱,根本没人愿意去啃VM这块硬骨头。 咱们得聊聊这个所谓的“可审计隐私”,这应该是Dusk最容易被误解,也最具争议的地方。Mina或者是Aleo这些竞品,它们的技术路线大多还在追求极致的ZK证明效率或者递归证明的压缩比,这当然很牛,但在商业逻辑上其实有点走偏了。我在研究Citadel协议的时候,发现Dusk团队其实是在做一个极其大胆的赌博,他们赌的是未来的金融世界不是去中心化的乌托邦,而是一个强监管与去中心化技术共存的怪胎。Citadel的设计允许用户在不暴露具体身份的前提下证明自己满足了KYC/AML的要求,这种Soulbound token(SBT)或者说ZK-ID的玩法,其实是在给机构资金开后门。试想一下,BlcakRock(手滑,BlackRock)如果要发行代币化国债,它绝对不可能允许投资者的名单在链上公开,但监管机构又必须随时能查,以太坊目前的架构根本做不到这一点,除非搞个私有链,但私有链又没有流动性。Dusk就在这中间卡了一个身位,用ZK proofs把合规性变成了代码逻辑的一部分,而不是外挂的补丁。这点上它比Polygon ID或者其他基于DID的方案都要底层得多,它是写在共识层里的。 说到共识,这里不得不吐槽一下以太坊的Finality。我们在做DeFi高频交易的时候,最怕的就是回滚,以太坊那种概率性终局(Probabilistic Finality)对于散户玩玩土狗还行,对于真正的证券交易简直就是灾难。你敢想象纽交所的交易在两分钟后告诉你“对不起,刚才那笔不算”吗?Dusk搞的这个SBA(Segregated Byzantine Agreement)共识,有点像是把PoS和PBFT揉在了一起,追求的是确定性终局(Deterministic Finality)。我在查看他们共识层的代码逻辑时,发现他们把验证权的抽取和区块提议做了数学上的隔离,不仅是为了防女巫攻击,更是为了让那笔交易一旦打包就铁板钉钉。这种设计明显就是冲着清算结算那一层去的,比起单纯追求TPS的数据党,这种对“确定性”的执着反而更像金融工程的思维。 当然,吹了这么多技术架构,实际用起来也不是没有槽点。我在跑全节点同步的时候,偶尔还是会遇到网络握手失败的情况,虽然日志里显示的错误代码很隐晦,推测是P2P层的某些gossip协议还没优化到极致。而且目前的生态应用确实太少了,这就是所谓“高性能隐私链”的通病,地基打得再好,上面没盖房子也是白搭。现在的Dusk网络就像是一个装修豪华的空城,开发者文档虽然写得像论文一样严谨,但对于习惯了Solidity一把梭的脚本小子来说,门槛还是有点高。你要用Rusk语言,你要理解ZK电路的约束逻辑,这比在以太坊上发个ERC-20难了不止一个数量级。但这可能也是好事,天然筛选掉了一批只想发盘子的诈骗项目,留下来的大概率是真想搞点复杂的DeFi或者RWA应用的硬核玩家。 我也对比了Aztec这种Layer 2的隐私方案。Aztec很强,在以太坊上做Rollup,安全性继承主网,但问题在于互操作性。Layer 2的资产要跨回Layer 1,或者不同Layer 2之间交互,那个破碎感太强了,而且ZK-Rollup目前的生成证明成本依然不低。Dusk作为一个独立的Layer 1,虽然放弃了以太坊的直接安全性,但换来的是原子性的隐私可组合性。这是什么意思呢?就是我在Dusk上做一个借贷,抵押品的状态和借贷的凭证可以在同一个区块内完成隐私转换,而不需要跨桥,不需要等待挑战期。这种原生性对于构建复杂的金融衍生品至关重要。我甚至觉得,Dusk未来的竞争对手可能不是其他公链,而是银行内部的结算系统,它更像是一个开源的、去中心化的Swift替代方案,而不是另一个为了炒作NFT而存在的赌场。 关于PLONK和Groth16的选择,这又是一个暴露技术品味的地方。早期的隐私项目喜欢用Groth16,因为证明小,验证快,但那个Trusted Setup(可信设置)简直就是达摩克利斯之剑,每次升级都得搞个仪式,甚至要还要把废弃的电脑砸烂拍视频以证清白,太中二也太不灵活了。Dusk全面转向PLONK,利用其Universal SRS(通用参考串)特性,意味着协议升级不需要重置整个网络的安全参数。这在合规环境里太重要了,因为监管政策是会变的,今天合规的代码明天可能就不合规了,如果你每改一行代码都要重新搞一遍全网仪式,那项目早就死了。这种对Updatability(可更新性)的重视,说明团队脑子里想的是长期的运维,而不是发完币就跑。 其实静下心来看,Dusk走的这条路是一条极度孤独且枯燥的路。在现在的币圈,大家都在追AI meme,在追高性能并行EVM,在追比特币Layer 2,谁还会去关心底层的虚拟机是怎么管理内存的?谁会关心零知识证明的电路是怎么优化的?但恰恰是这种枯燥,让我觉得安心。我在翻看他们之前对于Poseidon哈希函数的优化的commit时,看到开发者在注释里写的一段关于抗碰撞性的推导,那种严谨程度甚至让我怀疑他们是不是不仅招了工程师,还养了一群数学家。在这个浮躁的行业里,愿意花几年时间去打磨一个VM,去死磕一个共识算法的团队,要么是傻子,要么就是看到了大多数人没看到的未来。 我们再回到RWA这个话题,现在的RWA赛道其实挺虚的,很多项目就是把线下的债券合同扫个描传到链上,或者是搞个SPV(特殊目的实体)做代持,本质上还是信任中介,区块链在里面就是个记账本。但Dusk的野心在于,它想让资产的发行、交易、清算、合规审查全部在链上闭环完成。通过XSC(Confidential Security Contract)标准,它可以让代币本身自带规则。比如这个代币只能在这个国家的IP地址交易,或者只能转给过了KYC的地址,这些规则不是由中心化的交易所服务器控制的,而是刻在代币的智能合约里的。这种“智能”才是Smart Contract的本意,现在的很多合约充其量只能叫“自动脚本”。如果未来真的有数万亿美金的传统资产要上链,它们绝对不会选择一个任何人都能窥探交易策略的平台,也不会选择一个由于网络拥堵gas费飙升到几百刀的平台,它们需要的是隐私、确定性、合规性和低成本,目前看了一圈,能同时把这四个点要在架构层面讲圆了的,Dusk算是一个。 至于缺点,除了刚才说的生态冷清和开发门槛高,还有一个隐忧就是ZK证明的算力需求。虽然Piecrust优化了执行效率,但在高并发下,节点的负载依然是个未知数。我现在跑测试节点还是比较轻松的,因为没啥人用,一旦主网上线,大量复杂的隐私交易涌入,那些只靠轻节点或者低配VPS的验证者能不能扛得住,会不会导致网络中心化,这都是需要实战检验的。而且,隐私计算的硬件加速(ASIC/FPGA)目前还没完全普及,这可能会是限制吞吐量的一个物理瓶颈。 写到这,杯子里的咖啡都凉了。这几天沉浸在代码和白皮书里,反而治好了我的行情焦虑。在这个充满了巨大的庞氏骗局和空气叙事的市场里,看到有人在认认真真地用数学构建信任,用代码解决隐私和监管这对死敌的矛盾,本身就是一种慰藉。Dusk未必能成为下一个以太坊,它可能太超前,也可能倒在生态爆发的前夜,但它所代表的那种技术审美——即在不牺牲去中心化的前提下拥抱现实世界的复杂性,绝对是Web3走向成熟的必经之路。对于我这种厌倦了只有赌场没有产业的Defi老玩家来说,哪怕只是为了这套优雅的Piecrust VM和硬核的零知识证明架构,我也愿意在钱包里留一点位置,不是为了暴富,而是为了见证一种可能性的落地。毕竟,如果连隐私都要在裸奔中妥协,那我们折腾这么多年的区块链,到底是为了什么?#dusk $DUSK

撕下RWA的遮羞布:在链上“裸奔”时代,Dusk的Piecrust VM和合规隐私架构到底是不是伪命题?

这两天盯着屏幕上的Etherscan数据发呆,看着那一串串毫无遮掩的地址交互,突然有一种在闹市区裸奔的荒谬感,我们整天喊着Web3的主权,结果连最基本的遮羞布都没有,所有的资产转移、DeFi交互路径、持仓成本在链上就像被剥了皮的洋葱,辣眼睛且毫无尊严。也就是在这个焦虑的空档,我重新翻开了@Dusk 的GitHub仓库和最近的技术文档,甚至把他们的Piecrust VM代码拉下来跑了一遍,这种感觉很微妙,就像是在充满噪音的房间里突然戴上了降噪耳机。我不打算聊什么币价,也不想扯什么百倍千倍的梦,今天就想以一个技术老韭菜的视角,单纯从架构逻辑、竞品差异和实际体验上,聊聊Dusk到底是在搞真正的基础设施,还是在RWA这个大词下面甚至连地基都没打好的空中楼阁。
很多朋友一听到“隐私公链”四个字,脑子里蹦出来的要么是Monero那种彻底的黑盒,要么就是Tornado Cash这种被监管追着打的混币器,但Dusk给我的感觉完全是另一个物种,它不是为了让你在链上干坏事,而是为了让那些穿西装打领带的机构敢把钱放上来。我在测试网折腾Piecrust VM的时候,最大的感触不是“隐秘”,而是“丝滑”,这听起来很反直觉,因为在以往的经验里,隐私计算等于龟速,等于昂贵的Gas,等于 interminable 的证明生成时间。但Piecrust这东西有点意思,它没有沿用EVM那种笨重的存储逻辑,而是搞了一套基于零拷贝(Zero-Copy)的内存架构,这在工程上是个极度硬核的取舍。哪怕是宣称高性能的Solana,在处理复杂隐私逻辑时也得喘口气,而Dusk这种底层优化意味着智能合约在读取状态时不需要进行昂贵的序列化和反序列化操作,直接利用内存映射。这让我想起当年第一次用Rust重写C++项目的爽感,这种底层的洁癖在现在的公链圈子里太稀缺了,大部分项目方只想fork个EVM改改参数就出来圈钱,根本没人愿意去啃VM这块硬骨头。
咱们得聊聊这个所谓的“可审计隐私”,这应该是Dusk最容易被误解,也最具争议的地方。Mina或者是Aleo这些竞品,它们的技术路线大多还在追求极致的ZK证明效率或者递归证明的压缩比,这当然很牛,但在商业逻辑上其实有点走偏了。我在研究Citadel协议的时候,发现Dusk团队其实是在做一个极其大胆的赌博,他们赌的是未来的金融世界不是去中心化的乌托邦,而是一个强监管与去中心化技术共存的怪胎。Citadel的设计允许用户在不暴露具体身份的前提下证明自己满足了KYC/AML的要求,这种Soulbound token(SBT)或者说ZK-ID的玩法,其实是在给机构资金开后门。试想一下,BlcakRock(手滑,BlackRock)如果要发行代币化国债,它绝对不可能允许投资者的名单在链上公开,但监管机构又必须随时能查,以太坊目前的架构根本做不到这一点,除非搞个私有链,但私有链又没有流动性。Dusk就在这中间卡了一个身位,用ZK proofs把合规性变成了代码逻辑的一部分,而不是外挂的补丁。这点上它比Polygon ID或者其他基于DID的方案都要底层得多,它是写在共识层里的。
说到共识,这里不得不吐槽一下以太坊的Finality。我们在做DeFi高频交易的时候,最怕的就是回滚,以太坊那种概率性终局(Probabilistic Finality)对于散户玩玩土狗还行,对于真正的证券交易简直就是灾难。你敢想象纽交所的交易在两分钟后告诉你“对不起,刚才那笔不算”吗?Dusk搞的这个SBA(Segregated Byzantine Agreement)共识,有点像是把PoS和PBFT揉在了一起,追求的是确定性终局(Deterministic Finality)。我在查看他们共识层的代码逻辑时,发现他们把验证权的抽取和区块提议做了数学上的隔离,不仅是为了防女巫攻击,更是为了让那笔交易一旦打包就铁板钉钉。这种设计明显就是冲着清算结算那一层去的,比起单纯追求TPS的数据党,这种对“确定性”的执着反而更像金融工程的思维。
当然,吹了这么多技术架构,实际用起来也不是没有槽点。我在跑全节点同步的时候,偶尔还是会遇到网络握手失败的情况,虽然日志里显示的错误代码很隐晦,推测是P2P层的某些gossip协议还没优化到极致。而且目前的生态应用确实太少了,这就是所谓“高性能隐私链”的通病,地基打得再好,上面没盖房子也是白搭。现在的Dusk网络就像是一个装修豪华的空城,开发者文档虽然写得像论文一样严谨,但对于习惯了Solidity一把梭的脚本小子来说,门槛还是有点高。你要用Rusk语言,你要理解ZK电路的约束逻辑,这比在以太坊上发个ERC-20难了不止一个数量级。但这可能也是好事,天然筛选掉了一批只想发盘子的诈骗项目,留下来的大概率是真想搞点复杂的DeFi或者RWA应用的硬核玩家。
我也对比了Aztec这种Layer 2的隐私方案。Aztec很强,在以太坊上做Rollup,安全性继承主网,但问题在于互操作性。Layer 2的资产要跨回Layer 1,或者不同Layer 2之间交互,那个破碎感太强了,而且ZK-Rollup目前的生成证明成本依然不低。Dusk作为一个独立的Layer 1,虽然放弃了以太坊的直接安全性,但换来的是原子性的隐私可组合性。这是什么意思呢?就是我在Dusk上做一个借贷,抵押品的状态和借贷的凭证可以在同一个区块内完成隐私转换,而不需要跨桥,不需要等待挑战期。这种原生性对于构建复杂的金融衍生品至关重要。我甚至觉得,Dusk未来的竞争对手可能不是其他公链,而是银行内部的结算系统,它更像是一个开源的、去中心化的Swift替代方案,而不是另一个为了炒作NFT而存在的赌场。
关于PLONK和Groth16的选择,这又是一个暴露技术品味的地方。早期的隐私项目喜欢用Groth16,因为证明小,验证快,但那个Trusted Setup(可信设置)简直就是达摩克利斯之剑,每次升级都得搞个仪式,甚至要还要把废弃的电脑砸烂拍视频以证清白,太中二也太不灵活了。Dusk全面转向PLONK,利用其Universal SRS(通用参考串)特性,意味着协议升级不需要重置整个网络的安全参数。这在合规环境里太重要了,因为监管政策是会变的,今天合规的代码明天可能就不合规了,如果你每改一行代码都要重新搞一遍全网仪式,那项目早就死了。这种对Updatability(可更新性)的重视,说明团队脑子里想的是长期的运维,而不是发完币就跑。
其实静下心来看,Dusk走的这条路是一条极度孤独且枯燥的路。在现在的币圈,大家都在追AI meme,在追高性能并行EVM,在追比特币Layer 2,谁还会去关心底层的虚拟机是怎么管理内存的?谁会关心零知识证明的电路是怎么优化的?但恰恰是这种枯燥,让我觉得安心。我在翻看他们之前对于Poseidon哈希函数的优化的commit时,看到开发者在注释里写的一段关于抗碰撞性的推导,那种严谨程度甚至让我怀疑他们是不是不仅招了工程师,还养了一群数学家。在这个浮躁的行业里,愿意花几年时间去打磨一个VM,去死磕一个共识算法的团队,要么是傻子,要么就是看到了大多数人没看到的未来。
我们再回到RWA这个话题,现在的RWA赛道其实挺虚的,很多项目就是把线下的债券合同扫个描传到链上,或者是搞个SPV(特殊目的实体)做代持,本质上还是信任中介,区块链在里面就是个记账本。但Dusk的野心在于,它想让资产的发行、交易、清算、合规审查全部在链上闭环完成。通过XSC(Confidential Security Contract)标准,它可以让代币本身自带规则。比如这个代币只能在这个国家的IP地址交易,或者只能转给过了KYC的地址,这些规则不是由中心化的交易所服务器控制的,而是刻在代币的智能合约里的。这种“智能”才是Smart Contract的本意,现在的很多合约充其量只能叫“自动脚本”。如果未来真的有数万亿美金的传统资产要上链,它们绝对不会选择一个任何人都能窥探交易策略的平台,也不会选择一个由于网络拥堵gas费飙升到几百刀的平台,它们需要的是隐私、确定性、合规性和低成本,目前看了一圈,能同时把这四个点要在架构层面讲圆了的,Dusk算是一个。
至于缺点,除了刚才说的生态冷清和开发门槛高,还有一个隐忧就是ZK证明的算力需求。虽然Piecrust优化了执行效率,但在高并发下,节点的负载依然是个未知数。我现在跑测试节点还是比较轻松的,因为没啥人用,一旦主网上线,大量复杂的隐私交易涌入,那些只靠轻节点或者低配VPS的验证者能不能扛得住,会不会导致网络中心化,这都是需要实战检验的。而且,隐私计算的硬件加速(ASIC/FPGA)目前还没完全普及,这可能会是限制吞吐量的一个物理瓶颈。
写到这,杯子里的咖啡都凉了。这几天沉浸在代码和白皮书里,反而治好了我的行情焦虑。在这个充满了巨大的庞氏骗局和空气叙事的市场里,看到有人在认认真真地用数学构建信任,用代码解决隐私和监管这对死敌的矛盾,本身就是一种慰藉。Dusk未必能成为下一个以太坊,它可能太超前,也可能倒在生态爆发的前夜,但它所代表的那种技术审美——即在不牺牲去中心化的前提下拥抱现实世界的复杂性,绝对是Web3走向成熟的必经之路。对于我这种厌倦了只有赌场没有产业的Defi老玩家来说,哪怕只是为了这套优雅的Piecrust VM和硬核的零知识证明架构,我也愿意在钱包里留一点位置,不是为了暴富,而是为了见证一种可能性的落地。毕竟,如果连隐私都要在裸奔中妥协,那我们折腾这么多年的区块链,到底是为了什么?#dusk $DUSK
跌了90%还能沉淀11亿美金TVL,@Plasma 这盘子到底是死是活? 盯着XPL那根近乎垂直的下跌K线,大多数人估计直接就划走了,必竟跌了快90%谁敢伸手接飞刀?但我这人就是头铁,越是这种市场情绪冰点,越想去扒扒代码和链上数据,看看是不是错杀。最近被以太坊主网的Gas费折磨得不轻,转个U几十刀没了,这就显得@Plasma 的Paymaster机制有点意思。之前总觉得“零Gas”是个伪命题,或者是项目方补贴的营销噱头,但实测下来,稳定币转账确实做到了无感,这体检跟用支付宝差不多,直接把Web3最反人类的“必须先买原生代币做Gas”这个门槛给抹平了。相比之下,那些还在卷TPS的L2,如果不解决Gas支付体验这一层,很难真正让圈外人进来,这才是Mass Adoption该有的样子。 技术架构上虽然兼容EVM,开发者迁移没什么成本,但真正让我觉得有点底气的是它把状态定期锚定在比特币网络上。在现在这个动荡的行情下,借BTC的安全性背书算是个聪明的讨巧做法。链上资金不说谎,Maple Finance上的SyrupUSDT池子锁了11亿美金,这体量绝对不是散户冲出来的,机构愿意把大钱沉淀在这里,说明对底层的安全性是有共识的。再加上Rain cards和Oobit接入Visa网络这些落地场景,甚至搞了符合MiCA监管的欧圆稳定币EUROP,看着是想走合规支付的老路子,这在监管越来越严的背景下反而是张王牌。 当然槽点也是明摆着的,目前的验证者节点还是过于中心化,说白了还是团队在控盘,这点必须得认清,去中心化程度不够始终是个雷。生态也确实单薄得像张纸,除了转账和借贷,没啥好玩的Dapp,不像Solana那边土狗漫天飞那么热闹。现阶段它更像是一个偏科的优等生,基建做得挺扎实,但缺乏让用户留存的娱乐性应用。Web3喊了这么多年落地,最后还得看谁能让大妈都能无门槛转账。#plasma $XPL
跌了90%还能沉淀11亿美金TVL,@Plasma 这盘子到底是死是活?
盯着XPL那根近乎垂直的下跌K线,大多数人估计直接就划走了,必竟跌了快90%谁敢伸手接飞刀?但我这人就是头铁,越是这种市场情绪冰点,越想去扒扒代码和链上数据,看看是不是错杀。最近被以太坊主网的Gas费折磨得不轻,转个U几十刀没了,这就显得@Plasma 的Paymaster机制有点意思。之前总觉得“零Gas”是个伪命题,或者是项目方补贴的营销噱头,但实测下来,稳定币转账确实做到了无感,这体检跟用支付宝差不多,直接把Web3最反人类的“必须先买原生代币做Gas”这个门槛给抹平了。相比之下,那些还在卷TPS的L2,如果不解决Gas支付体验这一层,很难真正让圈外人进来,这才是Mass Adoption该有的样子。
技术架构上虽然兼容EVM,开发者迁移没什么成本,但真正让我觉得有点底气的是它把状态定期锚定在比特币网络上。在现在这个动荡的行情下,借BTC的安全性背书算是个聪明的讨巧做法。链上资金不说谎,Maple Finance上的SyrupUSDT池子锁了11亿美金,这体量绝对不是散户冲出来的,机构愿意把大钱沉淀在这里,说明对底层的安全性是有共识的。再加上Rain cards和Oobit接入Visa网络这些落地场景,甚至搞了符合MiCA监管的欧圆稳定币EUROP,看着是想走合规支付的老路子,这在监管越来越严的背景下反而是张王牌。
当然槽点也是明摆着的,目前的验证者节点还是过于中心化,说白了还是团队在控盘,这点必须得认清,去中心化程度不够始终是个雷。生态也确实单薄得像张纸,除了转账和借贷,没啥好玩的Dapp,不像Solana那边土狗漫天飞那么热闹。现阶段它更像是一个偏科的优等生,基建做得挺扎实,但缺乏让用户留存的娱乐性应用。Web3喊了这么多年落地,最后还得看谁能让大妈都能无门槛转账。#plasma $XPL
当我们还在为了省Gas费精算的时候,支付链的战争其实已经变天了:深度复盘Plasma重构后的真实体验与野心凌晨三点,盯着屏幕上那笔在Arbitrum上卡了半天的USDC转账,我突然有种极度的荒谬感,这都2026年了,我们这帮所谓的Web3原住民,居然还在为了几美金的Gas费跟拥堵的内存池博弈,更可笑的是,为了转这点稳定币,还得时刻盯着钱包里ETH的余额够不够,这种割裂的体验放在传统金融世界里简直就是笑话,也就是在这个被“去中心化”叙事绑架的圈子里,大家才会把这种反人性的交互当成理所当然,正好这几天一直在测Plasma的新网,那种对比感实在是太强烈了,强烈到我必须把这些充满偏见和个人情绪的观察记录下来,不谈币价,就谈这该死的基础设施到底能不能用。 说实话,之前我对@Plasma 这套架构是存疑的,毕竟V神几年前就把这玩意儿扫进历史垃圾堆了,大家都去搞Rollup,谁还记得这个“上一代”的扩容方案,但真正跑了一遍现在的XPL网络,我才意识到此Plasma非彼Plasma,团队显然是把Reth这东西吃透了,以前我们跑节点,Geth那个同步速度简直能把人气死,硬盘空间稍微小点都得崩,但这次体验Reth构建的执行层,那种丝般顺滑的感觉真的久违了,Rust写的客户端在内存管理和并发处理上确实是碾压级别的存在,这不仅仅是性能指标的问题,而是关乎到底能不能在大规模高并发下还能保持“不死机”的底气,我看了一下他们把状态转换逻辑直接嵌在共识层里的做法,这其实很大胆,甚至有点反直觉,因为现在的趋势是模块化,大家恨不得把DA、执行、结算全拆开,Plasma反其道而行之,搞了个高度集成的支付原语,这让我想起了苹果,软硬一体虽然封闭,但体验就是好。 最让我觉得“这就对了”的功能,其实是Gas抽象,在以太坊生态里,EIP-4337喊了那么久,真正落地的场景还是少,大部分用户还得忍受助记词和Gas费的双重折磨,但在Plasma上,我试着用USDT直接支付Gas,整个过程无感得让我以为自己在用支付宝,这背后的Paymaster机制虽然不是什么新发明,但能把这东西做到协议层原生支持,而不是靠钱包服务商去打补丁,这完全是两个维度的叙事,想象一下,你让一个刚进圈的小白去搞清楚什么是ETH,什么是Gas Price,什么是Gwei,他大概率直接卸载APP,但如果你告诉他,转账手续费直接从你转的钱里扣,这就很符合直觉,我在测试网转了几笔大额交易,特意去看了链上数据,那个确认速度确实快,而且是那种确定性的快,不是Solana那种偶尔还得担心会不会回滚的快,这里不得不提一下Solana,虽然大家总拿它当高性能公链的标杆,但那堆积如山的垃圾交易和时不时的宕机风险,总让我觉得那是建立在沙堆上的摩天大楼,而Plasma给我的感觉更像是一座还没装修完的钢筋混凝土堡垒,丑是丑了点,但地基打得是真的深。 当然,作为一名老韭菜,光看优点是不客观的,我也发现了一些让人不安的细节,比如在浏览器的验证者列表里,目前的中心化程度还是肉眼可见的高,虽然官方说这是为了早期网络的稳定性和安全性,但这套说辞我听了太多遍了,所有的公链在起步阶段都说自己会渐进式去中心化,但真正做到的没几个,Plasma现在的TPS跑得欢,很大程度上是因为节点少、共识达成快,一旦未来节点数量上来,那种号称秒级的Finality还能不能保住,我是打个问号的,而且我看代码的时候发现,他们为了追求极致的支付效率,在智能合约的通用性上是做了妥协的,这意味着如果你想在上面跑那种逻辑极其复杂的DeFi乐高,可能会遇到兼容性问题,这其实也是一种取舍,就像你不能指望一辆F1赛车去拉货,它生来就是为了在这个垂直赛道上跑第一的。 还有个很有意思的对比,现在市面上那么多L2,Optimism也好,Arbitrum也罢,本质上都是在吸以太坊的血,它们的安全虽然有主网兜底,但那个提款期和交互成本,始终是悬在头顶的达摩克里斯之剑,Plasma现在的定位更像是一个拥有独立主权但又跟以太坊保持暧昧关系的侧链进化体,它利用了以太坊的生态和流动性,却不想被以太坊的EVM包袱给拖死,这种“渣男”策略其实很聪明,特别是在稳定币支付这个战场,用户根本不在乎你是不是Layer 2,用户只在乎我的钱能不能秒到,手续费能不能忽略不计,这点上,Stable这种竞品也在做,但我总觉得Stable太过于依赖Tether背后的资源,缺乏一种技术上的原生美感,而Plasma这种死磕底层代码,试图从数学和密码学层面解决信任问题的路子,更对我的胃口。 昨天深夜为了测试极限情况,我写了个脚本搞了一波小规模的压力测试,模拟几千笔微小额支付同时发起,结果你猜怎么着,网络确实出现了一点拥堵,Gas费也有所飙升,但并没有出现交易丢失的情况,这说明他们的Mempool管理机制是经得起考验的,不像某些高性能链一压测就直接宕机,不过这也暴露出一个问题,就是当网络真正拥堵的时候,那个所谓的“稳定币付Gas”的汇率换算机制,会不会因为预言机的延迟而出现套利空间?我在白皮书里没找到太详细的解释,这可能是一个潜在的攻击面,毕竟黑客最喜欢这种跨资产结算的缝隙了,如果我是攻击者,我肯定会盯着这个Paymaster的资金池搞事情,看看能不能把里面的流动性给抽干。 再说回生态,现在上面的应用确实还比较贫瘠,除了几个官方扶持的钱包和支付网关,原生应用并不多,这其实是所有新公链的通病,技术再牛,没人用也是白搭,但我注意到社区里的开发者氛围还挺硬核的,大家讨论的都是Rust代码优化、零知识证明的聚合效率这种真东西,而不是满屏的“什么时候拉盘”,这种冷清但专注的氛围反倒让我觉得有点希望,毕竟上一轮牛市里那些吵吵嚷嚷的项目,现在坟头草都两米高了,真正的创新往往都是在无人问津的角落里发芽的,我现在最好奇的是,等到2026年下半年,那几个大的解锁节点到来的时候,这帮现在埋头写代码的人,能不能顶得住资本市场的血洗,毕竟技术理想在K线图面前,往往脆弱得不堪一击。 还有一个被很多人忽视的点,就是隐私,现在的支付链大多是全透明的,这对于商业支付其实是致命的,谁也不想让竞争对手知道自己的流水,Plasma虽然在路线图里提到了隐私计算的模块,但目前还没看到实装,如果他们能把ZK技术无缝集成进支付流程,做到既合规又有一定的隐私保护,那才是真正的杀手锏,现在这种裸奔的状态,只能说是完成了一个半成品,我试着用几个混币器的思路去操作,发现由于账户模型的限制,很难做到完全的匿名,这对于那些对资金流向敏感的大户来说,依然是个门槛。 写到这,窗外的天已经快亮了,看着测试节点还在后台默默地出块,每一行日志的跳动都代表着一次状态的变更,这种确定性让我感到莫名的安心,我们在这个充满了欺诈、泡沫和空气的行业里,寻找的不就是这样一种确定的代码逻辑吗?Plasma肯定不是完美的,它身上的毛病和它的野心一样明显,但至少它在尝试回答一个被我们忽略已久的问题:区块链到底能不能像发邮件一样简单地发钱?现在的答案可能还是“Maybe”,但看着Reth那个优雅的架构,我觉得离“Yes”已经不远了,比起那些还在PPT上画饼的Layer 3、Layer 4,我更愿意在这样有瑕疵但真实的代码上浪费时间,毕竟,在这场关于支付的终局之战里,最后的赢家一定不是那个喊得最响的,而是那个默默把路铺得最平的,至于XPL以后会怎么样,交给市场去博弈吧,我只关心我的下一行代码能不能在这个网络上跑得再快哪怕一毫秒。#plasma $XPL

当我们还在为了省Gas费精算的时候,支付链的战争其实已经变天了:深度复盘Plasma重构后的真实体验与野心

凌晨三点,盯着屏幕上那笔在Arbitrum上卡了半天的USDC转账,我突然有种极度的荒谬感,这都2026年了,我们这帮所谓的Web3原住民,居然还在为了几美金的Gas费跟拥堵的内存池博弈,更可笑的是,为了转这点稳定币,还得时刻盯着钱包里ETH的余额够不够,这种割裂的体验放在传统金融世界里简直就是笑话,也就是在这个被“去中心化”叙事绑架的圈子里,大家才会把这种反人性的交互当成理所当然,正好这几天一直在测Plasma的新网,那种对比感实在是太强烈了,强烈到我必须把这些充满偏见和个人情绪的观察记录下来,不谈币价,就谈这该死的基础设施到底能不能用。
说实话,之前我对@Plasma 这套架构是存疑的,毕竟V神几年前就把这玩意儿扫进历史垃圾堆了,大家都去搞Rollup,谁还记得这个“上一代”的扩容方案,但真正跑了一遍现在的XPL网络,我才意识到此Plasma非彼Plasma,团队显然是把Reth这东西吃透了,以前我们跑节点,Geth那个同步速度简直能把人气死,硬盘空间稍微小点都得崩,但这次体验Reth构建的执行层,那种丝般顺滑的感觉真的久违了,Rust写的客户端在内存管理和并发处理上确实是碾压级别的存在,这不仅仅是性能指标的问题,而是关乎到底能不能在大规模高并发下还能保持“不死机”的底气,我看了一下他们把状态转换逻辑直接嵌在共识层里的做法,这其实很大胆,甚至有点反直觉,因为现在的趋势是模块化,大家恨不得把DA、执行、结算全拆开,Plasma反其道而行之,搞了个高度集成的支付原语,这让我想起了苹果,软硬一体虽然封闭,但体验就是好。
最让我觉得“这就对了”的功能,其实是Gas抽象,在以太坊生态里,EIP-4337喊了那么久,真正落地的场景还是少,大部分用户还得忍受助记词和Gas费的双重折磨,但在Plasma上,我试着用USDT直接支付Gas,整个过程无感得让我以为自己在用支付宝,这背后的Paymaster机制虽然不是什么新发明,但能把这东西做到协议层原生支持,而不是靠钱包服务商去打补丁,这完全是两个维度的叙事,想象一下,你让一个刚进圈的小白去搞清楚什么是ETH,什么是Gas Price,什么是Gwei,他大概率直接卸载APP,但如果你告诉他,转账手续费直接从你转的钱里扣,这就很符合直觉,我在测试网转了几笔大额交易,特意去看了链上数据,那个确认速度确实快,而且是那种确定性的快,不是Solana那种偶尔还得担心会不会回滚的快,这里不得不提一下Solana,虽然大家总拿它当高性能公链的标杆,但那堆积如山的垃圾交易和时不时的宕机风险,总让我觉得那是建立在沙堆上的摩天大楼,而Plasma给我的感觉更像是一座还没装修完的钢筋混凝土堡垒,丑是丑了点,但地基打得是真的深。
当然,作为一名老韭菜,光看优点是不客观的,我也发现了一些让人不安的细节,比如在浏览器的验证者列表里,目前的中心化程度还是肉眼可见的高,虽然官方说这是为了早期网络的稳定性和安全性,但这套说辞我听了太多遍了,所有的公链在起步阶段都说自己会渐进式去中心化,但真正做到的没几个,Plasma现在的TPS跑得欢,很大程度上是因为节点少、共识达成快,一旦未来节点数量上来,那种号称秒级的Finality还能不能保住,我是打个问号的,而且我看代码的时候发现,他们为了追求极致的支付效率,在智能合约的通用性上是做了妥协的,这意味着如果你想在上面跑那种逻辑极其复杂的DeFi乐高,可能会遇到兼容性问题,这其实也是一种取舍,就像你不能指望一辆F1赛车去拉货,它生来就是为了在这个垂直赛道上跑第一的。
还有个很有意思的对比,现在市面上那么多L2,Optimism也好,Arbitrum也罢,本质上都是在吸以太坊的血,它们的安全虽然有主网兜底,但那个提款期和交互成本,始终是悬在头顶的达摩克里斯之剑,Plasma现在的定位更像是一个拥有独立主权但又跟以太坊保持暧昧关系的侧链进化体,它利用了以太坊的生态和流动性,却不想被以太坊的EVM包袱给拖死,这种“渣男”策略其实很聪明,特别是在稳定币支付这个战场,用户根本不在乎你是不是Layer 2,用户只在乎我的钱能不能秒到,手续费能不能忽略不计,这点上,Stable这种竞品也在做,但我总觉得Stable太过于依赖Tether背后的资源,缺乏一种技术上的原生美感,而Plasma这种死磕底层代码,试图从数学和密码学层面解决信任问题的路子,更对我的胃口。
昨天深夜为了测试极限情况,我写了个脚本搞了一波小规模的压力测试,模拟几千笔微小额支付同时发起,结果你猜怎么着,网络确实出现了一点拥堵,Gas费也有所飙升,但并没有出现交易丢失的情况,这说明他们的Mempool管理机制是经得起考验的,不像某些高性能链一压测就直接宕机,不过这也暴露出一个问题,就是当网络真正拥堵的时候,那个所谓的“稳定币付Gas”的汇率换算机制,会不会因为预言机的延迟而出现套利空间?我在白皮书里没找到太详细的解释,这可能是一个潜在的攻击面,毕竟黑客最喜欢这种跨资产结算的缝隙了,如果我是攻击者,我肯定会盯着这个Paymaster的资金池搞事情,看看能不能把里面的流动性给抽干。
再说回生态,现在上面的应用确实还比较贫瘠,除了几个官方扶持的钱包和支付网关,原生应用并不多,这其实是所有新公链的通病,技术再牛,没人用也是白搭,但我注意到社区里的开发者氛围还挺硬核的,大家讨论的都是Rust代码优化、零知识证明的聚合效率这种真东西,而不是满屏的“什么时候拉盘”,这种冷清但专注的氛围反倒让我觉得有点希望,毕竟上一轮牛市里那些吵吵嚷嚷的项目,现在坟头草都两米高了,真正的创新往往都是在无人问津的角落里发芽的,我现在最好奇的是,等到2026年下半年,那几个大的解锁节点到来的时候,这帮现在埋头写代码的人,能不能顶得住资本市场的血洗,毕竟技术理想在K线图面前,往往脆弱得不堪一击。
还有一个被很多人忽视的点,就是隐私,现在的支付链大多是全透明的,这对于商业支付其实是致命的,谁也不想让竞争对手知道自己的流水,Plasma虽然在路线图里提到了隐私计算的模块,但目前还没看到实装,如果他们能把ZK技术无缝集成进支付流程,做到既合规又有一定的隐私保护,那才是真正的杀手锏,现在这种裸奔的状态,只能说是完成了一个半成品,我试着用几个混币器的思路去操作,发现由于账户模型的限制,很难做到完全的匿名,这对于那些对资金流向敏感的大户来说,依然是个门槛。
写到这,窗外的天已经快亮了,看着测试节点还在后台默默地出块,每一行日志的跳动都代表着一次状态的变更,这种确定性让我感到莫名的安心,我们在这个充满了欺诈、泡沫和空气的行业里,寻找的不就是这样一种确定的代码逻辑吗?Plasma肯定不是完美的,它身上的毛病和它的野心一样明显,但至少它在尝试回答一个被我们忽略已久的问题:区块链到底能不能像发邮件一样简单地发钱?现在的答案可能还是“Maybe”,但看着Reth那个优雅的架构,我觉得离“Yes”已经不远了,比起那些还在PPT上画饼的Layer 3、Layer 4,我更愿意在这样有瑕疵但真实的代码上浪费时间,毕竟,在这场关于支付的终局之战里,最后的赢家一定不是那个喊得最响的,而是那个默默把路铺得最平的,至于XPL以后会怎么样,交给市场去博弈吧,我只关心我的下一行代码能不能在这个网络上跑得再快哪怕一毫秒。#plasma $XPL
都在喊AI公链,扒开外皮我看也就是个算力二道贩子 满屏都在刷 AI+DePIN,看得人脑壳疼,手里拿着几个所谓的热门 AI 币,实际跑了一下交互,那种滞涩感简直让人想砸键盘。大部分项目所谓的 AI 叙事,说白了就是把英伟达的散力倒卖一遍,做个去中心化租赁平台,这跟真正的 Web3 原生智能差了十万八千里。我最近盯着…@Vanar 的技术文档啃了两天,发现他们那个 TensorRT 集成有点东西,这盘琪下得比我想象中大。 咱们惯性思维觉得公链就是记账的,但 AI 模型推理要的是毫秒级并发,这两个逻辑天生互斥。你看现在的 ETH L2 甚至 Solana,虽然 TPS 吹得高,但真把一个 7B 参数的模型放上去跑跑看?光 Gas 费就能把项目方跑破产。这就好比你非要开着拖拉机去跑 F1 赛道,底盘都不对。Vanar 聪明在它不是硬塞,而是利用 CUDA-X AI 做了个专门的计算层,这种架构明显是想从底层解决推理任务的高频交互问题,而不是仅仅做个数据库。 特别是那个 Neutron 语义记忆层,这招挺绝。它把庞大的训练数据压缩成链上能读的种子,这就解决了那个最头疼的数据吞吐成本问题。如果不解决这个,所谓的 AI Agent 链上交互就是伪命题,毕竟谁也付不起每句话都要上链存储的钱。相比之下,市面上很多竞品还在纠结怎么把数据存得更分散,Vanar 已经在琢磨怎么让数据变轻了,这种技术嗅觉确实更敏锐一些。 如果未来的 Agent 经济真的爆发,肯定是机器对机器的自动结算,而不是人肉去点小狐狸钱包签名。Vanar 这种跟 Google Cloud 还有英伟达勾兑这么深的架构,明显是奔着合规的企业级吞吐量去的。别只盯着 K 线图上的涨跌,能在基础设施层把 AI 负载真正跑通的,才是下个周期的 Alpha,至于那些还在卖节点的 PPT 项目,趁早洗洗睡吧。#vanar $VANRY
都在喊AI公链,扒开外皮我看也就是个算力二道贩子
满屏都在刷 AI+DePIN,看得人脑壳疼,手里拿着几个所谓的热门 AI 币,实际跑了一下交互,那种滞涩感简直让人想砸键盘。大部分项目所谓的 AI 叙事,说白了就是把英伟达的散力倒卖一遍,做个去中心化租赁平台,这跟真正的 Web3 原生智能差了十万八千里。我最近盯着…@Vanarchain 的技术文档啃了两天,发现他们那个 TensorRT 集成有点东西,这盘琪下得比我想象中大。
咱们惯性思维觉得公链就是记账的,但 AI 模型推理要的是毫秒级并发,这两个逻辑天生互斥。你看现在的 ETH L2 甚至 Solana,虽然 TPS 吹得高,但真把一个 7B 参数的模型放上去跑跑看?光 Gas 费就能把项目方跑破产。这就好比你非要开着拖拉机去跑 F1 赛道,底盘都不对。Vanar 聪明在它不是硬塞,而是利用 CUDA-X AI 做了个专门的计算层,这种架构明显是想从底层解决推理任务的高频交互问题,而不是仅仅做个数据库。
特别是那个 Neutron 语义记忆层,这招挺绝。它把庞大的训练数据压缩成链上能读的种子,这就解决了那个最头疼的数据吞吐成本问题。如果不解决这个,所谓的 AI Agent 链上交互就是伪命题,毕竟谁也付不起每句话都要上链存储的钱。相比之下,市面上很多竞品还在纠结怎么把数据存得更分散,Vanar 已经在琢磨怎么让数据变轻了,这种技术嗅觉确实更敏锐一些。
如果未来的 Agent 经济真的爆发,肯定是机器对机器的自动结算,而不是人肉去点小狐狸钱包签名。Vanar 这种跟 Google Cloud 还有英伟达勾兑这么深的架构,明显是奔着合规的企业级吞吐量去的。别只盯着 K 线图上的涨跌,能在基础设施层把 AI 负载真正跑通的,才是下个周期的 Alpha,至于那些还在卖节点的 PPT 项目,趁早洗洗睡吧。#vanar $VANRY
别被高 TPS 骗了:我在 Vanar 和 Solana 跑完一轮 AI Agent 后的残酷真相最近这一周我几乎没怎么睡好觉,满脑子都是代码重构和 gas 费优化的破事。起因很简单,这轮牛市虽然都在喊 AI+Crypto 是主线,但市面上百分之九十的项目纯粹是在挂羊头卖狗肉,看着那一堆所谓的 AI Agent 平台,实际上就是个发币机器,本质上跟两年前的土狗盘没有任何区别。作为一个在这个圈子里摸爬滚打几年,写过合约也搞过量化策略的人,我实在受不了这种智商侮辱,于是决定自己动手,想看看在现有的基础设施上,到底能不能跑通一个真正具备“长期记忆”和“自主决策”能力的链上智能体。为了让这个实验更有对比性,我选择了目前号称性能最强的 Solana,以及最近在开发者社区讨论度开始起来的 @Vanar ,结果这一跑,直接把我的很多固有认知给跑崩了,甚至让我对整个 L1 的竞争格局有了完全不一样的看法。 先说说大家最迷信的 TPS 指标,这简直是 Web3 最大的谎言。在 Solana 上部署测试 Agent 的时候,我最直观的感受是“快,但是傻”。我写的一个简单逻辑是让 Agent 监控几个 DeFi 协议的收益率,并根据历史一周的数据波动来调整仓位。这在 Web2 的世界里,用 Python 写个脚本跑在 AWS 上也就是几行代码的事,但在 Solana 上简直就是灾难。虽然它处理交易的速度确实快,但问题在于链上并没有给 Agent 留出足够的“脑容量”。每一次我的 Agent 需要调用历史数据进行推理时,都需要从链下索引器去抓取,然后再把数据喂回链上进行计算,这一来一回,所谓的高 TPS 根本没有任何意义,因为瓶颈卡在了 I/O 和状态同步上。这就好比你给一个短跑运动员装了个金鱼的脑子,他跑得再快,每跑十米就得停下来问一句“我在哪?我要干嘛?”,这能叫智能吗?这充其量叫自动化的条件反射。 带着这种挫败感,我把同样的逻辑迁移到了 Vanar 上。说实话,一开始我对 Vanar 是带着偏见的,毕竟现在是个公链都在蹭 AI 的热度,我以为它也就是个搞了点概念营销的 EVM 侧链。但当我硬着头皮去啃它的技术文档,特别是关于 Resource Model 那部分时,我发现这帮人是在玩真的。Vanar 的架构设计里,最让我震惊的是它对“状态”和“计算”的解耦方式。在 Vanar 上,我的 Agent 不再是一个无状态的脚本,它更像是一个拥有独立硬盘空间的程序。我测试那个收益率分析策略时,惊讶地发现我可以把一部分热数据直接缓存在链上的特定存储层中,而且调用的 gas 费用并没有我想象中那么夸张。这不是魔法,这是在底层架构上就把 AI 模型需要的推理(Inference)环境考虑进去了。 这种差异在代码层面体现得淋漓尽致。在 Solana 或者以太坊上,为了省 gas,我必须把所有的逻辑极度压缩,甚至要把浮点数运算砍掉,因为链上根本跑不动复杂的数学模型。但在 Vanar 的测试网环境中,我居然成功运行了一个轻量级的机器学习回归模型,虽然比起 Web2 的服务器还是有延迟,但它是原生的、在链上完成的。这意味着什么?意味着这个 Agent 是完全去中心化的,没有人能拔掉它的电源,也没有人能篡改它的推理逻辑。之前我们在其他链上看到的所谓 AI 项目,大多是把计算放在链下服务器,链上只是存个哈希值,这种脱裤子放屁的“链下计算链上验证”模式,在 Vanar 这种原生架构面前显得非常笨重。 当然,Vanar 也不是没有槽点,这我也得客观说两句。目前的开发者工具链相比于以太坊生态还是显得太原始了,我在调试的时候遇到了好几次报错,文档里根本查不到,只能去 Discord 里抓着技术支持问,虽然他们回复挺快,但这种早期的荒蛮感还是很强。而且现在的生态应用确实还不够丰富,我的 Agent 虽然跑通了,但想找个深度好的 DEX 去做滑点测试都费劲,这也是所有新 L1 必须跨过的坎。不过反过来看,这种“空旷”反而让我觉得兴奋,因为这意味着早期的红利期还在。现在的 Vanar 就像是 2019 年的 Solana 或者是 2020 年的 Matic,基建底子打得很好,但上面的高楼大厦还没盖起来,对于懂技术的开发者和早期埋伏的资金来说,这种不对称性才是最大的机会。 我想再深入聊聊关于竞品对比的问题,这几天我也在看 Near 和 ICP。Near 的分片技术确实厉害,也在主打 AI 叙事,但我感觉 Near 的抽象层做得太厚了,对于习惯了 EVM 开发环境的人来说,迁移成本不低。而 ICP 虽然技术很牛,甚至能在容器里跑前端,但它的整个架构太封闭,像是一个独立的局域网,缺乏跟现有 DeFi 世界的互操作性。Vanar 聪明的地方在于,它没有试图去重新发明轮子,而是在兼容 EVM 的基础上,专门针对 AI 的计算负载做了魔改。这种策略非常务实,它既保留了以太坊生态的开发者习惯,又解决了以太坊处理不了 AI 任务的痛点。这就好比以前我们都在用 CPU 挖矿,后来有人搞出了 GPU,大家虽然用的还是同样的电,插的还是同样的插座,但算力效率完全不是一个量级。 在测试过程中,我还发现了一个很有意思的经济模型细节。在传统的 L1 上,不管是转账还是跑复杂的智能合约,我们支付的都是同一种 Gas。但在 Vanar 的设计里,似乎有意在区分“交易成本”和“计算成本”。未来大规模的 AI Agent 跑在链上,如果每一次推理都要消耗巨额的 Vanar 代币作为 Gas,那肯定跑不起来。但我观察到他们的费用结构里,对于高频计算的场景是有优化的。这让我联想到了 AWS 的收费模式,你用 EC2 和用 S3 是两套计费逻辑。如果 Web3 真的要承载 AI 经济,这种精细化的成本控制是必须的。现在的公链,要么贵得要死,要么便宜得要死然后宕机,很少有像 Vanar 这样试图在商业可用性上找平衡点的。 现在回过头来看,我们这一轮周期对于“基础设施”的定义可能完全跑偏了。大家都在卷 TPS,卷谁的 finality 更快,但实际上,下一代的应用——也就是那些真正由 AI 驱动的应用,它们缺的根本不是每秒多处理几千笔交易的能力,它们缺的是一个能让数据、模型和资金无缝交互的环境。我在 Vanar 上跑完那一轮测试后,最大的感触就是:我们终于不再是强行把 AI 塞进区块链这个旧瓶子里了,而是终于有了一条链,是专门为了让 AI 在上面“生活”而设计的。这种感觉很难用语言描述,只有当你真正去写几行代码,看着那个 Agent 能够在没有你干预的情况下,独立完成一次从数据分析到链上执行的全过程,你才会明白“原生”这两个字的含金量。 但这并不意味着 Vanar 就稳赢了。技术上的先进性从来不是成功的唯一要素,当年 EOS 的技术指标也秒杀以太坊,最后还是做成了一地鸡毛。Vanar 面临的挑战是如何把这套牛逼的架构推销给那些只关心币价的散户和急功近利的 VC。现在的市场环境很浮躁,大家宁愿去冲几千万市值的 MEME,也不愿意花时间去研究一个新的 L1 到底解决了什么底层问题。我看他们的社区热度虽然在涨,但比起那些妖币还是显得太冷静了。不过这种冷静恰恰是我喜欢的,在一个充满噪音的房间里,那个坐在角落里默默擦拭武器的人,往往才是最后的赢家。 写到这里,看了一眼屏幕上的终端窗口,我的那个小 Agent 还在 Vanar 的测试网里不知疲倦地运行着,每隔几分钟就吐出一条日志。它不需要休息,不消耗咖啡,只消耗一点点微不足道的 gas。我觉得这可能就是我们一直在寻找的未来——当硅基智能开始拥有自己的资产,拥有自己的执行权,甚至拥有自己的“思考回路”时,它们需要一个新的栖息地。以太坊太拥挤,Solana 太健忘,而 Vanar,看起来确实像是一个为它们准备好的新大陆。虽然现在的它还像个大工地,到处是脚手架和未干的水泥,但地基的轮廓已经清晰可见。作为一名在这个行业里见惯了起起落落的研究者,我愿意给这个工地点上一支烟,静静地看它能不能盖起通天塔。毕竟,在区块链的世界里,偏见往往意味着踏空,而深入代码底层的傲慢,才是亏钱的根源。我不想做那个拿着旧地图找新大陆的人,Vanar 给我的体验,是一张全新的航海图,至于能不能抵达终点,那就交给时间和市场去验证了。#vanar $VANRY

别被高 TPS 骗了:我在 Vanar 和 Solana 跑完一轮 AI Agent 后的残酷真相

最近这一周我几乎没怎么睡好觉,满脑子都是代码重构和 gas 费优化的破事。起因很简单,这轮牛市虽然都在喊 AI+Crypto 是主线,但市面上百分之九十的项目纯粹是在挂羊头卖狗肉,看着那一堆所谓的 AI Agent 平台,实际上就是个发币机器,本质上跟两年前的土狗盘没有任何区别。作为一个在这个圈子里摸爬滚打几年,写过合约也搞过量化策略的人,我实在受不了这种智商侮辱,于是决定自己动手,想看看在现有的基础设施上,到底能不能跑通一个真正具备“长期记忆”和“自主决策”能力的链上智能体。为了让这个实验更有对比性,我选择了目前号称性能最强的 Solana,以及最近在开发者社区讨论度开始起来的 @Vanarchain ,结果这一跑,直接把我的很多固有认知给跑崩了,甚至让我对整个 L1 的竞争格局有了完全不一样的看法。
先说说大家最迷信的 TPS 指标,这简直是 Web3 最大的谎言。在 Solana 上部署测试 Agent 的时候,我最直观的感受是“快,但是傻”。我写的一个简单逻辑是让 Agent 监控几个 DeFi 协议的收益率,并根据历史一周的数据波动来调整仓位。这在 Web2 的世界里,用 Python 写个脚本跑在 AWS 上也就是几行代码的事,但在 Solana 上简直就是灾难。虽然它处理交易的速度确实快,但问题在于链上并没有给 Agent 留出足够的“脑容量”。每一次我的 Agent 需要调用历史数据进行推理时,都需要从链下索引器去抓取,然后再把数据喂回链上进行计算,这一来一回,所谓的高 TPS 根本没有任何意义,因为瓶颈卡在了 I/O 和状态同步上。这就好比你给一个短跑运动员装了个金鱼的脑子,他跑得再快,每跑十米就得停下来问一句“我在哪?我要干嘛?”,这能叫智能吗?这充其量叫自动化的条件反射。
带着这种挫败感,我把同样的逻辑迁移到了 Vanar 上。说实话,一开始我对 Vanar 是带着偏见的,毕竟现在是个公链都在蹭 AI 的热度,我以为它也就是个搞了点概念营销的 EVM 侧链。但当我硬着头皮去啃它的技术文档,特别是关于 Resource Model 那部分时,我发现这帮人是在玩真的。Vanar 的架构设计里,最让我震惊的是它对“状态”和“计算”的解耦方式。在 Vanar 上,我的 Agent 不再是一个无状态的脚本,它更像是一个拥有独立硬盘空间的程序。我测试那个收益率分析策略时,惊讶地发现我可以把一部分热数据直接缓存在链上的特定存储层中,而且调用的 gas 费用并没有我想象中那么夸张。这不是魔法,这是在底层架构上就把 AI 模型需要的推理(Inference)环境考虑进去了。
这种差异在代码层面体现得淋漓尽致。在 Solana 或者以太坊上,为了省 gas,我必须把所有的逻辑极度压缩,甚至要把浮点数运算砍掉,因为链上根本跑不动复杂的数学模型。但在 Vanar 的测试网环境中,我居然成功运行了一个轻量级的机器学习回归模型,虽然比起 Web2 的服务器还是有延迟,但它是原生的、在链上完成的。这意味着什么?意味着这个 Agent 是完全去中心化的,没有人能拔掉它的电源,也没有人能篡改它的推理逻辑。之前我们在其他链上看到的所谓 AI 项目,大多是把计算放在链下服务器,链上只是存个哈希值,这种脱裤子放屁的“链下计算链上验证”模式,在 Vanar 这种原生架构面前显得非常笨重。
当然,Vanar 也不是没有槽点,这我也得客观说两句。目前的开发者工具链相比于以太坊生态还是显得太原始了,我在调试的时候遇到了好几次报错,文档里根本查不到,只能去 Discord 里抓着技术支持问,虽然他们回复挺快,但这种早期的荒蛮感还是很强。而且现在的生态应用确实还不够丰富,我的 Agent 虽然跑通了,但想找个深度好的 DEX 去做滑点测试都费劲,这也是所有新 L1 必须跨过的坎。不过反过来看,这种“空旷”反而让我觉得兴奋,因为这意味着早期的红利期还在。现在的 Vanar 就像是 2019 年的 Solana 或者是 2020 年的 Matic,基建底子打得很好,但上面的高楼大厦还没盖起来,对于懂技术的开发者和早期埋伏的资金来说,这种不对称性才是最大的机会。
我想再深入聊聊关于竞品对比的问题,这几天我也在看 Near 和 ICP。Near 的分片技术确实厉害,也在主打 AI 叙事,但我感觉 Near 的抽象层做得太厚了,对于习惯了 EVM 开发环境的人来说,迁移成本不低。而 ICP 虽然技术很牛,甚至能在容器里跑前端,但它的整个架构太封闭,像是一个独立的局域网,缺乏跟现有 DeFi 世界的互操作性。Vanar 聪明的地方在于,它没有试图去重新发明轮子,而是在兼容 EVM 的基础上,专门针对 AI 的计算负载做了魔改。这种策略非常务实,它既保留了以太坊生态的开发者习惯,又解决了以太坊处理不了 AI 任务的痛点。这就好比以前我们都在用 CPU 挖矿,后来有人搞出了 GPU,大家虽然用的还是同样的电,插的还是同样的插座,但算力效率完全不是一个量级。
在测试过程中,我还发现了一个很有意思的经济模型细节。在传统的 L1 上,不管是转账还是跑复杂的智能合约,我们支付的都是同一种 Gas。但在 Vanar 的设计里,似乎有意在区分“交易成本”和“计算成本”。未来大规模的 AI Agent 跑在链上,如果每一次推理都要消耗巨额的 Vanar 代币作为 Gas,那肯定跑不起来。但我观察到他们的费用结构里,对于高频计算的场景是有优化的。这让我联想到了 AWS 的收费模式,你用 EC2 和用 S3 是两套计费逻辑。如果 Web3 真的要承载 AI 经济,这种精细化的成本控制是必须的。现在的公链,要么贵得要死,要么便宜得要死然后宕机,很少有像 Vanar 这样试图在商业可用性上找平衡点的。
现在回过头来看,我们这一轮周期对于“基础设施”的定义可能完全跑偏了。大家都在卷 TPS,卷谁的 finality 更快,但实际上,下一代的应用——也就是那些真正由 AI 驱动的应用,它们缺的根本不是每秒多处理几千笔交易的能力,它们缺的是一个能让数据、模型和资金无缝交互的环境。我在 Vanar 上跑完那一轮测试后,最大的感触就是:我们终于不再是强行把 AI 塞进区块链这个旧瓶子里了,而是终于有了一条链,是专门为了让 AI 在上面“生活”而设计的。这种感觉很难用语言描述,只有当你真正去写几行代码,看着那个 Agent 能够在没有你干预的情况下,独立完成一次从数据分析到链上执行的全过程,你才会明白“原生”这两个字的含金量。
但这并不意味着 Vanar 就稳赢了。技术上的先进性从来不是成功的唯一要素,当年 EOS 的技术指标也秒杀以太坊,最后还是做成了一地鸡毛。Vanar 面临的挑战是如何把这套牛逼的架构推销给那些只关心币价的散户和急功近利的 VC。现在的市场环境很浮躁,大家宁愿去冲几千万市值的 MEME,也不愿意花时间去研究一个新的 L1 到底解决了什么底层问题。我看他们的社区热度虽然在涨,但比起那些妖币还是显得太冷静了。不过这种冷静恰恰是我喜欢的,在一个充满噪音的房间里,那个坐在角落里默默擦拭武器的人,往往才是最后的赢家。
写到这里,看了一眼屏幕上的终端窗口,我的那个小 Agent 还在 Vanar 的测试网里不知疲倦地运行着,每隔几分钟就吐出一条日志。它不需要休息,不消耗咖啡,只消耗一点点微不足道的 gas。我觉得这可能就是我们一直在寻找的未来——当硅基智能开始拥有自己的资产,拥有自己的执行权,甚至拥有自己的“思考回路”时,它们需要一个新的栖息地。以太坊太拥挤,Solana 太健忘,而 Vanar,看起来确实像是一个为它们准备好的新大陆。虽然现在的它还像个大工地,到处是脚手架和未干的水泥,但地基的轮廓已经清晰可见。作为一名在这个行业里见惯了起起落落的研究者,我愿意给这个工地点上一支烟,静静地看它能不能盖起通天塔。毕竟,在区块链的世界里,偏见往往意味着踏空,而深入代码底层的傲慢,才是亏钱的根源。我不想做那个拿着旧地图找新大陆的人,Vanar 给我的体验,是一张全新的航海图,至于能不能抵达终点,那就交给时间和市场去验证了。#vanar $VANRY
还好买完突然想起那句,孙割的话你得听,孙割推的项目你别碰,果断撤销买入。
还好买完突然想起那句,孙割的话你得听,孙割推的项目你别碰,果断撤销买入。
创始人在卖热狗。
创始人在卖热狗。
Daft Punk马到成功版
·
--
ドージコイン創設者ビリー・マーカスがロサンゼルスの街頭でホットドッグを販売し、DOGEでの支払いを支持:MemeコインからMemeホットドッグへの「究極の閉環」
ロサンゼルス、2025年8月24日——ドージコイン(DOGE)の共同創設者ビリー・マーカスが最近、アメリカ・ロサンゼルスの街頭でホットドッグを売っている姿が目撃され、看板には「1 DOGE = 1ホットドッグ」と大きく書かれており、ネットユーザーの間で話題を呼んでいます。この元暗号通貨の先駆者は、今や別の形で彼の「Meme精神」を継続しています。
「1 DOGE = 1ホットドッグ」:価格は一定、感情は無価値
マーカスのホットドッグスタンドはロサンゼルスのベニスビーチ近くにあり、看板の価格設定はシンプルで過激です:1枚のDOGEで1つのホットドッグ。現在のDOGE価格(約0.12ドル)で計算すると、この価格は通常のホットドッグ(通常3-5ドル)よりもかなり安いです。しかし、マーカスはインタビューで次のように述べました:
服务业越来越卷了。
服务业越来越卷了。
转账活动。
转账活动。
撕开Dusk的Citadel协议:除了合规,ZK还能这么玩? 最近跑了一遍@Dusk_Foundation 的测试网数据,顺便扒了下Citadel协议的底层逻辑,说实话有点意思。市面上大多数隐私公链,要么像Monero那样做绝对的匿名,要么像Oasis那样搞个隐私计算层Sapphire,但Dusk这套路子有点野,它直接把合规层嵌到了Layer 1里。这就好比你在以太坊发一笔交易,原本只需要Gas费,现在还需要附带一个“我合规”的零知识证明,这种强制性的架构设计在目前的EVM体系里非常少见。 很多人没搞懂Citadel的核心竞争力,以为它只是个KYC工具,其实它解决的是DeFi目前最恶心的“白名单困境”。现在的RWA项目或者许可池,比如Aave Arc,为了合规通常得搞个中心化的白名单合约,把你的地址写进去,这既笨重又暴露隐私。Dusk的做法是用ZKP把身份验证变成了本地化行为,我向节点证明“我是合格投资者”,但节点根本不知道我是谁,只知道我的证明有效。这比那些简单的隐私币高了不止一个维度,它是在做可编程的隐私。 不过有一说一,这种架构对客户端的压力不小。我在测试交互的时候明显感觉到,生成Proof的过程比普通签名要慢,如果碰上配置低的电脑,浏览器可能会卡顿。这也是ZK类项目的通病,计算下放到前端,体验必然会有折损。但这可能是机构入场的唯一解,毕竟高盛那帮人不可能把交易记录裸奔在链上,也不可能像散户一样去玩Tornado Cash。比起以太坊上那些打补丁式的Layer 2隐私方案,Dusk这种原生的合规底层反而更像未来金融基础设施该有的样子,只是不知道主网上线后,这个Prover的生成效率能不能扛得住高并发,毕竟合规虽好,若是交互太繁索,流动性肯定会打折扣。#dusk $DUSK
撕开Dusk的Citadel协议:除了合规,ZK还能这么玩?
最近跑了一遍@Dusk 的测试网数据,顺便扒了下Citadel协议的底层逻辑,说实话有点意思。市面上大多数隐私公链,要么像Monero那样做绝对的匿名,要么像Oasis那样搞个隐私计算层Sapphire,但Dusk这套路子有点野,它直接把合规层嵌到了Layer 1里。这就好比你在以太坊发一笔交易,原本只需要Gas费,现在还需要附带一个“我合规”的零知识证明,这种强制性的架构设计在目前的EVM体系里非常少见。
很多人没搞懂Citadel的核心竞争力,以为它只是个KYC工具,其实它解决的是DeFi目前最恶心的“白名单困境”。现在的RWA项目或者许可池,比如Aave Arc,为了合规通常得搞个中心化的白名单合约,把你的地址写进去,这既笨重又暴露隐私。Dusk的做法是用ZKP把身份验证变成了本地化行为,我向节点证明“我是合格投资者”,但节点根本不知道我是谁,只知道我的证明有效。这比那些简单的隐私币高了不止一个维度,它是在做可编程的隐私。
不过有一说一,这种架构对客户端的压力不小。我在测试交互的时候明显感觉到,生成Proof的过程比普通签名要慢,如果碰上配置低的电脑,浏览器可能会卡顿。这也是ZK类项目的通病,计算下放到前端,体验必然会有折损。但这可能是机构入场的唯一解,毕竟高盛那帮人不可能把交易记录裸奔在链上,也不可能像散户一样去玩Tornado Cash。比起以太坊上那些打补丁式的Layer 2隐私方案,Dusk这种原生的合规底层反而更像未来金融基础设施该有的样子,只是不知道主网上线后,这个Prover的生成效率能不能扛得住高并发,毕竟合规虽好,若是交互太繁索,流动性肯定会打折扣。#dusk $DUSK
无趣的胜利:当我拆解Dusk的“合规隐私”架构后,才看懂Monero为何走不进华尔街凌晨三点,屏幕上的终端还在跑着Dusk节点的同步日志,风扇的呼啸声在寂静的房间里显得格外刺耳。盯着这行跳动的Rust代码,我突然意识到一个极其反直觉的事实:我们过去十年在加密隐私赛道上的狂欢,可能完全搞错了方向。作为一名深耕底层协议的研究者,这种挫败感并不常有,上一次还是在硬啃Polkadot的Substrate框架时。这次让我陷入沉思的,是刚刚在Dusk主网上跑通的一笔Citadel验证交易。说实话,体验并不算丝滑,甚至在生成零知识证明(ZKP)的那几秒钟里,浏览器的内存占用飙升得让我以为Chrome要崩了。但就在那个绿色的“Verified”跳出来的瞬间,一种微妙的战栗感油然而生——这不是我们在Tornado Cash里习惯的那种“隐身”,而是一种带着镣铐跳舞的艺术,一种让监管者和自由意志主义者都能闭嘴的工程学妥协。 我不喜欢用“颠覆”这个词,但@Dusk_Foundation 在架构设计上的取舍确实让我不得不重新审视所谓的“隐私金融”。以前我们玩Monero,追求的是绝对的匿名,那种环签名带来的混淆让人觉得安全,像是在数字丛林里穿上了吉利服。但问题也是显而易见的,流动性是孤岛,合规资金进不来,只能在灰产边缘徘徊。Monero是黑客的乐园,却不是金融的未来。反观以太坊上的Aztec或者以前的Railgun,虽然在L2层面试图解决这个问题,但那个割裂感太强了,资产跨过去不仅贵,而且L1和L2之间的状态无法原子化互通,导致DeFi的可组合性大打折扣。我在测试Dusk的Piecrust虚拟机时,最直观的感受就是它试图在L1层面就把这件事解决了。它不是在透明的链上打补丁,而是直接把地基换成了ZK友好的结构。 Piecrust VM这个名字听起来很美味,但啃起来真的硬。它是基于Rkyv实现的零拷贝(Zero-Copy)数据处理,这意味着智能合约在执行时不需要进行昂贵的序列化和反序列化操作。对于搞过Solidity开发的兄弟来说,这简直是降维打击。在以太坊EVM里,我们为了省那点gas,恨不得把所有变量都压成uint256,而在Dusk这里,内存映射(Memory Mapping)直接让数据读取变成了原生级别的速度。不过,实际上手写合约的时候你也别指望太轻松,Rust的学习曲线摆在那,而且你要时刻考虑隐私状态的转换。我在写一个简单的机枪池逻辑时,就因为搞错了Note(票据)的加密生命周期,导致调试了整整两天。这种开发门槛,注定了它早期生态不会像EVM链那样山寨土狗满天飞,能留下来的,大概率是真懂密码学的硬核团队。 说到这,不得不提Dusk最让我纠结也最让我佩服的Citadel协议。这也是它和Aleo、IronFish这些竞品最大的区别。Aleo也在讲隐私计算,但Dusk的切入点非常刁钻——它专注于“RegDeFi”(合规去中心化金融)。Citadel把KYC/AML流程变成了一个可以在链上验证的ZKP。想象一下,你不需要把护照照片传给某个不知名的交易所运营,而是自己在本地生成一个“我是合格投资者”的证明,链上的Dusk节点只负责验证这个证明的真伪,而不知道你具体是谁。这听起来很美好,但在实际交互中,我发现目前的客户端证明生成效率还是个瓶颈。我的M2芯片MacBook在这个过程中都有明显的发热,如果是手机端用户,体验可能会打折。这是ZK赛道的通病,不仅仅是Dusk的问题,但考虑到它要在金融场景落地,高频交易下的证明生成速度必须还得优化。 拿它和Midnight(Cardano那边搞的隐私侧链)做个对比会很有意思。Midnight也在讲合规隐私,但它的架构更偏向于联盟链的思路,中心化程度让我这种老韭菜本能地警惕。而Dusk的SBA(Segregated Byzantine Agreement)共识机制,虽然为了确定性牺牲了一些TPS,但它至少保持了去中心化的底色。我在查看区块浏览器时发现,验证者的分布比我想象的要分散,这不是那种几个大户把持的伪公链。SBA利用VRF(可验证随机函数)来进行分层抽签,这让攻击者很难预测下一个出块者是谁。这种设计在学术上很漂亮,但在工程实现上极具挑战,我注意到偶尔会有区块传播延迟的情况,大概率是网络层在处理大量ZK证明时出现了拥堵。这也不奇怪,毕竟要在一个全球分布的网络上同步这么重的数据,不是件容易事。 真正让我觉得Dusk可能“成了”的时刻,是我在测试它的XSC(Confidential Smart Contracts)标准时。我部署了一个简单的借贷合约,试图在不暴露抵押率的情况下进行清算。在以太坊上,这是不可能的,所有人的仓位都是公开的,大户一旦被盯上,链上狙击手就像闻到血腥味的鲨鱼。但在Dusk上,我看不到对手盘的具体仓位,只能看到系统的整体偿付能力。这种“黑暗森林”般的交易环境,才是机构资金敢进场的关键。BlackRock如果要在链上发RWA,它绝不希望全世界都知道它的底牌。以前我觉得隐私是给黑产用的,现在我才明白,隐私其实是给大资金用的。散户那点钱,谁在乎呢? 但这并不意味着Dusk完美无缺。除了前面提到的客户端性能问题,它的开发者工具链还处于一个相对早期的阶段。文档虽然齐全,但很多example代码跑不通,需要自己去Github的issue里翻答案。而且,这种深度的隐私架构带来了一个巨大的监管悖论:虽然技术上支持审计,但如果节点运营者拒绝配合呢?或者如果私钥丢失,资产就彻底变成了死账。它的“可审计性”是建立在用户主动配合或者预设View Key(查看密钥)的基础上的。这是一个极微妙的平衡,Dusk赌的是机构会为了合规而主动交出查看权限,但对于我们这种DeFi老degen来说,把查看权限交给第三方(哪怕是审计机构)心理上还是有点膈应。 再聊聊它的经济模型对技术的影响。Dusk不仅是gas,还是共识层的抵押资产。这就带来了一个类似以太坊的EIP-1559的问题:如果网络使用率不高,代币价值捕获能力就弱,进而影响节点的安全性。目前主网上的交易活跃度还没有完全起来,大部分是我们在做压力测试。我看了一下mempool(内存池),有些交易因为手续费设置不合理卡了很久。它的费用市场机制似乎还在调优中,对于隐私交易来说,估算gas limit本来就比普通交易难,因为你不知道计算复杂度到底会膨胀到什么程度。我有一次因为稍微复杂点的ZK电路逻辑,gas直接爆表,那种心疼的感觉真实得让人想砸键盘。 在这个充斥着MEME和高频叙事切换的周期里,Dusk显得有点格格不入。它没有Solana那种即时的快感,也没有比特币那种宗教般的信仰。它更像是一个穿着西装的工程师,坐在角落里默默拧着螺丝。但我隐约觉得,这才是Web3该有的样子。我们喊了那么多年的Mass Adoption,最后可能不是靠什么SocialFi或者GameFi带来的,而是靠这种无聊的、严谨的、甚至有点难用的基础设施,把传统金融的庞然大物们一个个接进来。我看好它,不是因为它现在有多好用,而是因为它解决的问题是真的痛点。 当你习惯了在Etherscan上被人窥视一切,第一次在Dusk上完成一笔完全不透明却又合规的转账时,你会理解这种“无趣”的价值。它不是为了让你去买土狗更爽,而是为了让未来的国债、股票、甚至房地产交易能够在链上安全地跑起来。这需要极强的技术定力,去打磨Piecrust,去优化PLONK算法,去和欧洲的监管机构扯皮。我看这几周Github上的提交记录,核心团队几乎没有休息,这种代码更新频率装是装不出来的。 当然,风险依然存在。隐私赛道的最大黑天鹅永远是监管态度的骤变。虽然Dusk主打合规,但只要涉及“隐匿”,在某些强权眼里就是原罪。加上技术实现的复杂度,任何一个ZK电路的漏洞都可能导致灾难性的后果。我现在的策略是,保持节点运行,没事上去写两个合约测试一下,但绝不全仓梭哈。技术研究的乐趣在于发现这种不对称性:市场还在炒作AI和Depin的时候,真正的变革可能正隐藏在这些晦涩的密码学公式里。 现在的Dusk就像是2016年的以太坊,充满了毛刺,工具简陋,甚至偶尔还会卡顿,但你透过那些粗糙的表象,能看到骨子里透出的那股子精密的逻辑美感。它试图在不可能三角中硬生生挤出一条路,这条路不拥挤,因为太难走了。作为一名技术信徒,我愿意陪它走一段,看看这条“可审计隐私”的路,到底能不能通向那个我们许诺已久的金融自由港。反正闲着也是闲着,不如多跑几个Proof,给未来的金融大厦添块砖。#dusk $DUSK

无趣的胜利:当我拆解Dusk的“合规隐私”架构后,才看懂Monero为何走不进华尔街

凌晨三点,屏幕上的终端还在跑着Dusk节点的同步日志,风扇的呼啸声在寂静的房间里显得格外刺耳。盯着这行跳动的Rust代码,我突然意识到一个极其反直觉的事实:我们过去十年在加密隐私赛道上的狂欢,可能完全搞错了方向。作为一名深耕底层协议的研究者,这种挫败感并不常有,上一次还是在硬啃Polkadot的Substrate框架时。这次让我陷入沉思的,是刚刚在Dusk主网上跑通的一笔Citadel验证交易。说实话,体验并不算丝滑,甚至在生成零知识证明(ZKP)的那几秒钟里,浏览器的内存占用飙升得让我以为Chrome要崩了。但就在那个绿色的“Verified”跳出来的瞬间,一种微妙的战栗感油然而生——这不是我们在Tornado Cash里习惯的那种“隐身”,而是一种带着镣铐跳舞的艺术,一种让监管者和自由意志主义者都能闭嘴的工程学妥协。
我不喜欢用“颠覆”这个词,但@Dusk 在架构设计上的取舍确实让我不得不重新审视所谓的“隐私金融”。以前我们玩Monero,追求的是绝对的匿名,那种环签名带来的混淆让人觉得安全,像是在数字丛林里穿上了吉利服。但问题也是显而易见的,流动性是孤岛,合规资金进不来,只能在灰产边缘徘徊。Monero是黑客的乐园,却不是金融的未来。反观以太坊上的Aztec或者以前的Railgun,虽然在L2层面试图解决这个问题,但那个割裂感太强了,资产跨过去不仅贵,而且L1和L2之间的状态无法原子化互通,导致DeFi的可组合性大打折扣。我在测试Dusk的Piecrust虚拟机时,最直观的感受就是它试图在L1层面就把这件事解决了。它不是在透明的链上打补丁,而是直接把地基换成了ZK友好的结构。
Piecrust VM这个名字听起来很美味,但啃起来真的硬。它是基于Rkyv实现的零拷贝(Zero-Copy)数据处理,这意味着智能合约在执行时不需要进行昂贵的序列化和反序列化操作。对于搞过Solidity开发的兄弟来说,这简直是降维打击。在以太坊EVM里,我们为了省那点gas,恨不得把所有变量都压成uint256,而在Dusk这里,内存映射(Memory Mapping)直接让数据读取变成了原生级别的速度。不过,实际上手写合约的时候你也别指望太轻松,Rust的学习曲线摆在那,而且你要时刻考虑隐私状态的转换。我在写一个简单的机枪池逻辑时,就因为搞错了Note(票据)的加密生命周期,导致调试了整整两天。这种开发门槛,注定了它早期生态不会像EVM链那样山寨土狗满天飞,能留下来的,大概率是真懂密码学的硬核团队。
说到这,不得不提Dusk最让我纠结也最让我佩服的Citadel协议。这也是它和Aleo、IronFish这些竞品最大的区别。Aleo也在讲隐私计算,但Dusk的切入点非常刁钻——它专注于“RegDeFi”(合规去中心化金融)。Citadel把KYC/AML流程变成了一个可以在链上验证的ZKP。想象一下,你不需要把护照照片传给某个不知名的交易所运营,而是自己在本地生成一个“我是合格投资者”的证明,链上的Dusk节点只负责验证这个证明的真伪,而不知道你具体是谁。这听起来很美好,但在实际交互中,我发现目前的客户端证明生成效率还是个瓶颈。我的M2芯片MacBook在这个过程中都有明显的发热,如果是手机端用户,体验可能会打折。这是ZK赛道的通病,不仅仅是Dusk的问题,但考虑到它要在金融场景落地,高频交易下的证明生成速度必须还得优化。
拿它和Midnight(Cardano那边搞的隐私侧链)做个对比会很有意思。Midnight也在讲合规隐私,但它的架构更偏向于联盟链的思路,中心化程度让我这种老韭菜本能地警惕。而Dusk的SBA(Segregated Byzantine Agreement)共识机制,虽然为了确定性牺牲了一些TPS,但它至少保持了去中心化的底色。我在查看区块浏览器时发现,验证者的分布比我想象的要分散,这不是那种几个大户把持的伪公链。SBA利用VRF(可验证随机函数)来进行分层抽签,这让攻击者很难预测下一个出块者是谁。这种设计在学术上很漂亮,但在工程实现上极具挑战,我注意到偶尔会有区块传播延迟的情况,大概率是网络层在处理大量ZK证明时出现了拥堵。这也不奇怪,毕竟要在一个全球分布的网络上同步这么重的数据,不是件容易事。
真正让我觉得Dusk可能“成了”的时刻,是我在测试它的XSC(Confidential Smart Contracts)标准时。我部署了一个简单的借贷合约,试图在不暴露抵押率的情况下进行清算。在以太坊上,这是不可能的,所有人的仓位都是公开的,大户一旦被盯上,链上狙击手就像闻到血腥味的鲨鱼。但在Dusk上,我看不到对手盘的具体仓位,只能看到系统的整体偿付能力。这种“黑暗森林”般的交易环境,才是机构资金敢进场的关键。BlackRock如果要在链上发RWA,它绝不希望全世界都知道它的底牌。以前我觉得隐私是给黑产用的,现在我才明白,隐私其实是给大资金用的。散户那点钱,谁在乎呢?
但这并不意味着Dusk完美无缺。除了前面提到的客户端性能问题,它的开发者工具链还处于一个相对早期的阶段。文档虽然齐全,但很多example代码跑不通,需要自己去Github的issue里翻答案。而且,这种深度的隐私架构带来了一个巨大的监管悖论:虽然技术上支持审计,但如果节点运营者拒绝配合呢?或者如果私钥丢失,资产就彻底变成了死账。它的“可审计性”是建立在用户主动配合或者预设View Key(查看密钥)的基础上的。这是一个极微妙的平衡,Dusk赌的是机构会为了合规而主动交出查看权限,但对于我们这种DeFi老degen来说,把查看权限交给第三方(哪怕是审计机构)心理上还是有点膈应。
再聊聊它的经济模型对技术的影响。Dusk不仅是gas,还是共识层的抵押资产。这就带来了一个类似以太坊的EIP-1559的问题:如果网络使用率不高,代币价值捕获能力就弱,进而影响节点的安全性。目前主网上的交易活跃度还没有完全起来,大部分是我们在做压力测试。我看了一下mempool(内存池),有些交易因为手续费设置不合理卡了很久。它的费用市场机制似乎还在调优中,对于隐私交易来说,估算gas limit本来就比普通交易难,因为你不知道计算复杂度到底会膨胀到什么程度。我有一次因为稍微复杂点的ZK电路逻辑,gas直接爆表,那种心疼的感觉真实得让人想砸键盘。
在这个充斥着MEME和高频叙事切换的周期里,Dusk显得有点格格不入。它没有Solana那种即时的快感,也没有比特币那种宗教般的信仰。它更像是一个穿着西装的工程师,坐在角落里默默拧着螺丝。但我隐约觉得,这才是Web3该有的样子。我们喊了那么多年的Mass Adoption,最后可能不是靠什么SocialFi或者GameFi带来的,而是靠这种无聊的、严谨的、甚至有点难用的基础设施,把传统金融的庞然大物们一个个接进来。我看好它,不是因为它现在有多好用,而是因为它解决的问题是真的痛点。
当你习惯了在Etherscan上被人窥视一切,第一次在Dusk上完成一笔完全不透明却又合规的转账时,你会理解这种“无趣”的价值。它不是为了让你去买土狗更爽,而是为了让未来的国债、股票、甚至房地产交易能够在链上安全地跑起来。这需要极强的技术定力,去打磨Piecrust,去优化PLONK算法,去和欧洲的监管机构扯皮。我看这几周Github上的提交记录,核心团队几乎没有休息,这种代码更新频率装是装不出来的。
当然,风险依然存在。隐私赛道的最大黑天鹅永远是监管态度的骤变。虽然Dusk主打合规,但只要涉及“隐匿”,在某些强权眼里就是原罪。加上技术实现的复杂度,任何一个ZK电路的漏洞都可能导致灾难性的后果。我现在的策略是,保持节点运行,没事上去写两个合约测试一下,但绝不全仓梭哈。技术研究的乐趣在于发现这种不对称性:市场还在炒作AI和Depin的时候,真正的变革可能正隐藏在这些晦涩的密码学公式里。
现在的Dusk就像是2016年的以太坊,充满了毛刺,工具简陋,甚至偶尔还会卡顿,但你透过那些粗糙的表象,能看到骨子里透出的那股子精密的逻辑美感。它试图在不可能三角中硬生生挤出一条路,这条路不拥挤,因为太难走了。作为一名技术信徒,我愿意陪它走一段,看看这条“可审计隐私”的路,到底能不能通向那个我们许诺已久的金融自由港。反正闲着也是闲着,不如多跑几个Proof,给未来的金融大厦添块砖。#dusk $DUSK
L2都在卷TPS的时候,只有这里真的把Gas费干掉了? ​盯着XPL那根几乎垂直向下的K线看久了确实容易心态崩,高点下来跌了快90%,这种盘面放在任何社群里大概率都是维权现场。但抛开情绪看数据,最近链上的动静反而让我觉得有点意思。现在市面上Layer 2多如牛毛,Arbitrum和Optimism哪怕再便宜,用户转账稳定币还得手里捏着点ETH做Gas,这种体验对于圈外人来说简直是灾难。@Plasma 搞的这个Paymaster机制倒是真的有点东西,直接把稳定币转账做到了零Gas,这种无感体验才有点Web2支付应用该有的样子,比起还在卷TPS的那些公链,这才是Mass Adoption的刚需。从开发者视角看,完全兼容EVM且支持Hardhat和Foundry,意味着迁移成本极低,不用像在Solana上还得重学Rust。更“鸡贼”的是它把状态锚定到了比特币网络,这招借力打力玩得不错,在这个BTC统治力回归的周期里,安全性叙事站得住脚。 ​资金流向往往比K线更诚实,Maple Finance上那个SyrupUSDT池子TVL居然悄摸干到了11亿美金,机构资金愿意沉淀在这里吃利息,本身就说明了对底层安全性的认可。加上Rain cards和Oobit接入Visa网络覆盖几亿商户,还有合规的欧元稳定币EUROP,这路子走得明显比那些纯炒作空气的土狗要稳。不过有一说一,隐患也不少。目前的验证者网络还是高度中心化,基本是团队自己在玩,这在Crypto圈子里始终是个雷。而且生态除了转账和借贷,真是干干净净,想找个好玩的土狗或者NFT项目都难,应用场景太单一导致用户除了存钱没别的事干。现在的Plasma就像个有点偏科的理工男,基建和支付体验做得极好,但毫无娱乐精神。在这个价格区间,我倒不急着抄底,而是想看看这种“零Gas”体验能不能真的把机构资金转化为长期的用户留存,毕竟技术再好,没人用的公链最后也只是一行行代码而已。#plasma $XPL
L2都在卷TPS的时候,只有这里真的把Gas费干掉了?
​盯着XPL那根几乎垂直向下的K线看久了确实容易心态崩,高点下来跌了快90%,这种盘面放在任何社群里大概率都是维权现场。但抛开情绪看数据,最近链上的动静反而让我觉得有点意思。现在市面上Layer 2多如牛毛,Arbitrum和Optimism哪怕再便宜,用户转账稳定币还得手里捏着点ETH做Gas,这种体验对于圈外人来说简直是灾难。@Plasma 搞的这个Paymaster机制倒是真的有点东西,直接把稳定币转账做到了零Gas,这种无感体验才有点Web2支付应用该有的样子,比起还在卷TPS的那些公链,这才是Mass Adoption的刚需。从开发者视角看,完全兼容EVM且支持Hardhat和Foundry,意味着迁移成本极低,不用像在Solana上还得重学Rust。更“鸡贼”的是它把状态锚定到了比特币网络,这招借力打力玩得不错,在这个BTC统治力回归的周期里,安全性叙事站得住脚。
​资金流向往往比K线更诚实,Maple Finance上那个SyrupUSDT池子TVL居然悄摸干到了11亿美金,机构资金愿意沉淀在这里吃利息,本身就说明了对底层安全性的认可。加上Rain cards和Oobit接入Visa网络覆盖几亿商户,还有合规的欧元稳定币EUROP,这路子走得明显比那些纯炒作空气的土狗要稳。不过有一说一,隐患也不少。目前的验证者网络还是高度中心化,基本是团队自己在玩,这在Crypto圈子里始终是个雷。而且生态除了转账和借贷,真是干干净净,想找个好玩的土狗或者NFT项目都难,应用场景太单一导致用户除了存钱没别的事干。现在的Plasma就像个有点偏科的理工男,基建和支付体验做得极好,但毫无娱乐精神。在这个价格区间,我倒不急着抄底,而是想看看这种“零Gas”体验能不能真的把机构资金转化为长期的用户留存,毕竟技术再好,没人用的公链最后也只是一行行代码而已。#plasma $XPL
抛弃 Layer 2 的虚假繁荣:在 Reth 与稳定币支付的缝隙里,我看到了 Plasma 的野心与尴尬最近这几晚盯着屏幕上的 Gas 费波动,突然觉得我们是不是都在集体致幻,看着那些疯狂内卷的 Layer 2 赛道,我不禁怀疑这种为了扩容而扩容的俄罗斯套娃游戏到底还要玩多久,当你把资产跨到第六层网络,仅仅是为了在一个没人用的 DEX 上刷一笔所谓的空投交互时,区块链原本承诺的“价值流转”早就变成了一地鸡毛,这种疲惫感让我在重读 @Plasma 白皮书和测试网代码时产生了一种奇怪的共鸣,甚至说是某种久违的清醒。我必须承认,起初我对 Plasma 的回归是带着极度偏见的,毕竟在 2018 年那场扩容大战中它输得底裤都不剩,Vitalik 甚至都很少再公开提及这个“旧爱”,但当我们剥离掉那些复杂的 ZK-Rollup 叙事,回到最本源的支付需求时,你会发现 Plasma 现在的架构设计简直是在往以太坊生态最痛的伤口上撒盐,当然,这或许正是它存在的唯一理由。

抛弃 Layer 2 的虚假繁荣:在 Reth 与稳定币支付的缝隙里,我看到了 Plasma 的野心与尴尬

最近这几晚盯着屏幕上的 Gas 费波动,突然觉得我们是不是都在集体致幻,看着那些疯狂内卷的 Layer 2 赛道,我不禁怀疑这种为了扩容而扩容的俄罗斯套娃游戏到底还要玩多久,当你把资产跨到第六层网络,仅仅是为了在一个没人用的 DEX 上刷一笔所谓的空投交互时,区块链原本承诺的“价值流转”早就变成了一地鸡毛,这种疲惫感让我在重读 @Plasma 白皮书和测试网代码时产生了一种奇怪的共鸣,甚至说是某种久违的清醒。我必须承认,起初我对 Plasma 的回归是带着极度偏见的,毕竟在 2018 年那场扩容大战中它输得底裤都不剩,Vitalik 甚至都很少再公开提及这个“旧爱”,但当我们剥离掉那些复杂的 ZK-Rollup 叙事,回到最本源的支付需求时,你会发现 Plasma 现在的架构设计简直是在往以太坊生态最痛的伤口上撒盐,当然,这或许正是它存在的唯一理由。
拒絶TPS虚火、AIレースの基盤となるインフラは依然としてコンプライアンスの適合性に依存する 最近、AIレースが狂ったように取り上げられていますが、私は手元のいくつかのエージェントをブロックチェーン上で実際に動かしてみたところ、いわゆる高性能なパブリックチェーンのほとんどはまったくの災難であることがわかりました。市場に出回っている数万TPSを叫ぶプロジェクトは、実際に高頻度のインタラクションに到達すると、Gas費のわずかな変動が量的戦略の利益をすべて食いつぶしてしまうことがあります。これは、あなたがフェラーリを運転して配達をするようなもので、車は良い車ですが、燃料費を支払う余裕がないのです。これが最近私が@Vanar 技術ホワイトペーパーにこだわっている理由で、多くの人々はそれとGoogle Cloudの提携をマーケティングの話題だと見なしていますが、実際にはこれは何のコアの痛点を解決するためにあるのかを全く理解していないのです。 私が以前深く研究したNearを競合製品と比較してみると、彼らのシャーディング技術は確かに強力ですが、参入を希望する大規模なWeb2ゲームスタジオやAI企業にとって、単なる技術の優越性は障壁ではなく、財務のコンプライアンスとコストのコントロールが命となります。Vanarのそのゼロカーボンと極めて低い手数料の設計は、表面的には環境保護をアピールしているように見えますが、実際にはESG評価のある大企業に安全な入場券を提供しています。私がVanguardテストネットでデータを走らせているとき、未来のAIインタラクションは人間がマウスをクリックするのではなく、機械対機械のM2M高頻度の流通であるはずだと考えていました。このようなシナリオでは、イーサリアムL2のようなシーケンサーの中央集権的な遅延さえも耐え難いものです。Vanarのこのハイブリッドアーキテクチャは、Web2のサーバー速度にWeb3の資産権の層を追加したような感覚を与えてくれます。現在、エコシステムのアプリケーションはまだ少し薄いですが、初期のクロスチェーンブリッジ体験も時折問題を起こしますが、アーキテクチャの論理は通じています。 私たちは認めなければなりません、現在のAIプロジェクトの多くは古い瓶に新しい酒を詰め込んでいるもので、無理やりEVMの古いフレームワークに押し込んでいます。実際に数行の契約を書いたことがあれば、Solidityに大規模なモデルの推論を直接処理させることがどれほど不合理なことかがわかります。Vanarの賢い点は、ハードウェアで直接戦う一般的な計算を行うのではなく、重い計算をオフチェーンまたは特製の実行レイヤーに投げて、オンチェーンでは最終的な状態の検証だけを行うことです。これがソフトウェア工学の論理に合った解決策なのです。#vanar $VANRY
拒絶TPS虚火、AIレースの基盤となるインフラは依然としてコンプライアンスの適合性に依存する
最近、AIレースが狂ったように取り上げられていますが、私は手元のいくつかのエージェントをブロックチェーン上で実際に動かしてみたところ、いわゆる高性能なパブリックチェーンのほとんどはまったくの災難であることがわかりました。市場に出回っている数万TPSを叫ぶプロジェクトは、実際に高頻度のインタラクションに到達すると、Gas費のわずかな変動が量的戦略の利益をすべて食いつぶしてしまうことがあります。これは、あなたがフェラーリを運転して配達をするようなもので、車は良い車ですが、燃料費を支払う余裕がないのです。これが最近私が@Vanarchain 技術ホワイトペーパーにこだわっている理由で、多くの人々はそれとGoogle Cloudの提携をマーケティングの話題だと見なしていますが、実際にはこれは何のコアの痛点を解決するためにあるのかを全く理解していないのです。
私が以前深く研究したNearを競合製品と比較してみると、彼らのシャーディング技術は確かに強力ですが、参入を希望する大規模なWeb2ゲームスタジオやAI企業にとって、単なる技術の優越性は障壁ではなく、財務のコンプライアンスとコストのコントロールが命となります。Vanarのそのゼロカーボンと極めて低い手数料の設計は、表面的には環境保護をアピールしているように見えますが、実際にはESG評価のある大企業に安全な入場券を提供しています。私がVanguardテストネットでデータを走らせているとき、未来のAIインタラクションは人間がマウスをクリックするのではなく、機械対機械のM2M高頻度の流通であるはずだと考えていました。このようなシナリオでは、イーサリアムL2のようなシーケンサーの中央集権的な遅延さえも耐え難いものです。Vanarのこのハイブリッドアーキテクチャは、Web2のサーバー速度にWeb3の資産権の層を追加したような感覚を与えてくれます。現在、エコシステムのアプリケーションはまだ少し薄いですが、初期のクロスチェーンブリッジ体験も時折問題を起こしますが、アーキテクチャの論理は通じています。
私たちは認めなければなりません、現在のAIプロジェクトの多くは古い瓶に新しい酒を詰め込んでいるもので、無理やりEVMの古いフレームワークに押し込んでいます。実際に数行の契約を書いたことがあれば、Solidityに大規模なモデルの推論を直接処理させることがどれほど不合理なことかがわかります。Vanarの賢い点は、ハードウェアで直接戦う一般的な計算を行うのではなく、重い計算をオフチェーンまたは特製の実行レイヤーに投げて、オンチェーンでは最終的な状態の検証だけを行うことです。これがソフトウェア工学の論理に合った解決策なのです。#vanar $VANRY
さらにコンテンツを探すには、ログインしてください
暗号資産関連最新ニュース総まとめ
⚡️ 暗号資産に関する最新のディスカッションに参加
💬 お気に入りのクリエイターと交流
👍 興味のあるコンテンツがきっと見つかります
メール / 電話番号
サイトマップ
Cookieの設定
プラットフォーム利用規約