Binance Square

0xjacobzhao

Crypto x AI | ex-Crypto VC | ENTJ/INTJ
Otwarta transakcja
Trader okazjonalny
Miesiące: 6.7
1 Obserwowani
20 Obserwujący
15 Polubione
8 Udostępnione
Posty
Portfolio
·
--
Zobacz tłumaczenie
以太坊再定价:从 Rollup-Centric 到“安全性结算层”作者:Jacob Zhao, Jiawei, Turbo @ IOSG Ventures 2026 年 2 月 3 日,Vitalik 在 X 上发表了关于以太坊扩容路线的重要反思。随着 Layer 2 向完全去中心化形态演进的现实难度被重新认识,同时主网自身吞吐能力在未来数年内预计大幅提升,单纯依赖 L2 进行吞吐量扩容的原始设想正在修正,L1 与 L2 正在形成新的‘结算-服务’协同范式: L1 专注于提供最高等级的安全性、抗审查性与结算主权,而 L2 则向‘差异化服务商’演进(如隐私、AI、高频交易),以太坊的战略重心正回归主网本身,强化其作为全球最可信结算层的定位。扩容不再是唯一目标,安全性、中立性与可预测性,重新成为以太坊的核心资产。  核心变化: 以太坊正在进入“L1 优先范式”: 随着主网直接扩展、费用持续下降,依赖 L2 承担规模化核心角色的原始假设已不再成立。L2 不再是“品牌分片”,而是信任光谱: L2 去中心化推进远慢于预期,难以统一继承以太坊安全性,其角色正被重新定义为不同信任级别的网络光谱。以太坊的核心价值从“流量”转向“结算主权”: ETH 的价值不再限于 Gas 或 Blob 收入,而在于其作为全球最安全 EVM 结算层与原生货币资产的制度性溢价。扩展策略正在向协议内生化调整: 在 L1 持续直接扩展的基础上,协议层原生验证与安全机制的探索,可能重塑 L1–L2 的安全边界与价值捕获结构。估值框架发生结构性迁移: 安全性与机构可信度权重显著上升,手续费与平台效应权重下降,ETH 的定价正从现金流模型转向资产溢价模型。 本文将依照事实(已发生的技术与制度变化)、机制(对价值捕获与定价逻辑的影响)、推演(对配置与风险回报的含义)的分层对以太坊定价模型的范式转变与估值重构展开分析。 一、原点回归:以太坊价值观 理解以太坊的长期价值,关键不在短期价格波动,而在于其始终如一的设计理念与价值取向。 可信中立性:以太坊的核心目标并非效率或利润最大化,而是成为一套可信中立的基础设施——规则公开、可预测,不偏袒任何参与者,不受单一主体控制,任何人均可无需许可地参与。ETH 及其链上资产的安全性,最终依赖的是协议本身,而非任何机构信用。生态优先非收入优先:以太坊多次关键升级体现出一致的决策逻辑——主动放弃短期协议收入,以换取更低的使用成本、更大的生态规模与更强的系统韧性。其目标不是“收取过路费”,而是成为数字经济中不可替代的中立结算与信任底座。去中心化作为手段:主网专注于最高等级的安全性与最终性,而 Layer 2 网络位于与主网不同程度的连接光谱上:有的继承主网安全性并追求效率,有的则以差异化功能为价值定位。使系统能够同时服务全球结算与高性能应用,而非 L2 “品牌分片”。长期主义技术路线:以太坊坚持慢而确定的演进路径,优先保障系统安全与可信度。从 PoS 转型到后续扩容与确认机制优化,其路线图追求可持续、可验证、不可逆的正确性。 安全性结算层 (Security Settlement Layer): 指以太坊主网通过去中心化验证节点和共识机制,为 Layer 2 及链上资产提供不可逆转的最终性(Finality)服务。 这种安全性结算层的定位,标志了“结算主权”的建立,是以太坊从“邦联制”转向“联邦制” 的转变,是以太坊数字国家建立的 “宪法时刻”,更是以太坊架构与核心的重要升级。 美国独立战争以后,在邦联制的条款下,13个州像是一个松散联盟,各州各印各的货币、互相征收关税, 每个州都在搭便车:享受共同国防,却拒绝缴费;享受联盟的品牌,却各自为政。这个结构性的问题导致国家信用降低,并且无法统一对外贸易,严重阻碍经济。 1787年是美国的“宪法时刻”,新宪法赋予联邦政府三项关键权力:直接征税权、州际贸易管制权、统一货币权。但真正让联邦政府"活过来"的是汉密尔顿1790年的经济方案,联邦承担各州债务、按面值兑付重建国家信用、建立国家银行作为金融中枢。统一市场释放了规模效应,国家信用吸引了更多资本,基础设施建设获得了融资能力。美国从13个互相设防的小邦,走向了世界第一大经济体。 今天的以太坊生态的结构性困境完全一致。 每条L2就像一个"主权州",各自有自己的用户群、流动性池和治理代币。流动性被切割成碎片,跨L2交互摩擦大,L2享受以太坊的安全层和品牌却无法回馈L1价值。每条L2把流动性锁在自己链上是短期理性的,但所有L2都这样做就导致整个以太坊生态的最核心的竞争优势丧失。 以太坊现在推进的路线图,本质上就是它的制宪和建立中央经济系统,也就是建立“结算主权”: 原生Rollup预编译(Native Rollup Precompile)= 联邦宪法。 L2可以在EVM之外自由构建差异化功能,而EVM部分可以通过原生预编译获得以太坊级别的安全验证。不接入当然也可以,但代价是失去与以太坊生态的免信任互操作性。同步可组合性(Synchronous Composability)= 统一市场。 通过原生Rollup预编译等机制,L2之间、L2与L1之间的免信任互操作和同步可组合性正在成为可能,这直接消除了"州际贸易壁垒",流动性不再被困在各自的孤岛上。L1价值捕获重建 = 联邦征税权。 当所有关键的跨L2交互都回归L1结算时,ETH重新成为整个生态的结算中枢和信任锚点。谁控制结算层,谁就捕获价值。 以太坊正在用统一的结算和验证体系,把碎片化的L2生态变成一个不可替代的“数字国家”,这是一个历史必然。当然, 转变的过程可能缓慢,而历史告诉我们,这个转变一旦完成,释放出的网络效应将远超碎片化时代的线性增长。美国用统一的经济系统把13个小邦变成了世界第一大经济体。以太坊也将把松散的L2生态转化成最大的安全性结算层,乃至全球金融载体。 以太坊核心升级路线图与估值影响 (2025-2026) 二、估值误区:为何不应将以太坊视为“科技公司” 将传统企业估值模型(P/E、DCF、EV/EBITDA)套用于以太坊,本质上是一种类别错误。以太坊并非以利润最大化为目标的公司,而是一套开放的数字经济基础设施。企业追求股东价值最大化,而以太坊追求的是生态规模、安全性与抗审查性的最大化。为实现这一目标,以太坊多次主动压低协议收入(如通过EIP-4844 通过引入 Blob DA,结构性下移 L2 数据发布成本,并压低 L1 来自 rollup 数据的费用收入)——在公司视角下近似“收入自毁”,但在基础设施视角下,则是以牺牲短期费用换取长期的中立性溢价与网络效应。 更合理的理解框架,是将以太坊视为全球中立的结算与共识层:为数字经济提供安全性、最终性与可信协调。ETH 的价值体现在多重结构性需求之上——最终结算的刚性需求、链上金融与稳定币规模、质押与销毁机制对供给的影响,以及 ETF、企业财库与 RWA 等机构级采用所带来的长期、粘性资金。 三、范式重构:寻找现金流之外的定价锚 2025年底 Hashed团队推出的 ethval.com 为以太坊提供了详尽的可复现量化模型集合,但传统的静态模型难以捕捉 2026 年以太坊叙事的剧烈转折。因此,我们复用了其系统性、透明且可复现的底层模型(涵盖收益、货币、网络效应与供给结构),在估值架构与权重逻辑上进行了重塑: 结构重构: 将模型映射至“安全性、货币、平台、收入”四大价值象限,分类加总定价。权重再平衡: 显著上调安全性与结算溢价权重,弱化协议收入与 L2 扩张的边际贡献。风控叠加层: 引入宏观与链上风险感知的熔断机制,使估值框架具备跨周期适应性。剔除“循环论证”:对含现价输入的模型(如 Staking Scarcity、Liquidity Premium)不再作为公允价值锚,仅保留其作为仓位与风险偏好调节指标。 注:下述模型并非用于精确点位预测,而用于刻画不同价值来源在不同周期中的相对定价方向 1. 安全性结算层:核心价值锚(45%,避险期上调) 我们将安全性结算层视为以太坊最核心的价值来源,并赋予其 45% 的基准权重;在宏观不确定性上升或风险偏好回落阶段,该权重进一步上调。这一判断源于 Vitalik 对“真正扩展以太坊”的最新界定:扩容的本质不是提升 TPS,而是创造由以太坊本身完全背书的区块空间。任何依赖外部信任假设的高性能执行环境,都不构成对以太坊本体的扩展。 在此框架下,ETH 的价值主要体现为全球无主权结算层的信用溢价,而非协议收入。该溢价由验证者规模与去中心化程度、长期安全记录、机构级采用、合规路径清晰度,以及协议内生 Rollup 验证机制等结构性因素共同支撑。 在具体定价上,我们主要采用两种互补的方法:Validator Economics(收益均衡映射)与 Staking DCF(永续质押折现),共同刻画 ETH 作为“全球安全结算层”的制度性溢价。 Validator Economics(收益均衡定价):基于每枚ETH的年化质押现金流与目标真实收益率的比值,推导理论公允价格: Fair Price = (Annual Staking Cash Flow per ETH) / Target Real Yield 该表达用于刻画收益与价格的均衡关系,作为方向性相对估值工具,而非独立定价模型。  Staking DCF(永续质押折现):将 ETH 视为一项可持续产生真实质押收益的长期资产,对其现金流进行永续折现: M_staking = Total Real Staking Cash Flow / (Discount Rate − Longterm Growth Rate) ETH Price (staking) = M_staking / Circulating Supply 从本质上看,这一价值层并非对标平台型公司的收入能力,而是类似全球清算网络的结算信用。 2. 货币属性:结算与抵押(35%,效用扩张期主导) 我们将货币属性视为以太坊第二核心的价值来源,并赋予其 35% 的基准权重,在中性市场或链上经济扩张阶段成为主要效用锚。这一判断并非基于“ETH 等同于美元”的叙事,而在于其作为链上金融体系的原生结算燃料与最终抵押资产的结构性角色。稳定币流转、DeFi 清算与 RWA 结算的安全性,均依赖 ETH 所支撑的结算层。 定价上,我们采用货币数量论的扩展形式(MV = PQ),但将ETH的使用场景分层建模,以应对不同场景下流通速度的数量级差异分层货币需求模型: 高频结算层(Gas支付、稳定币转账)M_transaction = Annual Transaction Settlement Volume / V_highV_high ≈ 15-25(参考历史链上数据)中频金融层(DeFi交互、借贷清算)M_defi = Annual DeFi Settlement Volume / V_mediumV_medium ≈ 3-8(基于主流DeFi协议资金周转率)低频抵押层(质押、再质押、长期锁仓)M_collateral = Total ETH Collateral Value × (1 + Liquidity Premium)Liquidity Premium = 10-30%(反映流动性牺牲的补偿) 3. 平台 / 网络效应:增长期权(10%,牛市放大器) 平台与网络效应被视为以太坊估值中的增长期权,仅赋予 10% 权重,用于解释牛市阶段生态扩张带来的非线性溢价。我们采用经信任修正的梅特卡夫模型,避免将不同安全级别的 L2 资产等权计入估值: 梅特卡夫模型: M_network = a × (Active Users)^b  +  m × Σ (L2 TVL_i × TrustScore_i)平台/网络效应估值价格:ETH Price(network) = M_network / Circulating Supply 4. 收入资产:现金流地板(10%,熊市托底) 我们将协议收入视为以太坊估值体系中的现金流地板,而非增长引擎,同样赋予 10% 权重。该层主要在熊市或极端风险阶段发挥作用,用于刻画估值下限。 Gas 与 Blob 费用为网络提供最低运作成本,并通过 EIP-1559 影响供给结构。估值上,我们采用市销率与费用收益率模型,并取其中的保守值,仅作为底部参考。随着主网持续扩容,协议收入的重要性相对下降,其核心作用体现在下行阶段的安全边际。 市销率模型(P/S Floor):M_PS = Annual Protocol Revenue × P/S_multiple市销率估值价格:ETH Price (PS) = M_PS / Circulating Supply费用收益率模型:M_Yield = Annual Protocol Revenue / Target Fee Yield费用收益估值价格:ETH Price(Yield) = M_Yield / Circulating Supply现金流地板定价(取两者极小值):P_Revenue_Floor = min(P_PS , P_Yield) 四、动态校准:宏观约束与周期适配 如果说前文确立了以太坊的“内在价值中枢”,本章则引入一套独立于基本面的“外在环境适配系统”。估值无法真空运行,必须受制于宏观环境(资金成本)、市场结构(相对强弱)与链上情绪(拥挤度)三大外部约束。基于此,我们构建了状态适配(Regime Adaptation)机制,在不同周期动态调整估值权重——宽松期释放期权溢价,避险期退守收入地板,从而实现从静态模型到动态策略的跨越。(注:限于篇幅,本文仅展示该机制的核心逻辑框架。) 五、机构化第二曲线的条件路径 前文分析均基于加密体系内部的技术、估值与周期逻辑,而本章讨论的是一个不同层级的问题:当 ETH 不再仅由加密原生资金定价,而被逐步纳入传统金融体系,其定价权、资产属性与风险结构将如何变化。机构化第二曲线并非对既有逻辑的延伸,而是外生力量对以太坊的再定义: 资产属性的变化(Beta → Carry):现货 ETH ETF 解决的是合规与托管问题,本质仍是价格暴露;而未来Staking ETF 的推进,首次将链上收益通过合规载体引入机构体系。ETH 由此从“无息高波动资产”转向“具备可预期收益的配置型资产”,潜在买家从交易型资金扩展至对收益与久期敏感的养老金、保险及长期账户。使用方式的变化(Holding → Using):如果机构不再仅将 ETH 视为可交易标的,而是开始将其作为结算与抵押基础设施使用。无论是 JPMorgan 的代币化基金,还是合规稳定币与 RWA 在以太坊上的部署,都表明 ETH 的需求正从“持有需求”转向“运行需求”——机构不仅持有 ETH,更在其上完成结算、清算与风险管理。尾部风险的变化(Uncertainty → Pricing): 随着稳定币监管框架(如 GENIUS Act)未来逐步确立,以及以太坊路线图与治理透明度提升,机构最为敏感的监管与技术不确定性正在被系统性压缩,意味着不确定性开始被定价,而非被回避。 所谓“机构化第二曲线”是 需求性质的改变,为“安全性结算层 + 货币属性”的估值逻辑提供了真实需求来源,推动 ETH 从以情绪驱动的投机资产过渡为同时承载配置性与功能性需求的基础资产。 六、结语:至暗时刻的价值锚定 过去一周,行业经历了剧烈的去杠杆化洗礼,市场情绪降至冰点,这无疑是加密世界的“至暗时刻”。悲观情绪在从业者中蔓延,而作为最能代表加密精神的资产标的,以太坊亦处于争议的风暴眼中。 然而,作为理性的观察者,我们需要穿透恐慌的迷雾:以太坊当前所经历的,并非“价值的坍塌”,而是一次深刻的“定价锚迁移”。随着 L1 扩容直接推进、L2 被重新界定为不同信任等级的网络光谱,以及协议收入主动让位于系统安全与中立性,ETH 的定价逻辑已结构性转向“安全性结算层 + 原生货币属性”。 在宏观真实利率高位、流动性尚未宽松、链上增长期权暂未被市场允许定价的背景下,ETH 的价格自然收敛至由结算确定性、可验证收益与机构共识支撑的结构性价值区间。这一区间并非情绪底,而是在剥离平台型增长溢价后的价值中枢。 作为以太坊生态的长期建设者,我们拒绝做 ETH 的“无脑多头”。我们希望通过严谨的逻辑框架,审慎地论证我们的预判:只有当宏观流动性、风险偏好与网络效应同时满足市场状态的触发条件时,更高的估值才会被市场重新计入。 因此,对于长线投资者而言,当下的关键问题不再是焦虑地追问“以太坊还能不能涨”,而是要清醒地认识到——在当前环境下,我们正在以“地板价”买入哪一层核心价值? 免责声明:本文在创作过程中借助了 ChatGPT-5.2, Gemini 3和Claude Opus 4.5等 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。

以太坊再定价:从 Rollup-Centric 到“安全性结算层”

作者:Jacob Zhao, Jiawei, Turbo @ IOSG Ventures

2026 年 2 月 3 日,Vitalik 在 X 上发表了关于以太坊扩容路线的重要反思。随着 Layer 2 向完全去中心化形态演进的现实难度被重新认识,同时主网自身吞吐能力在未来数年内预计大幅提升,单纯依赖 L2 进行吞吐量扩容的原始设想正在修正,L1 与 L2 正在形成新的‘结算-服务’协同范式: L1 专注于提供最高等级的安全性、抗审查性与结算主权,而 L2 则向‘差异化服务商’演进(如隐私、AI、高频交易),以太坊的战略重心正回归主网本身,强化其作为全球最可信结算层的定位。扩容不再是唯一目标,安全性、中立性与可预测性,重新成为以太坊的核心资产。

 核心变化:
以太坊正在进入“L1 优先范式”: 随着主网直接扩展、费用持续下降,依赖 L2 承担规模化核心角色的原始假设已不再成立。L2 不再是“品牌分片”,而是信任光谱: L2 去中心化推进远慢于预期,难以统一继承以太坊安全性,其角色正被重新定义为不同信任级别的网络光谱。以太坊的核心价值从“流量”转向“结算主权”: ETH 的价值不再限于 Gas 或 Blob 收入,而在于其作为全球最安全 EVM 结算层与原生货币资产的制度性溢价。扩展策略正在向协议内生化调整: 在 L1 持续直接扩展的基础上,协议层原生验证与安全机制的探索,可能重塑 L1–L2 的安全边界与价值捕获结构。估值框架发生结构性迁移: 安全性与机构可信度权重显著上升,手续费与平台效应权重下降,ETH 的定价正从现金流模型转向资产溢价模型。
本文将依照事实(已发生的技术与制度变化)、机制(对价值捕获与定价逻辑的影响)、推演(对配置与风险回报的含义)的分层对以太坊定价模型的范式转变与估值重构展开分析。
一、原点回归:以太坊价值观
理解以太坊的长期价值,关键不在短期价格波动,而在于其始终如一的设计理念与价值取向。
可信中立性:以太坊的核心目标并非效率或利润最大化,而是成为一套可信中立的基础设施——规则公开、可预测,不偏袒任何参与者,不受单一主体控制,任何人均可无需许可地参与。ETH 及其链上资产的安全性,最终依赖的是协议本身,而非任何机构信用。生态优先非收入优先:以太坊多次关键升级体现出一致的决策逻辑——主动放弃短期协议收入,以换取更低的使用成本、更大的生态规模与更强的系统韧性。其目标不是“收取过路费”,而是成为数字经济中不可替代的中立结算与信任底座。去中心化作为手段:主网专注于最高等级的安全性与最终性,而 Layer 2 网络位于与主网不同程度的连接光谱上:有的继承主网安全性并追求效率,有的则以差异化功能为价值定位。使系统能够同时服务全球结算与高性能应用,而非 L2 “品牌分片”。长期主义技术路线:以太坊坚持慢而确定的演进路径,优先保障系统安全与可信度。从 PoS 转型到后续扩容与确认机制优化,其路线图追求可持续、可验证、不可逆的正确性。
安全性结算层 (Security Settlement Layer): 指以太坊主网通过去中心化验证节点和共识机制,为 Layer 2 及链上资产提供不可逆转的最终性(Finality)服务。

这种安全性结算层的定位,标志了“结算主权”的建立,是以太坊从“邦联制”转向“联邦制” 的转变,是以太坊数字国家建立的 “宪法时刻”,更是以太坊架构与核心的重要升级。
美国独立战争以后,在邦联制的条款下,13个州像是一个松散联盟,各州各印各的货币、互相征收关税, 每个州都在搭便车:享受共同国防,却拒绝缴费;享受联盟的品牌,却各自为政。这个结构性的问题导致国家信用降低,并且无法统一对外贸易,严重阻碍经济。
1787年是美国的“宪法时刻”,新宪法赋予联邦政府三项关键权力:直接征税权、州际贸易管制权、统一货币权。但真正让联邦政府"活过来"的是汉密尔顿1790年的经济方案,联邦承担各州债务、按面值兑付重建国家信用、建立国家银行作为金融中枢。统一市场释放了规模效应,国家信用吸引了更多资本,基础设施建设获得了融资能力。美国从13个互相设防的小邦,走向了世界第一大经济体。
今天的以太坊生态的结构性困境完全一致。
每条L2就像一个"主权州",各自有自己的用户群、流动性池和治理代币。流动性被切割成碎片,跨L2交互摩擦大,L2享受以太坊的安全层和品牌却无法回馈L1价值。每条L2把流动性锁在自己链上是短期理性的,但所有L2都这样做就导致整个以太坊生态的最核心的竞争优势丧失。
以太坊现在推进的路线图,本质上就是它的制宪和建立中央经济系统,也就是建立“结算主权”:
原生Rollup预编译(Native Rollup Precompile)= 联邦宪法。 L2可以在EVM之外自由构建差异化功能,而EVM部分可以通过原生预编译获得以太坊级别的安全验证。不接入当然也可以,但代价是失去与以太坊生态的免信任互操作性。同步可组合性(Synchronous Composability)= 统一市场。 通过原生Rollup预编译等机制,L2之间、L2与L1之间的免信任互操作和同步可组合性正在成为可能,这直接消除了"州际贸易壁垒",流动性不再被困在各自的孤岛上。L1价值捕获重建 = 联邦征税权。 当所有关键的跨L2交互都回归L1结算时,ETH重新成为整个生态的结算中枢和信任锚点。谁控制结算层,谁就捕获价值。
以太坊正在用统一的结算和验证体系,把碎片化的L2生态变成一个不可替代的“数字国家”,这是一个历史必然。当然, 转变的过程可能缓慢,而历史告诉我们,这个转变一旦完成,释放出的网络效应将远超碎片化时代的线性增长。美国用统一的经济系统把13个小邦变成了世界第一大经济体。以太坊也将把松散的L2生态转化成最大的安全性结算层,乃至全球金融载体。
以太坊核心升级路线图与估值影响 (2025-2026)

二、估值误区:为何不应将以太坊视为“科技公司”
将传统企业估值模型(P/E、DCF、EV/EBITDA)套用于以太坊,本质上是一种类别错误。以太坊并非以利润最大化为目标的公司,而是一套开放的数字经济基础设施。企业追求股东价值最大化,而以太坊追求的是生态规模、安全性与抗审查性的最大化。为实现这一目标,以太坊多次主动压低协议收入(如通过EIP-4844 通过引入 Blob DA,结构性下移 L2 数据发布成本,并压低 L1 来自 rollup 数据的费用收入)——在公司视角下近似“收入自毁”,但在基础设施视角下,则是以牺牲短期费用换取长期的中立性溢价与网络效应。
更合理的理解框架,是将以太坊视为全球中立的结算与共识层:为数字经济提供安全性、最终性与可信协调。ETH 的价值体现在多重结构性需求之上——最终结算的刚性需求、链上金融与稳定币规模、质押与销毁机制对供给的影响,以及 ETF、企业财库与 RWA 等机构级采用所带来的长期、粘性资金。

三、范式重构:寻找现金流之外的定价锚

2025年底 Hashed团队推出的 ethval.com 为以太坊提供了详尽的可复现量化模型集合,但传统的静态模型难以捕捉 2026 年以太坊叙事的剧烈转折。因此,我们复用了其系统性、透明且可复现的底层模型(涵盖收益、货币、网络效应与供给结构),在估值架构与权重逻辑上进行了重塑:
结构重构: 将模型映射至“安全性、货币、平台、收入”四大价值象限,分类加总定价。权重再平衡: 显著上调安全性与结算溢价权重,弱化协议收入与 L2 扩张的边际贡献。风控叠加层: 引入宏观与链上风险感知的熔断机制,使估值框架具备跨周期适应性。剔除“循环论证”:对含现价输入的模型(如 Staking Scarcity、Liquidity Premium)不再作为公允价值锚,仅保留其作为仓位与风险偏好调节指标。
注:下述模型并非用于精确点位预测,而用于刻画不同价值来源在不同周期中的相对定价方向

1. 安全性结算层:核心价值锚(45%,避险期上调)
我们将安全性结算层视为以太坊最核心的价值来源,并赋予其 45% 的基准权重;在宏观不确定性上升或风险偏好回落阶段,该权重进一步上调。这一判断源于 Vitalik 对“真正扩展以太坊”的最新界定:扩容的本质不是提升 TPS,而是创造由以太坊本身完全背书的区块空间。任何依赖外部信任假设的高性能执行环境,都不构成对以太坊本体的扩展。
在此框架下,ETH 的价值主要体现为全球无主权结算层的信用溢价,而非协议收入。该溢价由验证者规模与去中心化程度、长期安全记录、机构级采用、合规路径清晰度,以及协议内生 Rollup 验证机制等结构性因素共同支撑。
在具体定价上,我们主要采用两种互补的方法:Validator Economics(收益均衡映射)与 Staking DCF(永续质押折现),共同刻画 ETH 作为“全球安全结算层”的制度性溢价。
Validator Economics(收益均衡定价):基于每枚ETH的年化质押现金流与目标真实收益率的比值,推导理论公允价格:
Fair Price = (Annual Staking Cash Flow per ETH) / Target Real Yield
该表达用于刻画收益与价格的均衡关系,作为方向性相对估值工具,而非独立定价模型。
 Staking DCF(永续质押折现):将 ETH 视为一项可持续产生真实质押收益的长期资产,对其现金流进行永续折现:
M_staking = Total Real Staking Cash Flow / (Discount Rate − Longterm Growth Rate)
ETH Price (staking) = M_staking / Circulating Supply
从本质上看,这一价值层并非对标平台型公司的收入能力,而是类似全球清算网络的结算信用。

2. 货币属性:结算与抵押(35%,效用扩张期主导)
我们将货币属性视为以太坊第二核心的价值来源,并赋予其 35% 的基准权重,在中性市场或链上经济扩张阶段成为主要效用锚。这一判断并非基于“ETH 等同于美元”的叙事,而在于其作为链上金融体系的原生结算燃料与最终抵押资产的结构性角色。稳定币流转、DeFi 清算与 RWA 结算的安全性,均依赖 ETH 所支撑的结算层。
定价上,我们采用货币数量论的扩展形式(MV = PQ),但将ETH的使用场景分层建模,以应对不同场景下流通速度的数量级差异分层货币需求模型:
高频结算层(Gas支付、稳定币转账)M_transaction = Annual Transaction Settlement Volume / V_highV_high ≈ 15-25(参考历史链上数据)中频金融层(DeFi交互、借贷清算)M_defi = Annual DeFi Settlement Volume / V_mediumV_medium ≈ 3-8(基于主流DeFi协议资金周转率)低频抵押层(质押、再质押、长期锁仓)M_collateral = Total ETH Collateral Value × (1 + Liquidity Premium)Liquidity Premium = 10-30%(反映流动性牺牲的补偿)
3. 平台 / 网络效应:增长期权(10%,牛市放大器)
平台与网络效应被视为以太坊估值中的增长期权,仅赋予 10% 权重,用于解释牛市阶段生态扩张带来的非线性溢价。我们采用经信任修正的梅特卡夫模型,避免将不同安全级别的 L2 资产等权计入估值:
梅特卡夫模型: M_network = a × (Active Users)^b  +  m × Σ (L2 TVL_i × TrustScore_i)平台/网络效应估值价格:ETH Price(network) = M_network / Circulating Supply
4. 收入资产:现金流地板(10%,熊市托底)
我们将协议收入视为以太坊估值体系中的现金流地板,而非增长引擎,同样赋予 10% 权重。该层主要在熊市或极端风险阶段发挥作用,用于刻画估值下限。
Gas 与 Blob 费用为网络提供最低运作成本,并通过 EIP-1559 影响供给结构。估值上,我们采用市销率与费用收益率模型,并取其中的保守值,仅作为底部参考。随着主网持续扩容,协议收入的重要性相对下降,其核心作用体现在下行阶段的安全边际。
市销率模型(P/S Floor):M_PS = Annual Protocol Revenue × P/S_multiple市销率估值价格:ETH Price (PS) = M_PS / Circulating Supply费用收益率模型:M_Yield = Annual Protocol Revenue / Target Fee Yield费用收益估值价格:ETH Price(Yield) = M_Yield / Circulating Supply现金流地板定价(取两者极小值):P_Revenue_Floor = min(P_PS , P_Yield)
四、动态校准:宏观约束与周期适配
如果说前文确立了以太坊的“内在价值中枢”,本章则引入一套独立于基本面的“外在环境适配系统”。估值无法真空运行,必须受制于宏观环境(资金成本)、市场结构(相对强弱)与链上情绪(拥挤度)三大外部约束。基于此,我们构建了状态适配(Regime Adaptation)机制,在不同周期动态调整估值权重——宽松期释放期权溢价,避险期退守收入地板,从而实现从静态模型到动态策略的跨越。(注:限于篇幅,本文仅展示该机制的核心逻辑框架。)

五、机构化第二曲线的条件路径
前文分析均基于加密体系内部的技术、估值与周期逻辑,而本章讨论的是一个不同层级的问题:当 ETH 不再仅由加密原生资金定价,而被逐步纳入传统金融体系,其定价权、资产属性与风险结构将如何变化。机构化第二曲线并非对既有逻辑的延伸,而是外生力量对以太坊的再定义:
资产属性的变化(Beta → Carry):现货 ETH ETF 解决的是合规与托管问题,本质仍是价格暴露;而未来Staking ETF 的推进,首次将链上收益通过合规载体引入机构体系。ETH 由此从“无息高波动资产”转向“具备可预期收益的配置型资产”,潜在买家从交易型资金扩展至对收益与久期敏感的养老金、保险及长期账户。使用方式的变化(Holding → Using):如果机构不再仅将 ETH 视为可交易标的,而是开始将其作为结算与抵押基础设施使用。无论是 JPMorgan 的代币化基金,还是合规稳定币与 RWA 在以太坊上的部署,都表明 ETH 的需求正从“持有需求”转向“运行需求”——机构不仅持有 ETH,更在其上完成结算、清算与风险管理。尾部风险的变化(Uncertainty → Pricing): 随着稳定币监管框架(如 GENIUS Act)未来逐步确立,以及以太坊路线图与治理透明度提升,机构最为敏感的监管与技术不确定性正在被系统性压缩,意味着不确定性开始被定价,而非被回避。
所谓“机构化第二曲线”是 需求性质的改变,为“安全性结算层 + 货币属性”的估值逻辑提供了真实需求来源,推动 ETH 从以情绪驱动的投机资产过渡为同时承载配置性与功能性需求的基础资产。

六、结语:至暗时刻的价值锚定
过去一周,行业经历了剧烈的去杠杆化洗礼,市场情绪降至冰点,这无疑是加密世界的“至暗时刻”。悲观情绪在从业者中蔓延,而作为最能代表加密精神的资产标的,以太坊亦处于争议的风暴眼中。
然而,作为理性的观察者,我们需要穿透恐慌的迷雾:以太坊当前所经历的,并非“价值的坍塌”,而是一次深刻的“定价锚迁移”。随着 L1 扩容直接推进、L2 被重新界定为不同信任等级的网络光谱,以及协议收入主动让位于系统安全与中立性,ETH 的定价逻辑已结构性转向“安全性结算层 + 原生货币属性”。
在宏观真实利率高位、流动性尚未宽松、链上增长期权暂未被市场允许定价的背景下,ETH 的价格自然收敛至由结算确定性、可验证收益与机构共识支撑的结构性价值区间。这一区间并非情绪底,而是在剥离平台型增长溢价后的价值中枢。
作为以太坊生态的长期建设者,我们拒绝做 ETH 的“无脑多头”。我们希望通过严谨的逻辑框架,审慎地论证我们的预判:只有当宏观流动性、风险偏好与网络效应同时满足市场状态的触发条件时,更高的估值才会被市场重新计入。
因此,对于长线投资者而言,当下的关键问题不再是焦虑地追问“以太坊还能不能涨”,而是要清醒地认识到——在当前环境下,我们正在以“地板价”买入哪一层核心价值?

免责声明:本文在创作过程中借助了 ChatGPT-5.2, Gemini 3和Claude Opus 4.5等 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。
Noya.ai: Agenci na Rynkach PrognozAutor: 0xjacobzhao | https://linktr.ee/0xjacobzhao W naszych wcześniejszych raportach badawczych z serii Crypto AI konsekwentnie podkreślaliśmy, że najbardziej praktyczne scenariusze zastosowań w obecnej dziedzinie kryptowalut są głównie skoncentrowane na płatnościach stablecoin i DeFi, podczas gdy Agenci są kluczowym interfejsem dla branży AI skierowanej do użytkowników. Dlatego w trendzie integracji Crypto i AI, dwie najcenniejsze ścieżki to: AgentFi, oparty na istniejących dojrzałych protokołach DeFi (podstawowe strategie takie jak pożyczki i wydobycie płynności, a także zaawansowane strategie jak Swap, Pendle PT i arbitraż stopy finansowania) w krótkim okresie; oraz Agent Payment, koncentrujący się na rozliczeniach stablecoin i opierający się na protokołach takich jak ACP/AP2/x402/ERC-8004 w średnim do długiego okresie.

Noya.ai: Agenci na Rynkach Prognoz

Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao
W naszych wcześniejszych raportach badawczych z serii Crypto AI konsekwentnie podkreślaliśmy, że najbardziej praktyczne scenariusze zastosowań w obecnej dziedzinie kryptowalut są głównie skoncentrowane na płatnościach stablecoin i DeFi, podczas gdy Agenci są kluczowym interfejsem dla branży AI skierowanej do użytkowników. Dlatego w trendzie integracji Crypto i AI, dwie najcenniejsze ścieżki to: AgentFi, oparty na istniejących dojrzałych protokołach DeFi (podstawowe strategie takie jak pożyczki i wydobycie płynności, a także zaawansowane strategie jak Swap, Pendle PT i arbitraż stopy finansowania) w krótkim okresie; oraz Agent Payment, koncentrujący się na rozliczeniach stablecoin i opierający się na protokołach takich jak ACP/AP2/x402/ERC-8004 w średnim do długiego okresie.
Noya.ai raport: Prognoza inteligentnych agentów rynkowychNoya.ai raport: Prognoza inteligentnych agentów rynkowych Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao W poprzednich raportach z serii Crypto AI nieustannie podkreślaliśmy, że obecnie najcenniejsze scenariusze z praktycznym zastosowaniem w obszarze kryptowalut koncentrują się głównie na płatnościach stablecoinami i DeFi, a Agent jest kluczowym interfejsem AI skierowanym do użytkowników. Dlatego w kontekście trendu łączenia Crypto i AI, dwie najcenniejsze ścieżki to: AgentFi oparty na istniejących dojrzałych protokołach DeFi (podstawowe strategie takie jak pożyczki, wydobywanie płynności itp., oraz zaawansowane strategie takie jak Swap, Pendle PT, arbitraż stawki finansowania) oraz Agent Payment w średnim i długim okresie, oparty na rozliczeniach stablecoin oraz protokołach takich jak ACP/AP2/x402/ERC-8004.

Noya.ai raport: Prognoza inteligentnych agentów rynkowych

Noya.ai raport: Prognoza inteligentnych agentów rynkowych
Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao

W poprzednich raportach z serii Crypto AI nieustannie podkreślaliśmy, że obecnie najcenniejsze scenariusze z praktycznym zastosowaniem w obszarze kryptowalut koncentrują się głównie na płatnościach stablecoinami i DeFi, a Agent jest kluczowym interfejsem AI skierowanym do użytkowników. Dlatego w kontekście trendu łączenia Crypto i AI, dwie najcenniejsze ścieżki to: AgentFi oparty na istniejących dojrzałych protokołach DeFi (podstawowe strategie takie jak pożyczki, wydobywanie płynności itp., oraz zaawansowane strategie takie jak Swap, Pendle PT, arbitraż stawki finansowania) oraz Agent Payment w średnim i długim okresie, oparty na rozliczeniach stablecoin oraz protokołach takich jak ACP/AP2/x402/ERC-8004.
Uczenie przez wzmocnienie: Paradigm Shift zdecentralizowanej AIAutor: 0xjacobzhao | https://linktr.ee/0xjacobzhao Ten niezależny raport badawczy jest wspierany przez IOSG Ventures. Proces badawczy i pisania został zainspirowany pracą Sama Lehmana (Pantera Capital) nad uczeniem przez wzmocnienie. Dziękujemy Benowi Fieldingowi (Gensyn.ai), Gao Yuan (Gradient), Samuelowi Dare i Erfanowi Miahi (Covenant AI), Shashankowi Yadavowi (Fraction AI), Chao Wang za ich cenne sugestie dotyczące tego artykułu. Artykuł ten dąży do obiektywizmu i dokładności, ale niektóre punkty widzenia wiążą się z subiektywną oceną i mogą zawierać uprzedzenia. Doceniamy zrozumienie czytelników.

Uczenie przez wzmocnienie: Paradigm Shift zdecentralizowanej AI

Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao
Ten niezależny raport badawczy jest wspierany przez IOSG Ventures. Proces badawczy i pisania został zainspirowany pracą Sama Lehmana (Pantera Capital) nad uczeniem przez wzmocnienie. Dziękujemy Benowi Fieldingowi (Gensyn.ai), Gao Yuan (Gradient), Samuelowi Dare i Erfanowi Miahi (Covenant AI), Shashankowi Yadavowi (Fraction AI), Chao Wang za ich cenne sugestie dotyczące tego artykułu. Artykuł ten dąży do obiektywizmu i dokładności, ale niektóre punkty widzenia wiążą się z subiektywną oceną i mogą zawierać uprzedzenia. Doceniamy zrozumienie czytelników.
Uczenie wzmacniające: zmiany paradygmatu zdecentralizowanej sieci AIAutor: 0xjacobzhao | https://linktr.ee/0xjacobzhao Niniejszy niezależny raport badawczy jest wspierany przez IOSG Ventures, a proces badawczy i pisania był inspirowany raportem o uczeniu wzmacniającym autorstwa Sama Lehmana (Pantera Capital), dziękujemy Benowi Fieldingowi (Gensyn.ai), Gao Yuan (Gradient), Samuelowi Dare i Erfanowi Miahi (Covenant AI), Shashankowi Yadav (Fraction AI), Chao Wangowi za cenne sugestie dotyczące tego dokumentu. Dokument ten dąży do obiektywnej i dokładnej treści, część poglądów wiąże się z subiektywnymi ocenami, co nieuchronnie może prowadzić do odchyleń, prosimy czytelników o zrozumienie. Sztuczna inteligencja przechodzi od statystycznego uczenia, opartego głównie na "dopasowywaniu wzorców", do systemu umiejętności skoncentrowanego na "strukturalnym wnioskowaniu", a znaczenie post-treningu szybko rośnie. Pojawienie się DeepSeek-R1 oznacza paradigmowy zwrot w uczeniu wzmacniającym w erze dużych modeli, powstaje konsensus branżowy: wstępne uczenie buduje uniwersalną podstawę modeli, a uczenie wzmacniające nie jest już tylko narzędziem do dostosowywania wartości, ale udowodniono, że może systematycznie poprawić jakość łańcucha wnioskowania i zdolność do podejmowania złożonych decyzji, stopniowo ewoluując w technologiczną ścieżkę ciągłego podnoszenia poziomu inteligencji.

Uczenie wzmacniające: zmiany paradygmatu zdecentralizowanej sieci AI

Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao

Niniejszy niezależny raport badawczy jest wspierany przez IOSG Ventures, a proces badawczy i pisania był inspirowany raportem o uczeniu wzmacniającym autorstwa Sama Lehmana (Pantera Capital), dziękujemy Benowi Fieldingowi (Gensyn.ai), Gao Yuan (Gradient), Samuelowi Dare i Erfanowi Miahi (Covenant AI), Shashankowi Yadav (Fraction AI), Chao Wangowi za cenne sugestie dotyczące tego dokumentu. Dokument ten dąży do obiektywnej i dokładnej treści, część poglądów wiąże się z subiektywnymi ocenami, co nieuchronnie może prowadzić do odchyleń, prosimy czytelników o zrozumienie.
Sztuczna inteligencja przechodzi od statystycznego uczenia, opartego głównie na "dopasowywaniu wzorców", do systemu umiejętności skoncentrowanego na "strukturalnym wnioskowaniu", a znaczenie post-treningu szybko rośnie. Pojawienie się DeepSeek-R1 oznacza paradigmowy zwrot w uczeniu wzmacniającym w erze dużych modeli, powstaje konsensus branżowy: wstępne uczenie buduje uniwersalną podstawę modeli, a uczenie wzmacniające nie jest już tylko narzędziem do dostosowywania wartości, ale udowodniono, że może systematycznie poprawić jakość łańcucha wnioskowania i zdolność do podejmowania złożonych decyzji, stopniowo ewoluując w technologiczną ścieżkę ciągłego podnoszenia poziomu inteligencji.
Ekonomia Maszynowa: Pełna Ścieżka do Handlu AgentowegoAutor: 0xjacobzhao | https://linktr.ee/0xjacobzhao Ten niezależny raport badawczy jest wspierany przez IOSG Ventures. Proces badawczy i pisarski był inspirowany pracami Raghava Agarwala (LongHash) i Jaya Yu (Pantera). Dziękujemy Lexowi Sokolinowi @ Generative Ventures, Jordanowi @AIsa, Ivy @PodOur2Cents za ich cenne sugestie dotyczące tego artykułu. Opinie były również zbierane od zespołów projektowych, takich jak Nevermined, Skyfire, Virtuals Protocol, AIsa, Heurist, AEON podczas procesu pisania. Ten artykuł dąży do obiektywnej i dokładnej treści, ale niektóre punkty widzenia zawierają subiektywne osądy i mogą nieuchronnie zawierać odchylenia. Zrozumienie czytelników jest doceniane.

Ekonomia Maszynowa: Pełna Ścieżka do Handlu Agentowego

Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao

Ten niezależny raport badawczy jest wspierany przez IOSG Ventures. Proces badawczy i pisarski był inspirowany pracami Raghava Agarwala (LongHash) i Jaya Yu (Pantera). Dziękujemy Lexowi Sokolinowi @ Generative Ventures, Jordanowi @AIsa, Ivy @PodOur2Cents za ich cenne sugestie dotyczące tego artykułu. Opinie były również zbierane od zespołów projektowych, takich jak Nevermined, Skyfire, Virtuals Protocol, AIsa, Heurist, AEON podczas procesu pisania. Ten artykuł dąży do obiektywnej i dokładnej treści, ale niektóre punkty widzenia zawierają subiektywne osądy i mogą nieuchronnie zawierać odchylenia. Zrozumienie czytelników jest doceniane.
Ekonomia maszyn: pełna ścieżka biznesu agentówAutor: 0xjacobzhao | https://linktr.ee/0xjacobzhao Ten niezależny raport badawczy jest wspierany przez IOSG Ventures, a proces pisania badania był inspirowany raportami Raghava Agarwala@LongHash i Jaya Yu@Pantera. Dziękujemy Lexowi Sokolinowi @ Generative Ventures, Jordanowi@AIsa, Ivy@(支无不言) blogowi za cenne sugestie dotyczące tego dokumentu. W trakcie pisania zasięgnięto również opinii zespołów projektowych takich jak Nevermined, Skyfire, Virtuals Protocol, AIsa, Heurist, AEON. Dokument stara się być obiektywny i dokładny; niektóre punkty zawierają subiektywne osądy, co nieuchronnie może prowadzić do odchyleń, prosimy czytelników o zrozumienie.

Ekonomia maszyn: pełna ścieżka biznesu agentów

Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao

Ten niezależny raport badawczy jest wspierany przez IOSG Ventures, a proces pisania badania był inspirowany raportami Raghava Agarwala@LongHash i Jaya Yu@Pantera. Dziękujemy Lexowi Sokolinowi @ Generative Ventures, Jordanowi@AIsa, Ivy@(支无不言) blogowi za cenne sugestie dotyczące tego dokumentu. W trakcie pisania zasięgnięto również opinii zespołów projektowych takich jak Nevermined, Skyfire, Virtuals Protocol, AIsa, Heurist, AEON. Dokument stara się być obiektywny i dokładny; niektóre punkty zawierają subiektywne osądy, co nieuchronnie może prowadzić do odchyleń, prosimy czytelników o zrozumienie.
Konwergentna ewolucja automatyzacji, AI i Web3 w przemyśle robotycznymAutor: 0xjacobzhao | https://linktr.ee/0xjacobzhao Ten niezależny raport badawczy jest wspierany przez IOSG Ventures. Autor dziękuje Hansowi (RoboCup Azja-Pacyfik), Nichanan Kesonpat (1kx), Robertowi Koschigowi (1kx), Amandzie Young (Collab+Currency), Jonathanowi Victorowi (Ansa Research), Lexowi Sokolinowi (Generative Ventures), Jayowi Yu (Pantera Capital), Jeffrey'owi Hu (Hashkey Capital) za ich cenne uwagi, a także współpracownikom z OpenMind, BitRobot, peaq, Auki Labs, XMAQUINA, GAIB, Vader, Gradient, Tashi Network i CodecFlow za ich konstruktywną opinię. Mimo że podjęto wszelkie starania, aby zapewnić obiektywność i dokładność, niektóre spostrzeżenia nieuchronnie odzwierciedlają subiektywną interpretację, a czytelników zachęca się do krytycznego zaangażowania się w treść.

Konwergentna ewolucja automatyzacji, AI i Web3 w przemyśle robotycznym

Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao
Ten niezależny raport badawczy jest wspierany przez IOSG Ventures. Autor dziękuje Hansowi (RoboCup Azja-Pacyfik), Nichanan Kesonpat (1kx), Robertowi Koschigowi (1kx), Amandzie Young (Collab+Currency), Jonathanowi Victorowi (Ansa Research), Lexowi Sokolinowi (Generative Ventures), Jayowi Yu (Pantera Capital), Jeffrey'owi Hu (Hashkey Capital) za ich cenne uwagi, a także współpracownikom z OpenMind, BitRobot, peaq, Auki Labs, XMAQUINA, GAIB, Vader, Gradient, Tashi Network i CodecFlow za ich konstruktywną opinię. Mimo że podjęto wszelkie starania, aby zapewnić obiektywność i dokładność, niektóre spostrzeżenia nieuchronnie odzwierciedlają subiektywną interpretację, a czytelników zachęca się do krytycznego zaangażowania się w treść.
Wyobrażenia o przemyśle robotycznym: ewolucja integracji automatyzacji, sztucznej inteligencji i Web3作者:0xjacobzhao | https://linktr.ee/0xjacobzhao Ten niezależny raport badawczy został wsparty przez IOSG Ventures, dziękujemy Hansowi (RoboCup Asia-Pacific), Nichanan Kesonpat (1kx), Robertowi Koschigowi (1kx), Amandzie Young (Collab+Currency), Jonathanowi Victorowi (Ansa Research), Lexowi Sokolinowi (Generative Ventures), Jayowi Yu (Pantera Capital), Jeffrey'emu Hu (Hashkey Capital) za cenne sugestie dotyczące tego dokumentu. W trakcie pisania konsultowano się również z projektami OpenMind, BitRobot, peaq, Auki Labs, XMAQUINA, GAIB, Vader, Gradient, Tashi Network i CodecFlow. Dokument stara się być obiektywny i dokładny, ale niektóre opinie mogą zawierać subiektywne osądy, co może prowadzić do pewnych odchyleń, prosimy czytelników o zrozumienie.

Wyobrażenia o przemyśle robotycznym: ewolucja integracji automatyzacji, sztucznej inteligencji i Web3

作者:0xjacobzhao | https://linktr.ee/0xjacobzhao

Ten niezależny raport badawczy został wsparty przez IOSG Ventures, dziękujemy Hansowi (RoboCup Asia-Pacific), Nichanan Kesonpat (1kx), Robertowi Koschigowi (1kx), Amandzie Young (Collab+Currency), Jonathanowi Victorowi (Ansa Research), Lexowi Sokolinowi (Generative Ventures), Jayowi Yu (Pantera Capital), Jeffrey'emu Hu (Hashkey Capital) za cenne sugestie dotyczące tego dokumentu. W trakcie pisania konsultowano się również z projektami OpenMind, BitRobot, peaq, Auki Labs, XMAQUINA, GAIB, Vader, Gradient, Tashi Network i CodecFlow. Dokument stara się być obiektywny i dokładny, ale niektóre opinie mogą zawierać subiektywne osądy, co może prowadzić do pewnych odchyleń, prosimy czytelników o zrozumienie.
Raport Badawczy Brevis: Nieskończona Weryfikowalna Warstwa Obliczeniowa zkVM i ZK Coprocessor DanychParadygmat Weryfikowalnego Obliczenia—„obliczenia off-chain + weryfikacja on-chain”—stał się uniwersalnym modelem obliczeniowym dla systemów blockchain. Umożliwia aplikacjom blockchain osiągnięcie niemal nieograniczonej swobody obliczeniowej, zachowując jednocześnie decentralizację i brak zaufania jako podstawowe gwarancje bezpieczeństwa. Dowody zerowej wiedzy (ZKP) stanowią kręgosłup tego paradygmatu, z aplikacjami głównie w trzech podstawowych kierunkach: skalowalności, prywatności i interoperacyjności oraz integralności danych. Skalowalność była pierwszą aplikacją ZK, która osiągnęła produkcję, przenosząc wykonanie off-chain i weryfikując zwięzłe dowody on-chain dla wysokiej przepustowości i niskokosztowego skalowania bez zaufania.

Raport Badawczy Brevis: Nieskończona Weryfikowalna Warstwa Obliczeniowa zkVM i ZK Coprocessor Danych

Paradygmat Weryfikowalnego Obliczenia—„obliczenia off-chain + weryfikacja on-chain”—stał się uniwersalnym modelem obliczeniowym dla systemów blockchain. Umożliwia aplikacjom blockchain osiągnięcie niemal nieograniczonej swobody obliczeniowej, zachowując jednocześnie decentralizację i brak zaufania jako podstawowe gwarancje bezpieczeństwa. Dowody zerowej wiedzy (ZKP) stanowią kręgosłup tego paradygmatu, z aplikacjami głównie w trzech podstawowych kierunkach: skalowalności, prywatności i interoperacyjności oraz integralności danych. Skalowalność była pierwszą aplikacją ZK, która osiągnęła produkcję, przenosząc wykonanie off-chain i weryfikując zwięzłe dowody on-chain dla wysokiej przepustowości i niskokosztowego skalowania bez zaufania.
Brevis研报:ZKVM与数据协处理器的无限可信计算层“链下计算 + 链上验证”的可信计算(Verifiable Computing)范式,已成为区块链系统的通用计算模型。它让区块链应用在保持去中心化与信任最小化(trustlessness)安全性的前提下,获得几乎无限的计算自由度(computational freedom)。零知识证明(ZKP)是该范式的核心支柱,其应用主要集中在扩容(Scalability)、隐私(Privacy)以及互操作与数据完整性(Interoperability & Data Integrity)三大基础方向。其中,扩容是 ZK 技术最早落地的场景,通过将交易执行移至链下、以简短证明在链上验证结果,实现高 TPS 与低成本的可信扩容。

Brevis研报:ZKVM与数据协处理器的无限可信计算层

“链下计算 + 链上验证”的可信计算(Verifiable Computing)范式,已成为区块链系统的通用计算模型。它让区块链应用在保持去中心化与信任最小化(trustlessness)安全性的前提下,获得几乎无限的计算自由度(computational freedom)。零知识证明(ZKP)是该范式的核心支柱,其应用主要集中在扩容(Scalability)、隐私(Privacy)以及互操作与数据完整性(Interoperability & Data Integrity)三大基础方向。其中,扩容是 ZK 技术最早落地的场景,通过将交易执行移至链下、以简短证明在链上验证结果,实现高 TPS 与低成本的可信扩容。
Raport badawczy Cysic: Ścieżka ComputeFi przyspieszenia sprzętowego ZKAutor:0xjacobzhao | https://linktr.ee/0xjacobzhao Zero-Knowledge Proofs (ZK) — jako infrastruktura kryptograficzna i skalowalności następnej generacji — wykazują ogromny potencjał w zakresie skalowania blockchaina, obliczeń prywatności, zkML i weryfikacji międzyłańcuchowej. Proces generowania dowodów jest jednak niezwykle intensywny obliczeniowo i obciążony opóźnieniami, co stanowi największe wąskie gardło w przemysłowej adopcji. Przyspieszenie sprzętowe ZK stało się zatem kluczowym czynnikiem umożliwiającym. W tym krajobrazie, GPU wyróżniają się wszechstronnością i szybkością iteracji, ASIC dążą do maksymalnej efektywności i wydajności w skali, podczas gdy FPGA służą jako elastyczny środek łączący programowalność z efektywnością energetyczną. Razem tworzą podstawę sprzętową wspierającą realną adopcję ZK.

Raport badawczy Cysic: Ścieżka ComputeFi przyspieszenia sprzętowego ZK

Autor:0xjacobzhao | https://linktr.ee/0xjacobzhao
Zero-Knowledge Proofs (ZK) — jako infrastruktura kryptograficzna i skalowalności następnej generacji — wykazują ogromny potencjał w zakresie skalowania blockchaina, obliczeń prywatności, zkML i weryfikacji międzyłańcuchowej. Proces generowania dowodów jest jednak niezwykle intensywny obliczeniowo i obciążony opóźnieniami, co stanowi największe wąskie gardło w przemysłowej adopcji. Przyspieszenie sprzętowe ZK stało się zatem kluczowym czynnikiem umożliwiającym. W tym krajobrazie, GPU wyróżniają się wszechstronnością i szybkością iteracji, ASIC dążą do maksymalnej efektywności i wydajności w skali, podczas gdy FPGA służą jako elastyczny środek łączący programowalność z efektywnością energetyczną. Razem tworzą podstawę sprzętową wspierającą realną adopcję ZK.
Raport Cysic: Droga ComputeFi przyspieszenia sprzętowego ZKAutor: 0xjacobzhao | https://linktr.ee/0xjacobzhao Zero-knowledge proof (ZK) jako nowa generacja infrastruktury kryptograficznej i skalowania, już pokazała ogromny potencjał w zastosowaniach takich jak skalowanie blockchain, obliczenia prywatności oraz nowe obszary zastosowań takie jak zkML i weryfikacja międzyłańcuchowa. Jednak proces generowania dowodów wiąże się z ogromnym obciążeniem obliczeniowym i wysokimi opóźnieniami, co staje się największym wąskim gardłem w komercjalizacji. Przyspieszenie sprzętowe ZK stało się kluczowym elementem w tym kontekście, na drodze do przyspieszenia sprzętowego ZK, GPU wyróżnia się uniwersalnością i szybkością iteracji, ASIC dąży do maksymalnej efektywności energetycznej i wydajności na dużą skalę, podczas gdy FPGA, jako forma pośrednia, łączy w sobie elastyczność programowalności i wysoką efektywność energetyczną, a te trzy elementy wspólnie tworzą podstawy sprzętowe dla realizacji zero-knowledge proof.

Raport Cysic: Droga ComputeFi przyspieszenia sprzętowego ZK

Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao
Zero-knowledge proof (ZK) jako nowa generacja infrastruktury kryptograficznej i skalowania, już pokazała ogromny potencjał w zastosowaniach takich jak skalowanie blockchain, obliczenia prywatności oraz nowe obszary zastosowań takie jak zkML i weryfikacja międzyłańcuchowa. Jednak proces generowania dowodów wiąże się z ogromnym obciążeniem obliczeniowym i wysokimi opóźnieniami, co staje się największym wąskim gardłem w komercjalizacji. Przyspieszenie sprzętowe ZK stało się kluczowym elementem w tym kontekście, na drodze do przyspieszenia sprzętowego ZK, GPU wyróżnia się uniwersalnością i szybkością iteracji, ASIC dąży do maksymalnej efektywności energetycznej i wydajności na dużą skalę, podczas gdy FPGA, jako forma pośrednia, łączy w sobie elastyczność programowalności i wysoką efektywność energetyczną, a te trzy elementy wspólnie tworzą podstawy sprzętowe dla realizacji zero-knowledge proof.
Raport Badawczy GAIB: Finansjalizacja On-Chain Infrastruktury AI — RWAiFiNapisane przez 0xjacobzhao | https://linktr.ee/0xjacobzhao W miarę jak AI staje się najszybciej rozwijającą się falą technologiczną, moc obliczeniowa postrzegana jest jako nowa "waluta", a GPU przekształcają się w strategiczne aktywa. Jednak finansowanie i płynność pozostają ograniczone, podczas gdy finansowanie kryptowalut wymaga aktywów wspieranych rzeczywistym przepływem gotówki. Tokenizacja RWA staje się mostem. Infrastruktura AI, łącząca sprzęt o wysokiej wartości + przewidywalne przepływy gotówki, jest postrzegana jako najlepszy punkt wyjścia dla niestandardowych RWA – GPU oferują praktyczność w krótkim okresie, podczas gdy robotyka reprezentuje dłuższą granicę. RWAiFi GAIB (RWA + AI + DeFi) wprowadza nową ścieżkę do finansjalizacji on-chain, napędzając koło zamachowe infrastruktury AI (GPU i robotyka) × RWA × DeFi.

Raport Badawczy GAIB: Finansjalizacja On-Chain Infrastruktury AI — RWAiFi

Napisane przez 0xjacobzhao | https://linktr.ee/0xjacobzhao
W miarę jak AI staje się najszybciej rozwijającą się falą technologiczną, moc obliczeniowa postrzegana jest jako nowa "waluta", a GPU przekształcają się w strategiczne aktywa. Jednak finansowanie i płynność pozostają ograniczone, podczas gdy finansowanie kryptowalut wymaga aktywów wspieranych rzeczywistym przepływem gotówki. Tokenizacja RWA staje się mostem. Infrastruktura AI, łącząca sprzęt o wysokiej wartości + przewidywalne przepływy gotówki, jest postrzegana jako najlepszy punkt wyjścia dla niestandardowych RWA – GPU oferują praktyczność w krótkim okresie, podczas gdy robotyka reprezentuje dłuższą granicę. RWAiFi GAIB (RWA + AI + DeFi) wprowadza nową ścieżkę do finansjalizacji on-chain, napędzając koło zamachowe infrastruktury AI (GPU i robotyka) × RWA × DeFi.
Raport GAIB: Droga do finansowania infrastruktury AI na blockchainie - RWAiFiAutor: 0xjacobzhao | https://linktr.ee/0xjacobzhao Wraz z tym, jak AI staje się najszybciej rozwijającą się technologią na świecie, moc obliczeniowa jest postrzegana jako nowa „waluta”, a sprzęt o wysokiej wydajności, taki jak GPU, stopniowo ewoluuje w strategiczne aktywa. Jednak przez długi czas finansowanie i płynność tych aktywów były ograniczone. W tym samym czasie, kryptofinanse pilnie potrzebują dostępu do wysokiej jakości aktywów z rzeczywistym przepływem gotówki, a przekształcanie RWA (aktywa ze świata rzeczywistego) na blockchain staje się kluczowym mostem łączącym tradycyjne finanse z rynkiem kryptowalut. Aktywa infrastruktury AI, dzięki cechom „sprzętu o wysokiej wartości + przewidywalnego przepływu gotówki”, są powszechnie postrzegane jako najlepszy punkt wyjścia dla niestandardowych aktywów RWA, gdzie GPU ma najbardziej realistyczny potencjał wdrożenia, a roboty reprezentują długoterminowy kierunek eksploracji. W tym kontekście, zaproponowana przez GAIB ścieżka RWAiFi (RWA + AI + DeFi) dostarcza nowego rozwiązania dla „finansowania infrastruktury AI na blockchainie”, wspierając efekt kołowego działania „infrastruktura AI (moc obliczeniowa i roboty) x RWA x DeFi”.

Raport GAIB: Droga do finansowania infrastruktury AI na blockchainie - RWAiFi

Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao
Wraz z tym, jak AI staje się najszybciej rozwijającą się technologią na świecie, moc obliczeniowa jest postrzegana jako nowa „waluta”, a sprzęt o wysokiej wydajności, taki jak GPU, stopniowo ewoluuje w strategiczne aktywa. Jednak przez długi czas finansowanie i płynność tych aktywów były ograniczone. W tym samym czasie, kryptofinanse pilnie potrzebują dostępu do wysokiej jakości aktywów z rzeczywistym przepływem gotówki, a przekształcanie RWA (aktywa ze świata rzeczywistego) na blockchain staje się kluczowym mostem łączącym tradycyjne finanse z rynkiem kryptowalut. Aktywa infrastruktury AI, dzięki cechom „sprzętu o wysokiej wartości + przewidywalnego przepływu gotówki”, są powszechnie postrzegane jako najlepszy punkt wyjścia dla niestandardowych aktywów RWA, gdzie GPU ma najbardziej realistyczny potencjał wdrożenia, a roboty reprezentują długoterminowy kierunek eksploracji. W tym kontekście, zaproponowana przez GAIB ścieżka RWAiFi (RWA + AI + DeFi) dostarcza nowego rozwiązania dla „finansowania infrastruktury AI na blockchainie”, wspierając efekt kołowego działania „infrastruktura AI (moc obliczeniowa i roboty) x RWA x DeFi”.
Od Uczenia Federacyjnego do Zdecentralizowanych Sieci Agentów: Analiza ChainOperaNapisane przez 0xjacobzhao | https://linktr.ee/0xjacobzhao W naszym czerwcowym raporcie „Święty Graal Crypto AI: Wstępne Badania Zdecentralizowanego Szkolenia” omówiliśmy Uczenie Federacyjne—paradygmat „kontrolowanej decentralizacji” umiejscowiony pomiędzy szkoleniem rozproszonym a w pełni zdecentralizowanym. Jego podstawowa zasada to utrzymywanie danych lokalnie, podczas gdy parametry są agregowane centralnie, co jest szczególnie odpowiednie dla branż wrażliwych na prywatność i obciążonych regulacjami, takich jak opieka zdrowotna i finanse.

Od Uczenia Federacyjnego do Zdecentralizowanych Sieci Agentów: Analiza ChainOpera

Napisane przez 0xjacobzhao | https://linktr.ee/0xjacobzhao
W naszym czerwcowym raporcie „Święty Graal Crypto AI: Wstępne Badania Zdecentralizowanego Szkolenia” omówiliśmy Uczenie Federacyjne—paradygmat „kontrolowanej decentralizacji” umiejscowiony pomiędzy szkoleniem rozproszonym a w pełni zdecentralizowanym. Jego podstawowa zasada to utrzymywanie danych lokalnie, podczas gdy parametry są agregowane centralnie, co jest szczególnie odpowiednie dla branż wrażliwych na prywatność i obciążonych regulacjami, takich jak opieka zdrowotna i finanse.
Od uczenia federacyjnego do zdecentralizowanej sieci agentów: analiza projektu ChainOperaW czerwcowym raporcie (Święty Graal Crypto AI: Na pograniczu zdecentralizowanego treningu) wspomnieliśmy o uczeniu federacyjnym (Federated Learning), będącym 'kontrolowaną decentralizacją' pomiędzy treningiem rozproszonym a zdecentralizowanym: jego rdzeniem jest lokalne przechowywanie danych oraz centralna agregacja parametrów, spełniająca wymagania dotyczące prywatności i zgodności w takich dziedzinach jak medycyna czy finanse. Jednocześnie w naszych wcześniejszych raportach regularnie zwracaliśmy uwagę na wzrost sieci agentów (Agent) - ich wartość polega na autonomii i podziale pracy pomiędzy wieloma agentami, co pozwala na wspólne realizowanie złożonych zadań, przyspieszając ewolucję 'dużych modeli' w kierunku 'ekosystemu wielu agentów'.

Od uczenia federacyjnego do zdecentralizowanej sieci agentów: analiza projektu ChainOpera

W czerwcowym raporcie (Święty Graal Crypto AI: Na pograniczu zdecentralizowanego treningu) wspomnieliśmy o uczeniu federacyjnym (Federated Learning), będącym 'kontrolowaną decentralizacją' pomiędzy treningiem rozproszonym a zdecentralizowanym: jego rdzeniem jest lokalne przechowywanie danych oraz centralna agregacja parametrów, spełniająca wymagania dotyczące prywatności i zgodności w takich dziedzinach jak medycyna czy finanse. Jednocześnie w naszych wcześniejszych raportach regularnie zwracaliśmy uwagę na wzrost sieci agentów (Agent) - ich wartość polega na autonomii i podziale pracy pomiędzy wieloma agentami, co pozwala na wspólne realizowanie złożonych zadań, przyspieszając ewolucję 'dużych modeli' w kierunku 'ekosystemu wielu agentów'.
Raport badawczy OpenLedge: Możliwości monetyzacji danych i modeli w łańcuchu AII. Wprowadzenie | Skok modelu Crypto AI Dane, modele i moc obliczeniowa są trzema kluczowymi elementami infrastruktury AI, porównywalnymi z paliwem (dane), silnikiem (model) i energią (moc obliczeniowa), które są niezbędne. Podobnie jak w przypadku tradycyjnej ścieżki ewolucji infrastruktury branży AI, obszar Crypto AI przeszedł przez podobne etapy. Na początku 2024 roku rynek był w dużej mierze zdominowany przez zdecentralizowane projekty GPU (takie jak Akash, Render, io.net itp.), które powszechnie podkreślały logikę wzrostu opartą na „mocy obliczeniowej”. Po wejściu w 2025 rok, uwaga branży zaczęła stopniowo przesuwać się w kierunku modelu i warstwy danych, co oznacza, że Crypto AI przechodzi z konkurencji o zasoby podstawowe do bardziej zrównoważonej budowy o wartości aplikacyjnej na średnim poziomie.

Raport badawczy OpenLedge: Możliwości monetyzacji danych i modeli w łańcuchu AI

I. Wprowadzenie | Skok modelu Crypto AI
Dane, modele i moc obliczeniowa są trzema kluczowymi elementami infrastruktury AI, porównywalnymi z paliwem (dane), silnikiem (model) i energią (moc obliczeniowa), które są niezbędne. Podobnie jak w przypadku tradycyjnej ścieżki ewolucji infrastruktury branży AI, obszar Crypto AI przeszedł przez podobne etapy. Na początku 2024 roku rynek był w dużej mierze zdominowany przez zdecentralizowane projekty GPU (takie jak Akash, Render, io.net itp.), które powszechnie podkreślały logikę wzrostu opartą na „mocy obliczeniowej”. Po wejściu w 2025 rok, uwaga branży zaczęła stopniowo przesuwać się w kierunku modelu i warstwy danych, co oznacza, że Crypto AI przechodzi z konkurencji o zasoby podstawowe do bardziej zrównoważonej budowy o wartości aplikacyjnej na średnim poziomie.
Raport Badawczy OpenLedger: Łańcuch AI dla Monetyzowalnych Danych i Modeli1. Wprowadzenie | Zmiana w Modelu-Warstwie w Crypto AI Dane, modele i obliczenia stanowią trzy podstawowe filary infrastruktury AI — porównywalne do paliwa (dane), silnika (model) i energii (obliczenia) — wszystkie niezbędne. Podobnie jak rozwój infrastruktury w tradycyjnej branży AI, sektor Crypto AI przeszedł podobną trajektorię. Na początku 2024 roku rynek był zdominowany przez zdecentralizowane projekty GPU (takie jak Akash, Render i io.net), charakteryzujące się modelem wzrostu opartym na zasobach, skoncentrowanym na surowej mocy obliczeniowej. Jednak do 2025 roku uwaga branży stopniowo przesunęła się w stronę warstw modelu i danych, co oznaczało przejście od konkurencji w zakresie infrastruktury niskiego poziomu do bardziej zrównoważonego, aplikacyjnego rozwoju warstwy środkowej.

Raport Badawczy OpenLedger: Łańcuch AI dla Monetyzowalnych Danych i Modeli

1. Wprowadzenie | Zmiana w Modelu-Warstwie w Crypto AI
Dane, modele i obliczenia stanowią trzy podstawowe filary infrastruktury AI — porównywalne do paliwa (dane), silnika (model) i energii (obliczenia) — wszystkie niezbędne. Podobnie jak rozwój infrastruktury w tradycyjnej branży AI, sektor Crypto AI przeszedł podobną trajektorię. Na początku 2024 roku rynek był zdominowany przez zdecentralizowane projekty GPU (takie jak Akash, Render i io.net), charakteryzujące się modelem wzrostu opartym na zasobach, skoncentrowanym na surowej mocy obliczeniowej. Jednak do 2025 roku uwaga branży stopniowo przesunęła się w stronę warstw modelu i danych, co oznaczało przejście od konkurencji w zakresie infrastruktury niskiego poziomu do bardziej zrównoważonego, aplikacyjnego rozwoju warstwy środkowej.
Strategie Zysku Pendle Odkryte: Paradigm AgentFi PulseAutor: 0xjacobzhao | https://linktr.ee/0xjacobzhao Niewątpliwie, Pendle jest jednym z najbardziej udanych protokołów DeFi w obecnym cyklu kryptowalutowym. Podczas gdy wiele protokołów utknęło z powodu suszy płynności i słabnących narracji, Pendle wyróżnił się dzięki swojemu unikalnemu mechanizmowi dzielenia zysków i handlu, stając się "miejscem odkrywania cen" dla aktywów generujących zyski. Dzięki głębokiej integracji z stablecoinami, LSTs/LRTs i innymi aktywami generującymi zyski, zabezpieczył swoją pozycję jako podstawowa "infrastruktura stopy zwrotu DeFi."

Strategie Zysku Pendle Odkryte: Paradigm AgentFi Pulse

Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao
Niewątpliwie, Pendle jest jednym z najbardziej udanych protokołów DeFi w obecnym cyklu kryptowalutowym. Podczas gdy wiele protokołów utknęło z powodu suszy płynności i słabnących narracji, Pendle wyróżnił się dzięki swojemu unikalnemu mechanizmowi dzielenia zysków i handlu, stając się "miejscem odkrywania cen" dla aktywów generujących zyski. Dzięki głębokiej integracji z stablecoinami, LSTs/LRTs i innymi aktywami generującymi zyski, zabezpieczył swoją pozycję jako podstawowa "infrastruktura stopy zwrotu DeFi."
Zaloguj się, aby odkryć więcej treści
Poznaj najnowsze wiadomości dotyczące krypto
⚡️ Weź udział w najnowszych dyskusjach na temat krypto
💬 Współpracuj ze swoimi ulubionymi twórcami
👍 Korzystaj z treści, które Cię interesują
E-mail / Numer telefonu
Mapa strony
Preferencje dotyczące plików cookie
Regulamin platformy