Binance Square

0xjacobzhao

Crypto x AI | ex-Crypto VC | ENTJ/INTJ
Operazione aperta
Commerciante occasionale
6.7 mesi
1 Seguiti
20 Follower
15 Mi piace
8 Condivisioni
Post
Portafoglio
·
--
Visualizza traduzione
以太坊再定价:从 Rollup-Centric 到“安全性结算层”作者:Jacob Zhao, Jiawei, Turbo @ IOSG Ventures 2026 年 2 月 3 日,Vitalik 在 X 上发表了关于以太坊扩容路线的重要反思。随着 Layer 2 向完全去中心化形态演进的现实难度被重新认识,同时主网自身吞吐能力在未来数年内预计大幅提升,单纯依赖 L2 进行吞吐量扩容的原始设想正在修正,L1 与 L2 正在形成新的‘结算-服务’协同范式: L1 专注于提供最高等级的安全性、抗审查性与结算主权,而 L2 则向‘差异化服务商’演进(如隐私、AI、高频交易),以太坊的战略重心正回归主网本身,强化其作为全球最可信结算层的定位。扩容不再是唯一目标,安全性、中立性与可预测性,重新成为以太坊的核心资产。  核心变化: 以太坊正在进入“L1 优先范式”: 随着主网直接扩展、费用持续下降,依赖 L2 承担规模化核心角色的原始假设已不再成立。L2 不再是“品牌分片”,而是信任光谱: L2 去中心化推进远慢于预期,难以统一继承以太坊安全性,其角色正被重新定义为不同信任级别的网络光谱。以太坊的核心价值从“流量”转向“结算主权”: ETH 的价值不再限于 Gas 或 Blob 收入,而在于其作为全球最安全 EVM 结算层与原生货币资产的制度性溢价。扩展策略正在向协议内生化调整: 在 L1 持续直接扩展的基础上,协议层原生验证与安全机制的探索,可能重塑 L1–L2 的安全边界与价值捕获结构。估值框架发生结构性迁移: 安全性与机构可信度权重显著上升,手续费与平台效应权重下降,ETH 的定价正从现金流模型转向资产溢价模型。 本文将依照事实(已发生的技术与制度变化)、机制(对价值捕获与定价逻辑的影响)、推演(对配置与风险回报的含义)的分层对以太坊定价模型的范式转变与估值重构展开分析。 一、原点回归:以太坊价值观 理解以太坊的长期价值,关键不在短期价格波动,而在于其始终如一的设计理念与价值取向。 可信中立性:以太坊的核心目标并非效率或利润最大化,而是成为一套可信中立的基础设施——规则公开、可预测,不偏袒任何参与者,不受单一主体控制,任何人均可无需许可地参与。ETH 及其链上资产的安全性,最终依赖的是协议本身,而非任何机构信用。生态优先非收入优先:以太坊多次关键升级体现出一致的决策逻辑——主动放弃短期协议收入,以换取更低的使用成本、更大的生态规模与更强的系统韧性。其目标不是“收取过路费”,而是成为数字经济中不可替代的中立结算与信任底座。去中心化作为手段:主网专注于最高等级的安全性与最终性,而 Layer 2 网络位于与主网不同程度的连接光谱上:有的继承主网安全性并追求效率,有的则以差异化功能为价值定位。使系统能够同时服务全球结算与高性能应用,而非 L2 “品牌分片”。长期主义技术路线:以太坊坚持慢而确定的演进路径,优先保障系统安全与可信度。从 PoS 转型到后续扩容与确认机制优化,其路线图追求可持续、可验证、不可逆的正确性。 安全性结算层 (Security Settlement Layer): 指以太坊主网通过去中心化验证节点和共识机制,为 Layer 2 及链上资产提供不可逆转的最终性(Finality)服务。 这种安全性结算层的定位,标志了“结算主权”的建立,是以太坊从“邦联制”转向“联邦制” 的转变,是以太坊数字国家建立的 “宪法时刻”,更是以太坊架构与核心的重要升级。 美国独立战争以后,在邦联制的条款下,13个州像是一个松散联盟,各州各印各的货币、互相征收关税, 每个州都在搭便车:享受共同国防,却拒绝缴费;享受联盟的品牌,却各自为政。这个结构性的问题导致国家信用降低,并且无法统一对外贸易,严重阻碍经济。 1787年是美国的“宪法时刻”,新宪法赋予联邦政府三项关键权力:直接征税权、州际贸易管制权、统一货币权。但真正让联邦政府"活过来"的是汉密尔顿1790年的经济方案,联邦承担各州债务、按面值兑付重建国家信用、建立国家银行作为金融中枢。统一市场释放了规模效应,国家信用吸引了更多资本,基础设施建设获得了融资能力。美国从13个互相设防的小邦,走向了世界第一大经济体。 今天的以太坊生态的结构性困境完全一致。 每条L2就像一个"主权州",各自有自己的用户群、流动性池和治理代币。流动性被切割成碎片,跨L2交互摩擦大,L2享受以太坊的安全层和品牌却无法回馈L1价值。每条L2把流动性锁在自己链上是短期理性的,但所有L2都这样做就导致整个以太坊生态的最核心的竞争优势丧失。 以太坊现在推进的路线图,本质上就是它的制宪和建立中央经济系统,也就是建立“结算主权”: 原生Rollup预编译(Native Rollup Precompile)= 联邦宪法。 L2可以在EVM之外自由构建差异化功能,而EVM部分可以通过原生预编译获得以太坊级别的安全验证。不接入当然也可以,但代价是失去与以太坊生态的免信任互操作性。同步可组合性(Synchronous Composability)= 统一市场。 通过原生Rollup预编译等机制,L2之间、L2与L1之间的免信任互操作和同步可组合性正在成为可能,这直接消除了"州际贸易壁垒",流动性不再被困在各自的孤岛上。L1价值捕获重建 = 联邦征税权。 当所有关键的跨L2交互都回归L1结算时,ETH重新成为整个生态的结算中枢和信任锚点。谁控制结算层,谁就捕获价值。 以太坊正在用统一的结算和验证体系,把碎片化的L2生态变成一个不可替代的“数字国家”,这是一个历史必然。当然, 转变的过程可能缓慢,而历史告诉我们,这个转变一旦完成,释放出的网络效应将远超碎片化时代的线性增长。美国用统一的经济系统把13个小邦变成了世界第一大经济体。以太坊也将把松散的L2生态转化成最大的安全性结算层,乃至全球金融载体。 以太坊核心升级路线图与估值影响 (2025-2026) 二、估值误区:为何不应将以太坊视为“科技公司” 将传统企业估值模型(P/E、DCF、EV/EBITDA)套用于以太坊,本质上是一种类别错误。以太坊并非以利润最大化为目标的公司,而是一套开放的数字经济基础设施。企业追求股东价值最大化,而以太坊追求的是生态规模、安全性与抗审查性的最大化。为实现这一目标,以太坊多次主动压低协议收入(如通过EIP-4844 通过引入 Blob DA,结构性下移 L2 数据发布成本,并压低 L1 来自 rollup 数据的费用收入)——在公司视角下近似“收入自毁”,但在基础设施视角下,则是以牺牲短期费用换取长期的中立性溢价与网络效应。 更合理的理解框架,是将以太坊视为全球中立的结算与共识层:为数字经济提供安全性、最终性与可信协调。ETH 的价值体现在多重结构性需求之上——最终结算的刚性需求、链上金融与稳定币规模、质押与销毁机制对供给的影响,以及 ETF、企业财库与 RWA 等机构级采用所带来的长期、粘性资金。 三、范式重构:寻找现金流之外的定价锚 2025年底 Hashed团队推出的 ethval.com 为以太坊提供了详尽的可复现量化模型集合,但传统的静态模型难以捕捉 2026 年以太坊叙事的剧烈转折。因此,我们复用了其系统性、透明且可复现的底层模型(涵盖收益、货币、网络效应与供给结构),在估值架构与权重逻辑上进行了重塑: 结构重构: 将模型映射至“安全性、货币、平台、收入”四大价值象限,分类加总定价。权重再平衡: 显著上调安全性与结算溢价权重,弱化协议收入与 L2 扩张的边际贡献。风控叠加层: 引入宏观与链上风险感知的熔断机制,使估值框架具备跨周期适应性。剔除“循环论证”:对含现价输入的模型(如 Staking Scarcity、Liquidity Premium)不再作为公允价值锚,仅保留其作为仓位与风险偏好调节指标。 注:下述模型并非用于精确点位预测,而用于刻画不同价值来源在不同周期中的相对定价方向 1. 安全性结算层:核心价值锚(45%,避险期上调) 我们将安全性结算层视为以太坊最核心的价值来源,并赋予其 45% 的基准权重;在宏观不确定性上升或风险偏好回落阶段,该权重进一步上调。这一判断源于 Vitalik 对“真正扩展以太坊”的最新界定:扩容的本质不是提升 TPS,而是创造由以太坊本身完全背书的区块空间。任何依赖外部信任假设的高性能执行环境,都不构成对以太坊本体的扩展。 在此框架下,ETH 的价值主要体现为全球无主权结算层的信用溢价,而非协议收入。该溢价由验证者规模与去中心化程度、长期安全记录、机构级采用、合规路径清晰度,以及协议内生 Rollup 验证机制等结构性因素共同支撑。 在具体定价上,我们主要采用两种互补的方法:Validator Economics(收益均衡映射)与 Staking DCF(永续质押折现),共同刻画 ETH 作为“全球安全结算层”的制度性溢价。 Validator Economics(收益均衡定价):基于每枚ETH的年化质押现金流与目标真实收益率的比值,推导理论公允价格: Fair Price = (Annual Staking Cash Flow per ETH) / Target Real Yield 该表达用于刻画收益与价格的均衡关系,作为方向性相对估值工具,而非独立定价模型。  Staking DCF(永续质押折现):将 ETH 视为一项可持续产生真实质押收益的长期资产,对其现金流进行永续折现: M_staking = Total Real Staking Cash Flow / (Discount Rate − Longterm Growth Rate) ETH Price (staking) = M_staking / Circulating Supply 从本质上看,这一价值层并非对标平台型公司的收入能力,而是类似全球清算网络的结算信用。 2. 货币属性:结算与抵押(35%,效用扩张期主导) 我们将货币属性视为以太坊第二核心的价值来源,并赋予其 35% 的基准权重,在中性市场或链上经济扩张阶段成为主要效用锚。这一判断并非基于“ETH 等同于美元”的叙事,而在于其作为链上金融体系的原生结算燃料与最终抵押资产的结构性角色。稳定币流转、DeFi 清算与 RWA 结算的安全性,均依赖 ETH 所支撑的结算层。 定价上,我们采用货币数量论的扩展形式(MV = PQ),但将ETH的使用场景分层建模,以应对不同场景下流通速度的数量级差异分层货币需求模型: 高频结算层(Gas支付、稳定币转账)M_transaction = Annual Transaction Settlement Volume / V_highV_high ≈ 15-25(参考历史链上数据)中频金融层(DeFi交互、借贷清算)M_defi = Annual DeFi Settlement Volume / V_mediumV_medium ≈ 3-8(基于主流DeFi协议资金周转率)低频抵押层(质押、再质押、长期锁仓)M_collateral = Total ETH Collateral Value × (1 + Liquidity Premium)Liquidity Premium = 10-30%(反映流动性牺牲的补偿) 3. 平台 / 网络效应:增长期权(10%,牛市放大器) 平台与网络效应被视为以太坊估值中的增长期权,仅赋予 10% 权重,用于解释牛市阶段生态扩张带来的非线性溢价。我们采用经信任修正的梅特卡夫模型,避免将不同安全级别的 L2 资产等权计入估值: 梅特卡夫模型: M_network = a × (Active Users)^b  +  m × Σ (L2 TVL_i × TrustScore_i)平台/网络效应估值价格:ETH Price(network) = M_network / Circulating Supply 4. 收入资产:现金流地板(10%,熊市托底) 我们将协议收入视为以太坊估值体系中的现金流地板,而非增长引擎,同样赋予 10% 权重。该层主要在熊市或极端风险阶段发挥作用,用于刻画估值下限。 Gas 与 Blob 费用为网络提供最低运作成本,并通过 EIP-1559 影响供给结构。估值上,我们采用市销率与费用收益率模型,并取其中的保守值,仅作为底部参考。随着主网持续扩容,协议收入的重要性相对下降,其核心作用体现在下行阶段的安全边际。 市销率模型(P/S Floor):M_PS = Annual Protocol Revenue × P/S_multiple市销率估值价格:ETH Price (PS) = M_PS / Circulating Supply费用收益率模型:M_Yield = Annual Protocol Revenue / Target Fee Yield费用收益估值价格:ETH Price(Yield) = M_Yield / Circulating Supply现金流地板定价(取两者极小值):P_Revenue_Floor = min(P_PS , P_Yield) 四、动态校准:宏观约束与周期适配 如果说前文确立了以太坊的“内在价值中枢”,本章则引入一套独立于基本面的“外在环境适配系统”。估值无法真空运行,必须受制于宏观环境(资金成本)、市场结构(相对强弱)与链上情绪(拥挤度)三大外部约束。基于此,我们构建了状态适配(Regime Adaptation)机制,在不同周期动态调整估值权重——宽松期释放期权溢价,避险期退守收入地板,从而实现从静态模型到动态策略的跨越。(注:限于篇幅,本文仅展示该机制的核心逻辑框架。) 五、机构化第二曲线的条件路径 前文分析均基于加密体系内部的技术、估值与周期逻辑,而本章讨论的是一个不同层级的问题:当 ETH 不再仅由加密原生资金定价,而被逐步纳入传统金融体系,其定价权、资产属性与风险结构将如何变化。机构化第二曲线并非对既有逻辑的延伸,而是外生力量对以太坊的再定义: 资产属性的变化(Beta → Carry):现货 ETH ETF 解决的是合规与托管问题,本质仍是价格暴露;而未来Staking ETF 的推进,首次将链上收益通过合规载体引入机构体系。ETH 由此从“无息高波动资产”转向“具备可预期收益的配置型资产”,潜在买家从交易型资金扩展至对收益与久期敏感的养老金、保险及长期账户。使用方式的变化(Holding → Using):如果机构不再仅将 ETH 视为可交易标的,而是开始将其作为结算与抵押基础设施使用。无论是 JPMorgan 的代币化基金,还是合规稳定币与 RWA 在以太坊上的部署,都表明 ETH 的需求正从“持有需求”转向“运行需求”——机构不仅持有 ETH,更在其上完成结算、清算与风险管理。尾部风险的变化(Uncertainty → Pricing): 随着稳定币监管框架(如 GENIUS Act)未来逐步确立,以及以太坊路线图与治理透明度提升,机构最为敏感的监管与技术不确定性正在被系统性压缩,意味着不确定性开始被定价,而非被回避。 所谓“机构化第二曲线”是 需求性质的改变,为“安全性结算层 + 货币属性”的估值逻辑提供了真实需求来源,推动 ETH 从以情绪驱动的投机资产过渡为同时承载配置性与功能性需求的基础资产。 六、结语:至暗时刻的价值锚定 过去一周,行业经历了剧烈的去杠杆化洗礼,市场情绪降至冰点,这无疑是加密世界的“至暗时刻”。悲观情绪在从业者中蔓延,而作为最能代表加密精神的资产标的,以太坊亦处于争议的风暴眼中。 然而,作为理性的观察者,我们需要穿透恐慌的迷雾:以太坊当前所经历的,并非“价值的坍塌”,而是一次深刻的“定价锚迁移”。随着 L1 扩容直接推进、L2 被重新界定为不同信任等级的网络光谱,以及协议收入主动让位于系统安全与中立性,ETH 的定价逻辑已结构性转向“安全性结算层 + 原生货币属性”。 在宏观真实利率高位、流动性尚未宽松、链上增长期权暂未被市场允许定价的背景下,ETH 的价格自然收敛至由结算确定性、可验证收益与机构共识支撑的结构性价值区间。这一区间并非情绪底,而是在剥离平台型增长溢价后的价值中枢。 作为以太坊生态的长期建设者,我们拒绝做 ETH 的“无脑多头”。我们希望通过严谨的逻辑框架,审慎地论证我们的预判:只有当宏观流动性、风险偏好与网络效应同时满足市场状态的触发条件时,更高的估值才会被市场重新计入。 因此,对于长线投资者而言,当下的关键问题不再是焦虑地追问“以太坊还能不能涨”,而是要清醒地认识到——在当前环境下,我们正在以“地板价”买入哪一层核心价值? 免责声明:本文在创作过程中借助了 ChatGPT-5.2, Gemini 3和Claude Opus 4.5等 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。

以太坊再定价:从 Rollup-Centric 到“安全性结算层”

作者:Jacob Zhao, Jiawei, Turbo @ IOSG Ventures

2026 年 2 月 3 日,Vitalik 在 X 上发表了关于以太坊扩容路线的重要反思。随着 Layer 2 向完全去中心化形态演进的现实难度被重新认识,同时主网自身吞吐能力在未来数年内预计大幅提升,单纯依赖 L2 进行吞吐量扩容的原始设想正在修正,L1 与 L2 正在形成新的‘结算-服务’协同范式: L1 专注于提供最高等级的安全性、抗审查性与结算主权,而 L2 则向‘差异化服务商’演进(如隐私、AI、高频交易),以太坊的战略重心正回归主网本身,强化其作为全球最可信结算层的定位。扩容不再是唯一目标,安全性、中立性与可预测性,重新成为以太坊的核心资产。

 核心变化:
以太坊正在进入“L1 优先范式”: 随着主网直接扩展、费用持续下降,依赖 L2 承担规模化核心角色的原始假设已不再成立。L2 不再是“品牌分片”,而是信任光谱: L2 去中心化推进远慢于预期,难以统一继承以太坊安全性,其角色正被重新定义为不同信任级别的网络光谱。以太坊的核心价值从“流量”转向“结算主权”: ETH 的价值不再限于 Gas 或 Blob 收入,而在于其作为全球最安全 EVM 结算层与原生货币资产的制度性溢价。扩展策略正在向协议内生化调整: 在 L1 持续直接扩展的基础上,协议层原生验证与安全机制的探索,可能重塑 L1–L2 的安全边界与价值捕获结构。估值框架发生结构性迁移: 安全性与机构可信度权重显著上升,手续费与平台效应权重下降,ETH 的定价正从现金流模型转向资产溢价模型。
本文将依照事实(已发生的技术与制度变化)、机制(对价值捕获与定价逻辑的影响)、推演(对配置与风险回报的含义)的分层对以太坊定价模型的范式转变与估值重构展开分析。
一、原点回归:以太坊价值观
理解以太坊的长期价值,关键不在短期价格波动,而在于其始终如一的设计理念与价值取向。
可信中立性:以太坊的核心目标并非效率或利润最大化,而是成为一套可信中立的基础设施——规则公开、可预测,不偏袒任何参与者,不受单一主体控制,任何人均可无需许可地参与。ETH 及其链上资产的安全性,最终依赖的是协议本身,而非任何机构信用。生态优先非收入优先:以太坊多次关键升级体现出一致的决策逻辑——主动放弃短期协议收入,以换取更低的使用成本、更大的生态规模与更强的系统韧性。其目标不是“收取过路费”,而是成为数字经济中不可替代的中立结算与信任底座。去中心化作为手段:主网专注于最高等级的安全性与最终性,而 Layer 2 网络位于与主网不同程度的连接光谱上:有的继承主网安全性并追求效率,有的则以差异化功能为价值定位。使系统能够同时服务全球结算与高性能应用,而非 L2 “品牌分片”。长期主义技术路线:以太坊坚持慢而确定的演进路径,优先保障系统安全与可信度。从 PoS 转型到后续扩容与确认机制优化,其路线图追求可持续、可验证、不可逆的正确性。
安全性结算层 (Security Settlement Layer): 指以太坊主网通过去中心化验证节点和共识机制,为 Layer 2 及链上资产提供不可逆转的最终性(Finality)服务。

这种安全性结算层的定位,标志了“结算主权”的建立,是以太坊从“邦联制”转向“联邦制” 的转变,是以太坊数字国家建立的 “宪法时刻”,更是以太坊架构与核心的重要升级。
美国独立战争以后,在邦联制的条款下,13个州像是一个松散联盟,各州各印各的货币、互相征收关税, 每个州都在搭便车:享受共同国防,却拒绝缴费;享受联盟的品牌,却各自为政。这个结构性的问题导致国家信用降低,并且无法统一对外贸易,严重阻碍经济。
1787年是美国的“宪法时刻”,新宪法赋予联邦政府三项关键权力:直接征税权、州际贸易管制权、统一货币权。但真正让联邦政府"活过来"的是汉密尔顿1790年的经济方案,联邦承担各州债务、按面值兑付重建国家信用、建立国家银行作为金融中枢。统一市场释放了规模效应,国家信用吸引了更多资本,基础设施建设获得了融资能力。美国从13个互相设防的小邦,走向了世界第一大经济体。
今天的以太坊生态的结构性困境完全一致。
每条L2就像一个"主权州",各自有自己的用户群、流动性池和治理代币。流动性被切割成碎片,跨L2交互摩擦大,L2享受以太坊的安全层和品牌却无法回馈L1价值。每条L2把流动性锁在自己链上是短期理性的,但所有L2都这样做就导致整个以太坊生态的最核心的竞争优势丧失。
以太坊现在推进的路线图,本质上就是它的制宪和建立中央经济系统,也就是建立“结算主权”:
原生Rollup预编译(Native Rollup Precompile)= 联邦宪法。 L2可以在EVM之外自由构建差异化功能,而EVM部分可以通过原生预编译获得以太坊级别的安全验证。不接入当然也可以,但代价是失去与以太坊生态的免信任互操作性。同步可组合性(Synchronous Composability)= 统一市场。 通过原生Rollup预编译等机制,L2之间、L2与L1之间的免信任互操作和同步可组合性正在成为可能,这直接消除了"州际贸易壁垒",流动性不再被困在各自的孤岛上。L1价值捕获重建 = 联邦征税权。 当所有关键的跨L2交互都回归L1结算时,ETH重新成为整个生态的结算中枢和信任锚点。谁控制结算层,谁就捕获价值。
以太坊正在用统一的结算和验证体系,把碎片化的L2生态变成一个不可替代的“数字国家”,这是一个历史必然。当然, 转变的过程可能缓慢,而历史告诉我们,这个转变一旦完成,释放出的网络效应将远超碎片化时代的线性增长。美国用统一的经济系统把13个小邦变成了世界第一大经济体。以太坊也将把松散的L2生态转化成最大的安全性结算层,乃至全球金融载体。
以太坊核心升级路线图与估值影响 (2025-2026)

二、估值误区:为何不应将以太坊视为“科技公司”
将传统企业估值模型(P/E、DCF、EV/EBITDA)套用于以太坊,本质上是一种类别错误。以太坊并非以利润最大化为目标的公司,而是一套开放的数字经济基础设施。企业追求股东价值最大化,而以太坊追求的是生态规模、安全性与抗审查性的最大化。为实现这一目标,以太坊多次主动压低协议收入(如通过EIP-4844 通过引入 Blob DA,结构性下移 L2 数据发布成本,并压低 L1 来自 rollup 数据的费用收入)——在公司视角下近似“收入自毁”,但在基础设施视角下,则是以牺牲短期费用换取长期的中立性溢价与网络效应。
更合理的理解框架,是将以太坊视为全球中立的结算与共识层:为数字经济提供安全性、最终性与可信协调。ETH 的价值体现在多重结构性需求之上——最终结算的刚性需求、链上金融与稳定币规模、质押与销毁机制对供给的影响,以及 ETF、企业财库与 RWA 等机构级采用所带来的长期、粘性资金。

三、范式重构:寻找现金流之外的定价锚

2025年底 Hashed团队推出的 ethval.com 为以太坊提供了详尽的可复现量化模型集合,但传统的静态模型难以捕捉 2026 年以太坊叙事的剧烈转折。因此,我们复用了其系统性、透明且可复现的底层模型(涵盖收益、货币、网络效应与供给结构),在估值架构与权重逻辑上进行了重塑:
结构重构: 将模型映射至“安全性、货币、平台、收入”四大价值象限,分类加总定价。权重再平衡: 显著上调安全性与结算溢价权重,弱化协议收入与 L2 扩张的边际贡献。风控叠加层: 引入宏观与链上风险感知的熔断机制,使估值框架具备跨周期适应性。剔除“循环论证”:对含现价输入的模型(如 Staking Scarcity、Liquidity Premium)不再作为公允价值锚,仅保留其作为仓位与风险偏好调节指标。
注:下述模型并非用于精确点位预测,而用于刻画不同价值来源在不同周期中的相对定价方向

1. 安全性结算层:核心价值锚(45%,避险期上调)
我们将安全性结算层视为以太坊最核心的价值来源,并赋予其 45% 的基准权重;在宏观不确定性上升或风险偏好回落阶段,该权重进一步上调。这一判断源于 Vitalik 对“真正扩展以太坊”的最新界定:扩容的本质不是提升 TPS,而是创造由以太坊本身完全背书的区块空间。任何依赖外部信任假设的高性能执行环境,都不构成对以太坊本体的扩展。
在此框架下,ETH 的价值主要体现为全球无主权结算层的信用溢价,而非协议收入。该溢价由验证者规模与去中心化程度、长期安全记录、机构级采用、合规路径清晰度,以及协议内生 Rollup 验证机制等结构性因素共同支撑。
在具体定价上,我们主要采用两种互补的方法:Validator Economics(收益均衡映射)与 Staking DCF(永续质押折现),共同刻画 ETH 作为“全球安全结算层”的制度性溢价。
Validator Economics(收益均衡定价):基于每枚ETH的年化质押现金流与目标真实收益率的比值,推导理论公允价格:
Fair Price = (Annual Staking Cash Flow per ETH) / Target Real Yield
该表达用于刻画收益与价格的均衡关系,作为方向性相对估值工具,而非独立定价模型。
 Staking DCF(永续质押折现):将 ETH 视为一项可持续产生真实质押收益的长期资产,对其现金流进行永续折现:
M_staking = Total Real Staking Cash Flow / (Discount Rate − Longterm Growth Rate)
ETH Price (staking) = M_staking / Circulating Supply
从本质上看,这一价值层并非对标平台型公司的收入能力,而是类似全球清算网络的结算信用。

2. 货币属性:结算与抵押(35%,效用扩张期主导)
我们将货币属性视为以太坊第二核心的价值来源,并赋予其 35% 的基准权重,在中性市场或链上经济扩张阶段成为主要效用锚。这一判断并非基于“ETH 等同于美元”的叙事,而在于其作为链上金融体系的原生结算燃料与最终抵押资产的结构性角色。稳定币流转、DeFi 清算与 RWA 结算的安全性,均依赖 ETH 所支撑的结算层。
定价上,我们采用货币数量论的扩展形式(MV = PQ),但将ETH的使用场景分层建模,以应对不同场景下流通速度的数量级差异分层货币需求模型:
高频结算层(Gas支付、稳定币转账)M_transaction = Annual Transaction Settlement Volume / V_highV_high ≈ 15-25(参考历史链上数据)中频金融层(DeFi交互、借贷清算)M_defi = Annual DeFi Settlement Volume / V_mediumV_medium ≈ 3-8(基于主流DeFi协议资金周转率)低频抵押层(质押、再质押、长期锁仓)M_collateral = Total ETH Collateral Value × (1 + Liquidity Premium)Liquidity Premium = 10-30%(反映流动性牺牲的补偿)
3. 平台 / 网络效应:增长期权(10%,牛市放大器)
平台与网络效应被视为以太坊估值中的增长期权,仅赋予 10% 权重,用于解释牛市阶段生态扩张带来的非线性溢价。我们采用经信任修正的梅特卡夫模型,避免将不同安全级别的 L2 资产等权计入估值:
梅特卡夫模型: M_network = a × (Active Users)^b  +  m × Σ (L2 TVL_i × TrustScore_i)平台/网络效应估值价格:ETH Price(network) = M_network / Circulating Supply
4. 收入资产:现金流地板(10%,熊市托底)
我们将协议收入视为以太坊估值体系中的现金流地板,而非增长引擎,同样赋予 10% 权重。该层主要在熊市或极端风险阶段发挥作用,用于刻画估值下限。
Gas 与 Blob 费用为网络提供最低运作成本,并通过 EIP-1559 影响供给结构。估值上,我们采用市销率与费用收益率模型,并取其中的保守值,仅作为底部参考。随着主网持续扩容,协议收入的重要性相对下降,其核心作用体现在下行阶段的安全边际。
市销率模型(P/S Floor):M_PS = Annual Protocol Revenue × P/S_multiple市销率估值价格:ETH Price (PS) = M_PS / Circulating Supply费用收益率模型:M_Yield = Annual Protocol Revenue / Target Fee Yield费用收益估值价格:ETH Price(Yield) = M_Yield / Circulating Supply现金流地板定价(取两者极小值):P_Revenue_Floor = min(P_PS , P_Yield)
四、动态校准:宏观约束与周期适配
如果说前文确立了以太坊的“内在价值中枢”,本章则引入一套独立于基本面的“外在环境适配系统”。估值无法真空运行,必须受制于宏观环境(资金成本)、市场结构(相对强弱)与链上情绪(拥挤度)三大外部约束。基于此,我们构建了状态适配(Regime Adaptation)机制,在不同周期动态调整估值权重——宽松期释放期权溢价,避险期退守收入地板,从而实现从静态模型到动态策略的跨越。(注:限于篇幅,本文仅展示该机制的核心逻辑框架。)

五、机构化第二曲线的条件路径
前文分析均基于加密体系内部的技术、估值与周期逻辑,而本章讨论的是一个不同层级的问题:当 ETH 不再仅由加密原生资金定价,而被逐步纳入传统金融体系,其定价权、资产属性与风险结构将如何变化。机构化第二曲线并非对既有逻辑的延伸,而是外生力量对以太坊的再定义:
资产属性的变化(Beta → Carry):现货 ETH ETF 解决的是合规与托管问题,本质仍是价格暴露;而未来Staking ETF 的推进,首次将链上收益通过合规载体引入机构体系。ETH 由此从“无息高波动资产”转向“具备可预期收益的配置型资产”,潜在买家从交易型资金扩展至对收益与久期敏感的养老金、保险及长期账户。使用方式的变化(Holding → Using):如果机构不再仅将 ETH 视为可交易标的,而是开始将其作为结算与抵押基础设施使用。无论是 JPMorgan 的代币化基金,还是合规稳定币与 RWA 在以太坊上的部署,都表明 ETH 的需求正从“持有需求”转向“运行需求”——机构不仅持有 ETH,更在其上完成结算、清算与风险管理。尾部风险的变化(Uncertainty → Pricing): 随着稳定币监管框架(如 GENIUS Act)未来逐步确立,以及以太坊路线图与治理透明度提升,机构最为敏感的监管与技术不确定性正在被系统性压缩,意味着不确定性开始被定价,而非被回避。
所谓“机构化第二曲线”是 需求性质的改变,为“安全性结算层 + 货币属性”的估值逻辑提供了真实需求来源,推动 ETH 从以情绪驱动的投机资产过渡为同时承载配置性与功能性需求的基础资产。

六、结语:至暗时刻的价值锚定
过去一周,行业经历了剧烈的去杠杆化洗礼,市场情绪降至冰点,这无疑是加密世界的“至暗时刻”。悲观情绪在从业者中蔓延,而作为最能代表加密精神的资产标的,以太坊亦处于争议的风暴眼中。
然而,作为理性的观察者,我们需要穿透恐慌的迷雾:以太坊当前所经历的,并非“价值的坍塌”,而是一次深刻的“定价锚迁移”。随着 L1 扩容直接推进、L2 被重新界定为不同信任等级的网络光谱,以及协议收入主动让位于系统安全与中立性,ETH 的定价逻辑已结构性转向“安全性结算层 + 原生货币属性”。
在宏观真实利率高位、流动性尚未宽松、链上增长期权暂未被市场允许定价的背景下,ETH 的价格自然收敛至由结算确定性、可验证收益与机构共识支撑的结构性价值区间。这一区间并非情绪底,而是在剥离平台型增长溢价后的价值中枢。
作为以太坊生态的长期建设者,我们拒绝做 ETH 的“无脑多头”。我们希望通过严谨的逻辑框架,审慎地论证我们的预判:只有当宏观流动性、风险偏好与网络效应同时满足市场状态的触发条件时,更高的估值才会被市场重新计入。
因此,对于长线投资者而言,当下的关键问题不再是焦虑地追问“以太坊还能不能涨”,而是要清醒地认识到——在当前环境下,我们正在以“地板价”买入哪一层核心价值?

免责声明:本文在创作过程中借助了 ChatGPT-5.2, Gemini 3和Claude Opus 4.5等 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。
Noya.ai: Agenti nei Mercati di PrevisioneAutore: 0xjacobzhao | https://linktr.ee/0xjacobzhao Nei nostri rapporti di ricerca della serie Crypto AI precedenti, abbiamo costantemente enfatizzato la visione che gli scenari di applicazione più pratici nel campo attuale delle criptovalute sono principalmente concentrati nei pagamenti in stablecoin e nel DeFi, mentre gli Agenti sono l'interfaccia chiave per l'industria dell'AI di fronte agli utenti. Pertanto, nella tendenza all'integrazione tra Crypto e AI, i due percorsi più preziosi sono: AgentFi, basato su protocolli DeFi esistenti e maturi (strategie di base come prestiti e mining di liquidità, così come strategie avanzate come Swap, Pendle PT e arbitraggio del tasso di finanziamento) a breve termine; e Pagamento Agente, incentrato sul regolamento in stablecoin e facendo affidamento su protocolli come ACP/AP2/x402/ERC-8004 a medio e lungo termine.

Noya.ai: Agenti nei Mercati di Previsione

Autore: 0xjacobzhao | https://linktr.ee/0xjacobzhao
Nei nostri rapporti di ricerca della serie Crypto AI precedenti, abbiamo costantemente enfatizzato la visione che gli scenari di applicazione più pratici nel campo attuale delle criptovalute sono principalmente concentrati nei pagamenti in stablecoin e nel DeFi, mentre gli Agenti sono l'interfaccia chiave per l'industria dell'AI di fronte agli utenti. Pertanto, nella tendenza all'integrazione tra Crypto e AI, i due percorsi più preziosi sono: AgentFi, basato su protocolli DeFi esistenti e maturi (strategie di base come prestiti e mining di liquidità, così come strategie avanzate come Swap, Pendle PT e arbitraggio del tasso di finanziamento) a breve termine; e Pagamento Agente, incentrato sul regolamento in stablecoin e facendo affidamento su protocolli come ACP/AP2/x402/ERC-8004 a medio e lungo termine.
Noya.ai rapporto: previsioni sugli agenti di mercato intelligentiNoya.ai rapporto: previsioni sugli agenti di mercato intelligenti Autore: 0xjacobzhao | https://linktr.ee/0xjacobzhao Nelle precedenti relazioni della serie Crypto AI, abbiamo costantemente sottolineato il punto di vista: gli scenari attualmente più preziosi nel campo delle criptovalute si concentrano principalmente sui pagamenti in stablecoin e DeFi, mentre l'Agent è l'interfaccia chiave dell'industria AI rivolta agli utenti. Pertanto, nella tendenza alla fusione tra Crypto e AI, i due percorsi più preziosi sono rispettivamente: AgentFi, basato su protocolli DeFi esistenti e consolidati (prestiti, mining di liquidità e altre strategie di base, così come strategie avanzate come Swap, Pendle PT, arbitraggio delle tariffe di finanziamento) a breve termine, e Agent Payment, che si concentra sui pagamenti in stablecoin a medio e lungo termine, supportato da protocolli come ACP/AP2/x402/ERC-8004.

Noya.ai rapporto: previsioni sugli agenti di mercato intelligenti

Noya.ai rapporto: previsioni sugli agenti di mercato intelligenti
Autore: 0xjacobzhao | https://linktr.ee/0xjacobzhao

Nelle precedenti relazioni della serie Crypto AI, abbiamo costantemente sottolineato il punto di vista: gli scenari attualmente più preziosi nel campo delle criptovalute si concentrano principalmente sui pagamenti in stablecoin e DeFi, mentre l'Agent è l'interfaccia chiave dell'industria AI rivolta agli utenti. Pertanto, nella tendenza alla fusione tra Crypto e AI, i due percorsi più preziosi sono rispettivamente: AgentFi, basato su protocolli DeFi esistenti e consolidati (prestiti, mining di liquidità e altre strategie di base, così come strategie avanzate come Swap, Pendle PT, arbitraggio delle tariffe di finanziamento) a breve termine, e Agent Payment, che si concentra sui pagamenti in stablecoin a medio e lungo termine, supportato da protocolli come ACP/AP2/x402/ERC-8004.
Reinforcement Learning: Il cambiamento di paradigma dell'AI decentralizzataAutore: 0xjacobzhao | https://linktr.ee/0xjacobzhao Questo rapporto di ricerca indipendente è supportato da IOSG Ventures. Il processo di ricerca e scrittura è stato ispirato dal lavoro di Sam Lehman (Pantera Capital) sul reinforcement learning. Grazie a Ben Fielding (Gensyn.ai), Gao Yuan (Gradient), Samuel Dare & Erfan Miahi (Covenant AI), Shashank Yadav (Fraction AI), Chao Wang per i loro preziosi suggerimenti su questo articolo. Questo articolo mira all'oggettività e all'accuratezza, ma alcune opinioni comportano un giudizio soggettivo e possono contenere pregiudizi. Apprezziamo la comprensione dei lettori.

Reinforcement Learning: Il cambiamento di paradigma dell'AI decentralizzata

Autore: 0xjacobzhao | https://linktr.ee/0xjacobzhao
Questo rapporto di ricerca indipendente è supportato da IOSG Ventures. Il processo di ricerca e scrittura è stato ispirato dal lavoro di Sam Lehman (Pantera Capital) sul reinforcement learning. Grazie a Ben Fielding (Gensyn.ai), Gao Yuan (Gradient), Samuel Dare & Erfan Miahi (Covenant AI), Shashank Yadav (Fraction AI), Chao Wang per i loro preziosi suggerimenti su questo articolo. Questo articolo mira all'oggettività e all'accuratezza, ma alcune opinioni comportano un giudizio soggettivo e possono contenere pregiudizi. Apprezziamo la comprensione dei lettori.
Rafforzamento dell'apprendimento: cambiamento di paradigma nelle reti AI decentralizzateAutore: 0xjacobzhao | https://linktr.ee/0xjacobzhao Questo rapporto di ricerca indipendente è supportato da IOSG Ventures, il processo di ricerca e scrittura è stato ispirato dal rapporto di ricerca sul rafforzamento dell'apprendimento di Sam Lehman (Pantera Capital); grazie a Ben Fielding (Gensyn.ai), Gao Yuan (Gradient), Samuel Dare & Erfan Miahi (Covenant AI), Shashank Yadav (Fraction AI), Chao Wang per i preziosi suggerimenti forniti su questo articolo. Questo articolo cerca di mantenere un contenuto obiettivo e preciso, alcune opinioni coinvolgono giudizi soggettivi, inevitabilmente esistono delle deviazioni, si prega di comprendere. L'intelligenza artificiale sta passando da un apprendimento statistico principalmente basato sul "fitting dei modelli" a un sistema di capacità incentrato sul "ragionamento strutturato", con l'importanza del post-training che sta rapidamente aumentando. L'emergere di DeepSeek-R1 segna un cambio di paradigma nel rafforzamento dell'apprendimento nell'era dei grandi modelli; si è formata una consapevolezza comune nel settore: la pre-formazione costruisce una base di capacità generali per i modelli, e il rafforzamento dell'apprendimento non è più solo uno strumento di allineamento dei valori, ma si è dimostrato in grado di migliorare sistematicamente la qualità della catena di ragionamento e la capacità di decisione complessa, evolvendosi gradualmente in un percorso tecnologico per migliorare continuamente il livello di intelligenza.

Rafforzamento dell'apprendimento: cambiamento di paradigma nelle reti AI decentralizzate

Autore: 0xjacobzhao | https://linktr.ee/0xjacobzhao

Questo rapporto di ricerca indipendente è supportato da IOSG Ventures, il processo di ricerca e scrittura è stato ispirato dal rapporto di ricerca sul rafforzamento dell'apprendimento di Sam Lehman (Pantera Capital); grazie a Ben Fielding (Gensyn.ai), Gao Yuan (Gradient), Samuel Dare & Erfan Miahi (Covenant AI), Shashank Yadav (Fraction AI), Chao Wang per i preziosi suggerimenti forniti su questo articolo. Questo articolo cerca di mantenere un contenuto obiettivo e preciso, alcune opinioni coinvolgono giudizi soggettivi, inevitabilmente esistono delle deviazioni, si prega di comprendere.
L'intelligenza artificiale sta passando da un apprendimento statistico principalmente basato sul "fitting dei modelli" a un sistema di capacità incentrato sul "ragionamento strutturato", con l'importanza del post-training che sta rapidamente aumentando. L'emergere di DeepSeek-R1 segna un cambio di paradigma nel rafforzamento dell'apprendimento nell'era dei grandi modelli; si è formata una consapevolezza comune nel settore: la pre-formazione costruisce una base di capacità generali per i modelli, e il rafforzamento dell'apprendimento non è più solo uno strumento di allineamento dei valori, ma si è dimostrato in grado di migliorare sistematicamente la qualità della catena di ragionamento e la capacità di decisione complessa, evolvendosi gradualmente in un percorso tecnologico per migliorare continuamente il livello di intelligenza.
Ordine Economico Macchinico: Un Percorso Completo verso il Commercio AgenteAutore: 0xjacobzhao | https://linktr.ee/0xjacobzhao Questo rapporto di ricerca indipendente è supportato da IOSG Ventures. Il processo di ricerca e scrittura è stato ispirato da lavori correlati di Raghav Agarwal (LongHash) e Jay Yu (Pantera). Grazie a Lex Sokolin @ Generative Ventures, Jordan@AIsa, Ivy @PodOur2Cents per i loro preziosi suggerimenti su questo articolo. Anche il feedback è stato richiesto dai team di progetto come Nevermined, Skyfire, Virtuals Protocol, AIsa, Heurist, AEON durante il processo di scrittura. Questo articolo si sforza di offrire contenuti obiettivi e accurati, ma alcuni punti di vista comportano un giudizio soggettivo e possono inevitabilmente contenere deviazioni. Si apprezza la comprensione dei lettori.

Ordine Economico Macchinico: Un Percorso Completo verso il Commercio Agente

Autore: 0xjacobzhao | https://linktr.ee/0xjacobzhao

Questo rapporto di ricerca indipendente è supportato da IOSG Ventures. Il processo di ricerca e scrittura è stato ispirato da lavori correlati di Raghav Agarwal (LongHash) e Jay Yu (Pantera). Grazie a Lex Sokolin @ Generative Ventures, Jordan@AIsa, Ivy @PodOur2Cents per i loro preziosi suggerimenti su questo articolo. Anche il feedback è stato richiesto dai team di progetto come Nevermined, Skyfire, Virtuals Protocol, AIsa, Heurist, AEON durante il processo di scrittura. Questo articolo si sforza di offrire contenuti obiettivi e accurati, ma alcuni punti di vista comportano un giudizio soggettivo e possono inevitabilmente contenere deviazioni. Si apprezza la comprensione dei lettori.
L'ordine economico delle macchine: il percorso full-stack del business degli agentiAutore: 0xjacobzhao | https://linktr.ee/0xjacobzhao Questo rapporto di ricerca indipendente è supportato da IOSG Ventures, il processo di scrittura della ricerca è ispirato ai rapporti correlati di Raghav Agarwal@LongHash e Jay Yu@Pantera, grazie a Lex Sokolin @ Generative Ventures, Jordan@AIsa, Ivy@(支无不言) blog per i preziosi suggerimenti forniti in questo articolo. Durante il processo di scrittura sono stati anche consultati i team di progetti come Nevermined, Skyfire, Virtuals Protocol, AIsa, Heurist, AEON per il loro feedback. Questo articolo cerca di essere obiettivo e accurato, alcune opinioni coinvolgono giudizi soggettivi e non possono evitare deviazioni, si prega di comprendere.

L'ordine economico delle macchine: il percorso full-stack del business degli agenti

Autore: 0xjacobzhao | https://linktr.ee/0xjacobzhao

Questo rapporto di ricerca indipendente è supportato da IOSG Ventures, il processo di scrittura della ricerca è ispirato ai rapporti correlati di Raghav Agarwal@LongHash e Jay Yu@Pantera, grazie a Lex Sokolin @ Generative Ventures, Jordan@AIsa, Ivy@(支无不言) blog per i preziosi suggerimenti forniti in questo articolo. Durante il processo di scrittura sono stati anche consultati i team di progetti come Nevermined, Skyfire, Virtuals Protocol, AIsa, Heurist, AEON per il loro feedback. Questo articolo cerca di essere obiettivo e accurato, alcune opinioni coinvolgono giudizi soggettivi e non possono evitare deviazioni, si prega di comprendere.
L'Evoluzione Convergente dell'Automazione, dell'IA e del Web3 nell'Industria della RoboticaAutore: 0xjacobzhao | https://linktr.ee/0xjacobzhao Questo rapporto di ricerca indipendente è supportato da IOSG Ventures. L'autore ringrazia Hans (RoboCup Asia-Pacific), Nichanan Kesonpat(1kx), Robert Koschig (1kx), Amanda Young (Collab+Currency), Jonathan Victor (Ansa Research), Lex Sokolin (Generative Ventures), Jay Yu (Pantera Capital), Jeffrey Hu (Hashkey Capital) per i loro preziosi commenti, così come i collaboratori di OpenMind, BitRobot, peaq, Auki Labs, XMAQUINA, GAIB, Vader, Gradient, Tashi Network e CodecFlow per il loro feedback costruttivo. Sebbene sia stato fatto ogni sforzo per garantire obiettività e accuratezza, alcune intuizioni riflettono inevitabilmente un'interpretazione soggettiva, e i lettori sono incoraggiati a interagire con il contenuto in modo critico.

L'Evoluzione Convergente dell'Automazione, dell'IA e del Web3 nell'Industria della Robotica

Autore: 0xjacobzhao | https://linktr.ee/0xjacobzhao
Questo rapporto di ricerca indipendente è supportato da IOSG Ventures. L'autore ringrazia Hans (RoboCup Asia-Pacific), Nichanan Kesonpat(1kx), Robert Koschig (1kx), Amanda Young (Collab+Currency), Jonathan Victor (Ansa Research), Lex Sokolin (Generative Ventures), Jay Yu (Pantera Capital), Jeffrey Hu (Hashkey Capital) per i loro preziosi commenti, così come i collaboratori di OpenMind, BitRobot, peaq, Auki Labs, XMAQUINA, GAIB, Vader, Gradient, Tashi Network e CodecFlow per il loro feedback costruttivo. Sebbene sia stato fatto ogni sforzo per garantire obiettività e accuratezza, alcune intuizioni riflettono inevitabilmente un'interpretazione soggettiva, e i lettori sono incoraggiati a interagire con il contenuto in modo critico.
Visione dell'industria dei robot: l'evoluzione dell'integrazione di automazione, intelligenza artificiale e Web3Autore: 0xjacobzhao | https://linktr.ee/0xjacobzhao Questo rapporto indipendente è supportato da IOSG Ventures, grazie a Hans (RoboCup Asia-Pacific), Nichanan Kesonpat (1kx), Robert Koschig (1kx), Amanda Young (Collab+Currency), Jonathan Victor (Ansa Research), Lex Sokolin (Generative Ventures), Jay Yu (Pantera Capital), Jeffrey Hu (Hashkey Capital) per i preziosi suggerimenti forniti su questo articolo. Durante la stesura, sono stati consultati anche i team dei progetti OpenMind, BitRobot, peaq, Auki Labs, XMAQUINA, GAIB, Vader, Gradient, Tashi Network e CodecFlow per i loro feedback. Questo articolo cerca di mantenere contenuti obiettivi e accurati; alcune opinioni coinvolgono giudizi soggettivi, quindi non si può evitare una certa deviazione, si prega di comprendere.

Visione dell'industria dei robot: l'evoluzione dell'integrazione di automazione, intelligenza artificiale e Web3

Autore: 0xjacobzhao | https://linktr.ee/0xjacobzhao

Questo rapporto indipendente è supportato da IOSG Ventures, grazie a Hans (RoboCup Asia-Pacific), Nichanan Kesonpat (1kx), Robert Koschig (1kx), Amanda Young (Collab+Currency), Jonathan Victor (Ansa Research), Lex Sokolin (Generative Ventures), Jay Yu (Pantera Capital), Jeffrey Hu (Hashkey Capital) per i preziosi suggerimenti forniti su questo articolo. Durante la stesura, sono stati consultati anche i team dei progetti OpenMind, BitRobot, peaq, Auki Labs, XMAQUINA, GAIB, Vader, Gradient, Tashi Network e CodecFlow per i loro feedback. Questo articolo cerca di mantenere contenuti obiettivi e accurati; alcune opinioni coinvolgono giudizi soggettivi, quindi non si può evitare una certa deviazione, si prega di comprendere.
Rapporto di Ricerca Brevis: Il Livello Infinito di Calcolo Verificabile di zkVM e Coprocessore Dati ZKIl paradigma del Calcolo Verificabile—“computazione off-chain + verifica on-chain”—è diventato il modello computazionale universale per i sistemi blockchain. Consente alle applicazioni blockchain di raggiungere una libertà computazionale quasi infinita mantenendo la decentralizzazione e l'assenza di fiducia come garanzie di sicurezza fondamentali. Le prove a conoscenza zero (ZKP) formano la spina dorsale di questo paradigma, con applicazioni principalmente in tre direzioni fondamentali: scalabilità, privacy e interoperabilità & integrità dei dati. La scalabilità è stata la prima applicazione ZK a raggiungere la produzione, spostando l'esecuzione off-chain e verificando prove concise on-chain per un'elevata capacità e una scalabilità senza fiducia a basso costo.

Rapporto di Ricerca Brevis: Il Livello Infinito di Calcolo Verificabile di zkVM e Coprocessore Dati ZK

Il paradigma del Calcolo Verificabile—“computazione off-chain + verifica on-chain”—è diventato il modello computazionale universale per i sistemi blockchain. Consente alle applicazioni blockchain di raggiungere una libertà computazionale quasi infinita mantenendo la decentralizzazione e l'assenza di fiducia come garanzie di sicurezza fondamentali. Le prove a conoscenza zero (ZKP) formano la spina dorsale di questo paradigma, con applicazioni principalmente in tre direzioni fondamentali: scalabilità, privacy e interoperabilità & integrità dei dati. La scalabilità è stata la prima applicazione ZK a raggiungere la produzione, spostando l'esecuzione off-chain e verificando prove concise on-chain per un'elevata capacità e una scalabilità senza fiducia a basso costo.
Brevis rapporto di ricerca: ZKVM e strati di calcolo affidabile illimitato con co-processori di dati“Calcolo off-chain + Verifica on-chain” è diventato il modello di calcolo generale per i sistemi blockchain. Consente alle applicazioni blockchain di ottenere quasi un'infinità di libertà computazionale mantenendo la decentralizzazione e la sicurezza della minimizzazione della fiducia (trustlessness). Le prove a conoscenza zero (ZKP) sono il pilastro centrale di questo paradigma, con applicazioni principalmente concentrate su tre direzioni fondamentali: Scalabilità, Privacy e Interoperabilità & Integrità dei Dati. Tra queste, la Scalabilità è lo scenario in cui la tecnologia ZK è stata implementata per la prima volta, spostando l'esecuzione delle transazioni off-chain e validando i risultati on-chain con prove brevi, per ottenere un'elevata TPS e un ampliamento affidabile a basso costo.

Brevis rapporto di ricerca: ZKVM e strati di calcolo affidabile illimitato con co-processori di dati

“Calcolo off-chain + Verifica on-chain” è diventato il modello di calcolo generale per i sistemi blockchain. Consente alle applicazioni blockchain di ottenere quasi un'infinità di libertà computazionale mantenendo la decentralizzazione e la sicurezza della minimizzazione della fiducia (trustlessness). Le prove a conoscenza zero (ZKP) sono il pilastro centrale di questo paradigma, con applicazioni principalmente concentrate su tre direzioni fondamentali: Scalabilità, Privacy e Interoperabilità & Integrità dei Dati. Tra queste, la Scalabilità è lo scenario in cui la tecnologia ZK è stata implementata per la prima volta, spostando l'esecuzione delle transazioni off-chain e validando i risultati on-chain con prove brevi, per ottenere un'elevata TPS e un ampliamento affidabile a basso costo.
Cysic Research Report: Il percorso ComputeFi dell'accelerazione hardware ZKAutore:0xjacobzhao | https://linktr.ee/0xjacobzhao Zero-Knowledge Proofs (ZK) — come infrastruttura crittografica e di scalabilità di nuova generazione — stanno dimostrando un immenso potenziale nella scalabilità della blockchain, nel calcolo della privacy, nello zkML e nella verifica cross-chain. Tuttavia, il processo di generazione della prova è estremamente intensivo in termini di calcolo e pesante in termini di latenza, formando il più grande collo di bottiglia per l'adozione industriale. L'accelerazione hardware ZK è quindi emersa come un abilitante fondamentale. In questo panorama, le GPU eccellono in versatilità e velocità di iterazione, le ASIC perseguono l'efficienza ultima e le prestazioni su larga scala, mentre le FPGA fungono da terreno intermedio flessibile combinando programmabilità con efficienza energetica. Insieme, formano la base hardware che alimenta l'adozione reale di ZK.

Cysic Research Report: Il percorso ComputeFi dell'accelerazione hardware ZK

Autore:0xjacobzhao | https://linktr.ee/0xjacobzhao
Zero-Knowledge Proofs (ZK) — come infrastruttura crittografica e di scalabilità di nuova generazione — stanno dimostrando un immenso potenziale nella scalabilità della blockchain, nel calcolo della privacy, nello zkML e nella verifica cross-chain. Tuttavia, il processo di generazione della prova è estremamente intensivo in termini di calcolo e pesante in termini di latenza, formando il più grande collo di bottiglia per l'adozione industriale. L'accelerazione hardware ZK è quindi emersa come un abilitante fondamentale. In questo panorama, le GPU eccellono in versatilità e velocità di iterazione, le ASIC perseguono l'efficienza ultima e le prestazioni su larga scala, mentre le FPGA fungono da terreno intermedio flessibile combinando programmabilità con efficienza energetica. Insieme, formano la base hardware che alimenta l'adozione reale di ZK.
Rapporto di ricerca Cysic: Il percorso di ComputeFi per l'accelerazione hardware ZKAutore: 0xjacobzhao | https://linktr.ee/0xjacobzhao La prova a conoscenza zero (ZK) come nuova generazione di infrastrutture crittografiche e di scalabilità ha dimostrato un ampio potenziale nelle applicazioni emergenti come l'espansione della blockchain, il calcolo della privacy e zkML, la verifica cross-chain, ecc. Tuttavia, il processo di generazione delle prove comporta un carico computazionale enorme e ritardi elevati, diventando il principale collo di bottiglia per l'industrializzazione. L'accelerazione hardware ZK è emersa come un anello centrale in questo contesto. Nel percorso di accelerazione hardware ZK, le GPU sono conosciute per la loro versatilità e velocità di iterazione, gli ASIC puntano all'efficienza energetica estrema e alle prestazioni scalabili, mentre le FPGA rappresentano una forma intermedia, combinando flessibilità programmabile e alta efficienza energetica. Insieme, i tre componenti costituiscono la base hardware per promuovere l'implementazione della prova a conoscenza zero.

Rapporto di ricerca Cysic: Il percorso di ComputeFi per l'accelerazione hardware ZK

Autore: 0xjacobzhao | https://linktr.ee/0xjacobzhao
La prova a conoscenza zero (ZK) come nuova generazione di infrastrutture crittografiche e di scalabilità ha dimostrato un ampio potenziale nelle applicazioni emergenti come l'espansione della blockchain, il calcolo della privacy e zkML, la verifica cross-chain, ecc. Tuttavia, il processo di generazione delle prove comporta un carico computazionale enorme e ritardi elevati, diventando il principale collo di bottiglia per l'industrializzazione. L'accelerazione hardware ZK è emersa come un anello centrale in questo contesto. Nel percorso di accelerazione hardware ZK, le GPU sono conosciute per la loro versatilità e velocità di iterazione, gli ASIC puntano all'efficienza energetica estrema e alle prestazioni scalabili, mentre le FPGA rappresentano una forma intermedia, combinando flessibilità programmabile e alta efficienza energetica. Insieme, i tre componenti costituiscono la base hardware per promuovere l'implementazione della prova a conoscenza zero.
Rapporto di Ricerca GAIB: La Finanziarizzazione On-Chain dell'Infrastruttura IA — RWAiFiScritto da 0xjacobzhao | https://linktr.ee/0xjacobzhao Poiché l'IA sta diventando l'onda tecnologica in più rapida crescita, la potenza di calcolo è vista come una nuova "moneta", con le GPU che si trasformano in beni strategici. Tuttavia, il finanziamento e la liquidità rimangono limitati, mentre la finanza crypto ha bisogno di beni supportati da flussi di cassa reali. La tokenizzazione RWA sta emergendo come il ponte. L'infrastruttura dell'IA, che combina hardware di alto valore + flussi di cassa prevedibili, è vista come il miglior punto di ingresso per RWAs non standard — le GPU offrono praticità a breve termine, mentre la robotica rappresenta il confine più lungo. Il RWAiFi di GAIB (RWA + IA + DeFi) introduce un nuovo percorso per la finanziarizzazione on-chain, alimentando il volano dell'IA Infra (GPU & Robotica) × RWA × DeFi.

Rapporto di Ricerca GAIB: La Finanziarizzazione On-Chain dell'Infrastruttura IA — RWAiFi

Scritto da 0xjacobzhao | https://linktr.ee/0xjacobzhao
Poiché l'IA sta diventando l'onda tecnologica in più rapida crescita, la potenza di calcolo è vista come una nuova "moneta", con le GPU che si trasformano in beni strategici. Tuttavia, il finanziamento e la liquidità rimangono limitati, mentre la finanza crypto ha bisogno di beni supportati da flussi di cassa reali. La tokenizzazione RWA sta emergendo come il ponte. L'infrastruttura dell'IA, che combina hardware di alto valore + flussi di cassa prevedibili, è vista come il miglior punto di ingresso per RWAs non standard — le GPU offrono praticità a breve termine, mentre la robotica rappresenta il confine più lungo. Il RWAiFi di GAIB (RWA + IA + DeFi) introduce un nuovo percorso per la finanziarizzazione on-chain, alimentando il volano dell'IA Infra (GPU & Robotica) × RWA × DeFi.
Rapporto GAIB: La finanziarizzazione dell'infrastruttura AI sulla blockchain - RWAiFiAutore: 0xjacobzhao | https://linktr.ee/0xjacobzhao Con l'AI che diventa la tecnologia in più rapida crescita a livello globale, la potenza di calcolo è vista come una nuova "moneta", e hardware ad alte prestazioni come le GPU stanno evolvendo in beni strategici. Tuttavia, a lungo termine, il finanziamento e la liquidità di tali beni sono stati limitati. Nel frattempo, la finanza crittografica ha urgente bisogno di accedere a beni di alta qualità con flussi di cassa reali, e la tokenizzazione degli RWA (Real-World Assets) sta diventando un ponte chiave tra la finanza tradizionale e il mercato crittografico. Gli asset di infrastruttura AI, grazie alle loro caratteristiche di "hardware di alto valore + flusso di cassa prevedibile", sono ampiamente considerati la migliore opportunità per gli asset RWA non standard, con le GPU che presentano il potenziale di applicazione più realistico, mentre i robot rappresentano una direzione di esplorazione più a lungo termine. In questo contesto, il percorso RWAiFi (RWA + AI + DeFi) proposto da GAIB offre una nuova soluzione per "la finanziarizzazione dell'infrastruttura AI sulla blockchain", promuovendo l'effetto volano di "infrastruttura AI (potenza di calcolo e robot) x RWA x DeFi".

Rapporto GAIB: La finanziarizzazione dell'infrastruttura AI sulla blockchain - RWAiFi

Autore: 0xjacobzhao | https://linktr.ee/0xjacobzhao
Con l'AI che diventa la tecnologia in più rapida crescita a livello globale, la potenza di calcolo è vista come una nuova "moneta", e hardware ad alte prestazioni come le GPU stanno evolvendo in beni strategici. Tuttavia, a lungo termine, il finanziamento e la liquidità di tali beni sono stati limitati. Nel frattempo, la finanza crittografica ha urgente bisogno di accedere a beni di alta qualità con flussi di cassa reali, e la tokenizzazione degli RWA (Real-World Assets) sta diventando un ponte chiave tra la finanza tradizionale e il mercato crittografico. Gli asset di infrastruttura AI, grazie alle loro caratteristiche di "hardware di alto valore + flusso di cassa prevedibile", sono ampiamente considerati la migliore opportunità per gli asset RWA non standard, con le GPU che presentano il potenziale di applicazione più realistico, mentre i robot rappresentano una direzione di esplorazione più a lungo termine. In questo contesto, il percorso RWAiFi (RWA + AI + DeFi) proposto da GAIB offre una nuova soluzione per "la finanziarizzazione dell'infrastruttura AI sulla blockchain", promuovendo l'effetto volano di "infrastruttura AI (potenza di calcolo e robot) x RWA x DeFi".
Da Apprendimento Federato a Reti di Agenti Decentralizzati: Un'Analisi su ChainOperaScritto da 0xjacobzhao | https://linktr.ee/0xjacobzhao Nel nostro rapporto di giugno “Il Santo Graal dell'AI Crypto: Esplorazione Frontiera del Training Decentralizzato”, abbiamo discusso dell'Apprendimento Federato—un paradigma di “decentralizzazione controllata” posizionato tra il training distribuito e il training completamente decentralizzato. Il suo principio fondamentale è mantenere i dati localmente mentre si aggregano i parametri centralmente, un design particolarmente adatto per settori sensibili alla privacy e con molteplici normative come la sanità e la finanza.

Da Apprendimento Federato a Reti di Agenti Decentralizzati: Un'Analisi su ChainOpera

Scritto da 0xjacobzhao | https://linktr.ee/0xjacobzhao
Nel nostro rapporto di giugno “Il Santo Graal dell'AI Crypto: Esplorazione Frontiera del Training Decentralizzato”, abbiamo discusso dell'Apprendimento Federato—un paradigma di “decentralizzazione controllata” posizionato tra il training distribuito e il training completamente decentralizzato. Il suo principio fondamentale è mantenere i dati localmente mentre si aggregano i parametri centralmente, un design particolarmente adatto per settori sensibili alla privacy e con molteplici normative come la sanità e la finanza.
Dall'apprendimento federato alle reti di agenti decentralizzati: analisi del progetto ChainOperaNel rapporto di giugno (Il Graal di Crypto AI: esplorazioni all'avanguardia dell'addestramento decentralizzato), abbiamo menzionato l'apprendimento federato (Federated Learning), una soluzione di 'decentralizzazione controllata' che si colloca tra l'addestramento distribuito e l'addestramento decentralizzato: il suo nucleo è la conservazione locale dei dati e l'aggregazione centralizzata dei parametri, soddisfacendo le esigenze di privacy e conformità in ambiti come la sanità e la finanza. Nel frattempo, abbiamo continuato a monitorare l'emergere delle reti di agenti (Agent) in diverse edizioni precedenti dei rapporti: il loro valore risiede nella capacità di completare compiti complessi attraverso l'autonomia e la divisione del lavoro tra più agenti, promuovendo l'evoluzione da 'modelli grandi' a 'ecosistemi di agenti multipli'.

Dall'apprendimento federato alle reti di agenti decentralizzati: analisi del progetto ChainOpera

Nel rapporto di giugno (Il Graal di Crypto AI: esplorazioni all'avanguardia dell'addestramento decentralizzato), abbiamo menzionato l'apprendimento federato (Federated Learning), una soluzione di 'decentralizzazione controllata' che si colloca tra l'addestramento distribuito e l'addestramento decentralizzato: il suo nucleo è la conservazione locale dei dati e l'aggregazione centralizzata dei parametri, soddisfacendo le esigenze di privacy e conformità in ambiti come la sanità e la finanza. Nel frattempo, abbiamo continuato a monitorare l'emergere delle reti di agenti (Agent) in diverse edizioni precedenti dei rapporti: il loro valore risiede nella capacità di completare compiti complessi attraverso l'autonomia e la divisione del lavoro tra più agenti, promuovendo l'evoluzione da 'modelli grandi' a 'ecosistemi di agenti multipli'.
Rapporto di ricerca OpenLedge: la catena dell'intelligenza artificiale in cui dati e modelli possono essere monetizzatiI. Introduzione | Salto di livello del modello nell'intelligenza artificiale crittografica Dati, modelli e potenza di calcolo sono i tre elementi fondamentali dell'infrastruttura di intelligenza artificiale, analogamente al carburante (dati), al motore (modello) e all'energia (potenza di calcolo): tutti elementi indispensabili. Analogamente al percorso di evoluzione infrastrutturale del settore dell'intelligenza artificiale tradizionale, anche il settore della Crypto AI ha attraversato una fase analoga. All'inizio del 2024, il mercato era dominato da progetti GPU decentralizzati (Akash, Render, io.net, ecc.), che generalmente enfatizzavano una logica di crescita approssimativa basata sulla "competizione per la potenza di calcolo". Tuttavia, dopo l'ingresso nel 2025, l'attenzione del settore si è gradualmente spostata verso l'alto, verso i livelli di modello e dati, segnando la transizione della Crypto AI dalla competizione per le risorse sottostanti alla costruzione di un livello intermedio più sostenibile e orientato al valore applicativo.

Rapporto di ricerca OpenLedge: la catena dell'intelligenza artificiale in cui dati e modelli possono essere monetizzati

I. Introduzione | Salto di livello del modello nell'intelligenza artificiale crittografica
Dati, modelli e potenza di calcolo sono i tre elementi fondamentali dell'infrastruttura di intelligenza artificiale, analogamente al carburante (dati), al motore (modello) e all'energia (potenza di calcolo): tutti elementi indispensabili. Analogamente al percorso di evoluzione infrastrutturale del settore dell'intelligenza artificiale tradizionale, anche il settore della Crypto AI ha attraversato una fase analoga. All'inizio del 2024, il mercato era dominato da progetti GPU decentralizzati (Akash, Render, io.net, ecc.), che generalmente enfatizzavano una logica di crescita approssimativa basata sulla "competizione per la potenza di calcolo". Tuttavia, dopo l'ingresso nel 2025, l'attenzione del settore si è gradualmente spostata verso l'alto, verso i livelli di modello e dati, segnando la transizione della Crypto AI dalla competizione per le risorse sottostanti alla costruzione di un livello intermedio più sostenibile e orientato al valore applicativo.
Rapporto di Ricerca OpenLedger: Una Catena IA per Dati e Modelli Monetizzabili1. Introduzione | Il cambiamento della layer del modello nell'IA Crypto Dati, modelli e calcolo formano i tre pilastri centrali dell'infrastruttura IA—paragonabili a carburante (dati), motore (modello) ed energia (calcolo)—tutti indispensabili. Proprio come l'evoluzione dell'infrastruttura nell'industria IA tradizionale, il settore IA Crypto ha subito una traiettoria simile. All'inizio del 2024, il mercato era dominato da progetti GPU decentralizzati (come Akash, Render e io.net), caratterizzati da un modello di crescita pesante in risorse focalizzato sulla potenza di calcolo grezza. Tuttavia, entro il 2025, l'attenzione dell'industria si è gradualmente spostata verso i livelli di modello e dati, segnando una transizione da una competizione per infrastrutture di basso livello a uno sviluppo più sostenibile e guidato dalle applicazioni a livello medio.

Rapporto di Ricerca OpenLedger: Una Catena IA per Dati e Modelli Monetizzabili

1. Introduzione | Il cambiamento della layer del modello nell'IA Crypto
Dati, modelli e calcolo formano i tre pilastri centrali dell'infrastruttura IA—paragonabili a carburante (dati), motore (modello) ed energia (calcolo)—tutti indispensabili. Proprio come l'evoluzione dell'infrastruttura nell'industria IA tradizionale, il settore IA Crypto ha subito una traiettoria simile. All'inizio del 2024, il mercato era dominato da progetti GPU decentralizzati (come Akash, Render e io.net), caratterizzati da un modello di crescita pesante in risorse focalizzato sulla potenza di calcolo grezza. Tuttavia, entro il 2025, l'attenzione dell'industria si è gradualmente spostata verso i livelli di modello e dati, segnando una transizione da una competizione per infrastrutture di basso livello a uno sviluppo più sostenibile e guidato dalle applicazioni a livello medio.
Strategie di rendimento di Pendle svelate: il paradigma AgentFi di PulseDi 0xjacobzhao | https://linktr.ee/0xjacobzhao Senza dubbio, Pendle è uno dei protocolli DeFi più riusciti nel ciclo cripto attuale. Mentre molti protocolli si sono bloccati a causa di siccità di liquidità e narrazioni in declino, Pendle si è distinto attraverso il suo unico meccanismo di suddivisione dei rendimenti e trading, diventando il “luogo di scoperta dei prezzi” per gli asset a rendimento. Integrandosi profondamente con stablecoin, LST/LRT e altri asset generatori di rendimento, ha garantito la sua posizione come la fondamentale “infrastruttura dei tassi di rendimento DeFi”.

Strategie di rendimento di Pendle svelate: il paradigma AgentFi di Pulse

Di 0xjacobzhao | https://linktr.ee/0xjacobzhao
Senza dubbio, Pendle è uno dei protocolli DeFi più riusciti nel ciclo cripto attuale. Mentre molti protocolli si sono bloccati a causa di siccità di liquidità e narrazioni in declino, Pendle si è distinto attraverso il suo unico meccanismo di suddivisione dei rendimenti e trading, diventando il “luogo di scoperta dei prezzi” per gli asset a rendimento. Integrandosi profondamente con stablecoin, LST/LRT e altri asset generatori di rendimento, ha garantito la sua posizione come la fondamentale “infrastruttura dei tassi di rendimento DeFi”.
Accedi per esplorare altri contenuti
Esplora le ultime notizie sulle crypto
⚡️ Partecipa alle ultime discussioni sulle crypto
💬 Interagisci con i tuoi creator preferiti
👍 Goditi i contenuti che ti interessano
Email / numero di telefono
Mappa del sito
Preferenze sui cookie
T&C della piattaforma