Binance Square

0xjacobzhao

Crypto x AI | ex-Crypto VC | ENTJ/INTJ
Trade eröffnen
Gelegenheitstrader
6.7 Monate
1 Following
20 Follower
15 Like gegeben
8 Geteilt
Beiträge
Portfolio
·
--
Übersetzung ansehen
以太坊再定价:从 Rollup-Centric 到“安全性结算层”作者:Jacob Zhao, Jiawei, Turbo @ IOSG Ventures 2026 年 2 月 3 日,Vitalik 在 X 上发表了关于以太坊扩容路线的重要反思。随着 Layer 2 向完全去中心化形态演进的现实难度被重新认识,同时主网自身吞吐能力在未来数年内预计大幅提升,单纯依赖 L2 进行吞吐量扩容的原始设想正在修正,L1 与 L2 正在形成新的‘结算-服务’协同范式: L1 专注于提供最高等级的安全性、抗审查性与结算主权,而 L2 则向‘差异化服务商’演进(如隐私、AI、高频交易),以太坊的战略重心正回归主网本身,强化其作为全球最可信结算层的定位。扩容不再是唯一目标,安全性、中立性与可预测性,重新成为以太坊的核心资产。  核心变化: 以太坊正在进入“L1 优先范式”: 随着主网直接扩展、费用持续下降,依赖 L2 承担规模化核心角色的原始假设已不再成立。L2 不再是“品牌分片”,而是信任光谱: L2 去中心化推进远慢于预期,难以统一继承以太坊安全性,其角色正被重新定义为不同信任级别的网络光谱。以太坊的核心价值从“流量”转向“结算主权”: ETH 的价值不再限于 Gas 或 Blob 收入,而在于其作为全球最安全 EVM 结算层与原生货币资产的制度性溢价。扩展策略正在向协议内生化调整: 在 L1 持续直接扩展的基础上,协议层原生验证与安全机制的探索,可能重塑 L1–L2 的安全边界与价值捕获结构。估值框架发生结构性迁移: 安全性与机构可信度权重显著上升,手续费与平台效应权重下降,ETH 的定价正从现金流模型转向资产溢价模型。 本文将依照事实(已发生的技术与制度变化)、机制(对价值捕获与定价逻辑的影响)、推演(对配置与风险回报的含义)的分层对以太坊定价模型的范式转变与估值重构展开分析。 一、原点回归:以太坊价值观 理解以太坊的长期价值,关键不在短期价格波动,而在于其始终如一的设计理念与价值取向。 可信中立性:以太坊的核心目标并非效率或利润最大化,而是成为一套可信中立的基础设施——规则公开、可预测,不偏袒任何参与者,不受单一主体控制,任何人均可无需许可地参与。ETH 及其链上资产的安全性,最终依赖的是协议本身,而非任何机构信用。生态优先非收入优先:以太坊多次关键升级体现出一致的决策逻辑——主动放弃短期协议收入,以换取更低的使用成本、更大的生态规模与更强的系统韧性。其目标不是“收取过路费”,而是成为数字经济中不可替代的中立结算与信任底座。去中心化作为手段:主网专注于最高等级的安全性与最终性,而 Layer 2 网络位于与主网不同程度的连接光谱上:有的继承主网安全性并追求效率,有的则以差异化功能为价值定位。使系统能够同时服务全球结算与高性能应用,而非 L2 “品牌分片”。长期主义技术路线:以太坊坚持慢而确定的演进路径,优先保障系统安全与可信度。从 PoS 转型到后续扩容与确认机制优化,其路线图追求可持续、可验证、不可逆的正确性。 安全性结算层 (Security Settlement Layer): 指以太坊主网通过去中心化验证节点和共识机制,为 Layer 2 及链上资产提供不可逆转的最终性(Finality)服务。 这种安全性结算层的定位,标志了“结算主权”的建立,是以太坊从“邦联制”转向“联邦制” 的转变,是以太坊数字国家建立的 “宪法时刻”,更是以太坊架构与核心的重要升级。 美国独立战争以后,在邦联制的条款下,13个州像是一个松散联盟,各州各印各的货币、互相征收关税, 每个州都在搭便车:享受共同国防,却拒绝缴费;享受联盟的品牌,却各自为政。这个结构性的问题导致国家信用降低,并且无法统一对外贸易,严重阻碍经济。 1787年是美国的“宪法时刻”,新宪法赋予联邦政府三项关键权力:直接征税权、州际贸易管制权、统一货币权。但真正让联邦政府"活过来"的是汉密尔顿1790年的经济方案,联邦承担各州债务、按面值兑付重建国家信用、建立国家银行作为金融中枢。统一市场释放了规模效应,国家信用吸引了更多资本,基础设施建设获得了融资能力。美国从13个互相设防的小邦,走向了世界第一大经济体。 今天的以太坊生态的结构性困境完全一致。 每条L2就像一个"主权州",各自有自己的用户群、流动性池和治理代币。流动性被切割成碎片,跨L2交互摩擦大,L2享受以太坊的安全层和品牌却无法回馈L1价值。每条L2把流动性锁在自己链上是短期理性的,但所有L2都这样做就导致整个以太坊生态的最核心的竞争优势丧失。 以太坊现在推进的路线图,本质上就是它的制宪和建立中央经济系统,也就是建立“结算主权”: 原生Rollup预编译(Native Rollup Precompile)= 联邦宪法。 L2可以在EVM之外自由构建差异化功能,而EVM部分可以通过原生预编译获得以太坊级别的安全验证。不接入当然也可以,但代价是失去与以太坊生态的免信任互操作性。同步可组合性(Synchronous Composability)= 统一市场。 通过原生Rollup预编译等机制,L2之间、L2与L1之间的免信任互操作和同步可组合性正在成为可能,这直接消除了"州际贸易壁垒",流动性不再被困在各自的孤岛上。L1价值捕获重建 = 联邦征税权。 当所有关键的跨L2交互都回归L1结算时,ETH重新成为整个生态的结算中枢和信任锚点。谁控制结算层,谁就捕获价值。 以太坊正在用统一的结算和验证体系,把碎片化的L2生态变成一个不可替代的“数字国家”,这是一个历史必然。当然, 转变的过程可能缓慢,而历史告诉我们,这个转变一旦完成,释放出的网络效应将远超碎片化时代的线性增长。美国用统一的经济系统把13个小邦变成了世界第一大经济体。以太坊也将把松散的L2生态转化成最大的安全性结算层,乃至全球金融载体。 以太坊核心升级路线图与估值影响 (2025-2026) 二、估值误区:为何不应将以太坊视为“科技公司” 将传统企业估值模型(P/E、DCF、EV/EBITDA)套用于以太坊,本质上是一种类别错误。以太坊并非以利润最大化为目标的公司,而是一套开放的数字经济基础设施。企业追求股东价值最大化,而以太坊追求的是生态规模、安全性与抗审查性的最大化。为实现这一目标,以太坊多次主动压低协议收入(如通过EIP-4844 通过引入 Blob DA,结构性下移 L2 数据发布成本,并压低 L1 来自 rollup 数据的费用收入)——在公司视角下近似“收入自毁”,但在基础设施视角下,则是以牺牲短期费用换取长期的中立性溢价与网络效应。 更合理的理解框架,是将以太坊视为全球中立的结算与共识层:为数字经济提供安全性、最终性与可信协调。ETH 的价值体现在多重结构性需求之上——最终结算的刚性需求、链上金融与稳定币规模、质押与销毁机制对供给的影响,以及 ETF、企业财库与 RWA 等机构级采用所带来的长期、粘性资金。 三、范式重构:寻找现金流之外的定价锚 2025年底 Hashed团队推出的 ethval.com 为以太坊提供了详尽的可复现量化模型集合,但传统的静态模型难以捕捉 2026 年以太坊叙事的剧烈转折。因此,我们复用了其系统性、透明且可复现的底层模型(涵盖收益、货币、网络效应与供给结构),在估值架构与权重逻辑上进行了重塑: 结构重构: 将模型映射至“安全性、货币、平台、收入”四大价值象限,分类加总定价。权重再平衡: 显著上调安全性与结算溢价权重,弱化协议收入与 L2 扩张的边际贡献。风控叠加层: 引入宏观与链上风险感知的熔断机制,使估值框架具备跨周期适应性。剔除“循环论证”:对含现价输入的模型(如 Staking Scarcity、Liquidity Premium)不再作为公允价值锚,仅保留其作为仓位与风险偏好调节指标。 注:下述模型并非用于精确点位预测,而用于刻画不同价值来源在不同周期中的相对定价方向 1. 安全性结算层:核心价值锚(45%,避险期上调) 我们将安全性结算层视为以太坊最核心的价值来源,并赋予其 45% 的基准权重;在宏观不确定性上升或风险偏好回落阶段,该权重进一步上调。这一判断源于 Vitalik 对“真正扩展以太坊”的最新界定:扩容的本质不是提升 TPS,而是创造由以太坊本身完全背书的区块空间。任何依赖外部信任假设的高性能执行环境,都不构成对以太坊本体的扩展。 在此框架下,ETH 的价值主要体现为全球无主权结算层的信用溢价,而非协议收入。该溢价由验证者规模与去中心化程度、长期安全记录、机构级采用、合规路径清晰度,以及协议内生 Rollup 验证机制等结构性因素共同支撑。 在具体定价上,我们主要采用两种互补的方法:Validator Economics(收益均衡映射)与 Staking DCF(永续质押折现),共同刻画 ETH 作为“全球安全结算层”的制度性溢价。 Validator Economics(收益均衡定价):基于每枚ETH的年化质押现金流与目标真实收益率的比值,推导理论公允价格: Fair Price = (Annual Staking Cash Flow per ETH) / Target Real Yield 该表达用于刻画收益与价格的均衡关系,作为方向性相对估值工具,而非独立定价模型。  Staking DCF(永续质押折现):将 ETH 视为一项可持续产生真实质押收益的长期资产,对其现金流进行永续折现: M_staking = Total Real Staking Cash Flow / (Discount Rate − Longterm Growth Rate) ETH Price (staking) = M_staking / Circulating Supply 从本质上看,这一价值层并非对标平台型公司的收入能力,而是类似全球清算网络的结算信用。 2. 货币属性:结算与抵押(35%,效用扩张期主导) 我们将货币属性视为以太坊第二核心的价值来源,并赋予其 35% 的基准权重,在中性市场或链上经济扩张阶段成为主要效用锚。这一判断并非基于“ETH 等同于美元”的叙事,而在于其作为链上金融体系的原生结算燃料与最终抵押资产的结构性角色。稳定币流转、DeFi 清算与 RWA 结算的安全性,均依赖 ETH 所支撑的结算层。 定价上,我们采用货币数量论的扩展形式(MV = PQ),但将ETH的使用场景分层建模,以应对不同场景下流通速度的数量级差异分层货币需求模型: 高频结算层(Gas支付、稳定币转账)M_transaction = Annual Transaction Settlement Volume / V_highV_high ≈ 15-25(参考历史链上数据)中频金融层(DeFi交互、借贷清算)M_defi = Annual DeFi Settlement Volume / V_mediumV_medium ≈ 3-8(基于主流DeFi协议资金周转率)低频抵押层(质押、再质押、长期锁仓)M_collateral = Total ETH Collateral Value × (1 + Liquidity Premium)Liquidity Premium = 10-30%(反映流动性牺牲的补偿) 3. 平台 / 网络效应:增长期权(10%,牛市放大器) 平台与网络效应被视为以太坊估值中的增长期权,仅赋予 10% 权重,用于解释牛市阶段生态扩张带来的非线性溢价。我们采用经信任修正的梅特卡夫模型,避免将不同安全级别的 L2 资产等权计入估值: 梅特卡夫模型: M_network = a × (Active Users)^b  +  m × Σ (L2 TVL_i × TrustScore_i)平台/网络效应估值价格:ETH Price(network) = M_network / Circulating Supply 4. 收入资产:现金流地板(10%,熊市托底) 我们将协议收入视为以太坊估值体系中的现金流地板,而非增长引擎,同样赋予 10% 权重。该层主要在熊市或极端风险阶段发挥作用,用于刻画估值下限。 Gas 与 Blob 费用为网络提供最低运作成本,并通过 EIP-1559 影响供给结构。估值上,我们采用市销率与费用收益率模型,并取其中的保守值,仅作为底部参考。随着主网持续扩容,协议收入的重要性相对下降,其核心作用体现在下行阶段的安全边际。 市销率模型(P/S Floor):M_PS = Annual Protocol Revenue × P/S_multiple市销率估值价格:ETH Price (PS) = M_PS / Circulating Supply费用收益率模型:M_Yield = Annual Protocol Revenue / Target Fee Yield费用收益估值价格:ETH Price(Yield) = M_Yield / Circulating Supply现金流地板定价(取两者极小值):P_Revenue_Floor = min(P_PS , P_Yield) 四、动态校准:宏观约束与周期适配 如果说前文确立了以太坊的“内在价值中枢”,本章则引入一套独立于基本面的“外在环境适配系统”。估值无法真空运行,必须受制于宏观环境(资金成本)、市场结构(相对强弱)与链上情绪(拥挤度)三大外部约束。基于此,我们构建了状态适配(Regime Adaptation)机制,在不同周期动态调整估值权重——宽松期释放期权溢价,避险期退守收入地板,从而实现从静态模型到动态策略的跨越。(注:限于篇幅,本文仅展示该机制的核心逻辑框架。) 五、机构化第二曲线的条件路径 前文分析均基于加密体系内部的技术、估值与周期逻辑,而本章讨论的是一个不同层级的问题:当 ETH 不再仅由加密原生资金定价,而被逐步纳入传统金融体系,其定价权、资产属性与风险结构将如何变化。机构化第二曲线并非对既有逻辑的延伸,而是外生力量对以太坊的再定义: 资产属性的变化(Beta → Carry):现货 ETH ETF 解决的是合规与托管问题,本质仍是价格暴露;而未来Staking ETF 的推进,首次将链上收益通过合规载体引入机构体系。ETH 由此从“无息高波动资产”转向“具备可预期收益的配置型资产”,潜在买家从交易型资金扩展至对收益与久期敏感的养老金、保险及长期账户。使用方式的变化(Holding → Using):如果机构不再仅将 ETH 视为可交易标的,而是开始将其作为结算与抵押基础设施使用。无论是 JPMorgan 的代币化基金,还是合规稳定币与 RWA 在以太坊上的部署,都表明 ETH 的需求正从“持有需求”转向“运行需求”——机构不仅持有 ETH,更在其上完成结算、清算与风险管理。尾部风险的变化(Uncertainty → Pricing): 随着稳定币监管框架(如 GENIUS Act)未来逐步确立,以及以太坊路线图与治理透明度提升,机构最为敏感的监管与技术不确定性正在被系统性压缩,意味着不确定性开始被定价,而非被回避。 所谓“机构化第二曲线”是 需求性质的改变,为“安全性结算层 + 货币属性”的估值逻辑提供了真实需求来源,推动 ETH 从以情绪驱动的投机资产过渡为同时承载配置性与功能性需求的基础资产。 六、结语:至暗时刻的价值锚定 过去一周,行业经历了剧烈的去杠杆化洗礼,市场情绪降至冰点,这无疑是加密世界的“至暗时刻”。悲观情绪在从业者中蔓延,而作为最能代表加密精神的资产标的,以太坊亦处于争议的风暴眼中。 然而,作为理性的观察者,我们需要穿透恐慌的迷雾:以太坊当前所经历的,并非“价值的坍塌”,而是一次深刻的“定价锚迁移”。随着 L1 扩容直接推进、L2 被重新界定为不同信任等级的网络光谱,以及协议收入主动让位于系统安全与中立性,ETH 的定价逻辑已结构性转向“安全性结算层 + 原生货币属性”。 在宏观真实利率高位、流动性尚未宽松、链上增长期权暂未被市场允许定价的背景下,ETH 的价格自然收敛至由结算确定性、可验证收益与机构共识支撑的结构性价值区间。这一区间并非情绪底,而是在剥离平台型增长溢价后的价值中枢。 作为以太坊生态的长期建设者,我们拒绝做 ETH 的“无脑多头”。我们希望通过严谨的逻辑框架,审慎地论证我们的预判:只有当宏观流动性、风险偏好与网络效应同时满足市场状态的触发条件时,更高的估值才会被市场重新计入。 因此,对于长线投资者而言,当下的关键问题不再是焦虑地追问“以太坊还能不能涨”,而是要清醒地认识到——在当前环境下,我们正在以“地板价”买入哪一层核心价值? 免责声明:本文在创作过程中借助了 ChatGPT-5.2, Gemini 3和Claude Opus 4.5等 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。

以太坊再定价:从 Rollup-Centric 到“安全性结算层”

作者:Jacob Zhao, Jiawei, Turbo @ IOSG Ventures

2026 年 2 月 3 日,Vitalik 在 X 上发表了关于以太坊扩容路线的重要反思。随着 Layer 2 向完全去中心化形态演进的现实难度被重新认识,同时主网自身吞吐能力在未来数年内预计大幅提升,单纯依赖 L2 进行吞吐量扩容的原始设想正在修正,L1 与 L2 正在形成新的‘结算-服务’协同范式: L1 专注于提供最高等级的安全性、抗审查性与结算主权,而 L2 则向‘差异化服务商’演进(如隐私、AI、高频交易),以太坊的战略重心正回归主网本身,强化其作为全球最可信结算层的定位。扩容不再是唯一目标,安全性、中立性与可预测性,重新成为以太坊的核心资产。

 核心变化:
以太坊正在进入“L1 优先范式”: 随着主网直接扩展、费用持续下降,依赖 L2 承担规模化核心角色的原始假设已不再成立。L2 不再是“品牌分片”,而是信任光谱: L2 去中心化推进远慢于预期,难以统一继承以太坊安全性,其角色正被重新定义为不同信任级别的网络光谱。以太坊的核心价值从“流量”转向“结算主权”: ETH 的价值不再限于 Gas 或 Blob 收入,而在于其作为全球最安全 EVM 结算层与原生货币资产的制度性溢价。扩展策略正在向协议内生化调整: 在 L1 持续直接扩展的基础上,协议层原生验证与安全机制的探索,可能重塑 L1–L2 的安全边界与价值捕获结构。估值框架发生结构性迁移: 安全性与机构可信度权重显著上升,手续费与平台效应权重下降,ETH 的定价正从现金流模型转向资产溢价模型。
本文将依照事实(已发生的技术与制度变化)、机制(对价值捕获与定价逻辑的影响)、推演(对配置与风险回报的含义)的分层对以太坊定价模型的范式转变与估值重构展开分析。
一、原点回归:以太坊价值观
理解以太坊的长期价值,关键不在短期价格波动,而在于其始终如一的设计理念与价值取向。
可信中立性:以太坊的核心目标并非效率或利润最大化,而是成为一套可信中立的基础设施——规则公开、可预测,不偏袒任何参与者,不受单一主体控制,任何人均可无需许可地参与。ETH 及其链上资产的安全性,最终依赖的是协议本身,而非任何机构信用。生态优先非收入优先:以太坊多次关键升级体现出一致的决策逻辑——主动放弃短期协议收入,以换取更低的使用成本、更大的生态规模与更强的系统韧性。其目标不是“收取过路费”,而是成为数字经济中不可替代的中立结算与信任底座。去中心化作为手段:主网专注于最高等级的安全性与最终性,而 Layer 2 网络位于与主网不同程度的连接光谱上:有的继承主网安全性并追求效率,有的则以差异化功能为价值定位。使系统能够同时服务全球结算与高性能应用,而非 L2 “品牌分片”。长期主义技术路线:以太坊坚持慢而确定的演进路径,优先保障系统安全与可信度。从 PoS 转型到后续扩容与确认机制优化,其路线图追求可持续、可验证、不可逆的正确性。
安全性结算层 (Security Settlement Layer): 指以太坊主网通过去中心化验证节点和共识机制,为 Layer 2 及链上资产提供不可逆转的最终性(Finality)服务。

这种安全性结算层的定位,标志了“结算主权”的建立,是以太坊从“邦联制”转向“联邦制” 的转变,是以太坊数字国家建立的 “宪法时刻”,更是以太坊架构与核心的重要升级。
美国独立战争以后,在邦联制的条款下,13个州像是一个松散联盟,各州各印各的货币、互相征收关税, 每个州都在搭便车:享受共同国防,却拒绝缴费;享受联盟的品牌,却各自为政。这个结构性的问题导致国家信用降低,并且无法统一对外贸易,严重阻碍经济。
1787年是美国的“宪法时刻”,新宪法赋予联邦政府三项关键权力:直接征税权、州际贸易管制权、统一货币权。但真正让联邦政府"活过来"的是汉密尔顿1790年的经济方案,联邦承担各州债务、按面值兑付重建国家信用、建立国家银行作为金融中枢。统一市场释放了规模效应,国家信用吸引了更多资本,基础设施建设获得了融资能力。美国从13个互相设防的小邦,走向了世界第一大经济体。
今天的以太坊生态的结构性困境完全一致。
每条L2就像一个"主权州",各自有自己的用户群、流动性池和治理代币。流动性被切割成碎片,跨L2交互摩擦大,L2享受以太坊的安全层和品牌却无法回馈L1价值。每条L2把流动性锁在自己链上是短期理性的,但所有L2都这样做就导致整个以太坊生态的最核心的竞争优势丧失。
以太坊现在推进的路线图,本质上就是它的制宪和建立中央经济系统,也就是建立“结算主权”:
原生Rollup预编译(Native Rollup Precompile)= 联邦宪法。 L2可以在EVM之外自由构建差异化功能,而EVM部分可以通过原生预编译获得以太坊级别的安全验证。不接入当然也可以,但代价是失去与以太坊生态的免信任互操作性。同步可组合性(Synchronous Composability)= 统一市场。 通过原生Rollup预编译等机制,L2之间、L2与L1之间的免信任互操作和同步可组合性正在成为可能,这直接消除了"州际贸易壁垒",流动性不再被困在各自的孤岛上。L1价值捕获重建 = 联邦征税权。 当所有关键的跨L2交互都回归L1结算时,ETH重新成为整个生态的结算中枢和信任锚点。谁控制结算层,谁就捕获价值。
以太坊正在用统一的结算和验证体系,把碎片化的L2生态变成一个不可替代的“数字国家”,这是一个历史必然。当然, 转变的过程可能缓慢,而历史告诉我们,这个转变一旦完成,释放出的网络效应将远超碎片化时代的线性增长。美国用统一的经济系统把13个小邦变成了世界第一大经济体。以太坊也将把松散的L2生态转化成最大的安全性结算层,乃至全球金融载体。
以太坊核心升级路线图与估值影响 (2025-2026)

二、估值误区:为何不应将以太坊视为“科技公司”
将传统企业估值模型(P/E、DCF、EV/EBITDA)套用于以太坊,本质上是一种类别错误。以太坊并非以利润最大化为目标的公司,而是一套开放的数字经济基础设施。企业追求股东价值最大化,而以太坊追求的是生态规模、安全性与抗审查性的最大化。为实现这一目标,以太坊多次主动压低协议收入(如通过EIP-4844 通过引入 Blob DA,结构性下移 L2 数据发布成本,并压低 L1 来自 rollup 数据的费用收入)——在公司视角下近似“收入自毁”,但在基础设施视角下,则是以牺牲短期费用换取长期的中立性溢价与网络效应。
更合理的理解框架,是将以太坊视为全球中立的结算与共识层:为数字经济提供安全性、最终性与可信协调。ETH 的价值体现在多重结构性需求之上——最终结算的刚性需求、链上金融与稳定币规模、质押与销毁机制对供给的影响,以及 ETF、企业财库与 RWA 等机构级采用所带来的长期、粘性资金。

三、范式重构:寻找现金流之外的定价锚

2025年底 Hashed团队推出的 ethval.com 为以太坊提供了详尽的可复现量化模型集合,但传统的静态模型难以捕捉 2026 年以太坊叙事的剧烈转折。因此,我们复用了其系统性、透明且可复现的底层模型(涵盖收益、货币、网络效应与供给结构),在估值架构与权重逻辑上进行了重塑:
结构重构: 将模型映射至“安全性、货币、平台、收入”四大价值象限,分类加总定价。权重再平衡: 显著上调安全性与结算溢价权重,弱化协议收入与 L2 扩张的边际贡献。风控叠加层: 引入宏观与链上风险感知的熔断机制,使估值框架具备跨周期适应性。剔除“循环论证”:对含现价输入的模型(如 Staking Scarcity、Liquidity Premium)不再作为公允价值锚,仅保留其作为仓位与风险偏好调节指标。
注:下述模型并非用于精确点位预测,而用于刻画不同价值来源在不同周期中的相对定价方向

1. 安全性结算层:核心价值锚(45%,避险期上调)
我们将安全性结算层视为以太坊最核心的价值来源,并赋予其 45% 的基准权重;在宏观不确定性上升或风险偏好回落阶段,该权重进一步上调。这一判断源于 Vitalik 对“真正扩展以太坊”的最新界定:扩容的本质不是提升 TPS,而是创造由以太坊本身完全背书的区块空间。任何依赖外部信任假设的高性能执行环境,都不构成对以太坊本体的扩展。
在此框架下,ETH 的价值主要体现为全球无主权结算层的信用溢价,而非协议收入。该溢价由验证者规模与去中心化程度、长期安全记录、机构级采用、合规路径清晰度,以及协议内生 Rollup 验证机制等结构性因素共同支撑。
在具体定价上,我们主要采用两种互补的方法:Validator Economics(收益均衡映射)与 Staking DCF(永续质押折现),共同刻画 ETH 作为“全球安全结算层”的制度性溢价。
Validator Economics(收益均衡定价):基于每枚ETH的年化质押现金流与目标真实收益率的比值,推导理论公允价格:
Fair Price = (Annual Staking Cash Flow per ETH) / Target Real Yield
该表达用于刻画收益与价格的均衡关系,作为方向性相对估值工具,而非独立定价模型。
 Staking DCF(永续质押折现):将 ETH 视为一项可持续产生真实质押收益的长期资产,对其现金流进行永续折现:
M_staking = Total Real Staking Cash Flow / (Discount Rate − Longterm Growth Rate)
ETH Price (staking) = M_staking / Circulating Supply
从本质上看,这一价值层并非对标平台型公司的收入能力,而是类似全球清算网络的结算信用。

2. 货币属性:结算与抵押(35%,效用扩张期主导)
我们将货币属性视为以太坊第二核心的价值来源,并赋予其 35% 的基准权重,在中性市场或链上经济扩张阶段成为主要效用锚。这一判断并非基于“ETH 等同于美元”的叙事,而在于其作为链上金融体系的原生结算燃料与最终抵押资产的结构性角色。稳定币流转、DeFi 清算与 RWA 结算的安全性,均依赖 ETH 所支撑的结算层。
定价上,我们采用货币数量论的扩展形式(MV = PQ),但将ETH的使用场景分层建模,以应对不同场景下流通速度的数量级差异分层货币需求模型:
高频结算层(Gas支付、稳定币转账)M_transaction = Annual Transaction Settlement Volume / V_highV_high ≈ 15-25(参考历史链上数据)中频金融层(DeFi交互、借贷清算)M_defi = Annual DeFi Settlement Volume / V_mediumV_medium ≈ 3-8(基于主流DeFi协议资金周转率)低频抵押层(质押、再质押、长期锁仓)M_collateral = Total ETH Collateral Value × (1 + Liquidity Premium)Liquidity Premium = 10-30%(反映流动性牺牲的补偿)
3. 平台 / 网络效应:增长期权(10%,牛市放大器)
平台与网络效应被视为以太坊估值中的增长期权,仅赋予 10% 权重,用于解释牛市阶段生态扩张带来的非线性溢价。我们采用经信任修正的梅特卡夫模型,避免将不同安全级别的 L2 资产等权计入估值:
梅特卡夫模型: M_network = a × (Active Users)^b  +  m × Σ (L2 TVL_i × TrustScore_i)平台/网络效应估值价格:ETH Price(network) = M_network / Circulating Supply
4. 收入资产:现金流地板(10%,熊市托底)
我们将协议收入视为以太坊估值体系中的现金流地板,而非增长引擎,同样赋予 10% 权重。该层主要在熊市或极端风险阶段发挥作用,用于刻画估值下限。
Gas 与 Blob 费用为网络提供最低运作成本,并通过 EIP-1559 影响供给结构。估值上,我们采用市销率与费用收益率模型,并取其中的保守值,仅作为底部参考。随着主网持续扩容,协议收入的重要性相对下降,其核心作用体现在下行阶段的安全边际。
市销率模型(P/S Floor):M_PS = Annual Protocol Revenue × P/S_multiple市销率估值价格:ETH Price (PS) = M_PS / Circulating Supply费用收益率模型:M_Yield = Annual Protocol Revenue / Target Fee Yield费用收益估值价格:ETH Price(Yield) = M_Yield / Circulating Supply现金流地板定价(取两者极小值):P_Revenue_Floor = min(P_PS , P_Yield)
四、动态校准:宏观约束与周期适配
如果说前文确立了以太坊的“内在价值中枢”,本章则引入一套独立于基本面的“外在环境适配系统”。估值无法真空运行,必须受制于宏观环境(资金成本)、市场结构(相对强弱)与链上情绪(拥挤度)三大外部约束。基于此,我们构建了状态适配(Regime Adaptation)机制,在不同周期动态调整估值权重——宽松期释放期权溢价,避险期退守收入地板,从而实现从静态模型到动态策略的跨越。(注:限于篇幅,本文仅展示该机制的核心逻辑框架。)

五、机构化第二曲线的条件路径
前文分析均基于加密体系内部的技术、估值与周期逻辑,而本章讨论的是一个不同层级的问题:当 ETH 不再仅由加密原生资金定价,而被逐步纳入传统金融体系,其定价权、资产属性与风险结构将如何变化。机构化第二曲线并非对既有逻辑的延伸,而是外生力量对以太坊的再定义:
资产属性的变化(Beta → Carry):现货 ETH ETF 解决的是合规与托管问题,本质仍是价格暴露;而未来Staking ETF 的推进,首次将链上收益通过合规载体引入机构体系。ETH 由此从“无息高波动资产”转向“具备可预期收益的配置型资产”,潜在买家从交易型资金扩展至对收益与久期敏感的养老金、保险及长期账户。使用方式的变化(Holding → Using):如果机构不再仅将 ETH 视为可交易标的,而是开始将其作为结算与抵押基础设施使用。无论是 JPMorgan 的代币化基金,还是合规稳定币与 RWA 在以太坊上的部署,都表明 ETH 的需求正从“持有需求”转向“运行需求”——机构不仅持有 ETH,更在其上完成结算、清算与风险管理。尾部风险的变化(Uncertainty → Pricing): 随着稳定币监管框架(如 GENIUS Act)未来逐步确立,以及以太坊路线图与治理透明度提升,机构最为敏感的监管与技术不确定性正在被系统性压缩,意味着不确定性开始被定价,而非被回避。
所谓“机构化第二曲线”是 需求性质的改变,为“安全性结算层 + 货币属性”的估值逻辑提供了真实需求来源,推动 ETH 从以情绪驱动的投机资产过渡为同时承载配置性与功能性需求的基础资产。

六、结语:至暗时刻的价值锚定
过去一周,行业经历了剧烈的去杠杆化洗礼,市场情绪降至冰点,这无疑是加密世界的“至暗时刻”。悲观情绪在从业者中蔓延,而作为最能代表加密精神的资产标的,以太坊亦处于争议的风暴眼中。
然而,作为理性的观察者,我们需要穿透恐慌的迷雾:以太坊当前所经历的,并非“价值的坍塌”,而是一次深刻的“定价锚迁移”。随着 L1 扩容直接推进、L2 被重新界定为不同信任等级的网络光谱,以及协议收入主动让位于系统安全与中立性,ETH 的定价逻辑已结构性转向“安全性结算层 + 原生货币属性”。
在宏观真实利率高位、流动性尚未宽松、链上增长期权暂未被市场允许定价的背景下,ETH 的价格自然收敛至由结算确定性、可验证收益与机构共识支撑的结构性价值区间。这一区间并非情绪底,而是在剥离平台型增长溢价后的价值中枢。
作为以太坊生态的长期建设者,我们拒绝做 ETH 的“无脑多头”。我们希望通过严谨的逻辑框架,审慎地论证我们的预判:只有当宏观流动性、风险偏好与网络效应同时满足市场状态的触发条件时,更高的估值才会被市场重新计入。
因此,对于长线投资者而言,当下的关键问题不再是焦虑地追问“以太坊还能不能涨”,而是要清醒地认识到——在当前环境下,我们正在以“地板价”买入哪一层核心价值?

免责声明:本文在创作过程中借助了 ChatGPT-5.2, Gemini 3和Claude Opus 4.5等 AI 工具辅助完成,作者已尽力校对并确保信息真实与准确,但仍难免存在疏漏,敬请谅解。需特别提示的是,加密资产市场普遍存在项目基本面与二级市场价格表现背离的情况。本文内容仅用于信息整合与学术/研究交流,不构成任何投资建议,亦不应视为任何代币的买卖推荐。
Noya.ai: Agenten in PrognosemärktenAutor: 0xjacobzhao | https://linktr.ee/0xjacobzhao In unseren vorherigen Forschungsberichten zur Crypto AI-Serie haben wir konsequent die Ansicht betont, dass die praktischsten Anwendungsszenarien im aktuellen Kryptobereich hauptsächlich auf Stablecoin-Zahlungen und DeFi konzentriert sind, während Agenten die Schlüsseloberfläche für die KI-Branche sind, die sich an die Nutzer richtet. Daher sind im Trend der Integration von Crypto und KI die beiden wertvollsten Pfade: AgentFi, basierend auf bestehenden reifen DeFi-Protokollen (Basisstrategien wie Kreditvergabe und Liquiditätsmining sowie fortgeschrittene Strategien wie Swap, Pendle PT und Funding-Rate-Arbitrage) auf kurze Sicht; und Agent Payment, das sich auf die Abwicklung mit Stablecoins konzentriert und auf Protokollen wie ACP/AP2/x402/ERC-8004 in mittlerer bis langer Sicht basiert.

Noya.ai: Agenten in Prognosemärkten

Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao
In unseren vorherigen Forschungsberichten zur Crypto AI-Serie haben wir konsequent die Ansicht betont, dass die praktischsten Anwendungsszenarien im aktuellen Kryptobereich hauptsächlich auf Stablecoin-Zahlungen und DeFi konzentriert sind, während Agenten die Schlüsseloberfläche für die KI-Branche sind, die sich an die Nutzer richtet. Daher sind im Trend der Integration von Crypto und KI die beiden wertvollsten Pfade: AgentFi, basierend auf bestehenden reifen DeFi-Protokollen (Basisstrategien wie Kreditvergabe und Liquiditätsmining sowie fortgeschrittene Strategien wie Swap, Pendle PT und Funding-Rate-Arbitrage) auf kurze Sicht; und Agent Payment, das sich auf die Abwicklung mit Stablecoins konzentriert und auf Protokollen wie ACP/AP2/x402/ERC-8004 in mittlerer bis langer Sicht basiert.
Noya.ai Forschungsbericht: Vorhersage von MarktintelligenzenNoya.ai Forschungsbericht: Vorhersage von Marktintelligenzen Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao In den früheren Crypto AI Forschungsberichten haben wir kontinuierlich betont, dass die aktuellen Szenarien mit dem größten praktischen Anwendungswert im Krypto-Bereich hauptsächlich auf Stablecoin-Zahlungen und DeFi konzentriert sind, während Agenten die Schlüsseloberfläche der KI-Industrie gegenüber den Nutzern darstellen. Daher sind im Trend der Fusion von Crypto und KI die zwei wertvollsten Pfade: AgentFi, das kurzfristig auf bestehenden ausgereiften DeFi-Protokollen (Basisstrategien wie Kreditvergabe, Liquiditätsmining usw. sowie fortgeschrittene Strategien wie Swap, Pendle PT, Kapitalzinsarbitrage usw.) basiert, und Agent Payment, das sich mittel- bis langfristig auf Stablecoin-Abrechnungen stützt und Protokolle wie ACP/AP2/x402/ERC-8004 nutzt.

Noya.ai Forschungsbericht: Vorhersage von Marktintelligenzen

Noya.ai Forschungsbericht: Vorhersage von Marktintelligenzen
Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao

In den früheren Crypto AI Forschungsberichten haben wir kontinuierlich betont, dass die aktuellen Szenarien mit dem größten praktischen Anwendungswert im Krypto-Bereich hauptsächlich auf Stablecoin-Zahlungen und DeFi konzentriert sind, während Agenten die Schlüsseloberfläche der KI-Industrie gegenüber den Nutzern darstellen. Daher sind im Trend der Fusion von Crypto und KI die zwei wertvollsten Pfade: AgentFi, das kurzfristig auf bestehenden ausgereiften DeFi-Protokollen (Basisstrategien wie Kreditvergabe, Liquiditätsmining usw. sowie fortgeschrittene Strategien wie Swap, Pendle PT, Kapitalzinsarbitrage usw.) basiert, und Agent Payment, das sich mittel- bis langfristig auf Stablecoin-Abrechnungen stützt und Protokolle wie ACP/AP2/x402/ERC-8004 nutzt.
Verstärkungslernen: Der Paradigmenwechsel der dezentralen KIAutor: 0xjacobzhao | https://linktr.ee/0xjacobzhao Dieser unabhängige Forschungsbericht wird von IOSG Ventures unterstützt. Der Forschungs- und Schreibprozess wurde von der Arbeit von Sam Lehman (Pantera Capital) zur Verstärkungslernen inspiriert. Danke an Ben Fielding (Gensyn.ai), Gao Yuan (Gradient), Samuel Dare & Erfan Miahi (Covenant AI), Shashank Yadav (Fraction AI), Chao Wang für ihre wertvollen Vorschläge zu diesem Artikel. Dieser Artikel strebt nach Objektivität und Genauigkeit, aber einige Ansichten beinhalten subjektive Urteile und können Vorurteile enthalten. Wir schätzen das Verständnis der Leser.

Verstärkungslernen: Der Paradigmenwechsel der dezentralen KI

Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao
Dieser unabhängige Forschungsbericht wird von IOSG Ventures unterstützt. Der Forschungs- und Schreibprozess wurde von der Arbeit von Sam Lehman (Pantera Capital) zur Verstärkungslernen inspiriert. Danke an Ben Fielding (Gensyn.ai), Gao Yuan (Gradient), Samuel Dare & Erfan Miahi (Covenant AI), Shashank Yadav (Fraction AI), Chao Wang für ihre wertvollen Vorschläge zu diesem Artikel. Dieser Artikel strebt nach Objektivität und Genauigkeit, aber einige Ansichten beinhalten subjektive Urteile und können Vorurteile enthalten. Wir schätzen das Verständnis der Leser.
Verstärktes Lernen: Paradigmenwechsel in dezentralen KI-NetzwerkenAutor: 0xjacobzhao | https://linktr.ee/0xjacobzhao Dieser unabhängige Forschungsbericht wird von IOSG Ventures unterstützt. Der Forschungs- und Schreibprozess wurde von Sam Lehman (Pantera Capital) und seinem Bericht über verstärktes Lernen inspiriert. Besonderer Dank gilt Ben Fielding (Gensyn.ai), Gao Yuan (Gradient), Samuel Dare & Erfan Miahi (Covenant AI), Shashank Yadav (Fraction AI) und Chao Wang für ihre wertvollen Vorschläge zu diesem Artikel. Dieser Artikel strebt nach objektivem und genauem Inhalt, einige Ansichten beinhalten subjektive Urteile, was unvermeidlich zu Verzerrungen führen kann. Wir bitten die Leser um Verständnis. Künstliche Intelligenz entwickelt sich von einem auf "Modellanpassung" basierenden statistischen Lernen hin zu einem Fähigkeitsystem, das auf "strukturiertem Schlussfolgern" basiert. Die Bedeutung des Post-Trainings steigt schnell an. Das Auftreten von DeepSeek-R1 markiert einen paradigmatischen Umschwung des verstärkenden Lernens im Zeitalter großer Modelle, und es entsteht ein Branchenkonsens: Die Vorab-Training schafft die Grundlage für die allgemeine Fähigkeit des Modells, während verstärktes Lernen nicht mehr nur ein Werkzeug zur Wertausrichtung ist, sondern sich als systematische Verbesserung der Qualität der Schlussfolgerungsketten und der komplexen Entscheidungsfähigkeit erwiesen hat und sich schrittweise zu einem technischen Weg entwickelt, der das Intelligenzniveau kontinuierlich erhöht.

Verstärktes Lernen: Paradigmenwechsel in dezentralen KI-Netzwerken

Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao

Dieser unabhängige Forschungsbericht wird von IOSG Ventures unterstützt. Der Forschungs- und Schreibprozess wurde von Sam Lehman (Pantera Capital) und seinem Bericht über verstärktes Lernen inspiriert. Besonderer Dank gilt Ben Fielding (Gensyn.ai), Gao Yuan (Gradient), Samuel Dare & Erfan Miahi (Covenant AI), Shashank Yadav (Fraction AI) und Chao Wang für ihre wertvollen Vorschläge zu diesem Artikel. Dieser Artikel strebt nach objektivem und genauem Inhalt, einige Ansichten beinhalten subjektive Urteile, was unvermeidlich zu Verzerrungen führen kann. Wir bitten die Leser um Verständnis.
Künstliche Intelligenz entwickelt sich von einem auf "Modellanpassung" basierenden statistischen Lernen hin zu einem Fähigkeitsystem, das auf "strukturiertem Schlussfolgern" basiert. Die Bedeutung des Post-Trainings steigt schnell an. Das Auftreten von DeepSeek-R1 markiert einen paradigmatischen Umschwung des verstärkenden Lernens im Zeitalter großer Modelle, und es entsteht ein Branchenkonsens: Die Vorab-Training schafft die Grundlage für die allgemeine Fähigkeit des Modells, während verstärktes Lernen nicht mehr nur ein Werkzeug zur Wertausrichtung ist, sondern sich als systematische Verbesserung der Qualität der Schlussfolgerungsketten und der komplexen Entscheidungsfähigkeit erwiesen hat und sich schrittweise zu einem technischen Weg entwickelt, der das Intelligenzniveau kontinuierlich erhöht.
Maschinenwirtschaftliche Bestellung: Ein Full-Stack-Weg zu agentischem HandelAutor: 0xjacobzhao | https://linktr.ee/0xjacobzhao Dieser unabhängige Forschungsbericht wird von IOSG Ventures unterstützt. Der Forschungs- und Schreibprozess wurde von verwandten Arbeiten von Raghav Agarwal (LongHash) und Jay Yu (Pantera) inspiriert. Dank an Lex Sokolin @ Generative Ventures, Jordan@AIsa, Ivy @PodOur2Cents für ihre wertvollen Vorschläge zu diesem Artikel. Feedback wurde auch von Projektteams wie Nevermined, Skyfire, Virtuals Protocol, AIsa, Heurist, AEON während des Schreibprozesses eingeholt. Dieser Artikel strebt nach objektivem und genauem Inhalt, aber einige Sichtweisen beinhalten subjektive Bewertungen und können unvermeidlich Abweichungen enthalten. Das Verständnis der Leser wird geschätzt.

Maschinenwirtschaftliche Bestellung: Ein Full-Stack-Weg zu agentischem Handel

Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao

Dieser unabhängige Forschungsbericht wird von IOSG Ventures unterstützt. Der Forschungs- und Schreibprozess wurde von verwandten Arbeiten von Raghav Agarwal (LongHash) und Jay Yu (Pantera) inspiriert. Dank an Lex Sokolin @ Generative Ventures, Jordan@AIsa, Ivy @PodOur2Cents für ihre wertvollen Vorschläge zu diesem Artikel. Feedback wurde auch von Projektteams wie Nevermined, Skyfire, Virtuals Protocol, AIsa, Heurist, AEON während des Schreibprozesses eingeholt. Dieser Artikel strebt nach objektivem und genauem Inhalt, aber einige Sichtweisen beinhalten subjektive Bewertungen und können unvermeidlich Abweichungen enthalten. Das Verständnis der Leser wird geschätzt.
Die wirtschaftliche Ordnung der Maschinen: Der Full-Stack-Weg des AgentenbusinessAutor: 0xjacobzhao | https://linktr.ee/0xjacobzhao Dieser unabhängige Forschungsbericht wird von IOSG Ventures unterstützt. Der Forschungs- und Schreibprozess wurde von den relevanten Berichten von Raghav Agarwal@LongHash und Jay Yu@Pantera inspiriert. Dank an Lex Sokolin @ Generative Ventures, Jordan@AIsa, Ivy@(支无不言) Blog für die wertvollen Vorschläge zu diesem Artikel. Während des Schreibprozesses wurden auch Meinungen und Rückmeldungen von den Projektteams von Nevermined, Skyfire, Virtuals Protocol, AIsa, Heurist, AEON usw. eingeholt. Dieser Artikel strebt an, objektiv und genau zu sein; einige Ansichten beinhalten subjektive Urteile, was unvermeidlich zu Abweichungen führen kann. Wir bitten die Leser um Verständnis.

Die wirtschaftliche Ordnung der Maschinen: Der Full-Stack-Weg des Agentenbusiness

Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao

Dieser unabhängige Forschungsbericht wird von IOSG Ventures unterstützt. Der Forschungs- und Schreibprozess wurde von den relevanten Berichten von Raghav Agarwal@LongHash und Jay Yu@Pantera inspiriert. Dank an Lex Sokolin @ Generative Ventures, Jordan@AIsa, Ivy@(支无不言) Blog für die wertvollen Vorschläge zu diesem Artikel. Während des Schreibprozesses wurden auch Meinungen und Rückmeldungen von den Projektteams von Nevermined, Skyfire, Virtuals Protocol, AIsa, Heurist, AEON usw. eingeholt. Dieser Artikel strebt an, objektiv und genau zu sein; einige Ansichten beinhalten subjektive Urteile, was unvermeidlich zu Abweichungen führen kann. Wir bitten die Leser um Verständnis.
Die konvergente Evolution von Automatisierung, KI und Web3 in der RobotikbrancheAutor: 0xjacobzhao | https://linktr.ee/0xjacobzhao Dieser unabhängige Forschungsbericht wird von IOSG Ventures unterstützt. Der Autor dankt Hans (RoboCup Asien-Pazifik), Nichanan Kesonpat (1kx), Robert Koschig (1kx), Amanda Young (Collab+Currency), Jonathan Victor (Ansa Research), Lex Sokolin (Generative Ventures), Jay Yu (Pantera Capital), Jeffrey Hu (Hashkey Capital) für ihre wertvollen Kommentare sowie den Mitwirkenden von OpenMind, BitRobot, peaq, Auki Labs, XMAQUINA, GAIB, Vader, Gradient, Tashi Network und CodecFlow für ihr konstruktives Feedback. Obwohl alle Anstrengungen unternommen wurden, um Objektivität und Genauigkeit zu gewährleisten, spiegeln einige Erkenntnisse unvermeidlich subjektive Interpretationen wider, und die Leser werden ermutigt, sich kritisch mit den Inhalten auseinanderzusetzen.

Die konvergente Evolution von Automatisierung, KI und Web3 in der Robotikbranche

Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao
Dieser unabhängige Forschungsbericht wird von IOSG Ventures unterstützt. Der Autor dankt Hans (RoboCup Asien-Pazifik), Nichanan Kesonpat (1kx), Robert Koschig (1kx), Amanda Young (Collab+Currency), Jonathan Victor (Ansa Research), Lex Sokolin (Generative Ventures), Jay Yu (Pantera Capital), Jeffrey Hu (Hashkey Capital) für ihre wertvollen Kommentare sowie den Mitwirkenden von OpenMind, BitRobot, peaq, Auki Labs, XMAQUINA, GAIB, Vader, Gradient, Tashi Network und CodecFlow für ihr konstruktives Feedback. Obwohl alle Anstrengungen unternommen wurden, um Objektivität und Genauigkeit zu gewährleisten, spiegeln einige Erkenntnisse unvermeidlich subjektive Interpretationen wider, und die Leser werden ermutigt, sich kritisch mit den Inhalten auseinanderzusetzen.
Visionen der Robotikindustrie: Die Verschmelzung und Evolution von Automatisierung, Künstlicher Intelligenz und Web3Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao Dieser unabhängige Bericht wird von IOSG Ventures unterstützt. Vielen Dank an Hans (RoboCup Asien-Pazifik), Nichanan Kesonpat (1kx), Robert Koschig (1kx), Amanda Young (Collab+Currency), Jonathan Victor (Ansa Research), Lex Sokolin (Generative Ventures), Jay Yu (Pantera Capital), Jeffrey Hu (Hashkey Capital) für die wertvollen Anregungen zu diesem Artikel. Während des Schreibprozesses wurden auch Rückmeldungen von den Projektteams von OpenMind, BitRobot, peaq, Auki Labs, XMAQUINA, GAIB, Vader, Gradient, Tashi Network und CodecFlow eingeholt. Der Artikel bemüht sich um objektive und präzise Inhalte, einige Ansichten basieren jedoch auf subjektiven Einschätzungen, was unvermeidlich zu Abweichungen führen kann. Wir bitten die Leser um Verständnis.

Visionen der Robotikindustrie: Die Verschmelzung und Evolution von Automatisierung, Künstlicher Intelligenz und Web3

Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao

Dieser unabhängige Bericht wird von IOSG Ventures unterstützt. Vielen Dank an Hans (RoboCup Asien-Pazifik), Nichanan Kesonpat (1kx), Robert Koschig (1kx), Amanda Young (Collab+Currency), Jonathan Victor (Ansa Research), Lex Sokolin (Generative Ventures), Jay Yu (Pantera Capital), Jeffrey Hu (Hashkey Capital) für die wertvollen Anregungen zu diesem Artikel. Während des Schreibprozesses wurden auch Rückmeldungen von den Projektteams von OpenMind, BitRobot, peaq, Auki Labs, XMAQUINA, GAIB, Vader, Gradient, Tashi Network und CodecFlow eingeholt. Der Artikel bemüht sich um objektive und präzise Inhalte, einige Ansichten basieren jedoch auf subjektiven Einschätzungen, was unvermeidlich zu Abweichungen führen kann. Wir bitten die Leser um Verständnis.
Brevis Forschungsbericht: Die unendliche verifizierbare Rechenschicht von zkVM und ZK-DatenkoprozessorsDas Paradigma des verifizierbaren Rechnens – „Off-Chain-Berechnung + On-Chain-Verifikation“ – ist zum universellen Rechenmodell für Blockchain-Systeme geworden. Es ermöglicht Blockchain-Anwendungen, nahezu unbegrenzte Rechenfreiheit zu erreichen, während Dezentralisierung und Vertrauenlosigkeit als zentrale Sicherheitsgarantien beibehalten werden. Null-Wissen-Beweise (ZKPs) bilden das Rückgrat dieses Paradigmas, mit Anwendungen hauptsächlich in drei grundlegenden Richtungen: Skalierbarkeit, Datenschutz und Interoperabilität & Datenintegrität. Skalierbarkeit war die erste ZK-Anwendung, die in die Produktion ging, indem die Ausführung Off-Chain verlagert und prägnante Beweise On-Chain für hohe Durchsatzraten und kostengünstige vertrauenslose Skalierung verifiziert wurden.

Brevis Forschungsbericht: Die unendliche verifizierbare Rechenschicht von zkVM und ZK-Datenkoprozessors

Das Paradigma des verifizierbaren Rechnens – „Off-Chain-Berechnung + On-Chain-Verifikation“ – ist zum universellen Rechenmodell für Blockchain-Systeme geworden. Es ermöglicht Blockchain-Anwendungen, nahezu unbegrenzte Rechenfreiheit zu erreichen, während Dezentralisierung und Vertrauenlosigkeit als zentrale Sicherheitsgarantien beibehalten werden. Null-Wissen-Beweise (ZKPs) bilden das Rückgrat dieses Paradigmas, mit Anwendungen hauptsächlich in drei grundlegenden Richtungen: Skalierbarkeit, Datenschutz und Interoperabilität & Datenintegrität. Skalierbarkeit war die erste ZK-Anwendung, die in die Produktion ging, indem die Ausführung Off-Chain verlagert und prägnante Beweise On-Chain für hohe Durchsatzraten und kostengünstige vertrauenslose Skalierung verifiziert wurden.
Brevis Forschungsbericht: Unendliche vertrauenswürdige Berechnungsschicht von ZKVM und Daten-Co-Prozessor“Off-Chain Berechnung + On-Chain Verifizierung” ist das vertrauenswürdige Berechnungsparadigma (Verifiable Computing), das zum allgemeinen Berechnungsmodell für Blockchain-Systeme geworden ist. Es ermöglicht Blockchain-Anwendungen, nahezu unendliche Rechenfreiheit (computational freedom) zu erlangen, während Dezentralisierung und Minimierung von Vertrauen (trustlessness) in Bezug auf Sicherheit beibehalten werden. Zero-Knowledge-Beweise (ZKP) sind die zentralen Säulen dieses Paradigmas, dessen Anwendungen hauptsächlich auf drei grundlegende Richtungen konzentriert sind: Skalierbarkeit (Scalability), Privatsphäre (Privacy) sowie Interoperabilität und Datenintegrität (Interoperability & Data Integrity). Unter diesen ist Skalierbarkeit das früheste Anwendungsfeld der ZK-Technologie, das durch die Verlagerung der Transaktionsausführung auf Off-Chain und die Verwendung kurzer Beweise zur Verifizierung der Ergebnisse On-Chain hohe TPS und kostengünstige vertrauenswürdige Skalierung (trusted scaling) erreicht.

Brevis Forschungsbericht: Unendliche vertrauenswürdige Berechnungsschicht von ZKVM und Daten-Co-Prozessor

“Off-Chain Berechnung + On-Chain Verifizierung” ist das vertrauenswürdige Berechnungsparadigma (Verifiable Computing), das zum allgemeinen Berechnungsmodell für Blockchain-Systeme geworden ist. Es ermöglicht Blockchain-Anwendungen, nahezu unendliche Rechenfreiheit (computational freedom) zu erlangen, während Dezentralisierung und Minimierung von Vertrauen (trustlessness) in Bezug auf Sicherheit beibehalten werden. Zero-Knowledge-Beweise (ZKP) sind die zentralen Säulen dieses Paradigmas, dessen Anwendungen hauptsächlich auf drei grundlegende Richtungen konzentriert sind: Skalierbarkeit (Scalability), Privatsphäre (Privacy) sowie Interoperabilität und Datenintegrität (Interoperability & Data Integrity). Unter diesen ist Skalierbarkeit das früheste Anwendungsfeld der ZK-Technologie, das durch die Verlagerung der Transaktionsausführung auf Off-Chain und die Verwendung kurzer Beweise zur Verifizierung der Ergebnisse On-Chain hohe TPS und kostengünstige vertrauenswürdige Skalierung (trusted scaling) erreicht.
Cysic Forschungsbericht: Der ComputeFi-Pfad der ZK-HardwarebeschleunigungAutor:0xjacobzhao | https://linktr.ee/0xjacobzhao Zero-Knowledge-Beweise (ZK) – als eine Infrastruktur der nächsten Generation für Kryptographie und Skalierbarkeit – zeigen enormes Potenzial in der Blockchain-Skalierung, privater Berechnung, zkML und der Überprüfung über Ketten hinweg. Der Prozess der Beweisgenerierung ist jedoch äußerst rechenintensiv und latenzbelastet, was den größten Engpass für die industrielle Akzeptanz darstellt. ZK-Hardwarebeschleunigung hat sich daher als ein zentrales Enabler herausgestellt. In dieser Landschaft zeichnen sich GPUs durch Vielseitigkeit und Iterationsgeschwindigkeit aus, ASICs streben nach ultimativer Effizienz und großflächiger Leistung, während FPGAs als flexibles Mittelmaß fungieren, das Programmierbarkeit mit Energieeffizienz verbindet. Zusammen bilden sie die Hardwarebasis, die die reale Akzeptanz von ZK antreibt.

Cysic Forschungsbericht: Der ComputeFi-Pfad der ZK-Hardwarebeschleunigung

Autor:0xjacobzhao | https://linktr.ee/0xjacobzhao
Zero-Knowledge-Beweise (ZK) – als eine Infrastruktur der nächsten Generation für Kryptographie und Skalierbarkeit – zeigen enormes Potenzial in der Blockchain-Skalierung, privater Berechnung, zkML und der Überprüfung über Ketten hinweg. Der Prozess der Beweisgenerierung ist jedoch äußerst rechenintensiv und latenzbelastet, was den größten Engpass für die industrielle Akzeptanz darstellt. ZK-Hardwarebeschleunigung hat sich daher als ein zentrales Enabler herausgestellt. In dieser Landschaft zeichnen sich GPUs durch Vielseitigkeit und Iterationsgeschwindigkeit aus, ASICs streben nach ultimativer Effizienz und großflächiger Leistung, während FPGAs als flexibles Mittelmaß fungieren, das Programmierbarkeit mit Energieeffizienz verbindet. Zusammen bilden sie die Hardwarebasis, die die reale Akzeptanz von ZK antreibt.
Cysic Forschungsbericht: Der Weg zur ComputeFi der ZK-Hardware-BeschleunigungAutor: 0xjacobzhao | https://linktr.ee/0xjacobzhao Zero-Knowledge-Beweise (ZK) als neue Generation von Kryptografie- und Skalierungsinfrastruktur haben sich in der Blockchain-Skalierung, privater Berechnung sowie in neuartigen Anwendungen wie zkML und Cross-Chain-Verifizierung als vielversprechend erwiesen. Dennoch ist der Prozess der Beweisgenerierung rechenintensiv und mit hohen Verzögerungen verbunden, was zum größten Engpass für die industrielle Umsetzung geworden ist. ZK-Hardware-Beschleunigung ist in diesem Kontext ein zentrales Element, wobei GPU für ihre Vielseitigkeit und Iterationsgeschwindigkeit bekannt ist, ASIC die ultimative Energieeffizienz und Skalierbarkeit anstrebt, während FPGA als intermediäre Form sowohl Flexibilität als auch hohe Energieeffizienz bietet. Diese drei zusammen bilden die Hardware-Basis zur Förderung der Umsetzung von Zero-Knowledge-Beweisen.

Cysic Forschungsbericht: Der Weg zur ComputeFi der ZK-Hardware-Beschleunigung

Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao
Zero-Knowledge-Beweise (ZK) als neue Generation von Kryptografie- und Skalierungsinfrastruktur haben sich in der Blockchain-Skalierung, privater Berechnung sowie in neuartigen Anwendungen wie zkML und Cross-Chain-Verifizierung als vielversprechend erwiesen. Dennoch ist der Prozess der Beweisgenerierung rechenintensiv und mit hohen Verzögerungen verbunden, was zum größten Engpass für die industrielle Umsetzung geworden ist. ZK-Hardware-Beschleunigung ist in diesem Kontext ein zentrales Element, wobei GPU für ihre Vielseitigkeit und Iterationsgeschwindigkeit bekannt ist, ASIC die ultimative Energieeffizienz und Skalierbarkeit anstrebt, während FPGA als intermediäre Form sowohl Flexibilität als auch hohe Energieeffizienz bietet. Diese drei zusammen bilden die Hardware-Basis zur Förderung der Umsetzung von Zero-Knowledge-Beweisen.
GAIB Forschungsbericht: Die On-Chain-Finanzierung der KI-Infrastruktur — RWAiFiGeschrieben von 0xjacobzhao | https://linktr.ee/0xjacobzhao Wenn KI die am schnellsten wachsende Technologiewelle wird, wird Rechenleistung als neue „Währung“ angesehen, wobei GPUs zu strategischen Vermögenswerten werden. Dennoch bleiben Finanzierung und Liquidität begrenzt, während die Krypto-Finanzierung echte cashflow-unterstützte Vermögenswerte benötigt. Die Tokenisierung von RWA entsteht als Brücke. KI-Infrastruktur, die hochwertige Hardware + vorhersehbare Cashflows kombiniert, wird als der beste Einstiegspunkt für nicht-standardisierte RWAs angesehen – GPUs bieten kurzfristige Praktikabilität, während Robotik die längere Front darstellt. GAIBs RWAiFi (RWA + KI + DeFi) führt einen neuen Weg zur On-Chain-Finanzierung ein und befeuert das Flywheel der KI-Infrastruktur (GPU & Robotik) × RWA × DeFi.

GAIB Forschungsbericht: Die On-Chain-Finanzierung der KI-Infrastruktur — RWAiFi

Geschrieben von 0xjacobzhao | https://linktr.ee/0xjacobzhao
Wenn KI die am schnellsten wachsende Technologiewelle wird, wird Rechenleistung als neue „Währung“ angesehen, wobei GPUs zu strategischen Vermögenswerten werden. Dennoch bleiben Finanzierung und Liquidität begrenzt, während die Krypto-Finanzierung echte cashflow-unterstützte Vermögenswerte benötigt. Die Tokenisierung von RWA entsteht als Brücke. KI-Infrastruktur, die hochwertige Hardware + vorhersehbare Cashflows kombiniert, wird als der beste Einstiegspunkt für nicht-standardisierte RWAs angesehen – GPUs bieten kurzfristige Praktikabilität, während Robotik die längere Front darstellt. GAIBs RWAiFi (RWA + KI + DeFi) führt einen neuen Weg zur On-Chain-Finanzierung ein und befeuert das Flywheel der KI-Infrastruktur (GPU & Robotik) × RWA × DeFi.
GAIB Forschungsbericht: Der Weg zur On-Chain-Finanzialisierung der AI-Infrastruktur - RWAiFiAutor: 0xjacobzhao | https://linktr.ee/0xjacobzhao Mit AI, die als die am schnellsten wachsende Technologiewelle der Welt betrachtet wird, wird Rechenleistung als neue "Währung" angesehen, und leistungsstarke Hardware wie GPUs entwickelt sich zunehmend zu strategischen Vermögenswerten. Doch lange Zeit war die Finanzierung und Liquidität dieser Art von Vermögenswerten eingeschränkt. Gleichzeitig benötigt die Krypto-Finanzwelt dringend den Zugang zu hochwertigen Vermögenswerten mit echtem Cashflow, und die RWA-Transformation wird zunehmend zur entscheidenden Brücke zwischen traditioneller Finanzen und dem Krypto-Markt. AI-Infrastrukturvermögen wird aufgrund ihrer Eigenschaften von "hochwertiger Hardware + vorhersehbarem Cashflow" allgemein als der beste Durchbruch für nicht-standardisierte RWA-Assets angesehen, wobei GPUs das realistischste Umsetzungspotenzial bieten, während Roboter eine langfristige Erkundungsrichtung repräsentieren. In diesem Kontext bietet der von GAIB vorgeschlagene RWAiFi-Weg (RWA + AI + DeFi) eine neuartige Lösung für den "On-Chain-Finanzialisierungsweg der AI-Infrastruktur" und fördert den Kreislauf-Effekt von "AI-Infrastruktur (Rechenleistung und Robotik) x RWA x DeFi".

GAIB Forschungsbericht: Der Weg zur On-Chain-Finanzialisierung der AI-Infrastruktur - RWAiFi

Autor: 0xjacobzhao | https://linktr.ee/0xjacobzhao
Mit AI, die als die am schnellsten wachsende Technologiewelle der Welt betrachtet wird, wird Rechenleistung als neue "Währung" angesehen, und leistungsstarke Hardware wie GPUs entwickelt sich zunehmend zu strategischen Vermögenswerten. Doch lange Zeit war die Finanzierung und Liquidität dieser Art von Vermögenswerten eingeschränkt. Gleichzeitig benötigt die Krypto-Finanzwelt dringend den Zugang zu hochwertigen Vermögenswerten mit echtem Cashflow, und die RWA-Transformation wird zunehmend zur entscheidenden Brücke zwischen traditioneller Finanzen und dem Krypto-Markt. AI-Infrastrukturvermögen wird aufgrund ihrer Eigenschaften von "hochwertiger Hardware + vorhersehbarem Cashflow" allgemein als der beste Durchbruch für nicht-standardisierte RWA-Assets angesehen, wobei GPUs das realistischste Umsetzungspotenzial bieten, während Roboter eine langfristige Erkundungsrichtung repräsentieren. In diesem Kontext bietet der von GAIB vorgeschlagene RWAiFi-Weg (RWA + AI + DeFi) eine neuartige Lösung für den "On-Chain-Finanzialisierungsweg der AI-Infrastruktur" und fördert den Kreislauf-Effekt von "AI-Infrastruktur (Rechenleistung und Robotik) x RWA x DeFi".
Von Federated Learning zu dezentralen Agentennetzwerken: Eine Analyse zu ChainOperaGeschrieben von 0xjacobzhao | https://linktr.ee/0xjacobzhao In unserem Juni-Bericht „Der Heilige Gral der Krypto-KI: Grenzerforschung des dezentralen Trainings“ haben wir über Federated Learning gesprochen – ein Paradigma der „kontrollierten Dezentralisierung“, das zwischen verteiltem Training und vollständig dezentralem Training positioniert ist. Sein Kernprinzip besteht darin, Daten lokal zu halten, während Parameter zentral aggregiert werden, ein Design, das besonders für datenschutzsensitives und compliance-lastiges Branchen wie Gesundheitswesen und Finanzwesen geeignet ist.

Von Federated Learning zu dezentralen Agentennetzwerken: Eine Analyse zu ChainOpera

Geschrieben von 0xjacobzhao | https://linktr.ee/0xjacobzhao
In unserem Juni-Bericht „Der Heilige Gral der Krypto-KI: Grenzerforschung des dezentralen Trainings“ haben wir über Federated Learning gesprochen – ein Paradigma der „kontrollierten Dezentralisierung“, das zwischen verteiltem Training und vollständig dezentralem Training positioniert ist. Sein Kernprinzip besteht darin, Daten lokal zu halten, während Parameter zentral aggregiert werden, ein Design, das besonders für datenschutzsensitives und compliance-lastiges Branchen wie Gesundheitswesen und Finanzwesen geeignet ist.
Von föderiertem Lernen zu dezentralen Agentennetzwerken: Analyse des ChainOpera-ProjektsIn dem Forschungsbericht vom Juni (Der heilige Gral der Krypto-KI: An der Front der dezentralen Ausbildung) erwähnen wir das föderierte Lernen (Federated Learning), eine „kontrollierte Dezentralisierung“, die zwischen verteiltem Training und dezentralem Training liegt: Der Kern besteht darin, Daten lokal zu behalten und Parameter zentral zu aggregieren, um den Anforderungen an Datenschutz und Compliance in Bereichen wie Gesundheit und Finanzen gerecht zu werden. Gleichzeitig haben wir in früheren Forschungsberichten kontinuierlich die Entstehung von Agent-Netzwerken (Agent) beobachtet – ihr Wert liegt darin, dass sie durch die Autonomie und Arbeitsteilung mehrerer Agenten komplexe Aufgaben kooperativ erfüllen und die Evolution von „großen Modellen“ zu einem „Multi-Agenten-Ökosystem“ vorantreiben.

Von föderiertem Lernen zu dezentralen Agentennetzwerken: Analyse des ChainOpera-Projekts

In dem Forschungsbericht vom Juni (Der heilige Gral der Krypto-KI: An der Front der dezentralen Ausbildung) erwähnen wir das föderierte Lernen (Federated Learning), eine „kontrollierte Dezentralisierung“, die zwischen verteiltem Training und dezentralem Training liegt: Der Kern besteht darin, Daten lokal zu behalten und Parameter zentral zu aggregieren, um den Anforderungen an Datenschutz und Compliance in Bereichen wie Gesundheit und Finanzen gerecht zu werden. Gleichzeitig haben wir in früheren Forschungsberichten kontinuierlich die Entstehung von Agent-Netzwerken (Agent) beobachtet – ihr Wert liegt darin, dass sie durch die Autonomie und Arbeitsteilung mehrerer Agenten komplexe Aufgaben kooperativ erfüllen und die Evolution von „großen Modellen“ zu einem „Multi-Agenten-Ökosystem“ vorantreiben.
OpenLedger Forschungsbericht: Monetarisierung von Daten und Modellen in der AI-ChainEinführung | Die Ebene der Modelle von Crypto AI Daten, Modelle und Rechenleistung sind die drei zentralen Elemente der AI-Infrastruktur. Sie sind wie Kraftstoff (Daten), Motor (Modelle) und Energie (Rechenleistung) unentbehrlich. Ähnlich wie der evolutionäre Pfad der Infrastruktur in der traditionellen AI-Industrie hat auch der Crypto-AI-Bereich ähnliche Phasen durchlaufen. Anfang 2024 wurde der Markt vorübergehend von dezentralen GPU-Projekten (Akash, Render, io.net usw.) dominiert, die häufig die "Kraft des Rechnens" betonten. Doch ab 2025 verlagert sich der Fokus der Branche zunehmend auf die Modell- und Datenebene, was darauf hinweist, dass Crypto AI von einem Wettbewerb um grundlegende Ressourcen zu einem nachhaltigerem und wertvolleren mittleren Aufbau übergeht.

OpenLedger Forschungsbericht: Monetarisierung von Daten und Modellen in der AI-Chain

Einführung | Die Ebene der Modelle von Crypto AI
Daten, Modelle und Rechenleistung sind die drei zentralen Elemente der AI-Infrastruktur. Sie sind wie Kraftstoff (Daten), Motor (Modelle) und Energie (Rechenleistung) unentbehrlich. Ähnlich wie der evolutionäre Pfad der Infrastruktur in der traditionellen AI-Industrie hat auch der Crypto-AI-Bereich ähnliche Phasen durchlaufen. Anfang 2024 wurde der Markt vorübergehend von dezentralen GPU-Projekten (Akash, Render, io.net usw.) dominiert, die häufig die "Kraft des Rechnens" betonten. Doch ab 2025 verlagert sich der Fokus der Branche zunehmend auf die Modell- und Datenebene, was darauf hinweist, dass Crypto AI von einem Wettbewerb um grundlegende Ressourcen zu einem nachhaltigerem und wertvolleren mittleren Aufbau übergeht.
OpenLedger Forschungsbericht: Eine KI-Kette für monetarisierbare Daten und Modelle1. Einführung | Der Modell-Layer-Shift in Crypto AI Daten, Modelle und Rechenleistung bilden die drei Kernpfeiler der KI-Infrastruktur – vergleichbar mit Treibstoff (Daten), Motor (Modell) und Energie (Rechnen) – alles unverzichtbar. Ähnlich wie die Entwicklung der Infrastruktur in der traditionellen KI-Branche hat der Crypto-AI-Sektor einen ähnlichen Verlauf durchlaufen. Anfang 2024 war der Markt von dezentralen GPU-Projekten (wie Akash, Render und io.net) dominiert, die durch ein ressourcenintensives Wachstumsmodell gekennzeichnet sind, das sich auf rohe Rechenleistung konzentriert. Bis 2025 hat sich die Aufmerksamkeit der Branche allmählich auf die Modell- und Datenebenen verschoben, was einen Übergang von einem Wettbewerb um Infrastrukturen auf niedriger Ebene zu einer nachhaltigeren, anwendungsgetriebenen Entwicklung in der Mittelschicht markiert.

OpenLedger Forschungsbericht: Eine KI-Kette für monetarisierbare Daten und Modelle

1. Einführung | Der Modell-Layer-Shift in Crypto AI
Daten, Modelle und Rechenleistung bilden die drei Kernpfeiler der KI-Infrastruktur – vergleichbar mit Treibstoff (Daten), Motor (Modell) und Energie (Rechnen) – alles unverzichtbar. Ähnlich wie die Entwicklung der Infrastruktur in der traditionellen KI-Branche hat der Crypto-AI-Sektor einen ähnlichen Verlauf durchlaufen. Anfang 2024 war der Markt von dezentralen GPU-Projekten (wie Akash, Render und io.net) dominiert, die durch ein ressourcenintensives Wachstumsmodell gekennzeichnet sind, das sich auf rohe Rechenleistung konzentriert. Bis 2025 hat sich die Aufmerksamkeit der Branche allmählich auf die Modell- und Datenebenen verschoben, was einen Übergang von einem Wettbewerb um Infrastrukturen auf niedriger Ebene zu einer nachhaltigeren, anwendungsgetriebenen Entwicklung in der Mittelschicht markiert.
Pendle Ertragsstrategien enthüllt: Pulses AgentFi-ParadigmaVon 0xjacobzhao | https://linktr.ee/0xjacobzhao Zweifellos ist Pendle eines der erfolgreichsten DeFi-Protokolle im aktuellen Krypto-Zyklus. Während viele Protokolle aufgrund von Liquiditätsengpässen und nachlassenden Narrativen ins Stocken geraten sind, hat sich Pendle durch seinen einzigartigen Ertragsaufspaltungs- und Handelsmechanismus hervorgetan und ist zum „Preisfindungsort“ für ertragsbringende Vermögenswerte geworden. Durch die tiefe Integration mit Stablecoins, LSTs/LRTs und anderen ertragsgenerierenden Vermögenswerten hat es seine Position als grundlegende „DeFi-Ertragsrate-Infrastruktur“ gesichert.

Pendle Ertragsstrategien enthüllt: Pulses AgentFi-Paradigma

Von 0xjacobzhao | https://linktr.ee/0xjacobzhao
Zweifellos ist Pendle eines der erfolgreichsten DeFi-Protokolle im aktuellen Krypto-Zyklus. Während viele Protokolle aufgrund von Liquiditätsengpässen und nachlassenden Narrativen ins Stocken geraten sind, hat sich Pendle durch seinen einzigartigen Ertragsaufspaltungs- und Handelsmechanismus hervorgetan und ist zum „Preisfindungsort“ für ertragsbringende Vermögenswerte geworden. Durch die tiefe Integration mit Stablecoins, LSTs/LRTs und anderen ertragsgenerierenden Vermögenswerten hat es seine Position als grundlegende „DeFi-Ertragsrate-Infrastruktur“ gesichert.
Melde dich an, um weitere Inhalte zu entdecken
Bleib immer am Ball mit den neuesten Nachrichten aus der Kryptowelt
⚡️ Beteilige dich an aktuellen Diskussionen rund um Kryptothemen
💬 Interagiere mit deinen bevorzugten Content-Erstellern
👍 Entdecke für dich interessante Inhalte
E-Mail-Adresse/Telefonnummer
Sitemap
Cookie-Präferenzen
Nutzungsbedingungen der Plattform