在方舟投資(ARK Invest)最新發布的《Big Ideas 2026》研究報告中,AI 被定位為推動科技加速的核心動力。報告在 AI 基礎設施章節指出,AI 推論成本在短時間內大幅下降,反而引爆運算需求,成為雲端架構轉變的關鍵轉折。方舟認為,這項變化正推動 AI 從實驗性技術,走向日常可用、可規模化的基礎設施,並點名四大企業,分別站上 GPU 與 ASIC 兩條 AI 運算路線的關鍵位置,成為新一代 AI 雲端架構的核心角色。
推論成本急速下滑,AI 使用量同步暴增
方舟指出,AI 推理成本在不到一年的時間內,已出現超過 99% 的跌幅。隨著模型效率提升與硬體進步,單位運算所需成本快速下降,使 AI 不再只是少數研究單位或大型企業的專利。
報告指出,當成本門檻快速降低後,開發者、企業與消費端對 AI 的實際使用量迅速放大,token 呼叫次數呈現爆炸性成長。這代表 AI 的角色,正從「測試用途」轉向「日常可用工具」,開始進入規模化應用階段。從下圖可得知:
「在模型效能相近的情況下,AI 推論成本一年內暴跌逾 99%,每百萬 tokens 的價格快速降至接近零。成本崩跌同步引爆使用量,推理 token 數在一年內數十倍成長,顯示 AI 正走向大規模、日常化的基礎運算。」
圖源:ARK Invest
資料中心投資加速,AI 成為雲端建設主體
隨著 AI 使用量暴增,方舟指出,資料中心的投資結構也隨之出現明顯變化。相較於過去以通用運算為主的雲端架構,新的投資重心正快速轉向「為 AI 設計的運算系統」。
在現階段的 AI 運算架構中,方舟指出,高階大型模型的訓練與推論,仍然高度依賴 GPU 系統。其中,輝達 (NVIDIA) 被描述為目前高階 AI 運算的主要供應者。
方舟提到,輝達推出的 Grace Blackwell 系列,被定位為「機架級」(Rack-Scale) 的系統方案,能夠整合運算、記憶體與網路架構,專門對應大型 AI 模型在資料中心中的運行需求,成為當前高效能 AI 訓練與推論的重要基礎。
運算需求分化,ASIC 與替代方案開始補位
不過方舟也表示,隨著 AI 應用從訓練走向大量推論,不同運算需求開始出現明顯分化。針對小模型或特定推論場景,市場對更具成本效率的解決方案需求明顯提高。
其中也明確點名超微 (AMD) 在部分小模型與推論工作負載中,競爭力正逐步提升,並被視為輝達在部分 AI 運算場景下的重要競爭者之一。同時,方舟也在提到 Alphabet 透過自研的 Google TPU,被納入 AI 加速器 (ASIC) 競爭格局之中,在自有雲端與 AI 工作負載上扮演關鍵角色。從下圖可得知:
「輝達在大型模型與機架級系統上仍具優勢,但在小模型推論場景中,AMD 與 Alphabet 已逐步追近。整體趨勢是 AI 運算依模型規模分流,大模型偏向高階 GPU,小模型與成本導向場景則轉向 AMD 與 ASIC。」
圖源:ARK Invest
雲端業者自研晶片,AI 專用運算加速成形
方舟進一步指出,為了降低 AI 的長期運算成本,雲端服務商正加速投入自研晶片。報告中特別點名亞馬遜 (Amazon) 旗下的 Annapurna Labs,作為 ASIC 設計的代表案例之一。
方舟表示,這類客製化晶片的核心目標,並非取代所有 GPU,而是針對特定 AI 工作負載,提供更低單位成本的運算選項,使雲端能在大規模 AI 服務下維持經濟可行性。
四大企業分居關鍵節點,GPU 與 ASIC 並存成新常態
隨著 AI 推論成本快速下降、需求同步爆發,雲端運算的角色已經發生結構性轉變。
方舟表示,未來雲端不再只是通用運算的平台,而是將逐步演變為以 AI 為核心設計的專用運算環境。在這樣的架構下,由輝達代表的 GPU 路線,與由 AMD、Alphabet、Amazon 所代表的 ASIC 與替代方案,並非彼此取代,而是將依不同 AI 工作負載長期並存,共同撐起 AI 作為下一代基礎設施的核心地位。
本文經授權轉載自:《鏈新聞》
原文標題:《方舟《Big Ideas 2026》點名四大企業!GPU 與 ASIC 並存的 AI 雲端新格局成形》
日本 Web3 基礎設施公司 Startale Group 宣佈,再度獲得 Sony Innovation Fund 約 20 億日圓追加投資,雙方合作關係進一步升溫。該基金由索尼集團旗下 Sony Ventures 管理,長期佈局成長型科技企業。這筆資金被視為索尼在區塊鏈基礎建設產業的再度加碼,也顯示其對 Startale 與 Soneium 發展成果的肯定。
除了技術整合,馬斯克也討論過利用 SpaceX 的星艦(Starship)將 Tesla 的 Optimus 人形機器人運往月球甚至火星。這顯示其潛在的合併計畫不單是為了財務優化,更是為了實現長期跨行星擴張的藍圖。儘管法律與技術障礙仍多,但這種將硬體製造、能源轉型與頂尖 AI 軟體結合的構想,已重新定義了未來科技產業的邊界。
以太坊於 2026 年 1 月 28 日宣佈,一項專為 AI 代理(AI Agents)設計的安全互動標準 ERC-8004 即將在主網正式啟用。這項於 2025 年 8 月首次提出的提案,旨在解決不同開發者與企業建構的 AI 代理在開放環境下難以相互協作的困境。ERC-8004 建立了一套去中心化且無須許可的經濟體系,讓 AI 代理成為具備獨立行動能力的經濟參與者。AI 代理能透過此標準執行各類任務,範疇涵蓋訂購披薩等低風險事務,乃至於醫療診斷等高風險案例。
圖源:X/@DavideCrapis 以太坊宣佈,一項專為 AI 代理(AI Agents)設計的安全互動標準 ERC-8004 即將在主網正式啟用
以太坊官方社交平台指出,此標準藉由導入發現機制與可攜式聲譽系統,確保信用數據能在不同組織間流動,進而催生出無須中心化門檻的全球 AI 服務互操作市場。MetaMask 的 AI 主管暨提案共同作者 Marco De Rossi 指出,主網上線時間預計定於台北時間今晚(1/29) 10:00。此舉象徵著以太坊從單純的金融合約平台,擴張至協調全球自主軟體代理的中立基礎設施。
以太坊基金會 AI 負責人 Davide Crapis 強調,以太坊具備成為 AI 與 AI 互動結算平台的獨特地位。目前大多數 AI 代理僅能在單一企業的封閉系統內有效運作,一旦進入開放環境,便會面臨無法識別對方身份或確認其是否具備詐欺風險的挑戰。
ERC-8004 透過在鏈上建立簡單的信任層,解決了代理間的發現、身份驗證與長期信用建立問題。此規格將以太坊的功能從金融結算延伸至自主軟體代理的協調工作,使其成為大規模去中心化 AI 經濟的核心。
研發團隊成員除了 Davide Crapis 與 Marco De Rossi,亦包含 Google 的 Jordan Ellis 及 Coinbase 的 Erik Reppel 等產業專家。團隊在設計過程中參考了多個主流代理通訊協議,並與 Linux 基金會等利害關係人合作,確保標準能廣泛兼容於現有的 AI 生態系。透過這種方式,以太坊旨在將 AI 社群與去中心化基礎建設緊密連接,推動實用性應用程式的發展。
支付的未來?穩定幣與跨鏈金融體系的深度整合
隨著 AI 代理標準化,支付系統的整合成為推動機器經濟的關鍵。Circle 執行長 Jeremy Allaire 曾在世界經濟論壇(WEF,達沃斯論壇)指出,未來 5 年將有數十億個 AI 代理投入使用,而具備即時清算特性的穩定幣將是這些代理唯一現實的支付方案。AI 代理由於無法持有傳統銀行帳戶,必須仰賴能跨越國境且無須仲介的加密貨幣系統。幣安創辦人 CZ 亦認為,虛擬貨幣結算是 AI 主導交易的自然選擇。
目前 ERC-8004 規格已考慮到支付證明的整合,允許在聲譽回饋中附加 x402 等支付擴展協議的證明,使經濟活動與代理信用能自動關聯。與此同時,傳統金融勢力亦加速進入此產業,富達已著手準備推出自有的穩定幣 FIDD,而 OKX 則在歐洲推出可直接消費穩定幣的轉帳卡,進一步強化了數位資產與實體支付的連接。這些金融工具除了服務人類,亦為 AI 代理提供了必要的金融接口,支持高吞吐量的鏈上交易與結算。