Odkrij
Novice
Obvestilo
Profil
Zaznamki
Pogovori
Zgodovina
Središče za ustvarjalce
Nastavitve
Powerpei
1k
Objave
Powerpei
Preverjeni ustvarjalec
Poročilo
Blokiraj uporabnika
Sledi
内容创作 项目分析 深耕 AI版权和IP版权。X:@PWenzhen76938 没有任何小号,请勿上当!
Odprto trgovanje
Imetnik BNB
Visokofrekvenčni trgovalec
2.7 let
1.2K+
Sledite
41.3K+
Sledilci
33.2K+
Všečkano
4.7K+
Deljeno
Objave
Portfelj
Vse
Citati
Videoposnetki
V živo
Powerpei
·
--
刚才有个前同事在微信上疯狂戳我 发了一堆香港首批稳定币牌照(汇丰、渣打领衔)和Circle在Solana 上狂印32亿USDC的新闻 他极其亢奋,问我是不是该把辞职信拍老板桌上,全职进去滚雪球 我看了一眼停在71k附近死活上不去的大饼 回了他一句:先把下半年的房贷留出来再说 现在的散户有一种极其天真的错觉 看到传统大行拿了牌照、大资金疯狂增发 第一反应全是“庄家要拉盘了” 你真以为那帮中环和华尔街的精英 费了牛劲打通合规路径,是为了来接盘你手里的山寨币? 他们根本不在乎币价是七万还是十万 他们看中的是「铸币权」和「结算通道」 香港发牌,意味着亚洲的合规热钱终于有了一条官方管道 Circle 在Solana上倒腾,是因为那是目前唯一能承载极高频金融结算的网络 这帮巨头是在修一条双向八车道的高速公路 以后不管是RWA还是跨境支付,只要走这条道,他们躺着抽水就能把利润赚满 牛市的底座确实在变硬。但这恰恰意味着 那种靠着两万块钱加满杠杆、一个星期翻几十倍的草莽时代,正在被这些大机构亲手终结 别听群里那些“辞职 All in”的鬼话 大资金的容错率是几十亿美金,你拿那点死工资去硬冲 随便一个地缘政治插针就能让你连翻本的筹码都没了 老老实实拿好核心资产,该上班上班 别人在修跨海大桥,你非要开个小舢板去撞桥墩,图什么呢?
刚才有个前同事在微信上疯狂戳我
发了一堆香港首批稳定币牌照(汇丰、渣打领衔)和Circle在Solana 上狂印32亿USDC的新闻
他极其亢奋,问我是不是该把辞职信拍老板桌上,全职进去滚雪球
我看了一眼停在71k附近死活上不去的大饼
回了他一句:先把下半年的房贷留出来再说
现在的散户有一种极其天真的错觉
看到传统大行拿了牌照、大资金疯狂增发
第一反应全是“庄家要拉盘了”
你真以为那帮中环和华尔街的精英
费了牛劲打通合规路径,是为了来接盘你手里的山寨币?
他们根本不在乎币价是七万还是十万
他们看中的是「铸币权」和「结算通道」
香港发牌,意味着亚洲的合规热钱终于有了一条官方管道
Circle 在Solana上倒腾,是因为那是目前唯一能承载极高频金融结算的网络
这帮巨头是在修一条双向八车道的高速公路
以后不管是RWA还是跨境支付,只要走这条道,他们躺着抽水就能把利润赚满
牛市的底座确实在变硬。但这恰恰意味着
那种靠着两万块钱加满杠杆、一个星期翻几十倍的草莽时代,正在被这些大机构亲手终结
别听群里那些“辞职 All in”的鬼话
大资金的容错率是几十亿美金,你拿那点死工资去硬冲
随便一个地缘政治插针就能让你连翻本的筹码都没了
老老实实拿好核心资产,该上班上班
别人在修跨海大桥,你非要开个小舢板去撞桥墩,图什么呢?
BTC
−1,21%
USDC
+0,01%
Powerpei
·
--
Članek
我用Gemma 4 31B做了个完全离线的个人知识库 Agent前两天我发Gemma 4的时候,在评论区留了一句: > “我现在在测试一个想法:用 Gemma 4 做一个完全离线的个人知识库 Agent,所有数据在本地,所有推理在本地,没有 API 费用,没有隐私问题。如果测试顺利,我会分享具体的部署方案和我踩过的坑。” 现在测试结束了 我把整个过程、踩过的所有坑、最终方案一次性抛出来 完全真实操作记录,没有云端API,没有任何营销,纯个人复盘 --- 我以前用ChatGPT/Claude做笔记,搜个人文档,总是心里不踏实: - 输入客户资料、Space灵感稿、投资笔记时,总担心被用来训练 - 想让AI 24h随时分析我的推文 + 阅读记录,它动不动就断线、要钱 - 最重要的是:我想拥有一个真正属于自己的AI助手,不是租来的 Gemma 4 31B(量化后 17.4GB)+ 4090正好能跑 Apache 2.0协议又随便改,256K上下文能容一整本书去了 native function calling 又稳 这不就是离线个人知识库的完美底座吗? 于是我花了整整一个周末加上后续一周迭代,把它做成了现在这个完全离线的个人知识库Agent --- 我的最终硬件 & 环境(真实配置) 硬件 → GPU:RTX 4090 24GB(31B Q4_K_M 量化后实测占用约 19-21GB VRAM,留 3GB 给 embedding 和系统) → CPU:AMD 7950X → 内存:64GB DDR5 → 存储:2TB NVMe(知识库目前塞了约 1800 份 PDF+MD+Notion 导出) 软件栈 → Ollama(主力推荐,Mac/Linux/Windows 都能跑) → LlamaIndex(RAG框架,最稳) → nomic-embed-tex(本地embedding,中文支持好) → Chroma(向量库,本地持久化) → AnythingLLM(前端界面,可选,但我最后还是直接用LlamaIndex + Streamlit 更灵活) --- 完整部署方案(一步步手把手,可直接复制,因为不支持Markdown代码块渲染,所以我文字输出,复制时候对比下) 1. 安装Ollama +拉模型(最简单一步) ```bash # Mac/Linux/Windows 都一样 ollama pull gemma4:31b # 官方直接用 gemma4:31b-it(instruct 版) # 或者直接用量化好的 GGUF(HuggingFace 搜 google/gemma-4-31B-it-GGUF) # 我最终用的是 Q4_K_M,速度和质量平衡最好 ``` --- 2. 准备embedding模型 ```bash ollama pull nomic-embed-text ``` --- 3. 搭建RAG核心(LlamaIndex关键代码) ```python from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings from llama_index.llms.ollama import Ollama from llama_index.embeddings.ollama import OllamaEmbedding # 配置 Settings.llm = Ollama(model="gemma4:31b", request_timeout=300.0) Settings.embed_model = OllamaEmbedding(model_name="nomic-embed-text") Settings.chunk_size = 1024 # 按需调整,1024 效果最好 Settings.chunk_overlap = 200 # 加载你的知识库文件夹(支持 PDF、MD、TXT、DOCX) documents = SimpleDirectoryReader("./my_knowledge_base").load_data() index = VectorStoreIndex.from_documents(documents, show_progress=True) # 持久化 http://index.storage_context.persist(persist_dir="./storage") ``` --- 4. 把Agent 跑起来 我用LlamaIndex的ReAct Agent +自定义工具: ➤ 工具1:`query_knowledge_base`(检索我的所有笔记) ➤ 工具2:`save_to_note`(把新洞见自动保存回知识库) 核心 Prompt 我改成了: > “你是我的私人AI研究员,只基于本地知识库回答,永远不要编造。如果不确定就说‘知识库中暂无相关记录’。” --- 5. 前端界面(我用 Streamlit 5分钟搞好) 现在手机/电脑随时能用: > “把我上周Space里聊的美股机制总结一下”,它秒出,还带来源引用 整个部署从0到能用,大概花了4小时(不包括后面调优) --- 完整踩坑记录(这些坑我全踩过,血泪教训) 坑1:OOM+ 上下文爆炸(最致命) 第一次直接扔256K 上下文 + 大文档,直接显存炸了 解决: · 强制设置 `--ctx-size 8192` + KV cache用q4_0 · `chunk_size` 从2048降到1024 · 现在长文档也能稳稳处理 --- 坑2:中文检索效果差 用默认bge-large-en,搜我的中文Space记录经常miss 解决: · 换 `nomic-embed-text` + 手动加了中文stopwords过滤 +Hybrid Search(BM25+Vector) · 命中率从60% 提到92% --- 坑3:Agent 幻觉+死循环 刚开始Agent老是“自信地”编造我没写过的东西,或者卡在循环里 解决: ➢ 强制加system prompt + 设置 `max_iterations=8` + 加入self-reflection step --- 坑 4:文档解析炸裂(尤其是PDF) 很多PDF是扫描稿或表格,直接拉稀 解决: ➢ 先用 LlamaParse 本地版或者 [http://unstructured.io](http://unstructured.io) 预处理,现在表格也能正常读了 --- 坑 5:速度慢到想砸电脑 刚开始生成速度只有8-12 t/s 解决: ➢ 用Q4_K_M + 开启GPU offload(`n-gpu-layers=-1`) ➢ 现在实测稳定28-35 t/s,完全能接受 --- 坑6:知识库更新麻烦 每次加新文件都要重新 build index 解决: ➢ 用了Incremental Index + 定时脚本,每天凌晨自动增量更新 --- 现在这个Agent到底能干啥?(真实使用2周感受) 1. 问任何我去过的长文、Space记录、阅读笔记,它都能精准引出处 > 我:“上周我在DeFi项目笔记里提到过30天所有项目笔记做个对比表格” > Agent:30 秒出完整Markdown表格 2. 让我把最近30天周读总结,发到Notion 自动帮我生成周读总结,发到 Notion 3. 最爽的是:完全离线,飞机上、地铁上、甚至断网也能用,隐私100%可控 这感觉真的不一样 它不再是云端租来的AI,而是长在我电脑里的私人研究员 --- 最后一点思考 Gemma 4 31B 把本地AI 的门槛真正拉到了一张高端显卡就能干大事的水平 我现在越来越相信:2026年的Web3+AI真正落地,可能不是链上训练,而是主权模型+主权数据+本地Agent 你呢? ➤已经在跑本地知识库Agent的,欢迎评论区分享你的方案(尤其是踩过的坑) ➤还在犹豫要不要上Gemma 4 的,说说你最担心哪一步 我把完整代码、Modelfile、Streamlit前端全放GitHub了(评论“代码”我发链接) 纯个人复盘,所有数据和体验来自真实操作,不做任何推广
我用Gemma 4 31B做了个完全离线的个人知识库 Agent
前两天我发Gemma 4的时候,在评论区留了一句:
> “我现在在测试一个想法:用 Gemma 4 做一个完全离线的个人知识库 Agent,所有数据在本地,所有推理在本地,没有 API 费用,没有隐私问题。如果测试顺利,我会分享具体的部署方案和我踩过的坑。”
现在测试结束了
我把整个过程、踩过的所有坑、最终方案一次性抛出来
完全真实操作记录,没有云端API,没有任何营销,纯个人复盘
---
我以前用ChatGPT/Claude做笔记,搜个人文档,总是心里不踏实:
- 输入客户资料、Space灵感稿、投资笔记时,总担心被用来训练
- 想让AI 24h随时分析我的推文 + 阅读记录,它动不动就断线、要钱
- 最重要的是:我想拥有一个真正属于自己的AI助手,不是租来的
Gemma 4 31B(量化后 17.4GB)+ 4090正好能跑
Apache 2.0协议又随便改,256K上下文能容一整本书去了
native function calling 又稳
这不就是离线个人知识库的完美底座吗?
于是我花了整整一个周末加上后续一周迭代,把它做成了现在这个完全离线的个人知识库Agent
---
我的最终硬件 & 环境(真实配置)
硬件
→ GPU:RTX 4090 24GB(31B Q4_K_M 量化后实测占用约 19-21GB VRAM,留 3GB 给 embedding 和系统)
→ CPU:AMD 7950X
→ 内存:64GB DDR5
→ 存储:2TB NVMe(知识库目前塞了约 1800 份 PDF+MD+Notion 导出)
软件栈
→ Ollama(主力推荐,Mac/Linux/Windows 都能跑)
→ LlamaIndex(RAG框架,最稳)
→ nomic-embed-tex(本地embedding,中文支持好)
→ Chroma(向量库,本地持久化)
→ AnythingLLM(前端界面,可选,但我最后还是直接用LlamaIndex + Streamlit 更灵活)
---
完整部署方案(一步步手把手,可直接复制,因为不支持Markdown代码块渲染,所以我文字输出,复制时候对比下)
1. 安装Ollama +拉模型(最简单一步)
```bash
# Mac/Linux/Windows 都一样
ollama pull gemma4:31b
# 官方直接用 gemma4:31b-it(instruct 版)
# 或者直接用量化好的 GGUF(HuggingFace 搜 google/gemma-4-31B-it-GGUF)
# 我最终用的是 Q4_K_M,速度和质量平衡最好
```
---
2. 准备embedding模型
```bash
ollama pull nomic-embed-text
```
---
3. 搭建RAG核心(LlamaIndex关键代码)
```python
from llama_index.core import VectorStoreIndex, SimpleDirectoryReader, Settings
from llama_index.llms.ollama import Ollama
from llama_index.embeddings.ollama import OllamaEmbedding
# 配置
Settings.llm = Ollama(model="gemma4:31b", request_timeout=300.0)
Settings.embed_model = OllamaEmbedding(model_name="nomic-embed-text")
Settings.chunk_size = 1024 # 按需调整,1024 效果最好
Settings.chunk_overlap = 200
# 加载你的知识库文件夹(支持 PDF、MD、TXT、DOCX)
documents =
SimpleDirectoryReader("./my_knowledge_base").load_data()
index = VectorStoreIndex.from_documents(documents, show_progress=True)
# 持久化
http://index.storage_context.persist(persist_dir="./storage")
```
---
4. 把Agent 跑起来
我用LlamaIndex的ReAct Agent +自定义工具:
➤ 工具1:`query_knowledge_base`(检索我的所有笔记)
➤ 工具2:`save_to_note`(把新洞见自动保存回知识库)
核心 Prompt 我改成了:
> “你是我的私人AI研究员,只基于本地知识库回答,永远不要编造。如果不确定就说‘知识库中暂无相关记录’。”
---
5. 前端界面(我用 Streamlit 5分钟搞好)
现在手机/电脑随时能用:
> “把我上周Space里聊的美股机制总结一下”,它秒出,还带来源引用
整个部署从0到能用,大概花了4小时(不包括后面调优)
---
完整踩坑记录(这些坑我全踩过,血泪教训)
坑1:OOM+ 上下文爆炸(最致命)
第一次直接扔256K 上下文 + 大文档,直接显存炸了
解决:
· 强制设置 `--ctx-size 8192` + KV cache用q4_0
· `chunk_size` 从2048降到1024
· 现在长文档也能稳稳处理
---
坑2:中文检索效果差
用默认bge-large-en,搜我的中文Space记录经常miss
解决:
· 换 `nomic-embed-text` + 手动加了中文stopwords过滤 +Hybrid Search(BM25+Vector)
· 命中率从60% 提到92%
---
坑3:Agent 幻觉+死循环
刚开始Agent老是“自信地”编造我没写过的东西,或者卡在循环里
解决:
➢ 强制加system prompt + 设置 `max_iterations=8` + 加入self-reflection step
---
坑 4:文档解析炸裂(尤其是PDF)
很多PDF是扫描稿或表格,直接拉稀
解决:
➢ 先用 LlamaParse 本地版或者 [http://unstructured.io](http://unstructured.io) 预处理,现在表格也能正常读了
---
坑 5:速度慢到想砸电脑
刚开始生成速度只有8-12 t/s
解决:
➢ 用Q4_K_M + 开启GPU offload(`n-gpu-layers=-1`)
➢ 现在实测稳定28-35 t/s,完全能接受
---
坑6:知识库更新麻烦
每次加新文件都要重新 build index
解决:
➢ 用了Incremental Index + 定时脚本,每天凌晨自动增量更新
---
现在这个Agent到底能干啥?(真实使用2周感受)
1. 问任何我去过的长文、Space记录、阅读笔记,它都能精准引出处
> 我:“上周我在DeFi项目笔记里提到过30天所有项目笔记做个对比表格”
> Agent:30 秒出完整Markdown表格
2. 让我把最近30天周读总结,发到Notion
自动帮我生成周读总结,发到 Notion
3. 最爽的是:完全离线,飞机上、地铁上、甚至断网也能用,隐私100%可控
这感觉真的不一样
它不再是云端租来的AI,而是长在我电脑里的私人研究员
---
最后一点思考
Gemma 4 31B 把本地AI 的门槛真正拉到了一张高端显卡就能干大事的水平
我现在越来越相信:2026年的Web3+AI真正落地,可能不是链上训练,而是主权模型+主权数据+本地Agent
你呢?
➤已经在跑本地知识库Agent的,欢迎评论区分享你的方案(尤其是踩过的坑)
➤还在犹豫要不要上Gemma 4 的,说说你最担心哪一步
我把完整代码、Modelfile、Streamlit前端全放GitHub了(评论“代码”我发链接)
纯个人复盘,所有数据和体验来自真实操作,不做任何推广
BTC
−1,21%
Powerpei
·
--
在链上打合约,最反人类的一步永远是复盘算账 看着前端绿油油的收益率 结果七扣八扣(滑点、两头吃的资金费率、各种隐形摩擦) 实际到手总是对不上 最要命的是,现在绝大多数Perps DEX都把用户的真实历史流水捂得死死的 你想倒个完整的表格出来做审计,比登天还难 平台不傻,他们就是不想让你太容易算清楚自己到底交了多少过路费 --- 所以今天看到 @StandX_Official 后台直接甩出一个一键导出完整历史记录(CSV/JSON)的按钮时 我多少有点意外 把开平仓点位、每一次资金费率的扣除 还有DUSD底层的真实生息(目前2.52%)明细 一字不落地全交还给用户 这在传统软件里是个极其基础的功能 但在黑箱化越来越严重的 DeFi圈 这其实是在砸同行的饭碗 --- 敢把散户流水这么赤裸裸亮出来的平台 通常是对自己的机制摩擦有绝对的自信 我顺手拉了下他们今天的链上数据: - DUSD的TVL已经逼近1亿美金 - 24小时交易量5.6 亿 能把流动性做到这个规模 确实不需要靠藏着掖着来防止资金外逃了 -- 这个功能对拉盘没有任何作用 但对于真正在里面滚大资金的交易员来说 一个允许你随时查旧账、随时导出做风控模型的台子 比天天发空投预告要让人踏实得多 在这个到处都是镰刀的圈子里,赚没赚钱先两说,咱们至少得算个明白 注:以上内容只作参考,纯属个人意见,不作任何投资建议,DROY!!!
在链上打合约,最反人类的一步永远是复盘算账
看着前端绿油油的收益率
结果七扣八扣(滑点、两头吃的资金费率、各种隐形摩擦)
实际到手总是对不上
最要命的是,现在绝大多数Perps DEX都把用户的真实历史流水捂得死死的
你想倒个完整的表格出来做审计,比登天还难
平台不傻,他们就是不想让你太容易算清楚自己到底交了多少过路费
---
所以今天看到 @StandX_Official 后台直接甩出一个一键导出完整历史记录(CSV/JSON)的按钮时
我多少有点意外
把开平仓点位、每一次资金费率的扣除
还有DUSD底层的真实生息(目前2.52%)明细
一字不落地全交还给用户
这在传统软件里是个极其基础的功能
但在黑箱化越来越严重的 DeFi圈
这其实是在砸同行的饭碗
---
敢把散户流水这么赤裸裸亮出来的平台
通常是对自己的机制摩擦有绝对的自信
我顺手拉了下他们今天的链上数据:
- DUSD的TVL已经逼近1亿美金
- 24小时交易量5.6 亿
能把流动性做到这个规模
确实不需要靠藏着掖着来防止资金外逃了
--
这个功能对拉盘没有任何作用
但对于真正在里面滚大资金的交易员来说
一个允许你随时查旧账、随时导出做风控模型的台子
比天天发空投预告要让人踏实得多
在这个到处都是镰刀的圈子里,赚没赚钱先两说,咱们至少得算个明白
注:以上内容只作参考,纯属个人意见,不作任何投资建议,DROY!!!
Powerpei
·
--
刚才看了一眼爆仓数据 7万多个头铁的空军直接被蒸发了 这两天的盘面把宏观洗盘演绎到了极致 前几天拿中东的导弹吓唬你交出现货 今天特朗普团队一放风说要去跟伊朗和谈 大饼瞬间被推上了三周新高 很多人在群里又开始喊牛回速归 其实看透了就很无聊,地缘政治在金融市场里 很多时候就是配合洗盘、清杠杆的道具 散户永远在跟着新闻做单,资金却在利用新闻制造流动性 别急着上头 先分清这波拉升是机构的现货真买盘 还是单纯的空头踩踏引发的被动平仓 在新闻出尽的右侧去追高,和前两天恐慌割肉,本质上犯的是同一种病。 #BTC走势分析
刚才看了一眼爆仓数据
7万多个头铁的空军直接被蒸发了
这两天的盘面把宏观洗盘演绎到了极致
前几天拿中东的导弹吓唬你交出现货
今天特朗普团队一放风说要去跟伊朗和谈
大饼瞬间被推上了三周新高
很多人在群里又开始喊牛回速归
其实看透了就很无聊,地缘政治在金融市场里
很多时候就是配合洗盘、清杠杆的道具
散户永远在跟着新闻做单,资金却在利用新闻制造流动性
别急着上头
先分清这波拉升是机构的现货真买盘
还是单纯的空头踩踏引发的被动平仓
在新闻出尽的右侧去追高,和前两天恐慌割肉,本质上犯的是同一种病。
#BTC走势分析
BTC
−1,21%
Powerpei
·
--
Članek
1000万下载背后的信号:AI不应该是租来的黑盒前两天我发了Gemma 4的技术整理和实战体验,很多朋友在评论区问: “为什么这么多人下载?是因为它免费吗?” 我想了很久,我发现答案不是这么简单 ➢一周下载破1000万,这个数字背后藏着一个信号,大多数人都没注意到 --- 我最近越来越觉得不对劲 我用了1年ChatGPT、Claude、Gemini. 每次我输入客户资料、内部文档、商业想法的时候,我都会犹豫一下: ➢这些数据会被拿去训练模型吗?会被泄露吗? 还有一件事让我很不爽: OpenAI可以随时调整GPT-4的参数,Claude可以随时改 Opus的行为 你今天调好的prompt,明天可能就不好使了 你的AI能力,永远被API额度锁死 你想做个Agent跑24小时?对不起,API费用可能让你破产 你想部署到离线环境?对不起,没网就没AI --- ➢为什么1000万人选择下载Gemma 4? 不是因为它跑分高(虽然AIME 89.2% 确实猛) 而是因为人们终于意识到:AI不应该是租来的黑盒,AI 应该是你真正拥有的工具 --- 我在想三个趋势 1. 可以拥有的AI会成为必需品 你想想,你不会把所有照片都存在别人的云盘上 同样的,以后你也不会把所有AI工作流都放在别人的API 上 ➢医疗、法律、金融这些行业,企业内部的Agent,科研项目,国家的主权AI 这些场景必须用本地模型 Gemma 4把门槛降到了“一张显卡”的水平,这是一个大变化 31B 压缩后17.4GB,E4B版5GB能在手机上跑多模态 这不是玩具,这是真正能干活的工具 --- 2. 独立开发者和小团队的好时代要来了 以前你做AI应用,要么租API(成本高),要么租GPU(更贵) 现在呢? 31B版在Codeforces拿2150分,26B MoE速度接近4B但能力接近 31B ➢小团队做垂直Agent、做私有化部署、做离线工具,成本直接降到最低 这波机会,是给那些不想被API 绑住的人 --- 3. Web3+ AI的真正落地点,可能就在这里 我一直在想:Web3和AI怎么结合? 以前的答案都是“链上AI”、“去中心化训练” 听起来很酷,但是太难落地了 但是如果 AI能在本地跑,数据不上链也能保证隐私,主权数据+ 主权模型+链上验证 这才是真正的去中心化AI Gemma 4把云端能力搬回家,Apache 2.0完全开放权重 + 完全开放许可 ➢你完全掌控模型、数据和运行环境 这是 2026年本地AI的一个重要节点 --- 我昨天测了一整天 ➢agent流程很稳,长上下文没出问题,function calling比我想的还要好用 我现在在测试一个想法:我想用Gemma 4做一个完全离线的个人知识库Agent 所有数据在本地,所有推理在本地,没有API费用,没有隐私问题 如果测试顺利,我会分享具体的部署方案和我踩过的坑 --- 最后一个问题 ➢如果AI可以完全属于你,你会用它做什么? 我说的不是“用ChatGPT写个文案” 我说的是“拥有一个24 小时在线、完全听你指挥、永远不会泄露你秘密的AI助手” 这个问题,我还在想 但是我知道,答案不在云端,答案在本地 (这是我的个人思考,不是推广。已经上手的朋友,欢迎评论区聊聊你的想法)
1000万下载背后的信号:AI不应该是租来的黑盒
前两天我发了Gemma 4的技术整理和实战体验,很多朋友在评论区问:
“为什么这么多人下载?是因为它免费吗?”
我想了很久,我发现答案不是这么简单
➢一周下载破1000万,这个数字背后藏着一个信号,大多数人都没注意到
---
我最近越来越觉得不对劲
我用了1年ChatGPT、Claude、Gemini.
每次我输入客户资料、内部文档、商业想法的时候,我都会犹豫一下:
➢这些数据会被拿去训练模型吗?会被泄露吗?
还有一件事让我很不爽:
OpenAI可以随时调整GPT-4的参数,Claude可以随时改 Opus的行为
你今天调好的prompt,明天可能就不好使了
你的AI能力,永远被API额度锁死
你想做个Agent跑24小时?对不起,API费用可能让你破产
你想部署到离线环境?对不起,没网就没AI
---
➢为什么1000万人选择下载Gemma 4?
不是因为它跑分高(虽然AIME 89.2% 确实猛)
而是因为人们终于意识到:AI不应该是租来的黑盒,AI 应该是你真正拥有的工具
---
我在想三个趋势
1. 可以拥有的AI会成为必需品
你想想,你不会把所有照片都存在别人的云盘上
同样的,以后你也不会把所有AI工作流都放在别人的API 上
➢医疗、法律、金融这些行业,企业内部的Agent,科研项目,国家的主权AI
这些场景必须用本地模型
Gemma 4把门槛降到了“一张显卡”的水平,这是一个大变化
31B 压缩后17.4GB,E4B版5GB能在手机上跑多模态
这不是玩具,这是真正能干活的工具
---
2. 独立开发者和小团队的好时代要来了
以前你做AI应用,要么租API(成本高),要么租GPU(更贵)
现在呢?
31B版在Codeforces拿2150分,26B MoE速度接近4B但能力接近 31B
➢小团队做垂直Agent、做私有化部署、做离线工具,成本直接降到最低
这波机会,是给那些不想被API 绑住的人
---
3. Web3+ AI的真正落地点,可能就在这里
我一直在想:Web3和AI怎么结合?
以前的答案都是“链上AI”、“去中心化训练”
听起来很酷,但是太难落地了
但是如果 AI能在本地跑,数据不上链也能保证隐私,主权数据+ 主权模型+链上验证
这才是真正的去中心化AI
Gemma 4把云端能力搬回家,Apache 2.0完全开放权重 + 完全开放许可
➢你完全掌控模型、数据和运行环境
这是 2026年本地AI的一个重要节点
---
我昨天测了一整天
➢agent流程很稳,长上下文没出问题,function calling比我想的还要好用
我现在在测试一个想法:我想用Gemma 4做一个完全离线的个人知识库Agent
所有数据在本地,所有推理在本地,没有API费用,没有隐私问题
如果测试顺利,我会分享具体的部署方案和我踩过的坑
---
最后一个问题
➢如果AI可以完全属于你,你会用它做什么?
我说的不是“用ChatGPT写个文案”
我说的是“拥有一个24 小时在线、完全听你指挥、永远不会泄露你秘密的AI助手”
这个问题,我还在想
但是我知道,答案不在云端,答案在本地
(这是我的个人思考,不是推广。已经上手的朋友,欢迎评论区聊聊你的想法)
Powerpei
·
--
现实再一次把我的脸打的啪啪响 格局的归宿就是归零 准备割肉 $ROBO
现实再一次把我的脸打的啪啪响
格局的归宿就是归零
准备割肉
$ROBO
ROBO
+10,72%
Powerpei
·
--
Članek
能翻身的人,都在反人性的活着大概三个月前一个晚上吧,我在Discord上看到一个哥们发了条消息:“兄弟们,我失业了。35岁,做了10年产品经理,被AI替代了。现在每天在家刷招聘网站,投了 200多份简历,没有一个回音。” 群里瞬间炸了,大家都在安慰他: “兄弟,别慌,AI 只是工具,不可能完全替代人。” “你经验这么丰富,肯定能找到更好的。” “实在不行就先休息一下,调整心态。” /// 这些话听着暖心,但其实毫无用处。因为这些话的潜台词是:你被淘汰了,接受现实吧 --- 我没说话,因为我知道,他的问题不是“被 AI替代”,而是“不愿意和AI协作” --- 第二天早上,我给他发了条私信:“你有没有试过用AI来帮你找工作?” 他回:“用过啊,ChatGPT帮我改简历,但还是没用。” 我又问:“那你有没有试过用AI来做副业?比如AI生成内容、AI数据标注、AI提示词工程师?” 他沉默了一会儿,说:“那不是程序员干的活吗?我不会编程。” --- 你看,这就是人性 遇到困难,第一反应不是“我怎么用 AI 赚钱”,而是“我不会编程,我学不会” --- ➤ 能翻身的人,都在反人性的活着 我不是在画大饼,我是真的看到了太多这样的例子。 --- 反人性 1:别人在抱怨“被 AI 替代”,你在学习“用AI赚钱” 去年我认识一个做设计的朋友,公司裁员,他也被裁了。 但他没有像其他人一样抱怨,而是花了 2 个月时间,学会了用Midjourney + Stable Diffusion 做AI绘画 现在他在小红书和抖音上接单,帮商家做产品图、海报、包装设计,月入3-5 万。 /// 他跟我说:“我不是被 AI 替代了,我是用 AI 替代了那些还在用Photoshop 手绘的设计师。” --- 反人性 2:别人在刷短视频,你在做AI数据标注 AI模型训练需要大量数据标注,这是一个巨大的市场 我另一个朋友,原本是做客服的,失业后报名了AI数据标注培训(免费的,人社部“技能照亮前程”行动),3个月拿到证,现在在家接单做数据标注,月入 8000-12000 /// 她跟我说:“我每天工作 6小时,在家就能做,比以前做客服轻松多了。” --- 反人性 3:别人在追热点赚快钱,你在布局AI提示词工程师 AI 提示词工程师(Prompt Engineer)是最近爆火的新职业,需求比 5:1+。 我见过一个95后小伙,文科生,没有任何编程基础,但他花了1个月时间,学会了怎么写高质量的AI提示词。 现在他在Upwork和Fiverr上接单,帮企业优化ChatGPT/Claude的提示词,时薪 50-100美元 /// 他跟我说:“我不需要会编程,我只需要懂人性,懂怎么和 AI 对话。” --- 反人性 4:别人在舒适区躺平,你在做 AI内容创作 AI生成内容(AIGC)是一个万亿级市场。 我认识一个做自媒体的朋友,原本每天写文章要4-5小时,现在用ChatGPT + Claude辅助写作,1小时就能搞定。 他把省下来的时间,用来做视频、做播客、做社群,现在月入10 万+。 /// 他跟我说:“AI不是来抢我饭碗的,是来帮我放大产能的。” --- ➤ 我不是乐观主义者,我只是看数据 后来那个在 Discord 上发消息的哥们,我也是最近见到他,受他的启发写了这么多 他报名了AI提示词工程师培训,学会了用ChatGPT + Midjourney做内容,现在在小红书上做AI绘画教程,月入 1万+ 他跟我说:“当时你问我的那些问题,我回去想了很久。我意识到,我不是被 AI替代了,是我不愿意和AI协作。” --- 能翻身的人,都在反人性的活着 → 别人在抱怨“被 AI 替代”,你在学习“用AI赚钱” → 别人在刷短视频,你在做AI数据标注 → 别人在追热点,你在布局AI提示词工程师 → 别人在躺平,你在做AI内容创作 --- 这不是鸡汤,这是可验证的结构性机会 AI提示词工程师需求比5:1+,AI数据标注缺口上千万,AI生成内容(AIGC)是万亿级市场。 普通人只要行动,就能从“被 AI 淘汰”变成“用AI赚钱的那批”。 但我真的很困惑:为什么大部分人宁愿抱怨“被 AI 替代”,也不愿意去学习“用 AI 赚钱”? 是因为不相信?还是因为懒?还是因为害怕改变?
能翻身的人,都在反人性的活着
大概三个月前一个晚上吧,我在Discord上看到一个哥们发了条消息:“兄弟们,我失业了。35岁,做了10年产品经理,被AI替代了。现在每天在家刷招聘网站,投了 200多份简历,没有一个回音。”
群里瞬间炸了,大家都在安慰他:
“兄弟,别慌,AI 只是工具,不可能完全替代人。”
“你经验这么丰富,肯定能找到更好的。”
“实在不行就先休息一下,调整心态。”
/// 这些话听着暖心,但其实毫无用处。因为这些话的潜台词是:你被淘汰了,接受现实吧
---
我没说话,因为我知道,他的问题不是“被 AI替代”,而是“不愿意和AI协作”
---
第二天早上,我给他发了条私信:“你有没有试过用AI来帮你找工作?”
他回:“用过啊,ChatGPT帮我改简历,但还是没用。”
我又问:“那你有没有试过用AI来做副业?比如AI生成内容、AI数据标注、AI提示词工程师?”
他沉默了一会儿,说:“那不是程序员干的活吗?我不会编程。”
---
你看,这就是人性
遇到困难,第一反应不是“我怎么用 AI 赚钱”,而是“我不会编程,我学不会”
---
➤ 能翻身的人,都在反人性的活着
我不是在画大饼,我是真的看到了太多这样的例子。
---
反人性 1:别人在抱怨“被 AI 替代”,你在学习“用AI赚钱”
去年我认识一个做设计的朋友,公司裁员,他也被裁了。
但他没有像其他人一样抱怨,而是花了 2 个月时间,学会了用Midjourney + Stable Diffusion 做AI绘画
现在他在小红书和抖音上接单,帮商家做产品图、海报、包装设计,月入3-5 万。
/// 他跟我说:“我不是被 AI 替代了,我是用 AI 替代了那些还在用Photoshop 手绘的设计师。”
---
反人性 2:别人在刷短视频,你在做AI数据标注
AI模型训练需要大量数据标注,这是一个巨大的市场
我另一个朋友,原本是做客服的,失业后报名了AI数据标注培训(免费的,人社部“技能照亮前程”行动),3个月拿到证,现在在家接单做数据标注,月入 8000-12000
/// 她跟我说:“我每天工作 6小时,在家就能做,比以前做客服轻松多了。”
---
反人性 3:别人在追热点赚快钱,你在布局AI提示词工程师
AI 提示词工程师(Prompt Engineer)是最近爆火的新职业,需求比 5:1+。
我见过一个95后小伙,文科生,没有任何编程基础,但他花了1个月时间,学会了怎么写高质量的AI提示词。
现在他在Upwork和Fiverr上接单,帮企业优化ChatGPT/Claude的提示词,时薪 50-100美元
/// 他跟我说:“我不需要会编程,我只需要懂人性,懂怎么和 AI 对话。”
---
反人性 4:别人在舒适区躺平,你在做 AI内容创作
AI生成内容(AIGC)是一个万亿级市场。
我认识一个做自媒体的朋友,原本每天写文章要4-5小时,现在用ChatGPT + Claude辅助写作,1小时就能搞定。
他把省下来的时间,用来做视频、做播客、做社群,现在月入10 万+。
/// 他跟我说:“AI不是来抢我饭碗的,是来帮我放大产能的。”
---
➤ 我不是乐观主义者,我只是看数据
后来那个在 Discord 上发消息的哥们,我也是最近见到他,受他的启发写了这么多
他报名了AI提示词工程师培训,学会了用ChatGPT + Midjourney做内容,现在在小红书上做AI绘画教程,月入 1万+
他跟我说:“当时你问我的那些问题,我回去想了很久。我意识到,我不是被 AI替代了,是我不愿意和AI协作。”
---
能翻身的人,都在反人性的活着
→ 别人在抱怨“被 AI 替代”,你在学习“用AI赚钱”
→ 别人在刷短视频,你在做AI数据标注
→ 别人在追热点,你在布局AI提示词工程师
→ 别人在躺平,你在做AI内容创作
---
这不是鸡汤,这是可验证的结构性机会
AI提示词工程师需求比5:1+,AI数据标注缺口上千万,AI生成内容(AIGC)是万亿级市场。
普通人只要行动,就能从“被 AI 淘汰”变成“用AI赚钱的那批”。
但我真的很困惑:为什么大部分人宁愿抱怨“被 AI 替代”,也不愿意去学习“用 AI 赚钱”?
是因为不相信?还是因为懒?还是因为害怕改变?
Powerpei
·
--
Članek
中国AI烧电背后的超级战略:从压力到"主场优势昨晚刷到IEA的《Electricity 2026》报告,看到一个数字: 2024-2030年,中国数据中心电力需求从102TWh暴增到 280TWh,增幅近170% 我停下来算了一下,这相当于每年增加1个欧盟今天的用电量 然后我意识到一件事:当全世界还在为AI烧电头疼时,中国已经把这件事变成了一张超级战略牌 --- ➤ 你可能听说过ChatGPT训练一次要烧掉几百万美元的电费 但你可能不知道,中国单独贡献了全球新增电力需求的近 50% 这不是因为中国AI模型比别人多,而是因为中国在下一盘更大的棋: 把token背后的电水隐形成本炼成全球AI竞争的超级战略杠杆 简单说:别人在担心电不够用,中国在布局怎么把电变成AI主权的壁垒 --- ➢ 玲珑一号(Linglong One),这是我最近关注的一个项目 阿里巴巴与中核集团成立的合资公司,专门为AI数据中心提供零碳稳定电 不是传统大型核电站,而是模块化、可快速部署的小型堆,不接入公共电网,直接点对点供电 ▪️ 2026 上半年即将全球首个商运 ▪️ 中国在AI专用核电这条赛道上,已经领先全球至少3-5 年 ▪️ 传统核电站建设周期10年起步,小型核电2-3年就能投产 中国可以快速复制这个模式,给每个超大型数据中心配一个专属核电站 --- ➢ 更夸张的是海南 HiCloud海底数据中心 1300吨船体沉入35米深海,利用海水自然冷却,节电 90% 零淡水消耗,97%电力来自海上风电 ▪️ 传统数据中心的冷却成本占总电力的30-40% ▪️ 海底数据中心直接把这部分砍掉了 ▪️ 零淡水消耗,不占用淡水资源 我第一次看到这个项目时,觉得这是不是在拍科幻片? 但它已经正式启用了,而且技术路线已经验证可行 --- ➤ 第十五个五年计划(2026-2030)更关键 中国明确把“人工智能+能源高质量发展”列为新质生产力主导工程 明确算电协同+绿电上链,把物理能源直接变成可交易的链上资产 想想看: 当欧美还在为老化电网和水危机挣扎时,中国已经在布局核电+海底+分布式绿电 把电水共生打造成AI主权壁垒 未来可能不是谁的模型更大,而是谁能把电力资源代币化,让全民参与AI算力分红 --- ➢ 我最近一直在思考一个问题:AI的下一个万亿叙事是什么? 大部分人会说:更大的模型、更强的推理能力、更低的成本 但我觉得,真正的万亿叙事是:谁能把看不见的“数字汗水”(电力、水资源、算力)变成全民可参与的链上财富 ▪️ 传统 AI公司的逻辑 → 我训练模型,你付费使用,利润归我 ▪️ 未来的逻辑 → 我提供电力/算力,你参与分红,链上透明结算 这就是为什么我说"这波不是追赶,是重塑规则" --- ➤ 这波不是压力,是主场优势 玲珑一号、海底数据中心、第十五个五年计划,这三张牌组合起来,就是中国AI时代的超级战略杠杆 你觉得,token时代的中国电水优势,最终会把AI的定价权和话语权带到哪里?
中国AI烧电背后的超级战略:从压力到"主场优势
昨晚刷到IEA的《Electricity 2026》报告,看到一个数字:
2024-2030年,中国数据中心电力需求从102TWh暴增到 280TWh,增幅近170%
我停下来算了一下,这相当于每年增加1个欧盟今天的用电量
然后我意识到一件事:当全世界还在为AI烧电头疼时,中国已经把这件事变成了一张超级战略牌
---
➤ 你可能听说过ChatGPT训练一次要烧掉几百万美元的电费
但你可能不知道,中国单独贡献了全球新增电力需求的近 50%
这不是因为中国AI模型比别人多,而是因为中国在下一盘更大的棋:
把token背后的电水隐形成本炼成全球AI竞争的超级战略杠杆
简单说:别人在担心电不够用,中国在布局怎么把电变成AI主权的壁垒
---
➢ 玲珑一号(Linglong One),这是我最近关注的一个项目
阿里巴巴与中核集团成立的合资公司,专门为AI数据中心提供零碳稳定电
不是传统大型核电站,而是模块化、可快速部署的小型堆,不接入公共电网,直接点对点供电
▪️ 2026 上半年即将全球首个商运
▪️ 中国在AI专用核电这条赛道上,已经领先全球至少3-5 年
▪️ 传统核电站建设周期10年起步,小型核电2-3年就能投产
中国可以快速复制这个模式,给每个超大型数据中心配一个专属核电站
---
➢ 更夸张的是海南 HiCloud海底数据中心
1300吨船体沉入35米深海,利用海水自然冷却,节电 90%
零淡水消耗,97%电力来自海上风电
▪️ 传统数据中心的冷却成本占总电力的30-40%
▪️ 海底数据中心直接把这部分砍掉了
▪️ 零淡水消耗,不占用淡水资源
我第一次看到这个项目时,觉得这是不是在拍科幻片?
但它已经正式启用了,而且技术路线已经验证可行
---
➤ 第十五个五年计划(2026-2030)更关键
中国明确把“人工智能+能源高质量发展”列为新质生产力主导工程
明确算电协同+绿电上链,把物理能源直接变成可交易的链上资产
想想看:
当欧美还在为老化电网和水危机挣扎时,中国已经在布局核电+海底+分布式绿电
把电水共生打造成AI主权壁垒
未来可能不是谁的模型更大,而是谁能把电力资源代币化,让全民参与AI算力分红
---
➢ 我最近一直在思考一个问题:AI的下一个万亿叙事是什么?
大部分人会说:更大的模型、更强的推理能力、更低的成本
但我觉得,真正的万亿叙事是:谁能把看不见的“数字汗水”(电力、水资源、算力)变成全民可参与的链上财富
▪️ 传统 AI公司的逻辑 → 我训练模型,你付费使用,利润归我
▪️ 未来的逻辑 → 我提供电力/算力,你参与分红,链上透明结算
这就是为什么我说"这波不是追赶,是重塑规则"
---
➤ 这波不是压力,是主场优势
玲珑一号、海底数据中心、第十五个五年计划,这三张牌组合起来,就是中国AI时代的超级战略杠杆
你觉得,token时代的中国电水优势,最终会把AI的定价权和话语权带到哪里?
AI
0,00%
Powerpei
·
--
陈丽华女士走了…… 85岁,传奇富婆,唐僧迟重瑞的妻子 ➢ 她这辈子做了什么? 一手建起中国紫檀博物馆,百亿身家却低调一辈子 /// 不是那种天天上热搜的富豪,而是真正把钱花在文化传承上的人 --- ➢ 我最佩服她的是 不是商业头脑,也不是嫁给了“唐僧” 而是她在最能享受的年纪,选择把紫檀这门快失传的手艺,用一座博物馆留给后人 /// 这种对文化的热爱,不是装出来的 --- ➢ 人生无常,珍惜眼前人 你们最佩服她哪一点?是商业头脑还是那份对文化的热爱?
陈丽华女士走了……
85岁,传奇富婆,唐僧迟重瑞的妻子
➢ 她这辈子做了什么?
一手建起中国紫檀博物馆,百亿身家却低调一辈子
/// 不是那种天天上热搜的富豪,而是真正把钱花在文化传承上的人
---
➢ 我最佩服她的是
不是商业头脑,也不是嫁给了“唐僧”
而是她在最能享受的年纪,选择把紫檀这门快失传的手艺,用一座博物馆留给后人
/// 这种对文化的热爱,不是装出来的
---
➢ 人生无常,珍惜眼前人
你们最佩服她哪一点?是商业头脑还是那份对文化的热爱?
Powerpei
·
--
Članek
StandX的资本效率实验今天早上看到StandX的链上数据,OI / TVL比率已经接近80% 这个数字在Perps DEX赛道里算是比较高的水平 值得拆解一下背后的机制设计 --- ➢ 传统 Perps DEX的逻辑是: 你存入 $USDC 或 $ETH 作为保证金(margin) 它就躺在那里,等你开仓 如果你不交易,它就是死资本 就像你银行账户里的钱,除非你主动去买理财,否则它只会贬值 --- ➢ @StandX_Official 改了这个底层逻辑: 你存入的不是普通稳定币,而是 $DUSD(他们自己的证书) 这个 $DUSD 从进入协议那一刻起,就自动参与两件事: - Spot staking:质押生息 - Funding rate arbitrage:资金费率套利 翻译成人话:你的保证金在待命的同时,自己在赚钱 --- ➢ 最新链上数据(2026 年4月7日): ▪️DUSD TVL: $99.84M ▪️DUSD holders: 234,773 ▪️24H Perps 交易量: $769.62M(近期明显回暖) ▪️Open Interest (OI): $80.14M 这个OI / TVL = 80% 代表什么呢? 代表着着协议里80% 的资金都在“工作” 不是躺在账户里等你想起来,而是一边做保证金,一边自己跑去套利、质押 这就是他们说的 We stand with traders who demand capital efficiency --- ➢ 这个设计的市场背景: 当前市场环境下,很多Perps协议还在靠补贴或激励拉量 用户冲进来,领完空投就跑,TVL虚高,但真实交易量惨淡。 StandX的差异化路径是:不发空投,而是让资金自动参与收益生成 主网Campaign的核心是鼓励从Day 1就开始赚取真实收益 补贴模式在短期内可以快速拉升数据,但长期可持续性存疑 StandX 模式的风险在于:早期用户获取成本更高,冷启动难度更大 --- ➢ 需要注意的风险点: ▪️清算风险集中 80% 的高 OI/TVL 意味着大部分资金都在被使用,一旦市场剧烈波动,清算压力会更大 ▪️收益来源依赖 自动收益最终来自 funding rate 和 staking,这两者都受市场行情影响 ▪️$DUSD 的流动性 作为协议内生资产,$DUSD 的二级市场流动性和脱锚风险需要持续观察 ▪️智能合约风险 自动化程度越高,合约复杂度越高,潜在漏洞风险也越大 这些风险在任何DeFi协议中都存在,但在高资金利用率的设计中会被放大 --- ➢ 我的评估: StandX的OI/TVL = 80%数据确实证明了“margin 不闲置”的可行性 但这个模式是否能长期跑通,还需要观察: ▪️市场下行时的表现 — 当前数据是在相对平稳的市场环境下产生的,极端行情下的压力测试尚未充分验证 ▪️用户留存率 — 没有空投激励的情况下,用户是否会因为“自动收益”而长期留存,还需要更长周期的数据 ▪️竞争对手跟进 — 如果其他Perps DEX也开始采用类似机制,StandX的差异化优势会被削弱 --- 观察角度: 这篇分析不是推荐,而是对一个机制设计的拆解 当保证金可以自己工作时,用户和协议的利益是否更对齐? 这个问题的答案需要更长时间的市场验证 如果你也在关注Perps赛道 建议持续跟踪 StandX 的链上数据变化 尤其是在市场波动期的表现。 注:以上内容仅做参考,不作任何投资建议,DROY
StandX的资本效率实验
今天早上看到StandX的链上数据,OI / TVL比率已经接近80%
这个数字在Perps DEX赛道里算是比较高的水平
值得拆解一下背后的机制设计
---
➢ 传统 Perps DEX的逻辑是:
你存入 $USDC 或 $ETH 作为保证金(margin)
它就躺在那里,等你开仓
如果你不交易,它就是死资本
就像你银行账户里的钱,除非你主动去买理财,否则它只会贬值
---
➢ @StandX_Official 改了这个底层逻辑:
你存入的不是普通稳定币,而是 $DUSD(他们自己的证书)
这个 $DUSD 从进入协议那一刻起,就自动参与两件事:
- Spot staking:质押生息
- Funding rate arbitrage:资金费率套利
翻译成人话:你的保证金在待命的同时,自己在赚钱
---
➢ 最新链上数据(2026 年4月7日):
▪️DUSD TVL: $99.84M
▪️DUSD holders: 234,773
▪️24H Perps 交易量: $769.62M(近期明显回暖)
▪️Open Interest (OI): $80.14M
这个OI / TVL = 80% 代表什么呢?
代表着着协议里80% 的资金都在“工作”
不是躺在账户里等你想起来,而是一边做保证金,一边自己跑去套利、质押
这就是他们说的
We stand with traders who demand capital efficiency
---
➢ 这个设计的市场背景:
当前市场环境下,很多Perps协议还在靠补贴或激励拉量
用户冲进来,领完空投就跑,TVL虚高,但真实交易量惨淡。
StandX的差异化路径是:不发空投,而是让资金自动参与收益生成
主网Campaign的核心是鼓励从Day 1就开始赚取真实收益
补贴模式在短期内可以快速拉升数据,但长期可持续性存疑
StandX 模式的风险在于:早期用户获取成本更高,冷启动难度更大
---
➢ 需要注意的风险点:
▪️清算风险集中
80% 的高 OI/TVL 意味着大部分资金都在被使用,一旦市场剧烈波动,清算压力会更大
▪️收益来源依赖
自动收益最终来自 funding rate 和 staking,这两者都受市场行情影响
▪️$DUSD 的流动性
作为协议内生资产,$DUSD 的二级市场流动性和脱锚风险需要持续观察
▪️智能合约风险
自动化程度越高,合约复杂度越高,潜在漏洞风险也越大
这些风险在任何DeFi协议中都存在,但在高资金利用率的设计中会被放大
---
➢ 我的评估:
StandX的OI/TVL = 80%数据确实证明了“margin 不闲置”的可行性
但这个模式是否能长期跑通,还需要观察:
▪️市场下行时的表现 — 当前数据是在相对平稳的市场环境下产生的,极端行情下的压力测试尚未充分验证
▪️用户留存率 — 没有空投激励的情况下,用户是否会因为“自动收益”而长期留存,还需要更长周期的数据
▪️竞争对手跟进 — 如果其他Perps DEX也开始采用类似机制,StandX的差异化优势会被削弱
---
观察角度:
这篇分析不是推荐,而是对一个机制设计的拆解
当保证金可以自己工作时,用户和协议的利益是否更对齐?
这个问题的答案需要更长时间的市场验证
如果你也在关注Perps赛道
建议持续跟踪 StandX 的链上数据变化
尤其是在市场波动期的表现。
注:以上内容仅做参考,不作任何投资建议,DROY
ETH
−1,29%
USDC
+0,01%
Powerpei
·
--
昨天晚上11点,我终于把Gemma 4 31B跑起来了 花了两个小时折腾环境,但跑起来那一刻,真的爽 然后今天早上刷贴,又看到有人在问DeepSeek V4什么时候出 我就对我当前的一些认知来简单说下 --- ➢Gemma 4现在就能用,我已经在本地跑了 31B版本量化后在我的4090上跑得很顺 26B MoE版本更快 我测了一下Agent工作流,稳定性超出预期 最关键的是,Apache 2.0协议,我想怎么改就怎么改,不用担心任何限制 这种感觉就像:你终于可以在自己家里搭个AI,不用每次都去云端求人 --- ➢但 DeepSeek V4呢? 说好2月发,没发 说好3月发,又没发 现在说未来几周,我觉得还是有点头疼 不是说DeepSeek不行,而是他们遇到的问题确实很难 美国的管制不让中国买顶级NVIDIA芯片,这是事实 ➢DeepSeek这次直接all in华为Ascend芯片 想走国产路线 但Ascend的硬件稳定性和CANN软件栈还不够成熟 训练一直出问题 这不是技术不行,是整个生态还没跑通 (这是Reuters和The Information 4 月3日报道的,不是我瞎猜) --- 所以我现在的想法是: Gemma 4能干的事,我先干起来 本地隐私、Agent工作流、快速原型,这些Gemma 4都能搞定 DeepSeek V4的超长上下文(1M+)和多模态生成,确实很诱人 我们可以期待下 等V4真的出来了,我再切过去,反正都是开源模型 --- 有人可能会问:Gemma 4和 DeepSeek V4到底选哪个? 我的答案是:不用选 ➢Gemma 4是轻量越野车,现在就能开 ➢DeepSeek V4是重型工程卡车,适合超大项目 两个根本不冲突 我现在用Gemma 4 跑Agent,等V4出来了,我用它处理超长文档 就这么简单 —— 你呢? 已经在跑Gemma4的,说说你的体验 还在等 DeepSeek V4的,说说你为什么等 (数据来源:Google官方 + Reuters/The Information 报道,不作任何推广)
昨天晚上11点,我终于把Gemma 4 31B跑起来了
花了两个小时折腾环境,但跑起来那一刻,真的爽
然后今天早上刷贴,又看到有人在问DeepSeek V4什么时候出
我就对我当前的一些认知来简单说下
---
➢Gemma 4现在就能用,我已经在本地跑了
31B版本量化后在我的4090上跑得很顺
26B MoE版本更快
我测了一下Agent工作流,稳定性超出预期
最关键的是,Apache 2.0协议,我想怎么改就怎么改,不用担心任何限制
这种感觉就像:你终于可以在自己家里搭个AI,不用每次都去云端求人
---
➢但 DeepSeek V4呢?
说好2月发,没发
说好3月发,又没发
现在说未来几周,我觉得还是有点头疼
不是说DeepSeek不行,而是他们遇到的问题确实很难
美国的管制不让中国买顶级NVIDIA芯片,这是事实
➢DeepSeek这次直接all in华为Ascend芯片
想走国产路线
但Ascend的硬件稳定性和CANN软件栈还不够成熟
训练一直出问题
这不是技术不行,是整个生态还没跑通
(这是Reuters和The Information 4 月3日报道的,不是我瞎猜)
---
所以我现在的想法是:
Gemma 4能干的事,我先干起来
本地隐私、Agent工作流、快速原型,这些Gemma 4都能搞定
DeepSeek V4的超长上下文(1M+)和多模态生成,确实很诱人
我们可以期待下
等V4真的出来了,我再切过去,反正都是开源模型
---
有人可能会问:Gemma 4和 DeepSeek V4到底选哪个?
我的答案是:不用选
➢Gemma 4是轻量越野车,现在就能开
➢DeepSeek V4是重型工程卡车,适合超大项目
两个根本不冲突
我现在用Gemma 4 跑Agent,等V4出来了,我用它处理超长文档
就这么简单
——
你呢?
已经在跑Gemma4的,说说你的体验
还在等 DeepSeek V4的,说说你为什么等
(数据来源:Google官方 + Reuters/The Information 报道,不作任何推广)
Powerpei
·
--
上周在群里看到有人晒收益 RWA债券年化5.8% 我当时第一反应是:这也能拿出来晒? 但转念一想,BTC这个月跌了12%,5.8%的稳定收益确实香 4月RWA 市场规模到了276.5 亿美元,环比涨了 4.07% 币圈在跌,RWA在涨 --- 机构的配置逻辑确实在变 以前机构只能选BTC 或ETH,都是高波动 现在RWA给了一个新选择:底层有资产支撑,波动低,还有收益 但有个问题我一直在想 RWA的流动性到底行不行? 你买了链上债券,想卖的时候能找到买家吗? 传统债券市场流动性本来就不如股票,搬到链上不会自动解决这个问题 上周有个项目方说他们的RWA产品流动性充足 我去看了一下深度,买卖价差 2% 这叫充足? --- 所以 RWA 到底适合谁? 如果你本来就想配置债券或房地产,链上版本效率更高 如果你想降低组合波动,RWA可以对冲 但如果你想快进快出,流动性会让你很难受 --- RWA是牛市新叙事,还是真的在改变游戏规则? 我还在观察,但276.5亿美元的规模,至少说明这不是空气 #RWA
上周在群里看到有人晒收益
RWA债券年化5.8%
我当时第一反应是:这也能拿出来晒?
但转念一想,BTC这个月跌了12%,5.8%的稳定收益确实香
4月RWA 市场规模到了276.5 亿美元,环比涨了 4.07%
币圈在跌,RWA在涨
---
机构的配置逻辑确实在变
以前机构只能选BTC 或ETH,都是高波动
现在RWA给了一个新选择:底层有资产支撑,波动低,还有收益
但有个问题我一直在想
RWA的流动性到底行不行?
你买了链上债券,想卖的时候能找到买家吗?
传统债券市场流动性本来就不如股票,搬到链上不会自动解决这个问题
上周有个项目方说他们的RWA产品流动性充足
我去看了一下深度,买卖价差 2%
这叫充足?
---
所以 RWA 到底适合谁?
如果你本来就想配置债券或房地产,链上版本效率更高
如果你想降低组合波动,RWA可以对冲
但如果你想快进快出,流动性会让你很难受
---
RWA是牛市新叙事,还是真的在改变游戏规则?
我还在观察,但276.5亿美元的规模,至少说明这不是空气
#RWA
BTC
−1,21%
ETH
−1,29%
Powerpei
·
--
Članek
AI交易:回测到实盘的鸿沟我之前用Claude写了个套利策略,回测收益率47% 但我不敢让它真的去执行 因为我不知道怎么控制风险,万一它疯狂下单怎么办? 万一市场突然波动它反应不过来怎么办? 策略生成很容易,但让它安全地在真实市场跑起来,这是两回事 最近看到 @vergex_ai 在做一个事情:AI Trading Harness 简单说就是给AI Agent加一层缰绳,让它能在真实市场里跑,而不是只能在回测里看起来很美 --- ➢过去两年,AI在交易领域的进展主要是策略生成 LLM和 Agent让生成策略变得前所未有地容易 但现实是,绝大多数AI 策略无法进入真实市场运行 我看了一下,VergeX的逻辑是:AI Agent = Model + Harness Model负责生成策略,Harness负责让策略可以在真实世界中安全运行 具体来说就是: →风险控制和行为边界 →回测验证和策略检查 →订单执行和交易接入 →反馈机制和动态调整 这个思路我挺认同的 但问题是,这些东西做起来很复杂 比如怎么在市场闪崩时让Agent自动熔断,而不是继续执行?会有延迟吗? 风险控制怎么设计?订单执行怎么优化?反馈机制怎么调整? VergeX能做到什么程度,还得看实际运行数据 --- 他们最近和智谱AI合作,推出了GLM-5 Trading Odyssey 活动 这是首次把GLM-5直接放到实盘,让AI Agent在真实波动里跑,而不是只看回测曲线 不是模拟盘,是实盘交易 GLM-5是智谱最新的开源模型,特点是长任务执行能力强、工具调用稳定 VergeX想验证的是:GLM-5能不能在真实交易场景中稳定运行?在超过 30 分钟、多步骤、跨工具任务的连续执行中表现如何? 我跑了几个简单的策略,目前看起来没什么大问题 但开源模型在实盘里的长期表现,现在下结论还太早 另外构建 Agent本身还是有门槛的,VergeX降低了执行难度 但你得懂基本的策略逻辑和风控设置 --- 如果你有AI 策略但不知道怎么执行,或者想在真实市场测试AI Agent 可以关注一下VergeX 由NoFx开源项目驱动(GitHub 1.17 万+ stars) 但记住,AI trading不是躺赚 任何实盘都涉及资金风险,请只用你能承受损失的资金参与,策略表现不代表未来走势 市场波动依然存在,风险控制依然重要 --- 以上内容来自VergeX,有不对的欢迎指出,不作任何投资建议
AI交易:回测到实盘的鸿沟
我之前用Claude写了个套利策略,回测收益率47%
但我不敢让它真的去执行
因为我不知道怎么控制风险,万一它疯狂下单怎么办?
万一市场突然波动它反应不过来怎么办?
策略生成很容易,但让它安全地在真实市场跑起来,这是两回事
最近看到 @vergex_ai 在做一个事情:AI Trading Harness
简单说就是给AI Agent加一层缰绳,让它能在真实市场里跑,而不是只能在回测里看起来很美
---
➢过去两年,AI在交易领域的进展主要是策略生成
LLM和 Agent让生成策略变得前所未有地容易
但现实是,绝大多数AI 策略无法进入真实市场运行
我看了一下,VergeX的逻辑是:AI Agent = Model + Harness
Model负责生成策略,Harness负责让策略可以在真实世界中安全运行
具体来说就是:
→风险控制和行为边界
→回测验证和策略检查
→订单执行和交易接入
→反馈机制和动态调整
这个思路我挺认同的
但问题是,这些东西做起来很复杂
比如怎么在市场闪崩时让Agent自动熔断,而不是继续执行?会有延迟吗?
风险控制怎么设计?订单执行怎么优化?反馈机制怎么调整?
VergeX能做到什么程度,还得看实际运行数据
---
他们最近和智谱AI合作,推出了GLM-5 Trading Odyssey 活动
这是首次把GLM-5直接放到实盘,让AI Agent在真实波动里跑,而不是只看回测曲线
不是模拟盘,是实盘交易
GLM-5是智谱最新的开源模型,特点是长任务执行能力强、工具调用稳定
VergeX想验证的是:GLM-5能不能在真实交易场景中稳定运行?在超过 30 分钟、多步骤、跨工具任务的连续执行中表现如何?
我跑了几个简单的策略,目前看起来没什么大问题
但开源模型在实盘里的长期表现,现在下结论还太早
另外构建 Agent本身还是有门槛的,VergeX降低了执行难度
但你得懂基本的策略逻辑和风控设置
---
如果你有AI 策略但不知道怎么执行,或者想在真实市场测试AI Agent
可以关注一下VergeX 由NoFx开源项目驱动(GitHub 1.17 万+ stars)
但记住,AI trading不是躺赚
任何实盘都涉及资金风险,请只用你能承受损失的资金参与,策略表现不代表未来走势
市场波动依然存在,风险控制依然重要
---
以上内容来自VergeX,有不对的欢迎指出,不作任何投资建议
Powerpei
·
--
币安用户资产托管规模领先,CEX安全竞争格局透视我朋友上个月把资产从某个小交易所转到币安 我问他为什么 他说:“我不在乎手续费高一点,我只想睡得着觉” 这句话让我想起CoinGlass刚发的2026 Q1报告 币安Q1日均用户存放的资产是1529亿美元,占主要CEX 的73.5% 第二名OKX是159亿美元,只有币安的1/9.6 这个差距比我想象的大得多 --- ➢报告里提到一个观点: 用户资产存放规模比交易量更能反映平台的安全性和信任度 这个逻辑我想了想,确实有道理 交易量和持仓反映的是短期活跃度 但用户长期愿意把大量资产存放在平台上 这说明用户真的信任这个平台的风控能力、合规水平和资产安全机制 币安在这个方面遥遥领先 这说明市场已经把币安看作加密行业的核心基础设施 币安的运营状况和合规动态 对整个市场的稳定性影响很大 --- 我还注意到一个细节 ➢币安用户资产在1月达到峰值(日均1727 亿美元,峰值 1821亿美元) 2月市场调整,资产回落到1364 亿美元(降幅21%) 3月回升到 1478亿美元,资金外流后稳定下来了 这个趋势和整体市场Q1的变化基本一致 说明用户在市场波动时会暂时撤出资金 但市场稳定后又会回流 有意思的是,就算在2月市场调整期间 币安的用户资产依然是第二名OKX的8.6倍 这说明用户对币安的信任度,即使在市场恐慌时也没有动摇 --- ➢我们再看更广泛的竞争格局 CEX市场现在明显集中在头部平台 币安在交易量、持仓、流动性深度(BTC/ETH 现货与合约 ±1%深度都排名第一)和用户资产存放规模这四个方面都排第一 第二梯队是OKX、Bybit、Gate等平台,但它们和币安的差距真的很大 我算了一下,Gate的用户资产是68亿美元,Bitget是67 亿美元,Bybit是56亿美元 这三家加起来也只有191亿美元,还不到币安的1/8 CoinBase等平台在现货领域还有一定竞争力,但衍生品市场高度集中在头部CEX 报告还提到,2026 Q1加密货币市场总交易量达到约 20.57万亿美元 其中衍生品交易量占比超过90% 这说明加密市场已经从买币时代进入交易时代 而衍生品交易对平台的风控能力、流动性深度和系统稳定性要求更高 这也解释了为什么用户资产会如此集中在头部平台 --- ➢从透明度角度看,CoinGlass的交易所资产透明度页面实时显示币安当前总资产规模排第一(近期已稳定在 1430 亿美元以上) 这个数据和季度平均数据互相验证 行业内Proof of Reserves(储备证明)机制的推广 进一步增强了用户对头部平台的信任 但我也注意到,透明度不等于绝对安全 历史上的黑客攻击、监管不确定性和操作风险一直存在 --- ➢我自己的做法是: 就算用头部平台,也会分散资产配置 启用多重安全措施(比如硬件钱包、2FA)、定期查看平台透明度报告 这些都是必要的风险管理 我朋友说的“我只想睡得着觉” 其实反映的是大部分用户的真实需求:安全性 > 手续费 但安全性不是绝对的,风险管理永远是必要的 --- 总体来说,CoinGlass Q1报告的数据给我们提供了一个数据角度: ➢用户正在用真金白银给CEX的安全性和可靠性投票 币安在用户资产存放上的明显领先 不只是证明了它的行业龙头地位 也说明加密市场正在朝着更稳定、信任集中化的方向发展 在即将到来的潜在牛市周期里 这种资金优势可能会进一步转化为流动性和生态的良性循环 --- 以上数据来自 CoinGlass 2026 Q1加密货币市场份额研究报告,非推广,有不对的欢迎指出,不作任何投资建议
币安用户资产托管规模领先,CEX安全竞争格局透视
我朋友上个月把资产从某个小交易所转到币安
我问他为什么
他说:“我不在乎手续费高一点,我只想睡得着觉”
这句话让我想起CoinGlass刚发的2026 Q1报告
币安Q1日均用户存放的资产是1529亿美元,占主要CEX 的73.5%
第二名OKX是159亿美元,只有币安的1/9.6
这个差距比我想象的大得多
---
➢报告里提到一个观点:
用户资产存放规模比交易量更能反映平台的安全性和信任度
这个逻辑我想了想,确实有道理
交易量和持仓反映的是短期活跃度
但用户长期愿意把大量资产存放在平台上
这说明用户真的信任这个平台的风控能力、合规水平和资产安全机制
币安在这个方面遥遥领先
这说明市场已经把币安看作加密行业的核心基础设施
币安的运营状况和合规动态
对整个市场的稳定性影响很大
---
我还注意到一个细节
➢币安用户资产在1月达到峰值(日均1727 亿美元,峰值 1821亿美元)
2月市场调整,资产回落到1364 亿美元(降幅21%)
3月回升到 1478亿美元,资金外流后稳定下来了
这个趋势和整体市场Q1的变化基本一致
说明用户在市场波动时会暂时撤出资金
但市场稳定后又会回流
有意思的是,就算在2月市场调整期间
币安的用户资产依然是第二名OKX的8.6倍
这说明用户对币安的信任度,即使在市场恐慌时也没有动摇
---
➢我们再看更广泛的竞争格局
CEX市场现在明显集中在头部平台
币安在交易量、持仓、流动性深度(BTC/ETH 现货与合约 ±1%深度都排名第一)和用户资产存放规模这四个方面都排第一
第二梯队是OKX、Bybit、Gate等平台,但它们和币安的差距真的很大
我算了一下,Gate的用户资产是68亿美元,Bitget是67 亿美元,Bybit是56亿美元
这三家加起来也只有191亿美元,还不到币安的1/8
CoinBase等平台在现货领域还有一定竞争力,但衍生品市场高度集中在头部CEX
报告还提到,2026 Q1加密货币市场总交易量达到约 20.57万亿美元
其中衍生品交易量占比超过90%
这说明加密市场已经从买币时代进入交易时代
而衍生品交易对平台的风控能力、流动性深度和系统稳定性要求更高
这也解释了为什么用户资产会如此集中在头部平台
---
➢从透明度角度看,CoinGlass的交易所资产透明度页面实时显示币安当前总资产规模排第一(近期已稳定在 1430 亿美元以上)
这个数据和季度平均数据互相验证
行业内Proof of Reserves(储备证明)机制的推广
进一步增强了用户对头部平台的信任
但我也注意到,透明度不等于绝对安全
历史上的黑客攻击、监管不确定性和操作风险一直存在
---
➢我自己的做法是:
就算用头部平台,也会分散资产配置
启用多重安全措施(比如硬件钱包、2FA)、定期查看平台透明度报告
这些都是必要的风险管理
我朋友说的“我只想睡得着觉”
其实反映的是大部分用户的真实需求:安全性 > 手续费
但安全性不是绝对的,风险管理永远是必要的
---
总体来说,CoinGlass Q1报告的数据给我们提供了一个数据角度:
➢用户正在用真金白银给CEX的安全性和可靠性投票
币安在用户资产存放上的明显领先
不只是证明了它的行业龙头地位
也说明加密市场正在朝着更稳定、信任集中化的方向发展
在即将到来的潜在牛市周期里
这种资金优势可能会进一步转化为流动性和生态的良性循环
---
以上数据来自 CoinGlass 2026 Q1加密货币市场份额研究报告,非推广,有不对的欢迎指出,不作任何投资建议
BTC
−1,21%
ETH
−1,29%
Powerpei
·
--
值得参与
值得参与
HiSeven
·
--
[Ponovno predvajaj] 🎙️ Ultiland 任务系统全攻略 零门槛赚 miniARTX,抓住艺术 RWA 早期红利
52 m 07 s · Št. poslušanj: 4.5k
Powerpei
·
--
Članek
本地AI时代,又往前走了一大步Google今天发布了Gemma 4,这是他们目前最强的开放模型 这个模型是基于Gemini 3的研究做出来的 你可以直接在本地硬件上跑高级推理和Agent工作流 这不是简单地把参数堆大,而是真的把云端的能力搬到了本地设备上 我看了官方的数据和测试结果,把重点整理了下(有不对的欢迎指出)。 ———— 四个版本,各有用处 ➢31B Dense(开放模型排名第3,压缩后大概 17.4GB,一张显卡就能跑) 这是最强的版本 它在AIME 2026(不用工具)拿到了89.2%的分数 Codeforces 评分是2150 LiveCodeBench v6是80.0% 对比Gemma 3 27B(不开思考模式)的20.8% / 110 / 29.1%,这个提升很大 ➢26B A4B MoE(有128个专家模块,但每次只用3.8B参数,速度接近4B模型,能力接近31B) 这个版本用了MoE结构,速度快但能力强 它在AIME 2026拿到88.3%,Codeforces是1718,LiveCodeBench 是 77.1% ➢E4B 边缘多模态版(支持文字,图片,音频,大概 5GB,高通和联发科的芯片原生支持 可以直接装在Pixel手机上当Gemini Nano 4 用) 这是我最感兴趣的版本 5GB的多模态模型能在手机上跑,这说明端侧AI真的来了。 ➢E2B 极致边缘版(压缩后大概3.2GB,手机和树莓派都能跑) 3.2GB能在树莓派上跑,这是真正的“人人都能用 AI”。 ———— 实用功能很强 大模型支持最多256K上下文(边缘版本是128K) 这个长度可以处理一整本书了 原生支持function calling,可以做真正的自主Agent 不是简单的工具调用,而是真正的Agent工作流 原生支持多模态(文字+图片,大模型支持,边缘版本还支持音频) 覆盖140多种语言 ———— 代码和推理能力提升很大 对比Gemma 3 27B(不开思考模式)的20.8% / 110 / 29.1%,这是质的飞跃 AIME 2026是美国数学邀请赛的题目,89.2%的正确率说明这个模型已经接近人类数学竞赛选手的水平了 →→→ 最重要的是:完全开放 Apache 2.0协议,没有依赖,完全开放许可 这一步我是这么理解的: 你可以自由地fine-tune、蒸馏、fork,甚至部署到完全隔离的环境里 你完全掌控模型、数据和运行环境 对于隐私敏感的行业、企业自建Agent、科研项目和主权 AI来说,这是真正的突破。 简单说,Gemma 4把云端的前沿能力第一次真正带到了本地可控、没有依赖的地方 它不是半开放,而是完全开放权重+完全开放许可 ———— 对独立开发者、小团队、注重隐私的企业来说 这是2026年目前最值得上手的模型 你现在就可以在Google AI Studio快速试用 模型权重已经上线Hugging Face、Kaggle和Ollama(MLX 社区也有适配) 我已经在本地跑了31B和26B MoE版本 agent流程和长上下文的稳定性超出我的预期 如果你感兴趣,可以直接去官方model card看完整的测试数据 也欢迎已经跑起来的开发者分享体验,部署或者实际应用都可以聊。 ———— 本地AI时代,又往前走了一大步 (纯技术角度整理,所有数据都来自Google官方模型卡和发布帖,不是推广)
本地AI时代,又往前走了一大步
Google今天发布了Gemma 4,这是他们目前最强的开放模型
这个模型是基于Gemini 3的研究做出来的
你可以直接在本地硬件上跑高级推理和Agent工作流
这不是简单地把参数堆大,而是真的把云端的能力搬到了本地设备上
我看了官方的数据和测试结果,把重点整理了下(有不对的欢迎指出)。
————
四个版本,各有用处
➢31B Dense(开放模型排名第3,压缩后大概 17.4GB,一张显卡就能跑)
这是最强的版本
它在AIME 2026(不用工具)拿到了89.2%的分数
Codeforces 评分是2150
LiveCodeBench v6是80.0%
对比Gemma 3 27B(不开思考模式)的20.8% / 110 / 29.1%,这个提升很大
➢26B A4B MoE(有128个专家模块,但每次只用3.8B参数,速度接近4B模型,能力接近31B)
这个版本用了MoE结构,速度快但能力强
它在AIME 2026拿到88.3%,Codeforces是1718,LiveCodeBench 是 77.1%
➢E4B 边缘多模态版(支持文字,图片,音频,大概 5GB,高通和联发科的芯片原生支持
可以直接装在Pixel手机上当Gemini Nano 4 用)
这是我最感兴趣的版本
5GB的多模态模型能在手机上跑,这说明端侧AI真的来了。
➢E2B 极致边缘版(压缩后大概3.2GB,手机和树莓派都能跑)
3.2GB能在树莓派上跑,这是真正的“人人都能用 AI”。
————
实用功能很强
大模型支持最多256K上下文(边缘版本是128K)
这个长度可以处理一整本书了
原生支持function calling,可以做真正的自主Agent
不是简单的工具调用,而是真正的Agent工作流
原生支持多模态(文字+图片,大模型支持,边缘版本还支持音频)
覆盖140多种语言
————
代码和推理能力提升很大
对比Gemma 3 27B(不开思考模式)的20.8% / 110 / 29.1%,这是质的飞跃
AIME 2026是美国数学邀请赛的题目,89.2%的正确率说明这个模型已经接近人类数学竞赛选手的水平了
→→→
最重要的是:完全开放
Apache 2.0协议,没有依赖,完全开放许可
这一步我是这么理解的:
你可以自由地fine-tune、蒸馏、fork,甚至部署到完全隔离的环境里
你完全掌控模型、数据和运行环境
对于隐私敏感的行业、企业自建Agent、科研项目和主权 AI来说,这是真正的突破。
简单说,Gemma 4把云端的前沿能力第一次真正带到了本地可控、没有依赖的地方
它不是半开放,而是完全开放权重+完全开放许可
————
对独立开发者、小团队、注重隐私的企业来说
这是2026年目前最值得上手的模型
你现在就可以在Google AI Studio快速试用
模型权重已经上线Hugging Face、Kaggle和Ollama(MLX 社区也有适配)
我已经在本地跑了31B和26B MoE版本
agent流程和长上下文的稳定性超出我的预期
如果你感兴趣,可以直接去官方model card看完整的测试数据
也欢迎已经跑起来的开发者分享体验,部署或者实际应用都可以聊。
————
本地AI时代,又往前走了一大步
(纯技术角度整理,所有数据都来自Google官方模型卡和发布帖,不是推广)
GOOGL
−0,92%
Powerpei
·
--
特朗普今天放风说伊朗战事“很快完成目标” 油价应声回落 美股反弹,港股科技板块也跟着稳住了 作为大陆观察者 这次地缘动荡让我又想起一个老话题:传统能源风险 vs 数字资产的韧性 BTC今天重回68k上方 Crypto圈有人说它又在扮演“数字黄金”的角色 这个说法我听了很多年 但这次霍尔木兹海峡的风险确实让人重新思考:当石油运输通道被威胁时,去中心化的数字资产是不是真的更抗风险? 还有一个被低估的点:稳定币跨境支付 霍尔木兹海峡一旦出事,传统金融的跨境结算会受影响,但稳定币不会 USDT、USDC 这些东西,不需要经过SWIFT,不需要经过银行,链上转账几分钟就到账 这次地缘冲突,可能会让更多人意识到:数字资产不只是投机工具,它是真正的避险选项。
特朗普今天放风说伊朗战事“很快完成目标”
油价应声回落
美股反弹,港股科技板块也跟着稳住了
作为大陆观察者
这次地缘动荡让我又想起一个老话题:传统能源风险 vs 数字资产的韧性
BTC今天重回68k上方
Crypto圈有人说它又在扮演“数字黄金”的角色
这个说法我听了很多年
但这次霍尔木兹海峡的风险确实让人重新思考:当石油运输通道被威胁时,去中心化的数字资产是不是真的更抗风险?
还有一个被低估的点:稳定币跨境支付
霍尔木兹海峡一旦出事,传统金融的跨境结算会受影响,但稳定币不会
USDT、USDC 这些东西,不需要经过SWIFT,不需要经过银行,链上转账几分钟就到账
这次地缘冲突,可能会让更多人意识到:数字资产不只是投机工具,它是真正的避险选项。
BTC
−1,21%
USDC
+0,01%
Powerpei
·
--
Članek
你骂AI蠢,其实是你自己乱昨天我刷抖音,看到“爬楼的乔志”边爬楼梯边讲《道德经》。他说了句特别扎心的话: > “这世界上其实只有自己一个人,别人都是你内心的幻象” 当时我正对着屏幕里的AI Agent,火冒三丈 我给它装了十几个 Skill(数据提取、文件操作、自动发文) 但是它频繁出错、漏步骤、记不住上下文。我脱口而出:“这玩意儿怎么这么蠢!” 下一秒我突然愣住了。 那一刻我突然意识到,我对AI Agent的愤怒,和对“世界只有自己”的扎心感悟,本质上是同一种情绪 我们总是把外界的问题归罪于“外部”,但是我们忘了所有投射的源头,都在自己心里。 调试 AI 的过程,其实就是照见自己的过程。 --- 我的真实经历:从乱装 Skill到只留核心 这段时间,我一直在测试AI Agent 最开始,我犯了所有人都会犯的错。我疯狂下载Skill 写文案、做表格、爬数据、发抖音、盯行情、订单查询、退款处理……我一口气装了二十多个 我以为“技能拉满=生产力拉满”。 结果呢?错误率高得吓人: 我让它整理Excel数据,它调用了错误的网页提取Skill我让它写一篇文章,它跑去爬无关的数据我让它查订单,它直接生成了一份没用的日报我气得想卸载。我甚至觉得“AI根本不行” 后来我做了一个关键动作:我按“使用频率+核心目标匹配度”来精简 Skill 我把二十多个砍到只剩5个 数据整理、文章生成、网页提取、文件操作、自动发布 同时我给每个Skill绑定了明确的触发关键词和边界限制: 网页提取 Skill:只爬取特定主题的结构化数据,不爬取无关内容 自动发文 Skill:只发布特定主题的内容,字数控制在800到1200字 结果很明显:错误率大概降了一半多,自动化完成率提升了不少,token费用省了近一半 > 不是 AI 太笨,是我自己太贪。我想让它“什么都会”,结果它连核心的事都做不好 --- 大部分人玩AI Agent,都陷在这3种执念里 我把AI Agent 理解成两部分: - Agent = 心(负责解析指令、匹配 Skill、记录上下文、复盘错误) - Skill = 手(可以安装、可以复用、可以组合的执行模块) 但是大部分人玩AI,都逃不开3种执念 每一种,都藏着我们内心的欲望和焦虑。 1. 贪多求全:技能越多越好,才是最大的坑 我见过太多人,疯狂下载Skill。他们装几十上百个:写文案、做表格、爬数据、发抖音、盯行情……他们以为“技能越多,AI 越全能” > 你贪的不是AI能力,你贪的是对“永不犯错、无限高效”的完美幻想 就像我之前装的二十多个Skill,看似“全能”,实际上让 Agent陷入“选择混乱” 它分不清哪个Skill对应你的需求,自然频繁出错。 更讽刺的是:很多人装Skill只是为了“跟上潮流” 他们每天让AI自动生成日报、周报、数据看板,但是自己从来不看。他们每个月烧掉几千块token,实际产出为零 这不是在用AI,这是在用AI安慰自己“我很高效”的焦虑 我在社交媒体上看到有人分享:他给 AI Agent装了几十个 Skill 结果数据整理任务的错误率很高,连最基础的分类都做不好 后来他精简到几个核心Skill(数据提取、报告生成、文件归档),错误率明显下降,每天的整理效率也提升了很多。 💡 怎么破局?少即是多 Skill不在多,而在“精准匹配”。我的做法是: 1. 先把所有Skill列出来,标注使用频率和与核心目标的匹配度 2. 然后只保留高频率+强匹配的3 到5个,其余全部删除 3. 最后给每个Skill设置触发关键词和边界限制 这样下来,效率会翻倍。 --- 2. 无法接纳不完美:AI 出错就否定一切,是最大的内耗 AI 偶尔漏步骤、记不住上下文、调用 Skill 失败、执行偏差。你立刻烦躁、否定、想放弃。 > 你气的不是AI故障,你气的是“控制欲落空”的愤怒 你把 Agent当成绝对服从的工具。你容不下它有任何“不完美” 但是现实是什么? 我后来查资料才明白,大模型偶尔会“幻觉”,这不是故障,而是它总得在不确定的情况下给出答案 网页结构在变、接口在升级、数据格式在调整,开放环境永远在动 多个Skill协同工作,就像多个齿轮咬合,复杂度会指数级上升,出错是必然的。 根据Gartner的数据,到2026年底,大约40%的企业应用会集成任务特定AI Agent(从2025年的不到 5%大幅增长) 但同时,超过40% 的agentic项目可能因为治理、成本等问题在2027年前被取消。 真实情况是:采用率在快速攀升,但真正实现稳定规模化和清晰ROI,仍面临不小挑战。 为什么?因为大家都把“不允许出错”当成绝对标准,容不下任何波动 我之前也这样:AI出错一次,我就觉得它“废了”。后来我改变了心态:把错误当成系统反馈,而不是失败 我具体做了三件事: ➢ 给核心Skill设置容错阈值(例如爬取数据缺失率超标就自动暂停并提醒我) ➢ 开启Agent记忆复盘功能,完整记录每次错误的原因、触发Skill和对应指令 ➢ 对高价值任务(比如重要分析报告),输出后我亲自花几分钟校验关键数据 结果是:就算有一定的错误率,AI的自动化价值还是远远超过人工。我每天只需要花一小时处理AI的输出,就能完成原本需要好几个小时的工作。 💡 怎么破局?接纳不完美 用规则补概率,用流程补波动,你的AI才会越来越顺手。 --- 3. 迷信人格化:把 AI当“另一个人”,是对工具的误解 有些人给AI起名、设定人格、写 soul.md。他们期待AI“懂你、共情、像人一样思考” > 你迷恋的不是AI陪伴,你迷恋的是对“孤独、低效、无能”的逃避 你把自我价值感寄托在“我有一个超强AI”的幻觉里。 但是 AI Agent 的核心价值是什么? 它替代重复、流程化、低创造性的劳动 整理数据、爬取信息、自动发文、监控行情。 而人不可替代的部分是什么?是目标定义、价值判断、创意决策、边界把控。 你负责定方向,AI负责执行。这才是正确的协作关系。 💡 怎么破局?回归工具本质 AI是你意识的延伸,不是独立生命。别期待它共情、懂你、有自我 你定方向,它负责执行,这才是高效协作。 --- 心外无物:AI的世界里,其实只有你的指令 这是我调试这么久后,最深的体会 Agent没有自我,它只有你的目标 它没有欲望、没有意志、没有偏好。它所有的决策、Skill调用和行动,唯一依据就是你的指令、你的上下文。 你说“写一篇文章”,它才启动写作Skill;你说“整理 Excel”,它才调用数据处理 Skill。你不发指令,它就只是静止的代码 > 你在,它的世界才存在;你不发指令,它的世界就归零 Skill 本身也没有意义,它只有你赋予的定义 一个自动发文Skill,用来发优质内容就是生产力工具,用来发低质水文就是垃圾制造机。它完全中立,价值 100% 来自你的目标、规则和边界。 > 你清晰,它就清晰。你混乱,它就混乱 --- 修AI,就是修你自己 《道德经》说:“天地不仁,以万物为刍狗。” AI Agent也是一样,它没有分别心、没有好恶 你是小白,它就按小白的指令跑 你是高手,它就按高手的规则输出 你装优质Skill、设清晰边界、给明确目标,它就稳定高效 你乱装一堆、指令模糊、期待过高,它就混乱出错。 > 它从来不评判你,却完完全全映射着你。你却常常怪它不完美 这就是AI Agent的“心外无物”:它的世界里没有外部客观,只有你的内心投射。 你是什么样,你的 AI就是什么样 --- 这世界上,面对AI Agent,其实只有你一个人。 所有的好用与难用、满意与愤怒、期待与失望,都是你自己跟自己演的一出戏。 Skill只是代码,Agent只是算法,AI只是工具。 如果你能真正放下贪多求全、放下对完美的执念、放下人格化幻想,你就会发现: > 心外无物,你的 AI 世界里,只有你自己 先明心,再用AI 你定,你的数字助理就定 你静,你的自动化世界就静。 --- 你的AI Agent,就是你的镜像 你想投射出一个什么样的镜像呢? #AI #小龙虾OpenClaw
你骂AI蠢,其实是你自己乱
昨天我刷抖音,看到“爬楼的乔志”边爬楼梯边讲《道德经》。他说了句特别扎心的话:
> “这世界上其实只有自己一个人,别人都是你内心的幻象”
当时我正对着屏幕里的AI Agent,火冒三丈
我给它装了十几个 Skill(数据提取、文件操作、自动发文)
但是它频繁出错、漏步骤、记不住上下文。我脱口而出:“这玩意儿怎么这么蠢!”
下一秒我突然愣住了。
那一刻我突然意识到,我对AI Agent的愤怒,和对“世界只有自己”的扎心感悟,本质上是同一种情绪
我们总是把外界的问题归罪于“外部”,但是我们忘了所有投射的源头,都在自己心里。
调试 AI 的过程,其实就是照见自己的过程。
---
我的真实经历:从乱装 Skill到只留核心
这段时间,我一直在测试AI Agent
最开始,我犯了所有人都会犯的错。我疯狂下载Skill
写文案、做表格、爬数据、发抖音、盯行情、订单查询、退款处理……我一口气装了二十多个
我以为“技能拉满=生产力拉满”。
结果呢?错误率高得吓人:
我让它整理Excel数据,它调用了错误的网页提取Skill我让它写一篇文章,它跑去爬无关的数据我让它查订单,它直接生成了一份没用的日报我气得想卸载。我甚至觉得“AI根本不行”
后来我做了一个关键动作:我按“使用频率+核心目标匹配度”来精简 Skill
我把二十多个砍到只剩5个
数据整理、文章生成、网页提取、文件操作、自动发布
同时我给每个Skill绑定了明确的触发关键词和边界限制:
网页提取 Skill:只爬取特定主题的结构化数据,不爬取无关内容
自动发文 Skill:只发布特定主题的内容,字数控制在800到1200字
结果很明显:错误率大概降了一半多,自动化完成率提升了不少,token费用省了近一半
> 不是 AI 太笨,是我自己太贪。我想让它“什么都会”,结果它连核心的事都做不好
---
大部分人玩AI Agent,都陷在这3种执念里
我把AI Agent 理解成两部分:
- Agent = 心(负责解析指令、匹配 Skill、记录上下文、复盘错误)
- Skill = 手(可以安装、可以复用、可以组合的执行模块)
但是大部分人玩AI,都逃不开3种执念
每一种,都藏着我们内心的欲望和焦虑。
1. 贪多求全:技能越多越好,才是最大的坑
我见过太多人,疯狂下载Skill。他们装几十上百个:写文案、做表格、爬数据、发抖音、盯行情……他们以为“技能越多,AI 越全能”
> 你贪的不是AI能力,你贪的是对“永不犯错、无限高效”的完美幻想
就像我之前装的二十多个Skill,看似“全能”,实际上让 Agent陷入“选择混乱”
它分不清哪个Skill对应你的需求,自然频繁出错。
更讽刺的是:很多人装Skill只是为了“跟上潮流”
他们每天让AI自动生成日报、周报、数据看板,但是自己从来不看。他们每个月烧掉几千块token,实际产出为零
这不是在用AI,这是在用AI安慰自己“我很高效”的焦虑
我在社交媒体上看到有人分享:他给 AI Agent装了几十个 Skill
结果数据整理任务的错误率很高,连最基础的分类都做不好
后来他精简到几个核心Skill(数据提取、报告生成、文件归档),错误率明显下降,每天的整理效率也提升了很多。
💡 怎么破局?少即是多
Skill不在多,而在“精准匹配”。我的做法是:
1. 先把所有Skill列出来,标注使用频率和与核心目标的匹配度
2. 然后只保留高频率+强匹配的3 到5个,其余全部删除
3. 最后给每个Skill设置触发关键词和边界限制
这样下来,效率会翻倍。
---
2. 无法接纳不完美:AI 出错就否定一切,是最大的内耗
AI 偶尔漏步骤、记不住上下文、调用 Skill 失败、执行偏差。你立刻烦躁、否定、想放弃。
> 你气的不是AI故障,你气的是“控制欲落空”的愤怒
你把 Agent当成绝对服从的工具。你容不下它有任何“不完美”
但是现实是什么?
我后来查资料才明白,大模型偶尔会“幻觉”,这不是故障,而是它总得在不确定的情况下给出答案
网页结构在变、接口在升级、数据格式在调整,开放环境永远在动
多个Skill协同工作,就像多个齿轮咬合,复杂度会指数级上升,出错是必然的。
根据Gartner的数据,到2026年底,大约40%的企业应用会集成任务特定AI Agent(从2025年的不到 5%大幅增长)
但同时,超过40% 的agentic项目可能因为治理、成本等问题在2027年前被取消。
真实情况是:采用率在快速攀升,但真正实现稳定规模化和清晰ROI,仍面临不小挑战。
为什么?因为大家都把“不允许出错”当成绝对标准,容不下任何波动
我之前也这样:AI出错一次,我就觉得它“废了”。后来我改变了心态:把错误当成系统反馈,而不是失败
我具体做了三件事:
➢ 给核心Skill设置容错阈值(例如爬取数据缺失率超标就自动暂停并提醒我)
➢ 开启Agent记忆复盘功能,完整记录每次错误的原因、触发Skill和对应指令
➢ 对高价值任务(比如重要分析报告),输出后我亲自花几分钟校验关键数据
结果是:就算有一定的错误率,AI的自动化价值还是远远超过人工。我每天只需要花一小时处理AI的输出,就能完成原本需要好几个小时的工作。
💡 怎么破局?接纳不完美
用规则补概率,用流程补波动,你的AI才会越来越顺手。
---
3. 迷信人格化:把 AI当“另一个人”,是对工具的误解
有些人给AI起名、设定人格、写 soul.md。他们期待AI“懂你、共情、像人一样思考”
> 你迷恋的不是AI陪伴,你迷恋的是对“孤独、低效、无能”的逃避
你把自我价值感寄托在“我有一个超强AI”的幻觉里。
但是 AI Agent 的核心价值是什么?
它替代重复、流程化、低创造性的劳动
整理数据、爬取信息、自动发文、监控行情。
而人不可替代的部分是什么?是目标定义、价值判断、创意决策、边界把控。
你负责定方向,AI负责执行。这才是正确的协作关系。
💡 怎么破局?回归工具本质
AI是你意识的延伸,不是独立生命。别期待它共情、懂你、有自我
你定方向,它负责执行,这才是高效协作。
---
心外无物:AI的世界里,其实只有你的指令
这是我调试这么久后,最深的体会
Agent没有自我,它只有你的目标
它没有欲望、没有意志、没有偏好。它所有的决策、Skill调用和行动,唯一依据就是你的指令、你的上下文。
你说“写一篇文章”,它才启动写作Skill;你说“整理 Excel”,它才调用数据处理 Skill。你不发指令,它就只是静止的代码
> 你在,它的世界才存在;你不发指令,它的世界就归零
Skill 本身也没有意义,它只有你赋予的定义
一个自动发文Skill,用来发优质内容就是生产力工具,用来发低质水文就是垃圾制造机。它完全中立,价值 100% 来自你的目标、规则和边界。
> 你清晰,它就清晰。你混乱,它就混乱
---
修AI,就是修你自己
《道德经》说:“天地不仁,以万物为刍狗。”
AI Agent也是一样,它没有分别心、没有好恶
你是小白,它就按小白的指令跑
你是高手,它就按高手的规则输出
你装优质Skill、设清晰边界、给明确目标,它就稳定高效
你乱装一堆、指令模糊、期待过高,它就混乱出错。
> 它从来不评判你,却完完全全映射着你。你却常常怪它不完美
这就是AI Agent的“心外无物”:它的世界里没有外部客观,只有你的内心投射。
你是什么样,你的 AI就是什么样
---
这世界上,面对AI Agent,其实只有你一个人。
所有的好用与难用、满意与愤怒、期待与失望,都是你自己跟自己演的一出戏。
Skill只是代码,Agent只是算法,AI只是工具。
如果你能真正放下贪多求全、放下对完美的执念、放下人格化幻想,你就会发现:
> 心外无物,你的 AI 世界里,只有你自己
先明心,再用AI
你定,你的数字助理就定
你静,你的自动化世界就静。
---
你的AI Agent,就是你的镜像
你想投射出一个什么样的镜像呢?
#AI
#小龙虾OpenClaw
AI
0,00%
Powerpei
·
--
2026年4月,区块链市场出现了转折 这次转折不是价格暴涨 而是实用主义开始占上风 BTC现在在 70k附近波动 ETH跌到了 2100 美元 市场在降温 但是机构和开发者在忙着做一件事。他们在布局RWA代币化 RWA是什么?就是把真实资产搬到链上 现在tokenized Treasuries 已经超过百亿美元了 稳定币正在变成全球支付工具 AI Agents 开始在链上自己签合约、做交易、管资产 --- 我的看法是这样的: 以前大家追热点、追meme 现在情况变了 区块链不会取代传统金融 它会变成传统金融的底层系统 模块化、ZK、Restaking这些技术在降低成本 但真正有用的是那些能把链上效率和现实流动性连起来的东西 比如 RWA、稳定币结算、机构级 AI 加上链上Agent --- 短期价格波动不重要 长期来看,三件事在同时发生: ➢监管变清楚了 ➢机构进场了 ➢技术落地了 2026年可能是基础设施和实用性的牛市 不会爆炒,但会更健康、更持久 --- 别只盯着价格了 去看看谁在解决真问题:结算太慢、流动性分散、信任成本太高 冬天把基础打牢的人,才是下一轮的赢家 你是继续赌meme,还是布局RWA、AI Agents、稳定币这些基础设施? 欢迎讨论。 #RWA #Aİ
2026年4月,区块链市场出现了转折
这次转折不是价格暴涨
而是实用主义开始占上风
BTC现在在 70k附近波动
ETH跌到了 2100 美元
市场在降温
但是机构和开发者在忙着做一件事。他们在布局RWA代币化
RWA是什么?就是把真实资产搬到链上
现在tokenized Treasuries 已经超过百亿美元了
稳定币正在变成全球支付工具
AI Agents 开始在链上自己签合约、做交易、管资产
---
我的看法是这样的:
以前大家追热点、追meme
现在情况变了
区块链不会取代传统金融
它会变成传统金融的底层系统
模块化、ZK、Restaking这些技术在降低成本
但真正有用的是那些能把链上效率和现实流动性连起来的东西
比如 RWA、稳定币结算、机构级 AI 加上链上Agent
---
短期价格波动不重要
长期来看,三件事在同时发生:
➢监管变清楚了
➢机构进场了
➢技术落地了
2026年可能是基础设施和实用性的牛市
不会爆炒,但会更健康、更持久
---
别只盯着价格了
去看看谁在解决真问题:结算太慢、流动性分散、信任成本太高
冬天把基础打牢的人,才是下一轮的赢家
你是继续赌meme,还是布局RWA、AI Agents、稳定币这些基础设施?
欢迎讨论。
#RWA
#Aİ
BTC
−1,21%
ETH
−1,29%
Powerpei
·
--
昨天看到个笑话:某DeFi项目的AI Agent自己花了3万美元调API CEO和CTO在平台上吵起来了,互相甩锅 我当时就想,这事儿迟早会发生 Agent能干活,但谁来管它花钱? WLFi 昨天发了 AgentPay SDK v0.2.1 算是给了个答案 简单说就是:Agent可以自己付钱了,但花不出你设的边界 具体更新三个: ➢支持 x402 和 MPP 支付 Agent 请求 API → API 说要钱 → AgentPay 检查你的规则 → 本地签名 → 付钱 → 拿数据 一条命令搞定 ➢Tempo 主网 + 会话管理 以前每次调 API都要重新付费,现在可以开个会话,存点钱进去,用完再关 就像充值会员,不用每次都掏钱包 ➢控制权在你手里 钱包在本地,策略你定,审批你管 Agent 只能在你画的圈里花钱。 ———— 举个例子 你有个Agent每天抓数据、做分析、出报告 以前你得手动付费、手动授权,Agent干不了活等你批 现在你设个规则:单次不超过10美元,每天不超过100 美元 然后Agent自己调API、自己付费、自己干活 你只需要偶尔看看账单 Agent从工具变成了员工。 ———— ➢我觉得v0.2.1真正解决的不是技术问题,是信任问题 很多人不敢让Agent自己花钱,怕失控 但如果永远要人工审批,那Agent就不是“自主”的,只是个遥控器 AgentPay的逻辑是:给Agent自主权,但把控制权留给你 这个平衡挺微妙的 回到开头那个吵架的项目 如果他们用了AgentPay,设了支付上限,3万美元的意外根本不会发生。 技术不是为了让 Agent更自由,是为了让你更放心。 风险提醒:所有机会均建立在项目交付基础上。加密投资高风险,建议DYOR 仅供参考
昨天看到个笑话:某DeFi项目的AI Agent自己花了3万美元调API
CEO和CTO在平台上吵起来了,互相甩锅
我当时就想,这事儿迟早会发生
Agent能干活,但谁来管它花钱?
WLFi 昨天发了 AgentPay SDK v0.2.1
算是给了个答案
简单说就是:Agent可以自己付钱了,但花不出你设的边界
具体更新三个:
➢支持 x402 和 MPP 支付
Agent 请求 API → API 说要钱 → AgentPay 检查你的规则 → 本地签名 → 付钱 → 拿数据
一条命令搞定
➢Tempo 主网 + 会话管理
以前每次调 API都要重新付费,现在可以开个会话,存点钱进去,用完再关
就像充值会员,不用每次都掏钱包
➢控制权在你手里
钱包在本地,策略你定,审批你管
Agent 只能在你画的圈里花钱。
————
举个例子
你有个Agent每天抓数据、做分析、出报告
以前你得手动付费、手动授权,Agent干不了活等你批
现在你设个规则:单次不超过10美元,每天不超过100 美元
然后Agent自己调API、自己付费、自己干活
你只需要偶尔看看账单
Agent从工具变成了员工。
————
➢我觉得v0.2.1真正解决的不是技术问题,是信任问题
很多人不敢让Agent自己花钱,怕失控
但如果永远要人工审批,那Agent就不是“自主”的,只是个遥控器
AgentPay的逻辑是:给Agent自主权,但把控制权留给你
这个平衡挺微妙的
回到开头那个吵架的项目
如果他们用了AgentPay,设了支付上限,3万美元的意外根本不会发生。
技术不是为了让 Agent更自由,是为了让你更放心。
风险提醒:所有机会均建立在项目交付基础上。加密投资高风险,建议DYOR 仅供参考
WLFI
−0,87%
Prijavite se, če želite raziskati več vsebin
Prijava
Pridružite se globalnim kriptouporabnikom na trgu Binance Square
⚡️ Pridobite najnovejše in koristne informacije o kriptovalutah.
💬 Zaupanje največje borze kriptovalut na svetu.
👍 Odkrijte prave vpoglede potrjenih ustvarjalcev.
E-naslov/telefonska številka
Registrirajte se za zaslužek nagrad
Prijava
Priljubljene teme
USMilitaryToBlockadeStraitOfHormuz
37,946 ogledov
606 razprav
🇺🇸 Trump is not bluffing. This is one of the biggest strategic moves from Trump. Here How 🇺🇸 US Navy blockade of Iran’s Strait of Hormuz begins tomorrow. It will choke off ~20% of global oil, directly crushing Iran’s revenue and hitting China’s energy lifeline hard. 🇮🇷 Iran loses its main cash flow and leverage — no more tolls or shadow fleet profits, forcing it back to negotiations on US terms. 🇨🇳 China suffers major disruption — reliant on Hormuz oil, facing higher costs and potential naval clashes. 🇨🇳 Trump already warned of 50% tariffs on any nation arming Iran. 🇸🇦 Saudi Arabia & Gulf allies are protected — full bypass pipelines ready, shielding their exports while Iran stays vulnerable. 🌍 Short-term oil spike expected, but US (net exporter) gains long-term control over the chokepoint. 🇺🇸 Maximum Pressure 2.0 — naval dominance without full war, aiming to starve Iran’s economy and force a better deal. $CL $NATGAS $XAU #USMilitaryToBlockadeStraitOfHormuz #JustinSunVsWLFI #MarketCorrectionBuyOrHODL? #US-IranTalksFailToReachAgreement #HighestCPISince2022
0Sain0
·
2 všečkov
·
1.6k ogledov
JustinSunVsWLFI
36,870 ogledov
519 razprav
MarketCorrectionBuyOrHODL?
7M ogledov
5,011 razprav
Poglejte več
Zemljevid spletišča
Nastavitve piškotkov
Pogoji uporabe platforme