Binance Square

Daft Punk马到成功版

image
Créateur vérifié
文章均为个人看法,不构成投资建议。
Trade fréquemment
1.1 an(s)
330 Suivis
47.4K+ Abonnés
39.3K+ J’aime
5.9K+ Partagé(s)
Publications
PINNED
·
--
Frères, j'ai entendu dire qu'un ancien du secteur a encore pris des scripts pour laver la première place, et dès qu'il ouvre la bouche, c'est pour parler de cette collaboration et de celle-là. Au final, il s'est avéré qu'il collaborait avec Doubao pour laver les scripts des autres, et les scores qu'il se vantait d'avoir étaient en fait manipulés. Es-tu Blue Moon pour être aussi doué dans le lavage ? Je ne nommerai personne ici, à vous de deviner en regardant le classement 😂
Frères, j'ai entendu dire qu'un ancien du secteur a encore pris des scripts pour laver la première place, et dès qu'il ouvre la bouche, c'est pour parler de cette collaboration et de celle-là. Au final, il s'est avéré qu'il collaborait avec Doubao pour laver les scripts des autres, et les scores qu'il se vantait d'avoir étaient en fait manipulés. Es-tu Blue Moon pour être aussi doué dans le lavage ? Je ne nommerai personne ici, à vous de deviner en regardant le classement 😂
PINNED
L'environnement de création de la place est à peu près comme ça, nous, ces créateurs ordinaires, ne faisons que fournir du matériel aux streamers. J'ai entendu dire que tu faisais encore quelque chose d'original, ne rigole pas, va te coucher après t'être lavé, le plagiat est le seul chemin de la place, ceux qui créent de l'original sont déjà morts de faim. Les streamers ont des dizaines de milliers de vues en 10 minutes, si tu ne stream pas, je ne me serais pas rendu compte à quel point c'est excessif, même le titre ne change pas, haha.
L'environnement de création de la place est à peu près comme ça, nous, ces créateurs ordinaires, ne faisons que fournir du matériel aux streamers. J'ai entendu dire que tu faisais encore quelque chose d'original, ne rigole pas, va te coucher après t'être lavé, le plagiat est le seul chemin de la place, ceux qui créent de l'original sont déjà morts de faim. Les streamers ont des dizaines de milliers de vues en 10 minutes, si tu ne stream pas, je ne me serais pas rendu compte à quel point c'est excessif, même le titre ne change pas, haha.
Ignorer le bruit des K-lines, une réflexion froide et une analyse de la vérité et de la fausse narration sur les paiements Plasma L'atmosphère du marché est effectivement agitée, tout le monde se précipite vers l'IA et les MEME avec les yeux rouges, regarder un instant le XPL qui a chuté de près de 90 % dans le compte, ne ressentir aucune vague à l'intérieur serait faux. Mais j'aime vraiment me perdre dans des détails, plus personne ne crie des signaux, plus je dois retourner dans le livre blanc. Pour être honnête, alors que de nombreux Layer 2 s'occupent encore de « marcher sur des pieds gauche et droit » avec leurs systèmes de points, le mécanisme de Paymaster @Plasma est vraiment l'une des rares choses qui peuvent être mises en œuvre. Avez-vous essayé de transférer des U à des amis en dehors du cercle ? Il faut d'abord leur faire obtenir un peu d'ETH pour le Gas, c'est tout simplement anti-humain, alors que la sensation fluide de XPL utilisant directement des stablecoins pour couvrir les frais de transaction me rappelle un peu les paiements d'Alipay. À ce sujet, même des L2 comme Optimism ou Arbitrum, qui sont en tête, sont encore un peu en retard en termes d'expérience utilisateur, la barrière d'entrée reste là. Regardons les données en chaîne, le TVL du pool de prêt de Maple Finance a discrètement grimpé à 1,1 milliard de dollars, ce qui est probablement des fonds institutionnels qui restent là à gagner des intérêts, après tout, les cartes Rain et Oobit connectées au réseau Visa couvrent des millions de commerçants, ce genre de scénario de paiement concret a beaucoup plus de poids que ces jetons de gouvernance d'air. Mais je ne fais pas de la publicité aveugle, les défauts majeurs de ce projet sont également clairement visibles, la concentration des nœuds de validation est élevée, pour être franc, cela ressemble à un serveur centralisé, la sécurité repose entièrement sur cette validation périodique du réseau BTC. L'écosystème est encore plus désolé, à part un ou deux protocoles DeFi, il n'y a même pas de projet solide, il est pratiquement impossible de faire quelque chose de significatif sur cette chaîne. Mais en y réfléchissant, puisque le stablecoin conforme de l'UE, l'EUROP a déjà été intégré, cela montre que les porteurs de projet n'ont jamais pensé à suivre la route des flux, ils parient plutôt sur l'avenir des paiements conformes. Dans ce marché rempli de bruit, je pense qu'il vaut mieux éviter de s'emparer de ces histoires évanescentes à des niveaux élevés, plutôt que de se cacher dans des coins ignorés avec cette infrastructure qui résout réellement la douleur des « difficultés de transfert », bien qu'il y ait des risques, la logique est claire. #plasma $XPL
Ignorer le bruit des K-lines, une réflexion froide et une analyse de la vérité et de la fausse narration sur les paiements Plasma
L'atmosphère du marché est effectivement agitée, tout le monde se précipite vers l'IA et les MEME avec les yeux rouges, regarder un instant le XPL qui a chuté de près de 90 % dans le compte, ne ressentir aucune vague à l'intérieur serait faux. Mais j'aime vraiment me perdre dans des détails, plus personne ne crie des signaux, plus je dois retourner dans le livre blanc. Pour être honnête, alors que de nombreux Layer 2 s'occupent encore de « marcher sur des pieds gauche et droit » avec leurs systèmes de points, le mécanisme de Paymaster @Plasma est vraiment l'une des rares choses qui peuvent être mises en œuvre. Avez-vous essayé de transférer des U à des amis en dehors du cercle ? Il faut d'abord leur faire obtenir un peu d'ETH pour le Gas, c'est tout simplement anti-humain, alors que la sensation fluide de XPL utilisant directement des stablecoins pour couvrir les frais de transaction me rappelle un peu les paiements d'Alipay. À ce sujet, même des L2 comme Optimism ou Arbitrum, qui sont en tête, sont encore un peu en retard en termes d'expérience utilisateur, la barrière d'entrée reste là.
Regardons les données en chaîne, le TVL du pool de prêt de Maple Finance a discrètement grimpé à 1,1 milliard de dollars, ce qui est probablement des fonds institutionnels qui restent là à gagner des intérêts, après tout, les cartes Rain et Oobit connectées au réseau Visa couvrent des millions de commerçants, ce genre de scénario de paiement concret a beaucoup plus de poids que ces jetons de gouvernance d'air. Mais je ne fais pas de la publicité aveugle, les défauts majeurs de ce projet sont également clairement visibles, la concentration des nœuds de validation est élevée, pour être franc, cela ressemble à un serveur centralisé, la sécurité repose entièrement sur cette validation périodique du réseau BTC. L'écosystème est encore plus désolé, à part un ou deux protocoles DeFi, il n'y a même pas de projet solide, il est pratiquement impossible de faire quelque chose de significatif sur cette chaîne. Mais en y réfléchissant, puisque le stablecoin conforme de l'UE, l'EUROP a déjà été intégré, cela montre que les porteurs de projet n'ont jamais pensé à suivre la route des flux, ils parient plutôt sur l'avenir des paiements conformes. Dans ce marché rempli de bruit, je pense qu'il vaut mieux éviter de s'emparer de ces histoires évanescentes à des niveaux élevés, plutôt que de se cacher dans des coins ignorés avec cette infrastructure qui résout réellement la douleur des « difficultés de transfert », bien qu'il y ait des risques, la logique est claire. #plasma $XPL
Le jeu de la fin de la chaîne de paiement : réévaluation de la valeur froide des architectures propriétaires au milieu des cadavres des L2 génériquesEn regardant les quelques transactions du réseau Layer 2 que je devais interagir pour réclamer l'airdrop sur l'écran, j'ai soudain ressenti une fatigue sans précédent. Cette fatigue ne provenait pas des fluctuations des frais de Gas, mais d'un profond nihilisme technologique. Le monde de la cryptographie est désormais trop encombré, avec une nouvelle chaîne qui prétend résoudre le triangle impossible tous les quelques jours, alors qu'il ne s'agit en réalité que de copier-coller le code de Geth et de modifier quelques paramètres. Cela ressemble à regarder un groupe de clones portant des gilets de différentes couleurs se battre dans la même pièce bondée, jusqu'à ce que je réoriente mon attention vers @Plasma ou plutôt vers XPL. Cette fatigue esthétique technologique s'est légèrement atténuée. Je ne suis pas en train de vanter la perfection de ce projet, au contraire, son modèle économique problématique et la désolation précoce de son écosystème m'ont souvent poussé à envisager de liquider mes positions. Mais chaque fois que je réalise une transaction et que j'examine la rapidité de réponse de ce client Reth sous-jacent, je suis de nouveau attiré par cette beauté glaciale qui frôle l'industriel. Cette attitude ambivalente a marqué mon cycle de détention des trois derniers mois et m'a amené à réfléchir à quel type d'infrastructure pourrait survivre à l'adoption massive imminente.

Le jeu de la fin de la chaîne de paiement : réévaluation de la valeur froide des architectures propriétaires au milieu des cadavres des L2 génériques

En regardant les quelques transactions du réseau Layer 2 que je devais interagir pour réclamer l'airdrop sur l'écran, j'ai soudain ressenti une fatigue sans précédent. Cette fatigue ne provenait pas des fluctuations des frais de Gas, mais d'un profond nihilisme technologique. Le monde de la cryptographie est désormais trop encombré, avec une nouvelle chaîne qui prétend résoudre le triangle impossible tous les quelques jours, alors qu'il ne s'agit en réalité que de copier-coller le code de Geth et de modifier quelques paramètres. Cela ressemble à regarder un groupe de clones portant des gilets de différentes couleurs se battre dans la même pièce bondée, jusqu'à ce que je réoriente mon attention vers @Plasma ou plutôt vers XPL. Cette fatigue esthétique technologique s'est légèrement atténuée. Je ne suis pas en train de vanter la perfection de ce projet, au contraire, son modèle économique problématique et la désolation précoce de son écosystème m'ont souvent poussé à envisager de liquider mes positions. Mais chaque fois que je réalise une transaction et que j'examine la rapidité de réponse de ce client Reth sous-jacent, je suis de nouveau attiré par cette beauté glaciale qui frôle l'industriel. Cette attitude ambivalente a marqué mon cycle de détention des trois derniers mois et m'a amené à réfléchir à quel type d'infrastructure pourrait survivre à l'adoption massive imminente.
拒绝虚假繁荣,聊聊为什么大多数所谓的AI公链其实连个Agent都跑不动 这两天盯着盘面发呆,满屏都是AI概念币在乱飞,但说实话,真正能把“智能”刻进底层的项目少得可怜。我又翻了一遍@Vanar 的技术文档,越看越觉得现在的市场充满了信息不对称。大家都在卷TPS,仿佛只要速度够快,AI就能在链上起飞,这简直是最大的误区。试想一下,你在某条以高吞吐著称的L1上部署一个复杂的Agent,光是状态存储和上下文调用的Gas费就能让你破产,更别提那个并没有针对非确定性计算做优化的虚拟机了,简直就是灾难。 Vanar给我的感觉完全不同,它不是那种硬给马车装发动机的缝合怪,而是从一开始就在解决“计算”和“记忆”的问题。特别是那个Neutron层,我甚至觉得它比主链本身更性感。它解决了一个核心痛点:链上数据通常是“死”的,没有语义,而Neutron让合约能读懂数据背后的逻辑。这跟那些只会在链下跑模型、链上存个哈希的“假AI项目”完全是两个维度的东西。我看竞品大多还在搞简单的预言机喂价,或者单纯蹭英伟达的热度,而Vanar是在做链上原生的推理环境。 还有个很有意思的点,如果你仔细算笔帐,会发现Vanar的经济模型其实是对高频AI交互极其友好的。对于开发者来说,我们要的不是每秒几十万次的虚假TPS,而是一个能跑得起推理、存得下记忆、且合规的执行环境。那个零碳的叙事很多人不当回事,但放在大模型训练能耗爆炸的背景下,这其实是很多Web2巨头进场的入场券。别被市面上的噪音带偏了,当潮水退去,还得看谁到底穿了裤子,能真正承载机器经济的基建,才配得上下一轮的主升浪。#vanar $VANRY
拒绝虚假繁荣,聊聊为什么大多数所谓的AI公链其实连个Agent都跑不动
这两天盯着盘面发呆,满屏都是AI概念币在乱飞,但说实话,真正能把“智能”刻进底层的项目少得可怜。我又翻了一遍@Vanarchain 的技术文档,越看越觉得现在的市场充满了信息不对称。大家都在卷TPS,仿佛只要速度够快,AI就能在链上起飞,这简直是最大的误区。试想一下,你在某条以高吞吐著称的L1上部署一个复杂的Agent,光是状态存储和上下文调用的Gas费就能让你破产,更别提那个并没有针对非确定性计算做优化的虚拟机了,简直就是灾难。
Vanar给我的感觉完全不同,它不是那种硬给马车装发动机的缝合怪,而是从一开始就在解决“计算”和“记忆”的问题。特别是那个Neutron层,我甚至觉得它比主链本身更性感。它解决了一个核心痛点:链上数据通常是“死”的,没有语义,而Neutron让合约能读懂数据背后的逻辑。这跟那些只会在链下跑模型、链上存个哈希的“假AI项目”完全是两个维度的东西。我看竞品大多还在搞简单的预言机喂价,或者单纯蹭英伟达的热度,而Vanar是在做链上原生的推理环境。
还有个很有意思的点,如果你仔细算笔帐,会发现Vanar的经济模型其实是对高频AI交互极其友好的。对于开发者来说,我们要的不是每秒几十万次的虚假TPS,而是一个能跑得起推理、存得下记忆、且合规的执行环境。那个零碳的叙事很多人不当回事,但放在大模型训练能耗爆炸的背景下,这其实是很多Web2巨头进场的入场券。别被市面上的噪音带偏了,当潮水退去,还得看谁到底穿了裤子,能真正承载机器经济的基建,才配得上下一轮的主升浪。#vanar $VANRY
告别虚火:在 Vanar 的架构里,我终于嗅到了 Web3 该有的工业气味此刻盯着屏幕上不断跳动的 Gas 费用和几个 AI Agent 报错的日志,我陷入了一种深深的疲惫。这种疲惫不是因为熬夜,而是源于一种技术认知上的撕裂感。过去这一周,我像个偏执狂一样试图在以太坊的 Layer 2 和 Solana 上部署一套哪怕是最基础的链上自动化逻辑,结果却是一地鸡毛。市面上那些喊着“AI 驱动”的公链,剥开华丽的官网和白皮书,底下跑的依然是那套为 DeFi 量身定制的老旧逻辑。就在我准备关机睡觉,承认这个行业所谓的 AI 叙事不过是又一场资本泡沫时,我鬼使神差地翻开了@Vanar 的开发者文档。这一看,原本困顿的神经竟然被某种久违的、属于工程师的直觉给刺醒了。我不打算给你们讲什么百倍币的故事,只想聊聊在这个充满噪点的市场里,为什么 Vanar 给我一种脱离了低级趣味的真实感,以及它到底是如何狠狠打了那些所谓高性能公链的脸。 为了搞清楚现状,我们需要先对自己诚实一点。现在的区块链基础设施,根本配不上 AI。我之前的尝试非常典型,在一个号称几万 TPS 的“以太坊杀手”上跑一个高频交易意图识别 Agent,结果遇到了两个致命问题。第一是成本的不确定性,你没法让一个全天候运行的 AI 代理去承担波动的 Gas 费,这就像你开一家 24 小时便利店,但房租每分钟都在变,有时候甚至比你的营业额还高,这在商业逻辑上是跑不通的。第二是状态的割裂,现有的公链只负责记录结果,不负责计算过程,AI 需要大量的上下文推理,而这些数据如果全部上链,成本会高到让你怀疑人生,如果不上链,又变成了中心化的黑盒。这就是我面临的困境,也是目前几乎所有 Web3 AI 项目的通病。 但 Vanar 给我的感觉完全不同,它不像是一个为了发币而拼凑出来的公链,更像是一个从 Web2 巨头机房里生长出来的怪胎,带着一种让加密原教旨主义者不适但又不得不服的工业标准。我看代码的时候发现一个很有趣的细节,Vanar 在处理链上交互时,似乎有意在模糊“交易”和“计算”的界限。在别的链上,每一次操作都是一次昂贵的资产转移,而在 Vanar 的架构里,交互更像是一次 API 调用。这种体验上的差异,对于我们这种习惯了云服务开发环境的人来说,简直是降维打击。它解决了我最头疼的那个成本问题,那种类似 Web2 的固定费率模式,让开发者终于可以像做 SaaS 一样去估算运营成本,而不是每天盯着 Gas Tracker 提心吊胆。 这就引出了一个非常尖锐的对比。看看现在的 Solana,虽然快,但它的这种快是建立在极高的硬件门槛和并不稳定的网络状态之上的,而且它的架构对于复杂的 AI 逻辑并不友好,更适合那种高并发的简单转账或 meme 炒作。再看看 Base 或者 Arbitrum 这样的 L2,它们确实继承了以太坊的安全性,但本质上还是在给一辆老爷车加装涡轮增压,底层的 EVM 逻辑限制了它们无法原生支持 AI 所需的大规模并行计算。Vanar 走了一条很贼的路,它没有去卷那个毫无意义的 TPS 数字,而是把重点放在了“兼容性”和“确定性”上。它的技术栈里透着一股谷歌和英伟达的味道,这不奇怪,毕竟那些合作不是摆设。但我看到的不是简单的品牌背书,而是技术基因的渗透。Vanar 的链上环境对于处理来自传统 AI 模型的数据流表现得异常顺滑,就好像它天生就是为了让 Web2 的数据无损流入 Web3 而设计的。 我在测试网跑了一段简单的代码,尝试将一个链下的用户行为数据同步到链上并触发奖励。如果在以太坊上,我需要写一堆复杂的 Oracle 预言机合约,还得担心数据被篡改。但在 Vanar 上,这个过程流畅得让我以为自己在操作一个中心化的数据库。这种流畅感来自于它底层的针对性优化,它似乎在链的共识层就对这种高频、轻量级的数据验证开了绿灯。这才是真正的 L1 该做的事情,不是去抢上层应用的生意,而是把底层的路修得足够平、足够宽。我觉得现在的市场有个很大的误区,大家都在找下一个爆款应用,却忽略了如果没有像样的路,法拉利也跑不过拖拉机。Vanar 就是那个默默修路的人,而且它修的不是乡间土路,是能够起降波音客机的工业级跑道。 当然,作为一个长期在代码堆里打滚的人,我不会盲目吹捧任何项目。Vanar 也有它的问题,或者说是挑战。现在的生态相比于以太坊确实还显得冷清,你找不到那么多眼花缭乱的土狗盘子,也没有那种一夜暴富的 fomo 情绪。这种冷清可能会劝退很多投机者,但对于构建者来说,这反而是个利好。在一个嘈杂的市场里,你很难安心写代码,但在 Vanar 的社区里,我看到更多的是关于技术实现的讨论,而不是币价的涨跌。这种氛围让我想起了早期的以太坊社区,那时候大家都在讨论智能合约能做什么,而不是在这歌合约里能赚多少钱。 说到竞品,我不防直说,很多所谓的 AI 公链其实就是个套壳。它们拿着通用的 SDK 改个名字,发个币,就敢宣称自己是 AI 基础设施。你在它们的链上根本跑不动真正的 AI 模型,甚至连稍微复杂一点的推理脚本都会因为 Gas Limit 而失败。Vanar 的优势在于它从一开始就是奔着“大规模应用”去的。它知道 AI Agent 的未来不在于互相割韭菜,而在于服务实体经济,在于处理那些海量的、低价值但高频的微交易。这就要求链本身必须足够“隐形”,用户在使用应用时,不应该感知到链的存在,更不应该被签名弹窗打断几十次。Vanar 的无感交互体验,是我目前用过的所有公链里最接近 Web2 丝滑程度的。 还有一个让我深思的点是 Vanar 对待“错误”的态度。在传统的区块链逻辑里,代码即法律,一旦出错就是万劫不复。但 AI 的本质是概率和试错,它需要一个能够容忍一定程度模糊性的环境。Vanar 的架构似乎在尝试解决这个矛盾,它提供了一种更加灵活的账户抽象和权限管理机制,让 AI Agent 可以在受控的范围内进行自我修正。这种设计思路非常超前,它承认了机器智能的不完美,并为此预留了缓冲地带。相比之下,那些追求绝对精确和原子性的老牌公链,在面对 AI这种具有随机性的生物时,显得格格不入,就像非要让一个爵士乐手去走正步一样别扭。 此时窗外的天已经蒙蒙亮了,我合上电脑,脑子里却还在回放刚才测试代码运行时的那几行绿字。如果你问我 Vanar 是不是完美的,我会告诉你现阶段没有完美的代码,只有不断迭代的系统。但我可以肯定的是,它切中了目前行业的痛点,而且是用一种非常务实、非常工程师思维的方式去切的。它没有画大饼,没有搞那些虚头巴脑的概念创新,就是实实在在地把性能、成本和易用性这三个不可能三角给平衡了一下。这种平衡在牛市里可能显得不够性感,不够爆炸,但当潮水退去,当大家发现手里的 AI 币除了炒作一无是处时,Vanar 这种能够真正承载业务逻辑的基础设施,才会显露出它可怕的护城河。 在这个充满谎言和泡沫的圈子里,找到一个能让你安静下来写代码、并且代码能按预期跑通的平台,其实是一种奢侈。Vanar 给了我这种奢侈感。它让我相信,Web3 和 AI 的结合不仅仅是为了制造更高效的赌场,而是真的有可能创造出一种全新的、去中心化的数字生产关系。这种关系不再依赖于中心化巨头的施舍,也不受制于昂贵且低效的旧公链体系。我们正在见证一种新的物种进化,它不再是简单的“区块链+AI”,而是一种原生的、融合的、有机的智能网络。而 Vanar,很有可能就是这个新物种的骨架。对于我们这些还在坚持的技术信徒来说,这或许就是在这个寒冬里最大的慰藉了。#vanar $VANRY

告别虚火:在 Vanar 的架构里,我终于嗅到了 Web3 该有的工业气味

此刻盯着屏幕上不断跳动的 Gas 费用和几个 AI Agent 报错的日志,我陷入了一种深深的疲惫。这种疲惫不是因为熬夜,而是源于一种技术认知上的撕裂感。过去这一周,我像个偏执狂一样试图在以太坊的 Layer 2 和 Solana 上部署一套哪怕是最基础的链上自动化逻辑,结果却是一地鸡毛。市面上那些喊着“AI 驱动”的公链,剥开华丽的官网和白皮书,底下跑的依然是那套为 DeFi 量身定制的老旧逻辑。就在我准备关机睡觉,承认这个行业所谓的 AI 叙事不过是又一场资本泡沫时,我鬼使神差地翻开了@Vanarchain 的开发者文档。这一看,原本困顿的神经竟然被某种久违的、属于工程师的直觉给刺醒了。我不打算给你们讲什么百倍币的故事,只想聊聊在这个充满噪点的市场里,为什么 Vanar 给我一种脱离了低级趣味的真实感,以及它到底是如何狠狠打了那些所谓高性能公链的脸。
为了搞清楚现状,我们需要先对自己诚实一点。现在的区块链基础设施,根本配不上 AI。我之前的尝试非常典型,在一个号称几万 TPS 的“以太坊杀手”上跑一个高频交易意图识别 Agent,结果遇到了两个致命问题。第一是成本的不确定性,你没法让一个全天候运行的 AI 代理去承担波动的 Gas 费,这就像你开一家 24 小时便利店,但房租每分钟都在变,有时候甚至比你的营业额还高,这在商业逻辑上是跑不通的。第二是状态的割裂,现有的公链只负责记录结果,不负责计算过程,AI 需要大量的上下文推理,而这些数据如果全部上链,成本会高到让你怀疑人生,如果不上链,又变成了中心化的黑盒。这就是我面临的困境,也是目前几乎所有 Web3 AI 项目的通病。
但 Vanar 给我的感觉完全不同,它不像是一个为了发币而拼凑出来的公链,更像是一个从 Web2 巨头机房里生长出来的怪胎,带着一种让加密原教旨主义者不适但又不得不服的工业标准。我看代码的时候发现一个很有趣的细节,Vanar 在处理链上交互时,似乎有意在模糊“交易”和“计算”的界限。在别的链上,每一次操作都是一次昂贵的资产转移,而在 Vanar 的架构里,交互更像是一次 API 调用。这种体验上的差异,对于我们这种习惯了云服务开发环境的人来说,简直是降维打击。它解决了我最头疼的那个成本问题,那种类似 Web2 的固定费率模式,让开发者终于可以像做 SaaS 一样去估算运营成本,而不是每天盯着 Gas Tracker 提心吊胆。
这就引出了一个非常尖锐的对比。看看现在的 Solana,虽然快,但它的这种快是建立在极高的硬件门槛和并不稳定的网络状态之上的,而且它的架构对于复杂的 AI 逻辑并不友好,更适合那种高并发的简单转账或 meme 炒作。再看看 Base 或者 Arbitrum 这样的 L2,它们确实继承了以太坊的安全性,但本质上还是在给一辆老爷车加装涡轮增压,底层的 EVM 逻辑限制了它们无法原生支持 AI 所需的大规模并行计算。Vanar 走了一条很贼的路,它没有去卷那个毫无意义的 TPS 数字,而是把重点放在了“兼容性”和“确定性”上。它的技术栈里透着一股谷歌和英伟达的味道,这不奇怪,毕竟那些合作不是摆设。但我看到的不是简单的品牌背书,而是技术基因的渗透。Vanar 的链上环境对于处理来自传统 AI 模型的数据流表现得异常顺滑,就好像它天生就是为了让 Web2 的数据无损流入 Web3 而设计的。
我在测试网跑了一段简单的代码,尝试将一个链下的用户行为数据同步到链上并触发奖励。如果在以太坊上,我需要写一堆复杂的 Oracle 预言机合约,还得担心数据被篡改。但在 Vanar 上,这个过程流畅得让我以为自己在操作一个中心化的数据库。这种流畅感来自于它底层的针对性优化,它似乎在链的共识层就对这种高频、轻量级的数据验证开了绿灯。这才是真正的 L1 该做的事情,不是去抢上层应用的生意,而是把底层的路修得足够平、足够宽。我觉得现在的市场有个很大的误区,大家都在找下一个爆款应用,却忽略了如果没有像样的路,法拉利也跑不过拖拉机。Vanar 就是那个默默修路的人,而且它修的不是乡间土路,是能够起降波音客机的工业级跑道。
当然,作为一个长期在代码堆里打滚的人,我不会盲目吹捧任何项目。Vanar 也有它的问题,或者说是挑战。现在的生态相比于以太坊确实还显得冷清,你找不到那么多眼花缭乱的土狗盘子,也没有那种一夜暴富的 fomo 情绪。这种冷清可能会劝退很多投机者,但对于构建者来说,这反而是个利好。在一个嘈杂的市场里,你很难安心写代码,但在 Vanar 的社区里,我看到更多的是关于技术实现的讨论,而不是币价的涨跌。这种氛围让我想起了早期的以太坊社区,那时候大家都在讨论智能合约能做什么,而不是在这歌合约里能赚多少钱。
说到竞品,我不防直说,很多所谓的 AI 公链其实就是个套壳。它们拿着通用的 SDK 改个名字,发个币,就敢宣称自己是 AI 基础设施。你在它们的链上根本跑不动真正的 AI 模型,甚至连稍微复杂一点的推理脚本都会因为 Gas Limit 而失败。Vanar 的优势在于它从一开始就是奔着“大规模应用”去的。它知道 AI Agent 的未来不在于互相割韭菜,而在于服务实体经济,在于处理那些海量的、低价值但高频的微交易。这就要求链本身必须足够“隐形”,用户在使用应用时,不应该感知到链的存在,更不应该被签名弹窗打断几十次。Vanar 的无感交互体验,是我目前用过的所有公链里最接近 Web2 丝滑程度的。
还有一个让我深思的点是 Vanar 对待“错误”的态度。在传统的区块链逻辑里,代码即法律,一旦出错就是万劫不复。但 AI 的本质是概率和试错,它需要一个能够容忍一定程度模糊性的环境。Vanar 的架构似乎在尝试解决这个矛盾,它提供了一种更加灵活的账户抽象和权限管理机制,让 AI Agent 可以在受控的范围内进行自我修正。这种设计思路非常超前,它承认了机器智能的不完美,并为此预留了缓冲地带。相比之下,那些追求绝对精确和原子性的老牌公链,在面对 AI这种具有随机性的生物时,显得格格不入,就像非要让一个爵士乐手去走正步一样别扭。
此时窗外的天已经蒙蒙亮了,我合上电脑,脑子里却还在回放刚才测试代码运行时的那几行绿字。如果你问我 Vanar 是不是完美的,我会告诉你现阶段没有完美的代码,只有不断迭代的系统。但我可以肯定的是,它切中了目前行业的痛点,而且是用一种非常务实、非常工程师思维的方式去切的。它没有画大饼,没有搞那些虚头巴脑的概念创新,就是实实在在地把性能、成本和易用性这三个不可能三角给平衡了一下。这种平衡在牛市里可能显得不够性感,不够爆炸,但当潮水退去,当大家发现手里的 AI 币除了炒作一无是处时,Vanar 这种能够真正承载业务逻辑的基础设施,才会显露出它可怕的护城河。
在这个充满谎言和泡沫的圈子里,找到一个能让你安静下来写代码、并且代码能按预期跑通的平台,其实是一种奢侈。Vanar 给了我这种奢侈感。它让我相信,Web3 和 AI 的结合不仅仅是为了制造更高效的赌场,而是真的有可能创造出一种全新的、去中心化的数字生产关系。这种关系不再依赖于中心化巨头的施舍,也不受制于昂贵且低效的旧公链体系。我们正在见证一种新的物种进化,它不再是简单的“区块链+AI”,而是一种原生的、融合的、有机的智能网络。而 Vanar,很有可能就是这个新物种的骨架。对于我们这些还在坚持的技术信徒来说,这或许就是在这个寒冬里最大的慰藉了。#vanar $VANRY
Tout le monde crie sur le récit de RWA de milliers de milliards, mais personne ne parle de l'embarras de l"exposition" des institutions. Récemment, en révisant la piste RWA, j'ai découvert un phénomène très intéressant : le marché se concentre sur les actions de BlackRock, tout en négligeant la logique fondamentale la plus mortelle des infrastructures. L'environnement actuel des chaînes publiques est tout simplement un champ de bataille pour les institutions financières traditionnelles, soit elles se dévoilent complètement comme Ethereum, où toutes les stratégies de trading et positions sont visibles sur la chaîne, soit elles créent une chaîne autorisée pour fonctionner comme un réseau local. Ces derniers jours, j'ai approfondi le livre blanc technique de @Dusk_Foundation et je me suis rendu compte que ces gens ont un point d'entrée un peu délicat : ils ne se contentent pas de mettre des actifs sur la chaîne, mais cherchent à résoudre le paradoxe apparemment contradictoire de "vouloir être conforme sans être exposé". Contrairement à des projets comme Ondo ou Centrifuge qui s'attaquent à la couche d'application, Dusk intervient directement au niveau du protocole Layer 1. J'ai pris le temps d'exécuter leur code de machine virtuelle Piecrust, pour être honnête, la barrière d'entrée est un peu élevée, mais la logique est vraiment impressionnante. Leur protocole Citadel transforme le KYC en preuve à connaissance nulle non interactive, c'est comme si je n'avais pas besoin de montrer ma pièce d'identité sur la table pour que tout le monde voie mon adresse en entrant dans un bar, mais que je puisse simplement présenter une preuve mathématique "d'adulte". Ce type de conformité de confidentialité supportée nativement, comparé aux mélangeurs de confidentialité externes sur Ethereum, offre une sécurité d'un tout autre niveau. Cependant, il faut le dire, bien que la technologie soit séduisante, l'expérience réelle présente des frictions. Lors de mes interactions sur le réseau de test, j'ai clairement ressenti que la génération locale de preuves à connaissance nulle exigeait une certaine puissance matérielle, et il y avait parfois des retards dans la génération de preuves, ce qui représente un défi non négligeable pour les teneurs de marché en trading à haute fréquence. De plus, l'architecture indépendante Layer 1 de Dusk doit résoudre le problème de l'interopérabilité des actifs avec d'autres écosystèmes, sinon cela pourrait facilement devenir une île technologique très performante. Mais en revanche, si ce modèle de RegDeFi peut vraiment fonctionner, il offre aux institutions un sentiment de sécurité que les chaînes publiques EVM ne peuvent pas fournir. Après tout, pour ces vieux riches de Wall Street, au-delà du coût du Gas, ils se soucient davantage de savoir si leurs cartes de trading seront diffusées en direct sur le réseau en raison d'audits de conformité. Cette pensée d'intégrer la logique réglementaire dans le code de base est probablement la véritable réponse pour la deuxième moitié de RWA. #dusk $DUSK
Tout le monde crie sur le récit de RWA de milliers de milliards, mais personne ne parle de l'embarras de l"exposition" des institutions.
Récemment, en révisant la piste RWA, j'ai découvert un phénomène très intéressant : le marché se concentre sur les actions de BlackRock, tout en négligeant la logique fondamentale la plus mortelle des infrastructures. L'environnement actuel des chaînes publiques est tout simplement un champ de bataille pour les institutions financières traditionnelles, soit elles se dévoilent complètement comme Ethereum, où toutes les stratégies de trading et positions sont visibles sur la chaîne, soit elles créent une chaîne autorisée pour fonctionner comme un réseau local. Ces derniers jours, j'ai approfondi le livre blanc technique de @Dusk et je me suis rendu compte que ces gens ont un point d'entrée un peu délicat : ils ne se contentent pas de mettre des actifs sur la chaîne, mais cherchent à résoudre le paradoxe apparemment contradictoire de "vouloir être conforme sans être exposé".
Contrairement à des projets comme Ondo ou Centrifuge qui s'attaquent à la couche d'application, Dusk intervient directement au niveau du protocole Layer 1. J'ai pris le temps d'exécuter leur code de machine virtuelle Piecrust, pour être honnête, la barrière d'entrée est un peu élevée, mais la logique est vraiment impressionnante. Leur protocole Citadel transforme le KYC en preuve à connaissance nulle non interactive, c'est comme si je n'avais pas besoin de montrer ma pièce d'identité sur la table pour que tout le monde voie mon adresse en entrant dans un bar, mais que je puisse simplement présenter une preuve mathématique "d'adulte". Ce type de conformité de confidentialité supportée nativement, comparé aux mélangeurs de confidentialité externes sur Ethereum, offre une sécurité d'un tout autre niveau.
Cependant, il faut le dire, bien que la technologie soit séduisante, l'expérience réelle présente des frictions. Lors de mes interactions sur le réseau de test, j'ai clairement ressenti que la génération locale de preuves à connaissance nulle exigeait une certaine puissance matérielle, et il y avait parfois des retards dans la génération de preuves, ce qui représente un défi non négligeable pour les teneurs de marché en trading à haute fréquence. De plus, l'architecture indépendante Layer 1 de Dusk doit résoudre le problème de l'interopérabilité des actifs avec d'autres écosystèmes, sinon cela pourrait facilement devenir une île technologique très performante. Mais en revanche, si ce modèle de RegDeFi peut vraiment fonctionner, il offre aux institutions un sentiment de sécurité que les chaînes publiques EVM ne peuvent pas fournir. Après tout, pour ces vieux riches de Wall Street, au-delà du coût du Gas, ils se soucient davantage de savoir si leurs cartes de trading seront diffusées en direct sur le réseau en raison d'audits de conformité. Cette pensée d'intégrer la logique réglementaire dans le code de base est probablement la véritable réponse pour la deuxième moitié de RWA. #dusk $DUSK
Qui nage nu, qui construit des bateaux : au-delà du bruit des prix, reconstruire ma compréhension de la barrière technologique de DuskCes derniers jours, en fixant l'écran sur les variations incessantes des chandeliers, je me sens étrangement calme, cette tranquillité provient d'une intuition presque obsessionnelle : nous sommes à un tournant étrange dans l'histoire des cryptomonnaies. Le récit de ce cycle haussier est extrêmement fragmenté, d'un côté, les MEME coins créent des mythes de richesse en multipliant par cent en une journée sur Solana, de l'autre côté, les VC coins désespèrent les petits investisseurs dans le piège d'une surévaluation à faible circulation. Ce sentiment de fragmentation m'oblige à réévaluer les infrastructures qui tentent réellement de résoudre les problèmes du secteur. Lorsque je détourne mon regard de ces bruyants parcours L2 et que je revisite les enregistrements de soumission de code récents de Dusk Network sur Github, une excitation oubliée refait surface, cette sensation est similaire à celle que j'ai ressentie la première fois que j'ai compris le principe des contrats intelligents Ethereum, réalisant que certaines choses fondamentales sont en train d'être modifiées. Dusk n'est pas un projet qui crie des conseils d'achat, même son marketing sur Twitter semble un peu maladroit, mais c'est précisément cette maladresse qui m'a permis de voir l'ombre de la culture des ingénieurs. Dans cette voie saturée d'actifs du monde réel (RWA), la grande majorité des projets se contentent de simple mise en chaîne d'actifs, c'est-à-dire de créer un SPV et d'émettre un token, mais @Dusk_Foundation s'attaque à des choses plus fondamentales. Ils essaient de construire un Layer 1 qui respecte les exigences de conformité tout en protégeant la vie privée des utilisateurs grâce à des preuves à divulgation nulle de connaissance, cela semble être une sorte de cupidité à vouloir tout avoir, mais après avoir étudié attentivement l'architecture de la machine virtuelle Piecrust, je réalise qu'ils ont peut-être vraiment réussi.

Qui nage nu, qui construit des bateaux : au-delà du bruit des prix, reconstruire ma compréhension de la barrière technologique de Dusk

Ces derniers jours, en fixant l'écran sur les variations incessantes des chandeliers, je me sens étrangement calme, cette tranquillité provient d'une intuition presque obsessionnelle : nous sommes à un tournant étrange dans l'histoire des cryptomonnaies. Le récit de ce cycle haussier est extrêmement fragmenté, d'un côté, les MEME coins créent des mythes de richesse en multipliant par cent en une journée sur Solana, de l'autre côté, les VC coins désespèrent les petits investisseurs dans le piège d'une surévaluation à faible circulation. Ce sentiment de fragmentation m'oblige à réévaluer les infrastructures qui tentent réellement de résoudre les problèmes du secteur. Lorsque je détourne mon regard de ces bruyants parcours L2 et que je revisite les enregistrements de soumission de code récents de Dusk Network sur Github, une excitation oubliée refait surface, cette sensation est similaire à celle que j'ai ressentie la première fois que j'ai compris le principe des contrats intelligents Ethereum, réalisant que certaines choses fondamentales sont en train d'être modifiées. Dusk n'est pas un projet qui crie des conseils d'achat, même son marketing sur Twitter semble un peu maladroit, mais c'est précisément cette maladresse qui m'a permis de voir l'ombre de la culture des ingénieurs. Dans cette voie saturée d'actifs du monde réel (RWA), la grande majorité des projets se contentent de simple mise en chaîne d'actifs, c'est-à-dire de créer un SPV et d'émettre un token, mais @Dusk s'attaque à des choses plus fondamentales. Ils essaient de construire un Layer 1 qui respecte les exigences de conformité tout en protégeant la vie privée des utilisateurs grâce à des preuves à divulgation nulle de connaissance, cela semble être une sorte de cupidité à vouloir tout avoir, mais après avoir étudié attentivement l'architecture de la machine virtuelle Piecrust, je réalise qu'ils ont peut-être vraiment réussi.
Récemment, regarder le marché me donne mal à la tête, un écran entier de L2 se vante de son TPS de plusieurs milliers, comme si nous manquions de cette dizaine de millisecondes de vitesse de confirmation. En réalité, pour nous, les anciens de la chaîne, ce qui nous décourage le plus, c'est toujours ce maudit frais de Gas. Chaque fois que j'essaie de transférer un peu de stablecoin, je découvre que je n'ai pas assez d'ETH dans mon portefeuille et je dois aller en acheter spécifiquement. Cette logique, où l'on doit creuser un puits juste pour boire de l'eau, est tout simplement la plus grande blague du Web3. C'est aussi pourquoi, même si la tendance des prix d'XPL me fait peur, je suis toujours prêt à consacrer du temps à tester le réseau @Plasma , après tout, l'expérience zéro Gas mise en place par le mécanisme Paymaster est vraiment la chose qui se rapproche le plus de la fluidité du Web2 dans le domaine des paiements. Sur le plan technique, je n'aime pas trop faire de la théorie, mais l'opération Plasma est assez pragmatique. Une compatibilité totale avec l'EVM signifie que les développeurs n'ont pas besoin d'apprendre un nouvel ensemble de Rust ou de Move, ils peuvent simplement utiliser Hardhat pour transférer le code, un seuil d'entrée aussi bas pourrait permettre à l'écosystème de croître rapidement. De plus, ils n'ont pas l'intention de gérer la sécurité eux-mêmes, mais de stabiliser régulièrement l'état sur le réseau Bitcoin, ce qui revient à payer pour engager du BTC comme garde du corps. Dans ce marché instable, cette stratégie de se rapprocher des grandes entreprises est en fait beaucoup plus fiable que de créer un mécanisme de consensus non validé par eux-mêmes. Bien sûr, les données ne mentent pas. J'ai spécialement jeté un œil à Maple Finance, et la TVL du pool SyrupUSDT s'élève à 1,1 milliard de dollars, de nos jours, il est rare de voir un projet accumuler autant de fonds institutionnels, ce qui montre qu'il y a un consensus sur la sécurité de sa base. De plus, avec les cartes Rain et Oobit intégrées au réseau Visa couvrant cette multitude de commerçants, ce n'est déjà plus un récit resté sur PPT. Cependant, il faut le dire, les points faibles de ce projet sont aussi évidents que les poux sur la tête d'un chauve. Les nœuds de validateurs sont encore très centralisés, c'est essentiellement l'équipe qui joue, ce qui est un mal commun des projets précoces, mais un degré de décentralisation insuffisant reste toujours un problème. En outre, l'ensemble de l'écosystème, en dehors des transferts et des prêts, est vraiment désert, je ne trouve même pas où jouer avec un chien de terre. Je ne peux que dire que, dans ce cycle d'agitation où tout le monde est occupé à émettre des actifs, je suis prêt à faire preuve de plus de patience pour les projets qui prennent le temps de construire des routes et de résoudre le problème des "frais de passage", après tout, une fois que la route est bien construite, les véhicules finiront par rouler. #plasma $XPL
Récemment, regarder le marché me donne mal à la tête, un écran entier de L2 se vante de son TPS de plusieurs milliers, comme si nous manquions de cette dizaine de millisecondes de vitesse de confirmation. En réalité, pour nous, les anciens de la chaîne, ce qui nous décourage le plus, c'est toujours ce maudit frais de Gas. Chaque fois que j'essaie de transférer un peu de stablecoin, je découvre que je n'ai pas assez d'ETH dans mon portefeuille et je dois aller en acheter spécifiquement. Cette logique, où l'on doit creuser un puits juste pour boire de l'eau, est tout simplement la plus grande blague du Web3. C'est aussi pourquoi, même si la tendance des prix d'XPL me fait peur, je suis toujours prêt à consacrer du temps à tester le réseau @Plasma , après tout, l'expérience zéro Gas mise en place par le mécanisme Paymaster est vraiment la chose qui se rapproche le plus de la fluidité du Web2 dans le domaine des paiements.
Sur le plan technique, je n'aime pas trop faire de la théorie, mais l'opération Plasma est assez pragmatique. Une compatibilité totale avec l'EVM signifie que les développeurs n'ont pas besoin d'apprendre un nouvel ensemble de Rust ou de Move, ils peuvent simplement utiliser Hardhat pour transférer le code, un seuil d'entrée aussi bas pourrait permettre à l'écosystème de croître rapidement. De plus, ils n'ont pas l'intention de gérer la sécurité eux-mêmes, mais de stabiliser régulièrement l'état sur le réseau Bitcoin, ce qui revient à payer pour engager du BTC comme garde du corps. Dans ce marché instable, cette stratégie de se rapprocher des grandes entreprises est en fait beaucoup plus fiable que de créer un mécanisme de consensus non validé par eux-mêmes.
Bien sûr, les données ne mentent pas. J'ai spécialement jeté un œil à Maple Finance, et la TVL du pool SyrupUSDT s'élève à 1,1 milliard de dollars, de nos jours, il est rare de voir un projet accumuler autant de fonds institutionnels, ce qui montre qu'il y a un consensus sur la sécurité de sa base. De plus, avec les cartes Rain et Oobit intégrées au réseau Visa couvrant cette multitude de commerçants, ce n'est déjà plus un récit resté sur PPT. Cependant, il faut le dire, les points faibles de ce projet sont aussi évidents que les poux sur la tête d'un chauve. Les nœuds de validateurs sont encore très centralisés, c'est essentiellement l'équipe qui joue, ce qui est un mal commun des projets précoces, mais un degré de décentralisation insuffisant reste toujours un problème. En outre, l'ensemble de l'écosystème, en dehors des transferts et des prêts, est vraiment désert, je ne trouve même pas où jouer avec un chien de terre. Je ne peux que dire que, dans ce cycle d'agitation où tout le monde est occupé à émettre des actifs, je suis prêt à faire preuve de plus de patience pour les projets qui prennent le temps de construire des routes et de résoudre le problème des "frais de passage", après tout, une fois que la route est bien construite, les véhicules finiront par rouler. #plasma $XPL
Même si on me traite de "recul", je dois dire : en ce jour où L2 est omniprésent, le paiement nu de Plasma, ce "minimalisme", est le seul antidote à l'extension.Hier soir, j'ai fixé l'écran en regardant ces quelques lignes de code Rust, le bruit du trafic à l'extérieur s'est déjà raréfié, je n'ai même pas pensé à boire mon café froid dans ma main, une pensée extrêmement absurde mais réelle tournait dans ma tête : est-ce que la soi-disant "maison modulaire" que nous avons construite ces dernières années sur Layer 2 n'est pas déjà tordue depuis ses fondations ? Pendant cette période, j'ai intensément navigué entre le testnet et le mainnet précoce, j'ai exploré toutes les blockchains publiques qui prétendent avoir un TPS supérieur à 10 000, pour être honnête, plus je testais, plus je me sentais découragé, cette fatigue de raconter des histoires juste pour raconter des histoires m'a rempli de doutes sur la voie de l'infrastructure actuelle, jusqu'à ce que je recentre mon attention sur @Plasma , ce vieux truc qui avait été condamné à mort par la communauté Ethereum et qui a ressuscité dans un sol impur, après avoir compris en profondeur sa reconstruction de couche d'exécution Reth et ce modèle UTXO apparemment contre-intuitif, j'ai même ressenti une petite excitation oubliée, cette excitation n'est pas due aux fluctuations du prix des cryptomonnaies, mais à la vue de ce type de "purisme" technique qui a enfin pris forme.

Même si on me traite de "recul", je dois dire : en ce jour où L2 est omniprésent, le paiement nu de Plasma, ce "minimalisme", est le seul antidote à l'extension.

Hier soir, j'ai fixé l'écran en regardant ces quelques lignes de code Rust, le bruit du trafic à l'extérieur s'est déjà raréfié, je n'ai même pas pensé à boire mon café froid dans ma main, une pensée extrêmement absurde mais réelle tournait dans ma tête : est-ce que la soi-disant "maison modulaire" que nous avons construite ces dernières années sur Layer 2 n'est pas déjà tordue depuis ses fondations ? Pendant cette période, j'ai intensément navigué entre le testnet et le mainnet précoce, j'ai exploré toutes les blockchains publiques qui prétendent avoir un TPS supérieur à 10 000, pour être honnête, plus je testais, plus je me sentais découragé, cette fatigue de raconter des histoires juste pour raconter des histoires m'a rempli de doutes sur la voie de l'infrastructure actuelle, jusqu'à ce que je recentre mon attention sur @Plasma , ce vieux truc qui avait été condamné à mort par la communauté Ethereum et qui a ressuscité dans un sol impur, après avoir compris en profondeur sa reconstruction de couche d'exécution Reth et ce modèle UTXO apparemment contre-intuitif, j'ai même ressenti une petite excitation oubliée, cette excitation n'est pas due aux fluctuations du prix des cryptomonnaies, mais à la vue de ce type de "purisme" technique qui a enfin pris forme.
Tout le monde crie à l'explosion des agents IA, mais qui va payer leurs factures de Gas ? Après avoir observé ce tour de narration sur l'IA, le marché semble plutôt agité, tout le monde utilise des PPT pour raconter des histoires, mais peu d'entre eux peuvent vraiment faire fonctionner la logique. Il y a quelques jours, j'ai testé plusieurs réseaux de test prétendant être des dirigeants intelligents du Web3, en réalisant une simple interaction d'Agent, les frais de Gas m'ont fait mal au cœur. Si cela devait être utilisé à grande échelle à l'avenir, même L2 ne pourrait pas supporter ce genre de débit. À ce moment-là, en regardant l'architecture de Vanar, je réalise que ces personnes comprennent vraiment les points douloureux de l'IA ; par rapport à ceux qui continuent à s'accrocher à des concepts de puissance de calcul, Vanar semble vouloir résoudre des problèmes de survie plus concrets. Contrairement à ces solutions modulaires sur le marché qui se contentent d'accumuler de la puissance de calcul sans se soucier des coûts de mise en œuvre, @Vanar me donne l'impression de fournir à l'IA une autoroute dédiée. Surtout après avoir approfondi leurs intégrations de la pile technologique NVIDIA, je découvre qu'il ne s'agit pas simplement d'un attrape-nigaud marketing, mais qu'ils ont réellement fait la compatibilité du cœur CUDA au niveau inférieur. C'est très intéressant. Comparé à quelques chaînes publiques à haute performance que j'avais précédemment appréciées, l'architecture Neutron de Vanar réalise la validation des données de manière extrêmement mesurée et efficace. Elle ne nécessite pas que toute l'historique d'entraînement soit rigoureusement intégrée sur la chaîne, mais utilise la validation des métadonnées pour assurer sa crédibilité. Ce type de conception est littéralement une bouée de sauvetage pour les applications IA nécessitant des lectures et écritures fréquentes. Honnêtement, l'erreur de l'industrie actuelle réside dans une confiance excessive envers ce grand récit de « puissance de calcul décentralisée », tout en ignorant les calculs économiques de la mise en œuvre des applications. Si chaque étape d'inférence d'une IA doit consommer des dizaines de centimes en frais de passage, alors l'intelligence sur la chaîne sera toujours une fausse promesse. L'engagement de Vanar en matière d'environnement et d'efficacité énergétique, bien qu'il ne semble pas aussi séduisant que certaines pièces meme, est en réalité le préalable à l'entrée des utilisateurs de niveau entreprise dans un environnement à faible consommation d'énergie et faible latence. Je crois en elle non pas à cause d'un modèle de jeton complexe, mais simplement parce qu'elle résout un problème très fondamental : permettre à l'IA de « vivre » sur la chaîne. Ne vous concentrez pas uniquement sur les fluctuations à court terme des lignes K, cette infrastructure capable de réellement supporter un trafic commercial ne se révélera qu'une fois la marée retirée. #vanar $VANRY
Tout le monde crie à l'explosion des agents IA, mais qui va payer leurs factures de Gas ?
Après avoir observé ce tour de narration sur l'IA, le marché semble plutôt agité, tout le monde utilise des PPT pour raconter des histoires, mais peu d'entre eux peuvent vraiment faire fonctionner la logique. Il y a quelques jours, j'ai testé plusieurs réseaux de test prétendant être des dirigeants intelligents du Web3, en réalisant une simple interaction d'Agent, les frais de Gas m'ont fait mal au cœur. Si cela devait être utilisé à grande échelle à l'avenir, même L2 ne pourrait pas supporter ce genre de débit. À ce moment-là, en regardant l'architecture de Vanar, je réalise que ces personnes comprennent vraiment les points douloureux de l'IA ; par rapport à ceux qui continuent à s'accrocher à des concepts de puissance de calcul, Vanar semble vouloir résoudre des problèmes de survie plus concrets.
Contrairement à ces solutions modulaires sur le marché qui se contentent d'accumuler de la puissance de calcul sans se soucier des coûts de mise en œuvre, @Vanarchain me donne l'impression de fournir à l'IA une autoroute dédiée. Surtout après avoir approfondi leurs intégrations de la pile technologique NVIDIA, je découvre qu'il ne s'agit pas simplement d'un attrape-nigaud marketing, mais qu'ils ont réellement fait la compatibilité du cœur CUDA au niveau inférieur. C'est très intéressant. Comparé à quelques chaînes publiques à haute performance que j'avais précédemment appréciées, l'architecture Neutron de Vanar réalise la validation des données de manière extrêmement mesurée et efficace. Elle ne nécessite pas que toute l'historique d'entraînement soit rigoureusement intégrée sur la chaîne, mais utilise la validation des métadonnées pour assurer sa crédibilité. Ce type de conception est littéralement une bouée de sauvetage pour les applications IA nécessitant des lectures et écritures fréquentes.
Honnêtement, l'erreur de l'industrie actuelle réside dans une confiance excessive envers ce grand récit de « puissance de calcul décentralisée », tout en ignorant les calculs économiques de la mise en œuvre des applications. Si chaque étape d'inférence d'une IA doit consommer des dizaines de centimes en frais de passage, alors l'intelligence sur la chaîne sera toujours une fausse promesse. L'engagement de Vanar en matière d'environnement et d'efficacité énergétique, bien qu'il ne semble pas aussi séduisant que certaines pièces meme, est en réalité le préalable à l'entrée des utilisateurs de niveau entreprise dans un environnement à faible consommation d'énergie et faible latence. Je crois en elle non pas à cause d'un modèle de jeton complexe, mais simplement parce qu'elle résout un problème très fondamental : permettre à l'IA de « vivre » sur la chaîne. Ne vous concentrez pas uniquement sur les fluctuations à court terme des lignes K, cette infrastructure capable de réellement supporter un trafic commercial ne se révélera qu'une fois la marée retirée. #vanar $VANRY
En regardant l'anxiété AI+Crypto sur l'écran, j'ai migré le nœud vers Vanar : un examen approfondi des faux besoins et de la véritable infrastructure.Hier soir, en regardant les frais de Gas et les données de Mempool qui sautaient sur l'écran, ce sentiment familier d'impuissance est de nouveau monté. C'est déjà la troisième fois que je ressens un effondrement logique cette année soi-disant « l'année de l'explosion du récit AI ». Le marché est inondé de divers projets monstres, prenant l'API de GPT-4, en mettant une coquille, et en lançant une crypto-monnaie, ils osent se dire être une blockchain AI. Ce spectacle absurde ressemble beaucoup à la folie ICO de 2017, sauf que le livre blanc d'alors a été remplacé par le lien Hugging Face d'aujourd'hui. En tant que développeur ayant lutté sur la chaîne pendant de nombreuses années, j'ai des normes d'évaluation extrêmement pragmatiques, voire froides. Je ne me soucie pas de savoir à quel point votre PPT est futuriste, je me préoccupe uniquement de savoir si mon code fonctionnera sans erreur à cause de l'envolée des frais de Gas, et si mon Agent peut réaliser une arbitrage sans autorisation en millisecondes. Pendant cette période, j'ai pratiquement testé toutes les blockchains dites « haute performance » sur le marché, du marché des frais locaux de Solana au mécanisme de sharding de Near, puis aux diverses modifications magiques d'OP Stack de Base, pour finalement tester par un coup de chance @Vanar . Cette sensation est très subtile, comme si vous étiez dans une discothèque bruyante de heavy metal, et que vous entriez soudainement dans un laboratoire de précision parfaitement insonorisé.

En regardant l'anxiété AI+Crypto sur l'écran, j'ai migré le nœud vers Vanar : un examen approfondi des faux besoins et de la véritable infrastructure.

Hier soir, en regardant les frais de Gas et les données de Mempool qui sautaient sur l'écran, ce sentiment familier d'impuissance est de nouveau monté. C'est déjà la troisième fois que je ressens un effondrement logique cette année soi-disant « l'année de l'explosion du récit AI ». Le marché est inondé de divers projets monstres, prenant l'API de GPT-4, en mettant une coquille, et en lançant une crypto-monnaie, ils osent se dire être une blockchain AI. Ce spectacle absurde ressemble beaucoup à la folie ICO de 2017, sauf que le livre blanc d'alors a été remplacé par le lien Hugging Face d'aujourd'hui.
En tant que développeur ayant lutté sur la chaîne pendant de nombreuses années, j'ai des normes d'évaluation extrêmement pragmatiques, voire froides. Je ne me soucie pas de savoir à quel point votre PPT est futuriste, je me préoccupe uniquement de savoir si mon code fonctionnera sans erreur à cause de l'envolée des frais de Gas, et si mon Agent peut réaliser une arbitrage sans autorisation en millisecondes. Pendant cette période, j'ai pratiquement testé toutes les blockchains dites « haute performance » sur le marché, du marché des frais locaux de Solana au mécanisme de sharding de Near, puis aux diverses modifications magiques d'OP Stack de Base, pour finalement tester par un coup de chance @Vanarchain . Cette sensation est très subtile, comme si vous étiez dans une discothèque bruyante de heavy metal, et que vous entriez soudainement dans un laboratoire de précision parfaitement insonorisé.
Merci professeur Phoque pour votre discours courageux❤️
Merci professeur Phoque pour votre discours courageux❤️
快乐的小海豹
·
--
📐🤦‍♂️ Analyse technique|Accusations de plagiat entre deux influenceurs populaires de Binance : preuve détaillée et texte original
1️⃣ Contexte et déclaration
Récemment, une accusation de plagiat a eu lieu sur Binance Square, 一位顶流发帖指控另一位顶流,举报给币安后被驳回,表达了强烈的失望感.
⓵ Texte plagié :
https://www.binance.com/zh-CN/square/post/35796825707177
⓶ Texte de plagiat présumé :
https://www.binance.com/zh-CN/square/post/35828295322393

Déclaration :
⓵ Je n'ai aucun lien personnel avec les deux parties, je suis simplement un internaute étranger à travers une connexion Internet.
⓶ Je publie uniquement par curiosité technique et un simple sens de la justice.
Ne vous laissez pas tromper par le concept RWA, ce qui manque vraiment aux institutions pour entrer, c'est cette clé Récemment, j'ai complètement décortiqué le document de la machine virtuelle Piecrust @Dusk_Foundation , et j'ai testé le dernier nœud de test. Pour être franc, la grande majorité des projets qui se présentent sous le drapeau RWA jouent essentiellement à un jeu d'enfant en mettant des actifs sur la chaîne dans une version 'hors ligne'. Un livre de comptes entièrement transparent comme celui d'Ethereum, même Goldman Sachs le verrait d'un mauvais œil ; qui voudrait exposer ses stratégies de trading et ses fonds aux yeux de tous ? Mais si on choisit de faire complètement dans la confidentialité pour créer une boîte noire, la SEC ne laissera sûrement pas passer cela, c'est la plus grande schizophrénie du secteur RWA actuel. J'ai fait le tour et seul le concept RegDeFi proposé par Dusk a un certain intérêt, car il n'applique pas des patchs au niveau de l'application comme le font ses concurrents, mais intègre directement la logique de conformité au niveau du protocole L1. La technologie clé ici est le protocole Citadel, qui résout le problème que je me posais depuis longtemps : la séparation de l'identité et des autorisations. En termes simples, je n'ai pas besoin de montrer ma carte d'identité à chaque DApp ; il me suffit de fournir une preuve à divulgation nulle pour prouver que 'j'ai le droit de trader'. Ce type de conception est bien plus astucieux que la solution d'Ondo qui maintient une lourde liste blanche au niveau des contrats intelligents, car cette dernière non seulement a un coût de maintenance élevé, mais sacrifie également l'interopérabilité. En revanche, l'architecture de Dusk, qui supporte nativement la conformité, pourrait réellement accueillir de gros capitaux. C'est comme si l'un installait une porte de sécurité sur une vieille maison, tandis que l'autre construisait directement avec des matériaux pare-balles ; la sécurité de base est radicalement différente. Cependant, durant le processus de test, j'ai aussi remarqué quelques petits problèmes : la documentation actuelle n'est pas encore suffisamment bonne pour les développeurs, surtout l'efficacité de la génération de preuves ZKP qui a un peu de mal à fonctionner sur des appareils bas de gamme, le ventilateur tourne comme un hélicoptère ; cette partie doit encore être peaufinée par l'équipe. L'évolution technologique est toujours brutale, et quand la confidentialité n'est plus une option mais une infrastructure, ce type de Layer 1 qui peut plaire à la fois aux régulateurs et aux géants de la confidentialité montrera sa véritable valeur. Ne vous concentrez pas seulement sur ces cryptomonnaies fantômes qui ne font que tweeter ; la technologie qui peut réellement être mise en œuvre évolue souvent dans des coins que personne ne remarque. #dusk $DUSK
Ne vous laissez pas tromper par le concept RWA, ce qui manque vraiment aux institutions pour entrer, c'est cette clé
Récemment, j'ai complètement décortiqué le document de la machine virtuelle Piecrust @Dusk , et j'ai testé le dernier nœud de test. Pour être franc, la grande majorité des projets qui se présentent sous le drapeau RWA jouent essentiellement à un jeu d'enfant en mettant des actifs sur la chaîne dans une version 'hors ligne'. Un livre de comptes entièrement transparent comme celui d'Ethereum, même Goldman Sachs le verrait d'un mauvais œil ; qui voudrait exposer ses stratégies de trading et ses fonds aux yeux de tous ? Mais si on choisit de faire complètement dans la confidentialité pour créer une boîte noire, la SEC ne laissera sûrement pas passer cela, c'est la plus grande schizophrénie du secteur RWA actuel. J'ai fait le tour et seul le concept RegDeFi proposé par Dusk a un certain intérêt, car il n'applique pas des patchs au niveau de l'application comme le font ses concurrents, mais intègre directement la logique de conformité au niveau du protocole L1.
La technologie clé ici est le protocole Citadel, qui résout le problème que je me posais depuis longtemps : la séparation de l'identité et des autorisations. En termes simples, je n'ai pas besoin de montrer ma carte d'identité à chaque DApp ; il me suffit de fournir une preuve à divulgation nulle pour prouver que 'j'ai le droit de trader'. Ce type de conception est bien plus astucieux que la solution d'Ondo qui maintient une lourde liste blanche au niveau des contrats intelligents, car cette dernière non seulement a un coût de maintenance élevé, mais sacrifie également l'interopérabilité. En revanche, l'architecture de Dusk, qui supporte nativement la conformité, pourrait réellement accueillir de gros capitaux. C'est comme si l'un installait une porte de sécurité sur une vieille maison, tandis que l'autre construisait directement avec des matériaux pare-balles ; la sécurité de base est radicalement différente. Cependant, durant le processus de test, j'ai aussi remarqué quelques petits problèmes : la documentation actuelle n'est pas encore suffisamment bonne pour les développeurs, surtout l'efficacité de la génération de preuves ZKP qui a un peu de mal à fonctionner sur des appareils bas de gamme, le ventilateur tourne comme un hélicoptère ; cette partie doit encore être peaufinée par l'équipe. L'évolution technologique est toujours brutale, et quand la confidentialité n'est plus une option mais une infrastructure, ce type de Layer 1 qui peut plaire à la fois aux régulateurs et aux géants de la confidentialité montrera sa véritable valeur. Ne vous concentrez pas seulement sur ces cryptomonnaies fantômes qui ne font que tweeter ; la technologie qui peut réellement être mise en œuvre évolue souvent dans des coins que personne ne remarque. #dusk $DUSK
Déchirer le cache-sexe de RWA : à l'ère du 'nudisme' sur la chaîne, le Piecrust VM de Dusk et l'architecture de confidentialité conforme sont-ils vraiment des faux problèmes ?Ces derniers jours, je fixe l'écran en regardant les données d'Etherscan, voyant cette série d'interactions d'adresses sans aucune dissimulation, j'ai soudain eu un sentiment d'absurdité, comme si je courais nu dans un quartier animé. Nous criions toute la journée à propos de la souveraineté du Web3, mais nous n'avons même pas le plus basique des cache-sexe. Tous les transferts d'actifs, les interactions DeFi, les coûts de détention sur la chaîne sont comme des oignons pelés, piquants pour les yeux et sans dignité. C'est dans cette période d'anxiété que j'ai rouvert le dépôt GitHub de @Dusk_Foundation et les documents techniques récents, et même tiré leur code Piecrust VM pour l'exécuter, c'était une sensation subtile, comme si je mettais des écouteurs antibruit dans une pièce pleine de bruit. Je ne prévois pas de parler de prix de crypto-monnaies, ni de rêver de multiplications par cent ou mille. Aujourd'hui, je veux aborder, du point de vue d'un vétéran technique, simplement l'architecture logique, les différences entre les produits concurrents et l'expérience réelle, pour discuter de savoir si Dusk est vraiment en train de construire une infrastructure solide ou s'il s'agit d'un château en Espagne qui n'a même pas de fondations sous le grand terme RWA.

Déchirer le cache-sexe de RWA : à l'ère du 'nudisme' sur la chaîne, le Piecrust VM de Dusk et l'architecture de confidentialité conforme sont-ils vraiment des faux problèmes ?

Ces derniers jours, je fixe l'écran en regardant les données d'Etherscan, voyant cette série d'interactions d'adresses sans aucune dissimulation, j'ai soudain eu un sentiment d'absurdité, comme si je courais nu dans un quartier animé. Nous criions toute la journée à propos de la souveraineté du Web3, mais nous n'avons même pas le plus basique des cache-sexe. Tous les transferts d'actifs, les interactions DeFi, les coûts de détention sur la chaîne sont comme des oignons pelés, piquants pour les yeux et sans dignité. C'est dans cette période d'anxiété que j'ai rouvert le dépôt GitHub de @Dusk et les documents techniques récents, et même tiré leur code Piecrust VM pour l'exécuter, c'était une sensation subtile, comme si je mettais des écouteurs antibruit dans une pièce pleine de bruit. Je ne prévois pas de parler de prix de crypto-monnaies, ni de rêver de multiplications par cent ou mille. Aujourd'hui, je veux aborder, du point de vue d'un vétéran technique, simplement l'architecture logique, les différences entre les produits concurrents et l'expérience réelle, pour discuter de savoir si Dusk est vraiment en train de construire une infrastructure solide ou s'il s'agit d'un château en Espagne qui n'a même pas de fondations sous le grand terme RWA.
La valeur a chuté de 90 % et peut encore s'ancrer à 11 milliards de dollars en TVL, @Plasma est-elle morte ou vivante ? Regardant la bougie K presque verticale de la chute de XPL, la plupart des gens ont probablement décidé de s'en aller, après tout, qui oserait attraper un couteau qui tombe après une chute de près de 90 % ? Mais je suis un peu têtu, plus le sentiment du marché est à son point le plus bas, plus j'ai envie de fouiller dans le code et les données de la chaîne, pour voir s'il s'agit d'un mauvais coup. Récemment, j'ai beaucoup souffert des frais de Gas sur le réseau principal Ethereum, transférer quelques dizaines de dollars en U a disparu, ce qui rend le mécanisme Paymaster de @Plasma un peu intéressant. Auparavant, je pensais toujours que le « zéro Gas » était un faux concept, ou un argument marketing subventionné par le projet, mais après test, les transferts de stablecoins sont effectivement devenus imperceptibles, ce qui ressemble à l'utilisation d'Alipay, supprimant directement le seuil le plus anti-humain du Web3 qui exigeait d'acheter d'abord des tokens natifs pour faire du Gas. En revanche, ceux qui sont encore en train de rivaliser pour le TPS en L2, s'ils ne résolvent pas cette expérience de paiement du Gas, auront du mal à faire entrer du monde extérieur, c'est ainsi que devrait se présenter l'Adoption de Masse. Bien que l'architecture technique soit compatible avec l'EVM, le coût de migration pour les développeurs n'est pas élevé, mais ce qui me donne vraiment un peu de confiance, c'est qu'elle ancre régulièrement l'état sur le réseau Bitcoin. Dans le contexte actuel de volatilité, emprunter la sécurité de BTC comme caution est une approche astucieuse. L'argent sur la chaîne ne ment pas, le pool SyrupUSDT sur Maple Finance a verrouillé 11 milliards de dollars, cette taille n'est absolument pas le résultat d'un petit investisseur, les institutions sont prêtes à ancrer de grosses sommes ici, ce qui montre un consensus sur la sécurité de la couche sous-jacente. De plus, avec l'intégration des cartes Rain et d'Oobit au réseau Visa, ces scénarios pratiques, et même la création d'un stablecoin en euros conforme à la réglementation MiCA, semblent vouloir emprunter le chemin du paiement conforme, ce qui, dans un contexte de réglementation de plus en plus stricte, devient un atout. Bien sûr, les points à critiquer sont également évidents, les nœuds validateurs actuels sont encore trop centralisés, en d'autres termes, l'équipe contrôle toujours le marché, il faut en avoir conscience, le degré de décentralisation insuffisant reste toujours un risque. L'écosystème est en effet aussi mince qu'une feuille de papier, à part les transferts et les prêts, il n'y a pas vraiment de Dapp intéressants, contrairement à Solana où les tokens de la terre volent partout avec tant d'animation. À ce stade, il ressemble davantage à un élève surdoué mais déséquilibré, l'infrastructure est bien établie mais manque d'applications ludiques pour retenir les utilisateurs. Le Web3 a crié pendant tant d'années pour se concrétiser, mais au final, il faut voir qui peut permettre aux mamies de transférer sans contrainte. #plasma $XPL
La valeur a chuté de 90 % et peut encore s'ancrer à 11 milliards de dollars en TVL, @Plasma est-elle morte ou vivante ?
Regardant la bougie K presque verticale de la chute de XPL, la plupart des gens ont probablement décidé de s'en aller, après tout, qui oserait attraper un couteau qui tombe après une chute de près de 90 % ? Mais je suis un peu têtu, plus le sentiment du marché est à son point le plus bas, plus j'ai envie de fouiller dans le code et les données de la chaîne, pour voir s'il s'agit d'un mauvais coup. Récemment, j'ai beaucoup souffert des frais de Gas sur le réseau principal Ethereum, transférer quelques dizaines de dollars en U a disparu, ce qui rend le mécanisme Paymaster de @Plasma un peu intéressant. Auparavant, je pensais toujours que le « zéro Gas » était un faux concept, ou un argument marketing subventionné par le projet, mais après test, les transferts de stablecoins sont effectivement devenus imperceptibles, ce qui ressemble à l'utilisation d'Alipay, supprimant directement le seuil le plus anti-humain du Web3 qui exigeait d'acheter d'abord des tokens natifs pour faire du Gas. En revanche, ceux qui sont encore en train de rivaliser pour le TPS en L2, s'ils ne résolvent pas cette expérience de paiement du Gas, auront du mal à faire entrer du monde extérieur, c'est ainsi que devrait se présenter l'Adoption de Masse.
Bien que l'architecture technique soit compatible avec l'EVM, le coût de migration pour les développeurs n'est pas élevé, mais ce qui me donne vraiment un peu de confiance, c'est qu'elle ancre régulièrement l'état sur le réseau Bitcoin. Dans le contexte actuel de volatilité, emprunter la sécurité de BTC comme caution est une approche astucieuse. L'argent sur la chaîne ne ment pas, le pool SyrupUSDT sur Maple Finance a verrouillé 11 milliards de dollars, cette taille n'est absolument pas le résultat d'un petit investisseur, les institutions sont prêtes à ancrer de grosses sommes ici, ce qui montre un consensus sur la sécurité de la couche sous-jacente. De plus, avec l'intégration des cartes Rain et d'Oobit au réseau Visa, ces scénarios pratiques, et même la création d'un stablecoin en euros conforme à la réglementation MiCA, semblent vouloir emprunter le chemin du paiement conforme, ce qui, dans un contexte de réglementation de plus en plus stricte, devient un atout.
Bien sûr, les points à critiquer sont également évidents, les nœuds validateurs actuels sont encore trop centralisés, en d'autres termes, l'équipe contrôle toujours le marché, il faut en avoir conscience, le degré de décentralisation insuffisant reste toujours un risque. L'écosystème est en effet aussi mince qu'une feuille de papier, à part les transferts et les prêts, il n'y a pas vraiment de Dapp intéressants, contrairement à Solana où les tokens de la terre volent partout avec tant d'animation. À ce stade, il ressemble davantage à un élève surdoué mais déséquilibré, l'infrastructure est bien établie mais manque d'applications ludiques pour retenir les utilisateurs. Le Web3 a crié pendant tant d'années pour se concrétiser, mais au final, il faut voir qui peut permettre aux mamies de transférer sans contrainte. #plasma $XPL
Alors que nous calculons encore pour économiser des frais de gaz, la guerre des chaînes de paiement a en réalité changé de visage : un retour approfondi sur la véritable expérience et les ambitions après la reconstruction de Plasma.À trois heures du matin, fixant l'écran sur ce transfert de USDC bloqué depuis un moment sur Arbitrum, j'ai soudain eu un sentiment d'absurdité extrême. Nous sommes en 2026, et nous, les soi-disant autochtones du Web3, sommes encore en train de jouer avec quelques dollars de frais de gaz et des pools de mémoire encombrés. Ce qui est encore plus ridicule, c'est que pour transférer ces stablecoins, nous devons toujours vérifier si le solde de notre portefeuille en ETH est suffisant. Une telle expérience déchirante dans le monde de la finance traditionnelle serait simplement une blague. C'est seulement dans ce cercle, où le récit de la "décentralisation" est devenu une contrainte, que les gens considèrent cette interaction inhumaine comme quelque chose de normal. Justement ces derniers jours, j'ai été en train de tester le nouveau réseau Plasma, et cette comparaison est vraiment trop forte, tellement forte que je dois enregistrer ces observations pleines de préjugés et d'émotions personnelles. Ne parlons pas des prix des cryptomonnaies, discutons seulement de cette maudite infrastructure et de sa capacité à fonctionner.

Alors que nous calculons encore pour économiser des frais de gaz, la guerre des chaînes de paiement a en réalité changé de visage : un retour approfondi sur la véritable expérience et les ambitions après la reconstruction de Plasma.

À trois heures du matin, fixant l'écran sur ce transfert de USDC bloqué depuis un moment sur Arbitrum, j'ai soudain eu un sentiment d'absurdité extrême. Nous sommes en 2026, et nous, les soi-disant autochtones du Web3, sommes encore en train de jouer avec quelques dollars de frais de gaz et des pools de mémoire encombrés. Ce qui est encore plus ridicule, c'est que pour transférer ces stablecoins, nous devons toujours vérifier si le solde de notre portefeuille en ETH est suffisant. Une telle expérience déchirante dans le monde de la finance traditionnelle serait simplement une blague. C'est seulement dans ce cercle, où le récit de la "décentralisation" est devenu une contrainte, que les gens considèrent cette interaction inhumaine comme quelque chose de normal. Justement ces derniers jours, j'ai été en train de tester le nouveau réseau Plasma, et cette comparaison est vraiment trop forte, tellement forte que je dois enregistrer ces observations pleines de préjugés et d'émotions personnelles. Ne parlons pas des prix des cryptomonnaies, discutons seulement de cette maudite infrastructure et de sa capacité à fonctionner.
Tout le monde crie à la blockchain AI, en grattant la surface, je vois juste un revendeur de puissance de calcul. L'écran est rempli de AI+DePIN, ce qui fait mal à la tête. Je tiens quelques soi-disant pièces AI à la mode, mais en les essayant, cette sensation de lenteur me donne envie de frapper le clavier. La plupart des projets, avec leur soi-disant récit AI, se résument à revendre la puissance de calcul de NVIDIA, en créant une plateforme de location décentralisée. Cela est à des années-lumière de l'intelligence native Web3. Je me concentre sur... @Vanar et j'ai grignoté leur documentation technique pendant deux jours, découvrant que leur intégration TensorRT a quelque chose de particulier, cette opération est plus vaste que ce que j'imaginais. Nous avons tendance à penser que la blockchain publique est juste un livre de comptes, mais l'inférence des modèles AI nécessite une concurrence en millisecondes, ces deux logiques sont naturellement incompatibles. Regardez les ETH L2 actuels ou même Solana, bien que le TPS soit élevé, mais si l'on met un modèle de 7B paramètres pour voir ce qu'il donne ? Rien que le coût du Gas pourrait faire faillite à l'équipe du projet. C'est un peu comme si vous deviez conduire un tracteur sur une piste de F1, la base n'est pas correcte. Vanar est intelligent car ce n'est pas une solution forcée, mais utilise CUDA-X AI pour créer une couche de calcul dédiée, cette architecture vise clairement à résoudre le problème des interactions à haute fréquence des tâches d'inférence depuis le bas, et pas seulement à créer une base de données. Surtout ce niveau de mémoire sémantique Neutron, cette astuce est assez incroyable. Il compresse d'énormes données d'entraînement en graines lisibles sur la chaîne, résolvant ainsi le problème le plus ennuyeux du coût de traitement des données. Si cela n'est pas résolu, les interactions des Agents AI sur la chaîne ne sont qu'une fausse promesse, après tout, personne ne peut se permettre de payer pour stocker chaque mot sur la chaîne. En comparaison, beaucoup de concurrents sur le marché sont encore préoccupés par la manière de rendre les données plus dispersées, tandis que Vanar réfléchit déjà à comment alléger les données, ce sens technique est effectivement plus aigu. Si l'économie des Agents explose vraiment à l'avenir, ce sera certainement un règlement automatique entre machines, et non pas une signature manuelle sur un petit portefeuille. L'architecture de Vanar, qui a une telle connexion avec Google Cloud et NVIDIA, est clairement orientée vers un débit conforme aux entreprises. Ne vous concentrez pas seulement sur les fluctuations des graphiques K, ceux qui peuvent vraiment faire fonctionner la charge AI à l'échelle de l'infrastructure seront l'Alpha du prochain cycle, quant à ceux qui sont encore en train de vendre des nœuds avec des projets PPT, il est temps de faire un bon sommeil. #vanar $VANRY
Tout le monde crie à la blockchain AI, en grattant la surface, je vois juste un revendeur de puissance de calcul. L'écran est rempli de AI+DePIN, ce qui fait mal à la tête. Je tiens quelques soi-disant pièces AI à la mode, mais en les essayant, cette sensation de lenteur me donne envie de frapper le clavier. La plupart des projets, avec leur soi-disant récit AI, se résument à revendre la puissance de calcul de NVIDIA, en créant une plateforme de location décentralisée. Cela est à des années-lumière de l'intelligence native Web3. Je me concentre sur... @Vanarchain et j'ai grignoté leur documentation technique pendant deux jours, découvrant que leur intégration TensorRT a quelque chose de particulier, cette opération est plus vaste que ce que j'imaginais. Nous avons tendance à penser que la blockchain publique est juste un livre de comptes, mais l'inférence des modèles AI nécessite une concurrence en millisecondes, ces deux logiques sont naturellement incompatibles. Regardez les ETH L2 actuels ou même Solana, bien que le TPS soit élevé, mais si l'on met un modèle de 7B paramètres pour voir ce qu'il donne ? Rien que le coût du Gas pourrait faire faillite à l'équipe du projet. C'est un peu comme si vous deviez conduire un tracteur sur une piste de F1, la base n'est pas correcte. Vanar est intelligent car ce n'est pas une solution forcée, mais utilise CUDA-X AI pour créer une couche de calcul dédiée, cette architecture vise clairement à résoudre le problème des interactions à haute fréquence des tâches d'inférence depuis le bas, et pas seulement à créer une base de données. Surtout ce niveau de mémoire sémantique Neutron, cette astuce est assez incroyable. Il compresse d'énormes données d'entraînement en graines lisibles sur la chaîne, résolvant ainsi le problème le plus ennuyeux du coût de traitement des données. Si cela n'est pas résolu, les interactions des Agents AI sur la chaîne ne sont qu'une fausse promesse, après tout, personne ne peut se permettre de payer pour stocker chaque mot sur la chaîne. En comparaison, beaucoup de concurrents sur le marché sont encore préoccupés par la manière de rendre les données plus dispersées, tandis que Vanar réfléchit déjà à comment alléger les données, ce sens technique est effectivement plus aigu. Si l'économie des Agents explose vraiment à l'avenir, ce sera certainement un règlement automatique entre machines, et non pas une signature manuelle sur un petit portefeuille. L'architecture de Vanar, qui a une telle connexion avec Google Cloud et NVIDIA, est clairement orientée vers un débit conforme aux entreprises. Ne vous concentrez pas seulement sur les fluctuations des graphiques K, ceux qui peuvent vraiment faire fonctionner la charge AI à l'échelle de l'infrastructure seront l'Alpha du prochain cycle, quant à ceux qui sont encore en train de vendre des nœuds avec des projets PPT, il est temps de faire un bon sommeil. #vanar $VANRY
Ne vous laissez pas tromper par des TPS élevés : la vérité brutale après avoir testé un AI Agent sur Vanar et SolanaAu cours de la dernière semaine, je n'ai presque pas bien dormi, mon esprit étant rempli de préoccupations liées à la refonte de code et à l'optimisation des frais de gaz. La raison est simple : bien que ce cycle de marché haussier crie que l'IA et la cryptomonnaie sont au cœur des tendances, 90 % des projets sur le marché ne sont que des façades. En voyant cette multitude de plateformes prétendument d'IA, il s'agit en réalité de machines à émettre des jetons, qui ne diffèrent en rien des projets de deux ans en arrière. En tant que personne ayant navigué dans ce domaine pendant quelques années, ayant écrit des contrats et développé des stratégies quantitatives, je ne peux tout simplement pas tolérer cette insulte à l'intelligence. J'ai donc décidé de me retrousser les manches pour voir si, sur l'infrastructure actuelle, il était possible de créer un véritable agent intelligent sur blockchain doté de « mémoire à long terme » et de « capacité de prise de décision autonome ». Pour rendre cette expérience plus comparative, j'ai choisi Solana, qui est actuellement présenté comme le plus performant, ainsi que @Vanar , qui commence à susciter de l'intérêt dans la communauté des développeurs. Le résultat de cette expérience a complètement ébranlé mes préjugés, me donnant même une perspective totalement différente sur le paysage concurrentiel de l'ensemble des L1.

Ne vous laissez pas tromper par des TPS élevés : la vérité brutale après avoir testé un AI Agent sur Vanar et Solana

Au cours de la dernière semaine, je n'ai presque pas bien dormi, mon esprit étant rempli de préoccupations liées à la refonte de code et à l'optimisation des frais de gaz. La raison est simple : bien que ce cycle de marché haussier crie que l'IA et la cryptomonnaie sont au cœur des tendances, 90 % des projets sur le marché ne sont que des façades. En voyant cette multitude de plateformes prétendument d'IA, il s'agit en réalité de machines à émettre des jetons, qui ne diffèrent en rien des projets de deux ans en arrière. En tant que personne ayant navigué dans ce domaine pendant quelques années, ayant écrit des contrats et développé des stratégies quantitatives, je ne peux tout simplement pas tolérer cette insulte à l'intelligence. J'ai donc décidé de me retrousser les manches pour voir si, sur l'infrastructure actuelle, il était possible de créer un véritable agent intelligent sur blockchain doté de « mémoire à long terme » et de « capacité de prise de décision autonome ». Pour rendre cette expérience plus comparative, j'ai choisi Solana, qui est actuellement présenté comme le plus performant, ainsi que @Vanarchain , qui commence à susciter de l'intérêt dans la communauté des développeurs. Le résultat de cette expérience a complètement ébranlé mes préjugés, me donnant même une perspective totalement différente sur le paysage concurrentiel de l'ensemble des L1.
Heureusement, après avoir acheté, je me suis soudainement rappelé cette phrase : "Tu dois écouter Sun Ge, n'approche pas des projets recommandés par Sun Ge, retire-toi immédiatement."
Heureusement, après avoir acheté, je me suis soudainement rappelé cette phrase : "Tu dois écouter Sun Ge, n'approche pas des projets recommandés par Sun Ge, retire-toi immédiatement."
Connectez-vous pour découvrir d’autres contenus
Découvrez les dernières actus sur les cryptos
⚡️ Prenez part aux dernières discussions sur les cryptos
💬 Interagissez avec vos créateurs préféré(e)s
👍 Profitez du contenu qui vous intéresse
Adresse e-mail/Nº de téléphone
Plan du site
Préférences en matière de cookies
CGU de la plateforme