Frères, j'ai entendu dire qu'un ancien du secteur a encore pris des scripts pour laver la première place, et dès qu'il ouvre la bouche, c'est pour parler de cette collaboration et de celle-là. Au final, il s'est avéré qu'il collaborait avec Doubao pour laver les scripts des autres, et les scores qu'il se vantait d'avoir étaient en fait manipulés. Es-tu Blue Moon pour être aussi doué dans le lavage ? Je ne nommerai personne ici, à vous de deviner en regardant le classement 😂
L'environnement de création de la place est à peu près comme ça, nous, ces créateurs ordinaires, ne faisons que fournir du matériel aux streamers. J'ai entendu dire que tu faisais encore quelque chose d'original, ne rigole pas, va te coucher après t'être lavé, le plagiat est le seul chemin de la place, ceux qui créent de l'original sont déjà morts de faim. Les streamers ont des dizaines de milliers de vues en 10 minutes, si tu ne stream pas, je ne me serais pas rendu compte à quel point c'est excessif, même le titre ne change pas, haha.
Je n'aime pas vraiment utiliser des termes comme « garanti » ou « inévitable ».\nMais je vais regarder trois choses : est-ce un site officiel, est-ce une première exploitation, est-ce que des institutions professionnelles ont parié à l'avance ?\nminiARTX est officiellement en ligne aujourd'hui, et a placé l'œuvre de Fuyuan Zhou « Coral Realm » $CRL dans la première exploitation ;\nL'artiste n'est même pas diplômé, la galerie est déjà en train de se battre ; l'œuvre a une prévision de croissance de 4 à 5 fois, plus un mécanisme de 14 fois.\nLe type « haut de gamme dès le départ, sans période d'essai à bas prix » tire le meilleur parti de cette structure.\nPour le reste, je n'ai pas besoin d'en dire plus.\nCe soir, $CRL commence les souscriptions, il ne faut absolument pas rater ça\n#Ultiland $ARTX \n\n\n#miniARTX #ARToken
Ignorer le bruit des K-lines, une réflexion froide et une analyse de la vérité et de la fausse narration sur les paiements Plasma L'atmosphère du marché est effectivement agitée, tout le monde se précipite vers l'IA et les MEME avec les yeux rouges, regarder un instant le XPL qui a chuté de près de 90 % dans le compte, ne ressentir aucune vague à l'intérieur serait faux. Mais j'aime vraiment me perdre dans des détails, plus personne ne crie des signaux, plus je dois retourner dans le livre blanc. Pour être honnête, alors que de nombreux Layer 2 s'occupent encore de « marcher sur des pieds gauche et droit » avec leurs systèmes de points, le mécanisme de Paymaster @Plasma est vraiment l'une des rares choses qui peuvent être mises en œuvre. Avez-vous essayé de transférer des U à des amis en dehors du cercle ? Il faut d'abord leur faire obtenir un peu d'ETH pour le Gas, c'est tout simplement anti-humain, alors que la sensation fluide de XPL utilisant directement des stablecoins pour couvrir les frais de transaction me rappelle un peu les paiements d'Alipay. À ce sujet, même des L2 comme Optimism ou Arbitrum, qui sont en tête, sont encore un peu en retard en termes d'expérience utilisateur, la barrière d'entrée reste là. Regardons les données en chaîne, le TVL du pool de prêt de Maple Finance a discrètement grimpé à 1,1 milliard de dollars, ce qui est probablement des fonds institutionnels qui restent là à gagner des intérêts, après tout, les cartes Rain et Oobit connectées au réseau Visa couvrent des millions de commerçants, ce genre de scénario de paiement concret a beaucoup plus de poids que ces jetons de gouvernance d'air. Mais je ne fais pas de la publicité aveugle, les défauts majeurs de ce projet sont également clairement visibles, la concentration des nœuds de validation est élevée, pour être franc, cela ressemble à un serveur centralisé, la sécurité repose entièrement sur cette validation périodique du réseau BTC. L'écosystème est encore plus désolé, à part un ou deux protocoles DeFi, il n'y a même pas de projet solide, il est pratiquement impossible de faire quelque chose de significatif sur cette chaîne. Mais en y réfléchissant, puisque le stablecoin conforme de l'UE, l'EUROP a déjà été intégré, cela montre que les porteurs de projet n'ont jamais pensé à suivre la route des flux, ils parient plutôt sur l'avenir des paiements conformes. Dans ce marché rempli de bruit, je pense qu'il vaut mieux éviter de s'emparer de ces histoires évanescentes à des niveaux élevés, plutôt que de se cacher dans des coins ignorés avec cette infrastructure qui résout réellement la douleur des « difficultés de transfert », bien qu'il y ait des risques, la logique est claire. #plasma $XPL
Le jeu de la fin de la chaîne de paiement : réévaluation de la valeur froide des architectures propriétaires au milieu des cadavres des L2 génériques
En regardant les quelques transactions du réseau Layer 2 que je devais interagir pour réclamer l'airdrop sur l'écran, j'ai soudain ressenti une fatigue sans précédent. Cette fatigue ne provenait pas des fluctuations des frais de Gas, mais d'un profond nihilisme technologique. Le monde de la cryptographie est désormais trop encombré, avec une nouvelle chaîne qui prétend résoudre le triangle impossible tous les quelques jours, alors qu'il ne s'agit en réalité que de copier-coller le code de Geth et de modifier quelques paramètres. Cela ressemble à regarder un groupe de clones portant des gilets de différentes couleurs se battre dans la même pièce bondée, jusqu'à ce que je réoriente mon attention vers @Plasma ou plutôt vers XPL. Cette fatigue esthétique technologique s'est légèrement atténuée. Je ne suis pas en train de vanter la perfection de ce projet, au contraire, son modèle économique problématique et la désolation précoce de son écosystème m'ont souvent poussé à envisager de liquider mes positions. Mais chaque fois que je réalise une transaction et que j'examine la rapidité de réponse de ce client Reth sous-jacent, je suis de nouveau attiré par cette beauté glaciale qui frôle l'industriel. Cette attitude ambivalente a marqué mon cycle de détention des trois derniers mois et m'a amené à réfléchir à quel type d'infrastructure pourrait survivre à l'adoption massive imminente.
Refuser la fausse prospérité, discutons de pourquoi la plupart des soi-disant chaînes de blocs AI ne peuvent même pas exécuter un Agent Ces derniers jours, je reste figé devant le tableau, rempli de pièces conceptuelles AI qui volent dans tous les sens, mais pour être honnête, il y a peu de projets capables d'incarner "l'intelligence" dans leur base. J'ai de nouveau parcouru la documentation technique de @Vanarchain , et plus je regarde, plus je pense que le marché actuel est rempli d'asymétries d'information. Tout le monde se bat pour le TPS, comme si tant que la vitesse est suffisante, l'IA pourrait décoller sur la chaîne, c'est tout simplement la plus grande erreur. Imaginez que vous déployez un Agent complexe sur une L1 réputée pour son haut débit, rien que le coût du stockage d'état et des appels de contexte en Gaz pourrait vous faire faillite, sans parler de cette machine virtuelle qui n'est pas optimisée pour le calcul non déterministe, c'est tout simplement une catastrophe. Le sentiment que j'ai avec Vanar est complètement différent, ce n'est pas un monstre cousu qui essaie de mettre un moteur dans une charrette, mais il résout dès le départ le problème de "calcul" et "mémoire". Surtout avec ce niveau Neutron, je pense même qu'il est plus séduisant que la chaîne principale elle-même. Il résout un point de douleur central : les données sur la chaîne sont généralement "mortes", sans sémantique, tandis que Neutron permet aux contrats de comprendre la logique derrière les données. C'est complètement différent de ces "faux projets AI" qui ne savent faire tourner des modèles que hors chaîne et stocker un hachage sur la chaîne. La plupart des produits concurrents semblent encore s'en tenir à des oracles simples pour alimenter les prix, ou à simplement profiter de la popularité de Nvidia, tandis que Vanar crée un environnement d'inférence natif sur la chaîne. Il y a aussi un point très intéressant, si vous faites attention aux chiffres, vous découvrirez que le modèle économique de Vanar est en réalité extrêmement favorable aux interactions AI à haute fréquence. Pour les développeurs, ce que nous voulons ce n'est pas des faux TPS de centaines de milliers par seconde, mais un environnement d'exécution capable de mener des inférences, de stocker des mémoires, et conforme. Beaucoup de gens ne prennent pas au sérieux le récit zéro carbone, mais dans le contexte de l'explosion de la consommation énergétique de l'entraînement des grands modèles, cela représente en fait un ticket d'entrée pour de nombreux géants du Web2. Ne vous laissez pas égarer par le bruit du marché, lorsque la marée se retire, il faudra voir qui porte vraiment un pantalon, seule l'infrastructure capable de porter l'économie machine mérite la prochaine grande montée. #vanar $VANRY
Dire adieu à l'illusion : dans l'architecture de Vanar, j'ai enfin senti l'odeur industrielle que le Web3 devrait avoir
À cet instant, en fixant les frais de Gas qui sautent continuellement sur l'écran et les journaux d'erreurs de plusieurs agents IA, je suis plongé dans une profonde fatigue. Cette fatigue ne provient pas de nuits blanches, mais d'une déchirure dans ma compréhension technique. Au cours de cette semaine, j'ai essayé, comme un paranoïaque, de déployer un ensemble de logiques d'automatisation de base sur la Layer 2 d'Ethereum et sur Solana, mais le résultat a été un véritable désastre. Parmi les blockchains qui crient 'pilotées par l'IA', en grattant la surface des sites web et des livres blancs, ce qui tourne en dessous reste la même vieille logique conçue sur mesure pour le DeFi. Juste au moment où je m'apprêtais à éteindre mon ordinateur et à admettre que le récit soi-disant IA de cette industrie n'était qu'une autre bulle de capital, j'ai inexplicablement ouvert la documentation des développeurs de @Vanarchain . En un coup d'œil, mes nerfs, qui étaient en détresse, ont été réveillés par une intuition d'ingénieur, longtemps oubliée. Je ne prévois pas de vous raconter des histoires de cryptomonnaies à cent fois le prix, je veux juste discuter de pourquoi Vanar me donne un sentiment de réalité éloigné des goûts bas de gamme dans ce marché rempli de bruit, et comment il a durement frappé le visage de ces soi-disant blockchains haute performance.
Tout le monde crie sur le récit de RWA de milliers de milliards, mais personne ne parle de l'embarras de l"exposition" des institutions. Récemment, en révisant la piste RWA, j'ai découvert un phénomène très intéressant : le marché se concentre sur les actions de BlackRock, tout en négligeant la logique fondamentale la plus mortelle des infrastructures. L'environnement actuel des chaînes publiques est tout simplement un champ de bataille pour les institutions financières traditionnelles, soit elles se dévoilent complètement comme Ethereum, où toutes les stratégies de trading et positions sont visibles sur la chaîne, soit elles créent une chaîne autorisée pour fonctionner comme un réseau local. Ces derniers jours, j'ai approfondi le livre blanc technique de @Dusk et je me suis rendu compte que ces gens ont un point d'entrée un peu délicat : ils ne se contentent pas de mettre des actifs sur la chaîne, mais cherchent à résoudre le paradoxe apparemment contradictoire de "vouloir être conforme sans être exposé". Contrairement à des projets comme Ondo ou Centrifuge qui s'attaquent à la couche d'application, Dusk intervient directement au niveau du protocole Layer 1. J'ai pris le temps d'exécuter leur code de machine virtuelle Piecrust, pour être honnête, la barrière d'entrée est un peu élevée, mais la logique est vraiment impressionnante. Leur protocole Citadel transforme le KYC en preuve à connaissance nulle non interactive, c'est comme si je n'avais pas besoin de montrer ma pièce d'identité sur la table pour que tout le monde voie mon adresse en entrant dans un bar, mais que je puisse simplement présenter une preuve mathématique "d'adulte". Ce type de conformité de confidentialité supportée nativement, comparé aux mélangeurs de confidentialité externes sur Ethereum, offre une sécurité d'un tout autre niveau. Cependant, il faut le dire, bien que la technologie soit séduisante, l'expérience réelle présente des frictions. Lors de mes interactions sur le réseau de test, j'ai clairement ressenti que la génération locale de preuves à connaissance nulle exigeait une certaine puissance matérielle, et il y avait parfois des retards dans la génération de preuves, ce qui représente un défi non négligeable pour les teneurs de marché en trading à haute fréquence. De plus, l'architecture indépendante Layer 1 de Dusk doit résoudre le problème de l'interopérabilité des actifs avec d'autres écosystèmes, sinon cela pourrait facilement devenir une île technologique très performante. Mais en revanche, si ce modèle de RegDeFi peut vraiment fonctionner, il offre aux institutions un sentiment de sécurité que les chaînes publiques EVM ne peuvent pas fournir. Après tout, pour ces vieux riches de Wall Street, au-delà du coût du Gas, ils se soucient davantage de savoir si leurs cartes de trading seront diffusées en direct sur le réseau en raison d'audits de conformité. Cette pensée d'intégrer la logique réglementaire dans le code de base est probablement la véritable réponse pour la deuxième moitié de RWA. #dusk $DUSK
Qui nage nu, qui construit des bateaux : au-delà du bruit des prix, reconstruire ma compréhension de la barrière technologique de Dusk
Ces derniers jours, en fixant l'écran sur les variations incessantes des chandeliers, je me sens étrangement calme, cette tranquillité provient d'une intuition presque obsessionnelle : nous sommes à un tournant étrange dans l'histoire des cryptomonnaies. Le récit de ce cycle haussier est extrêmement fragmenté, d'un côté, les MEME coins créent des mythes de richesse en multipliant par cent en une journée sur Solana, de l'autre côté, les VC coins désespèrent les petits investisseurs dans le piège d'une surévaluation à faible circulation. Ce sentiment de fragmentation m'oblige à réévaluer les infrastructures qui tentent réellement de résoudre les problèmes du secteur. Lorsque je détourne mon regard de ces bruyants parcours L2 et que je revisite les enregistrements de soumission de code récents de Dusk Network sur Github, une excitation oubliée refait surface, cette sensation est similaire à celle que j'ai ressentie la première fois que j'ai compris le principe des contrats intelligents Ethereum, réalisant que certaines choses fondamentales sont en train d'être modifiées. Dusk n'est pas un projet qui crie des conseils d'achat, même son marketing sur Twitter semble un peu maladroit, mais c'est précisément cette maladresse qui m'a permis de voir l'ombre de la culture des ingénieurs. Dans cette voie saturée d'actifs du monde réel (RWA), la grande majorité des projets se contentent de simple mise en chaîne d'actifs, c'est-à-dire de créer un SPV et d'émettre un token, mais @Dusk s'attaque à des choses plus fondamentales. Ils essaient de construire un Layer 1 qui respecte les exigences de conformité tout en protégeant la vie privée des utilisateurs grâce à des preuves à divulgation nulle de connaissance, cela semble être une sorte de cupidité à vouloir tout avoir, mais après avoir étudié attentivement l'architecture de la machine virtuelle Piecrust, je réalise qu'ils ont peut-être vraiment réussi.
Récemment, regarder le marché me donne mal à la tête, un écran entier de L2 se vante de son TPS de plusieurs milliers, comme si nous manquions de cette dizaine de millisecondes de vitesse de confirmation. En réalité, pour nous, les anciens de la chaîne, ce qui nous décourage le plus, c'est toujours ce maudit frais de Gas. Chaque fois que j'essaie de transférer un peu de stablecoin, je découvre que je n'ai pas assez d'ETH dans mon portefeuille et je dois aller en acheter spécifiquement. Cette logique, où l'on doit creuser un puits juste pour boire de l'eau, est tout simplement la plus grande blague du Web3. C'est aussi pourquoi, même si la tendance des prix d'XPL me fait peur, je suis toujours prêt à consacrer du temps à tester le réseau @Plasma , après tout, l'expérience zéro Gas mise en place par le mécanisme Paymaster est vraiment la chose qui se rapproche le plus de la fluidité du Web2 dans le domaine des paiements. Sur le plan technique, je n'aime pas trop faire de la théorie, mais l'opération Plasma est assez pragmatique. Une compatibilité totale avec l'EVM signifie que les développeurs n'ont pas besoin d'apprendre un nouvel ensemble de Rust ou de Move, ils peuvent simplement utiliser Hardhat pour transférer le code, un seuil d'entrée aussi bas pourrait permettre à l'écosystème de croître rapidement. De plus, ils n'ont pas l'intention de gérer la sécurité eux-mêmes, mais de stabiliser régulièrement l'état sur le réseau Bitcoin, ce qui revient à payer pour engager du BTC comme garde du corps. Dans ce marché instable, cette stratégie de se rapprocher des grandes entreprises est en fait beaucoup plus fiable que de créer un mécanisme de consensus non validé par eux-mêmes. Bien sûr, les données ne mentent pas. J'ai spécialement jeté un œil à Maple Finance, et la TVL du pool SyrupUSDT s'élève à 1,1 milliard de dollars, de nos jours, il est rare de voir un projet accumuler autant de fonds institutionnels, ce qui montre qu'il y a un consensus sur la sécurité de sa base. De plus, avec les cartes Rain et Oobit intégrées au réseau Visa couvrant cette multitude de commerçants, ce n'est déjà plus un récit resté sur PPT. Cependant, il faut le dire, les points faibles de ce projet sont aussi évidents que les poux sur la tête d'un chauve. Les nœuds de validateurs sont encore très centralisés, c'est essentiellement l'équipe qui joue, ce qui est un mal commun des projets précoces, mais un degré de décentralisation insuffisant reste toujours un problème. En outre, l'ensemble de l'écosystème, en dehors des transferts et des prêts, est vraiment désert, je ne trouve même pas où jouer avec un chien de terre. Je ne peux que dire que, dans ce cycle d'agitation où tout le monde est occupé à émettre des actifs, je suis prêt à faire preuve de plus de patience pour les projets qui prennent le temps de construire des routes et de résoudre le problème des "frais de passage", après tout, une fois que la route est bien construite, les véhicules finiront par rouler. #plasma $XPL
Même si on me traite de "recul", je dois dire : en ce jour où L2 est omniprésent, le paiement nu de Plasma, ce "minimalisme", est le seul antidote à l'extension.
Hier soir, j'ai fixé l'écran en regardant ces quelques lignes de code Rust, le bruit du trafic à l'extérieur s'est déjà raréfié, je n'ai même pas pensé à boire mon café froid dans ma main, une pensée extrêmement absurde mais réelle tournait dans ma tête : est-ce que la soi-disant "maison modulaire" que nous avons construite ces dernières années sur Layer 2 n'est pas déjà tordue depuis ses fondations ? Pendant cette période, j'ai intensément navigué entre le testnet et le mainnet précoce, j'ai exploré toutes les blockchains publiques qui prétendent avoir un TPS supérieur à 10 000, pour être honnête, plus je testais, plus je me sentais découragé, cette fatigue de raconter des histoires juste pour raconter des histoires m'a rempli de doutes sur la voie de l'infrastructure actuelle, jusqu'à ce que je recentre mon attention sur @Plasma , ce vieux truc qui avait été condamné à mort par la communauté Ethereum et qui a ressuscité dans un sol impur, après avoir compris en profondeur sa reconstruction de couche d'exécution Reth et ce modèle UTXO apparemment contre-intuitif, j'ai même ressenti une petite excitation oubliée, cette excitation n'est pas due aux fluctuations du prix des cryptomonnaies, mais à la vue de ce type de "purisme" technique qui a enfin pris forme.
Tout le monde crie à l'explosion des agents IA, mais qui va payer leurs factures de Gas ? Après avoir observé ce tour de narration sur l'IA, le marché semble plutôt agité, tout le monde utilise des PPT pour raconter des histoires, mais peu d'entre eux peuvent vraiment faire fonctionner la logique. Il y a quelques jours, j'ai testé plusieurs réseaux de test prétendant être des dirigeants intelligents du Web3, en réalisant une simple interaction d'Agent, les frais de Gas m'ont fait mal au cœur. Si cela devait être utilisé à grande échelle à l'avenir, même L2 ne pourrait pas supporter ce genre de débit. À ce moment-là, en regardant l'architecture de Vanar, je réalise que ces personnes comprennent vraiment les points douloureux de l'IA ; par rapport à ceux qui continuent à s'accrocher à des concepts de puissance de calcul, Vanar semble vouloir résoudre des problèmes de survie plus concrets. Contrairement à ces solutions modulaires sur le marché qui se contentent d'accumuler de la puissance de calcul sans se soucier des coûts de mise en œuvre, @Vanarchain me donne l'impression de fournir à l'IA une autoroute dédiée. Surtout après avoir approfondi leurs intégrations de la pile technologique NVIDIA, je découvre qu'il ne s'agit pas simplement d'un attrape-nigaud marketing, mais qu'ils ont réellement fait la compatibilité du cœur CUDA au niveau inférieur. C'est très intéressant. Comparé à quelques chaînes publiques à haute performance que j'avais précédemment appréciées, l'architecture Neutron de Vanar réalise la validation des données de manière extrêmement mesurée et efficace. Elle ne nécessite pas que toute l'historique d'entraînement soit rigoureusement intégrée sur la chaîne, mais utilise la validation des métadonnées pour assurer sa crédibilité. Ce type de conception est littéralement une bouée de sauvetage pour les applications IA nécessitant des lectures et écritures fréquentes. Honnêtement, l'erreur de l'industrie actuelle réside dans une confiance excessive envers ce grand récit de « puissance de calcul décentralisée », tout en ignorant les calculs économiques de la mise en œuvre des applications. Si chaque étape d'inférence d'une IA doit consommer des dizaines de centimes en frais de passage, alors l'intelligence sur la chaîne sera toujours une fausse promesse. L'engagement de Vanar en matière d'environnement et d'efficacité énergétique, bien qu'il ne semble pas aussi séduisant que certaines pièces meme, est en réalité le préalable à l'entrée des utilisateurs de niveau entreprise dans un environnement à faible consommation d'énergie et faible latence. Je crois en elle non pas à cause d'un modèle de jeton complexe, mais simplement parce qu'elle résout un problème très fondamental : permettre à l'IA de « vivre » sur la chaîne. Ne vous concentrez pas uniquement sur les fluctuations à court terme des lignes K, cette infrastructure capable de réellement supporter un trafic commercial ne se révélera qu'une fois la marée retirée. #vanar $VANRY
En regardant l'anxiété AI+Crypto sur l'écran, j'ai migré le nœud vers Vanar : un examen approfondi des faux besoins et de la véritable infrastructure.
Hier soir, en regardant les frais de Gas et les données de Mempool qui sautaient sur l'écran, ce sentiment familier d'impuissance est de nouveau monté. C'est déjà la troisième fois que je ressens un effondrement logique cette année soi-disant « l'année de l'explosion du récit AI ». Le marché est inondé de divers projets monstres, prenant l'API de GPT-4, en mettant une coquille, et en lançant une crypto-monnaie, ils osent se dire être une blockchain AI. Ce spectacle absurde ressemble beaucoup à la folie ICO de 2017, sauf que le livre blanc d'alors a été remplacé par le lien Hugging Face d'aujourd'hui. En tant que développeur ayant lutté sur la chaîne pendant de nombreuses années, j'ai des normes d'évaluation extrêmement pragmatiques, voire froides. Je ne me soucie pas de savoir à quel point votre PPT est futuriste, je me préoccupe uniquement de savoir si mon code fonctionnera sans erreur à cause de l'envolée des frais de Gas, et si mon Agent peut réaliser une arbitrage sans autorisation en millisecondes. Pendant cette période, j'ai pratiquement testé toutes les blockchains dites « haute performance » sur le marché, du marché des frais locaux de Solana au mécanisme de sharding de Near, puis aux diverses modifications magiques d'OP Stack de Base, pour finalement tester par un coup de chance @Vanarchain . Cette sensation est très subtile, comme si vous étiez dans une discothèque bruyante de heavy metal, et que vous entriez soudainement dans un laboratoire de précision parfaitement insonorisé.
Merci professeur Phoque pour votre discours courageux❤️
快乐的小海豹
·
--
📐🤦♂️ Analyse technique|Accusations de plagiat entre deux influenceurs populaires de Binance : preuve détaillée et texte original
1️⃣ Contexte et déclaration Récemment, une accusation de plagiat a eu lieu sur Binance Square, 一位顶流发帖指控另一位顶流,举报给币安后被驳回,表达了强烈的失望感. ⓵ Texte plagié : https://www.binance.com/zh-CN/square/post/35796825707177 ⓶ Texte de plagiat présumé : https://www.binance.com/zh-CN/square/post/35828295322393
Déclaration : ⓵ Je n'ai aucun lien personnel avec les deux parties, je suis simplement un internaute étranger à travers une connexion Internet. ⓶ Je publie uniquement par curiosité technique et un simple sens de la justice.
Ne vous laissez pas tromper par le concept RWA, ce qui manque vraiment aux institutions pour entrer, c'est cette clé Récemment, j'ai complètement décortiqué le document de la machine virtuelle Piecrust @Dusk , et j'ai testé le dernier nœud de test. Pour être franc, la grande majorité des projets qui se présentent sous le drapeau RWA jouent essentiellement à un jeu d'enfant en mettant des actifs sur la chaîne dans une version 'hors ligne'. Un livre de comptes entièrement transparent comme celui d'Ethereum, même Goldman Sachs le verrait d'un mauvais œil ; qui voudrait exposer ses stratégies de trading et ses fonds aux yeux de tous ? Mais si on choisit de faire complètement dans la confidentialité pour créer une boîte noire, la SEC ne laissera sûrement pas passer cela, c'est la plus grande schizophrénie du secteur RWA actuel. J'ai fait le tour et seul le concept RegDeFi proposé par Dusk a un certain intérêt, car il n'applique pas des patchs au niveau de l'application comme le font ses concurrents, mais intègre directement la logique de conformité au niveau du protocole L1. La technologie clé ici est le protocole Citadel, qui résout le problème que je me posais depuis longtemps : la séparation de l'identité et des autorisations. En termes simples, je n'ai pas besoin de montrer ma carte d'identité à chaque DApp ; il me suffit de fournir une preuve à divulgation nulle pour prouver que 'j'ai le droit de trader'. Ce type de conception est bien plus astucieux que la solution d'Ondo qui maintient une lourde liste blanche au niveau des contrats intelligents, car cette dernière non seulement a un coût de maintenance élevé, mais sacrifie également l'interopérabilité. En revanche, l'architecture de Dusk, qui supporte nativement la conformité, pourrait réellement accueillir de gros capitaux. C'est comme si l'un installait une porte de sécurité sur une vieille maison, tandis que l'autre construisait directement avec des matériaux pare-balles ; la sécurité de base est radicalement différente. Cependant, durant le processus de test, j'ai aussi remarqué quelques petits problèmes : la documentation actuelle n'est pas encore suffisamment bonne pour les développeurs, surtout l'efficacité de la génération de preuves ZKP qui a un peu de mal à fonctionner sur des appareils bas de gamme, le ventilateur tourne comme un hélicoptère ; cette partie doit encore être peaufinée par l'équipe. L'évolution technologique est toujours brutale, et quand la confidentialité n'est plus une option mais une infrastructure, ce type de Layer 1 qui peut plaire à la fois aux régulateurs et aux géants de la confidentialité montrera sa véritable valeur. Ne vous concentrez pas seulement sur ces cryptomonnaies fantômes qui ne font que tweeter ; la technologie qui peut réellement être mise en œuvre évolue souvent dans des coins que personne ne remarque. #dusk $DUSK
Déchirer le cache-sexe de RWA : à l'ère du 'nudisme' sur la chaîne, le Piecrust VM de Dusk et l'architecture de confidentialité conforme sont-ils vraiment des faux problèmes ?
Ces derniers jours, je fixe l'écran en regardant les données d'Etherscan, voyant cette série d'interactions d'adresses sans aucune dissimulation, j'ai soudain eu un sentiment d'absurdité, comme si je courais nu dans un quartier animé. Nous criions toute la journée à propos de la souveraineté du Web3, mais nous n'avons même pas le plus basique des cache-sexe. Tous les transferts d'actifs, les interactions DeFi, les coûts de détention sur la chaîne sont comme des oignons pelés, piquants pour les yeux et sans dignité. C'est dans cette période d'anxiété que j'ai rouvert le dépôt GitHub de @Dusk et les documents techniques récents, et même tiré leur code Piecrust VM pour l'exécuter, c'était une sensation subtile, comme si je mettais des écouteurs antibruit dans une pièce pleine de bruit. Je ne prévois pas de parler de prix de crypto-monnaies, ni de rêver de multiplications par cent ou mille. Aujourd'hui, je veux aborder, du point de vue d'un vétéran technique, simplement l'architecture logique, les différences entre les produits concurrents et l'expérience réelle, pour discuter de savoir si Dusk est vraiment en train de construire une infrastructure solide ou s'il s'agit d'un château en Espagne qui n'a même pas de fondations sous le grand terme RWA.
La valeur a chuté de 90 % et peut encore s'ancrer à 11 milliards de dollars en TVL, @Plasma est-elle morte ou vivante ? Regardant la bougie K presque verticale de la chute de XPL, la plupart des gens ont probablement décidé de s'en aller, après tout, qui oserait attraper un couteau qui tombe après une chute de près de 90 % ? Mais je suis un peu têtu, plus le sentiment du marché est à son point le plus bas, plus j'ai envie de fouiller dans le code et les données de la chaîne, pour voir s'il s'agit d'un mauvais coup. Récemment, j'ai beaucoup souffert des frais de Gas sur le réseau principal Ethereum, transférer quelques dizaines de dollars en U a disparu, ce qui rend le mécanisme Paymaster de @Plasma un peu intéressant. Auparavant, je pensais toujours que le « zéro Gas » était un faux concept, ou un argument marketing subventionné par le projet, mais après test, les transferts de stablecoins sont effectivement devenus imperceptibles, ce qui ressemble à l'utilisation d'Alipay, supprimant directement le seuil le plus anti-humain du Web3 qui exigeait d'acheter d'abord des tokens natifs pour faire du Gas. En revanche, ceux qui sont encore en train de rivaliser pour le TPS en L2, s'ils ne résolvent pas cette expérience de paiement du Gas, auront du mal à faire entrer du monde extérieur, c'est ainsi que devrait se présenter l'Adoption de Masse. Bien que l'architecture technique soit compatible avec l'EVM, le coût de migration pour les développeurs n'est pas élevé, mais ce qui me donne vraiment un peu de confiance, c'est qu'elle ancre régulièrement l'état sur le réseau Bitcoin. Dans le contexte actuel de volatilité, emprunter la sécurité de BTC comme caution est une approche astucieuse. L'argent sur la chaîne ne ment pas, le pool SyrupUSDT sur Maple Finance a verrouillé 11 milliards de dollars, cette taille n'est absolument pas le résultat d'un petit investisseur, les institutions sont prêtes à ancrer de grosses sommes ici, ce qui montre un consensus sur la sécurité de la couche sous-jacente. De plus, avec l'intégration des cartes Rain et d'Oobit au réseau Visa, ces scénarios pratiques, et même la création d'un stablecoin en euros conforme à la réglementation MiCA, semblent vouloir emprunter le chemin du paiement conforme, ce qui, dans un contexte de réglementation de plus en plus stricte, devient un atout. Bien sûr, les points à critiquer sont également évidents, les nœuds validateurs actuels sont encore trop centralisés, en d'autres termes, l'équipe contrôle toujours le marché, il faut en avoir conscience, le degré de décentralisation insuffisant reste toujours un risque. L'écosystème est en effet aussi mince qu'une feuille de papier, à part les transferts et les prêts, il n'y a pas vraiment de Dapp intéressants, contrairement à Solana où les tokens de la terre volent partout avec tant d'animation. À ce stade, il ressemble davantage à un élève surdoué mais déséquilibré, l'infrastructure est bien établie mais manque d'applications ludiques pour retenir les utilisateurs. Le Web3 a crié pendant tant d'années pour se concrétiser, mais au final, il faut voir qui peut permettre aux mamies de transférer sans contrainte. #plasma $XPL
Alors que nous calculons encore pour économiser des frais de gaz, la guerre des chaînes de paiement a en réalité changé de visage : un retour approfondi sur la véritable expérience et les ambitions après la reconstruction de Plasma.
À trois heures du matin, fixant l'écran sur ce transfert de USDC bloqué depuis un moment sur Arbitrum, j'ai soudain eu un sentiment d'absurdité extrême. Nous sommes en 2026, et nous, les soi-disant autochtones du Web3, sommes encore en train de jouer avec quelques dollars de frais de gaz et des pools de mémoire encombrés. Ce qui est encore plus ridicule, c'est que pour transférer ces stablecoins, nous devons toujours vérifier si le solde de notre portefeuille en ETH est suffisant. Une telle expérience déchirante dans le monde de la finance traditionnelle serait simplement une blague. C'est seulement dans ce cercle, où le récit de la "décentralisation" est devenu une contrainte, que les gens considèrent cette interaction inhumaine comme quelque chose de normal. Justement ces derniers jours, j'ai été en train de tester le nouveau réseau Plasma, et cette comparaison est vraiment trop forte, tellement forte que je dois enregistrer ces observations pleines de préjugés et d'émotions personnelles. Ne parlons pas des prix des cryptomonnaies, discutons seulement de cette maudite infrastructure et de sa capacité à fonctionner.
Tout le monde crie à la blockchain AI, en grattant la surface, je vois juste un revendeur de puissance de calcul. L'écran est rempli de AI+DePIN, ce qui fait mal à la tête. Je tiens quelques soi-disant pièces AI à la mode, mais en les essayant, cette sensation de lenteur me donne envie de frapper le clavier. La plupart des projets, avec leur soi-disant récit AI, se résument à revendre la puissance de calcul de NVIDIA, en créant une plateforme de location décentralisée. Cela est à des années-lumière de l'intelligence native Web3. Je me concentre sur... @Vanarchain et j'ai grignoté leur documentation technique pendant deux jours, découvrant que leur intégration TensorRT a quelque chose de particulier, cette opération est plus vaste que ce que j'imaginais. Nous avons tendance à penser que la blockchain publique est juste un livre de comptes, mais l'inférence des modèles AI nécessite une concurrence en millisecondes, ces deux logiques sont naturellement incompatibles. Regardez les ETH L2 actuels ou même Solana, bien que le TPS soit élevé, mais si l'on met un modèle de 7B paramètres pour voir ce qu'il donne ? Rien que le coût du Gas pourrait faire faillite à l'équipe du projet. C'est un peu comme si vous deviez conduire un tracteur sur une piste de F1, la base n'est pas correcte. Vanar est intelligent car ce n'est pas une solution forcée, mais utilise CUDA-X AI pour créer une couche de calcul dédiée, cette architecture vise clairement à résoudre le problème des interactions à haute fréquence des tâches d'inférence depuis le bas, et pas seulement à créer une base de données. Surtout ce niveau de mémoire sémantique Neutron, cette astuce est assez incroyable. Il compresse d'énormes données d'entraînement en graines lisibles sur la chaîne, résolvant ainsi le problème le plus ennuyeux du coût de traitement des données. Si cela n'est pas résolu, les interactions des Agents AI sur la chaîne ne sont qu'une fausse promesse, après tout, personne ne peut se permettre de payer pour stocker chaque mot sur la chaîne. En comparaison, beaucoup de concurrents sur le marché sont encore préoccupés par la manière de rendre les données plus dispersées, tandis que Vanar réfléchit déjà à comment alléger les données, ce sens technique est effectivement plus aigu. Si l'économie des Agents explose vraiment à l'avenir, ce sera certainement un règlement automatique entre machines, et non pas une signature manuelle sur un petit portefeuille. L'architecture de Vanar, qui a une telle connexion avec Google Cloud et NVIDIA, est clairement orientée vers un débit conforme aux entreprises. Ne vous concentrez pas seulement sur les fluctuations des graphiques K, ceux qui peuvent vraiment faire fonctionner la charge AI à l'échelle de l'infrastructure seront l'Alpha du prochain cycle, quant à ceux qui sont encore en train de vendre des nœuds avec des projets PPT, il est temps de faire un bon sommeil. #vanar $VANRY
Ne vous laissez pas tromper par des TPS élevés : la vérité brutale après avoir testé un AI Agent sur Vanar et Solana
Au cours de la dernière semaine, je n'ai presque pas bien dormi, mon esprit étant rempli de préoccupations liées à la refonte de code et à l'optimisation des frais de gaz. La raison est simple : bien que ce cycle de marché haussier crie que l'IA et la cryptomonnaie sont au cœur des tendances, 90 % des projets sur le marché ne sont que des façades. En voyant cette multitude de plateformes prétendument d'IA, il s'agit en réalité de machines à émettre des jetons, qui ne diffèrent en rien des projets de deux ans en arrière. En tant que personne ayant navigué dans ce domaine pendant quelques années, ayant écrit des contrats et développé des stratégies quantitatives, je ne peux tout simplement pas tolérer cette insulte à l'intelligence. J'ai donc décidé de me retrousser les manches pour voir si, sur l'infrastructure actuelle, il était possible de créer un véritable agent intelligent sur blockchain doté de « mémoire à long terme » et de « capacité de prise de décision autonome ». Pour rendre cette expérience plus comparative, j'ai choisi Solana, qui est actuellement présenté comme le plus performant, ainsi que @Vanarchain , qui commence à susciter de l'intérêt dans la communauté des développeurs. Le résultat de cette expérience a complètement ébranlé mes préjugés, me donnant même une perspective totalement différente sur le paysage concurrentiel de l'ensemble des L1.