Frères, j'ai entendu dire qu'un ancien du secteur a encore pris des scripts pour laver la première place, et dès qu'il ouvre la bouche, c'est pour parler de cette collaboration et de celle-là. Au final, il s'est avéré qu'il collaborait avec Doubao pour laver les scripts des autres, et les scores qu'il se vantait d'avoir étaient en fait manipulés. Es-tu Blue Moon pour être aussi doué dans le lavage ? Je ne nommerai personne ici, à vous de deviner en regardant le classement 😂
L'environnement de création de la place est à peu près comme ça, nous, ces créateurs ordinaires, ne faisons que fournir du matériel aux streamers. J'ai entendu dire que tu faisais encore quelque chose d'original, ne rigole pas, va te coucher après t'être lavé, le plagiat est le seul chemin de la place, ceux qui créent de l'original sont déjà morts de faim. Les streamers ont des dizaines de milliers de vues en 10 minutes, si tu ne stream pas, je ne me serais pas rendu compte à quel point c'est excessif, même le titre ne change pas, haha.
En regardant le solde de mon compte qui a chuté de manière catastrophique, j'ai aussi eu l'idée de mettre XPL en liste noire, après tout, un retrait de près de 90 % est une forme de harcèlement psychologique pour tout détenteur de jetons. Mais en tant que "techno-enthousiaste" habitué à chercher la logique dans le code, lorsque l'émotion retombe, je vois plutôt la vraie valeur qui a été mal évaluée par le marché. Nous avons longtemps crié pour l'Adoption de Masse dans le Web3, mais la réalité est extrêmement fragmentée : si vous voulez transférer un montant USDT à un ami en dehors du cercle, vous devez d'abord lui apprendre à acheter de l'ETH ou du SOL pour les frais de Gas, ce seuil anti-humain exclut directement 99 % des nouveaux utilisateurs. Ainsi, en réévaluant @Plasma , le mécanisme de Paymaster m'a vraiment frappé, car il vous permet de transférer des stablecoins sans avoir besoin de détenir le jeton natif, cette expérience "Zero Gas" fluide a vraiment un écho avec Alipay ou WeChat Pay. Comparé à ceux qui se battent encore sur le TPS tout en ignorant l'expérience utilisateur, c'est vraiment la logique sous-jacente que la voie de paiement devrait avoir. L'argent est le plus intelligent, il ne se préoccupe pas des annonces, mais de la sécurité. J'ai examiné les données sur la chaîne, le TVL du pool de prêt SyrupUSDT sur Maple Finance s'élève à 1,1 milliard de dollars, et un tel volume de fonds institutionnels est un vote très honnête. Les institutions qui osent placer cette somme d'argent ici ne font que se concentrer sur le fait que cela ancre régulièrement l'état au réseau Bitcoin, cette architecture qui tire parti de la sécurité de BTC est beaucoup plus robuste que de nombreuses chaînes PoS qui dépendent uniquement de leur propre consensus. Et il y a un autre point qui est facilement négligé, les cartes Rain couvrent 150 millions de commerçants et Oobit se connecte au réseau Visa, ce sont des paiements concrets, et non pas des PPT flottants dans l'air. Bien sûr, je dois également critiquer objectivement les problèmes actuels, le degré de centralisation du réseau des validateurs est encore très élevé, les traces de contrôle de l'équipe sont évidentes, cela reste toujours l'épée de Damoclès au-dessus de nos têtes. De plus, le manque d'applications écologiques est un fait incontestable, à part les transferts et les prêts, il est difficile de trouver un bon DApp avec lequel interagir, cette pauvreté de l'écosystème limite l'efficacité de la circulation des fonds. Mais dans ce marché agité où même les livres blancs sont négligés, les projets qui peuvent réellement résoudre les "douleurs de paiement" et qui ont un TVL énorme pour les soutenir méritent peut-être un peu plus de patience et de temps de ma part dans cette zone de prix extrêmement pessimiste. #plasma $XPL
Quand la narration des EVM parallèles s'estompe : mon expérience réelle d'une semaine en tant que nœud complet sur la chaîne Plasma et réflexion froide sur l'architecture Reth
Regardant les blocs qui clignotent sans cesse sur l'écran, observant les journaux de flux du client Reth dans le terminal à gauche s'écouler comme une cascade, c'est probablement le moment de paix intérieure le plus ressenti cette semaine. Dehors, le marché est en ébullition, tout le monde poursuit les attentes de lancement de Monad et l'exploitation de la liquidité de Berachain, comme si ne pas participer à ces jeux à APY à trois chiffres vous excluait de cette industrie. Mais c'est précisément à ce moment-là que j'ai choisi de m'amuser pendant une semaine sur cette chaîne soi-disant "réinitialisation d'un vieux concept" @Plasma , non seulement pour ces récompenses potentielles de nœuds, mais aussi pour comprendre, à ce moment de 2026, quand nous parlons de L1 haute performance, s'il existe d'autres voies à explorer au-delà de l'accumulation de matériel et de la modification du consensus.
Ne vous laissez plus berner par la location de puissance de calcul, @Vanarchain cette architecture native de « cerveau » a vraiment un peu de sens Cette fois-ci, la course à l'IA est en pleine effervescence, mais plus je regarde, plus je trouve cela étrange. Tous ces DePIN parlent de l'histoire de la location de puissance, pour faire simple, n'est-ce pas juste un sous-locataire décentralisé d'AWS ? Cette simple accumulation physique est à des années-lumière de la véritable intelligence native Web3. Récemment, je suis allé fouiller dans le livre blanc et le Github de Vanar, à l'origine avec l'intention de critiquer, mais j'ai découvert que ces gens avaient des idées assez originales. Ils n'ont pas cherché à augmenter le TPS ni à distribuer la puissance de calcul, mais se sont plutôt concentrés sur un point douloureux que beaucoup de chaînes publiques n'ont même pas compris : le coût de la « mémoire » et de l'« inférence » de l'IA sur la chaîne. Nous, les techniciens, savons tous que des machines d'état comme Ethereum sont essentiellement oublieuses. Si vous voulez que l'agent IA fonctionne sur la chaîne, il ne suffit pas de télécharger le modèle, où stocker les énormes quantités de données contextuelles générées lors du processus d'inférence ? Les stocker sur Arweave est trop lent, et le coût du Gas sur la chaîne est exorbitant. L'architecture Neutron que Vanar a mise en place m'a fait rire, n'est-ce pas comme si l'on installait un hippocampe sur la blockchain ? En utilisant TensorRT pour optimiser l'inférence, ils compressent des données sémantiques complexes en Seeds lisibles sur la chaîne, ce qui signifie que l'agent n'est plus un « idiot » qui doit recalculer à chaque interaction, mais possède une capacité de mémoire continue à faible coût. Cela éloigne les projets qui dépendent encore des ponts inter-chaînes pour relier GPT-4, le premier apprenant à réfléchir, le second n'étant au mieux qu'un appel longue distance à l'IA. Pour être honnête, l'expérience écologique est encore assez précoce, j'ai fait un tour de DApp, et c'était un peu « désertique », l'interface a encore des bugs, celui d'hier était bloqué à tourner en rond pendant un bon moment, mais cette boucle de logique sous-jacente me semble très rassurante. Comparé à ces projets qui ont des présentations flashy mais qui ne vendent en réalité que des nœuds, Vanar est clairement en train de poser cette couche de « infrastructure de calcul » la plus difficile à gérer. Si un jour DeFi peut vraiment évoluer vers un modèle de gestion des risques dynamique piloté par l'IA, ou si les NPC de jeux en chaîne peuvent avoir une conscience autonome, alors les fondations doivent être sur cette chaîne capable de gérer nativement des inférences à haute concurrence, et non pas sur ces antiquités qui sacrifient la performance pour s'adapter à l'EVM. Ceux d'entre nous qui font de la recherche, ne regardez pas seulement les fluctuations à court terme des graphiques, il faut voir si la bibliothèque de code s'accumule en blocs de construction ou en moteurs. #vanar $VANRY
Lorsque l'IA fonctionne sur le « chemin de terre » de la blockchain : notes d'expérience sur Vanar, le coût de calcul et la prétendue « native » cruauté
Regardant l'heure dans le coin inférieur droit de l'écran, trois heures et demie du matin, ce type de rythme de vie est devenu une routine pour nous qui naviguons dans ce milieu, surtout lorsque vous essayez de faire fonctionner une véritable logique d'Agent sur la chaîne, le sentiment de frustration est souvent plus intense que la somnolence. Au cours du dernier mois, j'ai presque parcouru tous les documents des projets qui se présentent comme des « chaînes publiques d'IA » sur le marché, et la sensation est semblable à celle de chercher un mur porteur dans un tas de maisons témoins parfaitement décorées ; l'extérieur est brillant et attrayant, rempli de récits et de concepts, mais en creusant, c'est juste de la mousse. La plupart des récits d'IA des projets ne sont rien d'autre que d'ajouter une interface API à une chaîne EVM traditionnelle, ou de créer un marché de location de puissance de calcul qui n'a pas d'utilité, ce type d'architecture modulaire est, à mon avis, une insulte à l'intelligence décentralisée. Je ne veux pas nommer de noms, mais il est vraiment risible de voir ces projets valant des milliards de dollars continuer à utiliser une logique de chaîne latérale d'il y a deux ans pour raconter l'histoire de l'IA.
En regardant la chute actuelle de XPL, si on n’a pas un peu de fluctuation dans le cœur, c’est trompeur, car après tout, de l’argent réel a été investi et a perdu près de 90 %, peu importe qui se mettrait à crier. Mais puisque j'ai décidé de faire des recherches dans ce domaine, je ne peux pas laisser les émotions me guider, je me force à éteindre le graphique K et à consulter les derniers commits Github et les données on-chain de @Plasma , ce qui m'a permis de voir quelque chose de différent. Nous crions tous que les applications Web3 sont à grande échelle, mais le plus grand obstacle n'est pas un TPS insuffisant, mais plutôt un seuil d'entrée trop inhumain. Réfléchissez-y, juste pour transférer quelques U de stablecoins, il faut d'abord acheter de l'ETH ou du SOL en tant que Gas, cette logique paraît tout simplement absurde aux yeux des personnes extérieures au domaine. Le mécanisme de Paymaster de Plasma est celui que j'ai récemment trouvé le plus pratique, prenant en charge les paiements en stablecoins pour le Gas, cette expérience de « zéro perte » ressemble vraiment à ce que devrait être un paiement, un peu plus sensé que ces chaînes publiques qui se contentent d'accumuler le débit. Il faut mentionner la différence avec les concurrents, bien que les L2 sur le marché soient bon marché, la logique d'interaction reste fragmentée, alors que Plasma est non seulement entièrement compatible avec l'EVM, mais a également établi un ancrage sur le réseau Bitcoin, inscrivant régulièrement l'état sur la chaîne BTC. C'est une idée assez intelligente, dans ce marché incertain, emprunter la sécurité de Bitcoin pour se garantir est bien plus fort que de crier un consensus. J'ai également fouillé les données sur Maple, le TVL du pool de prêt SyrupUSDT est étonnamment stable à 11 milliards de dollars, ces chiffres sont un peu effrayants, les fonds institutionnels ne sont pas des idiots, s'ils osent encore se déposer en grande quantité à cette position, cela montre que l'argent intelligent a confiance dans sa liquidité et sa sécurité. Ce type de vote en argent réel est plus fiable que les cris sur Twitter. Bien sûr, en tant que recherche rigoureuse, je dois aussi verser un peu d'eau froide. Les nœuds validateurs sont encore trop concentrés entre les mains de l'équipe, le degré de décentralisation est visiblement faible, c'est toujours un danger. De plus, l'écosystème, en dehors des paiements et des prêts, est effectivement désolé, il est difficile de trouver un Dapp amusant. Mais cela pourrait être la source des gains et des pertes, le marché est actuellement extrêmement pessimiste, tout le monde ne regarde que le prix et crie, mais ignore les données concrètes comme l'intégration des cartes Rain et Oobit au réseau Visa. Je me demande, si le secteur des paiements peut vraiment fonctionner, doit-on choisir ceux qui racontent encore des histoires, ou ceux qui ont déjà pavé la route vers le monde hors ligne ? #plasma $XPL
La régression par force brute des primitives de paiement : un examen inversé de l’architecture Plasma, des clients Reth et de la phase finale déterministe sous monopole de rollup
À l'heure où les solutions de mise à l'échelle de couche 2, ou Rollups, dominent quasiment le discours de l'écosystème Ethereum, j'ai relu le livre blanc @Plasma et la documentation technique la plus récente. J'ai eu l'impression de découvrir une voiture à essence atmosphérique de grosse cylindrée, fortement modifiée, dans un garage banal au milieu d'une mer de scooters électriques : un contraste saisissant, mais aussi une esthétique mécanique brute et fascinante. J'ai vu de nombreuses discussions sur le prix de Plasma ou son système de déverrouillage apparemment intimidant, mais comme j'aime analyser les moindres détails des interactions on-chain, je souhaite partager mes impressions après avoir exploré ces derniers jours les environnements de testnet et de début de mainnet. En particulier, lorsqu'on délaisse les grands discours pour se concentrer sur l'exécution des nœuds, l'envoi de quelques transactions, et même la comparaison avec les « chains à haute performance » actuellement en vogue, de nombreux détails intéressants émergent progressivement.
【De l'entropie comportementale au modèle d'exécution : Pourquoi le DBTI est-il le MBTI à l'ère du trading AI ?】
Le marché des cryptomonnaies est essentiellement un "sandbox de jeu" en haute dimension. La source des pertes des investisseurs individuels est souvent attribuée à une différence d'information, mais d'un point de vue de la finance comportementale, le facteur plus central réside dans : le décalage à long terme entre le comportement de trading et la structure de caractère sous-jacente. Les personnes impatientes sont contraintes à des lignes longues, tandis que les personnes lentes agissent aveuglément avec une haute fréquence - cette "réaction de rejet" au niveau d'exécution entraîne l'effondrement de la discipline de la plupart des gens. 1. DBTI : de "questionnaires subjectifs" à l'"apprentissage par renforcement inverse (IRL)". Contrairement aux tests psychologiques traditionnels, le DBTI (système de personnalité de trading décentralisé) promu par Calculus Finance (https://x.com/CalculusFinance) utilise un modèle d'exploration de données non intrusif :
Pour être honnête, après avoir regardé tant de chaînes L1 se présentant comme des projets d'IA, la plupart jouent encore avec cette logique brutale de "mettre un éléphant dans un réfrigérateur", forçant le modèle d'interface à se connecter à la chaîne pour se vanter d'être intelligent. Récemment, j'ai profondément expérimenté le protocole V23 de @Vanarchain , cette architecture a vraiment quelque chose d'intéressant. Contrairement à ces concurrents qui ne savent que empiler des TPS, par exemple, bien que Solana soit rapide, face à des exigences d'Agent IA nécessitant une mémoire d'état continue et un raisonnement complexe, la logique sous-jacente semble toujours un peu "oubliée". Ce qui m'attire le plus chez Vanar, c'est sa couche Neutron dans la pile à cinq niveaux, qui intègre directement la mémoire sémantique et le contexte persistant dans l'infrastructure, au lieu de devoir passer par un pont inter-chaînes comme beaucoup de solutions de seconde couche pour "emprunter un cerveau". Cependant, lors des interactions réelles, j'ai également découvert quelques détails ennuyeux. Par exemple, les réponses des nœuds actuels peuvent parfois présenter un retard dans la recherche de données lors de transactions à haute fréquence extrême, ce qui, pour des scénarios axés sur le PayFi et le raisonnement en temps réel, nécessite encore une certaine stabilité. Comparé à ces projets voisins qui se vantent de collaborations avec NVIDIA tout en ne maîtrisant même pas l'accélération CUDA, les actions de Vanar après avoir rejoint le plan Inception semblent beaucoup plus mesurées, voire un peu frustrantes. Sa logique de capture de jetons a également changé, ne se limitant plus à une simple consommation de gaz, mais ressemblant plutôt à un billet pour des services d'IA, ce changement de paradigme est effectivement plus solide que la simple tokenisation de la puissance de calcul. Si à l'avenir, ils pouvaient rendre l'intégration de Google Cloud plus transparente, en évitant la gestion compliquée des clés privées, alors cette "infrastructure intelligente" pourrait vraiment réussir à transférer la valeur de Web2 à Web3. Bien sûr, il est encore trop tôt pour dire qu'elle peut complètement renverser les chaînes publiques traditionnelles, car la construction d'écosystèmes ne peut pas se faire uniquement par une architecture technique. La capacité à capter la prochaine vague d'explosion du trafic IA dépendra également de la manière dont elle performe réellement sur le réseau de test Vanguard et si elle peut supporter la pression. #vanar $VANRY
Ne vous laissez plus emporter par le TPS : j'ai vu dans le code de Vanar la mémoire et l'âme dont a vraiment besoin l'Agent AI
Ces dernières semaines, les mouvements sur le marché étaient si agités que je ne pouvais pas me concentrer pour écrire du code, l'écran était rempli de nouvelles de financement sur "AI+Crypto" et même certains projets de chiens de terre dont le livre blanc n'était pas terminé. J'ai aussi failli être emporté par cette émotion, me demandant si tant qu'il s'agissait d'une chaîne, il suffisait d'y apposer une coque LLM pour que cela décolle. Jusqu'à hier matin, pour vérifier une idée d'Agent inter-chaînes, j'ai pris mon courage à deux mains et j'ai parcouru plusieurs documents de soi-disant chaînes publiques AI, m'arrêtant finalement devant le diagramme d'architecture de Vanar. Pour être honnête, au départ, j'y allais avec l'intention de trouver des défauts, après tout, dans ce cercle, j'en ai vu beaucoup qui osent appeler "révolution" des projets qui se contentent de reconditionner des choses de Web2, mais quand je me suis vraiment plongé dans la logique sous-jacente de @Vanarchain et que j'ai vu comment il traite les données (Neutron) et la validation d'inférence (Kaion), cette arrogance que j'avais en tant que développeur a été brisée de moitié. Le marché des chaînes publiques est maintenant coincé dans un cercle vicieux extrêmement ennuyeux, tout le monde se bat pour le TPS, pour savoir combien de transactions peuvent être traitées par seconde, comme si augmenter le débit permettait à l'IA de fonctionner sur la blockchain, mais c'est complètement une erreur logique.
Je n'aime pas vraiment utiliser des termes comme « garanti » ou « inévitable ».\nMais je vais regarder trois choses : est-ce un site officiel, est-ce une première exploitation, est-ce que des institutions professionnelles ont parié à l'avance ?\nminiARTX est officiellement en ligne aujourd'hui, et a placé l'œuvre de Fuyuan Zhou « Coral Realm » $CRL dans la première exploitation ;\nL'artiste n'est même pas diplômé, la galerie est déjà en train de se battre ; l'œuvre a une prévision de croissance de 4 à 5 fois, plus un mécanisme de 14 fois.\nLe type « haut de gamme dès le départ, sans période d'essai à bas prix » tire le meilleur parti de cette structure.\nPour le reste, je n'ai pas besoin d'en dire plus.\nCe soir, $CRL commence les souscriptions, il ne faut absolument pas rater ça\n#Ultiland $ARTX \n\n\n#miniARTX #ARToken
Ignorer le bruit des K-lines, une réflexion froide et une analyse de la vérité et de la fausse narration sur les paiements Plasma L'atmosphère du marché est effectivement agitée, tout le monde se précipite vers l'IA et les MEME avec les yeux rouges, regarder un instant le XPL qui a chuté de près de 90 % dans le compte, ne ressentir aucune vague à l'intérieur serait faux. Mais j'aime vraiment me perdre dans des détails, plus personne ne crie des signaux, plus je dois retourner dans le livre blanc. Pour être honnête, alors que de nombreux Layer 2 s'occupent encore de « marcher sur des pieds gauche et droit » avec leurs systèmes de points, le mécanisme de Paymaster @Plasma est vraiment l'une des rares choses qui peuvent être mises en œuvre. Avez-vous essayé de transférer des U à des amis en dehors du cercle ? Il faut d'abord leur faire obtenir un peu d'ETH pour le Gas, c'est tout simplement anti-humain, alors que la sensation fluide de XPL utilisant directement des stablecoins pour couvrir les frais de transaction me rappelle un peu les paiements d'Alipay. À ce sujet, même des L2 comme Optimism ou Arbitrum, qui sont en tête, sont encore un peu en retard en termes d'expérience utilisateur, la barrière d'entrée reste là. Regardons les données en chaîne, le TVL du pool de prêt de Maple Finance a discrètement grimpé à 1,1 milliard de dollars, ce qui est probablement des fonds institutionnels qui restent là à gagner des intérêts, après tout, les cartes Rain et Oobit connectées au réseau Visa couvrent des millions de commerçants, ce genre de scénario de paiement concret a beaucoup plus de poids que ces jetons de gouvernance d'air. Mais je ne fais pas de la publicité aveugle, les défauts majeurs de ce projet sont également clairement visibles, la concentration des nœuds de validation est élevée, pour être franc, cela ressemble à un serveur centralisé, la sécurité repose entièrement sur cette validation périodique du réseau BTC. L'écosystème est encore plus désolé, à part un ou deux protocoles DeFi, il n'y a même pas de projet solide, il est pratiquement impossible de faire quelque chose de significatif sur cette chaîne. Mais en y réfléchissant, puisque le stablecoin conforme de l'UE, l'EUROP a déjà été intégré, cela montre que les porteurs de projet n'ont jamais pensé à suivre la route des flux, ils parient plutôt sur l'avenir des paiements conformes. Dans ce marché rempli de bruit, je pense qu'il vaut mieux éviter de s'emparer de ces histoires évanescentes à des niveaux élevés, plutôt que de se cacher dans des coins ignorés avec cette infrastructure qui résout réellement la douleur des « difficultés de transfert », bien qu'il y ait des risques, la logique est claire. #plasma $XPL
Le jeu de la fin de la chaîne de paiement : réévaluation de la valeur froide des architectures propriétaires au milieu des cadavres des L2 génériques
En regardant les quelques transactions du réseau Layer 2 que je devais interagir pour réclamer l'airdrop sur l'écran, j'ai soudain ressenti une fatigue sans précédent. Cette fatigue ne provenait pas des fluctuations des frais de Gas, mais d'un profond nihilisme technologique. Le monde de la cryptographie est désormais trop encombré, avec une nouvelle chaîne qui prétend résoudre le triangle impossible tous les quelques jours, alors qu'il ne s'agit en réalité que de copier-coller le code de Geth et de modifier quelques paramètres. Cela ressemble à regarder un groupe de clones portant des gilets de différentes couleurs se battre dans la même pièce bondée, jusqu'à ce que je réoriente mon attention vers @Plasma ou plutôt vers XPL. Cette fatigue esthétique technologique s'est légèrement atténuée. Je ne suis pas en train de vanter la perfection de ce projet, au contraire, son modèle économique problématique et la désolation précoce de son écosystème m'ont souvent poussé à envisager de liquider mes positions. Mais chaque fois que je réalise une transaction et que j'examine la rapidité de réponse de ce client Reth sous-jacent, je suis de nouveau attiré par cette beauté glaciale qui frôle l'industriel. Cette attitude ambivalente a marqué mon cycle de détention des trois derniers mois et m'a amené à réfléchir à quel type d'infrastructure pourrait survivre à l'adoption massive imminente.
Refuser la fausse prospérité, discutons de pourquoi la plupart des soi-disant chaînes de blocs AI ne peuvent même pas exécuter un Agent Ces derniers jours, je reste figé devant le tableau, rempli de pièces conceptuelles AI qui volent dans tous les sens, mais pour être honnête, il y a peu de projets capables d'incarner "l'intelligence" dans leur base. J'ai de nouveau parcouru la documentation technique de @Vanarchain , et plus je regarde, plus je pense que le marché actuel est rempli d'asymétries d'information. Tout le monde se bat pour le TPS, comme si tant que la vitesse est suffisante, l'IA pourrait décoller sur la chaîne, c'est tout simplement la plus grande erreur. Imaginez que vous déployez un Agent complexe sur une L1 réputée pour son haut débit, rien que le coût du stockage d'état et des appels de contexte en Gaz pourrait vous faire faillite, sans parler de cette machine virtuelle qui n'est pas optimisée pour le calcul non déterministe, c'est tout simplement une catastrophe. Le sentiment que j'ai avec Vanar est complètement différent, ce n'est pas un monstre cousu qui essaie de mettre un moteur dans une charrette, mais il résout dès le départ le problème de "calcul" et "mémoire". Surtout avec ce niveau Neutron, je pense même qu'il est plus séduisant que la chaîne principale elle-même. Il résout un point de douleur central : les données sur la chaîne sont généralement "mortes", sans sémantique, tandis que Neutron permet aux contrats de comprendre la logique derrière les données. C'est complètement différent de ces "faux projets AI" qui ne savent faire tourner des modèles que hors chaîne et stocker un hachage sur la chaîne. La plupart des produits concurrents semblent encore s'en tenir à des oracles simples pour alimenter les prix, ou à simplement profiter de la popularité de Nvidia, tandis que Vanar crée un environnement d'inférence natif sur la chaîne. Il y a aussi un point très intéressant, si vous faites attention aux chiffres, vous découvrirez que le modèle économique de Vanar est en réalité extrêmement favorable aux interactions AI à haute fréquence. Pour les développeurs, ce que nous voulons ce n'est pas des faux TPS de centaines de milliers par seconde, mais un environnement d'exécution capable de mener des inférences, de stocker des mémoires, et conforme. Beaucoup de gens ne prennent pas au sérieux le récit zéro carbone, mais dans le contexte de l'explosion de la consommation énergétique de l'entraînement des grands modèles, cela représente en fait un ticket d'entrée pour de nombreux géants du Web2. Ne vous laissez pas égarer par le bruit du marché, lorsque la marée se retire, il faudra voir qui porte vraiment un pantalon, seule l'infrastructure capable de porter l'économie machine mérite la prochaine grande montée. #vanar $VANRY
Dire adieu à l'illusion : dans l'architecture de Vanar, j'ai enfin senti l'odeur industrielle que le Web3 devrait avoir
À cet instant, en fixant les frais de Gas qui sautent continuellement sur l'écran et les journaux d'erreurs de plusieurs agents IA, je suis plongé dans une profonde fatigue. Cette fatigue ne provient pas de nuits blanches, mais d'une déchirure dans ma compréhension technique. Au cours de cette semaine, j'ai essayé, comme un paranoïaque, de déployer un ensemble de logiques d'automatisation de base sur la Layer 2 d'Ethereum et sur Solana, mais le résultat a été un véritable désastre. Parmi les blockchains qui crient 'pilotées par l'IA', en grattant la surface des sites web et des livres blancs, ce qui tourne en dessous reste la même vieille logique conçue sur mesure pour le DeFi. Juste au moment où je m'apprêtais à éteindre mon ordinateur et à admettre que le récit soi-disant IA de cette industrie n'était qu'une autre bulle de capital, j'ai inexplicablement ouvert la documentation des développeurs de @Vanarchain . En un coup d'œil, mes nerfs, qui étaient en détresse, ont été réveillés par une intuition d'ingénieur, longtemps oubliée. Je ne prévois pas de vous raconter des histoires de cryptomonnaies à cent fois le prix, je veux juste discuter de pourquoi Vanar me donne un sentiment de réalité éloigné des goûts bas de gamme dans ce marché rempli de bruit, et comment il a durement frappé le visage de ces soi-disant blockchains haute performance.
Tout le monde crie sur le récit de RWA de milliers de milliards, mais personne ne parle de l'embarras de l"exposition" des institutions. Récemment, en révisant la piste RWA, j'ai découvert un phénomène très intéressant : le marché se concentre sur les actions de BlackRock, tout en négligeant la logique fondamentale la plus mortelle des infrastructures. L'environnement actuel des chaînes publiques est tout simplement un champ de bataille pour les institutions financières traditionnelles, soit elles se dévoilent complètement comme Ethereum, où toutes les stratégies de trading et positions sont visibles sur la chaîne, soit elles créent une chaîne autorisée pour fonctionner comme un réseau local. Ces derniers jours, j'ai approfondi le livre blanc technique de @Dusk et je me suis rendu compte que ces gens ont un point d'entrée un peu délicat : ils ne se contentent pas de mettre des actifs sur la chaîne, mais cherchent à résoudre le paradoxe apparemment contradictoire de "vouloir être conforme sans être exposé". Contrairement à des projets comme Ondo ou Centrifuge qui s'attaquent à la couche d'application, Dusk intervient directement au niveau du protocole Layer 1. J'ai pris le temps d'exécuter leur code de machine virtuelle Piecrust, pour être honnête, la barrière d'entrée est un peu élevée, mais la logique est vraiment impressionnante. Leur protocole Citadel transforme le KYC en preuve à connaissance nulle non interactive, c'est comme si je n'avais pas besoin de montrer ma pièce d'identité sur la table pour que tout le monde voie mon adresse en entrant dans un bar, mais que je puisse simplement présenter une preuve mathématique "d'adulte". Ce type de conformité de confidentialité supportée nativement, comparé aux mélangeurs de confidentialité externes sur Ethereum, offre une sécurité d'un tout autre niveau. Cependant, il faut le dire, bien que la technologie soit séduisante, l'expérience réelle présente des frictions. Lors de mes interactions sur le réseau de test, j'ai clairement ressenti que la génération locale de preuves à connaissance nulle exigeait une certaine puissance matérielle, et il y avait parfois des retards dans la génération de preuves, ce qui représente un défi non négligeable pour les teneurs de marché en trading à haute fréquence. De plus, l'architecture indépendante Layer 1 de Dusk doit résoudre le problème de l'interopérabilité des actifs avec d'autres écosystèmes, sinon cela pourrait facilement devenir une île technologique très performante. Mais en revanche, si ce modèle de RegDeFi peut vraiment fonctionner, il offre aux institutions un sentiment de sécurité que les chaînes publiques EVM ne peuvent pas fournir. Après tout, pour ces vieux riches de Wall Street, au-delà du coût du Gas, ils se soucient davantage de savoir si leurs cartes de trading seront diffusées en direct sur le réseau en raison d'audits de conformité. Cette pensée d'intégrer la logique réglementaire dans le code de base est probablement la véritable réponse pour la deuxième moitié de RWA. #dusk $DUSK
Qui nage nu, qui construit des bateaux : au-delà du bruit des prix, reconstruire ma compréhension de la barrière technologique de Dusk
Ces derniers jours, en fixant l'écran sur les variations incessantes des chandeliers, je me sens étrangement calme, cette tranquillité provient d'une intuition presque obsessionnelle : nous sommes à un tournant étrange dans l'histoire des cryptomonnaies. Le récit de ce cycle haussier est extrêmement fragmenté, d'un côté, les MEME coins créent des mythes de richesse en multipliant par cent en une journée sur Solana, de l'autre côté, les VC coins désespèrent les petits investisseurs dans le piège d'une surévaluation à faible circulation. Ce sentiment de fragmentation m'oblige à réévaluer les infrastructures qui tentent réellement de résoudre les problèmes du secteur. Lorsque je détourne mon regard de ces bruyants parcours L2 et que je revisite les enregistrements de soumission de code récents de Dusk Network sur Github, une excitation oubliée refait surface, cette sensation est similaire à celle que j'ai ressentie la première fois que j'ai compris le principe des contrats intelligents Ethereum, réalisant que certaines choses fondamentales sont en train d'être modifiées. Dusk n'est pas un projet qui crie des conseils d'achat, même son marketing sur Twitter semble un peu maladroit, mais c'est précisément cette maladresse qui m'a permis de voir l'ombre de la culture des ingénieurs. Dans cette voie saturée d'actifs du monde réel (RWA), la grande majorité des projets se contentent de simple mise en chaîne d'actifs, c'est-à-dire de créer un SPV et d'émettre un token, mais @Dusk s'attaque à des choses plus fondamentales. Ils essaient de construire un Layer 1 qui respecte les exigences de conformité tout en protégeant la vie privée des utilisateurs grâce à des preuves à divulgation nulle de connaissance, cela semble être une sorte de cupidité à vouloir tout avoir, mais après avoir étudié attentivement l'architecture de la machine virtuelle Piecrust, je réalise qu'ils ont peut-être vraiment réussi.