Frères, j'ai entendu dire qu'un ancien du secteur a encore pris des scripts pour laver la première place, et dès qu'il ouvre la bouche, c'est pour parler de cette collaboration et de celle-là. Au final, il s'est avéré qu'il collaborait avec Doubao pour laver les scripts des autres, et les scores qu'il se vantait d'avoir étaient en fait manipulés. Es-tu Blue Moon pour être aussi doué dans le lavage ? Je ne nommerai personne ici, à vous de deviner en regardant le classement 😂
L'environnement de création de la place est à peu près comme ça, nous, ces créateurs ordinaires, ne faisons que fournir du matériel aux streamers. J'ai entendu dire que tu faisais encore quelque chose d'original, ne rigole pas, va te coucher après t'être lavé, le plagiat est le seul chemin de la place, ceux qui créent de l'original sont déjà morts de faim. Les streamers ont des dizaines de milliers de vues en 10 minutes, si tu ne stream pas, je ne me serais pas rendu compte à quel point c'est excessif, même le titre ne change pas, haha.
En regardant la chute actuelle de XPL, si on n’a pas un peu de fluctuation dans le cœur, c’est trompeur, car après tout, de l’argent réel a été investi et a perdu près de 90 %, peu importe qui se mettrait à crier. Mais puisque j'ai décidé de faire des recherches dans ce domaine, je ne peux pas laisser les émotions me guider, je me force à éteindre le graphique K et à consulter les derniers commits Github et les données on-chain de @Plasma , ce qui m'a permis de voir quelque chose de différent. Nous crions tous que les applications Web3 sont à grande échelle, mais le plus grand obstacle n'est pas un TPS insuffisant, mais plutôt un seuil d'entrée trop inhumain. Réfléchissez-y, juste pour transférer quelques U de stablecoins, il faut d'abord acheter de l'ETH ou du SOL en tant que Gas, cette logique paraît tout simplement absurde aux yeux des personnes extérieures au domaine. Le mécanisme de Paymaster de Plasma est celui que j'ai récemment trouvé le plus pratique, prenant en charge les paiements en stablecoins pour le Gas, cette expérience de « zéro perte » ressemble vraiment à ce que devrait être un paiement, un peu plus sensé que ces chaînes publiques qui se contentent d'accumuler le débit. Il faut mentionner la différence avec les concurrents, bien que les L2 sur le marché soient bon marché, la logique d'interaction reste fragmentée, alors que Plasma est non seulement entièrement compatible avec l'EVM, mais a également établi un ancrage sur le réseau Bitcoin, inscrivant régulièrement l'état sur la chaîne BTC. C'est une idée assez intelligente, dans ce marché incertain, emprunter la sécurité de Bitcoin pour se garantir est bien plus fort que de crier un consensus. J'ai également fouillé les données sur Maple, le TVL du pool de prêt SyrupUSDT est étonnamment stable à 11 milliards de dollars, ces chiffres sont un peu effrayants, les fonds institutionnels ne sont pas des idiots, s'ils osent encore se déposer en grande quantité à cette position, cela montre que l'argent intelligent a confiance dans sa liquidité et sa sécurité. Ce type de vote en argent réel est plus fiable que les cris sur Twitter. Bien sûr, en tant que recherche rigoureuse, je dois aussi verser un peu d'eau froide. Les nœuds validateurs sont encore trop concentrés entre les mains de l'équipe, le degré de décentralisation est visiblement faible, c'est toujours un danger. De plus, l'écosystème, en dehors des paiements et des prêts, est effectivement désolé, il est difficile de trouver un Dapp amusant. Mais cela pourrait être la source des gains et des pertes, le marché est actuellement extrêmement pessimiste, tout le monde ne regarde que le prix et crie, mais ignore les données concrètes comme l'intégration des cartes Rain et Oobit au réseau Visa. Je me demande, si le secteur des paiements peut vraiment fonctionner, doit-on choisir ceux qui racontent encore des histoires, ou ceux qui ont déjà pavé la route vers le monde hors ligne ? #plasma $XPL
La régression par force brute des primitives de paiement : un examen inversé de l’architecture Plasma, des clients Reth et de la phase finale déterministe sous monopole de rollup
À l'heure où les solutions de mise à l'échelle de couche 2, ou Rollups, dominent quasiment le discours de l'écosystème Ethereum, j'ai relu le livre blanc @Plasma et la documentation technique la plus récente. J'ai eu l'impression de découvrir une voiture à essence atmosphérique de grosse cylindrée, fortement modifiée, dans un garage banal au milieu d'une mer de scooters électriques : un contraste saisissant, mais aussi une esthétique mécanique brute et fascinante. J'ai vu de nombreuses discussions sur le prix de Plasma ou son système de déverrouillage apparemment intimidant, mais comme j'aime analyser les moindres détails des interactions on-chain, je souhaite partager mes impressions après avoir exploré ces derniers jours les environnements de testnet et de début de mainnet. En particulier, lorsqu'on délaisse les grands discours pour se concentrer sur l'exécution des nœuds, l'envoi de quelques transactions, et même la comparaison avec les « chains à haute performance » actuellement en vogue, de nombreux détails intéressants émergent progressivement.
Pour être honnête, après avoir regardé tant de chaînes L1 se présentant comme des projets d'IA, la plupart jouent encore avec cette logique brutale de "mettre un éléphant dans un réfrigérateur", forçant le modèle d'interface à se connecter à la chaîne pour se vanter d'être intelligent. Récemment, j'ai profondément expérimenté le protocole V23 de @Vanarchain , cette architecture a vraiment quelque chose d'intéressant. Contrairement à ces concurrents qui ne savent que empiler des TPS, par exemple, bien que Solana soit rapide, face à des exigences d'Agent IA nécessitant une mémoire d'état continue et un raisonnement complexe, la logique sous-jacente semble toujours un peu "oubliée". Ce qui m'attire le plus chez Vanar, c'est sa couche Neutron dans la pile à cinq niveaux, qui intègre directement la mémoire sémantique et le contexte persistant dans l'infrastructure, au lieu de devoir passer par un pont inter-chaînes comme beaucoup de solutions de seconde couche pour "emprunter un cerveau". Cependant, lors des interactions réelles, j'ai également découvert quelques détails ennuyeux. Par exemple, les réponses des nœuds actuels peuvent parfois présenter un retard dans la recherche de données lors de transactions à haute fréquence extrême, ce qui, pour des scénarios axés sur le PayFi et le raisonnement en temps réel, nécessite encore une certaine stabilité. Comparé à ces projets voisins qui se vantent de collaborations avec NVIDIA tout en ne maîtrisant même pas l'accélération CUDA, les actions de Vanar après avoir rejoint le plan Inception semblent beaucoup plus mesurées, voire un peu frustrantes. Sa logique de capture de jetons a également changé, ne se limitant plus à une simple consommation de gaz, mais ressemblant plutôt à un billet pour des services d'IA, ce changement de paradigme est effectivement plus solide que la simple tokenisation de la puissance de calcul. Si à l'avenir, ils pouvaient rendre l'intégration de Google Cloud plus transparente, en évitant la gestion compliquée des clés privées, alors cette "infrastructure intelligente" pourrait vraiment réussir à transférer la valeur de Web2 à Web3. Bien sûr, il est encore trop tôt pour dire qu'elle peut complètement renverser les chaînes publiques traditionnelles, car la construction d'écosystèmes ne peut pas se faire uniquement par une architecture technique. La capacité à capter la prochaine vague d'explosion du trafic IA dépendra également de la manière dont elle performe réellement sur le réseau de test Vanguard et si elle peut supporter la pression. #vanar $VANRY
Ne vous laissez plus emporter par le TPS : j'ai vu dans le code de Vanar la mémoire et l'âme dont a vraiment besoin l'Agent AI
Ces dernières semaines, les mouvements sur le marché étaient si agités que je ne pouvais pas me concentrer pour écrire du code, l'écran était rempli de nouvelles de financement sur "AI+Crypto" et même certains projets de chiens de terre dont le livre blanc n'était pas terminé. J'ai aussi failli être emporté par cette émotion, me demandant si tant qu'il s'agissait d'une chaîne, il suffisait d'y apposer une coque LLM pour que cela décolle. Jusqu'à hier matin, pour vérifier une idée d'Agent inter-chaînes, j'ai pris mon courage à deux mains et j'ai parcouru plusieurs documents de soi-disant chaînes publiques AI, m'arrêtant finalement devant le diagramme d'architecture de Vanar. Pour être honnête, au départ, j'y allais avec l'intention de trouver des défauts, après tout, dans ce cercle, j'en ai vu beaucoup qui osent appeler "révolution" des projets qui se contentent de reconditionner des choses de Web2, mais quand je me suis vraiment plongé dans la logique sous-jacente de @Vanarchain et que j'ai vu comment il traite les données (Neutron) et la validation d'inférence (Kaion), cette arrogance que j'avais en tant que développeur a été brisée de moitié. Le marché des chaînes publiques est maintenant coincé dans un cercle vicieux extrêmement ennuyeux, tout le monde se bat pour le TPS, pour savoir combien de transactions peuvent être traitées par seconde, comme si augmenter le débit permettait à l'IA de fonctionner sur la blockchain, mais c'est complètement une erreur logique.
Je n'aime pas vraiment utiliser des termes comme « garanti » ou « inévitable ».\nMais je vais regarder trois choses : est-ce un site officiel, est-ce une première exploitation, est-ce que des institutions professionnelles ont parié à l'avance ?\nminiARTX est officiellement en ligne aujourd'hui, et a placé l'œuvre de Fuyuan Zhou « Coral Realm » $CRL dans la première exploitation ;\nL'artiste n'est même pas diplômé, la galerie est déjà en train de se battre ; l'œuvre a une prévision de croissance de 4 à 5 fois, plus un mécanisme de 14 fois.\nLe type « haut de gamme dès le départ, sans période d'essai à bas prix » tire le meilleur parti de cette structure.\nPour le reste, je n'ai pas besoin d'en dire plus.\nCe soir, $CRL commence les souscriptions, il ne faut absolument pas rater ça\n#Ultiland $ARTX \n\n\n#miniARTX #ARToken
Ignorer le bruit des K-lines, une réflexion froide et une analyse de la vérité et de la fausse narration sur les paiements Plasma L'atmosphère du marché est effectivement agitée, tout le monde se précipite vers l'IA et les MEME avec les yeux rouges, regarder un instant le XPL qui a chuté de près de 90 % dans le compte, ne ressentir aucune vague à l'intérieur serait faux. Mais j'aime vraiment me perdre dans des détails, plus personne ne crie des signaux, plus je dois retourner dans le livre blanc. Pour être honnête, alors que de nombreux Layer 2 s'occupent encore de « marcher sur des pieds gauche et droit » avec leurs systèmes de points, le mécanisme de Paymaster @Plasma est vraiment l'une des rares choses qui peuvent être mises en œuvre. Avez-vous essayé de transférer des U à des amis en dehors du cercle ? Il faut d'abord leur faire obtenir un peu d'ETH pour le Gas, c'est tout simplement anti-humain, alors que la sensation fluide de XPL utilisant directement des stablecoins pour couvrir les frais de transaction me rappelle un peu les paiements d'Alipay. À ce sujet, même des L2 comme Optimism ou Arbitrum, qui sont en tête, sont encore un peu en retard en termes d'expérience utilisateur, la barrière d'entrée reste là. Regardons les données en chaîne, le TVL du pool de prêt de Maple Finance a discrètement grimpé à 1,1 milliard de dollars, ce qui est probablement des fonds institutionnels qui restent là à gagner des intérêts, après tout, les cartes Rain et Oobit connectées au réseau Visa couvrent des millions de commerçants, ce genre de scénario de paiement concret a beaucoup plus de poids que ces jetons de gouvernance d'air. Mais je ne fais pas de la publicité aveugle, les défauts majeurs de ce projet sont également clairement visibles, la concentration des nœuds de validation est élevée, pour être franc, cela ressemble à un serveur centralisé, la sécurité repose entièrement sur cette validation périodique du réseau BTC. L'écosystème est encore plus désolé, à part un ou deux protocoles DeFi, il n'y a même pas de projet solide, il est pratiquement impossible de faire quelque chose de significatif sur cette chaîne. Mais en y réfléchissant, puisque le stablecoin conforme de l'UE, l'EUROP a déjà été intégré, cela montre que les porteurs de projet n'ont jamais pensé à suivre la route des flux, ils parient plutôt sur l'avenir des paiements conformes. Dans ce marché rempli de bruit, je pense qu'il vaut mieux éviter de s'emparer de ces histoires évanescentes à des niveaux élevés, plutôt que de se cacher dans des coins ignorés avec cette infrastructure qui résout réellement la douleur des « difficultés de transfert », bien qu'il y ait des risques, la logique est claire. #plasma $XPL
Le jeu de la fin de la chaîne de paiement : réévaluation de la valeur froide des architectures propriétaires au milieu des cadavres des L2 génériques
En regardant les quelques transactions du réseau Layer 2 que je devais interagir pour réclamer l'airdrop sur l'écran, j'ai soudain ressenti une fatigue sans précédent. Cette fatigue ne provenait pas des fluctuations des frais de Gas, mais d'un profond nihilisme technologique. Le monde de la cryptographie est désormais trop encombré, avec une nouvelle chaîne qui prétend résoudre le triangle impossible tous les quelques jours, alors qu'il ne s'agit en réalité que de copier-coller le code de Geth et de modifier quelques paramètres. Cela ressemble à regarder un groupe de clones portant des gilets de différentes couleurs se battre dans la même pièce bondée, jusqu'à ce que je réoriente mon attention vers @Plasma ou plutôt vers XPL. Cette fatigue esthétique technologique s'est légèrement atténuée. Je ne suis pas en train de vanter la perfection de ce projet, au contraire, son modèle économique problématique et la désolation précoce de son écosystème m'ont souvent poussé à envisager de liquider mes positions. Mais chaque fois que je réalise une transaction et que j'examine la rapidité de réponse de ce client Reth sous-jacent, je suis de nouveau attiré par cette beauté glaciale qui frôle l'industriel. Cette attitude ambivalente a marqué mon cycle de détention des trois derniers mois et m'a amené à réfléchir à quel type d'infrastructure pourrait survivre à l'adoption massive imminente.
Refuser la fausse prospérité, discutons de pourquoi la plupart des soi-disant chaînes de blocs AI ne peuvent même pas exécuter un Agent Ces derniers jours, je reste figé devant le tableau, rempli de pièces conceptuelles AI qui volent dans tous les sens, mais pour être honnête, il y a peu de projets capables d'incarner "l'intelligence" dans leur base. J'ai de nouveau parcouru la documentation technique de @Vanarchain , et plus je regarde, plus je pense que le marché actuel est rempli d'asymétries d'information. Tout le monde se bat pour le TPS, comme si tant que la vitesse est suffisante, l'IA pourrait décoller sur la chaîne, c'est tout simplement la plus grande erreur. Imaginez que vous déployez un Agent complexe sur une L1 réputée pour son haut débit, rien que le coût du stockage d'état et des appels de contexte en Gaz pourrait vous faire faillite, sans parler de cette machine virtuelle qui n'est pas optimisée pour le calcul non déterministe, c'est tout simplement une catastrophe. Le sentiment que j'ai avec Vanar est complètement différent, ce n'est pas un monstre cousu qui essaie de mettre un moteur dans une charrette, mais il résout dès le départ le problème de "calcul" et "mémoire". Surtout avec ce niveau Neutron, je pense même qu'il est plus séduisant que la chaîne principale elle-même. Il résout un point de douleur central : les données sur la chaîne sont généralement "mortes", sans sémantique, tandis que Neutron permet aux contrats de comprendre la logique derrière les données. C'est complètement différent de ces "faux projets AI" qui ne savent faire tourner des modèles que hors chaîne et stocker un hachage sur la chaîne. La plupart des produits concurrents semblent encore s'en tenir à des oracles simples pour alimenter les prix, ou à simplement profiter de la popularité de Nvidia, tandis que Vanar crée un environnement d'inférence natif sur la chaîne. Il y a aussi un point très intéressant, si vous faites attention aux chiffres, vous découvrirez que le modèle économique de Vanar est en réalité extrêmement favorable aux interactions AI à haute fréquence. Pour les développeurs, ce que nous voulons ce n'est pas des faux TPS de centaines de milliers par seconde, mais un environnement d'exécution capable de mener des inférences, de stocker des mémoires, et conforme. Beaucoup de gens ne prennent pas au sérieux le récit zéro carbone, mais dans le contexte de l'explosion de la consommation énergétique de l'entraînement des grands modèles, cela représente en fait un ticket d'entrée pour de nombreux géants du Web2. Ne vous laissez pas égarer par le bruit du marché, lorsque la marée se retire, il faudra voir qui porte vraiment un pantalon, seule l'infrastructure capable de porter l'économie machine mérite la prochaine grande montée. #vanar $VANRY
Dire adieu à l'illusion : dans l'architecture de Vanar, j'ai enfin senti l'odeur industrielle que le Web3 devrait avoir
À cet instant, en fixant les frais de Gas qui sautent continuellement sur l'écran et les journaux d'erreurs de plusieurs agents IA, je suis plongé dans une profonde fatigue. Cette fatigue ne provient pas de nuits blanches, mais d'une déchirure dans ma compréhension technique. Au cours de cette semaine, j'ai essayé, comme un paranoïaque, de déployer un ensemble de logiques d'automatisation de base sur la Layer 2 d'Ethereum et sur Solana, mais le résultat a été un véritable désastre. Parmi les blockchains qui crient 'pilotées par l'IA', en grattant la surface des sites web et des livres blancs, ce qui tourne en dessous reste la même vieille logique conçue sur mesure pour le DeFi. Juste au moment où je m'apprêtais à éteindre mon ordinateur et à admettre que le récit soi-disant IA de cette industrie n'était qu'une autre bulle de capital, j'ai inexplicablement ouvert la documentation des développeurs de @Vanarchain . En un coup d'œil, mes nerfs, qui étaient en détresse, ont été réveillés par une intuition d'ingénieur, longtemps oubliée. Je ne prévois pas de vous raconter des histoires de cryptomonnaies à cent fois le prix, je veux juste discuter de pourquoi Vanar me donne un sentiment de réalité éloigné des goûts bas de gamme dans ce marché rempli de bruit, et comment il a durement frappé le visage de ces soi-disant blockchains haute performance.
Tout le monde crie sur le récit de RWA de milliers de milliards, mais personne ne parle de l'embarras de l"exposition" des institutions. Récemment, en révisant la piste RWA, j'ai découvert un phénomène très intéressant : le marché se concentre sur les actions de BlackRock, tout en négligeant la logique fondamentale la plus mortelle des infrastructures. L'environnement actuel des chaînes publiques est tout simplement un champ de bataille pour les institutions financières traditionnelles, soit elles se dévoilent complètement comme Ethereum, où toutes les stratégies de trading et positions sont visibles sur la chaîne, soit elles créent une chaîne autorisée pour fonctionner comme un réseau local. Ces derniers jours, j'ai approfondi le livre blanc technique de @Dusk et je me suis rendu compte que ces gens ont un point d'entrée un peu délicat : ils ne se contentent pas de mettre des actifs sur la chaîne, mais cherchent à résoudre le paradoxe apparemment contradictoire de "vouloir être conforme sans être exposé". Contrairement à des projets comme Ondo ou Centrifuge qui s'attaquent à la couche d'application, Dusk intervient directement au niveau du protocole Layer 1. J'ai pris le temps d'exécuter leur code de machine virtuelle Piecrust, pour être honnête, la barrière d'entrée est un peu élevée, mais la logique est vraiment impressionnante. Leur protocole Citadel transforme le KYC en preuve à connaissance nulle non interactive, c'est comme si je n'avais pas besoin de montrer ma pièce d'identité sur la table pour que tout le monde voie mon adresse en entrant dans un bar, mais que je puisse simplement présenter une preuve mathématique "d'adulte". Ce type de conformité de confidentialité supportée nativement, comparé aux mélangeurs de confidentialité externes sur Ethereum, offre une sécurité d'un tout autre niveau. Cependant, il faut le dire, bien que la technologie soit séduisante, l'expérience réelle présente des frictions. Lors de mes interactions sur le réseau de test, j'ai clairement ressenti que la génération locale de preuves à connaissance nulle exigeait une certaine puissance matérielle, et il y avait parfois des retards dans la génération de preuves, ce qui représente un défi non négligeable pour les teneurs de marché en trading à haute fréquence. De plus, l'architecture indépendante Layer 1 de Dusk doit résoudre le problème de l'interopérabilité des actifs avec d'autres écosystèmes, sinon cela pourrait facilement devenir une île technologique très performante. Mais en revanche, si ce modèle de RegDeFi peut vraiment fonctionner, il offre aux institutions un sentiment de sécurité que les chaînes publiques EVM ne peuvent pas fournir. Après tout, pour ces vieux riches de Wall Street, au-delà du coût du Gas, ils se soucient davantage de savoir si leurs cartes de trading seront diffusées en direct sur le réseau en raison d'audits de conformité. Cette pensée d'intégrer la logique réglementaire dans le code de base est probablement la véritable réponse pour la deuxième moitié de RWA. #dusk $DUSK
Qui nage nu, qui construit des bateaux : au-delà du bruit des prix, reconstruire ma compréhension de la barrière technologique de Dusk
Ces derniers jours, en fixant l'écran sur les variations incessantes des chandeliers, je me sens étrangement calme, cette tranquillité provient d'une intuition presque obsessionnelle : nous sommes à un tournant étrange dans l'histoire des cryptomonnaies. Le récit de ce cycle haussier est extrêmement fragmenté, d'un côté, les MEME coins créent des mythes de richesse en multipliant par cent en une journée sur Solana, de l'autre côté, les VC coins désespèrent les petits investisseurs dans le piège d'une surévaluation à faible circulation. Ce sentiment de fragmentation m'oblige à réévaluer les infrastructures qui tentent réellement de résoudre les problèmes du secteur. Lorsque je détourne mon regard de ces bruyants parcours L2 et que je revisite les enregistrements de soumission de code récents de Dusk Network sur Github, une excitation oubliée refait surface, cette sensation est similaire à celle que j'ai ressentie la première fois que j'ai compris le principe des contrats intelligents Ethereum, réalisant que certaines choses fondamentales sont en train d'être modifiées. Dusk n'est pas un projet qui crie des conseils d'achat, même son marketing sur Twitter semble un peu maladroit, mais c'est précisément cette maladresse qui m'a permis de voir l'ombre de la culture des ingénieurs. Dans cette voie saturée d'actifs du monde réel (RWA), la grande majorité des projets se contentent de simple mise en chaîne d'actifs, c'est-à-dire de créer un SPV et d'émettre un token, mais @Dusk s'attaque à des choses plus fondamentales. Ils essaient de construire un Layer 1 qui respecte les exigences de conformité tout en protégeant la vie privée des utilisateurs grâce à des preuves à divulgation nulle de connaissance, cela semble être une sorte de cupidité à vouloir tout avoir, mais après avoir étudié attentivement l'architecture de la machine virtuelle Piecrust, je réalise qu'ils ont peut-être vraiment réussi.
Récemment, regarder le marché me donne mal à la tête, un écran entier de L2 se vante de son TPS de plusieurs milliers, comme si nous manquions de cette dizaine de millisecondes de vitesse de confirmation. En réalité, pour nous, les anciens de la chaîne, ce qui nous décourage le plus, c'est toujours ce maudit frais de Gas. Chaque fois que j'essaie de transférer un peu de stablecoin, je découvre que je n'ai pas assez d'ETH dans mon portefeuille et je dois aller en acheter spécifiquement. Cette logique, où l'on doit creuser un puits juste pour boire de l'eau, est tout simplement la plus grande blague du Web3. C'est aussi pourquoi, même si la tendance des prix d'XPL me fait peur, je suis toujours prêt à consacrer du temps à tester le réseau @Plasma , après tout, l'expérience zéro Gas mise en place par le mécanisme Paymaster est vraiment la chose qui se rapproche le plus de la fluidité du Web2 dans le domaine des paiements. Sur le plan technique, je n'aime pas trop faire de la théorie, mais l'opération Plasma est assez pragmatique. Une compatibilité totale avec l'EVM signifie que les développeurs n'ont pas besoin d'apprendre un nouvel ensemble de Rust ou de Move, ils peuvent simplement utiliser Hardhat pour transférer le code, un seuil d'entrée aussi bas pourrait permettre à l'écosystème de croître rapidement. De plus, ils n'ont pas l'intention de gérer la sécurité eux-mêmes, mais de stabiliser régulièrement l'état sur le réseau Bitcoin, ce qui revient à payer pour engager du BTC comme garde du corps. Dans ce marché instable, cette stratégie de se rapprocher des grandes entreprises est en fait beaucoup plus fiable que de créer un mécanisme de consensus non validé par eux-mêmes. Bien sûr, les données ne mentent pas. J'ai spécialement jeté un œil à Maple Finance, et la TVL du pool SyrupUSDT s'élève à 1,1 milliard de dollars, de nos jours, il est rare de voir un projet accumuler autant de fonds institutionnels, ce qui montre qu'il y a un consensus sur la sécurité de sa base. De plus, avec les cartes Rain et Oobit intégrées au réseau Visa couvrant cette multitude de commerçants, ce n'est déjà plus un récit resté sur PPT. Cependant, il faut le dire, les points faibles de ce projet sont aussi évidents que les poux sur la tête d'un chauve. Les nœuds de validateurs sont encore très centralisés, c'est essentiellement l'équipe qui joue, ce qui est un mal commun des projets précoces, mais un degré de décentralisation insuffisant reste toujours un problème. En outre, l'ensemble de l'écosystème, en dehors des transferts et des prêts, est vraiment désert, je ne trouve même pas où jouer avec un chien de terre. Je ne peux que dire que, dans ce cycle d'agitation où tout le monde est occupé à émettre des actifs, je suis prêt à faire preuve de plus de patience pour les projets qui prennent le temps de construire des routes et de résoudre le problème des "frais de passage", après tout, une fois que la route est bien construite, les véhicules finiront par rouler. #plasma $XPL
Même si on me traite de "recul", je dois dire : en ce jour où L2 est omniprésent, le paiement nu de Plasma, ce "minimalisme", est le seul antidote à l'extension.
Hier soir, j'ai fixé l'écran en regardant ces quelques lignes de code Rust, le bruit du trafic à l'extérieur s'est déjà raréfié, je n'ai même pas pensé à boire mon café froid dans ma main, une pensée extrêmement absurde mais réelle tournait dans ma tête : est-ce que la soi-disant "maison modulaire" que nous avons construite ces dernières années sur Layer 2 n'est pas déjà tordue depuis ses fondations ? Pendant cette période, j'ai intensément navigué entre le testnet et le mainnet précoce, j'ai exploré toutes les blockchains publiques qui prétendent avoir un TPS supérieur à 10 000, pour être honnête, plus je testais, plus je me sentais découragé, cette fatigue de raconter des histoires juste pour raconter des histoires m'a rempli de doutes sur la voie de l'infrastructure actuelle, jusqu'à ce que je recentre mon attention sur @Plasma , ce vieux truc qui avait été condamné à mort par la communauté Ethereum et qui a ressuscité dans un sol impur, après avoir compris en profondeur sa reconstruction de couche d'exécution Reth et ce modèle UTXO apparemment contre-intuitif, j'ai même ressenti une petite excitation oubliée, cette excitation n'est pas due aux fluctuations du prix des cryptomonnaies, mais à la vue de ce type de "purisme" technique qui a enfin pris forme.
Tout le monde crie à l'explosion des agents IA, mais qui va payer leurs factures de Gas ? Après avoir observé ce tour de narration sur l'IA, le marché semble plutôt agité, tout le monde utilise des PPT pour raconter des histoires, mais peu d'entre eux peuvent vraiment faire fonctionner la logique. Il y a quelques jours, j'ai testé plusieurs réseaux de test prétendant être des dirigeants intelligents du Web3, en réalisant une simple interaction d'Agent, les frais de Gas m'ont fait mal au cœur. Si cela devait être utilisé à grande échelle à l'avenir, même L2 ne pourrait pas supporter ce genre de débit. À ce moment-là, en regardant l'architecture de Vanar, je réalise que ces personnes comprennent vraiment les points douloureux de l'IA ; par rapport à ceux qui continuent à s'accrocher à des concepts de puissance de calcul, Vanar semble vouloir résoudre des problèmes de survie plus concrets. Contrairement à ces solutions modulaires sur le marché qui se contentent d'accumuler de la puissance de calcul sans se soucier des coûts de mise en œuvre, @Vanarchain me donne l'impression de fournir à l'IA une autoroute dédiée. Surtout après avoir approfondi leurs intégrations de la pile technologique NVIDIA, je découvre qu'il ne s'agit pas simplement d'un attrape-nigaud marketing, mais qu'ils ont réellement fait la compatibilité du cœur CUDA au niveau inférieur. C'est très intéressant. Comparé à quelques chaînes publiques à haute performance que j'avais précédemment appréciées, l'architecture Neutron de Vanar réalise la validation des données de manière extrêmement mesurée et efficace. Elle ne nécessite pas que toute l'historique d'entraînement soit rigoureusement intégrée sur la chaîne, mais utilise la validation des métadonnées pour assurer sa crédibilité. Ce type de conception est littéralement une bouée de sauvetage pour les applications IA nécessitant des lectures et écritures fréquentes. Honnêtement, l'erreur de l'industrie actuelle réside dans une confiance excessive envers ce grand récit de « puissance de calcul décentralisée », tout en ignorant les calculs économiques de la mise en œuvre des applications. Si chaque étape d'inférence d'une IA doit consommer des dizaines de centimes en frais de passage, alors l'intelligence sur la chaîne sera toujours une fausse promesse. L'engagement de Vanar en matière d'environnement et d'efficacité énergétique, bien qu'il ne semble pas aussi séduisant que certaines pièces meme, est en réalité le préalable à l'entrée des utilisateurs de niveau entreprise dans un environnement à faible consommation d'énergie et faible latence. Je crois en elle non pas à cause d'un modèle de jeton complexe, mais simplement parce qu'elle résout un problème très fondamental : permettre à l'IA de « vivre » sur la chaîne. Ne vous concentrez pas uniquement sur les fluctuations à court terme des lignes K, cette infrastructure capable de réellement supporter un trafic commercial ne se révélera qu'une fois la marée retirée. #vanar $VANRY
En regardant l'anxiété AI+Crypto sur l'écran, j'ai migré le nœud vers Vanar : un examen approfondi des faux besoins et de la véritable infrastructure.
Hier soir, en regardant les frais de Gas et les données de Mempool qui sautaient sur l'écran, ce sentiment familier d'impuissance est de nouveau monté. C'est déjà la troisième fois que je ressens un effondrement logique cette année soi-disant « l'année de l'explosion du récit AI ». Le marché est inondé de divers projets monstres, prenant l'API de GPT-4, en mettant une coquille, et en lançant une crypto-monnaie, ils osent se dire être une blockchain AI. Ce spectacle absurde ressemble beaucoup à la folie ICO de 2017, sauf que le livre blanc d'alors a été remplacé par le lien Hugging Face d'aujourd'hui. En tant que développeur ayant lutté sur la chaîne pendant de nombreuses années, j'ai des normes d'évaluation extrêmement pragmatiques, voire froides. Je ne me soucie pas de savoir à quel point votre PPT est futuriste, je me préoccupe uniquement de savoir si mon code fonctionnera sans erreur à cause de l'envolée des frais de Gas, et si mon Agent peut réaliser une arbitrage sans autorisation en millisecondes. Pendant cette période, j'ai pratiquement testé toutes les blockchains dites « haute performance » sur le marché, du marché des frais locaux de Solana au mécanisme de sharding de Near, puis aux diverses modifications magiques d'OP Stack de Base, pour finalement tester par un coup de chance @Vanarchain . Cette sensation est très subtile, comme si vous étiez dans une discothèque bruyante de heavy metal, et que vous entriez soudainement dans un laboratoire de précision parfaitement insonorisé.
Merci professeur Phoque pour votre discours courageux❤️
快乐的小海豹
·
--
📐🤦♂️ Analyse technique|Accusations de plagiat entre deux influenceurs populaires de Binance : preuve détaillée et texte original
1️⃣ Contexte et déclaration Récemment, une accusation de plagiat a eu lieu sur Binance Square, 一位顶流发帖指控另一位顶流,举报给币安后被驳回,表达了强烈的失望感. ⓵ Texte plagié : https://www.binance.com/zh-CN/square/post/35796825707177 ⓶ Texte de plagiat présumé : https://www.binance.com/zh-CN/square/post/35828295322393
Déclaration : ⓵ Je n'ai aucun lien personnel avec les deux parties, je suis simplement un internaute étranger à travers une connexion Internet. ⓶ Je publie uniquement par curiosité technique et un simple sens de la justice.
Ne vous laissez pas tromper par le concept RWA, ce qui manque vraiment aux institutions pour entrer, c'est cette clé Récemment, j'ai complètement décortiqué le document de la machine virtuelle Piecrust @Dusk , et j'ai testé le dernier nœud de test. Pour être franc, la grande majorité des projets qui se présentent sous le drapeau RWA jouent essentiellement à un jeu d'enfant en mettant des actifs sur la chaîne dans une version 'hors ligne'. Un livre de comptes entièrement transparent comme celui d'Ethereum, même Goldman Sachs le verrait d'un mauvais œil ; qui voudrait exposer ses stratégies de trading et ses fonds aux yeux de tous ? Mais si on choisit de faire complètement dans la confidentialité pour créer une boîte noire, la SEC ne laissera sûrement pas passer cela, c'est la plus grande schizophrénie du secteur RWA actuel. J'ai fait le tour et seul le concept RegDeFi proposé par Dusk a un certain intérêt, car il n'applique pas des patchs au niveau de l'application comme le font ses concurrents, mais intègre directement la logique de conformité au niveau du protocole L1. La technologie clé ici est le protocole Citadel, qui résout le problème que je me posais depuis longtemps : la séparation de l'identité et des autorisations. En termes simples, je n'ai pas besoin de montrer ma carte d'identité à chaque DApp ; il me suffit de fournir une preuve à divulgation nulle pour prouver que 'j'ai le droit de trader'. Ce type de conception est bien plus astucieux que la solution d'Ondo qui maintient une lourde liste blanche au niveau des contrats intelligents, car cette dernière non seulement a un coût de maintenance élevé, mais sacrifie également l'interopérabilité. En revanche, l'architecture de Dusk, qui supporte nativement la conformité, pourrait réellement accueillir de gros capitaux. C'est comme si l'un installait une porte de sécurité sur une vieille maison, tandis que l'autre construisait directement avec des matériaux pare-balles ; la sécurité de base est radicalement différente. Cependant, durant le processus de test, j'ai aussi remarqué quelques petits problèmes : la documentation actuelle n'est pas encore suffisamment bonne pour les développeurs, surtout l'efficacité de la génération de preuves ZKP qui a un peu de mal à fonctionner sur des appareils bas de gamme, le ventilateur tourne comme un hélicoptère ; cette partie doit encore être peaufinée par l'équipe. L'évolution technologique est toujours brutale, et quand la confidentialité n'est plus une option mais une infrastructure, ce type de Layer 1 qui peut plaire à la fois aux régulateurs et aux géants de la confidentialité montrera sa véritable valeur. Ne vous concentrez pas seulement sur ces cryptomonnaies fantômes qui ne font que tweeter ; la technologie qui peut réellement être mise en œuvre évolue souvent dans des coins que personne ne remarque. #dusk $DUSK