In diesem Zeitraum der Unruhe, in dem man bei jedem Projekt die beiden Buchstaben "AI" auf die Stirn gedruckt hat, wollte ich eigentlich keine neuen Whitepapers von Public Chains mehr lesen. Besonders nicht von diesen Projekten, deren offizielle Webseiten extrem schön gestaltet sind und die eine Menge großer Logos von Partnern zeigen. Normalerweise sieht man beim Öffnen von GitHub, dass die Code-Commits sauberer sind als mein Gesicht. Aber in den letzten Tagen wurde ich von den hohen Gasgebühren des Ethereum-Hauptnetzes so genervt, dass ich keine Geduld mehr hatte. Um einen Ort für meinen noch in den Kinderschuhen steckenden AI-Agenten zu finden, der nicht alle Gewinne in Minergebühren verbrennt, hielt ich mir die Nase zu und testete Vanar. Das war ursprünglich ein Versuch, um einen Vorwand zu finden, aber als ich das Python-Skript zur Lasttestung der Knoten abgeschlossen hatte und auf die toten, schnurgeraden Gasgebührenkurven auf dem Terminal sah, vergaß ich sogar, meinen Kaffee zu trinken. Das sieht überhaupt nicht aus wie das, was wir in der Krypto-Community gewohnt sind, es hat eine beunruhigende industrielle Kälte.
Viele Menschen haben ein großes Missverständnis über das sogenannte "AI-Ready". Sie denken, dass es beeindruckend ist, wenn man ein großes Modell auf der Chain laufen lassen kann. Das ist Quatsch, die aktuelle Hardware ist einfach nicht dazu in der Lage. Die wahre AI-Infrastruktur muss das Problem lösen, wenn Tausende von Agenten (Agenten) Mikrozahlungen und Datenaustausch durchführen und das Netzwerk wegen Überlastung direkt zusammenbricht. Ich habe versucht, auf Vanars Testnetz fünfhundert parallele Threads zu simulieren, die wahnsinnig kleine Überweisungen und Metadaten auf die Chain bringen. Wenn man das auf Solana machen würde, würde eine solche Intensität der Parallelität wahrscheinlich dazu führen, dass einige Transaktionen verloren gehen oder das Netzwerk ruckelt, da es für Geschwindigkeit auf Kosten von Stabilität optimiert ist. Wenn man das auf Ethereum L2 macht, kann die Volatilität der Gasgebühren dazu führen, dass die automatisierten Strategien, die man geschrieben hat, direkt fehlerhaft sind. Aber auf Vanar ist diese Erfahrung so seltsam, als würde man eine AWS-Cloud-Datenbank verwenden; es gibt weder die chaotischen Schwankungen, die durch Dezentralisierung verursacht werden, noch das lange Warten, das notwendig ist, um Konsens zu erreichen. In diesem Moment wurde mir klar, dass die stundenlange Zusammenarbeit mit Google Cloud möglicherweise nicht nur ein Name ist; diese Leute haben tatsächlich die extremen SLA-Standards von Web2 auf die Chain gebracht.
Natürlich hat dieser "Großunternehmensgeschmack" auch seine Nebenwirkungen. Als ich mit ihrem Vanguard-Browser Daten abgerufen habe, hat mich das übermäßig standardisierte Interface etwas überfordert, und ich konnte nicht das Gefühl finden, das ich beim Durchstöbern von Hacker-Transaktionen auf Etherscan hatte. Außerdem bin ich während des Deployments eines Smart Contracts auf einen ziemlich nervigen kleinen Bug gestoßen: Wenn der Bytecode des Contracts zu groß ist, gibt der RPC-Knoten gelegentlich einen Timeout-Fehler zurück. Zwar kann man es mit einem Retry oft beheben, aber das stellt ein Risiko für unternehmensorientierte Anwendungen dar, die auf extreme Stabilität angewiesen sind. Ich vermute, dass dies möglicherweise daran liegt, dass die Unterlage zur Verhinderung von DDoS-Angriffen die Firewall-Regeln zu streng eingestellt hat, schließlich steht Google dahinter und die Sicherheitsstrategie ist sicherlich eher konservativ. Das ist ganz anders als die äußerst entwicklerfreundliche, aber extrem komplizierte Erfahrung von Near; Vanar ist einfach und brutal EVM-kompatibel. Ich habe den Code, der auf Polygon läuft, rübergeholt, und abgesehen von der Änderung der Chain ID musste ich nichts anderes anpassen. Dieses Gefühl der gedankenlosen Migration ist für Entwickler, die von verschiedenen ZK-Rollup-Sprachen frustriert sind, die sich die Haare raufen, einfach ein dimensionaler Schlag.
Wenn es um Polygon geht, ist das wirklich ein fettes Negativbeispiel. Derzeit ist das Polygon-Ökosystem mit verschiedenen DeFi-Boxen und Schrotthunden vollgestopft. Es sieht zwar blühend aus, ist aber für die regulären Truppen extrem feindlich. Denk mal nach: Wenn Nike oder Disney ein interaktives AI-NFT herausbringen wollen und aufgrund eines Zusammenbruchs eines Schrotthunde-Projekts die ganze Chain überlastet ist, würde die PR-Abteilung der Marke vor Schreck explodieren. Vanar gibt mir das Gefühl, wie ein steriles Labor, das gerade gründlich desinfiziert wurde. Obwohl es jetzt leer und ohne native Anwendungen ist, fehlt sogar die angemessene DEX-Liquidität, ist die Umgebung wirklich sauber. Diese "saubere Netz"-Umgebung ist offensichtlich nicht für Einzelhändler gedacht, um zu spekulieren, sondern bietet den traditionellen Giganten mit hohen Compliance-Anforderungen einen Hintertür. Ich habe mir die Liste der Validierungsknoten angesehen, die meisten sind solche Unternehmens-Knoten mit Anzug und Krawatte. Für die Dezentralisierungs-Altgläubigen ist das sicherlich ein Ketzerei; sie denken, das sei nicht einfach eine Konsortial-Chain? Aber für die kommerzielle Umsetzung ist dieser auf Reputation basierende Konsensmechanismus der stabilste.
Das führt zu Vanars größter Schwäche: der ökologischen Wüste. Ich habe den ganzen Tag auf der Chain umhergestreift, und außer den offiziellen Musterprojekten habe ich kaum irgendwelche Gemeinschaftsinnovationen gefunden. Es ist, als hätte man eine F1-Rennstrecke gebaut, die so glatt ist, dass sie reflektiert, aber darauf fahren nur offizielle Testfahrzeuge, nicht einmal ein Zuschauer, der Melonen verkauft. Dieses "Geisterstadt"-Phänomen ist in neuen Public Chains sehr verbreitet, aber Vanar könnte es aufgrund des Mangels an diesem rauen Charakter schwieriger haben, die erste Welle von Spekulationsgeldern anzuziehen. Ohne den Wohlstandseffekt gibt es keinen Verkehr, ohne Verkehr gibt es keine Entwickler. Wie kann man diesen Teufelskreis durchbrechen? Allein mit Googles Cloud-Unterstützung ist es nicht möglich. Wenn man jedoch umkehrt: Wenn du ein Entwickler bist, dann besetzt du jetzt einen Platz. Sobald es ein Killer-AI-Spiel oder SocialFi gibt, das herauskommt, werden die frühen Infrastruktur-Anbieter sicherlich die Ersten sein, die profitieren.
Ich habe auch besonders auf die Energieverbrauchsdaten geachtet, was in der Krypto-Welt normalerweise belächelt wird. Aber Vanar macht das sehr detailliert, so dass der CO2-Fußabdruck jeder Transaktion nachverfolgt werden kann. Das ist offensichtlich, um den ESG-Investitionsstandards gerecht zu werden. Die großen Web2-Unternehmen, insbesondere im AI-Bereich, sind extrem streng bei Umweltbewertungen. Vanars Positionierung als energiesparend und leistungsstark folgt vollständig den Beschaffungsstandards von NASDAQ-notierten Unternehmen. Es ist nicht wie ein Revolutionär, der das Finanzsystem umkrempeln will, sondern eher wie ein scharfsinniger Bauunternehmer, der das Fundament gut vorbereitet, die Versorgungsleitungen verlegt und dann an der Straßenecke steht, um die AI-Unternehmen zu empfangen, die mit ihren schweren Lastwagen Mautgebühren zahlen.
Nachdem ich bis zum Morgengrauen herumgetüftelt habe, ist meine Einschätzung von Vanar ziemlich ambivalent. Aus der Sicht eines Technikgeeks fehlt es ihm an einer neuen Erzählweise, die einen umhaut; es gibt keine komplexen mathematischen Zaubertricks. Aber aus der Perspektive der praktischen Umsetzung und der Geschäftlogik ist es die pragmatischste Chain, die ich bisher gesehen habe. Es hat die absolute, anarchistische Dezentralisierung aufgegeben und dafür extreme Effizienz und Konformität gewonnen. Das könnte unter den aktuellen Marktbedingungen nicht besonders ansprechend sein; es könnte sogar als zentralisierter Handlanger beschimpft werden. Doch in dieser Branche überleben oft nicht die lautesten Stimmen, sondern diejenigen, die Unternehmen tatsächlich bei der Lösung ihrer Probleme helfen können. Für Leute wie uns, die an Höhen und Tiefen gewöhnt sind, könnte diese "langweilige" Gewissheit das wertvollste Asset im nächsten Zyklus sein.

