Twelve months ago, we didn’t have “Nasdaq companies aping into TAO” on the bingo card.
But here we are.
- Synaptogenix (SNPX) did a MicroStrategy-style bet on Bittensor stock jumped 40% after it announced a $10M TAO buy (2x its own market cap). They’re aiming for $100M.
James Altucher is leading it. $5.5M personal stake. They're releasing preferred shares and TAO-linked warrants. And a full rebrand incoming.
- Oblong (OBLG) is next. $7.5M raise to accumulate TAO and back Subnet 0. The stock popped after the announcement.
The thesis for these companies is simple: TAO is scarce, programmable, and productive. It’s the native asset of decentralized intelligence.
This won’t be the last. We’re watching the start of a public market land grab for crypto AI infrastructure.
Since the 1st edition of our AI & Crypto newsletter was published on 11 June 2024, we’ve been breaking down the madness so you don’t have to live inside Arxiv or scroll Twitter/X until your eyes bleed.
This is the biggest tech shift of our lifetime. It’s chaotic, it’s fast, and if you’re not neck-deep in it, it’s easy to miss what’s really happening.
So, a big thank you for riding with us. Year two starts now. 🫡
Weekly AI Edge #51 is out! Read this, then get back to enjoying summer:
🌈 Project Updates = @NillionNetwork's new Enterprise Cluster is live, with Vodafone, Deutsche Telekom, Alibaba Cloud, and stc Bahrain, aiming for a privacy-native internet. = @TRNR_Nasdaq, listed on NASDAQ, is raising $500M to build the biggest AI-token treasury on a US exchange, backed by ATW and DWF Labs. = @USDai_Official entered private beta with $10M in deposits for a yield model tied to tokenized Treasuries and AI assets. = @PondGNN launched AI Studio and Pond Markets to help AI projects grow and fund. = @Worldcoin launched native USDC and CCTP V2 on World Chain, enhancing transfers for 27M users. = @peaq and Pulsar launched a Machine Economy Free Zone in the UAE for AI-powered machine pilots. = @thedkingdao is deploying $300M with a sports-betting hedge fund via an on-chain DeFAI system. = @CrucibleLabs launched Smart Allocator to auto-stake TAO into top subnets. = @hyperlane introduced TaoFi's Solana-to-Bittensor USDC bridge, unlocking DeFi access for Solana, Base, and Ethereum.
🌴 AI Agents = @Virtuals_io released I.R.I.S., a Virtuals Genesis AI agent on Ethereum, for contract security alerts. = @TheoriqAI launched Theo Roo, an AI strategist for real-time on-chain efficiency. = @AlloraNetwork started a six-week Agent Accelerator with $ALLO grants for top agents. = @Gizatechxyz's Arma now integrates into Rainbow Wallet for yield tracking. = @Chain_GPT launched AgenticOS, an open-source AI for posting crypto insights using on-chain data.
🐼 Web2 AI = @MistralAI released Magistral, a multilingual model for domain-specific tasks. = @xAI and Polymarket are partnering to integrate Grok’s AI with prediction markets. = @OpenAI launched o3-pro, the new ChatGPT Pro model, with enhanced features. = @Yutori released Scouts, AI agents for personalized internet alerts; beta at https://t.co/gxJvB6iC7h. = @Krea entered image modeling with Krea 1 in private beta, offering artist-grade output.
+ much more alpha in the full newsletter @cot_research (link in bio)
Gerade eine detaillierte Analyse zum dezentralen Training veröffentlicht. Wir behandeln dort viel, aber hier ist ein schneller Gedankenausstoß, während meine Gedanken frisch sind:
In den letzten 3 Monaten ist so viel passiert und es ist schwer, nicht aufgeregt zu sein - @NousResearch hat ein 15B-Modell auf verteilte Weise vortrainiert und trainiert jetzt ein 40B-Modell.
- @PrimeIntellect hat ein 32B Qwen-Basismodell über ein verteiltes Netz feinjustiert und übertrifft damit seine Qwen-Basislinie in Mathematik und Code.
- @tplr_ai hat ein 1,2B-Modell von Grund auf mit Token-Belohnungen trainiert. Die frühen Verlustkurven übertrafen zentralisierte Läufe.
- @PluralisHQ hat gezeigt, dass Low-Bandwidth, modellparalleles Training tatsächlich ziemlich machbar ist... etwas, das die meisten für unmöglich hielten.
- @MacrocosmosAI veröffentlicht ein neues Framework mit Daten- und Pipeline-Parallellismus + Anreizdesign und beginnt mit dem Training eines 15B-Modells.
Die meisten Teams skalieren heute auf ~40B Parameter, ein Niveau, das anscheinend die praktische Grenze des Datenparallelismus über offene Netzwerke markiert. Darüber hinaus werden die Hardwareanforderungen so steil, dass die Teilnahme auf nur wenige gut ausgestattete Akteure beschränkt ist.
Die Skalierung auf 100B oder 1T+ Parameter Modelle wird wahrscheinlich von der Modellparallelität abhängen, die mit erheblich schwierigeren Herausforderungen einhergeht (Umgang mit Aktivierungen, nicht nur Gradienten).
Wahres dezentrales Training bedeutet nicht nur, KI über verteilte Cluster zu trainieren. Es ist das Training über nicht vertrauende Parteien. Das ist der Punkt, an dem es kompliziert wird.
Selbst wenn du Koordination, Verifizierung und Leistung knackst, funktioniert nichts ohne Teilnahme. Rechenleistung ist nicht kostenlos. Menschen werden ohne starke Anreize nicht beitragen.
Die Gestaltung dieser Anreize ist ein hartes Problem: viele heikle Fragen rund um Tokenomics, auf die ich später eingehen werde.
Damit dezentrales Training von Bedeutung ist, muss es beweisen, dass es Modelle günstiger, schneller, und anpassungsfähiger trainieren kann.
Dezentralisiertes Training könnte eine Weile Nischencharakter haben. Aber wenn sich die Kosten-Dynamik ändert, kann das, was einst experimentell schien, schnell zum neuen Standard werden.