To jest całkiem fajne: token lustrzany SpaceX. Pytania, które mam na myśli, to: - ile będzie płynności - jakie roszczenia prawne będą miały osoby posiadające tokeny
Twelve months ago, we didn’t have “Nasdaq companies aping into TAO” on the bingo card.
But here we are.
- Synaptogenix (SNPX) did a MicroStrategy-style bet on Bittensor stock jumped 40% after it announced a $10M TAO buy (2x its own market cap). They’re aiming for $100M.
James Altucher is leading it. $5.5M personal stake. They're releasing preferred shares and TAO-linked warrants. And a full rebrand incoming.
- Oblong (OBLG) is next. $7.5M raise to accumulate TAO and back Subnet 0. The stock popped after the announcement.
The thesis for these companies is simple: TAO is scarce, programmable, and productive. It’s the native asset of decentralized intelligence.
This won’t be the last. We’re watching the start of a public market land grab for crypto AI infrastructure.
Since the 1st edition of our AI & Crypto newsletter was published on 11 June 2024, we’ve been breaking down the madness so you don’t have to live inside Arxiv or scroll Twitter/X until your eyes bleed.
This is the biggest tech shift of our lifetime. It’s chaotic, it’s fast, and if you’re not neck-deep in it, it’s easy to miss what’s really happening.
So, a big thank you for riding with us. Year two starts now. 🫡
Weekly AI Edge #51 is out! Read this, then get back to enjoying summer:
🌈 Project Updates = @NillionNetwork's new Enterprise Cluster is live, with Vodafone, Deutsche Telekom, Alibaba Cloud, and stc Bahrain, aiming for a privacy-native internet. = @TRNR_Nasdaq, listed on NASDAQ, is raising $500M to build the biggest AI-token treasury on a US exchange, backed by ATW and DWF Labs. = @USDai_Official entered private beta with $10M in deposits for a yield model tied to tokenized Treasuries and AI assets. = @PondGNN launched AI Studio and Pond Markets to help AI projects grow and fund. = @Worldcoin launched native USDC and CCTP V2 on World Chain, enhancing transfers for 27M users. = @peaq and Pulsar launched a Machine Economy Free Zone in the UAE for AI-powered machine pilots. = @thedkingdao is deploying $300M with a sports-betting hedge fund via an on-chain DeFAI system. = @CrucibleLabs launched Smart Allocator to auto-stake TAO into top subnets. = @hyperlane introduced TaoFi's Solana-to-Bittensor USDC bridge, unlocking DeFi access for Solana, Base, and Ethereum.
🌴 AI Agents = @Virtuals_io released I.R.I.S., a Virtuals Genesis AI agent on Ethereum, for contract security alerts. = @TheoriqAI launched Theo Roo, an AI strategist for real-time on-chain efficiency. = @AlloraNetwork started a six-week Agent Accelerator with $ALLO grants for top agents. = @Gizatechxyz's Arma now integrates into Rainbow Wallet for yield tracking. = @Chain_GPT launched AgenticOS, an open-source AI for posting crypto insights using on-chain data.
🐼 Web2 AI = @MistralAI released Magistral, a multilingual model for domain-specific tasks. = @xAI and Polymarket are partnering to integrate Grok’s AI with prediction markets. = @OpenAI launched o3-pro, the new ChatGPT Pro model, with enhanced features. = @Yutori released Scouts, AI agents for personalized internet alerts; beta at https://t.co/gxJvB6iC7h. = @Krea entered image modeling with Krea 1 in private beta, offering artist-grade output.
+ much more alpha in the full newsletter @cot_research (link in bio)
Właśnie opublikowano szczegółową analizę na temat zdecentralizowanego szkolenia. Poruszamy tam wiele kwestii, ale oto szybki przegląd moich myśli, gdy są świeże:
Tak wiele się wydarzyło w ciągu ostatnich 3 miesięcy i trudno nie być podekscytowanym - @NousResearch wstępnie wytrenował model 15B w sposób rozproszony i teraz trenuje model 40B.
- @PrimeIntellect dostroił model bazowy Qwen 32B w sieci rozproszonej, przewyższając jego podstawę Qwen w matematyce i kodzie.
- @tplr_ai wytrenował model 1,2B od podstaw, korzystając z nagród tokenowych. Wczesne krzywe strat przewyższały scentralizowane uruchomienia.
- @PluralisHQ pokazał, że niskopasmowe, równoległe szkolenie modeli jest w rzeczywistości całkiem wykonalne... coś, co większość uważała za niemożliwe
- @MacrocosmosAI wprowadza nowy framework z równoległością danych + potoków + projektowaniem zachęt i zaczyna trenować model 15B
Większość zespołów dzisiaj skaluje do ~40B parametrów, co wydaje się oznaczać praktyczny limit równoległości danych w otwartych sieciach. Poza tym wymagania sprzętowe stają się tak strome, że uczestnictwo jest ograniczone tylko do kilku dobrze wyposażonych aktorów.
Skalowanie w kierunku modeli o 100B lub 1T+ parametrów będzie prawdopodobnie zależało od równoległości modeli, która niesie ze sobą o rząd wielkości trudniejsze wyzwania (związane z aktywacjami, a nie tylko gradientami)
Prawdziwe zdecentralizowane szkolenie to nie tylko trenowanie AI w rozproszonych klastrach. To szkolenie wśród nieufnych stron. To tam sprawy stają się skomplikowane.
Nawet jeśli uda ci się pokonać koordynację, weryfikację i wydajność, nic z tego nie działa bez uczestnictwa. Obliczenia nie są darmowe. Ludzie nie będą współpracować bez silnych zachęt.
Projektowanie tych zachęt to trudny problem: wiele złożonych kwestii związanych z tokenomią, o których opowiem później.
Aby zdecentralizowane szkolenie miało znaczenie, musi udowodnić, że potrafi trenować modele taniej, szybciej, i bardziej elastycznie.
Zdecentralizowane szkolenie może pozostać niszowe przez pewien czas. Ale gdy dynamika kosztów się zmieni, to co kiedyś wydawało się eksperymentalne może szybko stać się nowym standardem.