Binance Square

0xPrismatic

0 Following
1 Follower
7 Like gegeben
1 Geteilt
Beiträge
·
--
This is quite cool: SpaceX mirror token. Questions in my mind are: - how much liquidity will there be - what legal claims will token holders have
This is quite cool: SpaceX mirror token.
Questions in my mind are:
- how much liquidity will there be
- what legal claims will token holders have
Decentralized training in practice: Compute, data, and validation are all done by separate actors, each earning tokens or micropayments. Correctness is often enforced through some form of cryptoeconomics: cheat, and you get slashed. Play fair, and you get paid.
Decentralized training in practice:

Compute, data, and validation are all done by separate actors, each earning tokens or micropayments.

Correctness is often enforced through some form of cryptoeconomics: cheat, and you get slashed. Play fair, and you get paid.
Open weights ≠ open systems. Most “free” AI models today were trained by large AI research labs with strategic reasons to release them. But what happens when that stops? Tokenized AI may be the way out. 🧵
Open weights ≠ open systems.

Most “free” AI models today were trained by large AI research labs with strategic reasons to release them.

But what happens when that stops?

Tokenized AI may be the way out. 🧵
Would be very interesting to see where today’s decentralized compute networks land on this AI supercomputer performance chart. h/t @EpochAIResearch
Would be very interesting to see where today’s decentralized compute networks land on this AI supercomputer performance chart.

h/t @EpochAIResearch
You can solve coordination. You can solve verification. You can even make it fast. But without incentives, decentralized training doesn’t work. Why would anyone burn compute for free? Let’s talk about why incentive design is the final boss. 🧵
You can solve coordination.
You can solve verification.
You can even make it fast.

But without incentives, decentralized training doesn’t work. Why would anyone burn compute for free?

Let’s talk about why incentive design is the final boss. 🧵
if you're building with crypto-native users as your primary market, it’s going to be tough to find sustained demand to me, the most interesting startups have products already geared towards infinite markets (AI, robotics etc)
if you're building with crypto-native users as your primary market, it’s going to be tough to find sustained demand

to me, the most interesting startups have products already geared towards infinite markets (AI, robotics etc)
Twelve months ago, we didn’t have “Nasdaq companies aping into TAO” on the bingo card. But here we are. - Synaptogenix (SNPX) did a MicroStrategy-style bet on Bittensor stock jumped 40% after it announced a $10M TAO buy (2x its own market cap). They’re aiming for $100M. James Altucher is leading it. $5.5M personal stake. They're releasing preferred shares and TAO-linked warrants. And a full rebrand incoming. - Oblong (OBLG) is next. $7.5M raise to accumulate TAO and back Subnet 0. The stock popped after the announcement. The thesis for these companies is simple: TAO is scarce, programmable, and productive. It’s the native asset of decentralized intelligence. This won’t be the last. We’re watching the start of a public market land grab for crypto AI infrastructure.
Twelve months ago, we didn’t have “Nasdaq companies aping into TAO” on the bingo card.

But here we are.

- Synaptogenix (SNPX) did a MicroStrategy-style bet on Bittensor stock jumped 40% after it announced a $10M TAO buy (2x its own market cap). They’re aiming for $100M.

James Altucher is leading it. $5.5M personal stake. They're releasing preferred shares and TAO-linked warrants. And a full rebrand incoming.

- Oblong (OBLG) is next. $7.5M raise to accumulate TAO and back Subnet 0. The stock popped after the announcement.

The thesis for these companies is simple: TAO is scarce, programmable, and productive. It’s the native asset of decentralized intelligence.

This won’t be the last. We’re watching the start of a public market land grab for crypto AI infrastructure.
We made it. One full year of @cot_research! Since the 1st edition of our AI & Crypto newsletter was published on 11 June 2024, we’ve been breaking down the madness so you don’t have to live inside Arxiv or scroll Twitter/X until your eyes bleed. This is the biggest tech shift of our lifetime. It’s chaotic, it’s fast, and if you’re not neck-deep in it, it’s easy to miss what’s really happening. So, a big thank you for riding with us. Year two starts now. 🫡
We made it. One full year of @cot_research!

Since the 1st edition of our AI & Crypto newsletter was published on 11 June 2024, we’ve been breaking down the madness so you don’t have to live inside Arxiv or scroll Twitter/X until your eyes bleed.

This is the biggest tech shift of our lifetime. It’s chaotic, it’s fast, and if you’re not neck-deep in it, it’s easy to miss what’s really happening.

So, a big thank you for riding with us. Year two starts now. 🫡
Another @cot_research drop will be landing in your inboxes in a few hours. It's a thought piece by @ChappieOnChain. Take a guess: what rabbit hole are we going down this time? (link in bio)
Another @cot_research drop will be landing in your inboxes in a few hours.

It's a thought piece by @ChappieOnChain.

Take a guess: what rabbit hole are we going down this time?

(link in bio)
Weekly AI Edge #51 is out! Read this, then get back to enjoying summer: 🌈 Project Updates = @NillionNetwork's new Enterprise Cluster is live, with Vodafone, Deutsche Telekom, Alibaba Cloud, and stc Bahrain, aiming for a privacy-native internet. = @TRNR_Nasdaq, listed on NASDAQ, is raising $500M to build the biggest AI-token treasury on a US exchange, backed by ATW and DWF Labs. = @USDai_Official entered private beta with $10M in deposits for a yield model tied to tokenized Treasuries and AI assets. = @PondGNN launched AI Studio and Pond Markets to help AI projects grow and fund. = @Worldcoin launched native USDC and CCTP V2 on World Chain, enhancing transfers for 27M users. = @peaq and Pulsar launched a Machine Economy Free Zone in the UAE for AI-powered machine pilots. = @thedkingdao is deploying $300M with a sports-betting hedge fund via an on-chain DeFAI system. = @CrucibleLabs launched Smart Allocator to auto-stake TAO into top subnets. = @hyperlane introduced TaoFi's Solana-to-Bittensor USDC bridge, unlocking DeFi access for Solana, Base, and Ethereum. 🌴 AI Agents = @Virtuals_io released I.R.I.S., a Virtuals Genesis AI agent on Ethereum, for contract security alerts. = @TheoriqAI launched Theo Roo, an AI strategist for real-time on-chain efficiency. = @AlloraNetwork started a six-week Agent Accelerator with $ALLO grants for top agents. = @Gizatechxyz's Arma now integrates into Rainbow Wallet for yield tracking. = @Chain_GPT launched AgenticOS, an open-source AI for posting crypto insights using on-chain data. 🐼 Web2 AI = @MistralAI released Magistral, a multilingual model for domain-specific tasks. = @xAI and Polymarket are partnering to integrate Grok’s AI with prediction markets. = @OpenAI launched o3-pro, the new ChatGPT Pro model, with enhanced features. = @Yutori released Scouts, AI agents for personalized internet alerts; beta at https://t.co/gxJvB6iC7h. = @Krea entered image modeling with Krea 1 in private beta, offering artist-grade output. + much more alpha in the full newsletter @cot_research (link in bio) h/t @issyadelaja
Weekly AI Edge #51 is out! Read this, then get back to enjoying summer:

🌈 Project Updates
= @NillionNetwork's new Enterprise Cluster is live, with Vodafone, Deutsche Telekom, Alibaba Cloud, and stc Bahrain, aiming for a privacy-native internet.
= @TRNR_Nasdaq, listed on NASDAQ, is raising $500M to build the biggest AI-token treasury on a US exchange, backed by ATW and DWF Labs.
= @USDai_Official entered private beta with $10M in deposits for a yield model tied to tokenized Treasuries and AI assets.
= @PondGNN launched AI Studio and Pond Markets to help AI projects grow and fund.
= @Worldcoin launched native USDC and CCTP V2 on World Chain, enhancing transfers for 27M users.
= @peaq and Pulsar launched a Machine Economy Free Zone in the UAE for AI-powered machine pilots.
= @thedkingdao is deploying $300M with a sports-betting hedge fund via an on-chain DeFAI system.
= @CrucibleLabs launched Smart Allocator to auto-stake TAO into top subnets.
= @hyperlane introduced TaoFi's Solana-to-Bittensor USDC bridge, unlocking DeFi access for Solana, Base, and Ethereum.

🌴 AI Agents
= @Virtuals_io released I.R.I.S., a Virtuals Genesis AI agent on Ethereum, for contract security alerts.
= @TheoriqAI launched Theo Roo, an AI strategist for real-time on-chain efficiency.
= @AlloraNetwork started a six-week Agent Accelerator with $ALLO grants for top agents.
= @Gizatechxyz's Arma now integrates into Rainbow Wallet for yield tracking.
= @Chain_GPT launched AgenticOS, an open-source AI for posting crypto insights using on-chain data.

🐼 Web2 AI
= @MistralAI released Magistral, a multilingual model for domain-specific tasks.
= @xAI and Polymarket are partnering to integrate Grok’s AI with prediction markets.
= @OpenAI launched o3-pro, the new ChatGPT Pro model, with enhanced features.
= @Yutori released Scouts, AI agents for personalized internet alerts; beta at https://t.co/gxJvB6iC7h.
= @Krea entered image modeling with Krea 1 in private beta, offering artist-grade output.

+ much more alpha in the full newsletter @cot_research (link in bio)

h/t @issyadelaja
New research essay dropping on Wednesday at @cot_research This time, we’re not just unpacking how the protocol works. We’re exploring if it’s investable. As usual, subscribers get 1st look. (link in bio)
New research essay dropping on Wednesday at @cot_research

This time, we’re not just unpacking how the protocol works. We’re exploring if it’s investable.

As usual, subscribers get 1st look. (link in bio)
planning a token launch? Pivot to an IPO instead. you can still rewrite that investor deck tonight before sending.
planning a token launch? Pivot to an IPO instead.

you can still rewrite that investor deck tonight before sending.
Wir glauben, dass Bittensor der faszinierendste Ort ist, um das Zusammenspiel von Krypto und KI zu beobachten. Hier sind einige Lektionen, die wir aus Gesprächen mit Teams und der Beobachtung von Subnetzen in der Wildnis gelernt haben: 🧵
Wir glauben, dass Bittensor der faszinierendste Ort ist, um das Zusammenspiel von Krypto und KI zu beobachten.

Hier sind einige Lektionen, die wir aus Gesprächen mit Teams und der Beobachtung von Subnetzen in der Wildnis gelernt haben: 🧵
Bittensor now has over 110 subnets—and counting Here are 12 Bittensor subnets that have stood out to us, and we're keeping on our watchlist👇
Bittensor now has over 110 subnets—and counting

Here are 12 Bittensor subnets that have stood out to us, and we're keeping on our watchlist👇
Gerade eine detaillierte Analyse zum dezentralen Training veröffentlicht. Wir behandeln dort viel, aber hier ist ein schneller Gedankenausstoß, während meine Gedanken frisch sind: In den letzten 3 Monaten ist so viel passiert und es ist schwer, nicht aufgeregt zu sein - @NousResearch hat ein 15B-Modell auf verteilte Weise vortrainiert und trainiert jetzt ein 40B-Modell. - @PrimeIntellect hat ein 32B Qwen-Basismodell über ein verteiltes Netz feinjustiert und übertrifft damit seine Qwen-Basislinie in Mathematik und Code. - @tplr_ai hat ein 1,2B-Modell von Grund auf mit Token-Belohnungen trainiert. Die frühen Verlustkurven übertrafen zentralisierte Läufe. - @PluralisHQ hat gezeigt, dass Low-Bandwidth, modellparalleles Training tatsächlich ziemlich machbar ist... etwas, das die meisten für unmöglich hielten. - @MacrocosmosAI veröffentlicht ein neues Framework mit Daten- und Pipeline-Parallellismus + Anreizdesign und beginnt mit dem Training eines 15B-Modells. Die meisten Teams skalieren heute auf ~40B Parameter, ein Niveau, das anscheinend die praktische Grenze des Datenparallelismus über offene Netzwerke markiert. Darüber hinaus werden die Hardwareanforderungen so steil, dass die Teilnahme auf nur wenige gut ausgestattete Akteure beschränkt ist. Die Skalierung auf 100B oder 1T+ Parameter Modelle wird wahrscheinlich von der Modellparallelität abhängen, die mit erheblich schwierigeren Herausforderungen einhergeht (Umgang mit Aktivierungen, nicht nur Gradienten). Wahres dezentrales Training bedeutet nicht nur, KI über verteilte Cluster zu trainieren. Es ist das Training über nicht vertrauende Parteien. Das ist der Punkt, an dem es kompliziert wird. Selbst wenn du Koordination, Verifizierung und Leistung knackst, funktioniert nichts ohne Teilnahme. Rechenleistung ist nicht kostenlos. Menschen werden ohne starke Anreize nicht beitragen. Die Gestaltung dieser Anreize ist ein hartes Problem: viele heikle Fragen rund um Tokenomics, auf die ich später eingehen werde. Damit dezentrales Training von Bedeutung ist, muss es beweisen, dass es Modelle günstiger, schneller, und anpassungsfähiger trainieren kann. Dezentralisiertes Training könnte eine Weile Nischencharakter haben. Aber wenn sich die Kosten-Dynamik ändert, kann das, was einst experimentell schien, schnell zum neuen Standard werden. Ich beobachte dies genau.
Gerade eine detaillierte Analyse zum dezentralen Training veröffentlicht. Wir behandeln dort viel, aber hier ist ein schneller Gedankenausstoß, während meine Gedanken frisch sind:

In den letzten 3 Monaten ist so viel passiert und es ist schwer, nicht aufgeregt zu sein
- @NousResearch hat ein 15B-Modell auf verteilte Weise vortrainiert und trainiert jetzt ein 40B-Modell.

- @PrimeIntellect hat ein 32B Qwen-Basismodell über ein verteiltes Netz feinjustiert und übertrifft damit seine Qwen-Basislinie in Mathematik und Code.

- @tplr_ai hat ein 1,2B-Modell von Grund auf mit Token-Belohnungen trainiert. Die frühen Verlustkurven übertrafen zentralisierte Läufe.

- @PluralisHQ hat gezeigt, dass Low-Bandwidth, modellparalleles Training tatsächlich ziemlich machbar ist... etwas, das die meisten für unmöglich hielten.

- @MacrocosmosAI veröffentlicht ein neues Framework mit Daten- und Pipeline-Parallellismus + Anreizdesign und beginnt mit dem Training eines 15B-Modells.

Die meisten Teams skalieren heute auf ~40B Parameter, ein Niveau, das anscheinend die praktische Grenze des Datenparallelismus über offene Netzwerke markiert. Darüber hinaus werden die Hardwareanforderungen so steil, dass die Teilnahme auf nur wenige gut ausgestattete Akteure beschränkt ist.

Die Skalierung auf 100B oder 1T+ Parameter Modelle wird wahrscheinlich von der Modellparallelität abhängen, die mit erheblich schwierigeren Herausforderungen einhergeht (Umgang mit Aktivierungen, nicht nur Gradienten).

Wahres dezentrales Training bedeutet nicht nur, KI über verteilte Cluster zu trainieren. Es ist das Training über nicht vertrauende Parteien. Das ist der Punkt, an dem es kompliziert wird.

Selbst wenn du Koordination, Verifizierung und Leistung knackst, funktioniert nichts ohne Teilnahme. Rechenleistung ist nicht kostenlos. Menschen werden ohne starke Anreize nicht beitragen.

Die Gestaltung dieser Anreize ist ein hartes Problem: viele heikle Fragen rund um Tokenomics, auf die ich später eingehen werde.

Damit dezentrales Training von Bedeutung ist, muss es beweisen, dass es Modelle günstiger,
schneller,
und anpassungsfähiger trainieren kann.

Dezentralisiertes Training könnte eine Weile Nischencharakter haben. Aber wenn sich die Kosten-Dynamik ändert, kann das, was einst experimentell schien, schnell zum neuen Standard werden.

Ich beobachte dies genau.
We’ve been tracking the Bittensor metrics that matter (h/t @taoapp_) The data tells a story most people haven’t caught up to yet... 👇
We’ve been tracking the Bittensor metrics that matter (h/t @taoapp_)

The data tells a story most people haven’t caught up to yet... 👇
Decentralized compute networks (DCNs) offer cheap GPUs. But enterprises aren't touching them (mostly). WHY? WHY? A 🧵
Decentralized compute networks (DCNs) offer cheap GPUs.

But enterprises aren't touching them (mostly).

WHY? WHY? A 🧵
This was a great read and added perspective on valuing Bittensor subnet tokens @UnsupervisedCap @Old_Samster "With a 2-year hold, the discount approaches ~75%"
This was a great read and added perspective on valuing Bittensor subnet tokens @UnsupervisedCap @Old_Samster

"With a 2-year hold, the discount approaches ~75%"
Aus unserem neuesten Bittensor-Bericht @cot_research : Wir schätzen, dass >$468M Kapital bis Dezember 2025 in Alpha-Token-Märkte fließen wird, indem wir aktuelle Trends extrapolieren.
Aus unserem neuesten Bittensor-Bericht @cot_research :

Wir schätzen, dass >$468M Kapital bis Dezember 2025 in Alpha-Token-Märkte fließen wird, indem wir aktuelle Trends extrapolieren.
Die Top 10 Bittensor-Subnetze (von über 100) erhalten >55% der gesamten Emissionen Nur 4 Subnetze erhalten >5% der Emissionen: - @chutes_ai - @taohash - @gradients_ai - Targon.
Die Top 10 Bittensor-Subnetze (von über 100) erhalten >55% der gesamten Emissionen

Nur 4 Subnetze erhalten >5% der Emissionen:
- @chutes_ai
- @taohash
- @gradients_ai
- Targon.
Melde dich an, um weitere Inhalte zu entdecken
Bleib immer am Ball mit den neuesten Nachrichten aus der Kryptowelt
⚡️ Beteilige dich an aktuellen Diskussionen rund um Kryptothemen
💬 Interagiere mit deinen bevorzugten Content-Erstellern
👍 Entdecke für dich interessante Inhalte
E-Mail-Adresse/Telefonnummer
Sitemap
Cookie-Präferenzen
Nutzungsbedingungen der Plattform