BlackRock CEO Larry Fink just dropped his annual letter — and tokenization is front and center.
Fink argues the current financial system works well for those who already own assets, but leaves most workers on the sidelines. His proposed solution: tokenized funds and digital wallets as the bridge to broader market access.
The numbers back it up. BlackRock now has nearly $150 billion in assets connected to digital markets. Its BUIDL fund is the largest tokenized fund globally, and the firm manages $65 billion in stablecoin reserves plus close to $80 billion in digital asset ETPs.
Fink compared tokenization today to the internet in 1996 — not a replacement for traditional finance, but a gradual upgrade to the rails underneath it. He called on policymakers to build clear regulatory frameworks covering buyer protections, counterparty-risk standards, and digital identity checks.
The bigger picture: Fink sees tokenization as part of a necessary overhaul of U.S. capital markets, alongside structural reform of Social Security and new private-market funding models for energy, manufacturing, and AI.
This is not hype. This is the largest asset manager on the planet making a multi-billion-dollar bet that better infrastructure means more investors, not fewer.
I thought TokenTable was just another vesting tool… but it’s not really about vesting
At first glance, I almost skipped over this part of $SIGN . TokenTable sounded like something I’d seen before. Vesting, allocations, distribution logic… nothing new on the surface. But the more I read, the more I realized I was looking at it from the wrong angle. It’s not really about creating tokens or even managing them. It’s about what happens after. Who gets what, when they get it, and more importantly… how you prove that it was done correctly. And that last part is where things started to click for me. Most systems today seem to treat distribution and auditing as two separate steps. First you execute, then later you try to reconstruct what happened for reporting. TokenTable feels like it flips that. The distribution is defined upfront through something like an allocation manifest, and everything that happens afterward just follows that structure. So instead of asking “what happened?” after the fact, you already have a verifiable record of what was supposed to happen. I might be simplifying it, but that shift feels bigger than it sounds. What stood out even more is how the audit layer isn’t added later. It’s built into the process itself. Every distribution event comes with proof that eligibility was checked, rules were followed, and outcomes match the original plan. Not reconstructed logs, but actual evidence generated as part of execution. And then this connects back into Sign Protocol. Which kind of makes the whole thing feel less like a standalone tool and more like one piece of a larger system. Every action becomes an attestation. Everything is queryable. Different programs, even across different organizations, can theoretically rely on the same structure of evidence. That’s the part I keep thinking about. If multiple systems are generating compatible “proofs” of what they’re doing, then things like cross-agency audits or reconciliation don’t have to be manual anymore. At least in theory. Also, the scale of the problem here is not small. Government transfers alone are massive, and a lot of inefficiency seems to come from exactly these gaps. Wrong recipients, duplicated payments, lack of verification before funds go out. TokenTable seems designed directly around those failure points, not just around token mechanics. But yeah, I still have some doubts. A lot of this only really matters if institutions actually use it. And that means coordination between different departments, agreeing on shared formats, changing existing processes… which is usually the hardest part. There’s also the reality that simpler tools already exist and have developer traction. Even if they don’t solve the audit side fully, they’re easier to adopt. Still, I can’t shake the feeling that Sign is building in a part of the stack most people ignore. Not the creation of assets, but the distribution layer with verifiable evidence baked in. If that piece becomes important, this starts to look very different. I’m still watching how this develops. @SignOfficial #SignDigitalSovereignInfra $SIGN
I tried to picture what 100,000 TPS actually means in practice
When I first saw the number in $SIGN ’s CBDC architecture, it didn’t really register. 100,000 TPS sounds impressive, but also kind of abstract. Crypto throws around big numbers all the time.
But then I thought about it differently. If you’re talking about a national payment system, not just a chain with traders and bots, that throughput isn’t just a flex. It’s basically the difference between something that “works in theory” and something that can actually handle millions of people using it at the same time.
What made me pause more wasn’t even the TPS itself, it was the “immediate finality” part. No waiting, no probabilistic settlement. Once it’s done, it’s done. For retail payments at a national level, that feels like a requirement, not an upgrade.
The rest of the stack also feels very… institutional. Identity tied through certificates, ISO standards baked in, different privacy modes depending on whether it’s wholesale or retail. It doesn’t read like typical crypto infra, more like something designed to fit into how central banks already operate.
I’m not deep enough technically to judge how realistic all of this is at scale, but the direction is clear. This isn’t built for experimentation, it’s built for deployment.
Strategia (MSTR) właśnie wprowadziła nowy program kapitałowy na rynku o wartości 42 miliardów dolarów — 21 miliardów w akcjach zwykłych i 21 miliardów w nowej serii preferencyjnej STRC. Oprócz tego, oddzielny program ATM o wartości 2,1 miliarda dolarów dla akcji preferencyjnych STRK zastępuje poprzedni program.
Firma rozszerzyła również swoją syndykację sprzedaży do 19 agentów, dodając Moelis & Company, A.G.P./Alliance Global Partners oraz StoneX Financial. Więcej pośredników oznacza płynniejsze, bardziej stopniowe wprowadzanie kapitału na rynek.
Na dzień 22 marca, Strategia miała nadal około 30 miliardów dolarów pozostałej zdolności w ramach istniejących programów: ~6,24 miliarda dolarów w akcjach zwykłych, 1,98 miliarda dolarów w STRC, 20,33 miliarda dolarów w STRK oraz 1,62 miliarda dolarów w STRF.
W zeszłym tygodniu firma kupiła kolejne 1 031 BTC, co podniosło całkowite posiadanie do 762 099 monet. Akcje są umiarkowanie zielone w poniedziałek, a BTC handluje tuż powyżej 71 300 dolarów.
Książka strategii się nie zmieniła — Saylor wciąż gromadzi. Skala pozyskiwania kapitału sygnalizuje jednak, że apetyt na ekspozycję na bitcoiny poprzez rynki kapitałowe jest daleki od wyczerpania.
Bitmine Toma Lee'a (BMNR) dodał w zeszłym tygodniu kolejne 65,341 ETH — około 138 milionów dolarów — co sprawiło, że całkowite posiadanie przekroczyło 4,66 miliona tokenów.
To 3,86% całkowitej podaży ETH w obiegu, obecnie kontrolowanej przez jeden podmiot.
Tempo przyspieszyło przez trzy kolejne tygodnie, w porównaniu do średniej ~50,000 ETH na tydzień wcześniej. Rezerwy gotówkowe również wzrosły do 1,1 miliarda dolarów.
Teza Lee'a: ETH jest w "ostatecznych etapach mini-zimy kryptograficznej." Firma intensyfikuje zakupy w obliczu słabości, nie wycofując się.
Haczyk? Bitmine ma szacunkowe 7 miliardów dolarów niezrealizowanych strat na swojej pozycji ether. Przekonanie jest jasne — pytanie brzmi, czy czas jest właściwy.
Trzy tygodnie rosnącej akumulacji przy stracie na transakcji. To albo zdyscyplinowane długoterminowe pozycjonowanie, albo bardzo kosztowny zakład. Rynki zdecydują.
Interoperability Sounds Good — Until You Look at the Data It Leaks
Interoperability gets talked about a lot in Web3. Bridges, multichain, seamless movement of assets — it’s almost expected at this point. But the more I think about it, the more one issue feels underexplored. Not connectivity, but what gets exposed when you move across chains. Every bridge today leaves a trace. Assets leave one chain, appear on another, and that linkage becomes visible. Even if one side has privacy features, the bridge itself often reveals enough to piece things together. That’s where Midnight Network started to feel structurally different to me. Instead of treating interoperability as just moving assets, it seems to focus on how that movement is observed and abstracted. One idea that stood out is cross-chain observability. From what I understand, actions on one chain can trigger execution on Midnight without the user directly interacting with its internal mechanics. For example, you pay with ETH, and somehow gain access to Midnight’s transaction capacity without handling its native flow directly. That separation feels important. Because the user experience becomes simpler, but also because the underlying privacy layer stays more contained. Then there’s the multichain treasury idea. Instead of being funded only by its own token, the system can accumulate value from different chains — ETH, ADA, and others — depending on where activity comes from. That’s a different kind of economic model. Most chains try to keep everything inside their own loop. This feels more open, almost like it benefits from external activity rather than competing against it. What also caught my attention is the sequencing. The more ambitious piece — a trustless ZK bridge — isn’t positioned as a starting point, but something that comes later. It suggests the team is prioritizing core infrastructure first before adding more complexity. That’s not always how things are done in crypto. At the same time, there are still open questions. Cross-chain systems are hard to get right, especially at scale. Reliability, latency, and real-world usage patterns tend to expose issues that aren’t obvious early on. And if this gap around privacy in interoperability is real, it’s unlikely Midnight will be the only one trying to address it for long. Still, I find the positioning interesting. It doesn’t feel like Midnight is trying to become the center of everything. It feels more like it’s trying to sit in between — as a layer other systems can use when privacy actually matters. Whether that role becomes important or not probably depends on how cross-chain usage evolves from here. But it’s one of those angles that feels more relevant the deeper you think about how these systems actually interact. #night $NIGHT @MidnightNetwork
Bitcoin wzrósł powyżej $71,000 w poniedziałek po tym, jak prezydent Trump ogłosił pięciodniowe opóźnienie zaplanowanych ataków na irańskie elektrownie, powołując się na "bardzo dobre i produktywne rozmowy" w kierunku pełnego rozwiązania konfliktu na Bliskim Wschodzie.
Rally było szerokie — ETH, DOGE, SOL i LINK odnotowały wzrosty do 5% w ciągu 24 godzin. Akcje kryptowalutowe poszły w ślad: strategia (MSTR) wzrosła o ponad 3%, podczas gdy Galaxy Digital, Coinbase i IREN każdy dodał około 2% w pre-markecie.
Jednak odbicie przyszło z gwiazdką. Irańska agencja informacyjna Fars zaprzeczyła, że jakiekolwiek rozmowy miały miejsce, a ceny szybko oddały część zysków. BTC cofnęło się z najwyższych wartości w kierunku $70,000 po pojawieniu się zaprzeczenia.
Tymczasem rynki ropy opowiedziały swoją historię. Surowa ropa WTI spadła o 11% do poniżej $88/ baryłkę, Brent spadł o 8% do ~$100, a tokenizowane kontrakty futures na Brent na Hyperliquid odnotowały $62.4M w likwidacjach — niemal całkowicie długie pozycje zostały zlikwidowane.
Rynek opcji pozostaje sceptyczny. Na Deribit opcje put nadal handlują z premią 8–10 punktów wolności nad callami do wygaśnięcia w czerwcu — bez zmian w porównaniu do przed wzrostem. Traderzy zabezpieczają się, a nie świętują.
Złoto odbiło się do $4,440/oz (spadek o zaledwie 1%), DXY spadł do 99.3, a rentowność 10-letnich obligacji w USA spadła o 100bps do 4.3%. Klasyczne pozycjonowanie w ryzyko w tradycyjnych rynkach, nawet gdy kryptowaluty zyskały na wartości.
Podsumowując: nagłówki geopolityczne wpłynęły na rynek, ale rynek instrumentów pochodnych mówi, że tłum jeszcze nie kupuje narracji o zawieszeniu broni.
BTC wzrosło powyżej 71 000 USD po tym, jak nastąpiła tymczasowa deeskalacja napięć pomiędzy USA a Iranem po tym, jak Trump odłożył ataki militarne na pięć dni. Jednak ruch ten szybko się odwrócił — cena spadła do 68 000 USD, pozostawiając lukę CME, którą teraz uważnie obserwują traderzy.
Kluczowy kontekst: - Wskaźnik złota BTC odbija się w kierunku 16 uncji po dużym spadku - Wskaźnik momentum, który był dokładny od października, właśnie zasygnalizował — wskazując na potencjalny dalszy spadek - Akcje zaczynają doganiać wcześniejszy spadek BTC do 60K, gdyż rentowności obligacji rosną
Ostrożność jest wskazana. Odbicie wygląda na reaktywne, a nie strukturalne.
Want to Enter Exploding Assets Without Selling Your Portfolio?
Last week, a trader managing a sizable portfolio faced a dilemma: the market was surging, a hot new asset was creating waves 🌊, but all his capital was locked in longs.
Selling part of the portfolio? Losing the optimal entry. Waiting for fiat transfers? 24–48 hours ⏳ — a potential 5–7% loss in today's volatility.
The solution: leveraging priority liquidity tools, crypto lending up to 18.64% APY, seamless high-limit on/off-ramping, and asset-backed trading. He deployed 100% of his capital instantly — without touching his main portfolio. Transaction costs? Just 0.1–0.2%.
💡 Takeaway: In fast-moving markets, time and control are your ultimate leverage. Quick capital redeployment is the edge that separates effective investors from average ones. Don't let your portfolio get "stuck."
Część Midnights, na którą większość ludzi nie zwraca uwagi
Kilka tygodni temu zagłębiłem się trochę w techniczną stronę sieci Midnight i coś się wyróżniło.
Nie była to zwykła narracja o prywatności, ale warstwa badawcza pod nią.
Większość systemów ZK, które widziałem, traktuje dowody jako warstwę ogólnego przeznaczenia. Jedna struktura, stosowana szeroko. Midnight wydaje się iść inną drogą, gdzie obwody są bardziej specjalizowane w zależności od tego, co jest budowane.
To może brzmieć subtelnie, ale może wpłynąć na to, jak wiele aplikacji działa jednocześnie.
Mniej kontestacji, więcej równoległej aktywności — przynajmniej w teorii.
A potem jest stos na górze tego.
Używanie frameworków takich jak Halo2 i rzeczy takich jak dowody rekurencyjne nie jest nowe samo w sobie, ale w połączeniu z czymś takim jak Compact, zaczyna wydawać się, że złożoność jest odsuwana od deweloperów.
Piszesz logikę w czymś bliskim TypeScript, a system obsługuje kryptografię pod spodem.
To rozdzielenie jest interesujące.
Ponieważ w większości przypadków, ZK staje się wąskim gardłem nie tylko technicznie, ale z perspektywy budowniczego.
Do czego ciągle wracam, to sekwencjonowanie.
Wiele łańcuchów ustala skalowalność później. Midnight zdaje się projektować to od warstwy badawczej na początku.
Czy to faktycznie przekłada się na rzeczywistą wydajność, wciąż pozostaje otwartym pytaniem.
Ale sprawia, że całość wydaje się bardziej zamierzona, niż początkowo się wydaje.
Konto pokazuje wyraźną zrealizowaną stratę w ciągu jednego dnia, odzwierciedlając ekspozycję podczas szerokiego spadku na rynku.
Duża część salda pozostaje w niezrealizowanym PnL, co wskazuje, że pozycje są nadal otwarte i wrażliwe na bieżące ruchy cenowe. Sugeruje to, że spadek nie jest w pełni zrealizowany i zależy od tego, jak rynek się rozwija od tego momentu.
Skala straty wskazuje na wysoką ekspozycję w okresie długotrwałego spadku, gdzie krótkoterminowa zmienność wzrosła i działała przeciwko pozycjom.
Na tym etapie konto znajduje się w stanie zależnym od odbicia. Przyszła wydajność będzie zależała od tego, czy obecne pozycje ustabilizują się z rynkiem, czy będą nadal podążać za dalszymi spadkami. #TrumpConsidersEndingIranConflict #iOSSecurityUpdate
Jestem naprawdę sfrustrowany $BTC , ponieważ rynek wciąż porusza się w bok bez wyraźnego impetu. Słaba akcja cenowa sprawia, że handel wydaje się trudny i ciężko osiągnąć oczekiwane wyniki.
Zaczynam myśleć, że CBDC nie zawodzą z powodu toru w ogóle
Czytałem ponownie kilka przypadków CBDC i schemat wydaje się trochę dziwny. Nie dramatyczne porażki, bardziej jak ciche zatrzymania. Projekty startują, lub prawie startują, a potem po prostu… nigdzie nie idą. Adopcja pozostaje niska, systemy przechodzą w tryb offline, pilotaże są opóźnione bez większego wyjaśnienia. Na początku myślałem, że to zwykłe powody. Zła UX, wolne łańcuchy, obawy o prywatność. Ale po przejrzeniu więcej na temat $SIGN i ich ramy S.I.G.N., nie jestem już pewien, czy to jest główny problem. Wygląda na to, że większość wysiłków związanych z CBDC jest budowana jako systemy płatności w pierwszej kolejności. Po prostu tory. Przenieś pieniądze z A do B. A potem dopiero później zdają sobie sprawę, że czegoś brakuje. Właściwie brakuje dużo.
Perspektywa "braku uzależnienia od dostawcy" wciąż mnie niepokoi w pozytywny sposób
Wielokrotnie wracałem do $SIGN , a dziwnie to nie technologia sama w sobie przyciąga uwagę jako pierwsza. To jest ta idea dotycząca uzależnienia od dostawcy.
Bo jeśli spojrzysz na to, jak wiele systemów rządowych jest budowanych, to jest to trochę ten sam wzór. Duży kontrakt, jeden dostawca, wszystko działa... aż nagle przestaje. A wtedy nagle migracja staje się bolesna, audyt jest ograniczony, a dostosowanie do nowych polityk staje się trudniejsze niż powinno być. System jest, ale kontrola wydaje się nieostra.
To, co uważam za interesujące w tym, jak @SignOfficial to formułuje, to to, że wydają się traktować to jako problem podstawowy, a nie efekt uboczny. Całe podejście S.I.G.N. wydaje się próbować utrzymać kontrolę na poziomie suwerennym, a nie na poziomie platformy. Oparte na standardach, otwarte schematy, większa elastyczność w przenoszeniu lub integrowaniu bez bycia związanym z jednym dostawcą.
Brzmi to prosto, gdy tak to mówisz, ale im więcej o tym myślę, tym bardziej zdaję sobie sprawę, jak rzadkie to właściwie jest. Większość systemów oczywiście nie uzależnia cię, po prostu w pewnym sensie... dryfują w tym kierunku z czasem.
Nie mówię, że to łatwe do zrealizowania, zwłaszcza w rzeczywistych wdrożeniach. Ale jeśli rzeczywiście uda im się to osiągnąć, konsekwencje wykraczają poza jeden produkt. Może to zmienić sposób, w jaki te systemy są budowane w pierwszej kolejności.
Czy głosowanie na łańcuchu może być prywatne bez utraty zaufania?
Ostatnio myślałem o głosowaniu na łańcuchu, a coś w tym nadal wydaje się nierozwiązane. Nie chodzi o sam pomysł głosowania, ale o to, jak obecne systemy radzą sobie z widocznością. Większość dzisiejszego zarządzania na łańcuchu jest całkowicie przejrzysta. Możesz zobaczyć, kto głosował, jak głosował i kiedy. To brzmi dobrze w teorii, ale w praktyce tworzy dziwne dynamiki. Ludzie nie tylko głosują — reagują na inne głosy. Wtedy sieć Midnight zaczęła mi się wydawać nieco inna. Zamiast wymuszać przejrzystość na każdym kroku, wydaje się, że pomysł polega na oddzieleniu dowodu od ujawnienia. Możesz udowodnić, że ktoś jest uprawniony i że jego głos został policzony, nie ujawniając, kim jest ani co wybrał.
Instead of forcing users to handle fees themselves, the model lets app operators cover those costs using DUST. From the user’s perspective, nothing changes. They just use the app. No wallet juggling, no extra steps.
It sounds simple, but it changes the experience completely.
When you connect that to how $NIGHT fits into the system, it starts to feel less like a typical crypto flow and more like something closer to how Web2 products work, where infrastructure costs are handled in the background.
Of course, the trade-off is that operators need enough resources to sustain that model at scale. That part probably matters more than it looks.
Still, the whole #night direction here feels like it’s trying to remove one of the most obvious friction points in Web3.
I didn’t expect the real story to be about distribution, not speculation
I was looking into $SIGN again and something felt a bit off at first. Most token models I’m used to kind of orbit around market cycles… demand goes up when attention goes up, then fades when things cool down.
But with Sign, I keep coming back to a different angle. It doesn’t really feel like the core driver is speculation. It’s more tied to how much “stuff” actually flows through the system.
Like every time a credential gets verified, or a piece of data gets turned into an attestation, or a distribution event gets recorded… that activity itself creates demand at the protocol level. Not because people are trading, but because the system is being used.
And then I saw that number about government transfers. $1.4 trillion affected by targeting errors. I had to read that twice. If even a small part of that moves through something like Sign’s infrastructure, where distribution is tied to verifiable evidence, then the demand curve starts to look very different from what we usually see in crypto.
It’s less about hype cycles, more about throughput. Less about narratives, more about actual usage.
I’m not saying it’s guaranteed to play out like that, because a lot has to go right for institutions to adopt something like this. But the framing is interesting. It shifts the whole way I think about where value might come from.
Feels like Sign is going the opposite direction from most of crypto
I keep noticing how most web3 projects still orbit around retail. Better wallets, smoother onboarding, trying to find that one app that pulls in millions of users. And to be fair, that makes sense on the surface. Adoption usually starts from the edge, not from institutions. But reading into $SIGN , it feels like they’re almost ignoring that playbook entirely. Or at least not prioritizing it. The focus seems very… top-down. Governments, banks, regulated players. The kind of entities that move massive value, but also move very slowly and have way stricter requirements. And I think that’s the part that clicked for me after a while. It’s not that these institutions don’t want to use blockchain. It’s more like most of what’s been built in crypto just doesn’t fit how they operate. Things like auditability, standards compliance, controlled governance… those aren’t “nice to have” features for them, they’re mandatory. And a lot of consumer-first protocols just weren’t designed with that in mind. Sign seems to be building around those constraints from the start. The whole idea of a shared evidence layer, with standardized schemas and attestations, feels less like a feature and more like a requirement if you’re dealing with multiple operators and regulators at once. Instead of every system defining its own format, everything plugs into a common structure. At least that’s how I’m հասկing it right now. The developer platform side is also interesting, but in a quieter way. SDKs, APIs, schema registries… it’s not flashy, but it’s the kind of tooling that actually matters if you want different systems to interoperate. And the way they treat governance as part of the core system, not something added later, feels very aligned with how institutions think. I also noticed how their use cases aren’t just theoretical. Audit proofs, KYC-gated actions, onchain reputation… different areas, but all using the same underlying layer. That consistency is probably more important than it looks at first glance. Still, I can’t ignore how slow this path is. Governments don’t move fast. Procurement cycles alone can take years. And even if the tech works, getting multiple parties to standardize around the same system is a whole different challenge. But yeah, I get why they’re doing it this way. Competing for retail attention is crowded and fragile. Competing on infrastructure that institutions actually depend on… that’s slower, but maybe more durable if it works. I’m still figuring out how far they can push this, but it’s definitely a different angle from most of what I’ve been reading. @SignOfficial #SignDigitalSovereignInfra $SIGN
What It Might Actually Feel Like to Build on Midnight
Lately I’ve been thinking a lot about how developer ecosystems really form in crypto. Not from announcements or hackathons, but from what it actually feels like to build day-to-day. That’s what made me look at Midnight Network a bit differently. If you go back to early Ethereum, the ecosystem didn’t grow because Solidity was great. It grew because the underlying idea was strong enough that developers were willing to push through the friction. That’s kind of the lens I’m using here. Most new chains follow the same playbook. Grants, hackathons, documentation, and then hope momentum builds. Usually you end up with a few polished demos and a lot of half-finished projects. Midnight seems to be approaching this from a slightly different starting point. What stood out first is the decision to build around TypeScript. That might not sound like a big deal, but it changes who can realistically participate. A lot of developers already understand the tooling, the patterns, the debugging flow. So instead of learning everything from scratch, they’re stepping into something familiar. That lowers the initial barrier more than most people think. Then there’s Compact. From what I understand, it sits on top of TypeScript and handles the zero-knowledge part under the hood. Developers can build privacy-preserving logic without needing to fully understand the cryptography behind it. That separation feels important. Because historically, ZK has been a pretty narrow field. If building with it requires deep expertise, the ecosystem stays small no matter how powerful the tech is. So the idea here seems to be: keep the capability, reduce the friction. Whether that balance actually holds is something I’m still unsure about. We’ve seen cases where simplifying things also limits what developers can do. Midnight seems to be trying to avoid that by keeping full ZK capability while making it more accessible. That’s not an easy line to walk. Another part I find interesting is how Midnight doesn’t seem to force everything into its own environment. The architecture leans toward hybrid applications. You could use Midnight for privacy-heavy components while relying on other chains for settlement or liquidity. That feels more aligned with how the space is evolving. At the same time, there are still some obvious unknowns. Every new ecosystem faces the same loop. Developers go where users are, and users go where useful applications exist. Breaking that cycle is always the hard part. Midnight has a strong angle with privacy, but whether that’s enough to attract builders early is still an open question. Tooling will matter more than anything. Documentation, debugging, monitoring — all the less exciting parts. These are the things that determine whether developers stay or quietly leave after trying things out. From the outside, it looks like Midnight is putting some effort there, but that’s something you only really understand by actually building. I also keep coming back to the positioning. It doesn’t feel like Midnight is trying to compete directly with general-purpose chains. It’s targeting use cases that actually need privacy — identity, compliance, asset management, things that don’t fit well in public-by-default systems. That’s a narrower focus, but maybe a more realistic one. So the real question isn’t just whether developers can build on Midnight. It’s whether this is the kind of place they need to build. Still early, but that’s probably what will decide how the ecosystem forms over time. #night $NIGHT @MidnightNetwork