cine are cea mai bună platformă de date pentru analiza detaliată L2?
caut - structura costurilor tranzacțiilor (împărțirea bază/prioritate) în timp și perioade - volatilitatea comisioanelor - comision mediu/medie pe tip de tranzacție (schimburi/transferuri)
50MB/s s-ar putea să nu pară mult la prima vedere dar când îl scalezi, este uluitor
pentru 1 an, asta înseamnă 1.576.800.000.000 mb de date, suficient pentru a susține - 1,3 trilioane de schimburi uniswap - 7,8 trilioane de transferuri erc20
pentru context, visa a procesat doar 0,233 trilioane de tranzacții în 2024
reading the whitepapers for swarm-style / decentralized ai training protocols this week and i’m stunned by what isn’t in them: determinism.
gpu inference is famously flaky - tiny fp32 reorderings, atomics in convolutions, tensor-core down-casts, multi-stream races - all add up to different logits on the “same” forward pass. the literature is full of workarounds (cuDNN deterministic modes, ticket-lock kernels, frozen engine builds), yet none of that shows up in the glossy dtrain papers.
why care? if every peer in a mesh spits out slightly different gradients, good luck reaching onchain consensus or proving an honest contribution. verification costs explode, slashing logic breaks, and the whole “trust-minimized training” slogan starts to feel like an ideal than implementation.
so, crypto-ml twitter: who’s actually tackling non-determinism in a distributed, adversarial setting? any papers / blogs i should read? analogies to other consensus layers? drop links below
- legislația privind stablecoin-urile a fost aprobată în senat - echipa de lucru a SEC face o treabă excelentă - solana anunță un nou protocol de consens - coinbase luptă pentru a împiedica circle să scape de ripple