cine are cea mai bună platformă de date pentru analiza detaliată L2?
caut - structura costurilor tranzacțiilor (împărțirea bază/prioritate) în timp și perioade - volatilitatea comisioanelor - comision mediu/medie pe tip de tranzacție (schimburi/transferuri)
50MB/s s-ar putea să nu pară mult la prima vedere dar când îl scalezi, este uluitor
pentru 1 an, asta înseamnă 1.576.800.000.000 mb de date, suficient pentru a susține - 1,3 trilioane de schimburi uniswap - 7,8 trilioane de transferuri erc20
pentru context, visa a procesat doar 0,233 trilioane de tranzacții în 2024
citind whitepapers pentru protocoalele de antrenament ai de tip swarm / descentralizat în săptămâna aceasta și sunt uimit de ceea ce nu este în ele: determinism.
gpu inference este cunoscut că este instabil - mici reordonări fp32, atomice în convoluții, downgrade-uri tensor-core, curse multi-stream - toate acestea adună la logits diferite în „aceeași” trecere înainte. literatura este plină de soluții alternative (moduri deterministe cu cuDNN, nuclee ticket-lock, construcții de motor înghețate), totuși niciuna dintre acestea nu apare în lucrările strălucitoare dtrain.
de ce ar trebui să ne pese? dacă fiecare partener într-o rețea emite ușor diferite grade, mult noroc în atingerea consensului onchain sau dovada unei contribuții oneste. costurile de verificare explodează, logica de tăiere se rup, iar întregul slogan „antrenament minimizat prin încredere” începe să semene mai mult cu un ideal decât cu o implementare.
așadar, crypto-ml twitter: cine se ocupă de fapt de non-determinism într-un mediu distribuit și adversarial? există lucrări / bloguri pe care ar trebui să le citesc? analogii cu alte straturi de consens? lăsați linkuri mai jos
- legislația privind stablecoin-urile a fost aprobată în senat - echipa de lucru a SEC face o treabă excelentă - solana anunță un nou protocol de consens - coinbase luptă pentru a împiedica circle să scape de ripple