Teza numărul unu la care m-am gândit în ultima vreme este că trecem de la o lume constrânsă de calcul la o lume constrânsă de date.
Refrainul tipic este că datele accesibile prin Common Crawl au devenit o marfă, ceea ce este, desigur, adevărat. Dar un input trecut cu vederea la această problemă este că suprafața de conținut accesibil crawler-elor s-a contractat, de asemenea, dramatic. De ce? Stimuli.
În această lucrare care explorează intersecția dintre crypto și AI, susțin că agentul unic cu cel mai bun fit pe piața produselor de astăzi - crawler-ul web - este datorat reinventării.
Mulțumiri mari lui @VirtualElena, a cărei investigație în datele de internet mi-a stârnit interesul în acest domeniu, precum și echipei editoriale @a16zcrypto pentru ajutorul acordat în a face acest conținut ușor de digerat. Spune-mi ce părere ai :)
Conectați-vă pentru a explora mai mult conținut
Explorați cele mai recente știri despre criptomonede
⚡️ Luați parte la cele mai recente discuții despre criptomonede