Il numero uno dei temi su cui ho riflettuto ultimamente è che stiamo passando da un mondo vincolato dal calcolo a un mondo vincolato dai dati.
Il refrain tipico è che i dati accessibili tramite Common Crawl sono diventati una merce, il che è ovviamente vero. Ma un input trascurato a questo problema è che l'area superficiale dei contenuti accessibili ai crawler è anche drasticamente diminuita. Perché? Incentivi.
In questo articolo che esplora il crossover tra crypto e AI, sostengo che l'agente singolo con il miglior fit di mercato oggi-- il webcrawler-- è destinato a una reinvenzione.
Un grande grazie a @VirtualElena, il cui lavoro di investigazione sui dati di internet ha acceso il mio interesse in questo campo, così come al team editoriale di @a16zcrypto per il loro aiuto nel rendere tutto questo comprensibile. Fammi sapere cosa ne pensi :)