Překlad: lidový blockchain

Umělá inteligence se v poslední době stala jednou z nejžhavějších a nejslibnějších oblastí na trhu s kryptoměnami. zahrnout:
Decentralizovaný výcvik AI
GPU decentralizovaná síť fyzické infrastruktury
Necenzurované modely umělé inteligence Jedná se o převratný vývoj nebo jen humbuk?
V @hack_vc se snažíme prolomit mlhu a oddělit slib od reality. Tento článek poskytne hloubkovou analýzu nejlepších nápadů v oblasti šifrování a umělé inteligence. Pojďme společně prozkoumat skutečné výzvy a příležitosti.
1. Výzvy spojené s kombinací Web3 a AI
1. Decentralizovaný výcvik AI
Problém s tréninkem AI v řetězci je ten, že trénink vyžaduje vysokorychlostní komunikaci a koordinaci mezi GPU, protože neuronová síť musí při tréninku provádět backpropagation. Nvidia k tomu poskytuje dvě inovativní technologie (NVLink a InfiniBand). Tyto techniky mohou výrazně urychlit komunikaci GPU, ale lze je použít pouze v clusteru GPU v rámci jednoho datového centra (rychlost přesahující 50 Gbps).
Pokud bude zavedena decentralizovaná síť, bude rychlost výrazně nižší kvůli zvýšené latenci sítě a šířce pásma. To prostě není možné pro případy použití školení AI ve srovnání s vysokorychlostním propojením, které Nvidia poskytuje v datových centrech. Kromě toho jsou náklady na šířku pásma sítě a úložiště mnohem vyšší v decentralizovaném prostředí ve srovnání s SSD v lokálním clusteru.
Dalším problémem trénování modelů umělé inteligence v řetězci je, že tento trh je méně atraktivní než dedukce. V současné době se pro trénování velkých jazykových modelů AI (LLM) používá velké množství výpočetních zdrojů GPU. Ale z dlouhodobého hlediska se inference stane hlavním aplikačním scénářem GPU. Přemýšlejte o tom: Kolik velkých jazykových modelů AI je třeba vyškolit, aby uspokojily poptávku? Pro srovnání, kolik zákazníků bude tyto modely používat?
Všimněte si, že v této oblasti již existují některé inovace, které mohou nabídnout naději pro budoucnost on-chain školení AI:
1) Distribuované školení založené na InfiniBand se provádí ve velkém měřítku a samotná NVIDIA také podporuje nelokální distribuovaná školení prostřednictvím své kolektivní komunikační knihovny. To je však stále v rané fázi a přijetí se teprve uvidí. Úzké místo způsobené fyzickou vzdáleností stále existuje, takže místní trénink InfiniBand je stále výrazně rychlejší.
2) Byl zveřejněn nový výzkum, který zkoumá decentralizované školení, které snižuje počet komunikačních synchronizací, což může v budoucnu učinit decentralizované školení praktičtějším.
3) Inteligentní sharding a plánování školení může pomoci zlepšit výkon. Podobně mohou v budoucnu existovat nové modelové architektury navržené speciálně pro distribuovanou infrastrukturu (Gensyn provádí výzkum v těchto oblastech).
4) Inovace, jako je Neuromesh, se pokouší dosáhnout distribuovaného školení s nižšími náklady pomocí nové metody zvané prediktivní kódovací síť (PCN).
2. Decentralizovaná iterace dat AI
Problémem je také datová informační část školení. Jakýkoli tréninkový proces AI zahrnuje zpracování velkého množství dat. Modely jsou obvykle trénovány na centralizovaných a bezpečných systémech ukládání dat, které jsou vysoce škálovatelné a výkonné. To vyžaduje přenos a zpracování terabajtů dat a nejde o jednorázový cyklus. Data jsou často zašuměná a obsahují chyby, takže před trénováním modelu je třeba data vyčistit a převést do použitelného formátu. Tato fáze zahrnuje opakované úkoly normalizace, filtrování a zpracování chybějících hodnot. V decentralizovaném prostředí to představuje vážné problémy.
Informační část školení je také iterativní, což není kompatibilní s Web3. OpenAI trvalo tisíce iterací, než bylo dosaženo jejich výsledků. Tréninkový proces je iterativní: pokud současný model nefunguje tak, jak se očekávalo, odborníci se vrátí ke sběru dat nebo k trénování modelu, aby zlepšili výsledky. Nyní si představte, že tento proces provádíte v decentralizovaném prostředí, kde nejlepší existující rámce a nástroje nejsou ve Web3 snadno dostupné.
Jednou slibnou technologií je 0g.ai (podporovaná Hack VC), která poskytuje on-chain datové úložiště a infrastrukturu dostupnosti dat. Mají rychlejší architekturu a schopnost ukládat velké množství dat v řetězci.
3. K dosažení konsensu používejte nadměrně nadbytečné výpočty AI uvažování
Jedním z problémů při kombinování kryptografie s umělou inteligencí je ověření přesnosti odvození umělé inteligence, protože nemůžete plně důvěřovat jediné centralizované straně, že provede operace odvození, a existuje možnost, že se uzly budou špatně chovat. V AI Web2 tato výzva neexistuje, protože neexistuje žádný decentralizovaný konsensuální systém.
Jedním z řešení je redundantní výpočetní technika, kde více uzlů opakuje stejné operace odvození AI, aby fungovaly v nedůvěryhodném prostředí a vyhnuly se jednotlivým bodům selhání.
Problém s tímto přístupem je, že žijeme ve světě s vážným nedostatkem špičkových AI čipů. Čekací doba na špičkové čipy NVIDIA je několik let, což způsobuje růst cen. Pokud také požadujete, aby se AI inference spouštěla vícekrát a opakovaně na více uzlech, výrazně to zvýší tyto drahé náklady. U mnoha projektů to nebude fungovat.
4. Případy použití AI specifické pro Web3 (v krátkodobém horizontu)
Bylo navrženo, že Web3 by měl mít své vlastní jedinečné případy použití AI specificky zaměřené na zákazníky Web3.
V současné době se stále jedná o rozvíjející se trh a stále se objevují případy použití. Některé výzvy zahrnují:
Nativní případy použití Web3 vyžadují méně transakcí AI, protože poptávka na trhu je stále v plenkách.
Zákazníků je méně, protože zákazníků Web3 je řádově méně než zákazníků Web2, takže trh je méně fragmentovaný.
Samotní zákazníci nejsou dostatečně stabilní, protože se jedná o startupy s menším kapitálem, takže tyto startupy mohou časem selhat. Poskytovatelé služeb umělé inteligence zaměřující se na zákazníky Web3 možná budou muset časem některé zákazníky znovu získat, aby nahradili ty, kteří odešli z podnikání, což ztěžuje rozšíření jejich podnikání.
Z dlouhodobého hlediska jsme velmi optimističtí ohledně případů použití AI nativní Web3, zvláště když se agenti AI stávají stále populárnějšími. Představujeme si budoucnost, kdy každý uživatel Web3 bude mít několik agentů AI, kteří mu budou pomáhat. Prvním lídrem v této oblasti je Theoriq.ai, který buduje platformu sestavitelných agentů AI schopných obsluhovat klienty Web2 a Web3 (za podpory Hack VC).
5. Síť decentralizované fyzické infrastruktury (DePIN) GPU pro spotřebitele
Existuje mnoho decentralizovaných počítačových sítí s umělou inteligencí, které se spoléhají spíše na GPU pro spotřebitele než na GPU datových center. GPU spotřebitelské úrovně jsou vhodné pro nenáročné úlohy odvození AI nebo případy spotřebitelského použití s flexibilnějšími požadavky na latenci, propustnost a spolehlivost. Ale pro vážné případy podnikového použití (tj. ty, které zachycují hlavní podíl na trhu), zákazníci očekávají, že síť bude spolehlivější než domácí stroje, a složité úlohy odvození často vyžadují GPU vyšší třídy. Pro tyto hodnotnější případy zákaznického použití jsou datová centra vhodnější.
Je důležité poznamenat, že GPU spotřebitelské třídy považujeme za vhodné pro demonstrační účely nebo pro ty jednotlivce a začínající podniky, kteří mohou tolerovat nižší spolehlivost. Hodnota těchto zákazníků je ale v zásadě nižší, takže věříme, že síť decentralizované fyzické infrastruktury (DePIN) pro podniky Web2 bude z dlouhodobého hlediska hodnotnější. V důsledku toho se známé projekty GPU DePIN obvykle vyvinuly z primárně využívajícího hardware spotřebitelské třídy v jejich počátcích až po současnou dostupnost A100/H100 a dostupnost na úrovni clusteru.
2. Praktické a proveditelné případy použití šifrování x AI
Nyní si proberme případy použití, kdy crypto x AI může výrazně zvýšit hodnotu.
Skutečná výhoda 1: Obsluhování zákazníků Web2
McKinsey odhaduje, že generativní umělá inteligence by mohla přinést 2,6 bilionu až 4,4 bilionu dolarů přidané hodnoty ročně v 63 případech použití, které analyzovali – ve srovnání s celkovým HDP Spojeného království v roce 2021 ve výši 3,1 bilionu dolarů. To by zvýšilo dopad veškeré umělé inteligence o 15 % až 40 %. Tato odhadovaná hodnota by se zhruba zdvojnásobila, kdybychom zabudovali generativní umělou inteligenci do softwaru, který se v současnosti používá pro jiné úkoly.
Zajímavě:
Na základě výše uvedených odhadů to znamená, že celková tržní hodnota globální AI (nejen generativní AI) by mohla dosáhnout desítek bilionů dolarů.
Pro srovnání, celková hodnota všech kryptoměn (včetně bitcoinu a všech altcoinů) je dnes dohromady jen asi 2,7 bilionu dolarů.
Buďme tedy realističtí: velká většina zákazníků, kteří potřebují AI v krátkodobém horizontu, budou zákazníci Web2, protože zákazníci Web3, kteří skutečně potřebují AI, jsou jen malou částí tohoto 2,7 bilionu trhu (vzhledem k tomu, že BTC tvoří polovinu trhu sdílet a BTC sám o sobě nevyžaduje/nevyužívá AI).
Případy použití AI Web3 teprve začínají a není jasné, jak velký bude trh. Jedno je ale intuitivně jisté – v dohledné době bude pouze součástí trhu Web2. Věříme, že Web3 AI má stále světlou budoucnost, ale to znamená, že nejběžnější aplikací Web3 AI je v současnosti sloužit zákazníkům Web2.
Příklady zákazníků Web2, kteří by mohli mít prospěch z Web3 AI, zahrnují:
Vertikální průmyslové softwarové společnosti postavené od základů s AI v jejich jádru (např. Cedar.ai nebo Observe.ai)
Velké podniky, které dolaďují modely pro své vlastní účely (např. Netflix)
Rychle rostoucí poskytovatelé umělé inteligence (např. Anthropic)
Softwarové společnosti, které přidávají možnosti umělé inteligence ke stávajícím produktům (např. Canva)
Jedná se o relativně stabilní zákaznickou základnu, protože tito zákazníci jsou obvykle velcí a mají vysokou hodnotu. Je nepravděpodobné, že v dohledné době přestanou fungovat a představují velmi velkou potenciální zákaznickou základnu pro služby AI. Služby Web3 AI sloužící zákazníkům Web2 budou těžit z této stabilní zákaznické základny.
Proč by ale zákazníci Web2 chtěli používat sadu technologií Web3? Zbytek tohoto článku vysvětluje toto zdůvodnění.
Skutečný přínos 2: Snížené náklady na používání GPU díky síti decentralizované fyzické infrastruktury GPU (GPU DePIN)
GPU DePIN sdružují nedostatečně využívaný výpočetní výkon GPU, z nichž nejspolehlivější pochází z datových center, a zpřístupňují tyto zdroje pro odvození AI. Představte si to jednoduše jako „Airbnb GPU“ (tj. společná spotřeba nevyužitých aktiv).
Důvod, proč jsme nadšeni z GPU DePIN, je, jak je uvedeno výše, hlavně kvůli nedostatku čipu NVIDIA, v současné době je mnoho cyklů GPU plýtváno a tyto zdroje lze použít pro odvození AI. Tito vlastníci hardwaru snížili náklady a v současnosti svá zařízení nevyužívají dostatečně, takže tyto dílčí cykly GPU mohou být zpřístupněny za nižší náklady, než je současný stav, protože jsou pro vlastníka hardwaru ve skutečnosti „nečekanou událostí“.
Mezi konkrétní příklady patří:
1) AWS Machine: Pokud si dnes pronajmete H100 od AWS, musíte se zavázat, že si jej pronajmete alespoň na rok, protože trh je napjatý. To vede k plýtvání, protože je nepravděpodobné, že byste svůj GPU používali 7 dní v týdnu, 365 dní v roce.
2) Hardware pro těžbu filecoinů: Síť Filecoin má velké množství dotované nabídky, ale skutečná poptávka není velká. Filecoin bohužel nikdy nenašel skutečnou pozici na trhu produktů, takže těžařům Filecoinů hrozil bankrot. Tyto stroje jsou vybaveny GPU, které lze znovu použít pro úlohy odvození AI nižší třídy.
3) Hardware pro těžbu ETH: Když ETH přejde z Proof of Work (PoW) na Proof of Stake (PoS), okamžitě se zpřístupní velké množství hardwaru, který lze znovu použít pro vyvození AI.
Trh GPU DePIN je vysoce konkurenční a produkty nabízí více hráčů. Například Aethir, Exabits a Akash. Hack VC se rozhodl podporovat io.net, který také agreguje nabídku prostřednictvím partnerství s jinými GPU DePIN, takže v současnosti podporuje největší nabídku GPU na trhu.
Je důležité si uvědomit, že ne veškerý hardware GPU je vhodný pro vyvozování AI. Jedním z očividných důvodů je, že starší GPU nemají dostatek paměti GPU na to, aby zvládly velké jazykové modely (LLM), ačkoli v této oblasti došlo k některým zajímavým inovacím. Například společnost Exabits vyvinula technologii pro načítání aktivních neuronů do paměti GPU a neaktivních neuronů do paměti CPU. Předpovídají, které neurony musí být aktivní/neaktivní. To umožňuje použití grafických procesorů nižší třídy pro pracovní zátěže AI, i když je paměť GPU omezená. To ve skutečnosti zvyšuje užitečnost GPU nižší třídy pro odvození AI.
Kromě toho budou muset Web3 AI DePIN časem vylepšit své nabídky, aby poskytovaly služby podnikové úrovně, jako je jednotné přihlášení (SSO), soulad se SOC 2, smlouvy o úrovni služeb (SLA) atd. To bude srovnatelné s cloudovými službami, které v současnosti využívají zákazníci Web2.
Skutečná výhoda č. 3: Necenzurní modely, které se vyhýbají autocenzuře OpenAI
Hodně se diskutovalo o otázce cenzury AI. Například Turecko v jednu chvíli dočasně zakázalo OpenAI (později zákaz zrušilo poté, co OpenAI zlepšila jeho dodržování). Jsme přesvědčeni, že tato kontrola na úrovni země je v zásadě neopodstatněná, protože země musí přijmout umělou inteligenci, aby zůstaly konkurenceschopné.
Ještě zajímavější je, že OpenAI se cenzuruje sama. OpenAI například nezpracuje obsah NSFW (nevhodný pro prohlížení na pracovišti) ani nebude předpovídat výsledek příštích prezidentských voleb. Věříme, že v oblastech aplikací AI existuje zajímavý a obrovský trh, který OpenAI z politických důvodů nechce zapojit.
Open source je skvělý způsob, jak tento problém vyřešit, protože úložiště Github není zavázáno akcionářům ani představenstvu. Jedním z příkladů je Venice.ai, který slibuje ochranu soukromí uživatelů a provozování bez cenzury. Klíčem je samozřejmě jeho open source povaha, která to umožňuje. Web3 AI to může efektivně zlepšit provozováním těchto modelů s otevřeným zdrojovým softwarem (OSS) na levných GPU clusterech pro odvození. Z tohoto důvodu věříme, že OSS + Web3 je ideální kombinací, která připraví cestu k AI bez cenzury.
Skutečná výhoda č. 4: Vyhněte se odesílání osobních údajů do OpenAI
Mnoho velkých podniků má obavy o soukromí svých interních podnikových dat. Pro tyto zákazníky je obtížné důvěřovat centralizované třetí straně, jako je OpenAI, že tato data zpracuje.
Pro tyto podniky se může používání webu3 zdát ještě děsivější, protože jejich interní data se náhle objeví v decentralizované síti. U AI však již existují některé inovace v technologiích zvyšujících soukromí:
Trusted Execution Environments (TEE), jako je například Super protokol
Fully Homomorphic Encryption (FHE) jako Fhenix.io (portfoliová společnost spravovaná Hack VC) nebo Inco Network (obě poháněné Zama.ai) a Bagel's PPML
Tyto technologie se stále vyvíjejí a výkon se neustále zlepšuje s nadcházejícími nulovými znalostmi (ZK) a FHE ASIC. Ale dlouhodobým cílem je chránit podniková data a zároveň dolaďovat model. Jakmile se tyto protokoly objeví, web3 se může stát atraktivnějším místem pro počítání AI, které zachovává soukromí.
Skutečná výhoda č. 5: Využijte nejnovější inovace v modelu s otevřeným zdrojovým kódem
Open source software (OSS) v posledních několika desetiletích narušuje tržní podíl proprietárního softwaru. LLM považujeme za pokročilý proprietární software, který se stává rušivým cílem pro software s otevřeným zdrojovým kódem. Mezi některé pozoruhodné vyzyvatele patří Llama, RWKV a Mistral.ai. Tento seznam se nepochybně časem rozroste (komplexnější seznam je k dispozici na Openrouter.ai). Využitím web3 AI poháněné modely s otevřeným zdrojovým kódem mohou lidé plně využít těchto nových inovací.
Věříme, že v průběhu času může globální síla úsilí o vývoj open source v kombinaci s kryptografickými pobídkami řídit rychlou inovaci v modelech s otevřeným zdrojovým kódem a na nich postavených agentů a rámců. Příkladem protokolu agenta AI je Theoriq. Theoriq využívá modely s otevřeným zdrojovým kódem k vytvoření sítě vzájemně propojených agentů umělé inteligence, které lze sestavit a vytvořit tak pokročilejší řešení umělé inteligence.
Důvod, proč tomu tak pevně věříme, je založen na minulých zkušenostech: většina „vývojářského softwaru“ byla postupem času překonána softwarem s otevřeným zdrojovým kódem. Existuje důvod, proč Microsoft býval proprietární softwarovou společností a nyní je hlavním přispěvatelem do Github. Pokud se podíváte na to, jak Databricks, PostGresSQL, MongoDB atd. narušují proprietární databáze, celé odvětví je příkladem narušení open source software, takže precedent je zde docela silný.
Má to však malý háček. Jedním ožehavým problémem s OSS LLM je, že OpenAI začala podepisovat placené licenční smlouvy na data s organizacemi, jako je Reddit a New York Times. Pokud bude tento trend pokračovat, může být pro OSS LLM stále obtížnější konkurovat kvůli ekonomickým překážkám v přístupu k datům. NVIDIA může používat důvěrné výpočty jako vylepšený nástroj pro bezpečné sdílení dat. Čas ukáže, jak se to vyvine.
Skutečná výhoda č. 6: Konsensus prostřednictvím nákladného náhodného výběru vzorků nebo důkazů s nulovými znalostmi
V uvažování web3 AI je ověření výzvou. Pro ověřovatele je možné získat poplatky falšováním výsledků, takže ověření závěrů je důležitým opatřením. Je důležité poznamenat, že ačkoli je uvažování AI stále v plenkách, takové klamání je nevyhnutelné, pokud nebudou podniknuty kroky k oslabení pobídek k takovému chování.
Standardní přístup webu3 je nechat více validátorů opakovat stejnou operaci a porovnávat výsledky. Nicméně, jak již bylo zmíněno dříve, AI inference je velmi drahá kvůli současnému nedostatku špičkových čipů Nvidia. Vzhledem k tomu, že web3 může poskytovat levnější odvození prostřednictvím nedostatečně využívaných GPU DePIN, redundantní výpočty vážně oslabí hodnotovou nabídku webu3.
Slibnějším řešením je implementace důkazů s nulovými znalostmi pro off-chain inferenční výpočty AI. V tomto případě lze ověřit stručné důkazy o nulových znalostech, aby se zjistilo, zda byl model trénován správně, nebo zda závěr proběhl správně (tzv. zkML). Příklady zahrnují Modulus Labs a ZKonduit. Protože operace s nulovými znalostmi vyžadují značné výpočetní zdroje, je výkon těchto řešení stále v plenkách. Se zavedením hardwarových ASIC s nulovými znalostmi v blízké budoucnosti se však tato situace může zlepšit.
Slibnějším nápadem je „optimistický“ přístup k odvození AI založený na vzorkování. V tomto modelu potřebujete ověřit pouze malou část výsledků generovaných validátorem, ale nastavit ekonomické náklady dostatečně vysoké na to, abyste potrestali validátory přistižené při podvádění, čímž se vytvoří silný ekonomický zákaz. Tímto způsobem ušetříte nadbytečné výpočty (viz například článek „Proof of Sampling“ společnosti Hyperbolic).
Dalším slibným nápadem je řešení využívající technologii vodoznaků a otisků prstů, jako je ta, kterou navrhuje Bagel Network. Je to podobný mechanismus, který Amazon Alexa poskytuje pro zajištění kvality svých modelů AI na milionech zařízení.
Skutečný přínos č. 7: Úspory (zisky OpenAI) díky sestavitelným balíkům softwaru s otevřeným zdrojovým kódem
Další příležitostí, kterou web3 pro AI přináší, je demokratizace snižování nákladů. Dosud jsme diskutovali o způsobech, jak ušetřit na nákladech na GPU prostřednictvím DePIN, jako je io.net. Web3 však také nabízí možnost ušetřit ziskové marže na centralizovaných službách webové AI (jako je OpenAI, která má podle informací v době psaní tohoto článku roční příjmy přes 1 miliardu USD). Tyto úspory nákladů pocházejí z používání modelů s otevřeným zdrojovým softwarem (OSS) namísto proprietárních modelů, což vede k dalším úsporám nákladů, protože se tvůrci modelů nesnaží o zisk.
Mnoho modelů softwaru s otevřeným zdrojovým kódem bude vždy zcela zdarma, což zákazníkům poskytuje nejlepší ekonomiku. Mohou však existovat také některé modely softwaru s otevřeným zdrojovým kódem, které se pokoušejí o tyto způsoby zpeněžení. Vezměte si, že pouze 4 % modelek na Hugging Face školí společnosti s rozpočtem, aby pomohly tyto modelky dotovat (viz zde). Zbývajících 96 % modelek trénuje komunita. Tato 96% modelová skupina Hugging Face čelí skutečným nákladům (včetně nákladů na výpočetní techniku a dat). Tyto modely je tedy potřeba nějakým způsobem zpeněžit.
Existuje mnoho návrhů na zpeněžení tohoto modelu softwaru s otevřeným zdrojovým kódem. Jedním z nejzajímavějších z nich je koncept „Initial Model Offering“ (IMO), který spočívá v tokenizaci samotného modelu, ponechání části tokenů týmu a převedení části budoucích příjmů modelu k držitelům tokenů, i když zjevně existují určité právní a regulační překážky.
Jiné modely softwaru s otevřeným zdrojovým kódem se pokusí zpeněžit na základě využití. Upozornění je, že pokud se tento scénář naplní, modely softwaru s otevřeným zdrojovým kódem se mohou začít stále více podobat svým protějškům vytvářejícím zisk na webu2. Z realistického pohledu se však trh rozdělí na dva a některé z těchto modelů budou zcela zdarma.
Jakmile si vyberete model softwaru s otevřeným zdrojovým kódem, můžete nad ním vytvořit sestavitelné hierarchie. Můžete například použít Ritual.net pro vyvozování AI a Theoriq.ai jako první lídr v oblasti sestavitelných a autonomních on-chain agentů AI (oba jsou podporováni Hack VC).
Skutečný přínos č. 8: Decentralizovaný sběr dat
Jednou z největších výzev, kterým AI čelí, je získání správných dat pro trénování modelu. Již dříve jsme zmínili, že s decentralizovaným školením AI existují určité problémy. Jak je to ale s využitím decentralizovaného webu pro získávání dat (která pak lze použít pro školení jinde, dokonce i na tradičních platformách web2)?
Přesně to dělají startupy jako Grass (za kterým stojí Hack VC). Grass je decentralizovaná síť „procházení dat“, kde jednotlivci přispívají k výkonu nečinného zpracování svých strojů k získávání dat pro trénování modelu AI. Teoreticky by tento druh sběru dat mohl být lepší než vnitropodnikové úsilí kterékoli společnosti, a to díky obrovskému výpočetnímu výkonu rozsáhlé sítě motivovaných uzlů. To zahrnuje nejen získávání více dat, ale také jejich častější získávání, aby byla relevantnější a aktuálnější. Vzhledem k tomu, že tyto uzly pro procházení dat jsou decentralizované a nepatří k jediné IP adrese, je téměř nemožné zastavit tuto decentralizovanou armádu pro procházení dat. Navíc mají síť lidí, kteří čistí a normalizují data, aby byla po procházení užitečná.
Jakmile budete mít data, potřebujete také umístění úložiště v řetězci a LLM (Large Language Model) vygenerovaný pomocí těchto dat. V tomto ohledu je 0g.AI prvním lídrem. Jedná se o vysoce výkonné řešení webového úložiště optimalizované pro AI, které je výrazně levnější než AWS (další finanční úspěch Web3 AI), a zároveň slouží jako základ dostupnosti dat pro zařízení vrstvy 2, AI atd.
Je třeba poznamenat, že role dat ve web3 AI se může v budoucnu změnit. V současné době je pro LLM současným stavem používat data k předtrénování modelu a jeho postupnému zlepšování o další data. Protože se však data na internetu mění v reálném čase, jsou tyto modely vždy mírně zastaralé, takže odpovědi LLM inference jsou mírně nepřesné.
Novým paradigmatem, které se může v budoucnu vyvinout, jsou data „v reálném čase“. Koncept spočívá v tom, že když je LLM požádáno, aby provedlo odvození, může LLM použít data tak, že do nich vloží data shromážděná z internetu v reálném čase. Tímto způsobem bude LLM používat nejnovější data. Tráva na tom také pracuje.
3. Závěr
Doufáme, že vám tato analýza pomůže, když budete přemýšlet o příslibech a realitě webové AI. Toto je pouze výchozí bod pro diskusi a oblast se rychle mění, takže se neváhejte připojit a vyjádřit své názory, protože bychom se rádi i nadále společně učili a budovali.
