Hlavní poznatky:

  • Je těžké ignorovat rostoucí fascinaci umělou inteligencí (AI) a nadšení z její potenciální synergie s Web3. Nicméně současná realita této rodící se integrace odhaluje nesoulad mezi potřebami infrastruktury AI a existujícími blockchainovými rámcemi.

  • V této sérii budeme zkoumat vztah mezi AI a Web3, výzvy, příležitosti a vertikální aplikace ve Web3.

  • Tato první část série se ponoří do vývoje infrastruktury Web3 pro AI, současných výzev v oblasti výpočetních požadavků a příležitostí.

Umělá inteligence (AI) a technologie blockchain jsou dvě z nejinovativnějších technologií, které v posledním desetiletí zachytily představivost veřejnosti. Vývoj umělé inteligence ve Web2 byl nezpochybnitelný, jak je vidět na zrychlujícím se počtu letošních investic ze strany VC. Od kola financování Inflection AI ve výši 1,3 miliardy dolarů v červnu 2023 s investicemi od společností Microsoft a Nvidia až po konkurenta OpenAI, společnost Anthropic získala v září 2023 od Amazonu 1,25 miliardy dolarů.

Případ použití a průnik Web3 je však stále skeptický. Hraje Web3 roli ve vývoji AI? Pokud ano, jak a proč potřebujeme blockchain v AI? Jeden příběh, který vidíme, je ten, že Web3 má potenciál způsobit revoluci v produktivních vztazích, zatímco umělá inteligence má moc transformovat samotnou produktivitu. Spojení těchto technologií se však ukazuje jako složité a odhaluje výzvy a příležitosti pro požadavky na infrastrukturu.

Infrastruktura AI a GPU Crunch

Hlavním úzkým hrdlem, které v současné době v AI vidíme, je nedostatek GPU. Velké jazykové modely (LLM), jako je OpenAI GPT-3.5, odemkly první zabijáckou aplikaci, kterou dnes vidíme, ChatGPT. Je to nejrychlejší aplikace, která dosáhla 100 milionů MAU za 6 týdnů ve srovnání s YouTube a Facebookem, které trvalo 4 roky. To otevřelo stavidla nových aplikací využívajících modely LLM, mezi několik příkladů patří Midjourney postavená na StableLM společnosti Stable Diffusion a PaLM2 pohánějící Bard od Googlu, API, MakerSuite a Workspaces.

Hluboké učení je zdlouhavý a výpočetně náročný proces v masivním měřítku – čím více parametrů LLM mají, tím více paměti GPU potřebuje k provozu. Každý parametr v modelu je uložen v paměti GPU a model potřebuje tyto parametry načíst do paměti během inference. Pokud velikost modelu překročí dostupnou paměť GPU, je to bod, ve kterém velikost modelu překročí dostupnou paměť GPU a model ML přestane fungovat. Přední hráči jako OpenAI se také potýkají s nedostatkem GPU, což má za následek potíže s nasazením jejich multimodálních modelů s modely s delší sekvencí (8k VS 32k). Se značným nedostatkem napájecích čipů dosáhly rozsáhlé aplikace prahu toho, co je možné s LLM, takže začínající umělci s umělou inteligencí soutěží o výkon GPU, aby získali výhodu prvního na trhu.

Řešení GPU: Centralizované a decentralizované přístupy

V blízké budoucnosti se očekává, že centralizovaná řešení, jako je vydání tensorRT-LLM od Nvidie v srpnu 2023, nabízející optimalizované vyvozování a zvýšený výkon, a očekávání uvedení Nvidia H200s ve 2. čtvrtletí 2024 vyřeší omezení GPU. Tradiční těžařské společnosti jako CoreWeave a Lambda Labs se navíc soustředí na poskytování cloud computingu zaměřeného na GPU na základě poplatků za pronájem v rozmezí 2–2,25 USD/hodinu pro Nvidia H100. Těžební společnosti využívají ASIC (Application-Specific Integrated Circuit), protože poskytují významné výhody oproti počítačům pro všeobecné použití nebo GPU pro efektivitu těžby prostřednictvím návrhu specifického pro algoritmus a specializovaných hardwarových architektur pro zvýšení hash výkonu.

Na straně Web3 byla myšlenka tržiště typu Airbnb pro GPU populárním konceptem a existuje několik projektů, které se o to pokouší. Pobídky v blockchainu jsou ideální pro bootstraping sítí a je to účinný mechanismus, jak decentralizovaným způsobem přilákat účastníky nebo entity s nečinnými GPU. Získání přístupu k GPU obvykle zahrnuje podepsání dlouhodobých smluv s poskytovateli cloudu a aplikace nemusí nutně využívat GPU po celou dobu trvání smlouvy.

Další přístup nazvaný Petals zahrnuje rozdělení modelu LLM do několika vrstev, které jsou hostovány na různých serverech podobně jako koncept sharding. Byl vyvinut jako součást spolupráce BigScience inženýry a výzkumníky z Hugging Face, University of Washington a Yandex, abychom jmenovali alespoň některé. Každý uživatel se může připojit k síti decentralizovaným způsobem jako klient a aplikovat model na svá data.

Příležitosti pro aplikace infrastruktury AI X Web3

I když stále existují určité nevýhody, infrastruktura Web3 má potenciál vypořádat se s výzvami, které přináší integrace AI, a představuje příležitosti pro inovativní řešení, jak prozkoumáme níže.

Decentralizované počítačové sítě AI

Decentralizované výpočetní sítě spojují jednotlivce, kteří potřebují výpočetní zdroje, se systémy, které mají nevyužité výpočetní schopnosti. Tento model, kdy jednotlivci a organizace mohou přispívat svými nevyužitými zdroji do sítě, aniž by jim vznikaly další náklady, umožňuje síti poskytovat nákladově efektivnější ceny na rozdíl od centralizovaných poskytovatelů.

Existují možnosti v decentralizovaném vykreslování GPU, které umožňují peer-to-peer sítě založené na blockchainu pro škálování tvorby 3D obsahu založeného na AI ve hrách Web3. Významná nevýhoda decentralizovaných počítačových sítí však spočívá v potenciálním zpomalení během tréninku strojového učení kvůli komunikační režii mezi různými výpočetními zařízeními.

Decentralizovaná data AI

Tréninková data slouží jako počáteční datová sada používaná k výuce aplikací strojového učení rozpoznávat vzory nebo splňovat konkrétní kritéria. Na druhé straně se k posouzení přesnosti modelu používají testovací nebo ověřovací data a pro validaci je nutná samostatná datová sada, protože model je již obeznámen s trénovacími daty.

Pokračují snahy o vytvoření tržišť pro zdroje dat AI a označování dat AI, kde blockchain slouží jako pobídková vrstva pro velké společnosti a instituce ke zlepšení efektivity. V současné rané fázi vývoje však tyto vertikály čelí překážkám, jako je potřeba kontroly člověkem a obavy týkající se dat s podporou blockchainu.

Existují například výpočetní sítě SP speciálně navržené pro trénování modelu ML. Výpočetní sítě SP jsou přizpůsobeny konkrétním případům použití, typicky využívající architekturu, která konsoliduje výpočetní zdroje do jednotného fondu, připomínajícího superpočítač. Výpočetní sítě SP určují náklady prostřednictvím mechanismu plynu nebo parametru kontrolovaného komunitou.

Decentralizované výzvy

I když plná decentralizace LLM představuje výzvy, projekty zkoumají způsoby, jak decentralizovat výzvy tím, že podporují příspěvky autoškolených technik. Tento přístup motivuje tvůrce k vytváření obsahu a poskytuje ekonomické motivační struktury pro více účastníků v krajině.

První příklady zahrnují platformy chatbotů poháněné umělou inteligencí, které tokenizovaly pobídky pro tvůrce obsahu a tvůrce modelů AI, aby trénovali chatboty, z nichž se následně mohou stát obchodovatelné NFT, což umožňuje přístup k datům s oprávněním uživatele pro školení a dolaďování modelů. Na druhou stranu, decentralizovaná tržiště s výzvami mají za cíl motivovat tvůrce rychlého výběru tím, že umožňují obchodování s jejich daty a výzvami na trhu.

Zero-Knowledge Machine Learning (ZKML)

Rok 2023 byl skutečně rokem, ve kterém LLM prokázaly svou sílu. Aby mohly blockchainové projekty využít plný potenciál AI, je nezbytné, aby tyto modely fungovaly v řetězci. Problémy s limity plynu a výpočetními náklady však stále představují složitost pro integraci AI.

Co kdyby bylo možné LLM provozovat mimo řetězec a jejich výstupní výsledky využívat k řízení rozhodování a aktivit v řetězci, a to vše při generování důkazu, že tato rozhodnutí jsou prováděna modelem ML AI a nikoli náhodnými výstupy? To je v podstatě to, co ZKML je. S nadcházejícím uvedením OpenAI GPT-5 a Meta Llama3 se LLM rozrůstají s vylepšenými schopnostmi. Primárním cílem ZKML je minimalizovat velikost nátisků, díky čemuž se přirozeně hodí pro kombinaci nátisků ZK s technologií AI. Například ZK-proofs by mohly být aplikovány na komprimované modely v decentralizovaném ML odvození nebo školení, kterým uživatelé přispívají ke školení tím, že zasílají data do veřejného modelu v síti on-chain.

V současné době jsme ve fázi zrodu toho, co je výpočetně praktické ověřit pomocí důkazů s nulovými znalostmi v řetězci. Pokroky v algoritmech však rozšiřují rozsah toho, čeho lze dosáhnout pomocí zkoumaných případů použití, jako je integrita modelu, pomocí nichž lze důkazy ZK použít k prokázání toho, že stejný algoritmus ML běží na datech různých uživatelů stejným způsobem. vyhnout se předsudkům. Podobně, s nárůstem algoritmicky generovaných portrétů a deepfakes, bylo možné použít ZK-proofs v Proof of Personhood k ověření jedinečné osoby, aniž by došlo k ohrožení soukromých informací jednotlivce.

Závěrem lze říci, že integrace infrastruktury Web3 a umělé inteligence představuje vzrušující hranici technologických inovací a zároveň zvyšuje přínos prostřednictvím tokenizovaných pobídek. Zatímco Web2 zaznamenal významný pokrok v AI, průnik Web3 a AI je stále předmětem zkoumání.

Jak se posouváme vpřed, synergie mezi Web3 a AI má velký potenciál a slibuje přetvoření technologického prostředí a způsobu, jakým přistupujeme k infrastruktuře AI. Zůstaňte naladěni na další díl série AI X Web3, kde se ponoříme do případů použití umělé inteligence ve hrách Web3.

Zřeknutí se odpovědnosti: Obsah tohoto článku byl připraven pouze pro informativní účely a neměl by být základem pro rozhodování o investicích ani by neměl být vykládán jako doporučení k provádění investičních transakcí nebo by neměl být považován za návrh investiční strategie s ohledem na jakékoli finanční nástroje nebo jejich emitenty.