Najważniejsze wnioski:
Rosnące zainteresowanie sztuczną inteligencją (AI) i ekscytacja jej potencjalną synergią z Web3 są trudne do zignorowania. Niemniej jednak obecna rzeczywistość tej wczesnej integracji ujawnia rozbieżność między potrzebami infrastrukturalnymi AI a istniejącymi ramami blockchainowymi.
W tej serii będziemy badać związek między AI a Web3, wyzwania, możliwości i zastosowania wertykalne w Web3.
Ta pierwsza część serii zagłębia się w rozwój infrastruktury Web3 dla AI, obecne wyzwania związane z wymaganiami obliczeniowymi i obszary możliwości.
Sztuczna inteligencja (AI) i technologia blockchain to dwie najbardziej innowacyjne technologie, które przyciągnęły publiczną wyobraźnię w ostatniej dekadzie. Rozwój AI w Web2 był niezaprzeczalny, co widać w rosnącej liczbie inwestycji dokonanych w tym roku przez fundusze VC. Od rundy finansowania Inflection AI w wysokości 1,3 miliarda dolarów w czerwcu 2023 roku z inwestycjami od Microsoftu i Nvidii, po konkurenta OpenAI, Anthropic, który pozyskał 1,25 miliarda dolarów od Amazonu we wrześniu 2023 roku.
Jednak przypadek użycia i skrzyżowanie z Web3 wciąż budzi wątpliwości. Czy Web3 odgrywa rolę w rozwoju AI? Jeśli tak, to jak i dlaczego potrzebujemy blockchaina w AI? Jedna z narracji, którą widzimy, to że Web3 ma potencjał do zrewolucjonizowania produktywnych relacji, podczas gdy AI ma moc transformowania samej produktywności. Jednak połączenie tych technologii okazuje się skomplikowane, ujawniając wyzwania i możliwości w zakresie wymagań infrastrukturalnych.
Infrastruktura AI i kryzys GPU
Głównym wąskim gardłem, które obecnie widzimy w AI, jest kryzys GPU. Duże modele językowe (LLM), takie jak GPT-3.5 od OpenAI, odblokowały pierwszą aplikację, którą widzimy dzisiaj, ChatGPT. Jest to najszybsza aplikacja, która osiągnęła 100 milionów aktywnych użytkowników (MAU) w ciągu 6 tygodni w porównaniu do YouTube i Facebooka, które zajęły 4 lata. To otworzyło drzwi dla nowych aplikacji wykorzystujących modele LLM, a kilka przykładów to Midjourney zbudowane na Stable Diffusion’s StableLM oraz PaLM2, które napędzają Google’a Bard, API, MakerSuite i Workspaces.
Uczenie głębokie to długi i wymagający proces obliczeniowy na masową skalę - im więcej parametrów mają LLM-y, tym więcej pamięci GPU jest potrzebnej do ich działania. Każdy parametr w modelu jest przechowywany w pamięci GPU, a model musi załadować te parametry do pamięci podczas inferencji. Jeśli rozmiar modelu przekroczy dostępną pamięć GPU, to jest moment, w którym rozmiar modelu przekracza dostępną pamięć GPU, a model ML przestaje działać. Wiodący gracze, tacy jak OpenAI, również doświadczają niedoborów GPU, co utrudnia wdrażanie ich modeli wielomodalnych z dłuższymi modelami sekwencji (8k VS 32k). W obliczu znaczących niedoborów chipów dostawczych, duże aplikacje osiągnęły próg tego, co jest możliwe z LLM-ami, pozostawiając startupy AI konkurujące o moc GPU, aby uzyskać przewagę pierwszego ruchu.
Rozwiązania GPU: Podejścia scentralizowane i zdecentralizowane
W krótkim okresie, scentralizowane rozwiązania, takie jak wydanie tensorRT-LLM przez Nvidię w sierpniu 2023 roku, oferujące zoptymalizowaną inferencję i zwiększoną wydajność, oraz przewidywana premiera Nvidia H200s w II kwartale 2024 roku, mają rozwiązać ograniczenia GPU. Ponadto tradycyjne firmy zajmujące się wydobywaniem, takie jak CoreWeave i Lambda Labs, przesuwają się w kierunku dostarczania obliczeń w chmurze skoncentrowanych na GPU na podstawie opłat za wynajem wynoszących od 2 do 2,25 USD za godzinę za Nvidia H100s. Firmy wydobywcze wykorzystują ASIC (układ scalony o zastosowaniu specjalnym), ponieważ zapewniają one znaczące przewagi nad komputerami ogólnego przeznaczenia lub GPU w zakresie efektywności wydobycia dzięki specyficznemu projektowi algorytmu i specjalistycznym architekturze sprzętowej w celu zwiększenia mocy haszowania.
Po stronie Web3, pomysł rynku podobnego do Airbnb dla GPU był popularną koncepcją, a kilka projektów stara się to zrealizować. Zachęty w blockchainie są idealne do budowania sieci i stanowią skuteczny mechanizm przyciągania uczestników lub podmiotów z bezczynny GPU w sposób zdecentralizowany. Zazwyczaj uzyskanie dostępu do GPU wiąże się z podpisywaniem długoterminowych umów z dostawcami chmury, a aplikacje niekoniecznie muszą wykorzystywać GPU przez cały okres umowy.
Inne podejście zwane Petals polega na podzieleniu modelu LLM na kilka warstw, które są hostowane na różnych serwerach, podobnie jak koncepcja sharding. Zostało ono opracowane w ramach współpracy BigScience przez inżynierów i badaczy z Hugging Face, Uniwersytetu w Waszyngtonie oraz Yandex, aby wymienić tylko kilka. Każdy użytkownik może w sposób zdecentralizowany połączyć się z siecią jako klient i zastosować model do swoich danych.
Możliwości zastosowań infrastruktury AI X Web3
Chociaż wciąż istnieją pewne wady, infrastruktura Web3 ma potencjał, aby poradzić sobie z wyzwaniami związanymi z integracją AI i stwarza możliwości innowacyjnych rozwiązań, co będziemy badać poniżej.
Zdecentralizowane sieci obliczeniowe AI
Zdecentralizowane sieci obliczeniowe łączą osoby potrzebujące zasobów obliczeniowych z systemami posiadającymi niewykorzystane możliwości obliczeniowe. Ten model, w którym osoby i organizacje mogą wnosić swoje nieużywane zasoby do sieci bez ponoszenia dodatkowych wydatków, pozwala sieci oferować bardziej opłacalne ceny w porównaniu do dostawców scentralizowanych.
Istnieją możliwości w zdecentralizowanym renderowaniu GPU ułatwionym przez oparte na blockchainie sieci peer-to-peer, aby skalować tworzenie treści 3D zasilane AI w grach Web3. Jednak istotnym minusem zdecentralizowanych sieci obliczeniowych jest potencjalne spowolnienie podczas treningu uczenia maszynowego z powodu narzutu komunikacyjnego między różnymi urządzeniami obliczeniowymi.
Zdecentralizowane dane AI
Dane treningowe służą jako początkowy zbiór danych używany do nauczania aplikacji uczenia maszynowego rozpoznawania wzorców lub spełniania określonych kryteriów. Z drugiej strony, dane testowe lub walidacyjne są wykorzystywane do oceny dokładności modelu, a oddzielny zbiór danych jest niezbędny do walidacji, ponieważ model już zna dane treningowe.
Trwają ciągłe wysiłki w celu stworzenia rynków dla źródeł danych AI i etykietowania danych AI, gdzie blockchain pełni rolę warstwy motywacyjnej dla dużych firm i instytucji w celu poprawy efektywności. Jednak na obecnym wczesnym etapie rozwoju, te sektory napotykają przeszkody, takie jak konieczność przeglądu ludzkiego i obawy dotyczące danych aktywowanych przez blockchain.
Na przykład istnieją sieci obliczeniowe SP zaprojektowane specjalnie do treningu modeli ML. Sieci obliczeniowe SP są dostosowane do konkretnych przypadków użycia, zazwyczaj przyjmując architekturę, która konsoliduje zasoby obliczeniowe w jednolitą pulę, przypominającą superkomputer. Sieci obliczeniowe SP określają koszty poprzez mechanizm gazowy lub parametr kontrolowany przez społeczność.
Zdecentralizowane podpowiedzi
Chociaż pełna decentralizacja LLM-ów wiąże się z wyzwaniami, projekty badają sposoby decentralizacji podpowiedzi, zachęcając do wkładów z samodzielnie trenowanych technik. To podejście motywuje twórców do generowania treści, oferując struktury motywacyjne dla większej liczby uczestników w tym krajobrazie.
Wczesne przykłady obejmują platformy chatbotów zasilane AI, które wprowadziły tokenizowane zachęty dla twórców treści i twórców modeli AI do trenowania chatbotów, które mogą następnie stać się zbywalnymi NFT, dając dostęp do danych za zgodą użytkowników do treningu i dostrajania modelu. Z drugiej strony, zdecentralizowane rynki podpowiedzi mają na celu motywowanie twórców podpowiedzi poprzez umożliwienie im posiadania swoich danych i podpowiedzi, które można handlować na rynku.
Zero-Knowledge Machine Learning (ZKML)
Rok 2023 był prawdziwie przełomowym rokiem, w którym LLM-y zademonstrowały swoją moc. Aby projekty blockchain mogły zrealizować pełny potencjał AI, istotne jest, aby te modele były uruchamiane na łańcuchu. Jednak wyzwania związane z limitami gazu i kosztami obliczeniowymi wciąż stawiają przed integracją AI złożoności.
Co by było, gdyby LLM-y mogły być uruchamiane poza łańcuchem, a ich wyniki wykorzystywane do podejmowania decyzji i działań na łańcuchu, wszystko przy generowaniu dowodów, że te decyzje są podejmowane przez model ML AI, a nie przez losowe wyniki? To właśnie zasadniczo oznacza ZKML. Z nadchodzącym uruchomieniem GPT-5 od OpenAI i Llama3 od Meta, LLM-y stają się coraz większe z ulepszonymi możliwościami. Głównym celem ZKML jest minimalizacja rozmiaru dowodów, co czyni go naturalnym dopasowaniem do łączenia dowodów ZK z technologią AI. Na przykład dowody ZK mogłyby być stosowane do kompresji modeli w zdecentralizowanej inferencji lub treningu ML, w którym użytkownicy przyczyniają się do treningu, przesyłając dane do publicznego modelu w sieci na łańcuchu.
Obecnie znajdujemy się w początkowych etapach tego, co jest praktycznie możliwe do zweryfikowania za pomocą dowodów zerowej wiedzy na łańcuchu. Jednak postęp w algorytmach poszerza zakres tego, co można osiągnąć, badając przypadki użycia, takie jak integralność modelu, w której dowody ZK mogłyby być używane do udowodnienia, że ten sam algorytm ML jest uruchamiany na danych różnych użytkowników w ten sam sposób, aby uniknąć uprzedzeń. Podobnie, wraz ze wzrostem algorytmicznie generowanych portretów i deepfake'ów, dowody ZK mogłyby być stosowane w dowodzie osobowości, aby zweryfikować unikalną osobę bez naruszania prywatnych informacji jednostki.
Podsumowując, integracja infrastruktury Web3 i AI stanowi ekscytującą granicę innowacji technologicznych, przy jednoczesnym zwiększaniu wkładu poprzez tokenizowane zachęty. Chociaż Web2 doświadczył znaczących postępów w AI, skrzyżowanie Web3 i AI wciąż jest przedmiotem badań.
W miarę jak idziemy naprzód, synergia między Web3 a AI ma ogromny potencjał, obiecując przekształcić krajobraz technologii i sposób, w jaki podchodzimy do infrastruktury AI. Śledźcie kolejną część serii AI X Web3, w której zagłębimy się w przypadki użycia AI w grach Web3.
Zastrzeżenie: Treść tego artykułu została przygotowana wyłącznie w celach informacyjnych i nie powinna być podstawą do podejmowania decyzji inwestycyjnych ani interpretowana jako rekomendacja do angażowania się w transakcje inwestycyjne lub sugerować strategię inwestycyjną w odniesieniu do jakichkolwiek instrumentów finansowych lub ich emitentów.
