Tłumaczenie: potoczny blockchain

W ostatnim czasie sztuczna inteligencja stała się jednym z najgorętszych i najbardziej obiecujących obszarów na rynku kryptowalut. włączać:
Zdecentralizowane szkolenie AI
Zdecentralizowana sieć infrastruktury fizycznej GPU
Nieocenzurowane modele sztucznej inteligencji Czy to przełomowe osiągnięcia, czy tylko szum?
W @hack_vc staramy się przebić mgłę i oddzielić obietnice od rzeczywistości. W tym artykule dokonamy dogłębnej analizy najlepszych pomysłów dotyczących szyfrowania i sztucznej inteligencji. Wspólnie zbadajmy prawdziwe wyzwania i możliwości.
1. Wyzwania łączenia Web3 i AI
1. Zdecentralizowane szkolenie AI
Problem ze szkoleniem AI w łańcuchu polega na tym, że szkolenie wymaga szybkiej komunikacji i koordynacji między procesorami graficznymi, ponieważ sieć neuronowa musi podczas szkolenia wykonywać propagację wsteczną. Nvidia udostępnia w tym celu dwie innowacyjne technologie (NVLink i InfiniBand). Techniki te mogą znacznie przyspieszyć komunikację GPU, ale można ich używać tylko w klastrze procesorów graficznych w ramach jednego centrum danych (prędkości przekraczające 50 Gb/s).
Jeśli wprowadzona zostanie zdecentralizowana sieć, prędkość będzie znacznie niższa ze względu na zwiększone opóźnienia i przepustowość sieci. Jest to po prostu niewykonalne w przypadku zastosowań szkoleniowych AI w porównaniu z szybkimi połączeniami wzajemnymi zapewnianymi przez Nvidię w centrach danych. Ponadto przepustowość sieci i koszty przechowywania są znacznie wyższe w środowisku zdecentralizowanym w porównaniu z dyskami SSD w klastrze lokalnym.
Innym problemem związanym ze szkoleniem modeli sztucznej inteligencji w łańcuchu jest to, że rynek ten jest mniej atrakcyjny niż wnioskowanie. Obecnie duża ilość zasobów obliczeniowych GPU jest wykorzystywana do uczenia dużych modeli językowych AI (LLM). Jednak na dłuższą metę wnioskowanie stanie się głównym scenariuszem zastosowań GPU. Pomyśl o tym: ile dużych modeli językowych AI należy przeszkolić, aby sprostać zapotrzebowaniu? Dla porównania, ilu klientów będzie korzystać z tych modeli?
Należy pamiętać, że istnieją już pewne innowacje w tej dziedzinie, które mogą dać nadzieję na przyszłość szkoleń AI on-chain:
1) Rozproszone szkolenia oparte na InfiniBand są prowadzone na dużą skalę, a sama NVIDIA wspiera także nielokalne szkolenia rozproszone poprzez swoją zbiorową bibliotekę komunikacyjną. Jest to jednak wciąż na wczesnym etapie i dopiero okaże się, czy zostało to przyjęte. Wąskie gardło spowodowane odległością fizyczną nadal istnieje, więc lokalne szkolenie InfiniBand jest nadal znacznie szybsze.
2) Opublikowano nowe badania dotyczące zdecentralizowanego szkolenia, które zmniejsza liczbę synchronizacji komunikacyjnych, co może w przyszłości uczynić zdecentralizowane szkolenie bardziej praktycznym.
3) Inteligentne planowanie fragmentowania i szkolenia może pomóc poprawić wydajność. Podobnie w przyszłości mogą pojawić się nowe architektury modelowe zaprojektowane specjalnie dla infrastruktury rozproszonej (Gensyn prowadzi badania w tych obszarach).
4) Innowacje takie jak Neuromesh mają na celu osiągnięcie rozproszonego szkolenia przy niższych kosztach dzięki nowej metodzie zwanej siecią kodowania predykcyjnego (PCN).
2. Zdecentralizowana iteracja danych AI
Część szkolenia zawierająca informacje o danych również stanowi problem. Każdy proces szkolenia AI wiąże się z przetwarzaniem dużych ilości danych. Zazwyczaj modele są szkolone w scentralizowanych i bezpiecznych systemach przechowywania danych, które są wysoce skalowalne i wydajne. Wymaga to przesłania i przetworzenia terabajtów danych i nie jest to cykl jednorazowy. Dane są często zaszumione i zawierają błędy, dlatego przed nauczeniem modelu dane muszą zostać oczyszczone i przekształcone do nadającego się do użytku formatu. Ten etap obejmuje powtarzalne zadania normalizacji, filtrowania i obsługi brakujących wartości. W zdecentralizowanym środowisku stanowią one poważne wyzwania.
Część szkolenia zawierająca informacje o danych jest również iteracyjna, co nie jest kompatybilne z Web3. Osiągnięcie oczekiwanych wyników wymagało od OpenAI tysięcy iteracji. Proces uczenia jest iteracyjny: jeśli bieżący model nie działa zgodnie z oczekiwaniami, eksperci wracają do etapów gromadzenia danych lub szkolenia modelu, aby poprawić wyniki. Teraz wyobraź sobie, że przeprowadzasz ten proces w zdecentralizowanym środowisku, w którym najlepsze istniejące struktury i narzędzia nie są łatwo dostępne w Web3.
Jedną z obiecujących technologii jest 0g.ai (wspierana przez Hack VC), która zapewnia infrastrukturę przechowywania danych w łańcuchu i dostępność danych. Mają szybszą architekturę i możliwość przechowywania dużych ilości danych w łańcuchu.
3. Aby osiągnąć konsensus, używaj nadmiernie zbędnych obliczeń opartych na sztucznej inteligencji
Jednym z wyzwań związanych z połączeniem kryptografii ze sztuczną inteligencją jest weryfikacja dokładności wnioskowania AI, ponieważ nie można w pełni zaufać jednej scentralizowanej stronie w zakresie wykonywania operacji wnioskowania, a ponadto istnieje możliwość nieprawidłowego zachowania węzłów. W sztucznej inteligencji Web2 to wyzwanie nie istnieje, ponieważ nie ma zdecentralizowanego systemu konsensusu.
Jednym z rozwiązań jest przetwarzanie nadmiarowe, w którym wiele węzłów powtarza te same operacje wnioskowania AI, aby działać w środowisku pozbawionym zaufania i unikać pojedynczych punktów awarii.
Problem z tym podejściem polega na tym, że żyjemy w świecie, w którym występuje poważny niedobór wysokiej klasy chipów AI. Okres oczekiwania na wysokiej klasy chipy NVIDIA trwa kilka lat, co powoduje wzrost cen. Jeśli wymagane jest również wielokrotne i powtarzalne wykonywanie wnioskowania AI na wielu węzłach, znacznie zwiększy to te kosztowne koszty. W przypadku wielu projektów to nie zadziała.
4. Przypadki użycia AI specyficzne dla Web3 (w perspektywie krótkoterminowej)
Sugerowano, że Web3 powinien mieć własne, unikalne przypadki użycia sztucznej inteligencji, specjalnie skierowane do klientów Web3.
Obecnie jest to wciąż rynek wschodzący i wciąż odkrywane są przypadki jego zastosowania. Niektóre wyzwania obejmują:
Natywne przypadki użycia Web3 wymagają mniej transakcji AI, ponieważ popyt rynkowy jest wciąż w powijakach.
Jest mniej klientów, ponieważ klienci Web3 są o rząd wielkości mniejsi niż klienci Web2, więc rynek jest mniej rozdrobniony.
Sami klienci nie są wystarczająco stabilni, ponieważ są startupami z mniejszym kapitałem, więc te startupy z czasem mogą upaść. Dostawcy usług sztucznej inteligencji ukierunkowani na klientów Web3 mogą z czasem potrzebować ponownie pozyskać niektórych klientów, aby zastąpić tych, którzy przestali działać, co utrudni rozwój ich działalności.
W dłuższej perspektywie jesteśmy bardzo optymistyczni, jeśli chodzi o przypadki użycia sztucznej inteligencji natywnej dla Web3, zwłaszcza że agenci AI stają się coraz bardziej popularni. Wyobrażamy sobie przyszłość, w której każdemu użytkownikowi Web3 będzie pomagało wielu agentów AI. Pierwszym liderem w tej przestrzeni jest Theoriq.ai, który buduje platformę komponowalnych agentów AI zdolnych do obsługi klientów Web2 i Web3 (przy wsparciu Hack VC).
5. Zdecentralizowana sieć infrastruktury fizycznej dla konsumentów GPU (DePIN)
Istnieje wiele zdecentralizowanych sieci obliczeniowych AI, które opierają się na procesorach graficznych klasy konsumenckiej, a nie na procesorach graficznych dla centrów danych. Procesory graficzne klasy konsumenckiej nadają się do zadań wnioskowania AI z niższej półki lub zastosowań konsumenckich z bardziej elastycznymi wymaganiami dotyczącymi opóźnień, przepustowości i niezawodności. Jednak w przypadku poważnych zastosowań w przedsiębiorstwach (tj. takich, które zdobywają duży udział w rynku) klienci oczekują, że sieci będą bardziej niezawodne niż maszyny domowe, a złożone zadania wnioskowania często wymagają procesorów graficznych wyższej klasy. W przypadku bardziej wartościowych zastosowań klientów lepiej sprawdzają się centra danych.
Należy zauważyć, że uważamy procesory graficzne klasy konsumenckiej za odpowiednie do celów demonstracyjnych lub dla osób prywatnych i start-upów, które tolerują niższą niezawodność. Jednak wartość tych klientów jest zasadniczo niższa, dlatego wierzymy, że zdecentralizowana sieć infrastruktury fizycznej (DePIN) dla przedsiębiorstw Web2 będzie w dłuższej perspektywie bardziej wartościowa. W rezultacie dobrze znane projekty GPU DePIN zazwyczaj ewoluowały od wykorzystywania na początku sprzętu klasy konsumenckiej do obecnie dostępności na poziomie A100/H100 i klastra.
2. Praktyczne i możliwe przypadki użycia szyfrowania x AI
Omówmy teraz przypadki użycia, w których kryptowaluta x AI może znacznie zwiększyć wartość.
Rzeczywista korzyść 1: Obsługa klientów Web2
McKinsey szacuje, że generatywna sztuczna inteligencja może zapewnić wartość dodaną od 2,6 do 4,4 biliona dolarów rocznie w 63 przeanalizowanych przypadkach – w porównaniu z całkowitym PKB Wielkiej Brytanii w 2021 r. wynoszącym 3,1 biliona dolarów. Zwiększyłoby to wpływ całej sztucznej inteligencji o 15% do 40%. Ta szacunkowa wartość uległaby w przybliżeniu podwojeniu, gdybyśmy osadzili generatywną sztuczną inteligencję w oprogramowaniu obecnie używanym do innych zadań.
Interesującą rzeczą jest:
Na podstawie powyższych szacunków oznacza to, że całkowita wartość rynkowa globalnej sztucznej inteligencji (nie tylko generatywnej) może sięgnąć dziesiątek bilionów dolarów.
Dla porównania, łączna wartość wszystkich kryptowalut (w tym Bitcoina i wszystkich altcoinów) łącznie wynosi obecnie zaledwie około 2,7 biliona dolarów.
Bądźmy więc realistami: zdecydowana większość klientów potrzebujących sztucznej inteligencji w perspektywie krótkoterminowej będzie klientami Web2, ponieważ klienci Web3, którzy faktycznie potrzebują sztucznej inteligencji, stanowią tylko niewielką część tego 2,7 biliona rynku (biorąc pod uwagę, że BTC stanowi połowę rynku udostępnij, a sam BTC nie wymaga/nie używa sztucznej inteligencji).
Przypadki użycia sztucznej inteligencji w Web3 dopiero się rozpoczynają i nie jest jasne, jak duży będzie rynek. Ale jedno jest intuicyjnie pewne – w dającej się przewidzieć przyszłości będzie to jedynie część rynku Web2. Wierzymy, że sztuczna inteligencja Web3 ma wciąż przed sobą świetlaną przyszłość, ale oznacza to, że obecnie najpowszechniejszym zastosowaniem sztucznej inteligencji Web3 jest obsługa klientów korzystających z sieci Web2.
Przykładowi klienci Web2, którzy mogliby skorzystać z Web3 AI, to:
Firmy zajmujące się oprogramowaniem dla branży pionowej zbudowane od podstaw z wykorzystaniem sztucznej inteligencji (np. Cedar.ai lub Observe.ai)
Duże przedsiębiorstwa dopasowujące modele do własnych celów (np. Netflix)
Szybko rozwijający się dostawcy sztucznej inteligencji (np. Anthropic)
Firmy programistyczne, które dodają możliwości sztucznej inteligencji do istniejących produktów (np. Canva)
Jest to stosunkowo stabilna baza klientów, ponieważ są to zazwyczaj duzi i wartościowi klienci. Jest mało prawdopodobne, że w najbliższym czasie przestaną działać, a stanowią bardzo dużą potencjalną bazę klientów usług AI. Usługi Web3 AI obsługujące klientów Web2 odniosą korzyści z tej stabilnej bazy klientów.
Ale dlaczego klienci Web2 mieliby chcieć korzystać ze stosu technologii Web3? Pozostała część tego artykułu wyjaśnia to uzasadnienie.
Rzeczywista korzyść 2: Zmniejszone koszty użytkowania procesora graficznego dzięki zdecentralizowanej sieci infrastruktury fizycznej GPU (GPU DePIN)
GPU DePIN gromadzą niewykorzystaną moc obliczeniową GPU, z której najbardziej niezawodna pochodzi z centrów danych, i udostępniają te zasoby na potrzeby wnioskowania AI. Pomyśl o tym po prostu jak o „Airbnb procesorów graficznych” (tj. wspólnym korzystaniu z niewykorzystanych zasobów).
Powód, dla którego jesteśmy podekscytowani GPU DePIN, jest jak wspomniano powyżej, głównie z powodu niedoboru chipów NVIDIA, obecnie marnuje się wiele cykli GPU, a zasoby te można wykorzystać do wnioskowania AI. Właściciele sprzętu ponieśli koszty i obecnie nie wykorzystują w pełni swojego sprzętu, więc te częściowe cykle procesora graficznego można udostępnić po niższych kosztach niż w przypadku status quo, ponieważ w rzeczywistości jest to „nieoczekiwany zysk” dla właściciela sprzętu.
Konkretne przykłady obejmują:
1) Maszyna AWS: Jeśli dzisiaj wynajmujesz H100 od AWS, musisz zobowiązać się do wynajmowania jej przez co najmniej rok, ponieważ rynek jest napięty. Prowadzi to do marnotrawstwa, ponieważ jest mało prawdopodobne, że będziesz używać procesora graficznego 7 dni w tygodniu, 365 dni w roku.
2) Sprzęt do wydobywania Filecoin: Sieć Filecoin ma dużą ilość dotowanych dostaw, ale rzeczywisty popyt nie jest duży. Niestety, Filecoin nigdy nie znalazł prawdziwego dopasowania do rynku produktów, więc górnikom Filecoin groziło bankructwo. Maszyny te są wyposażone w procesory graficzne, które można ponownie wykorzystać do zadań związanych z wnioskowaniem AI na niższym poziomie.
3) Sprzęt do wydobywania ETH: Kiedy ETH przechodzi z Proof of Work (PoW) do Proof of Stake (PoS), natychmiast staje się dostępna duża ilość sprzętu, który można ponownie wykorzystać do wnioskowania AI.
Rynek GPU DePIN jest bardzo konkurencyjny, a produkty oferuje wielu graczy. Na przykład Aethir, Exabits i Akash. Hack VC zdecydował się na wsparcie io.net, które również agreguje dostawy poprzez partnerstwo z innymi GPU DePIN, dzięki czemu obecnie obsługuje największą podaż procesorów graficznych na rynku.
Należy pamiętać, że nie każdy sprzęt GPU nadaje się do wnioskowania AI. Jednym z oczywistych powodów jest to, że starsze procesory graficzne nie mają wystarczającej ilości pamięci GPU, aby obsłużyć duże modele językowe (LLM), chociaż wprowadzono w tym obszarze kilka interesujących innowacji. Na przykład firma Exabits opracowała technologię ładowania aktywnych neuronów do pamięci procesora graficznego i nieaktywnych neuronów do pamięci procesora. Przewidują, które neurony muszą być aktywne, a które nieaktywne. Umożliwia to wykorzystanie słabszych procesorów graficznych do obciążeń AI, nawet gdy pamięć GPU jest ograniczona. To faktycznie zwiększa użyteczność słabszych procesorów graficznych do wnioskowania AI.
Ponadto punkty Web3 AI DePIN będą musiały z czasem udoskonalać swoją ofertę, aby zapewnić usługi klasy korporacyjnej, takie jak jednokrotne logowanie (SSO), zgodność z SOC 2, umowy dotyczące poziomu usług (SLA) itp. Będzie to porównywalne z usługami w chmurze, z których obecnie korzystają klienci Web2.
Prawdziwa zaleta nr 3: Modele niecenzuralne, które pozwalają uniknąć autocenzury OpenAI
Odbyło się wiele dyskusji na temat kwestii cenzury AI. Na przykład Turcja w pewnym momencie tymczasowo zakazała OpenAI (później zniosła zakaz po tym, jak OpenAI poprawiła jego zgodność). Uważamy, że taka kontrola na poziomie krajowym jest zasadniczo nieuzasadniona, ponieważ kraje muszą wdrożyć sztuczną inteligencję, aby zachować konkurencyjność.
Jeszcze bardziej interesujące jest to, że OpenAI samo się cenzuruje. Na przykład OpenAI nie będzie obsługiwać treści NSFW (nieodpowiednich do oglądania w miejscu pracy) ani nie będzie przewidywać wyniku następnych wyborów prezydenckich. Wierzymy, że istnieje interesujący i ogromny rynek zastosowań AI, którego OpenAI nie chce angażować ze względów politycznych.
Open source to świetny sposób na rozwiązanie tego problemu, ponieważ repozytorium Github nie jest zależne od akcjonariuszy ani zarządu. Jednym z przykładów jest Venice.ai, który obiecuje chronić prywatność użytkowników i działać w sposób niecenzuralny. Kluczem jest oczywiście jego otwarty charakter, który umożliwia to wszystko. Sztuczna inteligencja Web3 może skutecznie to poprawić, uruchamiając modele oprogramowania typu open source (OSS) na tanich klastrach GPU w celu wyciągania wniosków. Z tego powodu wierzymy, że OSS + Web3 to idealne połączenie, które utoruje drogę do sztucznej inteligencji wolnej od cenzury.
Prawdziwa korzyść nr 4: Unikaj wysyłania danych osobowych do OpenAI
Wiele dużych przedsiębiorstw ma obawy dotyczące prywatności swoich wewnętrznych danych korporacyjnych. W przypadku tych klientów trudno jest zaufać scentralizowanej stronie trzeciej, takiej jak OpenAI, w zakresie obsługi tych danych.
Dla tych firm korzystanie z Web3 może wydawać się jeszcze bardziej przerażające, ponieważ ich dane wewnętrzne nagle pojawiają się w zdecentralizowanej sieci. Jednak w przypadku sztucznej inteligencji wprowadzono już pewne innowacje w technologiach zwiększających prywatność:
Zaufane środowiska wykonawcze (TEE), takie jak Super Protocol
W pełni homomorficzne szyfrowanie (FHE), takie jak Fhenix.io (spółka portfelowa zarządzana przez Hack VC) lub Inco Network (obie obsługiwane przez Zama.ai) i PPML firmy Bagel
Technologie te wciąż ewoluują, a wydajność stale się poprawia wraz z nadchodzącymi układami ASIC o wiedzy zerowej (ZK) i FHE. Jednak celem długoterminowym jest ochrona danych przedsiębiorstwa przy jednoczesnym dopracowywaniu modelu. W miarę pojawiania się tych protokołów web3 może stać się atrakcyjniejszym miejscem do przetwarzania sztucznej inteligencji chroniącego prywatność.
Prawdziwa korzyść nr 5: Wykorzystaj najnowsze innowacje w modelach open source
W ciągu ostatnich kilku dziesięcioleci oprogramowanie typu open source (OSS) zmniejszało udział w rynku oprogramowania zastrzeżonego. Postrzegamy LLM jako zaawansowane, zastrzeżone oprogramowanie, które staje się destrukcyjnym celem dla oprogramowania typu open source. Do godnych uwagi konkurentów należą Llama, RWKV i Mistral.ai. Lista ta niewątpliwie będzie się z czasem powiększać (pełniejsza lista jest dostępna na Openrouter.ai). Wykorzystując sztuczną inteligencję web3 opartą na modelach open source, ludzie mogą w pełni korzystać z tych nowych innowacji.
Wierzymy, że z biegiem czasu globalna siła wysiłków na rzecz rozwoju oprogramowania open source w połączeniu z zachętami kryptograficznymi może spowodować szybkie innowacje w modelach open source oraz agentach i frameworkach zbudowanych na ich podstawie. Przykładem protokołu agenta AI jest Theoriq. Theoriq wykorzystuje modele open source do tworzenia sieci komponowanych ze sobą agentów AI, które można łączyć w celu tworzenia bardziej zaawansowanych rozwiązań AI.
Powód, dla którego tak mocno wierzymy, opiera się na przeszłych doświadczeniach: większość „oprogramowania dla programistów” została z biegiem czasu wyprzedana przez oprogramowanie typu open source. Jest powód, dla którego Microsoft był kiedyś firmą zajmującą się oprogramowaniem własnościowym, a obecnie jest głównym dostawcą Githuba. Jeśli spojrzysz na to, jak Databricks, PostGresSQL, MongoDB itp. zakłócają zastrzeżone bazy danych, cała branża jest przykładem zakłócenia przez oprogramowanie typu open source, więc precedens jest tutaj dość mocny.
Jest jednak mały haczyk. Drażliwym problemem związanym z OSS LLM jest to, że OpenAI zaczęło podpisywać umowy licencyjne na płatne dane z organizacjami takimi jak Reddit i New York Times. Jeśli ta tendencja się utrzyma, konkurowanie ze sobą OSS LLM może być coraz trudniejsze ze względu na bariery ekonomiczne w dostępie do danych. Firma NVIDIA może wykorzystywać poufne przetwarzanie danych jako ulepszone narzędzie do bezpiecznego udostępniania danych. Czas pokaże jak to się rozwinie.
Prawdziwa korzyść nr 6: Konsensus poprzez kosztowne losowe pobieranie próbek lub dowody o wiedzy zerowej
W rozumowaniu sztucznej inteligencji web3 weryfikacja jest wyzwaniem. Weryfikator może uzyskać opłaty poprzez fałszowanie wyników, dlatego ważnym środkiem jest weryfikacja wnioskowania. Należy zauważyć, że chociaż rozumowanie sztucznej inteligencji jest wciąż w powijakach, takie oszustwo jest nieuniknione, chyba że zostaną podjęte kroki w celu osłabienia zachęt do takiego zachowania.
Standardowe podejście web3 polega na tym, że wielu walidatorów powtarza tę samą operację i porównuje wyniki. Jednakże, jak wspomniano wcześniej, wnioskowanie AI jest bardzo kosztowne ze względu na obecny niedobór wysokiej klasy chipów Nvidia. Biorąc pod uwagę, że web3 może zapewnić tańsze wnioskowanie poprzez niewykorzystane dePINy GPU, nadmiarowe obliczenia poważnie osłabią propozycję wartości web3.
Bardziej obiecującym rozwiązaniem jest wdrożenie dowodów o wiedzy zerowej na potrzeby obliczeń wnioskowania AI poza łańcuchem. W takim przypadku można zweryfikować zwięzłe dowody wiedzy zerowej w celu ustalenia, czy model został poprawnie wytrenowany lub czy wnioskowanie przebiegło poprawnie (tzw. zkML). Przykładami są Modulus Labs i ZKonduit. Ponieważ operacje o wiedzy zerowej wymagają znacznych zasobów obliczeniowych, wydajność tych rozwiązań jest wciąż w powijakach. Jednak wraz z wprowadzeniem w najbliższej przyszłości sprzętowych układów ASIC o zerowej wiedzy, sytuacja ta może się poprawić.
Bardziej obiecującą koncepcją jest „optymistyczne” podejście do wnioskowania AI oparte na próbkowaniu. W tym modelu wystarczy zweryfikować niewielką część wyników wygenerowanych przez walidator, ale ustawić koszt ekonomiczny na tyle wysoki, aby ukarać walidatorów przyłapanych na oszustwie, tworząc w ten sposób silny efekt zakazu ekonomicznego. W ten sposób oszczędzasz zbędne obliczenia (patrz na przykład dokument Hyperbolic „Proof of Sampling”).
Kolejnym obiecującym pomysłem jest rozwiązanie wykorzystujące technologię znaku wodnego i odcisków palców, takie jak zaproponowane przez Bagel Network. Przypomina to mechanizm, który zapewnia Amazon Alexa w celu zapewnienia jakości swoich modeli AI na milionach urządzeń.
Prawdziwa korzyść nr 7: Oszczędności (zyski OpenAI) dzięki komponowanym stosom oprogramowania Open Source
Następną szansą, jaką web3 wnosi do sztucznej inteligencji, jest demokratyzacja redukcji kosztów. Do tej pory omawialiśmy sposoby oszczędzania na kosztach procesora graficznego poprzez DePIN, takie jak io.net. Jednak web3 oferuje również możliwość zaoszczędzenia marży zysku na scentralizowanych usługach AI web2 (takich jak OpenAI, które ma ponad 1 miliard dolarów rocznych przychodów na podstawie informacji w momencie pisania tego tekstu). Te oszczędności wynikają ze stosowania modeli oprogramowania typu open source (OSS) zamiast modeli zastrzeżonych, co skutkuje dodatkowymi oszczędnościami, ponieważ twórcy modeli nie starają się osiągnąć zysku.
Wiele modeli oprogramowania typu open source będzie zawsze całkowicie bezpłatnych, co zapewnia klientom najlepszą ekonomię. Mogą jednak istnieć również modele oprogramowania typu open source, które wykorzystują te metody monetyzacji. Weź pod uwagę, że tylko 4% modelek w Hugging Face jest szkolonych przez firmy posiadające budżet pozwalający na dofinansowanie tych modelek (zobacz tutaj). Pozostałe 96% modeli jest szkolonych przez społeczność. Ta grupa modeli obejmująca 96% twarzy ściskającej ponosi rzeczywiste koszty (w tym koszty obliczeniowe i koszty danych). Trzeba więc w jakiś sposób monetyzować te modele.
Istnieje wiele propozycji monetyzacji tego modelu oprogramowania typu open source. Jedną z najciekawszych z nich jest koncepcja „Initial Model Offer” (IMO), która polega na tokenizacji samego modelu, pozostawiając część tokenów zespołowi i przekazując część przyszłych przychodów modelu posiadaczom tokenów, chociaż Istnieją oczywiście pewne przeszkody prawne i regulacyjne.
Inne modele oprogramowania typu open source będą próbowały zarabiać na podstawie wykorzystania. Zastrzeżenie polega na tym, że jeśli ten scenariusz się zmaterializuje, modele oprogramowania open source mogą zacząć coraz bardziej przypominać swoje generujące zyski odpowiedniki w web2. Jednak z realistycznego punktu widzenia rynek zostanie podzielony na dwie części, a część z tych modeli będzie całkowicie bezpłatna.
Po wybraniu modelu oprogramowania typu open source możesz na jego podstawie zbudować hierarchie, które można komponować. Na przykład możesz używać Ritual.net do wnioskowania AI, a Theoriq.ai jako wczesnego lidera w zakresie komponowalnych i autonomicznych agentów AI w łańcuchu (oba są wspierane przez Hack VC).
Prawdziwa korzyść nr 8: Zdecentralizowane gromadzenie danych
Jednym z największych wyzwań stojących przed sztuczną inteligencją jest uzyskanie odpowiednich danych do wytrenowania modelu. Wspomnieliśmy wcześniej, że zdecentralizowane szkolenie w zakresie sztucznej inteligencji wiąże się z pewnymi wyzwaniami. Ale co z wykorzystaniem zdecentralizowanej sieci do pozyskiwania danych (które można następnie wykorzystać do szkoleń w innym miejscu, nawet na tradycyjnych platformach web2)?
Dokładnie to robią startupy takie jak Grass (wspierane przez Hack VC). Grass to zdecentralizowana sieć „przeszukiwania danych”, w której poszczególne osoby udostępniają moc obliczeniową swoich maszyn w stanie bezczynności w celu uzyskania danych na potrzeby szkolenia modelu sztucznej inteligencji. Teoretycznie w skali tego rodzaju gromadzenie danych mogłoby przewyższać wewnętrzne wysiłki dowolnej firmy ze względu na ogromną moc obliczeniową rozległej sieci wspieranych węzłów. Obejmuje to nie tylko uzyskiwanie większej ilości danych, ale także częstsze ich pobieranie, aby były one bardziej istotne i aktualne. Ponieważ te węzły przeszukiwania danych mają charakter zdecentralizowany i nie należą do jednego adresu IP, powstrzymanie tej armii zdecentralizowanego przeszukiwania danych jest prawie niemożliwe. Ponadto mają sieć ludzi, którzy czyszczą i normalizują dane, aby były przydatne po ich przeszukaniu.
Gdy już będziesz mieć dane, potrzebujesz także lokalizacji przechowywania w łańcuchu i LLM (modelu dużego języka) wygenerowanego przy użyciu tych danych. Pod tym względem 0g.AI jest wczesnym liderem. Jest to wysokowydajne rozwiązanie do przechowywania danych Web3 zoptymalizowane pod kątem sztucznej inteligencji, które jest znacznie tańsze niż AWS (kolejny sukces finansowy AI Web3), a jednocześnie służy jako podstawa dostępności danych dla obiektu warstwy 2, sztucznej inteligencji itp.
Należy zaznaczyć, że rola danych w web3 AI może w przyszłości ulec zmianie. Obecnie status quo w przypadku LLM polega na wykorzystaniu danych do wstępnego uczenia modelu i jego ulepszaniu w miarę upływu czasu przy użyciu większej ilości danych. Ponieważ jednak dane w Internecie zmieniają się w czasie rzeczywistym, modele te są zawsze nieco nieaktualne, więc odpowiedzi wnioskowania LLM są nieco niedokładne.
Nowym paradygmatem, który może rozwinąć się w przyszłości, są dane „w czasie rzeczywistym”. Koncepcja polega na tym, że gdy LLM zostanie poproszony o wnioskowanie, LLM może wykorzystać dane, wprowadzając do nich dane zebrane z Internetu w czasie rzeczywistym. W ten sposób LLM będzie korzystać z najnowszych danych. Trawa również nad tym pracuje.
3. Wniosek
Mamy nadzieję, że ta analiza będzie pomocna, gdy pomyślisz o obietnicach i rzeczywistości AI web3. To tylko punkt wyjścia do dyskusji, a dziedzina szybko się zmienia, więc nie krępuj się przyłączyć i wyrazić swoje poglądy, ponieważ chcielibyśmy kontynuować naukę i wspólne budowanie.
