Galvenās līdzņemamās vietas:

  • Ir grūti ignorēt pieaugošo aizraušanos ar mākslīgo intelektu (AI) un satraukumu par tā iespējamo sinerģiju ar Web3. Tomēr pašreizējā šīs topošās integrācijas realitāte atklāj nesaikni starp AI infrastruktūras vajadzībām un esošajiem blokķēdes ietvariem.

  • Šajā sērijā mēs izpētīsim attiecības starp AI un Web3, izaicinājumus, iespējas un vertikālās lietojumprogrammas Web3.

  • Šī sērijas pirmā daļa ir veltīta AI Web3 infrastruktūras attīstībai, pašreizējām skaitļošanas prasību problēmām un iespēju jomām.

Mākslīgais intelekts (AI) un blokķēdes tehnoloģija ir divas no inovatīvākajām tehnoloģijām, kas pēdējā desmitgadē ir aizrāvušas sabiedrības iztēli. AI attīstība Web2 ir bijusi neapšaubāma, kā redzams, palielinoties riska kapitāla uzņēmumu šogad veikto investīciju skaitam. No Inflection AI 1,3 miljardu ASV dolāru finansējuma 2023. gada jūnijā ar Microsoft un Nvidia investīcijām līdz OpenAI konkurentam Anthropic, kas 2023. gada septembrī piesaistīja 1,25 miljardus ASV dolāru no Amazon.

Tomēr Web3 lietošanas gadījums un krustojums joprojām ir skeptisks. Vai Web3 ir nozīme AI attīstībā? Ja jā, kā un kāpēc mums ir nepieciešama blokķēde AI? Viens no stāstiem, ko mēs redzam, ir tāds, ka Web3 ir potenciāls mainīt produktīvas attiecības, savukārt AI spēj pārveidot pašu produktivitāti. Tomēr šo tehnoloģiju apvienošana ir izrādījusies sarežģīta, atklājot infrastruktūras prasību izaicinājumus un iespējas.

AI infrastruktūra un GPU krīze

Galvenais traucēklis, ko pašlaik redzam AI, ir GPU trūkums. Lielie valodu modeļi (LLM), piemēram, OpenAI GPT-3.5, ir atbloķējuši pirmo šodien redzamo lietotni ChatGPT. Tā ir ātrākā lietojumprogramma, kas sasniedz 100 miljonus MAU 6 nedēļu laikā, salīdzinot ar YouTube un Facebook, kas prasīja 4 gadus. Tas ir pavēris slūžas jaunām lietojumprogrammām, kas izmanto LLM modeļus. Daži piemēri ir Midjourney, kas izveidots uz Stable Diffusion StableLM, un PaLM2, kas nodrošina Google Bard, API, MakerSuite un Workspaces darbību.

Padziļināta mācīšanās ir ilgstošs un skaitļošanas ziņā intensīvs process masveidā — jo vairāk parametru ir LLM, jo vairāk GPU atmiņas ir nepieciešams tās darbībai. Katrs modeļa parametrs tiek saglabāts GPU atmiņā, un modelim šie parametri ir jāielādē atmiņā secinājumu veikšanas laikā. Ja modeļa izmērs pārsniedz pieejamo GPU atmiņu, tas ir punkts, kurā modeļa izmērs pārsniedz pieejamo GPU atmiņu un ML modelis pārstāj darboties. Vadošie spēlētāji, piemēram, OpenAI, arī saskaras ar GPU trūkumu, kā rezultātā rodas grūtības ieviest tā multimodālos modeļus ar garāka secības garuma modeļiem (8k VS 32k). Ņemot vērā ievērojamo piegādes mikroshēmu deficītu, liela mēroga lietojumprogrammas ir sasniegušas LLM iespējas, liekot AI jaunizveidotiem uzņēmumiem sacensties par GPU jaudu, lai iegūtu pirmā virzītāja priekšrocības.

GPU risinājumi: centralizētas un decentralizētas pieejas

Paredzams, ka tuvākajā laikā centralizēti risinājumi, piemēram, Nvidia 2023. gada augustā izdotais tensorRT-LLM, piedāvājot optimizētus secinājumus un uzlabotu veiktspēju, kā arī paredzams, ka Nvidia H200s tiks laists klajā 2024. gada 2. ceturksnī, atrisinās GPU ierobežojumus. Turklāt tradicionālie kalnrūpniecības uzņēmumi, piemēram, CoreWeave un Lambda Labs, cenšas nodrošināt uz GPU orientētu mākoņdatošanu, pamatojoties uz Nvidia H100 nomas maksu no 2 līdz 2,25 USD stundā. Kalnrūpniecības uzņēmumi izmanto ASIC (Application-Specific Integrated Circuit), jo tie nodrošina ievērojamas priekšrocības salīdzinājumā ar vispārējas nozīmes datoriem vai GPU ieguves efektivitātei, izmantojot algoritmam specifisku dizainu un specializētu aparatūras arhitektūru, lai palielinātu jaukšanas jaudu.

Web3 pusē ideja par Airbnb tipa GPU tirgu ir bijusi populāra koncepcija, un ir daži projekti, kas mēģina to izdarīt. Blokķēdes stimuli ir ideāli piemēroti tīklu sāknēšanai, un tas ir efektīvs mehānisms, lai decentralizētā veidā piesaistītu dalībniekus vai entītijas ar neaktīviem GPU. Lai piekļūtu GPU, parasti ir jāparaksta ilgtermiņa līgumi ar mākoņpakalpojumu sniedzējiem, un lietojumprogrammas var ne vienmēr izmantot GPU visā līguma darbības laikā.

Cita pieeja, ko sauc par ziedlapiņām, ietver LLM modeļa sadalīšanu vairākos slāņos, kas tiek mitināti dažādos serveros, līdzīgi kā sadalīšanas jēdziens. To izstrādāja BigScience sadarbības ietvaros Vašingtonas universitātes Hugging Face inženieri un pētnieki un Yandex. Jebkurš lietotājs var decentralizēti izveidot savienojumu ar tīklu kā klients un piemērot modeli saviem datiem.

AI X Web3 infrastruktūras lietojumprogrammu iespējas

Lai gan joprojām ir daži trūkumi, Web3 infrastruktūra spēj risināt problēmas, ko rada AI integrācija, un piedāvā novatorisku risinājumu iespējas, kā mēs to izpētīsim tālāk.

Decentralizēti AI skaitļošanas tīkli

Decentralizēti skaitļošanas tīkli saista personas, kurām ir nepieciešami skaitļošanas resursi, ar sistēmām, kurām ir neizmantotas skaitļošanas iespējas. Šis modelis, kurā indivīdi un organizācijas var pievienot savus dīkstāves resursus tīklā, neradot papildu izdevumus, ļauj tīklam nodrošināt rentablāku cenu atšķirībā no centralizētiem pakalpojumu sniedzējiem.

Ir iespējas decentralizētā GPU renderēšanā, ko veicina uz blokķēdes balstīti vienādranga tīkli, lai palielinātu ar AI darbinātu 3D satura izveidi Web3 spēlēs. Tomēr būtisks trūkums decentralizētajiem skaitļošanas tīkliem ir iespējamais palēninājums mašīnmācības apmācības laikā, ko izraisa komunikācija starp dažādām skaitļošanas ierīcēm.

Decentralizēti AI dati

Apmācības dati kalpo kā sākotnējā datu kopa, ko izmanto, lai mācītu mašīnmācīšanās lietojumprogrammas atpazīt modeļus vai atbilst konkrētiem kritērijiem. No otras puses, testēšanas vai validācijas dati tiek izmantoti, lai novērtētu modeļa precizitāti, un apstiprināšanai ir nepieciešama atsevišķa datu kopa, jo modelis jau ir pazīstams ar apmācības datiem.

Notiek centieni izveidot AI datu avotu tirgus un AI datu marķēšanu, kur blokķēde kalpo kā stimuls lieliem uzņēmumiem un iestādēm, lai uzlabotu efektivitāti. Tomēr pašreizējā attīstības sākumposmā šīs vertikāles saskaras ar šķēršļiem, piemēram, vajadzība pēc cilvēka veiktās pārskatīšanas un bažām, kas saistītas ar blokķēdes iespējotiem datiem.

Piemēram, ir SP skaitļošanas tīkli, kas īpaši paredzēti ML modeļu apmācībai. SP skaitļošanas tīkli ir pielāgoti konkrētiem lietošanas gadījumiem, parasti izmantojot arhitektūru, kas apvieno skaitļošanas resursus vienotā pūlā, kas atgādina superdatoru. SP skaitļošanas tīkli nosaka izmaksas, izmantojot gāzes mehānismu vai kopienas kontrolētu parametru.

Decentralizētas uzvednes

Lai gan LLM pilnīga decentralizācija rada izaicinājumus, projekti pēta veidus, kā decentralizēt uzvednes, veicinot pašmācītu metožu ieguldījumu. Šī pieeja mudina radītājus ģenerēt saturu, nodrošinot ekonomisku stimulu struktūras lielākam skaitam ainavas dalībnieku.

Pirmie piemēri ietver ar mākslīgo intelektu darbināmas tērzēšanas robotu platformas, kas ir motivējušas satura veidotājus un AI modeļu veidotājus apmācīt tērzēšanas robotus, kas vēlāk var kļūt par tirgojamiem NFT, nodrošinot piekļuvi lietotāja atļautiem datiem modeļu apmācībai un precizēšanai. No otras puses, decentralizēto uzvedņu tirgu mērķis ir stimulēt uzvedņu veidotājus, nodrošinot īpašumtiesības uz viņu datiem un uzvednēm, lai tie tiktu tirgoti tirgū.

Nulles zināšanu mašīnmācīšanās (ZKML)

2023. gads patiesi ir bijis gads, kurā LLM ir pierādījuši savu spēku. Lai blokķēdes projekti varētu pilnībā realizēt AI potenciālu, ir svarīgi, lai šie modeļi tiktu darbināti ķēdē. Tomēr problēmas, kas saistītas ar gāzes ierobežojumiem un skaitļošanas izmaksām, joprojām ir sarežģīti AI integrācijai.

Kā būtu, ja LLM varētu vadīt ārpus ķēdes un to izvades rezultātus izmantotu lēmumu pieņemšanai un darbību virzīšanai ķēdē, vienlaikus radot pierādījumus tam, ka šos lēmumus pieņem ML AI modelis, nevis nejauši izvadi? Tas būtībā ir ZKML. Līdz ar gaidāmo OpenAI GPT-5 un Meta Llama3 izlaišanu, LLM kļūst arvien lielāki un uzlabojas. ZKML galvenais mērķis ir samazināt pierādījumu lielumu, kas padara to par dabisku piemērotu ZK pierādījumu apvienošanai ar AI tehnoloģiju. Piemēram, ZK pierādījumus var izmantot, lai saspiestu modeļus decentralizētā ML secinājumā vai apmācībā, ar kuru lietotāji piedalās apmācībā, iesniedzot datus publiskam modelim ķēdes tīklā.

Pašlaik mēs esam topošajās stadijās tam, ko skaitļošanas ziņā ir praktiski pārbaudīt, izmantojot ķēdē esošos nulles zināšanu pierādījumus. Tomēr algoritmu sasniegumi paplašina to, ko var sasniegt, izmantojot izpētītos lietošanas gadījumus, piemēram, modeļa integritāti, kur ZK pierādījumus var izmantot, lai pierādītu, ka viens un tas pats ML algoritms tiek palaists uz dažādu lietotāju datiem vienādi. izvairīties no aizspriedumiem. Līdzīgi, pieaugot algoritmiski ģenerētiem portretiem un dziļiem viltojumiem, personības apliecinājumā var izmantot ZK pierādījumus, lai pārbaudītu unikālu personu, neapdraudot personas privāto informāciju.

Noslēgumā jāsaka, ka Web3 infrastruktūras un AI integrācija ir aizraujoša tehnoloģiskās inovācijas robeža, vienlaikus palielinot ieguldījumu, izmantojot simboliskus stimulus. Lai gan Web2 ir pieredzējis ievērojamus sasniegumus AI, Web3 un AI krustošanās joprojām ir izpētes objekts.

Virzoties uz priekšu, Web3 un AI sinerģijai ir liels potenciāls, kas sola pārveidot tehnoloģiju ainavu un veidu, kā mēs pieeja AI infrastruktūrai. Sekojiet līdzi nākamajai AI X Web3 sērijas daļai, kurā mēs iedziļināmies AI lietošanas gadījumos Web3 spēlēs.

Atruna: šī raksta saturs ir sagatavots tikai informatīvos nolūkos, un tas nedrīkst būt par pamatu investīciju lēmumu pieņemšanai, vai tas nav jāuztver kā ieteikums iesaistīties ieguldījumu darījumos vai tiek uzskatīts par ieguldījumu stratēģijas ierosināšanu attiecībā uz jebkādiem finanšu instrumentiem vai to emitenti.