Autor: Turbo Guo Cititor: Mandy, Joshua

Kernel Ventures este un fond de cripto VC condus de comunitatea de cercetare și dezvoltare, cu peste 70 de investiții în stadiu incipient, concentrându-se pe infrastructură, middleware, dApps, în special ZK, Rollup, DEX, Modular Blockchain și verticale, care vor integra următorul miliard de utilizatori în cripto. cum ar fi abstracția contului, disponibilitatea datelor, scalabilitate și etc. În ultimii șapte ani, ne-am angajat să sprijinim creșterea comunităților de dezvoltare de bază și a asociațiilor Blockchain universitare din întreaga lume.

TLDR:

Modulus Labs implementează IA verificabilă executând calcule ML în afara lanțului și generând ZKP-uri pentru apelul de inferență AI. Acest articol reexaminează abordarea lor din perspectiva aplicației, analizând în ce scenarii există o nevoie urgentă și în ce scenarii cererea este mai slabă. În cele din urmă, sunt explorate două tipuri de arhitectură de aplicații AI construite pe blockchain-uri publice - orizontală și verticală. Principalele subiecte abordate sunt următoarele:

  1. Necesitatea unei AI verificabile depinde dacă AI declanșează schimbări de stare în lanț și dacă implică corectitudine și confidențialitate.

    1. Când AI nu afectează starea în lanț, poate servi ca un consilier. Oamenii pot judeca calitatea serviciilor AI după efectele lor reale, fără a fi nevoie să verifice procesul de calcul.

    2. Când AI afectează starea în lanț, dacă serviciul oferit este personalizat și nu are probleme de confidențialitate, utilizatorii pot judeca în mod direct calitatea serviciilor AI fără a examina procesul de calcul.

    3. Atunci când rezultatele AI afectează în mod direct corectitudinea între mai multe părți și confidențialitatea personală, cum ar fi evaluarea membrilor comunității și alocarea de recompense sau implicarea datelor biologice, este necesar să se verifice calculul ML.

  2. Arhitectura aplicației AI verticală: Deoarece un capăt al AI verificabil este contractul inteligent, aplicațiile AI verificabile și chiar AI și dApps native pot interacționa între ele într-un mod fără încredere. Acesta este un ecosistem de aplicații AI potențial interoperabil.

  3. Arhitectura orizontală a aplicației AI: sistemul public de lanț poate gestiona plăți, coordonarea litigiilor, potrivirea nevoilor utilizatorilor și conținutul serviciilor pentru furnizorii de servicii AI, permițând utilizatorilor să aibă servicii AI descentralizate cu mai multă libertate.

Partea 1: Introducere în Modulus Labs și exemple de aplicații

1.1 Introducere și soluții de bază

Modulus Labs este o companie de inteligență artificială „în lanț” care consideră că inteligența artificială poate îmbunătăți semnificativ capacitățile contractelor inteligente și poate face aplicațiile Web3 mai puternice. Cu toate acestea, există un conflict atunci când se aplică AI la Web3: AI necesită multă putere de calcul, în timp ce AI off-chain este o cutie neagră, care nu este de acord cu ideologia descentralizării și verificabilității Web3.

Prin urmare, Modulus Labs adoptă abordarea ZK-rollup-urilor și propune o arhitectură pentru AI verificabilă: modelele ML rulează în afara lanțului, unde ZKP-urile sunt generate în afara lanțului pentru calculul ML. Aceste ZKP-uri pot fi utilizate pentru a verifica arhitectura modelului, greutățile și intrările în afara lanțului; precum și publicate în lanț pentru verificare prin contracte inteligente. Obținând verificarea, AI poate interacționa acum cu contractele în lanț într-un mod mai lipsit de încredere.

Pe baza ideii de IA verificabilă, Modulus Labs a lansat până acum trei aplicații „IA în lanț” și a propus multe scenarii potențiale de aplicații.

1.2 Exemple de aplicații

Primul este un AI de tranzacționare automată „Rocky bot” . Rocky este instruit pe datele istorice din perechea de tranzacționare WETH/USDC. Acesta prezice tendințele viitoare ale WETH pe baza datelor istorice și ia decizii de tranzacționare. Apoi generează un ZKP pentru procesul de decizie (proces de calcul) și trimite informațiile către contractele L1 pentru a declanșa tranzacția.

Al doilea este un joc de șah în lanț „Leela vs the World”. Jucătorii jocului sunt AI și oameni, iar statutul jocului de șah este stocat într-un contract. Jucătorii fac mișcări interacționând cu contractul prin portofel. AI citește noul statut al jocului, emite judecăți și generează un ZKP pentru întregul proces de calcul. Acești pași sunt finalizați în cloud-ul AWS, în timp ce ZKP este verificat printr-un contract în lanț. Dacă verificarea reușește, contractul de joc de șah este chemat să „facă o mișcare”.

Al treilea este un artist AI în lanț care a „lansat” seria zkMon NFT. Cheia este că AI generează NFT-uri și le publică în lanț, generând în același timp un ZKP. Utilizatorii pot folosi ZKP pentru a verifica dacă NFT-ul lor a fost generat din modelul AI corespunzător.

În plus, Modulus Labs a menționat și alte cazuri de utilizare:

  • Utilizați AI pentru a evalua datele personale în lanț și alte informații pentru a genera evaluări ale reputației personale și pentru a publica ZKP-uri pentru ca utilizatorii să le verifice.

  • Utilizați AI pentru a optimiza performanța AMM și publicați ZKP-uri pentru ca utilizatorii să le verifice

  • Utilizați IA verificabilă pentru a ajuta proiectele de confidențialitate să răspundă la presiunile de reglementare fără a expune confidențialitatea (poate folosind ML pentru a demonstra că tranzacția nu este asociată cu spălarea banilor, fără a dezvălui adresa utilizatorului și alte informații).

  • Oracol AI, în timp ce publică ZKP-uri pentru ca toată lumea să verifice fiabilitatea datelor în afara lanțului.

  • Concurs de modele AI, concurenții își trimit propriile arhitecturi și ponderi, rulează modele cu intrări de testare uniforme, generează ZKP-uri pentru calcul și, în final, contractul va trimite automat recompense câștigătorului.

  • Worldcoin a susținut că, în viitor, poate utilizatorii pot descărca un model pe dispozitivul lor local care generează un cod de iris corespunzător din irisul uman. Modelul rulează local și generează un ZKP. Astfel, contractul on-chain poate folosi ZKP pentru a verifica dacă codul de iris al utilizatorului a fost generat din modelul corect cu date rezonabile de iris, păstrând în același timp informațiile biometrice pe propriul dispozitiv al utilizatorului.

Sursa: Modulus Labs

1.3 Discuții despre diferite cazuri de utilizare pe baza necesității de IA verificabilă

1.3.1 Cazuri de utilizare care nu necesită IA verificabilă

În scenariul lui Rocky Bot, este posibil ca utilizatorii să nu fie nevoie să verifice procesul de calcul ML.

În primul rând, utilizatorii nu au cunoștințe profesionale și sunt complet incapabili să efectueze o verificare reală. Chiar și cu instrumente de verificare, utilizatorii vor vedea doar că au apăsat un buton și o fereastră pop-up le-a spus că serviciul AI a fost într-adevăr generat de un anumit model. Ei nu știu dacă este adevărat în culise.

În al doilea rând, utilizatorii nu au nevoie să verifice, deoarece apreciază rentabilitatea investiției AI. Când rentabilitatea investiției este scăzută, utilizatorii vor migra, deoarece vor alege întotdeauna modelul cu cele mai bune rezultate. Pe scurt, atunci când utilizatorilor le pasă de rezultatul final al AI, verificarea procesului poate fi lipsită de sens, deoarece utilizatorii trebuie doar să migreze la serviciu cu cele mai bune rezultate.

O soluție posibilă este ca AI să acționeze doar ca un consilier, în timp ce utilizatorii execută tranzacții în mod independent. După ce utilizatorii își introduc obiectivele de tranzacționare în AI, acesta calculează în afara lanțului și returnează cea mai bună cale/direcție de tranzacționare utilizatorilor care nu trebuie să verifice modelul de bază, deoarece trebuie doar să aleagă produsul cu cele mai mari randamente.

O situație potențial periculoasă, dar extrem de posibilă, apare atunci când indivizii manifestă o desconsiderare totală față de custodia propriilor active și nu apreciază procesul de calcul AI. Când apare un robot automat de generare de bani, oamenii ar putea fi dispuși să pună bani în el, la fel ca depunerea de jetoane într-un CEX sau o bancă tradițională pentru gestionarea averii. Pentru că oamenilor nu le pasă de mecanismul din spatele lui, le pasă doar de cât de mult profit primesc până la urmă sau chiar de cât de mult profit susține proiectul că a câștigat. De asemenea, acest tip de serviciu poate câștiga rapid un număr mare de utilizatori și chiar poate repeta mai repede decât proiectele care utilizează AI verificabilă.

Dacă AI nu este implicată deloc în declanșarea schimbărilor de stare în lanț și preia doar date în lanț și le preprocesează pentru utilizatori, atunci nu este, de asemenea, nevoie să generați ZKP-uri pentru calcul. Putem numi acest tip de aplicație drept „serviciu de date”, iată câteva exemple:

  • Caseta de chat oferită de Mest este un serviciu de date tipic. Utilizatorii se pot întreba despre datele lor în lanț prin QA, cum ar fi întrebând cât au cheltuit pe NFT.

  • ChainGPT este un asistent AI multifuncțional. Poate interpreta contractele inteligente pentru dvs. înainte de tranzacționare, dezvăluind dacă tranzacționați în grupul potrivit și dacă tranzacția este predispusă la rulare. ChainGPT intenționează, de asemenea, să ofere servicii precum recomandări de știri AI și publicarea NFT-urilor AIGC.

  • RSS3 oferă AIOP, permițând utilizatorilor să aleagă ce date în lanț au nevoie și să efectueze anumite preprocesări, facilitând preluarea de date specifice în lanț pentru a antrena AI.

  • DefiLlama și RSS3 au ambele pluginuri ChatGPT, astfel încât utilizatorii să poată obține date în lanț prin conversație.

1.3.2 Cazuri de utilizare care necesită IA verificabilă

Acest articol susține că scenariile care implică corectitudinea și confidențialitatea mai multor părți necesită ZKP pentru verificare. Vom discuta câteva dintre aplicațiile menționate de Modulus Labs:

  • Atunci când o comunitate distribuie recompense pe baza reputațiilor individuale generate de AI, membrii comunității vor solicita cu siguranță auditarea procesului de evaluare, care în acest caz este calculul ML.

  • În scenariul optimizării AI AMM, care implică distribuirea beneficiilor între mai multe părți, procesul de calcul AI trebuie, de asemenea, verificat periodic.

  • Atunci când echilibrați confidențialitatea și reglementarea, ZK este una dintre cele mai bune soluții. Dacă aplicația folosește ML pentru a procesa date private în serviciu, este necesar un ZKP al calculului ML.

  • Datorită impactului extins al oracolului, dacă este alimentat de AI, este necesar să se genereze ZKP periodic pentru a verifica dacă AI funcționează corect.

  • În cadrul competițiilor, publicul și alți participanți trebuie să verifice dacă algoritmii ML respectă specificațiile competiției.

  • În cazul potențial de utilizare al Worldcoin, există o nevoie puternică de a ne asigura că modelul ML este utilizat într-un mod care să protejeze confidențialitatea persoanelor.

În general, dacă AI declanșează schimbări de stare în lanț și dacă afectează corectitudinea/confidențialitatea sunt cele două criterii pentru a determina dacă este nevoie de AI verificabilă.

Când AI nu declanșează schimbări de stare în lanț, serviciul AI poate acționa ca un sugestiv, iar oamenii pot judeca calitatea serviciului AI după efectul sugestiei, fără a fi nevoie să verifice procesul de calcul;

Când AI declanșează schimbări de stare în lanț și dacă serviciul este doar pentru persoane și nu implică confidențialitatea personală, atunci utilizatorii pot judeca în continuare calitatea serviciului AI fără a verifica procesul de calcul;

Atunci când rezultatul AI afectează în mod direct corectitudinea dintre diferitele parități, iar AI declanșează schimbări de stare în lanț, atunci comunitatea și publicul ar trebui să aibă nevoie să verifice procesul decizional al AI;

Atunci când datele prelucrate de ML implică confidențialitatea personală, atunci există o nevoie clară ca ZK să protejeze confidențialitatea și să răspundă cerințelor de reglementare.

Sursa: Kernel Ventures

Partea 2: Două tipuri de arhitectură de aplicație AI bazată pe blockchain-uri publice

În orice caz, soluția propusă de Modulus Labs este o mare inspirație pentru modul în care AI poate fi combinată cu blockchain și generează valoare aplicativă practică. Cu toate acestea, blockchain-ul public nu numai că îmbunătățește capacitatea unui singur serviciu AI, dar are și potențialul de a construi un nou ecosistem de aplicații AI. Acest ecosistem emergent introduce o paradigmă distinctă pentru interacțiunile dintre serviciile AI, relațiile dintre serviciile AI și utilizatori, precum și favorizează dinamica colaborativă între entitățile din amonte și din aval. Putem clasifica acest ecosistem de aplicații AI în două tipuri generale: arhitecturi verticale și orizontale.

2.1 Arhitectura verticală: concentrarea pe IA composabilă

Jocul de șah online „Leela vs the World” are un aspect unic în care oamenii pot plasa pariuri pe jucătorul uman sau pe AI, jetoanele fiind distribuite automat după joc în funcție de rezultate. Aici scopul ZKP nu este doar ca utilizatorii să verifice calculele AI, ci servește și ca o garanție a încrederii pentru a declanșa schimbări de stare în lanț. Cu această garanție de încredere, compozibilitatea între serviciile AI și între AI și cripto dApps native devine posibilă la nivel de dApp.

Sursa: Kernel Ventures (pe baza modelului de la Modulus Labs)

Unitatea de bază a AI compozibilă este [modelul ML off-chain - generarea ZKP - contract de verificare în lanț - contract principal], care provine din cadrul "Leela vs the World", deși arhitectura reală a aplicațiilor AI individuale poate diferi de diagrama.

În primul rând, jocurile de șah necesită un contract pentru a urmări starea jocului, dar în realitate AI poate să nu aibă nevoie de un contract în lanț. Cu toate acestea, pentru arhitectura AI composable, dacă activitatea principală are loc într-un contract, poate fi mai convenabil ca alte dApps să se integreze cu acesta.

În al doilea rând, contractul principal nu trebuie să-și afecteze neapărat modelul ML. Modelul ML al unui AI dApp trebuie doar să declanșeze un contract legat de propria acțiune, iar acel contract este apoi apelat de alte dApps.

Apelurile contractuale între dApps permit compozibilitatea între diferite aplicații Web3, inclusiv identitatea, gestionarea activelor, serviciile financiare și chiar informațiile sociale. Ne putem imagina o combinație specifică de aplicații AI:

  • Worldcoin folosește ML pentru a genera codul irisului pentru datele individuale ale irisului și pentru a genera un ZKP.

  • O aplicație AI de punctare a reputației verifică mai întâi că utilizatorul este o persoană reală (susținută de datele irisului), apoi atribuie un NFT bazat pe reputația în lanț

  • Un serviciu de creditare ajustează suma împrumutului în funcție de NFT-urile deținute de utilizator

  • ...

În timp ce interacțiunile AI pe blockchain-ul public nu sunt ceva nou, Loaf, contribuitorul ecosistemului Realms, a propus ca NPC-urile AI să facă schimb cu jucătorii și între ele, permițând întregului sistem economic să se auto-optimizeze și să funcționeze automat. AI Arena a dezvoltat un joc în care AI se luptă automat între ele. Utilizatorii achiziționează mai întâi un NFT reprezentând un robot de luptă, susținut de un model AI. Utilizatorii joacă singuri jocul, furnizează date din care să învețe AI și, când sunt gata, îl implementează pentru a lupta împotriva altor AI. Modulus Labs a menționat că AI Arena dorește să facă aceste AI verificabile. În ambele cazuri, vedem potențialul ca AI să interacționeze și să schimbe direct starea în lanț.

Cu toate acestea, multe detalii despre implementarea AI compozibilă în practică rămân de dezvoltat, cum ar fi modul în care diferitele dApp-uri pot valorifica reciproc ZKP-urile și contractele de verificare. Dar odată cu cantitatea de inovație care are loc în spațiul de cunoștințe zero, de exemplu munca RISC Zero privind calculele complexe în afara lanțului și generarea de ZKP-uri pentru verificarea în lanț, pot apărea în curând soluții adecvate.

2.2 Arhitectură orizontală: concentrarea pe platformele AI descentralizate

Aici introducem o platformă AI descentralizată numită SAKSHI, propusă de cercetători de la Princeton, Universitatea Tsinghua, Universitatea din Illinois Urbana-Champaign, HKUST, Witness Chain și Eigen Layer. Obiectivul său principal este de a permite utilizatorilor să obțină servicii AI într-un mod mai descentralizat, făcând întregul proces mai lipsit de încredere și mai automatizat.

Sursa: SAKSHI

SAKSHI este format din șase straturi: Stratul de servicii, Stratul de control, Stratul de tranzacție, Stratul de probă, Stratul economic și Piața.

Piața este stratul cel mai apropiat de utilizatori. Utilizatorii plasează comenzi prin agregatori și semnează acord privind calitatea și prețul serviciului (SLA - service level agreement).

Stratul de servicii oferă apoi un API clientului, care trimite o solicitare de inferență ML agregatorului. Această solicitare este transmisă unui server de furnizor potrivit utilizând un router implementat ca parte a stratului de control. Deci, straturile de servicii și control seamănă cu un serviciu Web2 cu mai multe servere, dar fiecare server este operat de o entitate diferită, asociată cu agregatorul prin SLA-uri semnate anterior.

SLA-urile sunt implementate în lanț ca contracte inteligente, aparținând stratului de tranzacție (în SAKSHI, este denumit lanțul de martori). Stratul de tranzacții înregistrează, de asemenea, starea curentă pentru fiecare comandă de serviciu și este utilizat pentru a coordona utilizatorii, agregatorii și furnizorii de servicii, gestionând litigiile de plată.

Pentru a oferi o bază pentru soluționarea litigiilor, Proof Layer verifică dacă furnizorii de servicii aderă la SLA prin examinarea modelelor utilizate. Cu toate acestea, în loc să genereze ZKP-uri pentru calculele ML, SAKSHI propune o abordare optimistă - stabilirea de noduri challenger pentru auditarea serviciilor, stimulate de Witness Chain.

Deși SLA-urile și rețeaua challenger sunt în Witness Chain, propunerea SAKSHI nu intenționează să folosească simbolul nativ al Witness Chain pentru stimulente pentru a obține securitatea independentă. În schimb, folosește securitatea Ethereum prin Eigen Layer. Deci, întregul strat economic se bazează practic pe stratul propriu.

Putem vedea SAKSHI acționând ca un intermediar între furnizorii și utilizatorii de AI, reunind diferite AI într-o manieră descentralizată pentru a-și servi utilizatorii. Aceasta este mai mult o abordare orizontală. SAKSHI se concentrează pe eliberarea furnizorilor de inteligență artificială pentru a-și gestiona doar calculele modelelor în afara lanțului, în timp ce potrivirea nevoilor utilizatorilor cu serviciile de modelare, gestionarea plăților și verificarea calității serviciilor prin protocoale în lanț într-un mod mai automatizat. Desigur, deoarece SAKSHI este încă teoretic, numeroase detalii de implementare rămân de concretizat.

Partea 3: Perspectivele viitoare

Indiferent dacă AI componabilă sau platforme AI descentralizate, modelele ecosistemelor AI bazate pe blockchain par să aibă puncte comune - furnizorii de AI pot interacționa direct cu utilizatorii și pot furniza doar modele ML pentru calcule în afara lanțului. Plățile, soluționarea disputelor, potrivirea nevoilor utilizatorilor cu serviciile, pot fi gestionate prin protocoale fără încredere. Ca strat de bază fără încredere, blockchain-urile reduc frecarea dintre furnizori și utilizatori, oferind utilizatorilor o mai mare autonomie.

Deși avantajele utilizării blockchain-urilor ca strat de bază sunt bine înțelese, ele sunt într-adevăr potrivite pentru serviciile AI. Oricât de diferite de dApps, calculele aplicațiilor AI nu pot fi toate în lanț, așa că este nevoie de ZK sau o abordare optimistă pentru a integra serviciile AI într-un mod mai lipsit de încredere.

Cu îmbunătățiri precum abstracția contului pentru a permite o experiență mai bună a utilizatorului, elemente precum managementul cheilor private, lanțurile și gazul pot să nu fie observate. Cu o experiență fluidă asemănătoare Web2 UX, un grad mult mai mare de libertate și compozibilitate, oferind stimulente puternice pentru adoptarea în masă, ecosistemele de aplicații AI bazate pe blockchain au un viitor interesant.

REFERINŢĂ

  • Capitolul 1: Cum să-ți pui AI în lanț: https://medium.com/coinmonks/chapter-1-how-to-put-your-ai-on-chain-8af2db013c6b

  • Capitolul 4: Blockchains care se îmbunătățesc automat:https://medium.com/@ModulusLabs/chapter-4-blockchains-that-self-improve-e9716c041f36

  • Capitolul 6: Primul joc AI în lanț din lume: https://medium.com/@ModulusLabs/chapter-6-leela-vs-the-world-the-worlds-1st-on-chain-ai-game-17ea299a06b6

  • O INTRODUCERE ÎN ÎNVĂȚAREA MAȘINĂ DE CUNOAȘTERE ZERO (ZKML): https://worldcoin.org/blog/engineering/intro-to-zkml#zkml-use-cases

  • Dovada zero cunoștințe: aplicații și cazuri de utilizare: https://blog.chain.link/zero-knowledge-proof-use-cases/

  • SAKSHI: Platforme AI descentralizate: https://arxiv.org/pdf/2307.16562.pdf

  • Dragă, am micșorat dovada: Activarea verificării în lanț pentru RISC Zero și Bonsai: https://www.risczero.com/news/on-chain-verification

  • Conversație cu fondatorul fundației Nil: tehnologia ZK poate fi utilizată greșit, iar trasabilitatea publică nu este intenția inițială a criptării: https://www.techflowpost.com/article/detail_12647.html

  • IOSG Weekly Brief |Aprinderea scânteii blockchainului: LLM deschide noi posibilități pentru interacțiunea blockchain#187https://mp.weixin.qq.com/s/sVIBF6iPXwhamlKEvjH19Q