Kesimpulan Utama:

  • Meningkatnya ketertarikan terhadap kecerdasan buatan (AI) dan kegembiraan atas potensi sinerginya dengan Web3 sulit untuk diabaikan. Namun demikian, realitas integrasi yang baru lahir ini menunjukkan adanya keterputusan antara kebutuhan infrastruktur AI dan kerangka kerja blockchain yang ada.

  • Dalam seri ini, kita akan mengeksplorasi hubungan antara AI dan Web3, tantangan, peluang, dan aplikasi vertikal di Web3.

  • Bagian pertama dari seri ini mendalami pengembangan infrastruktur Web3 untuk AI, tantangan saat ini dalam persyaratan komputasi, dan area peluang.

Teknologi Artificial Intelligence (AI) dan blockchain adalah dua teknologi paling inovatif yang menarik imajinasi publik dalam satu dekade terakhir. Perkembangan AI di Web2 tidak perlu diragukan lagi, hal ini terlihat dari meningkatnya jumlah investasi yang dilakukan oleh para VC pada tahun ini. Dari putaran pendanaan Inflection AI sebesar $1,3 miliar pada Juni 2023 dengan investasi dari Microsoft dan Nvidia, hingga pesaing OpenAI, Anthropic yang mengumpulkan $1,25 miliar dari Amazon pada September 2023.

Namun, kasus penggunaan dan perpotongan Web3 masih skeptis. Apakah Web3 berperan dalam pengembangan AI? Jika ya, bagaimana dan mengapa kita memerlukan blockchain dalam AI? Salah satu narasi yang kami lihat adalah Web3 berpotensi merevolusi hubungan produktif, sementara AI memiliki kekuatan untuk mentransformasi produktivitas itu sendiri. Namun, menyatukan teknologi-teknologi ini terbukti rumit, sehingga memunculkan tantangan dan peluang bagi kebutuhan infrastruktur.

Infrastruktur AI & Krisis GPU

Hambatan utama yang saat ini kita lihat dalam AI adalah masalah GPU. Model Bahasa Besar (LLM) seperti GPT-3.5 OpenAI telah membuka kunci aplikasi pembunuh pertama yang kita lihat saat ini, ChatGPT. Ini adalah aplikasi tercepat yang mencapai 100 juta MAU dalam 6 minggu dibandingkan YouTube dan Facebook yang membutuhkan waktu 4 tahun. Hal ini telah membuka pintu masuk aplikasi baru yang memanfaatkan model LLM, beberapa contohnya adalah Midjourney yang dibangun di atas StableLM Stable Diffusion, dan PaLM2 yang mendukung Bard, API, MakerSuite, dan Workspaces Google.

Pembelajaran mendalam adalah proses yang panjang dan intensif secara komputasi dalam skala besar - semakin banyak parameter yang dimiliki LLM, semakin banyak memori GPU yang diperlukan untuk beroperasi. Setiap parameter dalam model disimpan dalam memori GPU dan model perlu memuat parameter ini ke dalam memori selama inferensi. Jika ukuran model melebihi memori GPU yang tersedia, ini merupakan titik di mana ukuran model melebihi memori GPU yang tersedia dan model ML berhenti berfungsi. Pemain terkemuka seperti OpenAI juga mengalami kekurangan GPU, yang mengakibatkan kesulitan dalam menerapkan model multi-modal dengan model panjang urutan yang lebih panjang (8k VS 32k). Dengan kekurangan pasokan chip yang signifikan, aplikasi skala besar telah mencapai ambang batas dari apa yang mungkin dilakukan dengan LLM, sehingga startup AI bersaing untuk mendapatkan kekuatan GPU untuk mendapatkan keuntungan sebagai penggerak pertama.

Solusi GPU: Pendekatan Terpusat & Terdesentralisasi

Dalam waktu dekat, solusi terpusat seperti rilis tensorRT-LLM Nvidia pada Agustus 2023, menawarkan inferensi yang dioptimalkan dan peningkatan kinerja, dan antisipasi peluncuran Nvidia H200 pada Q2 2024 diharapkan dapat mengatasi kendala GPU. Selain itu, perusahaan pertambangan tradisional seperti CoreWeave dan Lambda Labs beralih ke penyediaan komputasi awan yang berfokus pada GPU berdasarkan biaya sewa yang berkisar $2-$2,25/jam untuk Nvidia H100s. Perusahaan pertambangan menggunakan ASIC (Application-Specific Integrated Circuit) karena memberikan keunggulan signifikan dibandingkan komputer tujuan umum atau GPU untuk efisiensi penambangan melalui desain khusus algoritma dan arsitektur perangkat keras khusus untuk meningkatkan kekuatan hash.

Di sisi Web3, gagasan pasar GPU tipe Airbnb telah menjadi konsep yang populer dan ada beberapa proyek yang mencoba melakukan hal ini. Insentif dalam blockchain ideal untuk jaringan bootstrap dan merupakan mekanisme yang efektif untuk menarik peserta atau entitas dengan GPU yang menganggur dengan cara yang terdesentralisasi. Biasanya mendapatkan akses ke GPU melibatkan penandatanganan kontrak jangka panjang dengan penyedia cloud dan aplikasi belum tentu menggunakan GPU selama periode kontrak.

Pendekatan lain yang disebut Petals melibatkan pemisahan model LLM menjadi beberapa lapisan yang dihosting di server berbeda serupa dengan konsep sharding. Ini dikembangkan sebagai bagian dari kolaborasi BigScience oleh para insinyur dan peneliti dari Hugging Face, Universitas Washington, dan Yandex. Setiap pengguna dapat terhubung ke jaringan dengan cara yang terdesentralisasi sebagai klien dan menerapkan model tersebut pada data mereka.

Peluang untuk Aplikasi Infrastruktur AI X Web3

Meskipun masih terdapat beberapa kelemahan, infrastruktur Web3 memiliki potensi untuk mengatasi tantangan yang ditimbulkan oleh integrasi AI dan memberikan peluang bagi solusi inovatif, seperti yang akan kita bahas di bawah ini.

Jaringan Komputasi AI Terdesentralisasi

Jaringan komputasi terdesentralisasi menghubungkan individu yang membutuhkan sumber daya komputasi dengan sistem yang memiliki kemampuan komputasi yang belum terpakai. Model ini, dimana individu dan organisasi dapat menyumbangkan sumber daya mereka yang menganggur ke jaringan tanpa mengeluarkan biaya tambahan, memungkinkan jaringan untuk memberikan harga yang lebih hemat biaya dibandingkan dengan penyedia terpusat.

Ada kemungkinan dalam rendering GPU terdesentralisasi yang difasilitasi oleh jaringan peer-to-peer berbasis blockchain untuk meningkatkan skala pembuatan konten 3D yang didukung AI dalam game Web3. Namun, kelemahan signifikan jaringan komputasi terdesentralisasi terletak pada potensi perlambatan selama pelatihan pembelajaran mesin karena overhead komunikasi antar perangkat komputasi yang beragam.

Data AI Terdesentralisasi

Data pelatihan berfungsi sebagai kumpulan data awal yang digunakan untuk mengajarkan aplikasi pembelajaran mesin untuk mengenali pola atau memenuhi kriteria tertentu. Di sisi lain, data pengujian atau validasi digunakan untuk menilai keakuratan model, dan kumpulan data terpisah diperlukan untuk validasi karena model sudah terbiasa dengan data pelatihan.

Terdapat upaya berkelanjutan untuk menciptakan pasar bagi sumber data AI dan pelabelan data AI di mana blockchain berfungsi sebagai lapisan insentif bagi perusahaan dan institusi besar untuk meningkatkan efisiensi. Namun, pada tahap awal pengembangannya saat ini, sektor-sektor vertikal ini menghadapi kendala seperti perlunya tinjauan manusia dan kekhawatiran seputar data yang mendukung blockchain.

Misalnya, ada jaringan komputasi SP yang dirancang khusus untuk pelatihan model ML. Jaringan komputasi SP disesuaikan dengan kasus penggunaan tertentu, biasanya mengadopsi arsitektur yang menggabungkan sumber daya komputasi ke dalam kumpulan terpadu, menyerupai superkomputer. Jaringan komputasi SP menentukan biaya melalui mekanisme gas atau parameter yang dikendalikan oleh komunitas.

Perintah Terdesentralisasi

Meskipun desentralisasi penuh LLM menghadirkan tantangan, proyek-proyek sedang mencari cara untuk mendesentralisasikan permintaan dengan mendorong kontribusi teknik-teknik yang dilatih sendiri. Pendekatan ini memberikan insentif kepada kreator untuk menghasilkan konten, sehingga memberikan struktur insentif ekonomi bagi lebih banyak peserta di lanskap tersebut.

Contoh awal termasuk platform chatbot bertenaga AI yang memiliki insentif tokenisasi bagi pembuat konten dan pembuat model AI untuk melatih chatbot, yang selanjutnya dapat menjadi NFT yang dapat diperdagangkan, memberikan akses ke data yang diizinkan pengguna untuk pelatihan model dan penyempurnaan. Di sisi lain, pasar cepat yang terdesentralisasi bertujuan untuk memberikan insentif kepada pembuat cepat dengan memungkinkan kepemilikan data mereka dan permintaan untuk diperdagangkan di pasar.

Pembelajaran Mesin Tanpa Pengetahuan (ZKML)

2023 benar-benar merupakan tahun di mana LLM menunjukkan kekuatan mereka. Agar proyek blockchain dapat mewujudkan potensi penuh AI, model ini harus dijalankan secara on-chain. Namun, tantangan keterbatasan gas dan biaya komputasi masih menimbulkan kompleksitas dalam integrasi AI.

Bagaimana jika LLM dapat dijalankan secara off-chain dan hasil outputnya digunakan untuk mendorong keputusan dan aktivitas on-chain, sekaligus menghasilkan bukti bahwa keputusan ini dibuat oleh model ML AI dan bukan oleh output acak? Pada dasarnya inilah ZKML. Dengan peluncuran GPT-5 OpenAI dan Llama3 Meta yang akan datang, LLM tumbuh lebih besar dengan kemampuan yang ditingkatkan. Tujuan utama ZKML adalah meminimalkan ukuran bukti, sehingga cocok untuk menggabungkan bukti ZK dengan teknologi AI. Misalnya, bukti ZK dapat diterapkan untuk mengompresi model dalam inferensi atau pelatihan ML terdesentralisasi di mana pengguna berkontribusi pada pelatihan dengan mengirimkan data ke model publik di jaringan on-chain.

Saat ini kami sedang dalam tahap awal dari apa yang praktis secara komputasi untuk diverifikasi menggunakan bukti tanpa pengetahuan secara on-chain. Namun, kemajuan dalam algoritma memperluas cakupan dari apa yang dapat dicapai dengan kasus penggunaan yang sedang dieksplorasi seperti Model Integrity, dimana pembuktian ZK dapat digunakan untuk membuktikan bahwa algoritma ML yang sama dijalankan pada data pengguna yang berbeda dengan cara yang sama. menghindari bias. Demikian pula, dengan meningkatnya potret dan deepfake yang dihasilkan secara algoritmik, pembuktian ZK dapat diterapkan dalam Proof of Personhood untuk memverifikasi orang unik tanpa mengorbankan informasi pribadi seseorang.

Kesimpulannya, integrasi infrastruktur Web3 dan AI mewakili batas inovasi teknologi yang menarik, sekaligus meningkatkan kontribusi melalui insentif yang diberi token. Meskipun Web2 telah menyaksikan kemajuan signifikan dalam AI, titik temu antara Web3 dan AI masih dalam tahap eksplorasi.

Seiring dengan kemajuan kita, sinergi antara Web3 dan AI mempunyai potensi besar, menjanjikan untuk membentuk kembali lanskap teknologi dan cara kita mendekati infrastruktur AI. Nantikan bagian berikutnya dari seri AI X Web3 di mana kita mendalami kasus penggunaan AI dalam game Web3.

Penafian: Isi artikel ini disiapkan semata-mata untuk tujuan informatif dan tidak boleh menjadi dasar pengambilan keputusan investasi atau ditafsirkan sebagai rekomendasi untuk melakukan transaksi investasi atau digunakan untuk menyarankan strategi investasi sehubungan dengan instrumen keuangan atau penerbitnya.