Bài học chính:

  • Khó có thể bỏ qua niềm đam mê ngày càng tăng với trí tuệ nhân tạo (AI) và sự phấn khích về sức mạnh tổng hợp tiềm năng của nó với Web3. Tuy nhiên, thực tế hiện tại của sự tích hợp non trẻ này cho thấy sự mất kết nối giữa nhu cầu cơ sở hạ tầng của AI và các khuôn khổ blockchain hiện có.

  • Trong loạt bài này, chúng ta sẽ khám phá mối quan hệ giữa AI và Web3, những thách thức, cơ hội và ứng dụng dọc trong Web3.

  • Phần đầu tiên của loạt bài này đi sâu vào sự phát triển của cơ sở hạ tầng Web3 cho AI, những thách thức hiện tại về yêu cầu tính toán và các lĩnh vực cơ hội.

Trí tuệ nhân tạo (AI) và công nghệ blockchain là hai trong số những công nghệ tiên tiến nhất đã chiếm được trí tưởng tượng của công chúng trong thập kỷ qua. Sự phát triển của AI trong Web2 là điều không thể nghi ngờ khi chứng kiến ​​số lượng đầu tư ngày càng tăng của các quỹ đầu tư mạo hiểm trong năm nay. Từ vòng tài trợ 1,3 tỷ USD của Inflection AI vào tháng 6 năm 2023 với các khoản đầu tư từ Microsoft và Nvidia, đến đối thủ cạnh tranh của OpenAI, Anthropic huy động được 1,25 tỷ USD từ Amazon vào tháng 9 năm 2023.

Tuy nhiên, trường hợp sử dụng và sự giao thoa của Web3 vẫn còn nhiều nghi vấn. Web3 có vai trò trong sự phát triển của AI không? Nếu vậy, làm thế nào và tại sao chúng ta cần blockchain trong AI? Một câu chuyện mà chúng tôi đang thấy là Web3 có tiềm năng cách mạng hóa các mối quan hệ hiệu quả, trong khi AI có khả năng tự biến đổi năng suất. Tuy nhiên, việc kết hợp các công nghệ này lại với nhau tỏ ra phức tạp, bộc lộ những thách thức và cơ hội đối với các yêu cầu về cơ sở hạ tầng.

Cơ sở hạ tầng AI & Cuộc khủng hoảng GPU

Nút thắt chính mà chúng ta hiện thấy trong AI là vấn đề GPU. Các Mô hình Ngôn ngữ Lớn (LLM) như GPT-3.5 của OpenAI đã mở khóa ứng dụng sát thủ đầu tiên mà chúng ta thấy ngày nay, ChatGPT. Đây là ứng dụng đạt 100 triệu MAU nhanh nhất trong 6 tuần so với YouTube và Facebook phải mất 4 năm. Điều này đã mở ra hàng loạt ứng dụng mới tận dụng các mô hình LLM, một số ví dụ là Midjourney được xây dựng trên StableLM của Stable Diffusion và PaLM2 hỗ trợ Bard, API, MakerSuite và Workspaces của Google.

Học sâu là một quá trình kéo dài và đòi hỏi nhiều tính toán trên quy mô lớn - LLM càng có nhiều tham số thì càng cần nhiều bộ nhớ GPU để hoạt động. Mỗi tham số trong mô hình được lưu trữ trong bộ nhớ GPU và mô hình cần tải các tham số này vào bộ nhớ trong quá trình suy luận. Nếu kích thước mô hình vượt quá bộ nhớ GPU khả dụng thì đó là thời điểm kích thước mô hình vượt quá bộ nhớ GPU khả dụng và mô hình ML ngừng hoạt động. Những công ty hàng đầu như OpenAI cũng đang gặp phải tình trạng thiếu GPU, dẫn đến khó triển khai các mô hình đa phương thức với các mô hình có độ dài chuỗi dài hơn (8k VS 32k). Với tình trạng thiếu chip cung cấp đáng kể, các ứng dụng quy mô lớn đã đạt đến ngưỡng có thể thực hiện được với LLM, khiến các công ty khởi nghiệp AI phải cạnh tranh về sức mạnh GPU để giành được lợi thế đi đầu.

Giải pháp GPU: Phương pháp tiếp cận tập trung và phi tập trung

Trong thời gian tới, các giải pháp tập trung như bản phát hành tensorRT-LLM của Nvidia vào tháng 8 năm 2023, mang lại khả năng suy luận được tối ưu hóa và tăng hiệu suất, cũng như dự đoán về việc Nvidia H200 ra mắt vào quý 2 năm 2024 dự kiến ​​sẽ giải quyết các hạn chế về GPU. Hơn nữa, các công ty khai thác truyền thống như CoreWeave và Lambda Labs đang hướng tới việc cung cấp điện toán đám mây tập trung vào GPU dựa trên mức phí thuê từ 2 đến 2,25 USD/giờ cho Nvidia H100. Các công ty khai thác sử dụng ASIC (Mạch tích hợp dành riêng cho ứng dụng) vì chúng mang lại những lợi thế đáng kể so với các máy tính hoặc GPU đa năng để đạt hiệu quả khai thác thông qua thiết kế dành riêng cho thuật toán và kiến ​​trúc phần cứng chuyên dụng để tăng công suất băm.

Về phía Web3, ý tưởng về một thị trường GPU kiểu Airbnb đã là một khái niệm phổ biến và có một số dự án đang cố gắng thực hiện điều này. Các ưu đãi trong blockchain là lý tưởng cho các mạng khởi động và đây là một cơ chế hiệu quả để thu hút người tham gia hoặc các thực thể có GPU nhàn rỗi theo cách phi tập trung. Thông thường, việc truy cập vào GPU bao gồm việc ký hợp đồng dài hạn với các nhà cung cấp đám mây và các ứng dụng có thể không nhất thiết phải sử dụng GPU trong suốt thời gian hợp đồng.

Một cách tiếp cận khác có tên Petals liên quan đến việc chia mô hình LLM thành nhiều lớp được lưu trữ trên các máy chủ khác nhau tương tự như khái niệm sharding. Nó được phát triển như một phần trong sự hợp tác của BigScience bởi các kỹ sư và nhà nghiên cứu từ Hugging Face, Đại học Washington và Yandex, cùng một số tên tuổi khác. Bất kỳ người dùng nào cũng có thể kết nối với mạng theo cách phi tập trung với tư cách là khách hàng và áp dụng mô hình này cho dữ liệu của họ.

Cơ hội cho các ứng dụng cơ sở hạ tầng AI X Web3

Mặc dù vẫn còn một số hạn chế, cơ sở hạ tầng Web3 có tiềm năng giải quyết các thách thức do tích hợp AI đặt ra và mang lại cơ hội cho các giải pháp đổi mới, như chúng ta sẽ khám phá bên dưới.

Mạng máy tính AI phi tập trung

Mạng máy tính phi tập trung liên kết các cá nhân cần tài nguyên máy tính với các hệ thống sở hữu khả năng tính toán chưa được sử dụng. Mô hình này, nơi các cá nhân và tổ chức có thể đóng góp tài nguyên nhàn rỗi của mình vào mạng mà không phải chịu thêm chi phí, cho phép mạng cung cấp mức giá hiệu quả hơn so với các nhà cung cấp tập trung.

Có nhiều khả năng trong việc kết xuất GPU phi tập trung được hỗ trợ bởi các mạng ngang hàng dựa trên blockchain để mở rộng quy mô tạo nội dung 3D do AI cung cấp trong trò chơi Web3. Tuy nhiên, một nhược điểm đáng kể đối với các mạng điện toán phi tập trung nằm ở khả năng chậm lại trong quá trình đào tạo máy học do chi phí liên lạc giữa các thiết bị điện toán khác nhau.

Dữ liệu AI phi tập trung

Dữ liệu đào tạo đóng vai trò là tập dữ liệu ban đầu được sử dụng để dạy các ứng dụng học máy nhận biết các mẫu hoặc đáp ứng một tiêu chí cụ thể. Mặt khác, dữ liệu kiểm tra hoặc xác nhận được sử dụng để đánh giá độ chính xác của mô hình và cần có một tập dữ liệu riêng để xác thực vì mô hình đã quen thuộc với dữ liệu huấn luyện.

Có những nỗ lực không ngừng nhằm tạo ra thị trường cho các nguồn dữ liệu AI và ghi nhãn dữ liệu AI, trong đó blockchain đóng vai trò là lớp khuyến khích cho các công ty và tổ chức lớn nâng cao hiệu quả. Tuy nhiên, ở giai đoạn phát triển ban đầu hiện tại, các ngành dọc này phải đối mặt với những trở ngại như nhu cầu đánh giá của con người và những lo ngại xung quanh dữ liệu hỗ trợ blockchain.

Ví dụ: có các mạng tính toán SP được thiết kế đặc biệt để đào tạo mô hình ML. Mạng điện toán SP được điều chỉnh cho phù hợp với các trường hợp sử dụng cụ thể, thường áp dụng kiến ​​trúc hợp nhất các tài nguyên điện toán thành một nhóm thống nhất, giống như siêu máy tính. Mạng tính toán SP xác định chi phí thông qua cơ chế gas hoặc tham số do cộng đồng kiểm soát.

Lời nhắc phi tập trung

Trong khi việc phân cấp hoàn toàn LLM đặt ra những thách thức, các dự án đang khám phá các cách để phân cấp các lời nhắc bằng cách khuyến khích sự đóng góp của các kỹ thuật tự đào tạo. Cách tiếp cận này khuyến khích người sáng tạo tạo nội dung, cung cấp các cơ cấu khuyến khích kinh tế cho nhiều người tham gia hơn trong bối cảnh này.

Các ví dụ ban đầu bao gồm các nền tảng chatbot được hỗ trợ bởi AI có các ưu đãi được mã hóa cho người sáng tạo nội dung và người tạo mô hình AI để đào tạo chatbot, sau đó có thể trở thành NFT có thể giao dịch, cấp quyền truy cập vào dữ liệu do người dùng cho phép để đào tạo và tinh chỉnh mô hình. Mặt khác, thị trường nhắc nhở phi tập trung nhằm mục đích khuyến khích những người sáng tạo nhắc nhở bằng cách cho phép quyền sở hữu dữ liệu và lời nhắc của họ được giao dịch trên thị trường.

Học máy không kiến ​​thức (ZKML)

Năm 2023 thực sự là năm mà LLM đã chứng tỏ được sức mạnh của mình. Để các dự án blockchain phát huy hết tiềm năng của AI, điều cần thiết là các mô hình này phải được chạy trên chuỗi. Tuy nhiên, những thách thức về giới hạn gas và chi phí tính toán vẫn gây ra sự phức tạp cho việc tích hợp AI.

Điều gì sẽ xảy ra nếu LLM có thể chạy ngoài chuỗi và kết quả đầu ra của chúng được sử dụng để thúc đẩy các quyết định và hoạt động trên chuỗi, đồng thời tạo ra bằng chứng cho thấy những quyết định này được đưa ra bởi mô hình ML AI chứ không phải bởi đầu ra ngẫu nhiên? Đây thực chất là ZKML. Với sự ra mắt sắp tới của GPT-5 của OpenAI và Llama3 của Meta, LLM đang ngày càng lớn mạnh hơn với các khả năng nâng cao. Mục tiêu chính của ZKML là giảm thiểu kích thước của bằng chứng, điều này khiến nó trở nên phù hợp một cách tự nhiên để kết hợp các bằng chứng ZK với công nghệ AI. Ví dụ: Bằng chứng ZK có thể được áp dụng để nén các mô hình trong quá trình suy luận hoặc đào tạo ML phi tập trung mà qua đó người dùng đóng góp vào việc đào tạo bằng cách gửi dữ liệu đến mô hình công khai trên mạng trực tuyến.

Chúng tôi hiện đang ở giai đoạn đầu của những gì thực tế về mặt tính toán để xác minh bằng cách sử dụng bằng chứng không có kiến ​​thức trên chuỗi. Tuy nhiên, những tiến bộ trong thuật toán đang mở rộng phạm vi những gì có thể đạt được khi khám phá các trường hợp sử dụng như Tính toàn vẹn của mô hình, theo đó, bằng chứng ZK có thể được sử dụng để chứng minh rằng cùng một thuật toán ML đang được chạy trên dữ liệu của những người dùng khác nhau theo cùng một cách để tránh những thành kiến. Tương tự, với sự gia tăng của các bức chân dung và ảnh giả sâu được tạo bằng thuật toán, bằng chứng ZK có thể được áp dụng trong Bằng chứng nhân cách để xác minh một cá nhân duy nhất mà không ảnh hưởng đến thông tin riêng tư của cá nhân đó.

Tóm lại, việc tích hợp cơ sở hạ tầng Web3 và AI thể hiện một biên giới thú vị của đổi mới công nghệ, đồng thời thúc đẩy đóng góp thông qua các ưu đãi được mã hóa. Trong khi Web2 đã chứng kiến ​​những tiến bộ đáng kể trong AI, thì sự giao thoa giữa Web3 và AI vẫn là một chủ đề đang được khám phá.

Khi chúng ta tiến về phía trước, sức mạnh tổng hợp giữa Web3 và AI có tiềm năng to lớn, hứa hẹn sẽ định hình lại bối cảnh công nghệ và cách chúng ta tiếp cận cơ sở hạ tầng AI. Hãy theo dõi phần tiếp theo của loạt bài AI X Web3, nơi chúng tôi đi sâu vào các trường hợp sử dụng AI trong trò chơi Web3.

Tuyên bố từ chối trách nhiệm: Nội dung trong bài viết này được chuẩn bị chỉ nhằm mục đích cung cấp thông tin và không phải là cơ sở để đưa ra quyết định đầu tư hoặc được hiểu là khuyến nghị tham gia vào các giao dịch đầu tư hoặc được dùng để đề xuất chiến lược đầu tư đối với bất kỳ công cụ tài chính hoặc các tổ chức phát hành chúng.