主なポイント:
人工知能 (AI) への関心の高まりと、Web3 との潜在的な相乗効果に対する期待を無視するのは難しい。しかし、この初期の統合の現状は、AI のインフラストラクチャのニーズと既存のブロックチェーン フレームワークの間に乖離があることを明らかにしている。
このシリーズでは、AI と Web3 の関係、Web3 の課題、機会、垂直アプリケーションについて探っていきます。
このシリーズの第 1 部では、AI 向け Web3 インフラストラクチャの開発、計算要件の現在の課題、および機会領域について詳しく説明します。
人工知能(AI)とブロックチェーン技術は、過去10年間で人々の心を捉えた最も革新的な技術の2つです。Web2におけるAIの発展は、今年VCによる投資件数が急増していることからも明らかなように、疑う余地がありません。2023年6月にMicrosoftとNvidiaからの投資を受けてInflection AIが13億ドルの資金調達ラウンドを実施し、OpenAIの競合であるAnthropicが2023年9月にAmazonから12億5000万ドルを調達しました。
しかし、Web3 の使用事例と交差点は依然として懐疑的です。Web3 は AI の開発に役割を果たしているのでしょうか? もしそうなら、AI にブロックチェーンが必要な理由と方法は? 私たちが目にしている 1 つの説は、Web3 には生産的な関係に革命を起こす可能性があり、AI には生産性そのものを変革する力があるというものです。しかし、これらのテクノロジーを組み合わせることは複雑であることが判明しており、インフラストラクチャ要件の課題と機会が明らかになっています。
AI インフラストラクチャと GPU の危機
現在 AI で見られる主なボトルネックは GPU の不足です。OpenAI の GPT-3.5 などの大規模言語モデル (LLM) により、今日目にする最初のキラー アプリである ChatGPT が実現しました。これは、YouTube と Facebook が 4 年かかったのに対し、6 週間で 1 億 MAU に到達した最速のアプリケーションです。これにより、LLM モデルを活用した新しいアプリケーションの門戸が開かれました。その例としては、Stable Diffusion の StableLM 上に構築された Midjourney や、Google の Bard、API、MakerSuite、Workspaces を支える PaLM2 などがあります。
ディープラーニングは、大規模で長時間の計算集約型プロセスです。LLM のパラメーターが多いほど、動作に必要な GPU メモリが多くなります。モデル内の各パラメーターは GPU メモリに保存され、モデルは推論中にこれらのパラメーターをメモリに読み込む必要があります。モデルのサイズが使用可能な GPU メモリを超えた場合、モデルのサイズが使用可能な GPU メモリを超え、ML モデルが動作しなくなります。OpenAI などの大手企業も GPU 不足に見舞われており、より長いシーケンス長のモデル (8k VS 32k) を使用したマルチモーダル モデルの展開が困難になっています。供給チップの大幅な不足により、大規模アプリケーションは LLM で可能なことの限界に達しており、AI スタートアップ企業は先行者利益を得るために GPU パワーを求めて競争しています。
GPU ソリューション: 集中型と分散型のアプローチ
短期的には、最適化された推論と向上したパフォーマンスを提供するNvidiaの2023年8月のtensorRT-LLMリリースなどの集中型ソリューションや、2024年第2四半期のNvidia H200sの発売予想により、GPUの制約が解消されると予想されています。さらに、CoreWeaveやLambda Labsなどの従来のマイニング企業は、Nvidia H100のレンタル料金を1時間あたり2~2.25ドルに設定し、GPUに重点を置いたクラウドコンピューティングの提供へと方向転換しています。マイニング企業は、アルゴリズム固有の設計とハッシュパワーを高めるための特殊なハードウェアアーキテクチャにより、汎用コンピューターやGPUよりもマイニング効率の面で大きな利点があるASIC(特定用途向け集積回路)を活用しています。
Web3 側では、GPU 用の Airbnb タイプのマーケットプレイスというアイデアが人気を集めており、これを実現しようとしているプロジェクトがいくつかあります。ブロックチェーンのインセンティブはネットワークのブートストラップに最適であり、アイドル状態の GPU を持つ参加者やエンティティを分散型の方法で引き付ける効果的なメカニズムです。通常、GPU にアクセスするには、クラウド プロバイダーとの長期契約を締結する必要があり、アプリケーションは契約期間中に必ずしも GPU を使用するとは限りません。
Petals と呼ばれる別のアプローチでは、シャーディングの概念に似た、異なるサーバーでホストされる複数のレイヤーに LLM モデルを分割します。これは、BigScience コラボレーションの一環として、Hugging Face、ワシントン大学、Yandex などのエンジニアと研究者によって開発されました。どのユーザーも、クライアントとして分散型の方法でネットワークに接続し、モデルを自分のデータに適用できます。
AI X Web3 インフラストラクチャ アプリケーションの機会
まだいくつかの欠点はあるものの、Web3 インフラストラクチャは、AI 統合によってもたらされる課題に取り組む可能性を秘めており、以下で説明するように、革新的なソリューションの機会を提供します。
分散型AIコンピューティングネットワーク
分散型コンピューティング ネットワークは、コンピューティング リソースを必要とする個人と、未使用のコンピューティング機能を持つシステムを結び付けます。個人や組織が追加費用をかけずにアイドル リソースをネットワークに提供できるこのモデルにより、ネットワークは集中型プロバイダーとは対照的に、よりコスト効率の高い価格設定を提供できます。
ブロックチェーンベースのピアツーピア ネットワークによって促進される分散型 GPU レンダリングには、Web3 ゲームにおける AI を活用した 3D コンテンツ作成の拡張の可能性があります。ただし、分散型コンピューティング ネットワークの大きな欠点は、さまざまなコンピューティング デバイス間の通信オーバーヘッドにより、機械学習のトレーニング中に速度が低下する可能性があることです。
分散型AIデータ
トレーニング データは、機械学習アプリケーションにパターンを認識したり、特定の基準を満たしたりするように教えるために使用される初期データセットとして機能します。一方、テスト データまたは検証データはモデルの精度を評価するために使用され、モデルは既にトレーニング データに慣れているため、検証には別のデータセットが必要です。
AI データソースと AI データラベリングのマーケットプレイスを作成する取り組みが進行中で、ブロックチェーンは大企業や機関の効率向上のためのインセンティブ層として機能します。ただし、現在の開発の初期段階では、これらの垂直分野は、人間によるレビューの必要性やブロックチェーン対応データに関する懸念などの障害に直面しています。
たとえば、ML モデルのトレーニング専用に設計された SP コンピューティング ネットワークがあります。SP コンピューティング ネットワークは特定のユース ケースに合わせて調整されており、通常、コンピューティング リソースを統合プールに統合するアーキテクチャを採用しており、スーパーコンピューターに似ています。SP コンピューティング ネットワークは、ガス メカニズムまたはコミュニティによって制御されるパラメーターを通じてコストを決定します。
分散型プロンプト
LLM を完全に分散化することは課題がありますが、プロジェクトでは自己訓練された技術の貢献を奨励することでプロンプトを分散化する方法を検討しています。このアプローチは、クリエイターにコンテンツを作成するインセンティブを与え、より多くの参加者に経済的インセンティブ構造を提供します。
初期の例としては、コンテンツ作成者や AI モデル作成者がチャットボットをトレーニングするためのトークン化されたインセンティブを持つ AI 搭載チャットボット プラットフォームが挙げられます。チャットボットはその後、取引可能な NFT になり、モデルのトレーニングと微調整のためにユーザーが許可したデータへのアクセスを許可します。一方、分散型プロンプト マーケットプレイスは、データとプロンプトの所有権をマーケットプレイスで取引できるようにすることで、プロンプト作成者にインセンティブを与えることを目的としています。
ゼロ知識機械学習 (ZKML)
2023年はまさにLLMがその力を発揮した年でした。ブロックチェーンプロジェクトがAIの可能性を最大限に引き出すためには、これらのモデルをオンチェーンで実行することが不可欠です。しかし、ガス制限や計算コストの課題は、AIの統合にとって依然として複雑な問題となっています。
もし LLM をオフチェーンで実行し、その出力結果を使用してオンチェーンの決定とアクティビティを推進し、これらの決定がランダム出力ではなく ML AI モデルによって行われたという証明を生成できたらどうなるでしょうか。これが本質的に ZKML です。OpenAI の GPT-5 と Meta の Llama3 が間もなくリリースされることで、LLM は機能が強化され、より大規模になっています。ZKML の主な目的は証明のサイズを最小限に抑えることであり、ZK 証明と AI テクノロジーを組み合わせるのに最適です。たとえば、ZK 証明は、ユーザーがオンチェーン ネットワーク上のパブリック モデルにデータを送信することでトレーニングに貢献する、分散型 ML 推論またはトレーニングでモデルを圧縮するために適用できます。
現在、オンチェーンでゼロ知識証明を使用して検証することが計算的に実用的である段階は初期段階にあります。しかし、アルゴリズムの進歩により、モデルの整合性などのユースケースの検討で達成できることの範囲が広がりつつあり、ZK 証明を使用して、同じ ML アルゴリズムが異なるユーザーのデータに対して同じように実行されていることを証明し、バイアスを回避できます。同様に、アルゴリズムで生成された肖像画やディープフェイクの増加に伴い、ZK 証明を人物証明に適用して、個人の個人情報を危険にさらすことなく、固有の人物を検証できます。
結論として、Web3 インフラストラクチャと AI の統合は、トークン化されたインセンティブを通じて貢献を高めながら、技術革新の刺激的な最前線を表しています。Web2 では AI が大きく進歩しましたが、Web3 と AI の交差点はまだ探求の対象です。
今後、Web3 と AI の相乗効果は大きな可能性を秘めており、テクノロジーの状況と AI インフラストラクチャへのアプローチ方法を再形成することが期待されます。Web3 ゲームにおける AI の使用例について詳しく説明する AI X Web3 シリーズの次のパートにご期待ください。
免責事項:この記事の内容は情報提供のみを目的として作成されたものであり、投資判断の根拠となるべきではなく、また投資取引への参加を推奨するものと解釈されるべきではなく、またいかなる金融商品またはその発行者に関する投資戦略を提案するものと解釈されるべきではありません。
