BlockBeatsによると、AOエコシステムは6月21日に「AI on AO」計画を発表した。この取り組みは、オンチェーンのオープンソースの大規模言語モデル(LLM)を立ち上げ、LLMだけでなくあらゆるAIモデルをオンチェーンに導入することを目指している。この計画はApusネットワークに基づいており、Arweaveの永続的なオンチェーンストレージを利用して、分散型のトラストレスGPUネットワークを構築する。このネットワークは、AIのトレーニングと推論に信頼性が高く、効率的で低コストのコンピューティングパワーを提供することに専念している。
AO の AI データは、ArDrive 経由で Arweave のモデルにアップロードできます。この動きは、AI を分散化し、よりアクセスしやすく効率的にするための重要な一歩です。AI モデルをオンチェーンにすることで、AO エコシステムは AI の開発と使用の新しい時代への道を切り開きます。Arweave の永続的なオンチェーン ストレージを使用することで、これらの AI モデルの耐久性と寿命がさらに保証され、将来の AI トレーニングと推論のための信頼できるリソースになります。
「AI on AO」計画は、AO エコシステムが AI テクノロジーとそのアプリケーションの発展に注力していることの証です。分散型で信頼性のない GPU ネットワークを提供することで、エコシステムは AI トレーニングと推論の効率を高めるだけでなく、AI テクノロジーの透明性と信頼性を促進します。この取り組みは AI 業界に大きな影響を与えると予想されており、AI モデルの開発と使用の方法に革命をもたらす可能性があります。