ZKMLについて:ZKML(ゼロ知識機械学習)は、ゼロ知識証明(Zero-Knowledge Proofs)と機械学習アルゴリズムを組み合わせた機械学習技術であり、機械学習におけるプライバシー保護の問題を解決することを目的としています。
分散コンピューティングについて:分散コンピューティングとは、計算タスクを複数の小さなタスクに分解し、これらの小さなタスクを複数のコンピュータやプロセッサに割り当てて処理を行うことで、高効率な計算を実現することを指します。

AIとWeb3の現状:制御不能なハニカムとエントロピーの増大
(制御不能:機械、社会、経済の新しい生物学)の中で、ケビン・ケリーは一つの現象を提起しました:ハニカムは分散管理に従い、群舞の形で選挙決定を行い、全体のハニカムは今回の群舞で最大規模のハニカムに従い、一つの出来事の支配者となります。これはモーリス・メーテリンクが言及したいわゆる「ハニカムの魂」でもあります——それぞれのミツバチが自分自身の決定を下し、他のミツバチを導いて証明し、最終的に形成される決定は真に集団の選択です。

エントロピーの増加と無秩序の法則は、熱力学の法則に従います。物理学の理論的具現化は、一定の数の分子を空の箱に入れて、最終的な分布状況を測定することです。人に具体的に言えば、アルゴリズムによって生成された群衆は、個体の思考の違いがあっても集団の法則を示すことができ、しばしば時代などの要因によって空の箱に制限され、最終的には合意的な決定を下します。
もちろん、集団の法則は必ずしも正しいわけではありませんが、合意を代表することはできます。一人で合意を引き上げる意見のリーダーは絶対的なスーパーパーソンです。しかし、大多数の場合、合意はすべての人が完全に無条件に同意することを求めるわけではなく、集団が一般的な認識を持つ必要があります。
私たちはここで、AIが人類を誤った道に導くかどうかについては議論しません。実際、この種の議論はすでに多く存在します。人工知能アプリケーションが生成した大量のゴミがネットワークデータの真実性を汚染しているか、集団の意思決定ミスがいくつかの出来事をより危険な状況に導く可能性があるかどうか。
AIの現在の状況は、天然の独占を伴っています。大規模モデルのトレーニングと展開には大量の計算リソースとデータが必要ですが、これを満たす企業や機関はごくわずかです。何十億ものデータは、各独占所有者によって宝物のように扱われており、オープンソースの共有はおろか、相互接続すら不可能です。
これが大規模なデータ浪費をもたらします。すべての大規模AIプロジェクトはユーザーデータの重複収集を行わなければならず、最終的には勝者がすべてを得る——合併か売却か、大規模な特定のプロジェクトを拡大するか、従来のインターネットの土地を囲い込むロジックです。
多くの人が言います、AIとWeb3は別物で、何の関係もない——前半は正しいです、これは異なる2つのレースですが、後半には問題があります。分散技術を利用して人工知能の独占の結末を制限し、人工知能技術を利用して非中央集権的な合意メカニズムの形成を促進することは、まさに自然なことです。
基層推論:AIが真の分散型集団合意メカニズムを形成するようにする
人工知能の核心は、人間そのものにあります。機械とモデルは、人の思考を推測し模倣するものに過ぎません。いわゆる集団は、実際には集団を抽象化するのが非常に難しいです。なぜなら、毎日目にするのは本当の個体だからです。しかし、モデルは膨大なデータを利用して学習と調整を行い、最終的には模擬された集団の形態を生成します。このようなモデルがどのような結果を引き起こすかを評価することは避けますが、集団による悪行の事件も一度や二度ではありません。しかし、モデルは確かにこの合意メカニズムの生成を代表しています。
例えば、特定のDAOについて、ガバナンスをメカニズムとして実現しようとすれば、必然的に効率に影響を与えます。その理由は、集団合意の形成が本質的に面倒なプロセスだからです。投票や統計などの一連の操作も必要です。DAOのガバナンスをAIモデルの形で具体化すれば、すべてのデータ収集はDAO内のすべての人の発言データから来ているため、出力された意思決定は実際には集団合意に近づくことになります。
単一のモデルの集団合意は、上記のような方法でモデルをトレーニングすることができますが、これらの個体にとっては最終的には孤島のままです。集団知能システムが集団AIを形成すれば、このシステム内の各AIモデルは相互に協力し合い、複雑な問題を解決するために機能します。これは実際には合意レベルでの強化に大きな役割を果たすことになります。
小規模集合は自らエコシステムを構築することも、他の集合と協力してより効率的で低コストで超大規模な計算力やデータ取引を満たすこともできます。しかし、問題は、各モデルデータベース間の現状が完全に信頼されず、他者を警戒していることです——これがまさにブロックチェーンの天然の特性です:信頼の去勢を通じて、真に分散型のAIマシン間の安全で効率的な相互作用を実現します。

グローバルなインテリジェントブレインは、もともと相互に独立し、機能が単一のAIアルゴリズムモデルが協調し、内部で複雑なインテリジェントアルゴリズムプロセスを実行することを可能にし、分散型の合意ネットワークを形成することができます。これがAIがWeb3に力を与える最大の意義です。
プライバシーとデータ独占?ZKと機械学習の結合
人類はAIの悪用やプライバシーの保護、データの独占に対する恐れに対して、ターゲットを絞った防止策を講じる必要があります。しかし、最も核心的な問題は、私たちが結論がどのように導かれたかを知らないことです。同様に、モデルの運営者もこの問題に対する解答を提供するつもりはありません。前述のグローバルなインテリジェントブレインの結合については、さらにこの問題を解決する必要があります。さもなければ、データ提供者は自分のコアを他人と共有することを望まないでしょう。
ZKML(Zero Knowledge Machine Learning)は、ゼロ知識証明を機械学習に適用する技術です。ゼロ知識証明(Zero-Knowledge Proofs, ZKP)は、証明者(prover)が具体的なデータを開示することなく、検証者(verifier)にデータの真実性を信じさせる可能性があります。

理論的なケースを引き合いに出します。9×9の標準数独があり、完成条件は9つのマスに1から9の数字を埋め込むことです。各数字は各行、列、およびマスで一度だけ出現する必要があります。したがって、この謎を出題した人は、答えを漏らすことなく挑戦者に数独が解けることを証明するにはどうすればよいのでしょうか?

単に充填箇所を答えで覆い、ランダムに挑戦者に数行または数列を抽出させ、すべての数字をシャッフルして、1から9までがすべて存在するかどうかを確認すればよいのです。これがシンプルなゼロ知識証明の具体例です。
ゼロ知識証明技術は、完備性、正確性、ゼロ知識性の3つの特徴を持っています。つまり、結論を証明しながら、詳細を開示する必要はありません。その技術的な起源は、同態暗号の背景において、検証の難易度が証明の生成の難易度よりもはるかに低いことを示すことができます。
機械学習(Machine Learning)は、アルゴリズムとモデルを使用して、コンピューターシステムがデータから学習し改善することを意味します。自動化された方法で経験から学ぶことで、システムはデータとモデルに基づいて自動的に予測、分類、クラスタリング、最適化などのタスクを実行できます。
機械学習の核心はモデルの構築にあります。これらのモデルはデータから学び、自動的に予測と意思決定を行います。これらのモデルの構築には通常、3つの重要な要素が必要です:データセット、アルゴリズム、モデル評価。データセットは機械学習の基礎であり、機械学習モデルのトレーニングとテストに使用されるデータサンプルを含みます。アルゴリズムは機械学習モデルの核心であり、モデルがデータから学び予測する方法を定義します。モデル評価は機械学習の重要なプロセスであり、モデルの性能と正確性を評価し、モデルの最適化と改善が必要かどうかを判断します。

従来の機械学習では、データセットは通常、中央集権的な場所に収集されてトレーニングされる必要があります。これは、データ所有者がデータを第三者に共有しなければならず、データ漏洩やプライバシー漏洩のリスクを引き起こす可能性があることを意味します。ZKMLを使用することで、データ所有者はデータを漏らすことなく他の人にデータセットを共有することができます。これは、ゼロ知識証明を使用して実現されます。
ゼロ知識証明は機械学習の強化に適用され、その効果は予見可能であるべきです。これにより、長年のプライバシーのブラックボックスとデータ独占の問題が解決されます:プロジェクト側はユーザーデータの入力やモデルの具体的な詳細を漏らすことなく証明と検証を行うことができるのか、すべての集合はプライバシーデータを漏らすことなく自分のデータやモデルを共有できるのか?もちろん、現時点での技術はまだ早く、実践には多くの問題が存在するでしょうが、それでも私たちは夢を描くことができ、多くのチームが開発を進めています。
この状況は、小型データベースが大型データベースを無償で利用することをもたらすのでしょうか?ガバナンスの問題を考えると、Web3の思考に戻ります。Cryptoの本質はガバナンスにあります。大量の利用や共有を通じて、適切なインセンティブを得るべきです。従来のPow、PoSメカニズムや最近登場したさまざまなPoR(評判証明メカニズム)を通じて、インセンティブ効果が確保されています。

分散型計算力:嘘と現実が交錯する革新の物語
非中央集権的な計算力ネットワークは、暗号圏で頻繁に言及されるシーンです。AIの大規模モデルに必要な計算力は驚異的であり、中央集権的な計算力ネットワークはリソースの浪費を引き起こすだけでなく、実質的な独占を形成します——最後に競い合うのはGPUの数であれば、それはあまりにも無意味です。
非中央集権的な計算力ネットワークは、実質的に異なる場所や異なるデバイスに分散された計算リソースを統合するものです。皆が常に挙げる主な利点は次のとおりです:分散型計算能力の提供、プライバシー問題の解決、人工知能モデルの信頼性と信頼性の向上、さまざまなアプリケーションシナリオでの迅速な展開と運用のサポート、そして非中央集権的なデータ保存と管理のソリューションの提供。そうです、非中央集権的な計算力を通じて、誰でもAIモデルを実行でき、世界中のユーザーからの実際のブロックチェーンデータセットでテストを行うことができるため、より柔軟で効率的、低コストの計算サービスを享受できます。

同時に、非中央集権的な計算力は、強力なフレームワークを構築することでプライバシー問題を解決し、ユーザーデータの安全とプライバシーを守ることができます。また、透明で検証可能な計算プロセスを提供し、人工知能モデルの信頼性と信頼性を高め、さまざまなアプリケーションシナリオでの迅速な展開と運用に柔軟でスケーラブルな計算リソースを提供します。
中央集権的な計算プロセスの完全なセットからモデルのトレーニングを考えると、ステップは通常、データの準備、データの分割、デバイス間のデータ転送、並行トレーニング、グラデーションの集約、パラメータの更新、同期、そして再トレーニングに分けられます。このプロセスの中で、中央集権的なデータセンターが高性能の計算デバイスクラスターを使用し、高速ネットワークで計算タスクを共有する場合でも、高額な通信コストが非中央集権的な計算力ネットワークの最大の制約の一つとなります。
したがって、非中央集権的な計算力ネットワークには多くの利点と潜在能力があるものの、現在の通信コストと実際の運営の難しさを考えると、発展の道は依然として曲がりくねっています。実践において、非中央集権的な計算力ネットワークを実現するには、多くの実際的な技術的問題を克服する必要があります。ノードの信頼性と安全性の確保、分散した計算リソースの効果的な管理と調整、高効率のデータ伝送と通信の実現など、恐らく実際に直面する大きな問題です。
尾:理想主義者に残された期待
商業現実に戻ると、AIとWeb3の深い結合の物語は非常に美しく見えますが、資本とユーザーは実際の行動で私たちに、この革新の旅が異常に困難であることを告げています。プロジェクト側がOpenAIのように強力である限り、強力なスポンサーを抱えることができなければ、深い研究開発費用と不明瞭なビジネスモデルが私たちを完全に打ち砕くでしょう。
AIもWeb3も、現在は非常に初期の発展段階にあります。ちょうど20世紀末のインターネットバブルのように、実際の黄金時代は10年後にようやく訪れました。マッカーシーは、休暇中に人間の知性を持つ人工知能を設計することを夢見ていましたが、実際には約70年後にようやく人工知能の重要な一歩を踏み出しました。
Web3+AIも同様です。私たちは前進方向の正しさを確認しました。残りは時間に委ねるだけです。
時間の潮流が徐々に引いていくとき、屹立不倒の人と物が、私たちのSFから現実への礎となります。

