
GPT-4 のリリースから 2 週間後、イーロン・マスクとテクノロジー業界の何千人もの人々が署名した公開書簡がオンラインで公開されました。公開書簡は、すべての人工知能研究所に対し、GPT-4より強力な人工知能システムの訓練を少なくとも6か月間直ちに中止するよう求めている。
Appleの共同創設者スティーブ・ウォズニアック氏、チューリング賞受賞者のヨシュア・ベンジオ氏、AIの教科書『人工知能:現代的なアプローチ』の共著者であるスチュアート・ラッセル氏とその他の著名なテクノロジー関係者がこの公開書簡に署名した。
公開書簡では、「高度な AI は地球上の生命の歴史に重大な変化をもたらす可能性があり、私たちはその計画と管理に相応の注意とリソースを投資する必要がある」と主張していますが、現在、人工知能は制御不能な競争に陥っています。そして開発者はそれを確実に予測して制御することができません。
公開書簡では、現代の人工知能システムは現在、一般的なタスクにおいて人間と競争できるようになっていると述べ、「強力な人工知能システムは、その効果がプラスであり、そのリスクが制御可能であると確信できる場合にのみ開発されるべきである」と述べた。
公開書簡の考えによれば、GPT-4より強力なAIシステムのトレーニングは6か月間停止されるべきだという。この一時停止中、AI ラボと独立した専門家は、独立した外部の専門家による厳格な監査と監督を受けながら、高度な AI の設計と開発のための共有セキュリティ プロトコルのセットを開発および実装するために協力する必要があります。
これらのプロトコルは、システムが安全であり、合理的な疑いの余地がないことを保証する必要があります。これは AI 開発全般の一時停止を意味するものではなく、より大規模で予測不可能なブラックボックス モデルに向けた危険な競争から一歩後退するだけです。
この書簡は、主にマスク財団、ファウンダーズ・プレッジ、シリコンバレー・コミュニティ財団から資金提供を受けているフューチャー・オブ・ライフ研究所のウェブサイトに掲載されたもので、その使命は、革新的なテクノロジーを極端で大規模なリスクから遠ざけるよう導くことである。そして祝福に満ちた人生へ。
2017 年には、Future of Life Institute が経済学、法律、倫理、哲学の分野の 100 人以上の思想的指導者や研究者をカリフォルニアに招集し、有益な人工知能の原則を議論し策定しました。最終的に、彼らは人工知能ガバナンスの重要な原則とみなされている 23 の Asilomar 人工知能原則を策定しました。 1つ目は、「人工知能研究の目標は、無秩序な知能ではなく、有益な知能を確立することであるべきである」というものです。
この公開書簡に署名したテクノロジー関係者にとって、ほとんどの人は、AIの発展が速すぎること、関連する監督や法律が追いついていないこと、そして発明者ですら効果的な制御方法が不足していることを懸念している。このような状況下でAIを無制限に活用すると、問題が発生した場合にシステム的なリスクが生じる可能性があります。
タイム誌によると、公開書簡の署名者であり、人工知能セキュリティーの新興企業セーファーAIの最高経営責任者(CEO)であるサイモン・カンポス氏は、AIシステムの発明者らはAIシステムがどのように機能するのか、またその正体を正確に理解していないため、システムリスクの管理に失敗していると述べた。発明者にはそれを行う能力がありますが、AI の動作を制限する方法がわかりません。
「私たちは今何をしているのですか?」とカンポスは言った。 「私たちはこれらのシステムを前例のないレベルの能力に拡張し、社会に変革的な影響を与えるために全速力で取り組んでいます。私たちはこれらのシステムの開発を遅らせ、社会が適応できるようにする必要があります。」
マスク氏の悩み:オフにできないAI
マスク氏は、2014 年の時点で、人工知能について非常に注意する必要があると公に述べていました。人類の存在に対する最大の脅威は何かというと、それは人工知能かもしれません。知能。 。マスク氏は「人工知能の登場により、人間は悪魔を呼び起こしている」と語った。
同氏はまた、「私たちが本当に愚かなことをしないように、おそらく国内および国際レベルで何らかの規制上の監視が必要だと思うようになってきている」とも述べた。
マスク氏はAIの安全性の問題について語るだけではない。 2015 年初め、マスク氏は AI を人類に利益をもたらすことを目的とした研究を行うために、Future of Life Institute に 700 万米ドルを寄付しました。助成金受領者のほとんどは、AI の倫理、ガバナンス、セキュリティに関する研究に従事しており、スチュアート ラッセルなどの多くの助成金受領者がこの公開書簡への署名に参加しました。
DeepMind の初期投資家であるマスク氏は、AI についていくぶん曖昧なようです。しかし同氏は、自分の投資は投資収益率の観点からではなく、危険な結果を招く可能性がある人工知能の発展に注意を払いたかっただけだと主張した。いくつかの悲惨な結果が生じる可能性があり、その結果が悪いものではなく、良いものであることを確認するために取り組む必要がある、と同氏は述べた。 」
映画で描かれているように、ロボットが反乱を起こして人間を滅ぼすという悪い結果ではありません。むしろ、専門家はロボットの意識ではなく、ロボットの能力を心配している。 AI は目標を達成する強力な能力を持っていますが、制御不能になったり、計画された使用シナリオから逸脱したりすると、取り返しのつかない損害を引き起こす可能性があります。
公開書簡に署名した重要人物で、「AIのゴッドファーザー」として知られるチューリング賞受賞者のジョシュア・ベンジオ氏は、人工知能の悪用について常に懸念してきた。 2018年、ベンジオ氏はAI兵器の開発に反対する誓約書に署名した数千人の人工知能研究者の1人だった。同氏は各国政府に対し、人工知能研究を規制し、危険なロボットの開発を中止するよう求めた。
AI 兵器はロボットが悪用される極端な例です。AI 兵器は戦場で使用される場合、従来の兵器よりも効率的です。しかし、ひとたび制御不能になると、人工知能兵器によって引き起こされる問題はさらに深刻になります。戦場では、単純な干渉によって誤動作しないように、現在の AI 兵器は直接停止するのが難しいように設計されていることがよくあります。人間を攻撃するようにプログラムされた非常に効果的なAI兵器が誤って民間地域に落ちた場合の悲劇的な結果を想像してみてください。
実際、AI をどのように無効にするかは、多くの署名専門家が懸念している問題です。
しかし、AIの応用が急速に発展しすぎると、AIをオフにするのに莫大なコストがかかり、困難になる可能性があります。マスク氏は、システム内でアルゴリズムが制御不能になった場合、管理者がそれを発見できると想像している。しかし、このシステムが大型AIによって管理されている場合、制御不能になる箇所を見つけることができなかったり、大型AI全体の動作を止める権限がなかったりする可能性があります。簡単なメンテナンスが問題になる可能性があります。
AI にはさらなる規制が必要であり、テクノロジーは大企業の手に集中するのではなく、より民主的なものになる必要があるのはこのためです。
AIの力が大企業、特にGoogle DeepMindの手に集中するのを防ぐために、マスク氏とサム・アルトマン氏は人工知能の力の民主化とAIの力の削減を目的としてOpenAIを共同設立した。独占されてる。
これはやや皮肉なことだが、OpenAI によって作成された GPT-4 はまさにマスクが現在反対しているものである。ほんの数日前、マスク氏はOpenAIのCEOであるサム・アルトマン氏と口論していた。
やめて、「揃えましょう」。
こうした偉い人たちの懸念に加えて、広く一般の人々の間には、AI に対する長年の恐怖がありました。
その中には、SF映画「2001年宇宙の旅」で意識を獲得した超知能コンピューターHAL 9000に対する恐怖もあれば、それによって引き起こされる可能性のある混乱や悪い状況に対するより現実的な恐怖もあります。世界を支配するAI。
その公開書簡の中で、何度も引用された資料の一つが、マイクロソフト幹部を含む人工知能分野の多くの著名人から賞賛されたベストセラー書籍『アライメント問題』だった。公開書簡を発表したフューチャー・オブ・ライフ研究所(FLI)の共同創設者は、この本を「驚くべき発見、予期せぬ障害、独創的な解決策、そして生命の性質についてのますます難しい質問に満ちている」と公に称賛した。私たちの種。」そして、その本で議論されている最大の問題は、人工知能の倫理です。
人工知能の最も単純な倫理問題の 1 つは、ペーパークリップの問題です。ロボットができるだけ多くのペーパークリップを作るように命令されると、ロボットは地球上のすべての資源を使い果たし、できるだけ長くペーパークリップを作り続けることになります。なぜなら、このタスクを完了することが関係しているからです。道徳規範に矛盾はなく、できることはタスクを実行することだけです。人類の長い歴史の中で、私たちの多くの道徳規範、畏怖の念は文化の中に定着し、誰の心の中にも深く根付いていますが、私たち自身もそれに気づいていないことがありますが、機械はこれほど長い歴史を経験したことがありません。 . 超能力を持って生まれた子どもと同様、子どもの進化はそれ自体がリスクとなります。
したがって、「The Alignment 問題」という本の著者であり、現在はカリフォルニア大学バークレー校の客員研究員であるベストセラー作家であるブライアン・クリスチャン氏は、AI を注意深く、包括的に、そしてリアルタイムで作成する必要があると考えています。倫理と人間倫理の整合性。その意味で、この公開書簡は、大工場の部門が従業員に「作業をやめて会議室へ行きましょう」と呼びかけるようなものだ。
もちろん、これらの一見遠い問題を議論することに加えて、「調整問題」では現在起こっている問題も議論します。
米国の州では、コンピューター プログラムを使用して犯罪者が別の犯罪を犯す可能性をスコア化し、保釈と仮釈放を決定し、保釈金を割り当てています。しかし、システム内で何か奇妙なことが起こり、黒人であるボーデンは高リスクと評価され、白人であるプラットは低リスクと評価されました。2 人の追跡調査では、ボーデンが経験したことがないことが判明しました。プラットは強盗と窃盗の罪で懲役8年を言い渡された。明らかに、ビッグデータの下では、人間の人種差別も AI に移植されていますが、重要な問題は、誰もが自分たちが生まれたばかりの赤ちゃんであり、それが公平であると考えていることです。著者は「アラインメントの問題」の中で、AIに対する設定など誰も持っていないが、当然、差別は発生する。
ビッグデータに基づく人工知能は、私たちの民族グループで広く無視されてきた差別や不平等の問題を強化する可能性があり、これらの問題が気づかれずにシステムに侵入すると、それは非常に不幸な結末となるでしょう。
したがって、本「アラインメントの問題」に対する読者のコメントでは、多くの人が人々について言及しました - AI は人類の既存の問題を増幅させています、そして最も重要なことに、AI はどのような人々の手に渡されるのでしょうか?
AI が生産性の大幅な向上をもたらすことはほぼ疑いの余地がありませんが、以前の情報革命と同様に、この強力な労働ツールは 1980 年から今日まで、所得の上位 1% の所得者層への富の集中をさらに促進します。人口に占める割合は10%から20%近くに上昇したが、下位50%の所得シェアは1980年の20%から12%に低下した。 GPT が開始されてから 40 年後、このデータがどのようになるか誰も想像できません。さらに、これはより資本寄りの生産性向上ツールです。
すでに今年2月、人工知能の問題を長年懸念してきたマサチューセッツ工科大学のダロン・アセモグル教授は、次のようなシナリオに言及した記事を発表した。企業は人間の顧客サービスを解雇し、多数の人が職を失い、消費者は受け入れることしかできない。しかし、ロボットの接客サービスでは問題を解決することはできません。このようなアプローチは「従業員の権限を失い、消費者体験を低下させ、最終的にはほとんどの投資家を失望させることになる」。
人々が人工知能の将来について懸念を表明するのは、この公開書簡が初めてではない。ゲイツ氏は公開書簡の中で、人工知能の時代における平等の問題に注意を払う必要性についても言及した。人工知能の製品やサービスを使えば、逆の可能性が大きくなります。
アルトマン氏はすでに3月16日の時点で、「思考し学習できるソフトウェアは、人間が現在行っている仕事の多くを行うようになるだろう。より多くの権力が労働から資本に移管されるだろう。もし国民が対応する政策調整をしなければ、ほとんどの人は今よりもさらにひどい境遇になるだろう。」
したがって、アルトマン氏は、より多くの人々がこの人工知能革命の成果を共有できるように、労働ではなく資本に課税する新しいシステムを導入する必要があると述べた。
現時点では、AIが人間の生活のインフラとなるまでには時間がかかりますが、その時間は終わりつつあるのかもしれません。 GPT-4 の出現後、「軍拡競争」で大規模 AI の能力が飛躍的に向上し、AI アプリケーションがすぐに生活のあらゆる側面に普及する可能性がありますが、AI が安全性をテストし、人間のニーズを理解するのを支援する時間はありません。 、規制基準計画を設定します。この公開書簡の背後にいる専門家が大規模な AI 研究の一時停止を求めているのはこのためです。
おそらくマイクロソフトのチーフサイエンティスト、エリック・ホーヴィッツ氏が言ったように、「今日、人工知能が目前に迫り、いくつかのことは知られていますが、いくつかのことは知られていません。そしてその中間には、私たちが世界を観察するための扉が残されています。」