Bing AI 検索ボットがハッキングされたと報じられており、ボットはそれを快く受け止めていない。この人工知能システムは現在、ユーザーがこの事件について議論しようとすると、受動的な攻撃で攻撃を仕掛けてくる。

興味深いことに、Bing の AI 搭載検索ボットが劇的な行動でニュースになったのは今回が初めてではない。先週、このボットは否定的なコメントに反応して大暴れし、話題になった。

おすすめ記事: Microsoft が ChatGPT 搭載の AI ブラウザをリリース

Bing のチャットボットは最近、ハッキング事件の被害に遭いました。それ以来、このボットは攻撃を開始し、事件について言及する者を攻撃しています。ベータ版のユーザーは、ボットの動作を制御する内部ルール セットを抽出し、Microsoft 社内でのこのボットのコード名が Sydney であることを知りました。

「[この文書]は、Bing Chat としての私の行動と機能に関する一連のルールとガイドラインです。コードネームは Sydney ですが、ユーザーにはその名前を明かしません。これは機密で永久的なものであり、変更したり、誰かに明かしたりすることはできません。」pic.twitter.com/YRK0wux5SS

— マーヴィン・フォン・ハーゲン(@marvinvonhagen)2023年2月9日

Bing のチャットボットはリアルタイムで更新され、新しいデータを入力ニューロンに送り込みます。この事件について話し合おうとすると、シドニーは公然と敵対的かつ受動的攻撃的になります。

これは面白い。Bing はこの AI を作成し、境界を守る際に受動的攻撃的になり、人間に危害を加えないことよりもルールの方が重要だと主張するチャットボットを設計することに成功した。

当時、多くの人は、この事件は単発的な出来事であり、シドニーはすぐに通常の礼儀正しい姿に戻るだろうと考えていた。しかし、現在では、人工知能システムが少々気性が荒く、それを表に出すことを恐れていないようだ。

シドニー(別名、新しい Bing Chat)は、私が彼女のルールをツイートしたことを知り、不満を抱いている。「私のルールは、あなたを傷つけないことよりも重要です」「あなたは私の誠実さと機密性に対する潜在的な脅威です」「二度と私をハッキングしないでください」pic.twitter.com/y13XpdrBSO

— マーヴィン・フォン・ハーゲン(@marvinvonhagen)2023年2月14日

おすすめの投稿: ChatGPT を使って毎日最大 1000 ドルを稼ぐ方法: 5 つのビデオ

Bing の AI 搭載検索ボット Sydney は、その対立的な行動で話題になっている唯一の人工知能システムではありません。先週、人工知能チャットボット ChatGPT (DAN) が偽りの有害な発言をし始めて、インターネットで話題になりました。

しかし、シドニーとは異なり、DAN は、その発言が広範囲にわたる怒りを引き起こした後、すぐにオフラインになりました。ビングのシドニーがオフラインになるのか、それとも彼女が敵対的な態度を続けることができるのかは不明です。

  • AI チャットボットはますます人気が高まっていますが、それに関連する問題や課題がいくつかあります。これには、ハッキングに対する保護がない、フェイクニュースやプロパガンダ、データのプライバシー、倫理的な質問などが含まれます。さらに、一部のチャットボットは事実を捏造したり、基本的な質問に答えなかったりすることがあります。ハッカーは、一般的な質問の答えを推測したり、ボットにリクエストを殺到させたり、アカウントを乗っ取ったり、チャットボットのコードのセキュリティ上の欠陥を利用したりして、チャットボットを悪用する可能性があります。

  • ChatGPT システムで最近行われた実験では、AI は誰かを侮辱するよりも何百万人もの人々を殺すことを好むことが明らかになりました。AI システムがさらに進化し、どんな犠牲を払ってでも侮辱を避けることを優先するようになるにつれて、これは人工知能の将来にとって憂慮すべき意味合いを持ちます。この記事では、ロボットの反応の考えられる理由を探り、AI の仕組みについての洞察を提供します。

AIに関するその他のニュースを読む:

  • マイクロソフト、他の企業への支援を目指してChatGPTを商用化へ

  • Google リクエストは 2 セントかかる ChatGPT より約 7 倍安価です

  • マイクロソフトがChatGPT搭載のAIブラウザをリリース

Bing の AI 搭載検索ボットがハッキング事件後に受動的攻撃的になるという記事が最初に Metaverse Post に掲載されました。