Appleなどの大手IT企業は外部AIチャットボットの使用を制限し、データセキュリティを優先

ウォール・ストリート・ジャーナルが入手した内部文書によると、iPhone開発で知られるテクノロジー大手のアップルが、マイクロソフトが支援するChatGPTを含む外部AIチャットボットの使用を制限していることが明らかになった。同社は、従業員によるデータ漏洩や機密情報の漏洩の可能性を懸念している。この禁止措置は、マイクロソフトが所有し、ソフトウェアコードの作成を自動化するGitHubのAIツールCopilotにも及ぶ。

これらの AI ツールの使用を制限する決定は、Apple が独自の #AItechnology を積極的に開発している中で下された。同社は機密データを保護し、独自の AI システムに対する制御を維持することを目指している。Apple が最近 5 月 18 日に iOS 向けの ChatGPT アプリをリリースし、米国のユーザーに提供し、近い将来に他の国にも拡大する予定であることは注目に値する。このアプリの Android 版も期待されている。

こうした制限を設けているのはアップルだけではない。別の大手テクノロジー企業であるサムスンは、5月2日に従業員に通知書を発行し、ChatGPTのような生成AIツールの使用を禁止した。この方針は、サムスンの従業員による機密コードのアップロードに関わる事件がきっかけとなった。同社は従業員に対し、会社の機密情報をアップロードしないよう警告し、この方針に違反した場合は解雇を含む懲戒処分を受ける可能性があると述べた。

JPモルガン、バンク・オブ・アメリカ、ゴールドマン・サックス、シティグループなど、他の有名企業も、#ChatGPT. のような生成AIツールの社内使用を禁止している。興味深いことに、これらの企業の多くは同時に独自のAIアプリケーションの開発に取り組んでいる。#Apple のCEO、ティム・クック氏は5月初め、同社がAI技術をすべての製品に統合する予定であると発表した。

全体的に、これらの制限は、外部の AI チャットボットに関連する潜在的なデータ セキュリティ リスクに対する大企業間の懸念の高まりを反映しています。これらの企業は、独自の AI システムを開発することで、機密情報をより適切に管理し、より高いレベルのセキュリティを維持することを目指しています。