コインテレグラフによると、ソーシャルメディア大手のMetaは、開発および展開中の人工知能ベンチャーの安全性を規制することに専念していたResponsible AI(RAI)部門を解散した。多くのRAIチームメンバーは同社のGenerative AI製品部門内の役割に移行し、一部はAIインフラストラクチャチームに加わった。2月に設立されたMetaのGenerative AIチームは、人間が作ったバージョンを模倣する言語と画像を生成する製品の開発に重点を置いている。
RAI部門の再編は、2月の決算発表でマーク・ザッカーバーグCEOが述べたように、メタの「効率化の年」が終わりに近づく中で行われた。この結果、同社では一連のレイオフ、チーム統合、再配置が行われた。特に規制当局や当局が新興技術の潜在的な危害に細心の注意を払うようになったため、AIの安全性確保は、この分野のトップ企業にとって優先事項となっている。7月には、アンスロピック、グーグル、マイクロソフト、OpenAIが、AIの進歩に合わせて安全基準を設定することに重点を置く業界団体を結成した。
RAIチームのメンバーが社内で再配分されたにもかかわらず、彼らは責任あるAIの開発と使用をサポートすることに引き続き尽力しており、この分野への継続的な投資を強調しています。Metaは最近、AIを活用した2つの生成モデルを導入しました。1つ目はEmu Videoで、Metaの以前のEmuモデルを活用し、テキストと画像の入力に基づいてビデオクリップを生成できます。2つ目はEmu Editで、画像操作に重点を置いており、画像編集の精度が向上します。CointelegraphはMetaに詳細を問い合わせましたが、記事の公開時点ではフィードバックを受け取っていません。
