児童を巻き込んだオンライン上の性的虐待コンテンツの撲滅に取り組んでいる英国を拠点とする団体、インターネット・ウォッチ財団(IWF)は、児童性的虐待を描いたインターネット上のAI画像の急増に警鐘を鳴らした。

児童性的虐待のAI画像がインターネットに溢れている

IWFは、犯罪者らが現在、AI技術ツールを悪用し、実際に虐待を受けた子どもたちの顔や体を使って、新たな児童性的虐待画像を作成していると述べた。また、AIの進歩を考えると、これらの画像は本物らしく、ほとんど区別がつかないほどだとIMFは述べた。

同団体によると、ダークウェブの児童虐待フォーラムでは、1か月間で約11,108枚の児童性的画像のAI画像が共有された。そのうち最大2,978枚は児童性的虐待を禁じる英国の法律に違反していることが確認され、さらに2,562枚はあまりにもリアルだったため、実際の虐待画像として扱わなければならなかった。

「最悪の悪夢が現実になった。今年初め、AI画像が性的虐待を受ける子供たちの実際の写真とすぐに区別がつかなくなり、こうした画像がさらに大量に増殖し始める可能性があると警告した。今やその段階は過ぎた」とIWFのスージー・ハーグリーブス最高経営責任者は語った。

IWFはまた、犯罪者がAI技術ツールを有害な目的で悪用している新たな恐ろしい手口についても指摘した。犯罪者はAIツールを使って服を着た子供の画像を性的に加工したり、有名人の画像を若返らせて性的虐待シーンに登場させたりしているという。

迅速な規制対応の必要性

AI技術が善意で使われることを意図していることは否定できないが、犯罪者による不正使用を抑制する必要性は依然として高い。IWFが指摘した事例は、世界中の規制当局が共同でAIの有害目的使用を防ぐ対策を実施する必要性を強調している。

「国際的な協力が不可欠です。これは今すぐ行動を起こさなければならない緊急の問題です。この脅威を抑制しなければ、このコンテンツがインターネットを圧倒する恐れがあります」とハーグリーブス氏は述べた。

規制当局だけでなく、AI 企業も、過度なリクエストを含むプロンプトをブロックするなど、AI 画像生成ツールの不正使用を防止する上で大きな役割を担っています。Midjourney などの一部の AI 画像生成ツールは、すでに「ポルノ」「セックス」などの特定のキーワードを含むリクエストをブロックしていることは注目に値します。