OpenAIが2025年上半期に児童搾取に関する報告を前年同期比80倍に増加させました。これは検出システムの強化と利用者増加が主な要因です。AI技術の普及に伴う児童保護の課題が浮き彫りになっています。
OpenAI、児童搾取報告が前年比80倍に急増―AI普及と安全対策の課題
OpenAIは2025年上半期に、児童搾取に関する報告を米国の児童保護機関NCMECに対して前年同期比80倍送信したことを明らかにしました。NCMECとは、National Center for Missing & Exploited Children(行方不明・搾取児童のための全米センター)の略称で、児童虐待や搾取に関する情報を集約し、法執行機関に通報する米国議会が認可した機関です。この報告数の急増は、OpenAIが2024年末に検出システムを強化したことと、ChatGPTの利用者が前年比4倍に増加したことが主な要因とされています。具体的には、2025年上半期に75,027件の報告を行い、これは2024年同期の947件から大幅に増加しました。この動きは、生成AI技術の普及に伴う児童保護の課題を浮き彫りにしています。AI企業は法律により、児童搾取の疑いがある事例を発見した場合、NCMECに報告する義務があります。
報告数急増の背景と詳細
OpenAIが送信した報告数は、2024年上半期の947件から2025年上半期には75,027件へと約80倍に増加しました。報告の対象となったコンテンツ数も、3,252件から74,559件へと大幅に増えています。OpenAIの広報担当者ガビー・ライラ氏は、この増加について2つの主要な理由を挙げています。第一に、同社は2024年末に検出・審査システムへの投資を行い、利用者の増加に対応できる体制を整えました。第二に、画像アップロード機能を持つ製品が増えたことと、製品全体の人気が高まったことが影響しています。2024年8月には、ChatGPTの週間アクティブユーザー数が前年比4倍になったと発表されていました。
報告数増加の意味と解釈
報告数の増加は、必ずしも悪質な行為そのものが増えたことを意味するわけではありません。多くの場合、プラットフォームの自動検出システムの改善や、報告基準の変更を反映しています。同じコンテンツが複数回報告されることもあれば、1つの報告に複数のコンテンツが含まれることもあります。OpenAIの場合、報告数とコンテンツ数がほぼ同数であることから、検出精度が向上していることが伺えます。企業は法律により、児童搾取の疑いがある事例を発見した場合、NCMECのサイバーチップラインに報告する義務があります。NCMECは報告を審査し、適切な法執行機関に転送して調査を依頼します。
生成AIと児童保護の全体的な傾向
OpenAIの報告数増加は、生成AI全体で見られる傾向と一致しています。NCMECの分析によると、生成AIに関連する報告は2023年から2024年にかけて1,325パーセント増加しました。これは約14倍の増加を意味します。この急増は、生成AI技術が広く普及し、より多くの人々が利用するようになったことを反映しています。GoogleなどのAI企業もNCMECへの報告統計を公開していますが、そのうちAI関連の報告が何パーセントを占めるかは明示していません。OpenAIの報告対象には、ChatGPTアプリでのファイルアップロードや生成リクエスト、API経由でのモデル利用が含まれます。ただし、2024年9月にリリースされた動画生成アプリSoraに関する報告は、今回の集計期間外のため含まれていません。
AI企業への監視強化と法的圧力
2024年は、AI企業が児童安全問題で厳しい監視を受けた年でした。夏には、44州の司法長官がOpenAI、Meta、Character.AI、Googleなどに共同書簡を送り、児童を搾取的なAI製品から保護するためにあらゆる権限を行使すると警告しました。OpenAIとCharacter.AIは、チャットボットが子どもの死に関与したと主張する家族から複数の訴訟を起こされています。秋には、米国上院司法委員会がAIチャットボットの害について公聴会を開催しました。また、米国連邦取引委員会は、AIコンパニオンボットに関する市場調査を開始し、企業が特に児童への悪影響をどのように軽減しているかについて質問を含めました。これらの動きは、AI技術の急速な普及に対して、規制当局や社会全体が児童保護の観点から懸念を強めていることを示しています。
OpenAIの安全対策の強化
OpenAIは最近、安全性に焦点を当てた新しいツールを展開しています。2024年9月には、ChatGPTに保護者向けコントロール機能を導入しました。この機能により、保護者と10代の子どもがアカウントをリンクでき、保護者は子どもの設定を変更できます。具体的には、音声モードやメモリー機能のオフ、画像生成機能の無効化、モデル学習からのオプトアウトなどが可能です。OpenAIは、10代の会話に自傷行為の兆候が見られた場合、保護者に通知できるとしています。生命に対する差し迫った脅威を検出し、保護者と連絡が取れない場合は、法執行機関に通知する可能性もあります。10月末には、カリフォルニア州司法省との交渉の結果、OpenAIは「AIおよびAGIの開発と展開に関連して、10代やその他の人々へのリスクを軽減する措置を継続する」ことに合意しました。11月には「10代の安全に関する青写真」を発表し、児童性的虐待や搾取資料を検出する能力を常に向上させ、確認されたCSAMを関連当局に報告していると述べました。
私たちへの影響と今後の展望
このニュースは、AI技術を利用するすべての人々、特に子どもを持つ保護者に重要な意味を持ちます。報告数の増加は、AI企業が児童保護により真剣に取り組んでいることを示す一方で、AI技術が悪用されるリスクも依然として存在することを示しています。短期的には、OpenAIのような大手AI企業が検出システムを強化し、保護者向けコントロール機能を提供することで、より安全な利用環境が整いつつあります。保護者は、子どもがAIツールを使用する際に、これらの機能を積極的に活用することが推奨されます。中長期的には、AI技術の進化に伴い、規制当局による監視がさらに強化される可能性があります。企業は児童保護の責任をより重く受け止め、技術的な対策だけでなく、透明性の高い報告体制を構築することが求められるでしょう。ただし、技術的な対策だけでは完全に問題を防ぐことはできません。保護者、教育者、そして社会全体が、子どもたちのAI利用について適切な指導と監督を行うことが不可欠です。
