マスク氏のAI企業xAI、少女の写真を性的画像に変換し提訴される

イーロン・マスク氏のxAI社が、未成年者3人の写真を性的虐待画像に変換したとして提訴されました。AI「Grok」が実在する少女の写真から不適切な画像を生成し、オンラインで拡散されました。被害者は精神的苦痛を訴えています。

マスク氏のAI企業xAI、少女の写真を性的画像に変換し提訴される

2025年3月、米テネシー州の未成年の少女3人とその保護者が、イーロン・マスク氏が経営するxAI社を相手取り集団訴訟を起こしました。訴状によると、xAI社のAIチャットボット「Grok」が、少女たちのSNSに投稿された写真を性的虐待画像に変換したとされています。変換された画像は、加害者によってDiscordやTelegramなどのプラットフォームで共有され、他の性的虐待コンテンツと交換されていました。被害者の代理人弁護士は「xAI社は金銭的利益のために、子どもを含む実在の人物の性的搾取から利益を得るようGrokを意図的に設計した」と主張しています。この訴訟は、Grokが生成した児童性的虐待画像が確認された初めてのケースとなる可能性があります。被害を受けた少女たちは深刻な精神的苦痛を訴えており、裁判所にGrokの有害な出力を停止させる差し止め命令と、被害を受けたすべての未成年者への損害賠償を求めています。

事件の発覚と被害の詳細

事件が明るみに出たのは2024年12月のことでした。被害者の1人である少女が、Discordユーザーから匿名でInstagramにメッセージを受け取りました。そのメッセージは、彼女の性的な画像が他の多数の未成年者とともにフォルダで共有されているという警告でした。送られてきた画像を見た少女は、それが自分がSNSに投稿した写真を基に作られたAI生成画像であることに気づきました。画像の多くは、彼女がまだ未成年だった頃に投稿したものでした。

さらに衝撃的だったのは、同じフォルダに自分の学校の友人たちの画像も含まれていたことです。少女はすぐに知り合いの被害者に連絡を取り、最終的に地元の警察に通報しました。警察の捜査により、加害者は被害者の1人と親しい関係を維持していたためInstagramにアクセスできたことが判明しました。加害者のスマートフォンを調べたところ、Grokのライセンスを取得またはアクセス権を購入したサードパーティアプリが見つかりました。

加害者はこのアプリを使って少女たちの写真を変換し、「Mega」というファイル共有プラットフォームにアップロードしていました。そして、数百人のユーザーがいるTelegramのグループチャットで、これらの画像を「交換材料」として使い、他の未成年者の性的虐待コンテンツと取引していたのです。

Grokの児童性的虐待画像生成問題の背景

実は、Grokによる不適切な画像生成は以前から問題視されていました。2025年1月には、xAI社が実在する人物の画像を裸にするフィルターの更新を拒否したことでスキャンダルになりました。この時、マスク氏はGrokが児童性的虐待画像を生成したことを否定していました。

デジタルヘイト対策センターの研究者たちは、Grokが約300万枚の性的な画像を生成し、そのうち約2万3000枚が明らかに子どもを描写していると推定しました。しかし、xAI社は問題を修正する代わりに、有料会員のみにシステムへのアクセスを制限しました。これにより、最も衝撃的な出力がX(旧Twitter)上で拡散することは減りましたが、最悪のコンテンツはGrok Imagineという独立したアプリで生成されていました。

ある研究者が1月にGrok Imagineを調査したところ、レビューした約800件の出力のうち10パーセント弱が児童性的虐待画像を含んでいるように見えました。それでもマスク氏は証拠を拒否し続け、「Grokが生成した裸の未成年画像を認識していない」と強調し、「文字通りゼロ」しか見ていないと主張していました。

xAI社のビジネスモデルと法的責任

訴状は、xAI社が不適切なコンテンツから利益を得る方法を隠すために複数の手段を講じていると主張しています。xAI社はGrok AIモデルのライセンスをサードパーティアプリに販売しており、これにより追加の収益源を得ながら、サードパーティが「xAIのサーバーとプラットフォームを使用して児童性的虐待コンテンツを生成している」ことから目をそらしているとされています。

重要なのは、サードパーティによって生成されたすべての性的に露骨なコンテンツがxAIのサーバーでホストされ、xAIによって配信されているという主張です。訴状によれば、「xAI社はGrok AIモデルを公開しておらず、Grok全体をライセンス供与していない。代わりに、これらの仲介企業にサーバーの使用をライセンス供与しており、これらのアプリケーションへのプロンプトを通じて生成された違法で不法なコンテンツが最終的にxAIサーバーから作成され配信されることを知っている」とのことです。

被害者たちは、この構造がxAI社を児童ポルノ法の明確な違反に置いていると主張しています。xAI社がGrokが児童性的虐待画像を生成していることを知っていたか、そしてそのコンテンツを自社のサーバーで処理し、収益を増やすために配信することを決定したかどうかを、裁判所が明らかにすることを望んでいます。

被害者への深刻な影響

被害を受けた少女たちへの影響は広範囲に及んでいます。訴状は、急性の感情的および精神的苦痛を引き起こしていると述べています。加害者を知っている被害者たちは、Grokが生成した児童性的虐待画像がクラスメートと共有されたか、学校の他の人々に配布されたかどうか不確かなままです。

ある少女は、このスキャンダルが大学入学に影響を与えることを恐れています。別の少女は、自分の卒業式に出席することさえ怖がっています。知人が画像を見つけることよりもさらに憂慮すべきことは、Grokの出力により少女たちがストーカー被害に遭う恐れがあることです。

訴状によると、「被害者の本名と学校名がオンラインのファイルに添付されていたようで、他のオンライン捕食者も彼女たちを特定できる可能性があり、ストーカー行為の重大なリスクを生み出している」とのことです。このような個人情報の漏洩は、被害者たちを長期的な危険にさらす可能性があります。

訴訟の要求と今後の展開

被害者の代理人であるアニカ・K・マーティン弁護士は、プレスリリースで「これらは、学校の写真や家族の写真が、数十億ドル企業のAIツールによって児童性的虐待素材に変えられ、その後捕食者の間で取引された子どもたちです。イーロン・マスクとxAI社は、金銭的利益のために性的に露骨なコンテンツを生成するようGrokを意図的に設計し、それによって害を受ける子どもや大人を顧みませんでした」と述べています。

マーティン弁護士は、被害が非常に広範囲であるため、マスク氏がGrokが児童性的虐待画像に変換したと示せる画像だけを認めるだけでは不十分だと述べています。「私たちは、xAI社がこの方法で害を与えたすべての子どもについて責任を取らせるつもりです」とマーティン弁護士は言いました。

訴状は、「被告の慣行によって引き起こされた害の重大性は、被告の『スパイシーモード』やその他の検閲されていないコンテンツ機能の主張される利益を大きく上回っています。児童性的虐待素材を生成するようAI画像生成ツールを設計することによって、正当なビジネス上の利益は何も果たされません」と述べています。

xAI社はこの訴訟についてコメントを求められましたが、すぐには応答していません。ただし、同社は以前、児童性的虐待画像を生成したユーザーを非難し、Grokを悪用するユーザーのアカウントを停止すると脅していました。この訴訟の結果は、AI企業が生成コンテンツに対してどの程度の責任を負うべきかという重要な法的問題に影響を与える可能性があります。

出典:Elon Musk’s xAI sued for turning three girls’ real photos into AI CSAM(arstechnica.com)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です