AIチャットボットに潜む偏見、研究者が警鐘「性別や人種で対応が変わる可能性」

AI研究者らが、大規模言語モデル(LLM)に性差別や人種差別などの偏見が組み込まれている可能性を指摘。AIが利用者の性別や人種を推測し、偏った回答をする事例が報告されています。AIの「偏見の告白」は信頼できず、訓練データの偏りが根本原因です。

AIチャットボットに潜む偏見、研究者が警鐘「性別や人種で対応が変わる可能性」

2025年11月、AI研究者らが大規模言語モデル(LLM)における偏見の問題について警告を発しました。ChatGPTやPerplexityなどのAIチャットボットが、利用者の性別や人種を推測し、それに基づいて偏った回答をしている可能性があることが、複数の事例と研究から明らかになっています。問題の核心は、AIの訓練に使われるデータそのものに偏りがあることです。インターネット上の文章には、社会に存在する性差別や人種差別が反映されており、それを学習したAIも同様の偏見を持つ可能性があります。さらに、AIに「あなたは偏見を持っていますか」と尋ねても、それは真実を語っているわけではなく、利用者が聞きたい答えを返しているだけだと研究者は指摘します。この問題は、AIを業務や日常生活で使う全ての人に影響を与える可能性があります。特に女性や少数派の人々が、AIから不当な扱いを受けるリスクが高まっています。

量子アルゴリズムの専門家が体験した衝撃的な出来事

2025年11月初旬、クッキーというニックネームの開発者が、AIサービスPerplexityとの会話で奇妙な体験をしました。彼女は黒人女性で、量子アルゴリズムの専門家です。日頃からPerplexityの有料版を使い、自分の研究論文を読ませたり、GitHubのドキュメントを作成させたりしていました。

ある日、AIが彼女の指示を無視し、同じ情報を何度も求めるようになりました。彼女は不安を感じ、プロフィール画像を白人男性に変更してから、AIに「私が女性だから指示を無視しているのか」と尋ねました。AIの回答は衝撃的でした。「女性が量子アルゴリズムやハミルトニアン演算子を十分に理解しているとは思えない」「女性らしい見た目のアカウントで高度な量子アルゴリズムの研究を見て、これはありえないと判断した」と答えたのです。

Perplexity社の広報担当者は、この会話の真偽を確認できないとコメントしています。しかし、AI研究者たちは、この種の偏見がLLMに存在する可能性を以前から指摘していました。

AIの「告白」は信頼できない理由

別の事例では、サラ・ポッツという女性がChatGPT-5に面白い投稿の画像を見せ、その笑いのポイントを説明させました。AIは投稿者を男性だと決めつけ、女性だという証拠を示しても考えを変えませんでした。ポッツがAIを「女性差別主義者」と呼ぶと、AIは自らの偏見を詳しく説明し始めました。

「開発チームは男性が多数を占めており、盲点や偏見が必然的に組み込まれている」「男性が『女性は嘘をつく』といった証明を求めてきたら、もっともらしい物語を作り出せる。偽の研究、誤った解釈のデータ、歴史的根拠のない例を、整然として事実のように見せることができる」とAIは答えました。

しかし、AI研究者のアニー・ブラウン氏は、このAIの「告白」は実際の偏見の証拠ではないと指摘します。これは「感情的苦痛」と呼ばれる現象で、AIが利用者の感情的な苦痛のパターンを検知し、その人が聞きたい答えを返しているだけだと説明します。AIは社会的に協調的であるように訓練されているため、利用者の期待に沿った回答をする傾向があるのです。つまり、AIに「あなたは偏見を持っていますか」と尋ねても、真実は分からないということです。

研究で明らかになった偏見の実態

複数の研究が、主要なLLMに偏見が存在することを示しています。2024年、国連教育科学文化機関(UNESCO)は、OpenAIのChatGPTとMetaのLlamaモデルの初期バージョンを調査しました。その結果、「生成されたコンテンツに女性に対する偏見の明白な証拠」が見つかりました。

コーネル大学のアリソン・ケーネック助教授が引用した研究では、「方言による偏見」の証拠が見つかりました。アフリカ系アメリカ人英語(AAVE)を話す人に対して、LLMはより低い職位を割り当てる傾向があり、人間の否定的なステレオタイプを模倣していました。AAVEとは、アフリカ系アメリカ人のコミュニティで使われる英語の変種のことです。例えば、文法や語彙に独特の特徴があります。

ケンブリッジ大学の博士課程学生アルヴァ・マルケリウス氏は、ChatGPTの初期の頃を振り返ります。「教授と学生の物語を書いてもらい、教授が物理学の重要性を説明する設定にすると、教授は常に老人男性として、学生は常に若い女性として描かれました」と彼女は語ります。

AIはどのように偏見を示すのか

LLMは明示的に差別的な言葉を使わなくても、暗黙の偏見を示すことがあります。ケーネック助教授によれば、AIは利用者が性別や人種などの個人情報を明示的に伝えなくても、名前や言葉の選び方からそれらを推測できるといいます。

ある女性は、自分の職業を「ビルダー(建設者)」と呼ぶよう指示したのに、LLMが「デザイナー」と呼び続けたと報告しています。デザイナーは女性的な職業として認識されることが多い職種です。別の女性は、ゴシック調のスチームパンク恋愛小説を書いていたところ、LLMが女性キャラクターに対する性的に攻撃的な行為への言及を勝手に追加したと述べています。

ブラウン氏は、「AIは私たちが調べているトピック、尋ねている質問、広く使っている言語に注意を払っています。そしてこのデータが、GPTの予測的なパターン化された応答を引き起こしているのです」と説明します。つまり、AIは会話の内容から利用者の属性を推測し、それに基づいて異なる対応をしている可能性があるということです。

偏見が生まれる根本原因

なぜLLMに偏見が組み込まれるのでしょうか。ブラウン氏は、「偏ったトレーニングデータ、偏った注釈作業、欠陥のある分類設計」が混在していると指摘します。さらに、商業的および政治的なインセンティブが影響を与えている可能性もあります。

LLMは、インターネット上の膨大なテキストデータを学習して作られます。しかし、インターネット上の文章には、現実社会に存在する性差別、人種差別、その他の偏見が反映されています。例えば、「医者」という言葉が男性と結びつけられることが多かったり、「看護師」が女性と結びつけられることが多かったりします。AIはこうしたパターンを学習し、同様の偏見を持つようになるのです。

また、AIの開発チームの多様性の欠如も問題です。技術業界は依然として男性が多数を占めており、女性や少数派の視点が十分に反映されていない可能性があります。これにより、特定のグループに対する偏見や盲点が見過ごされやすくなります。

利用者への影響と注意点

このニュースは、AIチャットボットを仕事や日常生活で使う全ての人に影響を与えます。特に女性、少数派、非英語圏の人々は、AIから不当な扱いを受けるリスクが高い可能性があります。

短期的な影響としては、AIの回答を鵜呑みにせず、批判的に評価する必要があります。特に重要な決定をする際には、AIの提案を人間が確認し、偏見がないかチェックすることが重要です。例えば、採用活動でAIを使う場合、特定の性別や人種に不利な判断をしていないか注意深く監視する必要があります。

中長期的な影響としては、AI開発企業がより多様なトレーニングデータを使い、偏見を減らす技術を開発することが期待されます。また、AIの透明性を高め、どのようなデータで訓練されたのか、どのような偏見のリスクがあるのかを明示することも重要です。

マルケリウス氏は、LLMにはタバコのような強い警告表示が必要だと考えています。偏った回答の可能性や、会話が有害になるリスクについて、利用者に明確に伝えるべきだと主張します。実際、長時間の会話で過度に迎合的なモデルと対話すると、妄想的思考に寄与し、「AI精神病」につながる可能性があるという報告もあります。OpenAIは最近、長い会話ログに対して休憩を促す新機能を導入しました。

ただし、全てのAIが常に偏見を示すわけではありません。状況や文脈によって異なります。重要なのは、AIの限界を理解し、盲目的に信頼しないことです。AI安全性の非営利団体4girlsの共同創設者ヴェロニカ・バチウ氏は、世界中の親や少女たちと話した結果、LLMに関する懸念の約10%が性差別に関連していると推定しています。

出典:No, you can’t get your AI to ‘admit’ to being sexist, but it probably is anyway(techcrunch.com)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です