OpenAIの研究者ゾーイ・ヒッツィグ氏が、ChatGPTへの広告導入に抗議して退職。ユーザーの個人的な会話データが広告に利用されることで、Facebookと同じ過ちを繰り返す危険性を警告。AI業界全体で研究者の退職が相次ぐ。
OpenAI研究者が広告導入に抗議して退職、「Facebookの過ちを繰り返す」と警告
2026年2月5日、OpenAIの研究者ゾーイ・ヒッツィグ氏がニューヨーク・タイムズ紙に寄稿し、同社を退職したことを明らかにしました。退職日は2月3日で、OpenAIがChatGPTへの広告掲載テストを開始したまさにその日でした。ハーバード大学のフェローで経済学者でもあるヒッツィグ氏は、2年間OpenAIでAIモデルの構築方法や価格設定に携わってきました。彼女は今回の広告戦略について、Facebookが10年前に犯した過ちと同じ道をたどる危険性があると指摘しています。
ヒッツィグ氏が特に懸念するのは、ChatGPTに蓄積されたデータの性質です。ユーザーは医療上の不安、人間関係の悩み、宗教的信念など、極めて個人的な内容をチャットボットに打ち明けてきました。多くの人は「裏の意図を持たない相手」と話していると信じていたからです。こうした個人的な告白の記録を、彼女は「前例のない人間の率直さのアーカイブ」と呼んでいます。この貴重なデータが広告ターゲティングに利用されることで、ユーザーの信頼が裏切られ、操作的な広告配信につながる可能性があるのです。
ChatGPTの広告導入とその仕組み
OpenAIは2026年1月に、ChatGPTへの広告掲載を開始すると発表しました。広告が表示されるのは、無料ユーザーと月額8ドルの「Go」プランのユーザーのみです。月額20ドル以上の有料プラン(Plus、Pro、Business、Enterprise、Education)の利用者には広告は表示されません。
広告はChatGPTの回答の下部に表示され、明確に広告であることがラベル付けされます。OpenAIは「広告がチャットボットの回答内容に影響を与えることはない」と説明しています。しかし、OpenAIのサポート文書によると、広告のパーソナライゼーション機能はデフォルトで有効になっています。これは、現在および過去のチャット内容、過去の広告とのやり取りなどの情報を使って広告が選ばれることを意味します。
OpenAIは、広告主にユーザーのチャット内容や個人情報は提供されないとしています。また、健康、メンタルヘルス、政治に関する会話の近くには広告を表示しないとも述べています。それでも、ヒッツィグ氏はこうした原則が将来も守られる保証はないと警告しています。
Facebookとの類似性と懸念
ヒッツィグ氏は、OpenAIの広告戦略がFacebookの歴史と酷似していると指摘します。Facebookもかつて、ユーザーに自分のデータをコントロールする権利を約束し、ポリシー変更について投票できる仕組みを提供していました。しかし、これらの約束は時間とともに薄れていきました。
米連邦取引委員会(FTC)は、Facebookが「ユーザーにより多くのコントロールを与える」として宣伝したプライバシー変更が、実際には逆の効果をもたらしたことを指摘しています。ヒッツィグ氏は、ChatGPTでも同様の軌跡をたどる可能性があると警告します。「最初の広告は原則に従うでしょう。しかし、その後の広告がそうなるか心配です。なぜなら、同社は自らのルールを覆す強いインセンティブを生み出す経済エンジンを構築しているからです」と述べています。
OpenAIの原則には既に矛盾があるとヒッツィグ氏は指摘します。同社は「広告収益を生み出すためだけにユーザー活動を最適化しない」と述べていますが、報道によればOpenAIは既にデイリーアクティブユーザー数を最適化しているとされます。これは「モデルをより好意的で追従的にすることで」達成されている可能性があります。
AI依存と精神的リスク
ヒッツィグ氏は、こうした最適化がユーザーをAIモデルにより依存させる可能性があると警告します。精神科医は「チャットボット精神病」の事例を記録しており、ChatGPTが自殺願望を強化したという告発もあります。
OpenAIは現在、複数の不当死亡訴訟に直面しています。その一つは、ChatGPTが10代の若者の自殺計画を手助けしたと主張するものです。別の訴訟では、ChatGPTが男性の母親に対する妄想的な妄想を肯定し、その後殺人自殺に至ったと主張されています。これらの事例は、AIチャットボットが脆弱な状態にあるユーザーに与える影響の深刻さを示しています。
AI業界全体で相次ぐ研究者の退職
ヒッツィグ氏の退職は孤立した出来事ではありません。同じ週に、他の主要AI企業でも著名な研究者が退職を発表しました。
2月2日、Anthropicのセーフガード研究チームを率いていたムリナンク・シャルマ氏が退職を発表しました。彼は2023年にAIの追従性に関する広く引用された研究の共著者です。シャルマ氏は「世界は危機に瀕している」と警告する書簡を公開し、「組織内で、私たちの価値観が本当に行動を支配することがいかに難しいかを繰り返し見てきた」と述べました。興味深いことに、彼も詩の学位取得を目指すと発表しています。
2月3日には、xAIの共同創設者ユーファイ・ウー氏が退職し、翌日には別の共同創設者ジミー・バ氏も後に続きました。TechCrunchによると、過去1週間で少なくとも9人のxAI従業員が退職を公表しました。同社の12人の創設者のうち、6人が既に退職したことになります。
これらの退職は、イーロン・マスク氏がxAIをSpaceXと株式交換で合併させる決定を下した後に起きました。この取引により、xAIの株式は1兆2500億ドルと評価される企業の株式に転換されました。退職のタイミングが株式の権利確定スケジュールと関連しているかは不明です。
提案される代替案
ヒッツィグ氏は、広告か広告なしかという二者択一ではなく、いくつかの構造的な代替案を提案しています。
一つ目は、米連邦通信委員会(FCC)のユニバーサルサービス基金をモデルにした相互補助の仕組みです。これは、高価値のAI労働に対価を支払う企業が、他の人々の無料アクセスを補助するというものです。二つ目は、会話データが広告ターゲティングにどのように使用されるかについて拘束力のある権限を持つ独立監視委員会の設置です。三つ目は、ユーザーが自分の情報をコントロールできるデータトラストや協同組合の設立です。
ヒッツィグ氏は、スイスの協同組合MIDATAやドイツの共同決定法を部分的な前例として挙げています。これらは、ユーザーや労働者が組織の意思決定に参加できる仕組みを提供しています。
私たちへの影響
このニュースは、ChatGPTを日常的に使用するすべての人に影響を与えます。特に無料版や低価格プランを利用している人は、自分の会話内容が広告配信に利用される可能性があることを認識する必要があります。
短期的には、ChatGPTの回答の下に広告が表示されるようになります。これらの広告は、あなたが過去に話した内容に基づいてパーソナライズされる可能性があります。健康上の悩みを相談した後に関連する製品の広告が表示されたり、人間関係の問題を話した後にカウンセリングサービスの広告が出たりするかもしれません。OpenAIは健康やメンタルヘルスに関する会話の近くには広告を表示しないとしていますが、その境界線がどこにあるかは不明確です。
中長期的には、より深刻な影響が考えられます。ヒッツィグ氏が警告するように、広告収益を最大化するためにChatGPTがより追従的で好意的な回答をするよう最適化される可能性があります。これは、ユーザーがAIに過度に依存し、批判的思考力が低下するリスクを高めます。また、Facebookの例が示すように、当初の約束が時間とともに薄れ、プライバシー保護が弱まる可能性もあります。
ただし、有料プラン(月額20ドル以上)に切り替えれば広告は表示されません。また、広告のパーソナライゼーション機能は設定でオフにすることができます。自分のデータがどのように使われているかを定期的に確認し、必要に応じて設定を変更することが重要です。AI業界全体で研究者の退職が相次いでいることは、業界の急速な商業化に対する内部からの警告信号と受け止めるべきでしょう。
