OpenAIの内部関係者が、サム・アルトマンCEOへの不信感を表明。The New Yorkerが100人以上への取材で、CEOの矛盾した言動を報道。AI安全性への懸念が高まる中、同社は人類への貢献を謳う政策提言を発表。
OpenAI内部から不信の声、サム・アルトマンCEOの言動に疑問符
2026年4月、OpenAIが人工知能(AI)を人類の利益のために活用する政策提言を発表した同じ日、The New Yorker誌は同社のサム・アルトマンCEOに対する大規模な調査報道を公開しました。この報道は、100人以上の関係者への取材と12回以上のアルトマン氏本人へのインタビュー、そして内部メモの分析に基づいています。調査の結果、OpenAI内部の複数の幹部が、アルトマン氏の言動に一貫性がなく、信頼できないと感じていることが明らかになりました。特に、同社の元最高科学責任者イリヤ・サツケヴァー氏と元研究責任者ダリオ・アモデイ氏は、アルトマン氏が「欺瞞と操作を積み重ねている」と内部メッセージで指摘していました。アモデイ氏は「OpenAIの問題は、サム自身だ」と結論づけています。この報道は、AIの安全性と企業統治に対する公衆の懸念が高まる中で発表され、OpenAIのリーダーシップに対する信頼性の問題を浮き彫りにしています。
The New Yorkerが明らかにした内部の不信感
The New Yorker誌の調査報道は、アルトマン氏の経営手法について詳細な証言を集めました。複数の関係者によると、アルトマン氏は「人を喜ばせたいという強い欲求」と「誰かを欺くことの結果に対するほとんど社会病質的な無関心」という、通常は同じ人物に見られない二つの特性を持っているといいます。
報道では「決定的な証拠」は見つからなかったものの、サツケヴァー氏とアモデイ氏が残したメッセージには、アルトマン氏による欺瞞や操作の事例が蓄積されていました。個々の出来事は些細に見えても、全体として見ると、アルトマン氏が高度なAIにとって安全な環境を育んでいないという結論に両氏は至りました。
アルトマン氏本人は、報道内容の一部を否定し、特定の出来事については記憶にないと主張しました。また、自身の発言が変化したことについては、AI業界の状況が変化したためだと説明し、過去に対立を避ける傾向があったことを認めています。
背景と経緯
OpenAIは当初、AI技術の危険性を警告し、人類を守る立場を取っていました。しかし最近、アルトマン氏は「楽観的な姿勢」へと方向転換しています。この変化は、政府機関がOpenAIのモデルへの依存を深め、同社の技術が安全でないとする訴訟が増える中で起きています。
ハーバード大学とMITの最近の世論調査では、アメリカ人の最大の懸念は、AIの電力消費が生活の質を損なうことだと判明しました。データセンターの建設を一時停止する動きも各地で広がっており、AI開発のペースを遅らせる可能性があります。
中間選挙を控え、民主党と共和党の両方で、この問題が投票行動に影響を与える可能性があります。共和党が議会の支配を失えば、より厳格なAI安全法が制定される可能性があり、The New Yorkerによれば、アルトマン氏は私的にこうした規制に反対するロビー活動を行っています。
OpenAIが発表した政策提言の内容
不信感の報道と同日に、OpenAIは「超知能時代の産業政策」と題した政策提言を発表しました。この提言は、AIが人類に利益をもたらすための「初期的なアイデア」と位置づけられています。
具体的な提案には、週32時間・週4日勤務制の試験導入が含まれます。これは給与を減らさず、生産性とサービス水準を維持しながら実施するものです。また、自動化された労働に課税し、その収入を社会保障、医療扶助、食料支援、住宅支援などの基幹プログラムに充てることも提案されています。
さらに注目すべきは「公共富裕基金」の創設です。これは、金融市場に投資していない市民を含むすべての国民に、AI主導の経済成長の恩恵を受ける権利を与えるものです。基金からの収益は市民に直接分配され、初期の資産や資本へのアクセスに関係なく、より多くの人々がAI主導の成長の利益を享受できるようになります。
OpenAIはまた、AIがより多くの業務を担うようになるにつれ、人間は医療、高齢者介護、保育、地域サービスなどのケア中心の仕事に移行すべきだと提案しています。歴史的に女性の仕事として過小評価されてきたこれらの役割を社会が「経済的に価値ある仕事」として認識するための取り組みも推奨されています。
政策提言の真意をめぐる疑問
OpenAIのグローバル業務担当最高責任者クリス・レヘイン氏は、ウォール・ストリート・ジャーナル紙に対し、同社がAIに対する否定的な世論を緊急に懸念していることを認めました。政策提言の発表と同時に、OpenAIは関連研究に対して最大10万ドルの助成金と最大100万ドル相当のAPI利用権を提供するフェローシッププログラムも発表しています。
しかし、The New Yorkerの報道を踏まえると、これらの提言が児童安全、雇用喪失、エネルギー消費の多いデータセンターに対する国民の懸念から目をそらすために展開されたのではないかという疑問が生じます。アルトマン氏と同社への信頼がなければ、OpenAIが単に自社の優位性を固めるために何でも言っているだけではないかと国民を納得させるのは、はるかに困難になるでしょう。
できること・できないこと
OpenAIの政策提言が実現すれば、労働時間の短縮と収入の維持を両立させることが可能になります。例えば、週4日勤務で同じ給与を得ながら、余った時間を家族との時間や自己啓発に使うことができます。また、公共富裕基金を通じて、株式投資をしていない一般市民もAI経済の成長から直接的な利益を得られるようになります。
一方で、これらの提言はあくまで「初期的なアイデア」であり、実現には多くの課題があります。企業が自動化による利益を税金として支払うことに同意するか、政府が効果的な富の再分配システムを構築できるかは不透明です。また、OpenAI自身が提言する安全システムが実際に機能するかどうかも、同社のリーダーシップへの信頼性の問題と切り離せません。
OpenAIは「すべての答え、あるいはほとんどの答えを持っているわけではない」と認めており、これらの政策が実際に人類の利益になるかは、今後の実装と検証にかかっています。
私たちへの影響
このニュースは、AI技術を日常的に使用する人々、AI業界で働く人々、そしてAI規制に関心を持つすべての市民に影響を与えます。OpenAIは世界で最も影響力のあるAI企業の一つであり、そのリーダーシップの信頼性は、AI技術の発展方向を左右する可能性があります。
短期的な影響については、OpenAIの製品やサービスを利用する際に、同社の安全性への取り組みをより慎重に評価する必要が生じるでしょう。また、政策立案者は、OpenAIの提言を額面通りに受け取るのではなく、より厳格な監視と独立した検証を求める可能性があります。
中長期的な影響としては、AI業界全体のガバナンス構造が見直される可能性があります。一人のCEOに過度な権力が集中することのリスクが認識され、より透明性の高い意思決定プロセスや、独立した監視機関の設置が求められるかもしれません。また、AI技術の恩恵を社会全体で共有するための具体的な仕組みづくりが、政府主導で進む可能性もあります。
ただし、The New Yorkerの報道は一つの視点であり、アルトマン氏や OpenAIの貢献を全面的に否定するものではありません。AI技術の発展と安全性のバランスをどう取るかは、企業、政府、市民社会が協力して取り組むべき課題です。
