OpenAIが11月22日、サンフランシスコのオフィスを一時封鎖。元活動家から従業員への危害予告があったため。AI開発への抗議活動が過激化する懸念が高まっています。
OpenAI、従業員への脅迫で本社オフィスを一時封鎖―AI反対活動家が関与か
2024年11月22日、AI開発企業のOpenAIは、サンフランシスコにある本社オフィスを一時的に封鎖しました。同社の従業員に対して物理的な危害を加えると予告した人物がいるという情報を受けたためです。この人物は、以前「Stop AI」というAI開発に反対する活動団体に所属していたとされています。OpenAIの社内コミュニケーションチームは、従業員向けのSlackで「この人物がOpenAI従業員に身体的危害を加えることに関心を示している」と警告しました。サンフランシスコ警察も午前11時前に通報を受け、対応に当たりました。近年、AI技術の急速な発展に対する懸念から、複数の抗議団体がOpenAIやAnthropicなどのAI企業のオフィス前でデモ活動を行っています。今回の事件は、こうした抗議活動が過激化する可能性を示すものとして、AI業界に衝撃を与えています。
事件の経緯と対応
11月22日の午前11時頃、サンフランシスコ警察は、OpenAIのオフィスがあるミッションベイ地区のテリー・フランソワ大通り550番地付近で、脅迫行為を行っている男性がいるという911通報を受けました。犯罪情報アプリ「Citizen」が記録した警察無線によると、この人物は武器を購入し、OpenAIの複数の拠点を標的にする意図があると疑われています。
OpenAIの社内では、グローバルセキュリティチームの幹部が従業員に対して状況を説明しました。「現時点では、差し迫った脅威の兆候はありませんが、状況は継続中であり、評価を続けながら慎重な予防措置を取っています」とのことです。従業員には、建物を出る際には社員証を外し、OpenAIのロゴが入った衣服の着用を避けるよう指示が出されました。これは、外部で従業員が特定されるリスクを減らすための措置です。
Stop AIとは何か
Stop AIとは、AI技術の無制限な開発が人類に害を及ぼす可能性があるとして、その開発の停止や規制を求める活動団体です。同様の団体には「No AGI」や「Pause AI」などがあります。AGIとは「Artificial General Intelligence(汎用人工知能)」のことで、人間と同等かそれ以上の知的能力を持つAIを指します。これらの団体は、AGIが実現すると人間の仕事が奪われたり、制御不能になって人類に危害を加えたりする可能性があると主張しています。
過去2年間、これらの団体はOpenAIやAnthropicなどのAI企業のサンフランシスコオフィス前で抗議デモを繰り返してきました。2024年2月には、抗議者たちがOpenAIのミッションベイオフィスの正面ドアに鎖をかけて封鎖し、逮捕される事件も起きています。また、11月上旬には、Stop AIの広報担当者を名乗る人物が、サンフランシスコで行われたイベント中にステージに飛び乗り、OpenAIのCEOサム・アルトマン氏に召喚状を手渡そうとする出来事もありました。
容疑者の主張と団体の反応
警察が脅迫の容疑者として特定した人物は、事件当日の朝、ソーシャルメディア上で「自分はもうStop AIのメンバーではない」と投稿していました。この人物は、昨年のPause AIの報道資料で組織者として紹介されており、「AI技術が科学的発見を行ったり、人間の仕事を奪ったりするようになれば、人生は生きる価値がないと感じる」と述べていました。また、「Pause AIはAI関係者や技術者の間では過激と見なされるかもしれないが、一般市民の間ではそうではない。AGI開発を完全に停止することも過激ではない」と主張していました。
事件後、Stop AIは声明を発表し、この個人の行動とされるものを否認しました。「Stop AIは非暴力に深く committed(専心)しています」と述べ、暴力的な行動とは一線を画す姿勢を示しました。この声明は後にX(旧Twitter)にも投稿されました。容疑者本人は、メディアからの取材要請に対して即座には応答していません。サンフランシスコ警察とOpenAIも、記事公開時点ではコメントを出していません。
AI開発をめぐる対立の背景
今回の事件の背景には、AI技術の急速な発展に対する社会的な不安があります。OpenAIが2022年11月に公開したChatGPTは、わずか数カ月で世界中に広まり、AI技術が日常生活に浸透する速度を劇的に加速させました。その後も、より高度な言語モデルや画像生成AI、動画生成AIなどが次々と登場し、AI技術の進化は加速し続けています。
一方で、こうした急速な発展に対して懸念を表明する声も高まっています。AI技術が人間の仕事を奪うのではないか、AIが人間の制御を超えて暴走するのではないか、AIによって生成された偽情報が社会を混乱させるのではないか、といった不安です。特に、人間と同等以上の知能を持つAGIの開発については、一部の研究者や活動家が「人類存亡の危機」とまで警告しています。
こうした懸念に対して、AI企業側は安全性への取り組みを強調していますが、開発のスピードを緩めることには消極的です。OpenAIのサム・アルトマンCEOは、AI技術の恩恵が危険性を上回ると主張し、適切な規制の下で開発を続けるべきだとの立場を取っています。しかし、抗議団体側は、規制が追いつかないまま開発が進んでいることに強い危機感を抱いています。
抗議活動の過激化への懸念
今回の事件は、AI開発に対する抗議活動が過激化する可能性を示すものとして、業界に衝撃を与えています。これまでの抗議活動は、オフィス前でのデモやドアの封鎖など、非暴力的な手段に限られていました。しかし、今回のように従業員への直接的な危害が予告されたのは初めてのことです。
AI企業で働く従業員にとって、この事件は大きな不安材料となっています。技術開発に携わる研究者やエンジニアたちは、自分たちの仕事が社会に貢献すると信じて働いていますが、一部の活動家からは「人類の敵」のように扱われることもあります。今回のような脅迫事件が起きると、優秀な人材がAI業界を避けるようになる可能性もあります。
一方で、抗議団体の多くは非暴力を掲げており、今回の事件を起こしたとされる個人の行動を支持していません。Stop AIが即座に声明を出して非暴力の立場を明確にしたのも、暴力的な行動が運動全体の信用を損なうことを懸念してのことでしょう。しかし、AI開発への不安が高まる中で、一部の個人が過激な行動に走るリスクは今後も残ります。
私たちへの影響
このニュースは、AI技術を利用する一般の人々にとっても無関係ではありません。AI開発をめぐる対立が激化すれば、技術の進歩が遅れたり、企業が過度に慎重になって革新的なサービスの提供が遅れたりする可能性があります。
短期的には、AI企業がセキュリティ対策を強化することで、オフィスへの訪問や見学が制限されるかもしれません。また、従業員の安全確保のため、企業が情報公開に慎重になり、透明性が低下する懸念もあります。OpenAIなどの企業は、これまで比較的オープンに研究成果を公開してきましたが、今後はセキュリティ上の理由から情報開示が限定的になる可能性があります。
中長期的には、AI開発に対する社会的な合意形成がより重要になってくるでしょう。技術の進歩を止めることは現実的ではありませんが、どのようなペースで、どのような規制の下で開発を進めるべきかについて、企業、政府、市民社会が対話を重ねる必要があります。今回のような事件が繰り返されれば、建設的な対話が困難になり、対立がさらに深まる恐れがあります。
ただし、今回の事件は一個人の行動であり、AI開発に反対する人々全体が暴力的だというわけではありません。AI技術の発展に対して懸念を持つことは正当な権利であり、平和的な抗議活動は民主主義社会において重要な役割を果たします。重要なのは、異なる立場の人々が互いを尊重しながら、AI技術の未来について議論を続けることです。
