OpenAIが米イリノイ州で、AI技術による大規模被害の責任を制限する法案を支持。100人以上の死傷や10億ドル以上の損害でも、意図的でなければ免責。AI業界の責任範囲を巡る議論が活発化。
OpenAI、AI大規模被害の免責法案を支持―100人以上死傷でも責任制限
2025年、ChatGPTの開発元であるOpenAIが、米イリノイ州議会に提出された法案SB 3444を支持する証言を行いました。この法案は、AI技術が100人以上の死傷者や10億ドル以上の財産被害といった「重大な危害」を引き起こした場合でも、AI開発企業の法的責任を制限するものです。OpenAIの広報担当者は「最先端のAIシステムによる深刻な被害のリスクを減らしながら、この技術をイリノイ州の人々や企業に届けることに焦点を当てている」と述べています。この法案は、意図的または無謀な行為でなく、安全性や透明性に関する報告書を公開していれば、AI開発企業を免責するという内容です。AI技術の急速な発展に伴い、その責任範囲を巡る法整備が世界中で課題となっていますが、この法案は業界にとって極めて有利な内容として注目されています。AI政策の専門家たちは、OpenAIがこれまで支持してきた法案よりも極端な措置だと指摘しており、今後の米国におけるAI規制の方向性を占う重要な動きとなっています。
法案の具体的な内容と適用範囲
SB 3444は「フロンティアモデル」と呼ばれる最先端のAIモデルを対象としています。フロンティアモデルとは、1億ドル以上の計算コストをかけて訓練されたAIモデルのことです。この基準に該当するのは、OpenAI、Google、xAI、Anthropic、Metaといった米国の大手AI企業が開発するモデルです。
法案が定義する「重大な危害」には、いくつかの具体的なケースが含まれます。悪意ある人物がAIを使って化学兵器、生物兵器、放射性物質、核兵器を製造した場合が該当します。また、AIモデルが自律的に行動し、人間が行えば犯罪となる行為を実行して極端な結果を招いた場合も含まれます。これらの事態が発生しても、AI開発企業が意図的でなく、必要な報告書を公開していれば、法的責任を問われないという仕組みです。
免責の条件は2つあります。第一に、AI企業が意図的または無謀に危害を引き起こしていないこと。第二に、安全性、セキュリティ、透明性に関する報告書を自社ウェブサイトで公開していることです。この条件を満たせば、たとえ100人以上が死傷したり、10億ドル以上の財産被害が発生したりしても、企業は訴訟から保護されます。
背景と経緯
これまでOpenAIは、AI企業に責任を課す法案に対して反対する立場を取ってきました。しかし今回の動きは、防御的な姿勢から積極的な立法戦略への転換を示しています。AI政策の専門家たちは、この法案がOpenAIがこれまで支持してきたものよりも企業寄りの極端な内容だと指摘しています。
米国では連邦レベルでも州レベルでも、AIモデル開発者がその技術による被害に対してどこまで責任を負うべきかを定めた法律はまだ存在しません。一方で、AI企業は次々とより強力なモデルをリリースしており、新たな安全性やサイバーセキュリティの課題を提起しています。例えば、Anthropic社が最近発表したClaude Mythosなどがその例です。
イリノイ州は、これまで技術規制に積極的な姿勢を示してきた州として知られています。2024年8月には、メンタルヘルスサービスにおけるAI利用を制限する法律を全米で初めて可決しました。また2008年には、生体情報プライバシー法を制定し、個人の生体データ収集を規制しています。このような背景から、今回の免責法案が可決される可能性は低いとの見方もあります。
OpenAIの主張と連邦規制への期待
OpenAIのグローバル業務チームのメンバーであるCaitlin Niedermeyer氏は、法案支持の証言の中で、連邦レベルでのAI規制の枠組みを求めました。同氏は「安全性を有意義に向上させることなく摩擦を生み出す可能性のある、一貫性のない州ごとの要件のパッチワークを避けることが重要」と述べています。
この主張は、トランプ政権が州レベルのAI安全法を取り締まる方針と一致しています。また近年のシリコンバレー全体の見解とも合致しており、AI法制がグローバルなAI競争における米国の地位を損なわないことが最優先だという考え方です。Niedermeyer氏は「OpenAIでは、フロンティア規制の北極星は、イノベーションにおける米国のリーダーシップを維持しながら、最先端モデルの安全な展開であるべきだと考えています」と語りました。
しかし、連邦レベルでのAI法制は依然として実現が難しい状況です。トランプ政権は大統領令を発行し、連邦AI法制を促進するための枠組みを公表していますが、実際の法案可決に向けた議論は進展していません。連邦政府の指針がない中、カリフォルニア州やニューヨーク州などは独自の法案を可決し、AI開発者に安全性と透明性の報告を義務付けています。
反対意見と世論の動向
Secure AIプロジェクトの政策ディレクターであるScott Wisor氏は、この法案の可決可能性は低いと見ています。同氏がイリノイ州で実施した世論調査では、AI企業が責任を免除されるべきかという質問に対し、90パーセントの人々が反対しました。Wisor氏は「既存のAI企業が責任を軽減される理由はありません」と述べています。
イリノイ州議会では、AI開発者の責任を強化する法案も提出されています。技術規制に積極的な同州の姿勢を考えると、企業の免責を認める法案が通過するのは困難だという見方が強まっています。
個人レベルの被害と訴訟の動き
SB 3444は大規模な死傷事故や財政的災害に焦点を当てていますが、AI企業は個人レベルでの被害についても法的問題に直面しています。過去1年間で、ChatGPTと不健全な関係を築いた後に自殺した子どもたちの家族が、OpenAIを訴える事例が複数発生しています。
これらの訴訟は、AIモデルが個人に与える心理的影響や、開発企業がそれに対してどこまで責任を負うべきかという新たな法的課題を提起しています。大規模災害だけでなく、日常的な利用における個人への影響も、AI規制の重要な論点となっています。
できること・できないこと
この法案が可決されれば、AI開発企業は一定の条件下で大規模な被害から法的に保護されることになります。具体的には、安全性報告書を公開し、意図的でない事故であれば、100人以上の死傷者や10億ドル以上の損害が発生しても訴訟を免れることができます。これにより企業は、訴訟リスクを気にせずより大胆な技術開発を進められるようになります。
一方で、この法案には重要な制約があります。意図的または無謀な行為による被害は免責の対象外です。また報告書の公開を怠った場合も保護されません。さらに個人レベルの被害、例えば精神的苦痛や個人の財産損失などは、この法案の対象外となります。
現時点では、この法案がイリノイ州で可決される可能性は低いと見られています。しかし仮に可決されれば、他の州や連邦レベルでの議論に影響を与える可能性があります。AI業界全体の責任範囲を定める先例となるかもしれません。
私たちへの影響
このニュースは、AI技術を利用するすべての人々、特に米国の市民や企業に重要な影響を与えます。法案が可決されれば、AI技術による大規模な事故が発生した際に、被害者が企業から補償を受けることが難しくなる可能性があります。
短期的な影響としては、イリノイ州での議論が他の州にも波及し、同様の法案が提出される可能性があります。AI企業は訴訟リスクが減ることで、より積極的に新技術を展開するかもしれません。これは技術革新を加速させる一方で、安全性への配慮が後回しにされるリスクも伴います。
中長期的には、米国全体でのAI規制の方向性が定まっていく過程で、企業の責任範囲がどこまで認められるかが焦点となります。連邦レベルでの法整備が進まない中、州ごとに異なる規制が生まれ、企業にとっても利用者にとっても複雑な状況が続くでしょう。一方で世論の90パーセントが企業の免責に反対していることから、最終的には消費者保護を重視した規制が形成される可能性もあります。
ただし、AI技術の発展速度は法整備を上回っており、実際に大規模な事故が発生するまで明確なルールが定まらない可能性があります。利用者としては、AI技術のリスクを理解し、慎重に利用することが求められます。
