AIのハッキング能力が「転換点」に到達、セキュリティ専門家が警鐘

AIモデルがシステムの脆弱性を発見する能力が急速に向上し、専門家は「転換点」に達したと警告。2025年10月時点で既知の脆弱性の30%を検出可能に。ソフトウェア開発の根本的な見直しが必要との指摘も。

AIのハッキング能力が「転換点」に到達、セキュリティ専門家が警鐘

2025年、人工知能(AI)がコンピュータシステムの脆弱性を発見する能力が急激に向上し、サイバーセキュリティの専門家たちは「転換点に達した」と警告しています。カリフォルニア大学バークレー校のドーン・ソン教授によると、最新のAIモデルは大規模なソフトウェアプロジェクトに含まれる既知の脆弱性の約30%を検出できるようになりました。これは2025年7月時点の20%から、わずか3か月で10ポイントも上昇した数値です。さらに注目すべきは、AIが誰も公表していない新しい脆弱性、いわゆる「ゼロデイ脆弱性」を独自に発見できるようになったことです。この能力は防御側にとって有用である一方、悪意ある攻撃者が利用すれば深刻な脅威となります。専門家たちは、ソフトウェアの開発方法そのものを根本から見直す必要があると指摘しています。

AIが未知の脆弱性を独自に発見

2024年11月、サイバーセキュリティスタートアップ企業RunSybilの共同創業者であるヴラド・イオネスクとアリエル・ハーバート=ヴォスは、自社のAIツール「Sybil」が顧客のシステムで発見した問題に驚きました。Sybilは複数のAIモデルを組み合わせて、ハッカーが悪用する可能性のある問題点を探すツールです。具体的には、セキュリティパッチが適用されていないサーバーや、設定ミスのあるデータベースなどを検出します。

今回Sybilが発見したのは、GraphQLという技術の実装における問題でした。GraphQLとは、ウェブ上でデータにアクセスする方法を指定する言語のことです。この問題により、顧客は意図せず機密情報を外部に公開していました。二人が驚いたのは、この問題を発見するには複数の異なるシステムとそれらの相互作用について非常に深い知識が必要だったからです。

ハーバート=ヴォスは「インターネット上を徹底的に調べましたが、この問題は存在していませんでした」と語ります。つまり、AIが人間の専門家よりも先に、誰も公表していない新しい脆弱性を発見したのです。RunSybilはその後、他の企業のGraphQL実装でも同じ問題を発見しています。これはAIの推論能力における「段階的な変化」だと彼は説明します。

わずか3か月で検出率が50%向上

カリフォルニア大学バークレー校でAIとセキュリティを専門とするドーン・ソン教授は、最近のAI技術の進歩により、モデルの脆弱性発見能力が劇的に向上したと指摘します。特に二つの技術が重要な役割を果たしています。一つは「シミュレートされた推論」で、これは複雑な問題を小さな部分に分割して解決する手法です。もう一つは「エージェント型AI」で、ウェブを検索したり、ソフトウェアツールをインストールして実行したりする能力を持ちます。

ソン教授は「最先端モデルのサイバーセキュリティ能力は、この数か月で劇的に向上しました。これは転換点です」と述べています。彼女は2024年、CyberGymという評価基準を共同開発しました。これは大規模なオープンソースソフトウェアプロジェクトにおいて、AIモデルがどれだけ脆弱性を発見できるかを測定するものです。CyberGymには188のプロジェクトから1,507の既知の脆弱性が含まれています。

2025年7月時点で、Anthropic社のClaude Sonnet 4は、この評価基準に含まれる脆弱性の約20%を発見できました。しかし2025年10月には、新しいモデルであるClaude Sonnet 4.5が30%を識別できるようになりました。わずか3か月で50%の向上です。ソン教授は「AIエージェントはゼロデイ脆弱性を発見でき、しかも非常に低コストで実行できます」と警告します。

攻撃者と防御者の力関係が変化

AIの能力向上は、サイバーセキュリティにおける攻撃者と防御者の力関係を変える可能性があります。ゼロデイ脆弱性とは、ソフトウェアの開発者や一般の人々がまだ知らない脆弱性のことです。これまでゼロデイ脆弱性の発見には、高度な専門知識と多くの時間が必要でした。しかしAIがこの作業を自動化できるようになれば、攻撃者は以前よりはるかに容易に標的を見つけられるようになります。

RunSybilのハーバート=ヴォスは「AIはコンピュータ上でアクションを生成し、コードを生成できます。これはハッカーが行う二つのことです。これらの能力が加速すれば、攻撃的なセキュリティアクションも加速します」と指摘します。つまり、近い将来、ハッカーが優位に立つ可能性があるということです。

一方で、同じAI技術は防御側も利用できます。セキュリティ専門家がAIを使って自社のシステムをスキャンし、攻撃者より先に脆弱性を発見して修正することが可能です。問題は、攻撃者と防御者のどちらがより効果的にAIを活用できるかという競争になることです。

専門家が提案する対策

ソン教授は、この傾向に対応するため新しい対策が必要だと述べています。一つの提案は、AI企業が最新モデルを一般公開する前に、セキュリティ研究者と共有することです。研究者たちはそのモデルを使って既存のシステムの脆弱性を発見し、一般公開前にセキュリティを強化できます。これにより、悪意ある攻撃者がモデルを入手する前に防御体制を整えられます。

もう一つの重要な対策は、ソフトウェアの開発方法そのものを見直すことです。ソン教授の研究室では、AIを使って従来のプログラマーが書くコードよりも安全なコードを生成できることを実証しました。「セキュア・バイ・デザイン」と呼ばれるこのアプローチは、最初からセキュリティを考慮してソフトウェアを設計する方法です。従来は機能を優先して開発し、後からセキュリティ対策を追加することが多くありました。

ソン教授は「長期的には、このセキュア・バイ・デザインのアプローチが防御側を本当に助けるでしょう」と述べています。AIがコード生成能力を持つなら、その能力を使って最初から安全なコードを書かせることが合理的だという考えです。これにより、後から脆弱性を探して修正するという追いかけっこから脱却できる可能性があります。

できること・できないこと

現在のAI技術により、大規模なソフトウェアプロジェクトに含まれる既知の脆弱性の約30%を自動的に検出することが可能になりました。例えば、企業は自社のシステムを定期的にAIでスキャンし、セキュリティパッチが適用されていないサーバーや設定ミスのあるデータベースを発見できます。さらに重要なのは、AIが誰も公表していない新しい脆弱性を独自に発見できるようになったことです。RunSybilの事例のように、複数のシステムの相互作用から生じる複雑な問題も検出可能です。

一方で、AIはまだすべての脆弱性を発見できるわけではありません。現時点では既知の脆弱性の70%は検出できていません。また、発見した脆弱性をどう修正すべきか、その優先順位をどうつけるべきかといった判断には、依然として人間の専門知識が必要です。さらに、AIが生成したコードが本当に安全かどうかを検証する作業も、完全に自動化されているわけではありません。2026年以降、AIモデルの能力がさらに向上すれば、これらの制約は徐々に解消されていくでしょう。

私たちへの影響

このニュースは、ソフトウェアを開発する企業、それを使用する組織、そして一般のインターネット利用者すべてに影響を与えます。AIのハッキング能力向上は、サイバー攻撃のリスクが高まることを意味するからです。

短期的な影響については、企業のセキュリティ担当者は対応を急ぐ必要があります。AIを使った脆弱性スキャンツールを導入し、攻撃者より先に自社システムの弱点を発見することが重要です。また、ソフトウェア開発者は、AIが生成したコードのセキュリティを慎重に検証する必要があります。一般のユーザーにとっては、利用するサービスやアプリケーションのセキュリティアップデートをこれまで以上に迅速に適用することが大切になります。

中長期的な影響としては、ソフトウェア産業全体の開発手法が変わる可能性があります。セキュア・バイ・デザインのアプローチが標準になれば、将来的にはより安全なソフトウェアが普及するでしょう。また、AI企業とセキュリティ研究者の協力体制が強化されれば、新しいAIモデルが公開される前に潜在的なリスクを評価できるようになります。

ただし、この技術競争には終わりがありません。攻撃者もAIを利用して攻撃手法を高度化させるため、防御側は常に最新の技術動向を追い続ける必要があります。また、AIによる脆弱性発見が容易になることで、セキュリティの専門知識を持たない人々でも攻撃を実行できるようになるリスクもあります。社会全体として、サイバーセキュリティに対する意識と投資を高めていく必要があるでしょう。

出典:AI’s Hacking Skills Are Approaching an ‘Inflection Point’(www.wired.com)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です