大手AI企業が、個人データへの広範なアクセスを求めるAIエージェントの開発を進めています。カレンダー、メール、ファイルなど、従来以上に多くの個人情報へのアクセスが必要に。プライバシーとセキュリティに新たな脅威をもたらす可能性があります。
AIエージェント時代の到来で個人データへのアクセス要求が拡大、プライバシー懸念が深刻化
大手AI企業が、ユーザーに代わってタスクを実行する「AIエージェント」や「AIアシスタント」の開発を加速させています。これらのシステムは、OpenAIのChatGPTやGoogleのGeminiといった従来のチャットボットを超え、より高度な機能を提供します。しかし、その機能を最大限に活用するには、カレンダー、メール、ファイル、メッセージなど、これまで以上に多くの個人データへのアクセス権限を与える必要があります。
過去2年間、生成AI技術は急速に進化してきました。初期の単純なテキストチャットボットから、ユーザーの代わりに航空券を予約したり、ウェブ検索を実行したり、買い物カートに商品を追加したりできるシステムへと発展しています。これらのAIエージェントは、数十もの個別ステップを含む複雑なタスクを完了できると謳われています。
しかし、専門家は深刻な懸念を表明しています。英国のアダ・ラブレス研究所の研究によれば、AIエージェントはサイバーセキュリティとプライバシーに「重大な脅威」をもたらす可能性があります。オックスフォード大学の研究者は、これらの企業が「データに対して非常に無節操」であり、「プライバシーをあまり尊重してこなかった」と指摘しています。この新しい技術の波は、私たちの個人情報の扱い方に根本的な変化をもたらそうとしています。
AIエージェントとは何か、なぜデータアクセスが必要なのか
AIエージェントとは、生成AIシステムや大規模言語モデル(LLM)に一定の自律性を与えたものです。大規模言語モデルとは、膨大なテキストデータで訓練された、人間のような文章を生成できるAIシステムのことです。ChatGPTやGeminiがその代表例です。
現在のAIエージェントは、ユーザーのデバイスを制御してウェブを閲覧したり、フライトを予約したり、調査を実施したりできます。一部のシステムは、AIウェブブラウザとして機能し、ショッピングカートに商品を追加するなど、複数のステップを含むタスクを自動で完了します。
これらのシステムが機能するには、デバイスのオペレーティングシステム(OS)レベルへのアクセスが必要になることが多いのです。アダ・ラブレス研究所の上級研究員ハリー・ファーマー氏は、「AIエージェントが完全な機能を発揮し、アプリケーションにアクセスするには、実行されているデバイスのOSレベルにアクセスする必要があることが多い」と説明しています。
パーソナライゼーション、つまり個人に合わせたサービスを提供するためには、さらに多くの情報が必要です。例えば、AIがあなたのスケジュールやタスクを提供するには、カレンダー、メッセージ、メール、その他多くのデータへのアクセスが不可欠になります。
背景と経緯
AI業界は、データに対して常に貪欲な姿勢を取ってきました。2010年代初頭の機械学習とディープラーニングの飛躍的進歩により、より多くのデータで訓練されたシステムがより良い結果を生み出すことが明らかになりました。これ以降、できるだけ多くの情報を収集する競争が激化したのです。
顔認識企業のClearviewは、ウェブ全体から数百万枚の人々の写真を無断で収集しました。Googleは顔スキャンのために人々にわずか5ドルを支払いました。政府機関は、搾取された子どもたち、ビザ申請者、亡くなった人々の画像をシステムのテストに使用したと報じられています。
数年後、データに飢えたAI企業は、ウェブの広大な領域をスクレイピング(自動収集)し、数百万冊の書籍を複製しました。多くの場合、許可も支払いもなく行われました。これらのデータは、現在エージェントへと拡張されている大規模言語モデルや生成AIシステムの構築に使用されました。
ウェブ上の公開データをほぼ使い果たした後、多くの企業はユーザーデータでAIシステムを訓練することをデフォルトの方針としました。ユーザーにオプトイン(同意して参加)させるのではなく、オプトアウト(拒否して離脱)させる形式を採用したのです。これは、ユーザーが積極的に拒否しない限り、データが自動的に使用されることを意味します。
企業が開発する高度なAIシステムの実態
一部の先進的なAI製品は、エージェントがどれほど広範なアクセス権を求めるかを示しています。企業向けに開発されている特定のエージェントは、コード、メール、データベース、Slackメッセージ、Google Driveに保存されたファイルなど、膨大な情報を読み取ることができます。
Microsoftの物議を醸した「Recall」という製品は、数秒ごとにデスクトップのスクリーンショットを撮影します。これにより、ユーザーはデバイス上で行ったすべてのことを検索できるようになります。出会い系アプリのTinderは、ユーザーの「興味や性格をよりよく理解する」ために、スマートフォン内の写真を検索できるAI機能を作成しました。
オックスフォード大学の准教授でありプライバシー研究の専門家であるカリッサ・ヴェリス氏は、消費者がAI企業やテクノロジー企業が主張する通りにデータを扱っているかを確認する実質的な方法がないと指摘しています。「これらの企業はデータに対して非常に無節操です」とヴェリス氏は述べています。「彼らはプライバシーをあまり尊重してこなかったことを示してきました」。
できること・できないこと
現在のAIエージェントは、ユーザーに代わって様々なタスクを実行できます。例えば、ウェブブラウジングを自動化し、航空券やホテルの予約を完了させることができます。また、複雑な調査を実施し、情報を収集してまとめることも可能です。オンラインショッピングでは、商品を検索し、カートに追加するといった一連の作業を自動で行えます。ビジネス用途では、メールやSlackメッセージを読み取り、適切な返信を作成したり、データベースから必要な情報を抽出したりすることができます。
一方で、現在のAIエージェントには重大な制約があります。システムは頻繁に不具合を起こし、設定されたタスクを完了できないことが多いのです。技術企業はこれらのシステムが数百万人の仕事を根本的に変えると賭けていますが、より高度な能力を持つようになるまでには時間がかかるでしょう。
また、セキュリティ上の深刻な脆弱性も存在します。「プロンプトインジェクション攻撃」と呼ばれる手法では、悪意のある指示をAIが読み取るテキストに埋め込むことで、情報漏洩を引き起こすことができます。エージェントがデバイスへの深いアクセス権を持つ場合、そこに含まれるすべてのデータが脅威にさらされる可能性があります。
プライバシーとセキュリティへの脅威
欧州のデータ規制当局が委託した研究は、エージェントに関連する多数のプライバシーリスクを明らかにしています。機密データが漏洩、誤用、または傍受される可能性があります。システムが適切な保護措置なしに機密情報を外部システムに送信する可能性もあります。さらに、データの取り扱いがプライバシー規制に抵触する恐れもあります。
ヴェリス氏は、個人が同意したとしても、その人が交流する相手は同意していない可能性があると指摘しています。「システムがあなたの連絡先、メール、カレンダーすべてにアクセスでき、あなたが私に電話をかけて私の連絡先を持っている場合、彼らは私のデータにもアクセスしています。そして私はそれを望んでいません」。
暗号化メッセージアプリSignalを運営するSignal財団の代表メレディス・ウィテカー氏は、今年初めにWIREDに対し、「OSレベルでのエージェントによる完全な侵入とプライバシーの無効化という未来はまだ到来していませんが、それが開発者がオプトアウトする能力なしにこれらの企業によって推進されているものです」と述べました。デバイスやOSのすべてにアクセスできるエージェントは、Signalやアプリケーションレベルのプライバシーに対する「存亡の脅威」だとウィテカー氏は警告しています。
私たちへの影響
このニュースは、AIツールを使用するすべての人々に重大な影響を与えます。便利さと引き換えに、これまで以上に多くの個人情報を企業に提供することになる可能性があるからです。
短期的な影響については、AIエージェントやアシスタントを使用する際に、どのようなデータアクセスを許可するか慎重に検討する必要があります。ファーマー氏は、多くの人々がすでに既存のチャットボットと密接な関係を築き、膨大な量の機密データを共有している可能性があると指摘しています。これらのシステムは、以前のテクノロジーとは異なる性質を持っているのです。
中長期的な影響としては、AIエージェントが職場や日常生活でより一般的になるにつれ、プライバシーの概念そのものが変化する可能性があります。企業がより多くのデータにアクセスできるようになれば、個人情報の保護はさらに困難になるでしょう。また、現在のビジネスモデルが将来変更される可能性もあり、無料で提供されているサービスが有料化されたり、データの使用方法が変更されたりする恐れがあります。
ただし、一部のプライバシー重視のAIシステムも開発されており、いくつかのプライバシー保護措置も導入されています。消費者としては、AIエージェントを使用する際に、個人データとの交換条件について非常に慎重になる必要があります。どのような情報へのアクセスを許可するのか、そのデータがどのように使用されるのかを理解し、必要に応じてアクセスを制限することが重要です。
