Google、クラウドでも端末並みのセキュリティを実現する「Private AI Compute」を発表
Googleが2025年1月、クラウドベースの新AI処理システム「Private AI Compute」を発表。端末上の処理と同等のセキュリティをクラウドで実現する技術。ユーザーデータの保護と高度なAI機能の両立を目指す。
Googleが2025年1月、クラウドベースの新AI処理システム「Private AI Compute」を発表。端末上の処理と同等のセキュリティをクラウドで実現する技術。ユーザーデータの保護と高度なAI機能の両立を目指す。
MIT Technology Reviewが、AIと量子技術が変革するサイバーセキュリティの現状を報告。攻撃の自動化と防御の高度化が同時進行。企業や個人のデジタル防衛戦略の見直しが急務に。
米国の裁判所で、弁護士がAIツールで生成した架空の判例を提出し発覚する事例が続出。言い訳は「ハッキングされた」「ログイン情報を失った」など。法曹界でAI利用の適切な管理が課題に。
米国の研究チームがAIの記憶と推論を分離する実験に成功。ニューラルネットワーク内で記憶と論理が別の領域に存在することを発見。AI開発の効率化や信頼性向上につながる可能性。
研究者らが開発した新しい「計算的チューリングテスト」により、人間のふりをするAIを80%の精度で検出可能に。知性よりも有害性の模倣が困難であることが判明した。
ChatGPTの会話ログがGoogleアナリティクスに流出していることが判明。ユーザーの個人情報や機密情報が第三者に閲覧可能な状態に。OpenAIのデータ収集方法にも疑問が浮上しています。
AIボットが人間を装う際、知性よりも毒性を偽装する方が困難であることが判明。新しい「計算的チューリングテスト」により、80%の精度でAIを検出可能に。オンラインでの過度な礼儀正しさがAIの証拠となる可能性が示された。
GoogleがGemini Deep ResearchをGoogle Financeに統合し、KalshiとPolymarketの予測市場データを活用した新機能を発表。AI駆動の深層分析で金融情報の提供方法が大きく変わる。
AnthropicがLLMの自己説明能力を調査。AIは自身の内部処理を説明できると主張するが、実際には高度に信頼性が低いことが判明。AI判断の透明性に課題。
Googleの研究チームが5つのAI生成マルウェアを分析した結果、いずれも実用性に欠け、容易に検出可能であることが判明。AI脅威の誇大宣伝に警鐘を鳴らす調査結果が明らかに。