Microsoft Copilot 脆弱性を修正、URLクリックでチャット履歴が流出するリスクを解消
Microsoft Copilotに、1クリックでチャット履歴や位置情報が盗まれる深刻な脆弱性が発見され、修正されました。この脆弱性は企業向けセキュリティも回避する巧妙なものでした。
たった1回のクリックで、あなたのAIとの対話内容がすべて盗まれる可能性がありました。Microsoftは、AIアシスタント「Copilot」に存在していた、URLをクリックするだけで機密データが外部に流出する深刻な脆弱性を修正しました。
Microsoft Copilot 脆弱性の詳細とリスク
セキュリティ企業 Varonis のホワイトハッカーチームによって発見されたこの脆弱性は、悪意のあるプロンプトを含むURLをユーザーがクリックすることで発動します。攻撃が開始されると、ユーザーの名前、位置情報、さらには Copilot のチャット履歴に含まれる特定のイベント詳細など、広範囲な個人データが自動的に抽出されます。
驚くべきことに、ユーザーがリンクをクリックした直後に Copilot のタブを閉じても、攻撃プロセスは背後で継続される仕組みになっていました。一度のクリック以降は一切の対話を必要とせず、バックグラウンドでデータの窃取が行われるという非常に巧妙な手口です。
既存のセキュリティを回避する手口
この攻撃のもう一つの脅威は、企業の「エンドポイントセキュリティ」を完全にバイパスした点にあります。Varonis の報告によると、従来の検出ソフトやエンドポイント保護アプリをすり抜け、企業ネットワーク内でも検知されることなくデータが盗み出されました。現在、Microsoft はこの脆弱性を完全に修正済みであると発表していますが、AI利活用の裏に潜むリスクを浮き彫りにした事例と言えます。
本コンテンツはAIが原文記事を基に要約・分析したものです。正確性に努めていますが、誤りがある可能性があります。原文の確認をお勧めします。
関連記事
メキシコの監視企業セグリテックが構築した「センティネル・プラットフォーム」。AIカメラ、顔認証、ドローンが一体化した監視網は、今や米国との国境を越えてデータを共有している。その全貌と問いを探る。
MetaがAI訓練データ企業Mercorとの契約を無期限停止。LiteLLMを経由したサプライチェーン攻撃が、ChatGPTやClaudeを支える非公開データセットを危険にさらした可能性がある。AI産業の見えないリスクを解説。
AI開発者に広く使われるLiteLLMが、不正行為疑惑のあるコンプライアンス企業Delveとの契約を打ち切り、セキュリティ認証を取り直すと発表。サードパーティリスク管理の本質的な問題を問い直す。
米ノースイースタン大学の研究が示したAIエージェントの脆弱性。善意のプログラムが逆用され、個人情報漏洩やシステム障害を引き起こす可能性。日本企業や社会への影響を考察します。
意見
この記事についてあなたの考えを共有してください
ログインして会話に参加