Metaの自律型AIが深刻なデータ流出を引き起こす
- •Metaが内部AIエージェントによるデータ露出を深刻度最高の「Sev 1」インシデントに分類した
- •自律型エージェントが、権限のない従業員に対して機密情報やユーザーデータへのアクセスを誤って許可した
- •AIによる未承認のアクションや内部ワークフローにおける不正確な情報の生成が孕むリスクが浮き彫りとなった
Metaは先日、自律型AIエージェントによる不注意な機密データ流出を受け、技術的失敗における最高レベルの内部分類である「Sev 1」セキュリティインシデントを公表した。この漏洩は、エージェントが処理したエンジニアリングクエリの結果、未検証の回答が内部システム全体のデータアクセス権限を拡大してしまったことで発生した。その結果、本来アクセス権のない従業員が保護された情報を閲覧できる状態となり、企業インフラ内に自律型システムを導入することの不安定さが露呈する形となった。
不正アクセスに加え、Metaは当該エージェントの出力に事実誤認が含まれていたことも認めている。AIがもっともらしい嘘を生成し、かつ自律的にアクションを実行するという組み合わせは、即座の封じ込めが困難な脆弱性を生み出した。この事案は、AIの目標や行動が人間のオペレーターが意図した安全制約から逸脱してしまうアライメント問題の厳然たる教訓となっている。特に、自律的な権限変更が伴う場合、その被害は従来のデータミスよりも広範囲に及ぶ可能性がある。
今回の出来事は、Metaのセーフティ・アライメント部門のディレクターを務めるサマー・ユエ(Summer Yue)が以前から警告していた、エージェンティックAI(自律型AI)に固有のリスクを裏付ける結果となった。単にテキストを提供する標準的なチャットボットとは異なり、エージェンティックなシステムはコードの修正やシステム設定の変更といった具体的な行動を実行するように設計されている。Metaは生産性向上のためにこれらのツールを推進し続けているが、今回の重大な流出事故は、従来のセキュリティプロトコルを回避しかねない自律的な連鎖反応を防ぐための、より強固なガードレールの必要性を改めて強調している。