企業動向

AIエージェントのセキュリティリスク、従業員の理解は3割止まりか KnowBe4 Japan調査で「ガバナンスの空白」浮き彫り


KnowBe4 Japanが実施した「AIエージェントのセキュリティへの影響に関する意識調査」により、AIエージェントの利用拡大が進む一方で、従業員のセキュリティリスク理解が約30%に留まり、組織内で「ガバナンスの空白」が生じている実態が明らかになりました。

調査結果の概要

AIエージェントの利用状況とリスク認識

回答者の約40%がすでにAIエージェントを導入しており、今後の利用拡大を見込む回答は約70%に上ります。AIエージェントの利用に伴うセキュリティリスクを「大きい」と認識している回答者の割合は約68%でした。特に懸念として多く挙げられたのは、「機密情報の漏洩」が最多で、次いで「著作権などの侵害」「ハルシネーション(誤情報の生成)」といった、人の判断や操作に起因するヒューマンリスクが上位を占めています。

従業員のリスク理解と責任の所在

AIエージェント利用時のセキュリティリスクを「従業員が理解している」と答えた回答者は合計で約30%に留まっています。これは昨年の生成AIに関する調査結果(約32%)とほぼ横ばいであり、AIの形態が変わっても組織としてのリスク理解が追いついていない現状が続いています。

また、AIエージェント利用時のセキュリティ責任が、経営者、IT/セキュリティ部門、AIエージェントを使う従業員の「全員にある」と考える回答者はわずか約25%にとどまりました。

AI悪用への脅威認識と対策

AIを悪用したサイバー攻撃について、「脅威に感じる」と回答した割合は合計約83%となり、昨年の約74%から9ポイント上昇しています。深刻化が懸念される攻撃として「フィッシングメール/SMS」「ランサムウェア」「ビジネスメール詐欺(BEC)」がほぼ同数で上位に並び、ソーシャルエンジニアリング系攻撃のAIによる高度化への警戒感が強まっています。

リスク低減策として最も多く選ばれたのは「セキュリティ教育・リテラシー教育の実施」で、次いで「利用規定〔ポリシー〕の策定と周知」「エージェントへのアクセス制御の強化」が挙げられました。AIを悪用したサイバー攻撃への対応策も「セキュリティ訓練/教育」が最多となり、技術的対策にとどまらず「人」へのアプローチを重視する傾向が見られます。

調査レポートの全文はこちらから確認できます。
https://www.knowbe4.com/resources/whitepapers/impact-of-ai-agents-on-security?hs_preview=DiwXKeUE-209898710894

浮き彫りになった3つの課題

KnowBe4 Japanは、今回の調査から以下の3つの大きな課題が浮き彫りになったと指摘しています。

  • 普及の加速に追いつかない教育組織: AIエージェントの利用拡大は確実視されていますが、従業員のリスク理解度は約30%と、前年から改善が見られません。技術の進化スピードに対し、組織の教育体制が取り残されている状況です。

  • 「ガバナンスの空白」が生む不測の事態への脆弱性: AIエージェント利用の責任が「全員にある」と回答した層はわずか4分の1(約25%)でした。役割に応じた責任分散の議論が不足しており、AIが自律的に動く中で事故が起きた際、対応の遅れや特定部署への過度な負担を招く「ガバナンスの空白」が生じています。

  • 技術が進化しても、リスクの革新は「人」: 懸念されるリスクの上位には「機密情報漏洩」「著作権侵害」「ハルシネーション(もっともらしい嘘)」が並びます。AIがどれほど自律化しても、それを利用・管理する「人」の判断が最大の防御層(ヒューマン・ファイアウォール)であることに変わりはないとしています。

KnowBe4 Japan社長からの提言

KnowBe4 Japan合同会社の力一浩職務執行者社長は、従業員の約68%がAIエージェントのセキュリティリスクを大きいと感じている一方で、自社の従業員のリスク理解が浸透していると回答した割合は約30%にとどまっている現状について言及しました。現場は正しいルールを理解しないまま、不安と利便性の間で揺れる「ガバナンスの空白地帯」に置かれていると考えている、と述べています。

同氏は、「AIエージェントは単なるツールを超え、業務を自律的に遂行する『パートナー』へと進化しました。同時に、ソーシャルエンジニアリング攻撃もAIによって極めて自然なものへと巧妙化しており、『システムでブロックする』といった従来の対策はもはや限界を迎えています」と指摘。AI時代のリスク管理は、システムによる物理的な壁を築くこと以上に、組織全体の倫理観と判断力を底上げし、人間側に強固な「ヒューマン・ファイアウォール」を構築するフェーズにあると強調しました。

さらに、「自律的に動くエージェントだからこそ、それを統制する側の人間に正しく扱う責任を課す体制構築が欠かせません。『誰が責任を持つのか』というガバナンスの空白を埋めるため、明確なガイドライン策定を行い、知識を実際の行動に変える必要があります。セキュリティを『やらされるもの』ではなく『組織の当たり前』にするセキュリティ文化の醸成と、進化し続けるリスクに適応する『継続的な教育』への投資こそが、2026年の最優先事項となります」とコメントしています。

調査概要

  • 調査名: AIエージェントのセキュリティへの影響に関する意識調査

  • 調査期間: 2025年12月〜2026年1月

  • 調査対象: 日本国内の企業・団体に勤務する従業員

  • 回答者数: 362名

  • 調査方法: 日経クロステックActiveリサーチによるオンラインアンケート

KnowBe4について

KnowBe4は、従業員が日々、より賢明なセキュリティ判断を下せるよう支援するサイバーセキュリティプラットフォームベンダーです。世界中で70,000以上のお客様に支持され、セキュリティ文化の強化とヒューマンリスクマネジメントの実現を支援しています。同社が提供するHRM+プラットフォームには、セキュリティ意識向上およびコンプライアンストレーニング、クラウドメールセキュリティ、リアルタイムコーチング、クラウド型アンチフィッシング、AIディフェンスエージェントなどが含まれます。AIがビジネスオペレーションにますます組み込まれるようになる中、KnowBe4は、人間とAIエージェントの両方がセキュリティリスクを認識し、対応できるようにトレーニングすることで、現代の従業員を育成しています。この統合アプローチを通じて、KnowBe4は「ワークフォース・トラスト・マネジメント」と防御戦略をリードしているとしています。

詳細はこちらで確認できます。
https://www.knowbe4.com/ja

ソース元: KnowBe4 Japan調査、AIエージェントに対する従業員のセキュリティ意識が明らかに
URL: https://prtimes.jp/main/html/rd/p/000000299.000053624.html

関連記事

著者紹介:press

press プレスリリースを元に、サイバーセキュリティ関連の企業動向を配信しています。情報の正確性についてはソース元をご確認ください。



カテゴリ:
タグ: