企業動向

AI利用リスク、日本人の約9割が情報漏洩を認識せず NordVPN調査でAI詐欺識別にも課題


個人向けセキュリティサービスを提供するNordVPNは、国際意識調査「ナショナル・プライバシー・テスト」の最新データを公開しました。この調査により、日本人の約9割が業務でのAIツール利用に伴う情報漏洩リスクを十分に把握しておらず、約半数がAIを悪用した詐欺を見抜けない実態が明らかになりました。

AI業務利用、約9割が情報漏洩リスクを認識せず

調査結果によると、日本人回答者の92%が、業務でAIツールを利用する際の情報漏洩リスクについて十分に把握できていないことが判明しました。これは、AIツールの導入が急速に進む一方で、従業員のリスクリテラシーがその速度に追いついていない現状を示しています。

利用者は、入力したデータがどのように保存・処理され、誰がアクセス可能なのかを十分に理解しないまま、機密情報をAIツールへ入力しているケースが少なくないといいます。AIツールとの会話内容は、同僚間の会話とは異なり、ログとして記録・分析され、将来のモデル学習に利用される可能性があります。顧客情報や社内戦略、個人情報をAIに共有することは、意図せずプライバシー上の脆弱性を招く恐れがあると同社は指摘しています。

AI悪用詐欺、約半数が識別困難か

日本人はデータ保護の面だけでなく、AIを悪用した詐欺への対応力にも課題が見られます。調査では、日本人の45%が、ディープフェイクや音声クローンなどのAI技術を用いた詐欺を正しく見抜けないことが明らかになりました。AI技術の進化により、単なる音声模倣にとどまらず、本人の声・顔・動作を高精度に再現し、実在する人物のような自然な動きを伴う動画生成も可能になっており、詐欺の判別がより困難になっています。

NordVPNの過去の調査結果では、世界で3人に1人が過去2年間にオンライン詐欺に遭遇しており、被害に遭った人の約半数(49%)が金銭的損失を経験したと報告されています。

NordVPNが推奨するAI時代のリスク対策

NordVPNの最高技術責任者(CTO)であるマリユス・ブリエディス氏は、AI時代に向けて以下の3つのリスクヘッジ対策を推奨しています。

まず、業務上の機密情報をAIツールへ入力しないことが重要です。会社の機密情報、顧客データ、個人情報などを生成AIに入力することは避けるべきです。AIとの対話内容はログとして保存され、将来のモデル学習に利用される可能性があるため、業務で生成AIを活用する際は、所属組織のAI利用ガイドラインなどを事前に確認し、機密情報を入力しないよう徹底することが求められます。

次に、家族の声に聞こえても、別の手段で本人確認を行うことが推奨されます。音声クローンやディープフェイク技術の普及により、知人や家族を装った詐欺の判別が難しくなっています。聞き慣れた声であっても、金銭や機密情報を要求された場合には慎重な対応が必要です。家族で合言葉を設定しておくことや、電話以外の信頼できる手段で本人確認を行うことが効果的です。

最後に、映像や音声を過信せず、セキュリティ対策を徹底することが挙げられます。AIの悪用により、本物と見分けがつかない偽動画や偽画像の生成が可能になっています。「目に見えるものが必ずしも真実とは限らない」という認識をもったうえで、新たな脅威に常に対応できるよう、セキュリティソフトを適切に活用し、常に最新版へアップデートすることが推奨されます。

ブリエディス氏は、「AIはサイバー犯罪の技術的ハードルを大きく下げました。巧妙なフィッシングメールの作成や、本物そっくりの偽ショッピングサイトの構築に、高度な専門知識が必要ではなくなりました。サイバー犯罪への参入が容易になっている中、十分な注意が必要です」とコメントし、情報漏洩においてもAIが人の会話とは異なりログとして記録・分析される可能性があるため、情報の取り扱いを慎重に進めることが重要であると強調しています。

NordVPNは、世界中で何百万人ものユーザーを持つ先進的なVPNサービスプロバイダーです。8,200台以上のサーバーを世界127カ国165都市で提供し、専用IPやDouble VPN、Onion Over VPNサーバーなど、多彩な機能を備え、オンラインプライバシーを強化しています。主要機能の一つである「脅威対策Pro」は、悪質なウェブサイトやトラッカー、広告のブロックに加え、マルウェアのスキャンが可能です。また、最新の製品としてグローバルeSIMサービス「Saily」を展開しています。

ソース元

関連記事

著者紹介:press

press プレスリリースを元に、サイバーセキュリティ関連の企業動向を配信しています。情報の正確性についてはソース元をご確認ください。



カテゴリ:
タグ: