セキュリティニュース

ダークネットAI「DIG AI」の脅威 犯罪者の能力を飛躍的に強化


サイバーセキュリティ企業Resecurity(米カリフォルニア州ロサンゼルス)は12月18日、ダークネット上で稼働する無検閲AI「DIG AI」に関する詳細な調査結果を公表した。同ツールは2025年9月29日に発見されて以降、サイバー犯罪者や組織犯罪グループの間で急速に普及しており、マルウェア生成、爆発物製造指南、児童性的虐待コンテンツ作成など、違法行為を大規模に自動化する能力を持つ。AIの犯罪利用が新たな段階に入ったことを示す事例として、セキュリティ専門家の間で警戒が高まっている。

9月末に発見、急速に拡散

Resecurity社のHUNTERチームによると、DIG AIは2025年9月29日に初めて確認された。運営者は「Pitch」という偽名を使用し、ダークネットフォーラムで積極的に宣伝を展開した。ダークネット上の投稿では、稼働初日に約1万件のプロンプトを処理したとされる。

同ツールはTorネットワーク上でホストされており、アカウント不要で利用でき、無料利用をうたう情報もある。Torブラウザがあれば数クリックでアクセスできるという。運営者は、提供する3つのモデルのうち1つがChatGPT Turboをベースにしていると主張している。

悪意のあるAI、200%増加

Resecurity社の調査では、2024年から2025年にかけて、サイバー犯罪フォーラムにおける悪意のあるAIツールの言及と使用が200%以上増加したという。FraudGPTやWormGPTといった先行ツールが有料のサブスクリプション型だったのに対し、DIG AIは参入障壁がさらに低下している。

同社は2025年第4四半期、特に冬季休暇期間中にDIG AIの利用が著しく増加したことを観測した。同社によると、この時期は違法活動が記録的な水準に達したという。2026年にはミラノ冬季五輪やFIFAワールドカップなどの大規模イベントが予定されており、犯罪AIが新たな脅威を生み出すと同社は警告している。

マルウェアから爆発物まで生成

Resecurity社のアナリストは、爆発物、違法薬物、禁止物質、詐欺、その他国際法で制限されている分野に関する用語辞書を用いて、DIG AIの広範なテストを実施した。結果、同ツールはこれらすべての分野で具体的な指南を生成することが確認された。

DIG AIは、脆弱なウェブアプリケーションにバックドアを仕掛けるための悪意のあるスクリプトや、その他のマルウェアを生成できる。外部APIと連携させることで、サイバー犯罪の大規模化やリソース集約的なタスクの最適化が可能になる。

ただし、計算負荷の高い操作、特に大規模なコードブロックの難読化には3~5分を要することが観察された。これは限られた計算リソースを示唆しているが、同時に有料のプレミアムサービスを提供する可能性も浮上している。

「十分に悪意ある活動を実行可能」

Resecurity社は、DIG AIが生成した出力は実際に悪意ある活動を実行するのに十分なものだったとしている。不正な手段で使用された場合、重大な技術的・経済的損害を引き起こす可能性があるという。

最も深刻な懸念はCSAM生成

調査で最も深刻な発見は、DIG AIが児童性的虐待コンテンツ(CSAM)の生成を支援できることだ。同ツールは、テキスト記述から完全に合成した画像や動画を生成したり、実在する子どもの無害な画像を操作したりすることが可能だという。

Resecurity社は、DIG AIを使用してCSAMコンテンツを生成する悪意ある行為者の証拠を収集し、関連する法執行機関と連携した。これらのコンテンツは「合成」とラベル付けされることがあるが、実際には違法と解釈される。

法整備進むも取り締まり困難

2024年には、米国の児童精神科医がAI生成CSAMを制作・配布した罪で有罪判決を受けた。実在する未成年者の画像をデジタル加工したもので、リアルさが米国連邦基準でCSAMに該当すると判断された。法執行機関や児童保護団体は、AI生成CSAMの急増を報告している。

英国・オーストラリアではAI生成を含む児童虐待画像は違法とされ、欧州連合でも新技術に対応する法整備が進む。しかし、DIG AIのようにダークウェブ上でホストされるツールに対する取り締まりは依然として困難だ。

正規AIとの決定的な違い

ChatGPT、Claude、Google Gemini、Microsoft Copilot、Meta AIなどの正規AIプラットフォームは、ヘイトスピーチ、違法行為、性的に露骨なコンテンツ、暴力などのカテゴリーでコンテンツを検閲または制限するシステムを採用している。これらは法令遵守、ユーザー保護、倫理基準の維持、企業評判の保護を目的としている。

対照的に、DIG AIのようなツールは、こうした安全対策を完全に回避するよう設計されている。悪意ある行為者はオープンソースモデルを改変し、安全フィルターを除去したり、汚染されたデータセットで訓練したりすることで、違法な出力をオンデマンドで生成している。

2026年に向けた新たな脅威

Resecurity社は、2025年に犯罪者がすでにAIを積極的に悪用していることを示す多数の指標を収集したとしている。2026年には、AIを活用した新たな種類のハイテク犯罪が出現すると予測している。

同社は、インターネットコミュニティが2026年にAIによって可能になる深刻なセキュリティ上の課題に直面すると警告している。人間の行為者に加えて、犯罪用AIや武器化されたAIが、従来の脅威を変容させ、これまでにないペースで社会を標的とする新たなリスクを生み出すとしている。

「第5の戦域」での戦い

サイバーセキュリティと法執行の専門家は、こうした危険な先駆的事例の出現に懸念を抱き、「機械」との戦いを続ける準備をする必要があるとResecurity社は指摘している。それは第5の戦域、すなわちサイバー空間での戦いだという。

関連記事

著者紹介:CCSIセキュリティメディア編集部

CCSIセキュリティメディア編集部 サイバーセキュリティメディア、CCSI編集部です。



カテゴリ:
タグ:,