AI 搭載マルウェアは、わずか 3 か月で Microsoft Defender のセキュリティ チェックを 8% の確率で回避します。

セキュリティは、特に生成AIが広く普及し、その規模が拡大するにつれて、多くの人々にとってますます大きな懸念事項となっています。2023年にMicrosoftが実施した調査では、ハッカーがMicrosoft CopilotやOpenAIのChatGPTなどのAIツールを活用し、無防備なユーザーを狙ったフィッシング詐欺を仕掛けていることが明らかになりました。
現在、悪意のある行為者はより創造的になり、高度なセキュリティシステムを回避し、機密データへの不正アクセスを行う巧妙な方法を編み出しています。ここ数週間、複数のユーザーが巧妙に練られた詐欺行為を仕掛け、ChatGPTのガードレールを下げ、有効なWindows 10アクティベーションキーを生成させようとしているのが確認されています。
Windows ユーザーであれば、ハッカーが仕掛ける悪意のある侵入からユーザーを保護するために設計された高度なセキュリティ プラットフォームである Microsoft Defender をよくご存知でしょう。
このツールは大きな期待が寄せられているが、Dark Reading のレポートによると、Outflank の研究者らが 8 月に開催されるサイバーセキュリティ イベント「Black Hat 2025」で、Microsoft Defender for Endpoint のセキュリティを回避する機能を備えた新しい AI マルウェアをリリースする予定だという (Tom's Hardware 経由)。
Outflank の主席攻撃スペシャリストリーダーである Kyle Avery 氏は Dark Reading に対し、AI マルウェアの開発に約 3 か月を費やし、さらに Microsoft Defender を回避できるように Qwen 2.5 LLM をトレーニングするのに 1,500 ~ 1,600 ドルを費やしたことを明らかにしました。
興味深いことに、熱心なAI研究者である彼は、OpenAIのGPTモデルと、最近の主力推論モデルであるo1との比較について、いくつかの洞察を共有しました。彼はGPT-4がGPT-3.5からの大幅なアップグレードであったことを認めつつも、OpenAIのo1推論モデルは高度な機能を備えており、特にコーディングと数学に優れていると説明しています。
AIと強化学習が完璧なハッカーの楽園を築く
しかし、これらの機能はモデルの書き込み能力を制限しているように見え、研究者はこれは設計上の問題だと主張している。DeepSeekがR1オープンソースモデルをリリースし、その開発の詳細を記した研究論文が発表された後、彼はこの結論に至った。
Windows と Xbox の熱狂的なファンのための最新ニュース、レビュー、ガイド。
エイブリー氏によると、DeepSeekは強化学習技術を活用することで、コーディングを含む幅広い分野においてモデルの能力を向上させたという。そして、Microsoft Defenderのセキュリティソリューションを回避するAIマルウェアの開発においても、この理論を応用した。
研究者は、LLM は主にインターネット データを使用してトレーニングされるため、従来のマルウェアにアクセスして AI 駆動型の同等のものをトレーニングすることが困難であり、このプロセスは簡単ではなかったと認めています。
ここで強化学習が重要な役割を果たしました。研究者は、Qwen 2.5 LLMをMicrosoft Defender for Endpointと連携したサンドボックスに配置しました。そして、AIモデルがどの程度回避ツールの出力に近づいたかを評価するプログラムを作成しました。
エイブリーによれば:
「もちろん、すぐにはできません。1000回に1回くらい、運が良ければ、機能するものの何も回避できないマルウェアを作成できるかもしれません。そして、それができたら、そのマルウェアが機能したことに対して報酬を与えることができるのです。」
「これを繰り返していくと、機能するものを作るのがだんだんと安定してきます。これは、例を示したからではなく、機能するマルウェアにつながるような思考プロセスを実行する可能性が高くなるように更新されたからです。」
最終的に、AveryはAPIを組み込み、Microsoft Defenderによって生成された類似のアラートを簡単にクエリして取得できるようにしました。これにより、ソフトウェアのセキュリティブロックを回避してアラートをトリガーする可能性が低いマルウェアをモデルで開発することがはるかに容易になりました。
研究者は最終的に、AI を使用して Microsoft Defender の高度なセキュリティ ソリューションを約 8% の確率で回避できるマルウェアを生成することに成功し、目的の出力を実現しました。
比較すると、AnthropicのClaude AIは同様の結果を1%未満の確率で再現しましたが、DeepSeekのR1は1.1%という大きな差で、その差は歴然としていました。AI詐欺やマルウェアがますます巧妙化する中で、Microsoftのような企業がセキュリティソリューションの強化に取り組むかどうかは興味深いところです。現時点では、彼らには基本的に選択肢がありません。
ケビン・オケムワは、ケニアのナイロビを拠点とするベテランのテクノロジージャーナリストです。Windows Centralで業界の最新トレンドや動向を幅広く取材し、豊富な経験を有しています。イノベーションへの情熱と細部への鋭い洞察力を持つ彼は、OnMSFT、MakeUseOf、Windows Reportといった主要メディアに寄稿し、Microsoftエコシステムを取り巻くあらゆるトピックについて、洞察力に富んだ分析と最新ニュースを提供しています。常に変化するテクノロジーのトレンドを追っている暇な時は、世界を旅したり、音楽を聴いたりしています。