2024年、サイバー犯罪者の間でAIジェイルブレイキングへの関心が50%急増 — セキュリティ担当者はどう対応すべきか
過去1年間にわたり、KELAは、サイバー犯罪者たちが新たなジェイルブレイキング手法をサイバー犯罪系のアンダーグラウンドコミュニティで継続的に共有・拡散している様子を観測してきました。こうしたジェイルブレイキング手法の拡大は、AIを活用する組織にとってますます深刻な脅威となっており、安全対策の回避、有害なコンテンツの生成、許可されていないデータへのアクセスを可能にしてしまいます。
Updated 4月 15, 2025.

(注:本ブログはAIで翻訳しています)
もしサイバー犯罪者が、AIを操ってフィッシングメールを生成したり、悪意あるコードを書かせたり、さらには攻撃の指示まで出せるとしたらどうでしょうか? しかもそれが、たった数個のプロンプト(指示)を入力するだけで可能だったとしたら——。
これは未来の話ではなく、すでに現実に起きている脅威です。サイバー犯罪者たちは、悪用可能なAIツールを使用したり、一般公開されている生成AIのガードレール(安全制限)を回避しようとする行為をますます加速させています。実際、アンダーグラウンドフォーラムにおける「ジェイルブレイキング(Jailbreaking)」という言葉の言及数は、2024年に50%も急増しており、これは世界中の組織に対する新たな脅威の拡大を示す明確な兆候となっています。
ディープフェイク詐欺の作成からマルウェア開発の自動化に至るまで、こうした脅威は急速にエスカレートしています。防御側が対応に追われる中、勝つのは、AIを武器にする攻撃者でしょうか?それとも、攻撃を阻止しようとするセキュリティチームでしょうか?本ブログでは、最新の脅威、進化する攻撃手法、そして組織が悪意あるAIにどう立ち向かうべきかについて詳しくご紹介します。この戦いで一歩先を行くために、ぜひ本ブログをご一読ください。
ジェイルブレイキング:AIアプリケーションを密やかに悪用
過去1年間にわたり、KELAは、サイバー犯罪者たちが新たなジェイルブレイキング手法をアンダーグラウンドのサイバー犯罪コミュニティで継続的に共有・拡散している様子を観測してきました。AIジェイルブレイキングとは、AIシステムに組み込まれている安全制限を回避するプロセスを指します。脅威アクターたちは、新しいAIモデルが登場するたびに創造性を発揮し、新たなジェイルブレイク手法を開発・拡散しています。
こうした技術の拡大は、AIを活用する企業にとって急速に深刻化する脅威となっており、ユーザーが安全対策をすり抜けることを可能にする危険な手段となりつつあります。
ダークAIツール:サイバー犯罪地下市場で拡大する人気
ダークAIツールとは、ChatGPTのような一般公開されている生成AIのジェイルブレイク版や、安全制限のないオープンソースLLM(大規模言語モデル)を指し、サイバー犯罪者によって高度に標的化されたサイバー攻撃の実行に利用されています。
これらのツールを用いることで、脅威アクターは以下のような違法行為を効率的に実行することができます:
悪意あるコードの生成
フィッシングテンプレートの作成
新たな脆弱性の悪用
ダークAIの普及により、これまでにないスピードと精度で攻撃が可能になっており、防御側にとっては極めて深刻な脅威となっています。
悪意あるAIツールが、サイバー犯罪の参入障壁を引き下げ
悪意あるAIツールは、サイバー犯罪への参入コストとスキルのハードルを著しく下げています。これにより、技術的な知識が乏しい個人でも、高度なハッキングツールや悪質なスクリプトを手に入れ、洗練された攻撃キャンペーンを実行できる環境が整ってしまっています。2024年に最も人気を集めたツールのひとつは、WormGPTです。WormGPTは検閲のないAIツールであり、サイバー犯罪者がビジネスメール詐欺(BEC)攻撃やフィッシングキャンペーンを行う際に活用されています。
KELAが観測したところ、2024年には脅威アクターがWormGPTや他の悪意あるAIツールを常に探し求めている様子が確認されました。 実際、WormGPT、WolfGPT、DarkGPT、FraudGPTなどのツールに関する言及数は、サイバー犯罪コミュニティで200%増加(2023年比)しており、これらのツールがいかに急速に拡散・定着しつつあるかを示す明確な証拠となっています。
サイバー犯罪におけるAIの悪用:主要な攻撃ベクトルとは
KELAは過去1年間にわたり、ジェイルブレイクされた公開型生成AIツールやカスタマイズされたダークAIツールを利用する脅威アクターのさまざまな手口を観測してきました。これらのツールを使うことで、攻撃者はあらゆるトピックやタスクに関するプロンプトをLLM(大規模言語モデル)に与え、悪意あるコンテンツを出力させることが可能になります。以下は、サイバー犯罪者がAIツールを悪用する際に用いている主な攻撃手法です。
1. フィッシングとソーシャルエンジニアリングの自動化
サイバー犯罪者は近年、AIツールを活用してフィッシングやソーシャルエンジニアリングの効果を高める傾向を強めています。これには、テキスト・音声・画像を用いた手法が含まれており、AIを使うことで、非常に説得力のある攻撃コンテンツを自動生成することが可能になっています。
ハーバード・ビジネス・レビューが発表した研究によると、AIによって自動化されたフィッシング攻撃は、攻撃コストを95%以上削減しながら、同等またはそれ以上の成功率を達成していることが示されています。
2. 脆弱性リサーチの自動化
サイバー犯罪者がAIを活用して攻撃活動を強化するもう一つの手段が、自動スキャンと解析による脆弱性調査です。攻撃者は、AI駆動のツールを使ってペネトレーションテストを自動化し、セキュリティ防御に潜む脆弱性を迅速に発見しています。これにより、攻撃サイクルは大幅に短縮され、セキュリティチームが対応する前に攻撃を仕掛けることが可能となります。 たとえばKELAは、脅威アクターが中国のAIモデル「DeepSeek」を利用してソフトウェアの脆弱性を悪用していた事例を確認しています。
3. マルウェアおよびエクスプロイトの開発
サイバー犯罪者は、AIツールを活用してマルウェアやエクスプロイトコードの作成を自動化・効率化しています。これにより、高度でカスタマイズされた悪意あるコードの開発が、これまで以上に短時間で容易に行えるようになっています。また、コードの難読化や検知回避機能の組み込みもAIによって支援されており、従来よりも洗練された攻撃手法が数多く登場しています。
4. なりすまし詐欺および金融犯罪
2024年12月、FBIはサイバー犯罪者が生成AIを悪用して詐欺手法を高度化させ、より巧妙で広範な詐欺を行っていると警告しました。 同様に、KELAも金銭的利益を目的としたアクターが詐欺や詐欺活動に特化した悪意のあるAIツールを宣伝していることを観察しています。2023年7月、"canadiankingpin"というアクターがサイバー犯罪フォーラムでFraudGPTを宣伝し、フィッシングページの生成からVBV BINの特定まで、多様な悪意のある機能を備えたAIチャットボットを提供しました。 このツールは2024年にもサイバー犯罪フォーラムで流通しており、脅威アクターの関心を集めていました。
5. サイバー攻撃の自動化
悪意あるAIツールを使うことで、攻撃者はサイバー攻撃の実行をより簡単かつ自動化された形で行えるようになっています。たとえばパスワードクラックでは、漏洩したパスワードデータベースをもとに機械学習モデルを訓練することで、よく使われるパスワードやパターンを高精度に予測できるようになります。これにより、総当たり攻撃(ブルートフォース攻撃)の速度と成功率が大幅に向上します。
また、AIはクレデンシャルスタッフィング(盗まれた認証情報を複数のサイトで試す攻撃)の効率を高めることにも使われています。 さらに、ネットワーク攻撃の分野においては、分散型サービス拒否攻撃(DDoS)をAIが最適化するといった事例も確認されています。
AIにはAIで対抗
AIを活用したサイバー攻撃が企業を標的にする時代においては、従来型の防御だけではもはや不十分です。脅威アクターが使用する最新の戦術やAI技術に対する理解と可視性が、今後の対策の鍵となります。KELAの最新レポート『2025年AI脅威レポート:サイバー犯罪者はいかにAI技術を武器化しているのか』では、 AIに関連する最新の脅威動向と、防御側がAIにAIで立ち向かうための実践的なアプローチを詳しく解説しています。
また、AIにおけるダークツールの実態を取り上げた最新ウェビナーも公開しておりますので、あわせてご覧ください。