出版

アフィリエイトリンクまたはスポンサーシップを通じて、ベンダーから収益を得る場合があります。これにより、サイト上の商品配置が影響を受ける可能性がありますが、レビューの内容には影響しません。詳細は利用規約をご覧ください。
AIクローンとディープフェイクは、2025年にオーストラリアのサイバーセキュリティ専門家にとって最大の課題の一つに挙げられます。
セキュリティ技術企業インフォブロックスによると、オーストラリアのサイバーセキュリティ専門家は、2025年には脅威の主体が人工知能を悪用して戦術を多様化し、組織を狙ったサイバー攻撃の規模を拡大すると予想している。
昨年、アジア太平洋地域のサイバーチームは、金融詐欺などの犯罪を実行するために AI が使用されている最初の兆候を目撃しました。また、オーストラリアの金融サービス部門における DDoS 攻撃と AI を関連付ける人もいます。
今年、オーストラリアのサイバー防衛担当者は、AI が新しい種類のサイバー攻撃に使用されることを予想しています。
- AI クローニング: AI を使用して合成音声を作成し、金融詐欺を働く可能性があります。
- AI ディープフェイク:説得力のある偽の動画で、被害者をクリックさせたり、詳細情報を提供させたりする可能性があります。
- AI 搭載チャットボット: AI チャットボットは複雑なフィッシング キャンペーンの一部となる可能性があります。
- AI 強化マルウェア:犯罪者は LLM を使用して、リミックスされたマルウェア コードを吐き出す可能性があります。
- AI のジェイルブレイク:脅威の攻撃者は、安全対策のない「ダーク」 AI モデルを使用します。
InfobloxのBart Lenaerts-Bergmans氏はウェビナーでオーストラリアの防御者に対し、AIツールや技術にアクセスできる攻撃者が増えるため、攻撃の頻度と巧妙さが増すと予想されると語った。
1. クローン作成のためのAI
攻撃者は生成AIツールを用いて、リアルに聞こえる合成音声コンテンツを作成できます。このクローン作成プロセスは迅速に実行でき、音声インタビューなどの公開されているデータを利用してAIモデルをトレーニングし、クローン音声を生成します。
参照:オーストラリア政府がAIに対する義務的なガードレールを提案
レナーツ=バーグマンズ氏によると、クローン音声は元の音声と比べてイントネーションやテンポにわずかな違いしか見られないという。攻撃者は、偽装したメールドメインなどの他の手法とクローン音声を組み合わせることで、本物らしく見せかけ、金融詐欺を助長することができる。
2. AIディープフェイク
犯罪者はAIを駆使して著名人のリアルなディープフェイク動画を作成し、仮想通貨詐欺などの悪質な行為に被害者を誘い込むことができます。この合成コンテンツは、ソーシャルエンジニアリングや詐欺行為をより効果的に行うために利用される可能性があります。
Infobloxは、数百万人の登録者数を誇るYouTubeアカウントにアップロードされたイーロン・マスクのディープフェイク動画を引用しました。QRコードを使用することで、多くの視聴者が悪質な仮想通貨サイトや詐欺サイトに誘導されました。YouTubeがこれらの動画を削除するまで12時間を要しました。
3. AI搭載チャットボット
攻撃者は、自動会話エージェント、いわゆるAIチャットボットを用いて被害者との信頼関係を構築し、最終的には詐欺行為に及ぶようになっています。この手法は、企業がAIを用いて人間主導のインタラクションとAIチャットボットを組み合わせ、顧客とのエンゲージメントを高め「コンバージョン」を図る手法を模倣しています。
暗号資産詐欺の一例として、攻撃者がSMSを利用して関係を構築し、その後AIチャットボットの要素を組み込んで計画を進め、暗号資産ウォレットへのアクセスを獲得するというケースが挙げられます。Infobloxは、こうした詐欺の兆候として、不審な電話番号や、回答を繰り返したり一貫性のない言葉遣いをする不適切な言語モデルなどが挙げられていると指摘しています。
4. AI強化マルウェア
犯罪者はLLMを利用して既存のマルウェアを自動的に書き換え、変異させることでセキュリティ対策を回避できるようになり、防御側による検出と軽減が困難になります。コードがマイナスの検出スコアを達成するまで、この動作は複数回実行される可能性があります。
参照:2024年のオーストラリアにおけるデータ侵害の憂慮すべき状況
例えば、ドライブバイダウンロード攻撃に利用されるJavaScriptフレームワークをLLMに入力すると、変数名の変更、コードの挿入、スペースの削除といったコード改変によって、一般的なセキュリティ検出対策を回避できる可能性があります。
5. AIの脱獄
犯罪者は、ChatGPTやMicrosoft Copilotといった従来のLLMの安全対策を回避し、悪意のあるコンテンツを自由に生成しています。「ジェイルブレイク」AIモデルと呼ばれるこれらのモデルには、法的または倫理的なガードレールが組み込まれていないFraudGPT、WormGPT、DarkBERTなどが既に含まれています。
レナーツ=バーグマンズ氏は、サイバー犯罪者はこれらのAIモデルを利用して、フィッシングページや正規のサービスを模倣したメールなど、悪意のあるコンテンツをオンデマンドで生成できると説明した。中には、ダークウェブで月額わずか100ドルで入手できるものもある。
検知・対応能力の有効性が低下することが予想される
レナーツ・バーグマンズ氏は、AIの脅威によってセキュリティチームに情報ギャップが生じ、ファイルハッシュなどの既存の戦術的指標が完全に一時的なものになる可能性があると述べた。
同氏は、AIツールが導入されると「検知・対応能力の有効性は低下するだろう」と述べた。
Infobloxは、DNSレベルで犯罪者を検出することで、サイバーチームがサイバー犯罪者のワークフローの早い段階で情報を収集し、脅威が実際の攻撃にエスカレートする前に阻止できる可能性があると述べた。
こちらもご覧ください
- オーストラリアの公共部門は大規模なサイバーセキュリティインシデントに備えていますか?
- オーストラリアの新しい詐欺防止法:知っておくべきこと
- オーストラリア、AIへの義務的ガードレールを提案
- Tenable:サイバーセキュリティ専門家は国家主導のサイバー攻撃を警戒すべき
- IBMのレポートによると、オーストラリアの組織はデータ侵害による損失を被っている

ベン・アボット
ベンは、TechRepublicのオーストラリアおよびアジア太平洋地域におけるローカルコンテンツリードです。オーストラリアのシドニーを拠点とし、オーストラリア、アジア、イギリスでB2Bジャーナリスト兼編集者として20年以上の経験を積み、銀行・金融、教育、法律など、複数の業界におけるテクノロジーの動向を取材してきました。現在は、テクノロジーベンダーや製品の最新情報から、AI、デジタルトランスフォーメーション、サイバーセキュリティといった分野における組織が直面する課題と機会に関する、現地の業界ソートリーダーによる分析まで、ビジネステクノロジーの購入者にとって重要なニュースやトレンドをカバーしています。