AIディープフェイクがアジア太平洋地域の組織にとってリスクとして増大

AIディープフェイクがアジア太平洋地域の組織にとってリスクとして増大

AIディープフェイクは、つい最近まで組織のリスクレーダーには入っていませんでしたが、2024年にはその重要性が高まっています。AIディープフェイクは、株価の暴落から誤情報によるブランド信頼の失墜まで、あらゆる事態を引き起こす可能性があるため、しばらくの間、リスクとして認識される可能性が高いでしょう。

サイバーセキュリティ企業Tenableの最高セキュリティ責任者兼リサーチ責任者であるロバート・フーバー氏は、TechRepublicとのインタビューで、AIディープフェイクは様々な悪意ある攻撃者によって悪用される可能性があると主張しました。検出ツールはまだ成熟段階ですが、アジア太平洋地域の企業は、ディープフェイクをリスク評価に加え、自社コンテンツをより適切に保護することで、対策を講じることができます。

最終的には、AIに関する国際基準が収束すれば、組織の保護が強化される可能性が高い。フーバー氏は、大手テクノロジープラットフォーム企業に対し、AI生成コンテンツの識別を専門家ではない個人ユーザーに任せるのではなく、より強力かつ明確に行うよう求めた。

AIディープフェイクは社会と企業にとって増大するリスクとなっている

AIによって生成される誤情報や偽情報のリスクは、世界的なリスクとして浮上しています。2023年にAI生成ツールの波が到来した後、2024年には、このリスクカテゴリー全体が世界経済フォーラムの2024年版グローバルリスク報告書において2番目に大きなリスクとなりました(図A)。

図A

「2024年版グローバルリスク報告書」によると、AIによる誤情報は2024年に「世界規模の重大な危機」となる可能性がある。
2024年版グローバルリスク報告書によると、AIによる誤情報は2024年に「世界規模の重大な危機」となる可能性がある。画像:世界経済フォーラム

企業、学術界、政府、市民社会の関係者からなる回答者の半数以上(53%)が、ディープフェイクを含むAI生成の誤情報や偽情報をリスクとして挙げました。また、誤情報は今後2年間における最大のリスク要因としても挙げられました(図B)。

図B

誤情報や偽情報のリスクは短期的には高いと予想され、10年間にわたって上位5位以内に留まると予想されます。
誤情報と偽情報のリスクは短期的には高いと予想され、今後10年間で上位5位以内に留まると予想されます。画像:世界経済フォーラム

企業はAIディープフェイクのリスクをすぐには考慮していません。例えば、Aonのグローバルリスクマネジメント調査では、AIによって引き起こされる事業の中断やブランド・評判の毀損について企業が懸念しているにもかかわらず、ディープフェイクについては言及されていません。

フーバー氏は、AIディープフェイクのリスクは依然として顕在化しており、AIの急速な変化に伴い変化しつつあると述べた。しかし、アジア太平洋地域の企業はこれを考慮すべきリスクだとフーバー氏は述べた。「これは必ずしもサイバーリスクではなく、企業全体のリスクです」と彼は述べた。

AIディープフェイクは、ほぼあらゆる脅威アクターにとって新たなツールとなる

AIディープフェイクは、あらゆる敵対者や脅威アクターにとって、目的を達成するための新たな選択肢となることが予想されます。フーバー氏は、地政学的な目的を持つ国家や、金銭的利益や影響力といった動機を持つ理想主義的なアジェンダを持つ活動家グループなどが、こうした攻撃に利用される可能性があると述べました。

「国家レベルのグループから環境問題に関心を持つグループ、ディープフェイクで収益を上げたいだけのハッカーまで、あらゆるものがここに存在します。これは悪意のある行為者にとって、ツールボックスに加えられた新たな武器となるでしょう」とフーバー氏は説明した。

参照:生成AIがランサムウェアの世界的な脅威を増大させる可能性

ディープフェイクのコストが低いということは、悪意のある行為者にとって参入障壁が低いことを意味する。

AIツールの使いやすさとAI素材の低コスト化により、悪意のある攻撃者が新しいツールを利用しようとする際の障壁はほとんどなくなりました。フーバー氏は、過去との違いの一つとして、脅威アクターが容易に入手できるAIツールの品質レベルが高まっている点を挙げました。

「数年前は(コストの)参入障壁は低かったものの、品質も低かった」とフーバー氏は述べた。「今もハードルは低いものの、(生成AIによって)品質は大幅に向上しています。そのため、ほとんどの人にとって、追加の手がかりなしにディープフェイクを見分けるのは難しくなってきているのです。」

AIディープフェイクが組織にもたらすリスクとは何でしょうか?

AIディープフェイクのリスクは「非常に深刻」であるため、アジア太平洋地域の組織のリスク評価アジェンダには含まれていないとフーバー氏は述べた。しかし、マイクロソフト自身も報告している、国家主導によるマイクロソフトへのサイバー攻撃に言及し、人々に「もしそれがディープフェイクだったらどうなるだろうか?」と問いかけるよう促した。

「誤報であろうと影響力であろうと、マイクロソフトは世界中の様々な政府や様々な理由で、自社の事業のために大規模な契約を獲得しようとしています。これはマイクロソフトのような企業の信頼性を物語るものであり、あらゆる大規模テクノロジー企業に当てはまるでしょう。」

企業契約の喪失

営利企業であれば、AIディープフェイク素材の影響を受ける可能性があります。例えば、偽情報の発信は世界中で疑問視されたり、契約が失効したり、社会的な懸念や組織への反発を引き起こし、企業の将来に悪影響を及ぼす可能性があります。

物理的なセキュリティリスク

AIディープフェイクは、ビジネス混乱の主要なリスクに新たな側面を加える可能性があります。例えば、AIが発信する誤情報は暴動を引き起こしたり、暴動の印象を与えたりする可能性があり、人や事業への危険、あるいは単に危険を認識させるだけかもしれません。

ブランドと評判への影響

フォレスターは、潜在的なディープフェイク詐欺のリストを公開しました。これには、組織の評判やブランド、従業員体験や人事へのリスクが含まれます。その一つが、AIディープフェイクが他のAIディープフェイクを拡散するために使用され、より広範な視聴者に届くという増幅リスクです。

財務への影響

金融リスクには、AIディープフェイクを用いた株価操作や金融詐欺のリスクが含まれます。最近、香港の多国籍企業の財務担当者が、ビデオ会議で企業の最高財務責任者(CFO)を装う高度なAIディープフェイク詐欺に遭い、2,500万米ドル(4,000万豪ドル)を詐取されました。

個人検出は組織にとってディープフェイク対策にはならない

アジア太平洋地域の組織にとって大きな問題は、AIディープフェイクの検出が誰にとっても難しいことです。規制当局やテクノロジープラットフォームはAIの発展に対応しようとしていますが、ディープフェイクを見分ける責任の多くは、仲介者ではなく、個々のユーザー自身にかかっています。

これにより、個人や群衆の信念が組織に影響を与える可能性があります。メディアやソーシャルメディアの誤情報が含まれる可能性のある環境において、ブランドや従業員に関する有害な情報が真実なのか、それともディープフェイクなのかを、個人がリアルタイムで判断することが求められています。

個々のユーザーは事実と虚構を区別する能力を持っていない

フーバー氏は、AIが生成したディープフェイクとそうでないものを個人が見分けることを期待するのは「問題がある」と述べた。現状では、AIディープフェイクは技術専門家でさえ見分けるのが難しい場合があり、AIディープフェイクの識別経験が少ない個人にとっては苦労するだろうとフーバー氏は主張した。

「まるで『サイバーセキュリティを理解できるよう、全員にトレーニングをします』と言っているようなものです。ACSC(オーストラリアサイバーセキュリティセンター)はサイバーセキュリティに関する優れたガイダンスを数多く発表していますが、実際にサイバーセキュリティの現場にいる人以外に、誰がそれを読んでいるのでしょうか?」と彼は問いかけました。

バイアスも要因の一つです。「自分にとって重要なコンテンツを見ているときは、バイアスがかかっています。動きや身振りのニュアンス、あるいは映像が3Dかどうかといったことに意識を集中する可能性は低くなります。興味のあるコンテンツであれば、スパイダーマンのような感覚を使って異常な部分を探すこともないのです。」

組織が AI ディープフェイクのリスクと戦うために役立つものは何でしょうか?

AIディープフェイクの台頭は、ディープフェイクを作成する悪意のある者と、それを検出・阻止しようとする者との間で「いたちごっこ」につながる可能性が高いとフーバー氏は述べた。そのため、「軍拡競争」が現実をめぐる戦争を引き起こすにつれ、AIディープフェイクの検出を支援するツールや機能は急速に変化する可能性が高い。

組織が AI ディープフェイクに正面から対処するのに役立つものがいくつかあります。

国際的なAI規制基準の形成

オーストラリアは、透かしなどの手段を通じてAIコンテンツの規制を検討している法域の一つです。世界中の他の法域がAI規制に関する合意形成に向けて進むにつれ、AIコンテンツのより適切な識別を支援するためのベストプラクティスのアプローチについても、収束していくことが予想されます。

フーバー氏は、これは非常に重要ではあるものの、国際規範に従わない主体も存在すると述べた。「どのような規制を設けようと、あるいはどのように最小限に抑えようと、そうしようとする人々が依然として存在するという暗黙の了解が必要です。」

参照:EUの人工知能に関する新しい規則の概要

AIディープフェイクを検知する大手テクノロジープラットフォーム

重要なステップとして、MetaやGoogleのような大手ソーシャルメディアやテクノロジープラットフォームが、AIディープフェイクコンテンツへの対策を強化し、プラットフォーム上のユーザーに対してより明確に識別できるようにすることが挙げられます。こうした責任をさらに強化することで、組織、従業員、一般の人々といった専門家ではないエンドユーザーが、ディープフェイクかどうかを自ら識別する作業が軽減されるでしょう。

フーバー氏は、これはITチームの支援にもなると述べた。AIディープフェイクを事前に特定し、ユーザーにより多くの情報やツールを提供することで、組織はディープフェイク検出ツールの購入と管理、そしてそれを管理するためのセキュリティリソースの割り当てに必要なIT投資を削減できる。

AIディープフェイクをリスク評価に追加する

アジア太平洋地域の組織は、AIディープフェイクに関連するリスクを、通常のリスク評価手順の一部に組み込むことを早急に検討する必要があるかもしれません。例えば、フーバー氏は、組織は社内外で制作するコンテンツの管理と保護について、より積極的に取り組む必要があり、また、これらの対策を第三者向けに文書化する必要があると述べています。

「成熟したセキュリティ企業のほとんどは、ベンダーの第三者によるリスク評価を行っています。しかし、デジタルコンテンツをどのように保護しているかといった質問は、これまで見たことがありません」と彼は述べた。フーバー氏は、テクノロジー企業が実施する第三者によるリスク評価には、ディープフェイクに起因するリスクの最小化に関する質問も含める必要が近い将来出てくるだろうと予想している。

AIディープフェイク検出ツールが追い上げている

テクノロジー企業は、AIディープフェイクの増加に対応するためのツールの提供に動いています。例えば、Intelのリアルタイムツール「FakeCatcher」は、動画内の人間の血流をピクセル単位で評価することでディープフェイクを識別するよう設計されており、「人間らしさ」に基づいてフェイクを特定します。

フーバー氏は、AIディープフェイクを検出・識別するツールの能力はまだ発展途上だと述べた。市販されているツールをいくつか調べた後、フーバー氏は「この分野は急速に変化している」ため、現時点で特に推奨できるものはないと述べた。

Tagged: