オーストラリア、AIへの義務的ガードレールを提案

オーストラリア、AIへの義務的ガードレールを提案

AIモデルのテスト、人間への情報提供、AIによる自動決定への異議申し立て権の付与といった要件は、オーストラリア政府がAIリスクを最小限に抑え、テクノロジーに対する国民の信頼を築くための方法として提案した10の必須ガードレールの一部にすぎません。

2024年9月にエド・フシック産業科学大臣によって意見公募が開始されたこのガードレールは、高リスク環境で使用されるAIにもまもなく適用される可能性があります。また、企業がAIのベストプラクティスを直ちに導入することを奨励するために設計された、新たな自主的なAI安全基準も導入されています。

提案されている必須の AI ガードレールとは何ですか?

オーストラリアが提案する10の義務的ガードレールは、AIを高リスク環境で開発・展開する際に、AIを安全かつ責任を持って使用する方法について明確な期待を設定することを目的としています。AIによるリスクと危害に対処し、国民の信頼を築き、企業に規制の確実性を高めることを目指しています。

ガードレール1:説明責任

カナダとEUのAI関連法の要件と同様に、組織は規制遵守のための説明責任プロセスを確立、実施、公開する必要があります。これには、データおよびリスク管理に関するポリシー、明確な社内の役割と責任といった側面が含まれます。

ガードレール2:リスク管理

AIのリスクを特定し、軽減するためのリスク管理プロセスを確立し、実装する必要があります。これは、技術的なリスク評価にとどまらず、リスクの高いAIシステムを導入する前に、人々、コミュニティグループ、そして社会への潜在的な影響を考慮する必要があります。

参照:2024年のオーストラリア企業におけるAIの革新的な活用事例9選

ガードレール3: データ保護

組織は、サイバーセキュリティ対策によってプライバシーを保護するためにAIシステムを保護するとともに、データの品質とその入手先を管理するための堅牢なデータガバナンス対策を構築する必要があります。政府は、データの品質がAIモデルの性能と信頼性に直接影響を与えると指摘しました。

ガードレール4:テスト

高リスクのAIシステムは、市場に投入する前にテストと評価を行う必要があります。また、導入後は継続的に監視を行い、期待通りに動作することを確認する必要があります。これは、AIシステムが具体的かつ客観的で測定可能なパフォーマンス指標を満たし、リスクを最小限に抑えるためです。

オーストラリア政府が安全で責任あるAIをどのように支援しているかを説明するインフォグラフィック
オーストラリア政府が安全で責任あるAIを支援する方法

ガードレール5:人間の制御

高リスクのAIシステムには、人間による意味のある監視が不可欠です。つまり、組織は人間がAIシステムを効果的に理解し、その運用を監視し、AIサプライチェーン全体とAIライフサイクル全体にわたって必要に応じて介入できるようにする必要があります。

ガードレール6:ユーザー情報

組織は、エンドユーザーがAIを活用した意思決定の対象となっている場合、AIとやり取りしている場合、あるいはAIが生成したコンテンツを利用している場合、AIがどのように利用され、どのような影響が及ぶのかをエンドユーザーに理解してもらうために、その旨をエンドユーザーに伝える必要があります。これは、明確でアクセスしやすく、関連性のある方法で伝える必要があります。

ガードレール7:AIへの挑戦

AIシステムによって悪影響を受けた人々は、その使用や結果に異議を申し立てる権利を有します。組織は、高リスクAIシステムの影響を受ける人々が、AIを活用した意思決定に異議を唱えたり、自身の経験や扱いについて苦情を申し立てたりするためのプロセスを確立する必要があります。

ガードレール8:透明性

組織は、AIサプライチェーンに対してデータ、モデル、システムに関する透明性を確保し、リスクへの効果的な対応を図る必要があります。これは、一部の関係者がシステムの仕組みに関する重要な情報を欠いている場合があり、今日の高度なAIモデルに見られる問題と同様に、説明可能性が限られる可能性があるためです。

ガードレール9: AIレコード

AIシステムに関する様々な記録(技術文書を含む)の保管と維持は、そのライフサイクル全体を通じて必要となります。組織は、関係当局からの要請に応じて、またガイドラインへの準拠状況を評価する目的で、これらの記録を提出する準備を整えておく必要があります。

参照: ビジネスを理解していないと、生成AIプロジェクトが失敗するリスクがある理由

ガードレール10:AI評価

組織は、高リスクAIシステムのガイドラインを遵守していることを示すために、説明責任と品質保証のメカニズムとされる適合性評価を受ける必要があります。これは、AIシステム開発者、第三者、政府機関、または規制当局によって実施されます。

10 個の新しい義務的ガードレールはいつ、どのように施行されますか?

ガードレールの設置義務については、2024年10月4日まで公聴会が行われる予定だ。

ハシック氏によると、その後、政府はガイドラインを最終決定し、施行することを目指すとのことで、これには新たなオーストラリアAI法の制定も含まれる可能性があると付け加えた。

その他のオプションは次のとおりです:

  • 既存の規制枠組みを新しいガードレールを組み込むように適応させること。
  • 既存の法律に関連する改正を伴う枠組み法律を導入します。

フシック氏は、政府は「できるだけ早く」これを実行すると述べた。このガードレールは、2023年6月から続いているAI規制に関する長期にわたる協議プロセスから生まれたものだ。

政府はなぜこのような規制のアプローチを取っているのでしょうか?

オーストラリア政府は、EUに倣い、AI規制においてリスクベースのアプローチを採用しています。このアプローチは、AIがもたらすメリットと、高リスク環境への導入のバランスを取ることを目指しています。

高リスク環境に焦点を当てる

政府はオーストラリアにおける安全で責任あるAIに関する提案書の中で、ガードレールで提案されている予防措置は「壊滅的な被害が発生する前にそれを回避する」ことを目的としている、と説明している。

政府は協議の一環として、高リスクAIを定義する予定です。ただし、個人の人権への悪影響、心身の健康や安全への悪影響、名誉毀損コンテンツなどの法的影響といったシナリオも考慮するとしています。

企業はAIに関するガイダンスを必要としている

政府は、企業がAIを安全かつ責任を持って導入するには明確なガイドラインが必要だと主張している。

国立 AI センターの委託を受けて新たに発表された「責任ある AI 指数 2024」によると、オーストラリアの企業は責任ある AI 実践を導入する能力を常に過大評価していることがわかりました。

インデックスの結果は次のようになりました:

  • オーストラリア企業の 78% は AI を安全かつ責任を持って実装していると考えていますが、実際に正しかったのはわずか 29% でした。
  • オーストラリアの組織は、平均して 38 の責任ある AI 実践のうち 12 のみを採用しています。

企業と IT チームは今何をすべきでしょうか?

義務的なガードレールにより、リスクの高い環境で AI を使用する組織には新たな義務が生じます。

IT チームとセキュリティ チームは、データ品質とセキュリティ義務、サプライ チェーンを通じたモデルの透明性の確保など、これらの要件の一部を満たすことに携わる可能性があります。

自主的なAI安全基準

政府は現在企業が利用できる自主的なAI安全基準を発表しました。

備えをしたい IT チームは、AI 安全基準を使用して、新しい必須ガードレールを含む可能性のある将来の法律に基づく義務に自社の対応を迅速に進めることができます。

AI 安全標準には、汎用 AI チャットボットの一般的な使用例を含む具体的なケーススタディ例を通じて、企業が標準を適用および採用する方法に関するアドバイスが含まれています。

Tagged: