デロイト:多くの組織は、生成AIの使用に関する倫理基準があるかどうかわからない

デロイト:多くの組織は、生成AIの使用に関する倫理基準があるかどうかわからない

デロイトの新しいレポートによると、多くの企業が生成型AIの試験運用に着手しているものの、その使用をガイドする倫理基準が整っているかどうかわからない企業が56%あるという。

2023年のテクノロジーにおける倫理と信頼の現状に関するレポートによると、回答者の約4分の3(74%)が自社で生成AIのテストを開始したと回答し、65%がすでに社内で使用しており、31%が社外目的でこのテクノロジーを使い始めています。

「(生成AIの)導入が倫理原則の発展を上回っている」とデロイトコンサルティングのマネージングディレクターでテクノロジートラスト倫理プラクティスのリーダーを務めるビーナ・アマナス氏はTechRepublicに語った。

このレポートでは、生成AIに加えて、どのテクノロジーが最も深刻な倫理的リスクをもたらす可能性があるか、倫理上の失敗が米国企業にどの程度の損害を与える可能性があるかについても取り上げています。

ジャンプ先:

  • 新興技術の導入に伴う倫理の必要性
  • 倫理的リスクの可能性が最も高い技術
  • 悪用される可能性のある新興技術
  • 倫理的な失敗は米国企業に数百万ドルの損害をもたらす可能性がある
  • 新興技術を安全に使用するために組織がすべきこと
  • 調査方法

新興技術の導入に伴う倫理の必要性

非常に多くの企業が生成AIをテストし、使用しているため、「理想的には、新興技術の実装と倫理原則の開発が同時に行われ、これらの新興技術への信頼が高まることを期待しています」と、レポートの共著者であるアマナス氏は述べた。

回答者の約半数(49%)は、組織がAIに関する倫理原則を定義していると述べ、回答者の11%は、組織がデジタルリアリティ、分散型台帳技術、自律走行車、量子コンピューティング、ロボット工学、アンビエントエクスペリエンスなどの他の新興技術に関する具体的な倫理原則を持っていると回答したと彼女は指摘した。

ダウンロード: TechRepublic PremiumのAI倫理ポリシー

デロイトの調査によると、テクノロジーの性能が向上すればするほど、危害の可能性は高まることが明らかになりました。「新興テクノロジーの利用が加速する中、様々な新興テクノロジーソリューションを扱う組織は、それぞれのユースケースに特有のリスクと倫理的懸念を考慮することが急務となっています」と報告書は述べています。

倫理的リスクの可能性が最も高い技術

デロイトのレポートによると、生成AIを含む認知技術は、倫理的リスクの可能性が最も高い一方で、社会貢献の可能性も秘めているとのことです。今年の調査では、回答者の39%が、すべての新興技術の中で認知技術が最も社会貢献の可能性を秘めていると回答し、昨年の33%から増加しました。

しかし、認知技術は、回答者の57%が深刻な倫理的リスクをもたらす可能性が最も高い技術としてランク付けされており、2022年には41%でした。報告書によると、深刻な倫理的リスクをもたらす可能性のあるその他の新興技術は、デジタルリアリティ(11%)と量子コンピューティング(9%)です(図A)。

図A

社会的な利益と倫理的リスクの可能性が最も高い新興テクノロジー。
社会貢献と倫理的リスクの両面で最も大きな可能性を秘めた新興技術。画像:2023年デロイト・テクノロジー・トラスト倫理調査

「これらの技術はまだ初期段階にあり、完全な成熟には程遠く、その機能の多くは、ガバナンスと規制が完全に確立される前にテスト段階に入っている」とアマナス氏は説明した。

データは、大規模言語モデルを用いる認知技術にとって重要な要素であると彼女は付け加えた。「安全でない、セキュリティが確保されていない技術は、ユーザーやデータ主体のプライバシーを脅かす可能性があります。また、悪意のある人物は、データポイズニングなどの手法を用いて認知技術を悪用し、不正確で潜在的に有害な結果を出力させる可能性があります。」

さらに、「これらのテクノロジーは設計が非常に不透明であることで有名であり、正確性、堅牢性、信頼性、説明可能性などの要素を判断し評価することが困難です」とアマナス氏は述べた。

悪用される可能性のある新興技術

データプライバシーは、回答者が生成型AIに関して最も懸念していることの一つに挙げられました。それにもかかわらず、組織内の一般的な新興テクノロジーに関する最も重要な倫理原則の一つとしてデータプライバシーを選択した回答者の割合は、昨年の調査の19%から今年は7%に減少しました。

新興技術がどのように悪用されるかの一例としては、ドアベルカメラなどの一般的な監視技術が挙げられ、「これらは、自分の所有物やその周辺で起こるあらゆることを見る権利の価値を組み込んでいるが、ユーザーのプライバシーを侵害する恐れもある」と報告書は指摘している。

しかし、こうした技術の使用は必ずしも悪意のある目的ではないため、報告書は「新興技術は、有益なものも有害なものも含め、様々な潜在的影響を及ぼす可能性がある」と指摘しています。そのメリットには、品質、スピード、安全性、そして価格などが含まれます。

倫理的な失敗は米国企業に数百万ドルの損害をもたらす可能性がある

倫理上の失敗による損害は米国企業に多大な損害を与える可能性があります。デロイトのレポートでは、職場での不正行為により2021年に米国企業が被った損害は200億ドルと推定されるという調査結果が引用されています。倫理上の失敗はあらゆる種類の影響を及ぼす可能性があります。

例えば、企業は個人を特定できる情報を安全に保つ責任があると彼女は述べた。「GenAIモデルを流れる情報の多くは、機密情報であったり、個人を特定できる情報であったりする可能性があります。医療記録、金融取引、製品設計、契約条件などを考えてみてください。あなたにとってどんな理由であれ、プライベートだと考えているものがあれば、考えてみてください。プライベートなデータをプライベートに保つための管理は、テクノロジーではなく、組織から行う必要があります。」

「組織がテクノロジー関連の倫理的なミスを犯すと、何年もかけて築き上げた信頼が一瞬にして崩れ去ってしまう可能性がある」とアマナス氏は述べた。この傾向は、生成型AIの登場によってさらに強まっている。

新興技術に関連する倫理的問題を無視したり軽視したりすることは、代償を伴うと彼女は強調した。「潜在的な影響には、ブランドへの信頼の低下といった評判の失墜や、プライバシーの侵害、テクノロジーによる差別、失業といった人的被害が含まれる可能性がある」

新興技術を安全に使用するために組織がすべきこと

アマナス氏は、あらゆるビジネス部門のリーダーは、自らのスキルセットを見直し、新しい能力を統合して、急速に発展するテクノロジーに対応する必要があると述べた。

「テクノロジーに精通することが大切です。すべてのリーダーが技術者である必要はありませんが、特定のビジネス価値に合ったビジネス戦略を追求できるように、テクノロジーリテラシーを高める必要があります」と彼女はアドバイスしました。

さらに、従業員の再教育を継続的に実施する必要がある。専門家が技術的洞察力の向上に関心を示した場合、リーダーは適切な研修と職場での学習機会を提供すべきだとアマナス氏は述べた。

「メッセージングや教育の機会は、最高AI責任者や最高倫理責任者といった組織内の中心的な役割を担う人物から発信される可能性があります」と彼女は指摘した。「組織は長期的な成功のために、これらの役職を支援する必要があります。言い換えれば、これは一時的な優先事項であってはなりません。」

調査方法

デロイトは、2023年6月に業界全体にわたって1,700人以上のビジネスおよび技術専門家を対象に調査を実施したと発表した。

Tagged: