オーストラリアにおけるAI倫理に関する議論は大きく遅れている

オーストラリアにおけるAI倫理に関する議論は大きく遅れている
AIと書かれた立方体。
画像: Shuo/Adobe Stock

AIツールの有用性は紛れもなく高く、だからこそAIの開発と利用は飛躍的に加速しているのです。AIは現在、調査から法的議論の作成、アーティストのための画像生成やストーリーテリング、そしてプログラマーのサポートまで、あらゆる用途に活用されています。

しかし、これらのツールは有用である一方で、AIは深刻な倫理的懸念を提起しています。現在、AIツールが大量に一般公開されているにもかかわらず、AI倫理に関する議論は依然として議論の域を出ず、規制の裏付けがほとんどありません。オーストラリアをはじめ、多くの国がAIの規制を検討していますが、そのような規制の実現にはまだまだ時間がかかり、これらの規制が倫理上のベストプラクティスの名の下に、どれほどの価値の高い「イノベーション」を制限することになるのかは疑問です。

参照: TechRepublic Premium の AI 倫理ポリシーを活用して、ビジネスに最適な AI 戦略を実装しましょう。

その結果、テクノロジーの倫理的な消費が一般的にこれまで以上に優先されるようになる一方で、AI は対照的に、倫理的な境界の多くが個人自身の倫理観によって決定される、いわば無法地帯になってしまったのです。

盗作の問題や、AI が学術研究の完全性を損なう可能性から、差別につながる偏見、AI によって引き起こされる失業や死亡の可能性まで、私たち社会は AI に関するより優れた倫理的枠組みを構築する必要があります。

これは早急に実現する必要があります。なぜなら、私たちが直接スカイネットに向かうわけではないとしても、AIは私たちの未来を形作る上で大きな役割を果たすことになるからです。AIが何らかの意味のある文脈で「支配」することを許す前に、まずこれらのアプリケーションが構築されている倫理的基盤が適切に考慮されていることを確認する必要があります。

AI倫理の「失われた10年」

2016年、世界経済フォーラムは人工知能(AI)における倫理的課題のトップ9を取り上げました。これらの課題はすべて10年(あるいはそれ以上)前から十分に理解されてきたにもかかわらず、対策が遅れていることが懸念されます。WEFが指摘した懸念は、当時は未来志向だったものの、現実のものとなりつつあるケースが多く、倫理的懸念への対策はまだ講じられていません。

失業:雇用が終了したら何が起こるのか?

WEFは次のように警告している。「トラック輸送業を考えてみよう。現在、米国だけでも数百万人が雇用されている。テスラのイーロン・マスクが約束した自動運転トラックが今後10年で広く普及したら、彼らに何が起こるだろうか?」

一方、今年発表された論文では、トラック運転手の50%が職を失う一方で、十分な代替雇用が存在しないことが明らかになりました。AIによる雇用喪失、特に労働基盤の高齢化や学歴の低さが顕著な分野での雇用喪失は、倫理的な懸念として長年認識されてきました。しかし、世界中で政策立案者も民間企業も、影響を受けた人々のスキルアップや新たな仕事探しを支援することに、ほとんど切迫した姿勢を示していません。

不平等: 機械によって生み出された富をどう分配するか?

WEFは、AIが富の集中をさらに進める可能性を認めています。結局のところ、AIは熟練労働者のほんの一部しか賃金を支払わず、労働組合を結成したり、病欠を取ったり、休んだりする必要もありません。

企業は、従業員数を削減しながらAIに業務を委託することで、自社の利益率を高めています。しかし、その利益が社会に還元されない限り、これは社会にとって有益なことにはなりません。

「AIは西側諸国の生産性の低さを解消するだろうが、その恩恵を受けるのはいったい誰なのか」とガーディアン紙は指摘している。

解決策の一つは、政府が労働への課税をやめ、AIシステムに直接課税することです。これにより創出される公的資金は、失業者や低賃金の仕事に就いた人々に必要な所得支援を提供するために活用できます。しかし、雇用が既に影響を受けているにもかかわらず、税制を改革するための議論すら行われていません。

偏見: AI アプリケーションによって生成される偏見や潜在的な人種差別、性差別にどう対処すればよいのでしょうか?

WEFは最初の記事でAIバイアスの可能性について言及しており、これはAI倫理問題の中でも最も議論の的となっている問題の一つです。AIが有色人種や性別によって異なる評価を行う例は数多く存在します。しかし、ユネスコが昨年指摘したように、10年にわたる議論にもかかわらず、AIのバイアスは根底にまで深く根付いています。

お気に入りの検索エンジンで「史上最高のリーダー」と入力すれば、おそらく世界の著名な男性有名人のリストが表示されるでしょう。女性はどれくらいいますか?「女子高生」で画像検索すると、おそらくあらゆる種類のセクシーな衣装を着た女性や少女でいっぱいのページが出てくるでしょう。驚くべきことに、「男子高生」と入力すると、ほとんどが普通の男子生徒です。セクシーな衣装を着た男性は一人もいないか、ごくわずかです。

こうしたバイアスが検索エンジンの検索結果のような比較的無害なアプリケーションに組み込まれていたり、単にユーザーエクスペリエンスが悪かったりするだけだったりするのであれば、それは問題ではありませんでした。しかし、AIは、バイアスが極めて現実的で、人生を変える可能性のある結果をもたらす分野にますます応用されつつあります。

例えば、AIはより「公平な」司法制度をもたらすと主張する人もいます。しかし、AIアプリケーションに内在するバイアスは、10年にわたる研究と議論にもかかわらず未だ解決されておらず、公平性とは全く異なる結果をもたらす可能性があります。

盗難: AI アプリケーションを使用する者によってアーティストの作品や個人情報が盗まれるのを防ぐにはどうすればよいでしょうか?

ユネスコが指摘したように、ファーウェイは2019年にAIアプリケーションを用いて、未完成だったフランツ・シューベルトの交響曲第8番の最後の2楽章を「完成」させました。一方、AIは、スティーブ・ジョブズなどの故人の声をユーザーが作成できるボイスバンクの作成にも活用されています。最近の俳優や脚本家によるストライキの主な動機の一つは、AIが自分たちの真似をして、たとえ本人の同意なく、死後であっても、収益にならないプロジェクトに利用されるのではないかという懸念です。

また、あるAIアーティストが、出版社からの依頼でオリジナル画像ではなく、生成AIを用いてビデオゲームのカバーを作成したという事例もありました。また、世界最大のオンラインアーティストコミュニティであるDeviantArtが、アーティストの許可なくAIアルゴリズムによるデータ収集を許可したことで、激しい反発が起こりました。

AIによる創作権の許容される行使と許容されない行使の境界線はどこにあるかという議論が、声高に、そして激しく繰り広げられています。しかし、この議論がまだ続いている間にも、AI開発者はAIアーティストに自由放任主義的なアプローチを可能にするツールをリリースし続けています。一方で、政府はAIという概念が生まれる前から存在した、時代遅れで不十分な知的財産権に依拠し、この分野を規制し続けています。

偽情報: AI が偽情報の拡散に利用されるのをどう防ぐか?

「AIシステムは、人間ではできない方法で騙される可能性がある」と2016年のWEFレポートは指摘している。「例えば、ランダムなドットパターンによって、機械はそこにないものを『見る』可能性がある」

つい最近の調査によると、ChatGPTは簡単な数学の問題を98%の確率で正解していたのに対し、正解率はわずか2%にまで低下したことが明らかになりました。今年初めには、Googleの新しいAIアプリケーションが重大な事実誤認を犯し、同社の時価総額が1,000億ドルも下落しました。

私たちは、情報が急速に広まり、偽情報があらゆるもの、ひいては重要な選挙結果にまで影響を及ぼす時代に生きています。一部の政府では、偽情報に関する法律を導入しようと緩やかな動きを見せています。例えばオーストラリアは、「デジタルプラットフォーム上で危害をもたらすリスクのある体系的な問題」をターゲットにすることに熱心ですが、AIアプリケーションは、提供する情報の正確性に関する義務を負うことなく、野放しにされています。偽情報の大きな問題は、一度誰かに影響を与えてしまうと、記録を訂正することが困難になる場合があることです。

重大な問題に共通するパターン

これらは、AIが仕事、ライフスタイル、そして人々の存在そのものに影響を与えているほんの5つの例に過ぎません。これらすべての例において、AIに関する倫理的な懸念は長年にわたりよく知られていましたが、倫理的な議論が決着していないにもかかわらず、これらのアプリケーションのリリースは抑制されずに続いています。

よく言われるように、「許可を求めるよりも許しを求める方が良い」。AIに携わる人々は、まさにこのアプローチで仕事に取り組んでいるようだ。問題は、元々はグレース・ホッパー提督の言葉であるこの言葉が、本来の意図から大きく誤解されていることだ。実際には、AI開発が倫理的配慮に配慮することなく進むほど、つまり許可を求めるよりも許しを求める方が許される時間が長くなればなるほど、AIの応用が進歩の名の下に引き起こしている害悪を取り消すことがより困難になるだろう。

Tagged: