
Mozilla の新しい 2022 年インターネット健全性レポートによると、インターネットの健全性にとっての最大の課題は、AI の恩恵を受ける人と AI によって損害を受ける人との間の力の不均衡です。
この新しいレポートは、企業や政府によるAIの活用方法に改めて焦点を当てています。Mozillaのレポートは、様々な国の実例を挙げながら、AI主導の世界の本質を精査しています。
TechRepublic は、Mozilla のインターネット ヘルス レポート編集者である Solana Larsen 氏にインタビューし、「最初から責任ある AI」の概念、ブラック ボックス AI、規制の将来、いくつかの AI プロジェクトがどのように模範を示しているかについて詳しく聞きました。
参照:人工知能倫理ポリシー(TechRepublic Premium)
ラーセン氏は、AIシステムは最初から倫理と責任を考慮して構築されるべきであり、後から害が現れ始めたときに付け加えるべきではないと説明する。
「論理的に聞こえるかもしれないが、実際には十分に行われていない」とラーセン氏は語った。
Mozillaの調査結果によると、AIに対する影響力と支配の集中化は、大多数の人々にとって不利に働くことが明らかになりました。AI技術が世界中で普及するにつれ、その発展の様相を考えると、この問題は最大の懸念事項となっています。
Market WatchのAIによる破壊的イノベーションに関するレポートは、AIの規模の大きさを明らかにしています。2022年はAI企業にとって500億ドル以上の新たな機会とともに幕を開け、この分野は2025年までに3,000億ドル規模に急成長すると予想されています。
あらゆるレベルでのAI導入はもはや避けられないものとなっています。32カ国が既にAI戦略を採用し、欧州、アジア、オーストラリアでは700億ドルを超える公的資金による200以上のプロジェクトが発表されており、スタートアップ企業は世界中で数千件もの案件で数十億ドル規模の資金を調達しています。
さらに重要なのは、AIアプリケーションがルールベースのAIからデータベースのAIへと移行し、これらのモデルが使用するデータは個人データであるということです。MozillaはAIの可能性を認識していますが、AIが既に世界中で日々危害をもたらしていると警告しています。
「データとAIの複雑な相互作用、そしてそれが様々なコミュニティにどのような影響を与えるかを理解している、多様なバックグラウンドを持つAI開発者が必要です」とラーセン氏はTechRepublicに語った。彼女は、AIシステムが害を与えるのではなく、助けとなるように構築されることを保証する規制の必要性を訴えた。
Mozilla のレポートでは、プロジェクト専用に設計された小規模なデータセットほどの結果が保証されないにもかかわらず、大規模で頻繁に再利用されるデータセットが使用されるという AI のデータ問題にも焦点が当てられています。
機械学習アルゴリズムの学習に使用されるデータは、多くの場合、Flickrなどの公開サイトから取得されます。この組織は、最も人気のあるデータセットの多くがインターネットから収集されたコンテンツで構成されており、「英語、アメリカ語、白人、そして男性向けの言葉や画像を圧倒的に反映している」と警告しています。
ブラックボックAI:人工知能の謎を解き明かす
AIは、人間には理解できないほど技術的かつ高度すぎるというイメージのせいで、多くの弊害を免れているように見える。AI業界では、人間が理解できない機械学習モデルを使用するAIはブラックボックスAIと呼ばれ、透明性に欠けるというレッテルを貼られる。
ラーセン氏は、AIをわかりやすく説明するには、コードが何を実行しているのか、どのようなデータを収集しているのか、どのような決定を下しているのか、そして誰がその恩恵を受けているのかについて、ユーザーが透明性を持つべきだと述べている。
「AIはデータサイエンティストでもない限り、人間が意見を述べるにはあまりにも高度すぎるという考えは、本当に捨て去るべきです」とラーセン氏は述べた。「システムによる被害を受けているなら、そのシステムについて、もしかしたらその設計者でさえ知らないような何かを知っているはずです。」
Amazon、Apple、Google、Microsoft、Meta、Alibabaといった企業は、AIを活用した製品、サービス、ソリューションによって最も大きな恩恵を受けている企業の上位に名を連ねています。しかし、軍事、監視、計算プロパガンダ(2020年には81カ国で使用)、誤情報、医療、金融、法務分野におけるAIによる偏見や差別といった分野や用途においても、AIがもたらす危害について警鐘が鳴らされています。
AIの規制:議論から行動へ
大手テクノロジー企業はしばしば規制に抵抗することで知られています。軍や政府主導のAIもまた、規制のない環境で運用されており、人権活動家やプライバシー活動家と衝突することがよくあります。
Mozilla は、規制は信頼を促進し、競争条件を平等にするイノベーションのガードレールになり得ると考えています。
「それは企業にとっても消費者にとっても良いことだ」とラーセン氏は言う。
Mozillaは、欧州におけるDSAのような規制を支持し、EU AI法にも忠実に従っています。また、AIシステムの透明性を高める米国の法案も支持しています。
データプライバシーと消費者の権利も、より責任あるAIへの道を切り開く上で役立つ法的枠組みの一部です。しかし、規制は方程式の一部に過ぎません。執行力がなければ、規制は単なる紙切れに過ぎません。
「変化と説明責任を求める人々が必要不可欠です。利益よりも人間を優先するAI開発者が必要です」とラーセン氏は述べた。「現在、AIの研究開発の大部分は大手IT企業の資金に支えられていますが、ここにも代替手段が必要です。」
参照:メタバース チートシート: 知っておくべきことすべて (無料 PDF) (TechRepublic)
Mozillaの報告書は、複数の企業、国、そしてコミュニティに損害を与えているAIプロジェクトを関連付けています。同組織は、ギグワーカーとその労働条件に影響を与えるAIプロジェクトを挙げています。これには、Amazon Mechanical TurkなどのサイトでAI技術の訓練を行う、時給わずか2.83ドルという低賃金労働者の「見えない軍隊」も含まれます。
「現実世界では、AIの害は、世界的な権力システムによって有利な立場にない人々に不釣り合いな影響を与え続けている」とラーセン氏は述べた。
団体も積極的に活動しています。
彼らの活動の一例は、Mozzilaのブラウザ拡張機能「RegretsReporter」です。この拡張機能は、YouTubeユーザーをYouTubeの監視役に仕立て上げ、プラットフォームのレコメンデーションAIの仕組みをクラウドソーシングで調査します。
Mozillaは数万人のユーザーを対象に調査を実施し、YouTubeのアルゴリズムがプラットフォーム独自のポリシーに違反する動画を推奨していることが明らかになりました。調査は良好な結果をもたらしました。YouTubeは現在、推奨AIの仕組みについてより透明性を高めています。しかし、Mozillaはそこで調査を終えるつもりはありません。現在も、様々な国で調査を継続しています。
ラーセン氏によると、Mozzilaは、AIが不透明な状況で運用されている際に、その実態を明らかにし、記録することが最も重要だと考えているという。さらに、同組織は問題を理解し、解決策を見出すことを目指し、テクノロジー企業間の対話を呼びかけている。また、規制当局とも連携し、適用すべき規則について議論している。
模範を示すAI
Mozillaの2022年インターネットヘルスレポートは、世界が常に抱えてきた問題を拡大してAIのかなり暗いイメージを描いている一方で、同社は善意のために構築および設計されたAIプロジェクトも強調しています。
たとえば、ニューヨーク市の Drivers Cooperative は、5,000 人以上のライドシェア ドライバーが所有および使用するアプリで、このアプリは、ギグ ワーカーがライドシェア業界で真の主体性を獲得できるよう支援しています。
もうひとつの例は、メリーランド州にある黒人経営の企業、Melalogic です。同社は、皮膚科の機械学習における深刻な人種的偏見に対応して、がんやその他の皮膚疾患の検出精度向上のため、肌の黒い人の画像をクラウドソーシングしています。
「世界中には、信頼性と透明性のある方法でAIシステムが構築され、使用されている例が数多くあります」とラーセン氏は述べた。