カリフォルニア州は「取り返しのつかない害」から守るためにAI法が必要だと専門家は言う

カリフォルニア州は「取り返しのつかない害」から守るためにAI法が必要だと専門家は言う
カリフォルニア州知事ギャビン・ニューサム。
カリフォルニア州知事ギャビン・ニューサム。写真:Flickr/JD Lasica

カリフォルニア州には多くのテクノロジー大手の本社があり、AI規制の先例となる可能性がある。

火曜日に発表されたカリフォルニア州フロンティアAI政策報告書は、州法として施行可能なAIガードレールに関する新たな計画を概説している。この報告書は、カリフォルニア州知事ギャビン・ニューサムが2024年9月に物議を醸したAI規制法案SB1047(フロンティアAIモデルのための安全かつセキュアなイノベーション法案)を拒否したことを受けて、専門家によって策定された。

報告書の初期草稿が公表された3月以降、AIモデルが「化学兵器、生物兵器、放射線兵器、核兵器(CBRN)のリスク」に寄与していることを示す証拠が増えており、開発者らはこれらの分野で「能力の飛躍的向上」を報告していると、著者らは述べている。適切な安全対策が実施されなければ、AIは「取り返しのつかない損害」を引き起こす可能性があると著者らは述べている。

著者らはまた、規制は「関連するリスクに見合ったもの」で、「イノベーションを抑制するほどの負担にならないもの」でなければならないと強調した。

報告書の著者は、州レベルのAI法を禁止する「大きくて美しい法案」を軽蔑している

この報告書は、今後10年間、米国の州および地方自治体によるAI規制を禁じる共和党支持の予算法案が議会で審議されている最中に発表された。法案提出者は、州法の断片的な寄せ集めよりも、統一された国家レベルの枠組みの方が優れていると主張している。しかし、批判的な人々は、偏見を防ぎAI利用者を保護するために設計された州のコンプライアンス措置を廃止すれば、規制の遅延を避けたい利益率の高いテクノロジー企業も惹きつけられると指摘している。

これまでのところ、カリフォルニア州は広範または特定のAI規制の実施を控えており、代わりに自主的な合意を選択している。

「カリフォルニア州の慎重にターゲットを絞った政策は、管轄区域間で基準を整合させることの重要性を認識し、開発者のコ​​ンプライアンス負担を軽減し、継ぎはぎのアプローチを回避すると同時に、州民の安全を守るという州の基本的義務を果たすことができる」と著者らは記している。

研究者らは、第三者によるリスク評価がAIモデルの規制の鍵となると述べている。

ニューサム知事がSB1047に問題視した核心は、あらゆる規模の高リスクモデルに焦点を当てるのではなく、リスクプロファイルに関わらずすべての大規模モデルを単純に標的にしていた点にある。報告書の執筆者もこれに同意し、規制対象となるモデルを分類する際には、規模以外にも「リスク評価」や「下流への影響」といった要素を考慮する必要があると述べた。

第三者によるリスク評価の義務化は特に重要です。なぜなら、AI開発者は必ずしも「データの取得、安全性とセキュリティの実践、導入前テスト、そして下流への影響」に関する情報を自発的に共有するとは限らないからです。多くのAI開発者はブラックボックスとして機能しています。アンスロピック社のCEOは、自社のAIシステムの仕組みを完全に理解していないとさえ認めており、テクノロジー企業の幹部が関連するリスクを正確に評価できるかどうか疑問視されています。

著者らは、外部評価は多くの場合、カリフォルニア州のテクノロジー企業よりも人口統計学的に多様なグループによって実施され、AIバイアスの影響を最も受けやすいコミュニティをより幅広く代表することができると指摘している。このような監査を義務化することで、企業全体の透明性も向上する可能性がある。企業は安全性の向上と監視回避へのインセンティブを得ることができ、結果として責任リスクの軽減にもつながるだろう。

しかし、そのような評価を実施するには、開発者が共有に消極的となる可能性のある企業データへのアクセスが必要になる。独立系AI安全性研究会社METRは、2024年の評価において、OpenAIのo3モデルに関する情報への「限定的なアクセス」しか提供されておらず、結果を完全に解釈し、潜在的な安全性リスクを評価することが困難であると述べた。

報告書とSB1047の関係

ニューサム知事は、安全重視派の批判をなだめるためSB1047を拒否した後、生成AIに関連するいくつかの新たな取り組みを概説した。その一つは、スタンフォード大学教授でAIの「おばあちゃん」として知られるフェイフェイ・リー氏を含むAI専門家と学者からなるグループを州が招集し、「カリフォルニア州が実用的なガードレールを整備できるよう支援する」というものだ。これらのガードレールの計画は報告書に概説されている。

SB 1047は、生成AIに関する国内で最も強力な規制となるはずでした。開発者に厳格な安全要件を課すことで、AIモデルが核戦争や生物兵器などによって人類に大規模な損害をもたらしたり、経済的損失をもたらしたりすることを防ぐことを目的としていました。

これらの要件は、業界の内部告発者を保護し、大手AI開発者にモデルを完全にシャットダウンする権限を義務付け、大手AI企業に厳格な安全性とセキュリティプロトコルの遵守を義務付けました。報告書は内部告発者保護は維持すべきだとしていますが、キルスイッチについては言及していません。

OpenAI、Meta、Google、Hugging Faceなど、シリコンバレーの多くの企業は、SB1047を公然と非難し、イノベーションへの脅威と呼び、「技術的に実現不可能な要件」を批判しました。この法案は当時、イーロン・マスク氏の支持を得ましたが、OpenAIの元従業員2人もニューサム氏に書簡を送り、SB1047に反対する元雇用主を批判しました。

進化する法環境を理解するために、カリフォルニア州の AI 規制の取り組みに関する TechRepublic の記事 (提案された SB 1047 法案からニューサム知事の拒否権発動まで) をお読みください。

Tagged: