
AI研究の重要な焦点は、AIシステムの事実性と信頼性の向上です。これらの分野では大きな進歩が遂げられているにもかかわらず、一部のAI専門家は、これらの問題が近い将来に解決されるとは悲観的です。これは、人工知能振興協会(AAAI)による新たな報告書の主要な結論の一つであり、この報告書には、MIT、ハーバード大学、オックスフォード大学などの様々な学術機関や、MicrosoftやIBMなどの巨大テクノロジー企業の専門家による知見がまとめられています。
AAAI会長フランチェスカ・ロッシ氏は、「この調査の目的は、AIの能力と信頼性を高め、安全に利用できるようにするための現在の動向と研究課題を明らかにすることだった」と述べています。報告書には、24名の「非常に多様性に富んだ」経験豊富なAI研究者グループとAAAIコミュニティからの475名の回答者によって集められた、AI研究に関連する17のトピックが含まれています。以下は、このAI研究報告書のハイライトです。
AIシステムの信頼性と事実性の向上
AIシステムは、虚偽の発言を出力しない限り事実に基づいているとみなされ、「人間が理解しやすいこと、堅牢性、人間の価値観を取り入れること」などの基準を含めることで信頼性を高めることができると報告書の著者らは述べている。
考慮すべきその他の基準としては、マシンの出力を微調整および検証すること、複雑なモデルをシンプルで理解しやすいモデルに置き換えることが挙げられます。
参照:TechRepublic Premiumの「AIの信頼性を維持する方法」
AIをより倫理的で安全なものにする
報告書によると、AIの普及が進むにつれ、AIシステムに対する責任もより重くのしかかるようになっている。例えば、AIを駆使したサイバー犯罪や自律型兵器といった新たな脅威は、新たなAI技術の倫理的影響とともに、早急な対応が求められる。
最も差し迫った倫理的課題の中で、回答者が最も懸念していたのは次の点です。
- 誤情報(75%)
- プライバシー(58.75%)
- 責任(49.38%)
これは、AIシステムにおいて、より高い透明性、説明責任、そして説明可能性が求められていることを示しています。そして、倫理的および安全性に関する懸念は、学際的な連携、継続的な監督、そしてより明確な責任体制によって対処されるべきです。
回答者はまた、政治的、構造的な障壁についても言及し、「統治とイデオロギーの分裂によって有意義な進歩が妨げられる可能性がある」と懸念している。
さまざまな要素を用いたAIの評価
研究者たちは、AIシステムが「特有の評価課題」をもたらすと主張しています。現在の評価アプローチはベンチマークテストに重点を置いていますが、使いやすさ、透明性、倫理ガイドラインの遵守にさらに注意を払う必要があると研究者たちは述べています。
AIエージェントの実装には課題が伴う
AIエージェントは、自律的な問題解決者から、適応性、拡張性、そして協調性を高めるAIフレームワークへと進化してきました。しかし、研究者たちは、エージェントAIの導入は柔軟な意思決定を可能にする一方で、効率性と複雑さの面で課題をもたらしていることを発見しました。
報告書の著者は、AIと生成モデルを統合するには「マルチエージェント環境における適応性、透明性、計算の実現可能性のバランスを取る必要がある」と述べています。
AI研究のさらなる側面
AAAI レポートで取り上げられているその他の AI 研究関連のトピックには、持続可能性、汎用人工知能、社会貢献、ハードウェア、地政学的側面などがあります。