
2021年にSpiceworksが発表した調査結果によると、「調査対象となった専門家の約3分の1(31%)が、所属組織で現在人工知能(AI)を活用しており、43%がAI技術の検討を進めていると回答しました。また、約34%が、所属組織でAIプロジェクトを一切導入していないと回答しました。」
この調査や他の調査から、ほとんどの企業が AI 導入の初期段階にあり、AI システムの変更管理や、AI システムを稼働させ、関連性を保つために何が必要なのかをまだ考えていない可能性が高いことがわかります。
参照:人工知能倫理ポリシー(TechRepublic Premium)
AI のメンテナンスとチューンアップ戦略はどれほど重要ですか?
2016年、マイクロソフトはTayというチャットボットを開発しました。Tayはソーシャルメディア上での人間のやり取りから学習するように設計されていました。導入後すぐに、Tayはソーシャルメディアから学習を始め、人種差別的または憎悪的なコメントを吐き出すようになりました。TayはAI学習モデルとソーシャルメディアへの先駆的な取り組みの一つでしたが、悲惨な結果に終わりました。
テイ事件は孤立した事件ではない。
AIシステムは、AIが学習するデータに悪意を持って挿入された「有害な」データ(ディープフェイクなど)を処理することで、簡単に破損し、有効性を失う可能性があります。また、AIシステムは限られた数のソースからのデータを処理することもありますが、時間の経過とともに、より新しく、より関連性の高いデータソースが登場するため、有効性が低下し始めます。
「AI導入後のリスクは、行動の境界に関する不完全な理解、未検証の障害モード、そして導入環境における敵対的要素による操作の脆弱性から生じます」と、BCGヘンダーソン研究所のグローバルディレクター、フランソワ・カンデロン氏は述べています。データと環境が変化するにつれて、AIシステムは成長し、それらに適応していく必要があります。
問題は、AI システムを検証、維持、調整して、その妥当性を維持する方法について検討した組織がどれだけあるかということです。
AIシステムが機能を維持することを保証するための方法
ここでは、企業が AI の関連性を維持し、時間の経過とともに AI 投資の価値を失わないようにするために使用できる 5 つの戦略を紹介します。
1. 多様なAI評価者チームを編成する
「効果的な AI+Human システムを構築するには、リーダーが開発者、管理者、ユーザー、消費者などを巻き込み、AI の適用コンテキストを理解する必要があります」とキャンデロン氏は述べています。
多様なAI協力者がいなければ、AIにとって重要な視点や要素を見逃してしまうリスクがあります。AIシステムの有効性と関連性を維持するためには、AIシステムが進化するにつれて、この多様なチームを維持する必要があります。
AIアーキテクトのチーム編成が組織内で課題となっている場合、TechRepublic Premiumの専門家が提供する採用キットが役立つはずです。このキットには、チームに最適な人材を見つけて採用するためのツールが含まれています。
2. AIの精度を外部ベンチマークと比較する
AI の予測が組織が過去に経験した傾向から大きく離れ始めた場合は、次のような質問をする必要があります。
- 状況は本当に変わったのでしょうか?
- AI データ リポジトリに含まれていないデータ ソースや人間の入力はありますか?
- 適切なアルゴリズムと質問が作成されていますか?
- 実際に起こっている物理的な現実(生産ラインでクリティカルパス機器が故障するなど)が AI の故障予測と一致しない場合、AI を再調整する必要がありますか?
3. データソースを確認して更新する
AIシステムの導入当初には利用できなかった、より包括的かつ正確な新しいデータソースが利用可能になりましたか?もしそうなら、IT部門やその他のAI担当者がこれらのデータを取り込み、AIが可能な限り完全なデータセットで動作するようにするのが理にかなっています。
4. ビジネスユースケースが逸脱していないか評価する
AI が当初構築されたビジネス ユース ケースは顧客獲得に重点を置いていましたが、時代 (およびビジネス ケース) が変わり、現在は顧客維持に重点が置かれています。
AI のビジネスユースケースが変化すると、AI もそれに応じて変化する必要があります。そうしないと、AI が時代遅れになり、時間、労力、金銭的投資のメリットが失われる可能性があります。
5. リスクを評価する
AI がソーシャル メディアでの人間のやりとりを分析し、それに応答したり情報を抽出したりすることを目的としている場合、AI 処理に潜在的なリスクがないか評価する必要があります。
「AIライフサイクル全体にわたる関係者の深い関与は、盲点を明らかにし、データ、モデリング、トレードオフ、コンセプトドリフトのリスクを効果的に監視するのに役立ちます」とカルデロン氏は述べています。
AI システムが進化を続け、処理するデータから学習していくにつれて、変更管理のための効果的なガバナンスとベスト プラクティスも重要になります。