
人事マネージャーや人事リーダーは、職場におけるハラスメントを特定し、阻止するための新たなツールを活用できます。有害なコミュニケーションを検知する機械学習アルゴリズムです。CommSafe AIは、人種差別や性差別の事例を記録し、行動パターンを時系列で追跡できます。これにより、訴訟を待つことなく、問題発生時に加害者を特定し、介入することが容易になります。
Comm Safeアルゴリズムは、Microsoft Teamsなどのプラットフォームを含むメールやチャットサービスを監視し、機械学習を用いて文章の感情やトーンをリアルタイムで測定します。CommFree AIの創設者兼CEOであるタイ・スミス氏によると、このアルゴリズムはニュアンスや文脈を理解します。例えば、「breast(胸肉)」がチキン店のランチの注文を指すのか、それとも人体構造を指すのかといったニュアンスです。スミス氏によると、このアルゴリズムは、ルールやキーワード検索を用いて問題のあるコメントを特定する監視ソリューションで発生する誤検知を回避できるとのことです。
スミス氏は、問題が初めて現れた際に行動を変えることが目標だと述べた。また、雇用主は従業員に対し、監視サービスが実施されていることを常に伝えることを推奨している。
「Slackでメッセージを送る代わりに、従業員はそれを内緒にするか、直接会った時だけ話すようになります」と彼は述べた。「いずれにせよ、従業員の行動に変化が生まれ、会社にとってのリスクが軽減されます。」
ガートナー社の人工知能と自然言語処理を専門とするリサーチ担当副社長のバーン・エリオット氏は、感情分析は、大規模なデータセットを分析するための計算能力の向上と、多数のコンテンツタイプに対応できる能力によって、ここ数年で向上したと述べた。
「アルゴリズムは今や、より広い時間枠とコンテンツ範囲を網羅し、大規模に実行できる」と彼は語った。
CommSafe の顧客は、嫌がらせ調査の一環として、アーカイブされた通信を分析することもできます。
「女性が人事部に、6カ月前に同僚からSlackで嫌がらせを受けたと訴えてきた場合、このソフトウェアは有害なコミュニケーションの事例をすべて明らかにし、それが実際に起こったかどうかを裏付けることができます」と彼は述べた。
参照:COVID-19 による男女格差:黒人女性を職場復帰させるには何が必要か?
スミス氏は、多様性担当役員は長期にわたってこの追跡と監視を利用することで、社内の悪質な行為者を特定できると述べた。
「企業がDEI担当者を雇用し、この業務を担当させる場合、担当者はどこから始めるべきかを知っておく必要がある」と彼は述べた。
エリオット氏は、重要なのは、この情報を全体的に匿名化し、問題のある行動に個人的に対処できる少数の人だけにアクセス権を与えることだと述べた。
「1人の人間が情報の匿名性を解除できるはずだ」と彼は語った。
信頼と安全性の測定
課題は、この是正フィードバックを従業員 10,000 人の企業やユーザー 100,000 人を抱えるオンライン ゲームにまで拡張し、IP 侵害、スパム、詐欺、フィッシング、誤報、違法コンテンツ (合意のない性的に露骨な画像など) を含むさまざまな問題について複数のチャネルを監視することです。
「これを管理するための適切なツールはまだ見つかっていない」とエリオット氏は述べた。「本当に大きな企業は、この問題に取り組む大勢のチームを抱えているが、まだ道のりは遠い」
人事部門のリーダーは必ずしも繰り返される行動パターンを発見したり追跡したりできるわけではなく、ハラスメントを受けた個人は必ずしも自ら問題を訴えたいとは思っていないとエリオット氏は述べた。
「よく調べてみれば、こうしたことは突然始まったわけではないことが分かります」とエリオット氏は述べた。「これらは行動パターンであり、人事部が確認したくなるような行動の兆候があるかどうかが分かります。」
参照: 安全なメタバースが必須である理由と、歓迎される仮想世界を構築する方法
エリオット氏は、企業がこの監視ソフトウェアを使用してグループの社会的安全性も測定することを提案しました。
「行動パターンは集団内や個人内に存在し、他の事柄と相関関係にある可能性があります」と彼は述べた。「人はいつもそうしたルールを破るわけではありません。ルールを破っても構わないと思わせるきっかけとなるものがあるのです。」
エリオット氏は、企業が従業員とのコミュニケーションを超えてこの種の感情分析を実施することを検討することを提案した。
「有害コンテンツは実はかなり限定的な問題だ。より大きな問題は、自分が何らかの責任を負っている第三者が作成したコンテンツに目を向けることだ」と彼は語った。
より大きな課題は、テキスト、音声、画像、さらには絵文字を含む会話やその他のやり取りにおける信頼性と安全性を監視することです。
ヘイトスピーチを識別するモデルの構築
スミス氏は2015年に、当初は職場における暴力に焦点を当てて、テクノロジーを活用したリスク評価会社を設立した。
「会社を立ち上げ、大口顧客と仕事を始めると、銃乱射事件は問題のほんの一部に過ぎないことに気づいた」と彼は語った。
2020年初頭、彼は、すでに起こった悪いことに対応するのではなく、問題に先手を打つという考えのもと、有害なコミュニケーションに会社の焦点を移しました。
彼は、暴力的な人物への対応経験を持つ軍人や法執行官らとブレインストーミングセッションを開催した。グループは、職場におけるいじめ、人種差別、その他の暴力行為の前兆として、有害なコミュニケーションが挙げられた。
スミス氏は、コムセーフのチームがアルゴリズムの構築にあたり、白人至上主義者のフォーラム「ストームフロント」から抽出したテキストや、破綻したエンロン社の上級管理職150名からのメールを含む同社のメールデータセットなど、公開されているデータセットを使用したと述べた。
CommSafe のエンジニアは、ソフトウェアのベータ版を販売した後、顧客データを組み込み、より業界特有の言語でアルゴリズムをトレーニングしました。
参照:Glassdoor:5人に3人が職場で差別を目撃または経験したことがある
「AIが特定の組織について学習し、その組織文化のベースラインを設定するには通常3週間から8週間かかります」と彼は述べた。
同社は5月末にソフトウェアの新バージョンをリリースする予定です。2月にはServiceNowから認定を取得し、CommSafeソフトウェアがServiceNowストアで入手可能となりました。
このアルゴリズムは、特定のメールやSlackメッセージに対して特定の行動を推奨するものではありません。スミス氏によると、人事部門の顧客はリアルタイムモニタリングを最も重要な機能と認識しています。企業は、ServiceNowとの連携の一環としてモニタリングソフトウェアを導入することも可能です。
「CommSafe AIの顧客はServiceNow側でワークフローを構築し、リアルタイムで問題を解決できるようになります」と彼は語った。
CommSafe社はまた、自殺や自傷の兆候を検知するアルゴリズムの能力をテストするため、国防総省との第1フェーズの契約にも取り組んでいる。
「私たちは現在、国防総省と協力して、このユースケースをより幅広い対象者に展開できるかどうかを検討している」と彼は語った。