AIの下した人事評価をあなたは受け入れられますか?

もしAIが人事評価をするとしたら、あなたその結果を素直に受け入れられるでしょうか?
「受け入れられない」と答える人が、意外と多いのではないでしょうか。たしかにAIであれば、上司の感情的な要素(好き嫌いなど)が排除され、ある意味では公平に評価をしてくれそうです。
しかし、本当にAIを信用していいのか、AIに頼って大丈夫なのか、という不安も付きまといます。日本IBMではそんなAIの人事評価に反対し、労使間で争いが勃発しました。
IBMのAI評価での労使紛争
2019年に日本IBMは、人事評価や賃金決定のために同社が手掛けるAI(ワトソン)を導入することを決定しました。しかし、従業員で結成された労働組合はこれに強く反対しました。労組が反対した主な要点は以下のとおりです。
①プライバシーの侵害 個人の業績や職務遂行能力以外の情報の収集や利用は、労働者のプライバシーを侵害する懸念がある。
②公平性、差別の問題 会社の中で、優位性が高い立場にいる人に親和的な言動をとる人が高く評価され、逆の人は低く評価される懸念がある
③ブラックボックス化 何が正しいかAIは判断できないし、判断に至った過程を説明することができない。
④自動化バイアス(コンピューターによる自動化された判断を過信してしまう傾向) ある組合員は、上司から「ワトソンが昇給させろと言うから、今回、(賃金を)上げといたよ」と説明を受けたことがあった。
それに対し会社側は、「市場におけるスキルの多寡」「主たる担当業務の専門性」「IBMにおけるスキルの必要性」など。これら40種類のデータを「スキル」「基本給の競争力」「パフォーマンスとキャリアの可能性」の4つの要因ごとに評価したうえで、具体的な給与提案をパーセントで示す、としています。
AIは本当に公平な評価を行えるのか
たしかにAIであれば、多くの評価要素から一定のルールや過去のデータに基づいた適正な評価をしてくれるでしょう。しかしそれは「与えられたルールやデータにおいては」という条件がついているのです。
アマゾンでは人材採用の際にAIを活用していましたが、男性にばかり有利になる採用結果となっていました。原因を調べてみると、事前に学習させた過去のデータが男性の応募者が多かったため、AIが男性を採用するのが好ましいと学習してしまっていたからです。
人が評価をすれば、どうしても感情的なバイアス(偏見)は入り込んでしまいます。決められたルールのなかで公平なジャッジを行うことは、間違いなくAIの方が得意といえるでしょう。
しかしAIがすべての事象をデータ化して網羅的に認識して判断を下すことには限界があります。仮にAIが公平なジャッジをしたとしても、それに納得できずに会社全体のモチベーションが下がってしまったとしたら、なんのためのAIでしょう。
間違った評価で良い場合もある
人間である上司が状況を踏まえ忖度をしながら、ある意味では間違った評価を下したとしても、それによってみんなが納得し、従業員の士気が落ちないのであれば、結果的にはその方が得策といえる場合もあります。
人事評価を導入する目的があくまで公平な評価をするためなのか、あるいは従業員の士気を高める、または部下の育成のためなのか、それによって評価の仕方は変わってきます。
労働組合が指摘した、上司から「ワトソンが昇給させろと言うから、今回、(賃金を)上げといたよ」では、だれも本当の意味で満足はしないでしょう。
IBMの紛争は2023年8月に一定の和解となりましたが、AIを人事評価に取り入れていく企業は今後も増えていくでしょうし、その流れは止まらないと思います。ただ、それだけに頼ってしまうのは、必ずしも企業にとってよい結果はもたらさないでしょう。