人工知能の進歩で公平な人材選考は可能だ 急速に進む採用プロセスの迅速化と効率化

拡大
縮小
AIに書類審査をさせると、あっと言う間に偏見抜きのランキングができる(写真:metamorworks/iStock)
アマゾンが過去10年分の応募者のデータをAIに分析させたら、女性差別のAIになってしまったという失敗もあるが、正しく開発すれば、人間より公正で信用できる採用担当になれるはず。

仕事がほしい? ならば、これからは人間だけでなく、機械(=人工知能)にも好かれなくてはならない。

求人をオンラインで行うようになったため、採用側は膨大な数の応募者をふるいにかけなければならなくなった。米オンラインメディアのVICEが今年初め、新オフィスのマネージャーを募集したところ、数時間で2000件以上の応募があった。5人の人事担当者が5分で1通の履歴書を見るとすると、合格者を決めるまで1週間はかかる。面接はやっとそれからだ。

当記事は「ニューズウィーク日本版」(CCCメディアハウス)からの転載記事です。元記事はこちら

そこでAI(人工知能)の出番だ。最大のメリットはなんといっても、膨大な数の履歴書をあっという間に審査できること。AIは複数のデータソースを使って情報を高速処理し、人間の脳では把握できないものを見抜くことができる。しかも、単に履歴書をスキャンするのではなく、応募者のネット上での活動も評価した上で、最も採用条件に適合する候補者を効率的に選び出してくれる。今や大手企業はみな何らかの形でこのテクノロジーを使っている。

偏った学習でバイアス助長

だが昨年は、AI採用ツールの欠陥が数多く報告された。なかでも悪名をはせたのは、アマゾンのAI採用システムの欠陥だ。同社が開発したAI採用ツールは女性を差別したのだ。アマゾンの開発チームは、過去10年間に送られてきた応募者の履歴書すべてをAIに分析させた。するとAIは、「女性」という単語を含む履歴書の評価を下げ、女子大の出身者には低い点数しか与えないというルールを自ら編み出した。

こうした欠陥が明るみに出たことで、AI開発に携わる企業は、自社のテクノロジーを再検証する必要に迫られた。ほかの技術と同じく、AIにも落とし穴がある。使い方を誤れば、偏見を助長し、性差別や人種差別を悪化させる危険がある。しかしこうした経験から得た教訓をAI開発に生かせば、時代遅れの人事・採用制度に革命的な進化もたらすかもしれない。

アマゾンが失敗したひとつの理由は、データに十分な規模と多様性がなかったことだ。採用したい人材像を学ぶためにAIは過去10年分の履歴書を分析したが、過去の履歴書の大半は男性からのもので、テック業界が男性優位であるという現実を反映したものだった。

実際、アマゾンのエンジニアリング部門の社員の89%は男性だ。過去のデータを使用すれば、過去の間違いを繰り返すのは当然のことで、それほど驚くにはあたらない。より多様性のある人材の採用をめざすなら、企業はもっと多様なデータをさまざまな独立した情報源から集めてくることだ。アマゾンが所有するデータだけでは、バイアス(偏見)やエラー、そして時には人為的な操作の影響も受けやすくなる。

次ページ改善すれば精度の高い判断ツールになる
関連記事
トピックボードAD
政治・経済の人気記事
トレンドライブラリーAD
連載一覧
連載一覧はこちら
人気の動画
【田内学×後藤達也】新興国化する日本、プロの「新NISA」観
【田内学×後藤達也】新興国化する日本、プロの「新NISA」観
【田内学×後藤達也】激論!日本を底上げする「金融教育」とは
【田内学×後藤達也】激論!日本を底上げする「金融教育」とは
TSUTAYAも大量閉店、CCCに起きている地殻変動
TSUTAYAも大量閉店、CCCに起きている地殻変動
【田内学×後藤達也】株高の今「怪しい経済情報」ここに注意
【田内学×後藤達也】株高の今「怪しい経済情報」ここに注意
アクセスランキング
  • 1時間
  • 24時間
  • 週間
  • 月間
  • シェア
会員記事アクセスランキング
  • 1時間
  • 24時間
  • 週間
  • 月間
トレンドウォッチAD
東洋経済education×ICT