1. トップ
  2. 新着ニュース
  3. 国際
  4. 国際総合

【就活最前線】採用・不採用は人工知能が決める

ニューズウィーク日本版 / 2019年1月10日 14時30分

実際、アマゾンのエンジニアリング部門の社員の89%は男性だ。過去のデータを使用すれば、過去の間違いを繰り返すのは当然のことで、それほど驚くにはあたらない。より多様性のある人材の採用をめざすなら、企業はもっと多様なデータをさまざまな独立した情報源から集めてくることだ。アマゾンが所有するデータだけでは、バイアス(偏見)やエラー、そして時には人為的な操作の影響も受けやすくなる。

データベースの監査

人材採用におけるAIの利用が急速に普及する一方、そのデータ解析用アルゴリズムの監査は後手にまわり、対応が遅れている。

優秀なアルゴリズムには以下の2つの要素を組み込む必要がある。

1)アルゴリズムは分析が可能で、ある結果が導き出された理由が簡単に理解できるよう構築すべきだ。過度に複雑で「ブラックボックス」と化したシステムは分析が非常に困難で、分析も非常に困難になる。

2)企業は自社のAIのアルゴリズムを独立した社外の監査機関に検証させなくてはならない。公平性の高いアルゴリズムを使っていることを証明できれば信頼性が増し、人材採用の競争でも有利な立場に立てるはずだ。



欠陥の報告こそあったが、AIは採用から性別や人種的偏見をなくし、中立性を維持する役に立つかもしれない。監査を行うなど正しく使用されれば、AIは人間よりはるかに公平な判断を下す。

人間には無意識の偏見があり、制御は不可能であり、ほとんどの場合、認識することさえできない。自分が知っていることを好み、自分と同じ長所を重視するのは、人間の本性だ。今でも昔ながらの「推薦」や「紹介」で採用が決まることは非常に多い。ある種の縁故主義がいまだに残っていることは確かだ。

一方、AIシステムの場合は監査によって、人材評価のバイアスや採用決定の理由が明確に提示される。アマゾンのAIツールは非難の対象となったが、AIシステムの欠陥は人間によるミスと違って、識別可能だ。アマゾンの場合、AIツールが特定の単語をもとに履歴書の評価を下げたことが判明した。履歴書を読んだり、面接をした後に、AIと同じ精度で自分の判断を分析できる人間はほとんどいない。

これほど細部にわたって責任が明確になれば、訴訟もほとんど起こされなくなる。偏見がなかったことを証明でき、システムの潜在的な欠陥がいかに改善されてきたかも指摘できる。企業のポリシーも明確な見識に貫かれたものになるべきだ。女性からの応募がこんなに少ないのはなぜか。はったりがきいた言葉が過度に評価されるのはなぜか。こうした傾向を変えるにはどうしたらいいのか。

この記事に関連するニュース

トピックスRSS

ランキング

複数ページをまたぐ記事です

記事の最終ページでミッション達成してください