HRAIT – Employment Agency

AI採用支援ツールでアメリカでの公平な採用を目指す

「AIによる採用は危険だ」「AIは差別を助長する」

そうしたイメージが語られるとき、必ずと言っていいほど引き合いに出されるのが、2010年代に起きた“AI採用の失敗事例”です。

しかし、その黒歴史を丁寧に振り返ると、見えてくるのはAIの限界ではなく、人間社会が抱えてきた偏りそのものです。そして今、その失敗を踏まえた技術的進化によって、AIは「差別の再生産装置」から「公平性を担保する装置」へと役割を変えつつあります。

AI採用が最初につまずいた理由

AmazonのAI採用事例が象徴するもの

2010年代前半、Amazonは応募者の履歴書を自動評価し、有望な候補者を抽出するAI採用ツールを開発していました。

学習に使われたのは、過去約10年間の応募者データです。

しかし、その結果は想定外のものでした。

AIは、女性を示す単語、たとえば「women’s」や「女子◯◯クラブ」などを含む履歴書を低く評価し、女子大学出身者にも不利な判断を下すようになっていたのです。

原因は明確でした。

過去の採用実績において、評価されてきた人材の多くが男性だったため、AIは「男性的な経歴=優秀」というパターンをそのまま学習してしまったのです。

Amazonは特定の単語を無視させるなどの修正を試みましたが、関連する別の特徴量から再び同様の偏りを学習してしまう可能性を排除できず、最終的にプロジェクトは中止されました。

この事例が示したのは、AIが差別的だったのではなく、人間の過去の採用判断がそのまま反映されたという事実でした。

繰り返される「属性差別」の問題

Amazonのケースは特別なものではありません。

ある企業では、自動採用アルゴリズムが「女性55歳以上、男性60歳以上」を一律でスクリーニングから除外していたとして、35万6,000ドルで和解した事例も報告されています。

また、2025年の調査では、同一の経歴情報から生成した履歴書であっても、AIが「年上の男性」を「年上の女性」や若年層より高く評価する傾向が確認されました。

性別、年齢、人種。採用の現場では、こうした属性が組み合わさることで、意図せず不公平な判断が生まれてしまうリスクが繰り返し指摘されてきました。

転機:AI採用ツールは「失敗」から何を学んだのか

重要なのは、これらの失敗が「放置されたまま」ではなかったことです。

むしろAI開発の現場では、この黒歴史を教訓として、意図的に偏見を排除する技術が進化してきました。

現在のAI採用システムでは、性別・年齢・国籍・居住地といった、職務能力と直接関係しない属性情報を評価ロジックから切り離す設計が一般的になっています。

さらに、AIが特定の属性を優遇・不利に扱っていないかを統計的に検証する「アルゴリズム監査」も広く導入されるようになりました。

ここで、人間とAIの決定的な違いが浮かび上がります。

人は「自分は偏見を持っていない」と思っていても、無意識に「自分と似ている」「同じ大学出身」「話しやすい」といった要素で評価を上乗せしてしまいます。

一方でAIは、「この情報は見なくていい」と設計されれば、その情報を完全に、例外なく無視することができます。

この“徹底した無視”こそが、現代のAIが持つ最大の強みです。

人間の直感と、AIのスコアリング

心理学では、人間が自分と似た人を好む傾向を「類似性バイアス」と呼びます。

面接では、開始数分で「この人は良さそうだ」と直感的に判断し、その後はその印象を裏付ける情報だけを集めてしまう、いわゆる確証バイアスも頻繁に起こります。

AIは、この構造とは真逆です。

履歴書の1行目も100行目も同じ重みで読み取り、「Pythonの経験3年」という事実は、候補者の話し方や服装に影響されることはありません。

ブラインド採用は、ここまで来ている

海外や一部の先進企業では、すでに「声」と「顔」を排除した採用プロセスも実験されています。

AIアバターを介した面接では、声は中性的に変換されるなどし、評価対象となるのは発言内容や思考プロセスのみです。

面談内容をスコア化する仕組みでは、「感じが良かったから」ではなく、「この課題に対して、どのような仮説を立て、どう解決策を提示したか」という具体的な行動と論理が評価軸になります。

そこには、かつてのAI採用にはなかった明確な違いがあります。

AIは「差別の再生産装置」から「公平性の鏡」へ

AIはかつて、差別を学習してしまいました。しかし今、AIは人間の無意識な偏見を可視化し、正すためのツールへと進化しています。

AI採用の本質は、「人間を排除すること」ではありません。

むしろ、人間だけでは避けられなかった偏りを補正するための補助線として、AIはようやく正しい場所に立ち始めているのです。

黒歴史を経たからこそ、いまのAI採用は語る価値がある。

そしてその進化は、採用の公平性をめぐる議論を、次のフェーズへと進めようとしています。

弊社もこのような失敗から脱却し、よりよいAI活用法をみなさまに届けられるよう、日々AIに調整を重ねています。

弊社が提供するAI採用ツール『HRAIT IQ+』では、履歴書上の肩書きや学歴だけに頼らず、面談や対話から得られる思考プロセスや課題解決力といった要素をデータとして評価します。

性別・年齢・国籍など、職務遂行能力と直接関係しない属性は評価軸から切り離され、HRAIT IQ+は一人一人が「何ができるか」「どう考えるか」に集中します。

AIが担うのは最終判断ではなく、評価の前提をフラットに整える役割です。人が無意識に持ち込みがちな印象や先入観を一度リセットし、より合理的で説明可能な判断を支えます。

AI採用の黒歴史を経て求められているのは、万能なAIではなく、人間の偏りを前提に設計された現実的なAIです。HRAIT IQ+は、AI採用が「危険な実験」から「公平な判断を支えるインフラ」へと進化しつつあることを示す一例と言えるでしょう。

▶ 企業向け採用支援AIツール『HRAIT IQ+』についてはこちら