昨日(2026年4月8日)の日経朝刊に「採用AIに差別された 誰が責任負う?」という記事が出ていた*1。米Workdayの人事AIソフトウェアをめぐる大型訴訟の話だ。 これはまさに自分が最近書籍に書いたことと同じ内容だ。 近著「プロダクト倫理」の第7章で、Amazonの採用AIが女性候補者を体系的に低く評価していた事例を詳しく取り上げている。今日はこの書籍の内容を簡単に紹介するとともに、今回のWorkday訴訟を深掘りすることで、採用AIの何が問題なのかを考えてみたい。 Amazonの採用AIは何を「学習」したのか まず、書籍で書いたAmazonの事例を振り返る。 2014年頃、Amazonの…