大型语言模型中的性别偏见:招聘中的AI歧视?
2025-05-20

一项针对22个领先大型语言模型(LLM)的实验发现,即使简历内容完全相同,仅姓名性别不同,这些模型在选择最合格的求职者时,持续偏向女性候选人。 研究人员发现,这种偏见在70种不同职业中都存在,并且与模型大小或推理计算量无关。即使在添加性别字段或使用通用标签后,偏见依然存在,只是程度有所变化。该研究强调了在将LLM应用于招聘等高风险决策领域时,需要警惕算法中的性别偏见,并呼吁在部署前进行更全面的模型审查。
AI