阿姆斯特丹“公平”反欺诈AI模型的失败:一场价值与算法的博弈
2025-06-14
阿姆斯特丹市尝试构建一个“公平”的反欺诈AI模型,旨在减少福利申请调查,提高调查效率,并避免对弱势群体的歧视。然而,这并非易事。该模型最初表现出对非荷兰公民和非西方背景申请人的偏见。尽管通过重新加权训练数据,模型在一定程度上消除了这种偏见,但在实际应用中,新的偏见却以相反的方向出现,甚至模型性能也显著下降。最终,该项目被搁置。这说明在追求算法公平性的过程中,不同的公平性定义之间存在难以调和的矛盾,而且试图减少某一群体中的偏见,可能会无意中加剧其他群体中的偏见。
阅读更多
AI
AI公平性