麻省理工学院的一项新研究表明,用于分析医学图像(如 X 光片)的人工智能模型存在偏差,对女性和有色人种的诊断准确率较低。研究发现,这些模型在进行诊断评估时可能会使用“人口统计学捷径”,导致对女性、黑人和其他群体得出错误的结果。研究人员还发现,可以通过重新训练模型来提高其公平性,但这种方法只在对来自同类型患者的数据进行测试时才有效。