Modelo de Detecção de Fraude Justo de Amsterdã: Um Estudo de Caso sobre Viés Algorítmico
Amsterdã tentou construir um modelo de IA 'justo' para detecção de fraude em seu sistema de bem-estar social, com o objetivo de reduzir investigações, melhorar a eficiência e evitar a discriminação contra grupos vulneráveis. O modelo inicial mostrou viés contra cidadãos não holandeses e pessoas de origem não ocidental. Embora a reponderação dos dados de treinamento tenha mitigado alguns vieses, a implantação no mundo real revelou novos vieses na direção oposta, juntamente com uma degradação significativa do desempenho. O projeto foi finalmente abandonado, destacando as compensações inerentes entre diferentes definições de justiça na IA. Tentativas de reduzir o viés em um grupo podem inadvertidamente aumentá-lo em outros, demonstrando as complexidades de alcançar a justiça na tomada de decisões algorítmicas.