Amsterdams faires Betrugserkennungsmodell: Eine Fallstudie zu algorithmischen Verzerrungen

2025-06-14

Amsterdam versuchte, ein „faires“ KI-Modell zur Betrugserkennung in seinem Sozialsystem zu entwickeln, um Untersuchungen zu reduzieren, die Effizienz zu verbessern und Diskriminierung schutzbedürftiger Gruppen zu vermeiden. Das ursprüngliche Modell zeigte eine Verzerrung gegenüber Nicht-Niederländern und Personen nicht-westlicher Herkunft. Obwohl die Gewichtung der Trainingsdaten einige Verzerrungen milderte, zeigte sich bei der Implementierung in der realen Welt neue Verzerrungen in die entgegengesetzte Richtung, zusammen mit einer erheblichen Leistungseinbuße. Das Projekt wurde schließlich eingestellt, was die inhärenten Kompromisse zwischen verschiedenen Definitionen von Fairness in KI aufzeigt. Versuche, Verzerrungen in einer Gruppe zu reduzieren, können sie unbeabsichtigt in anderen Gruppen erhöhen, was die Komplexität der Erreichung von Fairness bei algorithmischen Entscheidungen verdeutlicht.