Le modèle de détection de fraude équitable d'Amsterdam : une étude de cas sur les biais algorithmiques

2025-06-14

Amsterdam a tenté de construire un modèle d'IA « équitable » pour la détection de fraude dans son système de protection sociale, visant à réduire les enquêtes tout en améliorant l'efficacité et en évitant la discrimination à l'égard des groupes vulnérables. Le modèle initial présentait un biais à l'égard des non-Néerlandais et des personnes d'origine non occidentale. Bien que la pondération des données d'entraînement ait atténué certains biais, le déploiement en situation réelle a révélé de nouveaux biais dans la direction opposée, ainsi qu'une dégradation significative des performances. Le projet a finalement été abandonné, soulignant les compromis inhérents entre les différentes définitions de l'équité en IA. Les tentatives de réduction des biais dans un groupe peuvent involontairement les augmenter dans d'autres, démontrant la complexité de la réalisation de l'équité dans la prise de décision algorithmique.

Lire plus