アムステルダムの公平な不正検知モデル:アルゴリズムバイアスに関するケーススタディ
2025-06-14
アムステルダム市は、福祉システムにおける不正検知のための「公平な」AIモデルの構築を試みました。これは、調査件数の削減、効率性の向上、脆弱な集団に対する差別回避を目的としていました。初期モデルは、非オランダ人や非西洋系出身者に対してバイアスを示しました。トレーニングデータの重み付けによってバイアスが軽減されましたが、現実世界の展開では、反対方向の新しいバイアスと、パフォーマンスの大幅な低下が明らかになりました。最終的にプロジェクトは中止され、AIにおける公平性のさまざまな定義間の避けられないトレードオフが浮き彫りになりました。ある集団におけるバイアスを軽減しようとする試みは、他の集団におけるバイアスを無意識のうちに増加させる可能性があり、アルゴリズム的決定における公平性の達成の複雑さを示しています。