Compétition Kaggle : Une métrique biaisée et la puissance inattendue de XGBoost
L'auteur a participé à une compétition Kaggle pour prédire les chances de survie après une greffe de moelle osseuse. La métrique d'évaluation du concours est un score de concordance stratifié, conçu pour éviter des prédictions excessivement différentes pour différents groupes raciaux. Cependant, cette métrique présente des défauts : améliorer le score d'un groupe n'améliore pas toujours le score global ; il peut même le diminuer. En utilisant un modèle XGBoost, l'auteur a découvert que les modèles d'ensemble d'arbres de décision simples étaient plus efficaces que les modèles statistiques complexes et a exploré les différences entre les approches statistiques et d'apprentissage automatique. Enfin, l'auteur a découvert que l'ajustement du paramètre d'échelle de la distribution AFT impactait significativement la précision du modèle et a posé quelques questions ouvertes pour améliorer le modèle.
Lire plus