Competencia Kaggle: Una Métrica Sesgada y el Poder Inesperado de XGBoost
El autor participó en una competencia Kaggle para predecir las posibilidades de supervivencia después de un trasplante de médula ósea. La métrica de evaluación de la competencia es una puntuación de concordancia estratificada, diseñada para evitar predicciones excesivamente diferentes para diferentes grupos raciales. Sin embargo, esta métrica tiene fallas: mejorar la puntuación de un grupo no siempre mejora la puntuación general; incluso puede disminuirla. Al usar un modelo XGBoost, el autor descubrió que los modelos de conjunto de árboles de decisión simples eran más efectivos que los modelos estadísticos complejos y exploró las diferencias entre los enfoques estadísticos y de aprendizaje automático. Finalmente, el autor descubrió que ajustar el parámetro de escala de la distribución AFT impactó significativamente la precisión del modelo y planteó algunas preguntas abiertas para mejorar el modelo.