Softmax: ¿Para Siempre? Una Inmersión Profunda en las Funciones Log-Armónicas

2025-02-20

Hace diez años, mientras impartía un curso de PNL, el autor fue cuestionado por un alumno sobre alternativas al softmax. Un artículo reciente propone una función log-armónica como sustituto, lo que provocó una investigación más profunda. El autor analiza las derivadas parciales tanto del softmax como de la función log-armónica, revelando que el gradiente del softmax es bien comportado e interpretable, mientras que el gradiente de la función log-armónica presenta singularidad cerca del origen, lo que potencialmente causa dificultades de entrenamiento. Si bien los optimizadores poderosos podrían superar estos desafíos, el autor concluye que el enfoque log-armónico aún merece una exploración adicional y posibles mejoras.

Leer más

NeurIPS'24: Ansiedad y Cambios en el Mercado Laboral de IA

2024-12-24

En la conferencia NeurIPS'24, muchos estudiantes de doctorado y postdoctorados a punto de graduarse expresaron ansiedad y frustración por el mercado laboral de IA. Esto se debe al rápido desarrollo del aprendizaje profundo en la última década, donde las grandes empresas tecnológicas reclutaron activamente doctores en IA, ofreciendo salarios lucrativos y libertad de investigación. Sin embargo, con la maduración y la producción de tecnologías como los modelos de lenguaje a gran escala, la demanda de doctores ha disminuido, y las universidades han comenzado a capacitar a estudiantes de grado y máster en habilidades relevantes. Este cambio ha dejado a muchos estudiantes de doctorado sintiéndose rezagados, con su dirección de investigación fuera de sincronía con las demandas del mercado, y sus perspectivas de carrera futuras inciertas. El autor expresa comprensión y disculpas, señalando que todavía hay muchas direcciones importantes de investigación en IA, más allá de los modelos de lenguaje a gran escala.

Leer más