Inestabilidad Numérica en la Diferenciación Automática para el Aprendizaje Automático Científico

2025-09-18
Inestabilidad Numérica en la Diferenciación Automática para el Aprendizaje Automático Científico

El aprendizaje automático científico (SciML) depende en gran medida de la diferenciación automática (AD) para la optimización basada en gradiente. Sin embargo, esta charla revela los desafíos numéricos de la AD, particularmente en cuanto a su estabilidad y robustez cuando se aplica a ecuaciones diferenciales ordinarias (EDOs) y ecuaciones diferenciales parciales (EDPs). Usando ejemplos de Jax y PyTorch, la presentación demuestra cómo las imprecisiones en la AD pueden provocar errores significativos (60% o más) incluso en EDOs lineales simples. El orador discutirá las modificaciones no estándar implementadas en las bibliotecas Julia SciML para abordar estos problemas y las compensaciones de ingeniería necesarias.

Leer más

Resolvers ODE Explícitos vs. Implícitos: Estabilidad, Robustez e Implicaciones Prácticas

2025-09-16
Resolvers ODE Explícitos vs. Implícitos: Estabilidad, Robustez e Implicaciones Prácticas

Este artículo profundiza en las fortalezas y debilidades de los resolvedores de ecuaciones diferenciales ordinarias (EDOs) explícitos e implícitos. Si bien los métodos implícitos a menudo se consideran más robustos debido a su estabilidad superior, el autor argumenta que los métodos explícitos pueden ser preferibles para ciertos problemas, especialmente aquellos que requieren la preservación de oscilaciones. A través del análisis de EDOs lineales, del concepto de regiones de estabilidad y de ejemplos del mundo real (como sistemas de enfriamiento y oscilatorios), el artículo ilustra el rendimiento de ambos métodos en diferentes escenarios. Se enfatiza que la selección del resolvedor apropiado requiere una comprensión matizada del problema en cuestión, en lugar de un enfoque genérico.

Leer más