Instabilité numérique dans la différenciation automatique pour l'apprentissage automatique scientifique

2025-09-18
Instabilité numérique dans la différenciation automatique pour l'apprentissage automatique scientifique

L'apprentissage automatique scientifique (SciML) repose fortement sur la différenciation automatique (AD) pour l'optimisation basée sur le gradient. Cependant, cet exposé révèle les défis numériques de l'AD, notamment concernant sa stabilité et sa robustesse lorsqu'elle est appliquée aux équations différentielles ordinaires (EDO) et aux équations différentielles partielles (EDP). À l'aide d'exemples de Jax et PyTorch, la présentation montre comment les imprécisions dans l'AD peuvent entraîner des erreurs significatives (60 % ou plus) même dans des EDO linéaires simples. L'orateur discutera des modifications non standard implémentées dans les bibliothèques Julia SciML pour résoudre ces problèmes et les compromis d'ingénierie nécessaires.

Lire plus

Solveurs ODE explicites vs. implicites : stabilité, robustesse et implications pratiques

2025-09-16
Solveurs ODE explicites vs. implicites : stabilité, robustesse et implications pratiques

Cet article explore les forces et les faiblesses des solveurs d'équations différentielles ordinaires (EDO) explicites et implicites. Si les méthodes implicites sont souvent considérées comme plus robustes en raison de leur meilleure stabilité, l'auteur soutient que les méthodes explicites peuvent être préférables pour certains problèmes, notamment ceux nécessitant la préservation des oscillations. À travers l'analyse d'EDO linéaires, le concept de régions de stabilité et des exemples concrets (comme les modèles de refroidissement et les systèmes oscillatoires), l'article illustre les performances des deux méthodes dans différents scénarios. Il souligne que le choix du solveur approprié nécessite une compréhension nuancée du problème, plutôt qu'une approche générale.

Lire plus