Numerische Instabilität bei der automatischen Differentiation für Scientific Machine Learning

2025-09-18
Numerische Instabilität bei der automatischen Differentiation für Scientific Machine Learning

Scientific Machine Learning (SciML) verlässt sich stark auf automatische Differentiation (AD) für gradientenbasierte Optimierung. Dieser Vortrag beleuchtet jedoch die numerischen Herausforderungen von AD, insbesondere hinsichtlich Stabilität und Robustheit bei Anwendung auf gewöhnliche Differentialgleichungen (ODG) und partielle Differentialgleichungen (PDG). Anhand von Beispielen aus Jax und PyTorch wird gezeigt, wie Ungenauigkeiten in AD zu erheblichen Fehlern (60 % oder mehr) selbst bei einfachen linearen ODG führen können. Der Referent wird nicht-standardmäßige Modifikationen in den Julia SciML-Bibliotheken diskutieren, um diese Probleme zu lösen, sowie die notwendigen technischen Kompromisse.

Mehr lesen

Explizite vs. implizite ODE-Löser: Stabilität, Robustheit und praktische Implikationen

2025-09-16
Explizite vs. implizite ODE-Löser: Stabilität, Robustheit und praktische Implikationen

Dieser Artikel untersucht die Stärken und Schwächen expliziter und impliziter gewöhnlicher Differentialgleichungslöser (ODE). Während implizite Methoden aufgrund ihrer überlegenen Stabilität oft als robuster gelten, argumentiert der Autor, dass explizite Methoden für bestimmte Probleme vorzuziehen sein können, insbesondere solche, die die Erhaltung von Oszillationen erfordern. Durch die Analyse linearer ODEs, das Konzept von Stabilitätsbereichen und reale Beispiele (wie Kühl- und Oszillatorsysteme) veranschaulicht der Artikel die Leistung beider Methoden in verschiedenen Szenarien. Es wird betont, dass die Auswahl des geeigneten Lösers ein nuanciertes Verständnis des Problems erfordert, anstatt eines pauschalen Ansatzes.

Mehr lesen