Instabilidade Numérica na Diferenciação Automática para Aprendizado de Máquina Científico

2025-09-18
Instabilidade Numérica na Diferenciação Automática para Aprendizado de Máquina Científico

A aprendizagem de máquina científica (SciML) depende fortemente da diferenciação automática (AD) para otimização baseada em gradiente. No entanto, esta palestra revela os desafios numéricos da AD, particularmente sobre sua estabilidade e robustez quando aplicada a equações diferenciais ordinárias (EDOs) e equações diferenciais parciais (EDPs). Usando exemplos de Jax e PyTorch, a apresentação demonstra como imprecisões na AD podem levar a erros significativos (60% ou mais) mesmo em EDOs lineares simples. O palestrante discutirá modificações não padrão implementadas nas bibliotecas Julia SciML para resolver esses problemas e as compensações de engenharia necessárias.

Leia mais

Resolvers ODE Explícitos vs. Implícitos: Estabilidade, Robustez e Implicações Práticas

2025-09-16
Resolvers ODE Explícitos vs. Implícitos: Estabilidade, Robustez e Implicações Práticas

Este artigo aprofunda os pontos fortes e fracos dos resolvedores de equações diferenciais ordinárias (EDOs) explícitas e implícitas. Embora os métodos implícitos sejam frequentemente considerados mais robustos devido à sua estabilidade superior, o autor argumenta que os métodos explícitos podem ser preferíveis para certos problemas, especialmente aqueles que exigem a preservação de oscilações. Por meio da análise de EDOs lineares, do conceito de regiões de estabilidade e de exemplos do mundo real (como sistemas de resfriamento e oscilatórios), o artigo ilustra o desempenho de ambos os métodos em diferentes cenários. Ele enfatiza que a seleção do resolvedor apropriado requer uma compreensão matizada do problema em questão, em vez de uma abordagem genérica.

Leia mais