La méthode de Newton mise à jour : un algorithme d’optimisation plus rapide et plus large

2025-03-25
La méthode de Newton mise à jour : un algorithme d’optimisation plus rapide et plus large

Il y a plus de 300 ans, Isaac Newton a mis au point un algorithme pour trouver les valeurs minimales des fonctions. Aujourd’hui, Amir Ali Ahmadi de l’université de Princeton et ses étudiants ont amélioré cet algorithme pour traiter efficacement une classe plus large de fonctions. Cette percée utilise des dérivées d’ordre supérieur et transforme habilement le développement de Taylor en une forme convexe de somme de carrés, obtenant une convergence plus rapide que la descente de gradient traditionnelle. Bien que coûteux en calcul actuellement, les progrès futurs de l’informatique pourraient permettre à cet algorithme de surpasser la descente de gradient dans des domaines tels que l’apprentissage automatique, devenant ainsi un outil puissant pour les problèmes d’optimisation.