Modèles fondamentaux pour la prévision des séries temporelles : un benchmark réel
Les méthodes traditionnelles de prévision des séries temporelles, telles qu'ARIMA et Prophet, sont remises en question par une nouvelle génération de « modèles fondamentaux ». Ces modèles visent à exploiter la puissance des grands modèles linguistiques (LLM) pour les données de séries temporelles, permettant à un seul modèle de réaliser des prévisions sur divers ensembles de données et domaines. Cet article compare plusieurs modèles fondamentaux — Amazon Chronos, Google TimesFM, IBM Tiny Time-Mixers et Datadog Toto — à des modèles classiques. Des tests effectués sur des métriques de pods Kubernetes réels révèlent que les modèles fondamentaux excellent dans la prévision multivariée, Datadog Toto affichant des performances particulièrement bonnes. Cependant, des défis persistent dans la gestion des valeurs aberrantes et des modèles nouveaux, et les modèles classiques restent compétitifs pour les charges de travail stables. En fin de compte, les auteurs concluent que les modèles fondamentaux offrent des avantages significatifs pour les flux de données multivariées changeant rapidement, fournissant des solutions plus flexibles et évolutives pour les équipes modernes d'observabilité et d'ingénierie de plateformes.