Prévision des séries temporelles avec les réseaux neuronaux de graphe : au-delà des approches traditionnelles

2025-06-17
Prévision des séries temporelles avec les réseaux neuronaux de graphe : au-delà des approches traditionnelles

Cet article de blog présente une nouvelle approche de la prévision des séries temporelles utilisant les réseaux neuronaux de graphe. Contrairement aux méthodes traditionnelles qui se concentrent uniquement sur les séries temporelles individuelles, cette approche tire parti de l'interconnexion des données au sein d'une structure de graphe (par exemple, à partir d'une base de données relationnelle). En représentant les séries temporelles comme des nœuds dans un graphe et en utilisant des techniques telles que les transformateurs de graphe, le modèle capture les relations entre différentes séries, ce qui conduit à des prévisions plus précises. L'article compare également les méthodes de prévision basées sur la régression et les méthodes génératives, démontrant la capacité supérieure de l'approche générative à capturer les détails à haute fréquence et à gérer les événements rares.

Lire plus

KumoRFM : Un modèle de base relationnel pour révolutionner les prédictions sur les bases de données relationnelles

2025-05-23
KumoRFM : Un modèle de base relationnel pour révolutionner les prédictions sur les bases de données relationnelles

KumoRFM est un modèle de base relationnel (RFM) révolutionnaire capable de faire des prédictions précises sur les bases de données relationnelles pour un large éventail de tâches prédictives, sans nécessiter de formation spécifique aux données ou aux tâches. Il y parvient en transformant les bases de données en graphes temporaux et hétérogènes, en utilisant un schéma de codage invariant de tableau et un transformateur de graphe relationnel pour raisonner sur les données multimodales entre les tableaux. Sur le benchmark RelBench, KumoRFM surpasse les approches traditionnelles d'ingénierie des caractéristiques et d'apprentissage profond supervisé de bout en bout de 2 % à 8 % en moyenne, avec des améliorations supplémentaires de 10 % à 30 % après un réglage fin. Plus important encore, KumoRFM est des ordres de grandeur plus rapide que les approches classiques d'apprentissage supervisé, offrant une solution sans code pour les prédictions en temps réel.

Lire plus

Transformateurs de Graphes Relationnels : Libérer le Potentiel de l'IA dans les Bases de Données Relationnelles

2025-04-28
Transformateurs de Graphes Relationnels : Libérer le Potentiel de l'IA dans les Bases de Données Relationnelles

L'apprentissage automatique traditionnel peine à saisir pleinement les informations précieuses cachées dans les relations complexes entre les tables des données d'entreprise. Les Transformateurs de Graphes Relationnels (TGR) représentent une avancée majeure, traitant les bases de données relationnelles comme des graphes interconnectés, éliminant ainsi le besoin d'une ingénierie des caractéristiques extensive et de pipelines de données complexes. Les TGR améliorent significativement l'efficacité et la précision de l'IA dans l'extraction d'informations à partir des données commerciales, montrant un potentiel immense dans des applications telles que l'analyse client, les systèmes de recommandation, la détection de fraudes et la prévision de la demande. Ils constituent un nouvel outil puissant pour les scientifiques des données et les dirigeants d'entreprise.

Lire plus

Transformateurs de Graphes : La prochaine génération de modèles de graphes

2025-04-22
Transformateurs de Graphes : La prochaine génération de modèles de graphes

Les graphes sont omniprésents, mais exploiter leurs relations complexes et à longue portée a été un défi pour l'apprentissage automatique. Les réseaux neuronaux de graphes (GNN) excellent dans la capture de motifs locaux, mais luttent avec les relations globales. Les transformateurs de graphes apparaissent pour résoudre ce problème, utilisant de puissants mécanismes d'auto-attention, permettant à chaque nœud de prêter attention directement aux informations de n'importe où dans le graphe, capturant ainsi des relations plus riches et des motifs subtils. Comparés aux GNN, les transformateurs de graphes offrent des avantages dans la gestion des dépendances à longue portée, atténuant le sur-lissage et le sur-écrasement, et traitant les données hétérogènes plus efficacement. Bien que les transformateurs de graphes aient une complexité computationnelle plus élevée, des techniques telles que les mécanismes d'attention clairsemée et l'échantillonnage de sous-graphes permettent le traitement efficace de grands ensembles de données de graphes.

Lire plus