Zeitreihenvorhersage mit Graph Neural Networks: Über traditionelle Ansätze hinaus

2025-06-17
Zeitreihenvorhersage mit Graph Neural Networks: Über traditionelle Ansätze hinaus

Dieser Blogbeitrag stellt einen neuartigen Ansatz zur Zeitreihenvorhersage mithilfe von Graph Neural Networks vor. Im Gegensatz zu traditionellen Methoden, die sich ausschließlich auf einzelne Zeitreihen konzentrieren, nutzt dieser Ansatz die Vernetzung von Daten innerhalb einer Graphstruktur (z. B. aus einer relationalen Datenbank). Indem Zeitreihen als Knoten in einem Graphen dargestellt werden und Techniken wie Graph Transformers eingesetzt werden, erfasst das Modell die Beziehungen zwischen verschiedenen Reihen, was zu genaueren Vorhersagen führt. Der Beitrag vergleicht auch regressionsbasierte und generative Vorhersagemethoden und zeigt die überlegene Fähigkeit des generativen Ansatzes, hochfrequente Details zu erfassen und seltene Ereignisse zu behandeln.

Mehr lesen
KI

KumoRFM: Ein relationales Foundation Model zur Revolutionierung von Vorhersagen in relationalen Datenbanken

2025-05-23
KumoRFM: Ein relationales Foundation Model zur Revolutionierung von Vorhersagen in relationalen Datenbanken

KumoRFM ist ein bahnbrechendes relationales Foundation Model (RFM), das präzise Vorhersagen auf relationalen Datenbanken über eine breite Palette von prädiktiven Aufgaben treffen kann, ohne dass ein daten- oder aufgabenspezifisches Training erforderlich ist. Es erreicht dies durch die Transformation von Datenbanken in temporale, heterogene Graphen, die Verwendung eines tabelleninvarianten Codierungsschemas und eines Relational Graph Transformer, um über multimodale Daten zwischen Tabellen zu schließen. Im RelBench-Benchmark übertrifft KumoRFM herkömmliche Feature-Engineering- und End-to-End-überwachte Deep-Learning-Ansätze um durchschnittlich 2 % bis 8 %, wobei sich die Leistung nach dem Feintuning um durchschnittlich 10 % bis 30 % verbessert. Am wichtigsten ist, dass KumoRFM um Größenordnungen schneller ist als herkömmliche Ansätze, die auf überwachtem Training basieren, und eine Zero-Code-Lösung für Vorhersagen in Echtzeit bietet.

Mehr lesen

Relationale Graph Transformer: KI-Potenzial in relationalen Datenbanken entfesseln

2025-04-28
Relationale Graph Transformer: KI-Potenzial in relationalen Datenbanken entfesseln

Traditionelles maschinelles Lernen hat Schwierigkeiten, die wertvollen Erkenntnisse in den komplexen Beziehungen zwischen Tabellen in Unternehmensdaten vollständig zu erfassen. Relationale Graph Transformer (RGTs) stellen einen Durchbruch dar, indem sie relationale Datenbanken als miteinander verbundene Graphen behandeln und den Bedarf an umfangreichem Feature Engineering und komplexen Datenpipelines eliminieren. RGTs verbessern die Effizienz und Genauigkeit von KI bei der Extraktion von Informationen aus Geschäftsdaten erheblich und zeigen ein immenses Potenzial in Anwendungen wie Kundenanalyse, Empfehlungssysteme, Betrugserkennung und Nachfrageprognose. Sie bieten ein leistungsstarkes neues Werkzeug sowohl für Data Scientists als auch für Führungskräfte in Unternehmen.

Mehr lesen

Graph Transformers: Die nächste Generation von Graph-Modellen

2025-04-22
Graph Transformers: Die nächste Generation von Graph-Modellen

Graphen sind allgegenwärtig, aber die Nutzung ihrer komplexen, langreichweitigen Beziehungen war eine Herausforderung für das maschinelle Lernen. Graph Neural Networks (GNNs) zeichnen sich durch die Erfassung lokaler Muster aus, kämpfen aber mit globalen Beziehungen. Graph Transformers lösen dieses Problem, indem sie leistungsstarke Selbstaufmerksamkeitsmechanismen einsetzen, die es jedem Knoten ermöglichen, direkt auf Informationen von überall im Graphen zuzugreifen und so reichhaltigere Beziehungen und subtile Muster zu erfassen. Im Vergleich zu GNNs bieten Graph Transformers Vorteile bei der Behandlung von Langzeitabhängigkeiten, der Minderung von Überglättung und Überkompression und der effizienteren Verarbeitung heterogener Daten. Obwohl Graph Transformers eine höhere Rechenkomplexität aufweisen, ermöglichen Techniken wie sparse Attention-Mechanismen und Subgraph-Sampling die effiziente Verarbeitung großer Graph-Datensätze.

Mehr lesen
KI