Variationelle verlustbehaftete Autoencoder: Wenn RNNs latente Variablen ignorieren

2025-03-09
Variationelle verlustbehaftete Autoencoder: Wenn RNNs latente Variablen ignorieren

Dieser Artikel befasst sich mit der Herausforderung, rekurrenten neuronalen Netze (RNNs) mit variationellen Autoencodern (VAEs) zu kombinieren. Während VAEs latente Variablen verwenden, um Datenrepräsentationen zu lernen, ignorieren RNNs als Decoder oft diese latenten Variablen und lernen die Datenverteilung direkt. Die Autoren schlagen variationelle verlustbehaftete Autoencoder (VLAEs) vor, die den Zugriff der RNN auf Informationen einschränken und sie zwingen, latente Variablen zur Codierung der globalen Struktur zu verwenden. Experimente zeigen, dass VLAEs komprimierte und semantisch reiche latente Repräsentationen lernen.