Autoencodeurs Variationnels avec Perte : Quand les RNN ignorent les variables latentes

2025-03-09
Autoencodeurs Variationnels avec Perte : Quand les RNN ignorent les variables latentes

Cet article traite du défi de combiner les réseaux neuronaux récurrents (RNN) avec les autoencodeurs variationnels (VAE). Alors que les VAE utilisent des variables latentes pour apprendre des représentations de données, les RNN en tant que décodeurs ignorent souvent ces variables latentes, apprenant directement la distribution des données. Les auteurs proposent des autoencodeurs variationnels avec perte (VLAE), qui restreignent l'accès de la RNN à l'information, la forçant à utiliser les variables latentes pour encoder la structure globale. Les expériences montrent que les VLAE apprennent des représentations latentes compressées et sémantiquement riches.