Autoencoders Variacionales con Pérdida: Cuando las RNN ignoran las variables latentes

2025-03-09
Autoencoders Variacionales con Pérdida: Cuando las RNN ignoran las variables latentes

Este artículo aborda el desafío de combinar Redes Neuronales Recurrentes (RNN) con Autoencoders Variacionales (VAEs). Mientras que los VAEs usan variables latentes para aprender representaciones de datos, las RNN como decodificadores a menudo ignoran estas variables latentes, aprendiendo directamente la distribución de datos. Los autores proponen Autoencoders Variacionales con Pérdida (VLAEs), que restringen el acceso de la RNN a la información, forzándola a utilizar variables latentes para codificar la estructura global. Los experimentos demuestran que los VLAEs aprenden representaciones latentes comprimidas y semánticamente ricas.