Autoencoders Variacionais com Perda: Quando RNNs Ignoram Variáveis Latentes

2025-03-09
Autoencoders Variacionais com Perda: Quando RNNs Ignoram Variáveis Latentes

Este artigo aborda o desafio de combinar Redes Neurais Recorrentes (RNNs) com Autoencoders Variacionais (VAEs). Enquanto VAEs usam variáveis latentes para aprender representações de dados, RNNs como decodificadores frequentemente ignoram essas latentes, aprendendo diretamente a distribuição de dados. Os autores propõem Autoencoders Variacionais com Perda (VLAEs), que restringem o acesso da RNN à informação, forçando-a a utilizar variáveis latentes para codificar a estrutura global. Experimentos demonstram que VLAEs aprendem representações latentes comprimidas e semanticamente ricas.