Avanço no Treinamento GGML: Um Exemplo de Treinamento MNIST VAE

2024-12-22

O usuário do GitHub bssrdf compartilhou um exemplo de treinamento de um MNIST VAE usando a biblioteca GGML. Este exemplo visa usar apenas o pipeline GGML e sua implementação do otimizador ADAM, preenchendo uma lacuna nos exemplos de treinamento GGML disponíveis. Modificações foram feitas nos otimizadores ADAM e LBFGS para compatibilidade com o backend de GPU, e vários operadores ausentes e ganchos de otimizador foram adicionados para teste e amostragem. Os resultados após 10 épocas foram satisfatórios.