Avance en el entrenamiento GGML: Un ejemplo de entrenamiento MNIST VAE

2024-12-22
Avance en el entrenamiento GGML: Un ejemplo de entrenamiento MNIST VAE

El usuario de GitHub bssrdf compartió un ejemplo de entrenamiento de un MNIST VAE usando la biblioteca GGML. Este ejemplo pretende usar solo el pipeline GGML y su implementación del optimizador ADAM, llenando un vacío en los ejemplos de entrenamiento GGML disponibles. Se realizaron modificaciones en los optimizadores ADAM y LBFGS para compatibilidad con el backend de GPU, y se agregaron varios operadores faltantes y ganchos de optimizador para pruebas y muestreo. Los resultados después de 10 épocas fueron satisfactorios.