Avance en el entrenamiento GGML: Un ejemplo de entrenamiento MNIST VAE
2024-12-22
El usuario de GitHub bssrdf compartió un ejemplo de entrenamiento de un MNIST VAE usando la biblioteca GGML. Este ejemplo pretende usar solo el pipeline GGML y su implementación del optimizador ADAM, llenando un vacío en los ejemplos de entrenamiento GGML disponibles. Se realizaron modificaciones en los optimizadores ADAM y LBFGS para compatibilidad con el backend de GPU, y se agregaron varios operadores faltantes y ganchos de optimizador para pruebas y muestreo. Los resultados después de 10 épocas fueron satisfactorios.