Progrès dans l'entraînement GGML : un exemple d'entraînement MNIST VAE

2024-12-22

L'utilisateur GitHub bssrdf a partagé un exemple d'entraînement d'un MNIST VAE utilisant la bibliothèque GGML. Cet exemple vise à utiliser uniquement le pipeline GGML et son implémentation de l'optimiseur ADAM, comblant ainsi une lacune dans les exemples d'entraînement GGML disponibles. Des modifications ont été apportées aux optimiseurs ADAM et LBFGS pour la compatibilité avec le backend GPU, et plusieurs opérateurs manquants et des hooks d'optimiseur ont été ajoutés pour les tests et l'échantillonnage. Les résultats après 10 époques ont été satisfaisants.