Fortschritt beim GGML-Training: Ein Beispiel für das Training von MNIST VAE
Der GitHub-Benutzer bssrdf hat ein Beispiel für das Training eines MNIST VAE mit der GGML-Bibliothek geteilt. Dieses Beispiel zielt darauf ab, nur die GGML-Pipeline und deren Implementierung des ADAM-Optimierers zu verwenden und so eine Lücke in den verfügbaren GGML-Trainingsbeispielen zu schließen. Es wurden Modifikationen an den ADAM- und LBFGS-Optimierern für die GPU-Backend-Kompatibilität vorgenommen, und mehrere fehlende Operatoren und Optimierer-Hooks wurden für Tests und Sampling hinzugefügt. Die Ergebnisse nach 10 Epochen waren zufriedenstellend.