llama.cpp WASM : x2 de vitesse grâce à l'optimisation SIMD

2025-01-28

Le blog de Simon Willison met en avant une amélioration significative de llama.cpp : un doublement de la vitesse pour la version WASM, obtenu grâce à l'optimisation des instructions SIMD. Étonnamment, 99% du code a été généré par l'outil de programmation assistée par IA DeepSeek R1. DeepSeek R1 a passé 3 à 5 minutes à « réfléchir » à chaque invite, aidant finalement le développeur à améliorer le plugin llm_groq.py et à éliminer élégamment le model_map, simplifiant ainsi le code. Cela montre l'immense potentiel de l'IA dans l'optimisation et la refactorisation du code.