DeepSeek V3 : Performances de pointe avec des ressources limitées
2025-01-23
Le nouveau modèle V3 de DeepSeek, entraîné sur seulement 2 048 GPU H800 – une fraction des ressources utilisées par des géants comme OpenAI – égale ou surpasse GPT-4 et Claude sur plusieurs critères de référence. Son coût d'entraînement de 5,5 millions de dollars est bien inférieur aux 40 millions de dollars estimés pour GPT-4. Ce succès, en partie dû aux contrôles d'exportation américains limitant l'accès aux GPU haut de gamme, souligne le potentiel d'innovation architecturale et d'optimisation algorithmique par rapport à la pure puissance de calcul. C'est un argument convaincant pour dire que les contraintes de ressources peuvent, paradoxalement, stimuler des avancées révolutionnaires dans le développement de l'IA.