DeepSeek V3 : Performances de pointe avec des ressources limitées

2025-01-23
DeepSeek V3 : Performances de pointe avec des ressources limitées

Le nouveau modèle V3 de DeepSeek, entraîné sur seulement 2 048 GPU H800 – une fraction des ressources utilisées par des géants comme OpenAI – égale ou surpasse GPT-4 et Claude sur plusieurs critères de référence. Son coût d'entraînement de 5,5 millions de dollars est bien inférieur aux 40 millions de dollars estimés pour GPT-4. Ce succès, en partie dû aux contrôles d'exportation américains limitant l'accès aux GPU haut de gamme, souligne le potentiel d'innovation architecturale et d'optimisation algorithmique par rapport à la pure puissance de calcul. C'est un argument convaincant pour dire que les contraintes de ressources peuvent, paradoxalement, stimuler des avancées révolutionnaires dans le développement de l'IA.

Lire plus

Hiver des startups : la foi de Hacker News dans le mythe des startups est gelée

2025-01-21
Hiver des startups : la foi de Hacker News dans le mythe des startups est gelée

Un récent article sur Hacker News souligne un changement de sentiment concernant les startups. Alors qu'en 2013, les fondateurs ayant échoué recevaient des commentaires encourageants, des histoires similaires sont maintenant accueillies avec scepticisme quant aux risques. Ce changement est attribué à : une visibilité accrue des conséquences négatives (épuisement professionnel, problèmes relationnels, problèmes de santé mentale) ; des salaires élevés dans les grandes entreprises technologiques rendant l'incitation financière aux startups moins attrayante ; les limites du modèle de capital-risque devenant claires ; et les fruits faciles de l'ère mobile/web ayant été largement récoltés. L'auteur suggère que cela signale un « hiver des startups », conduisant potentiellement à un écosystème de startups plus authentique et durable.

Lire plus