Les limites du scaling en IA : la force brute arrive-t-elle à ses limites ?

2025-03-22
Les limites du scaling en IA : la force brute arrive-t-elle à ses limites ?

Une enquête menée auprès de 475 chercheurs en IA révèle que le simple fait d'augmenter l'échelle des approches actuelles de l'IA ne mènera probablement pas à une intelligence artificielle générale (AGI). Malgré les investissements massifs dans les centres de données par les géants de la technologie, les rendements décroissants sont évidents. Le dernier modèle GPT d'OpenAI montre des améliorations limitées, tandis que DeepSeek démontre des performances d'IA comparables pour une fraction du coût et de la consommation d'énergie. Cela suggère que des méthodes moins chères et plus efficaces, telles que le calcul au moment du test d'OpenAI et l'approche « mélange d'experts » de DeepSeek, sont l'avenir. Cependant, les grandes entreprises continuent de privilégier le scaling par la force brute, laissant les startups plus petites explorer des alternatives plus économiques.

IA