GATE : Un modèle d’évaluation intégrée de l’impact économique de l’IA

2025-03-30
GATE : Un modèle d’évaluation intégrée de l’impact économique de l’IA

Epoch AI présente GATE, un modèle d’évaluation intégrée explorant l’impact économique de l’IA. Le modèle se concentre sur une boucle de rétroaction d’automatisation : l’investissement alimente la puissance de calcul, menant à des systèmes d’IA plus performants qui automatisent les tâches, augmentent la production et alimentent davantage le développement de l’IA. Un espace de jeu interactif permet aux utilisateurs de modifier les paramètres et d’observer le comportement du modèle dans divers scénarios. Les prédictions ne sont pas des prévisions d’Epoch AI, mais des prédictions conditionnelles, basées sur des hypothèses, principalement utiles pour analyser la dynamique qualitative de l’automatisation de l’IA.

Lire plus
IA

Impact économique de l'IA : Automatisation de la main-d'œuvre, et pas seulement la R&D ?

2025-03-22
Impact économique de l'IA : Automatisation de la main-d'œuvre, et pas seulement la R&D ?

Un point de vue répandu affirme que l'impact économique principal de l'IA sera l'automatisation de la R&D. Cet article conteste cette idée, en arguant que la valeur économique de la R&D est surestimée, contribuant beaucoup moins à la croissance de la productivité qu'on ne le pense généralement. Les auteurs soutiennent que la valeur économique de l'IA proviendra principalement de l'automatisation généralisée de la main-d'œuvre, conduisant à des augmentations significatives de la productivité et de la production, et pas seulement aux progrès de la R&D. Bien que l'IA finisse par automatiser la R&D, cela se produira probablement après une automatisation plus large, une fois que l'IA possédera les capacités nécessaires pour gérer un éventail plus large de tâches.

Lire plus
IA

DeepSeek v3 : Améliorations significatives de l’architecture Transformer

2025-01-28
DeepSeek v3 : Améliorations significatives de l’architecture Transformer

DeepSeek v3 atteint des performances de pointe sur les benchmarks avec une charge de calcul significativement inférieure à celle des modèles comparables. Cela est dû à des améliorations architecturales clés : l’attention latente multi-têtes (MLA) réduit considérablement la taille du cache KV sans sacrifier la qualité du modèle ; le MoE (Mixture-of-Experts) amélioré résout le problème de l’effondrement du routage grâce à un équilibrage de charge sans perte auxiliaire et à des experts partagés ; et la prédiction multi-jetons améliore l’efficacité de l’entraînement et la vitesse d’inférence. Ces améliorations démontrent une compréhension approfondie de l’architecture Transformer et montrent la voie à suivre pour les grands modèles de langage.

Lire plus
IA