GATE: Un Modelo de Evaluación Integrada del Impacto Económico de la IA

2025-03-30
GATE: Un Modelo de Evaluación Integrada del Impacto Económico de la IA

Epoch AI presenta GATE, un modelo de evaluación integrada que explora el impacto económico de la IA. El modelo se centra en un bucle de retroalimentación de automatización: la inversión impulsa el poder computacional, lo que lleva a sistemas de IA más capaces que automatizan tareas, aumentan la producción e impulsan aún más el desarrollo de la IA. Un entorno de juego interactivo permite a los usuarios modificar los parámetros y observar el comportamiento del modelo en varios escenarios. Las predicciones no son pronósticos de Epoch AI, sino condicionales, basadas en supuestos, principalmente útiles para analizar la dinámica cualitativa de la automatización de la IA.

Leer más
IA

Impacto económico de la IA: ¿Automatización de la mano de obra, no solo I+D?

2025-03-22
Impacto económico de la IA: ¿Automatización de la mano de obra, no solo I+D?

Una opinión predominante afirma que el principal impacto económico de la IA será a través de la automatización de la I+D. Este artículo cuestiona esa idea, argumentando que el valor económico de la I+D está sobreestimado, contribuyendo mucho menos al crecimiento de la productividad de lo que comúnmente se cree. Los autores sostienen que el valor económico de la IA provendrá principalmente de la automatización generalizada de la mano de obra, lo que dará lugar a aumentos significativos en la productividad y la producción, no solo a avances en I+D. Si bien la IA eventualmente automatizará la I+D, es probable que esto ocurra después de una automatización más amplia, una vez que la IA posea las capacidades para manejar una gama más amplia de tareas.

Leer más
IA

DeepSeek v3: Mejoras significativas en la arquitectura Transformer

2025-01-28
DeepSeek v3: Mejoras significativas en la arquitectura Transformer

DeepSeek v3 logra un rendimiento de vanguardia en los puntos de referencia con una cantidad de cómputo significativamente menor que la de los modelos comparables. Esto se debe a mejoras arquitectónicas clave: La atención latente multi-cabeza (MLA) reduce drásticamente el tamaño de la caché KV sin sacrificar la calidad del modelo; el MoE (Mixture-of-Experts) mejorado aborda el colapso de enrutamiento mediante el equilibrio de carga sin pérdida auxiliar y expertos compartidos; y la predicción multi-token aumenta la eficiencia del entrenamiento y la velocidad de inferencia. Estas mejoras demuestran una comprensión profunda de la arquitectura Transformer y señalan el camino a seguir para los modelos de lenguaje grandes.

Leer más
IA