Alibaba presenta Qwen2.5-Max: Un modelo de lenguaje MoE a gran escala
2025-01-28
Alibaba ha presentado Qwen2.5-Max, un modelo de lenguaje Mixture-of-Experts (MoE) a gran escala, preentrenado con más de 20 billones de tokens y refinado con ajuste fino supervisado y aprendizaje por refuerzo a partir de retroalimentación humana. Benchmarks como MMLU-Pro, LiveCodeBench, LiveBench y Arena-Hard muestran que Qwen2.5-Max supera a modelos como DeepSeek V3. El modelo está accesible a través de Qwen Chat y una API de Alibaba Cloud. Este lanzamiento representa un avance significativo en el escalado de modelos de lenguaje grandes y allana el camino para futuras mejoras en la inteligencia del modelo.
IA