QVQ-Max:拥有视觉和智力的AI模型

2025-04-06
QVQ-Max:拥有视觉和智力的AI模型

QVQ-Max是一个全新的视觉推理模型,它不仅能“看懂”图片和视频,还能进行分析和推理,解决各种问题。从数学题到日常问题,从编程代码到艺术创作,QVQ-Max都展现出令人印象深刻的能力。它能够详细观察图像中的细节,进行深入推理,并灵活应用于各种场景,例如辅助工作、学习和生活。未来,QVQ-Max将进一步提升识别精度、增强多步骤任务处理能力,并扩展交互方式,成为一个真正实用的视觉智能体。

阅读更多
AI

Qwen2.5-VL-32B:更懂人意的320亿参数视觉语言模型

2025-03-24
Qwen2.5-VL-32B:更懂人意的320亿参数视觉语言模型

在Qwen2.5-VL系列模型广受好评后,我们开源了全新320亿参数的视觉语言模型Qwen2.5-VL-32B-Instruct,它在数学推理、细粒度图像理解和遵循人类偏好方面有了显著提升。基准测试显示,它在多模态任务(如MMMU、MMMU-Pro和MathVista)上超越了同等规模的模型,甚至优于720亿参数的Qwen2-VL-72B-Instruct。该模型在文本理解能力上也达到了同等规模的顶尖水平。

阅读更多
AI

320亿参数的QwQ-32B模型:强化学习的规模化突破

2025-03-05
320亿参数的QwQ-32B模型:强化学习的规模化突破

研究人员通过强化学习(RL)技术,成功训练出320亿参数的QwQ-32B大型语言模型,其性能可与拥有6710亿参数的DeepSeek-R1(370亿激活参数)相媲美。该研究表明,将RL应用于强大的预训练基础模型,即使参数量较小,也能取得显著效果。QwQ-32B已在Hugging Face和ModelScope开源,并支持通过Qwen Chat访问。该模型在数学推理、代码能力和通用问题解决方面均表现出色,未来将进一步探索RL与Agent的结合,以实现更长远的目标推理,朝着通用人工智能(AGI)迈进。

阅读更多
AI

阿里巴巴发布超大规模MoE模型Qwen2.5-Max

2025-01-28
阿里巴巴发布超大规模MoE模型Qwen2.5-Max

阿里巴巴发布了其最新的超大规模混合专家模型Qwen2.5-Max,该模型在20万亿token上进行了预训练,并经过监督微调和基于人类反馈的强化学习训练。在MMLU-Pro、LiveCodeBench、LiveBench和Arena-Hard等基准测试中,Qwen2.5-Max的表现优于DeepSeek V3等其他模型,并在Qwen Chat和阿里云API中提供访问。这项工作标志着在扩展大型语言模型方面取得了显著进展,并为未来模型智能的提升铺平了道路。

阅读更多

Qwen2.5-1M:百万级上下文长度的开源大模型

2025-01-26
Qwen2.5-1M:百万级上下文长度的开源大模型

Qwen团队发布了支持百万级上下文长度的开源大模型Qwen2.5-1M,包含7B和14B参数两个版本。该模型在长文本任务中显著优于之前的128K版本,甚至在某些任务上超越了GPT-4o-mini。为了高效部署,团队还开源了基于vLLM的推理框架,利用稀疏注意力机制将推理速度提升3到7倍。Qwen2.5-1M的训练采用了渐进式方法,并结合了双块注意力(DCA)和稀疏注意力等技术,有效处理长文本信息。

阅读更多

Qwen2.5:基础模型的盛宴

2024-09-19
Qwen2.5:基础模型的盛宴

Qwen2.5是继Qwen2发布三个月后的最新版本,包含Qwen2.5、Qwen2.5-Coder和Qwen2.5-Math等多个模型。Qwen2.5在知识量、编码和数学能力方面都有显著提升,并支持多达128K tokens和8K tokens生成,以及超过29种语言。Qwen2.5-Coder专为编码应用而设计,而Qwen2.5-Math则支持中文和英文,并结合了多种推理方法。文章还介绍了模型的性能、使用方法以及未来的发展方向。

阅读更多
未分类 Qwen2.5

你好,Qwen2

2024-06-06
你好,Qwen2

本文介绍了阿里云最新发布的大语言模型Qwen2系列,该系列模型包含5种不同规模,并提供基础版和指令微调版。Qwen2系列模型在预训练和指令微调过程中使用了包括英语和中文在内的27种语言数据,在多项基准测试中取得了最优性能,并显著提升了编码和数学能力。此外,Qwen2-7B-Instruct和Qwen2-72B-Instruct模型的上下文长度支持扩展至128K tokens。

阅读更多
未分类 Qwen2