Qwen-Image:200亿参数图像基础模型震撼发布

2025-08-05
Qwen-Image:200亿参数图像基础模型震撼发布

阿里巴巴达摩院发布了200亿参数的图像基础模型Qwen-Image,该模型在复杂文本渲染和精准图像编辑方面取得了显著进展。它支持多种语言(包括中文和英文)的高保真文本渲染,并能出色地保留图像编辑过程中的语义和视觉真实性。在多个公开基准测试中,Qwen-Image均超越现有模型,展现了其在图像生成和编辑方面的强大能力。其演示案例涵盖了多种场景,例如生成具有复杂中文字体和布局的图像、绘制精细的PPT页面,甚至实现双语文本渲染,展现了其强大的文本处理能力和图像生成能力。

阅读更多
AI

阿里巴巴开源480B参数代码模型Qwen3-Coder

2025-07-23
阿里巴巴开源480B参数代码模型Qwen3-Coder

阿里巴巴发布了其最新的大型语言模型Qwen3-Coder,这是一个拥有4800亿参数的代码模型,在编码和智能任务方面表现出色。该模型支持高达256K原生上下文长度,并可通过外推方法扩展至1M tokens。它在Agentic Coding、Agentic Browser-Use和Agentic Tool-Use等任务上取得了最先进的结果,并开源了相应的命令行工具Qwen Code,方便开发者使用。此外,阿里巴巴还利用大规模强化学习技术提升了模型的代码执行成功率和解决复杂任务的能力。

阅读更多
AI

Qwen VLo:一款能理解并创造图像的AI模型

2025-06-28
Qwen VLo:一款能理解并创造图像的AI模型

阿里巴巴达摩院推出了全新多模态模型Qwen VLo,它不仅能理解图像内容,还能根据理解生成高质量图像。该模型采用渐进式生成方法,从左到右、从上到下逐步构建图像,确保最终结果一致和谐。Qwen VLo支持多种语言指令,能执行图像编辑、风格迁移等复杂任务,甚至能理解自身生成的图像内容。目前该模型仍处于预览阶段,但其强大的多模态能力展现了AI在图像生成领域的巨大潜力。

阅读更多
AI

Qwen3:一款具有思维模式切换功能的多语言大模型

2025-04-28
Qwen3:一款具有思维模式切换功能的多语言大模型

阿里巴巴达摩院发布了其最新的大型语言模型Qwen3,包含多种尺寸的模型,并开源了权重。Qwen3 的特点是引入了“思考模式”和“非思考模式”,允许用户根据任务的复杂程度控制模型的推理深度和速度,并支持119种语言和方言。此外,Qwen3在编码和智能代理能力方面也得到了增强,并提供了多种部署和开发工具。

阅读更多
AI

QVQ-Max:拥有视觉和智力的AI模型

2025-04-06
QVQ-Max:拥有视觉和智力的AI模型

QVQ-Max是一个全新的视觉推理模型,它不仅能“看懂”图片和视频,还能进行分析和推理,解决各种问题。从数学题到日常问题,从编程代码到艺术创作,QVQ-Max都展现出令人印象深刻的能力。它能够详细观察图像中的细节,进行深入推理,并灵活应用于各种场景,例如辅助工作、学习和生活。未来,QVQ-Max将进一步提升识别精度、增强多步骤任务处理能力,并扩展交互方式,成为一个真正实用的视觉智能体。

阅读更多
AI

Qwen2.5-VL-32B:更懂人意的320亿参数视觉语言模型

2025-03-24
Qwen2.5-VL-32B:更懂人意的320亿参数视觉语言模型

在Qwen2.5-VL系列模型广受好评后,我们开源了全新320亿参数的视觉语言模型Qwen2.5-VL-32B-Instruct,它在数学推理、细粒度图像理解和遵循人类偏好方面有了显著提升。基准测试显示,它在多模态任务(如MMMU、MMMU-Pro和MathVista)上超越了同等规模的模型,甚至优于720亿参数的Qwen2-VL-72B-Instruct。该模型在文本理解能力上也达到了同等规模的顶尖水平。

阅读更多
AI

320亿参数的QwQ-32B模型:强化学习的规模化突破

2025-03-05
320亿参数的QwQ-32B模型:强化学习的规模化突破

研究人员通过强化学习(RL)技术,成功训练出320亿参数的QwQ-32B大型语言模型,其性能可与拥有6710亿参数的DeepSeek-R1(370亿激活参数)相媲美。该研究表明,将RL应用于强大的预训练基础模型,即使参数量较小,也能取得显著效果。QwQ-32B已在Hugging Face和ModelScope开源,并支持通过Qwen Chat访问。该模型在数学推理、代码能力和通用问题解决方面均表现出色,未来将进一步探索RL与Agent的结合,以实现更长远的目标推理,朝着通用人工智能(AGI)迈进。

阅读更多
AI

阿里巴巴发布超大规模MoE模型Qwen2.5-Max

2025-01-28
阿里巴巴发布超大规模MoE模型Qwen2.5-Max

阿里巴巴发布了其最新的超大规模混合专家模型Qwen2.5-Max,该模型在20万亿token上进行了预训练,并经过监督微调和基于人类反馈的强化学习训练。在MMLU-Pro、LiveCodeBench、LiveBench和Arena-Hard等基准测试中,Qwen2.5-Max的表现优于DeepSeek V3等其他模型,并在Qwen Chat和阿里云API中提供访问。这项工作标志着在扩展大型语言模型方面取得了显著进展,并为未来模型智能的提升铺平了道路。

阅读更多

Qwen2.5-1M:百万级上下文长度的开源大模型

2025-01-26
Qwen2.5-1M:百万级上下文长度的开源大模型

Qwen团队发布了支持百万级上下文长度的开源大模型Qwen2.5-1M,包含7B和14B参数两个版本。该模型在长文本任务中显著优于之前的128K版本,甚至在某些任务上超越了GPT-4o-mini。为了高效部署,团队还开源了基于vLLM的推理框架,利用稀疏注意力机制将推理速度提升3到7倍。Qwen2.5-1M的训练采用了渐进式方法,并结合了双块注意力(DCA)和稀疏注意力等技术,有效处理长文本信息。

阅读更多

Qwen2.5:基础模型的盛宴

2024-09-19
Qwen2.5:基础模型的盛宴

Qwen2.5是继Qwen2发布三个月后的最新版本,包含Qwen2.5、Qwen2.5-Coder和Qwen2.5-Math等多个模型。Qwen2.5在知识量、编码和数学能力方面都有显著提升,并支持多达128K tokens和8K tokens生成,以及超过29种语言。Qwen2.5-Coder专为编码应用而设计,而Qwen2.5-Math则支持中文和英文,并结合了多种推理方法。文章还介绍了模型的性能、使用方法以及未来的发展方向。

阅读更多
未分类 Qwen2.5

你好,Qwen2

2024-06-06
你好,Qwen2

本文介绍了阿里云最新发布的大语言模型Qwen2系列,该系列模型包含5种不同规模,并提供基础版和指令微调版。Qwen2系列模型在预训练和指令微调过程中使用了包括英语和中文在内的27种语言数据,在多项基准测试中取得了最优性能,并显著提升了编码和数学能力。此外,Qwen2-7B-Instruct和Qwen2-72B-Instruct模型的上下文长度支持扩展至128K tokens。

阅读更多
未分类 Qwen2