4月29日凌晨,阿里巴巴发布了新一代的通义千问模型Qwen3,简称千问3。这个模型参数量只有DeepSeek-R1的1/3,大大降低了成本,同时性能全面超越了R1、OpenAI-o1等全球顶尖模型,成为了全球最强的开源模型。千问3是国内首个“混合推理模型”,将“快思考”和“慢思考”结合在一个模型中,对简单问题可以迅速给出答案,对复杂问题可以进行多步骤的深入思考,从而节省了大量算力。
千问3采用了混合专家(MoE)架构,总参数量为235B,激活时只需要22B。它的预训练数据量达到了36T,并且在后训练阶段进行了多轮强化学习,将非思考模式无缝地整合到思考模型中。在推理、指令遵循、工具调用、多语言能力等方面,千问3都得到了大幅增强,创造了国产模型和全球开源模型的新高。例如,在奥数水平的AIME25测评中,千问3获得了81.5分,刷新了开源纪录;在考察代码能力的LiveCodeBench测评中,千问3突破了70分,表现甚至超过了Grok3;在评估模型人类偏好对齐的ArenaHard测评中,千问3以95.6分超越了OpenAI-o1及DeepSeek-R1。性能的大幅提升同时,千问3的部署成本也大幅下降,只需要4张H20显卡就可以部署千问3的全功能版本,显存占用仅为性能相近模型的三分之一。
千问3还提供了多种模型版本,包括两款30B和235B的MoE模型,以及0.6B、1.7B、4B、8B、14B、32B等六款密集模型。每个模型都达到了同尺寸开源模型SOTA(最佳性能)的水平。例如,30B参数的MoE模型实现了10倍以上的模型性能提升,只需激活3B就能达到上代Qwen2.5-32B模型的性能;稠密模型性能也进一步突破,一半的参数量就能达到同样的高性能,比如32B版本的千问3模型可以超越Qwen2.5-72B的性能。
所有千问3模型都是混合推理模型,API可以根据需要设置“思考预算”,即预期最大深度思考的tokens数量,以进行不同程度的思考,灵活满足AI应用和不同场景对性能和成本的多样需求。例如,4B模型非常适合手机端使用;8B模型可以在电脑和汽车端侧顺畅部署应用;32B模型则最受企业大规模部署欢迎,有条件的开发者也可以轻松上手。
千问3为即将到来的智能体Agent和大模型应用爆发提供了更好的支持。在评估模型Agent能力的BFCL评测中,千问3创造了70.8的新高,超越了Gemini2.5-Pro、OpenAI-o1等顶尖模型,将大幅降低Agent调用工具的门槛。同时,千问3原生支持MCP协议,并具备强大的工具调用(function calling)能力,结合封装了工具调用模板和工具调用解析器的Qwen-Agent 框架,将大大降低编码复杂性,实现高效的手机及电脑Agent操作等任务。
据了解,千问3系列模型依旧采用宽松的Apache2.0协议开源,并首次支持119种语言。全球的开发者、研究机构和企业都可以免费在魔搭社区、HuggingFace等平台下载模型并商用,也可以通过阿里云百炼调用千问3的API服务。个人用户可以立即通过通义APP直接体验千问3,夸克也即将全线接入千问3。
据悉,阿里通义已开源200余个模型,全球下载量超过3亿次,千问衍生模型数超过10万个,已超越美国Llama,成为全球第一开源模型。
8月2日凌晨,国际知名的大模型评测平台Chatbot Arena发布了新一期的大模型排行榜。在这份榜单中,最近公开的阿里千问3新模型取得了1433分的高分,超过了Grok4和Claude4等顶级闭源模
在当前全球数字化浪潮的推动下,企业对于高效、智能的数字化解决方案的需求日益增长。5月27日,阿里巴巴集团与SAP宣布建立战略合作伙伴关系,这一强有力的合作举措,将为企业的数字化转型注入新的活力。这次合
极客网·人工智能4月30日报道,近日,阿里巴巴公司正式发布了全新的开源模型——Qwen3(千问3)。作为中国首个混合推理模型,Qwen3将快速思考和深度思考相结合,既能迅速响应简单需求,也能在处理复杂
4月29日凌晨,阿里巴巴发布了新一代的通义千问模型Qwen3,简称千问3。这个模型参数量只有DeepSeek-R1的1/3,大大降低了成本,同时性能全面超越了R1、OpenAI-o1等全球顶尖模型,成