当前位置: 首页 > 实时讯息 >

当AI竞赛进入深水区,阿里千问3靠什么赢下AI下半场?

时间:2025-05-01 13:48:00

4月29日凌晨,阿里巴巴开源新一代通义千问模型Qwen3(简称千问3)。它的参数量仅为DeepSeek-R1的1/3,成本大幅下降,性能全面超越R1、OpenAI-o1等全球顶尖模型。


不难看出,行业已从单纯追求参数规模向效率与实用性转型。Qwen3一经发布,就在Hugging Face、GitHub等开发者社区迅速获得了不错的反响。


业内分析认为,这是中国AI技术在高性能、低成本技术路线上的重要突破,进一步巩固了阿里在AI领域的地位。


而阿里在AI方向上的投入还在加大。2025年2月,阿里CEO吴泳铭宣布未来三年将投入3800亿元加码AI与云计算基础设施,这一数字超过了阿里过去十年在该领域的投入总和。


“Qwen3反映了最近的两个趋势:MoE和可选的思考模式,做到了一个领先,把预训练数据量一下子拉到了30多T的水平,上一个拉到这个水平的Llama 4已经落后了。”杭州久痕科技创始人、CEO汪源认为,Qwen3在性价比上有了巨大的提升,但是在多模态和长上下文方面还要加大力度去完善。


从技术架构到商业模式,从开源生态到行业应用,Qwen3的发布为市场提供了一个观察阿里AI战略的窗口。



既“聪明”又“经济”


回溯过去,阿里推出初代Qwen时,是国内第一波推出自研大模型的厂商之一。随着Qwen2.5系列在2024年发布,特别是基于MoE架构的Qwen2.5-Max在多模态评测中表现突出,通义千问已经跻身全球第一梯队。而Qwen3的推出,也显示了该系列模型在性能与效率上达到了新的高度。


据悉,Qwen3是国内首个“混合推理模型”,创新性地将“快思考”与“慢思考”集成于一体。这种设计借鉴了认知科学的双系统理论,使模型能够根据任务复杂度动态调整计算资源——简单任务(如日常问答)采用快速响应模式,复杂任务(如数学证明、代码生成)则启用深度推理模块。


在预训练方面,Qwen3的数据集相比Qwen2.5有了显著扩展。Qwen2.5是在18万亿个token上进行预训练的,而Qwen3使用的数据量几乎是其两倍,达到了约36万亿个token,涵盖了119种语言和方言。


此外,Qwen3的性能与成本优势也非常明显。其总参数量为235B,激活仅需22B。部署成本大幅下降,仅需4张H20即可部署Qwen3满血版,显存占用仅为性能相近模型的三分之一,但性能却全面超越了R1、OpenAI-o1等全球顶尖模型。


在多项权威基准测试中,该模型取得了突破性成绩:在奥数水平的AIME25测评中,Qwen3斩获81.5分,刷新开源纪录;在考察代码能力的LiveCodeBench评测中,Qwen3突破70分大关,表现甚至超过Grok3;在评估模型人类偏好对齐的ArenaHard测评中,Qwen3以95.6分超越OpenAI-o1及DeepSeek-R1。


阿里也延续了此前的开源策略,Qwen3采用Apache 2.0许可证开源,允许免费商用,这一策略与Meta的Llama系列形成直接竞争。根据公开数据,截至目前,通义千问模型家族全球下载量已突破3亿次,衍生模型超过10万个,超越了Llama成为全球最大的开源模型生态。



在AI这个时代级的机遇之下,多方力量的博弈很难让一家闭源厂商始终稳居上风。有观点认为,未来的AI胜利者,不会是那些试图通过封闭技术维持优势的公司,而是那些能够有效利用开放生态创造价值的企业。


“开源具有更深层的意义,即推动技术的普及和民主化。”沙利文大中华区执行总监崔楠表示,大厂通过开源降低了用户进入门槛,这种技术的普惠性不仅加速了AI技术的渗透率,也为整个行业的快速发展注入了活力。


开源策略的效果也立竿见影——Qwen3一经发布,在Hugging Face、GitHub等开发者社区迅速获得了不错的反响。截至目前,Qwen3在GitHub星标数已突破19k。



旗舰模型Qwen3-235B-A22B在代码、数学、通用能力等基准测试中,与一众顶级模型相比,表现出极具竞争力的结果。


落地野望


就在Qwen3发布同月,马云在内部讲话中强调,“高科技绝不仅是征服星辰大海,更应该呵护人间烟火”,这揭示了阿里AI的落地哲学——不单纯追求实验室指标,而是聚焦场景的实际价值。


当全球AI竞赛进入深水区,阿里也很清晰,真正的竞争力不在于参数规模的军备竞赛,而在于技术普惠与商业价值的闭环。



在大模型商业化落地上,Qwen3展现出了较强的突破性。其MoE架构显著降低了推理成本,并在推理机制上实现了思考与非思考模式的灵活切换,从而在推理效率和推理成本之间寻求到了较为平衡的状态。


Qwen3还有一个“思考预算”设置——开发者可以自己设定深度思考的最大token消耗,这能更好满足不同开发者对性能和成本的需求。


在模型矩阵布局上,阿里推出了多款不同参数的模型,包括两款30B和235B的MoE模型,以及0.6B、1.7B、4B、8B、14B、32B等6款密集模型。开发者能够根据自身需求选择合适的模型,极大地提高了应用的可行性。例如,4B模型面向手机端,8B可在电脑和汽车端侧部署应用,32B则最受企业大规模部署欢迎。


尤其值得注意的是,Qwen3-4B的性能已媲美上一代72B模型,而Qwen3-30B-A3B的激活参数仅为QwQ-32B的10%,却表现更优,这意味着中小企业能以更低成本获得接近顶级模型的效能。


“通过降低大模型开发成本和优化端侧部署技术,能够显著带动更多智能终端设备的AI化升级和市场普及。”IDC中国研究总监潘雪菲表示。


Qwen3也为即将到来的智能体Agent和大模型应用爆发提供了支持。在评估模型Agent能力的BFCL评测中,Qwen3创下70.8的新高,超越Gemini2.5-Pro、OpenAI-o1等顶尖模型,将大幅降低Agent调用工具的门槛。


同时,Qwen3原生支持MCP协议,并具备强大的工具调用(function calling)能力,结合封装了工具调用模板和工具调用解析器的Qwen-Agent框架,将大大降低编码复杂性,实现高效的手机及电脑Agent操作等任务。


此前,通义千问与此前“爆火”的AI Agent Manus达成战略合作。“国产大模型与创新应用开始深度融合。”IDC中国高级分析师杨雯分析称,“大厂技术底座+初创应用创新”的模式将加速了国产模型的商业化落地,也为行业提供了技术协同的范例。


而对于阿里来说,这也是其整体AI战略的关键一环。



阿里最新财报显示,截至2024年12月31日的季度,云智能集团收入为317.42亿元(43.49亿美元),同比增长13%,相比上一季度7%的增速接近翻倍。AI相关产品收入连续六个季度实现三位数的同比增长。站在新技术周期的起点,AI有望成为阿里巴巴面向未来的新增长引擎。


未来,随着3800亿元投入的逐步释放,阿里的AI布局会进一步深化。可能的发展方向包括强化智能体能力、拓展多模态技术、加强垂直行业应用,特别是在金融、医疗、制造等领域的专业化落地。


Qwen3不会是终点,而是一个新起点——在AI驱动的新周期里,技术突破与商业创新的互动将愈发紧密。


文/董静怡 陶力