欢迎您来到金斧子,投资有风险,选择需谨慎!
当前位置: 首页 > 私募社区 > 国内大模型全面被“万亿参数”卷进去了?
国内大模型全面被“万亿参数”卷进去了?
2025-09-29
524
0

9 24 日的云栖大会,阿里宣布通义千问 Qwen3-Max 达到“超万亿参数”规模,训练数据量高达 36T tokens。周靖人称它是“通义家族最强”。这是国产大模型第一次,正式站在“万亿级”的门槛上。

 

这次发布会之所以格外受关注,是因为“万亿”这个词本身的象征意义。在 AI 发展史上,每一次参数数量的跨越,都会被视作行业新纪元的标志:从 GPT-2 15 亿参数,到 GPT-3 1750 亿参数,再到 GPT-4 被推测接近万亿。

 

如今,国内厂商第一次在舞台上宣布“我们也有万亿”,这不仅是一次产品升级,更是一次“地位宣言”。

 

成绩同样引人注目:在数学推理测试 AIME25 中,Qwen3-Max 取得 86.4% 的准确率,位列全球前三。在编程基准 SWE-Bench Verified 上得分 69.6%,仅次于 GPT-4.171.2%),位居全球第二。在 Chatbot Arena 综合榜单中进入前五,最高位列第四。这是国产大模型首次在多项国际权威基准上全面进入世界前列。

 

更值得注意的是,阿里并非只推出一个“巨无霸”,而是将其切分为多个方向:Thinking 版专注复杂推理,适合科研、数学、金融分析等场景。Instruct 版擅长指令遵循,更像 ChatGPT 的日常应用版。

 

Omni 版则支持实时语音交互与多模态,让用户能够和 AI 进行自然对话,甚至在视频场景里实现即时反馈。对普通用户而言,这已经不仅是一个聊天机器人,而是一个能写代码、能看文档、还能听得懂、看得见的全能助手。

 

但“万亿”背后,也潜藏着巨大的不确定性:这是国产大模型真正的腾飞起点,还是一场技术军备竞赛的陷阱?

 

为什么国内厂商没有退路

在国际市场,OpenAI GPT-4.1Anthropic Claude 已经开始追求“更轻、更灵活”。GPT-4.1 的重点是多智能体协作与 API 工具调用,Claude 则强调长文本和安全性。换句话说,他们意识到“越大越好”的阶段正在过去。

 

而国内,却几乎所有巨头都被推向了万亿参数这条单行道。

 

资本市场的推力最直接。2024 年,国内超过 50 家大模型公司融资总额突破 300 亿元。投资人最敏感的指标不是你能否落地,而是你是否能在技术指标上追平国际巨头。参数数值,成了最能“安抚市场”的语言。于是,“万亿”成了过关口令,谁没到万亿,谁就可能被贴上“二线”的标签。

 

企业客户也加了一把火。在采购逻辑里,模型越大,意味着越靠谱。很多需求被天然等同于“只有万亿才行”:跨语种客服、动辄 20 万字的合同审查、跨行业知识整合等等。哪怕实际差距只是 92% 93% 的准确率,在客户眼里也足以放大成决定性的差别。于是厂商们不得不迎合这种认知,把“万亿”当成展示实力的筹码。

 

更深层的原因也在于产业环境。高端 GPU 的获取仍受限制,国内厂商在算法优化上难以直接与国际巨头硬碰硬。于是,唯有通过“以量补质”来走捷径:扩大参数规模,用工程手段换性能表现。就像 LCD 时代,中国厂商把背光做到极致,才在画质上追上 OLED,如今在大模型赛道,厂商们也只能靠堆算力来追赶。

 

而这并不是选择,而是被裹挟后的必然。不卷上去,就意味着退出牌桌。

 

冷冰冰的算力账单

据行业测算(斯坦福 AI Index 2024 数据,结合多家券商研报),训练一次万亿参数模型,能耗可达 20005000 万度电,仅电费成本就超过上千万元。如果算上 GPU 采购、数据清洗、分布式工程调度等全流程,完整成本可能超过数十亿元。

 

推理阶段同样昂贵。恒信证券的一份测算指出,万亿模型的单次调用开销,是百亿模型的 24 倍。这意味着企业在部署时要么承担更高的算力租赁费用,要么就要接受调用速度和稳定性的下降。

 

然而,性能提升却往往只是个位数。比如在客服场景下,一个模型准确率 92%,另一个 93%,后者的训练成本却可能翻倍。对于企业来说,多花的不是 1%,而是实实在在的数亿预算。

 

这就是所谓的“边际效益递减”。随着参数规模越来越大,性能提升越来越有限,而能耗、账单却是成倍增加。对于巨头来说,这可能是可以承受的“战略性亏损”,但对于普通企业来说,这种成本根本不具备推广价值。

 

阿里的真正野心,不止是参数

既然如此,阿里为什么还要第一个喊出“万亿”呢?

 

答案很清楚:阿里瞅准的并不是单纯的参数竞赛,而是一盘云生态的棋。

 

阿里的真正目标,是让 Qwen3-Max 成为下一代阿里云的“操作系统”。在百炼平台,它已经开放 API,按 Token 计费。Qwen3-Coder OpenRouter 的调用量一度暴涨 1474%,跃居全球第二。同期推出的 Qwen3-VL、通义万相 2.5、通义百聆,覆盖了视频生成、语音交互、视觉编程等核心场景。

 

这一套动作,意味着阿里要的不只是展示“万亿”,而是要通过 API、工具链,把企业和开发者的工作流牢牢绑定在阿里云的生态里。未来,当企业习惯用 Qwen 提供的代码生成、长文档处理、语音交互服务时,迁移成本会越来越高,最终只能留在阿里云。

 

换句话说,“万亿”是招牌,真正的生意在后面。阿里卖的不是模型,而是云上的智能操作系统。

 

万亿之后,中国要回答更大的问题

Qwen3-Max 抬高了门槛,国内厂商被迫跟进。但世界的方向,未必是越大越好。OpenAI 在推小模型和多智能体,Anthropic 在强化安全与效率,而 Meta 则通过开源 Llama 系列构建全球开发者生态。相比之下,国内的“闭源+堆参数”路线,是否会在长期竞争中失去灵活性?

 

这也是为什么“智能密度”概念变得重要。所谓“智能密度”,就是单位算力、单位成本下所能提供的有效智能输出。未来的竞争,不在于谁的参数最多,而在于谁能用同样的资源,交付更聪明、更实用的结果。

 

换个角度看,万亿参数确实是护城河,但可能也是最后的倔强。它能否真正转化为产业价值,要看三点:企业是否愿意为高昂算力买单,开发者是否愿意留在生态,用户是否能切实感受到“省钱省力”。

 

如果答案是肯定的,万亿参数将成为中国大模型产业的里程碑。如果不是,它可能会重演“曲面电视”的故事:技术领先,却与用户无关。

 

最后

当全球 AI 进入“智能密度”时代,中国能否从“参数军备竞赛”转向“场景智能革命”,将决定我们是引领者,还是陪跑者。

 

万亿参数或许能刷榜,但只有让用户省下一分算力开销,才是真正伟大的AI

 

本文来自微信公众号“科技不许冷”

作者:科技不许冷

该文观点仅代表作者本人


尚未登录,请 后再评论
发表
  • 当前帖子暂无评论
私募大咖 换一批
水星价值投资观察
+ 关注
北京汉和汉华资本管理有限公司
+ 关注
正心谷创新资本
+ 关注
上海景林资产管理公司
+ 关注
金斧子官方账号
+ 关注

免费申请专业理财师

一对一快速解答疑问

立即咨询
持牌机构 / 强大股东