每经记者|可杨 每经编辑|陈星
2026年,大模型发展的未来路径已经显露出明显分化。
硅谷头部公司不再试图覆盖所有方向,而是分别押注Agent(智能体)等能力。中国市场同样如此,一边是开源模型在全球舞台上快速崛起,一边则是不同团队围绕To C(面向消费者端)、To B(面向企业端)、Agent等路径展开差异化探索。
与此同时,有关大模型下一代范式的讨论正在升温。在预训练与强化学习逐渐成为共识之后,自主学习、自主进化以及更高自主性的Agent,被视为可能打开新一轮技术跃迁的方向。但这些设想仍面临诸多未解问题:智能提升效率如何衡量?长期推理与现实世界反馈如何闭环?安全与控制边界又该如何设定?
1月10日下午,在由清华大学基础模型北京市重点实验室发起的AGI-Next前沿峰会上,智谱创始人唐杰,腾讯“CEO/总裁办公室”首席AI(人工智能)科学家姚顺雨,月之暗面(Kimi)创始人、CEO(首席执行官)杨植麟,Qwen技术负责人林俊旸以及加拿大皇家学院院士、香港科技大学荣休教授杨强等来自产业与学术界的多位核心参与者给出了各自的判断。
《每日经济新闻》记者注意到,有意思的是,唐杰是清华大学教授,姚顺雨和杨植麟都毕业于清华大学。
当分化成为常态,当Agent开始承载真实经济价值,中国的大模型公司是否有机会在未来三到五年内,从快速跟随者转变为全球范式的定义者?
圆桌对话现场,左上为线上参会的姚顺雨 图片来源:主办方在这场围绕大模型未来的讨论中,分化成为最先被抛出的关键词。
圆桌对话主持人、拾象科技CEO李广密提到,过去一年,无论是硅谷还是中国,大模型公司在技术路径、产品形态和目标市场上出现了清晰分流。
姚顺雨的判断是,大模型的分化正在沿着两条主线展开。
一条是面向消费端与面向企业端的分化。在他看来,过去一年普通用户对 ChatGPT 升级迭代的感受已经不再强烈。“今天用ChatGPT,和去年相比,(使用)感受差别不是太大。但是相反,Coding(编码)夸张一点来讲,已经在改写整个计算机行业做事的方式,人已经不再写代码,而是用英语和电脑去交流。”
姚顺雨认为,这种差异直接导致了两种市场对模型能力的需求出现根本不同。
消费端(C端)大部分用户在大部分时间并不需要特别强的智能。模型在技术层面的提升往往难以被日常感知,更多时候,它被当作搜索引擎的加强版来使用,甚至很多用户并不清楚如何真正激发模型的智能。
而在企业端(B端)场景中,情况则恰恰相反。智能水平与生产力几乎线性相关,“对于B端来说,很明显的一点是智能水平越高,代表生产力水平越高,价值含量也越大,这些东西都是相关的。”姚顺雨认为,在这一市场中,强模型与次强模型之间的差距会被不断放大。从价格的角度看,即便最强模型的订阅费用显著更高,许多用户依然愿意为之支付溢价,因为在复杂任务中,智能提升带来的效率提升更明显。
另一条分化路径,则出现在垂直整合与模型应用分层之间。
姚顺雨表示,过去垂直整合常被认为是最优解,模型和应用紧密耦合,端到端优化。但现实正在变得更复杂。在面向消费端的场景中,这种路径依然成立,ChatGPT、豆包等产品,都是模型与产品强耦合紧密迭代的结果。而在面向企业端的场景中,趋势却恰恰相反,模型能力不断增强,与此同时,同样有优秀的应用层产品在不同的生产力环节释放价值。
不过,林俊旸从另一角度补充了这种自然走向分化的合理性。他认为,无论是面向企业端还是消费端,最终服务的都是真实问题,分化很大程度上源于其所接触的用户与场景本身。很多机会是在频繁和客户交流中自然显现出来的,“大家的分化是自然的分化,我更愿意相信AGI(通用人工智能),做AGI该做的事情,顺其自然。”
唐杰的观察则更为现实:单纯做一个“Chat产品”并不真正解决问题。他表示,自己对于模型竞争的第一个判断是替代搜索,而这场战役随着DeepSeek的出现而结束。其后,真正的问题变成了AI要做的下一件事情是什么?“我们团队争论了很多个晚上,最后,我们把所有的精力放在了Coding上。”
从学术界的角度,杨强则把分化理解为工业界与学术界之间关系的变化。“一直以来,学术界是观望者,工业界在领头往前跑,搞得很多学术界的人也在做工业界的事,这是一个好事。”杨强认为,随着众多性能稳定的大模型出现,一个新的阶段正在到来,学术界应该跟上,去解决工业界没来得及解决的一些问题,例如智能上限、资源分配、推理与记忆平衡的基础性问题。
如果说分化回答的是各家往哪走,那么第二个核心问题则指向技术的下一步。
在李广密看来,过去三年,预训练充分发展、强化学习成为共识,行业正等待新的学习范式出现。
姚顺雨从自主学习角度展开。他认为,自主学习并不是单一方法论,而是数据或者任务。聊天中的个性化、对不同企业代码的熟悉、像博士一样探索未知科学领域,都是不同形态的自主学习,其技术挑战或方法论并不相同。
姚顺雨认为,自主学习能力已经是正在发生的事。ChatGPT 不断利用用户数据调整聊天风格;Claude用自身生成的代码自我完善,这些都可以被视为自主学习形态。“这些自主学习的例子可能还局限在每一个特定的场景下,没有让人感觉到非常大的威力。这个事情已经在发生了,可能效率等受限制,它更像是一个渐变,不是突变。”
在他看来,真正的问题不在于技术,而在想象力,如果有人宣布某个新的模型或系统实现了自我学习,人们应当通过什么样的任务、什么样的效果呈现,来确认这一点?“它可以赚很多钱、真的解决了人类之前没法解决的科学问题还是别的?我觉得可能需要先想象它长什么样。”
林俊旸认同自主学习可能是下一个范式,但仍在早期阶段,强化学习本身仍有很多潜力尚未被充分释放。围绕自主学习,他认为,AI一定需要自主进化,但并不一定意味着参数更新。关键问题在于模型是否能在长期任务中保持能力不退化,同时具备更强的主动性。
但这也引出了新的风险维度。“我非常担心安全的问题,不是担心它今天说一些不该说的话,最担心的是它做一些不该做的事情。”林俊旸认为,在使模型具备主动行动能力的同时,也要为其注入正确的方向。
杨强提出了另一种可能路径:随着模型能力持续增强,通用大模型与本地专用小模型的协作变得越来越可能,尤其在医疗、金融等领域。
唐杰对2026年会出现范式革新很有信心。
唐杰认为,一方面,学术界正在获得算力与实验条件,工业界与学术界之间的差距正在缩小,“可能还有10倍差,但它已经孵化出种子,学术界有这个创新的基因。”
另一方面,大模型领域已经进入高投入、低效率的阶段。继续坚持高参数训练虽然仍有收益,但收益已经很小。在这种背景下,唐杰认为,智能效率即如何用更少投入换取更大智能增量,正是范式创新最可能发生的地方。
不过杨植麟认为,下一阶段,Scaling(扩展)仍然是重点。但新的变化是,Scaling不仅仅意味着堆算力,而是在架构、优化器、数据层面做技术改进,接下来的重点是让模型拥有更好的“Taste”(品味)。在他看来,智能与电力、货币等可等价交换的资源完全不同,“在智能的维度,有非常多Taste的空间,空间是指数增加的,而不是模型趋同。”
随着模型推理能力增强,Agent已经不再只是聊天工具,开始具备在后台持续工作、完成复杂任务流的能力。
姚顺雨认为,Agent在面向企业端场景中的增长曲线仍未减缓,其核心逻辑并未改变:模型的智能水平越高,解决的任务越多,在To B下带来的收益就会越大。即便模型能力停止提升,仅仅将现有模型部署到各个企业中,也足以带来数量级的生产力提升。
林俊旸则更倾向于模型即产品的判断。在他看来,未来的Agent应该能够在任务中自主学习、自主进化、自主决策。从这个角度看,对模型能力上限的提升,本身就是在做产品。
从更长期的视角,林俊旸认为,Agent未来需要能够与物理世界交互,比如参与实验、制造和科学探索,才可能释放出真正的工作能力。“接下来3~5年,这个事情会更加有意思一些,这可能又要跟具身智能结合在一起。”林俊旸表示,长尾问题才是AI的魅力所在,当模型能够解决全世界都找不到答案的问题时,用户才会真正感知到AI的能力。
唐杰则认为,Agent本身有没有为人类解决有价值的事情、做这件事情成本有多高以及做应用的速度有多快,决定了Agent未来的走势。“大模型到现在更多的是在拼速度、拼时间,也许我们代码正确了,我们就会在这方面走得更远一点,但也许失败以后半年就没了。”
在讨论的最后,话题回到一个更宏观的问题:未来三到五年,中国团队成为全球最领先 AI公司的概率有多大?
姚顺雨的态度偏乐观。他认为,中国在工程复现、规模化落地上的能力已经多次被验证,真正的关键变量集中在算力瓶颈以及To B市场成熟度上。