2026年1月8日,智谱AI在港交所敲钟。这是全球第一家上市的大模型公司。在上市前夕,CEO张鹏摔断了跟腱,拄着拐杖来到访谈现场。他说了句西方谚语:「Break a leg通常意味着祝你好运。」
如果你的公司刚融完资,正准备all-in大模型,你可能正站在六年前智谱团队面对的同一个路口。
张鹏不是典型的创业者。1998年进清华,此后再没离开过。从学生到教师,从实验室到公司CEO,他的简历简单到只有一个关键词:清华。2019年,他和团队从清华计算机系走出来,成为中国第一家完成科技成果转化的AI创业公司。那一年,GPT-3还没发布,「百模大战」还没开始,没人知道大模型会在三年后引爆整个行业。
当时的智谱实验室已经在赚钱——一年横向科研经费接近2000万,服务谷歌、IBM等国际客户,做科技情报预测。「谷歌问的问题很简单,」张鹏回忆,「告诉我未来3到5年某个领域哪些技术会成为热点。」这是认知智能的典型应用:理解、推理、预测。
但张鹏和团队要的更多。
从16年开始讨论创业,到19年正式注册公司,中间横亘着一道中国科研体制的「玻璃门」——在职人员能不能用研究成果创业?分配比例怎么定?成果价值如何评估?张鹏说:「国家给了一扇窗户,并不是开了一个很敞开的门。」他们花了一年半,和清华一起摸索出第一套操作细节。
这条路有多难走?
2022年,分水岭来了。
团队训练出对标GPT-3的GLM-130B,花费400万人民币算力,总成本约1000万——OpenAI同期模型成本2000万美元,智谱只用了十四分之一。张鹏带着这个成果去融资。投资人问:「这东西能变成钱吗?大环境这么差,要不把估值降一半?」
三个月后,ChatGPT横空出世。
「投资人不用再问『这是什么东西』,」张鹏说,「他们问的变成了『什么时候能做出来』。」智谱在23年春节后迅速上线对标产品,同时开源了6B小模型——一张家用GPU就能跑。这是国内第一款在开源社区爆火的大模型,下载量巨大。
但真正的考验才刚开始。
三年百模大战,一个清华理工男的商业化长征
23年是「百模大战」元年。王慧文、王小川等明星企业家入局,身边的清华师弟杨植麟做出Kimi,严峻杰创立MiniMax。每个人都在讲故事,每个故事都在抢融资。智谱呢?「我们在世贸天阶开了发布会,几百人,」张鹏说,「到7月发4.5的时候,现场只有几十人,非常低调。」
两个字:不够。
不够性感,不够热闹,不够有「情绪价值」。有人评价智谱「像水泥一样,能干得很漂亮,但没有太多情绪价值」。张鹏认了:「我们就是清华理工男,比较boring。」
但boring背后是一套完全不同的商业逻辑。
大多数大模型公司在23年押注toC——烧钱拉用户,对标ChatGPT,追求「性感」的订阅制故事。智谱选了另一条路:toB。「中国C端付费意愿太差,」张鹏说得直白,「美国人愿意每月交20美金,中国用户不会。我们也投过流,挣了点钱,但后来发现不合算——智清言的用户使用曲线和上班时间完全重叠,早8点到晚6点,周末几乎没人用。他们把AI当工具,不当娱乐。」
这个判断源于一个更底层的认知:什么是认知智能?
2016年,清华张钹院士画了一个象限图:人的认知分为「我知道」「我知道我不知道」「我不知道我不知道」。上一代AI——人脸识别、语音识别——只解决「我知道」的问题,是单点技能,没有脑子。认知智能要解决的是:机器能不能像人一样,从有限样本中学习,然后泛化到未见过的场景?
「想想你学开车,」张鹏举例,「手动挡学会了,让你开自动挡,你会去尝试、试错、纠正,很快就会了。这就是认知能力——学习、推理、自我纠错。」
GLM算法就是这个思路的产物:融合GPT的单向生成和BERT的双向理解,既能续写也能填空,训练稳定性更好,量化精度损失更小。这套算法到今天仍是独树一帜的流派。
方法论的核心不是模型参数,是工程哲学。
智谱的做法分三步:
第一步,控制成本到极致。 22年训练GLM-130B时,别人都在「暴力美学」——堆算力、堆参数。智谱团队抠细节:优化数据利用率、改进模型架构、适配国产化芯片。结果是成本降到行业十四分之一。「中国团队的优势就是会抠,」张鹏说,「我们能在消费级显卡上跑千亿模型推理,成本从一百多万降到二三十万。」
到24年推出GLM-4时,参数量维持在3000亿,但效果持续提升。「我们很克制,没有像友商一样直接奔着万亿去,」张鹏说,「因为scaling law不是科学规律,只是现象描述。成本先受不了了。」
第二步,用toB场景倒逼技术迭代。 智谱的大客户里,中国前十大互联网公司有九家,企业客户占比60%,政府只占20%。为什么企业愿意买单?「因为我们对技术理解更深,」张鹏说,「同样的需求,别人可能需要更多人、更长周期、更高成本,我们用更少资源就能达到更好效果。这就是议价空间。」
21年底,张鹏一个人去深圳待了小半年,啃下一个几千万的合同。「我带着合同回北京,」他说,「那时候挺自豪的——我们的技术有人买单,能给客户创造价值。」
第三步,在强化学习上all-in。 DeepSeek在25年2月的发布像一记闷棍——跳过SFT直接做强化学习,成本更低,效果更好。智谱团队春节后密集研讨:「我们反思了研究方向、工程优化和市场策略,」张鹏说,「结论是强化学习这块我们下力气不够。」
此后的4.5、4.6、4.7版本,一步一个台阶。「我们开发了ARIS框架,」张鹏说,「把不同强化学习任务融合到一个框架里,原生地整合到一起。」这套方法在Reddit上引起热议,海外用户开始用智谱开源模型「套壳」服务,甚至蒸馏后冒充自己的产品。
「我们没做大规模宣发,」张鹏说,「但技术做好了,自然会有回响。」
但故事到这里还不够完整。
理论升华:信仰的代价
为什么智谱要这么「拧巴」?明明可以讲一个更性感的toC故事,拿更高的估值,为什么选择toB这条慢路?
答案藏在张鹏反复强调的一个词里:AGI信仰。
「融资的钱都是盘缠,」他说,「我们在寻找有同样AGI信仰的人一起做这件事。因为这条路很长,如果不是为了同样的信念,很难长期坚持。」
这个信念的具体形态是什么?张鹏给出了一个「L1到L5」的阶梯:
- L1是预训练——死记硬背世界知识
- L2是对齐和推理——把知识组合起来解决问题
- L3是自学习——通过试错不断强化,掌握过程而非结果
- L4是自我认知——知道自己不知道什么
- L5是意识——类似人类的conscious
「现在在L3阶段,」张鹏说,「scaling law也在变——从L1的参数量、算力,到L2的推理时计算,再到L3的强化学习。每个阶段的核心变量都不一样。」
他认为下一个范式可能是「在线强化学习」——训练和推理不再分离,模型实时从交互中学习,形成闭环。「如果再加上多模态融合——文本、图像、世界模型原生统一,」他说,「AGI就看到曙光了。可能还需要五到八年。」
但这条路有代价。toB不性感,故事难讲,估值天花板低。DeepSeek彻底开源后,客户会问:「你为什么还要收钱?」张鹏的回答是:「开源不等于免费。客户要的不是参数文件,是商业化服务——部署、集成、持续优化。」有些客户去自己部署DeepSeek,过一段时间又回来找智谱。「因为没人提供服务,」张鹏说,「他们没法和内部系统整合。」
局限性提醒:这套打法不适合所有人
智谱的路径有两个前提:第一,技术底子够硬,能把成本控到极致;第二,能忍受「不性感」的标签,放弃流量红利。
如果你的团队没有清华实验室那样的技术积累,或者需要快速讲故事拿估值,toB这条路会很难走。它需要一单一单啃,需要CEO亲自下场去客户现场「卷起裤腿搂起袖子」,需要在资本市场讲一个「不够sexy」的故事。
而且,toB在中国容易陷入低价竞争、定制化陷阱。智谱能守住,是因为技术溢价足够高,但这个护城河能守多久,还要看市场怎么走。
25年底,朱啸虎说「大模型连上一代AI四小龙都不如」。 张鹏的回应是:「结论下得太早,我们才成立六年,等时间来证明。」
上市不是终点。张鹏说,如果五年后智谱「只赚钱,没有技术产出,对行业没有贡献」,他会不满意。
100年后,如果智谱出现在AI历史书上,他希望有这么一句话:「智谱是AGI历史上的先行者——开路的人。」
访谈结束时,张鹏提到自己是天秤座,「天生很平衡」。理想和现实,技术和商业,开源和闭源,他都在找那个平衡点。
也许这就是清华理工男的浪漫:不够性感,但足够坚硬。