以百度创始人李彦宏为代表,中国的大模型产业,正逐渐建立起一个新的共识:正如同日本的诺贝尔奖数量并不直接决定其产业的强势与否,对于 AI 产业,只卷基础大模型,或许会是一段时间里,行业最大的失误。一个最直接的原因就是,当所有资源全部被押注在基础大模型的研发上时,直接带来的,或许不是技术的突飞猛进,而是相同成果一遍遍的复现,反而带来算力与研发资源的极大浪费。百度创始人李彦宏|图片来源:视觉中国就拿算力来说,一般来说,训练大模型的显卡标准配置为 A100 与 H100。当前,一张 A100 售价大约 8 万人民币,一张 H100 大约 15 万人民币;而将他们组装成服务器,一个 8 卡的 A100 服务器大约 130 万人民币,装配了 8 张 H100 显卡的服务器价格大约 200 万元。当然,这些全都有价无市。而将其对应到模型侧,训练一个千亿模型,大约需要用 1PB 数据,如果在 10 天内完成,需要至少一万张 A100,对应购买服务器的起步费用,就是 17 亿。此外,据报道,OpenAI 训练 GPT-5 需要数万张英伟达 H100 芯片,也就是说,相应的服务器成本,将达到 30 亿人民币上下,如果再算上数据中心成本、人力成本、电力成本,以及无数次推到重来的可能,需要的成本,几乎相当于国内头部大模型独角兽的融资总额之多。相应的,随着参数量的进一步暴增,基础大模型将注定成为少数玩家的游戏。参数量与玩家数量的成反比之外,创投市场的悲观,宏观经济的不确定,则又为这场基础大模型的豪赌,添上了一抹不确定的色彩。大模型研发要钱,而在没有确定的营收之前,创投是核心的现金来源。但创投数据库 IT 桔子的数据显示,近两年来,无论 AI 的融资规模还是数量,相比 2017 年前后的 CV 热潮,都大有不足。但研发成本上,大模型却是上个时代 CV 的数倍之多。于是,AI 行业一个怪圈出现了:早期,每当 Open AI 有新版本的大模型发布时,过不了三个月,国内一大批企业,就会引用第三方数据于开源数据集跑分,开始不断论证自家模型对各个版本 GPT 实现超越。在这背后,为了迎合打榜需求,over-fitting(过拟合)也成为一个 AI 圈特有的现象,由于训练过程中,模型对某一或者某几个打榜用的开源数据集拟合过于精细,以至于模型记住了不少开源数据集特有的噪声,从而打榜分数居高不下,但实际应用中,效果却往往却一言难尽。用李彦宏的话来说,「百模大战」让我们建立起了追赶世界最先进玩家的能力,但当前业界过分关注模型本身,造成了巨大算力浪费,忽视了 AI 真正的价值所在——应用。
02
降低创新的
成本意味着什么?
如果只卷基础大模型是一条错路,那正确的方向在哪里?研究了无数日本的产业兴衰之后,曾有专家总结,日本企业最大的问题,从来不是在于点错科技树,而是因为技术遥遥领先之后,没有带动更多玩家参与,让整个产业链的成本一同降低,从而成为加拉帕戈斯群岛中独自演化的「怪物」。比如,互联网发明,万维网是一切的基础,但真正带领产业蓬勃发展的,则需要搜索、电商、短视频等万亿级下游应用。大模型同理:少数玩家高端竞技之外,如何让大模型吸引更多生态玩家一同参与扩充应用市场,或许是这场旷日持久的大模型战争中最关键的赛点。如何解决这一问题,在不久前的世界人工智能大会上李彦宏明确指出了百度的思路:智能体代表着 AI 时代的未来趋势,由于它门槛足够低,可以「让更多人进来。在此之后,整个社会的创新,就会像 90 年代中期时候的互联网网站,诞生数以百万计的网站大浪淘沙之后,指不定哪条路就跑通了,从而诞生 Google、Facebook 这样的 Super APP。近十年,百度 AI 相关的研发投入超 1400 亿元,基于以上投入,百度同时也是全球为数不多的、有着应用、模型、框架、芯片四层全栈布局的 AI 公司,其文心大模型的日均调用量更是已经突破 6 亿次。以此为基础,百度还先后上线知识库、插件、自动追问、长期记忆、多尺寸模型,来完善智能体的生态。目前,通过百度智能体,创建 AI 原生应用的开发将变得像拍短视频一样简单,甚至一句话就能创建智能体。哪怕一些复杂的智能体创建需求,用户也能像搭乐高一样,灵活调用、组合各种工具。文心智能体平台截图这种极低的创新成本,换来的是汹涌而来的生态玩家:截止目前,百度文心智能体平台吸引了 10 万家企业、60 万名开发者,覆盖了上百个应用场景。比如主业是做教育培训的上海英孚教育,通过智能体打造了用户的专属英语顾问,不仅能「因材施教」为咨询客户推荐课程、外教,还能根据用户地址、需求,提供就近的培训地点,让企业的线索有效率大幅提升。当然,降低门槛只是产业做大重要一环,但更重要的是,降低门槛之后,如何创造营收,让雪球越滚越大,让创新成为一个稳定自循环的生态。