本文作者:访客

大模型「六小虎」里,至少两家要放弃大模型了

访客 2024-10-11 10:46:57 63309 抢沙发
大模型「六小虎」里,至少两家要放弃大模型了摘要: 2024年,不少曾立下“做中国OpenAI”军令状的模型公司,开始打脸。据《智能涌现》了解,被称为“AI六小虎”的6家中国大模型独角兽中,已经有两家逐步放弃预训练模型,缩减了预训练...

2024年,不少曾立下“做中国OpenAI”军令状的模型公司,开始打脸。

据《智能涌现》了解,被称为“AI六小虎”的6家中国大模型独角兽中,已经有两家逐步放弃预训练模型,缩减了预训练算法团队人数,业务重心转向AI应用。

(本文希望重点讨论国内AI公司对“预训练”大模型的路线选择,及其背后的思考与后续侧重点,为了不引起不必要的纷争,遂隐去放弃预训练模型的企业名称。)

赶大模型早集的百度,9月也一度传出“大概率放弃通用基础大模型研发,主要做应用”的消息。即便后续被百度辟谣,但“放弃预训练模型”,已经成了行业的一个转折点。

可以说,能让厂商上大模型牌桌的,就是“预训练”。所谓的“预训练(pre-train)”,就好比大模型的基础教育阶段,赋予模型海量而通用的知识,是决定模型性能最关键的阶段,也是模型厂商最核心的技术壁垒。

对于AI行业而言,随着第三方预训练模型的性能提高,应用层企业逐步放弃预训练模型,专注于让模型更懂用户的“后训练(post-train)”环节,是节省算力成本考量下的正常趋势。

2024年8月,硅谷的明星AI企业、角色扮演类应用的典范Character.AI,宣布放弃预训练,转向与第三方模型合作。他们在官方博客中给出的理由是:这使我们能够投入更多资源进行后训练,并为不断增长的用户群体创造新的产品体验。

然而,模型层企业放弃预训练模型,意味着主动走下AGI竞速的牌桌

更何况,“自研预训练模型”的故事,曾在短短一年间,给这些模型层企业带来丰厚的融资、*的人才,以及市场的声誉。模型公司放弃预训练,戳破了AI技术的泡沫。

就如一位AI从业者对《智能涌现》所评价的那样:

“不少厂商从OpenAI身上得到的不是通往AGI的技术,而是盲目跟随的自信。”

但对于AI赛道而言,放弃预训练,也不算全然消极的信号。在资金、算力紧缺的当下,现有的大模型厂商,也开始对自身的能力和资源现状,进行了重新评估。

从模型转向应用,意味着在追赶AGI之前,AI公司先选择了活下去。

大模型「六小虎」里,至少两家要放弃大模型了

钱不够烧了,模型和产品二保一

狂堆参数的Scaling Law,目前是预训练的主流路径,同时也意味着高昂且持续的算力和数据投入。

马斯克曾估算,GPT-5的训练可能需要3万-5万张H100,仅芯片成本就超过7亿美元(约50亿元),几乎是百度一整个季度的净利润。

对于尚未盈利的创业公司而言,继续堆参数炼模型,筹钱首先就是一个难关。

据《智能涌现》了解,随着估值跨上200亿元台阶,国内大模型公司最新的单轮次融资规模在50亿元左右。估值的抬高,也会伴随着融资难度的加剧。

一名投资人告诉《智能涌现》,今年最后一季度,大模型独角兽不会再积极布局融资,“无论是企业还是一级市场,对下一轮融资都保持悲观”。

数十亿元的融资,模型厂商不仅要分摊给持续堆参数的模型训练,还要喂给不断烧钱营销、却盈利能力有限的AI应用产品。

当下,与OpenAI的技术差距仍然难以弥合,国产模型之间的性能,也尚未拉开鲜明的差距。不少国内模型厂商开始借助“数据+场景”的长板,在AI应用上发力,试图率先跑出AI时代的“微信”和“抖音”——就连ToB基因显著的智谱AI和百川智能,也先后推出了“智谱清言”和“百小应”等C端应用。

规模化的AI应用,逐渐代替了*的模型性能,成为模型厂商留在AI牌桌上的筹码。因此,用户数据,成了模型厂商不得不重视的指标。

《智能涌现》曾报道,月之暗面在B站给出的CPA(用户转化人均成本)报价高达30元左右。而另有知情人士告诉《智能涌现》,如今模型厂商最高的报价,来自于字节跳动的“豆包”,“几乎是Kimi报价的2倍”。

2024年以来投流刷脸的营销打法,让不少模型厂商的营销预算翻了数倍。营销价格水涨船高,但在AI产品差异化程度还不够的当下,砸钱买流量几乎是获客的*出路。

一家大模型独角兽的员工告诉《智能涌现》,公司曾在2024年中,中止了AI对话产品在部分社交媒体的投放,“当月获客数据立马变得很难看”。一个月后,公司又恢复了投流。

并不是所有的大模型公司,都能从暂无尽头的烧钱中看到希望。

如今,AI产品所消耗的推理成本,较一年前已经下降了近99%。但不少业内人士反映,模型的训练依然占算力成本的至少7成。

这意味着,放弃预训练模型,是资源紧缺的当下,*性价比的决定。

放弃预训练模型的其中一家独角兽,据多名知情人士透露,自2024年中,整家公司的目标重心已经放在了海外的AI应用产品,以及上市。

大模型公司,困在变现焦虑

为什么在模型和产品中选择舍弃前者保证后者?核心原因还是在于,目前靠大模型本身,没有明晰的变现渠道

多名从业者对《智能涌现》反映,2024年开启的模型降价潮,并没有提高模型的营收能力。

“模型API的降价,本质上是为了让客户体验模型能力,并转化成本地部署等高净利业务的付费。”一名模型厂商大客户经理对《智能涌现》表示,“但表现没有达到预期,今年上半年大部分模型厂商的ToB业务,营收是砍半的。”

他记得,在一款模型宣布免费后,后台涌入了不少“白嫖”的开发者,“有一个做研究的开发者,一天用的Token数,就占了所有用户的60%。”

模型付费转化的失败,很大程度是因为,被称为“价格屠夫”的开源模型更强了。

随着Llama 3.1、Mistral Large 2、DeepSeek V 2.5等一系列开源模型,性能已经达到了叫板GPT-4,甚至GPT-4o的程度。

相对地,闭源模型的竞争力正在被削弱。“付费能力高的企业,一般有自己的技术团队,可以基于开源模型直接做开发。”上述大客户经理表示,对于技术能力不足的企业而言,“开源模型影响的是客户对模型价格的心理预期。

一个典型案例是,2023年Llama 2发布后,某大模型独角兽接到的客户报价,直接砍了一个“0”。

模型变现能力不足,意味着当下模型厂商的现金流,几乎只能依靠融资,以及能够快速找到PMF(产品-市场匹配度)的AI应用。

但如今,能为模型厂商吸引到融资的,除了漂亮的用户数据,只剩下跃升的模型性能。

一名投资人告诉《智能涌现》,模型厂商谁能先把o1(OpenAI最新模型)的能力追平,一级市场还是会为其小沸一番。

但2024年,不少大模型厂商,已经卡在了技术的瓶颈。

GPT-4后,大模型技术的发展已经进入了深水区。9月,前OpenAI首席科学家Ilya Sutskever——他曾将Scaling Law成功使用在ChatGPT等关键模型上——在宣布成立新公司SSI时直言:“每个人都只说Scaling假设。但每个人都忽略了一个问题:我们到底在Scaling什么?

大语言模型的迭代速度变慢、多模态仍处于攻坚早期,是模型赛道的现状。“GPT-4之前,OpenAI有公开的详细技术报告,大家还能对着‘抄’。之后技术报告不公开了,国内厂商的参考答案也没了。”一名从业者表示,“更何况,OpenAI的答案也不一定正确。”

一群失去方向的大模型公司,需要在技术的不确定性中,重新找到稳定性。

放弃预训练的模型厂商,抓住的是尚有盈利潜力的AI应用。多名知情者都对《智能涌现》表示,其中一家厂商的某款海外AI生产力工具产品,贡献2024年以来的大部分营收,“公司现在70%的人力都在做产品”——而这款出海应用的底层模型,也逐渐从自研的,换成了GPT-4和GPT-4o。

而另一家在国内靠ToB起家的模型公司,也在2024年中推出了生产力和娱乐相的C端AI应用。

剩下仍在坚持预训练的厂商,则开始在技术上降本增效。

一家模型独角兽的员工告诉《智能涌现》,今年公司在算力采购上很克制,计划先采取优化训练框架等方式,降低模型的训练成本。

再比如,OpenAI最新模型o1所采用的Self-play(自博弈)策略,能够在不增加参数的情况下提升模型性能,也成了不少模型厂商低成本训练模型的稻草。

对于整个AI行业而言,放弃预训练模型,并不是一个消极的信号。拾象科技CEO李广密近期也公开对外表示,未来80%的公司会放弃预训练,硅谷逐渐形成的共识是RL(强化学习)是接下来的突破点,能在控制算力成本的情况下,提升特定参数模型的能力。

这意味着从技术狂热重回理性后,厂商对技术范式和行业资源,开始重新思考和整合。

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

微信扫一扫打赏

阅读
分享

发表评论

快捷回复:

评论列表 (暂无评论,63309人围观)参与讨论

还没有评论,来说两句吧...