ChatGPT成本太高定价过低,OpenAI盈利可能遥遥无期
扫描二维码
随时随地手机看文章
大约十年前,科技股陷入低迷,随后OpenAI的ChatGPT横空出世,点燃了投资者热情。人们预计,到2030年,AI将为全球经济带来13万亿美元的收益。此后,科技股总市值猛增10万亿美元。
然而,有一个事实越发清晰:大语言模型(LLM)似乎并不具备经济可行性,赚钱可能遥遥无期。
2024年OpenAI的营收只有35亿美元,成本却高达50亿美元,且亏损仍在持续扩大。最新预测认为,即使OpenAI真的在2029年之前实现盈利,累计亏损也会达到1150亿美元。
OpenAI的亏损让亚马逊相形见绌。亚马逊成立第十年实现盈利,在此之前,累计亏损只有30亿美元,今年恰好是OpenAI成立的第10年。
为什么OpenAI持续巨亏?主要是核心产品ChatGPT定价过低,比成本低很多。
从另一个角度看,OpenAI的商业模式只对云服务提供商、数据中心建设商有利。分析认为,OpenAI的定价只有成本的几分之一,这在经济史上尚无前例。即使OpenAI现在想提价,也可能会“杀鸡取卵”,摧毁新生市场。
按照普遍的经济规律,随着时间的推移,AI成本应该逐步下降,但实际并非如此。用户厌倦“幻觉”(指AI生成虚假或错误信息的现象),需要更精准的模型和具有推理能力的模型。最终,虽然每token(AI领域衡量数据处理量的单位)价格下降,但为了精度的小幅提升,仍然需要消耗更多的token。
GPT-5曾经让行业备受期待,但它并未改变AI经济困境。用户发现,GPT-5的精度并没有显著提升,为了降低成本,它将简单问题推给旧模型来解决。如果OpenAI想优化财务状况,提高定价似乎成了唯一出路。
还有另一种办法可以缓解经济压力,那就是选择“小型语言模型”(Small Language Models, SLMs)。AI企业可以将OpenAI模型应用于特定的数据集和问题范围,从而构建出一个“小型模型”。
小模型的训练、更新和运行成本更低,DeepSeek的开发思路基本遵循这一原理,它的核心技术围绕知识蒸馏与数据精炼展开,大幅降低成本,该方法被许多AI企业模仿。
尽管如此,小语言模型仍然无法化解OpenAI的亏损问题,只能稍微缓解。