近期,国内云服务厂商之间掀起了一场大模型降价潮,这场价格战的目的是为了快速抢占市场,实现商业化的快速落地。包括火山引擎、阿里云、智谱AI、面壁智能等在内的厂商和创业团队都参与其中。
智谱AI首先在 5 月 11 日宣布大幅降价,新注册用户获得的额度从 500 万tokens提升至 2500 万tokens,个人版GLM-3 Turbo模型产品的调用价格从 5 元/百万tokens降低至 1 元/百万tokens,降价幅度达到 5 倍。火山引擎随后宣布豆包Pro 32k模型定价为0. 8 厘/千tokens,比行业降低了99.3%,豆包Pro 128k模型定价为 5 厘/千tokens,比行业降低了95.8%。腾讯云也在 5 月 14 日更新了混元大模型的计费信息,降低了价格。
图源备注:图片由AI生成,图片授权服务商Midjourney
这场价格战的背后,是大模型厂商为了加快商业化落地的迫切需求。大模型研发成本越来越高,算力技术被美国垄断,中国面临算力荒,算力租赁服务费用上涨,导致大模型研发成本进一步提升。同时,大模型技术已经发展到一定程度,需要通过大规模商用来验证技术的成功。
大模型商业化的路径主要有两种:API调用和私有化部署。API调用是最常见的落地方式,但对需求量大的用户和行业来说,成本较高。私有化部署成本更高,大模型研发成本动辄成千上百万,甚至上亿。
为了降低成本,厂商通过提高大模型的训练效率、降低推理成本等方式来降本。例如,微软的AI supercomputing超级计算机可以提高大模型训练效率,盘古大模型采用稀疏+稠密架构降低训练成本,文心一言通过技术手段提升了大模型的推理性能和降低了成本。
大模型商业化的竞速中,阿里、腾讯、字节等厂商都在持续迭代大模型能力,并构建完整的生态,研发创新型AI产品。百度、阿里、字节等都采取了构建大模型平台的路径,提供自家和第三方开源大模型服务。开源成为加速大模型渗透、拓展商业化市场空间的重要方式。
大模型的商业化落地需要根据不同行业、不同业务场景进行微调,提供真正符合企业需求的服务。目前,各大模型厂商都在探索如何加快大模型落地,未来一段时间内,竞争将更加激烈,同时也将推动大模型技术进入新的发展阶段。