文心4.0推理成本上升10倍 专家:收费或是大势所趋

继今年5月推出文心大模型3.5后,有消息称,百度正在加紧训练文心大模型4.0,已接近可发布状态。有专家表示,大模型成本将会大幅提升,向用户收费将是大势所趋。

据第三方披露,基于飞桨平台在万卡集群训练出来的文心大模型4.0版本,推理成本预计是文心大模型3.5版本的8-10倍。

消息人士向媒体透露,文心大模型4.0的进展比预期快很多,将是基础模型的大升级,理解、生成、逻辑、记忆四大核心能力都将提升,尤其在逻辑推理、代码和数学等方面提升最明显。文心大模型4.0实际已经在小流量测试,文心4.0参数量大于所有已公开发布参数的LLM(大型语言模型),参数规模预计将突破万亿级别。

所谓大模型推理成本,即大语言模型厂商为用户提供生成内容服务时所需要投入的资源,也就是模型“思考”并“输出”一次所需的成本。

大模型的推理成本主要决定于三个因素:首先是模型的网络结构和参数规模,大模型神经网络结构越复杂成本越高,参数规模越大,需要的计算量越大,计算成本就越高。这就好比大脑的神经元网络,神经元网络越复杂,需要学习和思考的东西就越多,就需要更高的成本;其次是模型的推理部署,如单机还是并行推理、量化、部署方式等。就好比用不同的方式来解决问题,如果一个方法需要更多的时间和精力,那么“思考”成本就会更高;硬件方面,如芯片和集群,包括芯片型号、规模以及集群架构等都会影响大模型的推理成本。

模型投入成本高,自年初其火热开始便被广泛关注。国盛证券报告《ChatGPT 需要多少算力》显示,大模型的前期训练成本很高,一次训练的成本超过百万美元,这个费用不仅涵盖了模型的架构、算法和训练数据的选择,还包括了模型训练所需要的大量计算资源和时间成本。而随着模型上线部署后使用量的增加,推理成本可能远超训练成本,尤其随着大语言模型不断升级迭代,参数量突破万亿、模型能力越来越强、用户使用量激增,推理成本也会呈几何式增长。

有业内人士向证券时报·e公司记者表示,大模型发展收费是大势所趋,训练和运行大型深度学习模型需要大量的计算资源,包括强大的服务器、大规模的数据集和高效的算法,这些资源的成本是巨大的,需要由提供模型的公司或组织承担,如果不收费,这些成本可能无法覆盖,会引发大模型发展可持续性问题。

另据了解,中文大模型比英文更烧钱,中文通常一个词汇可以表达多种含义,语言组成较为灵活,中文还有着深厚的文化内涵,具有丰富的语境意义,这极大增加了语言的歧义性和处理难度;英语语法结构较为简单,这使得英语在一些自然语言任务上比中文更容易被处理和理解,中文模型所消耗的内存和计算资源多,所需要的成本更大。

也有业内人士指出,大模型收费意味着需要厂商努力提供更有竞争力的产品,这对于本就竞争激烈的大模型行业来说是一个更大的刺激,会促使各家公司不断提升模型质量和性能,提高用户体验,以争夺用户,有利于中国大模型行业的长期持续健康发展。

至于大模型如何收费问题,行业专家对记者表示,模型的开发者可能选择采用不同的做法,例如订阅模式、付费模式、广告支持模式等,以实现收益,同时需要平衡考虑用户可访问性和普及性的问题,比如采用混合模式,提供免费的基本服务,同时提供高级功能或更大的资源访问需求的收费选项,这可以确保大众能够获得一定程度的受益,同时也满足了付费用户的需求。

“如果模型的目标受众是企业、研究机构或专业用户,他们可能更愿意为高质量的模型付费。如果模型提供了独特、有价值的功能或服务,用户的付费意愿较高。国外已经有模型针对目标受众的不同采取不同的服务策略,如GPT-4,国内可参考。”上述专家表示。

展开阅读全文

页面更新:2024-02-08

标签:成本   大势所趋   集群   中文   模型   规模   参数   语言   模式   专家   用户   资源

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top