6月16日,软件及技术咨询公司Thoughtworks举办了媒体解析会,Thoughtworks中国区CTO徐昊表示,在大语言模型的使用上,当下可以分为两种方式:一种方式基于传统的机器学习,源自迁移学习(Transfer Learning)逻辑;另一种方式基于大语言模型本身的阅读理解和推理能力。
徐昊解释称,针对前者,既然存在一个预先训练的模型(pre-trained model),采用更接近某个特定领域的数据进行迁移学习,就可以将预先训练的能力迁移到不同领域;而后者不需要复杂的数据收集、昂贵的GPU和长时间训练,通过几次对话修正就可以将大语言模型迁移到目标领域。
页面更新:2024-03-18
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号