王坚:Sora意义非凡,只谈对短视频行业的影响是羞辱它

来源:人民邮电报

·当前国产大模型和GPT-4及其下一代技术的差距仍然很大,建议通过开源方式,依靠技术社区的力量找到发展路径,由市场来检验其水平。

·Sora问世的意义极大,远不止会对短视频、影视等行业带来冲击,它解决了非常复杂的一件事——视觉问题,王坚直言“如果能创造视频,它也就能创造世界”。

近日,Sora模型、大模型商业化等问题备受关注,中国工程院院士、云计算技术专家、阿里云创始人王坚在接受采访时表示,当前国产大模型和GPT-4及其下一代技术的差距仍然很大,其市场价值大于商业价值,建议通过开源方式,依靠技术社区的力量找到发展路径,由市场来检验其水平。

在大模型商业化方面,王坚表示,大模型的市场价值大于商业价值。他认为,市场化是商业化的基础,商业化是市场价值的重要体现。

“当今全球范围内,大模型商业化还在探索过程中。但事实已经证明,它有用户基础,也就是可以‘市场化’的,那就有可能产生商业价值——这一点其实很重要,一个产品如果没有用户基础,就算实现了商业化,也是小本生意。对于一场技术革命来说,它不可能以小本生意为目标,肯定能产生更广泛的影响。”王坚认为当前的大模型还处于市场价值大于商业价值的阶段。

王坚认为,短期来看,大模型的整个发展过程和市场没有直接的关系,因为这个领域的天花板还远远没有碰到。大家现在已经在讲万亿参数的模型了,行业都觉得很兴奋,你可以想想一个模型的参数从数十亿到万亿的差别。因此,这个赛道在国内外都还远没有到需要收敛的程度,OpenAI那么出名,但仍然会有挑战者出现,大家仍然在做不同的有创造性的探索。

对于国产大模型对标ChatGPT,王坚表示,不能简单地说对标ChatGPT。ChatGPT、GPT-4二者,要把它们区分开——前者其实是在后者基础上延伸出来的一个应用,因此真正衡量基础模型的能力应该去对标GPT-4。值得注意的是,GPT-4和GPT-3有一个非常大的不同,GPT-3是全开放的,大家都知道它是怎么做的,以及能做到什么程度,但到了GPT-4就不开放了,所以当前不太好谈对标的问题。就像高考一样,高考成绩好不见得这个人就好,但成绩不好又读不了大学。所以在短时期内衡量谁好谁坏是不公平的,要从长远角度由市场来给出答案。有观点认为,国产大模型的水平已经接近GPT-4,但其实差距还很大。更好的办法是由市场来证明大模型的能力,比如把模型开源出去,放到国际上去,让市场去检验产品。

从图文大模型到视频合成模型Sora,人工智能的发展速度不断给人们制造惊喜。谈到Sora,王坚表示,只说Sora可能会影响短视频等行业,那是对它极大的羞辱,它的意义远超这种事情。“就像原子弹刚刚爆炸时一样,没有人能想到原子弹后来可以作为核电站来发电,还可以实现小型化,还有很多别的用处。如果只是把原子能技术当作原子弹用,那就是大大低估了这个技术的重要性。”王坚说。

值得关注的是,Sora事实上在解决世界上最复杂的一件事——真实世界的视觉问题,视频是它的表现手段。它真正的意义在于靠技术已经能够生成像这个自然界一样复杂、有细节的视频或者图像。“如果能创造视频,它也就能创造世界。”王坚说。

对于云计算在大模型时代的作用,王坚表示,GPU的大规模使用,让云计算提供的算力会有百万倍的增长。“我们在AI时代常说使用几万张显卡训练一个大模型,当有这么大规模的时候,其实就是云计算,只不过是看这个云计算是想做成一个有体系的、可以真正提供大规模服务的,还是其他。”王坚说。

云计算是否有望解决当前的算力问题?王坚表示,这其实是个很复杂的事情。GPT-3时期OpenAI公布说,大概用了1万块英伟达A100(一种AI芯片)进行训练。但像亚马逊这样的云服务运营商,除了A100还用了H800的卡,总共大概有3000E(1E约等于1000PFlops-day)的算力。在过去的3个月里,按照官方的预测,每个季度会增加1000E的算力。到了GPT-4,就已经不公开其所需的算力了。不过,行业里大家都会有一个共识,就是只要做到这个规模就能猜出个大概。比如通义千问开源的是720亿参数的模型,那大家就都能猜到这背后有多少算力在支撑。(杨博雯 樊文扬 刘嫚)

展开阅读全文

页面更新:2024-03-24

标签:小本生意   视频   原子弹   非凡   模型   差距   很大   意义   价值   基础   行业   市场   技术   王坚

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top