这个问题应该反过来想。不是下一个热潮是什么,而是深度学习现正发展到一个瓶颈,到底哪一个方案才能突破这个瓶颈。
深度学习现正的瓶颈是什么?
我觉得就一个字,大。
做深度学习,模型要大,数据也要大,而且从结果来看,也确实是Bigger than bigger。
这事显然没法持续发展,否则以后开顶会就简单了,也不用发啥论文,身上捆一圈显卡就上台,我有10张,什么,你有11张?OK,你大你话事。
而且还有一个大问题,就是模型抗干扰能力差。原因众说纷纭,我觉得没那么玄乎,说白了就一点,模型只能看到概率分布,压根就没搞明白学到的是啥。概率分布看着差不多,它自然就认为是一回事了。
知道了瓶颈,怎么突破呢?
不知道,槽点都清楚,方法却都说不好。目前几个方向都在搞,而因果推断是选项之一。
这里我也大胆盲猜一下:最终哪个能搞成,让模型真的知道学到的是啥,至少也比现在的纯概率分布要多学到一点,那应该就是下一个热潮了。
页面更新:2024-05-24
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号