人工智能芯中缺“心”(2)

按理说,我们向外看的最前沿就是眼底,然而并不是,因为眼底的画面是“不堪入目”的。

下面跟随我做个小实验:开启手机摄像功能,两手端住手机,(如图二)让摄像头朝前,比照眼球

人工智能芯中缺“心”(2)

的动作,以横轴或纵轴上下,左右摇动,这时我们可以看到手机显示屏上的画面是天摇地动的。而用我们的眼睛做同样的动作,画面却丝毫不晃动。可以肯定的是,摄像机CCD传感器感光面上得到的画面与眼底视网膜上得到的画面没有任何区别(如图三)。

人工智能芯中缺“心”(2)

区别只在于,手机监视器的画面是CCD传感器的直接反映,而眼底的画面是通过视觉神经提供给大脑建模的,这个模型是不动的所以我们看到的景象也不会动。因此,我们不能直接看到眼底倒置着的两个二维图像,却能够享受到大脑制作好的三维景象。

我们睁开眼睛就能窥探外界,这一切我们好像理所当然。 我们并不知道,眼底的信息已经经历过一次三D建模,是把外界的景物转换进了大脑。我们只要在大脑虚拟空间里互动,实际上操作到的却是外界的真实世界。

如果不通过这个虚拟世界,人这个有机体要与外界交互是非常困难的。以无人驾驶汽车为例,自动驾驶汽车的相关新闻“堆积如山”,自动驾驶好像“呼之欲出”,却又久久不能实现,原因是这实在太难了。

自动驾驶需要感知、决策、控制这三个环节的配合,然而在感知环节上就遇到了拦路虎。即便现在已经采用了好多传感器,如多个摄像头、超声波雷达、毫米波雷达,甚至还头顶一个硕大的激光扫描仪。传感器虽说是汽车的眼睛,用它们捕捉与驾驶的有关信息,但如此之多的传感器却没有一个是用来整合场景的,也就不可能对整个应对策略形成有机结合,这种各自独立的信息与策略很难应对全方位的关联变化。就像盲人,即使给了他各种各样的拐杖,对于快速行走还是不便。目前的自动驾驶遇到的就是这种窘境。

人工智能芯中缺“心”(2)

今年6月27日,滴滴出行首次面向公众开放自动驾驶服务,免费呼叫自动驾驶车辆进行试乘体验,一时媒体炒的沸沸扬扬。当记者用摄像机带着观众上车后,看到前排还坐着两个安全员,不知网友有何感想。也许觉得撤掉安全员指日可待吧。相信看了以上文章的网友,在短期内就不会有此奢望了。

感知最好的策略是什么,再多的传感器也不如在机器中建立一个与外界相一致的三维景象。机器人传感器即便运用了价格高昂的激光扫描仪,深度信息是有了,但不能判断各深度物体的性质与之间的关系,扫描一周也需要时间,每一帧的延时对高速运动的物体也显得仓促;深度信息与摄像头的形象难以结合;更不要说超声波的探测根本就没有细节。

大脑就非常简单了,它凭借两眼的角度差就获取了 深度信息,并直接与形象套准,还原出与外界

人工智能芯中缺“心”(2)

相一致的虚拟景象。效率之高、延时之短,让我们的感觉就像置身于真实的环境之中。机器人如果采用同样的方式,就没必要悬挂如此繁多的传感器。当然,机器也没有只准长两只眼的局限,如果在前前后后,上下左右都有两只眼的话,就能去除后视镜等带来的烦恼。

未完待续

华红平

2020/8/1

展开阅读全文

页面更新:2024-03-16

标签:安全员   人工智能   建模   扫描仪   眼底   超声波   物体   传感器   景象   外界   摄像头   深度   大脑   画面   汽车

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top