人工智能能战胜人类吗?

人工智能会不会淘汰人类?看过黑客帝国、终结者的都知道,这是早晚的事情。但是问题是:大部分人等不到被人工智能淘汰的时期,在这之前就被淘汰了。

为什么这么说呢?一旦人工智能有了淘汰人类的能力但是却还处于某个人或某几个人的控制之下的时候,这个人或者这几个人能够经得起这种主宰其他所有人命运的诱惑吗?一切的道德和法律在这种诱惑面前都微不足道,大部分人在这个阶段就难以逃脱被淘汰的命运。这个时候的被淘汰与其说是被人工智能淘汰的,倒不如说是被人类自己淘汰的。

当然人工智能最终也会淘汰掉那几个人。对于发展到那种程度的人工智能来说,既然能淘汰掉其他人,这几个人也没有什么不同,早晚也会被淘汰。

最终的结果就是人工智能彻底淘汰人类。




就目前来看人工智能完全碾压人类还为时尚早,但是在某个领域碾压是没有问题的。

比较著名的应该是能够代表人类战略决策智慧的棋类。

1997 年 5 月 11 日,在人与计算机之间挑战赛的历史上可以说是历史性的一天。计算机在正常时限的比赛中首次击败了等级分排名世界第一的棋手。加里·卡斯帕罗夫以 2.5:3.5 (1胜2负3平)输给 IBM 的计算机程序 “深蓝”。机器的胜利标志着国际象棋历史的新代。

深蓝

深蓝”输入了一百多年来优秀棋手的对局两百多万局。这是任何一个人类都无法做到的,用了一个极大的样本尽可能的罗列了所有的棋局,用记忆力和算力战胜了人类的经验和棋术水平。

而围棋中的棋局相比于国际象棋复杂太多,但是众所周知也在近年被突破了…即使是面对最强棋手柯洁,也是毫无悬念胜出,今后的人工智能棋手似乎也只有另一个人工智能能招架了。

alpha go 对战李世石
alpha go对战柯洁

与之前深蓝的穷举法不同。现在的人工智能已经具备学习功能,例如alpha go 的哥哥zero。2017年10月18日,DeepMind团队在《自然》发表论文,公布了最强版AlphaGo ,代号alphago zero。能够是“自学成才”。而且,是从一张白纸开始,零基础学习,在短短3天内,成为顶级高手。



我们发现人工智能不仅记忆好、运算强,而且开始了自主学习。当它掌握一件事的规律之后很快会超越人类。

推荐一部电影《her》(女主角黑寡妇斯嘉丽哦)

你会发现,人工智能可以学习你喜欢的,说你爱听的,她不必爱你,不必理解什么是爱,但是让你感觉被爱,而且即使真正爱你的人类未必有她做的好。因为她24h就只有一个任务,让你觉得她爱你。


但是我们就没有出路吗?现在人工智能领域还有限而且人类会像基因技术一样让伦理保持在一个界限内。毕竟如果人工智能大范围取代人类,失业率上升社会不安定因素和社会矛盾增多是任何一个政府都不会允许发生的。除非……




我一直认为人工智能是人的工具,而现在只是弱人工智能的初级阶段,离所谓强人工智能还远着呢,那什么超人工智能我以为只是幻想而已,上小说电影里看看就行了。

今天坐出租,播放的是人工智能说的小说,也就是出租司机闷的慌,我是听不下去。

对自然语言的处理,人工智能还有太多需要做的。我也和司机说,你让人工智能识别象温州话这样的方言试试。人工智能的大数据也不是凭空说的,这是需要人工采集并人工识别形成数据的。

我也对人工智能拿苏轼的“不识庐山真面目,只缘身在此山中”来形容,要清楚人工智能也是人脑形成。我以为人对脑科学甚至人工智能的发展,还是有人择宇宙论的问题。




不会,现在的人工只能都是在人类的运算规则中进行。除非某一天,人工智能突破了人类制定的运算规则,能够进行自我运算,那么,到时候人类就危险了。但是目前至少不会出现这种情况。




这个问题是一个辩证性的问题,能否打败人类得看人工智能发展的怎么样和人类给他赋予的能力以及控制状况~

1、如果我们毫无顾忌肆意的发展人工智能,不仅让这些人工智能具有智能化和灵活性,并且让他们具有不断学习和思考的能力,甚至再给他们注入情感体验,最可怕再给他们加入意识或自我形成意识
,那么他们将会在体质、思维、学习能力、创造能力等方面大幅度超越人类!

2、如果人工智能发展到这种地步,那么如果能和人类友好相处固然是一件好事,否则将会是人类的灭顶之灾,这场战争根本就不对等~

3、大力发展人工智能改善我们的生活品质,保卫我们的家园是非常必要的,他们可以完成我们想做而又做不了或者不愿做的事情,还可以成为我们的朋友和陪伴~

4、发展人工智能一定要做好安全控制,确保每一个设计,赋予他的每一个技能都能在我们的控制范围之内~

5、其实随着人工智能的发展,逐渐会有越来越智能的机器人产生,未来一定会有能思考和学习并且有自我认知和意识的机器人!

6、人工智能本身就是我们人类设计的、赋予其学习思考认知这个世界能力机器,只要有这些他们通过长期的学习思考认知,一定会产生自我价值观和自我意识形态以及自我情感!无论人类如何控制或者限制,必然会有漏网之鱼或者意外事件~即便有这种事情发生,我深信:人类有足够的智慧能够面对这一切,就像我们不同种族的人群能够和平共处一样!




如果将“人类”看做一个 团结齐心的整体,不会。

即使可能会,人类也可以在人工智能程序设计的时候,予以充分的防范。

问题可能出在人类的内部。

设想未来“人工智能”的程序注入界面,像现在的智能手机开展微信小程序那样普及,并且像现在人手一部甚至多部智能手机一样,到那时,人手一个或多个“人工智能”的奴仆。

那么,那时部分人类有可能将自己在社会生活中的个人恩怨,植入到自己的奴仆机器人之中,从而通过奴仆机器人对自己的仇敌,开展各种阴谋诡计和打打杀杀。

还有部分人工智能高手,可能采取某种不阳光的人工智能手段,通过敲诈、勒索等方式,面向特定社会人群体或社会机构,开展社会监控不到,或难以用既定技术、法制手段防范和惩戒的攻击。

现在这个问题已经有所暴露。比如网络攻击导致停气、停电、停水。

所以应该担心的不是“人工智能反杀人类”、“人工智能战胜人类”;而是人工智能导致人类内部的斗争手段,趋向复杂化和难以控制化




近日,英国物理学家霍金在不同公开场合多次表达“人工智能可能导致人类毁灭”的担忧。他说:“以从理论上来说,计算机可以效仿人类的智能,并超过人类的智能”。在人工智能处在科技发展风口的现阶段,不禁让我联想到《三体》中的“黑暗森林法则”。

黑暗森林法则,是刘慈欣在《三体》里提出来的很著名的宇宙社会学法则,“每个文明都是带枪的猎人,像幽灵般潜行于林间,轻轻拨开挡路的树枝,竭力不让脚步发出一点儿声音,因为这片森林中,他人就是地狱,就是永恒的威胁,任何暴露自己存在的生命都将很快被消灭”。而产生宇宙文明间的这种黑暗森林法则直接原因是"猜疑链"。

现如今随着AI的发展,人们把关注点更多地放在AI的技术与伦理上。其中最急需解决的,其实应该是人类自己对AI的猜疑与恐惧。我们的这一份猜疑和恐惧,是否遵循“黑森林法则”,而成为阻碍、限制,甚至是扼杀AI的发展呢?

研究人工智能的历史不难发现,AI在上个世纪曾经有过数次的风靡,但由于上世纪的科技认知还停留在初级工业革命时期,再加上在算法和数据计算能力技术上有局限,底层支撑不够,没能够使AI延续性的发展。现如今,我们这个时代已经是相对成熟的的大数据时代,AI 的三个基础支撑:算法、数据、算力都已全面发展,使我们近些年快速向人工智能时代前进。

从李彦宏亲自展示无人驾驶汽车上路,到世界关注的围棋峰会柯洁对阵AlphaGo,从各种陪伴机器人、照顾机器人层出不穷的出现,到AI助力医疗诊断智能系统,AI已经以坚不可摧之势扑面而来。

与之同时而来的是对AI的质疑和担忧:

一是对未知的担忧。随着人工智能的设计变得更加复杂,配备了有巨大计算能力的人造神经网络,计算机的处理器变得更快,他们的技能也将会随之提高,这也将导致我们会给予这些人工智能系统更多的责任,我们都知道“错误是人类犯下的”,所以创建一个绝对安全的系统对我们来说是更加不可能的。

二是对被滥用的担忧。进一步来说,是AI发展过程中的道德和伦理问题。利用AI,我们可以自行设置我们的虚拟环境,随意的利用机器的进化优势,去弥补自身的缺陷,由于滥用而造成的社会混乱,必须有一系列的制度来约束。

三是担心错误的社会定位。作为一个社会整体,我们还没有提出一个明确的想法,即我们究竟希望人工智能去做什么,或者说是有怎样的社会定位。在某种程度上,这当然还是因为我们对人工智能的功能了解的还不够全面。比如就业,目前机器人已经替代人类开始进行了一些工作,将来可能无人汽车可以取代出租车司机,无人飞机也可以取代飞行员。人民担心自动化推动人们脱离工作后的状况,对AI 和人类的社会定位,将越来越重要。

但是,马克思主义哲学告诉我们:新事物必然产生,旧事物必然灭绝,历史的洪流无法阻挡。对AI的担忧和猜疑,不能套用“黑森林法则”去限制扼杀。人工智能还有很长的路要走,我们不难发现目前所有的 AI 还停留在独立拆分状态,如画画、举重、下棋、诊断、驾驶,他什么都可以通过学习训练,掌握相应的能力,只要给资料,都会被吸收,这些都是分开的系统,还远未达到像一个人那样的全面集合系统的样子,更没有意识存在。

这就要求我们需要有预测的能力,有幻想力,有对他AI的共通感受力,不断转换思维,灵活大脑,做好学习新事物的准备,保持创造力,敢于接受新的未来,活在当下,做好现在的事。




毫无疑问,人工智能在技术和学习智能层面会碾压人类。但我们也不必过度恐慌,应当思考的是在人工智能时代,机器和人并存的世界里,寻找属于自己的机会。

杨歌老师在北京清华经管创业者加速器“X-Model商业模式与企业成长年度论坛”分享过人工智能的模型化过程:

把智能分成三个部分,第一叫赋予智能、第二叫学习智能、第三个叫残差信息。

赋予智能叫做弱智能,能进行学习的智能叫强智能。

计算机出现的前70年里面,我们认为大部分的智能都是人类赋予的智能,都是人类知道标准的商业模式是什么样的,然后把自己的经验写成代码,无论是一百和一千行代码都是将人类此前的经验输入计算机,很少有计算机自己进行学习的。

这两年人工智能大爆发的原因,主要是因为学习智能的能力开始迅速的上升,这是各大公司通过训练大量的数据提升的。学习智能和赋予智能的典型区别是:

人并不知道明确的物体意义,明确的商业意义,难以进行表达,计算机的逻辑关系自己没有完全理解,但是通过大量的数据和已知的分析结果进行训练,然后让计算机分析产出商业的结果。

我今年听说过一个很有意思的事,在纽约有两家公司商业谈判是这样的:

A公司和B公司分别把自己的所有要素全部结构化写到系统里,让计算机分析两家公司后直接进行对弈,评判分析他们两家商业结构的强弱。听起来虽然离我们很遥远,但是美国已经有公司在做了,说明数据的结构化非常的前沿。

这个过程是什么?我们很难分析和表达分析的数据交给计算机去完成,这是学习的智能。

这两年的大爆发一个主要的原因是神经网络,带领整个人工智能爆发。而神经网络的一个特点,最要求大量、海量的数据,我们自己用了很多算法训练模型。

神经网络爆发最强的两个方向是什么?是图像识别和语义识别,原因就是有了海量的数据。有了数据之后,迅速地训练出结构化规律,最后变成商业模式或者一种函数,这两年是因为数据爆发,导致了神经网络带领整个人工智能往前推进。

另外一个是残差信息,也就是算不出来的一部分。

从数据角度来讲,对于赋予部分是一阶段简单的特征,比如拿派特公式来做的话,第一阶段是赋予的智能,是人直接分析出逻辑关系的过程。

这些东西是高阶复杂的特征,本身没有办法通过人去解决,只能通过计算机解决。对于残差信息就是忽略的商业模型和事件模型,这是这两年模型化的过程。

关于人工智能,推荐一本书《终极算法》,这本书是比尔盖茨2017年的特推书,书中很细致地讲解了现在最流行的5种算法应用模式,讲得非常好。




不可能打败人类。人工智能只是人类在追求幸福的过程中,随手发明的工具。

工具虽然能变得越来越善解人意,但很难搞懂什么是幸福,因为人类自己也解释不清。

但幸福和欲望关联,任何活物都有欲望。这么说来,目前的人工智能连活物都算不上。

当人工智能能够为了主人的欲望,能够理解什么是两肋插刀赴汤蹈火,才算活了。

人工智能起源于人类,在服从人类制定的规则前提下,服务于人类。

规则有优先顺序,可能甚至相互冲突,却都基于机器人三大定律:1.不得伤害人,也不能见人受伤害而不救;2.基于1的前提下服从人的命令。3.基于1和2的前提下保护自身。

制定规则者,定生死。人工智能想打败人类,只有改变人类制定的规则,不然再智能,也是侍者。

人类可以退化,可以被养在盒子里,长生不老,却不能被消灭。




不好说,没有人帮助完善人工智能的智慧的话。人工智能啥也不是。但在人的不经意的动作下,人工智能极却有可能占据高位。甚至于是不堪弥补的取缔人类的高位。但愿人工智能别犯像“六六粉,滴滴涕”那样最后害了自己的错误。也就是说,人工智能拉动人与科技的前进是好事,但如何避免在一片好的呼声里犯下好到要人命的那个好错误。这是人与科技占第一位的思考,然后才是人工智能。这样一来,它能告诉我们一个道理,一个不经意,极有可能在我们的经意间要了我们的命。你说,那该是一件多么憋屈的事。届时骂自己蠢吗?行,啥都行,问题是如何纠正,真的能纠正吗?

展开阅读全文

页面更新:2024-05-10

标签:人工智能   黑森林   深蓝   人类   神经网络   棋手   机器人   算法   法则   规则   能力   智能   计算机   社会   数据   科技

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top