更深入的研究:人工智能研究的创意史

更深入的研究:人工智能研究的创意史

机器人梦想电羊?让我们回到AI问题更直截了当(但仍难以回答)的时代。

人工智能正在快速发展。气氛是四周。事实开始听起来像科幻电影和科幻电影就像现实版本(具有更好的图形)。AI可能终于达到了数十年来一直追求的成熟度水平,并且一直被拒绝,使得它的部分社区和整个世界对其可行性产生怀疑。

科学怪人可能包含与当前相关的相似之处。玛丽雪莱的哥特小说包含了关于创造和引入人工社会的后果的讨论。生物使我们感到困惑的是它的不人道的暴行,然而人类的弱点表现,需要陪伴和存在的危机。

可以说,我们应该关注未来以及我们发现的后果。但是,我们怎么能把注意力集中到通过将生物大军注入像当代社会那样复杂的系统而产生的混乱中?人们也可以专注于成就,这些成功的故事让这些想法听起来真实可信。但是,事后如何区分正确的直觉和运气呢?

更深入的研究:人工智能研究的创意史

它需要自我约束和智慧,暂时搁置工作的各个部分,并评估其根源的坚定性。盛开的树可以分散注意力。

无论你是在追溯古希腊哲学家的逻辑思维规则,阿拉伯数学家推理的推理还是19世纪知识分子数学知识的力量 - 一个令人不安的概念变得清晰:问题比你可以设计的网络更深即使考虑摩尔定律)。

“我相信我们的成就取决于我们的父亲在奇怪的时刻教我们什么,当他们不想教我们时。我们是由一点智慧形成的。“
翁贝托生态

其余的讨论将从AI的历史中出现。不是成就史,而是一些重要人物的问题,论点和信仰的历史。大部分事件都围绕着60年代,这个时代AI收购了它的官方定义,目的,科学界和对手。

机器能想?

1950年,Alan Turing在他的开创性论文“ 计算机与智能”中试图回答这个故意单纯表达的问题。承认其含糊不清和它对理解AI所施加的限制,他通过制定一个思考实验来进行研究,也称为图灵测试:

玩家A是男性,玩家B是女性,玩家C是男性。C扮演审讯者的角色,无法看到任何一个玩家,但可以通过非个人笔记与他们交流。通过向A和B提问,C试图确定哪两个是男人,哪个是女人。A的作用是欺骗审讯者做出错误的决定,而B试图协助审讯者做出正确的决定。

重新提出的问题是:

当一台机器在这个游戏中占用A部分时会发生什么?审讯者是否会像他在两个人类之间玩游戏时一样错误地作出决定?

图灵的方法似乎遵循了鸭子测试的原则:如果它看起来像一只鸭子,像鸭子一样游泳,像鸭子一样呱呱叫,那么它可能是一只鸭子。

他在涉及智力的“人”方面时的态度,比如意识,就是你不能责怪某人(或某物)没有你尚未定义的特征。因此,在我们追求人工智能时,意识是无关紧要的。

哥德尔的不完备定理是人们试图谈论人工智能的障碍。根据他们的理论,数学逻辑不能既完整又一致,因此,配备数学逻辑学习的机器(如人工智能的情况)预计会在学习某些真理时失败。图灵对此的回答是相当的解除武装:你怎么知道人类智力也不具备它的局限性?

图灵的论文无论在论点上还是在清晰的辩证结构方面都是奢侈的,然而却受到对尚未被发现的技术的猜测的限制。

迈向人工智能的步骤

马文·明斯基是人工智能研究领域的先驱之一。在AI家庭照片的满是灰尘的专辑中,明斯基将成为这个给家庭晚餐带来不安的老人:“老叔叔明斯基。他非常独特,总是有一些有趣的东西说“。

明斯基是1956年达特茅斯会议的组织者之一,人工智能首先被定义为一个术语和一个领域。他大多因为相信人工智能是可行的,并且以错误的手段追求它而贬低他的活力而被人铭记。

让我们看看1961年明斯基不得不说什么,当时他被问到人工智能迄今为止的进展。

我们应该问一下“真的”是什么情报?我个人的观点是,这不仅仅是一个技术问题,更多的是一个美学问题,或者是一种尊严感。对我而言,“情报”似乎仅仅表现了我们尊重但却不明白的表演情结。通常,数学中的“深度”问题就是这样。一旦理论的证明被真正理解了,其内容似乎变得微不足道。

认识到人工智能的内在困难并从而追求它,明斯基开始设定它的建筑支柱。据他介绍,这些是搜索,模式识别,学习,规划和归纳。

如果程序的最终目的是搜索并找到自己的解决方案,那么模式识别可以帮助它识别适当的工具,学习可以帮助它通过经验改进,并且规划可以导致更有效的探索。关于用归纳能力制作机器的可能性和推理,明斯基不得不说:

现在[根据哥德尔的不完备性定理],不存在可以在所有可能的宇宙中很好地工作的归纳推理系统。但是,考虑到宇宙(我们的世界)或宇宙的整体以及成功的标准,机器的这个(认识论)问题就变成了技术而不是哲学。

文本的其余部分包含了经常性的要求,即澄清对AI的追求应该通过复杂的分层架构进行。出于这个原因,他质疑感知器的方法,因为它会遇到中等难度的问题。坦率地说,我们不能指望现实是简单化的。

明斯基可以归结为阻碍感知者研究的责任,这可能推迟了深度学习的绽放。意识到,即使使用简单的构建块,通过进入深层架构可以解决复杂的问题似乎已经逃脱了他,然而,巧妙的洞察力。

然而,他的言论可以被视为最终的建设性批评,因为他们帮助社区探索原始方法的弱点。此外,深度学习可能是迄今为止我们所知道的最好的(以及应用程序的奇妙程度),但不应该被无条件地视为AI的圣杯。

头脑,大脑和程序

1980年,约翰塞尔生气了。虽然他早些时候可能会生气,但这是他决定公开他与强大的AI之间的分歧的那一刻。事实上,即使标题听起来也很讽刺。我感觉塞尔正抓住我的领子,大力挥舞他的手指,说:“让我帮你做出一些根本的区别年轻的小伙子。”

“人们得到的印象是,AI这样的人认为他们可以逃避,因为他们并不认真对待他们,他们也不认为其他人会这样做。我至少提议一下,认真对待它。“

Searle完全攻击强大AI的概念,他认为这是计算机实践任何人类行为的能力。他将这转化为机器展示意识的能力,而这种意识是类比推翻的。他着名的思想实验,中国的房间,是这样的:

你是一个单语言的英语人,他被锁在一个房间里,有以下几件事:一大批中文文字(称为脚本),另一批大量的中文文字(称为故事)和一套英文规则,指导你如何匹配中文第二批次的符号(称为程序)。然后,你会得到另一批中文写作(这次叫做问题),另外一组英文说明的规则使问题与其他两批相匹配。恭喜你,你刚刚学中文!

这是Searle于1980年推出的中文室实验。思想实验本身并不是一个实验,因为它的目标不是进行的,而是探索一个想法的潜在后果。最古老也是最有名的可能是伽利略的比萨斜塔实验(你是否也认为伽利略实际上是从塔上掉落苹果?)。

Searle的观点是,如果你能够接受中文问题来产生中文答案,这并不意味着你懂中文,如果这种能力是通过遵守另一种语言的规则创造的。因此,在给出适当的算法后给出预期输出的机器不应该被认为是“思考”实体。

更深入的研究:人工智能研究的创意史

什么塞尔没有争议的是一个程序思考的能力,就某些功能推理而言。他指责现任人工智能研究人员行为主义和操作性,因为他们试图将一个程序与一个头脑等同起来(这是事实),而忽略了大脑的重要性。

根据他的意识来自生物操作,并且由于程序完全独立于其实现(因为它可以在任何硬件上运行),所以它不能表现出意识。

阅读原文,人们会感觉到他正在攻击一个尚未成熟的计算机科学家社区,他们并没有就智力是什么达成共识,而是试图通过目的论方法和猜测来模拟它。

明斯基对塞尔的回应,以及一般的哲学方法,就如同虚无主义一样:“他们误解,应该被忽视”。

大象不玩象棋。

你不应该让它们感觉不好。这篇由罗德尼·A·布鲁克斯于1990年撰写的论文,是一位新的人工智能传道者试图说服,采用论据和他的机器人队伍,经典的人工智能方法应该为他留下一些空间。

为了感受那个时代,AI正在经历第二个冬天。公司和政府意识到社区已经把期望设置得太高,所以资金被削减。

所以,反省的时候了。当某些事情发生根本性失败时,有两种方法可以实现:要么不可能实现,要么做法有缺陷。

布鲁克斯认为,人工智能的停滞是由于其功能表征的教条。该符号系统假设是如何运作的情报一个长期的观点。据它说,世界涉及人,汽车和宇宙爱等实体,所以很自然地将它们与符号相匹配,并与机器一起供给它们。如果这个假设是正确的,那么您已经为机器提供了所有必要的信息,以便它能够“智能地”出现。

虽然这个假设似乎并不成问题,但它有一些影响AI的糟糕表现的深远后果:

布鲁克的反提议是物理基础假设。也就是说,允许人工智能直接与世界交互并将其用作自己的表示。这肯定会改变人工智能的标准实践:从学习需要巨大的计算资源,专家的指导以及从未满足的培训数据需求,布鲁克建议为物理实体配备便宜的硬件并将其释放到世界中。但这是否低估了这个问题?

布鲁克斯认为情报是集体行为而不是复杂的部分。也许他的实验最深刻的观察是关于“目标导向行为如何从简单的非目标导向行为的相互作用中出现”。不需要存在预定的协调模式,因为智能机器应该绘制自己的策略以与世界最佳地交互。

布鲁克的进化论证明说服我们强调物理基础假设的重要性:人类是我们最需要知道的最常见和最接近的例子。因此,在我们试图重新创造这一特征的过程中,观察进化是一种缓慢的适应性过程,逐渐导致人类文明的形成,这是不是很自然?现在,如果考虑到我们发展互动,复制和存活等技能所需的时间,与我们仍然年轻的使用语言或下棋的能力形成对比,那么可以得出结论:这些是最难开发的技能。那么,为什么不把重点放在那个上?

布鲁克虽然对他的方法的实用性感到欣喜,但他承认它的理论局限性,这可以归因于我们尚未完全理解相互作用人群的动态。再一次,工程师对哲学异议的漠视显而易见:

“至少如果我们的策略不能说服臂膀哲学家,我们的工程方法将彻底改变我们生活的世界。”

AI表现进步

尽管问题浮出水面,但人工智能体现出我们无法争辩的事情:进步。尽管如此,从技术进步和启发式优势的影响中剥离现有应用以获得对当前研究质量的准确认知是一项乏味的任务。

深度学习是否会成为满足我们苛刻的智力标准的有效工具?或者这是AI再次到达冬季之前的另一个间冰期?

更重要的是,关注点和问题已经从纯粹的哲学转向社会,因为AI在日常生活中的后果比理解意识,上帝和智慧的需要变得更加明显和迫切。然而,这可能是一个更难以回答的问题,并促使我们深入挖掘。

当维特根斯坦撰写了Tractactus的时候,他面临着一个基本谬论的危险:他的论点受到了他的工作理论的伤害。也就是说,如果一个人接受他的教义是真的,他的论点是不合逻辑的,因此他的教义应该是虚假的。但是维特根斯坦有不同的看法:

“我的主张是这样解释的:理解我的人最终认识到他们毫无意义,当他从他们身上爬出来时,他们在他们身上。”

为了理解复杂观念背后的真相,我们需要发展。我们必须坚定我们的前一步,愿意放弃它。并不是每一步都必须是正确的,但它必须被理解。当后来面对这个论点时,维特根斯坦说他不需要梯子,因为他能够直接接近真相。

展开阅读全文

页面更新:2024-03-04

标签:维特根斯坦   人工智能   伽利略   创意   论点   中文   鸭子   智力   后果   意识   机器   人类   能力   程序   方法   时尚   世界

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top