如今以“人工智能”为名义销售的大部分人工智能产品都是类似蛇油一样的护肤品作用,没有什么作用。Arvind Narayanan昨天在麻省理工学院发表一次演讲中,描述了为什么会发生这种情况,我们如何识别有缺陷的 AI 声明并进行反击。这里是幻灯片的简要摘录:
实上,许多这些AI模型的表现并不比简单的线性回归更好。当你使用人工智能来预测社会结果时,会有巨大的危害:缺乏可解释性,以及领域专家向不负责任的公司大量转移权力。
关键要点是:AI 擅长某些任务,但无法预测社会这个复杂系统的结果。我们必须抵制旨在混淆这一任务的巨大商业利益。在大多数情况下,手动评分规则同样准确、更透明且值得考虑。
雪莉·特克尔有一个中心论点:你不能仅仅因为机器假装是私人的,就和机器建立人际朋友关系。如果人们依赖机器和这种虚伪的信任关系,他们就不会去理解真正的关系是如何运作的。
也有人表示使用算法替代人类判断属于一种技术拜物教,过于崇拜技术的一种宗教,人类判断如何与AI互动是一个复杂系统的顶级复杂课题。
教授计算机科学CS专业一种教学方法:让学生相信存在一种中心法则,即计算机是非常可泛化的机器,我们可以在其中创建可以为一个领域开发并转移到另一个领域的算法。这个想法长期以来一直很好地服务于 CS,其中为天文学开发的算法然后被用于医疗诊断技术,但从根本上讲,这是解决问题的一种傲慢自大的方式。当您尝试部署 AI 算法时,您不能忽略上下文。
简而言之,将人工智能置于上下文环境化,也就是说置于在特定领域的专业知识方面,这对于以道德方式部署它并从整体上理解它是至关重要的。
页面更新:2024-04-16
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号