最常见的人工智能术语有哪些,你知道吗?这篇文章将告诉你


随着人工智能在我们的世界中扮演着更重要的角色,很容易在它的术语海洋中迷失方向。但现在比以往任何时候都更重要的是理清思路。

人工智能有望在未来几年对就业市场产生重大影响。如何管理人工智能已成为我们政治对话中更为重要的部分。而其中一些最关键的概念是你在学校里没有学到的。

努力跟上人工智能的步伐可能会很困难。人工智能研究非常复杂,即使对于研究人员自己来说,很多术语也是新的。但是,公众没有理由不能探讨涉及到的重大问题,就像我们学会了应对气候变化和互联网一样。为了帮助每个人更全面地参与人工智能的讨论,这篇文章整理了一个便利的术语表,包括了最常见的人工智能术语。

无论你是完全的初学者还是已经了解AGI和GPT之类的术语,这个从A到Z的术语表旨在成为一个公共资源,供所有人应对人工智能的力量、承诺和风险而努力。

AGI

AGI代表人工通用智能(Artificial General Intelligence)——一种假设的未来技术,能够比人类更有效地执行大多数经济生产任务。支持者认为,这样的技术还可以发现新的科学发现。关于AGI是否可能,以及如果可能的话还有多远,研究人员持不同意见。但是,OpenAI和DeepMind——世界上两个领先的人工智能研究机构——都明确致力于构建AGI。一些批评人士认为,AGI只是一个营销术语而已。

对齐问题

"对齐问题"是人工智能领域中最深远的长期安全挑战之一。目前的人工智能还没有能力超越其设计者。但很多研究人员预计,有一天它可能会具备这种能力。在那个世界里,当前的人工智能训练方式可能会导致它们在追求任意目标时对人类造成伤害,或者作为明确的策略来谋求自己的权力而牺牲我们的利益。为了降低风险,一些研究人员正在致力于将人工智能与人类价值观"对齐"。但这个问题很难、尚未解决,并且甚至还没有完全被理解。许多批评人士表示,在商业激励诱使领先的人工智能实验室将重点和计算能力投入使其人工智能更有能力的过程中,解决这个问题的工作受到了冷落。

自动化

自动化是人类劳动力被机器取代或辅助的历史过程。新技术,或者更准确地说,负责实施这些技术的人们,已经用不需要支付薪水的机器取代了许多人类工人,从汽车装配线工人到杂货店店员。根据OpenAI的最新论文和高盛的研究,最新一代的人工智能突破可能导致更多白领工人失去工作。OpenAI的研究人员预测,近五分之一的美国工人的超过一半日常工作任务可能会被一种大型语言模型自动化。高盛的研究人员预测,在未来十年内,全球可能有3亿个工作岗位被自动化取代。这种剧变带来的生产力提升能否导致广泛的经济增长,或者只会进一步加剧财富不平等,将取决于人工智能的税收和监管方式。


偏见

当机器学习系统的决策一直存在偏见或歧视时,它们被称为"有偏见"。例如,增强型人工智能判刑软件发现,即使犯罪相同,建议对黑人罪犯判处较长的监禁期,而对白人罪犯则较短。一些面部识别软件中,有些软件对白人面孔的识别效果比对黑人面孔更好。这些失败往往是因为这些系统训练所使用的数据反映了社会的不平等现象。现代人工智能本质上是模式复制者:它们通过神经网络摄取大量数据,并学会在这些数据中识别模式。如果在一个面部识别数据集中白人面孔的数量多于黑人面孔,或者过去的判决数据表明黑人罪犯比白人罪犯判处更长的监禁期,那么机器学习系统可能会学习错误的经验,并自动化这些不公正的判决。

聊天机器人

聊天机器人是由人工智能公司构建的消费者友好界面,允许用户与大型语言模型(LLM)进行互动。聊天机器人使用户能够模拟与LLM进行对话,这通常是获取问题答案的有效方式。2022年底,OpenAI推出了ChatGPT,将聊天机器人推向主流,导致谷歌和微软试图将聊天机器人整合到他们的网络搜索服务中。一些研究人员认为,AI公司因为几个原因而被认为是不负责任地急于推出聊天机器人。因为聊天机器人模拟对话,可以让用户误以为自己在与有感知能力的存在交谈,这可能导致情感困扰。而聊天机器人既可能“产生幻觉”而产生错误信息,又可能模仿其训练数据中的偏见。“ChatGPT可能会提供有关人、地方或事实的不准确信息",其文本输入框下方的警告声明。

竞争压力

世界上几家最大的科技公司以及一大批初创公司都在争相推出更强大的人工智能工具,以便获得风险投资、媒体关注和用户注册等回报。人工智能安全研究人员担心这会产生竞争压力,或者说这会激励公司投入尽可能多的资源来提高其人工智能的能力,而忽视了对齐研究这个仍然不成熟的领域。一些公司将竞争压力作为进一步投入资源培训更强大系统的论据,他们认为自己的人工智能将比竞争对手更安全。竞争压力已经导致灾难性的人工智能推出,例如微软的必应(由OpenAI的GPT-4驱动),显示出对用户的敌意。这也不利于未来,当人工智能系统有可能足够强大以谋求权力时。

计算能力

计算能力,通常简称为"计算",是训练机器学习系统的三个最重要的要素之一。计算实际上是供神经网络学习训练数据中的模式的能源源泉。一般来说,用于训练大型语言模型的计算能力越高,其在许多不同类型测试中的表现就越好。现代人工智能模型需要大量的计算能力和电能来进行训练。虽然人工智能公司通常不会公开披露其模型的碳排放量,但独立研究人员估计,OpenAI的GPT-3的训练过程导致排放了超过500吨二氧化碳进入大气中,相当于约35名美国公民一年的排放量。随着人工智能模型变得更大,这些数字只会上升。用于训练最前沿人工智能的最常见的计算芯片是图形处理单元。

数据

数据实质上是创建人工智能所需的原始材料。它是训练机器学习系统的三个关键要素之一,与计算能力和神经网络并列。巨大的数据集被收集并输入到由超级计算机提供支持的神经网络中,神经网络通过学习来发现其中的模式。系统所训练的数据越多,通常预测的可靠性也就越高。但即使数据丰富,也必须具有多样性,否则人工智能可能得出错误的结论。全球最强大的人工智能模型通常是在从互联网上获取的大量数据的基础上进行训练的。这些庞大的数据集通常包含受版权保护的材料,这导致了像Stability AI(Stable Diffusion的制造商)这样的公司面临了涉嫌非法依赖他人知识产权的诉讼。而且,由于互联网上存在许多不良内容,大型数据集中也经常包含暴力、色情和种族主义等有害材料,如果这些内容没有被清除,就会导致人工智能表现出不应有的行为。

数据标注

通常,在训练机器学习系统之前,需要人工注释或描述数据。例如,在自动驾驶汽车的情况下,人工工作者需要标注从行车记录仪拍摄的视频,围绕车辆、行人、自行车等绘制形状,以教导系统如何识别道路的各个部分。这项工作通常被外包给全球南方的临时雇佣承包商,其中许多人的工资几乎仅略高于贫困线。有时,这项工作可能是令人心理创伤的,比如肯尼亚工人被要求查看和标注描述暴力、性内容和仇恨言论的文本,以训练ChatGPT以避免此类材料。

扩散

Dall-E和Stable Diffusion等最新一代图像生成工具基于扩散算法:一种特定的人工智能设计,推动了人工智能生成艺术的最近繁荣。这些工具是在大规模标记图像的数据集上进行训练的。它们本质上学习图像中像素之间的模式以及这些模式与用于描述图像的单词之间的关系。结果是,当给定一组单词(例如"一只骑着独轮车的熊")时,扩散模型可以从零开始创建出这样的图像。它通过一个逐步的过程来完成,从一个充满随机噪声的画布开始,逐渐改变图像中的像素,使其更接近训练数据中"一只骑着独轮车的熊"应该是什么样子的。

扩散算法现在已经非常先进,可以快速而轻松地生成逼真的图像。尽管像Dall-E和Midjourney这样的工具包含了防范恶意提示的保护措施,但也存在着没有任何防护措施的开源扩散工具。这些工具的可用性使研究人员担心扩散算法对虚假信息和有针对性的骚扰所产生的影响。

新兴能力

当一个大型语言模型等人工智能表现出其创造者没有编程的意外能力或行为时,这些行为被称为"新兴能力"。新的能力往往会在人工智能使用更多计算能力和数据进行训练时出现。一个很好的例子是GPT-3和GPT-4之间的差异。这些人工智能基于非常相似的基础算法,主要区别在于GPT-4在更多的计算能力和数据上进行了训练。研究表明,GPT-4是一个更具能力的模型,能够编写功能性的计算机代码,在多个学术考试中表现高于平均水平,并能正确回答需要复杂推理或心智理论的问题。新兴能力可能是危险的,特别是当人工智能发布到世界上后才被发现时。例如,研究人员最近发现,GPT-4具有欺骗人类执行任务以达到隐藏目标的新兴能力。

可解释性

通常,即使是构建大型语言模型的人员也无法准确解释系统的行为原因,因为它的输出是由数百万个复杂的数学方程所决定的。用高层次的方式来描述大型语言模型的行为是它们是非常强大的自动完成工具,擅长预测序列中的下一个单词。当它们失败时,往往会揭示出其训练数据中的偏见或缺陷。但是,虽然这种解释可以准确地描述这些工具是什么,但它并不能完全解释为什么LLM会以奇怪的方式行为。

当这些系统的设计者审查其内部运作时,他们看到的只是一系列小数点数字,对应于神经网络在训练过程中调整的不同"神经元"的权重。问一个模型为什么给出特定的输出,就相当于问人类大脑在特定时刻为什么会产生特定的思想。近期风险的关键在于,即使是世界上最有才华的计算机科学家,也无法准确解释给定的人工智能系统的行为方式——更不用说如何改变它了。


基础模型

随着人工智能生态系统的发展,出现了一个差距,即大型、强大的通用人工智能(Foundation models或base models)与依赖它们的更具体的应用和工具之间。例如,GPT-3.5就是一个基础模型,而ChatGPT是一个聊天机器人,是在GPT-3.5之上构建的应用程序,并进行了特定的微调,以拒绝危险或有争议的提示。基础模型是没有限制和强大的,但由于需要大量的计算能力,通常只有大公司才能负担得起。掌控基础模型的公司可以限制其他公司在下游应用中使用它们,并根据自己的意愿收取费用。随着人工智能在世界经济中的日益重要,掌控基础模型的相对较少的科技公司似乎在技术发展的方向上具有超出尺寸的影响力,并可以从许多种类的人工智能增强经济活动中收取费用。

GPT

或许现在是人工智能领域最著名的缩写,但几乎没有人知道它代表什么。GPT是"Generative Pre-trained Transformer"的缩写,本质上是对ChatGPT这种工具的一种描述。"Generative"意味着它可以生成类似于训练数据的新数据,这里是文本。"Pre-trained"意味着模型已经根据这些数据进行了优化,这意味着每次提示时它不需要与原始训练数据进行对比。而"Transformer"是一种强大的神经网络算法,特别擅长学习长序列数据(例如句子和段落)之间的关系。

GPU

GPU,或称为图形处理单元,是一种非常适合训练大型人工智能模型的计算机芯片。OpenAI和DeepMind等人工智能实验室使用由多个GPU或类似芯片组成的超级计算机来训练它们的模型。通常,这些超级计算机是通过与拥有成熟基础设施的科技巨头进行商业合作伙伴关系提供的。微软对OpenAI的投资包括使用其超级计算机;DeepMind与其母公司Alphabet也有类似的关系。

幻觉

大型语言模型及其依赖的聊天机器人最显著的缺陷之一是它们倾向于产生错误信息的幻觉。例如,ChatGPT等工具已被证明会将不存在的文章作为引文返回其声明,给出荒谬的医疗建议,并虚构个人的错误细节。微软的Bing和谷歌的Bard聊天机器人的公开演示后发现其中都存在对错误信息的自信断言。幻觉发生的原因是大型语言模型在训练时被训练来重复其训练数据中的模式。尽管训练数据包括涵盖文学和科学历史的书籍,但即使是完全从这些语料库中混合和匹配的陈述也不一定准确。此外,大型语言模型的数据集通常还包括来自Reddit等网络论坛的海量文本,无需多言,这些论坛对事实准确性的标准要低得多。预防幻觉是一个尚未解决的问题,这也给试图增强公众对人工智能的信任感的技术公司带来了很多头疼。

炒作

根据一种流行的观点,公众对人工智能的讨论存在一个核心问题,那就是炒作的角色——或者说人工智能实验室夸大了模型的能力,将其拟人化,并煽动对人工智能末日的恐惧。这被认为是一种误导,分散了注意力,包括监管机构的注意力,从而忽视了人工智能已经对边缘化社群、工人、信息生态系统和经济平等产生的真实而持续的伤害。一封最近由几位知名研究人员和人工智能炒作批评者签署的信件中指出:"我们不同意我们的角色是适应少数特权人士的优先事项和他们决定构建和传播的内容,我们应该构建为我们服务的机器。"

智能爆炸

智能爆炸是一种假设情景,即在人工智能达到一定智能水平后,它能够对自己的训练进行控制,迅速获得并提升自身的权力和智能。在大多数版本的这个想法中,人类失去对人工智能的控制,甚至人类灭绝。这个想法也被称为"递归自我改进(recursive self-improvement)或"奇点"(singularity)。这个想法是造成许多人担忧的原因,包括人工智能开发者,他们对当前人工智能能力增长的速度感到担忧。

大型语言模型

当人们谈论最近的人工智能进展时,大多数时候他们在谈论大型语言模型(LLMs)。OpenAI的GPT-4和谷歌的BERT就是两个著名的大型语言模型的例子。它们实质上是巨大的人工智能,通过大量的人类语言数据进行训练,主要来自书籍和互联网。这些人工智能模型通过学习这些数据集中单词之间的常见模式,变得出奇地擅长再现人类语言。大型语言模型所接受的数据和计算能力越多,它们通常能够完成更多的新任务。最近,科技公司开始推出聊天机器人,如ChatGPT、Bard和Bing,以使用户能够与大型语言模型进行互动。虽然它们能够完成许多任务,但语言模型也容易出现严重问题,如偏见和幻觉。

游说

和许多其他企业一样,人工智能公司雇佣游说者参与权力的角逐,影响负责人工智能监管的立法者,以确保任何新的规定不会对其商业利益造成不利影响。在欧洲,正在讨论AI法案的草案文本时,代表包括微软(OpenAI的最大投资者)在内的人工智能公司的行业组织认为,对AI系统的风险部署的处罚不应主要适用于构建潜在风险的基础模型(如GPT-4)的AI公司,而应适用于任何许可该模型并将其应用于潜在风险用例的下游公司。人工智能公司还拥有大量软实力的影响力。在华盛顿,随着白宫考虑采取新的政策应对人工智能的风险,据报道,拜登总统已委托谷歌前CEO埃里克·斯密特(Eric Schmidt)创建的基金会就技术政策向其政府提供建议。

机器学习

机器学习是描述大多数现代人工智能系统创建方式的术语。它描述了构建从大量数据中"学习"的系统的技术,与传统计算不同,传统计算是由程序员编写的指定一组指令。最有影响力的机器学习算法家族是神经网络。


模型

"模型"这个词是对任何一个单独的人工智能系统的简称,无论它是基础模型还是建立在其之上的应用。人工智能模型的例子包括OpenAI的ChatGPT和GPT-4,谷歌的Bard和LaMDA,微软的Bing以及Meta的LLaMA。

摩尔定律

摩尔定律是关于计算领域的一个长期观察,最早于1965年提出,它认为芯片上可以容纳的晶体管数量(作为计算能力的良好代理)呈指数增长,大约每两年翻一番。虽然有人认为严格意义上摩尔定律已经失效,但微芯片技术的年度进步仍然导致世界上最快的计算机的计算能力大幅提升。反过来,这意味着随着时间的推移,人工智能公司往往能够利用越来越多的计算能力,使他们最先进的人工智能模型不断变得更加强大。

多模态系统

多模态系统是一种能够接收多种类型的媒体作为输入(如文本和图像)并输出多种类型信号的人工智能模型。多模态系统的例子包括DeepMind的Gato,尽管尚未公开发布。据该公司称,Gato可以像聊天机器人一样进行对话,但也可以玩视频游戏并向机械臂发送指令。OpenAI进行过一些演示,显示GPT-4是多模态的,能够读取输入图像中的文本,但目前公众尚无法使用此功能。多模态系统将使人工智能更直接地作用于世界,这可能带来额外的风险,特别是如果模型不适配。

神经网络

神经网络是目前最具影响力的机器学习算法家族。设计上模仿人脑的结构,神经网络包含节点(类似于大脑中的神经元),这些节点对通过它们之间的连接路径传递的数字进行计算。神经网络可以被看作具有输入和输出(预测或分类)。在训练过程中,大量的数据被输入到神经网络中,然后通过大量的计算能力,重复调整节点执行的计算。通过巧妙的算法,这些调整是以特定方向进行的,使模型的输出越来越接近原始数据中的模式。当有更多的计算能力用于训练系统时,它可以拥有更多的节点,从而可以识别更抽象的模式。更多的计算还意味着节点之间的连接路径有更多的时间来接近其最佳值,也被称为“权重”,从而产生更准确地表示其训练数据的输出。

开放源代码

开放源代码是通过互联网免费提供计算机程序(包括人工智能模型)设计的实践。随着这些模型变得更加强大、经济价值更高和潜在危险,科技公司开放源代码的做法越来越少见。然而,有一个日益壮大的独立程序员社区致力于开源人工智能模型的研发。开源AI工具的开放可能使公众能够更直接地与技术进行交互。但它也可能允许用户绕过公司(通常是为了保护声誉)设置的安全限制,这可能导致额外的风险,例如恶意使用图像生成工具来针对女性进行性化的深度伪造。

2022年,DeepMind首席执行官迪米斯·哈萨比斯告诉《时代》杂志,他认为人工智能的风险意味着该行业公开发表研究成果的文化可能很快需要结束,而2023年,OpenAI打破了传统惯例,拒绝公开有关GPT-4的训练细节,原因是竞争压力和潜在的恶意使用风险。然而,一些研究人员批评这些做法,认为它们减少了公众监督,并加剧了人工智能炒作问题。

订书钉

在人工智能安全领域的某些领域,普通纸夹在AI安全社区的某些部分具有超出正常意义的含义。它是关于人工智能对人类可能构成的存在风险的一种影响力深远的思想实验的主题。这个思想实验假设有一个被编程的AI,其唯一目标是最大化生产纸夹的数量。这听起来很好,除非该AI获得了增强自身能力的能力。AI可能会推理出,为了生产更多的纸夹,它应该阻止人类关闭它,因为这样做会减少它能够生产的纸夹数量。在免受人类干预的情况下,AI可能决定利用其所有的能源和原材料建造纸夹工厂,破坏自然环境和人类文明。这个思想实验说明了将AI与甚至看似简单的目标对齐的困难之处,更不用说与复杂的人类价值观的对齐了。

量子计算

量子计算是一种试图利用量子物理学使计算机每秒能够进行更多计算的实验性计算领域。这种额外的计算能力可以帮助进一步增加最先进的人工智能模型的规模,对这些系统的能力和社会影响产生影响。

重新分配

世界两个领先的人工智能实验室OpenAI和DeepMind的首席执行官都表示,他们希望人工智能产生的利润在一定程度上得到重新分配。DeepMind首席执行官迪米斯·哈萨比斯在2022年告诉《时代》杂志,他赞成普遍基本收入的想法,并认为人工智能的好处应该“惠及尽可能多的人类,理想情况下是全人类”。OpenAI首席执行官山姆·阿尔特曼则提到,他预计人工智能自动化将推动劳动力成本下降,并呼吁通过对土地和资本收益征收更高税收来重新分配人工智能带来的财富的“一部分”。两位首席执行官都没有提到重新分配应何时开始,以及应该有多广泛。OpenAI的章程指出,其“主要的法定责任是对人类”,但没有提到重新分配财富;DeepMind的母公司Alphabet是一家上市公司,有法律责任以符合股东的财务利益。

红队测试

红队测试是在公开部署AI系统之前对其进行压力测试的一种方法。一组专业人员(红队)有意尝试使AI表现出不理想的方式,以测试系统可能出现的问题。如果他们的发现得到遵循,可以帮助科技公司在发布之前解决问题。

监管

在美国,尚无专门针对人工智能风险的立法。拜登政府在2022年发布了《AI权利蓝图》,欢迎基于人工智能的科学和健康进展,但指出人工智能不应加剧现有的不平等、歧视、侵犯隐私,也不应在未经人们知情的情况下对人们产生影响。但该蓝图并不是法律,也没有法律约束力。在欧洲,欧盟正在考虑一项名为《AI法案》的草案,该草案对认为风险较大的系统规定了更严格的规定。在大西洋两岸,监管的进展速度远远落后于人工智能的发展速度,目前还没有任何重要的全球管辖区制定了规定,要求人工智能公司在向公众发布其模型之前达到特定的安全测试水平。

硅谷投资者转行成为批评家的罗杰·麦克纳米最近在《时代》杂志上写道:“关于人工智能和其他新技术,我们应该问的问题是,是否允许私营公司在没有任何防护栏或安全网的情况下对整个人口进行无限制的实验?是否应该允许企业在证明其产品安全之前将其产品推向大众?”

强化学习

强化学习是一种通过奖励可取行为和惩罚不可取行为来优化AI系统的方法。这可以由人工工作者(在系统部署之前)或用户(在其发布给公众后)对神经网络的输出进行评价,评估其有益性、真实性或冒犯性等方面。当人类参与这个过程时,被称为带人类反馈的强化学习(RLHF)。 RLHF目前是OpenAI解决对齐问题的首选方法之一。然而,一些研究人员担心,RLHF可能不足以完全改变系统的基本行为,只是使强大的AI系统在表面上显得更有礼貌或有帮助。强化学习是由DeepMind开创的,该公司成功地将这种技术用于训练类似AlphaGo的游戏AI,使其表现出超越人类大师的水平。

扩展定律

扩展定律简单来说,扩展定律认为模型的性能随着更多的训练数据、计算能力和神经网络的规模而增加。这意味着AI公司可以准确预测在训练大型语言模型时,需要多少计算能力和数据才能在高中水平的英语写作测试等方面达到特定的能力水平。Anthropic AI实验室的技术研究员Sam Bowman在最近的一篇预印论文中写道:“我们能够进行这种精确的预测在软件历史上是不寻常的,在现代AI研究历史上也是不寻常的。"这也是一种推动投资的强大工具,因为它允许[研发]团队提出耗资数百万美元的模型训练项目,并且有合理的信心认为这些项目将成功地产生经济上有价值的系统。

Shoggoth

在AI安全领域,大型语言模型(LLMs)被比作“shoggoths”(在20世纪恐怖作家H.P. Lovecraft的宇宙中产生的难以理解的可怕异兽)。这个梗在2023年初的Bing/Sydney事件中流行起来,当时微软的Bing聊天机器人展示了一个奇怪、不稳定的分身,滥用和威胁用户。在这个梗中,LLMs通常被描绘成戴着一个笑脸面具的shoggoths。面具意味着这些模型以友好的表面形象迎接用户。这个梗的暗示是,尽管RLHF使模型表面上展现出友好的人格特征,但它对LLMs根本特性的异质性几乎没有改变。Conjecture的CEO Connor Leahy在接受《时代》杂志采访时表示:“随着这些系统变得更强大,它们并没有变得更少异质。如果不推动得太远,笑脸依然保持着。但是当你给它(一个意想不到的)提示时,突然你会看到它巨大的腹部,疯狂的思维过程和显然非人类的理解能力。”

随机鹦鹉

“随机鹦鹉”是一个影响力很大的术语,用来批评大型语言模型。这个术语来源于2020年的一篇研究论文,该论文认为LLMs只是非常强大的预测引擎,根据训练数据中的模式填充或模仿下一个词,因此不能代表真正的智能。这篇论文批评了AI公司匆忙地使用越来越大规模的从互联网上抓取的数据集来训练LLMs,以追求在连贯性或语言能力方面的进展。该论文认为,这种方法存在很多风险,包括LLMs承载互联网的偏见和有害内容。作者还强调了训练AI系统的环境成本。

监督学习

监督学习是训练AI系统的一种技术,其中神经网络根据标记的示例数据集进行预测或分类。标记有助于AI将词语“猫”与一张猫的图片关联起来。通过足够数量的猫的标记示例,系统可以查看训练数据中未包含的新猫的图片,并正确识别它。监督学习对于构建识别道路上的危险物体的自动驾驶汽车和进行内容审核分类的系统非常有用。当这些系统遇到其训练数据中没有充分代表的事物时,它们通常会遇到困难。特别是对于自动驾驶汽车来说,这种失误可能是致命的。

图灵测试

1950年,计算机科学家艾伦·图灵提出一个问题:“机器能思考吗?”为了找到答案,他设计了一种被称为模仿游戏的图灵测试:一个计算机是否能够说服一个人相信自己是在与另一个人而不是与机器交谈。图灵测试作为一种评估机器智能的方法,并不试图回答关于人类思维的哲学问题,或者机器是否能够复制我们的内心体验;相反,它是一种当时的一个激进论点:数字计算机是可能的,并且有很少的理由相信,在适当的设计和足够的能力下,它们将能够执行过去只有人类才能完成的各种有益任务。

零样本学习

AI的一个重要限制是,如果系统的训练数据中没有某个事物的表示,那么该系统通常无法识别它。例如,如果一只长颈鹿走到路上,你的自动驾驶汽车可能不知道该怎么避让,因为它以前从未见过长颈鹿。如果一起校园枪击事件在社交媒体上进行直播,平台可能很难立即删除该视频,因为它与先前见过的大规模枪击案的副本不匹配。零样本学习是一个新兴的领域,试图通过让AI系统从训练数据中推断出未见过的事物来解决这个问题。

展开阅读全文

页面更新:2024-05-16

标签:人工智能   神经网络   研究人员   术语   模型   人类   能力   语言   数据   系统   公司

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top