AI能拯救世界?

“AI 不会毁灭世界,事实上可能拯救世界。”



a16z的创始合伙人MARC ANDREESSEN 认为,AI提供了增强人类智慧的机会,使我们在各个领域取得更好的结果。然而,AI的发展也存在风险,而当前的道德恐慌可能夸大了问题,其中一些行动者可能是为了自身利益。

如何理性看待AI,又应该从哪些视角来看待AI?这篇文章为我们提供了一个可行、可信与可深入的探讨范例。

以下为演讲全文(略有删改):

首先,对人工智能的简短描述:人工智能是将数学和软件代码应用于教导计算机以类似于人类方式理解、综合和生成知识的方法。人工智能就像任何其他计算机程序一样——它运行、接收输入、处理并生成输出。人工智能的输出在各个领域都非常有用,从编程到医学、法律以及创意艺术都有应用。它属于人类所有并由人类控制,就像其他任何技术一样。

对人工智能的更简短描述:它可以让我们关心的一切变得更好。


Marc Andreessen是美国企业家、风险投资人和软件工程师

为什么人工智能可以让我们关心的一切变得更好

社会科学几十年来进行了数千项研究,最具验证性的核心结论是:智力提高会使我们在生活的几乎每个领域都获得更好的结果。更聪明的人在几乎所有活动领域中都取得更好的成果:学业成绩、工作表现、职业地位、收入、创造力、身体健康、寿命、学习新技能、管理复杂任务、领导才能、创业成功、冲突解决、阅读理解、金融决策、理解他人的观点、创意艺术、育儿成果和生活满意度。


此外,人类智力是我们数千年来用来创造我们今天所生活世界的杠杆:科学、技术、数学、物理学、化学、医学、能源、建筑、交通、通信、艺术、音乐、文化、哲学、伦理学、道德。如果没有在所有这些领域应用智力,我们都还会住在泥屋里,艰难度日。相反,我们利用智力在过去的4000年里使我们的生活水平提高了大约10,000倍。


人工智能为我们提供的是深度增强人类智力的机会,可以使所有这些智力成果(以及许多其他方面,从创造新药到解决气候变化问题再到太空技术)变得更加出色。


人工智能对人类智力的增强已经开始了——人工智能已经以各种形式存在于我们周围,如各类计算机控制系统,现在又随着ChatGPT等大型语言模型的出现迅速升级,并将从现在开始加速发展——如果我们允许的话。


在我们的新人工智能时代中:


每个孩子都将拥有一位无限耐心、无限同情心、无限知识和无限帮助的人工智能导师。人工智能导师将在每个孩子成长的每一步旁边,帮助他们以无限爱的机器版本最大化潜力。


每个人都将拥有一位无限耐心、无限同情心、无限知识和无限帮助的人工智能助手/教练/导师/训练师/顾问/治疗师。人工智能助手将在人生的各种机遇和挑战中与人同在,最大化每个人的成果。


每位科学家都将有一位能极大扩展他们科学研究和成就范围的人工智能助手/合作者/伙伴。每位艺术家、工程师、商人、医生、护理人员都将在他们的领域中得到同样的帮助。


每位人民领导者——首席执行官、政府官员、非营利组织主席、运动教练、教师——都将拥有同样的帮助。领导者做出更好决策在他们领导的人中所产生的放大效应是巨大的,因此这种智力增强可能是最重要的。


整个经济的生产力增长将大幅加速,推动经济增长、新产业的创造、新岗位的开设和工资增长,从而在全球范围内实现物质繁荣的新时代。科学突破、新技术和新药物将得到显著扩展,因为人工智能帮助我们进一步解码自然法则并将其利用于我们的利益。创意艺术将进入黄金时代,因为受到增强人工智能的艺术家、音乐家、作家和电影制片人将能够比以往更快、更大规模地实现他们的创意。


我甚至认为,当不得不进行战争时,人工智能将改善战争,通过大幅减少战时死亡率。每场战争都以在极大压力和极为有限信息下由非常有限的人类领导者做出的可怕决策为特征。现在,军事指挥官和政治领导人将拥有人工智能顾问,帮助他们做出更好的战略和战术决策,最大程度地减少风险、错误和不必要的流血牺牲。


简而言之,今天人们凭借自己的自然智慧所做的任何事情,借助人工智能都可以做得更好,并且我们将能够应对那些在没有人工智能的情况下无法解决的新挑战,从治愈所有疾病到实现星际旅行。


而这不仅仅涉及智能!人工智能最被低估的特质可能是它能赋予人类情感。人工智能艺术使那些缺乏技术技能的人有自由创作和分享艺术思想的能力。与富有移情能力的人工智能朋友交谈确实提高了人们应对逆境的能力。而且与人类相比,人工智能医疗聊天机器人已经更具移情能力。无限耐心和同情心的人工智能将使世界变得更温暖、更友善,而不是使世界变得更加冷酷和机械化。


这里的赌注很高。机遇是深远的。人工智能可能是我们文明创造的最重要、最好的事物,至少与电力和微芯片相媲美,甚至可能超越它们。人工智能的发展和普及——远非我们应该害怕的风险——是我们对自己、对我们的子孙和对我们的未来的道义责任。


有了人工智能,我们应该生活在一个更美好的世界中,而现在我们可以实现这一目标。

那么,为什么会出现恐慌情绪?

与这种积极观点形成鲜明对比的是,关于人工智能的公众讨论充斥着歇斯底里的恐惧和偏执。

我们听到各种声称,人工智能将杀死我们所有人,毁坏我们的社会,夺走我们所有的工作,导致严重的不平等,并使坏人能够做出可怕的事情。


那么,是什么导致了这种从接近乌托邦到可怕的反乌托邦的潜在结果的分歧呢?


从历史上看,每一项重要的新技术,从电灯到汽车,从无线电到互联网,都引发了道德恐慌——社会传染,使人们相信新技术将摧毁世界、或社会,或两者兼而有之。悲观主义档案馆的优秀工作记录了这些几十年来由技术驱动的道德恐慌;它们生动地揭示了这种模式。事实证明,目前的人工智能恐慌甚至不是第一次出现。


现在,当然有许多新技术确实导致了不良后果——这些技术通常也对我们的福祉产生了巨大的益处。因此,并不是说道德恐慌的存在意味着没有什么需要关注的问题。但是道德恐慌本质上是非理性的——它将可能是合理关切的问题夸大成一种歇斯底里的程度,讽刺的是,这使得我们更难以应对真正严重的问题。


现在,我们正在经历一场关于人工智能的全面道德恐慌。这场道德恐慌已经被各种行动者用作动力,要求采取政策行动——实施新的人工智能限制、法规和法律。这些行动者对人工智能的危险发表极具戏剧性的公开声明,滋养和进一步激发道德恐慌,他们都自称是公共利益的无私捍卫者。


但他们是吗?他们是对还是错?

人工智能的洗礼者和走私者

经济学家观察到这类改革运动中的一个长期模式。这些运动内部的参与者可以分为两类——“洗礼者”和“走私者”,这是基于20世纪20年代美国禁酒时期的历史例子:


“洗礼者”是真正相信社会改革的人,他们确实认为(即使不是理性地,但情感上非常深刻),需要采取新的限制、法规和法律来防止社会灾难。在禁酒时期,这些参与者通常是深信不疑的基督徒,他们认为酒精正在摧毁社会的道德基础。在涉及人工智能风险的情况下,这些参与者是真正相信人工智能带来一种或多种存在性风险的人——给他们接上一台测谎仪,他们是真心相信的。


“走私者”是自私的机会主义者,他们有望通过实施新的限制、法规和法律从中获得经济利益,这些措施使他们免受竞争对手的冲击。在禁酒时期,这些人是指那些非法销售酒精给美国人的走私者,在合法酒类销售被禁止时,他们积累了巨额财富。在涉及人工智能风险的情况下,这些人是指那些如果建立起政府赞助的人工智能供应商垄断集团,从而形成对新创企业和开源竞争的保护性的监管壁垒,将能够获得更多利润的首席执行官们——这是“太大而不能倒”的银行的软件版本。


愤世嫉俗者会认为,一些看似是洗礼者的人也是走私者,特别是那些由大学、智囊团、活动团体和媒体机构付钱攻击人工智能的人。如果你因促进人工智能恐慌而领取薪水或获得资助...你可能是走私者。


走私者的问题在于他们总是胜利者。洗礼者是天真的意识形态主义者,而走私者是愤世嫉俗的操作者,因此,这类改革运动的结果往往是走私者得到他们想要的——监管的垄断、免受竞争的冲击,形成垄断集团——而洗礼者则疑惑不解,不知道他们追求社会改进的动力为何走错了方向。


我们刚刚经历了一个惊人的例子——2008年全球金融危机后的银行业改革。洗礼者告诉我们,我们需要新的法律和法规来拆分“太大而不能倒”的银行,以防止再次发生这样的危机。于是,美国国会通过了2010年的多德-弗兰克法案,宣传称满足了洗礼者的目标,但实际上却被走私者——大型银行所利用。结果是,2008年“太大而不能倒”的那些银行现在变得更加庞大。


因此,实际上,即使洗礼者是真心相信的,甚至他们是正确的,他们也被善于操纵和贪婪的走私者利用作为掩护,以谋取自身利益。


而这正是当前推动人工智能监管的情况。然而,仅仅识别参与者并怀疑他们的动机是不够的。我们应该就洗礼者和走私者的论点进行全面的评估。

AI风险之一:人工智能是否会杀死我们所有人?

第一个也是最早的人工智能厄运论风险是人工智能将决定直接杀死人类。


我们对自己创造的技术会起义并摧毁我们的恐惧深深根植于我们的文化中。古希腊人通过普罗米修斯神话表达了这种恐惧——普罗米修斯带给人类毁灭性的火的力量,以及更一般的技术(“techne”),因此被神们永远地受苦。后来,玛丽·雪莱在她的小说《弗兰肯斯坦》或《现代普罗米修斯》中,为我们现代人创造了自己的版本,其中我们发展了永生的技术,然后这种技术起义并试图摧毁我们。当然,没有关于人工智能恐慌的报纸文章可以完整,如果没有詹姆斯·卡梅隆的《终结者》系列电影中闪烁着红色眼睛的杀人机器人的静态画面。


这种神话的假定进化目的是激励我们认真考虑新技术的潜在风险——毕竟,火确实可以用来烧毁整个城市。但是,正如火也是现代文明的基石,可以用来使我们在寒冷而敌对的世界中保持温暖和安全一样,这种神话忽视了大多数——甚至全部——新技术的更大优势,并在实践中激起了破坏性情绪,而非理性分析。仅仅因为古代人会像这样恐慌并不意味着我们必须也这样做;我们可以运用理性。


我认为,人工智能会决定直接杀死人类的想法是一个深刻的范畴错误。人工智能不是经过数十亿年进化的生物,具备参与适者生存竞争的条件,就像动物和我们一样。它只是数学、代码、由人构建、由人拥有、由人使用、由人控制的计算机。它不会在某个时刻发展出自己的思想,并决定有动机试图杀死我们,这是一种迷信的挥手。


简而言之,人工智能没有欲望,没有目标,没有杀死你的意愿,因为它不是活的。人工智能是一台机器,它不会变得有生命,就像你的烤面包机一样。


现在,显然,有些人真心相信人工智能会杀人——洗礼者——他们因他们可怕的警告而突然获得了极高的媒体关注度,其中一些人声称已经研究该主题几十年,并表示他们现在因为所了解的东西而感到惊恐。其中一些真信徒甚至是这项技术的创新者。这些参与者主张对人工智能实施各种奇怪和极端的限制,从禁止人工智能的发展,一直到军事打击数据中心和核战争。他们认为,因为像我这样的人不能排除人工智能未来可能造成灾难性后果的可能性,我们必须采取一种预防性立场,可能需要大量的暴力和死亡来防止潜在的存在风险。


我的回应是,他们的立场是非科学的——什么是可测试的假设?有什么能够证明假设是错误的?我们如何知道何时进入危险区域?除了“你不能证明它不会发生!”这些问题基本上没有得到回答。事实上,这些洗礼者的立场非常非科学和极端——关于数学和代码的阴谋论——而且他们已经呼吁使用暴力,所以我将做一件通常不会做的事情,质疑他们的动机。


具体来说,我认为有三件事情正在发生:


首先,回想一下,约翰·冯·诺伊曼对罗伯特·奥本海默关于他在创造核武器方面的担忧作出了回应——核武器帮助结束了第二次世界大战并阻止了第三次世界大战——他说:“有些人承认罪行是为了声称犯罪行为的功劳。”有什么更戏剧化的方式可以为自己的工作的重要性声名显赫,而不显得过于自夸呢?这解释了那些实际上正在建设和资助人工智能的洗礼者的言行不一致——观察他们的行动,而不是他们的言辞。


第二,一些洗礼者实际上是走私者。有一个完整的“人工智能安全专家”、“人工智能伦理学家”、“人工智能风险研究员”职业。他们受雇于成为厄运论者,并且应该适当处理他们的陈述。


第三,加利福尼亚州以众多邪教而闻名,从EST到人民神庙,从天堂之门到曼森家族。许多,尽管不是全部,这些邪教是无害的,甚至可能为在其中找到归属感的疏离人群提供服务。但有些确实非常危险,而且邪教在揭开最终导致暴力和死亡的界限上非常困难。


现实情况是,对于“人工智能风险”,显而易见的对于湾区的每个人来说都是显而易见的,但可能在湾区以外的地方并不为人所知,它已经发展成为一个邪教,并突然出现在全球媒体关注和公众对话的日光下。这个邪教不仅吸引了边缘人物,而且还吸引了一些实际的行业专家和不少富有的捐赠者,包括直到最近的山姆·班克曼-弗里德。它发展出了一套完整的邪教行为和信仰。


这种邪教是为什么存在一些听起来非常极端的人工智能风险论者的原因——并不是因为他们实际上拥有使他们的极端主义合乎逻辑的秘密知识,而是因为他们自己将自己激动到了狂热状态,并且确实非常非常极端。


事实证明,这种类型的邪教并不新鲜——在西方有一种长期的末日信仰传统,产生了末日邪教。人工智能风险邪教具有所有末日邪教的特征。


根据维基百科的说法:“千禧年主义是一个团体或运动(人工智能风险论者)相信社会将发生根本性的转变(人工智能的到来)之后,一切事物都将发生改变(人工智能乌托邦、末日,或者世界末日)。只有戏剧性的事件(人工智能禁令,对数据中心的空袭,对无监管人工智能的核打击)被视为能够改变世界(阻止人工智能)的力量,而且人们预计这种变革将由一群虔诚而专注的人带来或幸存下来。在大多数千禧年主义情景中,即将到来的灾难或战斗(人工智能末日或其预防)之后将是一个新的、纯净的世界(人工智能禁令),在这个世界中,信徒将得到奖赏(或者至少被认可一直是正确的)。”


这种末日邪教模式是如此明显,以至于我很惊讶为什么更多的人看不到它。别误会,邪教很有趣,他们的书面材料通常很有创造力和吸引力,他们的成员在晚宴和电视上非常引人入胜。但是他们的极端信仰不应该决定法律和社会的未来——显然不应该。

AI风险之二:人工智能会毁掉我们的社会吗?

第二个被广泛讨论的人工智能风险是,人工智能会毁掉我们的社会,通过生成输出结果,根据这种厄运论者的说法,这些输出结果将是如此“有害”,以至于对人类造成深远的破坏,即使我们并非直接丧生。


简单来说:如果杀人机器人没有击败我们,仇恨言论和虚假信息就会这样做。


这是一个相对较新的厄运论关注点,它分支出来并在一定程度上接管了我上面描述的“人工智能风险”运动。事实上,最近“人工智能风险”的术语已经从“人工智能安全”(由担心人工智能会真正杀害我们的人使用的术语)变为“人工智能对齐”(由担心社会“伤害”的人使用的术语)。原始的人工智能安全论者对这种转变感到沮丧,尽管他们不知道如何把它收回去——他们现在主张实际的人工智能风险主题更名为“AI notkilleveryoneism”,虽然这个名字尚未被广泛采用,但至少很明确。


AI社会风险主张的线索就在于它自己的术语“AI对齐”。对齐到什么?人类的价值观。哪些人类的价值观?啊,这就是事情变得棘手的地方。


恰巧,我亲眼目睹了一个类似情况——社交媒体的“信任与安全”战争。如今显而易见,社交媒体服务多年来一直受到政府和活动人士的巨大压力,要求封禁、限制、审查和其他方式压制各种内容。对“仇恨言论”(以及其数学对应物“算法偏见”)和“虚假信息”的担忧直接从社交媒体环境转移到了“AI对齐”的新领域。


我在社交媒体战争中的主要收获是:

一方面,不存在绝对的言论自由立场。首先,包括美国在内的每个国家都将某些内容视为非法。其次,有些类型的内容,如儿童色情和煽动真实世界暴力的行为,几乎被几乎所有社会普遍认为是无法容忍的,无论是否合法。因此,任何促进或生成内容(言论)的技术平台都将有一些限制。


另一方面,滑坡论不是谬误,而是不可避免的。一旦限制甚至极其可怕的内容的框架建立起来,例如对于仇恨言论、伤害性词语或虚假信息,明显错误的声明,如“教皇已经去世”,一系列政府机构、活动人士压力团体和非政府实体将投入运作,并要求越来越大程度上对他们认为威胁社会和/或他们个人偏好的言论进行审查和压制,他们甚至以裸露的重罪方式来实施。这种循环在实践中似乎可以无限进行下去,得到了沿着我们精英权力结构内设立的威权式守门人的热情支持。这在社交媒体上已经持续了十年,只有一些例外情况下,这种现象仍在不断增强。


这就是“AI对齐”周围形成的动态。其支持者声称具备智慧,能够为社会创造良好的人工智能生成的言论和思想,并禁止对社会有害的人工智能生成的言论和思想。其反对者声称思想警察极其傲慢和放肆——至少在美国,他们经常是彻头彻尾的犯罪分子——实际上,他们试图成为直接从乔治·奥威尔的《1984》中揭示的新型政府-企业-学术威权言论独裁的形式。


由于“信任与安全”和“AI对齐”的支持者集中在全球范围内非常狭窄的美国沿海精英阶层——包括许多从事科技行业和撰写相关文章的人——我的很多读者可能会认为,需要对人工智能输出进行重大限制,以避免破坏社会。我现在不打算试图说服你们,我只是简单地陈述这是需求的本质,并且世界上大多数人既不同意你们的意识形态,也不希望看到你们获胜。


如果你不同意正在通过不断强化的言论规范来施加在社交媒体和人工智能上的盛行小众道德观,你还应该意识到,关于允许人工智能说/生成什么的斗争将比对社交媒体审查的斗争更加重要——非常重要。人工智能极有可能成为世界上一切事物的控制层。它被允许如何运作可能比任何其他事情都更加重要。你应该意识到,一小部分孤立的、党派性社会工程师正在试图在古老的保护你们的说法的宣称掩护下决定这一点。


简而言之,不要让思想警察压制人工智能。

AI风险之三:人工智能会夺走我们所有的工作吗?

对于因机械化、自动化、计算机化或人工智能而导致的失业担忧,自从机械织机等机械设备首次出现以来,已经是数百年来一直存在的恐慌。尽管历史上每一次重大技术的出现都带来了更多的就业机会和更高的工资水平,但每一波这样的恐慌都伴随着声称“这一次不同”的说法——这一次终将发生,这一次的技术终将对人类劳动力造成毁灭性打击。然而,它从未发生过。


在最近的过去,我们经历了两个由技术驱动的失业恐慌周期——2000年代的外包恐慌和2010年代的自动化恐慌。尽管在这两个十年中,许多评论家、专家甚至技术行业高管纷纷表态称大规模失业即将来临,但在2019年底——就在COVID爆发之前——世界上的就业机会比历史上任何时候都更多,工资也更高。


然而,这个错误的观点仍然不会消失。而且,它又回来了。


这一次,我们终于拥有了将夺走所有工作并使人类劳动者变得多余的技术——真正的人工智能。这一次历史不会重演,人工智能将导致大规模失业,而不是经济、就业和工资的迅速增长,对吗?


不,那是不会发生的——事实上,如果允许人工智能在整个经济中得以发展和普及,它可能会引发有史以来最引人注目且持久的经济繁荣,相应地创造创纪录的就业和工资增长——正好与担忧相反。原因如下:


自动化导致失业的末日论者一直犯着一个核心错误,即“劳动总量误解”。这个误解是错误的观念,即在任何特定时间,经济中需要完成固定数量的劳动力工作,要么由机器完成,要么由人完成——如果由机器完成,就没有工作可以让人做了。


劳动总量误解自然而然地产生于幼稚的直觉,但这里的幼稚直觉是错误的。当技术应用于生产时,我们会获得生产力增长——即通过减少输入来增加产出。结果是商品和服务的价格下降。随着商品和服务价格的下降,我们支付的费用减少,这意味着我们现在有了额外的消费能力,可以购买其他物品。这增加了经济中的需求,推动了新的生产(包括新产品和新产业)的产生,为之前被机器替代的人们创造了新的工作机会。结果是经济规模更大,物质繁荣度更高,产业更多,产品更多,就业机会更多。


好消息不止于此。我们还会获得更高的工资。这是因为,在个体工人的层面上,市场根据工人的边际生产力来确定报酬。科技融入业务的工人比传统业务中的工人更加高效。雇主要么根据工人的提高生产力为其支付更多的工资,要么另一个雇主会,纯粹出于自身利益。结果是,技术在一个行业中的引入通常不仅增加了该行业的就业机会,而且提高了工资水平。


总结一下,技术赋予人们更高的生产力。这导致现有商品和服务的价格下降,工资上涨。进而引发经济增长和就业增长,并促使新的工作和新的产业的创建。如果市场经济得以正常运作,技术得以自由引入,这就是一个永无止境的向上循环。正如弗里德曼(Milton Friedman)观察到的那样,“人类的需求是无穷无尽的”——我们总是想要比我们拥有的更多。融入技术的市场经济是我们接近满足每个人可能想要的一切的方式,但永远无法完全达到那个目标。这就是为什么技术不会摧毁就业,而且永远不会。


对于那些没有接触过这些想法的人来说,这些观点可能会让你们震惊,可能需要一些时间来理解。但我发誓我没有凭空捏造它们——事实上,你可以在标准经济学教科书上读到所有这些内容。我推荐亨利·哈兹里特(Henry Hazlitt)的《一堂经济学课》中的《机械的诅咒》一章,以及弗雷德里克·巴斯夏(Frederic Bastiat)关于烛光制造商向太阳申请取消它与照明行业的不公平竞争的讽刺请愿书,这是为我们这个时代进行了现代化改编。


但你会认为这一次不同。这一次,通过人工智能,我们拥有可以替代所有人力劳动的技术。


但是,根据我上面描述的原理,想象一下如果所有现有的人力劳动都被机器替代会意味着什么。这将意味着经济生产力增长的起飞速度将是绝对天文数字,远超过任何历史先例。现有商品和服务的价格将全面下降至接近零。消费者福利将飙升。消费者购买力将飙升。经济中的新需求将爆炸式增长。企业家将创造令人眼花缭乱的新行业、产品和服务,并尽可能快地雇佣尽可能多的人力和人工智能来满足所有的新需求。


假设人工智能再次替代了那些劳动力?这个循环将重复,推动消费者福利、经济增长以及工作和工资的进一步增长。这将是一条直线螺旋上升之路,达到亚当·斯密(Adam Smith)或卡尔·马克思(Karl Marx)从未敢于梦想的物质乌托邦。


我们应该如此幸运。

AI风险#4:人工智能是否会导致严重的不平等?

说到卡尔·马克思,对于AI夺走工作的担忧直接引出了下一个声称的AI风险,即,好吧,马克,假设AI确实夺走了所有的工作,不管是出于好意还是恶意。那么,作为AI的所有者将独占所有经济回报,普通人一无所得,这难道不会导致巨大而严重的财富不平等吗?


恰好,这是马克思主义的一个核心观点,即生产资料的所有者——资产阶级——将不可避免地从实际从事工作的人——无产阶级那里夺取所有社会财富。不管这个观点被现实多少次证明错误,它始终是一个不死的谬论。但是无论如何,让我们对其予以驳斥。


这个理论的缺陷在于,作为一种技术的所有者,将其保留给自己并不符合你自身的利益,事实上恰恰相反,将其卖给尽可能多的客户才符合你自身的利益。全球任何产品的最大市场都是全世界的80亿人口。因此,实际上,每一项新技术——即使最初只向高薪大公司或富裕消费者销售——也会迅速传播,直到进入尽可能大的大众市场,最终覆盖地球上的每个人。


这方面的经典例子是埃隆·马斯克(Elon Musk)在2006年公开发表的所谓“秘密计划”:

第一步,制造[昂贵的]跑车

第二步,用这些钱制造一辆实惠的车

第三步,用这些钱制造一辆更实惠的车

……当然,这正是他所做的,结果成为世界上最富有的人。


最后一点很关键。如果埃隆今天只向富人销售汽车,他会更富有吗?不会。如果他只为自己制造汽车,他会比现在更富有吗?当然不会。不,他通过向全世界这个最大的市场销售来最大化自己的利润。


简而言之,每个人都能够拥有这种技术——我们在过去不仅在汽车、电力、无线电、计算机、互联网、移动电话和搜索引擎方面看到了这一点。这些技术的制造商都有强烈的动力将价格降低到每个地球上的人都能够负担得起的程度。这正是目前在AI领域正在发生的——这就是为什么你可以以低廉甚至免费的价格使用最先进的生成式AI,例如Microsoft Bing和Google Bard。这也是未来的趋势。这不是因为这些供应商愚蠢或慷慨,而是因为他们贪婪——他们希望最大化市场规模,从而最大化利润。


因此,情况与技术推动财富集中的说法相反——技术的最终用户,最终包括地球上的每个人,反而获得了权力,并获得了大部分创造的价值。与之前的技术一样,建立AI的公司——假设它们必须在一个自由市场中运作——将竞相努力实现这一目标。


马克思当时错了,现在他仍然错了。


这并不是说不平等在我们的社会中不是一个问题。它确实是一个问题,只是它不是由技术驱动的,而是相反,是由那些对新技术最抵制的经济部门驱动的,这些部门在采用像AI这样的新技术方面受到最多政府干预的限制,特别是住房、教育和医疗保健领域。


AI和不平等的实际风险并不在于AI会导致更多的不平等,而是我们将不允许使用AI来减少不平等。

AI风险#5:人工智能是否会导致坏人做坏事?

到目前为止,我已经解释了五个最常被提出的AI风险中的四个实际上并不存在——人工智能不会复活并杀死我们,人工智能不会毁坏我们的社会,人工智能不会导致大规模失业,人工智能不会导致糟糕的不平等增加。但现在让我们来解决第五个风险,这个风险我实际上是同意的:人工智能将使坏人更容易做坏事。


在某种意义上,这是一个同义反复。技术是一种工具。工具,从火和石头开始,可以用来做好事——烹饪食物和建造房屋——也可以用来做坏事——烧伤人和殴打人。任何技术都可以被用于善或恶。没错。而且人工智能将使犯罪分子、恐怖分子和敌对政府更容易做坏事,毫无疑问。


这导致一些人提出,好吧,如果是这样的话,那么在这种情况下,让我们不冒这个风险,让我们在这种事情发生之前立即禁止人工智能。不幸的是,人工智能不是某种难以获得的神秘物质,就像钚那样。相反,它是世界上最容易获得的物质——数学和代码。


人工智能的猫显然已经出逃了。你可以通过成千上万的免费在线课程、书籍、论文和视频学习如何构建人工智能,而且每天都有出色的开源实现不断涌现。人工智能就像空气一样——它将无处不在。要抓住它需要实施的极权压迫程度将如此严厉——一个全球政府监控和控制所有计算机?黑色直升机中的军警抢夺不受控制的GPU?——那时我们将没有社会可保护了。


因此,我们有两种非常直接的方法来应对坏人利用人工智能做坏事的风险,而这正是我们应该关注的。


首先,我们已经有法律来刑事化任何人可能利用人工智能进行的大多数坏事。侵入五角大楼的计算机系统?那是犯罪。从银行盗窃资金?那是犯罪。制造生物武器?那是犯罪。实施恐怖袭击?那是犯罪。我们可以简单地专注于在我们能够时防止这些犯罪行为,并在无法防止时予以起诉。我们甚至不需要新的法律——我不知道有哪一个实际的坏用途被提出并且不已经是非法的。如果发现一种新的坏用途,我们就禁止这种使用。证毕。


但你会注意到我刚才提到的——我说我们应该首先集中精力在防止AI协助犯罪之前——这难道不意味着禁止人工智能吗?嗯,还有另一种方法来防止这种行为,那就是将人工智能作为一种防御工具。使人工智能在坏人手中具有坏目标的危险性与使人工智能在好人手中具有好目标的力量是一样的——特别是那些负责防止坏事发生的好人。


例如,如果你担心人工智能生成假人和虚假视频,答案就是建立新的系统,让人们可以通过加密签名来验证自己和真实内容。在人工智能之前,数字化创造和修改真实和虚假内容已经存在;答案不是禁止文字处理软件、Photoshop或人工智能,而是利用技术来构建一个真正解决问题的系统。


因此,第二,让我们大力倡导将人工智能用于善、合法的防御目的。让我们在网络防御、生物防御、打击恐怖分子以及我们为了保护自己、社区和国家而做的一切中运用人工智能。


当然,政府内外已经有很多聪明人正在做这些事情——但如果我们将目前所有致力于徒劳地试图禁止人工智能的努力和智力应用于利用人工智能防范坏人做坏事,我相信一个充斥着人工智能的世界将比我们今天所生活的世界更安全。

应该做些什么呢?

我提出一个简单的计划:

大型人工智能公司应该被允许尽快而有力地构建人工智能,但不应该被允许实现监管捕获,不应该建立一个由于错误的人工智能风险声明而免受市场竞争影响的政府保护垄断。这将最大程度地发挥这些公司令人惊叹的能力在技术和社会层面带来的回报,它们是现代资本主义的珍宝。


初创人工智能公司应该被允许尽快而有力地构建人工智能。他们既不应该面对政府授予大公司的保护,也不应该获得政府援助。他们应该被允许自由竞争。如果初创公司没有成功,它们在市场上的存在也将不断激励大公司做到最好——我们的经济和社会无论如何都会受益。


开源人工智能应该被允许自由传播和与大型人工智能公司和初创公司竞争。开源应该没有任何监管壁垒。即使开源技术没有超越公司,其广泛可用性对世界各地希望学习如何构建和使用人工智能以成为技术未来一部分的学生来说是一种福音,并且将确保人工智能对每个能从中受益的人都可用,无论他们是谁,有多少钱。


为了抵消坏人利用人工智能做坏事的风险,政府与私营部门合作应积极参与潜在风险领域,利用人工智能来最大程度地提升社会的防御能力。这不仅限于与人工智能相关的风险,还包括更一般的问题,如营养不良、疾病和气候问题。人工智能可以成为解决问题的非常强大的工具,我们应该将其视为如此。


这就是我们如何利用人工智能拯救世界。现在是建设的时候了。

传奇和英雄

人工智能的发展始于上世纪40年代,与计算机的发明同时进行。关于神经网络(即我们今天所拥有的人工智能的架构)的第一篇科学论文于1943年发表。在过去的80年里,整整几代人的人工智能科学家出生、上学、工作,甚至在许多情况下去世,他们未能看到我们现在所获得的回报。他们是传奇,每一个人都是。


如今,越来越多的工程师——其中许多人年轻,可能有祖父母甚至曾祖父母参与了人工智能理念的创造——正在努力将人工智能变为现实,尽管面对一堵试图将他们描绘成鲁莽恶棍的恐惧和悲观主义墙壁。我不认为他们是鲁莽或者恶棍。每一个人都是英雄。我和我的公司非常高兴支持尽可能多的他们,我们将百分之百地支持他们和他们的工作。

来源:AI范儿

展开阅读全文

页面更新:2024-03-20

标签:走私者   人工智能   邪教   洗礼   恐慌   人类   风险   社会   工作   世界   技术

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top