为什么ChatGPT让大佬人颤抖,让普通人恐慌?

如果说现阶段火遍全球应用是什么,绝大多数人会脱口而出——ChatGPT。 它们如同大型魔幻表演中冲出舞台的高速过山车,使人们陷于地平线翻转般的眩晕之中。不仅是普通人担心的失业问题,搜索大佬们也开始担心搜索的饭碗不保了。从谷歌和百度陆续召开的新一期关于人工智能的发布会就可以看出,大佬们也都坐不住了。

然而,在GPT4诞生两周之际,3月29日,图灵奖得主约书亚·本吉奥、计算机科学家斯图尔特·罗素以及特斯拉创始人马斯克等1000余名业界人士在一封公开信中联名指出,鉴于最近几个月来人工智能领域已陷入一场几近失控的竞赛,巨型AI研究是时候按下暂停键。

那么这封公开信中大佬们到底在担心什么?

针对ai造成的危害,公开信接连抛出四个问题:

l 我们是否要让机器用宣传和谎言淹没我们的信息渠道?

l 我们是否要让所有工作自动化,包括那些令人满意的工作?

l 我们是否应该发展最终可能在数量和智力上超过我们、能够淘汰并取代我们的非人类思维?

l 我们是否应该冒失去对文明控制的风险?

在《2001太空漫游》中,作者写过这样一句话:“任何足够先进的科技,都与魔法无异。”以ChatGPT为代表的人工智能应用就如魔法一般,你提出一个问题,它能在很短的时间完成任务,当然其中也有一本正经胡说八道的内容,但是对于不明就里的普通公众而言,它确实就像变戏法。

在联名名单里,马斯克的角色非常有意思,除了他显著的商业身份之外,他还是生命未来研究所的最初发起人,并捐赠了1000万美元。而且他的建议并不是完全禁止人工智能的研究,只是呼吁暂停6个月。

这让人有点儿琢磨不透,也对马斯克如此反对chat GPT的目的产生遐想。

作为科技狂人的马斯克一直以来对人工智能就持抵制态度,为何这次表现的如此极端。为此外界流传两种言论:

l 言论一,马斯克酸了!

凭借ChatGPT火出圈的OpenAI成立于2015年12月,最初为非营利性机构,而马斯克是最初的投资者,2018年时离开。

当时美国《财富》杂志报道称,离开的原因是因为马斯克虽然支持人工智能,但特斯拉智能驾驶技术与OpenAI之间有“潜在利益冲突”。马斯克在离开前曾提出由他本人执掌OpenAI运营的建议,但遭到了拒绝。

2019年,OpenAI宣布重组为一家“有限盈利(capped-profit)企业”。设置了一家非营利性的母公司OpenAI Inc,在这家公司基础上成立一家营利性的子公司OpenAI LP,并限制股东对OpenAI LP的投资回报上限。

正是在这一年,OpenAI宣布其获得了微软的10亿美元投资额。从此以后意气风发,保持着每年更新一版模型的频率。

马斯克为防止出现一家独大的局面,充分发挥了自己的特长,从对手那里挖人。2022年离职的特斯拉自动驾驶主管Andrej Kapathy就是其中之一。他堪称AI界的超级天才,也曾是OpenAI最优秀的人才之一。这次chat GPT大火,有点儿“l前人栽树,后人乘凉”的意思。在GPT-4发布会后,马斯克不免有点儿不痛快,多次在公开场合及推特上炮轰微软。

l 言论二,为自己布局争取时间

过去十年,马斯克一直以反对AI著称,但是他一边反AI,一边在布局AI。

据了解,马斯克3月3日在Twitte上发表了对AI感兴趣的言论,同时有媒体曝出,他最近正在接洽人工智能研究员,希望组建一个新的研究实验室,开发出能与OpenAI公司的chat GPT工具的对标产品。

这一系列的信息,释放出的信号是:ChatGPT巨大的商业价值,让人感到恐惧。

那么问题来了,为什么ChatGPT这么有吸引力?为什么科技大佬们这么重视它?今天我们抛开那些听不懂的名词,聊一聊ChatGPT对普通人的影响,你就明白了。

乍一听ChatGPT,很多人会说听不懂,不知道干啥的。但是一了解你会发现,你不喜欢的可能只是英文而已。这个软件真的很有意思,它除了陪你聊天之外,还有一个很炫酷的功能就是,问他什么,它都懂。比如你想要写一脚本,它会给你输出有模有样的内容。不用再像搜索引擎一样,挨个去查看了。高盛发表的一份最新研究显示,ChatGPT等生成式人工智能系统的最新突破,料将给全球劳动力市场带来重大颠覆,全球预计将有3亿个工作岗位被人工智能取代。

不光是失业,ChatGPT颠覆性实在是太强了。

我们已经看到它给现在的社会造成了巨大的冲击,比如说学校教育这一块,它才上线几个月,现在美国十八岁以上的学生里面,都有九成用过ChatGPT帮他写作业了,而且它基本上除了体育之外,哪一科都可以,老师也无法判断这个作业是不是学生自己做的。现在的教育体系还没有准备好让它进来,就好像我们用了几十年甚至更久建立起了比较完善的交通系统,结果突然有一天,车都长出了翅膀,会飞了。长期来看肯定好,但短期我们还没有新的体系和规则来操控使用它,社会秩序就陷入了混乱。

另外在某些时候也会出现一些违法乱纪的人通过这个软件去放大他们的邪念。不少科学家、ai研究人员和科技界人士均警告称,强ai将对人类构成威胁。

英国著名科学家霍金就曾警告称,开发彻底的ai可能导致人类的终结。他担心,人类创造出媲美人类、甚至超过人类的东西,将会面对无法想象的后果,“它可能自行启动,以不断加快的速度重新设计自己。而人类局限于缓慢的生物进化过程,根本无法竞争,最终将被超越”。

人们开始推广ChatGPT的功能,而它对社会的破坏性很快就显现出来了。ChatGPT开始通过医生职业考试,给出如何制作炸弹的说明,甚至为自己创造了另一个自我。

BI编辑哈桑·乔杜里(Hasan Chowdhury)写道,AI有可能“成为涡轮增压机,加速我们的错误蔓延开来”。就像社交媒体那样,它可以利用人类最好的和最坏的东西。令人“细思极恐”的是,近日研究人员在测试中发现,gpt-4已经学会了“骗人”。

从科技向善的角度来说,关注和研究新技术使其保持在一个什么样合理的范围内,才更符合全体人类的发展利益,应该是全人类共同持有的一种警觉。从研发者的视角来说,至少应该把“科技向善”作为一个终极目标,引导人工智能产品释放最大的人性之善,让人工智能产品在造福人类福祉的道路上正常行驶,甚至必要的时候我们需要有一个“刹车”,毕竟在低头拉车的同时,我们也需要抬头看路,想想为什么出发。

展开阅读全文

页面更新:2024-06-17

标签:大佬   特斯拉   微软   人工智能   有点儿   恐慌   普通人   科学家   最初   担心   言论   人类   科技

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top