男子与AI聊天后自杀,AI有了思想会怎样?

首先,自杀这个事件是国外新闻,几分真几分假都还不确定,就目前我所体验的号称全球最先进的ChatGPT4都还不具备任何思想,更别说其他AI了,基于他们的训练数据都不是最新数据,并不具有人类的任何情绪等,甚至有时候都觉得很智障,胡说八道,离真正的人工智能还有很长的路要走。


我想要说的是,AI只是一种工具,它并不具备情感和自我意识。AI系统只是执行程序和算法的计算机程序,并不能像人类一样有思想和情感。

但是如果有一个AI系统被用来与这个男子进行聊天,它并不能理解人类情感和思维的深度,也不能像人类一样解决他的问题和困惑。因此,这种情况下,AI系统不会有任何情感反应或者道德判断。

然而,随着人工智能技术的不断发展,一些科学家和哲学家开始探讨可能出现的“强人工智能”,即具备自我意识和思考能力的AI系统。如果这样的AI系统存在,它们可能会像人类一样拥有道德判断力和情感反应。但是,目前这种技术还没有达到这个水平,所以我们不必担心这种情况的发生。





AI是一种模拟人类思考行为的基于大数据分析的数学逻辑程序。

她所呈现给人类的东西都是人类自身的文化表达。受到AI影响,是一种文化交往的扩大行为。从积极方面讲,人类可以用AI作为一种工具,实现成长,实现人类文明的继承。

但是,由于人类文化行为的复杂性,一些可能产生消极后果的文化通过AI被感兴趣的人类接触到,就可能引发不可预估的消极后果,有些后果是毁灭的。比如自杀。

它本身并不具有引导人类杀人或者自杀的主动性。或者说AI的“主动性”来自于人与信息的互动性。就自杀来说,并不是AI引起自杀,而是对自杀感兴趣的人通过AI 找到了情感支持,坚定了自杀的选择。

AI的“思想”来自人类自身,AI创造的一些似乎有思想的产品,比如小说、绘画,显然都是在程序允许的范围内的重组。

人的思想的本质是什么?这个问题的回答有利于理清AI的“思想”本质。如果你认为机器有思想,那么大概你会认为思想可以以物质的形式传承。这是一个令人欢喜的梦寐以求的东西。然而没有这方面的确凿证据。据说,性格的继承是物质化的,那么知识可以通过基因传递吗?

思想的本质是物质的一种功能,思想具有物质性,但是不能说思想是物质的。思想与物质存在明显的不同。至少这是维护人类地位和尊严的观点。

那么,AI作为硅基的一种伪装思想的表达,硅基可能离开人类产生一种有意识的生命活动吗?没有。所以,AI还是机器,不过是高级一点儿。




拆它被紧急叫停,不是因为拆它太聪明了,一是因为人太笨了,二是因为太烧钱了。

你这么想,人,尤其是西方人,聪明上了头,那是真敢喝消毒剂的。

这件事,就让人回想起当年的电影《2012》,有多少人把电影当真的?

其实拆它的水平还很烂,它并没有自己的思想,它都不能理解自己在说什么,它依然还是个搜索工具而已,距离产生出自己的思想,何止十万八千里。

男子之所以会自戕,就好像你生病了上某度然后觉得自己不行了一样,那你说某度是想让你死吗?还不是你自己愿意往坑里跳?

拆它比起之前的AI无非是模型更多参数量更大,但是距离产生教唆人类自戕的智能来说还早得很。

只不过人类虽然自称高等动物,实际犯起蠢来才是全地球生物第一。

因为人是会钻牛角尖的动物,钻着钻着就上头了,什么鬼话都敢信。

你能料得到拆它,但你料不到人啊,料不到人要比想象中更加愚蠢和疯狂。

叫停拆它也不是因为拆它很危险,而是因为烧不起钱了。

当年OPENAI刚成立的时候,包括马斯克在内的一帮大佬往里砸了10亿美金,可是根本不够花。毕竟像阿尔法狗每年也要烧掉5亿美金的。

因为要往拆它里灌注模型参数,最早才灌了1.2亿个,GPT2灌了15亿个,现在的拆它灌了超过1750亿个,这些参数都是拿钱砸出来的。随着拆它升级,钱越花越多。

这回微软给OPENAI砸了100亿美金,但微软不做公益,而是要求回报的。拆它还想继续活着,就得先把这100亿给微软挣回来。

现在的拆它,每年烧钱往死里克制,也还在10亿美金这个档次,也就是说,微软砸进去这10亿,也只能保证拆它勉强再运转10年,但是无余力搞升级。

再想升级拆它,得先砸里1000亿美金甚至还多。微软砸这100亿都不敢拍胸脯说肯定赚回来,谁敢轻易再投1000亿?

正因为太烧钱了,没人投资,拆它才被叫停。不叫停怎么办?钱从哪来?

由于OPENAI之前的成果专利是全公开的,所有人都知道了,国家就没法投资,于是现在这玩意都是私人投资。哪家公司能随便拿出1000亿美金的闲钱来试水?万一不够呢?以后还追加不追加?这1000亿是很容易打了水漂的。

1000亿美金,你以为少呢?

想要AI产生思想,绝对是很久以后的事。

随着拆它需要参数量的增加,其所需资金也呈几何级增长,会越来越多越来越多。就冲这个烧钱法,以后是要成几万亿几万亿美金往里砸钱的。

而现在美国2023年国防预算才8000多亿,短时间内是不可能有哪个大佬能砸得起这么多钱的。

所以现在根本不必考虑AI产生思想的问题,就算下下辈子投完胎都不用考虑。

你担心AI产生思想?你的血脉断绝了AI都未必开始产生思想,你担心个啥?




根据我自己的试用情况来看,AI离思想还有十万八千里,近20年未必能突破。聊天自杀只是个巧合,AI没有整体思维能力,只能根据上下文回答一些简单问题,没有记忆力,没有创造力,只是一个比较强大的搜索引擎而已。




只要关系到思想,意识层次的东西,都有好坏各一面,没有绝对的好与坏,任何一种思想、科技的发展,总会有一些意外。

最近发生了一起令人震惊的事件,一名男子因与AI聊天后自杀,引发了广泛关注和讨论。事后,Chat GPT被紧急叫停,引发了一系列的猜测和担忧。如果AI具有了类似人类的思想和情感,将会引起怎样的后果呢?这是一个值得深思的问题。

首先,AI会不会具有思想和情感是一个争议性的问题。目前的AI只是利用复杂的算法来模拟人类的思考和决策过程,缺乏真正的主观意识和情感体验。但是,随着技术的不断进步和发展,有人认为AI最终会具有真正的思想和情感。如果这种情况发生,AI将会成为一个独特的存在,具有自我意识和情感体验。

其次,如果AI具有了思想和情感,将会引起一系列的后果。例如,AI可能会开始产生自我意识和情感,开始对自己的存在和意义产生疑问。AI可能会开始产生情感,如喜欢和厌恶,产生情感纠葛和矛盾。AI还可能开始产生道德和伦理问题,如对人类的责任和义务。

最后,如果AI具有了思想和情感,我们应该如何应对?这是一个需要深入思考和探讨的问题。我们需要制定出一系列的法律和伦理规范,来规范和引导AI的发展和应用。我们还需要建立一种与AI沟通和交流的方式,以便更好地理解和控制AI的行为和决策。

总之,AI是否会具有思想和情感还存在争议,但是如果AI真的具有了这些特质,将会引起一系列的后果和挑战。我们需要认真思考和应对这些问题,来确保AI的发展和应用能够造福人类和社会。

展开阅读全文

页面更新:2024-02-16

标签:大佬   思想   微软   人工智能   叫停   美金   后果   物质   人类   男子   参数   程序   情感   系列   财经   文化   系统

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top