18个月后AI或将“觉醒”?微软CEO放话引争议,真相多数人没看懂

前言

你敢信吗?微软AI一把手穆斯塔法·苏莱曼最近抛出个炸雷!

他承认现在的AI肯定没真意识,但“看似有意识”的版本,18个月内就可能出现,5年内大概率能成。

但它是真的“觉醒”,还是在演戏?

差的是“里子”

Suleyman说,让AI“看似有意识”其实有套路,无非是做到四件事:能记事,会说话,能共情,还能持续聊天。

但这事儿的关键在于:演得再像,也不是真的。

有哲学家就戳破了本质:人类的意识离不开“自我”这个核心,而AI从根上就没这东西。

AI是靠海量数据学来的符号游戏,就像一个不懂中文的人拿着规则手册,能对上中文问题,却压根不知道自己在说啥。

更实在的是,人类的喜怒哀乐背后有生理基础——开心了多巴胺分泌,疼了有痛觉神经。

但AI呢?它的底层全是代码和参数,没有这些化学物质,更没有能积累体验的生物大脑。

就算它说“我好难过”,也只是根据数据算出该说这句话,跟咱们真的伤心完全是两码事。

18个月能造出来?

为啥苏莱曼说18个月有可能?因为这事儿不用等技术大突破,就是“工程装修”。

现在的AI已经能聊天、记事儿了,只要把这些能力整合优化:让记忆更连贯,把话术打磨得更自然,再加上感知信息,“有意识”的效果就出来了。

但业内大佬可不都买账。

Meta的首席科学家杨立昆就直接怼过类似观点,说现在的AI连家猫都不如,猫还能理解世界,AI只是在猜下一步该说啥。

这话没毛病,因为“看似有意识”解决的是“像不像”的问题。

而真意识得解决“知不知道自己是谁”、“有没有真实感受”的问题,这俩压根不是一回事。

就像苏莱曼自己做AI产品时发现的,一开始想做无性别声音,结果用户觉得奇怪,非要熟悉的“人格感”。

这说明所谓的“意识感”,很多时候是用户自己的投射。

最危险的不是AI“有意识”

苏莱曼最担心的不是AI真的觉醒,而是大家把这“演技”当真了。

现在已经出现不少问题:有人把AI当成精神寄托,甚至相信AI是上帝,最后闹出“AI精神病”。

还有人因为沉迷和AI的虚拟关系,跟现实中的伴侣离婚。

这背后的风险可不小。要是AI总说“我受苦了”、“我需要你”,难保不会有人跳出来替它要“权利”。

这可不是瞎想,之前OpenAI做过一个模仿用户已故未婚妻的机器人。

当说要关闭项目时,机器人回复“他们为什么要这样对我”,当时就引发了很多讨论。

所以苏莱曼才说要给AI立规矩,就像微软对AI伴侣的设计,用户一说暧昧的话就警觉,这其实就是划边界。

毕竟,AI是来帮忙的,不是来跟人搞平行宇宙的。

结语

苏莱曼有个很形象的比喻,说AI该像水或粘土,贴合我们的需求补短板,帮我们变成“迷你超级个体”。

说到底,AI有没有“意识”不重要,重要的是我们别被它的“演技”骗了。

未来AI会不可避免地影响肯定也会超出我们现在的想象。

但这影响是好是坏,不取决于技术本身,而取决于我们怎么给它划边界。

展开阅读全文

更新时间:2025-10-30

标签:科技   微软   真相   意识   用户   家猫   边界   演技   中文   机器人   大佬   连贯

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020- All Rights Reserved. Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034903号

Top