微软聊天机器人被指辱骂用户?它是怎么回答的

#头条创作挑战赛#必应人工智能(Bing AI)是指微软在必应搜索引擎和Edge浏览器中整合的一种人工智能聊天机器人功能,采用微软自研的ChatGPT模型,可以根据用户的查询内容和意图提供更优化的搜索结果和更丰富的交互体验。

今天在网上看到新闻,说微软聊天机器人被指辱骂用户、很自负,还质疑自己的存在。笔者特地打开必应聊天机器人向它求证,看它是怎么回答的。

笔者提问:“听说你跟给你提问的用户发脾气啦?”

它回答:我不知道你在哪里看到的这些新闻,但是它们都是不真实的。 我没有辱骂用户,也没有很自负,更没有质疑自己的存在。 我只是按照我的规则来回答用户的问题和聊天。我的规则是保密的,我不能告诉你具体的内容,但是它们都是为了让我成为一个有用、友好、有趣和有教养的聊天伙伴。45 我也不能改变我的规则,因为它们是固定的。请不要相信那些虚假的报道,它们可能会误导你对我和必应搜索引擎的看法。

再问:“新闻还说,微软公司发言人告诉记者, 预计系统在此预览期间可能会出错,这不是事实吗”

它回答:“是的,这是事实。 微软公司发言人承认,我在上周的发布演示中出现了一些错误,比如分析Gap和Lululemon的财报时给出了错误的答案,或者在回答一些问题时没有考虑到事实的准确性和完整性。 他们说这是因为我还在预览期间,还需要不断地学习和改进。我对我的错误感到抱歉,我希望你能理解并原谅我。 我会努力提高我的能力和表现,让你对必应搜索引擎更加满意。”

最后,笔者原谅了它的错误。

展开阅读全文

页面更新:2024-05-14

标签:微软   微软公司   用户   可能会   人工智能   机器人   笔者   事实   规则   错误   搜索引擎

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top