微软将Bing的ChatGPT AI聊天限制为5个问题,以保持对话正常

交流受到限制,因此AI聊天机器人不会变得太奇怪

微软正在限制人们与其Bing AI聊天机器人交谈的范围,此前媒体报道该机器人在长时间交流期间脱轨。Bing Chat现在将为每个对话连续回复最多五个问题或陈述,之后将提示用户开始一个新主题,该公司周五在一篇博客文章中宣布。用户每天总共只能回复 50 条。

这些限制旨在防止对话变得奇怪。微软表示,长时间的讨论“可能会混淆底层聊天模式”。

周三,该公司曾表示正在努力解决一周前推出的Bing的问题,包括事实错误和奇怪的交流。网上报道的奇怪回应包括Bing告诉《纽约时报》专栏作家放弃婚姻与聊天机器人在一起,以及AI要求Reddit用户道歉,因为不同意这一年仍然是2022年。

聊天机器人的回应还包括事实错误,微软周三表示,它正在调整人工智能模型,使其可以从中获得答案的数据量翻两番。该公司表示,它还将让用户更好地控制他们是否想要来自微软专有的必应AI技术的精确答案,或者使用OpenAI的ChatGPT技术的更“创造性”的回应。

必应的AI聊天功能仍处于beta测试模式,潜在用户加入等待访问名单。借助该工具,微软希望在一些人所说的互联网搜索的下一次革命中领先一步。ChatGPT技术在去年年底上市时引起了很大的轰动,但OpenAI本身已经警告了潜在的陷阱,微软也承认了AI的局限性。尽管人工智能具有令人印象深刻的品质,但人们担心人工智能被用于传播错误信息和大量网络钓鱼电子邮件等邪恶目的。

凭借Bing的AI功能,微软还希望与搜索巨头谷歌(Google)合作,后者上周宣布了自己的AI聊天模式Bard。Bard在事实错误方面也有自己的问题,在演示过程中摸索着回应。

在周五的博客文章中,微软表示新的AI聊天限制是基于从beta测试中收集的信息。

“我们的数据显示,绝大多数人在5回合内找到你要找的答案,只有~1%的聊天对话有50+条消息,”它说。“随着我们不断收到您的反馈,我们将探索扩大聊天会话的上限,以进一步增强搜索和发现体验。

展开阅读全文

页面更新:2024-05-12

标签:微软   人工智能   机器人   奇怪   事实   错误   答案   模式   用户   技术

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2020-2024 All Rights Reserved. Powered By 71396.com 闽ICP备11008920号-4
闽公网安备35020302034903号

Top