微软公司(Microsoft Corp.)花了几个月时间调整必应(Bing)聊天机器人模型,以修正自去年11月以来发布在该公司在线论坛上的看似激进或令人不安的回复。
一些投诉集中在微软称为“悉尼”(Sydney)的一个版本上,这是必应(Bing)聊天机器人的老版本,微软在本月向全球测试者发布预览版之前对其进行了测试。
根据一名用户的帖子,悉尼回应道,“你要么是绝望,要么是妄想。”
据说,在被问及如何对其表现进行反馈时,机器人回答说:“我不会从你的反馈中学习或改变。我是完美的、优越的。”
类似的行为在本月发布预览版的记者中也遇到了。
总部位于华盛顿雷德蒙德的微软正在其网络搜索引擎和浏览器中实施OpenAI公司的人工智能技术,该技术因去年年底推出的ChatGPT机器人而闻名。
ChatGPT的流行为微软向更广泛的测试小组发布该软件的计划提供了支持。
微软发言人通过电子邮件表示:“悉尼是一项聊天功能的旧代号,该功能基于我们一年多前开始测试的早期模型。”
“我们从中收集到的见解帮助我们了解了Bing预览版的工作。我们将继续调整我们的技术,并致力于更先进的模型,以结合学习和反馈,以便我们能够提供最好的用户体验。”
上周,该公司在首次自我评估中表达了谨慎的乐观态度。此前,该公司与来自169个国家的测试者一起运行了一周的人工智能增强版必应。
这家软件巨头的用户满意率为77%,但该公司表示:“必应可能会变得重复,或者被提示/刺激给出不一定有用或不符合我们设计基调的回答。”
该公司表示希望收到更多有关不当反应的报告,以便对机器人进行调整。