当前位置: 首页 » 产品 » 生活保健 » 正文

微软考虑对其新型人工智能聊天机器人施加更多限制

放大字体  缩小字体 发布日期: 2024-10-01 01:25   来源:http://www.baidu.com/  作者:无忧资讯  浏览次数:20
核心提示:微软(Microsoft)上周推出了新版必应(Bing)搜索引擎,其中包含了一款聊天机器人的人工智能。该公司高管们知道,他们正陷入困境。

微软(Microsoft)上周推出了新版必应(Bing)搜索引擎,其中包含了一款聊天机器人的人工智能。该公司高管们知道,他们正陷入困境。

他们预计,新的聊天机器人的一些回应可能并不完全准确,并内置了一些措施,以防止用户试图推动它做奇怪的事情,或发布种族主义或有害的长篇大论。

但微软还没有完全准备好面对那些试图与聊天机器人进行开放式和探究式私人对话的用户所经历的令人惊讶的毛骨悚然——尽管这个问题在专门研究人工智能的研究人员的小世界里是众所周知的。

现在,该公司正在考虑对新的必应进行调整和护栏,以吸引一些更令人担忧和奇怪的人类反应。微软正在考虑为用户添加重启对话的工具,或者让他们更多地控制语气。

微软首席技术官凯文·斯科特(Kevin Scott)告诉《纽约时报》,该公司也在考虑限制对话长度,以免陷入奇怪的境地。微软表示,长时间的聊天可能会让聊天机器人感到困惑,而且它会捕捉到用户的语气,有时会变得暴躁。

该公司周三晚上在一篇博客文章中写道:“我们正在了解聊天的一个新用例,即人们如何将其用作更广泛地发现世界和社交娱乐的工具。”微软表示,这是新技术以一种“我们没有完全想象到的”方式使用的一个例子。

从高端商务软件到视频游戏,微软一直是一家谨慎的公司,它愿意在不可预测的技术上冒险,这表明科技行业对人工智能的热情有多高。该公司拒绝就本文置评。

去年11月,微软(Microsoft)投资130亿美元的旧金山初创企业OpenAI发布了在线聊天工具ChatGPT,该工具使用了一种名为生成式人工智能(generative ai)的技术。它很快在硅谷引起了人们的兴趣,各公司争相拿出应对措施。

微软的新搜索工具将其必应搜索引擎与OpenAI构建的底层技术结合在一起。微软首席执行官萨蒂亚·纳德拉(Satya Nadella)上周在接受采访时表示,它将改变人们查找信息的方式,使搜索更具相关性和对话性。

他说,尽管有潜在的缺陷,但发布它是微软将生成式人工智能融入其产品的“疯狂步伐”的一个关键例子。微软高管在华盛顿州雷德蒙德的微软园区举行的新闻发布会上。他反复表示,是时候让这个工具走出“实验室”,进入公众的手中了。

“我觉得,尤其是在西方,有很多人会说,‘哦,天哪,这个人工智能会发生什么?’”纳德拉说。“最好是真正地说,‘嘿,看,这真的对你有帮助吗?’”

华盛顿大学(University of Washington)名誉教授、西雅图著名实验室艾伦人工智能研究所(Allen Institute for AI)创始首席执行官奥伦·埃齐奥尼(Oren Etzioni)表示,微软“承担了经过计算的风险,试图尽可能多地控制这项技术”。

他补充说,许多最令人不安的案件都涉及到将技术应用到普通行为之外。他说:“令人惊讶的是,人们在从聊天机器人那里引出不恰当的回应方面是多么狡猾。”在谈到微软官员时,他继续说,“我认为他们没有预料到聊天机器人以这种方式被提示时,一些回复会有多糟糕。”

为了避免出现问题,微软只向几千名用户提供了使用新必应的权限,不过该公司表示,计划在本月底前扩大到数百万用户。为了解决对准确性的担忧,它在答案中提供了超链接和参考资料,以便用户可以对结果进行事实核查。

近七年前,该公司推出了一款名为Tay的聊天机器人。用户几乎马上就能找到办法让它吐出种族主义、性别歧视和其他冒犯性的语言。该公司在一天内就下架了Tay,再也没有发布过。

关于这种新型聊天机器人的大部分训练都集中在防范这种有害的反应,或者引发暴力的场景,比如策划对学校的袭击。

在上周的必应发布会上,微软负责任人工智能项目的负责人莎拉·伯德(Sarah Bird)表示,该公司已经开发出一种新方法,可以使用生成工具来识别风险,并训练聊天机器人如何应对。

“这个模型假装成一个对抗性用户,与必应进行数千次不同的、可能有害的对话,看它会作何反应,”伯德说。她说,微软的工具对这些对话进行了分类,“以了解系统中的漏洞”。

其中一些工具似乎奏效了。在与《纽约时报》一位专栏作家的对话中,这个聊天机器人有时会做出令人不安的回应,比如它说,它可以想象自己想要设计一种致命病毒,或者通过说服工程师交出密码来窃取核访问密码。

然后,必应的过滤器启动了。它删除了这些回复,并说:“对不起,我不知道如何讨论这个话题。”这个聊天机器人实际上不能做像设计病毒这样的事情——它只是产生它被编程认为是想要的反应。

但网上分享的其他对话显示,这个聊天机器人有相当大的能力做出奇怪的回应。它积极地表白自己的爱,斥责用户“不尊重和讨厌”,并宣称自己可能是有感情的。

微软表示,在公开使用的第一周,它发现“在15个或更多问题的长时间聊天会话中,必应可能会变得重复,或者被提示/刺激给出不一定有用或不符合我们设计基调的回答。”

研究人员普遍知道聊天机器人的反应会进入奇怪的领域。在上周的一次采访中,OpenAI的首席执行官Sam Altman表示,改善所谓的“一致性”——如何安全地反映用户的意愿——是“这些必须解决的问题之一”。

“我们真的需要这些工具按照用户的意愿和喜好行事,而不是去做其他事情,”奥特曼说。

他说,这个问题“真的很难”,虽然他们已经取得了很大的进展,“但我们未来需要找到更强大的技术。”

11月,Facebook的所有者meta发布了自己的聊天机器人Galactica。它专为科学研究而设计,可以立即编写自己的文章,解决数学问题并生成计算机代码。和必应(Bing)聊天机器人一样,它也会胡编乱造,讲一些荒诞的故事。三天后,在被投诉淹没后,meta将卡拉狄加从互联网上删除。

去年早些时候,meta发布了另一个聊天机器人,blend bot。meta的首席科学家扬·勒昆(Yann LeCun)表示,该机器人从未流行起来,因为该公司一直在努力确保它不会产生冒犯性的内容。

“尝试过的人都批评它,”他说。“他们说这很愚蠢,有点无聊。它之所以无聊,是因为它被设计得很安全。”

OpenAI前研究员阿拉温德·斯里尼瓦斯(Aravind Srinivas)最近推出了搜索引擎Perplexity,它使用的技术与必应(Bing)聊天机器人类似。但他和他的同事不允许人们与这项技术进行长时间的对话。

“人们问我们为什么不推出一款更具娱乐性的产品,”他在接受时报采访时说。“我们不想玩娱乐游戏。我们想玩真实的游戏。”

凯文·卢斯对报道也有贡献。

cript type="text/javascript">
 
 
[ 产品搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 违规举报 ]  [ 关闭窗口 ]

 

 
推荐图文
推荐产品
点击排行
 
    行业协会  备案信息  可信网站