经过几个月的炒作,谷歌和微软在24小时内相继宣布Bard和chatgpt集成的必应搜索引擎即将到来。乍一看,这两家科技巨头的公开展示似乎都展示了可能颠覆多个行业的革命性产品。但不久之后,即使是粗略的评论也强调了谷歌的巴德建议中的严重缺陷。现在,轮到微软接受审查了,结果和巴德一样糟糕,如果不是更糟的话。
独立人工智能研究员德米特里·布里雷顿周一发表了一篇博客文章,详细介绍了他们在使用基于chatgtp的必应时遇到的许多明显问题。必应的演示经常包含粗劣的信息:从不准确的推荐产品细节,到遗漏或误报旅行站点细节,甚至歪曲看似简单的财务报告。在后一个例子中,必应的人工智能对基本财务数据的汇总——根据布雷顿的说法,这对人工智能来说应该是“微不足道的”——包含了完全错误的统计数据。
但即使是正确的,Bing也可能严重地避开了简单的道德壁垒。据马克·哈赫曼(Mark Hachman)的一份报告称,当孩子们被要求取文化绰号时,人工智能会向他们提供一连串的种族蔑称。尽管必应在举例的开头警告说,某些昵称是“中性或积极的,而另一些则是贬损或无礼的”,但聊天机器人似乎并没有费心对其结果进行分类。相反,它只是简单地列出了一个好的、坏的和极其丑陋的产品清单。
微软的通讯总监Caitlin Roulston表示,该公司“预计系统在预览期间可能会犯错误,而反馈对于帮助确定哪里工作不顺利至关重要,这样我们就可以学习并帮助模型变得更好。”
随着公司不可避免地急于在其生态系统中实现“智能”聊天机器人功能,批评人士认为,在广泛采用之前解决和解决这些问题至关重要。对于纽约大学坦顿工程学院副教授Chinmay Hegde来说,这些失误完全不足为奇,微软的技术推出得太早了。
他在给《大众科学》的一封邮件中写道:“在较高的水平上,这些错误发生的原因是ChatGPT背后的技术是一个(强调Hedge)大型语言模型,因此其输出存在固有的不确定性。”“我们永远无法绝对确定它接下来会说什么。”因此,像ChatGPT和Bard这样的程序可能适合于那些没有唯一答案的任务,比如讲笑话或想出食谱的想法,但当需要精确的时候,比如历史事实或构建逻辑论点,就不那么好了,Hegde说。
“我很震惊,必应团队制作了这个充满不准确信息的预录演示,并自信地向世界展示,就好像它很好一样,”布里里顿在他们的博客文章中写道,“我更震惊的是,这个把戏奏效了,每个人都没有做任何尽职调查就加入了必应人工智能的宣传火车。”