当前位置: 首页 » 产品 » 商务广告 » 正文

ChatGPT谎称他们的市长因受贿入狱他可以起诉

放大字体  缩小字体 发布日期: 2024-09-27 12:15   来源:http://www.baidu.com/  作者:无忧资讯  浏览次数:28
核心提示:布莱恩·胡德(Brian Hood)是一名举报人,在帮助揭露与澳大利亚国家储备银行(National Reserve Bank)有关的全球性贿赂丑闻时,他

布莱恩·胡德(Brian Hood)是一名举报人,在帮助揭露与澳大利亚国家储备银行(National Reserve Bank)有关的全球性贿赂丑闻时,他被称赞“表现出了巨大的勇气”。

但如果你问ChatGPT他在丑闻中扮演的角色,你会得到相反的版本。

ChatGPT并没有宣扬胡德的告密角色,而是错误地声称胡德本人被判向外国官员行贿,并承认受贿和腐败,并被判入狱。

胡德发现后,非常震惊。胡德现在是澳大利亚墨尔本附近赫本郡的市长,他说他计划起诉ChatGPT背后的公司,称该公司对他撒谎,这可能是第一起针对人工智能聊天机器人的诽谤诉讼。

“被指控为一名罪犯——一名白领罪犯——并在监狱里度过一段时间,而这是180度错误的,这对你的声誉造成了极大的损害。尤其是要记住,我是当地政府的民选官员,”他在周四的一次采访中说。“这只是重新揭开了旧伤口。”

胡德说:“从来没有任何迹象表明我参与了任何事情,所以这台机器完全是从零开始创造了这个东西。”胡德证实了他打算对ChatGPT提起诽谤诉讼。“需要对所谓的人工智能进行适当的控制和监管,因为人们依赖于它们。”

这是越来越多的人工智能聊天机器人发布关于真人的虚假陈述的最新一例。该聊天机器人最近编造了一个关于真正的法学教授乔纳森·特利的性骚扰故事,并引用了一篇并不存在的《华盛顿邮报》文章作为证据。

据路透社报道,如果诉讼继续进行,胡德的诉讼将是第一次有人对ChatGPT的内容提起诽谤诉讼。如果进入法庭,此案将考验未知的法律水域,迫使法官考虑人工智能机器人的运营商是否可以为其所谓的诽谤言论负责。

在其网站上,ChatGPT明显地警告用户,它“可能偶尔产生不正确的信息”。胡德认为,这种警告是不够的。

他说:“即使免责声明说我们可能会犯一些错误——这和编造这种毫无根据的有害材料之间有巨大的区别。”

在一份声明中,胡德的律师列举了ChatGPT对其客户所做的多个具体谎言的例子,包括他授权向军火商付款以获得与马来西亚政府的合同。

“你在其他任何地方都找不到它,任何与他们所暗示的有丝毫关联的东西。他们不知何故凭空创造了它,”胡德说。

根据澳大利亚法律,原告只有在最初提出关注后等待28天的回应后,才能就诽谤索赔提起正式法律诉讼。周四,胡德表示,他的律师仍在等待ChatGPT (OpenAI)所有者的回复,此前他曾致信要求撤回文章。

OpenAI周四没有立即回应夜间发出的置评请求。在早些时候的一份声明中,OpenAI发言人尼科·费利克斯(Niko Felix)在回应聊天机器人对这位法学教授的虚假陈述时表示:“当用户注册ChatGPT时,我们会努力做到尽可能透明,以免它总能给出准确的答案。提高事实的准确性是我们的一个重要关注点,我们正在取得进展。”

人工智能专家表示,该机器人能够对胡德做出如此可信的虚假陈述,并不令人意外。牛津大学(Oxford University)计算机科学教授迈克尔·伍尔德里奇(Michael Wooldridge)周四在接受采访时说,令人信服的虚假信息实际上是该技术的一个特点。

“当你问它一个问题时,它不会进入一个事实数据库,”他解释道。“他们的工作方式是迅速完成。”基于互联网上所有可用的信息,ChatGPT试图令人信服地完成句子,而不是如实地完成句子。“它试图对接下来会发生什么做出最好的猜测,”伍尔德里奇说。“它经常是不正确的,但似乎是非常不正确的。

“这显然是目前这项技术的最大弱点,”他说,他指的是人工智能撒谎的能力如此令人信服。“这将是未来几年这项技术面临的决定性挑战之一。”

在给OpenAI的一封信中,胡德的律师要求纠正这一谎言。胡德的律师詹姆斯·诺顿(James Naughton)说:“索赔的目的是弥补对胡德造成的伤害,并确保该软件在胡德案件中的准确性。”

但根据伍尔德里奇的说法,简单地修改ChatGPT发布的一个特定的错误是具有挑战性的。

“它所获得的所有知识都隐藏在庞大的神经网络中,”他说,“它们不过是一大堆数字。”

“问题是,你不能看着这些数字就知道它们意味着什么。他们对我们一点意义都没有。我们不能在系统中查看它们,因为它们与这个人有关,然后就把它们砍掉。”

“在人工智能研究中,我们通常称之为‘幻觉’,”剑桥大学(Cambridge University)计算机科学家迈克尔·施里克克鲁尔(Michael Schlichtkrull)周四在一封电子邮件中写道。“语言模型被训练成产生看似合理的文本,而不是事实的文本。”

他补充说:“大型语言模型不应该被用于重要输出是否真实的任务。”

cript type="text/javascript">
 
 
[ 产品搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 违规举报 ]  [ 关闭窗口 ]

 

 
推荐图文
推荐产品
点击排行
 
    行业协会  备案信息  可信网站