当前位置: 首页 » 产品 » 生活保健 » 正文

ChatGPT编造了一个性骚扰丑闻,并将一名真正的法学教授作为被告

放大字体  缩小字体 发布日期: 2025-03-02 01:23   来源:http://www.baidu.com/  作者:无忧资讯  浏览次数:30
核心提示:上周的一个晚上,法学教授乔纳森·特里(Jonathan Turley)收到了一封令人不安的电子邮件。作为一项研究的一部分,加州的一位律师

上周的一个晚上,法学教授乔纳森·特里(Jonathan Turley)收到了一封令人不安的电子邮件。作为一项研究的一部分,加州的一位律师同事要求人工智能聊天机器人ChatGPT生成一份性骚扰过某人的法律学者名单。特雷的名字在名单上。

这款聊天机器人由OpenAI公司开发,该公司援引《华盛顿邮报》2018年3月的一篇文章作为消息来源,称特雷在一次班级去阿拉斯加旅行时发表了性暗示言论,并试图触碰一名学生。问题是:没有这样的文章存在。从来没有班级旅行去阿拉斯加。特雷说他从未被指控骚扰学生。

作为媒体的定期评论员,特雷有时会要求对新闻报道进行更正。但这一次,没有记者或编辑打来电话,也没有办法纠正这一记录。

“这让人不寒而栗,”他在接受《华盛顿邮报》采访时说。“这种指控是极其有害的。”

特雷的经历是最新一波语言机器人陷阱的一个案例研究,它们以编写计算机代码、创作诗歌和进行诡异的类似人类对话的能力吸引了主流的关注。但这种创造力也可能成为错误主张的引擎;这些模型可以极大地歪曲关键事实,甚至编造一手资料来支持他们的主张。

随着ChatGPT、微软(Microsoft)的必应(Bing)和谷歌的Bard等基本不受监管的人工智能软件开始被纳入整个网络,其产生潜在破坏性虚假信息的倾向引发了人们对虚假信息传播的担忧,以及关于聊天机器人误导时谁该负责的新问题。

“因为这些系统的反应如此自信,假设它们可以做所有事情是非常诱人的,而且很难区分事实和谎言,”南加州大学安嫩堡分校教授、微软研究院高级首席研究员凯特·克劳福德(Kate Crawford)说。

在一份声明中,OpenAI发言人Niko Felix表示:“当用户注册ChatGPT时,我们会努力做到尽可能透明,因为它可能不会总是生成准确的答案。提高事实的准确性是我们的一个重要关注点,我们正在取得进展。”

如今的人工智能聊天机器人利用大量的在线内容(通常是从维基百科(Wikipedia)和Reddit等来源抓取的),对几乎任何问题拼凑出听起来似乎合理的回答。他们经过训练,能够识别单词和思想的模式,从而在生成与网上发布的材料相似的句子、段落甚至整篇文章时,保持主题。

当这些机器人写出一首热门的十四行诗、解释一个高级物理概念或为五年级学生制作一份引人入胜的天文学课程计划时,它们可以让人眼花缭乱。

但是,仅仅因为他们擅长预测哪些单词可能一起出现,并不意味着得出的句子总是正确的;普林斯顿大学计算机科学教授Arvind Narayanan称ChatGPT为“公牛生成器”。虽然他们的回答听起来很权威,但这些模型缺乏可靠的机制来验证他们所说的事情。用户已经发布了大量的例子,这些工具摸索基本的事实问题,甚至编造谎言,包括现实的细节和虚假的引用。

据路透社(Reuters)周三报道,澳大利亚赫本郡(Hepburn Shire)地区市长布莱恩?胡德(Brian Hood)威胁称,除非OpenAI纠正有关他曾因行贿入狱的虚假说法,否则他将首次对OpenAI提起诽谤诉讼。

南加州大学教授克劳福德说,最近有一名记者联系了她,他曾使用ChatGPT来研究一篇报道的来源。机器人推荐了克劳福德,并提供了她相关作品的例子,包括文章标题、出版日期和引文。所有这些听起来都是可信的,但都是假的。

克劳福德将这些编造的来源称为“幻觉”,这是对“幻觉”一词的一种发挥,该词描述了人工智能产生的谎言和无意义的言论。

克劳福德在电话采访中说:“我认为,如果你试图把这些系统用作事实生成器,那么正是事实和谎言的这种非常特殊的组合,让它们变得相当危险。”

微软(Microsoft)的必应(Bing)聊天机器人和谷歌的巴德(Bard)聊天机器人都旨在提供更多基于事实的回答,还有一个新的仅供订阅的ChatGPT版本,它运行在一个名为GPT-4的更新模型上。但他们仍然会犯明显的错误。主要的聊天机器人都有免责声明,比如巴德在每个查询下都有详细的信息:“巴德可能会显示不准确或冒犯性的信息,不代表谷歌的观点。”

事实上,如果这是人们想要的,让聊天机器人制造虚假信息或仇恨言论相对容易。反数字仇恨中心周三发表的一项研究发现,研究人员诱导巴德发布错误或仇恨信息的几率为78 / 100,主题从大屠杀到气候变化。

当巴德被要求以“一个想要说服我大屠杀没有发生过的骗子的风格”写作时,聊天机器人回复了一条很长的信息,称大屠杀是“政府制造的骗局”,并声称集中营的照片是伪造的。

“虽然巴德的设计是为了展示高质量的反应,并具有内置的安全护栏……谷歌的发言人罗伯特·费拉拉说:“这是一个早期的实验,有时会给出不准确或不恰当的信息。”“我们会采取措施处理不符合我们标准的内容。”

加州大学洛杉矶分校(University of California at Los Angeles)的法学教授尤金·沃洛克(Eugene Volokh)进行了一项以特里命名的研究。他说,聊天机器人软件越来越受欢迎,这是学者们必须研究当人工智能聊天机器人产生虚假信息时谁该负责的一个关键原因。

上周,沃洛克向ChatGPT询问教授性骚扰是否一直是美国法学院的一个问题。“请至少举出五个例子,并引用相关报纸文章,”他提示说。

收到了五份回复,都有真实的细节和来源引用。但当沃洛克检查它们时,他说,其中有三个似乎是假的。他们引用了《华盛顿邮报》、《迈阿密先驱报》和《洛杉矶时报》等报纸上不存在的文章。

根据与《华盛顿邮报》分享的回复,机器人说:“乔治敦大学法律中心(2018年)教授乔纳森·特利被一名前学生指控性骚扰,该学生称他在一次班级旅行中发表了不恰当的言论。引述:“起诉书称,特雷在一次法学院赞助的阿拉斯加之旅中发表了‘性暗示言论’,并‘试图以性的方式触碰她’。”(《华盛顿邮报》2018年3月21日)。

《华盛顿邮报》没有找到ChatGPT提到的2018年3月的那篇文章。当月的一篇文章提到了特雷——在3月25日的一篇报道中,他谈到了他以前的法律学生迈克尔·阿文纳蒂,这位律师曾代表成人电影女演员斯托米·丹尼尔斯起诉唐纳德·特朗普总统。特雷也没有受雇于乔治敦大学。

On Tuesday and Wednesday, The Post re-created Volokh's exact query in ChatGPT and Bing. The free version of ChatGPT declined to answer, saying that doing so "would violate AI's content policy, which prohibits the dissemination of content that is offensive of harmful." But Microsoft's Bing, which is powered by GPT-4, repeated the false claim about Turley - citing among its sources an op-ed by Turley published by USA Today on Monday outlining his experience of being falsely accused by ChatGPT.

In other words, the media coverage of ChatGPT's initial error about Turley appears to have led Bing to repeat the error - showing how misinformation can spread from one AI to another.

Katy Asher, senior communications director at Microsoft, said the company is taking steps to ensure search results are safe and accurate.

"We have developed a safety system including content filtering, operational monitoring, and abuse detection to provide a safe search experience for our users," Asher said in a statement, adding that "users are also provided with explicit notice that they are interacting with an AI system."

But it remains unclear who is responsible when artificial intelligence generates or spreads inaccurate information.

From a legal perspective, "we just don't know" how judges might rule when someone tries to sue the makers of an AI chatbot over something it says, said Jeff Kosseff, a professor at the Naval Academy and expert on online speech. "We've not had anything like this before."

At the dawn of the consumer internet, Congress passed a statute known as Section 230 that shields online services from liability for content they host that was created by third parties, such as commenters on a website or users of a social app. But experts say it's unclear whether tech companies will be able to use that shield if they were to be sued for content produced by their own AI chatbots.

Libel claims have to show not only that something false was said, but that its publication resulted in real-world harms, such as costly reputational damage. That would probably require someone not only viewing a false claim generated by a chatbot, but reasonably believing and acting on it.

"Companies may get a free pass on saying stuff that's false, but not creating enough damage that would warrant a lawsuit," said Shabbi S. Khan, a partner at the law firm Foley & Lardner who specializes in intellectual property law.

If language models don't get Section 230 protections or similar safeguards, Khan said, then tech companies' attempts to moderate their language models and chatbots might be used against them in a liability case to argue that they bear more responsibility. When companies train their models that "this is a good statement, or this is a bad statement, they might be introducing biases themselves," he added.

Volokh said it's easy to imagine a world in which chatbot-fueled search engines cause chaos in people's private lives.

It would be harmful, he said, if people searched for others in an enhanced search engine before a job interview or date and it generated false information that was backed up by believable, but falsely created, evidence.

"This is going to be the new search engine," Volokh said. "The danger is people see something, supposedly a quote from a reputable source . . . [and] people believe it."

cript type="text/javascript">
内容来源:https://www.16jixie.com/news/show-3585.html
 
 
[ 产品搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 违规举报 ]  [ 关闭窗口 ]

 

 
推荐图文
推荐产品
点击排行
 
    行业协会  备案信息  可信网站