当前位置: 首页 » 产品 » 机械设备 » 正文

人工智能能与人对话并不意味着它就聪明

放大字体  缩小字体 发布日期: 2024-09-25 11:09   来源:http://www.baidu.com/  作者:无忧资讯  浏览次数:14
核心提示:会话式人工智能工具正在成为主流,对于许多虚假信息研究人员来说,这是一个主要的担忧原因。本周,谷歌发布了对Open AI ChatGPT

Revamped Microsoft Bing search engine home page screenshot

会话式人工智能工具正在成为主流,对于许多虚假信息研究人员来说,这是一个主要的担忧原因。本周,谷歌发布了对Open AI ChatGPT的回应Bard,并在巴黎的一次活动上加倍投入,在其许多核心产品中推出人工智能增强功能。同样,微软宣布ChatGPT将很快与其备受诟病的搜索引擎必应集成。在接下来的几个月里,这些对话工具将被广泛使用,但一些问题已经开始出现。

会话式人工智能是使用一种称为“大型语言模型”(LLMs)的神经网络框架构建的,它非常擅长生成语法连贯、看似合理且类似人类的文本。它们之所以能做到这一点,是因为它们接受了数百gb的人类文本训练,其中大部分都是从互联网上抓取的。为了生成新的文本,该模型将通过预测给定序列的下一个“标记”(基本上是一个单词或一个复杂单词的片段)来工作(许多研究人员将其与我们在学校做的“填空”练习进行比较)。

例如,我让ChatGPT写一篇文章,它一开始就说“这是一本1872年首次出版的科学技术杂志。”在这里,很明显,它是从我们的about页面和维基百科页面等地方复制信息,并计算出以“is…”开头的句子的可能后续词,该段落以大致相同的方式继续,每个句子都是在ChatGPT训练的内容中自然地跟随的东西。

不幸的是,这种预测下一个看似合理的单词和句子的方法意味着对话式人工智能可能经常是错误的,除非你已经知道这些信息,否则你很容易被误导,因为它们听起来好像知道自己在说什么。从技术上讲,谷歌已经不再是一本杂志,但谷歌用巴德的推出更好地证明了这一点。(这也是为什么大型语言模型会反刍阴谋论和其他令人不快的内容,除非经过专门训练。)

谷歌的公告(截至本文撰写时仍在运行)中的一个演示问题是“我能告诉我9岁的孩子詹姆斯·韦伯太空望远镜的哪些新发现?”作为回应,巴德提供了三个要点,其中一个说“JWST拍摄了太阳系外行星的第一张照片。”

虽然这听起来像是你期望有史以来最大的太空望远镜做的事情——JWST确实在发现系外行星——但它并没有发现第一颗系外行星。据路透社和美国国家航空航天局报道,这一荣誉属于欧洲南方天文台的甚大望远镜(VLT),它在2004年发现了一颗。如果这只是有人向巴德征求意见,而不是一个非常公开的声明,就不会有几十位天文学专家准备介入并纠正它了。

微软则采取了一种更超前的方式。必应的新FAQ中提到“人工智能可能会犯错”,“必应有时会歪曲它找到的信息,你可能会看到听起来很有说服力的回答,但实际上是不完整、不准确或不恰当的。”它继续呼吁用户进行自己的判断,并仔细检查人工智能提供的事实。(它还说,你可以问必应:“你从哪里得到的信息?,以了解它使用了哪些来源来生成答案。)

不过,这感觉有点像微软的逃避。是的,人们应该对他们在网上读到的信息持怀疑态度,但微软也有责任确保它为数百万用户提供的工具不是编造的东西,并将其呈现为真实的。像必应这样的搜索引擎是人们用来验证事实的最好工具之一——它们不应该增加错误信息的数量。

而且这种责任在法律上是可以强制执行的。欧盟的《数字服务法案》将于2024年生效,其中有专门防止虚假信息传播的条款。不遵守这项新法律的公司可能会被处以高达公司年营业额6%的罚款。鉴于欧盟(EU)最近对美国科技公司开出了大量罚单,以及现有条款规定,搜索引擎必须删除某些可被证明不准确的信息,这个拥有27个成员国的集团似乎有可能对谷歌或必应(Bing)上显著显示的人工智能生成的虚假信息采取强硬立场。他们已经被迫对其他形式的虚假信息采取更强硬的立场,比如深度造假和虚假社交媒体账户。

随着这些可对话的人工智能将很快被广泛和免费使用,我们可能会看到更多关于如何适当使用它们的讨论——尤其是当它们声称是权威的信息来源时。与此同时,让我们记住,对于这类人工智能来说,创造符合语法的废话要比对查询编写经过充分事实核查的回复容易得多。

cript type="text/javascript">
 
 
[ 产品搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 违规举报 ]  [ 关闭窗口 ]

 

 
推荐图文
推荐产品
点击排行
 
    行业协会  备案信息  可信网站