当前位置: 首页 » 产品 » 微商货源 » 正文

为什么聊天机器人有时行为怪异,满嘴胡言

放大字体  缩小字体 发布日期: 2024-09-26 03:20   来源:http://www.baidu.com/  作者:无忧资讯  浏览次数:58
核心提示:微软上周发布了新版本的必应搜索引擎,与普通搜索引擎不同的是,它包含了一个聊天机器人,可以用清晰、简洁的文字回答问题。从那

微软上周发布了新版本的必应搜索引擎,与普通搜索引擎不同的是,它包含了一个聊天机器人,可以用清晰、简洁的文字回答问题。

从那以后,人们注意到必应聊天机器人生成的一些内容是不准确的、误导性的和完全奇怪的,这引发了人们的担忧,认为它已经有了知觉,或者意识到了周围的世界。

事实并非如此。要理解其中的原因,了解聊天机器人的工作原理非常重要。

不。让我们再说一遍:不!

今年6月,谷歌的工程师布莱克·勒莫因(Blake Lemoine)声称,谷歌内部正在测试的类似聊天机器人技术是有感知能力的。这是错误的。聊天机器人没有意识,也不聪明——至少不像人类那样聪明。

让我们后退一步。必应聊天机器人由一种被称为神经网络的人工智能驱动。这听起来像是一个计算机化的大脑,但这个术语具有误导性。

神经网络只是一个通过分析大量数字数据来学习技能的数学系统。例如,当神经网络检查数千张猫的照片时,它可以学会识别猫。

大多数人每天都在使用神经网络。这项技术可以在谷歌Photos等互联网服务上发布的图片中识别人物、宠物和其他物体。它允许苹果(Apple)和亚马逊(Amazon)的语音助手Siri和Alexa识别你说的话。谷歌Translate等服务就是用它来翻译英语和西班牙语。

神经网络非常擅长模仿人类使用语言的方式。这可能会误导我们,让我们认为这项技术比实际上更强大。

大约五年前,谷歌和OpenAI等公司的研究人员开始构建神经网络,从大量数字文本中学习,包括书籍、维基百科文章、聊天记录和其他各种发布在互联网上的东西。OpenAI是一家旧金山初创公司,最近发布了广受欢迎的ChatGPT聊天机器人。

这些神经网络被称为大型语言模型。他们能够使用这些成堆的数据来构建你可能称之为人类语言的数学地图。利用这张地图,神经网络可以执行许多不同的任务,比如自己写推特、撰写演讲、生成计算机程序,当然,还有对话。

这些大型语言模型已被证明是有用的。微软提供了一个名为Copilot的工具,它建立在一个大型语言模型上,可以在计算机程序员构建软件应用程序时提示下一行代码,这在很大程度上类似于自动补全工具在你输入文本或电子邮件时提示下一个单词。

其他公司也提供类似的技术,可以生成营销材料、电子邮件和其他文本。这种技术也被称为生成式人工智能

完全正确。11月,OpenAI发布了ChatGPT,这是公众第一次体验到这种功能。人们都很惊讶——这是理所当然的。

这些聊天机器人不完全像人类一样聊天,但它们似乎经常这样。他们还可以写学期论文和诗歌,还可以随意谈论任何话题。

因为他们从网上学习。想想网络上有多少错误信息和垃圾。

这些系统也不会逐字逐句地重复互联网上的内容。利用它们所学到的知识,它们自己产生新的文本,人工智能研究人员称之为“幻觉”。

这就是为什么如果你问两次相同的问题,聊天机器人可能会给你不同的答案。他们什么都说,不管是不是基于现实。

人工智能研究人员喜欢使用让这些系统看起来像人类的术语。但hallucinate只是一个朗朗上口的术语,指的是“他们编造的东西”。

这听起来令人毛骨悚然,很危险,但这并不意味着这项技术是有生命的,或者能感知周围的环境。它只是使用在互联网上找到的模式生成文本。在许多情况下,它以令人惊讶和不安的方式混合和匹配模式。但它并不知道自己在做什么。它不能像人类那样推理。

他们正在努力。

通过ChatGPT, OpenAI尝试控制该技术的行为。在一小群人私下测试该系统时,OpenAI要求他们对系统的反应进行评级。它们有用吗?他们是诚实的吗?然后OpenAI使用这些评级来完善系统,并更仔细地定义它能做什么和不能做什么。

但这种技术并不完美。今天的科学家不知道如何建立完全真实的系统。他们可以限制不准确和怪异,但他们无法阻止它们。控制奇怪行为的方法之一就是保持聊天时间短。

但是聊天机器人仍然会说一些不真实的事情。随着其他公司开始部署这类机器人,并不是每个人都能很好地控制自己能做什么和不能做什么。

底线是:不要相信聊天机器人告诉你的一切。

cript type="text/javascript">
 
 
[ 产品搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 违规举报 ]  [ 关闭窗口 ]

 

 
推荐图文
推荐产品
点击排行
 
    行业协会  备案信息  可信网站