当前位置: 首页 » 产品 » 机械设备 » 正文

人工智能的解释是:ChatGPT的日常指南

放大字体  缩小字体 发布日期: 2024-11-27 20:33   来源:http://www.baidu.com/  作者:无忧资讯  浏览次数:23
核心提示:TikTok用了9个月的时间才有了第1亿个用户。Instagram花了两年时间。 旧金山OpenAI公司于2022年11月底发布的聊天机器人ChatGPT仅

TikTok用了9个月的时间才有了第1亿个用户。Instagram花了两年时间。

旧金山OpenAI公司于2022年11月底发布的聊天机器人ChatGPT仅用了60天就达到了里程碑。

这种病毒式的增长伴随着一系列令人窒息的新闻报道和大型科技公司的兴奋。有100亿美元的投资。这个聊天机器人回答了数百万个问题,然后通过了法学院和商学院的考试。微软表示,ChatGPT将把其不受欢迎的搜索引擎必应转变为真正的竞争对手。

但普通人——即使是我们当中那些相对精通技术的人——对技术的实际工作方式和发展方向都不太清楚。我们每天都在使用其产品的公司坚称,人工智能是越来越近的未来的基础。然而,到目前为止,整个概念似乎是不透明和不可理解的。SFGATE试用了这款新型聊天机器人,评估了这项技术,并请人工智能专家发表意见。

把今天完成的任务都拿出来。也许你从人群中挑选了一个朋友,在早晨洗澡时的播放列表中添加了几首歌,或者像我一样,去街角的咖啡店散步。

所有这些都需要人类的智慧。我们有一个目标,然后利用我们所拥有的知识找出达到这个目标的最佳方法。但计算机也可以做这些工作,而且经常这样做。它不使用思想和人类经验,而是使用收集到的数据来完成任务。计算机会考虑交通数据和以前走过的路线,并绘制出通往咖啡店的路线。或者它使用照片数据库在人群中选择一张脸,或者它通过分析收听习惯来建立一个播放列表。

这些都是人工智能的微小应用——人工智能是一种致力于制造与人类智力相匹配或超过人类智力的机器的计算形式。我们已经习惯了:谷歌地图、苹果的Face ID、Spotify的播放列表、Siri、拼写检查、TikTok(或Twitter)的“给你”页面。到目前为止,这种智能技术一直被刻意掩盖。

人工智能已经存在,我们每天都在使用它——通过巩固我们日常生活的技术。但这些用途都很狭窄,而且往往集中在人类处理能力不足的领域。(例如,任何人都不可能把今天发布的每一条抖音,都整理成一个有趣的信息流,供数百万用户使用。)

但现在,研究人员已经突破了新的领域。伦斯勒理工学院人工智能与推理实验室主任Selmer bringsord说:“突然之间,我们有了会说话的人工智能——毫不费力、自信、镇定、滔滔不绝。”

ChatGPT,就像谷歌的新聊天机器人Bard一样,不仅仅是分析数据或组织内容。“G”代表“生成性”——能够自己创造一些东西。用户基本上可以在平台上输入任何提示,聊天机器人通常会给出一个连贯的答案。ChatGPT可以编辑文本,模仿写作风格和头脑风暴想法列表。这就像和朋友的电子邮件交流,如果你的朋友是没有感情、不知疲倦、恭敬的机器人的话。

像其他类型的人工智能一样,ChatGPT接受数据并使用算法来形成答案。在聊天机器人的例子中,这些“大型语言模型”在大量文本数据集上进行训练,以了解人们如何互动——说什么以及什么时候说。ChatGPT所依赖的大型语言模型使用了来自整个互联网的文本和记录的人类语音——包括更多令人反感的内容。

bringsord对这些模式有一个比喻:如果一个不懂普通话的人一整天都在听两个以普通话为母语的人说话,他们可能会听到一些声音或模式。

bringsord说:“在一天结束的时候,如果你很敏锐,一些说普通话的人走到你面前,很快地说了一些话,……你可以试一试:你可以根据当天早些时候听到的声音发出一系列的声音,你的对话者可能会觉得你很称职。”

但是用“相当敏锐”来形容是保守的——大多数人即使听了整整一个星期,也无法学会一门新的语言。他说,大型语言模型“不只是记录两个人一天的声音;它们记录了所有的声音,充满了几个世纪以来重复出现的模式,涉及数十亿人,所以它们很有说服力。”

人工智能社区平台hug Face的研究科学家内森·兰伯特(Nathan Lambert)表示,另一种看待ChatGPT的方式是,它是从一个庞大而复杂的互联网模型中成功取样。兰伯特告诉SFGATE,他怀疑ChatGPT成功地(在很大程度上)删除了攻击性文字,这助长了它的病毒式流行循环。(但这一点稍后再说。)

最好的sfgate

20世纪60年代湾区最热门的夜总会之一是蝙蝠侠主题的Food | SF以酸面包闻名,但荷兰脆皮面包是湾区的招牌面包吗?意外的帝王蝶爆炸袭击隐藏的加州地点长形式狼迫使加州牧场主致命的妥协

在本文发表之时,ChatGPT和Bard还处于研究阶段——OpenAI和谷歌希望得到反馈,以使聊天机器人更好地工作。2月7日,微软和OpenAI宣布,ChatGPT将与总部位于雷德蒙德的科技巨头必应(Bing)搜索引擎整合,创建一个“网络副驾驶”,在典型的搜索结果旁边提供人工智能驱动的对话。

但随着这项技术在现实世界中的应用迅速发展,人工智能伦理学家、记者甚至一位公司高管都在要求监管和外部投入。

提供不准确信息的问题可能会继续困扰OpenAI(以及谷歌)。数据集的怪癖——互联网并没有要求被采集——导致了ChatGPT和Bard的答案被广泛宣传的问题。奇怪的关键词引发了奇怪的答案,逻辑和数学问题似乎很难,但聊天机器人仍然用镇定、自信的语气回答。

这些平台背后的公司不辞辛劳地指出,聊天机器人可能会给出不准确的答案,但如果古怪的回答和不正确的计算继续出现,这项技术就不太可能用于搜索、头脑风暴、解析文档或撰写文案,更不用说为人类提供全面的客户服务等更密集的用例了。

这些创新是有人力成本的。根据《时代周刊》的一项调查,OpenAI在试图建立保护措施,防止其生成文本被更邪恶的使用时,使用了外包的肯尼亚劳动力来降低ChatGPT的毒性。工作人员的工资通常低于每小时2美元,他们给成千上万的攻击性文本片段贴上了标签。那些被标记为暴力、仇恨言论和辱骂的例子可以被输入到ChatGPT的一种过滤器中,以确保聊天机器人不会从其庞大的数据集中重复任何有毒的语言。

目前,ChatGPT比任何其他聊天机器人或基于人工智能的产品更能吸引公众的注意力,因为它速度快,感觉正确,即使事实并非如此。它把互联网——多样化的、广泛的、巨大的——带入了一个简单的来回对话。

兰伯特说:“ChatGPT已经迈出了一大步,从研究人员可以使用语言模型到现在每个人都可以使用ChatGPT网站。”“我认为这是一个iPhone时刻,现在每年都会变得更好。”

cript type="text/javascript">
 
 
[ 产品搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 违规举报 ]  [ 关闭窗口 ]

 

 
推荐图文
推荐产品
点击排行
 
    行业协会  备案信息  可信网站