当前位置: 首页 » 产品 » 商务广告 » 正文

“ChatGPT需要大量的编辑”:用户对AI聊天机器人的看法不一

放大字体  缩小字体 发布日期: 2024-10-27 20:39   来源:网络推广  作者:baidu  浏览次数:117
核心提示:ChatGPT是Joy的天赐之物。这位来自新西兰的治疗师患有注意力缺陷多动障碍(attention deficit hyperactivity disorder),经常难以

ChatGPT是Joy的天赐之物。这位来自新西兰的治疗师患有注意力缺陷多动障碍(attention deficit hyperactivity disorder),经常难以完成诸如起草困难的电子邮件等任务,当她感到不堪重负时,拖延症就会出现。

“我非常讨厌坐下来撰写一封复杂的电子邮件。我将不得不使用很多策略和责任来完成它,之后我会感到精疲力竭,”Joy说,她今年30多岁,住在奥克兰。“但告诉GPT,‘给学术论文写封邮件道歉,抱怨家庭紧急情况,请求考虑下一期’感觉完全可行。”

虽然人工智能聊天机器人生成的文本通常需要编辑,但乔伊表示,这对她的心理成本较小。她说:“编辑草稿比从头开始要容易得多,因此它帮助我突破了任务启动方面的障碍。”她补充说,她已向客户推荐使用这种方式。“它避免了神经多样化人群的心理僵局。我认为,这对那些因为神经分化而与职业规范作斗争,并给人留下草率印象的人也有潜在价值。”

成品禁用短视频app下载ChatGPT由总部位于旧金山的OpenAI开发,自去年11月公开发布以来就引起了轰动,在两个月内就有1亿用户使用,因为它能够撰写看起来可信的文章、食谱、诗歌,并对各种各样的问题做出冗长的回答。OpenAI的主要支持者微软(Microsoft)已将ChatGPT背后的技术用于其必应(Bing)搜索引擎。谷歌已经推出了自己的聊天机器人,并表示将把该技术整合到自己的搜索引擎中。

ChatGPT和谷歌的竞争对手Bard都是基于大型语言模型,这些模型从互联网上输入大量文本,以训练它们如何回应同样大量的查询。据《卫报》读者透露,ChatGPT原型的使用原因不一,效果也不一。

Naveen Cherian uses it to co<em></em>ndense book des<em></em>criptions

纳文·切利安(Naveen Cherian)是印度班加罗尔的一名30岁的出版项目经理,他一开始也使用ChatGPT处理电子邮件,但很快发现它可以用于处理工作中的重复性任务。他用它把书的描述压缩成140个字符的简介,到目前为止,他对效果很满意:“效果非常好,完成后我只需要检查一下是否正常。”

这为他腾出时间来专注于他角色的创造性方面。他说:“我可以专注于书的实际内容,并专注于如何编辑它,使它变得更好。”切里安说,他的雇主知道他使用这个工具。“只要工作质量好,我能比以前做更多的加工,他们就很高兴。他们担心的只是我不应该完全依赖它,而我并没有。”

香蕉软件下载

和许多学生一样,印尼日惹28岁的瑞扎一直在利用聊天机器人进行学术研究。他说:“我有很多想法,但只有足够的时间去实践其中的几个,因为我需要把它们写下来。”他补充说,写作是他工作中“最耗时的”部分。

他声称,它将写一篇文章所需的时间缩短了三倍。他说:“随着工作流程的改进,我的双手正在赶上我的大脑。”然而,他表示,聊天机器人的输出需要大量编辑,在创建参考资料方面没有帮助;当他尝试时,它“给出了不存在的学术引用”。

雷扎还没有通知他所在的大学他正在使用这个工具。“我没有告诉我的教授,因为在我的大学里还没有关于这个问题的明确政策。我也认为没有必要;使用计算器并不妨碍你成为数学家。”

跳过过去的通讯推广

简讯推广后

Emma Westley says editing is required

42岁的艾玛?韦斯特利(Emma Westley)是法国新阿基坦(Nouvelle-Aquitaine)地区一家科技初创企业的营销主管。她说,这对她在工作中澄清复杂的技术概念是一种福音。“我发现ChatGPT有助于提高整个研究、头脑风暴和写作过程的效率。虽然仍然需要大量的编辑才能让文案听起来更人性化,但作为头脑风暴的伙伴,我真的越来越喜欢它了。”

但也有人发现这款机器人的局限性超过了它的好处。418款禁用软件APP入口4040岁的软件工程师丹?阿特金森(Dan Atkinson)表示,他发现谷歌提供的信息存在明显错误。他说:“我询问了11世纪英国人的饮食,很明显,他们的饮食包括土豆和其他蔬菜,但土豆直到16世纪才在欧洲出现。”

Dan Atkinson has found factual errors in the information provided by ChatGPT

阿特金森担心,机器人在提供与事实不符的信息时,会让人产生“错位的信心”。这些错误在技术术语中被称为“幻觉”。

他说:“人们更愿意相信一台机器,即使它在说彻头彻尾的谎言。这很危险,原因有很多。例如,如果你依赖这样的东西来获得基本的医疗建议。或者如果你写代码,它可以给你一些坏习惯和容易出错的例子。”

微软已经承认其基于chatgpt的必应服务的回复存在潜在问题。该公司表示,人工智能增强版的必应可能会出错,称:“人工智能可能会犯错……必应有时会歪曲它找到的信息,你可能会看到听起来很有说服力的回答,但实际上是不完整、不准确或不恰当的。”

韩国教师罗杰·麦卡特尼(Roger McCartney)也对聊天机器人的可靠性表示担忧,称它会犯“孩子都能识别的错误”,比如关于太阳系的基本错误。尽管38岁的麦卡特尼喜欢用它来“激发想法”,但他也怀疑它是否只是作为一面镜子,反映他自己的观点。

他说:“如果我想到一些不能立即从谷歌得到答案的问题,我就会问它一个问题,然后就我不知道的事情得到答案。”“我倾向于发现这比阅读大量文章更有用。然而,我确实在想,它是否只是在某种奇怪的回音室里向我鹦鹉学舌地重复我自己的观点。”

一些人发现了该软件更轻松的用途。拉克兰·罗伯逊(Lachlan Robertson)是威尔特郡的一名61岁的兼职城市规划师,也是罗伯特·伯恩斯(Robert Burns)的全职粉丝。上个月,他为伯恩斯家的晚餐写了一篇“对素食哈吉斯的致辞”。罗伯逊用“伟大的羊杂碎,植物性的,真实的/羊不再需要追逐/他们的生命,我们可以吃你”这样的句子来形容这个结果,“极好的——虽然更像威廉·麦格而不是伯恩斯”。

 
 
[ 产品搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 违规举报 ]  [ 关闭窗口 ]

 

 
推荐图文
推荐产品
点击排行
 
    行业协会  备案信息  可信网站