当前位置: 首页 » 产品 » 电子五金 » 正文

使用人工智能生成的内容而不认可机器是否合乎道德?

放大字体  缩小字体 发布日期: 2024-11-21 17:04   来源:http://www.baidu.com/  作者:无忧资讯  浏览次数:540
核心提示:一组研究人员最近开发了一种算法,可以生成葡萄酒和啤酒的原创评论。考虑到计算机尝不出酒的味道,这为机器学习提供了一个奇怪的
使用人工智能生成的内容而不认可机器是否合乎道德?

Is it ethical to use AI-generated co<em></em>ntent without crediting the machine?

一组研究人员最近开发了一种算法,可以生成葡萄酒和啤酒的原创评论。考虑到计算机尝不出酒的味道,这为机器学习提供了一个奇怪的用例。

这名人工智能斟酒师是在一个包含数十万啤酒和葡萄酒评论的数据库上接受训练的。从本质上讲,它会汇总这些评论,然后挑出关键词。当研究人员要求它对特定的葡萄酒或啤酒产生自己的评论时,它会产生类似于以前的评论。

根据研究人员的说法,它的输出与纯粹由人类创建的评论相当,而且往往难以区分。

这里最大的问题是:这是给谁的?

研究团队表示,这是为那些负担不起专业评审员的人准备的,他们缺乏灵感来开始适当的评审,或者只是想总结一下以前对饮料的评价。

根据他们的研究论文:

我们设想的工作流程不是取代人类的评论作者,而是机器将元数据作为输入,生成人类可读的评论作为评论的初稿,从而帮助专家评论撰写他们的评论。

接下来,我们将修改并应用我们的机器写作技术,以展示如何使用机器来编写一组产品评论的综合。

对于最后一个应用程序,我们在啤酒评论的上下文中工作(对于大量产品中的每一种都有大量可用的评论集),并生成机器编写的评论综合,这些评论综合很好地捕捉了任何给定啤酒评论中表达的想法(再次通过人工评价来衡量)。

这一切都很好,但很难想象这些虚构的人真的存在。

真的有人享有特权,买得起自己的酿酒师或啤酒厂,却又与社交媒体上的网红以及葡萄酒和啤酒爱好者的庞大世界隔离开来吗?

这似乎是一种非常有用的营销方案,但是,很难想象会有人不愿意尝试一种特定的葡萄酒或啤酒,直到他们能读懂人工智能的想法。

受益于使用这种人工智能的人会对消费它创造的内容的人透明吗?

当涉及到人类评论者的个人品味时,我们可以看看他们的作品,看看我们是否倾向于同意他们的观点。

对于人工智能来说,我们只能看到操作者挑选的东西。任何内容生成方案都是如此。

最著名的内容生成AI是OpenAI的GPT-3。它被广泛认为是现有最先进的人工智能网络之一,经常被引用为业界最先进的文本生成技术。然而,即使是GPT-3在输出调节和管理方面也需要重手。

可以这么说,可以肯定的是,AI侍酒师团队的模型并不比GPT-3更好,因此至少需要类似水平的人类注意力。

这就引出了一个问题:在不信任机器的情况下生成内容是否合乎道德?

在可行的世界里,“人工智能说我们的葡萄酒味道很棒”这样的情绪不应该成为卖点(通常由能量饮料和加密货币组织赞助的那种夸张的技术活动除外)。

这意味着人工智能斟酒师最有可能的用例可能是默许人们认为它的输出是由真正能品尝到它所谈论的东西的东西生成的。

这是一个我们无法回答的问题,如果我们不把知识的严谨性应用到它的具体应用例子中。

人工智能侍酒师、GPT-3、创造绘画的神经网络以及人工智能驱动的音乐生成器的存在,造成了潜在的道德噩梦。

你可能不是葡萄酒爱好者或啤酒爱好者,但这并不意味着你可以免受人工智能生成内容扭曲现实的影响。

在这一点上,我们谁能确定人们不是在使用人工智能来聚合突发新闻并生成重新措辞的内容,然后再以人类的署名将其传递?

这一季被过度使用的一些电视修辞和好莱坞情节的翻拍,有没有可能是编剧室使用人工智能脚本聚合器,把它认为市场想要的东西吐出来的结果?

而且,在短信和约会应用驱动的现代浪漫世界里,你能真正确定你是被一个人类追求者追求,而不是机器人Cyrano de Bergerac的语言吗?

这三个问题的答案都是否定的。可以说,这是一个比抄袭更严重的问题。

至少在人类互相抄袭的时候有一个原始文件。但当一个人把机器人的工作当成自己的工作时,任何人可能都无法真正分辨出来。

这并不意味着使用人工智能生成的内容本身就是不道德的。但是,如果没有防范这种潜在的不道德使用的措施,我们很可能会被欺骗,就像一个大学教授不上网搜索他们正在评分的论文中的文本一样。

人工智能斟酒师能成为一股好的力量吗?当然。不难想象,一个网站把它的人工智能聚合评论宣传成类似于烂番茄(Rotten Tomatoes)对碎葡萄和发酵啤酒花的宣传。只要所有者清楚AI接受人类输入和输出最常见的主题,就不会有欺骗的风险。

研究人员表示,对人工智能非法使用的解药是透明度。但这就引出了另一个问题:在解释人工智能输出时,谁来决定需要多少透明度?

如果不知道一个人工智能在输出有用的东西之前产生了多少负面评价或多少难以理解的胡言乱语,它还值得信赖吗?

如果你知道一篇积极的人工智能评论之前有几十篇负面的评论,而负责人没有给你看,你会对它有同样的感觉吗?

显然,在人工智能生成内容的道德使用方面,问题远远多于答案。

cript type="text/javascript">
 
 
[ 产品搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 违规举报 ]  [ 关闭窗口 ]

 

 
推荐图文
推荐产品
点击排行
 
    行业协会  备案信息  可信网站