当前位置: 首页 » 产品 » 母婴用品 » 正文

人工智能色情片现在很容易制作对女性来说,这是一场噩梦

放大字体  缩小字体 发布日期: 2024-09-26 00:33   来源:http://www.baidu.com/  作者:无忧资讯  浏览次数:26
核心提示:主播通常不会透露自己的真实姓名,而是使用他们的昵称。QTCinderella没有回应单独的置评请求。她在直播中指出,处理这一事件已经

主播通常不会透露自己的真实姓名,而是使用他们的昵称。QTCinderella没有回应单独的置评请求。她在直播中指出,处理这一事件已经“筋疲力尽”,不应该成为她工作的一部分。

直到最近,制作逼真的人工智能色情片还需要计算机专业知识。现在,部分得益于易于使用的新型人工智能工具,任何人都可以使用人工智能生成的身体创建看起来逼真的显式内容。虐待专家表示,骚扰和勒索事件可能会增加,因为不良行为者使用人工智能模型来羞辱从名人到前女友,甚至是儿童的目标。

她们说,女性几乎没有办法保护自己,受害者也几乎没有追索权。

根据人工智能公司DeepTrace Technologies的一项分析,截至2019年,互联网上96%的深度造假作品都是色情作品,几乎所有的色情深度造假作品都描绘了女性。法学教授、网络滥用问题专家丹妮尔·西特隆(Danielle Citron)说,自那以后,深度造假的存在迅速膨胀,而执法部门和教育工作者的反应却滞后。美国只有三个州有针对深度造假色情的法律。

“这是一个普遍存在的问题,”香橼表示。“尽管如此,我们发布了新的、不同的(人工智能)工具,却没有考虑到社会实践,以及它将如何被使用。”

研究实验室OpenAI在2022年向公众开放其旗舰图像生成模型Dall-E,引起了轰动,引发了对错误信息、版权和偏见的喜悦和担忧。竞争对手Midjourney和Stable Diffusion紧随其后,后者的代码可供任何人下载和修改。

滥用者不需要强大的机器学习来制造深度造假:苹果和谷歌应用商店中提供的“换脸”应用程序已经让制作这些应用程序变得很容易。但最新的人工智能浪潮让深度造假变得更容易获得,而且这些模特可能会以新奇的方式对女性怀有敌意。

加州大学伯克利分校(University of California at Berkeley)专门研究数字图像分析的教授哈尼·法里德(Hany Farid)说,由于这些模型通过从互联网上摄取数十亿张图像来学习该做什么,它们可以反映社会偏见,默认情况下会将女性图像性感化。随着人工智能生成图像的改进,推特用户质疑这些图像是否会对双方自愿制作的成人内容构成经济威胁,比如表演者自愿展示身体或表演性行为的“粉丝”服务。

与此同时,人工智能公司继续遵循硅谷“快速行动,打破陈规”的精神,选择在出现问题时解决问题。

法里德说:“开发这些技术的人没有从女性的角度考虑问题,她们是非自愿色情片的受害者,或在网上遭受过骚扰。”“你有一群白人坐在一起,好像在说‘嘿,看这个’。”

南加州大学凯克人权诊所法医心理健康主任克里斯汀·扎莱斯基说,人们未经你的同意就观看你的露骨照片——无论这些照片是真的还是假的——都是一种性暴力。她说,受害者往往会受到雇主和社区的评判和困惑。比如,扎勒斯基说,她已经与一位小镇教师合作过,这位教师的父母在得知未经她同意就用她的肖像制作人工智能色情片后,失去了工作。

扎勒斯基说:“学校的家长不明白这怎么可能。”“他们坚持不希望自己的孩子再由她来教。”

深度赝品供应的增长是由需求驱动的:独立研究员吉纳维芙·欧(Genevieve Oh)说,尤因道歉后,存放深度赝品的网站流量激增,导致该网站多次崩溃。她说,从2021年到2022年,随着人工智能成像工具的激增,该网站上的新视频数量几乎翻了一番。Oh发现,Deepfake的创造者和应用程序开发人员都通过收取订阅费用或征求捐款来从这些内容中赚钱,Reddit多次举办专门寻找新的Deepfake工具和存储库的帖子。

当被问及为什么不总是及时删除这些帖子时,Reddit的一位发言人表示,该平台正在努力改进其检测系统。她说:“Reddit是最早制定禁止此类内容的全站政策的网站之一,我们将继续完善我们的政策,以确保平台的安全。”

香橼表示,机器学习模型还可以吐出描述虐待儿童或强奸的图像,由于在制作过程中没有人受到伤害,因此这些内容不会违反任何法律。但这些图片的可用性可能会助长现实生活中的受害者,Zaleski说。

一些生成图像模型,包括Dall-E,带有边界,使得创建显式图像变得困难。Dall-E首席研究员Aditya Ramesh告诉《华盛顿邮报》,OpenAI将Dall-E训练数据中的裸体图像最小化,阻止人们输入某些请求,并在将输出显示给用户之前扫描输出。

创始人大卫·霍尔茨(David Holz)说,另一种模式Midjourney结合了屏蔽词和人类节制。他说,该公司计划在未来几周推出更先进的过滤技术,以更好地解释词语的上下文。

Stable Diffusion模型的制造商Stability AI的创始人兼首席执行官Emad Mostaque表示,他们在最近发布的训练数据中不再包含色情内容,这大大减少了偏见和性内容。

但用户很快就找到了变通办法,他们下载了Stable Diffusion公开代码的修改版本,或者找到了提供类似功能的网站。

伯克利大学的法里德说,没有什么护栏能百分百有效地控制模型的输出。人工智能模型用性感的姿势和表情来描绘女性,因为网络是他们训练数据的来源,而不管裸体和其他露骨的图像是否被过滤掉。

例如,去年11月登上应用程序排行榜榜首的应用程序Lensa可以生成人工智能生成的自画像。许多女性表示,这款应用让她们的照片变得性感,让她们的胸部更大,或者把她们描绘成光着膀子的样子。

来自洛杉矶的29岁的劳伦·古铁雷斯(Lauren Gutierrez)去年12月试用了Lensa,她说她给它输入了自己的公开照片,比如她在linkedIn上的头像。接着,Lensa渲染了多张裸照。

古铁雷斯说,她一开始感到很惊讶。然后她感到紧张。

“几乎让人觉得毛骨悚然,”她说。“就像一个男人把他在网上找到的一个女人的照片放到这个应用程序里,就能想象出她裸体的样子。”

对于大多数人来说,为了避免人工智能滥用的风险而从互联网上消失是不现实的。相反,专家敦促你避免观看未经双方同意的性内容,并熟悉它对受害者的心理健康、职业生涯和人际关系的影响。

他们还建议和你的孩子谈谈“数字同意”。人们有权控制谁能看到自己身体的照片——不管是真实的还是假的。

阅读更多

这些研究人员希望从月球发射尘埃来帮助地球降温

最高法院的法官们进行了讨论,但没有就行为准则达成一致

白人蜂拥回到市中心,并改变了这些城市

订阅《华盛顿邮报》关于《华盛顿邮报》最重要和最有趣故事的时事通讯。

cript type="text/javascript">
 
 
[ 产品搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 违规举报 ]  [ 关闭窗口 ]

 

 
推荐图文
推荐产品
点击排行
 
    行业协会  备案信息  可信网站