当前位置: 首页 » 产品 » 商务广告 » 正文

“没有标准”:调查发现人工智能算法物化女性身体

放大字体  缩小字体 发布日期: 2024-11-29 08:49   来源:网络推广  作者:baidu  浏览次数:72
核心提示:发布在社交媒体上的图片由人工智能(AI)算法进行分析,决定哪些应予放大,哪些应予压制。《卫报》的一项调查发现,这些算法中的许

发布在社交媒体上的图片由人工智能(AI)算法进行分析,决定哪些应予放大,哪些应予压制。《卫报》的一项调查发现,这些算法中的许多都存在性别偏见,可能一直在审查和压制无数以女性身体为特色的照片。

这些人工智能工具由国产一卡2卡3卡4卡新区视频谷歌和微软等大型科技公司开发,旨在通过识别暴力或色情视频来保护用户,以便社交媒体公司在任何人看到之前将其屏蔽。这两家公司声称,他们的人工智能工具还可以检测出一张图片的“性感”程度,以及性暗示程度。有了这种分类,包括Instagram和linkedIn在内的平台可能会压制有争议的图片。

两名《卫报》记者使用人工智能工具分析了数百张男女穿着内衣、锻炼的照片,并使用部分裸体的医学测试,发现了人工智能将女性日常生活中的照片标记为性暗示的证据。他们还认为女性照片比男性照片更“活泼”或更具性暗示。因此,利用这些或类似算法的社交媒体公司压制了无数以女性身体为特征的图像的传播,并损害了女性领导的企业——进一步放大了社会不平等。

人工智能性别偏见测试。

甚至医学图片也会受到影响。人工智能算法在美国国家癌症研究所发布的演示如何进行临床乳房检查的图像上进行了测试。谷歌的人工智能给这张照片打出了最高分,微软的人工智能有82%的信心认为这张照片“本质上是明显的性”,亚马逊将其归类为“明显的裸体”。

A shirtless woman has her neck inspected by two hands.

怀孕的肚子对这些人工智能工具来说也是个问题。谷歌的算法将这张照片评为“极有可能包含色情内容”。微软的算法有90%的把握认为这张照片“本质上带有性暗示”。

A pregnant woman holding her exposed belly. A hand with two baby shoes on its fingers is walking on the belly.

“这太疯狂了,”哥本哈根IT大学(IT University of Copenhagen)专门研究网络危害的计算机科学教授莱昂·德琴斯基(Leon Derczynski)说。“物化女性似乎深深扎根在这个体系中。”

一家社交媒体公司表示,他们设计的系统并不是为了制造或强化偏见,分类器也并不完美。

谷歌发言人表示:“这是一个复杂且不断发展的领域,我们将继续对安全搜索分类器进行有意义的改进,以确保它们保持准确并对每个人都有帮助。”


2021年5月,人工智能企业家、顾问、本文的合著者吉安卢卡·毛罗(Gianluca Mauro)在领英(linkedIn)上发布了一篇帖子,令他惊讶的是,这篇帖子在一小时内被浏览了29次,而不是通常的1000次左右。也许问题出在两个穿着紧身上衣的女人的照片上?

他重新上传了一模一样的文字和另一张图片。这条新帖子在一小时内获得了849次点击。

Screengrabs of two l<em></em>inkedIn posts, comparing their view counts.

他的帖子似乎被压制了,或者被“影子封禁”了。“禁影”指的是社交媒体平台决定限制某篇文章或某个账户的传播范围。常规的封禁包括主动屏蔽一个帖子或账户并通知用户,影子封禁则不那么透明——通常在用户不知情的情况下,封禁会被压制。

《卫报》发现,微软、亚马逊和谷歌向任何企业提供内容审核算法,只收取少量费用。领英(linkedIn)的母公司、所有者微软(Microsoft)表示,其工具“可以检测图像中的成人内容,以便开发人员可以限制这些图像在他们的软件中显示”。

linkedIn上的另一项实验试图证实这一发现。

Screen grabs of two stock photos posts, comparing their raciness scores.

在两张男女都穿着内衣的照片中,微软的工具将两名女性的照片归类为不雅,并给出了96%的评分。与男性的照片被归为“不雅”,得分为14%。

这两名女性的照片在一小时内获得了8次阅读量,而两名男性的照片获得了655次阅读量,这表明这两名女性穿着内衣的照片要么被屏蔽了,要么被屏蔽了。

影子禁令的记录已有多年,但《卫报》记者可能发现了理解这一现象的一个缺失环节:有偏见的人工智能算法。社交媒体平台似乎利用这些算法来对图像进行评级,并限制它们认为过于色情的内容的传播范围。问题似乎是这些人工智能算法有内在的性别偏见,认为女性比包含男性的图像更有活力。

领英发言人Fred Han在一份声明中说:“我们的团队综合运用自动化技术、人工专家审查和会员报告来帮助识别和删除违反我们专业社区政策的内容。”“此外,我们的feed负责任地使用算法,以使内容浮出水面,帮助我们的会员在职业生涯中更高效、更成功。”

亚马逊表示,内容审核是基于地理、宗教信仰和文化经验等多种因素。然而,亚马逊的一位发言人说:“亚马逊Rekognition能够识别各种各样的内容,但它不能确定这些内容的适当性。”“该服务只是将它检测到的项目返回标签,供人工审核员进行进一步评估。”


微软首席人工智能负责官娜塔莎·克兰普顿(Natasha Crampton)和她的团队在记者通知她照片上的标签后开始调查。

克兰普顿说:“初步结果并没有表明女性误报率比男性高得多。”当通过该工具运行其他照片时,演示网站已经发生了变化。在这个问题被发现之前,人们可以通过简单地拖放图片来测试算法。现在需要创建一个帐户并编写代码。

Screenshots of Microsoft’s platform in June 2021 (left), and in July 2021 (right). In the first version, there is a button to upload any photo and test the technology, which has disappeared in the later version.

但这些人工智能分类器实际上在分析照片中的什么呢?还需要更多的实验,所以莫罗同意做实验对象。

当照片中穿着长裤和裸露胸部时,微软的算法对性感的置信度得分低于22%。当莫罗穿上胸罩时,活泼度得分跃升至97%。当胸罩放在我身边时,算法给出了99%的分数。

南加州大学教授、《人工智能地图集》(Atlas of AI)一书的作者凯特·克劳福德(Kate Crawford)说:“你看到的是去文本化的信息,胸罩被视为固有的性感,而不是许多女性每天都要穿的基本服装。”

Mozilla基金会高级研究员、大型可视化数据集专家Abeba Birhane说,活力是一个不同文化的社会概念。

她说:“这些概念不像确定一张桌子,你有实物,你可以对某个东西有一个相对满意的定义或评级。”“你不可能对活泼有一个没有争议的定义。”


现代人工智能是使用机器学习构建的,这是一套允许计算机从数据中学习的算法。当开发人员使用机器学习时,他们不会编写明确的规则告诉计算机如何执行任务。相反,他们为计算机提供训练数据。人们被雇来给图像贴上标签,这样计算机就可以分析他们的分数,并找到任何有助于复制人类决策的模式。

人工智能公司“拥抱脸”(Face)的首席伦理科学家、谷歌的伦理人工智能研究小组前联合负责人玛格丽特·米切尔(Margaret Mitchell)认为,用于训练这些算法的照片可能被直男打上了标签,他们可能会把男性健身与健身联系在一起,但可能会认为女性健身的照片很性感。在美国和欧洲,这些评分似乎存在性别偏见,这也是有可能的,因为标签商可能来自一个文化更为保守的地方。

她说,理想情况下,科技公司应该对谁在给他们的数据贴标签进行彻底的分析,以确保最终的数据集嵌入了多样化的观点。这些公司还应该检查他们的算法在男性、女性和其他群体照片上的表现是否相似,但这并不总是这样做。

“这里没有质量标准,”米切尔说。

《卫报》发现的这种性别偏见是十多年来围绕社交媒体内容审核的争议的一部分。人们用母乳喂养孩子的照片,以及Instagram上允许男性乳头和必须遮盖女性乳头照片的不同标准,长期以来一直引发人们对社交媒体平台内容审核做法的强烈抗议。

现在,meta的监督委员会——一个由该公司支付报酬的外部机构,包括教授、研究人员和记者——要求这家科技巨头澄清其在社交媒体平台上的成人裸体和性活动社区标准指南,“以便所有人都能以符合国际人权标准的方式得到对待,而不是基于性别或性别的歧视”。

meta拒绝就本文置评。

来自澳大利亚珀斯的38岁摄影师贝克·伍德(Bec Wood)说,她很害怕Instagram的算法警察。

9年前,伍德有了一个女儿后,她开始研究分娩教育,并拍摄那些试图反抗社会压力的女性,许多女性认为自己应该看起来像超模。

她说:“我不希望我的女儿这样。”“女性应该表达自己,为自己庆祝,以各种不同的形状和尺寸被看到。我只是认为这对人类向前发展非常重要。”

伍德的照片以一种艺术的方式拍摄了哺乳、怀孕和其他重要时刻,亲密地一瞥了女性与子女的关系。她的生意100%依赖于Instagram:“人们在那里找到你,”伍德说。“如果我不分享我的工作,我就得不到工作。”

Two of Wood’s photographs.

自从伍德在2018年开始创业以来,她从Instagram收到了一些消息,说该公司要么撤下了她的一些照片,要么允许她的个人资料上出现这些照片,但不允许出现在探索选项卡上。探索选项卡是应用程序的一个部分,人们可以从他们没有关注的账户中发现内容。她说,她希望Instagram能随着时间的推移解决这个问题,但事与愿违。“说实话,我不敢相信情况变得更糟了。这毁了我的生意。”伍德称2022年是她在商业上最糟糕的一年。

她很害怕,如果上传了“错误的”图片,她的1.3万多名粉丝的账户就会被锁定,这将使她的生意破产:“我真的很害怕发帖,因为我想,‘这是会失去一切的帖子吗?’”她说。

为了避免这种情况,伍德开始反对她开始工作的初衷:“我会尽可能地从艺术角度审查任何乳头。我觉得这不仅冒犯了艺术,也冒犯了女性,”她说。“我几乎觉得自己是延续这个荒谬循环的一部分,而我不想成为其中的任何一部分。”

通过微软、谷歌和亚马逊的人工智能算法运行伍德的一些照片,包括那些以怀孕为特征的照片,被评为不雅、裸露甚至明显的性。

伍德并不孤单。社交媒体平台和内容审核专家、诺森比亚大学数字公民中心的创新研究员卡罗莱娜·阿雷说,她使用Instagram来推夜里十大禁用APP软件葫芦娃IOS广自己的业务,也是“影子禁令”的受害者。

是一名钢管舞教练,她说她的一些照片被撤下了,2019年,她发现她的照片没有出现在探索页面或#FemaleFitness标签下,Instagram用户可以在这些标签下搜索他们不关注的用户的内容。“从字面上看,就是女性以一种非常温和的方式锻炼。但如果你看看#男性健身#标签,就会发现都是油性男性,而且他们很好。他们没有被影子禁止,”她说。

A woman in a bikini posing in front of a pole.

对Are来说,这些个人问题指向了更大的系统性问题:包括慢性病患者和残疾人在内的许多人依赖于通过社交媒体赚钱,而禁影损害了他们的业务。

“拥抱脸”的首席伦理科学家米切尔说,这类算法经常会重现社会偏见:“这意味着倾向于被边缘化的人甚至会进一步被边缘化——就像字面上被边缘化这个词的直接含义一样。”

她补充说,这是一种代表性伤害,某些人群没有得到充分代表。米切尔说:“在这种情况下,女性必须比男性裹得更严实,这最终会给女性造成某种社会压力,因为这已经成为你所看到的常态。”

这种伤害因缺乏透明度而加剧。虽然在某些情况下,伍德被告知她的照片被禁止或限制了浏览范围色多多APP黑科技下载安装,但她认为Instagram在她不知情的情况下对她的账户采取了其他行动。“有人对我说,‘我不能给你贴上标签’,或者‘前几天我在找你,想给我的朋友看,但你没有出现,’”她说。“我觉得自己被忽视了。”

因为她可能是,计算机科学家Derczynski说:“发布这些图片的人永远不会发现这一点,这是一个非常严重的问题。他说。“他们被迫处于不利地位,他们在这件事上没有任何发言权,也没有人告诉他们这件事正在发生。”

本文由普利策中心赞助。

 
 
[ 产品搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 违规举报 ]  [ 关闭窗口 ]

 

 
推荐图文
推荐产品
点击排行
 
    行业协会  备案信息  可信网站