这款免费软件是最近几个月大量使用的人工智能程序之一,用户只需几句指令,就能在几秒钟内创作出计算机生成的艺术作品。今年,教皇方济各身着亮白色羽绒服的逼真图像和唐纳德·特朗普被捕的明显照片被制作出来并在网上传播。
虽然这些病毒式传播的图片很有趣,但图像创造人工智能也被那些怀有更黑暗动机的人所利用。
荷兰调查人员和研究员亨克·范·埃斯(Henk Van Ess)表示,Openjourney似乎已经被恋童癖者用来制作非法虐待儿童的图片。
Van Ess表示,在研究人工智能软件时,他在一个在线论坛上偶然发现了非法材料,其中包括由该软件创建的滚动图片。
“我是两个孩子的父亲,我的孩子可以使用这个工具,你可以输入可怕的东西,没有限制,”他说。
人工智能领导者上周警告称,他们帮助创造的技术有可能引发人类“灭绝”,应被视为与核战争同等级别的威胁。苏纳克(Rishi Sunak)将在本周的白宫之行中提出这些关乎生死存亡的问题。
今天,这些警告仍然是假设。儿童安全活动人士担心,他们会分散人们对这项技术今天可能造成的真正危害的注意力。
“当我们关注这些风险时,我们并没有考虑人工智能技术可以用来扩展和加剧我们今天看到的现实世界风险的方式,比如性虐待,”在线安全顾问、NSPCC前儿童安全负责人安迪·巴罗斯(Andy Burrows)说。
“相反,我们被长期影响分散了注意力,这意味着历史正在重演,我们正在从目前对儿童的风险没有得到适当解决的技术转向那些风险急剧增加的新技术。”
巴罗斯表示,恋童癖者已经在利用生成式人工智能系统的迅速崛起,例如,利用该软件自动进行在线梳理对话,或者通过制作有害的假录音来勒索儿童。
然而,最令人担忧的是,图像生成工具将导致虐待儿童图像的工业化生产,从而压倒了打击它的努力。恋童癖者经常利用新技术,从端到端加密到文件共享和社交媒体,人工智能可能也不例外。
人工智能生成的图片通常与真实照片几乎无法区分。制作或拥有电脑生成的色情图片同样是非法的。
上周,互联网观察基金会(Internet Watch Foundation)的丹?塞克斯顿(Dan Sexton)警告称,大规模生产可能会让调查人员淹没在人为模拟的虐待图片中,而无法识别真正的受害者。互联网观察基金会是英国举报虐待儿童图片的热线。
他说:“如果儿童性虐待的人工智能图像确实与真实图像无法区分,那么IWF的分析师可能会浪费宝贵的时间来试图识别并帮助执法部门保护不存在的儿童,从而损害真正的受害者。”
映像生成工具的构建并非没有保障措施。主要的工具,如由伦敦的稳定人工智能运营的稳定扩散,已经禁止了数千个与制作非法内容有关的关键词,并打击了色情内容。
“在过去的七个月里,Stability AI已经采取了许多措施来显著降低我们模型中暴露于NSFW(不安全的工作)内容的风险。这些保障措施包括开发nsfw内容检测技术,以从我们的培训数据中屏蔽不安全和不适当的材料。”
“稳定人工智能严格禁止在我们的平台上出于非法或不道德的目的滥用任何东西,我们的政策明确规定这包括(儿童性虐待材料)。”
然而,技术的快速进步导致了不引入此类控制的DIY替代品的激增。Van Ess说,由promptHero网站开发人员创建的Openjourney几乎没有这样的限制。网站所有者哈维·拉米雷斯(Javi Ramirez)和哈维尔·鲁埃达(Javier Rueda)没有回应电子邮件和其他置评请求。
许多软件开发人员开放了他们的代码,这意味着他们免费发布代码,以鼓励人们发现错误或潜在的改进。
然而,它可以很容易地下载和编辑,这意味着工具可能会被改造,专注于创建非法内容。
艾伦图灵研究所(Alan Turing Institute)的迈克尔?伍尔德里奇(Michael Wooldridge)表示:“如果人们还没有开始明确尝试建立模型来做这类事情,那将是很短的一段时间。”阿兰图灵研究所是英国数据科学和人工智能的主要组织。
“如果你可以在客厅里做这件事,那么我认为我们可能会看到这类东西的爆炸式增长。”
研究人员还警告说,用于训练图像生成系统的数十亿张图像中,可能包括网络上的虐待儿童材料。制作人工智能数据集的德国非营利组织LAION最近删除了一个链接,该链接的元数据显示它含有虐待儿童的图像。这张图片的描述是葡萄牙语的,这意味着识别非法内容的英语工具无法识别它。
LAION表示,目前没有证据表明这个已下线的链接包含虐待儿童的内容,也没有收到其他案件的报告,但它表示,它已经修改了过滤工具,纳入了其他语言。
加州大学伯克利分校信息学院(UC Berkeley School of Information)的哈尼·法里德(Hany Farid)专门研究数字处理图像的检测,他说:“这些数据集的工作方式是,你不分青红皂白地从网上抓取数据,有时是合法的,有时是非法的。”“没有人会去看50亿张图片。”
一位网络安全主管表示,人工智能生成的虐待儿童材料几乎不可能在网上追踪。虽然社交网络已经成功地利用人工智能来检测恐怖主义宣传等非法内容,但对儿童图像做同样的事情却很困难。
由于存储虐待儿童的图像是非法的,由于没有数据集可供参考,程序无法轻易地合法地用于发现冒犯性材料。
广泛使用的替代方案——用于识别已被报道的虐待儿童图像的数字信号数据库——对新创建的图像毫无用处。
英国国家犯罪局(National Crime Agency)表示,正考虑与互联网公司合作解决这个问题。
科技巨头可能很快就会面临更强的激励措施。多年来一直在推动加强儿童保护的跨席位议员Baroness Kidron正在提议对政府的网络安全法案进行修订,以确保它涵盖人工智能生成的内容,这意味着对处理这些内容但未能打击违法内容的网站进行更大的惩罚。
然而,人工智能的发展速度意味着,在制定法律来阻止它之前,它就已经被使用了。犯罪分子利用技术的速度往往快于当局的反应速度。可悲的是,人工智能可能也不例外。