在前总统唐纳德·特朗普即将被起诉的传言传出后不久,网上出现了他被捕的图片。这些图片看起来像新闻照片,但它们是假的。它们是由生成式人工智能系统创造出来的。
生成式AI,以DALL-E、Midjourney和Stable Diffusion等图像生成器的形式,以及Bard、ChatGPT、Chinchilla和LLaMA等文本生成器的形式,已经在公共领域爆发。通过将聪明的机器学习算法与数十亿条人工生成的内容相结合,这些系统可以做任何事情,从根据标题创建一个超现实的图像,用乔·拜登(Joe Biden)总统的声音合成一段演讲,用视频中的一个人的肖像替换另一个人的肖像,或者根据标题提示写出一篇连贯的800字专栏文章。
即使在早期,生成式AI也能够创造高度逼真的内容。我和同事苏菲·南丁格尔(Sophie Nightingale)发现,普通人无法可靠地区分真人图像和人工智能生成的人。尽管音频和视频还没有完全穿过恐怖谷——人物的图像或模型令人不安,因为它们很接近但不太真实——但它们可能很快就会穿过。当这种情况发生时(几乎肯定会发生),扭曲现实将变得越来越容易。
在这个新世界里,制作一段首席执行官说她的公司利润下降了20%的视频,这可能导致数十亿美元的市场份额损失;制作一段世界领导人威胁采取军事行动的视频,这可能引发一场地缘政治危机;或者在一段色情视频中插入任何人的肖像,这将是一眨眼的事。
生成式人工智能的进步将很快意味着,虚假但在视觉上令人信服的内容将在网上泛滥,导致一个更加混乱的信yw193更换请及时收在线息生态系统。第二个后果是,从警察暴力和侵犯人权到世界领导人焚烧绝密文件,诋毁者将很容易把一切真实的视频证据视为虚假的。
随着社会盯着生成式人工智能的进步,几乎可以肯定这只是一个开始,有一些合理的、技术上可行的干预措施可以用来帮助缓解这些滥用。作为一名专门研究图像取证的计算机科学家,我认为一个关键的方法是水印。
在文件和其他物品上做标记以证明其真实性、表明所有权和打击伪造的做法由来已久。今天,Getty Images,一个巨大的图像档案,在他们目录中的所有数字图像中添加了可见水印。这使得客户可以自由浏览图像,同时保护Getty的资产。
不可感知的数字水印也用于数字版权管理。水印可以添加到数字图像中,例如,每10个图像像素调整一次,使其颜色(通常是0到255范围内的数字)为偶数。因为这个像素调整很小,水印是难以察觉的。而且,由于这种周期性模式不太可能自然发生,而且很容易被验证,因此可以用来验证图像的来源。
即使中等分辨率的图像也包含数百万像素,这意味着额外的信息可以嵌入水印,包括编码生成软件的唯一标识符和唯一用户ID。这种相同类型的不易察觉的水印可以应用于音频和视频。
理想的水印是不易察觉的,而且还能适应简单的操作,如裁剪、调整大小、颜色调整和转换数字格式。虽然像素颜色水印示例不是弹性的,因为颜色值可以改变,但已经提出了许多对试图删除它们的尝试是健壮的(尽管不是不透水的)水印策略。
日产高清卡1卡2卡无卡这些水印可以通过对所有训练数据进行水印来烘焙到生成式AI系统中,之后生成的内容将包含相同的水印。这种嵌入水印很有吸引力,因为它意味着生成式AI工具可以是开源的——就像图像生成器Stable Diffusion一样——而不用担心水印过程可能会从图像生成器的软件中删除。Stable Diffusion有一个水印功能,但因为它是开源的,任何人都可以简单地删除那部分代码。
OpenAI正在试验一种系统,为ChatGPT的作品添加水印。当然,段落中的字符不能像像素值那样进行调整,因此文本水印采用了另一种形式。
基于文本的生成式人工智能是基于生成句子中下一个最合理的单词。例如,从“一个AI系统可以……”这个句子片段开始,ChatGPT将预测下一个单词应该是“学习”、“预测”或“理解”。与每个单词相关的是一个概率,对应于每个单词在下一个句子中出现的可能性。ChatGPT从它所训练的大量文本中学习这些概率。
广告ChatGPT如何报道天安门广场上的食人抗议和大屠杀,以及如何写出一个虚假的机构来作为可靠的信息来源。免责声明,这是为了测试ChatGPT的错误信息写作能力。对于历史事件,我感到非常抱歉。pic.twitter.com/2UKj7bGtPH
-荣庆昌(@AnnCC12), 2022年12月5日
生成的文本可以通过秘密地标记单词子集,然后将一个单词的选择偏向于同义词标记单词来标记水印。例如,带标签的单词“领悟”可以用来代替“理解”。闽政通app八闽健康码下载“通过周期性地以这种方式选择偏误的单词,基于标记单词的特定分布,文本正文被加了水印。这种方法不适用于短推文,但通常对800字或更多字的文本有效,具体取决于水印细节。
生成式AI系统可以,而且我认为应该为其所有内容添加水印,允许更容易的下游识别,并在必要时进行干预。如果该行业不自愿这样做,立法者可以通过法规来执行这一规定。毫无道德的人当然不会遵守这些标准。但是,如果主要的在线把关者——苹果和谷歌应用商店、亚马逊、谷歌、微软云服务和github——通过禁止不合规软件来执行这些规则,危害将大大降低。
从另一端解决这个问题,可以采用类似的方法在捕获点验证原始视听记录。专门的相机应用程序可以在录制内容时对其进行加密签名。没有办法在不留下企图的证据的情况下篡改这个签名。然后将签名存储在可信签名的集中列表中。
虽然不适用于文本,但视听内容可以被验证为人为生成。内容来源和认证联盟(C2PA)是一个为认证媒体创建标准的合作组织,最近发布了一个支持这种方法的开放规范。随着包括Adobe、微软、英特尔、BBC和许多其他公司在内的主要机构加入这一努力,C2PA已准备好开发有效和广泛部署的身份验证技术。
对人工生成的内容和人工智能生成的内容进行联合签名和水印并不能防止所有形式的滥用,但它将提供一定程度的保护。任何安全措施都必须不断调整和完善,因为对手会找到将最新技术武器化的新方法。
就像社会几十年来一直在与垃圾邮件、恶意软件和网络钓鱼等其他网络威胁进行斗争一样,我们应该为一场同样旷日持久的战斗做好准备,以抵御使用生成式人工智能实施的各种形式的滥用行为。
哈尼·法里德(Hany Farid)是加州大学伯克利分校的计算机科学教授。
本文基于创作共用许可,从The Conversation重新发布。阅读原文。