关于像ChatGPT这样的人工智能(AI)系统的用途的谣言和歇斯底里的情绪正在流行。康涅狄格州参议员克里斯·墨菲(Chris Murphy)最近对OpenAI创建的搜索机器人表示了无知和恐惧。“ChatGPT自学了高级化学。它并没有被内置到模型中。没人给它编程让它学习复杂的化学。它决定自学,然后把它的知识提供给任何提出要求的人。有东西来了。我们还没准备好。”
梅勒妮·米切尔(Melanie Mitchell)是一位对该领域略知一二的学者,她对此感到困惑,并在twitter上发了同样多的帖子。“参议员,我是一名人工智能研究员。你对ChatGPT的描述是危险的错误。每句话都不对。我希望你能更多地了解这个系统是如何工作的,它是如何训练的,以及它的局限性是什么。”
墨菲愤怒地反驳说,他说的不是那个意思。“当然,我知道人工智能不会像人类一样‘学习’或‘自我教育’。我在用速记。”他认为,这些批评的目的是“在我们不使用行业使用的术语时,通过嘲笑我们,迫使政策制定者远离监管新技术”。
就像物以类聚一样,墨菲的介入伴随着生命未来研究所自己以公开信的形式做出的贡献。该文件提出了许多预计会出现的主张,这些主张来自一个警告过超级智能人工智能系统风险的机构。实际上,成千上万的人在数字上把自己的名字借给了它,包括埃隆·马斯克(这里有一个警告)和苹果公司联合创始人史蒂夫·沃兹尼亚克等科技名人。(目前,签名人数为27567人。)
这封信呼吁,人类有必要暂停六个月,以评估人工智能的影响。“我们是否应该开发出最终可能在数量上、智慧上超过我们、被淘汰并取代我们的非人类思维?”我们是否应该冒着失去对文明控制的风险。这样的决定绝不能委托给未经选举的技术领导者。”报告还强调:“只有在我们确信它们的影响是积极的、风险是可控的情况下,才应该开发强大的人工智能系统。”
《信》平淡无奇,笨拙笨拙,在努力制造焦虑方面表现得很明显。虽然关于人工智能发展方式的讨论有很多可说的,但人们必须问,这种请求来自哪里。当亿万富翁要求停止技术实践时,怀疑应该开始触动良心。突然之间,这些声音要求透明度、问责制和公开性,而这些正是他们在赚钱过程中一直回避的东西。谁是未经选举的科技领袖呢?
至于焦虑的程度,有权有势的富人总是会有大量的焦虑。如果说他们真的想和我们分享一样东西——把焦虑称为社会主义——那就是他们自己的恐惧放大了,并像我们的恐惧一样传播开来。人工智能是一个完美的渠道,它既是希望,也是恐惧,因此需要严格控制。印度记者兼作家马努·约瑟夫(Manu Joseph)若有所思地说:“唯一能压迫美国亿万富翁的是疾病、叛乱、外星人和超自然机器,这就是他们倾向于夸大危险的原因。”
对于米切尔来说,作者和支持者已经接受了人类在面对人工智能时过于悲观的困境。“人类,”她在本月早些时候写道,“不断面临着过度拟人化、过度信任这些系统的风险,在根本不存在的情况下,把代理归于它们。”
对那些不安的恐慌制造者来说,这个有用的前提有两个必然结果:面对创新,试图阻止此类体系不断变化的本质;还有销售因素。“公众对人工智能的恐惧实际上对销售人工智能的科技公司很有用,因为恐惧的另一面是,人们相信这些系统真的很强大,大公司不采用它们是愚蠢的。”
技术领域的暂停往往是注定失败的冒险。人类渴望发明哪怕是最愚蠢的设备,这是普罗米修斯传说中的东西。例如,想想关于美国是否应该开发一种比原子弹更具破坏性的武器的辩论。当时的恐惧是,不信神的苏联人可能会获得一枚超级炸弹,一种基于核聚变而非裂变的肌肉怪物。
1950年4月14日,美国总统哈里·杜鲁门收到了一份影响深远的文件,在这份文件中,人们普遍担心会有这样的发现。这份报告由美国国务院政策规划办公室的保罗·尼采(Paul Nitze)撰写,警告称“苏联可能拥有的裂变炸弹能力和可能拥有的热核炸弹能力大大加剧了苏联对美国安全的威胁。”这种恐惧的结果就是氢弹。
该领域较为冷静的实用主义者承认,就像DAIR研究所网站上发表的《随机鹦鹉》一书的作者(包括米切尔)所列的那样,人工智能带来的危害存在“真实和当前的危险”,但这被“个人和企业部署自动化系统的行为”所限制。监管工作应侧重于透明度、问责制和防止剥削劳工的做法。”
米切尔建议,也许我们应该致力于类似于“密集研究的曼哈顿计划”,涵盖“人工智能的能力、局限性、可信度和可解释性,调查和结果对任何人开放”。这绝不是一个不明智的建议,除非最初的曼哈顿计划(Manhattan Project)在第二次世界大战期间致力于制造第一颗原子弹,它本身就是一场竞争,以确保纳粹德国不会抢先到达那里。