乔治·西门子教授是南澳大利亚大学学习变化与复杂性研究中心的联合主任。
观点:最近公众对ChatGPT等工具的兴趣在人工智能领域提出了一个老问题:人工通用智能(在这种情况下,表现在人类水平的AI)是可以实现的吗?
本周的一份在线预印本增加了炒作,表明最新的高级大型语言模型GPT-4正处于人工通用智能(AGI)的早期阶段,因为它展示了“智能的火花”。
ChatGPT背后的OpenAI公司毫不掩饰地宣布了对AGI的追求。与此同时,大量研究人员和公共知识分子呼吁立即停止这些模型的开发,称其“给社会和人类带来了深刻的风险”。这些要求暂停人工智能研究的呼声是夸张的,不太可能成功——先进智能的诱惑太过挑衅,人类无法忽视,而公司也无法暂停。
但对AGI的担忧和希望是有根据的吗?GPT-4,以及更广泛的人工智能,与一般人类智能有多接近?
如果人类的认知能力是一个景观,那么人工智能确实越来越多地占据了这一领域的大片区域。在视觉、图像识别、推理、阅读理解和玩游戏等领域,它现在可以比人类更好地完成许多独立的认知任务。这些人工智能技能可能会在不到十年的时间里导致全球劳动力市场的戏剧性重组。
但至少有两种方式来看待AGI问题。
首先,随着时间的推移,人工智能将开发出与人类相匹配的学习技能和能力,并达到AGI水平。人们的期望是,人类持续发展、学习和将学习从一个领域转移到另一个领域的独特能力最终将被人工智能复制。这与目前的人工智能形成对比,后者在一个领域接受训练,例如在医学图像中检测癌症,不会转移到其他领域。
因此,许多人担心,在某个时刻,人工智能将超过人类的智力,然后迅速盖过我们的风头,让我们在未来的人工智能面前,就像现在的蚂蚁在我们面前一样。
几位哲学家和研究人员对AGI的合理性提出了质疑,他们指出,当前的模型在很大程度上对输出一无所知(也就是说,它们不了解它们正在产生什么)。它们也没有实现意识的前景,因为它们主要是预测——自动预测文本或其他输出中接下来应该发生的事情。
最近人们对ChatGPT等工具的兴趣引发了人工智能社区的一个老问题:人工智能是否可以达到人类的水平?
这些模型不是智能的,而是简单地重组和复制它们训练过的数据。意识,生命的本质,缺失了。即使AI基础模型继续进步并完成更复杂的任务,也不能保证意识或AGI会出现。如果它真的出现了,我们该如何识别它?
ChatGPT和GPT-4在掌握某些任务(如律师资格考试和学术奥林匹克竞赛)方面的能力与人类一样有用,甚至比人类更好,这给人的印象是AGI已经近在咫尺。每款新车型的快速性能提升都证实了这一观点。
毫无疑问,现在人工智能在许多个人认知任务上胜过人类。越来越多的证据表明,与人工智能互动的最佳模式很可能是人/机器配对模式——我们自己的智能得到增强,而不是被人工智能取代。
这种配对的迹象已经出现,有消息称将有工作副驾驶和AI配对程序员编写代码。人工智能在未来的工作、生活和学习中无处不在,这似乎是不可避免的。
根据这一标准,人工智能被视为智能的能力是合理的,但这仍然是有争议的领域,许多人已经站出来反对它。著名语言学家诺姆·乔姆斯基(Noam Chomsky)曾表示,AGI的日子“可能会到来,但它的黎明尚未破晓”。
第二个角度是考虑人类在日常生活中所实践的智能概念。根据一种思想流派,我们的智能主要存在于网络和系统中,而不是作为孤独的个体。我们把知识储存在网络中。
到目前为止,这些网络主要是人类的。我们可能会从某人(比如一本书的作者)那里获得见解,但我们不会把他们视为我们认知中的主动“代理”。
但是ChatGPT、Copilot、Bard和其他人工智能辅助工具可以成为我们认知网络的一部分——我们与它们互动,向它们提问,它们为我们重构文档和资源。从这个意义上说,人工智能不需要有感知能力或拥有一般的智力。它只是需要嵌入我们的知识网络并成为其一部分的能力,以取代和增强我们当前的许多工作和任务。
对AGI的关注忽视了当前模型和工具为我们提供的许多机会。有知觉、有意识或无意识——所有这些属性都与许多人无关,他们已经在利用人工智能来共同创作艺术、组织写作和文章、制作视频以及引导生活。
对人类来说,最相关或最紧迫的问题不是人工智能在独立运行并与人类断开连接时是否智能。可以说,时至今日,随着人工智能提高我们的认知能力,我们变得更聪明、更有能力、更有创造力。目前看来,人类的未来可能是人工智能团队——这一旅程已经在进行中。
乔治·西门子教授是南澳大利亚大学学习变化与复杂性研究中心的联合主任。
本文最初发表于The Conversation网站。阅读原文。