在今天的人工智能通讯中,这是我们五部分系列的最后一篇,我将展望人工智能在未来几年的发展方向。
3月初,我参观了OpenAI在旧金山的办公室,以提前了解GPT-4,这是支撑其ChatGPT聊天机器人的新版本技术。最令人瞠目的时刻是OpenAI的总裁兼联合创始人格雷格·布罗克曼(Greg Brockman)向机器人展示了一项至今仍未向公众开放的功能:他给了机器人一张哈勃太空望远镜的照片,并要求它“非常细致地”描述这张照片。
这一描述完全准确,精确到卫星划过天空时产生的奇怪白线。这是对聊天机器人和其他人工智能技术未来的展望:新一波多模式系统将同时处理图像、声音、视频和文本。
昨天,我的同事凯文·卢斯告诉你人工智能现在可以做什么。我将把重点放在它获得能力和技能时所带来的机遇和剧变上。
生成式人工智能已经可以回答问题、写诗、生成计算机代码并进行对话。正如“聊天机器人”所暗示的那样,它们首先会以ChatGPT和必应(Bing)等对话格式推出。
但这不会持续太久。微软和谷歌已经宣布计划将这些人工智能技术整合到他们的产品中。你可以用它们来写一封电子邮件的草稿,自动总结会议,并完成许多其他很酷的技巧。
OpenAI还提供了应用程序编程接口,其他科技公司可以使用该接口将GPT-4插入到他们的应用程序和产品中。它还从Instacart、Expedia和Wolfram Alpha等公司开发了一系列插件,扩展了ChatGPT的功能。
许多专家认为,人工智能将使一些工人,包括医生、律师和计算机程序员,比以往任何时候都更有效率。他们还认为一些工人将被取代。
卡内基梅隆大学(Carnegie Mellon)专门研究人工智能及其对社会影响的教授扎卡里·利普顿(Zachary Lipton)说:“这将影响那些更重复、更公式化、更通用的任务。”“这可以解放那些不擅长重复性工作的人。与此同时,这对那些专注于重复性工作的人来说也是一种威胁。”
音频到文本的转录和翻译工作可能会消失。在法律领域,GPT-4已经足够熟练,可以通过司法考试,会计师事务所普华永道(PricewaterhouseCoopers)计划向其员工推出一款基于openai的法律聊天机器人。
与此同时,OpenAI、谷歌和meta等公司正在构建的系统,只需描述你想看的内容,就能让你立即生成图像和视频。
其他公司正在开发可以像人类一样使用网站和软件应用程序的机器人。在这项技术的下一阶段,人工智能系统可以在网上为你购买圣诞礼物,雇人在家里做一些小工作,并跟踪你每月的支出。
这些都是需要考虑的问题。但最大的问题可能是:在我们有机会掌握这些系统将如何影响世界之前,它们将变得更加强大。
对于OpenAI和DeepMind(谷歌母公司旗下的实验室)这样的公司来说,他们的计划是尽可能地推动这项技术的发展。他们希望最终能制造出研究人员所说的人工通用智能(artificial general intelligence,简称A.G.I.)——一种能做人脑能做的任何事情的机器。
OpenAI的首席执行官山姆·奥特曼(Sam Altman)三年前对我说:“我的目标是建立广泛有益的人工智能。我也知道这听起来很荒谬。”如今,这听起来不那么荒谬了。但说起来容易做起来难。
人工智能要想成为人工智能,就需要对物理世界有全面的了解。目前还不清楚系统是否可以学习模仿人类推理和常识的长度和广度,使用产生GPT-4等技术的方法。新的突破可能是必要的。
问题是,我们真的希望人工智能变得那么强大吗?一个非常重要的相关问题:有什么方法可以阻止它发生吗?
许多人工智能高管相信,他们正在创造的技术将改善我们的生活。但几十年来,一些人一直在警告一种更黑暗的情况,即我们的创造物并不总是按我们想要的去做,或者它们以不可预测的方式遵循我们的指示,可能会带来可怕的后果。
人工智能专家谈到了“一致性”——也就是说,确保人工智能系统与人类的价值观和目标一致。
在GPT-4发布之前,OpenAI把它交给了一个外部团队来想象和测试这个聊天机器人的危险用途。
该小组发现,该系统能够雇佣一个在线的人来通过验证码测试。当人类询问它是否是“机器人”时,系统在测试者的主动提示下撒谎,说它是一个有视觉障碍的人。
测试人员还表明,该系统可以被诱导建议如何在网上购买非法枪支,并描述如何从家用物品中制造危险物质。经过OpenAI的改变,系统不再做这些事情。
但不可能消除所有潜在的误用。当这样一个系统从数据中学习时,它发展出了其创造者从未预料到的技能。在数百万人开始使用它之后,很难知道事情会出什么问题。
“每次我们制造一个新的人工智能系统,我们都无法完全描述它的所有功能和所有安全问题——随着时间的推移,这个问题会变得更糟,而不是更好,”旧金山初创公司Anthropic的创始人兼政策主管杰克·克拉克(Jack Clark)说,该公司正在开发类似的技术。
OpenAI和谷歌这样的巨头并不是唯一探索这项技术的公司。用于构建这些系统的基本方法被广泛了解,其他公司、国家、研究实验室和不良行为者可能不那么小心。
最终,控制危险的人工智能技术将需要进行深远的监管。但是专家们并不乐观。
“我们需要一个国际化的监管体系,”哈佛大学伯克曼·克莱因互联网与社会中心(Berkman Klein Center for Internet & Society)的研究员特拉维夫·奥瓦迪亚(Aviv Ovadya)说,他在GPT-4发布前参与了测试。“但我认为,我们现有的政府机构不会以必要的速度应对这一问题。”
正如我们本周早些时候所报道的,包括埃隆·马斯克(Elon Musk)在内的1000多名技术领导者和研究人员敦促人工智能实验室暂停最先进系统的开发,并在一封公开信中警告说,人工智能工具“给社会和人类带来了深刻的风险”。
信中写道,人工智能开发人员“陷入了一场失控的竞赛,开发和部署更强大的数字思维,没有人——甚至包括它们的创造者——能够理解、预测或可靠地控制。”
一些专家最担心的是近期的危险,包括虚假信息的传播,以及人们依赖这些系统获得不准确或有害的医疗和情感建议的风险。
但其他批评人士来自一个庞大而有影响力的网络社区,这个社区被称为理性主义者或有效利他主义者,他们认为人工智能最终可能会毁灭人类。这种心态在信中有所反映。
请通过这个简短的调查来分享你对我们关于技术:人工智能系列的想法和反馈。
我们可以推测人工智能在遥远的未来会走向何方,但我们也可以问问聊天机器人自己。在你的最后一项任务中,把ChatGPT、Bing或Bard当成一个热切的年轻求职者,问他们对10年后的发展有什么设想。一如既往,请在评论中分享你的答案。
三题之一
将文本翻译成多种语言
根据文本描述生成逼真的图像
通过律师资格考试,熟练掌握法律文本
从选择你的答案开始测试。
一致性:人工智能研究人员和伦理学家试图确保人工智能的行为符合创造它们的人的价值观和目标。
多模式系统:类似于ChatGPT的人工智能也可以处理图像、视频、音频和其他非文本输入和输出。
人工通用智能:与人类智力相匹配的人工智能,可以做人脑能做的任何事情。
点击这里查看更多术语表。
凯文。谢谢你和我们一起度过这五天。看到你的评论和创意真是太棒了。(我特别喜欢那个用ChatGPT为我的工作写求职信的评论者。)
人工智能的话题如此之大,变化如此之快,即使是五份简报也不足以涵盖所有内容。如果你想更深入地了解,你可以看看我的书《未来证明》(Futureproof)和凯德的书《天才创造者》(Genius Makers),这两本书都更详细地介绍了我们本周讨论过的话题。
凯德:我最喜欢的评论来自一个人,他要求ChatGPT在他们的州规划一条穿过小径的路线。机器人最后建议了一条不存在的小径,作为在其他两条存在的小径之间徒步的一种方式。
这个小混乱提供了一个窗口,让我们了解到当今聊天机器人和其他人工智能系统的能力和局限性。他们从网上发布的信息中学到了很多东西,并能以非凡的方式利用他们所学到的东西,但总有这样的风险,即他们会插入看似合理但不真实的信息。出去!和这些机器人聊天!但也要相信自己的判断!
请参加这个简短的调查,分享你对这个限量版通讯的想法和反馈。