两名专业人士接受了ChatGPT,向它询问他们收到的最常见的问题,并就聊天机器人的表现给出反馈,以及他们是否觉得自己的工作受到了威胁。
一位著名研究人员表示,在人工智能开发出消灭人类的智能之前,必须停止对人工智能的研究。
43岁的埃利泽·尤德科夫斯基(Eliezer Yudkowsky)是机器智能研究所(Machine Intelligence Research Institute)的研究员,他表示,埃隆·马斯克(Elon Musk)和1000多名其他签名者本周发出的公开信呼吁暂停大型人工智能系统六个月,但这还不够。
他在《时代》(Time)杂志上写道:“把这一切都关掉。”“许多研究这些问题的研究人员,包括我自己,都认为,在类似于当前情况的情况下,建造一个超人智能的人工智能,最有可能的结果是,地球上的所有人都将死亡。”
他认为,人类应该准备好“用空袭摧毁一个流氓数据中心”。
尤德科夫斯基从事人工智能研究已有20年,他创造了“友好人工智能”的概念,即不伤害人类的愿望被设计到人工智能中。他说,如果没有这一点,人类将很难与之竞争。
“最有可能的结果是人工智能不做我们想做的事,也不关心我们,”他写道。
尤德科夫斯基描绘了人工智能“不会长期局限于计算机”的未来。
他补充称:“如果有人开发出过于强大的人工智能……我预计地球上的每一个人类和所有生物都会在那之后不久死去。”
埃利泽·尤德科夫斯基表示,埃隆·马斯克和1000多名其他签名者呼吁暂停大型人工智能系统六个月的公开信远远不够。
研究人员是AI社区的一员,他们经常与主流意见相左。
牛津互联网研究所研究主任布伦特·米特尔施塔特教授说,他的同事中很少有人认真对待超级智能问题。
“问题在于,你无法证明未来的情景是错误的……Mittelstadt说。“因此,这使得参与这个话题非常令人沮丧。”
本周,马斯克基金会资助的非营利组织“生命未来研究所”(Future of Life Institute)的公开信引起了人们对人工智能发展速度的担忧。
它呼吁暂停六个月的时间来研究比GPT-4 (OpenAI开发的最新版本ChatGPT)更强大的人工智能。这项技术为微软搜索引擎必应中的聊天机器人提供了动力。
非营利性组织未来生命研究所(Future of Life Institute)呼吁暂停六个月的时间来研究比OpenAI开发的ChatGPT最新版本GPT-4更强大的人工智能。
德克萨斯大学奥斯汀分校(University of Texas, Austin)计算机科学教授斯科特?阿隆森(Scott Aaronson)表示,OpenAI的员工也在呼吁放慢速度。
这场争论的核心是,先进的人工智能掌握在少数几家尚未公布其模型细节的科技公司手中。许多研究人员呼吁提高透明度。
然而,一些学者对这些警告不予理会。谷歌Brain的联合创始人吴恩达(Andrew Ng)表示,暂停是一个糟糕的主意。
“我在教育、医疗、食品等领域看到了许多新的应用……这将帮助很多人。”“让我们在人工智能创造的巨大价值与现实风险之间取得平衡。”
泰晤士报,伦敦