当前位置: 首页 » 产品 » 农牧养殖 » 正文

人类会成为机器的延伸吗?ChatGPT可能对学习和决策产生不可挽回的后果

放大字体  缩小字体 发布日期: 2024-09-28 07:17   来源:http://www.baidu.com/  作者:无忧资讯  浏览次数:20
核心提示:人类的现代发展轨迹是由几个拐点决定的。电、灯泡、电报系统、计算机和互联网等的发明,都标志着人类生存方式中不可逆转的新里程

Will humans become an extension of their machines? ChatGPT may have irrevocable co<em></em>nsequences for learning and decision-making

人类的现代发展轨迹是由几个拐点决定的。电、灯泡、电报系统、计算机和互联网等的发明,都标志着人类生存方式中不可逆转的新里程碑。

然而,最近ChatGPT的引入可能不仅仅是一个拐点。它,以及类似的人工智能模型,可能是我们生活方式的永久颠覆者;尽管他们的失误和Wokist的脾气。

Chat GPT现在是历史上增长最快的消费应用程序。ChatGPT于2022年11月推出,在两个月内就获得了超过1亿的用户。它的开发商OpenAI,一开始只有375名员工,收入微薄,现在估值300亿美元,而且还在不断增长。

它是如何工作的?ChatGPT聚合来自互联网的数据(尽管它没有直接实时连接到互联网),并在几秒钟内合成查询的答案。它是目前最通用、最稳定的新型人工智能大型语言模型。它可以写音符、写软件代码、解数学方程、写小说、论文和学位论文,以及其他许多任务。科学家可以用它把他们用母语写的原始作品翻译成英语。随着ChatGPT等人工智能工具的发展,它们可能会在一个广泛但不可估量的范围内取代人类活动。数以亿计的工作岗位可能岌岌可危。

Scientists eye using brain cells to make AI
阅读更多

然而,它最直接的影响将是在人类学习和决策领域。

人类的学习是一个受无数因素影响的终身过程。这些包括(但不限于)经验、本能、互动、错误(和纠正)、内省、个人焦虑、大胆、指导、文本数据和个人心理。这些先决条件中的大多数是ChatGPT所不熟悉的。人类学习和发展的“没有付出就没有收获”的公理并不适用于它。

人工智能工具也不受时间限制、疲劳、“休息日”和疾病等人类限制的影响。这些限制可能最终会迫使人类将思考和学习的存在需求委托给机器。不可阻挡的数字化已经使我们善于知道在哪里或如何寻找信息,而不是学习如何保留相同的信息。

因此,数字拐杖现在是导航(例如Waze,谷歌地图),烹饪(烹饪视频频道),修理电器(DIY频道)和许多其他日常活动的必备工具。我们的日常任务正迅速变得越来越机械化,挤出了我们创造新事物或改变游戏规则的能力。我们正在成为机器的延伸,而不是相反。因此,人类正面临着一个集体麻木和顺从的时代。

要衡量人工智能工具如何影响我们的思维和学习能力,没有比观察ChatGPT对全球教育部门的影响更好的方法了。现在,学生和教育者都将ChatGPT作为一种补充、作弊工具或数字拐杖

沃尔顿家族基金会和影响力研究公司最近的一项调查发现,大多数教师(51%)和许多学生已经在学校使用ChatGPT。另一项涉及1000所美国大学的调查发现,30%的学生在书面作业中使用ChatGPT,其中60%的学生在“一半以上的作业”中使用它。ChatGPT已经通过了许多高水平的考试,包括沃顿商学院MBA考试、美国医疗执照考试、几项法律考试和斯坦福医学院的期末考试。

造纸厂也可以使用ChatGPT来制作科学文章和报告。使用其数据的研究人员(请记住,人工智能“偶尔会产生不正确的答案”),或通过生成式人工智能故意伪造研究过程的研究人员,最终可能会推动对社会有害的政策和产品。这个世界再也承受不起冠状虫病了!

总而言之,学生和老师都越来越被全能的人工智能吓倒。人工智能提高了学生、教授和各种专业人士的门槛。鉴别真品也变得越来越困难。正如罗切斯特大学计算机科学副教授克里斯托弗·卡南(Christopher Kanan)最近指出的那样:“现在很难分清谁知道什么,谁从ChatGPT这样的东西那里得到了帮助。”因此,纽约、香港、班加罗尔和其他地方的一些学校已经禁止学生在作业中使用ChatGPT,原因是担心抄袭、作弊和不实信息。

虽然ChatGPT是研究复杂概念和知识集成链的好工具,但在现实中,它可能会将大多数用户降低为人工智能生成数据的温顺消费者。长期以数字为媒介的被动会使思维能力萎缩。

ChatGPT的另一个缺点是它有可能扩大备受争议的数字鸿沟。求职、晋升、奖学金等方面的申请将会压倒性地倾向于“有”而不是“没有”,尤其是在需要缴纳订阅费用的情况下。

教育工作者目前无法界定ChatGPT的伦理界限,目前采取观望态度。道德框架本身可以由ChatGPT之类的工具编写或在其帮助下编写。马来西亚理工大学(Universiti Teknologi Malaysia)政策研究副教授艾妮·苏珊娜·阿里芬(Aini Suzana Ariffin)相信,教育工作者不必惊慌。“ChatGPT等生成式人工智能工具的道德框架将梳理出哪些可以增强学习过程,哪些会阻碍学习过程。这可能需要时间,也会涉及很多争论,但我们最好现在就开始。”

新加坡政府最近宣布,公务员将开始使用ChatGPT来减轻工作量。这是有道理的,因为重复或平凡的任务可以通过人工智能工具加速。然而,随着生成式人工智能工具变得越来越智能和高效,治理复合体可能会逐渐被机器取代。这种新兴的社会秩序形式被称为“算法政体”;算法,尤其是人工智能和区块链,应用于整个政府部门。algogcracy不可避免地需要预测性治理。柏林警方已经将算法政体的雏形纳入其预测警务系统。我们在不久的将来会面临少数报告社会吗?

Will ChatGPT replace political commentators?
阅读更多

ChatGPT还加速了信息流向政府或组织的最高决策级别,绕过了中间级别官僚机构的传统守门人角色。虽然这可能被视为对抗繁文缛节的可喜进展,但缺乏传统的制衡可能会导致强制性决定,产生令人遗憾的社会经济影响。想象一下,将这样一个算法程序移植到一个军事超级大国的核武器基础设施中。

在银行和医疗保健等行业,ChatGPT还存在侵犯隐私和泄露个人数据的风险。生成式人工智能工具的功效是由不断循环回神经网络的不断增长的数据量推动的。这种对准确性、效率和速度的追求可能会导致私人数据作为机器学习过程的一部分受到损害。

在医疗保健领域,对人工智能辅助医疗的知情同意可能会减少,因为患者可能不明白他们同意的是什么,或者他们可能过度信任一个“智能和公正”的基于机器的系统。当需要在危急情况下进行分诊时,情况就更加不妙了。传统上,分诊是由在场医务人员的诚信和技能以及现场可用的资源决定的。然而,算法可能会根据病人的“社会价值”冷静地安排分诊;数据推断的预期寿命;以及与挽救病人生命相关的费用。

在一天结束的时候,一个道德的人工智能框架会被那些可以决定生成式人工智能工具的设计、参数和目标的技术巨头们阻碍吗?或者我们当选的领导人会试图寻求人工智能和人类之间的协同共存吗?

cript type="text/javascript">
 
 
[ 产品搜索 ]  [ 加入收藏 ]  [ 告诉好友 ]  [ 打印本文 ]  [ 违规举报 ]  [ 关闭窗口 ]

 

 
推荐图文
推荐产品
点击排行
 
    行业协会  备案信息  可信网站