当你挑战计算机下国际象棋,与智能助手互动,在ChatGPT中输入问题,或在DALL-E上创作艺术品时,你正在与计算机科学家将其归类为人工智能的程序互动。
但定义人工智能可能会变得复杂,尤其是当“机器人”和“机器学习”等其他术语被混杂在一起时。为了帮助您理解这些不同的领域和术语是如何相互关联的,我们整理了一个快速指南。
人工智能是一个研究领域,很像化学或物理学,始于1956年。
麻省理工学院计算机科学和人工智能实验室(CSAIL)主任丹妮拉·罗斯(Daniela Rus)说:“人工智能是一门科学和工程,它使机器具有类似人类的特征,包括它们如何看待世界、如何移动、如何玩游戏,甚至如何学习。”“人工智能是由许多子组件组成的,有各种各样的算法来解决人工智能中的各种问题。”
人们倾向于将人工智能与机器人和机器学习混为一谈,但这些是独立的、相关的领域,每个领域都有不同的重点。一般来说,你会看到机器学习被归类在人工智能的保护伞下,但这并不总是正确的。
“人工智能是关于机器的决策。机器人技术是将计算付诸行动。而机器学习是关于使用数据来预测未来可能发生的事情或系统应该做什么,”罗斯补充道。“人工智能是一个广阔的领域。这是关于做决定。你可以通过学习做决定,也可以通过模型做决定。”
AI生成器,如ChatGPT和DALL-E,都是机器学习程序,但AI领域涵盖的远不止机器学习,而且机器学习并不完全包含在AI中。“机器学习是人工智能的一个子领域。它跨越了统计学和更广泛的人工智能领域,”罗斯说。
更复杂的是,非机器学习算法可以用来解决人工智能中的问题。例如,计算机可以使用称为极大极小优化的非机器学习算法来玩井字棋游戏。“这是一个简单的算法。你建立一个决策树,然后开始导航。在这个算法中没有学习,没有数据,”罗斯说。但它仍然是人工智能的一种形式。
早在1997年,IBM用来击败加里·卡斯帕罗夫的深蓝算法是人工智能,但不是机器学习,因为它没有使用游戏玩法数据。“程序的推理是手工制作的,”罗斯说。“而AlphaGo(一种新的国际象棋程序)使用机器学习来制定规则,并决定如何移动。”
当机器人必须在世界上移动时,它们必须理解周围的环境。这就是人工智能发挥作用的地方:他们必须看到障碍在哪里,并制定从a点到B点的计划。
罗斯说:“例如,机器人使用牛顿力学等模型来弄清楚如何移动,如何不摔倒,如何抓住一个物体而不让它掉下来。”“如果机器人必须规划从a点到B点的路径,机器人可以观察空间的几何形状,然后它可以弄清楚如何画一条不会撞到任何障碍物的线,并沿着这条线走。”这是一个没有使用机器学习的计算机做决定的例子,因为它不是数据驱动的。
或者以教机器人开车为例。例如,在一个基于机器学习的解决方案中,机器人可以教机器人如何完成这项任务,机器人可以观察人类如何驾驶或转弯。它会根据弯道的浅度来学习把轮子转得小一点或大一点。相比之下,在学习驾驶的非机器学习解决方案中,机器人会简单地观察道路的几何形状,考虑汽车的动力学,并使用它来计算应用在车轮上的角度,以保持汽车在道路上而不转向。不过,两者都是人工智能发挥作用的例子。
“在基于模型的情况下,你看几何,你考虑物理,你计算驱动器应该是什么。在数据驱动的(机器学习)案例中,你看看人类做了什么,你记住了,将来当你遇到类似的情况时,你可以像人类那样做,”罗斯说。“但这两种解决方案都能让机器人做出决定,并在世界上移动。”
罗斯说:“当你做数据驱动的机器学习时,人们把它等同于人工智能,情况就大不相同了。”“机器学习使用数据来计算一个巨大网络的权重和参数,这个网络被称为人工神经网络。”
机器学习,顾名思义,是软件从数据中学习的思想,而不是软件只是遵循人类编写的规则。
卡内基梅隆大学(Carnegie Mellon University)机器学习系教授雷德?加尼(Rayid Ghani)表示:“大多数机器学习算法在某种程度上只是计算一堆统计数据。”在机器学习之前,如果你想让计算机检测一个物体,你就必须繁琐地详细描述它。例如,如果你想让计算机视觉识别一个停车标志,你必须编写代码来描述标志表面的颜色、形状和特定特征。
“人们认为,人们对它的描述将是详尽的。机器学习领域发生的主要变化是,人们更擅长给出事物的例子,”加尼说。“人们写的代码不是用来描述停止标志的,而是用来区分a类和B类(例如,停止标志和让路标志)。然后计算机找出了区别,这更有效。”
目前,简短的回答是:没有。
今天,人工智能的能力非常狭窄,能够做特定的事情。“设计用于玩特定游戏或识别特定事物的AI只能做到这一点。它不能做其他真正好的事情,”加尼说。“所以你必须为每项任务开发一个新系统。”
罗斯说,在某种意义上,人工智能下的研究是用来开发工具的,但不是那些你可以在世界上自主释放的工具。她指出,ChatGPT令人印象深刻,但并不总是正确的。她说:“它们是一种为人们带来见解、建议和想法的工具,供人们采取行动。”“这些见解、建议和想法并不是最终的答案。”
此外,加尼说,虽然这些系统“看起来很智能”,但它们实际上所做的只是观察模式。“它们只是被编码成把过去发生过的事情放在一起,并以新的方式放在一起。”电脑不会自己知道摔倒是不好的。它需要从人类程序员那里得到反馈,告诉它它很糟糕。
而且,机器学习算法可能很懒。例如,想象一下,给一个系统提供男性、女性和非二元个体的图像,并告诉它区分这三者。它会发现不同的模式,但不一定是有意义或重要的模式。如果所有的男性都穿着同一种颜色的衣服,或者所有女性的照片都是在相同颜色的背景下拍摄的,这些颜色就会成为这些系统所识别的特征。
“这并不聪明,它基本上是在说‘你让我区分三个集合。最懒的区分方法就是这个特征,’”加尼说。此外,一些系统“被设计成从互联网上给出大部分答案。这不是我们在这个世界上想要的,接受通常是种族主义和性别歧视的大多数答案。”
在他看来,仍然需要为特定的用例定制算法,使人们能够理解模型如何根据给定的输入获得特定的输出,并努力确保输入数据是公平和准确的。
计算机算法擅长获取大量信息并进行综合,而人类则擅长一次只看几件事。正因为如此,可以理解的是,计算机往往更擅长于浏览10亿份文件,并找出重复出现的事实或模式。但人类能够进入一份文件,找出小细节,并通过它们进行推理。
加尼说:“我认为有一件事被过度炒作了,那就是人工智能在不受控制的环境中自我操作的自主权,在这种环境中也会发现人类。”在非常可控的环境中——比如基于优化利润的最终目标,在一定范围内确定食品的价格——人工智能的效果非常好。然而,与人类的合作仍然很重要,在未来的几十年里,他预测该领域将会看到许多旨在协作的系统的进步。
他说,药物发现研究就是一个很好的例子。人类仍然在做大量的实验室测试工作,计算机只是使用机器学习来帮助他们优先考虑做哪些实验和观察哪些交互。
“(人工智能算法)做非凡事情的速度比我们快得多。但我们应该这样想,它们是一种工具,可以增强和提高我们的运营方式。”“和其他工具一样,这些解决方案本身没有好坏之分。它们取决于我们选择如何对待它们。”