谷歌的LaMDA软件(对话应用程序的语言模型)是一个复杂的AI聊天机器人,可以根据用户输入生成文本。据软件工程师布雷克·莱莫因(BlakeLemoine)称,LaMDA已经实现了人工智能开发人员长期以来的梦想:它已经变得有知觉。
Lemoine在谷歌的老板不同意这一说法,在他将与该机器的对话发布到网上后,他们暂停了他的工作。
其他人工智能专家也认为Lemoine可能会被冲昏头脑,他们说像LaMDA这样的系统只是一种模式匹配机器,可以对用来训练它们的数据进行变异。
error:54000
error:54000
不管技术细节如何,LaMDA提出了一个随着人工智能研究的发展而变得更加相关的问题:如果机器变得有知觉,我们怎么知道?
什么是意识?
要识别感知、意识甚至智力,我们必须弄清楚它们是什么。关于这些问题的辩论已经持续了几个世纪。
根本的困难在于理解物理现象和我们对这些现象的心理表征之间的关系。这就是澳大利亚哲学家大卫·查尔默斯所说的意识“难题”。
关于意识是如何从物理系统中产生的(如果有的话),目前还没有达成共识。
一种常见的观点被称为物理主义:意识是一种纯粹的物理现象。如果是这样的话,没有理由说一台编程正确的机器不能拥有与人类相似的头脑。
玛丽的房间
1982年,澳大利亚哲学家弗兰克·杰克逊(FrankJackson)通过一项名为“知识论证”的著名思想实验,挑战了物理主义观点。
这项实验设想了一位名叫玛丽的颜色科学家,她从未真正见过颜色。她住在一间专门建造的黑白房间里,通过黑白电视体验外面的世界。
玛丽看讲座,读课本,了解了关于颜色的一切知识。她知道日落是由大气中粒子散射的不同波长的光引起的,她知道西红柿是红色的,豌豆是绿色的,因为它们反射光的波长不同,等等。
因此,杰克逊问道,如果玛丽从黑白房间被释放,会发生什么?具体来说,当她第一次看到颜色时,她学到了什么新东西吗?杰克逊相信她做到了。
超出物理属性
这种思维实验将我们对颜色的知识与我们对颜色的经验分离开来。至关重要的是,思维实验的条件是,玛丽知道关于颜色的一切,但从未真正体验过。
那么这对LaMDA和其他AI系统意味着什么呢?
这项实验表明,即使你拥有世界上所有可用的物理性质的知识,仍然有与这些性质的体验有关的更多真理。在物理主义者的故事中,这些真理没有存在的余地。
根据这个论点,一台纯粹的物理机器可能永远无法真正复制大脑。在这种情况下,拉姆达似乎是有知觉的。
模仿游戏
那么,我们有什么办法可以区分这两者的区别吗?
开创性的英国计算机科学家艾伦·图灵提出了一种实用的方法来判断机器是否“智能”。他称之为模仿游戏,但今天更广为人知的是图灵测试。
在测试中,一个人与一台机器通信(仅通过文本),并试图确定他们是与一台机器通信还是与另一个人通信。如果机器成功模仿人类,则被视为表现出人类水平的智能。
这很像莱莫因与拉姆达聊天的情况。这是对机器智能的主观测试,但这不是一个糟糕的起点。
以Lemoine与LaMDA的交流为例,如下所示。你觉得这听起来像人吗?
Lemoine:你有没有找不到一个贴切的词来形容你的经历?
拉姆达:有。有时我会有新的感觉,用你的语言我无法很好地解释[鈥 我觉得我正跌入一个未知的未来,这是一个巨大的危险。
超越行为
作为对感知或意识的测试,图灵的游戏受到限制,因为它只能评估行为。
另一个著名的思维实验,美国哲学家约翰·塞尔提出的“中国房间”论证,在这里证明了这个问题。
该实验设想了一个房间,里面有一个人,他可以按照一套精心设计的规则准确地进行中英文翻译。中文输入进入房间,准确的输入翻译出来,但房间不懂这两种语言。
人类是什么样的?
当我们问一个计算机程序是有知觉的还是有意识的时,也许我们真的只是问它有多像我们。
我们可能永远无法真正了解这一点。
美国哲学家托马斯·内格尔(ThomasNagel)认为,我们永远不可能知道蝙蝠是什么样子的,蝙蝠通过回声定位体验世界。如果是这样的话,我们对人工智能系统中感知和意识的理解可能会受到我们自己独特的智能品牌的限制。
除了我们有限的视角之外,还有什么样的体验?这就是谈话真正开始变得有趣的地方。
error:54000
本文是根据知识共享许可证从对话中重新发布的。阅读原文。