从苹果的Siri和亚马逊的Alexa这样的虚拟助理,到机器人吸尘器和自动驾驶汽车,再到自动化投资组合经理和营销机器人,人工智能已经成为我们日常生活中的重要组成部分。尽管如此,考虑到人工智能,我们中的许多人想象着像人类一样的机器人,根据无数科幻故事,这些机器人终有一天会变得独立和叛逆。
然而,没有人知道人类何时会创造出智能或有知觉的人工智能,东北大学社会科学与人文学院哲学副教授约翰·巴塞尔说,他的研究重点是人工智能和合成生物学等新兴技术的伦理。
“当你听到谷歌的谈话时,他们的谈话就好像这就在眼前,或者肯定是在我们的有生之年,”Basl说。“他们对此非常傲慢。”
也许这就是为什么《华盛顿邮报》最近的一篇报道引起了如此大的轰动。在这个故事中,谷歌工程师布莱克·莱莫因表示,该公司的人工智能聊天机器人生成器拉姆达可能是有感知力的,他与拉姆达进行了多次深入交谈。布莱克告诉《华盛顿邮报》,这让他想起了一个7岁或8岁的孩子。
然而,Basl认为《华盛顿邮报》文章中提到的证据不足以断定LaMDA是有知觉的。
巴斯尔说:“我认为,像‘我们创造了有感知的人工智能’这样的反应过于夸张了。”。
Basl说,证据似乎基于LaMDA的语言能力及其所谈论的事情。然而,语言模型LaMDA是专门为说话而设计的,用于训练它处理语言和对话的优化函数激励其算法产生这种语言证据。
“这不像我们去了一个外星行星,我们从来没有给过任何动机来开始与我们交流(开始深思熟虑地交谈),”Basl说。
Basl说,这种语言模型可以诱使人类认为它是有知觉的,这说明了它的复杂性,但它需要具备一些其他能力,而不是为了显示知觉而优化的能力。
感知有不同的定义。有知觉的定义是能够感知或感觉事物,通常被比作智者。
Basl认为有知觉的AI将是最低意识的。它可以意识到自己的经历,有积极或消极的态度,比如感到痛苦或不想感到痛苦,还有欲望。
“我们在动物世界中看到了这种能力的范围,”他说。
例如,Basl说,他的狗不喜欢世界是一种方式,而不是从任何深层意义上的另一种方式,但她显然更喜欢饼干而不是kibble。
巴斯尔说:“这似乎追踪了一些内心的心理生活。”。“[但是]她对气候变化没有感到恐惧。”
从《华盛顿邮报》的报道中,我们不清楚为什么莱蒙将拉姆达比作一个孩子。Basl说,他的意思可能是,语言模型和小孩子一样聪明,或者它有能力像小孩子一样忍受或渴望。
Basl说:“这些可以是多种多样的东西。我们可以创建一个没有任何感觉的思考AI,我们可以创建一个不太擅长思考的感觉AI。”。
Basl表示,人工智能社区的大多数研究人员,包括机器学习专家、人工智能专家、哲学家、技术伦理学家和认知科学家,已经在思考这些遥远的未来问题,并担心思考部分。
他说:“如果我们创造出一种超级智能的人工智能,它最终可能会杀死我们所有人。”。
然而,Lemoine关注的不是这一点,而是有义务以不同的方式对待快速变化的AI能力。
“从某种广义上讲,我同情这种担忧。我们对这种可能性并不十分谨慎,”巴塞尔说。“我们对人工智能的道德问题考虑得不够,比如,我们应该为有知觉的人工智能做些什么?”
他认为人类很可能会虐待有知觉的人工智能,因为他们可能不会意识到自己这样做了,因为他们相信这是人为的,不在乎。
“我们只是不太适应这些事情,”巴塞尔说。
没有好的模型可以知道人工智能何时实现感知。如果谷歌的LaMDA无法令人信服地表达其感知力,因为它只能通过聊天窗口而不是其他方式说话,那该怎么办?
他说:“我们不能通过脑部扫描来确定它是否与我们相似。”。
另一种思路是,由于宇宙的物理限制或对意识的理解有限,有知觉的AI通常是不可能的。
Basl说,目前,没有一家从事人工智能工作的公司,包括谷歌、Meta、微软、苹果和政府机构等大公司,有明确的目标创建有感知的人工智能。IBM表示,一些组织对开发AGI或人工通用智能感兴趣,这是一种人工智能的理论形式,在这种形式下,像人类一样智能的机器将具有解决广泛问题、学习和规划未来的能力。
“我认为,从中得到的真正教训是,我们没有所需的基础设施,即使这个人错了,”Basl说,他指的是Lemoine。
围绕人工智能问题的基础设施可以建立在透明度、与政府和/或公共机构的信息共享以及研究监管的基础上。Basl主张成立一个跨学科委员会来帮助建立这样的基础设施,第二个委员会将监督从事人工智能工作的技术专家,并评估研究提案和成果。
“证据问题真的很难解决,”Basl说。“我们没有一个好的意识理论,也没有很好的意识证据。然后我们也没有基础设施。这些是关键。”