哈特福德大学,康涅狄格大学和马克斯·普朗克智能系统研究所的一组研究人员最近提出了一种基于案例的,基于原理的行为范例,旨在确保自主机器的道德行为。他们的论文发表在《 IEEE议事录》(IEEE Proceedings of IEEE)上,认为自治系统在伦理上具有重要意义的行为应遵循由伦理学家达成共识的明确的伦理原则。

“今年是电影2001年:太空漫游50周年,”进行这项研究的研究人员之一迈克尔·安德森告诉TechXplore中国机械网okmao.com。“
在读世纪之交的《2001年的成就:太空漫游》时,令我震惊的是,HAL的许多能力都失去了科幻小说的光环,并且正处于实现的风口浪尖。它还令我震惊,他们已经获得了道德如此错误:如果HAL迫在眉睫,那么该是正确制定道德规范的时候了。”
作为名为Machine Ethics的项目的一部分,Anderson和他的同事一直在努力寻找可以在自动运行的机器中体现的道德原则。他们认为,人工智能的行为应遵循道德原则。这些原则由伦理学家达成共识,不仅有助于确保复杂而动态的系统的道德行为,而且还可以作为证明这种行为合理化的基础。
研究人员开发了一种可扩展的,基于案例的,基于原则的基于行为的范例,称为CPB。在这种范例中,自治系统使用从伦理家已经同意采取正确行动的案例中抽象出来的原则来决定其下一步行动。
机器道德网站。安德森解释说:“ CPB使用机器学习从特定的道德困境案例的道德相关特征中抽象出道德偏好的原则,” “系统可以在任何给定时刻使用该原理来确定道德上可取的行动。”
该范式明确表示了这些原则,因此它们也可以帮助证明自治系统的行为合理。换句话说,CPB可以帮助您更好地理解机器人的行为,并提供逻辑解释其为何选择以特定方式行动。
“当我们试图确定机器人如何知道自己应该遵守道德规范的情况时,我们意识到它始终处于这样的状态:道德规范不仅仅在于不选择错误的行为,还在于选择在给定情况下,采取哪种行动在道德上是可取的。” “鉴于此,CPB致力于在任何情况下都在道德上确定可取的行动,并在情况发生变化时这样做。”
该研究的最终目标是确定老年人护理领域中与道德相关的特征和职责,确定可以指导老年人护理机器人行为的原则。但是,相同的范例也可以应用于在其他领域中运行的机器人。将来,它还可以为除机器人以外的系统(如虚拟医疗保健代理)提供道德指导。
安德森说:“我们主张对道德采取表面上的责任制方法,在这种情况下,任何一种责任都可能会取代其他责任。” “换句话说,没有像阿西莫夫的法律那样严格的等级制度。在未来,我们相信我们的功能/职责代表方案将有助于把握所有道德困境的本质。”
Vincent Berenz对该项目的贡献,最近在IEEE Robotics&Automation上发表的Playful,允许机器人做出反应性和可中断的行为。如果机器人要对不断变化的道德问题做出正确反应,则这种行为至关重要。
文森特·贝伦茨(Vincent Berenz)和TIAGo。安德森说:“我们认为,伦理学家需要长期认真思考才能获得专业知识。”
“我们并不是说他们必须表现得更好,每个人都很难遵守道德规范,但是他们比外行人更能理解应该做些什么,并且能够更好地捍卫这些判决。这种审慎的思维适用于简单的案件,可以有助于确定表现出与道德相关的特征相同的更困难的案件。”
将来,CPB之类的范例可以确保机器人和智能机器做出一致的道德决策,同时还可以使人类更好地理解他们的选择。研究人员现在正在努力扩大工作范围,以解决各种伦理问题。
安德森说:“我们正计划扩大研究范围,增加行动并考虑更多与道德相关的特征,以期最终制定出可用于指导所有未来老年人护理机器人行为的道德原则。” “我们将在PAL机器人TIAGo机器人上测试这些新想法。”