返回顶部
首页
机械 | 工程 | 工具 | 行业 | 信息 | 集合 | 诗词 | 组词 | 范文 |
 
您现在的位置:
首页 技术中心 详细信息

死机器人可以在你死后为你说话。这是否合乎道德?

2022-05-31    阅读量:30016    新闻来源:互联网     |  投稿

机器学习系统越来越多地在我们的日常生活中爬行,挑战我们的道德和社会价值观以及管理它们的规则。如今,虚拟助理威胁着家庭的隐私;新闻推荐人塑造了我们了解世界的方式;风险预测系统向社会工作者提示哪些儿童需要保护免受虐待;而数据驱动的招聘工具也会对你找到工作的机会进行排名。然而,对于许多人来说,机器学习的伦理仍然很模糊。

在比利时UCLouvain参加道德、信息和通信技术课程的年轻工程师中,我在搜索有关这一主题的文章时,特别被约书亚·巴博(JoshuaBarbeau)的案例所震惊,他是一名33岁的男子,他使用一个名为“12月计划”的网站创建了一个对话机器人鈥攁 聊天机器人鈥攖这顶帽子可以模拟他与已故未婚夫的对话茅e、 杰西卡。

会话机器人模仿死人

这种叫deadbot的聊天机器人允许巴博与一个人造的“杰西卡”交换短信尽管这起案件在伦理上存在争议,但我很少找到超出单纯事实层面的材料,并通过明确的规范视角来分析这起案件:为什么开发一个死机器人在伦理上是对的还是错的,是可取的还是应受谴责的?

在解决这些问题之前,让我们先来了解一下情况:12月计划是由游戏开发商Jason Rohrer创建的,目的是让人们能够定制具有他们想要交互的个性的聊天机器人,前提是他们付费。该项目基于GPT-3的API构建,GPT-3是人工智能研究公司OpenAI开发的一种文本生成语言模型。巴博的案件引发了Rohrer和OpenAI之间的分歧,因为该公司的指导方针明确禁止GPT-3用于性、色情、自我伤害或欺凌目的。

Rohrer称OpenAI的立场是超道德主义,并认为像Barbeau这样的人是“同意的成年人”,因此关闭了12月项目的GPT-3版本。

虽然我们可能对开发机器学习死机程序的正确与否都有直觉,但阐明其含义并不是一件容易的事。这就是为什么必须一步一步地解决案件所提出的道德问题。

巴博的同意是否足以开发杰西卡的deadbot?

由于杰西卡是一个真实的(虽然已经死了)人,巴博同意创造一个模仿她的僵尸似乎是不够的。即使他们死了,人也不仅仅是其他人可以随心所欲的东西。这就是为什么我们的社会认为亵渎或不尊重死者的记忆是错误的。换句话说,我们对死者负有一定的道德义务,因为死亡并不一定意味着人们不再以与道德相关的方式存在。

同样,关于我们是否应该保护死者的基本权利(如隐私和个人数据)的辩论也很公开。开发一个复制某人个性的deadbot需要大量的个人信息,如社交网络数据(参见Microsoft或Eternime的建议),这些信息已被证明能揭示高度敏感的特征。

如果我们同意在人们活着的时候未经他们同意使用他们的数据是不道德的,那么为什么在他们死后这样做是合乎道德的呢?从这个意义上说,当开发一个死机器人时,请求其个性得到反映的人的同意似乎是合理的鈥攊在这种情况下,杰西卡。

当被模仿的人开绿灯时

因此,第二个问题是:杰西卡的同意是否足以认为她的死机器人的创作符合道德?如果这有损她的记忆呢?

同意的限度确实是一个有争议的问题。以“罗滕堡食人族”为例,他被判处终身监禁,尽管他的受害者同意被吃掉。在这方面,有人认为,同意可能对我们自己有害的事情是不道德的,无论是身体上的(出售自己的重要器官)还是抽象上的(让渡自己的权利),只要一个良好的社会应该鼓励其所有成员生活得更好、更自由(不一定是家长式的,按照别人强加的条件,而是以民主的方式,按照人民的条件)。

在什么样的特定条件下,某些东西可能对死者有害,这是一个特别复杂的问题,我将不作全面分析。然而,值得注意的是,即使死者不会受到与生者相同的伤害或冒犯,这并不意味着他们不会受到不良行为的伤害,也不意味着这些行为是合乎道德的。死者的荣誉、名誉或尊严可能会受到损害(例如,追悼活动),对死者的不尊重也会伤害到与其亲近的人。此外,对死者的恶劣行为将我们带入一个更不公正、更不尊重人的尊严的社会。

最后,考虑到机器学习系统的可塑性和不可预测性,有一种风险,即被模仿者(活着时)提供的同意并不意味着对其潜在路径的空白检查。

考虑到所有这些因素,似乎有理由得出这样的结论:如果deadbot的开发或使用与被模仿人的同意不一致,他们的同意应被视为无效。此外,如果这明显和故意损害他们的尊严,即使他们的同意也不足以认为这是合乎道德的。

谁负责?

第三个问题是,人工智能系统是否应该渴望模仿任何一种人类行为(无论这是否可行)。

这是人工智能领域长期存在的问题,与Rohrer和OpenAI之间的争议密切相关。我们是否应该开发出能够照顾他人或做出政治决策的人工系统?似乎这些技能中有某种东西使人类不同于其他动物和机器。因此,重要的是要注意,将人工智能工具化,以达到技术解决主义的目的,如更换所爱的人,可能会导致我们人类特征的贬值。

第四个伦理问题是,谁对死机器人的结果负责鈥攅特别是在有害影响的情况下。

试想一下,杰西卡的死机器人自主学习表演的方式损害了她的记忆或不可逆转地损害了巴博的心理健康。谁将承担责任?人工智能专家通过两种主要方法回答这个棘手的问题:首先,责任落在参与系统设计和开发的人身上,只要他们根据自己的特殊利益和世界观来这样做;其次,机器学习系统是上下文相关的,因此其输出的道德责任应该分配给与之交互的所有代理。

我把自己放得更靠近第一个位置。在这种情况下,由于OpenAI、Jason Rohrer和Joshua Barbeau明确共同创建了deadbot,我认为分析各方的责任水平是合乎逻辑的。

首先,在OpenAI明确禁止将其系统用于性、色情、自我伤害或欺凌目的后,很难让OpenAI承担责任。

将道德责任的重要程度归因于罗勒似乎是合理的,因为他:(a)明确设计了使创建deadbot成为可能的系统;(b) 没有预见到避免潜在不良后果的措施;(c) 意识到它没有遵守OpenAI的指导方针;(d)从中获利。

而且,由于巴博根据杰西卡的特殊特征定制了deadbot,因此,如果这降低了她的记忆,那么让他承担共同责任似乎是合理的。

道德,在某些条件下

因此,回到我们的第一个普遍问题,即开发机器学习机器人是否合乎道德,我们可以给出肯定的答案,条件是:

这个案例说明了为什么机器学习的伦理很重要。这也说明了为什么必须展开一场公众辩论,以便更好地向公民提供信息,并帮助我们制定政策措施,使人工智能系统更加开放、社会公平,并符合基本权利。

本文是根据知识共享许可证从对话中重新发布的。阅读原文。

免责声明:本文仅代表作者本人观点,与中网机械,okmao.com无关。本网对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。本网转载自其它媒体的信息,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。客服邮箱:23341571@qq.com | 客服QQ:23341571
全站地图 | 二级目录 | 上链请联系业务QQ:23341571 或 业务微信:kevinhouitpro