三位学者在《科学机器人》杂志上撰写并发表了一篇《焦点》文章,内容是需要让人工智能系统对其行为负责。牛津互联网研究所的Sandra Wachter,Brent Mittelstadt和Luciano Floridi均表示,阻碍此类行动的主要障碍有三点,但它们不足以阻止旨在防止机器采取行动的策略的实施。 中国机械网okmao.com。
科幻电影清楚地显示了流氓机器人的样子,但有关底层技术(人工智能)的展示却很少。这个术语很松散,但涵盖了很多基础。
例如,当您申请信用卡时,人工智能系统会做出决定,或者当您无所事事地坐在自动驾驶汽车的后座时,人工智能系统会将您带到目的地。
AI将负责做出决策,例如是要越过行人还是撞到任一侧的汽车中,以避免发生事故。
作为人类,我们要追究责任-如果Google车很快撞车,我们都可能会责怪Google。
但是,在更遥远的将来,当来自不同公司的两辆这样的车辆坠毁时,又该如何呢?如果人类受到伤害,保险代理人应如何解释在审判期间可能出现的技术术语?这些是作者考虑的问题。
在他们的文章中,作者建议在确保机器与制造它们的人遵循相同标准的过程中存在三个主要困难。
首先是这种机器的多样性。他们指出,需要在机器人和AI系统之间进行区分。
前者是硬件,由软件驱动,后者是一个能够根据所学知识做出决策的系统。但是他们还指出,人工智能系统彼此之间是如此不同,以至于要想出一套适用于所有人工智能系统的问责制似乎几乎是不可能的。
另一个问题是透明度。遇到AI系统时,知道它是如何工作的,会不会很好?它是如何做出决定的?我们都知道涉及到软件,运行算法的例程正在逐渐消失,并且数据已被存储和检索(以某种方式可能涉及云)。
但是我们如何知道给定系统的实际功能呢?可能会做出一项可能严重影响我们生活的决定吗?作者指出,这将是困难的。
第三个问题是建筑。AI的形式多种多样,例如,机器人声音背后的一个看不见的系统会在您寻求支持时进行应答,或者是一个可能正在监视和判断您的行为的机器人,或者在手机上进行简单但令人讨厌的拼写检查,弄碎你的意思。
尽管存在这些困难,研究人员还是提出了解决方案的可能。它们着重指出了不同国家如何解决该问题,并指出了诸如立法等处理此类问题的尝试。我们可能还没有答案,但是他们认为这不应阻止我们找到答案,然后采取行动。