当你的车必须选择谁来杀人

经过:

图片通过Creative Commons 4.0使用Pixabay

你在一辆自动驾驶汽车里。它在一条狭窄的小巷里倾斜着,夹在一堵砖墙和一家便利店之间。一名男子走出商店,在入口前停了下来,点了一支烟。与此同时,一群大学生互相绊倒,在汽车前面绊倒。使你沮丧的是,这辆汽车的刹车失灵了。有人会受伤的。

经过一些复杂的计算,您的自动驾驶汽车得出结论,有三种可能的结果:

1)继续向前走,杀死行人。

2)转向砖墙并杀死司机。

3)左转,杀死旁观者在商店前面吸烟。

在这个假设的情况下,每一个可能的决定都有一个权衡:一些生命失去了,一些生命得到了挽救。机器伦理研究的是在这样复杂的情况下,你的自动驾驶汽车应该如何做出最道德的决定。

机器道德的最大挑战是含糊不清的道德决策。对于“决定”该做什么的机器,必须有一个指标对“正确”决定的指标。确定此度量标准或一系列指标 - 提高了很多难题。您的自动驾驶车是否应优先考虑最多的幸存者?对社会更“有价值”的幸存者?汽车拯救更聪明的人更重要吗?富裕的人?亲人的人?是否歧视使用单个特征来量化一个人的生命的价值?

Wendell Wallach,作者道德机器:从错误的教学机器人,定义两种实现机器道德的一般方法。在自上而下的方法中,机器被编纂道德框架,以基于其所有决策。假设您的自动驾驶汽车被编程为遵守功利主义,这是一个旨在最大限度地提高最多人民的幸福的道德理论。

然而,功利主义的实际实施并不像看上去那么简单。和任何理论一样,功利主义是一般和抽象的。弄清楚如何将其应用于特定场景可能是一个非常具有解释性和主观性的过程。在我们的案例中,如果行人是一群无家可归和长期失业的人,而在商店前面的人是一个熟练的神经外科医生,会怎么样?是让你的车去救四个无家可归的人更实用,还是一个有潜力在未来拯救更多生命的熟练神经外科医生更实用?

Wallach认为,机器道德的另一种方法是自下而上的方法。这种方法教会机器如何使用机器学习算法做出道德决策。换句话说,机器梳理大量数据并从中得出自己的结论,而不是工程师明确指定的一套规则。为了以这种方式学习,机器可以得到有标记或无标记的训练数据。

标记培训数据是一堆与正确解决方案配对的问题。对于我们的Careening Car,标记的训练数据将是与汽车采取的“正确”动作配对的碰撞场景数据集。这里的最大困难是创造大量标记的培训数据是耗时和主观的努力,特别是对于没有客观正确答案的道德问题。谁毕竟,要决定“正确”答案是什么?他们是如何选择的?

未标记的培训数据没有任何答案附上。机器从场景数据中浏览模式,并创建自己的指导方针。例如,我们的车可以从分秒决策的数据集中学习实际驱动程序在碰撞方案中进行的实际驱动程序。没有指示每个驾驶员是否是正确的。相反,人类驱动程序如何行动的机器斑点模式,将它们视为指导方针,并将其应用于新情况。

像这样的无监督学习假设大多数人做出的决定是最好的解决方案。但是流行的选择不一定是最道德的选择。例如,真实驾驶员的未标记训练数据会有很强的自我保存偏差。就像任何具有生存本能的生物一样,人类驾驶员倾向于做出最大限度地提高生存机会的决定。这意味着司机为了更大的利益而牺牲自己的情况将很少发生。因此,使用这种数据集训练的自动驾驶汽车也会倾向于牺牲除驾驶员以外的任何人。虽然这对司机来说可能是个好消息,但一个重要的自我保护偏见是否会导致道德决策,这是有争议的。

自顶向下和自底向上的方法都有严重的缺陷。自顶向下方法中的指导原则可能过于一般化和抽象,无法应用于特定场景。自底向上的方法处理大量的输入和数据,但在建立一个明确的道德目标或框架方面存在困难。这对我们的自动驾驶汽车意味着什么?这意味着它需要两种方法的混合:一个全面的道德指南,辅以针对具体案例的机器学习。

随着这项技术的发展,自动驾驶汽车及其设计者在处理模棱两可的情况时将会遇到困难,尤其是那些道德矛盾的情况。软件工程师无法编写一个程序,其中包含无数特定的、硬编码的响应,以应对汽车可能遇到的每一种可能情况。此外,航空工业已经尝到了苦头——一旦部署了新的自动化系统,就会有在软件错误和硬件缺陷上阐明了闪光的事故中的临时上升为工程师来解决。

然而,尽管在开发安全、道德的自动驾驶汽车方面存在障碍,但它肯定会对人类生活产生积极影响。根据国家公路交通安全管理局的数据,超过90%的U.S.的汽车事故是由驾驶员错误引起的。人为错误 - 从拟合到发短信 - 可以从方程式中取出,节省了可能丢失到醉酒的司机和分心的青少年的生活。朝着更少的死亡人身走向更安全的道路,对我们来说是一个胜利。

话题:

标签:

添加新评论