当你的车必须选择谁来杀人

经过:

通过Creative Commons 4.0通过的图像Pixabay.

你在自行车。它在狭窄的巷道里,夹在砖墙和便利店之间。一个男人在入口处排出的商店并暂停,以点燃一支烟。与此同时,一群大学生互相跳过,绊倒在车前。为了你沮丧,汽车的刹车是故障的。有人会受伤。

经过一些复杂的计算,您的自动驾驶汽车得出结论,有三种可能的结果:

1)继续前进并杀死行人。

2)转向砖墙并杀死司机。

3)左转,杀死旁观者在商店前面吸烟。

在这个假设情景中的每一项可能的决定都有一个权衡:一些生命丢失了,一些生命得到了保存。机器伦理研究您的自动驾驶汽车如何在这种情况下使最良好的伦理决策。

机器道德的最大挑战是含糊不清的道德决策。对于“决定”该做什么的机器,必须有一个指标对“正确”决定的指标。确定此度量标准或一系列指标 - 提高了很多难题。您的自动驾驶车是否应优先考虑最多的幸存者?对社会更“有价值”的幸存者?汽车拯救更聪明的人更重要吗?富裕的人?亲人的人?是否歧视使用单个特征来量化一个人的生命的价值?

Wendell Wallach,作者道德机器:从错误的教学机器人,定义两种实现机器道德的一般方法。在自上而下的方法中,机器被编纂道德框架,以基于其所有决策。假设您的自动驾驶汽车被编程为遵守功利主义,这是一个旨在最大限度地提高最多人民的幸福的道德理论。

然而,功利主义的实际实施并不像似乎那么简单。与任何理论一样,功利主义是普遍性的。弄清楚如何将其应用于特定方案可以是一个非常解释和主观的过程。在我们的案件中,如果行人是一群无家可归和长期失业的人群,而这家商店前面的男人是熟练的神经外科医生?对于您的汽车来说,它是更多的功利主义,以节省四个无家可归的人,或者一个有可能在未来拯救更多生命的熟练神经外科医生?

根据Wallach的说法,根据Wallach的其他方法是自下而上的方法。该方法教导了机器如何使用机器学习算法进行道德决策。换句话说,机器通过一堆数据梳理并从中汲取自己的结论,而不是通过工程师明确指定的一组规则。要以这种方式学习,可以给予机器培训数据标记或未标记。

标记培训数据是一堆与正确解决方案配对的问题。对于我们的Careening Car,标记的训练数据将是与汽车采取的“正确”动作配对的碰撞场景数据集。这里的最大困难是创造大量标记的培训数据是耗时和主观的努力,特别是对于没有客观正确答案的道德问题。谁毕竟,要决定“正确”答案是什么?他们是如何选择的?

未标记的培训数据没有任何答案附上。机器从场景数据中浏览模式,并创建自己的指导方针。例如,我们的车可以从分秒决策的数据集中学习实际驱动程序在碰撞方案中进行的实际驱动程序。没有指示每个驾驶员是否是正确的。相反,人类驱动程序如何行动的机器斑点模式,将它们视为指导方针,并将其应用于新情况。

像这样的无人驾驶学习假设大多数人的决定是最好的解决方案。但是一个受欢迎的选择不一定是最良好的道德。例如,实际驱动程序的未标记培训数据将具有强大的自我保护偏差。就像任何带有生存本能的生物一样,人类司机倾向于做出最大化其生存机会的决定。这意味着驾驶员为更好的善意牺牲自己的案件将是稀疏的。因此,使用这种数据集训练的自动驾驶汽车也将偏向牺牲除驾驶员以外的任何人。虽然这可能是司机的好消息,但它是值得简言,是否有重大的自我保护偏差将导致道德决策。

自上而下和自下而上的方法都有严重的缺陷。自上而下方法中的指导原则可能太普遍,摘要应用于特定情景。自下而上的方法处理大量的输入和数据,但在建立明确的道德目标或框架时挣扎。这对我们的自驾车是什么意思?这意味着它需要两种方法的混合动力:由于特异性的情况,通过机器学习补充了整个道德导轨。

随着这种技术的发展,自动驾驶汽车及其设计师将在处理暧昧方面时斗争,尤其是具有道德矛盾的情景。软件工程师无法编写一个具有无限数量的特定的硬编码响应的程序,这是汽车可能会遇到的每个可能的场景。此外,随着航空业学到了艰难的方式 - 部署了新的自动化系统时,将会有在软件错误和硬件缺陷上阐明了闪光的事故中的临时上升为工程师来解决。

然而,尽管在开发安全的道德自动驾驶汽车方面存在障碍,但它肯定是人类生命的积极举动。根据国家公路交通安全管理局,超过90%的U.S.的汽车事故是由驾驶员错误引起的。人为错误 - 从拟合到发短信 - 可以从方程式中取出,节省了可能丢失到醉酒的司机和分心的青少年的生活。朝着更少的死亡人身走向更安全的道路,对我们来说是一个胜利。

话题:

标签:

添加新评论