我们是用花缸'有线战争'?第二部分:道德挑战的兴起

经过:

我的最后一张帖子,我在机器人,人工智能(AI)和道德交叉口介绍了一些问题。虽然我渴望对这个Nexus感兴趣,但帖子的最直接推动者正在遇到Peter Singer,这是一本优秀书籍的作者“有线战争“关于无人战争的兴起,同时为电视节目工作”Caprica.“和美国军事研究机构资助的一些工作在我的实验室里仿生机器人。《卡布里卡》是一部关于人类发明有感知能力的机器人战士的电视剧。《卡布里卡》是《太空堡垒加拉蒂卡》(Battlestar Galatica)的前传,我们从这部剧中了解到,这些战士奋起反抗人类,几乎把人类逼到了灭绝的边缘。

在这里,我想提出这样一个观点:制造像《卡布里卡》中那样有知觉的机器人的技术挑战很有趣,制造这样的机器的道德挑战也同样有趣。但用“有趣”这个词太不偏不倚了——我认为,我们需要就这些道德挑战展开对话。机器人专家罗恩·阿金(Ron Arkin)提出这一点已经有一段时间了,他也写过文章一本书如何将伦理决策整合到自主机器人中。

鉴于我们几乎不在建筑物遗传学机器人的门槛上,它可能看起来过于戏剧性地表征这一表征作为一种迫切的关注,但我们工资战争的方式应该让你思考。当我最近调整到华盛顿特区最受欢迎的广播电台的实时饲料时,我听说了如何改变事情的迹象WTOP。商业后的车站播出商业广告iRobot公司(因为Roomba而出名),一家领先的无人军事机器人制造商,明确地瞄准了军事听众。这些广告反映了无人驾驶机器人在军队中的使用如何从2001年的接近零,到现在的一万多个,获取的步伐仍在加快。要了解更多细节,请参见Singer的“有线战争或者是2010年3月关于无人机崛起的国会听证会这里

虽然我们在某种程度上都意识到了这些趋势,但它们几乎没有成为一个值得关注的重大问题。让我们感到欣慰的是,最终的杀戮决定仍然是由人类做出的。但这种安慰有必要吗?这样一个决定的重要性随着战争进行的方式和支持决定的高度处理的信息变得由无人军事机器人调停而改变。

其中一些趋势有助于我们的安全。例如,无人机对塔利班和基地组织(Al-Qaeda)的打击非常有效,因为它们可以对分布稀疏的非国家行为体进行长期监视和攻击。然而,在军事背景下,无人机器人显然是自动机器人的门户技术,机器最终可以做出具有道德分量的决定。

“但等等!很多人会说,“这不是几十年来我们一直听到的老生常谈——机器人和人工智能即将问世吗?”长期以来,机器人和人工智能一直被批评为承诺太多而不能实现。有没有迹象表明这种情况可能发生改变?虽然有大量关于人工智能过去困难的原因,但很明显,它过去的一些困难源于对什么是智能的狭隘概念,这是我在最近的《剑桥情景认知手册》中提到的一个话题。

这种狭窄的构想围绕着可能松散地被描述为认知处理或推理的内容。较新类型的AI和机器人,如体现AI和概率机器人,尝试集成多于符号处理器的一些方面涉及:例如,感应外界并在这些信号中处理不确定性非常响应,情绪加工。高级多感官信号处理技术,如贝叶斯滤波实际上是成功的成功斯坦利,赢得了DARPA大挑战的自主机器人在无人干预的情况下驾驶穿越充满挑战的沙漠路线。

随着这些先前的技术问题被克服,自主决策将变得更加普遍。最终,这将提高道德挑战。一个挑战领域将如何表现为文物,是他们虚拟或机器人,这是赋予如此级别的ai,我们如何对待它们成为一个问题。另一方面,他们如何对待我们成为一个问题,最特别是在军事或警察环境中。自主或半自动战争机器人出现错误并杀死无辜者时会发生什么?我们是否对决策系统的设计师担任责任,该军事战略演员将具有已知局限性的机器放在他们不是设计的上下文中,或者其他实体?

这两个挑战都是关于道德和伦理的。但是,我们目前的道德框架——它是宗教价值观、道德哲学和世俗人文主义价值观的大杂烩——是否能够应对这些挑战还不清楚。正因为如此,人工智能和机器人的未来将既是技术挑战,也是道德挑战。但是,尽管我们有很多聪明的人致力于解决技术挑战,却很少有人致力于解决道德挑战。

我们如何满足道德挑战?一种可能性是寻找科学的指导。在我的下一篇文章中,我将讨论一些方向的一些努力,最近被一名新的活动家形式推动了无神论,这抱着它是不正确的,甚至危险,认为我们需要宗教对地面道德。我们可以尊重,看看,了解幸福,同理心和合作的新科学,以指导我们的价值体系。

话题:

标签:

注释

笛卡尔哲学正在发展人类机器的概念,但我更喜欢把它与无人机或外骨骼之类的东西联系起来理解,因为我不确定这一进展是否会阻碍一个独立的机器人。

让我这么说......越来越多的机器人系统都带走了体力劳动......甚至更大的道德困境是如何战斗无人机无法确定大多数时代的朋友或敌人......特别是当人类的控制仍然需要......

添加新评论