您的位置: 首页 > 数据杂志

致命性自主武器系统的伦理争论

出处:数据杂志 作者:符征 网编:张兰 2019-10-30

人工智能当前在许多人看来仍然不过是实验室里的玩具,这是对人工智能当前技术水平和实用效果一种极其严重的低估。

当前围绕人工智能,比担忧《机械战警》中的人工智能体的集体反叛更加急迫和现实的问题,是做出一个伦理决策:是否支持或反对发展致命性自主武器系统(lethal autonomous weapons systems,简称LAWS)。

自主武器系统的黎明

由韩国三星公司制造的SGR-A1是一个哨兵机器人,可以探测入侵者并主动发动攻击。美国洛克希德·马丁公司的AGM-158C是一种远程反舰导弹,它利用车载传感器的输入,能够自发定位并打击海上目标。已经部署的以色列铁穹防御系统,可以自动探测导弹攻击并发射防御导弹。所有这些武器系统都有一个共同的特点:能够自发识别并打击目标。

根据美国国防部定义,自主武器系统是“一种武器系统,一旦被激活,无需人工干预就可以选择并达成目标”。这种系统由人类创造者授权调查周围环境,在复杂算法的基础上识别潜在的敌方目标,独立选择并攻击这些目标。它需要集成几个核心要素:移动作战平台,如无人驾驶飞机、船舶或地面车辆;各种类型的传感器,用于检查平台的周围环境;处理系统对传感器发现的物体进行分类;以及在检测到被允许的目标时,指示平台发起攻击的算法。而致命性自主武器系统则指,能够杀伤人类的自主武器系统。

大规模开发LAWS代表了战争结构转型的潜在趋势。现有人工智能和机器人组件已经可以提供可用的物理平台、感知、运动控制、导航、映射、战术决策和长期规划。目前的工作是把它们与武器系统进一步有效组合起来。例如,汽车自动驾驶技术,与根据DeepMind的学习系统演化的战术控制结合,可以支持战场搜索和摧毁任务。

自主是一个程度问题,目前的战场武器大都只是辅助性的,但显然正在开发和测试的武器方向,是尽量降低人类的控制程度,最终使其能够不需要人类的授权就可以主动发起攻击。比如美国陆军发布的一项LAWS的长期战略指出,要采用渐进式方法,从辅助系统开始,演化到无线遥控、远程操作、半自动功能,然后是完全自治系统。

从纯技术角度来说,LAWS的战斗表现具有不可否认的军事优势。LAWS也被称为“战斗机器人”,相对于人类士兵的招募、训练和维持费用来说,可谓低廉;能克服人类士兵的一切生理限制——不仅能够不知疲倦地工作,而且能克服伤亡带来的严重损失;不存在人类士兵的心理问题,比如忠诚和勇敢……对于战机和舰艇这样的大型武器系统来说,LAWS的反应比人工操作更灵敏、迅速、稳定,活动范围也更加广阔。这种转变与以前的军事技术创新有着质的不同,因此有人将它称为继火药和核武器之后的第三次武器革命。

正因为有可能从根本上改变战争的性质,LAWS让许多社会人士忧心重重。从叙利亚到韩国,从北约到美国本土,抗议开发并使用LAWS的呼声此起彼伏。反对者认为它不仅是一种更有效率的杀人武器,更重要的是,它的现实应用将“跨越道德门槛”,威胁人类尊严并导致道德沦丧。

对暴力扩大化的担忧

对反对者来说,LAWS所具有的不可比拟的技术优势,正是它令人担忧的原因。一方面,LAWS的研发和应用很可能会导致全球新一轮军备竞赛,偏离人类和平与发展的时代主题。绝对的技术优势是现代战争坚定不移的追求目标,占领这一技术的制高点就成为各大国或明或暗争夺的核心。2014年,美国前国防部长查克·哈格尔提出了“第三抵消战略”,即人工智能的快速发展将决定下一代战争。与此同时,美国国防部对人工智能、大数据和云计算的投资提高了25%。今年7月,俄罗斯政府的主要国防承包商卡拉什尼科夫宣布,它正在开发一种利用神经网络做出自主开枪的武器。日本、英国、以色列也在积极支持LAWS研究。新一轮军备竞赛不仅会耗费大量的社会财富,导致经济结构的畸形变化,而且严重威胁到和平与安全的社会氛围,加剧国际社会的冲突和动荡。

另一方面,LAWS进一步增加了战场上人类在生理和心理上的距离,使暴力的使用更容易或更不受控制。当军人不再亲临战场,而是通过摄像机的引导在遥远的后方操纵军事行动时,与敌人视觉接触就消失了。因为不能亲身经历战场的残酷与野蛮,也就不能激起他的同情和厌恶,一切看起来和他坐在家里打虚拟游戏的方式没有太大不同。而且因为他没有亲自上战场扣动扳机,所以战场上的一切罪恶看起来都同他无关。他不必再有任何道德负担和心理负担,这就使他更加倾向于不受控制使用暴力。很多人相信,普遍的人性是阻止战争暴力的最后防线,而LAWS的使用弱化了人性的这种作用。

还有人质疑LAWS的准确率。原则上对LAWS最大的挑战是识别,这要求不光要在复杂的战场形势下分清楚敌友,还要在敌方区域中分清楚战斗人员和非战斗人员。LAWS通常使用基于神经网络的学习算法。但是迄今为止,从技术原理上来讲,这套算法体系是贪婪的、脆弱的、不透明的和浅的。“贪婪”是指,它的成功运用需要调整数亿的参数。“脆弱”是指,它在特定应用的上下文中的适合性将取决于调谐它们的人的能力,任何参数的轻微扰动都会使结果出现逆转。“不透明”是指,神经网络有几十层上亿个节点,整个训练过程是无监督自动完成的,运算过程可以看做是“黑箱”操作。“浅”是指,它对数据敏感,受到文化数据偏见的影响。一些研究者展示了人类视觉和当前深度神经网络之间有趣的差异,引发了对基于深度学习的识别算法的一般性的质疑。他们表明,很容易产生人类无法识别的图像,但最先进的深度学习算法相信是可识别的对象(或人类),并且具有99.99%的置信度。这些算法错误,也是LAWS的目标系统可能出现的错误。算法系统可以提供“好的答案”,但也可以提供毫无意义的答案。

更人道的武器

一些人士则认为、绝不应该全面禁止LAWS。在他们看来,LAWS不仅是技术发展的必然趋势,而且是战争人道主义的必然要求。支持者首先问:人类能够避免战争吗?恐怕没有人能够给出肯定答案。既然战争不能避免,那么选择更加人道的武器将是符合道德的。

首先,LAWS可能比人类直接控制的武器系统更精确和可靠,使国际法和人类伦理价值得到更好的尊重。比如,在战斗中,无人机操作员眯着眼睛盯着屏幕看得头晕眼花,也可能很难分辨出地面上的人是使用AK-47的叛乱分子,还是拿着黑色镰刀的农民(尽管如上所述,反对者对“精确和可靠”有争议)。还有,心理学家认为,人类倾向于“情景实现”,即希望看到我们所期望看到的东西,并忽略压力情况下的矛盾数据,这种影响导致1987年美国文森斯号航空母舰意外击落一架伊朗客机。但是LAWS不会受这种人类行为模式的影响。

其次,LAWS比人类士兵更加严格遵守人道主义原则。再严格的纪律也不能保证士兵不会违背交战规则,尤其是在战斗中。批评LAWS的人往往关注它的技术失误,却忽略了人类在战场上情感激愤而导致的失误。当人类受到焦虑或愤怒的驱使,很容易突破人道主义原则;比如屠杀平民、虐待俘虏等。而且因为各种原因,人道主义灾难即使发生了也很难调查清楚。所以前述的利用人性阻止战争的说法是具有高度争议性的。人类在战场上的表现肯定不会比机器更加道德,因为机器无论如何不会在情绪波动下违反命令。

再次,LAWS可以更有效地保护士兵的安全。现代战争中,士兵的安全往往是国家考虑的头等大事。但战争中的士兵永远是不安全的,除非用机器代替人上战场。这正是LAWS最吸引人的地方,它彻底摆脱了对战争伤亡的担忧。自主武器在防御方面的贡献更值得考虑,尤其是在一些特殊场景中,如火箭弹或短程导弹的攻击,人类士兵可能无法足够迅速地响应传入的威胁,LAWS就可以大显身手。

支持LAWS的论证都是后果论的,即从战争结果的角度来说明LAWS优于普通武器的方面。LAWS和其他所有武器一样,都是中性的,并不存在道德威胁的固有特征,而是要看其设计效果和应用方法。真正值得深思的道德问题是:人类为什么要发动战争呢?

(作者系河南大学马克思主义学院副教授,研究方向为认知哲学)

文 / 符征

本网站所有内容属北京商报社有限公司,未经许可不得转载。 商报总机:010-64101978 媒体合作:010-64101871

商报地址:北京市朝阳区和平里西街21号 邮编:100013 法律顾问:北京市中同律师事务所(010-82011988)

网上有害信息举报  违法和不良信息举报电话:010-84276691 举报邮箱:bjsb@bbtnews.com.cn

ICP备案编号:京ICP备08003726号-1  京公网安备11010502045556号  互联网新闻信息服务许可证11120220001号