Killer Robots的伦理思考毕业论文
2020-02-15 16:10:02
摘 要
现代科学技术特别是现代人工智能技术的发展,在给人们的生活提供便利的同时,也作为新事物冲击着原有的伦理道德体系。Killer Robots也称作“杀人机器人”,它是人工智能技术应用于军事领域和未来战争的一种新兴产物。简单地说,它是一种特殊的军用机器人或军事武器,其所具有的高度自主性和极大的致命性不仅显示出广阔的军事应用前景,而且也潜藏着巨大的伦理风险,因而不得不引起我们的关注和讨论。
作为一种新型的人工智能军事机器人,Killer Robots一旦在激活之后,就可以根据人类预先设定好的程序和操作系统自主选择和攻击目标。根据它的自主性程度以及与人类操作者的关系,Killer Robots可以区分为缺乏自主性、弱自主和完全自主性三种不同类型。尽管Killer Robots相比人类士兵有很多明显的优点,但是它仍然面临许多的挑战。例如,Killer Robots是否具有和人类战斗人员一样的自主性?它能否真正像人类战斗人员一样自主选择并打击目标?部署Killer Robots是否合乎伦理道德和战争的正义性,换言之,我们是否应该或允许在未来战场上大规模使用Killer Robots来替代人类士兵?这些都是值得深思的问题。
本文主要分为五个部分:
文章第一部分提出研究的问题及其意义,概述国内外研究现状,介绍研究思路与方法,并指出研究的难点与创新点。
文章第二部分对Killer Robots的概念和分类问题进行简要的讨论,并简单介绍了Killer Robots用于战场上的优点。
文章第三部分针对目前关于Killer Robots的两种主要的反对意见(即外在论证和内在论证)进行梳理和分析,并指出这两种反对意见各自存在的困难。
文章第四部分从Killer Robots的本性、人道主义原则和未来战争的目的等几个方面对Killer Robots进行一定程度的伦理辩护,这是本文的创新点所在。
文章最后一部分总结前述分析,得出结论,即Killer Robots应当得到支持。
关键词:Killer Robots,人工智能,军事机器人,伦理困境
Abstract
Modern science and technology, especially the development of modern artificial intelligence technology, not only provide convenience to people's life, but also impact the original ethical and moral system as a new thing. Killer Robots, known as "Killer " Robots, are a new product of the application of artificial intelligence technology in the military field and future wars. To put it simply, it is a special military robot or military weapon. Its high autonomy and great lethality not only show a broad prospect of military application, but also hidden huge ethical risks, so it has to arouse our attention and discussion.
As a new type of artificial intelligence military robot, Killer Robots, once activated, can independently select and attack targets according to preset programs and operating systems of human beings. According to its degree of autonomy and its relationship with human operators, Killer Robots can be divided into three types: lack of autonomy, weak autonomy and complete autonomy. Although Killer Robots have many obvious advantages over human soldiers, it still faces many challenges. For example, do Killer Robots have the same autonomy as human combatants? Can it truly choose and strike targets as a human combatant? In other words, should we or should we allow the large-scale use of Killer Robots to replace human soldiers in future battlefields? These are questions worth pondering.
This paper is mainly divided into five parts:
The first part of this paper puts forward the research problems and significance, summarizes the research status at home and abroad, introduces the research ideas and methods, and points out the difficulties and innovations in the research.
In the second part, the concept and classification of Killer Robots are briefly discussed, and the advantages of Killer Robots in battlefield are briefly introduced.
The third part of this paper sorts out and analyzes the two main objections of Killer Robots (i.e. external argument and internal argument), and points out the difficulties of these two objections.
The fourth part of this paper makes an ethical defense of Killer Robots to some extent from the nature of Killer Robots, humanitarian principle and the purpose of future wars, which is the innovation of this paper.
The last part of the article summarizes the above analysis and comes to the conclusion that Killer Robots should be supported.
Key words: Killer Robots, Artificial Intelligence, Military Robots, Ethical Dilemma
目 录
摘 要 I
Abstract II
第1章 导言 1
1.1研究的问题及其意义 1
1.1.1研究问题 1
1.1.2研究意义 1
1.2国内外研究现状述评 1
1.2.1 国外研究现状 2
1.2.2 国内研究现状 3
1.3研究的思路与方法 4
1.3.1研究思路 4
1.3.2研究方法 5
1.4研究的难点与创新点 5
第2章 军事机器人的发展与Killer Robots的出现 6
2.1 Killer Robots的定义 6
2.2 Killer Robots的分类 8
2.3 Killer Robots的优点 9
第3章 反对Killer Robots的主要论证 10
3.1外在论证 10
3.2内在论证 10
3.3两种论证的困难 12
第4章 对Killer Robots的伦理辩护 16
4.1 Killer robots并非真正的Killer 16
4.2符合人道主义原则 16
4.3有利于改变未来战争的方式 17
结 论 19
致 谢 20
参考文献 21
第1章 导言
1.1研究的问题及其意义
1.1.1研究问题
近来,随着人工智能技术的发展成熟,这些技术已经逐渐渗入各个领域。Killer Robots作为一种人工智能与军事领域相结合的形式,其研发以及在未来战争中的应用受到了世界的广泛关注,同时也引发了国内外学者对其本性和由此引发的伦理问题的热议。例如,Killer Robots是否具有和人类战斗人员一样的自主性,能够和人类战斗人员一样自主选择并打击目标?我们应该如何对它进行定义、定性?它在实际的军事应用中有哪些优势,但同时又会产生怎样的道德伦理方面的考验?人类到底应该支持还是反对Killer Robots的应用?这些都是值得我们深思的问题。
1.1.2研究意义
关于Killer Robots的很多伦理问题都是无法回避的。在对Killer Robots进行定义和定性的问题上,Killer Robots是一个真正的道德行为者吗?如果是,它就应该有相应的道德权利,并承担相应的道德责任。如果不是真正意义上的行为主体(例如,像人类一样),那么谁应该来为它所造成的伤亡后果承担道德责任,换句话说,是否存在所谓的责任鸿沟(responsibility gap)?Killer Robots相较于人类士兵有哪些优势?它可以完全取代人类士兵吗? Killer Robots作为人工智能在军事方面的应用,其本身就是一种突破性发展。对其相关伦理问题的讨论,会让我们对Killer Robots本身有更加深刻的理解,并且有利于深化我们对其他人工智能技术的伦理问题的认识。
对Killer Robots的研发早已提上日程,可以预见其在不久的将来便会实现战场上的应用。从当代政治、军事和社会背景来看,Killer Robots的研发和投入使用,将会对未来战争乃至整个人类社会文明产生重大影响,这更加需要引起我们的关注和思考。目前关于Killer Robots的反对意见主要集中在其安全性、道德责任以及人性的缺失等问题上,对此我们应该通过发展相关技术等手段来提高Killer Robots的安全性,建立合理的道德约束机制,补充和完善相关军事法律法规的空缺等等。鉴于战争的巨大破坏性,支持或反对Killer Robots应当站在人道主义和人类文明的可持续发展的高度来思考。
1.2国内外研究现状述评
1.2.1 国外研究现状
首先,在定义和定性问题上,国外的一些学者普遍认为Killer Robots代表了一种独特的军事技术,因为它们不仅能够自主行动,并且能够决定何时以及如何对目标使用致命武力。作为一种自主性武器,Killer Robots在很多学者的讨论中被认为是拥有全自主能力的“准人格”。据此,罗伯·斯派洛(Rob Sparrow) 认为,Killer Robots的行为源于自身,反映了自身的目的[1]。此外,在一个完全自主的代理中,这些目的在某种意义上是他们自己选择的目的。与此相对的是,另外一些人认为Killer Robots不是完全自主的。迈克尔·罗毕拉德(Michael Robillard)认为,“事实上,如果AWS(全自主武器系统,全称是autonomous weapon systems)只是在模仿真实的决策,但实际上并没有对认识论和(可能)道德原因作出响应,那么我不确定在何种合理的意义上,我们可以将其视为“真正的”决策者。”[2]
其次,比较有争议的是Killer Robots所造成的后果由谁负责的问题。一种看法认为Killer Robots不是一个行为者,道德责任必须完全落在人类设计人员、程序员和实现人员的身上,必须由负责创建、编程和部署的人员承担。另外一种看法认为操作上自主的机器有时会以一种不可预测的方式运行,让程序员和设计师为操作上自主的机器行为的不可预见后果负责是不合适的。在罗伯·斯派洛看来,Killer Robots具有自主性,因为它一旦被激活,就可以在不需要人工干预的情况下选择和攻击目标,所以人类无法对所造成的后果负责。又因为它并没有受惩罚的能力,不具备承担道德责任的能力,所以它本身也无法对它造成的后果负责任。
最后,国外学者对Killer Robots持支持和反对两种态度。其中,反对Killer Robots的观点主要有两种。一种是由罗伯·斯派洛等人主张的“责任鸿沟”的观点。斯派洛的观点可以总结为:(1)发动战争要求我们能够公正地要求某人对我们造成的敌方战斗人员的死亡负道义上的责任;(2)无论是Killer Robots的程序员还是它的指挥官,都不能对其导致的敌方战斗人员死亡负道义上的责任;(3)从概念上讲,我们不能认为美国法律协会对其行为,包括导致敌方战斗人员死亡的行为,负有道义上的责任;(4)没有其他可信的候选人,我们可以认为其在道义上对它导致的敌方战斗人员死亡负有责任;(5)因此,我们可以公正地认为没有人应对Killer Robots导致的敌方战斗人员死亡负责;(6)因此,使用Killer Robots发动战争是不被允许的。这样做就是“像对待害虫一样对待我们的敌人,就好像他们可能会被消灭而没有任何道德上的考虑” [3]。
在迈克尔·罗毕拉德(Michael Robillard)看来,在这种“责任鸿沟”的观点下,潜在着更加重大的危机。这种观点不仅否定了Killer Robots的设计者和指挥官等人的责任,并且这种把决策者看作是其本身,而不是派遣它们的国家的人类程序员或实施者的做法,实际上对于非正义战争也是一种鼓励。具有讽刺意味的是,把其想象成他们自己的决策者,而不是能够承担道德责任的实际代理人,随之而来的是一种道德上的纵容。[4]
另一种反对观点主要是针对Killer Robot导致的战场上人类主体性和人性的缺失。邓肯·普尔夫斯(Duncan Purves)、瑞安·詹金斯(Ryan Jenkins)和布莱德利·杰·斯特劳瑟(Bradley Jay Strawser)等人认为,Killer Robots道德理性无法进行编码,并且它也无法为了“正确”的理由而采取行动。[5]“熟悉五角大楼研究的P. W.辛格(P.W. Singer)指出,军事机器人将永远改变战争,既然战争可以在办公室的桌面上进行,那么杀戮的道德和心理障碍将更容易克服。在《新亚特兰蒂斯》(The New Atlantis)(2009)的一篇文章中,他提到了格罗斯曼的心理学研究(格罗斯曼1995),他说,用电子游戏的方式进行战争可能“让士兵过于冷静,对杀戮过于无动于衷”。这不是科幻小说,如今,有许多武装的、遥控的无人移动物体在使用,比如美国军方。[6]
支持Killer Robots的观点主要是出于人道主义的考量。一些支持者认为军队能通过合理地使用Killer Robots减少其士兵的危险并且增强对战争规则的遵守。士兵犯下的战争罪行的持续存在证明,人类往往不遵守战争规则,特别是在紧张的情况下。他们不再冷静,变得好战。相反,机器人学家罗纳德·阿金(Ronald Arkin)指出,机器人不容易受到类似的心理压力。他们的“动力”来自算法[7]。如果有可能以不违反战争规则的方式为机器人编程,那么部署机器人,而不是部署“容易犯错”的人类士兵,在道义上是可取的。换句话说,让机器人而不是人类来扣动扳机更安全。
1.2.2国内研究现状
在负道德责任的主体问题上,国内学者普遍认为Killer Robots并没有可以杀人或预谋杀人的自主性,它们只是完成设计者对程序的设定。很多学者否定Killer Robots “准人格”或“类人格”地位,不将Killer Robots视为承担道德责任的行为体。由此,产生了:(1)战地指挥官责任论;(2)编程者责任论;(3)国家责任论。董青岭写道,“总体来讲,国家有责任采取一切必要可行之措施,确保无论是人类战斗员还是自主武器系统都要遵守国际人道法,严控自主性武器系统对无辜平民和物体的意外伤害”[8]。
与上述看法相对的是,徐英瑾(2016)认为,一个真正具有自主性的 (即非远程遥控的)军用机器人肯定是具有伦理推理能力的。在这个前提下,他提出一旦Killer Robots误伤等意外事故发生后,相关的调查委员会就必须按照一定的排除程序展开“责任指派工作” [9]。杜严勇支持“人工道德”的观点,认为虽然目前设计者和指挥官为Killer Robots负道德责任,但可以通过对Killer Robots灌输公认的道德准则,将其变为一个道德行为体,完成道德责任的“转移” [10]。
国内对Killer Robots的研发和应用也有支持和反对两种观点。支持的观点主要是认为人工智能技术的运用使得未来战争更具人伦关怀。徐英瑾在《人工智能将使未来战争更具伦理关怀——对马斯克先生的回应》中指出,人工智能与既有武器平台的结合很可能反而会增加未来战争的伦理指数,由于人工智能的运用本身就具有“减少附带伤害”这样的潜在伦理目的,相关技术的提高显然能够使得军事打击变得更为精准,对民众生命与物质财产的伤害也能够被降到最小,人工智能的发展还能够全面提升未来战争的水准,使得可能爆发的武装冲突所导致的人类士兵的死亡率大大降低,而这一点也就为各国政府更容易开展针对武装冲突的和平斡旋活动。[11]
反对的观点主要是对Killer Robots的安全性问题的担忧。安全性问题是国家在使用Killer Robots时无法回避的。在实际战斗中,如果能够找出敌方 AI 系统的漏洞,那么电子战斗系统可以从系统上完全破坏对方的无人自动化作战体系,甚至控制对方的无人作战系统。如果这个问题不解决,那么没有任何国家敢于大规模配备无人作战系统。[12]在未来,人工智能会不会被不法分子利用,也是值得我们考虑的问题。孙伟平在《关于人工智能的价值反思》(2017)中写道:“即使超级智能本身没有扭曲的价值观和邪恶的动机,但如果某一组织或个人研发、掌握了类似的超级智能,不负责任地滥用技术,以实现自己不可告人的目的,后果也将是灾难性的。”[13]另外,杜严勇用“人性本善”的论点指出对Killer Robots缺乏人性的担忧。