Killer Robots的伦理思考文献综述
2020-04-14 17:30:53
1.1研究背景
随着近年来人工智能科技的发展成熟,现代化军用武器系统的自主性不断提高。Killer Robots作为一种人工智能与军事领域相结合的形式,其研发以及在未来战争中的应用受到了世界的广泛关注,同时也引发了国内外学者对其本性和由此引发的伦理问题的热议。例如,Killer Robots是否具有和人类战斗人员一样的自主性,能够和人类战斗人员一样自主选择并打击目标?我们应该如何对它进行定义、定性?它在实际的军事应用中有哪些优势,但同时又会产生怎样的道德伦理方面的考验?人类到底应该支持还是反对Killer Robots的应用?这些都是值得我们深思的问题。
1.2研究意义
(1)理论意义
关于Killer Robots的很多伦理问题都是无法回避的。在对Killer Robots进行定义和定性的问题上,Killer Robots是一个真正的行为者吗?如果是,它就应该有相应的道德权利,并承担相应的道德责任。如果不是真正意义上的行为主体(例如,像人类一样),那么谁应该来为它所造成的伤亡后果承担道德责任,换句话说,是否存在所谓的责任鸿沟(responsibility gap)?Killer Robots相较于人类士兵有哪些优势?它可以完全取代人类士兵吗? Killer Robots作为人工智能在军事方面的应用,其本身就是一种突破性发展。对其相关伦理问题的讨论,会让我们对Killer Robots本身有更加深刻的理解,并且有利于深化我们对其他人工智能技术的伦理问题的认识。
(2)应用意义
对Killer Robots的研发早已提上日程,可以预见其在不久的将来便会实现战场上的应用。从当代政治、军事和社会背景来看,Killer Robots的研发和投入使用,将会对未来战争乃至整个人类社会文明产生重大影响,这更加需要引起我们的关注和思考。目前关于Killer Robots的反对意见主要集中在其安全性、道德责任以及人性的缺失等问题上,对此我们应该通过发展相关技术等手段来提高Killer Robots的安全性,建立合理的道德约束机制,补充和完善相关军事法律法规的空缺等等。鉴于战争的巨大破坏性,支持或反对Killer Robots应当站在人道主义和人类文明的可持续发展的高度来思考。
1.3 国内外研究现状述评
1.3.1国外研究现状