以自动驾驶为例浅析人工智能引发的法律问题文献综述
2020-04-21 16:30:35
(1)目的及意义
目的: 基于人工智能的发展现状科学预见人工智能可能带来的风险,通过法律进行有效规制,保证人工智能在良好有序的秩序下发展。积极运用法律,通过立法对人工智能发展提供基本规则、趋利避害的同时,也在相关法律规范的引导下,营造更好的创新文化。
理论意义:人工智能是社会发展的产物,在智能化的当代,无处不在的人工智能给人类带来了诸多便利。然而,关于人工智能的法律人格问题以及伦理问题和法律风险问题也随之产生。许多国家开始针对人工智能出台相应的法律制度与措施。笔者的研究旨在探讨人工智能所存在的法律风险及法律漏洞,借鉴他国的相关法律制度,对人工智能的法律风险提出解决办法与防范措施。
现实意义:随着我国科技水平的不断发展,人工智能已体现在人类生活中的方方面面。与此同时,人工智能所衍生的法律问题也渐渐浮出水面。例如无人驾驶汽车导致的车祸追责问题,移动终端的个人信息披露问题等等,导致公民的合法权益遭受侵害却难以追责。所以笔者认为,人工智能的法律风险研究迫在眉睫。
(2)国外研究现状分析
早在1942 年,美国阿西莫夫便提出了“机器人三定律”,建议为机器人的研发制定原则,相当于“机器人的基本法律”。而从当前情况来看,机器人只是人工智能技术的一个领域。在互联网和计算机高速发达的当下,人工智能可以在多个领域以各种形式存在,其迅猛的发展势头也引起人们对该技术的担忧。从2005 年开始,国外对于“机器人伦理学”和人工智能伦理问题的研究也悄然兴起,如韩国工商能源部颁布的《机器人伦理宪章》欧洲机器人研究网络(EURON) 的《机器人伦理 学路 线 图 》、《Artificial Intelligence Safety Engineering: Why Machine Ethics Is aWrong Approach》、《Robot Ethics: The Ethics and Social Implications ofRobotics》等一批文章对人工智能技术的安全性问题、法律与伦理问题和社会问题进行论述。但是,从收集到的资料看,国外前期的研究成果主要集中在人工智能的伦理问题领域,对于该技术在社会应用中的法律问题未作深入研究。直到2016 年10 月13 日美国总统办公室发布的《美国国家人工智能研究与发展策略规划》,将“理解人工智能可能带来的道德法律风险并应对其可能产生的社会影响”写入主要内容,才开始了人工智能与法律风险的研究,而关于此问题的学术成果却寥寥无几。
(3)国内研究现状分析
虽然我国在人工智能技术方面的研究起步相对较晚,但随着国内计算机技术和互联网产业的高速发展,以及改革开放带来的广泛技术交流和及时应用体验,使我国人工智能技术得到迅速发展。同时,国内学者针对该技术可能带来的哲学问题、伦理问题、道德问题也在不断研究,例如: 李琼撰写的《人工智能的哲学思考》、郑祥福撰写的《人工智能的四大哲学问题》、陈立鹏撰写的《人工智能引发的科学技术伦理问题》等。但是,通过查阅资料发现,对于人工智能社会应用中法律问题的研究却屈指可数,仅有陈亮《电子代理人法律人格分析》周玲敏《关于人工智能及其法律问题的思考》赵明《人工智能对现行法律体系的影响》杜森《人工智能的法律与伦理意识形态问题研究》等文章对人工智能技术引发的法律问题进行了较宏观的探索研究。我国2016年发布的《“互联网 ”人工智能三年行动实施方案》和《智能硬件产业创新发展专项行动(2016-2018年)》也均未涉及人工智能社会应用中的法律问题。
总体来看,国外关于人工智能技术涉及伦理问题的研究起步较早,已逐步扩展至对法律问题及风险的研究,并列入国家层面的发展策略规划,开展更加深入的研究。虽然国内部分学者针对人工智能技术应用中涉及的法律风险做过一些研究,但是不论从深度还是广度上看,均难以应对此项技术的迅猛发展带来的法律需求。