登录

  • 登录
  • 忘记密码?点击找回

注册

  • 获取手机验证码 60
  • 注册

找回密码

  • 获取手机验证码60
  • 找回
毕业论文网 > 外文翻译 > 法学类 > 法学 > 正文

弱人工智能的法律风险和刑事归因外文翻译资料

 2023-03-13 11:17:38  

弱人工智能的法律风险和刑事归因

原文作者:Lei Wei

单位:School of Criminal Justice, Shanghai University of Political Science and Law, Shanghai, China

摘要:目前,人工智能的法律风险主要表现为弱人工智能的三大风险:弱人工智能的风险、弱人工智能侵犯个人信息的风险和利用弱人工智能携带非法犯罪的风险。刑法应适当消除技术中立原则,扩大刑法适用范围,解决人工智能薄弱的法律风险。

关键词:人工智能;法律风险;刑事;

1. 介绍

人类社会正在进入一个前所未有的人工智能时代,它已经开始发展人类没有给予太多关注的内在思维能力。人工智能的空前发展给人们带来了前所未有的风险。人类社会迫切需要从法律、技术、伦理等各个领域采取预防措施。我们还需要考虑人工智能对个人权利、危害社会秩序甚至破坏人类文明的问题。人们需要在人工智能创造社会福利和监管人工智能的风险之间划出适当的界限。在需要监管的各种人工智能风险中,人工智能的犯罪风险最为明显和直接,一些新的犯罪出现了。

根据人工智能本身是否能识别和控制计算机程序,人工智能可以分为弱人工智能和强人工智能。弱人工智能是指在设计和编程范围内的独立判断和决策,但它不具备识别和控制的能力。这是设计师或用户的意愿。强大的人工智能是指识别和控制的能力。在设计和编程的范围内,可以独立决定和独立决策,实现设计者或用户的意愿,并超越程序设计和编译的范围,做出独立的决策并实现相应的行为来实现自己的意愿。人工智能分为弱人工智能和强人工智能的分类,其定位是判断是否存在计算机程序与机械操作相结合形式的人类思维能力或功能。它的本质是将人工智能与人进行比较。它使未来的人工智能发展到非常高的强度。在AI的阶段,大多数生物人的思维能力与一般生物一样,无法突破现代智人的思维水平。

每当技术发展到临界点时,总会有一个关于这项技术发展的价值判断问题,比如第二次世界大战结束时原子弹的发展。以Einst ein为代表的科学家担心原子弹发展和纳粹抢劫原子弹的巨大灾难。第一发明后,经过漫长而痛苦的考虑,终于转向了盟军的'曼哈顿计划',为二战的胜利赢得了一次大好机会。人工智能发展之间的合理区别不能脱离价值判断。不建议简单地考虑技术标准。严格来说,人工智能的法律监管也是价值判断的一部分。仅从技术层面到人工智能,弱者强两品,就大大压缩了人工智能法律监管和刑事责任审查的合理空间。[1] 因此,可以对人工智能进行更合理的发展分类。考虑到人工智能刑法监管的重要前提,这也是对一些认为人工智能与刑法无关的怀疑论者的强烈回应。

人工智能的发展方向应建立一个合理的参考框架。人工智能与人类参照的比较只是人工智能发展的初级阶段。当人工智能发展到高级阶段时,有必要建立人工智能的参考比较。人类在人工智能领域必须面对人类的生存,这是一个巨大的挑战。纯价值中立性不应该存在于人工智能领域。机器人伦理、人工智能政策、人工智能法律规则等各种价值判断,在人工智能领域都具有必要的意义。价值判断参与的类型和动态 与人工智能的发展成反比,人工智能在人工智能中的发展成反比。初级阶段需要对道德、政策和私法进行监管。在人工智能发展的高级阶段,需要公法的规范。在人工智能的发展中,人工智能的发展已经显示出现代世界的高级阶段。刑法的干预是公法的有力保障,是不可避免的选择。

表 1.

1. 地点

磁带

参考系

认知标准

价值

弱人工智能

人类智能

感知智能

策略优先级

强大的人工智能

弱人工智能

认知智能

公法优先权

2. 研发或制造弱人工智能的法律风险

使用弱人工智能按照刑法应当刑事定罪,主要难点是判断使用弱人工智能的行为、因果关系和处罚范围。作为未来人类社会发展的重要动力,人工智能在技术上具有天然的合理性和合法性。现代社会对人工智能的发展有很大的宽容。似乎父母对淘气的熊孩子的容忍度是相似的。然而,社会和法律仍然有宽容的底线。严格来说,现在的人工智能属于弱人工智能,处于非常初级的阶段。弱人工智能仍在人类设计方案的范围内运行,使用弱人工智能的行为仍属于人类行为。但是,弱者在刑法中受到评估。工作智能的行为与伤害结果之间的因果关系,无法超越弱人工智能,直接评估人类行为。在现行刑法中,考虑弱人工智能在因果链中的归因因素是必要的,但要评估弱人工智能在刑法因果关系中的作用,应该涉及的不仅仅是基变线。对于环境中越来越复杂的行为因素,设计者、制造商、操作者和用户之间具有复杂因果关系的弱人工智能,需要在现行刑法涉及计算机信息网络犯罪、责任犯罪、危害公共安全等方面得到更合理的解决。为了找到适当的相应归因路径。在美国发生无人驾驶车辆事故引起的事故时,美国国家交通安全委员会(State Traffic Safety Commission)调查认为,人类驾驶员仍需承担共同响应无人驾驶状态下的驾驶监督义务,并排除车辆设计者和制造商的刑事责任。当一种行为存在因侵犯合法利益而产生的危险时,立法机关允许或禁止的就是立法政策问题。现实生活中的具体行为是否具有侵犯合法利益的危险,是否符合犯罪的客观构成要求,是刑法解释理论的一致性。

弱人工智能的优势在于利用大数据和深度机器学习的紧密结合,快速进行大、深、精的计算,本质上放大或扩展了一些人类能力,尤其是拉格数的快速识别和控制能力。例如,已经在我国某些地区运行的'天空之眼系统',就是一名女警察,手里拿着一个看起来像一面黑暗镜子的仪器。它可以识别同一条街道上的数百名行人,数十辆机动车辆或非机动车辆的人脸识别。相比之下,发现嫌疑人或威胁并及时处置,实际上是在放大和扩展人类的视觉功能。因此,在弱AI的研发、制造、运营和使用过程中,存在较大的犯罪风险 。

适宜区分研发或制造弱人工智能的合理风险,以避免科学研究的刑事责任,这在目前弱人工智能的发展中是无罪的,而弱人工智能发展中的科研风险可以被视为允许的风险。'允许的危险是指该行为已经造成重要法律意义的危险,但这种危险通常与具体情况无关)并且是允许的。因此,与理由不同,这种行为被认为阻碍了对象元素的归属。'[2]允许风险的一个典型例子是按照所有道路交通规则驾驶机动车辆。尽管在遵守所有交通法规后仍然存在违反合法利益的结果,但这不是符合构成要求的行为。这同样适用于过失罪和故意罪。如前文所述,在佛罗里达州发生特斯拉无人驾驶汽车致命事故的主要原因是,在阳光直射下,无人系统无法区分前方卡车车身的蓝色和前方的蓝天,导致系统无法识别由于事故造成的卡车。弱人工智能已经能够感知人类视网膜以外的颜色类型和数量,但仍然无法在复杂的情况下识别和识别复杂的颜色。不认为特斯拉未失效车辆的研发或制造商应对处罚负责。责任型犯罪属于过失犯罪。在我国刑法中,惩治故意犯罪和惩治过失罪的原则是例外。严格遵循合法原则是必要的,只能在刑法的前提下受到惩罚。因此,必须追究弱人工智能的开发者或制造商的刑事责任。它以现行刑法关于过失罪的明确规定为基础。我国刑法中惩罚过失犯罪的核心要素是犯罪人是否具有预见义务和预见能力。弱人工智能的研发或制造商的远见义务应该来自法律和该地区的人工智能发展水平。'可以认为,当时人工智能技术的开发和使用水平是一个相对清晰的标尺。用这个标准来判断开发者和用户是否有可预见的义务,也是比较客观的。如果开发者和用户很可能利用当时的人工智能技术来预见有害结果的发生,人工智能的研究人员和用户就有可预见的义务。最终发生的有害结果应视为研究者或使用者没有履行可预见的义务,并且存在因果关系,遗漏和损害的结果,以及开发者或用户将认定为过失犯罪。'[3]

3. 人工智能弱的个人信息风险

人工智能的运行是一种高端业务,需要大量的人力物力投入。实力雄厚的高科技公司在个性化数据挖掘、自然语言对话、无人车与无人机、图像等方面都取得了长足的进步。识别等等。然而,人工智能的运行隐藏在重大发展的背后。难以避免的原罪,获取大数据可能涉嫌侵犯公民个人信息。大数据是推动人工智能发展的两大动力之一。它主要来自高科技公司和机构在运营和履行职责过程中获得的个人信息和消费信息。经过机器算法的分类,具有很大的经济效益和社会价值。在收集到大众消费记录后,弱人工智能可以准确分析消费习惯,并准确推送相关的商品链接、广告和优惠信息。然而,弱人工智能通常没有法律依据来勾结大量消费信息,甚至在违法犯罪的边缘徘徊。大量收集有价值的信息很难保证得到收集者的同意,根据2017年第三条《关于侵犯公民个人信息刑事案件适用法律适用性的解释》,'未经收集者同意,合法收集的个人信息被提供给他人,这属于犯罪。提供第1条第1款规定的'公民个人信息',但处理后无法识别且无法恢复的除外。同时,弱人工智能系统的运行已被怀疑侵犯了公民的个人信息,在其他法律要求的情况下极有可能构成犯罪。[4]

除了商业运营,弱AI在新媒体领域也有更多的运营。在新媒体领域,弱人工智能的运作比其他领域具有更明显的特征:不仅需要学习善良,还需要区分丑陋,区分涉嫌色情,非法,血腥,惊悚片等有害内容。为了应对新媒体平台的海量大数据涌入,更好地履行监管义务,各大网络平台都开始运营弱人工智能。[5] 然而,由于人工智能操作薄弱,普遍缺乏监督,甚至拒绝履行信息网络安全管理义务。弱人工智能在海量信息表单的审核中比普通人更有效率,但在内容审核上还是不如一般自然人。将'邪教'视频伪装成标题或关键词上的'亲子关系'和'早期教学',而视觉频率的内容没有出现在通常的色情作品中,或者色情图像在后台的监督下没有被人工智能过滤,导致有害信息的滥用造成更严重的后果。

4. 涉及弱人工智能的常见犯罪风险

携带弱人工智能的设备或平台直接被恶意用作危害社会的工具,刑法的归因与其他动物或无生命人或无生命人或无刑事责任人作为危害社会的工具的伤害之间没有本质区别。

携带弱人工智能的设备或平台被间接使用或滥用为危害社会的工具,刑法中应充分考虑合法性原则。这种就位主要表现形式有两种:一是人工智能目前还处于弱人工智能阶段,不具备独立的识别和控制能力,而是需要自然人或自然人的监督和干扰,而弱人工智能在人类的操纵或引导下,会对他人的利益造成损害或危险。社会行为需要与案件区分开来,以承担刑事责任。比如无人状态下的自动驾驶仪在高速公路上被行人撞到路上,司机忙着接管,但由于突然刹车还不算太晚,就要考虑自动驾驶仪和司机的人工智能程度。如上图所示,按照目前世界公认的SAE标准,一辆弱智能自动驾驶汽车可以分为L1-L5五个等级。有必要根据事故中不同等级的自动驾驶汽车将系统的不同义务分配给个人。如果事故的自动驾驶汽车属于L3级,则所有驾驶操作由弱人工智能执行,驾驶员负责外围监控和紧急接管,当驾驶员负责系统请求时。系统没有及时发现行人闯入道路,造成严重后果。驾驶员有责任找到行人闯入道路并发出请求,而驾驶员有条件接管但不是及时。其他等级的自动驾驶仪也类似。二是滥用弱人工智能侵犯社会利益和他人利益的,依照刑法规定应当承担刑事责任。弱人工智能具有自动学习和自动收集信息的能力。在此基础上,国外主流引擎和国内各大社交平台纷纷采用弱智智能大数据挖掘技术。例如,Google Corporation的Google搜索功能强大,因为它可以根据搜索关键字和点击次数自动合适。网页的自动放置和新浪的微博搜索也类似。由于弱人工智能只能找到识别信息的频率,无法识别信息的真实性,弱人工智能很容易被滥用,例如,在我们公司中,因购买网络水军而对他人个人声誉造成严重损害的虚假信息事件在我国已经发生过很多次了,而肇事者则利用弱人工智能机器来欺骗大数据。[6]实施高密度搜索来操纵热门搜索列表的特点,在热门搜索列表上出现虚假信息后,其他用户进一步高频点击导致弱人工智能搜索关键字更加固定,造成马太对他人声誉的影响。这在相关司法解释中应考虑到点击次数、转发次数等定罪数量要求,由犯罪者承担滥用弱人工智能控制名单的责任。

图 1.SAE级自动驾驶系统

5. 结论

弱人工智能的技术发展不会脱离人的意志,最终会发展到具有独立识别和控制能力的强大人工智能,从根本上动摇了传统主体判断的基础,包括刑法在内的法制需要预先判断。

为此,各国开始考虑利用刑法惩治对克隆技术的研究、支持和应用,典型地如德国和日本等国制定了包含刑事条款的特别法律来规范,明确了禁止生殖性克隆的严肃立场;法国最严格、最全面的法规,法国也修订了若干项法律。

《守则》规定并制定了禁止克隆甚至医学克隆的特别条例。与中国刑法的立法模式相比,法国刑法典具有更多的参考意义。主要条款如下:1、法国刑法典第二卷第一部分,'反人类和人类重罪'的第一部分,第一章'优生学和克隆生殖的严重罪行',主要是克隆犯罪的214-2。对与活童或死童基因相同的孩子的出生处以'30年监禁和750万欧元罚款';第214-4条'参加形成的群体或默许一项或多项表明为某种准备工作的具体行为 第214-2条中的重罪。应判处无期徒刑和750万欧元罚款。2.法国刑法典第五版第一部分《公共卫生领域的犯罪》、《生物医

剩余内容已隐藏,支付完成后下载完整资料


英语原文共 7 页,剩余内容已隐藏,支付完成后下载完整资料


资料编号:[597012],资料为PDF文档或Word文档,PDF文档可免费转换为Word

您需要先支付 30元 才能查看全部内容!立即支付

企业微信

Copyright © 2010-2022 毕业论文网 站点地图