人工智能有限法律人格审视

作者:袁  曾


 

【法宝引证码】CLI.A.0101185
【学科类别】民商法学
【出处】《东方法学》2017年第5期
【写作时间】2017年
【中文摘要】现行法律体系下对于人工智能的法律人格规制缺位,造成实践应用缺乏法律价值指引,人工智能的法律地位与具体规制亟待明晰。人工智能具有独立自主的行为能力,有资格享有法律权利并承担责任义务,人工智能应当具有法律人格。但由于人工智能承担行为能力的后果有限,人工智能适用特殊的法律规范与侵权责任体系安排,其具有的法律人格是有限的法律人格,域外法律对此已有立法借鉴。为调整适应人工智能有限法律人格的规制安排,必须明确人工智能归责原则,通过强制投保责任险、确立以人为本的监管体系、加速《人工智能发展法》立法等体系性安排促进人工智能在可控的范围内发展。
【中文关键字】人工智能;法律人格;人权;数据安全
【全文】


  人工智能前景广泛、应用丰富,[1]现阶段23%的律师业务已可由人工智能完成。[2]人工智能目前已实现自动驾驶航空器、完成高考试卷,甚至有学者提出将人工智能应用于法律裁判。[3]人工智能已进入社会生活,而与之相关的法律规制却未能跟上人工智能技术前进的节奏。2017年7月,百度总裁李彦宏乘坐无人驾驶汽车行驶在北京五环路上引起了巨大争议,交管部门认为此行为违反现行《道路交通安全法》。
 
  2017年7月20日,国务院印发《关于新一代人工智能发展规划的通知》,[4]明确提出把人工智能发展放在国家战略层面系统布局,牢牢把握战略主动。一般认为,人工智能是人机环境系统交互的产物,[5]但迄今人工智能尚无一个能被广泛接受的定义。笔者认为,具有类似人类独立思考与深度学习的能力是人工智能与其他科技最大的差异。艾伦?图灵等计算机大师曾提出人工智能迟早会威胁到人类生存,必须在问题积重难返前,对人工智能的发展作出妥善的法律规制安排,以引导实践的发展。在技术的发展过程中,人工智能的法律地位、法律责任、权利义务范围等法律规制该如何界定?对于这些问题,现行法律规制并无明确的解答。在法律制度无法有效应对实际情况时,法律理论理应出场,[6]首先需要明确的问题就是人工智能是否具有法律人格,即人工智能是否等同于法律意义上的人,具有什么程度的权利与义务。人工智能的法律人格问题直接关系着侵权责任承担、知识产权应用、数据应用安全、价值一致性判断、机器伦理学等一系列基础理论的发展决策。
 
  一、人工智能的法律人格规制缺位
 
  法律人格,是指法律认可的一种享受权利、承担义务的资格。包括自然人主体、法律拟制主体两种形式。对于任何自然人,法律均承认其法律人格,民法上分为无民事行为能力人、限制行为能力人与完全行为能力人,但法律人格伴随自然人终生。对于法律拟制主体的人格,则需要经过法律规定的程序方可取得,例如有限责任公司的设立等。[7]简单地说,法律人格是某一主体能否成为法律意义上“人”的资格,是其享有权利、履行义务的基础。人格是可以扩展于自然之外的实体的,[8]但现行体系下,人工智能是否具有法律人格并不明晰,造成现实的适用困境。
 
  (一)缺乏法律价值指引
 
  每一项重大科技应用前后,均有对其的争论。20世纪90年代克隆技术的成功就曾产生过巨大争议,其中最大的焦点在于是否允许生理性繁殖克隆人。1997年11月,联合国教科文组织制定《人类基因组与人权世界宜言》第11条明确规定,应当禁止生殖性克隆人类。2000年4月,日本内阁会议通过关于《限制对人的克隆技术的法律草案》,禁止克隆人类。国际社会明确克隆人不具有法律人格,立法禁止克隆人类,但对人工智能的态度含混不清。对于克隆人的主要担心在于其诞生将扰乱人类社会基础的血亲伦理关系,由于人工智能在繁殖方式、发展方式上均存在根本不同,因此学界主要担忧人工智能发展程度过高后会反制人类。按照趋势,人工智能的发展必将会在未来出现突破,但现行法律规制对于人工智能法律人格的态度模糊,[9]特别是在人工智能权利、侵权责任主体等关键问题上的缺位,使得人工智能的发展缺乏法律价值的引领。
 
  (二)法律地位不明
 
  由于人工智能的法律人格概念不明,导致其法律地位并不清晰。作为具有独立思考能力的客体,人工智能可以“深度自主学习”、使用“神经网络”,人工智能具有此种类人特性,是否应当赋予人工智能以人权?从法哲学的角度分析,是否应当认同“人工智能等同于人”的根本问题?如果不能,人工智能技术应当作为何种法律主体、具有何种法律地位?人权,是作为个体的人对于自己基本利益的要求与主张,这种要求或主张是通过某种方式得以保障的,它独立于当事人的国家归属、社会地位、行为能力与努力程度,为所有的人平等享有人权是人之为人的最基本的权利,是一切利益和权利的前提和基础。[10]如果人工智能适用人权及人权伦理体系规制,则其法律地位是否等同于人类?若其具有人类完全相同的法律地位,则是否会出现人工智能机器人享有婚姻权同人类通婚,从而导致现行法律体系逻辑乃至人类赖以生存的伦理社会的崩塌?
 
  (三)缺少具体规则标准
 
  人工智能的短期影响取决于谁控制人工智能,而长期影响则取决于人工智能到底能否受到任何控制,人工智能的运用与发展需要法律人格的明确。从现实情况分析,现有规制并无法有效规制快速发展的人工智能技术。根据笔者2017年7月的实地调研,目前深圳人工智能产品由深圳市场监管委进行审批,但申报的类目为玩具类,所有的申报标准与文件均按照相应玩具标准进行审批,在海关进出口过程中也并无人工智能这一单项列出,目前暂时仍作为玩具进出口,显然无法满足人工智能产品的生产与发展。笔者认为,有关人工智能发展的具体法律规制,至少应当包括以下几个方面的内容:第一是明确人工智能具有法律人格,确定人工智能享有的权利与义务边界;第二是确定人工智能侵权的相关原则,若发生侵权事故时该怎样认定相应的法律责任,适用怎样的归责原则;第三是重视开发应用人工智能技术时对于数据与隐私的保护;第四是确定人工智能的有效监管规则。通过合适的具体规则标准,优化发挥法律对于人工智能的引导与监管作用。
 
  二、人工智能具有法律人格?
 
  法律规制的最终目标是构建和谐可靠的人工智能应用体系,在促进人工智能发展上,有必要通过法律的系统性调整以确保人工智能在可控的范围内有序发展。《关于新一代人工智能发展规划的通知》提出,建立保障人工智能健康发展的法律法规框架。必须开展人工智能法律人格问题研究,明确人工智能具有法律人格。
 
  (一)人工智能是特殊性质的法律主体
 
  对于人工智能的性质,学界一直有不同争论。普遍流行的有工具说、电子奴隶说、代理说等。[11]工具说认为人工智能是人类为生产生活应用而创设的技术,其本质是为人类服务的工具。工具说认为人工智能无独立的意思表示能力,并不承认人工智能具有独立的法律人格。电子奴隶说认为人工智能不具有人类特殊的情感与肉体特征,在工作时无休息等现实需要,可以认作不知疲倦的机器,有行为能力但没有权利能力。代理说认为人工智能的所有行为均是为人类所控制,其作出的行为与引起的后果最终必须由被代理的主体承担。上述三种观点均存在不同程度的缺陷,工具说将人工智能作为工具,但忽视了人工智能技术已经发展到可以作出独立意思表示的阶段,瑞士已有雇主为机器人缴纳雇员税的先例。再如特斯拉公司生产的电动汽车,已经实现了不需要驾驶员操作的无人驾驶,能够独立自主进行选择判断,其工具属性早已不属于无意思表示能力的传统“工具”。电子奴隶说认为人工智能并不具有权利能力,其引起的后果归属于其拥有者,虽解决了人工智能承担法律责任的主体问题,但实际上是延伸的工具说,否认人工智能的独立主体地位。代理说中对于人工智能的代理地位的确认其实已承认人工智能具有独立的法律人格,[12]即在人工智能拥有权利能力与行为能力时,其才可能作出履行被代理人指令的行为,但代理人说并无法解决主体承担责任的公平性问题,在人工智能完全自行作出意思表示时,由制造者还是使用者作为承担责任的被代理人?笔者认为,人工智能是人类社会发展到一定阶段的必然产物,具有高度的智慧性与独立的行为决策能力,其性质不同于传统的工具或代理人。在现实条件下,将人工智能定义为具有智慧工具性质又可作出独立意思表示的特殊主体较妥。
 
  (二)人工智能享有法律权利
 
  “机器人不得伤害人类;机器人必须服从人类的命令,除非这条命令与第一条原则相矛盾;机器人必须保护自己,除非这种保护与以上两条原则相矛盾。”以上是着名科幻作家,“机器人学之父”阿西莫夫提出的“机器人三原则”。第2条中“机器人必须保护自己”实际就是给予人工智能自我保护的权利。西方哲学家认为技术发展到一定程度后必然会有精神,如果技术发展更加智慧,它就会像大脑成为精神的更好载体。[13]按照上述观点,人工智能应该有权利,不是因为它们像人类,而是因为它们具有精神。[14]权利向新实体扩展是需要经过漫长过程的。大陆法系下,独立的法律人格需要具备社会存在与法律确认这两个必须条件,即需要独立自主地作出意思表示并得到法律明确的确认。在现有技术条件下,人工智能已可签订合同、管理公司,其独立自主作出意思表示的能力已得到实现,但暂时还未得到法律确认。在此境遇下,人工智能能否要求权利?其能否具有维持健康、获得姓名的权利?其能否按照自我逻辑与算法作出价值判断?其在过载时能否具有休息的权利?
 
  若人工智能没有权利,就不会有法律地位,在法律上就不是真实的。[15]根据斯通纳的观点,某一主体能否拥有法律权利应满足下列条件:第一,该主体应其要求可以提起法律诉讼;第二,法院在决定授予法律救济时必须考虑到损害;第三,法律救济必须满足它的利益要求。[16]人工智能已可以应用于司法裁判,其自行提出诉讼要求并无实践难度。法院在决定救济时应当考虑到人工智能受到的损害。例如,摧毁或“谋杀”人工智能应当受到惩罚。人工智能虽然本质上仍是工具,但这种智能可能造价高昂并且承载人类或社会的感情,因为普通机器并不具有思考与交流的能力。若有人删除了孤寡老人的陪伴型人工智能机器人的记忆模块,则有可能导致这种独特记忆的永久消失并无法复原,从而造成更为严重的精神损害。法律救济满足人工智能的利益要求并非不可能。例如停止侵害、排除妨害均可适用于人工智能的救济。综上所述,人工智能可以满足上述法律权利的三项条件,具有公认价值与尊严,理应享有法律权利。
 
  (三)人工智能必须承担法律责任
 
  1978年日本广岛的摩托车厂机器人突然转身将其背后的工人抓住并切割,1989年全苏国际象棋冠军击败人工智能机器人,但机器人自主释放强电流致使冠军身亡,人工智能侵权的事件事实上早已存在。随着人工智能的不断发展,其依靠独立自主意识而作出的不可预测行为将变得更加危险。人类必须为自己的行为付出代价,人工智能同样如此,并不因为人工智能并非人类就可以逃脱法律制裁,总有主体需要为作出的行为负责。
 
  若人工智能犯罪,应当适用怎样的惩罚机制?而又应当如何避免此种犯罪行为的发生?人工智能在未来会面临更加复杂的伦理安全问题,Google DeepMind等机构已设立了伦理审查委员会,由不同知识背景和经验的专家组成,最大限度地考虑此问题。人工智能作为有独立意识特性的特殊法律实体,法律需要向更前沿发展,而人工智能必须设计成为具有可责性与可验证性的实体,其中包括开发数据记录全留存以便侵权后查验、主动告知人工智能风险、扩大人工智能相关数据披露范围、大规模商用前现行测试等,尽最大努力减少人工智能可能造成的危害从而减轻相应法律责任。
 
  三、人工智能的法律人格有限
 
  以法律手段调节生命社会关系,应是最有力、最有效、最稳定、最普遍的。[17]从人工智能的特性分析,其具有独立自主意识的智慧工具属性,享有权利并承担责任的独特特点决定了其具有法律人格。但这种法律人格同自然人或现有的拟制法人并不完全相等,虽然人工智能可以作出独立自主的行为,但其承担行为后果的能力是有限的。在人工智能法律人格有限的前提下,方可对法律规制作出合理的安排。
 
  (一)域外人工智能立法借鉴
 
  人工智能的法律人格有限,是指其法律人格与自然人或公司不同,并不具有承担完全责任的能力与地位。虽然人工智能可以取得权利并承担一定的义务,但其价值观的形成与人类毕竟存在根本不同,人工智能的深度学习与应用主要依靠的是各种复杂的算法与数据记录应用,在运用算法的过程中,很难保证人工智能的每次独立自主行为均能作出合理合法的价值判断。对于人工智能的规制,还必须依赖于立法的体系性安排,确保人工智能的发展与应用在合理的区间范围内运行。
 
  在人工智能具有有限法律人格的层面上,国外立法已作出一定的尝试:一是立法者和执法者应确保人工系统不被滥用,法律必须在公民隐私保护与新兴技术发展间寻找到恰当的平衡。[18]在使用数据的层面,已存在不少习惯法,如目的明确、最少够用、公开告知、个人同意等原则。1998年英国《数据保护法》与2016年欧盟《个人数据保护通用条例》规定,禁止一切未经同意的非法使用公民个人数据的行为。这些法律规则非常实用,并提议建立沙箱区域以在控制所有可能的变量前提下,安全地控制和引导错误使用数据的行为。在“大数据”时代,数据是宝贵的财富,也直接关系人身安全,已有利用人工智能非法窃取网络信息的先例。[19]人工智能系统对于个人数据的使用必须遵循规范的准则,滥用数据或窃取隐私将受到刑罚的规制,在人工智能的发展上,必须考虑能否保护公民的数据及隐私、能否一视同仁地对待每个公民的数据,以及能否保证公民个人信息的完整。使用非公共数据必须征得数据所有人同意。二是延伸身份保证范式,以保持法律责任链条的明确性。个人识别信息是个人拥有绝对控制权的资产,法律应给予优先保护。2009年5月12日,欧盟委员会制定并通过《射频识别技术应用中隐私和数据保护原则的建议》,该建议中就明确包含信息和透明度要求、零售商使用数据的特殊要求等内容。设计人员应采用身份标签,没有身份标签将不被准入。三是个人信息保护规制需要完善,以尊重个人数据完整性的方式设计并应用人工智能系统。欧盟在1995年颁布《关于涉及个人数据处理的个人保护以及此类数据自由流动的指令》等多项个人数据保护指令,构建了一套严谨完善的个人数据保护体系。根据德国现行法律,车辆中所积累的数据所有权原则上属于车主。2016年4月,欧盟《一般个人数据保护条例》发布,明确扩展了数据主体的权利,包括数据获取权、修改权、删除权、限制处理权及可携权等。比较而言,中国在个人信息和隐私保护方面的制度建设是较为滞后的。2012年《全国人民代表大会常务委员会关于加强网络信息保护的决定》的出台,[20]但在实践上仍极为有限,涉及更为严厉制裁措施的《个人信息保护法》与相关刑法修正案亟待出台。
 
  (二)适用特殊的法律规制标准
 
  笔者认为,人工智能具有独立思考的能力是与其他科技最大的区别,但人工智能仍作为工具存在,仅应具有有限的法律人格。即便人工智能发展到具有自我意志的程度,其构造结构、生产方式与人类存在根本性的不同。人工智能具有有限的权利义务,更应适用特殊的法律规制标准。
 
  从哲学角度分析,人工智能毕竟只是人类为追求更美好生活创造出的智慧型工具。以人工智能创造的作品为例,人工智能创作文学作品早已经投入实践(例如由人工智能创作的小说甚至通过了日本文学奖的初审)。特别是在视觉等艺术应用领域,人工智能已可以完全脱离人类独立生成独创性内容。美国《宪法》第一修正案规定:作者与创作者在限定的时间内具有科学发明与艺术创作的排他权利。如果人工智能具有完整的法律人格,则人工智能创造作品的着作权等知识产权的权利主体是谁?[21]因此出现的法律真空地带,只能依据现有规制进行推论。笔者认为,人工智能创造的作品可分为两种,一种是人类利用人工智能技术创作的作品,其作品归属毫无疑问归属创作的人类所有。例如使用计算机谱写的乐曲,人工智能仅作为工具使用,在Burrow-Giles Lithographic Co. v. Sarony案例中,[22]法院裁定使用相机拍照的人拥有照片的着作权,而不是相机制造厂商;另外一种是人工智能不受人类意志干扰而自行创作的作品,有学者认为可适用“雇主理论”,[23]即人工智能的所有者拥有人工智能独立创造的作品权利,人工智能作为被雇用者,其权利归归主所有。
 
  还有判例认为非人类创造的作品应该归公众所有,在2011年的Naruto v. Slater案例[24]中,一名叫Slater的野生动物摄影师将相机放在印尼的雨林中,结果一只母恒猴拿起相机并按动快门,留下许多珍贵照片。 Slater主张照片由其所有,动物爱好者协会则主张由母恒猴所有。法院最后认为由于恒猴并非人类,无法出庭或具有法律上的人格,而照片也并非Slater拍摄,因此将照片的所有权归于公众。无论上述何种观点,均不认为机器或动物等非人类具有着作权。
 
  笔者认为,在人工智能独立创作的情形下可适用“刺破人工智能面纱原则”来进行论证,即权利主体是人工智能背后的实际控制人。人工智能虽然具有法律人格,但这种人格是有限的,并非完全的法律人格。归根结底人工智能是由人类创造以服务发展的智慧型工具,即人类自身的权利优位于人工智能。人工智能的工具属性决定了其法律地位。苹果公司现在出产的个人电脑软件已经可以根据现场环境独立编曲,在此环境下产生的作品并非由苹果公司或软件制作者享有着作权,而是由使用该个人电脑的主体所有。采用“刺破人工智能面纱”理论将会大大鼓励人类利用人工智能进行创作的热情,同时促进人工智能产业自身的发展。
 
  (三)以责任分配为基础的侵权规制
 
  除对人工智能的法律地位进行必要规制外,更应明晰若发生侵权事故时认定相应法律责任的原则。[25]由于人工智能具有的法律人格有限,其无法独立完全承担侵权责任。联合国教科文组织《关于机器人伦理的初步草案报告》提出对机器人的责任采取分担解决途径。让所有参与机器人发明、授权和使用过程中的主体分担责任。这种以侵权为基础的制度设计初衷,是迫使机器人系统的设计者与生产者将人工智能侵权成本内部化,督促系统的设计者、参与者、生产者自觉履行安全性义务,保证受害者能够寻找到主体获得补偿。依托侵权法分配的监管路径可以应用于人工智能,为建立人工智能的安全属性提供正面导向作用,强化人工智能产品责任。基于人工智能法律人格的有限性,通过侵权责任的杠杆,将人工智能系统的外部性安全成本内部化,鼓励人工智能的销售商、零售商、设计者、使用者、监管者,认真履行人工智能的安全责任,确保上下游链条不会随意更改人工智能系统。[26]
 
  为了确保人工智能是可以被问责的,人工系统必须具有程序层面的可责依据,证明其运作方式。由于人工智能研发具有高度的秘密性与分散性、不连续性及不透明性,任何一个拥有电脑或智能手机的个体都可能参与到人工智能的开发或研制中去。因此,必须对数据进行留存,要求所有参与开发、制作、生产人工智能系统所产生的数据必须妥善记录并永久保存,在事中授权或事后问责时向主管机关提供。由于人工智能系统复杂,普通民众甚至主管机关的业务人员可能无法了解人工智能的所有缺陷,因此在发生事故后追寻原始数据将成为最有力的定责与索赔依据。现代存储材料的便携性与高容量性使得数据记录成为低成本的事情。由于有强制责任保险配套,如果人工智能的开发者无法提供完整的数据记录,则由其承担无过错责任并进行赔偿。未妥善储存数据者需要承担严格的人工智能产品责任。[27]在举证责任问题上,一般使用者针对人工智能很难承担过高的举证标准与诉讼成本,应当考虑采用较低的举证责任标准,即使用者证明有损害发生、并且这种损害是由人工智能造成的即可。
 
  四、人工智能有限法律人格的规制设置
 
  (一)明确“刺破人工智能面纱”的归责原则
 
  人工智能的本质依然为工具,即使人工智能具有自我意志也无法改变其服务人类社会发展的属性。因此人工智能仅享有有限的法律人格,其自身承担有限的法律责任,其造成的侵权损害赔偿或刑事责任依据实际情况由其设计者、开发者、制造者或使用者承担。人工智能涉及的侵权规制主要集中在责任负担的主体、数据使用安全、破坏人工智能的责任分配等方面。在规制人工智能与促进人工智能发展的两个维度间必须寻找恰当的平衡,促进人工智能发展的首要问题是需要有主体为人工智能的行为承担责任。人工智能独立意志的情况下也无法仅完全苛责新兴技术的创造者。[28]即使是最细心的设计者、编程者以及制造者都没有办法控制或者预测人工智能系统在脱离之后将会经历些什么。假如嫌疑人醉酒驾驶无人驾驶汽车致人死亡,此种情况下将法律责任归于开发者显然是违背公理的。不解决此问题,人工智能的发展就缺少基础性的理论支撑。
 
  人工智能没有灵魂,其法律人格毕竟有限,即使将来拥有自我意志也无法存在繁殖性的肉体或者真实感情,在刑法对待人工智能的法律地位上,与公司的法律地位无异。[29]有关公司的刑罚理论中最重要的是“实际控制人说”,按照“刺破人工智能面纱”的归责原则确定责任主体。在无人驾驶领域,美国道路交通安全管理局于2013年发布《自动驾驶汽车的基本政策》,对自动驾驶汽车测试事故的责任承担进行了规定,车辆在被第三方改造为自动驾驶车辆后,测试过程中导致财产损失、人员伤亡的,车辆的原始制造商不对自动驾驶车辆的缺陷负责,除非有证据证明车辆在被改造为自动驾驶车辆前已存在缺陷。德国《道路交通法》规定机动车持有人的道路交通事故严格责任独立于车辆的自动系统,驾驶员在车辆行驶过程中必须履行全程保持警惕、手不离开方向盘等强制义务,否则需要承担人工智能造成的损害。谷歌公司曾经使用奔驰汽车进行测试,则安全责任由谷歌公司承担,而非奔驰公司。因此,在人工智能具有的法律人格有限的前提下,其造成的损害由人工智能的实际控制人或责任人承担责任是合理的。
 
  (二)强制投保责任保险
 
  凯西?欧尼尔在其着作《数学武器:大数据如何加剧不平等、威胁民主》中,将造成歧视、个体损害等不利后果的人工智能称为“杀伤性数学武器”,人工智能如果利用不当,其给个体和社会带来的危害将极大。[30]在数据网络平民化时代,单一的国家或部门均无法独自应对人工智能带来的责任风险。传统的监管方式如产品许可制度、产品侵权责任,无法全面地适用于人工智能规制。事前监管措施亦存在弊端,人工智能的开发与研究一般是分散的,在网络时代,任何人均可获得制造人工智能的机会,外部监管人员极难在人工智能形成危险结果之前发现存在的风险。必须采取新的经济措施以规制人工智能带来的责任风险——强制投保责任保险。2016年,英国议会提出一份有关无人驾驶汽车法律责任问题的提案,提出将汽车强制险适用扩大到产品责任,在驾驶者将汽车控制权完全交给自动驾驶系统时为其提供保障。[31]而投保人可根据英国现行《消费者保护法》的产品责任和普通法中过失原则的适用,确定应对事故发生负有责任的主体。在人工智能投入商用之前,必须为其强制投保责任险,以较小的经济付出,获得保险共担风险的机会。此举将大大减少人工智能侵权事件发生时的经济赔偿纠纷,直接促进人工智能行业的良性发展。
 
  (三)确立“以人为本”的监管体系
 
  人工智能行业的领军者埃隆?马斯克认为,政府监管介入人工智能领域是明智的选择。人工智能应在国际或者国家层面上有相应的监管措施,防止陷入“人工智能悲剧”。法规必须同科技进步相协调,若政府监管缺位,将明显加深公众对于人工智能的危机感并使得人工智能的发展陷入无序状态。在确定人工智能适用的一般原则时,主要考虑三大因素:人权、人类利益优先、削弱人工智能的风险。由于人工智能仅具有有限的法律人格,因此人工智能的本质是为人类生产生活服务的工具(即“以人为本”),这是人工智能发展的首要原则,也是建立人工智能监管整体框架的首要指导原则。由于人工智能的项目集成程度与开发难度较高,往往是众多科研团队协作的结果,很难在事前由政府相关部门预见或了解,由此在事前设立审批制度难度颇大,即使人工智能开发团队将开发立项报告交予相关部门审批,相关部门的审批人员也未必能够了解人工智能的梗概并作出及时答复。从监管者角度分析,人工智能本身并不是难以处理的主体,难处理的是人工智能研究与开发。[32]由此,依据“以人为本”原则创设事前备案、事中授权、事后惩处的整体机制较为适宜。事前监管采取原则性申报,即设计建造人工智能系统前,所有开发设计者必须共同向行业主管部门备案,承诺在维护人类利益的前提下进行合法开发,并不得用于违法犯罪活动,如果不进行申报,则人工智能系统将来不得应用于包括商用在内的公开领域。由于身份是人格权的基础,人工智能的登记备案就相当于给予人工智能法律上的身份,从而拥有法律人格。事中授权主要由政府授权的专业机构作出人工智能系统的风险评估和防控强调前瞻预防和约束引导,此授权无需彻底评估人工智能的算法、编程等技术性数据,只要企业或团队将人工智能用于公用领域前所需的事前备案书、强制保险投保确认书、产品质量认证书、数据清单及其他要求的明示性材料备齐,主管机关即可作出准予公用的授权。如果人工智能在实践应用中出现了危害人类的行为或其他侵权行为,则由政府机关问责惩处,特别是对于违反“以人为本”根本原则的企业或个人,加大惩处力度以促进人工智能行业和企业自律。而主管机关亦可通过已发生的事件强化人工智能安全监管和评估体系,反向构建人工智能安全监测预警机制。
 
  (四)加快制定《人工智能发展法》
 
  为更好地促进人工智能发展,保障中国在新科技革命的进程中占领战略制高点,极有必要加快人工智能相关法律规定的修改完善,特别是加快制定专门的《人工智能发展法》。将设定人工智能监管的目标与目的的任务分配给立法者,利用立法机关的正当性授权监管人工智能系统安全的专门机构,创设相对完整的人工智能责任体系。《人工智能发展法》的立法目标包括:(1)坚持以人为本的首要原则,授权建立研究数据科学的“数据伦理委员会”,通过明确相关伦理准则,确保人类社会伦理道德关系不受破坏。(2)建立全流程监管体系,确保人工智能技术从研究到运用负面效应可控与确定行业准入制度、操作记录、技术安全规制标准。确定宽容审慎的监管原则,规范人工智能技术的健康发展。(3)明晰法律责任制度等,恰当地为人工智能技术发展调整法律规制。确定严格的大规模商用许可制度与强制责任保险制度,确保相关权益得到保障。(4)明确数据信息保护与隐私权保护,确保数据妥善运用与信息安全。(5)强化涉及人工智能发展的知识产权保护。注重人工智能创新成果的知识产权保护最大化,创设人工智能相关技术创新标准、专利保护体系与标准化支撑机制。建立国家层级的人工智能公共专利池,加速人工智能创新技术的成果商业转换速度与竞争优势。(6)加强国际合作。人工智能的开发与应用往往是跨国界的活动,国际合作在解决人工智能的推广与应用管理中起重要作用。现阶段,需要加强重点领域的国际合作研究,尤其是人工智能异化和安全监管等共性问题研究,明确人工智能法律法规、伦理道德方面的国际合作原则,[33]共同应对人工智能带来的挑战。此外,《人工智能发展法》还应该包含保留条款,确保法律生效前的人工智能项目的商业化不受追溯,以免引发混乱。
【作者简介】
袁曾,大连海事大学法学院博士研究生。
【注释】
本文为国家社会科学基金项目一般项目“海上防空识别区”(项目编号:14BFX128)的阶段性研究成果。
[1]Stamos T. Karamouzis, Dee Wood Harper. International Journal of Law and Information Technology[J].2007, Vol.16(1).
[2]Sherry Xinchen, Mary Ann Neary. AI: Legal Research and Law Librarians[C].21 AALL Spectrum 162016—2017.
[3]参见张保生:《人工智能法律系统的法理学思考》,《法学评论》2001年第5期。
[4]《关于新一代人工智能发展规划的通知》(国发〔2017〕35号文)。
[5]刘伟:《关于人工智能若干重要问题的思考》,《学术前沿》2016年第4期。
[6]陆幸福:《论搜索引擎服务商在提供链接过程中的权利与义务——基于霍菲尔德权利理论的一种分析》,《法学评论》2013年第4期。
[7]叶欣:《私法上自然人法律人格之解析》,《武汉大学学报(哲学社会科学版)》2011年第6期。
[8][英]戴维?M.沃克:《牛津法律人辞典》,光明日报出版社1988年版,第687页。
[9]梁庆寅、魏斌:《法律论证适用的人工智能模型》,《中山大学学报(社会科学版)》2013年第5期。
[10]甘绍平:《人权伦理学》,中国发展出版社2009年版,第2页。
[11]Kalin Hristov: Artificial Intelligence and The Copyright Dilemma[C].2016—201(57):442.
[12]周晓俊等:《基于约束的智能主体及其在自动协商中的应用》,《上海交通大学学报》2005年第4期。
[13]Phil McNally, Sohai Inayatullay:《机器人的权利——二十一世纪的技术、文化和法律(上)》,邵水浩译,《世界科学》1989年第6期。
[14]Phil McNally, Sohai Inayatullay:《机器人的权利——二十一世纪的技术、文化和法律(上)》,邵水浩译,《世界科学》1989年第6期。
[15]Phil McNally, Sohai Inayatullay:《机器人的权利——二十一世纪的技术、文化和法律(下)》,邵水浩(译),《世界科学》1989年第7期。
[16]前引[13],Phil McNally, Sohai Inayatullay文。
[17]唐小波:《生命法学理论研讨会综述》,《中国法学》1997年第5期。
[18]参见杨芳:《德国一般人格权中的隐私保护信息自由原则下对自决观念的限制》,《东方法学》2016年第6期。
[19]CristianVlad Oancea: Artificial Intelligence Role in Cybersecurity Infrastructures. Int'l J. Info. Sec.& Cybercrime 2015(4).
[20]王秀哲:《我国个人信息立法保护实证研究》,《东方法学》2016年第3期。
[21]历来关于人工智能创作物版权的学说较多,有编程者独立权说、操作者独立权说、类职务作品说、共有权说、虚拟法律人格说等理论。
[22]111 U.S.53(1884).
[23]Kalin Hristov: Artificial Intelligence and The Copyright Dilemma[C].2016—201(57):442.
[24]2016 U.S.Dist. Lexis 11041:3.
[25]参见于雪锋:《侵权法中可预见性标准的基本功能及其比较》,《东方法学》2016年第4期。
[26]John Fox: Safe and Sound; Artificial Intelligence in Hazardous Applications[M], The MIT Press,2000, PP.155—167.
[27]参见郭建勋:《英国法下的可保利益分析》,《中国海商法研究》2016年第4期。
[28]Bruce G.Buchanan: Thomas E.Headrick. Some Speculation About Artificial Intelligence and Legal Reasoning [J]. Stanford Law Review.1970—1971(23).
[29]Gabriel Hallevy: The Criminal Liability of Artificial Intelligence Entities From Science Fiction to Legal Social Control [J]. Akron Intell. Prop. J.2010(4).
[30]C O'Neil: Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy[M]. Newyork, Crown Pub- lishing Group, P3.
[31]参见宋云霞等:《海上丝绸之路安全保障法律问题研究》,《中国海商法研究》2015年第2期。
[32]Matthew U.Scherer: Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies and Strategies[J]. Harvard Journal of Law & Technology Vol.29,2016.
[33]参见黄勇民等:《从区际惯例到区际协定:对台渔工权益救济模式之法律定性——兼议两岸渔工协议实施的司法保障》,《中国海商法研究》2015年第3期。





(本文转自北大法律信息网。如有问题,敬请及时联系我们。)

运营单位:北大法宝学堂 客服电话:010-82668266-808 客服手机:15801349397(微信同号)

版权所有 :北京北大英华科技有限公司

免责声明:本网课程中老师的观点,仅代表其个人观点。