人工智能时代必须关注的社会风险及四大问题

吴汉东 
【法宝引证码】CLI.A.0102548
【学科类别】理论法学
【出处】微信公众号:腾讯研究院
【写作时间】2017年

【中文关键字】人工智能;社会风险

【全文】

    
人工智能技术与未来产业形态


       20世纪80年代至今的知识革命,其核心是基因技术、网络技术和人工智能技术。本世纪,网络技术深入发展,不仅使信息以不同于以往的方式,更加方便、迅速地传播,而且催生了很多新的商业形态。我们所熟悉的网络文学、网络视频、网络音乐、网络游戏以及社交平台,极大地改变了我们的生产、生活和社会交往方式。
 
  2016年被称为人工智能技术爆发的元年,这一年有两个大事件:一是距离麦卡锡、明斯基、香农等人提出“人工智能”概念正好过去60年,二是Alpha Go战胜人类围棋顶尖高手。人工智能横跨四大核心技术——机器学习、自然语言处理、图象识别和人机交互,涵盖13个细分领域,用人类的智慧给机器装上聪明的大脑,拥有灵敏的视觉、听觉和触觉,可以像人一样的记忆、认知、识别和选择,人机之间的交往胜于人与人之间的交往,充满着有效性和精细化。
 
  从智能机器人、智慧家居到无人驾驶、无人工厂,人工智能技术被广泛应用到社会生活和生产的各个领域,改变甚至颠覆了我们已有的认知,对未来的农业、制造业、律师业、新闻业、交通业、医疗业及体育业等产业形态带来极大的影响。
 
  人工智能是人类社会最伟大的发明,同时也可能存在潜在的风险。霍金表示,人工智能或许不但是人类历史上最大的事件,而且还有可能是最后的事件。作为法律工作者,我们不仅要为新技术感到欢欣鼓舞,拥抱一个新时代,更应该在热点背后进行冷思考。
 
  人工智能时代的社会风险
 
  在人工智能时代,法律如何保护人的尊严、隐私、生命、健康和安全?这是值得重视的问题,高技术时代也是一个高风险时代,未来社会的潜在风险有三个特征:
 
  一是风险的共生性。人工智能时代的风险是一种内在的风险,和海啸、地震、火山爆发、洪水不一样,这种风险是存在于人类社会之中的。它可以是人类正在开发的技术风险,也可能是关系这个技术的智慧风险,这两种风险共生于人类社会。高技术同样也是高风险,我们有工业机器人、扫地机器人、性爱机器人等等,科学还向我们展示杀手机器人,这种机器人安装了微形广角镜头,配备高灵敏度的传感器和高容量的炸药,可以准确地瞄准目标,成功实施杀害攻击。对此,不仅不能授予专利,还要严格禁止。
 
  二是风险的时代性。这种风险不仅是现在的潜在风险,也是未来存在的风险,它贯穿于知识革命的整个历史阶段。以色列历史学家的《人类简史》和《未来简史》描述了人工智能三个不同的阶段——人工智能、强人工智能和超人工智能。超人工智能阶段是本世纪的40-60年代,整个社将会有两大阶层,大部分人归属于无用阶层,对社会没有任何贡献可言。只有极少一部分人是社会的精英阶层,有着超强的计算能力,可以通过基因技术和人工智能技术的结合,准确测试人体基因图谱,延续生命,保持永生。当然,这也许是一个科幻预言,但是,我们不得不警惕未来社会可能发生的这种裂变对人类社会的正常发展所带来的潜在危害。
 
  三是风险的全球性。知识革命与以往的工业革命是不同的,工业革命起始于英国,再逐渐影响到北美、东亚,这个过程是缓慢、持续的,而在今天的互联网时代,风险是全球性的,没有地理边界,也没有社会文化的界限。因此,全球应该共同行动,既要发展人工智能技术,不要拒绝它,也要警惕它潜在的危害。
 
  人工智能时代的四大问题
 
  第一个是法律问题,包括主体责任问题、隐私保护问题、责任承担问题等。
 
  首先,主体责任问题。《民法总则》有两项基本制度——主体制度,人;客体制度,物。在已有的法律认知中,主体和客体有不可逾越的界限。现在需要回答的问题是,机器人是机器还是人?机器人不是自然人的本身,但由自然人创造和设计,能不能成为民事主体?现实已经作出了回答。2016年欧盟议会法律事务委员会(JURI)向欧盟委员会提出立法建议,主张赋予高水平的智能机器人电子人的主体资格,进行身份登记,设立财产帐号,缴费,纳税,领取养老金,跟自然人是同等的主体地位。今年,沙特阿拉伯授予美国汉森机器人公司生产的机器人索菲亚公民资格,但是,它能不能有钱?能不能在沙特王国充当公务人员?这是现有理论难以回答的问题。但是,赋予智能机器人以某种民事主体资格在未来有可能成为现实。
 
  其次,隐私保护问题。未来的人工智能时代是三者叠加:移动互联网+大数据+机器智能。在这个时代之后,人类社会将进入一个透明的、没有隐私的时代。普通人的生命与健康、财产与身份、行踪轨迹等,除国家公务人员按照特别法规定应给予必要的公示之外,任何人都要把它看作是个人隐私,应该受到法律保护。在传统社会,个人隐私被泄露是个体性的。但是,在今天是集体的、甚至是整个社会的隐私泄露。我们的一举一动在大数据里面都会一览无遗。人类怎么保护自己的隐私?科技公司如谷歌、苹果、脸书、阿里巴巴、腾讯、百度等,拥有很多用户信息,这些信息必须被是被依法收集和处理的,我们作为信息的提供者是不是无动于衷?这都是需要考虑的问题。
 
  再次,责任承担问题。人工智能时代有两种侵权行为值得关注,侵权人采取黑客攻击、病毒传输和其他的非法手段控制机器人,对人类社会造成危害,侵权责任由侵权人承担,这个不难理解。问题在于人工智能直接给人造成损害的责任承担,这是值得考量的问题。日本曾经发生过工业机器人在生产过程中将工人放入冲压机之下碾死的惨痛事例。本世纪在美国,手术机器人在治疗病人的过程当中造成的创伤、死亡病例高达87例。这种情况下,需要分清责任事故从何而起,是设计人设计的漏洞,还是操作人的不当使用,以至于智能机器人违反了操作规则,此类事故的原因和事故责任的追究都是值得考虑的新问题。
 
  第二个是伦理问题。
 
  伦理问题的重要程度不亚于法律问题。着名科幻作家阿西莫夫提出了机器人定律,其中最重要是第零定律,机器人必须保护人类的整体利益不受伤害,其它三条定律都是在这一前提下才能成立。机器人定律对目前处理人工智能有关问题具有指导意义。
 
  伦理问题包括诸多方面:
 
  算法偏差和机器歧视问题。机器的工作速度、工作精度、工作态度都高于自然人,但是,机器也会出错,包括机器算法偏差和歧视问题。比如谷歌推出的机器人误把两名黑人标注为“大猩猩”,微软公司推出的聊天机器人,在发布24小时内,就成为一个集反犹太人、性别歧视、种族歧视于一身的“不良少女”。这就是一个伦理的问题。如何为机器人设置最低的道德标准和道德框架,是非常重要的问题。
 
  虚拟环境“麻醉”问题。在未来的人工智能时代,我们将会被无穷尽的电子信息所包围,人与人之间的交往有可能被人机之间的交往所取代。人工智能的模拟行为在很大程度上会取代人的自主行为,这就出现了虚拟环境的“麻醉”问题,从生活到办公,所有的事情都由机器人协助处理,人类是否会日渐沉迷于人工智能及其营造的虚拟环境?人生存和发展的本来意义何在?
 
  人机情感危机问题。我们所讲的社会指人类共同体所组成的社会,是人与人之间正常交往的社会,但是,未来的机器人会带来人机的情感危机。现在我们不仅发明了代替体力劳动的工业机器人,还发明了代替了脑力劳动的机器人,甚至还可以发明代替人类情感的伴侣机器人、性爱机器人。这无疑会给人类社会的正常发展和生活趣味带来极大的挑战。
 
  第三个是社会问题,即人机替换问题。
 
  未来,人类60%的职业、30%的工作将被人工智能取代。根据牛津大学的统计,未来人工智能的发展会取代1000万个工作岗位,秘书、客服、助理、翻译、律师、医生、会计,乃至于证券所的交易员、信贷员的工作都可能被取代。一般来说,被取代的工作和岗位具备如下特征:这一类工作和岗位是可以描述的,这些工作是可以进行表达的,通常有固定标准和标准答案。高水平医疗师、律师的部分工作也将被智能机器人取代,但是,是否完全取代目前还难以确定。
 
  人机替换带来诸多社会问题。被人工智能所取代的蓝领和白领到哪去?是不是被抛弃到无用阶层中?他们不能领取劳动报酬,而是领取社会保障以维持自己的生活,这一类人怎么处理?对此,比尔盖茨提出应该征收机器人税。但是,大量的机器人变成了机器人工人、机器人白领,他们有没有权益?如果有权益如何保护和维系?
 
  此外,人工智能领先的国家和人工智能滞后的国家间的差距和鸿沟如何进行填补?新的不平衡又出现了,如何加以解决?这都是未来要考量的问题。
 
  第四个是监管问题。
 
  十八大、十九大针对社会治理提出良法善治和多元共治,就人工智能导致的问题如何进行监管,我认为多元共治是非常重要的,主要是政府的监管,包括行业自治和企业自律。
 
  目前的监管难题包括两个方面,首先,监管领域的空白。比如在无人驾驶领域,政府监管、法律规则都还是空白的,无人驾驶的准入政策、安全标准、配套设施都需要从法律层面加以规制,美国从联邦政府到州政府都出台了相应的文件。对于当前最火爆的人工智能的若干领域,国家应该进行研究并在必要的时候出台相应的文件,包括法律文件。
 
  其次,人工智能监管的技术壁垒。人工智能对监管的技术要求更高。机器人讲粗口、说脏话、性别歧视和种族歧视,这个过程是如何进行的,为什么会出现计算偏差的问题?需要了解整个人工智能发生作用的前过程,所以,监管技术的研究也必须跟上。
 
  人工智能时代的法律、政策与伦理
 
  人工智能时代,应确立以安全为核心的多元价值目标,构建以伦理为先导的社会规范调控体系,以技术和法律为主导的风险控制机制。
 
  一方面,法律控制是风险治理机制的重要手段,英国、美国、澳大利亚等国家均对计算机创作物进行过规制。
 
  另一方面,技术控制是风险治理机制的重要措施。风险规避的主要路径,是事先预防而不是事后补救,即从技术研究开始规制,以预防技术产生的负面效应或副作用。风险规避的基础范式,是从技术研发到应用过程的责任制度,包括社会道义责任、科学伦理责任和法责任。风险规避的重要措施,是奉行技术民主原则,包括技术信息适度公开和公众参与、公众决策。
 
  结语
 
  人工智能时代已经到来,我们不仅需要一种科学的智慧,同时,也需要制度的建设。

 

【作者简介】
吴汉东,中南财经政法大学资深教授,国新南方知识产权研究院首席专家。
【注释】
本文根据中南财经政法大学吴汉东教授在“2017人工智能与法律的未来高峰论坛”上主题演讲整理。




本网站文章仅代表作者个人观点,不代表本网站的观点与看法。
本文转自北大法律信息网,版权属原作者所有。如有问题,敬请及时联系我们

    运营单位:北大法宝学堂 客服电话:010-82668266-808 客服手机:15801349397(微信同号)

    版权所有 :北京北大英华科技有限公司

    免责声明:本网课程中老师的观点,仅代表其个人观点。