(网经社讯)21世纪以来,搭乘着大数据和云计算的快车,人工智能技术在各个领域迅速发展,不断被投入应用于医疗、互联网采集服务、自动驾驶汽车、金融保险行业、工业和服务业等行业。
人工智能,也就是人们常说的为AI(Artificial Intelligence)。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。此前需要要人脑来承担的繁重的科学和工程计算,如今靠AI不但能完成这种计算,而且能够比人脑做得更省时、更准确,人工智能已经完全渗透入人们的生活。
研发人工智能的企业创造了很多震惊世界的经典历史时刻。1997年,IBM公司的深蓝系统成为第一个打败世界象棋冠军加里·卡斯帕罗夫的计算机象棋手。 2005年,一台斯坦福无人驾驶机器人未经“踩点儿”,便在一条沙漠道路上自动驾驶131英里,赢得了DARPA自动驾驶机器人挑战赛。2011年3月,一支以数学模型进行交易并启用机器人作为经理人的基金,仅靠6个电脑程序就创造出1.9%的回报率,击败了日本最优秀的基金公司。2016年谷歌旗下DeepMind公司的AlphaGo战胜了人类顶级职业旗手李世石的人机对弈比赛。
根据艾媒咨询2017年的研究报告显示,2016年中国人工智能产业规模已达100.60亿元,增长率为43.3%。2017年市场规模达到237亿元,同比增长67%。计算机视觉、语音、自然语言处理的市场规模分别占34.9%、24.8%、21%,而硬件和算法的市场规模合计不足20%,预计2018年中国人工智能市场增速将达到75%,并于2019年增至344.30亿元。需要关注的是,2019年3月4日,十三届全国人大二次会议举行新闻发布会,大会发言人张业遂表示,已将与人工智能密切相关的立法项目列入立法规划。
2016年11月18日,深圳举办的中国国际高新科技成果交易展览会上,机器人“小胖”突然失控,在并没有接收到任何指令的情况下,自行砸破展台玻璃,造成现场观众受伤,被视作国内首起机器人伤人事件。
值得警醒的是,人工智能随着时代的变化而发展,它一方面不断获得科学上新的进展,另一方面也带来了更多不确定危险,所以更加急迫的确定法律责任归属问题。那么本文对人工智能产品的侵权责任作简要分析。
首先,需要讨论人工智能产品如智能机器人究竟是法律关系中的主体还是客体。根据《中华人民共和国侵权法》,侵权责任主体只能是民事主体。法律关系主体,也即法律关系的参加者,是指在法律关系中享受权利、承担义务的人。在中国,根据各种法律的规定,能够参与法律关系的主体包括以下几类:公民;机构和组织;国家。法律关系的客体,又称权利客体,是指法律关系主体的权利和义务指向的对象。一般来说,法律关系的客体包括物、非物质财富和行为结果三类。以当前科技所研发出的智能产品的智能程度来说,大部分普通型人工智能遵从人类的命令、受人类智慧控制,无独立意志。所以,目前学术界及司法实践中较多的将其认定为权利客体。因此,可以按照我国现有制度以人类行为者为中心的侵权责任和以产品生产者为中心的产品责任法律制度来解决人工智能侵权责任问题。
其次,需要考虑人工智能侵权责任的归责原则,可能更多涉及危险责任或无过错责任。如,对于无人机等高度危险型智能机器,可考虑适用高度危险作业致害责任;对于一般智能机器,可参考《侵权责任法》、《产品质量法》、《消费者保护法》等法律关于产品责任之规定,按照无过错原则处理。
目前人工智能产品的具体行为处于受编程等程序控制的阶段,发生侵权时,责任原则的确定相对容易。但随着科学技术的发展,更多高度发展的人工智能产品(可简称为高智能产品)产生,则责任原则的确定则难度增大。
以医疗业为例,智能医疗机器人在辅助诊疗、医学影像、药物挖掘、健康管理等领域具有广阔的应用前景。如达芬奇手术机器人能完成11445例手术;科大讯飞研发的讯飞智医助手以高分通过了2017年临床执业医师综合笔试。在目前法律体系下,若智能医疗机器人发生侵权时,可考虑的归责原则主要有以下三种:1.一般过错责任模式。如医务人员在操作智能医疗机器人未尽到合理注意义务时,应认定为医疗机构存在过错。2.产品责任模式。因智能医疗机器人存在质量或程序运行问题时,应当适用产品责任,追究相关责任人责任。该两种模式均建立在智能机器人尚未完全达到完全自主的高智能阶段。3.高度危险责任模式。当医疗机器人产生独立意识和自主决策能力时,风险的不可预测性则高度契合高度危险责任的适用。但目前,这三种模式尚不能完全单独解决智能医疗机器人的侵权责任问题。
第三,需要讨论人工智能侵权责任的承担者。从AI技术生命周期看,AI程序通常由实体开发、购买、运营、训练四个阶段,涉及所有者、生产者、网络服务提供者、软件研发者、使用者等多主体。如果损害能够归因于有过错的使用者,或存在可归因于所有者、生产者、网络服务提供者、软件研发者或销售者的过错所造成的产品缺陷,以上责任人需要承担相应责任。但人工智能发展到高智能阶段,则责任的承担者则如何界定,这应当是未来人工智能立法中应当值得商榷之重点。
笔者认为,在如今经济高速发展的时代,科技的发展都将会打破固有稳定的格局,带来一些危险性。为了不让沉重的法律责任打压创新型、科技型生产、研发等相关高新企业的积极性,连带责任过重,建议未来立法者应优先考虑按份责任;但是,为了保障消费者的利益,应适当在程序法上由侵权责任人承担举证责任,证明自己的过错程度及免责要件。
需要进一步思考的是,如果用未来的眼光看待科研的发展,高智能产品如自动驾驶汽车领域在不同情境中的反应和决策可能不是其创造者可以预料或者事先控制的,因而其再被定义为传统法律意义上的物或为人类所使用的被动工具、产品,显然已不恰当。在就此类智能机器的侵害行为分配法律责任时,对行为者的过错进行举证,对设计、制造缺陷或设计制造与事故发生的因果关系进行举证将是很复杂的程序法问题。
如今,侵权责任究竟如何承担已经是个全球性的讨论热点。在德国,已有监管机构提出在智能机器人上安装黑匣子,以保证事故责任的可追溯性。国外保险公司也试图通过采取保险理赔制度,建立一个全新解决、保障智能机器人侵权损害赔偿的机制。
人工智能本身就是超前研究,但我们更需要用发展的眼光,针对可能冲突的法律利益进行先行平衡,增强法律的前沿性。促进人工智能企业科技创新,提高人民生活质量,带动国家经济发展。(来源:微信公众号盈科互联网法律事务团队 文/高祺 编选:网经社-电子商务研究中心)