当人工智能犯错,谁该负责?
人工智能概念自1956年“达特茅斯会议”首次正式提出,历经起步发展期、反思发展期、应用发展期、低迷发展期、稳步发展期和蓬勃发展期,人工智能技术迅猛发展,让人们看到了科技对于生活的改造,如:餐饮服务机器人、医疗机器人、无人驾驶汽车等等。但随之而来且无法规避的一个问题是:
当人工智能犯错,谁该负责?
【案例回顾】
2018年3月18日晚十点左右,美国亚利桑那州一名女子被Uber一辆处于上路测试阶段的自动驾驶汽车撞伤,之后不幸身亡。这是全球首例自动驾驶车辆导致行人死亡的事故。事发时,尽管有一名司机坐在方向盘后面,但是这辆车当时正处于自动控制模式。
自然人具备法律主体资格,法人具备法律主体资格,机器“人”是否具备?如果不具备,如上述事故导致的法律责任应该如何承担?
【探讨】
众所周知,当前人工智能无论如何先进,最终都是机器做出决策。面对各种复杂的意外情况,提前把所有的可能性都输入(机器学习),只要它的“大脑”学习过就可以应对,类似于欧美法系中的“判例法”。但现实生活中的意外情形不可能穷尽,加之机器卡顿、系统延迟、感应器失灵等等,人工智能犯错注定无法规避。
回归上述案例,谁该为此次事故造成的损失负责?自动驾驶汽车?车内方向盘后的“司机”?被撞身亡的行人?还是汽车制造者Uber?
当前普遍认为应该由Uber承担相应责任,笔者附议。基于中国法律法规分析如下:
第一,从案例回顾看,无证据显示受害方在事故发生时存有过错,也未见任何法定需基于“无过错责任”承担责任的情形,依据《中华人民共和国侵权责任法》,受害方无需承担本起事故造成的损失,反而其亲属可向致害方依法主张赔偿。
第二,车内“司机”虽然坐在方向盘后面,但未实际驾驶车辆,对事故发生无过错,且无法定需基于“无过错责任”承担责任的情形,无需承担法定责任。
第三,无人驾驶汽车是一种通过电脑系统替代人类进行驾驶操作的智能汽车,又叫轮式移动机器人。然现行所有法律法规未明确机器人具备法律主体资格,其不可能承担任何法律责任。所以说John Frank Weaver在《机器人也是人》中写到,如果我们希望让机器人为我们做更多的事情,那么我们可能就需要赋予他们法律主体资格。
第四,驱动汽车的算法、感应器以及所有控制系统,均是Uber设计和研制,无论是哪一环节的问题导致本起事故,通常情况下都可以理解为产品缺陷,根据侵权法第四十一条“因产品存在缺陷造成他人损害的,生产者应当承担侵权责任”之规定,Uber公司应承担相应的法律责任。
【建议】
可以预判在未来非常长的时间内,人工智能不可能规避犯错。建议相关职能部门能够出具标准、规范或指导意见等等,进而缓和前沿科技的迅猛发展与立法步伐的滞后之间的问题。