论文精粹|INFORMATION
彭诚信:人工智能的法律主体地位
管理员 发布时间:2020-08-05 09:59  点击:9123

伴随着大数据应用和软硬件设备的不断发展完善,人工智能的发展空间广阔。据统计,现阶段超过五分之一的常规律师业务中已可由人工智能替代完成,人工智能正加速进入人类社会生活。图灵曾提出人工智能迟早会威胁到人类生存,必须在问题积重难返前,对人工智能的发展做出妥善法律规制安排。具有类似人类思考与深度学习的能力是人工智能与其他科技最大的差异。在人工智能的现实发展中,已经出现机器人能否享有著作权以及机器人致害的责任问题等。这些都涉及人工智能的法律地位、法律责任、权利义务范围等应如何界定?在法律制度无法有效应对实际情况发展时,法律理论首先要明确的就是人工智能是否具有法律人格。

法律人格,是指法律认可的享有权利、承担义务的资格,包括自然人主体、拟制主体两类。对于自然人,法律全面无条件承认其法律人格;而拟制主体的人格则需经由法律的明确规定(如胎儿)或者经过特定的认可规则方可取得(如公司的设立等)。现行法律体系下,人工智能是否具有法律人格理论上尚无统一结论,这也造成实践中的适用困境与疑惑。

法律人格有无之争议导致人工智能发展

缺乏法律价值指引

每一项重大科技应用取得突破前后,均有对其理论上的重大争论。上世纪克隆技术的突破就曾产生过巨大争议,而后国际社会明确立法禁止克隆人类,使得科学研究具有明确的价值指引。按照现行趋势,人工智能尤其是强人工智能的发展必将取得突破,但现行法规对其人格的模糊态度,特别是在权利、侵权责任主体等关键问题上的缺位,使得人工智能发展缺乏价值指引。

作为具有独立思考能力的现实存在物,人工智能可以深度自主学习、使用类神经网络。此种特性是否足以赋予人工智能以法律上的主体地位?这就需要明确法律主体资格的条件(包括实质要件与程序性要件)是什么?人工智能的短期影响取决于谁控制人工智能,而长期则取决于人工智能到底能否受到控制,人工智能的发展必须明确其法律人格。

有关人工智能法律主体地位的学说

国务院《关于新一代人工智能发展规划的通知》提出,建立保障人工智能健康发展的法律法规框架。法律规制的目标是构建可靠的人工智能应用体系,有必要通过法律的系统性调整以确保其在可控的范围内有序发展。对于人工智能的性质,学界一直有争论。在域外法的讨论中,机器人主体资格存在客体说与主体说两种观点。

(一)客体说

该说认为机器人仅是权利的客体,这是当前各国司法大多接受的观点。在责任归属的具体路径上,一般存在产品责任说与动物保有责任说两种观点。两种路径其实都有一定局限:首先,产品责任路径下,机器人缺陷的认定目前欠缺相应的国家标准和行业标准。其次,动物保有责任路径下,人类目前根本无法准确预知人工智能系统针对某个问题的所有决定,此时将这些责任归诸制造商或所有人是不合理的。

(二)主体说

将机器人认定为主体的理论又有两种论证途径:代理说和电子人格说。

1. 将机器人作为其“所有人”的代理人。将机器人视为代理人在法律上也有相当长的历史,这一认定几乎等同于承认人工智能体具有法律人格。在代理说下,机器人的用户或者操作者与机器人(人工智能体)的关系被认定为法律代理关系中本人与代理人的关系。代理说存在如下问题:首先,在民法上,根据不同的产生依据,代理分为法定代理与委托代理,而此时并无法将机器人代理归入任何一类,一方面既欠缺法律的明确规定,另一方面也根本不存在任何的意思表示。其次,机器人的行为能力如何判断,也有待进一步明确。

2. 电子人格说。欧盟通过的《欧盟机器人民事法律草案》第59 f:长远来看,要为机器人创设一个特殊的法律地位,以便至少大多数复杂的自动化机器人可以被确立如电子人(electronic persons)一样的法律地位,为其制造的大量的损害负责,或者,当机器人可以作出自动化决定或者与第三人自主交流时,要申请电子人格。但机器人电子人格的申请人是谁?申请设立的准则为何?诸如此类的问题,尚需解释明确。

确定人工智能法律主体地位的应然考量因素

(一)实质性要件

1. 意思能力的有无。当下人工智能确实已发展到能够做出一定的行为,例如谷歌公司已经实现无人驾驶汽车路测。但这种行为是否足以在法律上认定为意思能力的存在,还应当进一步考量。

2. 物质性要件的有无。人工智能是否应该存在作为法律主体予以承认,重要的一个要素是考虑其是否能够独立承担法律责任,尤其是民事赔偿责任。这其中一个重要的考量要素其是否有独立的财产来源?

联合国教科文组织《关于机器人伦理的初步草案报告》曾提出,对机器人的责任采取分担解决途径:让所有参与机器人发明、授权和使用过程中的主体分担责任;为了确保人工智能是可以被问责的,人工系统必须具有程序层面的可责依据,证明其运作方式。这种理解在某种程度上实质上是否定了人工智能的主体地位。

(二)形式性要件

法律通过什么样的形式来认定人工智能具有法律人格,是自由承认,还是准则设立,抑或行政许可?其身份是否需要登记等?

对于人工智能的法律主体地位,尽管现在尚无定论,但可以预测的是,随着人工智能技术的进一步发展,强人工智能的逐步出现与完善,赋予其主体地位并非天方夜谭。何况当下把人工智能视为主体的学者也不在少数。阿西莫夫提出的“机器人三原则”中,第二条“机器人必须保护自己”,实际上便蕴含了承认其主体地位的意思。因为,若人工智能没有法律主体地位,就难以享有自我保护的权利。根据斯通纳的理论,主体能否拥有法律权利,应满足下列条件:一是应其要求可以提起法律诉讼;二是法院在决定授予救济时须考虑到损害;三是法律救济必须满足其利益要求。

人工智能在我国当下法律中的认定

(一)依据现行法,有些人工智能可能会被认定为客体

人工智能是一套复杂的代码设计,其本质在于算法和数据处理。其存在样态千差万别,有机械手、智能软件和人形机器人等。不同的存在样态可能导致法律对其性质的不同评价。其可能构成《民法总则》第115条所规定的物,而权利人对它的权利则构成第114条所规定的物权;而像Siri这样的软件,则应被定义为智慧产品(准确地说是“软件”),成为著作权的客体。人工智能的致害应坚持解释论的视角,区分不同的具体情形以便分别采取前述不同的具体方法来解决。如产品责任(《侵权责任法》第43条)或者类推适用动物饲养人和管理人的责任(《侵权责任法》第78条)。

(二)若出现对特定的人工智能予以保护的情形,也可通过《民法总则》第128条“等”字将其扩张解释为主体

该条规定:“法律对未成年人、老年人、残疾人、妇女、消费者等的民事权利保护有特别规定的,依照其规定。”第128条在性质上属于引致条款,其立法目的在于当《民法总则》对具体民事权利的列举不能适用时,通过该条引致其他法律对于民事主体权利的特别规定,以实现保护弱势群体的民事权益。法院可通过扩张解释本条“等”字,将人工智能解释为此类弱势群体去施以保护。然而,此条仅是引致条款,并未具体规定人工智能的权利,因此在运用时仍应以单行法律对人工智能的权利进行规定,方可进行法律方法论的操作。

在当下,即便把能够创设作品的人工智能和能够完全自动化的无人汽车扩张解释为主体,但对于其致害他人时的责任归属,仍不明确。依据现行法,类推适用雇主责任(《侵权责任法》第34条第2款)可供选择。依此款规定,用人单位的工作人员因执行工作任务造成他人损害的,由用人单位承担侵权责任。据此,可将人工智能视作其所有者的雇员,其行使职能之行为,所创设之权利和义务均应归属于主体。

应该注意的是,“视为”之拟制手段应以相应法律规定为前提。因此拟制方法的运用也需要立法跟进。而且在拟制方式下,对于具体问题的判断,宜交由现行法具体规则来处理。之所以将法律对于人工智能的调整设计为一个开放结构:首先,有利于解决人工智能致害的损害分担问题。其次,有助于增强对于机器人的关怀。

人工智能享有有限法律人格的设想

(一)明确“刺破人工智能面纱”的归责原则

人工智能本质为智慧工具,即使人工智能具有自我意志也无法改变其服务社会发展的属性。人工智能即便具有法律人格,也会受到一定的限制。比如在法律责任承担上,人工智能造成的侵权损害赔偿或刑事责任依据实际情况并不完全排除由其设计者、开发者、制造者或使用者承担。谷歌公司曾经使用奔驰汽车进行测试,则安全责任由谷歌公司承担,而非奔驰公司。

(二)为人工智能强制投保责任保险

在数据网络平民化时代,单一的公司或部门均无法独自应对人工智能带来的风险。必须采取新的措施以规制人工智能带来的责任风险,2016年,英国议会提出有关无人驾驶汽车法律责任的提案,提出将汽车强制险适用扩大到产品责任。在人工智能投入商用前后,必须为其强制投保责任险,以较小的经济付出,获得共担风险的机会。

(三)在一国范围内应先制定具体的“人工智能发展法”

埃隆·马斯克提出,政府监管介入人工智能领域是明智的选择。人工智能应在国际或者国家层面上有相应的监管措施,防止陷入“人工智能悲剧”。为更好地促进人工智能发展,我国极有必要制定“人工智能发展法”。立法目标包括:建立“人工智能伦理委员会”,确保伦理道德关系不受破坏;建立全流程监管体系,确保从研究到运用负面效应可控;确定宽容审慎的监管原则、明晰法律责任制度;建立国家层级的人工智能公共专利池,加速技术成果商业转换速度与竞争优势等。这其中也有必要对人工智能的法律主体地位做出回应。


文章来源:《人民法治》2018年第18期

文献数据中心|DATA CENTER

© 2009-2024 吉林大学理论法学研究中心版权所有 请勿侵权 吉ICP备06002985号-2

地址:中国吉林省长春市前进大街2699号吉林大学理论法学研究中心 邮编:130012 电话:0431-85166329 Power by leeyc