一、问题的提出:平台算法自动化加剧的归责难题
长期以来,网络平台责任的视野一直被动地停留在事后的严格责任或者间接责任式的归责模式,平台责任追究的社会效果与法律效果均不尽如人意。网络平台时常自辩自己处于技术中立的地位,无法承受“海量数据处理”之重。公众虽然是受保护方,但也时常认为平台可能在作为“责任兜底之筐”而承担过重的责任。更重要的是,网络平台监管部门的法律责任设置和事后归责机理模糊化,调整对象不明确,责任设置似乎也不符合比例原则,因此常被诟病是“事故型问责”或“按需求监管”
然而,平台主观过错认定机制的模糊不清的问题在人工智能时代进一步加剧。ABC技术(即算法Algorithm、大数据Big Data、云存储Cloud)
与此种推论相悖,各国近年来却不约而同地加强了平台责任,平台责任严格化似乎有愈演愈烈的趋势。我国不仅不断加强平台信息管理的主体责任,
理论与现象的撕裂引发思考。显然,传统的平台追责思路无法应对技术与社会的发展。只要监管指向平台的行为,面临的都是自动化的“技术面纱”。如何形成符合主客观相一致的法理和平台技术逻辑的问责思路,尤其是明确平台在主观过错方面的认定机制与以此为基础的归责机制、责任体系,是人工智能时代平台责任基础理论面临的重大议题。
二、主观过错认定机制缺失下的平台监管困境
由于平台主观过错认定机制的缺失和模糊,现有的平台监管存在两大缺憾:其一,现有平台追责思路不符合技术逻辑,仍遵循“主体—行为—责任”的传统思路,但平台运行自动化的技术逻辑使其缺乏事前过错的认定机制,导致只能依据事后结果被动追责,治理节点滞后。其二,现有平台责任的设置缺乏对不同层次主观过错的考量,不符合主客观相一致、责罚相当的法理,使得平台责任设置缺乏体系性、合理性。不符合比例原则,既损害法律的权威性,也使得法律法规受到基于功能主义设置、缺乏规范和理论基础的质疑。
(一)平台主观过错认定缺失下的事后被动监管
由于平台主观过错的认定机制面临着“技术中立面纱”与“行为人与责任人相分离”的困境,监管部门只能在危害结果发生后启动监管和追责,具体追责时却往往找不到、理不清追责的基础和理由,陷于实际上的严格责任或者无过错责任。
从规范论的角度看,主观过错是平台承担民事责任或行政处罚的要件。早在2000年的《互联网信息服务管理办法》就强调平台在“发现”的前提下,对用户发布的不法内容有避免传播的义务。
损害结果发生之后,法律责任的追究必然要回溯平台的主观过错,过错的认定却遭遇两重障碍。其一,过错认定面临“技术中立”的抗辩。例如快播案中,其创始人王欣在法庭的抗辩理由即为“技术是中立的”
这两种过错的认定障碍造成监管部门只能根据危害结果对平台的主观过错作出倒推,导致实践层面和规范层面的严重后果。从实践层面来看,监管部门只能根据违法结果倒推主观过错。例如,2015年国家工商总局发布阿里巴巴“涉嫌在明知、应知、故意或过失等情况下为无照经营、商标侵权、虚假宣传、传销、消费侵权等行为提供便利、实施条件”
从规范层面来看,倒推导致法律只能不断扩大平台的事前注意义务范围。二十年来,网络平台的注意义务范围不断扩张。我国不断强化网络平台的主体责任与社会责任,将对信息的主动监控义务加诸网络平台,客观上无限扩张了“过失”的注意义务范围。
由于主观过错认定机制的缺失,导致平台责任的追究缺乏正当性,形成了客观上“出事找平台”的事后监管被动局面。监管部门被批评隐藏于平台的幕后,避免自身直接面对网络海量信息监管可能带来的行政复议与行政诉讼;平台责任的设置则被批评呈现“管道化”趋势
(二)平台过错层次不明下的责任体系混乱
平台责任缺乏明晰的主观过错认定机制,导致实践中对平台的追责具有随意性,平台责任难以符合主客观相一致的基本原则,缺乏可预见性。因此,现实的平台执法往往被诟病为“按需求处罚”或“运动式执法”,也导致了平台监管容易走向过度预防而脱离法治框架。
缺乏清晰的主观过错认定机制,导致实践中平台法律责任体系的混乱和随意。第一,实践中的平台责任严重缺乏层次性。网络安全法及其相关法规中平台责任形式包括责令整改、警告、罚款等。
这种责任体系的混乱造成了平台与监管部门双输的局面。从平台的角度看,是否承担法律责任并不取决于是否履行了注意义务,而取决于监管部门是否开展了相关的专项治理及其治理力度。互联网行业常常担忧不可预测的运动式执法带来的行业寒冬,长此以往极易因恐惧处罚而失去创新动力。从监管部门的角度看,主观过错层次考量的缺失使平台责任陷入扁平化、缺乏体系性的特点,客观上呈现“要么约谈,要么关停”的两极化趋势。这使得法律责任的设置和监管执法行动并不符合比例原则,具有“事故型问责”特征而丧失执法的权威性。更严重的后果是监管部门缺乏体系性和层次性的治理策略,而又有避免风险的强烈动机,因此只能不断加强对平台的行为控制。这种预防型的行为管制具有与生俱来的“越严越好”和“越早越好”的内在扩张逻辑,极易脱离法治的框架走向过度预防。
由此可见,平台监管和追责中缺乏对主观过错层次的考量,使得平台法律责任的设置不符合权责一致、责罚相当的法律原则,具有了不确定和难以捉摸的特性。这既损害了监管部门的权威性,又使得平台法律责任的设置缺乏合比例性和体系性,平台监管日趋走向严格监管。
三、平台问责原理:主客观相一致的算法责任
平台算法自动化运行造成了“主体—行为—责任”传统理论下的“责任鸿沟”,其实质是以缺失控制权作为理由主张“无过错则无责任”。为此,人工智能时代的平台责任设置必须既符合平台的技术逻辑,也符合法律责任主客观相一致的法律原理。技术原理是中立的、没有主观过错的,但技术的应用如算法的设计与部署是包含价值观和主观意图的,这是法律追责之根本指向,也是平台承担法律责任的根本依据。平台监管的需求不是严格监管而是精准监管,在平台责任的设置中加入主观过错的考量,可以使平台责任设置具有体系性与合比例性。
(一)平台算法问责的适用场景:弥合“责任鸿沟”
平台算法问责主要适用于如下场景:当损害(危害)是由算法造成时,平台主张算法自动运行“技术中立”而不应承担法律责任时,应对平台算法问责并考察平台在算法设计或运行方面的主观过错,用以弥合平台算法自动化运行造成的“责任鸿沟”。
“责任鸿沟”是2004年由安德利亚斯·马提亚提出的概念,所指的是算法自主学习使得算法的设计者和运营者未能预测未来及其运行产生的后果,人对机器的行动并没有足够的控制权,因此无法要求其承担传统的机器制造者和操作者的过错责任。
第一,算法运行而非人的行为造成了损害结果。这是因为,如果人的行为在损害结果的产生中占据了主要地位,则一般会落入“主体—行为—责任”的法律责任框架。而一旦算法的自动化决策对结果呈现占据主导地位,则会产生“责任鸿沟”。举例而言,大众耳熟能详的“大数据杀熟”背后是算法的差异化定价,因此会产生是否合法的讨论。而如果由人来进行“消费越多,价格越高”的价格歧视行为则显然是不合理的。
第二,算法的形式多为平台的“基础服务”或“一般规则”。“基础服务”是指平台算法搭建的平台交易架构与流程,包括但不限于数据收集、存储,认证与信息安全,纠纷解决机制
第三,损害常表现为由多方因素造成而难以确定责任来源。有时数据的来源和数据质量都可能造成算法运行的损害结果。例如,在德国前第一夫人贝蒂娜·武尔夫起诉谷歌诽谤责任一案中,谷歌提出的抗辩理由就是“搜索联想词由算法根据实时数据等自动生成,客观无法控制”。
以上三种情形,都可被平台用来抗辩并未存在主观过错,因而无须承担法律责任。面对算法带来的平台“责任鸿沟”,平台责任理论以扩张平台安全保障义务来应对,这导致平台被不恰当地类比为提供经营场所的商家,面临着平台责任被无限扩大化的风险。从平台和消费者的角度来看,这些平台责任分配上的不确定性都是创新和产业发展的障碍。明确平台法律责任追究的理论基础与依据,是保障平台发展与消费者权利的共同需求。
(二)平台为算法承担过错责任的理据
算法平台即利用算法构建商业模式、争夺用户流量,又利用算法的自动性试图减轻甚至避免监管与责任。技术原理虽然是中立的,但是平台对算法的设计和部署是包含价值观和主观意图的,对算法运行的结果是有基本预见的。这是法律追责的根本指向,也是对平台算法问责的根本依据。将算法设计部署的主观过错作为平台追责的根本依据有三项理据:
1. 平台作为算法设计者嵌入了主观意图
首先,算法隐含了平台的价值观和主观意图。例如,十年前有学者即提出“设计隐私”理念,主张平台在算法设计时就应将保护用户隐私的价值嵌入平台架构。我国在2019年开展的App治理专项行动中,也将“嵌入代码、插件”和“提供注销功能”等设计层面的算法作为治理对象,违反者则认定为具有不当收集个人信息的故意。
事实上,平台很多时候也承认对算法设计和部署的主观意图。在搜索王与谷歌的案件中,搜索王公司声称谷歌的恶意篡改网页排名算法导致其访问量急剧下降。
其次,算法深度学习的“技术黑箱”也无法抹杀平台设计算法的主观意图。深度学习使得算法输入可以为提取得到的多种特征,输出可以为目标任务的标签或者数值,本质上构建了一种复杂的非线性变换。算法的输出目标一旦被设立,就会自动通过深度学习接近这一目标。
最后,实质上,深度学习的平台算法同样适用算法问责制,因为算法只是借由深度学习获得了“异质自治权”。归根结底,算法只是在人类设定的目标范围内,起到了替代人类的作用。从哲学的角度来看,责任只能归因于具有自主行动能力的道德主体(人)。现阶段的弱人工智能算法可以被理解为在复杂的环境中无需人工监督,具有自动收集、处理和输出数据的能力。
2. 平台作为算法使用者具备运行控制力与合规义务
当平台不是算法的设计者,而仅为算法的使用者时,平台也需因其具备对算法运行的控制力而承担算法问责的后果。平台屡屡将算法运行中“控制力缺失”作为抗辩法律责任的理由,最为常见的是平台以“行为人与责任人相分离”
“行为人与责任人分离”是指对平台法律追责的原因,往往是由用户或者第三方行为引发的,平台并不“生产”违法内容,因此不应为此承担法律责任。例如,微博上的用户发布侵犯他人名誉权的内容,行为人是提供“内容信息提供”的用户而非平台。这一观点源自1996年美国《通信内容端正法案》第230条交互式计算机服务者不被视作提供内容信息的出版商,因此为网站和互联网服务提供商提供了强大的豁免权。
实际上,算法赋予网络平台对信息流的自动处理能力,使得平台的法律责任早已超越了“网络服务提供者”而独立化。平台貌似并不生产具体内容,只是通过算法对具体网页(商户、内容)进行排序与呈现。然而,比起内容生产者,平台算法所起到的屏蔽、推送、排序对用户接收的信息具有更强大的干预作用。从信息论的角度来说,平台算法显著降低了海量网络信息的混乱程度,将用户需要的信息以“关键词———店铺排名”或者“关键词———搜索建议”的形式提供给用户,这本身就是信息,平台也是此种意义上的“信息生产者”。无论是搜索引擎、新闻网站,还是电闪管平台,都扮演着这种信息生产者的角色。例如,淘宝网站虽然不直接出售商品,但其算法决定了商家是否能呈现于消费者的页面中。
因此,即使平台仅为算法的使用者,也需要为算法运行承担责任。以谷歌为例,2016年谷歌发现“希特勒”的自动补足是“希特勒是英雄”,以及“犹太人”自动补足为“犹太人是邪恶的”之后,出手对搜索的自动联想结果进行了修改限制。
退一步说,即使不从平台对算法控制力的角度论证,世界各国的实践也要求平台承担算法运行(数据处理活动)的合规义务。无论是欧盟一般数据保护条例(GDPR)第35条,还是我国个人信息保护法(草案)第54条,均要求平台对算法运行对“个人的影响及风险程度”,以及“所采取的安全保护措施是否合法、有效并与风险程度相适应”承担合规义务。这就要求平台在对涉及个人数据处理的重要问题上先进行自我评估,将有可能侵犯用户数据的行为作出相应的决策以及应对数据侵犯的措施,进而将数据处理影响评估内容报告给相关机构。因此,即使平台不是算法的设计者而仅为部署和运行者,也需承担相应的注意义务与合规义务。
3. 平台对算法结果输出负有注意义务
实时数据成为算法输出结果的重要因素。即使平台在算法设计、运行上均无过错,也需要为因数据问题造成的算法损害结果承担责任,理由如下:
第一,平台作为算法设计者时,具有自主性的算法对外部实时网络环境作出的反应方式并非完全不可预测,其对不良数据的反应能力仍在算法设计范围内。假定算法在上线后就有了修改自身的能力,这种能力并非从天而降,仍是算法设计者为其产品提供的能力。并且,这种对实时数据的反应能力并非没有限度,而是在事先划定的范围之内进行的。很显然,平台如果作为算法设计者,应将算法对实时数据的反应输出能力设定在安全范围内,以免发生不良后果。
第二,平台作为算法使用者时,应设计算法的干预和嵌入安全机制。对于更复杂的算法,可能需要远程监控,以便在人们认为即使有潜在危险时(即使在远程)加强安全措施。以2020年4月判决的“蚂蚁金服诉企查查案”为例,企查查推送的涉及蚂蚁微贷的清算信息,因算法运行推送方式的设置问题,引发公众将历史清算信息误认为即时信息,发布了“蚂蚁金服破产清算”的算法错误结果。这一案例显示,即使算法自动抓取数据得出结果,平台仍应负有审查算法结果的注意义务。正如判决书所言:“大数据企业对于收集、发布的数据信息仍具有基本的注意义务,对于发布的重大负面敏感信息,应当通过数据过滤、交叉检验等数据处理,确保数据质量。”
第三,平台算法投放前要充分进行线上环境的安全测试。算法应经过数据的“训练”,确保它能够应对现实生活中的数据风险,否则不应将其投放市场。例如,微软的AI聊天算法Tay在推特上运行了几个小时后,就发表了同情纳粹的言论。
平台的算法运行造成的危害后果可能是多方作用的结果,但这并不足以使平台逃避其算法责任。在这种情况下,对于任何算法的最终运行结果,可能有多个潜在的责任方。
在法律应以平台设计部署算法的主观意图为追责之指向的前提下,需要澄清的是平台算法责任是一种过错责任,但并不意味着过错责任是算法责任的唯一归责原则。如同在侵权责任领域,过错责任是默认的责任形态,但也同时存在着特殊侵权形态的无过错责任或公平责任形态。算法的应用形态并不局限于商业平台,已经被广泛应用于信用评分、政府管理甚至是司法审判中,不同场景下的算法责任不可能适用同样的归责原则,必然会随着算法所处理的数据所涉利益的性质发展出不同样态的归责原则。某些应用于公民自由、重要权利等特定部门的算法,就应如同巴尔金指出的那样,承担公共责任,以类似环境侵权的严格责任要求算法避免对社会公平的污染效应。
(三)平台算法问责的合理性与可行性
平台算法问责,从客观方面符合平台底层的技术逻辑,使平台监管的触角穿透平台的技术面纱而直触其底层技术———算法。平台算法问责符合主客观相一致的法理,可使平台责任合理化、精细化、体系化。
1. 平台算法问责符合平台技术逻辑
从底层技术逻辑的角度来看,算法在网络平台的硬件基础设施(架构)、应用程序均扮演着核心角色,决定了平台的运行模式,塑造了用户的习惯与价值观。将算法直接作为平台监管的对象,可以改变现有监管层次过浅的现状,升级传统的“主体—行为—责任”的监管路径。算法应用给平台力量带来了根本性变革,从“生产关系适应生产力”的角度看,原有的平台监管对象应相应革新,以适应算法技术带来的平台角色和地位的演变。
党的十九届四中全会提出“数据作为生产要素参与分配”
平台运行的技术逻辑是算法,平台商业价值和竞争优势的基础是算法,但是,损害国家利益、社会公共利益和公民个人权益的原因也是算法。尤其需要注意的是,平台通过算法以“作为”的形式作出了某些不当行为。今日头条旗下“内涵段子”被关停是因其推荐算法“只要价值不要价值观”。
“主体—行为—责任”思路下,法院疲于将层出不穷的平台算法与传统服务类型比对,以确定网络服务提供者的类型。这种思路忽视了平台算法对不同数据的实质控制力,可能造成平台不当逃避责任。以“微信小程序案”为例,杭州互联网法院认为微信小程序类似于《信息网络传播权条例》(以下简称《条例》)中规定的“接入服务提供者”,仅提供单纯的互联网接入服务。而实际上,《条例》对平台功能区分为存储服务和接入服务,是基于台式机时代网页HTTP协议跳转的链接行为,在移动互联网App时代早已发生改变。
近两年来,世界各国逐渐重视算法在平台监管的核心地位,将算法作为监管对象的立法动作频出。2019年美国国会议员提出《算法问责法案》,拟对用户在100万人以上的平台公司进行算法审查。
2. 考察主观过错可使平台责任精细化
主观过错既是我国行政监管考量的基本要素,也是我国平台责任立法的已有实践,只有对算法设计部署中存在的主观过错进行网络平台监管,方可实现法律预防违法行为、促进网络产业积极发展的意义。要求平台因不同程度的主观过错而承担不同程度的法律责任,符合法律责任主客观相一致的基本原则。
第一,从现有规范角度来说,无论是侵权责任的过错责任原则,还是刑法的罪责刑相适应原则,主观过错均对法律责任的存在与轻重具有决定性作用。以我国原侵权责任法第36条为例,平台在接到通知后主观状态转为“故意”,相应的法律责任也升格为了“连带责任”。在行政监管中,主观过错亦是责任要件,行为人若其决定从事违反行政法上义务之行为,即得对其非难而要求其承担责任。
具体到网络监管领域,网络安全法的立法目的之一在于“促进经济社会信息化健康发展”。因此,将主观过错程度纳入法律责任追究的考量中,既可以避免客观归责的严厉制裁带来的打击平台守法积极性的后果,又可以为平台提供接受法律追责的心理基础,提升平台对处罚的可接受程度。将主观过错作为平台责任考量要素也符合我国一贯的立法实践。最高人民法院的司法解释曾就平台主观过错如何认定给出过详细指引,对网络服务提供者是否“知道”设置了一系列考量因素。
第二,从价值考量角度来说,主观过错作为平台追责要素方可体现公平正义的基本理念。行为人的主观过错、危害性与责罚相当,方才具有法律责任的正当性。依据惩罚程度的不同实现对恶性违法行为的预防功能,从而尽可能地增强行政处罚预防功能的有效性。从我国网络安全法第二章可以看到,其立法目的之一在于“促进经济社会信息化健康发展”。将主观过错纳入平台责任的考量,使平台监管从严格监管走向精准监管,可以促进网络产业积极发展。
从反面论证,如果平台反对法律考察算法设计部署的主观过错,可能导致严格责任的适用,使得平台面对更为严厉的监管来分散平台运行的风险。与严格责任(适用于某些产品责任案件)相比,更宽松的合理性标准可能会鼓励使用机器,从而促进创新和提高安全性。
将算法作为平台底层技术逻辑作为监管对象,并在监管中将平台主观过错作为考量,不是为了平台严格监管而是为了精准监管。这不仅符合主客观相一致、责罚相当的法理,也符合我国法律的一贯精神,更加符合奉法强国、良法善治的理念和精神。那么下一个需要回答的问题是,如何在算法的自动化运行中判定和度量主观过错呢?
四、平台算法问责路径:平台的主观过错认定机制
平台算法问责的制度构建目的在于促进理想或有益的结果、防止不良或有害结果的产生,并确保适用于人类决策的法律可以有效应用于算法决策。
(一)过错的事前固定:算法备案制度
平台因算法被问责的原因是其未履行法律和道德的义务,并无法向利益相关方解释和证明其无主观过错。合理的平台算法问责有赖于清晰的主观过错认定,需通过算法评估、备案与审计对平台事前和运行中的问责点进行固定,以有效评估平台是否可以评估、控制、纠正算法带来的危害。
1. 平台算法备案的内容:算法评估与审计
第一,平台算法备案的目的在于设置问责点,相关具体制度包括算法评估、算法运行监管以及算法审计。这样既能避免事后平台隐瞒与错误披露的可能,也可预防风险,避免错误的计算反复被适用于海量主体而使损害弥散化。以风险预防为目的的事前监管已经成为立法实践的选择。例如,欧盟一般数据保护条例的数据处理评估制度(DPIA)即是针对高风险数据处理活动对数据控制者设置的预警自查义务。
第二,需要进行评估与审计的算法范围。应以算法处理的数据所涉及的利益、对用户行为的干预程度、社会动员程度为标准,确立不同的算法风险等级并设定不同的监管标准。国家应围绕高敏感、高风险算法建设“关键算法系统监督网络”,而对于相对低风险算法降低监管强度。例如,欧盟一般数据保护条例的数据处理评估制度,要求受到评估的算法系统从事“高风险数据处理活动”;又或德国数据伦理委员会提出的算法风险评估方案,主张对数字服务企业使用的算法进行五级风险评级的制度,对不同级别的算法采取不同强度的监管。
第三,算法问责点考量与记录的内容。日后的算法问责需要清晰的问责点,因此相关制度应着重平台设计部署算法的目的、风险与过程控制能力。
其一,为考察算法设计部署目的设置的问责点,应包括对算法设计的目的、与算法设计与应用必要性相称的评估。当一个算法系统有多个价值目标时,则必须将目标之间的优先级透明化。例如,自动驾驶汽车可能旨在减少交通事故死亡人数,降低其对环境的影响,减少严重伤害,缩短运输时间,避免财产损失并提供舒适的乘车体验。当这些目标冲突时哪个优先?在2018年优步公司的自动驾驶汽车事故中,优步公司则被指责过于追求运输速度,因其系统一直判断行人为“不明障碍物”而不减速,最后一秒识别出行人后则为时已晚。
其二,为考察算法设计部署风险(影响)设计的问责点,具体内容应包括对算法可能产生的公共利益、公民权利等风险的评估,包括风险的来源、性质、特殊性和严重性等。有他国实践主张算法的设计部署者应提供更为广泛的评估,包括算法应用对人权
其三,为考察平台对算法风险与过程控制能力而设置的问责点,应包括处理可能发生风险的预案与措施。具体包括相关技术信息的留存措施、处理相关风险的技术措施、与相关部门沟通与协助的措施等。比如,欧盟一般数据保护条例第35条要求数据控制者实施数据安全影响评估。正如联合国国际治理论坛专家报告所言,平台应采取“持续性、前瞻性和反应性”的步骤来保证相关技术满足其风险评估的技术需求。
2. 平台算法备案制度具体规则
算法评估与审计的内容需要通过算法备案的形式予以固定。算法备案是行政机关作出的一种存档备查的行为,其目的在于获取平台设计部署的具有潜在危害和风险的算法系统的相关资讯,以固定问责点为今后的行政监管提供信息基础。算法备案可根据算法风险等级,内部自行备案或向监管部门备案,用于日后对平台主观过错的考量。
第一,算法备案的性质。平台算法问责的目标在于问责点的固定,而非设置行政许可或前置的审批程序。其对本身报备的事项(算法应用)并不产生直接的法律效果,其目的不像行政许可那样在于“解禁”,而在于通过对其事后进行的审查、监督来保障备案事项于公益的无害。在这种情况下,备案本身即存在着监督效应。要求平台经过行政审批方可部署算法,势必会降低平台对于创新的追求动力,也会大大减缓平台应对市场竞争的速度。因此,仅要求平台对于一定风险级别的算法进行信息披露,而不以行政部门审批作为部署条件,才能在保证事后监管问责清晰的情况下,不阻碍产业的发展。
第二,算法备案的对象。算法备案应根据不同算法风险等级,要求平台进行自我备案或向监管部门备案。将监管部门作为备案对象,可避免向公众披露而造成商业秘密泄露与算法被不当使用。例如,网络用户在掌握搜索引擎排名权重等信息后,可能通过搜索引擎优化(SEO)技术对排名和搜索建议进行操纵。在各国制度中,也一般将监管部门作为信息披露的对象。诸如美国的《算法问责制(草案)》拟要求平台对监管部门(FTC)披露信息
第三,算法备案的形式。算法备案的形式可通过官方发布模板,通过平台填写模板的方式备案算法部署的目的、风险,评估过程控制方案。备案内容可用于日后一旦发生客观损害结果后对平台主观过错的考量,并可供监管部门在算法生命周期中持续使用及定期审核。
参考各国算法规制的模式,采取平台就核心算法向监管部门的备案制度,可达到政府监管与行业自律的平衡、信息披露与商业秘密的平衡、源头治理与事后追责的平衡。过度依赖事后追责难免造成损害结果的弥散化,而对风险预防的过度追求必然导向严格的事前规制,难免抑制产业发展也使监管负担过重。不同的技术机理意味着需要不断从技术源头寻找最新、最关键的治理节点和工具,并将其纳入治理机制之中,以实现治理的可持续性。
(二)过错的事后认定:独立的算法解释环节
如何在危害结果发生之后对平台的主观过错进行认定?监管部门事前备案内容可判断平台是否具有故意或者过失的主观过错,并以此为依据,结合客观的损害结果直接进行行政处罚与问责。在此过程中平台需进行算法解释。算法解释是认定主观过错进行平台问责的必经程序。
第一,算法解释在平台责任认定中具有程序上的必要性,并应在平台算法问责中成为独立设置的环节。算法解释在平台责任认定中具有行政程序上的必要性,这是平台接受行政处罚前的不可或缺的陈述、申辩,是行政法原则保障的行政相对人的基本程序性权利。平台因算法的设计部署而接受行政处罚是一种法律上的不利后果,如果缺乏陈述与申辩环节将是严重的程序瑕疵。听证、陈述、申辩的主要功能是确保当事人参与到行政程序中进行意见表达,算法解释则是这一环节在平台算法问责的行政活动中的具体体现。
第二,算法解释在平台责任的认定中具有功能上的必要性,但其过去一直作为具体案件事实查明、行政处罚程序的一部分呈碎片化状态,而未引起注意。具体案件的算法解释以认定(排除)平台的法律责任为限,程序上多由法庭调查发起,并未与审理过程分离形成单独的程序。如个性化推荐算法向用户推送隆胸广告,用户以百度侵害其隐私权提起诉讼。承办法官撰文详细介绍原告获得算法利用其Cookie数据投放个性化推荐广告的过程,也是基于在审理过程中获得的自动化决策的算法解释。
第三,从监管成本、监管对象的角度,算法解释都应成为平台算法问责制对主观过错考察的独立环节。事后的算法解释行为本身是监管考察的对象。算法解释发生在客观的损害结果发生之后,此时平台对监管部门的算法解释也会受到法律的评价,解释中的隐瞒、虚假解释等行为可能构成相应的法律责任。为监管部门提供虚假解释将承担不实解释的法律责任。事后的算法解释是对平台分配的合规的举证责任。在监管部门启动的有关算法的调查和行政处罚中,平台等互联网企业承担着自证合规的举证责任。算法解释的内容包含要求对算法本身合法性和合理性的审查,类似于因具体行政行为提起诉讼后,对抽象行政行为的附带性审查。应考虑将证明算法合法、合理、无歧视的责任分配给算法使用者和设计者。
(三)责任设置:平台的实质责任与虚假解释责任
平台法律责任的设置,应根据主观过错的程度轻重分层次设置。对于故意和过失的平台算法的主观过错,施以主客观相一致的实质责任。对于提供虚假算法备案与虚假解释的平台,则施加类似于证券虚假陈述责任的虚假备案与虚假解释责任。
1. 主客观相一致的平台实质责任
平台的实质责任,是指平台由于算法设计、部署与运行中的故意或过失,承担的法律责任。平台算法责任的设置,应符合主客观相一致、责罚相当的法理。根据平台的主观过错形态设置不同层次的法律责任。
第一,平台的过错范围应具有多重层次和丰富内涵。算法责任的主观过错包括故意、过失形态。其一,过错的范围应涵盖现行法律规定,并将其明确化。其二,过错的内涵应吸纳不得对用户行为操纵、保障用户自治性等技术伦理内容。其三,应鼓励平台算法通过主动承诺的形式,扩大自身注意义务的范围。以美国联邦贸易委员会对脸书的5亿美元罚款事件为例,其罚款的依据是脸书于2012年自身作出的企业隐私政策。当企业自己主动提供了隐私政策和承诺之后,监管部门方有理由对其违背隐私政策的行为以“欺骗性贸易”的名义予以处罚。其四,对待“关键算法”,国家应直接制定相关技术标准,违反则为存在主观过错。
第二,平台的算法责任应实现动态治理,即不仅包括在设计部署时的责任,也包括算法运行过程中的责任。当平台使用算法违反现有的法律或法规时,监管机构应首先检查平台是否能够及如何有效地证明他们有控制权,以确保算法按预期行事。如果发生重大损害并且不存在此类控制措施,或者技术人员在满足此标准方面存在疏忽与过失,则该技术人员行为应有可能受到处罚。如果这些控制措施是彻底的并得到适当实施,监管机构可能会确定平台没有采取疏忽行为或有意伤害的行为。
第三,平台实质责任的设置应与主观过错相符合。从社会角度来看,由于公司的疯狂、疏忽、故意忽视或无能而伤害消费者的错误与由于公司努力创新而伤害消费者的错误之间存在显着差异。同样,公司违反规定并对消费者或竞争对手造成重大损害的行为,以及造成很少或根本没有伤害的行为应该加以区分。
2. 平台虚假备案与解释的虚假陈述责任
如果平台提供虚假备案与解释,则承担不真实解释责任,类似于公司法、证券法中的虚假陈述责任。虚假备案与解释的形态具体包括作出违背真相的虚假备案、误导性解释、干扰性披露、信息重大遗漏、不当的备案与解释行为等。平台需要对虚假备案与解释承担法律责任,是因为在平台算法问责制的制度框架下,平台的信息披露义务是具有强制性的,披露目的具有公益性。欧盟一般数据保护条例的实践经验表明,如果没有一个明确的定义,平台就有可能以最无害的方式来解释它们的算法。
平台进行算法的虚假备案与陈述可能有多重表现形式。除了故意的虚假备案,平台可能通过混淆的方法提供干扰性披露。平台可能通过披露大量冗余干扰性数据,混杂在关键数据中,以此妨碍解释关键数据内容。
结语
平台治理与算法规制均是人工智能时代的重要的法学议题。平台借助算法技术链接资源、自动运行,取得和巩固市场优势地位。算法嵌入平台搭建架构、调配资源,实现技术对社会的深刻变革,智能平台就是两者深度融合的具体体现。人工智能时代,法律如何应对这种生产方式与社会关系的深刻变革,是本文的关切所在。
法律相对平台技术的滞后性导致了平台监管中的问题。传统的“主体—行为—责任”的平台追责框架受到平台运行自动化的冲击,主观过错的认定和责任承担理论出现错位,导致了现有监管中主观过错认定机制不清、责任设置不符合比例原则的困境,理论层面也要面对“平台责任中行为人与责任人相分离”“平台本应技术中立所以承担的是无过错责任”的诘问。监管层次过浅、监管时点滞后、监管机制模糊的问题,需要构建新的平台算法问责机制来解决。
一方面,笔者主张将平台责任的理论基础深化至平台底层逻辑———算法层面,从而使得平台责任独立化,解决“平台责任中行为人与责任人相分离”的理论误区;另一方面,笔者主张考察算法设计部署的主观过错,解决“平台技术中立”的理论误区。这需要建立平台算法备案制度来事前固定问责点,并设置独立的算法解释制度来认定平台主观过错,解决监管时点滞后与监管机理不清的问题。平台从提供“连接”服务走向智能化与自动化后,网络平台应当基于“算法责任”的主观过错,以“客观损害结果”和之前已经事先存在的“算法责任”相结合,建立权责一致、责罚相当的监管框架与法律责任体系。
如何打造“负责任”的人工智能?平台的算法问责应该是制度建设迈出的第一步。人工智能算法营造了运行自动化、损害风险化的假象,深度学习算法、人工智能主体性被反复言说,实际上为平台(或人工智能、机器人生产企业)规避责任提供了理论基础。
本文为文章摘录版,如需引用,参阅原文