关键词 数字法治 拉齐 对齐 分配正义 智能体
不过,自民用计算机与互联网时代以来,虽然数字法治论域的名目不断更新,但其制度议题范畴逐渐变得更为清晰、稳定。围绕信息数据处理活动的个体、市场和社会影响,一系列较为集中的法律议题已经形成,如隐私、虚假消息、营销与消费者保护、网络暴力、版权、数据竞争与垄断、自动化决策等。在数字经济进入平台化后,上述制度议题对应的社会困扰持续存在,并随着信息技术对实体社会秩序介入程度的加深而沉淀。所谓“人工智能时代”来临后,许多与之相关的伦理和治理问题也并非全新的。只不过,在新型智能技术潜在的更强大的造福和致害能力面前,公众回应无论是正面还是负面,其激烈程度都可能超出以往。
基于学科建设的需要,对数字法治论域作体系化建构正成为许多学人的努力方向。有论者尝试在描述层面梳理出各类议题的可能共同点,借此建成一个内核与外延相对清晰、内部逻辑结构顺畅的论域甚至学科范畴。与上述努力略有区别,本文致力于以理论化的方式识别一种具有解释和分析功能的知识线索,揭示当下纷繁议题背后共享的某种发生学逻辑。本文探讨的问题是:现代数字技术及其应用的发展和扩展,为什么会引发诸多备受关注的治理议题?相较而言,为什么有些议题会更多受到公众及权威部门关注,且可能更值得被关注?未来重要的数字治理议题,又更可能现身何处?
这类问题当然没有唯一确定答案,并通常有多个可能解答角度。常见研讨进路侧重围绕新技术导致的社会风险及其应对来建构解释性分析。但仅有“风险”作为自变量的理论有两点局限。第一,新技术带来的治理问题之所以困难,往往因为价值和机会与风险相伴而生。对于只有风险、没有明显社会积极价值的技术应用,作出治理决策的难度不大,更多是限制甚至禁止性规定如何执行和落地的问题。第二,新技术带来的收益和风险在社会不同人群间的分布是不均质的,这种不均质分布(而不只是存在风险本身)对于理解许多争议的出现、变化乃至扩散、升级非常关键。有关数字法治的既有讨论往往在这两点有缺失,未能充分处理技术变革在效率和分配两个维度上的实质社会影响。
本文提出的知识线索和分析框架致力于更加明确地结合上述维度的考量,理解不同议题的生成和发展逻辑,进而评估相关议题的制度价值。至少自近代以来,科技发展具有特定意义上的“拉齐”(leveling)效果。所谓“拉齐”,是指技术的出现和扩散可能使此前主要限于少数社会精英或优势群体的待遇,为更大范围内的普通民众所接触、感受。而这里所说“待遇”,不仅指物质上的享受、便捷、实惠或精神层面的积极体验(自尊乃至虚荣),也包括实际损害、潜在风险及内心忧虑。例如,媒体技术的发展既使得普通民众有可能获得以往只有精英才能获得的广泛关注,也使其同时面对本只有公众人物才会面临的安宁生活被陌生人不断闯入的困扰。尽管数字法治议题在当代往往先由精英发声提起,但只有当普通民众感受较为真切时,相关议题才会在社会观念层面得到重视。而普通民众对相关议题的焦虑,则至少一定程度上来自特定技术在受惠与困扰两端的拉齐后果的不对称。特别是,在那些民众主观上认为——无论是否符合事实——其没有与精英同样受惠,却要承受与之相同甚至更严重风险的场景中,针对相关技术严格规制的呼声会更高,权威部门也可能被推动采取制度化的治理行动。
本文第一部分基于已有的法学、政治理论及科技社会研究的相关讨论,特别是有关隐私问题的讨论,对“拉齐”的含义作进一步解说。第二部分和第三部分将以身份认证应用、智能法律服务与智能手机个人助理为例,展示如何基于拉齐展开有关数字法治议题的理解、解释与规范分析。第四部分进一步提炼出基于数字拉齐的理论框架,提示其可能用于分析更多议题、并由此实现学术性串联整合的潜力。第五部分简短作结。
本文的核心论题是“拉齐”而非“对齐”。但后文将展示,从“拉齐”切入有助于思考“对齐”。在此之前,则先要对“拉齐”的含义有必要交代。“拉齐”首先是一个描述性概念,其呈现的是技术引发的社会变化过程,而这一过程是诸多规范性问题和争议产生的社会动因。
拉齐或“夷平化”的过程及其影响在现当代社会学研究中同样是一个重要主题。所谓社会“麦当劳化”的论题,即是承认并批判现代社会生活诸领域中伴随效率化、规模化而出现的标准化、同质化。而托克维尔有关“多数人暴政”、社会文化品位和公共话语质量被向下拉齐的警示,在如今基于网络传播的社会舆论环境中更值得重视。但夷平化作为一种变动过程(dynamics),本身并不意味着社会最终会实现全方位平等。尽管现代化不断带来拉齐压力,但正如布迪厄(Pierre Bourdieu)等指出的那样,社会精英会运用大量更为微妙复杂的区分策略,通过文化资本的生产和积累实现不平等的不断再造。然而,由于平等观念在规范维度的至高正当性被不断巩固,任何不平等的事实一旦被发现、揭露,都可能创造新一轮推动拉齐的动力。而数字技术的拉齐效果及其影响则需被放在这一因没有明确终点而注定持续不停的社会进程中,才能被更为全面地理解。
而弗里德曼(Lawrence Friedman)有关北美19世纪隐私法与社会规范的研究同样印证了这一点。根据弗里德曼的描述,19世纪北美社会公认的主流道德规范较为严格,既有明显的清教色彩,也体现类似英国维多利亚时期的正统意识形态,对个人失范行为宽容度很低。而这意味着社会精英失范行为一旦遭暴露,便会受严厉社会制裁,身败名裂,其多年辛苦积累的社会资本顷刻化为乌有。弗里德曼指出,包括严惩敲诈勒索在内,一系列保护隐私的法律制度在当时起到的作用,正是为可能面临严重社会制裁的精英留出一些回旋空间、提供二次机会,由此避免社会及文化资本的轻易耗散。与此同时,隐私保护的微妙作用,还包括在放松社会规范对精英束缚的同时,维持其外观上的严肃性甚至严厉性。借助隐私保护达到的这种社会规范“外紧内松”的效果,被弗里德曼概括为“维多利亚妥协”(Victorian compromise)。维多利亚妥协的存在说明即使在19世纪的北美,隐私同样更多与社会精英、而非普通大众的利益诉求关联。而在20世纪大众传媒迅速发展、扩张的背景下,维持维多利亚妥协的难度越来越大。北美精英不但没能像西欧精英那样,借助将民众法律权利向上拉齐的方式保护自身隐私,反而在体现民主与平等精神的宪法言论自由压力下,被要求将其享受到的法律层面的隐私保护降低到普通民众之下,个人生活受民众更多监督甚至窥视。如斯卓希利维茨(Lior Strahilevitz)指出的那样,这种规则又进而将普通民众能够消费到的八卦消息的质量与精英拉齐。
由技术变革因素带来的待遇拉齐、观念拉齐,在中国隐私规范发展历程中同样有所呈现。中国传统社会中并非不存在隐私观念与规范,只是以非常特定的精英文化规范和叙事呈现。类似西欧社会,中国传统社会中隐私是精英阶层的专属待遇,无论在皇城内、官邸中或“采菊东篱下”的士绅宅院里,精英(“君子”)有充分物质条件获得独处、不受打扰的环境,而其享受这种条件的规范证成则往往是修身慎独、“养浩然之气”,最终还是服务于其背负的家国责任。与之相比,普通民众(“小人”)不可能有这种规范预期,而这不仅来源于儒家意识形态,也由于客观物质保障缺乏:农业社会百姓的普通居住模式往往缺乏内部空间区隔条件。正如阎云翔在其知名民族志研究中所描述的那样,中国北方农村直至改革开放前仍主要以“南北炕”的形式安排居住,不仅家庭内部两代夫妻同处一室,且家庭外社区成员来访时也直接上炕,由此消弭了家庭作为私人领域的边界。而改革开放后,农村青年人进城,看到城里人居住的包含更小私人空间区隔的“单元房”,才意识到生活空间秩序的不同可能并回村仿建。这种生活物质条件的改变支撑了新一代农村青年人对私人生活空间的追求。换言之,中国农村社会隐私意识的出现和成长,可理解为客观居住条件拉齐的后果。
而在城市,技术驱动的拉齐同样促生新的隐私诉求。21世纪中国法院裁判的隐私相关案件中,邻里监控纠纷是一种常见类型:城市居民因在住宅门口或附近的公共区域内安装监控摄像头而与邻居发生矛盾,其背景是拥挤的城市居住环境由于经济转型和人口流动增加而从熟人社区变为陌生人社会,催生出人们借助监控提升安全感的需求。传统条件下,普通人掌握的物质技术条件难以实现对陌生人的一般信息监控,只有社会精英有能力购买并获取此类服务。但摄影摄像技术及设备成本的大幅下降,使对临近生活环境安全性存在焦虑的普通城市居民可以较为轻易地获取监控能力,这反过来又导致潜在被监控对象的隐私和安全焦虑爆发,使得此类纠纷不断进入诉讼,法律也必须做出回应。
但在解释之外,数字拉齐作为分析框架也有规范意蕴:对于可能成为法律规制对象的新技术及其应用,决策者是否能基于某种标准对其进行合理甚至可欲的区别对待?本文采取一种具有社会分配关切的福利视角。抽象而言,如果特定技术应用带来普惠,且不至于导致原有少数人面临的困扰向民众全面扩散,这当然是符合帕累托标准的理想改进,治理者应当鼓励、保护,甚至想办法推动这样的技术进步。反过来,如果特定技术的结果是使原本局限于一定范围内的困扰广泛扩散,但没有给公众带来足够受惠,治理者对此类导致“非对称拉齐”的技术应用就需要更严格干预。甚至,即便拉齐的这种“非对称性”主要是民众主观感知上的“错觉”,例如相关社会叙事可能过度放大了特定技术应用对普通人的风险,从适当安抚社会情绪的角度出发,治理者也可以、甚至应当有回应性作为。若技术应用带来受惠与困扰同步扩展(“对称拉齐”),或受惠与困扰均未普遍化(“局部技术创新”),则其福利意涵相对模糊,决策者在这些不确定性更高的场景中需要肩负更大决策责任。
表1 数字拉齐的理想类型
尽管借助数字技术实现更为高效的身份认证,看上去是治理者加强控制的需要,但治理者认证能力的提高,也使其可进行更大规模、更大体量的有效资源配置,被治理者往往从中受益。传统技术条件下,公共机关开展认证可能需要相当繁琐的书面证明材料,甚至提出听上去匪夷所思、但细想又至少在特定技术条件下无法避免的“证明你妈是你妈”的要求。但当政府建成更为高效的政务信息系统,将各类可用于身份认证的信息在数据标准化的基础上实现联通后,公民需要负担的配合认证成本大大降低,像异地办证、异地使用医保等管理服务开展的难度也大大下降,甚至可实现“一网通办”。换言之,对于普通公民来说,数字化认证技术的这种政务应用是一种具有普惠性质的拉齐。之所以如此,是因为此前也不是所有人办事都一样困难:占有优势社会关系资源者,本就可获得“容缺受理”——例如少个把材料也能办事,或者比其他人都更为快速地先完成认证。而当公共治理者开展身份认证的能力普遍提升之后,缺乏社会关系资源的普通民众也可获得类似待遇。
但身份认证并不仅仅为公共治理所需。在市场经济活动中,认证同样是许多交易得以开展的基本前提。在数字技术、特别是数字身份相关的技术基础设施快速发展的背景下,商业经营主体和服务中介可以快速完成对潜在交易对象的身份认证,这是广大电商消费者能够像传统时代的社会精英那样享受送货上门、送服务上门的技术基础。消费之外,认证技术在普惠意义上带来的拉齐还体现为信用扩张。信用对应着个体在当下有效运用他人提供的财务资源的能力,而其前提则是他人对个体未来如约履行有充分预期和信赖。传统条件下,信用只为少数人享有,因为他人对个体偿还的预期不是建立在后者拥有的社会网络资源(及其中包含的信息和监督)基础上,就是建立在其能提供的抵押物基础之上——这两类信用基础在社会中的分布并不均匀。进入现代社会,信用的扩展、扩张,乃至所谓“普惠金融”的兴起,其前提是社会资本和物质财富占有都较为有限的普通公众,也可在个人信息被广泛收集、整合的基础上,建立起个人信用记录,成为金融机构、财务投资人分析、评估其履约能力和违约风险的依据,并由此获得信贷。
但不过短短十年之间,“刷脸”或“人脸识别”便在公共话语中成了备受争议甚至常有负面意涵的说法。这又该作何理解?其实,能够“刷脸”固然对精英而言曾是种时常有利的特殊待遇,但其面部特征的高度可识别性也意味着困扰。特别是当在特定场合不希望被人识认、想要保有自身生活安宁和自主性时,他们仍常会“为声名所累”。甚至,由于这张脸的高度可识别性,名人成为犯罪行为对象的风险也会提高。这些风险使得社会精英不得不投入更多资源,无论是购置深宅大院,还是出入聘用扈从、使用私人交通工具,以求安全与安宁。
而在借助人脸识别等技术机制将快速、便捷的认证普遍推广后,普通公众同样也开始意识到,自己逐渐在不同程度上丧失了原本享有的匿名性(anonymity)或“事实上的不可辨认性”(practical obscurity),并由此面临垃圾广告、窥私、电信诈骗、网络暴力等各种各样的侵害风险。与更多便利一样,更高风险同样是身份认证技术的拉齐后果。正如一些早期观点所言,如果没有网络实名制、没有人脸识别,相关安全风险确实不会发生,而这些风险引发的各类应对成本也不会出现。但鉴于认证本身促进了公共服务与市场交易的扩展,若仅仅将认证要求归为万恶之源,主张“回”到普通人无需身份认证、但也难以获得资源和机会的时代,则失于简单甚至极端。实际上,身份认证技术带来的拉齐,之所以引发较大社会争议,不在于其带来困扰一侧的拉齐,而在于受惠与困扰两侧拉齐程度不对称,或至少在民众感知层面不对称。一方面,数字认证技术的普遍推广和认证要求的全面铺开,虽然带来的额外认证负担不多,但其导致的个人信息侵害和数据安全风险在社会认知中的显著性却非常高。在媒体渲染之下,许多用户都接受人脸识别存在严重风险的叙事。另一方面,数字认证普及后,民众虽然事实上获得更多便利和交易机会,但对此感受很可能并不明显、也很难明显。“便利”是一种习以为常的属性,一旦习惯,就会成为理所当然。更重要的是,便捷认证普及虽有拉齐效应,但在结果上远未实现民众与精英基于身份认证便捷的待遇齐平:精英通过“刷脸”等便利认证,获得的是超出民众的特殊优惠待遇,而“优待”不可能普遍化。当所有人都可以从闸机“刷脸”进门时,这与此前领导在门卫那里“刷脸”的特殊待遇显然不同;甚至,当用闸机“刷脸”成为一般员工都被要求使用的认证方式时,领导或许仍可因其能被门卫一眼认出而被直接放行。这意味着认证在受惠一侧不太可能让普通人感受到充分拉齐。而若困扰侧的拉齐在社会认知层面更为显著,这种认知层面的不对称就可能是负面社会态度的来源。
类似地,信用领域的拉齐也存在受惠与负担两侧不对称的情况。首先,P2P、大数据风控等声称可借助更丰富替代信用信息评估信用、扩展信贷的“互联网+金融/信用科技”,大大增加了金融消费者个人信息被处理的规模,由此扩大了与个人信息滥用相关的安全风险。而相比借助这类新型信用机制获得信贷的金融消费者,传统社会精英拥有私人银行等更为成熟、规范、受更严格监管的金融机构为其提供信用评估和信贷服务。因此,信用场景中的数字拉齐,在负担侧甚至可能导致金融消费者面临更严重的信息致害风险。其次,新型消费金融所基于的信用评估和相关操作,虽在逻辑上与传统信用评估一致,均旨在通过过往记录评估未来行为倾向,但相比之下,其在推动信用扩张方面更为激进,方法更有争议。从已有经验来看,由于相关金融企业在风险评估方面过于宽松、追求信贷扩张过于激进,导致金融消费者面临超出其承受能力的敞口。换言之,在信用领域,即使看上去是受惠侧发生的“拉齐”,实际上却还在增加普通人的风险。更不用说,基于2008年金融危机的经验,个人信贷的过度扩张,借助金融衍生品交易机制,最终酿成系统性风险,而批评者认为代价最终主要由普通民众、而非金融业精英承受。最后,还应看到,信用即便再多扩张,其本质还是要对潜在用信人实现区别对待,即发现一些人比另一些人信用更高。这意味着,在稀缺性约束下,信用在受惠侧的拉齐理论上是有限的。因此,数字技术给信用领域带来的更可能是非对称拉齐,信用扩张并未真正地拉齐普通人与经济精英之间在金融资源获取机会方面的待遇,却为其带来与受信相关的更高风险。
当决策者关注到特定数字技术应用带来非对称拉齐时,其在规范层面应如何思考可能的政策和制度因应?或许至少有两点值得注意。其一,在决定是否要做出干预之前,决策者应审慎观察,评估当前所见或至少被部分民众感知到的非对称拉齐,是否已处于均衡状态,抑或仍是相关技术应用扩展和普及进程中的一个阶段,而技术带动的普惠效果将在未来进一步实现,让普通民众有更高“获得感”。毫无疑问,这种评估并不容易。“用发展的眼光”审视技术通常是对的。但决策者的决策压力既来自公共意见和舆论,也来自不确定性,而后者尤其严峻,因为我们很难准确预知不同的技术及其研发应用路线的前景。而如果确定将“包容审慎”作为对待新兴科技应用发展的总体政策方向,那么决策者面临的考验,在于其定力大小。
第二,即便把握“在发展中解决问题”的大方向,也不意味着治理者必须尽量“无为”。如果在受惠侧无法进一步拉齐,例如认证领域中基于优惠待遇本身具有的相对性,不可能让每个人都事实上受到超越其他人的优待,那么需要考虑的就是在困扰侧尽可能加大制度性保护的供给。如前所述,社会精英相对而言有更强能力利用自有资源应对便捷认证引发的安全风险,但普通民众往往缺乏相同资源,或至少无力支付。而法律既具有实际提升民众获得的安全保障水平的作用,又有利于缓解风险认知给民众带来的主观焦虑。换言之,在客观和主观两个层面,法律的制度供给对于支持便捷认证技术持续发挥其积极作用都有重要意义。而在如信用这样的领域中,受惠拉齐的目标可以校准为实现差异化个体应得(deserve),即保障每个个体都应基于其实际履约守信的状况而有机会获得合理信贷资源,以追求自身目标。有效的监管应致力于抑制过度投机,禁止向个人提供超出其理性认知和决策能力的信贷产品,并在宏观层面预防系统性风险。只有以充分监管作为基础设施,金融科技创新才不至于沦为投机者花样“收割”民众的幌子。
在传统时代,顶尖法律职业人士的基本画像是博览群书且过目不忘,这不仅意味着本人拥有很高智力天赋,而且意味着其有充足经济实力,能负担在藏书丰富的高水平法学院校完成学业的成本。换言之,传统时代的法律能力专属于精英。但最近数十年中,尽管法律相关的知识规模和复杂性不断增长,新的信息科技工具却又使得法律检索、研究、学习及在其基础之上的法律实践能力在更大范围内得以普及。而生成式人工智能则是法律能力普及的最新动态。2022年末,ChatGPT即号称可以通过美国的法学院课程考试。而对于遭人诟病的大模型幻觉问题,技术和工程领域的专家也在持续寻求解决方案,例如使用检索增强生成(Retrieval-Augmented Generation,即通俗说的给大模型“联网”)策略,或完全使用专业的法律语料、而非通用互联网语料来训练模型,等等。根据目前的基准测试,各类大模型在完成法律场景中的问题识别、规则检索、推理论证和意见生成等任务时,表现参差不齐,而幻觉及稳定性等问题基于大模型技术原理,也无法根除。尽管如此,法律职业群体还是普遍意识到应对大模型挑战的紧迫性。
引入拉齐的视角,我们可以更好理解法律职业群体的焦虑,并预测下一步可能出现的政策或制度动向。实际上,AI工具被应用于法律服务场景时具有较为明显的普惠属性。在绝大多数国家、对于绝大多数普通公众而言,专业法律咨询及法律服务的成本通常都超出其支付能力。不是所有的法律服务在绝对意义上都很昂贵,但对普通老百姓而言,想要就日常生活中的一般法律关切获得咨询,甚至寻求纠纷解决,所需要支付的律师费成本往往会超出其支付意愿。以美国近年的数据为例,解决一件民众日常生活中会碰到的纠纷,花费的律师费在2754至6370美元之间,而同期该国家庭年收入中位数也只有67000美元左右,前者对中产家庭构成重要财务压力。在这种情况下,据估计,每年美国约有1亿2000万件法律纠纷无法获得解决。如果AI能接近免费(或月费20美元)为普通公众提供其日常面临的一般法律问题的答案,这在“接近正义”(access to justice)的维度上,无疑是将普通民众的处境向传统有财务或社会资源获取律师服务的精英阶层拉齐。
不过,法律领域的AI应用能带来的,到底是对称拉齐、非对称拉齐,还是帕累托拉齐?如前文提到,根据目前技术能力,机器回答法律问题的可靠性和完整性仍有局限。然而我们不应忽略稀缺性。尽管AI提供的法律答案质量有缺陷,特别是常被法律专家认为不够精准、完整,但绝大多数老百姓此前获得法律问题答案的方式主要是通用搜索引擎服务,后者表现已经不如目前的AI法律应用。不仅如此,AI工具除了直接为需要法律咨询服务的民众使用,还可为个体执业、在相对小型规模律所执业的律师,以及相对年轻、专业知识基础和训练教育背景稍弱的律师所使用。后者基于有效知识管理的执业能力由此能与大律所接近,而这有助于进一步降低律师服务成本。这一机制可间接产生增加普通人“接近正义”能力的拉齐效果。
而在困扰侧,相关分析则更复杂。鉴于大模型幻觉难以克服,普通人借助AI获得法律咨询和服务的绝对质量尚不能与大企业、大机构以及社会精英购买的高水平法律服务完全持平。特别是模型幻觉的存在,可能意味着普通人相比于社会精英会更多面临可类比为律师渎职(malpractice)的损害。更微妙的是,基于近期一些研究,AI在进行法律分析和判断时,相较于人类专家体现出更强的法律形式主义倾向,即其做出的判断会更多以法律规则、判例等正式权威规范作为主要依据,而不像人类专家那样有可能基于现实、人性因素的考虑,选择突破规则、判例的严格束缚。如果最终完成法律判断的权威仍然是人,那么基于现实主义思路提供的咨询对于客户而言仍更可靠。而假如普通民众获得的法律意见主要基于形式主义,此时民众因“错误”信赖而承受的决策损失,可能比有AI之前更为严重。在这个意义上,或许有理由主张,AI带来的拉齐效应,在困扰侧增加了民众获取法律咨询过程中面临的因法律意见质量缺陷导致的风险。但即便如此,这恐怕仍意味着发生了向上拉齐:在原本无法获得法律服务时,普通民众当然不至于担忧会受到律师渎职之害。
因此,总体来看,法律领域的AI应用带来的至少是对称拉齐,甚至可能是帕累托拉齐:在受惠和困扰两侧,均使普通人的处境向精英靠近,且技术给普通人带来的额外负担总体来看低于或至少不会超出其获益。假如普通民众对AI提供的法律意见和建议过度信赖,对其决策价值过度看重,当然可能引发风险。但在任何给定时点上,治理者可以将民众接受AI法律服务的场景限定在那些人类律师总体上不愿投身的领域,如公共法律服务,由此使得民众的处境至少不会因为信赖AI而比原先信赖通用搜索引擎时更为糟糕。
但在困扰侧,智能个人助理同样会有不难想见的拉齐效应。当下已有手机智能助理常被发现存在较为恶劣的数据隐私侵权问题,例如会在用户未知情、授权时开启无障碍权限,收集各类用户信息,完成许多可能给用户带来财务和其他风险的操作。要约束这样的行为,固然在执法层面总有操作困难,在规则层面却无含糊之处:权限滥用和个人信息过度收集本身违法,厂商私自开启终端上的无障碍权限不但给用户带来风险,也未让用户享受到太多好处,因此必须保障后者的知情和控制,其不想打开时决不能被默认授权打开,想要关掉时确保实际已被关闭。
但终有一天,当普通用户能明显感受到智能个人助理为自身生活便利和工作效率带来实在提升时,智能个人助理的困扰拉齐问题会以更棘手的方式显现。这是因为,只有在广泛收集、处理用户个人信息(包括敏感个人信息)的情况下,智能个人助理才可能为我们提供周到、体贴甚至善解人意的定制化服务;但如果为了好用,人们允许智能助理全面、深度介入自己的日常生活,这会意味着更大风险。当下已有的基于个人控制的数据隐私规则,例如数据处理最小化规则,在原理上无法应对智能个人助理可能带来的上述风险:如果智能个人助理可以在去医院就诊前就帮你整理好病历信息和用药历史,在出行前为你详细做好行程安排及路线规划,谁能舍得把授权撤销?谁又会不舍得把信息和盘托出?如果越高的定制化意味着越好的服务效果,那么在个人信息处理层面何为“最小必要”就很难说清。因此,如果没有针对智能个人助理的新规则供给,这类应用的拉齐效果可能仍是不对称的,普通人尽管从更为普及的助理服务中受益,但一个掌握并安排用户生活细节的智能体应用,也将是他人可能用以伤害用户的最佳工具。
如果要避免智能个人助理导致非对称拉齐,有关其如何进行信息处理和决策行为的规范就非常重要。但这样的规范应如何建构,目前来看并不明朗,因为相关问题离大多数人既有生活经验确实太远。这种距离不是由技术环境造成的。如今的普通消费者早已积累了大量网络购物、电子支付乃至社交媒体使用经验,借助新闻曝光也能时常了解商家滥用个人信息、危害消费者权益的行为,这使我们对于上述场景中应有何种保护性规范大概都有些想法。但普通公众缺乏的是使用“个人助理”或者“生活/办公秘书”服务的实际经验。传统上,这些服务专属于如高级别官员、企业家、文娱明星等社会精英。如果普通人也将借助智能手机享受到个人助理服务,那么对于这些了解我们所有生活细节的服务提供者,我们并不清楚应期待其行为遵守何种规范、受哪些约束——正所谓“贫穷限制了想象力”。
而恰是前述基于拉齐的分析,为我们提示了如何建构智能个人助理行为规则的“对齐”思路:一种可能路径,是寻求了解并理解,在历史上和现实中,那些先人一步用上秘书或助理服务的社会精英,在把自己工作生活世界的重要部分托付给后者时,为后者的行为订立了哪些一般原则和/或具体规则?除了针对特定类别信息的明确保密规则外,在个人助理与其服务对象之间,最重要的规范可能与维持信任有关。“信任”是一个关系概念,在信任关系持续的基础上,服务接受者不需要对助理可能采取的各类具体信息处理行为作细节控制,而可在一般托付后期待后者不背信弃义、危害自己,并为促进实现服务对象的利益作出合理决策。为维护这种信任关系,则需要一些框架性规范,如避免利益冲突等。对于手机智能助理而言,类似的信任规范确有建立必要,而现实法律制度中有一些可供参照的模板,例如信托法、企业法等领域的信义义务规则等。如果通过制度供给,让普通人在使用智能助理时能获得类似传统条件下精英可期待其助理所遵守规范的保护,那么这种规范上的对齐就有助于智能个人助理促成对称拉齐甚至帕累托拉齐。
而建构新的大众化人工智能应用所应遵循的伦理规则,基本的对齐思路正是以精英阶层在原有处境中已形成的伦理规范为方向,作向上拉齐。仍以智能个人助理为例,除了信任外,原有的服务对象—助理关系规范中,可能还有更微妙、更难把握的一类,其关乎的诉求或可称为“体贴”和“体面”。这种规范诉求在拉齐之后会更清晰地凸显出来,并成为“对齐”的方向。例如,若用户手机上的智能助理可以了解甚至推测其需求,知道用户最近身体质量指数超标,在其下班到家前,就已为其点好一份热量较低的晚餐,而用户因工作太忙,甚至根本没想起要向智能助理提出这个要求。更体贴的是,在用户搭乘地铁回家途中,考虑到身边其他乘客会瞥见用户手机屏幕,因此智能助理绝不会在这段时间里向屏幕上推送提示(“你最近胖了,应该注意饮食,别再大鱼大肉”),这就更让人感到舒服。现实生活中,特别有“眼力价”的秘书或助理,与服务对象之间会有这种默契,而默契既来自对主顾个人的充分了解,也体现出对“人情世故”(即社会规范)的拿捏。作为一种可能的对齐思路,“体面”(decency)的理念背后原本有与等级化社会规范相关联的价值。在当代由新技术促成的数字拉齐进程中,我们可以尝试借鉴那些原本限于小众的价值规范,在更大范围内推动社会规范更新。
针对其他几类拉齐,监管或治理供给同样可能有益且必要,但相关建构思路又与非对称拉齐的情形有所不同。首先,在对称拉齐场景中,数字技术给普通民众带来的受惠与负担基本相称,甚至受惠稍多。这时,监管干预应合理、适度,在允许相关技术应用创造新价值的同时,留意其致害机制,在提供容错空间的基础上,降低其负外部性。智能个人助理应属此类情形。当其能力逐步提升后,治理的关键是保证对称拉齐,即确保普通民众在享受新普及的实惠的同时,获得此前精英已可获得的保护水平。自动驾驶也与此类似,其使普通人可以像精英一样有“专属司机”服务,在路途中解放双眼和双手,让注意力得以放松。但与此同时,自动驾驶系统需接受类似专属司机的行为规范,不仅要安全驾驶,还要像专属司机一样保护客户信息安全。
其次,在帕累托拉齐场景中,数字技术给普通民众明显带来重大福利改善,而新增困扰至少在边际上明显小于新增福利。法律AI应非常接近这种情况。类似地,医学诊疗领域的AI 应用也符合帕累托拉齐的属性。尽管医学诊疗AI毫无疑问仍会有诊疗错误,但对于大多数没有条件轻易获得高水平医疗的普通民众而言,遭遇诊疗错误的概率在医学诊疗AI推广之后与之前相比未必更高,但医疗服务可及性的提升却是实实在在的。在帕累托拉齐场景中,治理者应尤其注意对相关技术发展和应用的支持与呵护,避免受到在绝对意义上强调新技术“局限性”或“风险性”的论调的影响,作出过度限制。即使要应对相关风险,也可选用类似安全港的法律技术,为技术发展提供足够稳定的制度环境。
最后,还需要留意一些未产生拉齐效应的技术变革场景。在这类场景中,新的技术应用给普通人带来的正反两方面影响都非常有限,其实际影响仍集中在社会少数群体——特别是对新技术有较强支付能力的精英阶层。像脑机接口、具身智能乃至基因编辑等,目前都可归于这一类。或许这些未带来拉齐的技术变革只是处于过渡状态,尚未达到均衡。但如暂无法实现普及,法律恐怕只能基于像《民法典》第1009条那样的宽泛条款,确保相关技术进展纳入治理者视野。待受惠和/或困扰侧的拉齐影响逐渐出现苗头,治理者会有更多依据判断其性质,选择干预时机。
如此追问,既可作为理解数字法治领域各类议题出现、变迁的重要线索,也会为制度和治理活动的展开提示方向。实际上,至少在过去数十年中,上述追问一直都在人们心底激荡、在公共话语的深层回响。为了更准确把握不同议题的利害与走向,找到真正值得投入建构性治理资源的领域,我们需要更明确、有意识地在数字法治论域的思考和讨论中,加入类似的事关整体福利与分配的追问。
来源:《中外法学》2026年第1期

