论文精粹|INFORMATION
谢晖:数字社会的“人权例外”及法律决断
管理员 发布时间:2022-09-20 20:59  点击:1492

一、主体性、现代社会与人权的法理

敏感而叛逆的思想家阿甘本在论及身份社会的演变时指出:“19世纪下半叶,监控技术得到了前所未有的发展,身份概念也发生了决定性转变。……我们习惯于被各种高精度的文档和数据库记录在案,因此,对我们来说,很难想象一个没有影像和身份资料的社会中如何确定个人身份,这是一件相当费劲的事。”1然而,在20世纪人类进入所谓“数字社会”以来的事实表明,当数字主宰成为“数字”社会时,近代以来随着“人的创世纪”2而构造的人的主体性面临着相当尴尬的局面——主体性被颠覆。不但如此,甚至连“去主体性” 3也不复存在:“那些任由自己被‘移动电话’装置捕获的人——无论驱使他的欲望有多强烈——无法获得一种新的主体性,他得到的只是一个号码,他最终因为这个号码而被控制。”“与历史终结论恰恰相反,事实上,我们正在见证这部机器无休止的、尽管也是无目的的运动。通过对神学上的家政(oikonomia)做出十足的滑稽模仿,这架机器接过了神意治理世界的遗产;然而,这架机器非但没有救赎我们的世界,反而正在把我们引向灾难(这忠于神意原初的末世论天职)。”4在这样的时代,我们一方面深深感受到因为技术的高度进步所带来的前所未有的种种方便和实惠:人们之间的距离感消失了,人们只要拨通对方的电话号码,对方只要轻轻地一摁接听键,就能够像在当面一样家长里短,谈天说地,也可以把自己的生活记录下来,稍加编辑加工,传上网络,瞬间可以传遍天下;一个诗歌APP,“写”出来的古诗,超越今人,媲美古人;而世界最知名的弈者,却屡屡成为算法和数字控制的机器人手下的败将;汽车的驾驶也不需要人手来操作……不但如此,机器还能自主感知人的需要,甚至人类不再需要血肉之躯充当伴侣,一款纯粹由数字控制的机器人,便是一个近乎完美的伴侣。在它面前,人类不再是主体,反而成为机器的奴役对象。

或许,我们坚定地认为,再伟大的机器,归根结底是人类智慧的产品,不可能超越人类智慧。但一方面,或许我们忘记了前贤的洞见,我们创造了对象,却被对象所奴役,这便是异化。诚然,异化理论的驳杂混乱和视角多样,使得这一概念自从黑格尔以来,就在三个不同的领域内被人们理解和阐述,即:“一是绝对精神——自然界——主观精神;二是伦理——教化——道德;三是服役意识——劳动——自为存在意识”。5黑格尔曾强调:“通过怀疑主义,终于在苦恼意识中达到了自己的真理性……这现实的真理性表明:自我意识的这种普遍的效准、客观的有效性,即是从自我意识异化而成的实在性。”6但本文所讲的异化,大体上相当于黑格尔的第三种异化,即劳动或者人类创造之对象的异化。对此,马克思曾有一形象说明:“钱是从人异化出来的人的劳动和存在的本质;这个外在本质却统治了人,人却向它膜拜。”7按照马克思的说法,人类在其所创造的对象面前,面临着一种全面的异化,人类劳动的成果,越来越倾注了人类的精神内容,因此也越来越高档。但一方面,这些高档产品的设计者和创造者,面对其自身创造的劳动成果,无可奈何地使创造者自身被创造对象所奴役和挟持,走向了其创造的对立面。另一方面,这些劳动成果的普通消费者,却面临三种奴役:其一是产品中所包含的技术和数字的奴役。他们无法作为高层次的技术发明和创造者,但一技术发明和创造成为一种商品,成为劳动的创造物和人们的消费物,消费者就无可例外地依从于这种物的指令而丧失了主体能力。其二是技术创造者和所有者的奴役。他们所有活动的直接目的是奔着利润而来。但是,这种利润的得来看似、也确实是取悦消费者的结果,消费者一旦上钩,就会对技术形成依赖并被技术创造者和所有者的贪婪所绑架。这种情形,与史上少数人统治多数人的情形相比,有过之而无不及。不过史上的情形,每每是愚民兼高压的结果,如今的情形,是智慧的掠夺和人们自甘被愚。其三是现代技术条件无所不能,把数字技术完全运用于对人的全方位控制上,即便一位谨守法纪的人感受不到这种控制的危险,他也必须接受这种控制,从而数字技术在增进社会控制及其秩序的同时,成为一切人的主宰者。风靡世界的指纹、虹膜、人脸识别,以及通过这些识别所得的数据对人的高度控制,尽管遭到不少人(尤其学者们)的怀疑和诟病,并引发了若干官司。8但无论学者的呼吁,还是司法的纠偏,都不但未使“利维坦”伸得极长的手有所收敛,而且变本加厉,乐此不疲。这进一步使主体性陷入某种劫难。

近代以来,是因为工商文明的发展,促进经济高速增长,从而在一定程度上缓解了人们的衣食之忧,同时技术的进步、知识的普及、交通的方便增进了人们的交流,但更重要的是思想的解放、平等意识的崛起以及制度变革的保障所带来的人的主体化。人的主体化即人的主体性,它表明人对自然、神灵等压迫、遏制人类能力提升的外在力量在一定程度上的摆脱,表征在人的交往中,千百年来一以贯之的命令和服从关系,迈向了人与人之间的平权交往关系。尽管在一开始,这种关系只在特定族群、特定性别、甚至特定的身份主体之间有效,但因其理念的引导,数百年间,它已成为跨族群、跨文化、跨身份和跨性别的追求和事实。正是这种事实,才表明人类的实质性进步。相关的制度模式如自由民主体制,甚至被有的学者称之为“历史的终结”。9也正是此种主体性,奠定了近、现代人权的法理,即使对理想的普遍人权保持相当的怀疑,从而主张“作为最低限度标准的人权”的米尔恩,也强调此种人权的主体性基础。“任何要求或者只是容许将人仅仅作为手段来看待因而违反普遍标准的特定道德,就是有道德缺陷的”,这样的“道德”,自然不能担当其所主张的“作为最低限度普遍道德权利的人权”。10这反证了人权——哪怕是最低限度的人权所共同秉持的道德基础和主体性前提。现代社会及其自由、人权、法治等核心理念,其基本的法理皆是以人的解放和人的主体性之获得为根据的,这是因为,“……在每个社会中,当他或她与这个社会发生重大的决裂时,一个个体就成为一个能够为他或她的言行负责任的社会主体”。 11显然,这是对人类既往历史上一切神权压制人权、专制奴役民意的反动和颠覆,也是对现代法治背景下人权主体同时一定是责任—义务主体的人类学揭示。因此,完全可以说它是人类史上一场真正的革命,是人的主体性对非人的革命,是人从那种弱肉强食的自然状态向真正的自由平等交往的社会状态、人文状态转变的革命。在这场革命中,人尽管不可能全然摆脱自然和社会的制约,但至少实现了人类自身的自信、自治和自由。人的这种不无得意的自诩,在现代网络社会和技术统治的时代,从一种曾经的事实,蜕变为一种反事实,从主体化蜕变为去主体化。往日,作为特殊性的自我在人们的相互交往中,被作为普遍性的社会所承认,因此,人权这个近代政法体系中的核心概念得以产生并盛行,作为普遍性的社会得到了作为特殊性的自我之肯定与信赖。然而,机器社会的出现,却改变了这一切。它横陈于自我和社会之间,自我即便得到了社会的承认,也受制于机器的束缚和一定意义上的解构;社会即便得到了自我的信赖,也需要交付于另一种信赖——社会对机器的信赖。因为社会是由机器及其数字所结构的,也只能藉由机器及其数字来判断和操纵。从而不仅作为殊相的自我仆从于机器,而且作为共相的社会也越来越仆从于机器——于是,在个体与社会之间,似乎正在兴起第三种主体——机器主体。这种昔日只在科幻小说中才可得见之虚拟事实,已经活生生地呈现在人类的交往行为中。由此导致现代社会面临着前所未有的真正危机,这似乎不是危言耸听。虽然这是一种令人无限担忧的事实,但或许人类之于此种事实,又不完全身处被动状态。毕竟再伟大的机器,仍然是人类智慧作用的结果,它必须经过人脑设计和人手加工,成为人的产物,并附属于人;因此,从眼下的主体仆从进入到“共主性”的“人机结合”, 12进而实现人的主体性的“凤凰涅槃”就应是人类努力的方向。所以,本文仍专注于集中检讨数字社会中人的主体性(人权)现状,并对“人权例外”的情形提出法律补救的措施。

二、数字(机器)宰制、主体离场与传统人权法理之殇

(一)数字宰制、精神离场与人类思想之稀释

人是精神性存在。帕斯卡尔有言:“人不过是一根苇草,是自然界最脆弱的东西;但他是一根能思想的苇草。……因而,我们全部的尊严就在于思想。正是由于它而不是由于我们所无法填充的空间和时间,我们才必须提高自己。因此,我们要努力好好地思想,这就是道德的原则。”13这种有关人的精神性定位由来已久,无论在古代中国还是在古代西方,都是如此。如在中国,“惟人万物之灵”14的观点已提出数千年,中经“间于天地之间,莫贵于人”。15“天生万物,唯人为贵。”“精神入其门,骨骸反其根,我尚何存?”16直到“世间一切事物中,人是第一个可宝贵的”,17这一观念千百年来,可谓绵延不绝。这些精辟论述,与古代西方思想家主张之“认识你自己”18“人是万物的尺度”,以及近代西方思想家主张之人是“宇宙之精华,万物之灵长”19何其相似尔!在此意义上,帕斯卡尔的思想,只是有关人乃精神动物思想的承前启后者,不过,他以更加形象和精辟的论述,通过独特的修辞说服了人们。人类只有认识自我,方能进一步认识世界,获得知识。因之,卡西尔在《人论》中开宗明义地写道:“认识自我乃是哲学探究的最高目标——这看来是众所公认的。在各种不同哲学流派之间的一切争论中,这个目标始终未被改变和动摇过:它已被证明是阿基米德点,是一切思潮的牢固而不可动摇的中心。即使连最极端的怀疑论思想家也从不否认认识自我的可能性与必要性。他们怀疑一切关于事物本性的普遍原理,但是这种怀疑仅仅意味着去开启一种新的和更可靠的研究方式。……怀疑论往往只是一种坚定的人本主义的副本而已……”20

迄今为止,人的主体性以及与之相关的人权、人道、人本等等,仍是雷打不动的人类基础理念。即便诸多动物权利论者,仍不能脱离人的主体地位而谈论动物权利,因为只有人能够把动物的需求表现为其精神意志,并用“权利”之类予以命名。21任何其他动物都没有、也不可能有此种思维水平和精神担当,为自己争取权利,哪怕是争取所谓“天赋”之权。所以,没有精神、思维和思想的中介,人和其他动物、乃至苇草就没什么两样,都是大体一样的碳水化合物。这说明,人的精神—思维天赋决定了其为万物之灵。尽管在终极意义上,人是被决定者,但在人类及其精神存在的过程意义上,人极力想成为、且能够成为决定者。所以“人定胜天”不是空穴来风,而是人类作为精神动物的必然要求。然而,这种情况正在被打破,人类通过赋能于机器,创造了一种通过数字模拟,完全可以掌握、支配、甚至操纵人类智慧的机器。22人类需要这种机器予以“赋能”,才可能会领会机器的意图,但机器却无所不能地通过搜集、加工、综合,迅速模拟一个人的日常思维,其智慧程度远高于常人,甚至也远高于那些人工智慧产品的创造者。同时,“人机协同正在催生新型融合智能形态。人类智能在感知、推理、归纳和学习等方面具有机器智能无法比拟的优势,机器智能则在搜索、计算、存储、优化等方面则领先于人类智能,两种智能具有很强的互补性。人与计算机协同,互相取长补短将形成一种新的“1+1>2”的增强型智能,也就是融合智能,这种智能是一种双向闭环系统,既包含人,又包含机器组件。其中人可以接受机器的信息,机器也可以读取人的信号,两者相互作用,互相促进。在此背景下,人工智能的根本目标已经变为提高人类智能,更有效地陪伴人类完成复杂动态的智能职能任务。”23这一桩桩事实足以说明主体自身的精神在随着机器智慧而增长的同时,也在和机器智慧的较量中一步步退场。或许有人认为,虽然机器智慧之于普通民众有优势,但对于知识精英,特别是那些科学精英而言,并无优势可言。但众所周知,主体性是惠及芸芸众生的一个概念。特别是经由法律的公平分配后,这一概念从理想模式转化为实践事实。哪怕如人所说,法律的功能,是拉低人的平均水平,甚至把高智商拉低到一般水平,24也表明现代国家、现代法治对于平等的主体性之关注。倘若机器智慧的发展,只是保障了个别科技精英们的精神主体性,而与普通民众的精神主体性无法挂钩,则只能说明在智慧机器面前,数字对人类宰制力越强,作为精神动物的人之精神在社会交往中就越易离场。这种在数字宰制下精神离场的法理效应必然是:现代法律、法治和人权赖以建立的思想—精神自由和人格—人身平等不复存在,思想及思想自由这一人类存在的本质性规定被稀释、甚至抽离。我们不能想象,在知识精英和普通民众二分为两种不同的实在——操纵数字的实在和被数字宰制的“实在”的情形下,会有什么思想与精神自由、人身与人格平等的主体。如此情形,彰显的是权利和义务的差异性,而不是其平等——“如果为差异辩护的人要求差异既能获得平等又能获得承认的话,那是绝不可能的。”25显然,数字宰制的精神离场,导致近、现代人权与法治的根基——思想的苇草在根基上被抽离。

(二)数字宰制、行动离场与人类自由的失落

机器智慧及数字宰制,不仅使得人的精神越来越离场,并导致近、现代人权与法治的法理根基被抽离,而且也使得人的行为也越来越附从于机器,进而导致近、现代人权的法理动力被消磨。这不禁令人深思:精神智慧之于人类,是不是成于斯,也败于斯?谈到这样的话题,让笔者不禁再次想起帕斯卡尔——计算机的发明者。对此,有人写道:“1641年帕斯卡尔十八岁时,开始设计计算机;他曾先后草拟设计过五十种模型,终于根据齿轮系的转动原理制成了世界历史上第一架计算机,能够手摇计算出六位数字的加减法。计算机制造的成功是当时国际科学上的一件大事。”26帕斯卡尔的始作俑固然泽惠后世,但也许他并未料到,计算机技术在带给人们快乐体验的同时,也让这种快乐体验俘虏了万物之灵。人类尽管指令机器,但机器一旦接受指令,人类便丧失了应有的主动性——任由机器反过来指令人们——虽然这种指令每每以十分温情的方式给人们服务。所以,机器及数字社会不但让人们的精神心智渐渐离场,而且让人们的行为亦日渐离场。人在社会交往中的身份究竟是什么?是主体,还是被机器奴役的对象?在机器及其数字化控制中,人的行为,从决策、劳动、日常交往皆被机器所控制。关于数字社会在决策层面对人的控制,以及人在决策行为中的离场,有学者指出了三点影响,即与程序相关的对个人尊严之影响,与结果相关的假冒及道德欺诈问题以及与先发的预测导向型个性化相关的严重危害:“如果可以通过先发的预测实现信息环境和个体数字接触机遇和障碍的个性化,且能够系统普及,那么相关道德问题应被视为系统‘风险’,个人自主、社会团结和民主共同体的社会根基可能会因此功亏一篑,而我们的集体自由和共同人性的社会纽带都植根于此。……这些道德问题可能会直接威胁个体、群体和整个社会的存在、自治和发展,且我们对此的重视程度远远不够。”27决策是人们行动的前奏,也是其指南。决策就是对未来行为之预测,决策理应是自主的,自主决策逻辑上意味着决策者必须有自主性和主体性。当人们在决策行为中,由机器决定的成分远远大于人的决定因素时,人就是机器的跟班甚至奴仆。人因机器而在,而不是相反。劳动既是人类与世界发生作用的直接方式,也是人类以主体性姿态展现其精神存在的行动要素,人因劳动而在。这不仅是指人们通过艰苦的劳动而获得维生的基本所需,获得精神主体应有的肉体需要,还因为艰苦劳动的背后,肩负着精神主体更为重要的精神性满足和超越。上述两种需要及其满足,分别可谓人的第一和第二需要及其满足。28可以说,用于人的第一种需要——维系精神主体肉身需要的物化劳动,每每是被动的,除非通过劳动而积累财富的动力成为一种精神性的动力,它才是主动的。但是,用于人的第二需要——精神性满足和超越的劳动,却是主动的,它与人类作为精神性存在的本质相契合,是这一本质的外在行为展示。如果人的第一种劳动被机器所取代,在一定程度上可以减轻人们的负累,自然有助于人们的精神愉悦和满足;但如果连第二种劳动都由机器所取代了,就意味着人的精神愉悦本身被机器所剥夺。试想,当我们日常的劳动行为、交流和交往分别被形形色色的机器人优势,甚至连人类最隐秘、也最神圣的性行为和生殖现象,也由性爱机器人越俎代庖的情形下,29人类自身作为精神主体的行为究竟会表现在哪里呢?即使这些机器人产品及其行为,仍然是接受高级的人类命令的结果,但对于人类而言,接受机器人的奴役,岂不形同于接受高级的人类之奴役?如此,他们还是精神主体吗?他们还存在行为的自主性吗?这是不是意味着机器统治下的主体行动之离场?30

数字宰制下人们行动离场的种种情形,实质是人们行动被数字所裹挟。这不仅是数字对主体意志无形的消磨,而且是对主体行为自主性潜移默化的掠夺。它不但导致思想—精神主体日渐陷于黄昏,而且诱使交往—行为主体成为依附于机器,并接受机器指挥甚至摆布的“交往行为者”,由自由人堕为机器襁褓里的奴隶。如此,则现代人权法理所要求的意思自治、行为自主(权利自享、责任自担)便会明显减弱,甚至消磨,人反而成了(或可能成为)机器的机器、机器的客体。显然,这对人权及其法理的威胁是颠覆性的。它不但是对人存在价值之反动,而且是对人本身的彻底否定。在霍布斯看来,人可被定义为两个方面:“所谓人要不是言语和行为被认为发自其本身的个人,便是其言语和行为被认为代表着别人或(以实际或虚拟的方式归之于他的)任何其他事物的言语和行为的个人。”“言语和行为被认为发自其本身的个人就称为自然人,被认为代表他人的言语和行为时就是拟人或虚拟人。”31霍布斯没有预料到的是,如今,数字的宰制使人赖以行为的言行既不出于自己,更遑论代表别人。这样的“主体”,在法理上究竟是人权的享有者还是人权的例外者?是人权享有和法治秩序的建构者,还是机器奴役下失去人权,乞怜于机器的奴隶?面对这些问题,既有人权的法理似乎失灵。

(三)数字宰制、身体离场与人类尊严的沦丧

如果说思想、精神是内蕴于人身体之中,而行动是表现于人身体之外,从而两者分别是人之内、外两面的表现的话,那么,肉身便是精神和行动得以内蕴或展现的载体——尽管哲学家有时候对肉身不太在乎,甚至不屑一顾。32在一定意义上,所谓人“活着”,就是针对肉身而言。人存在的基本根据,就是活着的肉身。人的精神和行为,在一定意义上只是肉身的附着物——尽管在修辞意义上,人们常说肉身灰飞烟灭,精神万古长存,但这种美妙修辞,只能针对那些社会精英。对于普通大众,它只能是一种激励,并没有实际的帮助——因为普罗大众并没有精神长存的爱好和才气,能够被子孙后代所怀念,就算是精神永在了。所以,没有肉身的支持和表现,对于绝大多数人而言,无论精神还是行动,即不存在。这或许是吾国民间把人去世了称之为“病殁(没)了”,又或许是佛教所谓“空”的意义指向吧。所以,主体性的标志之一,是人身体的独立性、平等性及其神圣地位。人身体的独立性,乃是指无论从外形,还是从气质,不同主体不可能、也没必要保持绝对一致。外形和气质的差异,正是其在法律意义上一律平等能保持身体独立性的基本物质依凭。所谓平等性,则是指在近、现代以来,肉身的社会—法律地位的平等。但是,人类近代以来通过千辛万苦奋斗而获得的这一重大法律—社会成果,在机器人及数字所宰制的社会里,却面临坍塌之危险。因为人作为意义主体的事实越来越面临着一种比普通人智慧更高、力量更大、思维更敏捷、行动更灵活的机器人之挑战。机器人不是机器而是人,获得了人的权利——无论其人身还是人格。有人在描述苹果智能助手Siri时这样说:“她愿意随时倾听随时交谈。她能解答数学难题而且擅长地理。她的研究能力胜过许多经验丰富的图书管理员。显然,她异常聪明——她的知识面超过了牛津大学和剑桥大学的所有教员。虽然她不能对每一个问题都作出有意义的回答,但她确实掌握了许多问题的答案。她对所有人都彬彬有礼,即使对那些待其粗鲁的人也一样。当有情感需要的人向她求助时,她便是一个善解人意和鼎力相助的朋友。”33可见,这款机器人不但拥有聪慧,而且同样有温情和道德。但人类的创造物越高级、越温情,意味着人对其依赖也越强烈,人自身的禀赋越容易被消磨。对此,早在两千多年前,不太欣赏文字表达的苏格拉底,就借助一则对话,表达了其对人类创造的文字的“偏见”。34尽管在该叙述中,苏格拉底扮演了一个反对技术进步的保守者的角色,但事实上,他洞穿了一切技术进步背后所隐含的人的危机,或者技术带来的人的异化。尽管苏格拉底叙述的目的,不是说明文字技术的发明使人的身体离场,但他表明技术日精,身体日锈。两千年前智者的这种论述,在我们分析机器人及数字化社会的宰制迫使人的身体离场这一问题时,不无帮助。苏格拉底的论断,不得不迫使人们思考:机器人及数字社会的宰制,特别是人们身体的离场,是否真正意味着主体性的黄昏?对于人权,它所伤害的,除了自由的思想、行为之外,还有什么?答案是人的尊严。人的尊严,就其外在的意义讲,即所谓面子。就其内在意义而言,则表达着人之所以是人,而不是任何其他事物的内在规定性,因此,在一定意义上,它包含了思想和行为的自由。由主体性观念所导致的现代人权与法治,本来就关联着作为人权的尊严,维护、保障人的尊严,是现代法治的基本使命。没有尊严,便没有人。尽管人的尊严有前述外在和内在两个方面,但在很大程度上,其都发端于外在的身体。“身体是生理的既定的,但却是受训练的和可操作的,这对于理解人类社会中象征的性质和作用,的确是个理想的焦点。”35因为身体,人们才需要面子,需要对面子及其精神内质的规范化呈现和保护。“……法律关联,亦即由事物形成的关联,乃是灵魂的关联,因为事物本身即有灵魂,而且出自灵魂。由是观之。馈赠某物给某人,即是呈现某种自我……顺理成章,我们就能够明白,在这种观念体系中,所要还给他人的东西,事实上是那个人本性或本质的一部分;因为接受了某人的某物,就是接受了他的某些精神本质,接受了他的一部分灵魂……”36尽管在法律世界,肉身这种人存在的物质形态之尊严,不是最重要的,但如果肉身不存,则一切人类尊严,都不过是海客谈瀛、雾中看花——这或许是基督教世界强调“三位一体”“道成肉身”的缘由吧。37可以说,在数字宰制下,连主体的肉身都离场,从而也尊严不在了,还能指望数字宰制更好地实现高于身体尊严的人格、思想、行动的尊严吗?

三、数字奴役、主体性危机与人权例外

(一)机器抑或人是主体

在《偶像的黄昏》一书中,作者以全新的思想,解构史上的一切权威和信仰,对流传千年的西方信仰及偶像,发出了振聋发聩的质疑:“……人仅是上帝的一个错误?抑或上帝仅是人的一个错误?”38这种独特的质疑,其离经叛道,跃然纸上。在上帝经过文艺复兴以后的步步改造,并日渐从绝对中位移到相对边缘,并把长期被神权所奴役的人主体置于绝对中心的位置以来,上帝—神圣之物不断被人们剖析和解构,在此过程中,作为主体的人,也不断被人们所反思,但既往对作为主体的人之反思,并未实际地导致目前的这种主体性的危机——人工智能机器正在和它的创造者竞争主体资格。人工智能有强弱之分:“强人工智能具有与人类相当或者超过人类智能的智力水平,因而能够像人类那样解决任何问题以及在任何社交场合和人类交流互动。当前,强人工智能仍是尚未实现的幻想。然而,弱人工智能则完全是另一回事。弱人工智能只能在电脑中创造出人类智能的某些方面”;“我们对待高级弱人工智能会不由自主地像对待生活中的其他人一样,也就是说我们信任高级弱人工智能以及将高级弱人工智能纳入我们生活的方式将会区别于我们现在对待机器的方式。”39然而,仅就目前人类所面对的弱人工智能,尤其其中的高级弱人工智能,已经使关注社会控制和治理的学者们忧心忡忡。例如,人工智能系统特别是数字及算法能否导致歧视——所谓人工智能歧视或算法歧视?如果能,在法律上应如何予以规制?再如人工智能(机器人)能否导致伤害,能否发生机器人和机器人之间的代理战争?如果能,如何在法律上加以避免;如果歧视已经发生,那么,又如何在法律上课以其责任?40有学者指出:“数字歧视,指的是依据算法所作自动决策实施的直接或间接歧视性行为。”41“在概念上,歧视性人工智能的现象可以追溯到三种不同的缺陷:有缺陷的数据收集……有缺陷的数据聚合……和标准的无响应……即便没有任何人旨在造成任何伤害,人工智能也可能表现出歧视性行为。”42这里讲的数字歧视,并不是智能机器对其“同类”的歧视,而是智能机器对人的歧视;它不是人为指令机器的结果,而是机器运行中自主产生的结果。显然,在这个意义上,智能机器,哪怕尚处在高级弱人工智能阶段,已经以主体身份作用于我们的生活。人们不但无可奈何、不由自主地依赖于它,而且在依赖的同时,所获取的绝非皆是精神享受,而且也会遭到来自智能机器人的伤害——不仅因为前述数字歧视导致的伤害,而且由于智能机器人的决策失误、行为过失(如智能驾驶导致的车祸)和恶意行为(如智能机器人自主发起进攻或引发战争等)。所有人造的对象,都有可能对人造成伤害,哪怕一架最简易的工具,也可能因为人对这些产品的操作不当而带来伤害。这种伤害是以人的过错为前提的,这完全不同于智能机器人对人的伤害。后者尽管可能因为人的过错(操作、使用不当)而伤害人,但更存在即便人没有过错,机器也以某种准主体、甚至主体的身份给人们带来伤害和损失。因此,不少学者开始把注意力转向研究智能机器人的法律责任。例如有学者强调,涉及人工智能的法律责任,在符合条件时,其不但能够并应当承担,而且要由人工智能担负有关赔偿费用。43凡此种种,皆意味着给主体——无论是静态的主体存在还是动态的主体交往,都已带来种种隐忧,甚至重大冲击。没有这些隐忧和冲击,人工智能、数字社会以及智能机器人就不可能形成当下社会理论中的重大话题,就不可能引发学术界特别是法学家对该问题的深入追问、反思并提供对策建议——当人类以主体资格独霸世界数百年之后,人造的机器出来和人竞争主体资格,44竞争话语权,对人类而言,如果这不是危机,还有什么能称为危机呢?

(二)主体竞争与人类主体性之黄昏

在目前的弱人工智能时代,人类的一切举措,在很多方面是给机器以主体化赋能,即增加其属人的甚至超人的智能。其一,人通过技术给机器赋能。即人类把其智慧赋予机器,并使机器能够模拟甚至在某些方面超越人的智慧。这种赋能的后果,一方面减轻了人的负担,并通过驾驭机器而满足人的各方面需求;另一方面,一旦人类过度依赖于机器,既会让其丧失对外部世界的探知和求索的动力,从而产生更多思维惰性,也会让机器反过来支配人。由此可见,人对机器的赋能明显具有正、负两个方面的作用。其二,人通过规范(法律)和规范化管理对机器赋能。这种情形,与其说是人对机器赋能,不如在直观的层面说是人对机器限能。但人对机器的限能,已表明另一种事实,即在所谓限能的背后,预示着对机器主体资格和能力的实际肯定。例如有学者就提出了机器人三大定律,并在此基础上提出了机器人的人格:“1.机器人不得伤害人类,或者坐视人类受到伤害而袖手旁观;2.机器人必须服从人类的命令,除非这些命令违反了第一定律;3.机器人必须尽可能地保护自己的生存,前提是这种保护与第一或第二定律不冲突。”“尽管人工智能不会有自由意志,法律应当认可将有限权利和责任赋予弱人工智能,以保护与它们交流互动的真实的人,以及(理想地说)将人类置于从中获益的更好位置。”45可见,尽管人们想通过对智能机器的法律控制而使其对人类的威胁和危害降到最低,但在做出这样的规定时,意味着人们对智能机器的人格赋能。机器虽然是人造的结果,但它在一定程度上已经脱离了人的制约,反而成为控制和制约人类的力量。因此,在涉及责任问题时,在有些情形下由机器自主承担并履行法律责任。46显然,如果没有人在法律上对机器的人格赋能,则其应为某些行为承担法律责任的论断也就无从谈起。但这时人类不得不面对的是:一方面,人们通过其智慧向机器赋能,另一方面,机器获得智慧后,又以主体的资格与人分享智慧,或分庭抗礼。无论分享智慧,还是分庭抗礼,智慧机器一旦接受人的赋能,就与人之间形成竞争。这种竞争,显然不能与机械机器时代的人造产品所导致的和人的劳动之竞争相提并论。人类对机器的赋能越大越多越强,意味着机器与人类分享智慧或分庭抗礼的能力也相应地越大越多越强。特别是当人对机器的赋能实现了机器的独立人格、独立行为和独立责任时,机器的自主性和人的自主性之间必然产生冲突和对抗。结果要么是机器对人的主体性的削弱,要么是人类选择“抱朴守拙”、放弃对机器的依赖,重回主体控制一切的自我依赖时代。人类所面临的这种窘境,可谓主体性的黄昏。之所以称为主体性的黄昏,而不是主体性的灭失,是因为一方面,迄今为止,人类还是智能机器的主导者,尽管智能机器对人类某些方面的主体资格带来严重挑战,出现了人类对机器的依赖在一定程度上超越了对其“类”的依赖之情形,但在总体上,机器对人类的宰制,并未逃离人类对机器的总体控制。另一方面,人类认知和智慧在总体上是不断进步的,而机器的主体资格总是相对的,是由人的赋能派生的。但这并不意味着人类对此可以听之任之,相反,即便是主体性的黄昏,对人类而言,显然是从神权式微、人权普及以来,主体及其人权所面临的最严重的挑战。47为什么?因为主体资源是恒定的,这意味着只要人所拥有的主体资源被智能机器所分享,那么,主体资源之于人类享有的部分在总量上必然减少,人类的主体性也因之必然受到影响,人的主体能力自然受制于机器的主体能力之影响。其结果,显然不是强化人的主体性,反而是削弱人的主体性。可能最典型的是自动驾驶汽车以及各种智能化的性生活用品。以后者为例,夫妻或情侣双方各自一旦依赖上它们,在此情此景下,人的存在,特别是夫妻之义,在主体性视角下还有什么意义?难道他们之间只剩下了所谓“嫁汉嫁汉、穿衣吃饭;娶妻娶妻、做饭缝衣”的简单的物质性功能了吗?

(三)数字奴役与“人权例外”

数字社会的到来,不仅预示着智能机器的主体属性被人们开始重视,48而且在社会交往和司法的事实中已经得到一定程度的呈现。智能机器的主体化,意味着其既拥有主体身份,也拥有和主体身份息息相关的权利。所以,有些学者专门研究机器人的主体属性,提出“机器人是人吗”这样的命题,机器人将会“为那些长期困扰我们的世界性难题找到解决之道,并且提供无数书籍、电影和音乐供娱乐之用,”“然而,假使人工智能可发挥其潜能,又可能对我们造成威胁,取代人类发明家、天体物理学家、科学家、作家、演员与音乐家,就像工业机器人在20世纪取代了产业工人一样。威胁,这并不夸张。”49有些学者的研究则更进一步,从机器人的主体性直接深入到机器人的权利。以言论权为例,有学者以美国宪法《第一修正案》中的“无意图的言论自由”作为分析工具,并从“接收者”而不是“发出者”视角,来分析智能机器人的言论自由问题:“可以……考虑从‘接收者’的经验中评估机器人言论的含义和重要性的概念后果。如果你考虑到这些因素,你就会明白《第一修正案中》‘没有意图的言论自由’理论的道理和意义”;“……宪法《第一修正案》保护词语、文本、图像、声音和数据的表达意义,而表达意义实质上是由‘接收者’(无论是读者、倾听者、观察者还是数据用户)的思想和经历(如果不是全部)构成的。到那时,大多数反对宪法包括机器人言论的观点将会消失……从宪法的角度来看,真正重要的是,接收者将机器人的言论视为有意义的,潜在有用的或有价值的。从本质上讲,这是对机器人和接收者交流的宪法认可。”50上述论断,一方面表明作为主体的智能机器,将会给人权带来严重威胁。机器对人的威胁,由体力到脑力,由简单到复杂,由行为到思维,机器尽管是人造的道具,但如此一来,人反倒成为机器役使的道具,机器成为规训者,人必须接受机器的规训,否则,不但寸步难行,而且一旦蔽聪塞明,便会遭受数字(智能机器)歧视。“算法依靠机器学习之类的人工智能技术对用户的个人数据(包括收入、学历、性别、年龄、民族宗教等)进行分析,进而生成自动化决策,当决策无法保证公平、道德时,就会引发数字歧视。随着我们对计算机、移动设备和自治系统的依赖愈发加深……数字歧视也逐渐成为一个严峻的问题。”51但是,智能机器所带来的威胁以及歧视,远不止于此。它所带来的是机器的共和国而不是人的共和国。它通过有效的过滤技术,屏蔽对机器偏好有害的信息,让人类更加依赖于机器,做机器的道具;它通过敏捷迅速的数字收集,判断一位具体个人的偏好,然后按照个人偏好推荐产品、信息以满足个人需求,但事实上却让其自觉不自觉地堕入智能机器设下的温柔陷阱,丧失了人的主体性;它可以方便地在网络世界“挑动群众斗群众”,煽动不同社会群体之间的仇恨,链接或绑定内容接近者的网站,组织“网络联盟”,52对抗其他“网络联盟”。如果不受制约,它甚至能轻易地、全方位地搜集一个人的不利信息,以败坏一个人的声誉,把一个人轻而易举地逐出社会,并永远地、无可挽回地损伤其名誉。显然,这不仅是算法及智能社会对人权的一般威胁,而且这种已然的或者可能的歧视,必将会导致一种“人权例外”情形的出现。这里所谓“人权例外”,是笔者借用施密特等思想家专门论述的“例外状态”(专政或独裁)53时所提出的概念。我们知道,只要一个国家出现紧急事项,被宣布进入紧急状态,就必须根据程序克减公民的一些权利,以保障公民、社会的更大的或者整体性的权利。这种情形,被有些学者称之为宪法专政,54或者例外状态。55借用这些学者的观点,可以把数字社会中的人权例外描述如下:它是指在智能机器及其数字控制、支配和操纵下,人的权利被数字社会或智能机器所压制、隐藏、克减甚至剥夺的情形。它表明,在数字社会中,人的权利面临的不仅是智能机器的一般威胁,而且在事实上已经被智能机器所严重操纵。权利享有或其他处置方式,已不是由人自主决定的事情,其予取予夺,很大程度上取决于机器。人们必须依赖于智能机器,才可以享有权利,其权利才能得到保障。最近有关因“老人没有健康码,搭公交被劝下车”的报道,56就典型地说明了智能机器对人权的直接危害,57这一现象,已引起了外国学者的关注。58其他诸如入园、入住、出行等必须刷脸,否则不得行动等问题,都可谓机器经由人的赋能,又迫使人们就范于机器,否则就剥夺其权利的情形。59尤为值得关注的是,如果说例外状态必须受法定条件、权力、程序、适当性以及目的等的限制,从而只是一种“日常之例外”的话,那么,不得不说,智能技术的迅猛发展以及人们对智能技术的无限依赖,加之权力对智能技术在社会管制(而不是治理)中的特别推崇和推销,导致所谓“人权例外”有日渐演变为“例外常态化”的严重危险。这种“例外常态化”乃是“机器常规”所导致的必然结果——既然机器成为常规的,那机器对人权的可能威胁和实际危害就相应也成为常规的。面对此种情形,人类究竟如何应对和救济?显然,这不是这篇小文所能够回答的。目前人们的相关讨论,大都集中在通过法律予以施救上。

四、智能社会中“人权例外”的法律决断

(一)智能社会中人权的双重倾向

智能社会对人权而言,是一把双刃剑,“数据信息既可能会增进人权、发展人权,也可能会威胁人权、侵蚀人权”。60一方面,它催生了以数据(如知情、同意、采集、修改、可携、管理、支配、使用、收益、删除)为核心内容的信息权,这些权利可被统称为“新兴权利”61“第四代人权”。62另一方面,它既对传统人权造成严重的威胁,同时又遏制新兴权利的实现。即便数字社会能给人们带来种种权利及便利,也因为数据和信息的消费者总是处于技术劣势地位,因此,不得不屈从于位处技术优势的智能机器之摆布。这种情形导致了智能社会中人权的双重倾向:一方面,人权无论在内容还是在形式上都在扩展,另一方面,这种扩展了的人权既使传统人权遭到恣意侵蚀,又使新兴权利遭受有形无形的限制。值得一提的是,即使由于数字社会的发展所带来的种种人权增益,在很大程度上也附带了对人超出其天然本性的评判。权且以所谓四代人权的划分为例分析:如果说第一代人权——消极自由权建立在人的自然本性基础上,这是人权及其法律保护的人性原点,63而第二代和第三代人权——积极自由权则建立在人的社会本性基础上。那么,“第四代人权”呢?它所立基的人性原点是什么?有自然人、社会人这样的称谓,存在不存在一个信息人或数字人的概念?如果不存在,信息权在什么意义上是自然人的人权?在什么意义上是法人的权利?在何种意义上这种权利属于智能机器?如果存在,则又在什么意义上它属于机器人的权利或人权?倘若这种权利受到人类或智能机器的侵犯,又如何予以救济?

(二)“人权例外”:法律保护人权的难题

“人权例外”现象,说明数字社会提供给人们的种种方便,在一个视角看是人权,在另一视角看,却是人权的悬置、对立甚至灾难。就悬置而言,“人权例外”意味着在人的交往行为中,人权不在场或者被搁置。那些五花八门、光怪陆离、近乎爆炸般的信息,并不是出自人类本质的需要,恰恰是这些信息,遮蔽、搁置、放逐了和人类本质相关的信息需要。就对立而言,这种种看似眼花缭乱的“权利现象”,究竟是人的权利还是机器的权利?如果是前者,那么,法律出面予以保护完全符合有关人的法理;如果是后者,那么,究竟要不要保护,如何保护?这势必涉及智能机器的主体资格问题。就灾难而言,一旦机器拥有主体资格,并在法律上赋予其权利,就意味着芸芸众生所面对的竞争者,总是绝顶聪明的智慧机器。这对任何个人,无论其作为社会精英,还是普通民众,不但是挑战,而且是打击。可以预料,当所有伟大的弈者都难以与机器人对弈时,弈者还有曾经的自尊和自信吗?当所有伟大的医者与机器人手术刀相较都难以企及,甚至被机器人手术刀蛮横地取代时,医者还能重拾曾经的权威和主体地位吗?当一款智能软件在瞬息之间所写出来的诗歌,远胜于人间所有伟大的诗人皓首穷经、呕心沥血之作时,诗人,这种伟大而纯洁的称谓,还有什么意义?智慧机器,对于这些灵动的主体而言,不是灾难是什么?而当智能机器千百万倍地节约劳动成本,取代劳动者的日常劳动时,那些世世代代以劳动谋生、以劳动为乐的普通劳动者,生存的意义又是什么?他们还能以主体的身份生存吗?凡此种种,不是假象,而是我们正在面对的现实,既然是现实,就必然造成“人权例外”,也造成人权保护的重大难题。其中最困难的是法律究竟保护的是谁的人权。64是智慧机器的人权,还是人类的人权?一般而言,人类所设计的法律,其价值指向必须是基于人类自身的人权。如今机器不但在一定意义上获取了主体资格,而且日渐成为和人类分庭抗礼甚至超越人类的主体。对人类而言,这其中可能存在最好的情况,也可能存在最坏的情况。65如果把这种好坏的二元判断运用于说明法律保护之于人的意义,则倘若法律只保护人的权利,而不考虑保护作为主体的机器的权利,则对人而言这种保护是更有意义的;反之,如果法律不但保护人的权利,而且公平地甚至优先地保护机器人的权利,则这种保护之于人类而言,弊害多多。显然,这是一种二难抉择。那么,法律之人权保护能否摆脱这种二难,实现人与机器人的共赢?在我看来,尽管这种可能性存在,但要真正实现却很难。只要机器人接受人类赋能后成为在智慧上超越任何个人、更超越于绝大多数普通民众的主体,那么,法律的公平保护本身就意味着对人类的不公平。起点或机会公平的保护原则只有针对智慧、能力大体相当的人而言才有意义,否则,毋宁是一种嘲讽。法律可以无视机器权利吗?不可能。因为一方面,智能机器作为主体,其权利已然产生:机器人拥有知识产权。“当人工智能可以自主生产新的知识成果而没有任何有意义的人际互动(除了开/关按钮之外)参与其中时,人工智能是作者或发明者……”66机器人拥有话语权。“机器人言论由可发送和可接收的实质性信息组成,这些信息可以被识别为交际性言论”“机器人技术就像我们的交流代理人;从经济交易到学术公式,他们是代表我们‘说话’的代理人”67……因为拥有权利,机器人还负有法律责任,“……机器人可以(或应该)被认为是有法律责任的”;“我们应该在事实面前屈服,迟早有一天,机器人将成为有权处理自己事务的一类,能够‘对法律义务有意识’,甚至‘具有对惩罚的道德情感’,最终呈现为让我们‘原谅一个计算机’”。68当机器人既以权利主体、也以义务(责任)主体、有时还以权力主体等多元主体身份呈现在我们面前时,法律对机器权利不予保护,有违社会进步的技术原则,法律以人类进步的名义优先保护机器权利,也显然失当。法律以公平的理念既保护智能机器的权利,也保护人的权利,看似起点(机会)平等,但它严重忽略了两类主体智能的天壤之别。面对如此矛盾的复杂形势,究竟该怎么办?在笔者看来,这或许始终是个问题。法律面对数字社会中的“人权例外”,不可能制定一个一劳永逸的解决方案,尽管它可以在一定程度上缓解机器权利与人类权利的矛盾,尽可能多地使机器权利惠及人类权利,减轻数字社会中“人权例外”导致的人类处境的幽暗甚至灾难的境况。

(三)“人权例外”:法律救济人权的限度

法律救济是法律保障的题中应有之义,是法律保障的另一个维度和重要方面。但由于法律救济在法律保障中的地位如此重要,因此,这里不得不单独论述——尤其在涉及人权例外的法律救济时。具体言之,所有法律救济,皆源自法律保护的社会关系和社会秩序遭受损害——无论是来自外部的损害还是来自内部的损害。这一界定,也意味着法律救济是法律保障的极端形式。法律保障可以分为日常保障和纠纷裁断。日常保障意味着把人们交往行为的方方面面纳入法定的或者法律所许可的权利义务体系。只要在这个体系内,人们的交往行为便是自治的,相应的社会关系和社会秩序也是自治的。不需要国家权力出面予以强制性协调,大家相互交往,相安无事。当然,这并不是说法律对人权的日常保障就是自然而然地完成的。事实上,立法究竟要选择保障谁的(人的、机器的)人权(权利)或如何分别保障人的人权和机器的权利,这本身是需要利弊权衡的。而纠纷裁断,则意味着智能社会中人权的常态保障受到威胁,常态的规定和保障被打断,公权主体必须依法进入其中予以救济,以便恢复智能社会的人权秩序。这必然意味着人权的冲突——既包括不同人权之间、不同主体人权之间的冲突,也包括智能机器人权利与自然人、法人权利之间的冲突。对智能社会中人与人之间权利的冲突——哪怕是那些涉及智能问题的权利冲突之处理,只要把有关解决日常权利冲突的基本原理、基本的责任机制以及处理权利纠纷的程序代入其中即可实现。可见,即便在智能社会中,涉及数字(智能)的权利冲突,如果仅仅发生在人与人(人与法人、法人与法人)之间,则法律是完全能够救济的。但在智能时代,人们面对的不仅仅是人与人之间的数字权利冲突,更面临着作为主体的智能机器的权利与人权的冲突。因为在人类赋能机器时,不仅赋予其有益于人的智慧,也会赋予其有害于人的智慧,甚至制造出“机器犯罪人”——“机械犯罪人是人类努力创造机械人不可避免的副产品”。69机器犯罪人对人类的犯罪及其危害,就潜藏着其对人权的危害,导致“人权例外”。当然,任何冲突都是双向的,既然智能机器能够对人类权利造成伤害,也意味着人类可能会对智能机器的权利带来损害。那么,一旦这类权利冲突出现,究竟应如何予以救济?针对用刑法来制约犯罪机器人,有学者似乎自信满满:“如果技术能向着创造机械人快速前进,这将使现行刑法更适于应对人工智能技术,因为该类技术模仿人类思维,而人类思维已经受制于现行刑法。因此,人工智能技术越接近完整模仿人类思维,现行刑法就越能够适应。”70然而,不得不指出的是,即便这种自信是有道理的,但其在法律的相关救济中已前设了犯罪主体,在这里,适用刑法的原因只能是机器人犯罪。当机器权利和人权发生冲突时,选择人权优先的救济机制,还是机器权利优先的保护机制?71抑或两者都不选择,而由司法主体根据情况做利益权衡,进行自由裁量?在这里,甚至可能带来看似更为荒诞的问题:智能机器可以被判刑吗?如果能被判刑,如何落实其刑事责任?反过来的情形则是:智能机器的权利或欲望是不是应予满足,以促使其更大程度地保护人的权利?如果需要,则智能机器的欲望如何被满足,满足到什么程度,才能真正使人权与机器权利井水不犯河水,和睦共处,或只能相互促进,不会产生相害?

毫无疑问,人们所能接受的基本救济原则是人权优先。所以,在人工智能的管理上,应坚持机器辅助、以人为本和文理融合的原则。72因为这样的原则可以最大限度避免人权“例外”“遮蔽”“悬置”甚至“放逐”的情形,但它毕竟是以妨碍人工智能的进一步发展为代价的。长远来看,它也不可能真正让人工智能恰到好处地止步于机器辅助和以人为本,它迟早会冲破这种原则的藩篱,而迈向更高级的人工智能。且这种更高级的人工智能对于更广泛的人权保障而言,具有难以取代的价值。以疫情期间入门乘车必须出示扫描的健康码为例,作为一种智能化措施,它确实妨碍很多人权,但它有利于确保更多人的人权。因此,机器和人之间发生冲突,即使我们强调以人为本,但人工智能背后却是更多人的利益。那么,究竟以哪个(些)人为本?是否以机器所代表的人的利益为本?

(四)“人权例外”:保护和救济之外的法律决断

以上事实和问题,更进一步表明在数字社会中,人机冲突所导致的“人权例外”,在经由法律救济时不存在完全妥当的解决方案。在此意义上,当数字社会导致“人权例外”的情形时,尽管需要法律来保护或救济,但法律的保护或救济在这里不是万能的。在人类对智能技术的无限追求和法律解决纠纷、救济权利的有限规范之间,存在一对不可一劳永逸地克服的矛盾。因此,这时法律所面对的任务,不是八面玲珑、面面俱到,而是必须以法律的名义进行决断。在这里,决断这个概念,笔者是在施密特意义上使用的。他在定义主权时特别强调:“主权就是决定非常状态”“非常状态真正适合主权的法理学定义,这种主张具有系统的法理学基础。对非常状态作出决断乃真正意义上的决断。因为常规所代表的一般规范永远无法包含一种彻底的非常状态,所以,在真正的非常状态下所做的决断完全不能从常规中引导出来。”73可见,所谓法律决断,就是主权者运用法律处置非常(例外)状态一种非此即彼的措施,而不是左右逢源、面面俱到的,突出当下价值选择的暴力强制机制。问题是本文所谓“人权例外”,是否构成必须主权者出面,依法采取决断措施的紧急(例外)状态?其实,紧急状态,即例外状态。在汉语世界,两者异词而同义。所以学者们在翻译这一术语时,每每相互替代。因此,说“人权例外”,尽管不能全部与“紧急状态”或“例外状态”相挂钩(毕竟还有日常地、偶尔地、个别地、小规模地呈现的“人权例外”),但至少表明因数字宰制,人权可能或必然面对的紧急状态或例外状态。

虽然数字社会的发展尚没有真正宰制人权,但它对人权的威胁却随处可见。这正是当克隆羊安莉及其后的种种克隆事件频繁问世时,国际组织和不少国家果断地通过法令决断、迅速作出反应的缘由;74这也是当“基因编辑婴儿事件”披露后,我国以及世界各国负面反响极大,75行为人本人也在我国受到了包括刑罚在内的严厉处罚之缘由。76所以,面对因数字宰制而导致的“人权例外”,权力主体出面进行法律救济,或主权者进行法律决断,表面看似乎没什么两样,但事实上,无论从适用对象、规范根据还是处置方式上,两者都理应有所不同。在适用对象上,前者乃是针对日常的、个别的、小规模的“人权例外”,而后者则针对的是非常的、普遍的、大规模的“人权例外”。在规范根据上,前者适用日常状态的法律处理即可大功告成,后者必须适用“紧急状态法”才能奏效。在处置方式上,前者允许在不同的纠纷主体间进行调和,作出两造都能接受的处罚,因此,只要秉持法律原则和价值,具体结果则可协商产生。但后者不同,在冲突的价值间,主权决断者只能选择其一而不能模棱两可。例如,在劳动者就业和智能机器生产之间,当后者已严重妨害公民就业权,进而严重影响社会安定时,主权者的决断,就必须优先保障劳动者的就业权。可见,一方面,“人权例外”的法律决断和“人权例外”的法律救济是两个不同的概念,也是两种不同的“人权例外”之纠错机制。法律决断是法律保护和法律救济之外“人权例外”的第三种保障机制。另一方面,“人权例外”的法律决断,与一切紧急状态下的政治决断一样,更着意于价值决断和以主权者意志之名呈现的价值选择,甚至由于其关涉公民人权这个现代法治的核心要素,因而,其决断的价值选择更为坚决。当然,主权者法律决断的结果,或者有利于人,或者有利于机器(尽管前者是普通民众更期待的,更倾向于公平价值的决断;后者是社会精英更期待的,更倾向于效益价值的决断),但无论如何,既然是法律决断,也就意味着顾此失彼之可能和必要,只要顾此失彼不是丢了西瓜拣了芝麻。法律决断,也意味着一旦主权者做出有利于人或者智能机器的裁判,那么它就创造了一个规则准据。根据这个准据,在相当长的时间内,要么优先保障人权而限制机器权,要么优先保障机器权而限制人权——企图在两者之间实现不偏不倚的兼顾,对于法律决断而言,不得不说:此路不通。


来源:法律科学(西北政法大学学报)2021,39(06)

文献数据中心|DATA CENTER

© 2009-2024 吉林大学理论法学研究中心版权所有 请勿侵权 吉ICP备06002985号-2

地址:中国吉林省长春市前进大街2699号吉林大学理论法学研究中心 邮编:130012 电话:0431-85166329 Power by leeyc