论文精粹|INFORMATION
王小芳,王磊:“技术利维坦”:人工智能嵌入社会治理的潜在风险与政府应对
管理员 发布时间:2021-12-27 09:46  点击:6538

摘要:人工智能技术嵌入社会治理在使得社会治理智能化的同时,技术发展的不确定性导致社会治理存在从"数字民主"滑向"技术利维坦"的潜在风险,即人工智能技术赋权与约束的非对称性潜含着加剧寡头统治的危险;人工智能嵌入后的行政吸纳具有有限性特征,传统官僚制结构很难主动促进算法和数据的开放性;人工智能时代社会政治力量之间的张力与不确定性可能会加剧社会碎裂。为应对人工智能政治化中的风险,政府应围绕数据共享与算法优化建立健全开放的治理体系和治理机制;进一步完善社会保障体系,努力防控人工智能导致的技术势差及不平等风险;重铸"共建共治共享"的社会治理格局,塑造"成果共享、权责同担"的责权体系,以多层次、宽领域、全方位地促进人工智能重大公共性问题的突破。 

十九大报告指出, 我们当前迫切需要“推动互联网、大数据、人工智能和实体经济深度融合”“提高保障和改善民生水平, 加强和创新社会治理”“提高社会治理社会化、法治化、智能化、专业化水平”。[1]在此, 人工智能的重要工具价值以及“智能化”作为我国社会治理的重要发展方向得到执政党的高度重视。但必须看到, 人工智能在对经济发展、社会治理与民生改善做出贡献的同时, 也将因技术发展的不确定性等原因导致社会治理存在从“数字民主”滑向“技术利维坦”的潜在风险。梳理人工智能技术嵌入社会治理的逻辑及其表现, 探讨消解风险的政府公共政策选择, 使人工智能更好地发挥其改善社会治理与民生水平的工具价值, 无疑就具有鲜活的时代背景与强烈的现实意义。

一、人工智能技术嵌入社会治理的逻辑

分析技术嵌入人类社会治理的逻辑是深入探讨人工智能技术嵌入我国社会治理所造成之潜在风险与应对风险之策略的起点。在社会治理领域, 技术嵌入的必然性由以下原因造成:

首先, 从技术产生的背景来看, 一个社会的技术基础并不完全依赖于经济的或物质的因素。人类通过工具的制造和使用集体地改造自然界以及人类自身, 当人们将社会看作是一个正在进行的人类构造, 而不是一个给定的、无法解释的、想当然具体化的实体时, 技术概念的结构主义、反具体化的内涵就被提升了——技术转入社会政治领域, 而不再唯一地指向经济生产。伊德从技术现象学和解释学视角, 以“技术扩散”的概念来描述将技术应用于考察非经济制度领域 (政治领域) 的发展特征, 以此, 他将社会视为一个正在形成的人类成就, 看作是一件待完成的作品, 而不是一个先验的、既定的历史事实;任何技术的扩散都摆脱不了社会和文化情境, 技术不是中性的, 它是政治和文化的工具。[2]从这个角度看, 人类社会和治理形态可以被构想为是由工具跃进和技术创新共同构建的, 这为人工智能技术嵌入社会和社会治理提供了方法论意义上的可能。

其次, 技术被从经济领域移植到政治领域后, 它极易被国家俘获用于社会控制和政治权力再生产, 技术手段从而成为社会治理的重要工具。政治技术或者“统治力量”可以指政治权力在其中被制造的复杂方式, 凭借这些方式, 国家不仅施加秩序, 而且可以攫取资源和动员那些在自己权限内的东西。马克思主义认为社会存在技术维度, 并将其视为社会行动者去创造并占有经济、政治和文化技术以实现社会秩序构建或改造的一种有效的“方法论武器”。[3]尼科斯·穆泽利斯认为, “技术在政治的、军事的领域中与技术在经济生产领域中具有明显的相似之处, 它像经济上的工具和机器一样具体和物质”, “正像经济技术既分析性地又具体性地从特定的社会组织的安排中分离出来一样, 政治技术同样可以被转换和改变以适应不同的统治关系”。[4]因此, 当我们在论述社会治理中技术力量的发展时, 就如同在经济领域谈论生产力发展一样, 两者都趋向一种进步的、累进的特征。在此基础上, 社会治理创新的人工智能视角可以被理解为国家利用更有效的治理技术取代低效的治理技术, 这为人工智能嵌入社会治理过程和治理形态跃进提供了价值基础。

最后, 技术发展混含着倒逼社会治理转型的强大动力。技术嵌入迫使国家 (政府) 转变在治理过程中的角色与合法性基础。哈贝马斯认为, 在政治家发现并掌握技术、资源和控制之间的必然规律后, 技术就能填补决策合理化的漏洞, 而此时的国家不得不放弃原来“无法论证的、仅仅代表决断者利益机器”的统治实体, 以适应技术将国家转变为“合理的行政管理机构”的新身份。[5]99这种国家“身份”的转变蕴含着现代大众民主中两对关系的产生与变革, 即专业技术知识与政治的关系以及技术专家与政治家之间的关系。在人工智能时代, 这具体表现为人工智能的研发者和使用者、企业和社会治理主体之间的适恰性关系。哈贝马斯乐观地认为, 这两大关系的实现基础源自政治公众社会, 即“给定的社会生活世界的社会利益和价值导向”。“政治决策从实际需求的、受传统制约的自我理解出发, 决定着技术进步的方向, 反过来, 它又以实际需求得到满足的技术上可能的机遇来衡量和批评这种自我理解”。[5]104但是他忽略了实现两种关系的抽象基础——“信任”。吉登斯认为, “抽象体系依赖于信任机制的建立”, 但是专业知识入侵日常生活的直接后果是日常生活的碎片化, 它表现在技术知识将日常生活切割成众多专业领域, 如医疗、教育、金融等, “由于专家知识内在的专业化倾向意味着所有专家在大多数情况都是外行”, 如医生可能不是金融专家。[6]一旦危机事件触发信任体系瓦解, 就会导致对整个群体的信任危机, 以政府为主导的社会治理就会陷入“塔西陀陷阱”, 如毒疫苗事件对整个医疗卫生体系产生的危机。这就构成了技术倒逼社会治理转型的第二个表征——技术嵌入试图强势扭转国家权力、政治社会生活与技术专家之间的信任关系, 该问题的两种极端就是以哈贝马斯为代表的乐观主义和以吉登斯、乌尔里希·贝克为代表的风险主义。因此, 政府政策选择决定着人工智能技术嵌入社会治理后, 技术、权力与国家的关系重构和社会秩序再生产的状况。

综上, 技术在嵌入社会治理过程中蕴含着巨大的政治能量, 它“在为社会治理的制度优化和治理创新准备新条件的同时, 也在向中国社会治理实践提出巨大挑战”[7]

二、人工智能嵌入与社会治理转场

人工智能技术的兴起, “不仅仅是一场技术革命, 更是一场决策革命和治理革命, 它正在开启一个新的未知空间, 可能带来一场社会变革, 特别是公共治理领域的变革与创新”[8]。对现代社会治理来说, 人工智能嵌入所带来的首要变化是社会治理转场。社会治理转场肇始于技术赋权导致治理主体间性发生变异, 即“权力”与“权利”关系发生了变化。人工智能技术的赋权功能具有双向性:一方面, 人工智能为国家权力对个人和社会的监管提供了数据基础, 借助人工智能可以提高国家权力能效和延伸权力范围;另一方面, 人工智能也为建立公民权利保障机制创造了条件。就其本质而言, 社会治理转场是利用人工智能技术来解决社会问题和提供公共服务时对治理体系所产生的刺激反应。社会治理转场主要表现在以下三个方面:

第一, 治理主体的机器化。治理主体已由传统的“人”转向“机器”。机器管理人的有效性取决于两个方面:一是机器是否有能力承担管理活动;二是机器是否有权从事管理活动, 前者涉及机器管理的技术和能力, 而后者涉及机器的主体性问题。因此, 这两个问题暗含着人工智能管理的两种合法性基础——效能合法性和权力合法性。两种合法性的内在矛盾钳制着社会治理策略的选择, 从而引发社会风险。

第二, 治理体系算法化。“人类社会发展的历史表明, 道德治理与法律治理都是影响国家统治秩序和人们生活的重要方式, 历来受到统治阶级的重视”[9]。传统国家制度层面的规范性治理主要源自于道德与法律, 从效果来看两者各有千秋。由于人工智能技术作为社会治理手段引入, 算法模型具有与其他社会规范一致的等值作用, 算法作为国家制度规范的重要补充, 它如何被传统法律、道德所吸收, 重新建构有效、完整的国家制度规范体系?这一问题能否被解决、在什么程度上解决决定着人工智能嵌入社会治理的有效与否。

第三, 治理手段技术化。从社会治理的效用来看, “技术和技术平台具有短期跃进效应和长期固化效应”。从短期的效果来看, 人工智能“的确能够以‘跃进’的方式提升体制效率和体制韧性, 但是这种提升效应是短期的, 不仅难以持续, 而且还会造成体制的长期固化”[10]。所以, 人工智能技术的成熟并广泛应用于社会治理领域可能会使治理主体产生技术依赖, 将社会治理过程简化并固化为购买机器设备、制定技术平台规则、建设基础设施、培训技术人员和技术手段常规化的过程。

以上三种转场的不确定性决定了人工智能技术场景下的社会治理结果具有极大的风险性。“人工智能技术不仅是一把双刃剑, 而且可能是一把双刃不平衡的剑”[11]33。从技术发展历时态观之, 人工智能技术在经济领域的发展可以弥合现有技术漏洞而导致的技术缺陷或社会问题;但以技术应用的共时态观之, 技术功能外溢能够双面运用于社会和经济领域, 但是人工智能本身却不保证该技术嵌入后的均衡样态。面对人工智能, 人类被技术奴役的可能日益凸显, 人工智能的发展不仅孕育着走向“数字秩序”的巨大机遇, 而且可能潜伏着滑向“技术利维坦” (Technological Leviathan) 的潜在风险。

三、人工智能潜含的“技术利维坦”风险

“利维坦” (Leviathan) 原指《圣经·旧约》中上帝在第六天创造出来的一只海上巨兽, 英国哲学家霍布斯借之以比喻人类为了避免“霍布斯之战”而创造出一种让所有人都信任并服从的事物——国家, “这就是伟大的利维坦的诞生”[12]。“国家利维坦”是人类自己制造出来的一个不受控制的怪物:人们对于强大的国家提供的“和平与安全”保障极其依赖, 但又时刻想对其留有一手, 防止它逃脱缰绳的束缚。随着大数据、互联网、人工智能等信息技术的发展, “人们在更全面地享受数字技术的同时, 一种‘受缚于数字’之感也在悄然而生”, “作为国家利维坦的约束手段的数字技术开始其异化过程, 又演化成为一种新的利维坦——‘数字利维坦’ (Digital Leviathan) ”。[13]它常被理解为“国家信息技术的全面装备, 将公民置于彻底而富有成效的监控体系之下, 而公民却难以有效地运用信息技术来维护其公民权利, 即无法通过数字民主来制衡国家的监控体系”[11]32, 其本质是一种技术手段与国家权力相结合产生巨大政治效应的过程。还有学者用“赛维坦” (Seviathan) 来描述科学技术异化所可能产生的风险, “科学从原本温文尔雅、带领人民走出黑暗时代的‘赛先生’, 变成了带领人们急速驶入未来世界、力量极其庞大却又找不到方向的巨型怪兽——赛维坦”。[14]

“数字利维坦”和“赛维坦”都从特定角度解释了在人工智能时代, 数字技术异化产生的社会风险, 但从概念的解释力来说两者都可能会引起歧见。首先, 数字只是记录和承载人们在信息时代的生活印迹, 它是一种符号化的社会事实。数字本身没有风险, 而利用数字的技术才是引起社会风险的关键。人工智能的发展是数字化和算法优化与其他要素共同作用的结果, 没有其他要素的配合, 数字化本身不能导致技术发展, 也不能产生社会风险。因此, 用“数字利维坦”来概括技术造成的风险似乎不太妥帖, 容易望文生义。其次, 就“赛维坦”而言, “赛”即“Science”, 也就是近代自然科学法则和科学精神, 它肯定了科学在推动人类社会发展中的作用。科技哲学、技术哲学以及技术化科学观就“科学”与“技术”概念的界定上是有区别的。“新实验主义与科学技术论凸显了具有实践意味的技术化科学观, 这不仅打破了科学与一般人类活动的分野, 还将西方理性传统中‘技术作为科学的应用’的观念逆转为‘技术是科学的基础’”。[15]海德格尔从现象学和存在主义的视角, 批判了科技遮蔽真理的社会事实并揭示了现代科学的本质是技术性。因此, 以技术为载体的科学是第一生产力, 只有当科学知识与生产实践相结合, 成为生产力才能直接作用于生产关系。为做两者的区分, 有学者提出了“技性科学”的概念, 并认为“技性科学下的技术不再是科学的附庸或者简单的延伸”, “科学与技术连接在一起成为镶嵌在社会之中的具有重要意义、发挥巨大作用的人类实践活动”。[16]因此, 以“赛维坦”来概括技术的异化不免有混淆“科学”与“技术”之嫌, 将技术带来的风险归结为科学 (science) 似乎不太符合民众的经验 (科学往往是被认为是正确的、体系化、系统化和理论化的知识体系) , 且掩盖了技术作用的本质。

以上两种表述, 共同的缺点在于并未直言技术在“利维坦”幕后发挥的根本作用, 而“技术利维坦”则直接揭示了技术力量嵌入社会治理过程中产生的重大效应和社会风险。技术利维坦源自于技术革命为新社会秩序的产生留下了“权力空场”, 当国家运用某项技术占领了“技术革命”留下的这个权力空场以后, 技术利维坦就由此诞生了。换言之, 这个权力空场被人工智能占据后, 技术利维坦可以理解为国家利维坦在人工智能时代的新形式, 它以更加隐秘、牢固的方式体现国家的控制能力, 国家可以利用人工智能技术的价值理性和工具理性编织新型的国家权力网络, 国家意志通过算法制定得以展现, 以此加强国家监控能力和社会管理能力。因此, 人工智能塑造的技术权力是国家运用技术手段复述、勾勒、数字化和再现现实国家权力的“镜像”。技术利维坦建构的技术权力与现实中的国家权力之间是相互依存、直接互动的, 现实世界的国家权力是“镜像”技术权力的基础, 而“镜像”技术权力反作用于现实世界。正是在这种互动过程中, 现实国家权力与镜像技术权力都在进行自我更新。但值得注意的是, 这种双向更新并不总是均衡有效的。在技术嵌入社会治理的过程中, 它具有生产、赋权、约束和入侵四项功能, 人工智能的技术突破不但会对经济生产与科技领域发展具有正向作用 (生产与赋权) , 这种正向性的技术外溢同样适用于政治社会领域的治理活动;相反, 由于技术发展的段位及其不确定性同样会对经济生产和政治社会领域产生掣肘 (约束与侵入) 。

因此, 人工智能功能的双向性并不完全意味着人工智能技术在治理过程中总是发挥均衡有效的社会价值, 而很可能给社会治理带来极大的潜在风险, 主要表现在以下几个方面:

第一, 由于人工智能技术赋权与约束的非对称性, 技术利维坦将导致技术权威和独裁, 加剧寡头统治的危险。人工智能技术向政府与公民双向赋权的同时强化了对他们的双向约束, 但赋权与约束之间并不是完全对称的。技术并不是中立的、价值无涉的, 特别是当公共权力与技术相结合时会产生深刻的政治影响。这体现在社会控制与维护社会安定是社会治理的重要目标, 拥有公共权力和公共资源的国家政府在掌握和运用人工智能技术时拥有巨大优势, 可以在国家控制体系中利用技术优势来收集和存储公民信息, 对公民的行为进行监管。相反, “相对于国家行政系统在国家监控体系中对信息技术的强势运用, 公民权利保障机制中的网络技术维权完全处于弱势。这样, 信息技术在国家制度框架——国家监控体系和公民权利保障机制中的运用就处于极不平衡的格局”[11]34。人工智能技术对公民的权利保障赋权是有限的。“目前, 对大数据的权利与权力问题还说不清楚, 大数据源于常态生活, 但已步入非常态领域……因而形不成以权利结构制约权力的机制”[17]22。在现实生活中, 民众对人工智能技术的使用还不全是为了民主监督与利益表达, 主要是为了满足日益多元化日常生活的需求, 如智能教育、智能人居、智能驾驶等。

第二, 人工智能嵌入在促进公民参与和行政吸纳时展现出有限性的特点, 传统官僚制结构可能很难主动释放算法和数据的开放性和共享性。如果对第一点分析可以被接受的话, 我们不能将人工智能技术赋权和约束的非对称性归结为技术自身的可获得性分配在公民与国家之间的不对称, 换言之, 这不是一个技术性问题, 而是应该被视为政府政治性的策略抉择。所以人工智能作为社会治理技术嵌入治理过程中, 是政府面对“泛在社会”特征的自主选择, 政府并不想将技术参与推向制度化参与的对立面, 而是希望通过平台建设将网络参与、网络问政等技术参与手段纳入到政府自身系统之中, 以实现决策的民主化与科学化。政府通过对平台规则 (算法) 的编码与建构把国家意志编入技术平台之中, 公民作为平台和技术的使用者只能遵守平台规则而无法跨越和重建。这种对民意的吸纳不同于金耀基先生认为的政府将社会精英或精英团体代表的政治力量的利益吸收进行政决策的结构中, [18]这种行政吸纳的本质是被动性的政治纳入, 即想要使用平台技术, 就必须要遵守平台背后的政治性规则。因此, 行政吸纳的有限性就体现在算法作为新的政治性规则其本质是国家意志的体现, 是国家权力与公民权利之间的相互张力, 更是公民权利保障机制与国家权力监控机制之间的失衡。因此, 国家通过人工智能塑造出的镜像权力“修剪”着社会现实, 通过算法滤镜看到的社会可能只是政府自己的影子。

第三, 技术治理时代社会政治力量之间的张力与不确定性, 可能会加剧社会碎裂的潜在风险。人工智能的双向赋权强调主体间性而不是主体性。因之, 技术治理时代社会国家力量之间的关系更加复杂, 技术嵌入带来的赋权功能提高了各社会主体的地位, 同时, 国家运用技术加强了对公民的监督和管理, 然后公民继续用技术来解脱国家权力的监控, 周而复始。人工智能技术在社会领域的应用, 彻底改变了人际交往机制, 社会政治力量之间的关系潜藏在数据、算法之后, 新型关系模式冲击着权力结构边界、权利行动的范围以及原有的社会规范。“新技术重塑着‘国家-社会’关系, 在新技术环境下, 巨大的‘利维坦’与更多新人群、新组织、新社会力量的关系, 将变得陌生起来, 社会权力的无序运行对国家政治安全施加了严峻考验”[19]。人工智能技术为传统科层制的权力体系制造出难以触及的隐秘空间。传统政治空间的最为明显的特点是谁都无法逾越的政治边界如地域区划、部门分工等。而人工智能、“互联网+”等科学技术在数据、网络的掩护下正在创造一些很隐蔽的政治空间, 甚至西方将此标榜为民主政治的沃土, 对这些空间尽管有一些监管, 但这些空间仍然被视为是无界的, 并挑战着传统政治权力的运行。如在颜色革命进程中, Facebook作为一种技术平台促成一些国家内部的青年运动。在技术利维坦的背景下, 技术资源的占有程度成为社会分层的新指标, 对技术资源的占有成为社会地位的重要标志。因此, 新的两极分化加剧了马太效应, 在技术资源分配中处于弱势地位的群体不断被边缘化, 进而沦为技术奴隶 (机奴) [20], 从而, 技术利维坦大幅度加深了社会的纵向分裂, 甚至成为群体之间相互隔离和对抗的诱因。

四、人工智能时代下社会治理的公共政策选择

“社会决定治理, 有什么样的社会就有什么样的治理”, “社会管理技术的变化不是自说自话的, 而一定是依据社会及社会问题的性质和本质的变化而变化”, “归根结底, 这种治理技术的转变是由社会以及社会变迁的情境所决定的”。[21]人工智能时代的到来在为社会治理现代化提供全新场景的同时, 也为政府推进“社会治理智能化”提出新时代的要求。面对人工智能发展的社会事实, 我们需要正视人工智能技术风险, 但更应把握现有人工智能技术存量, 正确引导并善加利用人工智能以实现技术增量, 尤其是政府作为社会管理者与建设者应该树立积极姿态以有效应对人工智能潜在的社会风险。从政府角度而言, 其应该做的事情包括:

首先, 政府应当围绕数据共享与算法优化建立健全开放的治理体系和治理机制, 以提高政府社会治理智能化的能力, 这是社会治理现代化的重中之重, 更是人工智能时代下, 社会治理策略的必然选择。对于算法治理而言, 亟待解决的核心问题是算法制定的合法性及对其监控, 即制定主体合法性和制定程序合法性问题, 也就是说, 算法作为人工智能时代的主要政治规则应该由谁来制定、为谁制定、如何制定以及由谁监管、怎样监管的问题。就数据治理而言, 数据已然成为人工智能时代国家基础性战略资源和社会生产的关键性要素, 数据安全是国家安全的基础, 也是个人安全的重要保障。因此, 政府应以“人本主义”为核心, 打造权责一致的、全新的数据与算法治理体系, 让人们自主决定是否、如何以及由谁来使用、开发、监管数据信息和算法, 并确保使用者、开发者、监管者对民负责以实现数据共享、成果共享。正如阿克莱特·彭特兰指出的, 政府应当建立“将公民自身数据的所有权、使用权、控制权和处置权交还给公民自己”的“数据新政”, [22]保持数据权力的谦逊, 用技术赋权来对抗权力鸿沟。

其次, 进一步完善社会保障体系, 努力防控人工智能导致的技术势差和不平等风险。与农业革命、工业革命类似, 以人工智能技术为代表的智能革命同样会导致社会碎裂、利益分化和社会分层, 保证和实现技术革命的社会成本和收益在承担者之间平等分配, 使得所有社会成员收益最大化和利益均沾, 不仅是实现社会公平、正义的应有之义, 更是加速推进社会治理智能转场的重要保证。因此, 政府不仅要关注推动人工智能发展的经济政策和产业政策, 更要关注社会政策。因为人工智能及其成果作为一种稀缺资源或公共物品在分配上具有潜在的不平等性, 特别是人工智能的负面效应造成的损失需要政府承担、调节和再分配, 以缩小不平等和相对剥夺感, 增加民众的“参与感”“体验感”和“获得感”。有学者已经指出, 人工智能对劳动力的解放实际已经造成社会迎来了一大批“技术性失业人群”, “若财富分化悬殊, 小部分工作者所得财富远大于多数失业者, 必将导致失业群体的不满, 激化社会矛盾”。[23]就此而言, 一些具体的社会救济和再分配政策设计必须要进入政府议程。

最后, 重铸“共建共治共享”的社会治理格局, 塑造“成果共享、权责同担”的责权体系, 以多层次、宽领域、全方位地促进人工智能重大公共性问题的突破, 共同应对人工智能社会化、政治化中的风险。政府作为公共政策的制定者往往缺乏技术能力和技术预见, 而作为技术研发者的企业则无法长期保持数据权力的权威性和合法性, 当社会生活和基本权力受到实质性束缚的公民社会无法将数据权力关进制度笼子时, 那么鼓励多元主体参与管理, 在对话、协商与合作中为人工智能的发展制定规划, 以共享权责便是最佳路径。因此, 应该在政府的指导下建构参与主体多层次、管理宽领域、监督全方位的新型治理格局。这种新型治理格局强调政府、市场以及公民社会各司其职, 以适当的角色加入协同治理之中。政府应该基于人本主义的发展理念总体布局人工智能的国家发展方略, 引导技术发展, 满足人民的生产生活需求, 调节技术不平衡不充分发展;同时作为国家利益和人民权益的守护者仍需肩负制定人工智能技术标准和法律法规的责任。企业既要承担人工智能技术突破的重任, 同时还要肩负起如数据保护、隐私安全等企业社会责任与伦理责任。公民社会更要主动出击, 全方位参与到法律与规则制定中, 监督政府与企业在各环节中的权责实行情况, 夯实自上而下、自下而上的双向协同治理体系。

五、小结

尽管西方学者对人工智能发展大多持悲观态度, 认为人工智能是人类创造出来毁灭自己的工具;但无可否认的是人工智能技术内在蕴含着推动社会发展的巨大潜能, 因此, 笔者对此抱有一种谨慎乐观的态度。要遏制人工智能带来的风险, 其关键就是要驯服人工智能这只“利维坦”, 即实现技术化归。技术化归是指“各种新技术必须得到转化使其从陌生的、可能有危险的东西转变成能够融入社会文化和日常生活之中的驯化之物”[17]25。人工智能的技术化归是其社会价值形成的过程, 对技术的驯化本质上是对新技术运用进行社会选择的过程, 表现在社会治理中就是对数据与算法的社会选择, 将其正向社会价值最大化。人工智能的技术化归应以“善植”作为嵌入的新理念, 就是要求政府需要提升对人工智能技术嵌入的认知, “对于大数据技术的发展既不能过度乐观, 选择性简化或忽略问题的严肃性, 也不能过于放大风险甚至成为‘技术灾变论者’, 因而裹足不前, 阻碍技术发展”。[24]同时, 在认识到人工智能在社会治理中的作用后, 政府的主动使用、合理利用、善于运用、有效作用也就构成了“善智”的基本内涵。人工智能时代社会治理适逢转场, 政府应当加强对治理场景的研判和预测, 增强风险防控意识, 在着力推进社会治理现代化过程中实现以“善植”+“善智”+“善治”为目标, 构建“共建共治共享”的新型治理格局, 形成技术与社会的良性互动。

(本文为文章摘录版,如需引用,参阅原文)

来源:电子政务 2019,(05)

文献数据中心|DATA CENTER

© 2009-2024 吉林大学理论法学研究中心版权所有 请勿侵权 吉ICP备06002985号-2

地址:中国吉林省长春市前进大街2699号吉林大学理论法学研究中心 邮编:130012 电话:0431-85166329 Power by leeyc