论文精粹|INFORMATION
张欣:生成式人工智能与法律治理革新
管理员 发布时间:2023-10-18 09:21  点击:1082

与其他技术类型的人工智能有所不同,生成式人工智能实现了人工智能从感知理解世界到生成创造世界的跃迁,代表了人工智能技术研发和落地应用的范式转变。大模型带来的是“新范式、新时代和新机会”,人类正从数据泛在、算法泛在的阶段向模型泛在的“新纪元”进发。OpenAI首席科学家伊利亚·苏茨克维将生成式预训练模型称为世界模型”。他认为互联网文本就是世界的映射,大型自然语言模型通过学习海量互联网文本学习到了整个世界。而世界模型”可以生成万物,无论是文本、图片、音频、视频,还是代码、方案、设计等,一切与人类生产、生活息息相关的世界万物在数字空间中的映射均可被习得并生成。正如电气时代发电站引发了电力应用的爆发,信息时代个人电脑引发了操作系统和互联网应用的爆发,生成式人工智能的诞生将引领人工智能技术达到奇点,并引发人工智能应用的爆发。在生成式人工智能主导的人工智能2.0时代,其内在的技术机制将对数据层、算法层和应用层的法律治理带来一系列根本性和系统性挑战。

数据层的法律治理挑战

数据是人工智能模型训练和优化的基础养料,是大模型训练的“基础和命脉”。与传统的中小模型相比,大型自然语言模型由千亿级参数构成,需要大规模、多样化的文本数据开展预训练。这使其对数据采集和处理的要求更高,也由此引发了一系列治理风险。

首先,预训练环节需要使用能够公开获取的各个领域的知识和信息,虽然增加了数据的多样性和覆盖度,提高了模型应对各种语言、领域和主题的能力,但这些数据中包含海量用户甚至未成年用户的个人信息。通过爬取公开数据开展模型训练虽已成为行业惯例,但可能引致巨大的隐私风险。这种风险会蔓延至下游场景,事后的数据删除措施也无济于事。现有的以删除权为代表的隐私补救方案难以应对人工智能模型带来的持续性隐私侵犯效果。训练数据早已成为机器学习模型的永久印记,算法阴影”将会持续存在。

其次,在部署环节,由于大模型并不具有“训练终局性”特征,这意味着用户使用模型或包含其插件的应用所产生的数据将被同步迭代到模型优化环节。例如,在大模型垂直部署和插件模式中,用户与模型互动时所产生的点击、输入、使用、移动、按键、搜索和地理位置等信息均会被实时整合到模型迭代之中,超越了当下个人信息保护制度设计的覆盖范围,触发“箭射靶离”的实效难题。

最后,在运行环节,大模型训练数据存在尚难解决的技术安全风险。大型自然语言处理模型会比中小模型记忆更多的训练数据。当人工智能模型变得越来越大之时,其脆弱性会更加凸显,隐私泄露问题变得更为普遍。近期的一项研究显示,通过机器学习推理进行渗透,展开训练数据的提取攻击可以轻易收集敏感信息并窃取知识产权。由此可见,较之中小模型,大模型对数据的技术依赖性使其面临更为棘手的数据治理挑战。

算法层的法律治理挑战

第一,当前大部分人工智能系统是基于深度学习实现的,这导致人工智能领域呈现出强烈的同质化特征。现有大型自然语言模型多基于Transformer架构生成,这使得该类模型在技术特性上表现出显著的同质化特点。尽管同质化有助于大规模生产,但也可能导致所有基于这些模型的人工智能系统具有相同的潜在风险和问题。当前的人工智能治理大多以单一的算法和模型为视角,尚未具备系统化和生态化治理的能力。这使得大模型的同质化风险成为监管和治理的盲区,对此类生态性风险的有效应对显得尤为困难。

第二,大模型的海量参数和规模使其涌现出多种能力,这种涌现性让人难以预料其表现,使得基于风险评估的静态治理方法难以有效应对。大模型基于同一或相似的架构训练,处理文本时采用相同的策略,可能会导致共享的偏见或盲点,产生跨文化、跨领域、跨背景的连锁性风险。

第三,大模型一旦出现算法歧视问题,对其纾解和治理都更具挑战性。有研究显示,嵌入预训练词句的机器学习和自然语言处理模型能够反映并且传播其训练数据语料库中存在的社会偏见,使用这类机器学习方法可能会进一步扩大偏见并对使用者产生歧视,尤其对于弱势群体可能衍生更大的风险。与传统模型相比,生成式人工智能的歧视可能隐藏在某个字符、文本片段或者对特定句段的概括和解释之中,因此更加隐蔽。由于生成式人工智能无法实时更新其训练数据,可能导致在生成有关当前事件和趋势的观点时存在滞后,加剧历史数据对当前事件和趋势的不利影响。对于此类偏见,尚难以找到有效的应对方法。此外,从技术机理来看,从大模型预训练到部署和运行的整个周期中,各个环节均可能引入歧视和偏见。因此,对于大模型算法歧视的治理将成为人工智能2.0时代政策议程上的首要难题和挑战。

应用层的法律治理挑战

首先,大型自然语言处理模型的“幻觉”问题尚无针对性的良好应对之策。所谓“机器幻觉”,是指大模型生成了无意义或者不忠实于源输入信息的内容。对应于应用层,即为大模型生成了虚假或者无意义的内容。机器幻觉既可能由于数据集的偏差产生,又可能由于模型过度拟合、提示语有误抑或表征学习不完善、解码错误以及对于先验参数存在偏好等架构问题产生。

其次,生成式人工智能的产业链具有“模型即服务”的特性,这导致任何在上游的风险均会串联蔓延到中游和下游。人工智能技术范式变革在突破传统行业瓶颈的同时,也拓宽了“平台”的内涵与边界。这意味着处于具体应用之中的平台企业可能不再具备对算法模型定义、设计和部署的终局影响力,与之适配的算法主体责任、算法风险监测等一系列制度设计可能濒于失效。

最后,与中小模型相比,大模型的安全性和可靠性存在不足。例如,有研究显示,当通过推特、网络博客、新闻报道和研究论文分别向大模型注入“水是有毒的”这一虚假信息时,大模型可以生成合理化的虚构文本。模型接受的虚假信息也会借助语义扩散过程在应用中弥散,并污染模型与之相关的记忆。这表明,虚假信息能够威胁并贯穿大模型的整个生命周期,即使训练数据可信与正确,虚假信息已然产生全局的负面效应,而非仅限于相关干扰信息。对于这一层面的治理,虽然我国、欧盟等监管者明确要求大模型训练数据集合法合规、准确真实,但模型机理的复杂特性决定了聚焦数据层的治理难以有效辐射到应用层。

技术的“奇点时刻”与治理的“关键时刻”

目前,我国科技企业在芯片、算力等硬件方面受限,融资频次与体量也与国外科技企业存在一定差距。当国内科技企业投身于生成式人工智能开发浪潮、积极布局并投入大量资源之时,秉持创新与治理双轮驱动的理念,积极探索与之适配的法律治理框架具有重要的理论与实践意义。生成式人工智能不仅具有赋能千行百业的潜力,还关乎国家安全和社会秩序。人工智能所具有的经济价值和公共价值决定了我国的人工智能治理不能局限于技术表层,需要在与国家安全和社会秩序结构性互动的过程中跃升为国家治理和社会治理的重要组成部分。可以说,生成式人工智能既带来了人工智能技术的“奇点时刻”,也带来了人工智能治理的“关键时刻”。

从生成式人工智能的运行特性来看,欧盟、美国以及我国现有的算法治理框架可能均在不同维度显现治理局限。核心原因在于,现行主流的人工智能治理主要面向传统人工智能模型,与具有通用潜能的、以大模型为内核的新一代人工智能难以充分适配。例如,欧盟在《人工智能法案》草案中确立了以风险为基准的人工智能治理框架,将人工智能系统评估后划分为最小风险、有限风险、高风险和不可接受风险四个等级,并对各等级施以差异化监管。当面对具有通用性、跨模态、涌现性的生成式人工智能时,以风险为基准的治理范式可能遭遇失效风险。这种基于风险的治理范式需要依据应用场景对人工智能系统进行风险定级,具有一定的静态性和单维性。而生成式人工智能的应用具有动态特征,是对人工智能价值产业链的整体性重构。现有的风险分类方法难以随着生成式人工智能技术的延展自动进行类别间的动态转换,仅以对高风险领域归类的方法难以发挥前置规划和连续监测的治理效能。

长期以来,美国在自动驾驶、算法推荐、人脸识别、深度合成等应用领域布局相关立法,形成了以应用场景为基准的人工智能治理范式。然而,面对生成式人工智能,亦凸显出了多重局限。生成式人工智能具有基础设施地位,与之相关的人工智能生成内容产业应用场景众多,上下游开发人员均难以控制整个系统的风险。面向应用的人工智能治理聚焦在下游发力,难以有效辐射上游和中游技术应用,更难以对生成式人工智能的整个生态施加有效的治理。

与欧盟和美国的治理路径有所不同,我国对于人工智能的治理依托算法主体责任渐次展开。基于平台主体构建的算法问责制同样需要因应变革。“算法主体责任”主要面向算法推荐服务提供者和深度合成服务提供者展开,要求其主动履行积极作为和不作为的义务,在履行不力时承担相应的不利后果。但就生成式人工智能而言,其设计和运行环节可能承担“主体责任”的实体呈多元化、分散化、动态化、场景化特性,难以简单划定责任承担主体的认定边界。大模型的风险不仅可能来源于研发者,还可能来源于部署者甚至终端用户。在大模型垂直部署、基于应用程序接口调用以及基于插件开展的三种核心运行模式中,应当承担责任的主体既有重叠又有差异。

由此视之,无论是基于风险的治理,还是基于主体和应用的治理,均形成于人工智能专用模型作为底层架构的发展阶段。在“通用模型”时代,面对其展现出的极强泛化能力,以及上下游产业大规模协作部署的全新格局,主流治理范式均可能面临不同程度的挑战。因应生成式人工智能的狂飙式发展,前瞻布局并加速推进与之适配的人工智能治理框架已迫在眉睫。

面对人工智能发展速度失控的焦虑与担忧,各国立法者迅速作出回应,试图对现有治理框架进行迭代和革新。2023年7月10日,我国《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)向社会公布,成为全球范围内针对生成式人工智能的首部立法。面向生成式人工智能的全周期和全链条,《暂行办法》就训练数据合法性、人工标注规范性、生成内容可靠性以及安全管理义务作出了清晰规定,与《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》协同联动,构成了我国人工智能治理的“三驾马车”。我国人工智能治理正逐步从要素治理、平台治理向着面向价值链的人工智能产业治理迈进。然而,随着人工智能技术的颠覆性发展,镶嵌在互联网信息内容治理架构下的人工智能治理思路已经难以应对其并行融合、不断涌现的新型技术应用风险。为有效应对挑战,人工智能治理需要在治理理念、治理科技、治理工具和治理能力方面进行系统性革新。

第一,从理念上明确人工智能准确性原则的治理内涵。人工智能准确性不仅是生成式人工智能部署和运行的重要底线,也是构建可信赖人工智能的重要前提。然而,需要明确的是,基于人工智能模型的统计性机理,治理视阈下人工智能的准确性原则不应要求人工智能模型输出达到100%的统计精度。从“技术—社会”耦合互动的角度,应当正视人工智能的风险特性,探索生成式人工智能的风险界定规则,重塑对人工智能准确性的认知,探索建立技术准确性与治理准确性之间的衔接转换机制。目前,无论是欧盟的《人工智能法案》最新折中草案,还是美国国家标准与技术研究院的《人工智能风险管理框架》,都强调人工智能治理无法追求“零风险”治理目标。意欲达致治理与发展的双轮驱动,需正视人工智能的风险阈值,探索建立在可信可控水平下运行的精准治理体系。因此,应以《暂行办法》为基础,深入探索同生成式人工智能技术特性与产业特点相匹配的数据准确性、算法模型准确性、输出准确性和解释准确性标准,构建科学精准的风险治理框架。

第二,探索打造创新友好型的监管基础设施,将监管科技作为联动多元主体、平衡技术创新与公共利益保障的底层支撑。对于具有超大规模、千亿参数量、超级易扩展性和超级应用场景的生成式人工智能而言,以事后启动、分散推进为特征的传统监管面临应对时滞、弹性不足、监管尺度不清、跨域协调成本高企的挑战。因此,应积极打造“以AI治理AI、以算法规制算法”的智能监管科技体系,深入探究技术模型在人工智能监管层面的有效性,将伦理规范和合规要点转化为程序语言,以内部伦理技术约束嵌入人工智能设计和运行全过程,探索智慧化监管范式。

第三,探索构建分类分级的监管工具体系,为精准动态监管打造底层抓手。结合我国人工智能行业发展特点,可以从技术复杂性对人工智能模型分类分级、从法律风险性对人工智能应用分类分级以及从法律主体类别对人工智能企业分类分级。以分类分级为内核的人工智能监管,体现出监管规则对人工智能应用场景的精准捕捉以及信息和监管工具的精准适配,是事实和规范的精准细化与科学组合。在分类分级监管框架之下,还应探索构建算法影响评估、算法安全认证、算法审计、算法备案四位一体的监管工具体系。

第四,全面提升监管者对于人工智能技术的敏感度以及技术规制能力。“等级化”管理模式与人工智能去中心化的应用逻辑不符,监管无序竞争与监管真空乱象常交替发生。随着人工智能技术发展进入快车道,人工智能生成内容技术因其快速反应能力、丰富知识输出、多元应用场景等,对监管者的监管能力提出挑战。监管者对人工智能技术的理解认知效率和回应处置能力直接影响监管的科学化、精细化、敏捷化。因此,应充分吸纳专业技术人才充实监管队伍,转变监管思维,创建监管机构间高效的信息共享机制,提升与人工智能技术创新相匹配、相适应的应对能力和管理能力。

从大模型迈向大应用:探索人工智能治本之道

生成式人工智能技术虽已具备多项令人惊艳的能力,但仍然存在一系列技术和应用局限。当下的人工智能训练技术只能实现模型生成,而无法展开模型编辑。如何推动“大模型”向“大应用”转变,成功实现大规模的商业化落地,成为未来的关键考验与挑战。这一目标的实现一方面需要预训练大模型的不断精进,另一方面更需要深度思考法律应对之策。人工智能的治理并非朝夕可就,新兴科技的治理亦不能浮于表面、孤立前行。在深刻理解人工智能技术机理的基础之上,应将法律逻辑、产业逻辑和技术逻辑深度融合,深入到人工智能产业的底层架构之中,探索治本之道。

来源:“中国社会科学报”

文献数据中心|DATA CENTER

© 2009-2024 吉林大学理论法学研究中心版权所有 请勿侵权 吉ICP备06002985号-2

地址:中国吉林省长春市前进大街2699号吉林大学理论法学研究中心 邮编:130012 电话:0431-85166329 Power by leeyc