人工智能价值链的法律关系与伦理治理

学术会议综述

2025年1月13日,由中国政法大学法治政府研究院、互联网与法律规制研究中心主办,阿里巴巴集团科技伦理治理委员会协办的“人工智能价值链的法律关系与伦理治理”研讨会于北京顺利召开。本次研讨会设置“人工智能价值链与法律规制”、“科技伦理与法律的关系”、“人工智能治理中企业自治与政府监管的边界”、“如何在具体场景中探寻人工智能伦理原则与开展人工智能伦理审查”四个主题。来自科技部科技评估中心、中国信息通信研究院、北京师范大学、对外经济贸易大学、首都师范大学、中国人民公安大学、中国政法大学的专家学者,以及来自阿里、百度、抖音等互联网企业的行业专家围绕主题进行了热烈的交流与探讨。

人工智能价值链的法律关系与伦理治理学术会议综述  第1张

中国政法大学法治政府研究院院长、互联网与法律规制研究中心主任赵鹏教授主持会议,并介绍了会议主旨。赵鹏教授指出,本次会议围绕人工智能治理中两个关键议题进行研讨。一是探讨人工智能伦理治理与法律规制的关系。前沿技术的应用会引发人际关系和社会交互方式的深刻调整,产生相应的规范议题。从历史经验来看,这种规范往往是由产业界、学术界率先推动,先形成具有自律性质的伦理规范,然后被国家法律引入、确认并强化。信息技术领域的公平信息实践、生命科学领域的生命伦理便是典型例证。这提示,科技与包括伦理、法律在内的社会秩序具有相互影响、共同演化的特质,我们需要在理解技术实质的基础上,充分地辩论其影响,采取契合事物本质的规制方案。而伦理治理与法律规制的结合与互动便是科学、理性的规制的关键之一。因此,针对人工智能的发展,如何落实传统的伦理治理与法律规制衔接机制、如何实现伦理先行以及软法向硬法的转化、如何实施科技伦理审查制度,对于当前的人工智能治理具有至关重要的意义。二是探讨如何围绕人工智能价值链来分配注意义务和相应的法律责任。科学的责任设计对于在防止、填补损害的同时为创新提供确定性至关重要。从历史来看,自互联网兴起以来,围绕作为网络社会“超级节点”的平台的责任设计一直是互联网法律政策的核心争论之一,法律对注意义务边界的明确也在很大程度上造就了数字经济的繁荣。就此而言,人工智能的研发、生产及应用过程是多主体参与的价值累积结果,体现了商业运营中的价值链特性。我们是否可以考虑依据这一价值链特性,为研发者、应用者等相关主体设定合理的责任。本次研讨会诚邀各位专家围绕这些议题研讨,以期呈现不同角度的思考,探寻共识的方向,为法律和监管制度完善提供理论支撑。

中国政法大学法与经济学研究院副教授谢尧雯分享了生成式人工智能价值链法律规制。生成式人工智能发展牵涉多主体参与、共同创造价值,体现了价值链特征。与传统软件研发价值链不一样,人工智能价值链涵盖的数据、软件工具与主体更多元,各参与者间的关联更错综复杂。法律需要从两个方面规制人工智能价值链。一是基于研发、生产与应用阶段划分认定价值链核心主体,将责任配置给最低成本风险预防者;二是,核心主体履行义务可行性取决于能否从其他行动者处获得必要信息,因此需要建立上下游之间的信息共享机制。在生成式人工智能价值链规制中,基础模型研发者应当履行数据公平保障义务和系统安全保障义务、专业模型研发者应当履行算法影响评估义务、生成式内容服务提供者应当履行内容管控义务,同时关注基础模型提供者与下游部署者之间的信息共享。价值链责任设置需要考虑行政监管与侵权责任的匹配。法院在责任配置上具有信息场景优势,但存在专业不足。因此,行政监管设置底线规则,同时法院在绩效标准与内部管理型标准框架下,通过个案明确行业习惯与守则是否符合合理设计注意,以此推动行业不断完善自我规制、寻求行业最佳实践共识。

阿里巴巴控股集团法务合规部法务总监王莹结合生成式人工智能价值链的具体产业实践,探讨了行业实践层面衔接法律与伦理的难点。首先,王莹老师介绍了生成式人工智能系统从基础模型预训练、微调到模型对齐研发过程中的训练数据实践,并提出大模型研发中的数据保护制度具体设计可能需要区别于传统规则。典型如,敏感信息和画像数据对于进行偏差检测、纠正至关重要,严苛的数据保护规则可能会带来技术不公平的结果。随后,将生成式人工智能价值链划分为基础供应、模型训练、服务上线、内容生成、内容传播阶段,并分享每一阶段涉及的风险源与控制措施。每一阶段所涉及的风险控制主体之间的关系非常复杂,依赖法律法规、标准规范、伦理道德对技术研发设计与技术应用进行规制,实现多方协同治理目标。最后,分享阿里巴巴科技伦理治理的六项基本准则,并提出伦理原则具体化的实践困境。伦理原则具有抽象性特征,企业内部科技伦理审查目前欠缺明确审查标准,企业审查行为程序、行业守则与法律规范如何协调完善伦理治理,且伦理治理不阻碍新技术发展或带来不必要创新负担,是当下科技治理的重点难点。

抖音法律研究总监王洁从模型训练的法律问题、生成物的法律保护与侵权风险、虚假信息治理角度讨论了生成式人工智能带来的法律挑战。针对训练阶段高质量数据集的构建而言,日本、韩国、新加坡等纷纷通过立法或指导意见等形式为大模型训练合理使用版权数据等提供了合法性基础。就生成物的法律保护与侵权风险而言,需考虑其生成过程的因果关系复杂性和责任主体多元化等特征,应坚持价值链主体的权责一致原则,并考虑大模型具有智力普惠的工具属性,克制对生成环节的过度干预。就生成内容虚假信息的治理问题而言,分享了抖音对生成内容标识的技术探索与实践,提出虚假信息治理依赖价值链上下游主体高度协作。

百度集团AI业务法律合规负责人徐全全分享了AIGC行业合规实践与AIGC伦理治理的探索。在行业合规实践方面,徐老师重点分享了合成数据用于训练、AIGC垂类小模型训练等新技术融合发展趋势可能带来的合规治理新挑战。伦理治理方面,徐老师提出应鼓励创新技术的正向价值发挥即“向善”价值,而非单纯强调管控风险“去恶”。关于AI“价值对齐”,徐老师提出,行业实践维度,强调具体的落地路径及兼顾价值对齐和技术创新发展的解决方案。价值对齐一方面涉及工程师与算法之间的价值对齐,另一方面也会关注AI与社会公众期待、监管机构指导要求等多方生态位的价值对齐,本身是一个复杂需要持续探索的过程。因此,在动态的价值对齐过程中,AI生态各方需建立协同治理、互信合作的共赢关系,协同努力达成目标。

科技集团数据合规总监兼DPO朱玲凤分享了AIGC风险规制理念以及软法与硬法的衔接。就AIGC风险规制理念而言,朱老师认为应进行风险分级管理,不同风险级别与技术能力的人工智能系统应匹配不同的风险防护机制。人工智能风险包括网络安全风险、生物核武器风险与自主风险,目前如何确定风险等级、风险划分的标准,是风险规制的重点。就软法与硬法衔接而言,朱老师分享了行业实践被监管标准吸纳的典型案例。欧盟 GPAI 行为守则的草案中,吸纳了行业层面关于“分级评估+外部红队测试”的实践标准,以及 Anthropic RSP 的停训承诺与 DeepMind “能力检测”模式。美国NIST 指南(2024 年 7 月草案)在附录中引用了部分行业最佳实践,如“多阶段部署与风险阈值划分”等,与 OpenAI 预备框架 Beta 版本提出的多维评估结构较为一致。这体现人工智能治理中,从“企业自发实践—行业形成共识—监管吸纳共识发布规则”的软法-硬法衔接过程。

淘天集团高级法务合规专家姜文分享了科技伦理审查与AIGC标识规则完善。就科技伦理审查而言,姜老师认为人工智能伦理审查需要关注价值链不同主体在不同阶段如何将伦理共识嵌入至技术设计与应用中,尤其是需要关注前端研发者与后端应用者的责任配置方案。在生成式人工智能伦理审查中,前端模型研发与模型专业应用的伦理审查侧重点不同,姜老师以AIGC在电子商务领域中的专业应用为例,分享行业实践伦理审查侧重点。就AIGC标识规则而言,姜老师分享了设置标识主体与标识范围需要考虑的因素。应当关注价值链各主体标识能力差异,综合特定场景下的应用风险可预期程度确定标识方案。此外,应特别关注国内第三方机构推动建设的AIGC内容标识检测平台,发挥治理优势。

中国人民公安大学法学院教授苏宇分享了人工智能价值链法律规制的制度设计。首先,为价值链参与者设定的行为义务应当考虑该主体能力、行为风险、成本-收益比较等因素。例如,应当建立模型分类测评基准,根据不同模型的技术底层和风险特征选择和适用相应测评方案。在信息共享义务方面,上游模型研发者的信息共享范围设定应当考虑商业秘密和知识产权保护因素,一定范围内共享特定场景的算法解释信息、法律规定的模型测评信息、特定前提的安全风险报告即可。其次,在价值链没有发生增量风险时,不应对价值链各参与者实施重复监管。目前生成式人工智能价值链上下游参与者都需要履行同样的备案与评估义务,为部分下游部署者带来了过度的规制负担。再次,对于由哪些主体来制定价值链参与者行为标准议题,需要考虑各规制主体的信息优势与专业能力。人工智能价值链中各主体行为与结果的关系、技术设计是否嵌入伦理考量,极其复杂且专业,而法院欠缺专业优势,也无法像立法过程一样调动足够的资源和参与,因此应尽可能使治理规则形成任务前置,而不是依赖法院确定。同时,在具体个案中,如果价值链参与者违反了行政监管规则,可适用过错推定的归责原则。最后,人工智能价值链规制可引入“风险增量规制”理念。价值链各主体应当为自己行为负责,只有当参与者的后续行为产生了实质性的新风险,才需要进行风险评估和增量治理。

北京师范大学法学院副教授王静分享了如何完善人工智能伦理治理与法律治理。首先,人工智能科技伦理治理旨在为科技研发者设定行为准则,确保人类社会的核心道德准则与价值观被嵌入至技术系统。其次,相较于其他国家,我国科技伦理治理实践尤为注重通过法律促进伦理治理。典型如,我国颁布了专门的《科技伦理审查办法》,这有助于增强伦理治理的规范性与强制性。但在具体实践中,伦理规范如何向法律规则的转化、如何设置具体的伦理审查程序、伦理审查是否应纳入行政诉讼等议题,仍有待厘清和完善。再次,处理好人工智能伦理治理与法律治理关系关键在于,协调好自下而上治理与自上而下治理的关系。在人工智能规制领域,政府层面存在信息与专业能力不足,应当依赖企业与行业发展符合最佳实践的伦理准则与技术标准,并协调好软法向硬法转化的路径。最后,在数字政府发展背景下,应当关注到公共监管部门研发、应用人工智能与私主体研发、应用人工智能可能需要不同的制度规范。

首都师范大学政法学院副教授崔俊杰分享了如何完善人工智能价值链法律责任与人工智能伦理治理。首先,有必要区分价值链参与者的行为责任与结果责任,前者体现为行为过程的合规义务,后者关注行为导致的最终结果。其次,人工智能价值链法律责任是一个多维度、立体化的责任体系,这其中尤其需要重视公法责任与私法责任的不同制度功能,从而建立相互补充与制约的公私法协同责任体系。再次,不同于道德,伦理是基于程序得到的共识,这种共识包括“去劣”与“择优”。在“去劣”方面,通过程序达成“不能做什么”较为简单,难点在于得出“什么是善的行为”的结论。为此,需要借助伦理审查与商谈程序进行价值对齐。但基于程序得出的共识具有较大不稳定性,如果转化为法律规则,则属于法律中的“不确定概念”。最后,人工智能治理依赖行业守则、伦理原则等软法规范,但某一软法规范是否是最佳实践难以评判,这为法院在具体个案中评判某一软法规范是否符合合理注意标准带来了挑战,因此需要进一步探索软法规范转化为硬法规则的标准与程序。

对外经济贸易大学法学院副教授孔祥稳分享了人工智能价值链法律责任设置考虑因素与伦理法治化的制度意涵与难点。首先,责任体现为行为义务的分配,因此为价值链各主体分配行为义务需要考虑:相关主体是否开启了风险,相关主体是否对风险具有控制能力。其次,伦理法治化包括两个层面的方式——将某些基本伦理原则转化为法律要求,或者设置特定的法律装置要求科研主体进行伦理审查。将伦理原则转化为法律需要考虑伦理的特殊性。一方面,伦理与道德不同,后者具有很强的个体差异性,而前者是社会成员共同认可的基本准则。但在科技伦理中,各方主体对科技发展的态度存在重大差异,基于什么样的机制产生的共识能够转化为法律规则,是科技伦理治理法治化面临的难点。另一方面,伦理具有多层次化特征,科技应用的不同场景存在不同的伦理要求。因此,需要明确将哪些伦理规范转化为法律由公共部门执行,哪些伦理规范交由伦理审查或企业信息披露等机制执行。最后,目前伦理审查制度仍然较为薄弱,欠缺明确和具体的审查标准,且很多法律将伦理审查责任界定为“承担相应责任”,欠缺威慑效力。

中国政法大学人文学院讲师阴昭晖从伦理学视角分析了“自动驾驶电车难题”。首先,“自动驾驶电车难题”可从逻辑学与伦理学两个视角分析。从逻辑学看,这一难题属于冲突情境下的非单调推理问题。从伦理学看,智能机器会按照预先设定的伦理算法,对交通参与者的生命安全进行分配决策。其次,在伦理选择方面,后果主义或功利论主张以整体利益最大化或损失最小化为原则;康德义务论强调人的生命至高无上,人绝非手段;罗尔斯公正原则倡导通过“无知之幕”的方式进行选择。再次,研究发现,不同文化背景下的人们在部分选择上存在全球道德共识,比如倾向于保护多数人、人类、年幼者和守法者。但在某些选择上也存在差异,如东亚和中东部分地区保护年幼者的意愿相对较低,而中国更注重保护车内乘客等。再次,德国相关伦理规则指导报告体现出康德义务论,并兼顾功利论考量,遵循罗尔斯“无知之幕”原则,确保驾驶算法的公正性。最后,对于AI的可解释性问题,基于逻辑的方法有助于提升AI决策的可解释性,这对AI的法律规制、伦理审查等至关重要。

中国政法大学法与经济学研究院助理教授迟舜雨从敏捷治理与公司治理两个视角阐述人工智能科技伦理治理制度设计。人工智能科技治理伦理主要包含两个维度。一是“不作恶”,二是“做善事”。不作恶指的是负责任地运用AI,避免创造负外部性,需要自上而下的规制路径,依赖敏捷治理。敏捷治理则强调以整体性、关联性、动态性为主导的多主体共治与多主体交流,建立畅通的交流机制。政府负责制定监管规则和法律框架,设定宏观政策;企业积极探索构建内部治理体系,寻求发展与伦理规制之间的平衡;行业协会和科研机构制定行业规则和准则。做善事,即让做善事的公司获得收获,创造正外部性,依赖公司治理。公司治理理论的经典观点认为公司经营和治理应以股东价值最大化为目标,但近年来,随着企业社会责任、可持续发展、环保意识等理念的兴起,股东中心主义逐渐朝多元利益主义发展,这与伦理治理相契合。如何判断公司真正做了善事,可通过统一标准化的信息披露和第三方审计来评估,但披露标准和指标仍有待进一步完善。

中国信息通信研究院互联网法律研究中心工程师杜安琪分享了当前人工智能治理面临的问题和可行的治理机制。就治理问题而言,人工智能治理涵盖整体性和要素性两方面。目前在整体性上,我国关于责任划分、监管机制等需要完善。在要素方面,目前关于数据、算法、算力等要素规制制度仍然有待完善。就治理机制而言,人工智能治理机制包括政策、法律、科技伦理、标准、技术、自治六大层面,不同治理机制的选择取决于具体问题的表现形式。法律具有稳定可预期性以及普遍约束力,主要关注权利与义务,旨在“定分止争”;科技伦理具有指引性、基础性、可以凝聚广泛共识;企业自治具有适应性、自主性、模式多样性的特征。我国人工智能治理应当充分考虑技术产业发展阶段、不同治理手段的优势特点、立法认知水平等,从关键问题出发,考虑应用各种治理机制。

科技部科技评估中心知识产权与法务部处长邓益志分享了人工智能伦理治理与法律规制的关系。当前,人工智能技术快速发展为人类社会带来诸多便利,同时也带来巨大变革和挑战,人工智能伦理、安全和社会问题日益凸显。现有人工智能相关法律规范零散、系统性和操作性不强、规章效力层级较低,科技伦理规范刚性约束不足、涉及人工智能伦理审查监管的可操作性制度规范有待健全,亟需加强人工智能伦理治理和法律规制,以期实现人工智能技术向善与增进人类福祉并向前行。人工智能立法需要厘清伦理与法律的关系,伦理与法律各有特性,伦理治理和法律规制相辅相成,实现人工智能治理手段的“软硬结合”。人工智能治理要遵循良法善治,将伦理基本原则和立法原则相结合,提升伦理原则的指引力和执行力,形成伦理与法律的合力。通过立法设置人工智能管制框架和红线,明晰各类主体的权责关系,建立系统的人工智能伦理审查监管制度,以及人工智能伦理风险评估和监测预警机制,设定人工智能研发和应用相关主体违反法律和伦理规范的问责机制,确保人工智能创新发展与安全可控。

中国政法大学法学院行政法研究所所长成协中教授对会议进行总结,并对人工智能治理中软法与硬法关系进行了分享。本次研讨会就人工智能法律规制取得了三点核心共识。一是人工智能规制需要法律与伦理并行,发挥法律规制与伦理治理回应科技发展的制度优势,同时做好伦理与法律的衔接。二是人工智能价值链规制需要在研发与应用阶段进行不同的规则设计,同时,需要结合不同行业特征与应用领域,为价值链主体设置不同法律责任。三是人工智能法律规制需要处理公法与私法的关系。对于高度复杂的技术专业问题,法院在分配注意义务方面存在专业不足,应更依赖立法前端分配价值链主体行为义务。成协中教授随后指出,人工智能法律治理与伦理治理需要协调好软法与硬法关系,并就此进行了分享。一是,在存在硬法供给不足时,软法可以作为规范试验。人工智能技术发展迅速,且其带来的行为方式具有开放性,因此缺乏确定性规则通过硬法规范。不同于硬法基于政治权力形成规则,软法在规则生成上具有自下而上属性,更有助于引到产业寻求符合自身发展特征治理规则。因此,在人工智能领域,软法发挥规范准备与试验功能。根据软法实施情况,可以即时将共识性较强的软法规范转化为硬法实施。二是,软法有助于形成多中心治理格局。软法与硬法在实施方式上存在区别,前者依赖说服、指导等柔性方式,后者依赖权力强制方式。在人工智能技术发展实践中,这种柔性治理方式有助于发挥社会主体治理能力,激励产业界形成共识,有助于推动人工智能治理形成多中心治理格局。