第七届计算法学国际会议的论坛三“人工智能立法:国际经验与中国立场”于2024年11月30日上午顺利举行。
上半场
山东大学法学院王芳教授主持论坛上半场。
中国社科院法学研究所周汉华研究员作题为《我国人工智能法应该做加法还是减法》的报告。他指出,党的十八届四中全会将全面依法治国总目标确立为“建设中国特色社会主义法治体系,建设社会主义法治国家”,实现从法律体系建设向法治体系建设的跨越。在新的阶段,立法只是其中一个环节,还要进一步统筹好立、改、废、释、纂的关系,既要做“加法”(立新法)又要做“减法”(改、废、释、纂,协调新法和旧法的关系)。从近几年的立法规划来看,会发现修改法律的数量已经远超过新法的数量。在该背景下选择人工智能法治建设路径,也要思考人工智能应当做“加法”还是“减法”?全国人大常委会于2023年9月发布《第十四届全国人大常委会立法规划》,为在人工智能领域做“减法”提供了可能性。从法治体系协调性、可执行性上看,“加法”注重立法环节,随着法律文本数量增加,也一定程度提高守法难度;“减法”则注重实施环节,强调在各个法律之间形成合力,使规则具有可执行性。从法治理念来看,“加法”代表由政府主导创新过程;“减法”代表由市场主体主导创新。从治理体系来看,“加法”属于自上而下的决策体制;“减法”属于自下而上的共识形成机制。
在我国对人工智能问题规制,做“加法”的激励要大于做“减法”。即便如此,基于现有经验,人工智能产业之所以能取得现有的成绩,本质上是简政放权、市场主体积极性被调动和激发社会创造力的结果。其他行业为推动高质量发展,增强市场主体信息,也都普遍采取“减法”思路。因此人工智能领域也要做“减法”。我国人工智能在预训练阶段和投入应用阶段所面临的法律障碍,横跨不同部门法,也需要通过对现行法进行“改废释”来解决。综上所述,要积极推动“减规定、减机构、减编制”,释放各方活力,促进人工智能产业和数字经济发展。
华东政法大学马长山教授作题为《面向“三维世界”的数字法学》的报告。他首先将法学的发展规律与世界所处的发展阶段关联起来,指出从传统法学到数字法学的变化对应从“一维世界”到“三维世界”的演进过程。信息技术革命催生出“三维世界”,与“一维世界”“二维世界”交织在一起,形成更为复杂的社会关系。因此数字法学遇到的问题,不能用现代法学逻辑去推演。其次,他阐述了数字法学三个主要的分析范畴。第一个分析范畴是数字权利。数字权利的生成基于“数字人类”的主体性再造、生活中的数字逻辑及数字契约的共享赋权,具有“流动性”“场景性”“穿透性”“交互性”等特点,包括基本数字权利、具体数字权利和场景化的数字权利等类型。第二个分析范畴是数字权力。随着数字平台出现,传统的“二元对立”结构被突破,形成平台主体、供给主体和需求主体三方关系,并衍生出新型数字权力。第三个分析范畴是数字正义。现代社会经历从传统分配到以数据信息为中心、计算为准绳的分配方式的转变。
在如何构建我国自主知识体系问题上,他强调人工智能立法应当按照“三维世界”的逻辑设计相关规则,从数字权利、数字权力的属性方式、运行规律及相互关系出发,阐释“三维世界”下的权力制约、权力保障和秩序运行机制,全方位推进数字法治理念、数字法律规范、数字法治实施、数字法治监督和数字法治保障建设和发展,为数字法治建设的“中国图景”提供理论方案。
中国政法大学张凌寒教授作题为《标识制度与AIGC安全治理》的报告。她指出生成式人工智能改变了人们的生产方式,也将引发包括虚假内容、深度伪造、版权侵犯在内的一系列问题。在一个面向300多位人工智能技术人员和治理专家开展的调查研究发现,虚假信息风险最受多数人关注。2023年7月,包括亚马逊、Anththropic、谷歌在内的七家科技巨头公司针对如何更好地保护用户,决定采取一系列保护措施,包括进行安全测试,采用新的水印系统等。从各国立法进程及国际组织行动也可以看出,构建内容标识制度已经成为国际共识。我国也在积极构建内容标识制度,作为对AI监管框架的重要补充。《人工智能生成合成内容标识办法》《网络安全技术 人工智能生成合成内容标识方法》等文件出台,表明标识制度从构想走入实践。其中,《办法》提出根据内容形式定义目录标识场景,区分显式标识和隐藏式标识。“显式标识”是指在人工智能生成合成内容或交互场景界面中添加的,以文字、声音、图形等方式呈现并可被用户直接感知到的标识。“隐藏标识”是指采取技术措施在生成合成内容文件数据中添加的,不易被用户明显感知到的标识。
围绕内容标识,还会产生两个问题:一是能否通过标识追溯标识的生成过程,厘清各方责任;二是能否基于标识为与生成合成内容有关的权利提供必要的技术支撑。我国也要构建起多模态标识与全周期监管制度,为内容生产者、传播者提供可行的标识方法,引导人工智能产业规范化发展。
欧盟《人工智能法》的主要作者和设计师,加布里埃尔·马志尼(Gabriele Mazzini)博士作题为《人工智能法:一个亲历者的视角》(EU AI Act: A firsthand perspective)的报告。他首先介绍了欧盟《人工智能法》的组织架构和立法过程。在制定《人工智能法》时,欧洲议会和欧盟理事会必须就法律文本内容达成一致。在欧盟委员会提交立法草案后,2022年12月,欧盟理事会针对草案内容提出意见;2023年6月,欧洲议会针对草案内容提出意见。之后这些机构进入到对草案的谈判过程。其中,欧盟委员会扮演顾问的角色,也在行动各个方面为其他机构提供深入指导。接下来,他指出《人工智能法》的宗旨是改善欧盟内部市场运作、提高人工智能服务合规性,为人工智能系统在欧盟的开发及利用制定统一的治理框架。与此同时,他还认为《人工智能法》积极回应了那些因人工智能引起的顾虑。他重点讨论了《人工智能法》确立的风险分级治理模式。《人工智能法》将风险分为不可接受风险、高风险、透明度风险及最低限度的风险。最后,他提到模型提供者应当承担的义务及实施《人工智能法》的具体步骤,并展望了欧盟委员会在数字服务方面的立法进程。
中国海洋大学章凯业副教授作题为《AI训练数据的大规模著作权侵权风险的中国方案》的报告。他认为伴随着人工智能训练数据的需要,著作权法是否允许机器人进行学习成为一个愈发重要的议题。从历史维度看,著作权法中的每一项权利内容及其例外规定,都旨在对应和协调各个产业的商业模式。当技术变革导致新的利用作品方式出现,就会在新旧技术所代表的产业之间形成利益博弈,博弈的结果是形成一个新的权利。在经历不同产业的博弈后,其结果就是使著作权法成为一个包含诸多“权利/例外”结构的高度碎片化和复杂性的法律。
按照上述逻辑,人工智能作为新的技术,对应一个新兴产业的出现,也将带来新的规制问题。在大规模侵权问题上,人工智能技术与数字技术一样,都依托复制依赖型技术,但是也有其特殊性。机器学习系统复制作品,并非为了获取其受法律保护的部分,而是为了获取作品中不受著作权保护的部分,也就是作品中的想法、事实和语言结构。与此同时,在作品被复制后,人工智能并不意在向公众传递作品的表达价值,而是创造新的知识与表达。根据美国法上已有判例,可以看出法院采取“宽进宽出”原则,首先认定训练数据行为构成可诉的复制行为,随后在合理使用的情况下可以免责,并在一定程度上倒逼分散的著作权人和人工智能企业进行谈判。
最后,域外经验对我国的启示是建立“安全阀”制度,包括前门规则和后门规则。前门规则指安全港规则,具有稳定性、可预见性等优势;后门规则指合理使用豁免规则,由于其不可预测性,维护成本高昂,而被少数参与者使用,也能反向促进人工智能市场集中。
国际关系学院副院长许可教授对前述报告进行了评议。他认为在当今时代背景下考虑人工智能立法问题,具有重要意义。党的二十大报告指出,要统筹好发展和安全,既要了解高水平安全,也要助力高质量发展,而人工智能领域恰好体现这两个维度。他从三个方面分享了自己的看法:一是整体思路上,要注重人工智能发展的安全问题,在有些地方应该做“减法”,而在有些领域则要做“加法”。这个“加法”主要体现在公法领域,法律概念及其边界应当清晰,这样才能对公权力行使进行有序规制;二是在参与主体上,应当发挥全过程人民民主在人工智能立法进程中的优势,让人民群众参与到问题讨论中,而不限于“精英”层面;并建立起一个有效的监督制约机制;三是充分发挥已有的法律规范的涵摄和统领作用,延续制度的生命力,从现有体系中寻找新的机遇。
下半场
《中国法律评论》副编审万颖主持论坛下半场。
东南大学法学院王禄生教授作题为《预测性司法的历史生成与全球图景》的报告。王禄生教授聚焦于预测性司法的历史发展沿革、应用推广路径及其在中国所面临的实践挑战等问题,回顾了预测性司法的起源,分析了大数据预测犯罪的概念缘起,探讨了这一技术理念如何从科幻走向现实。预测性司法是指利用预测性算法挖掘刑事数据关联,自动预测刑事诉讼中的风险事项,如初犯可能性、人身危险性和再犯风险性,以指导司法实务部门作出更精准决策的法律技术。尽管预测性司法是一个相对新兴的概念词汇,但刑事司法领域对“预测”的探索却由来已久,从20世纪80年代开始,刑事司法预测便从个案式预测转向精算预测,再到2010年代大数据和人工智能的迅猛发展,刑事司法预测的应用广度和深度达到了新高度。
在全球范围内,预测性司法的实践引发了广泛争议。一方面,有观点认为预测性司法是刑事司法决策领域的重大变革,代表了未来刑事司法的发展方向;另一方面,也有批评声音指出,预测性司法的技术框架并不可靠,可能侵犯重要的社会价值。王禄生教授指出,中国在全球预测性司法实践中应更加积极地贡献中国经验,推广中国规范,同时强调中国在推动全球大数据和人工智能司法工作发展进程的重要作用。
王禄生教授指出,预测性司法可能会给刑事司法工作带来诸多深刻变化,包括改变刑事司法与社会的连接方式,推动司法预测从回溯性反思向前瞻性预测转变,促进人力决策向算法决策的转型。这些变化可能会与刑事司法的原有内生价值产生冲突,如预测性司法的有罪推定倾向、算法预测的不可解释性及其对刑事司法程序透明度和参与性的负面影响。他建议,中国的预测性司法治理应在良法善治的框架下进行协同治理,中国的预测性司法路径探索应符合我国国情,充分发挥后来者优势,积极寻求适合中国发展特色的治理路径。
中国人民大学法学院张吉豫副教授作题为《人工智能治理中的信息能力建设》的报告,主要探讨了人工智能治理中的信息能力建设问题。她指出,随着人工智能技术的迅猛发展,人工智能治理需求日益增长,其中包括人工智能治理理念的确立需求和人工智能治理机制的构建需求。纵观技术创新与技术治理的发展历史,在技术发展的初期,技术的社会化应用往往存在较多能力建设的缺口,而在现今的人工智能领域也不例外,人工智能既有广阔的应用前景,又同时伴随着诸多潜在风险。当前人工智能治理过程所面临的主要矛盾是社会对安全发展的迫切需求与治理能力之间的缺口矛盾。因此,治理的目标应首要聚焦于能力缺口的积极填补,以期形成适应人工智能时代发展特点的人工智能社会运行治理能力。此外,人工智能治理中的过程不确定性和信息不充分性也是主要问题点,特别是在风险控制、因果关系、收益损害以及成本代价等方面体现得尤为突出。
中国在现代科技领域的发展起步较晚,在构建传统技术治理规则框架的过程中,与具有成熟治理经验的发达国家相比存在一定差距。然而,由于人工智能技术发展迅猛,世界各国都普遍缺乏成熟的治理经验,这就要求中国需加速建立独到的人工智能治理能力,以形成更为行之有效的治理方法,引领全球人工治理的方向。此外,出于人工智能技术本身的特殊性,深度学习模型的复杂性和动态性,人工智能应用的广泛性和社会性,人工智能治理过程中信息获取难度也进一步增加。最后,她认为应鼓励治理过程中的信息交流与共享,建立多元化群体参与的治理机制,加强社会宣传,积极推动行业内的理论和实践交流。她指出,通过这些举措,可以促进必要信息的流动和共享,提升协同治理能力,以有效应对人工智能治理中的诸多挑战。
奇安信科技集团股份有限公司首席法律顾问马兰的报告主题为《人工智能安全的探索和实践》。她深入分析了当下人工智能安全领域的现实挑战与实践问题,强调了人工智能发展中合规与安全的核心地位。
人工智能技术本身是中性的,其应用结果很大程度上取决于使用者的意图。若被不当使用,人工智能可能变得难以控制,引发严重的安全问题。她提出了人工智能安全的“三化”挑战:黑箱化、黑产化和武器化。黑箱化主要指向人工智能的不透明性,不透明性的主要源头在于神经网络内部工作机制的不透明、不可解释,同时模型可能产生与人类价值观相悖的输出,从而导致严重的伦理性后果;黑产化主要指向深度伪造技术的滥用,深度伪造技术的滥用加重了网络资源损失与浪费问题;人工智能的武器化则指人工智能技术降低了黑客攻击的门槛,使得非专业人士也能随时随地发起网络攻击,增加了饱和式攻击的系统风险。
为应对这些挑战,她提出了三大应对策略:多维度体系化防控、人工智能内容安全对抗和安全大模型反哺。多维度体系化防控包括对大语言模型的技术运行环境、训练环境、API接口和数据安全的全面防控。人工智能内容安全对抗则指利用人工智能小模型对抗人工智能生成的不安全内容,通过垂直领域的数据集训练小模型,以过滤和监管大模型的输出。安全大模型反哺则是指通过安全机器人来提升人工智能安全能力,以应对抗饱和式攻击,增强防御力量。
总而言之,在人工智能快速发展的大背景下,人工智能安全问题的紧迫性和复杂性尤为突出,采取综合措施进行有效治理具有显著必要性。
北京德和衡(深圳)律师事务所合伙人辛小天的报告主题为《企业出海面临的人工智能和数据合规风险和化解建议》。辛小天律师首先强调了人工智能法律监管体系与算力、算法和数据这三大基础要素之间的紧密关联,并分析了中国及全球各国围绕这些要素的立法和监管趋势。其次,在数据保护方面,她指出国内已通过《个人信息保护法》和《数据安全法》等法律法规,积极与全球立法趋势相呼应。人工智能监管应全面考虑产业发展态势和行业走向,重点关注安全与公平两大基本原则,这是中国和其他主要经济体的人工智能领域共同立法准则。
针对中国企业出海,辛小天律师强调了企业在出海过程中严格遵守域内法律的重要性,同时突出了企业出海时所可能面临的知识产权侵害、内容虚假问题、商业秘密泄露等潜在风险,并强调建立自评估体系和强化内在驱动力的重要性。
此外,辛小天律师详细讨论了数据权属、内容治理、数据知识产权等领域的突出问题,指出数据跨境领域的现存矛盾,强调企业在数据出海时应全面进行合规性评估,完成行业认证,明确技术出口要求和目标国进口要求等。最后她建议,企业应建立全面的数据合规体系,构筑数据跨境闭环监管机制,以积极应对全球人工智能立法繁荣下的未知挑战。
深圳大学区域国别与国际传播研究院曾建知副研究员的报告主题为《Sovereignty or Market: the Transnational Legal Regulatory Model of Artificial Intelligence》。她站在国际法的视角,深入探讨了人工智能跨国法律规制模式,以网络世界的主权问题为切入点,引入跨国人工智能活动规制的核心议题。
她将跨国人工智能活动规制模式分为三类:市场模式、欧盟模式和发展模式。市场模式以美国为代表,强调企业的自我规制和技术创新,主张通过现有法律规制人工智能风险。欧盟模式以保护个人和人权为核心,通过风险分类分级体系处理人工智能风险,并试图引领建立全球人工智能价值标准。发展模式以中国为代表,将社会发展视为人工智能治理的核心。基于发展模式,中国呼吁提高发展中国家在人工智能国际规则制定中的话语权,并推动发展权在人工智能相关法律规则中的明确彰显。
此外,她运用定量分析方法,从诸多国际性条约中提取出关键数据,分析了人工智能相关规则的发展趋势和特点。她指出,亚太地区的人工智能规制模式规则设计受美国影响较大,而欧盟模式相比于市场模式则更为复杂。最后,曾建知就该议题提出了独到建议,她主张采取具有普遍适用价值观的包容性发展模式,并在现有法律体系中明确体现对人工智能发展的包容性。
论坛最后,北京世辉律师事务所管理合伙人王新锐进行评议。他指出,王禄生教授通过极具画面感的阐述,探讨了预测性司法的历史发展、当下实践以及其将来可能给中国刑事司法体系带来的深刻变革,分析了中国在预测性司法领域应采取的治理路径;张吉豫副教授向我们剖析了人工智能治理过程中的信息能力建设问题,指出在人工智能高速发展的背景下,应有效地进行人工智能治理,构建治理机制,强调解决发展创新、风险防控等能力缺口的重要性;马兰则生动呈现了人工智能安全实践中的三大挑战——黑箱化、黑产化和武器化,同时指出应对这三大挑战的三大策略——多维度体系化防控、人工智能内容安全对抗和安全大模型反哺;辛小天律师从法律实务角度切实分析了人工智能企业在全球及国内大环境中遇到的合规问题,并提出诸多针对人工智能立法、人工智能监管以及企业出海的安全、公平和知识产权保护等方面的有益建议;曾建知老师通过探讨人工智能跨国法律规制的三种模式:市场模式、欧盟模式和发展模式,并基于国际法视角对这些模式进行了比较分析,提出了相应的监管建议。五位专家的报告充分体现了跨学科的交叉思维,具有充分的前瞻性和价值性。
撰稿 | 姜惠雯、陈熙光
审核 | 刘云
排版 | 沈廖佳
本文链接:http://www.xihao.site/showinfo-1-62926.html论坛综述 | 论坛三:人工智能立法:国际经验与中国立场