位置: 首页 > 治理创新 > 理论创新 > 正文
首页

《人工智能法(学者建议稿)》:如何以“善治”促“善智”

来源:数字法治    编辑:王岩


当今时代,人工智能作为引领未来变革的战略性技术,在重塑生产方式、优化产业结构、提升生产效率、赋能千行百业的同时,也带来了安全、隐私、公平等方面的一系列问题和挑战。面对人工智能的迅猛发展和与之相伴的复杂风险,中国于2023年10月发布了《全球人工智能治理倡议》,呼吁坚持“以人为本”理念和“智能向善”宗旨,促进人工智能技术造福人类。2024年年初,李强在出席世界经济论坛2024年年会时再次强调,要“以‘善治’促‘善智’,引导人工智能朝着有利于人类文明进步的方向发展”。

人工智能产业的健康发展,离不开包容审慎、行之有效的良法善治。放眼国际,新一代人工智能技术的可持续发展竞争,不仅是技术层面的竞争,也是法治软实力的竞争。2024年3月21日,联合国大会未经表决一致通过了全球首个关于监管人工智能的决议——《抓住安全、可靠和值得信赖的人工智能系统带来的机遇,促进可持续发展》,这一决议具有里程碑意义。世界主要人工智能使用国的立法工作也皆在紧锣密鼓的推进当中。美国作为全球人工智能产业的领跑者,于2023年10月由拜登签署了《关于安全、可靠和可信地开发和使用人工智能的行政令》。而欧盟经过内部长达3年的筹备与谈判,于2024年3月正式通过《人工智能法》,这是全球首部关于人工智能系统的立法。

一、 “以人为本”引导人工智能“向善”发展

人工智能发展对“人”的影响一直备受关注,坚持“以人为本”治理理念是实现人工智能“向善”发展的基本要求。《人工智能法(学者建议稿)》在制度设计上积极贯彻《全球人工智能治理倡议》中“以人为本”的人工智能治理主张,与联合国“为人类治理人工智能”(Governing AI for Humanity)的行动宗旨保持一致,高度重视伦理、使用者权益与数据安全。

首先,人工智能立法应当坚持法治与德治相结合,将科技伦理审查原则置于所有基本原则首位,强调人工智能产业发展过程中科技伦理的重要调控作用,确保人工智能发展符合人类社会价值。

其次,人工智能立法应当坚持任何技术的创新发展都不应以牺牲个人权益为代价,人工智能的技术应用必须充分尊重个人权益。《人工智能法(学者建议稿)》设置了“个人权益保障”专章,明确保护人工智能使用者的平等权、知情权、隐私权、拒绝权等权利。同时,《人工智能法(学者建议稿)》还特别关注数字弱势群体可能面临的数字鸿沟问题,明确人工智能开发者、提供者应当专门增设面向数字弱势群体权益保护的特殊功能模块。

再次,人工智能立法应当关注从社会整体层面为公众利益提供保障。在教育领域,人工智能立法提出,推进人工智能相关学科建设,开展人工智能相关教育和培训,采取多种方式培养人工智能专业人才。为了提升全民数字素养,人工智能立法支持实施全民数字素养与技能提升行动,以提升公民的数字获取、制作、使用、评价、交互、分享、创新、安全保障、伦理道德等素质和能力。

最后,人工智能立法应当筹划政府主导、社会协同、公众参与的人工智能治理机制,构建多元共治的人工智能治理格局。

上述机制安排能够有效提升公众在人工智能治理中的参与度、知情权和监督能力,更加充分地保障公众权益。

二、 “促发展”推动人工智能实现“善智”

“善智”的实现需要发展,而设计良好的“善治”能够有效促进发展。在目前全球激烈竞争的格局中,“不发展是最大的不安全”。人工智能立法应当立足中国“领先的追赶者”的国际生态地位,理应设置“促进与发展”专章,在监督管理、责任设置等方面减轻人工智能产品和服务提供者的义务,以实现对产业创新予以一定的容错空间和责任豁免的立法目标。

首先,人工智能立法中的“促进与发展”专章可以从国内人工智能企业的发展需求切入,围绕算法、算力、数据人工智能发展三要素设置促进措施。在算力层面,加强算力基础设施建设,建立算力基础设施资源调度机制,推动公共算力资源平台的建设与利用;在算法层面,支持关键技术创新,加强算法模型保护,推进开源生态建设;在数据层面,提升高质量数据要素供给能力,建立人工智能产业数据资源统筹机制,建立人工智能数据资源共享机制。

其次,人工智能立法应当审慎界定和划分监管对象和监管手段,在确保安全的同时释放人工智能创新发展空间。人工智能立法对于科学研究活动和免费开源的人工智能应当给予除外豁免,同时增设关键人工智能监管制度。关键人工智能是指应用于关键信息基础设施的人工智能,对个人的生命、自由、人格尊严等人身权益有重大影响的人工智能,以及达到一定能力级别的基础模型等人工智能产品和应用。关键人工智能开发者和提供者需要在组织机构、风险评估、风险披露、安全应急处理等方面承担更多的义务。这一制度能够充分减轻一般人工智能开发者和提供者的负担,在确保安全的基础上激发产业活力,促进人工智能产业的发展。

最后,人工智能立法应当充分考虑企业的合规负担并设置免责事由。一方面,明确利用基础模型以及开源基础模型从事人工智能研发、提供、使用活动的,由衍生利用一方承担法律责任,同时,基础模型提供者需要承担适当的注意义务;另一方面,需要增设合规免责条款,明确开发者、提供者、使用者在合规基础上可以相应豁免行政和刑事责任。

三、 “治当下,谋长远”持续追求“善智”目标

人工智能产业的突出特点是发展的不确定性,“善治”必须“治当下,谋长远”,如此才能持续推动人工智能向善发展。为了应对人工智能发展的不确定性,人工智能立法应当采用可迭代的人工智能监管体系。

一方面,人工智能立法应当创设动态的人工智能分级分类监管机制。在分级分类监管时,由人工智能主管部门根据人工智能在经济社会发展中的重要程度,以及对国家安全、公共利益或者个人及组织的合法权益可能造成危害的程度,进行分级分类监督管理,依法对关键人工智能实施特殊监管。随着人工智能技术的不断发展,主管部门根据技术发展、行业领域、应用场景等因素进行评估并动态调整分级分类标准,及时更新人工智能分级分类指南。动态分级分类制度可以有效避免“一刀切”式的不合理监管,并且能够持续适应技术发展进步,实现敏捷治理。

另一方面,人工智能立法应当构建人工智能风险防控和应急响应机制,以及时应对人工智能发展中不可预见的风险。人工智能主管部门制定人工智能安全监测预警和信息通报制度,加强人工智能安全信息收集、分析和通报工作,按照规定通报人工智能安全监测预警信息。人工智能主管部门建立健全人工智能应急工作机制,按照危害程度、影响范围等因素对人工智能安全事件进行分级,制定相应的应急预案并定期组织演练。

目前,全球正在经历新一轮人工智能监管浪潮,人工智能国际治理需要更多的中国参与。因此,人工智能立法应当以更加体系化的立法逻辑建构具体内容架构和具体规则。核心的立法目标应当定位于,推动建立健全中国人工智能治理体系,确保技术发展与社会价值观的和谐统一,引导和规范中国人工智能产业健康、有序、“向善”发展。

(作者:中国政法大学数据法治研究院教授  张凌寒)

 

友情链接