01引言
近年来,AIGC(生成式人工智能)技术的迅速进步为社会经济发展带来了新的机遇。各行各业都开始关注AIGC相关技术在商业落地中的应用,AIGC相关的创业及项目如雨后春笋般涌现。然而,AIGC在发展过程中也带来了新的挑战,例如传播虚假信息、侵害个人信息权益、数据安全和偏见歧视等问题。
为了应对AIGC的快速发展,国家网信办、国家发改委、教育部等七部门于7月10日正式发布《生成式人工智能服务管理暂行办法》,这也是全球首部AIGC领域的监管法规。
除了这部专门的监管法规外,我国在科技发展、网络安全、个人信息保护、互联网信息等多个方面已发布了多项法律、行政法规等规范性文件,构成了人工智能领域多层级、多角度的规范治理体系。
本文是由上海曼昆律师事务所汇总、梳理的当前国内外人工智能领域的监管政策。
02中国对AIGC的监管
(一)法律
《中华人民共和国科学技术进步法》
我国科技领域的基本法,2021年第二次修订,2022年1月1日正式施行。
《中华人民共和国个人信息保护法》
2021年11月1日正式施行,其中包括了一些关于人工智能的规定,如禁止将个人信息用于违法活动和侵害个人权益,要求人工智能决策的透明和可解释性等。
《中华人民共和国数据安全法》
2021年9月1日正式施行,其中包括了一些关于人工智能的规定,如要求加强对人工智能相关数据的安全保护和管理等。
《中华人民共和国网络安全法》
2017年6月1日施行,其中第二十二条规定了网络运营者应当采取技术措施和其他必要措施,防止和减少网络安全事件的发生,其中包括使用人工智能等技术手段。
(二)部门规章
《生成式人工智能服务管理暂行办法》
2023年4月11日,国家网信办发布了《生成式人工智能服务管理办法(征求意见稿)》(以下简称“《办法(征求意见稿)》”)。在征集并综合考量各方意见后,网信办联合发改委、教育部、科技部、工信部、广电总局于2023年7月10日正式发布《生成式人工智能服务管理暂行办法》(以下简称“《暂行办法》”)。作为全球范围内首部直接针对生成式人工智能进行规制的国家层面法律文件,《暂行办法》将于2023年8月15日正式施行,我国人工智能敏捷治理管理模式初见成效。
《互联网信息服务算法推荐管理规定》
2022年3月1日生效的《互联网信息服务算法推荐管理规定》(“《算法推荐规定》”)要求算法推荐服务提供者应当建立健全算法机制机理审核,应当定期审核、评估、验证算法机制机理、模型、数据和应用结果等,不得设置诱导用户沉迷、过度消费等违反法律法规或者违背伦理道德的算法模型。此外,《算法推荐规定》要求算法法推荐服务应当向网信部门完成备案:具有舆论属性或者社会动员能力的算法推荐服务提供者应当在提供服务之日起十个工作日内通过互联网信息服务算法备案系统填报服务提供者的名称、服务形式、应用领域、算法类型、算法自评估报告、拟公示内容等信息,履行备案手续。
《互联网信息服务深度合成管理规定》
2023年1月10日生效的《互联网信息服务深度合成管理规定》(“《深度合成规定》”)是AIGC领域最为核心的监管规定。“深度合成技术”是指利用以深度学习、虚拟现实为代表的生成合成类算法制作文本、图像、音频、视频、虚拟场景等信息的技术,包括文本转语音、音乐生成、人脸生成、人脸替换、图像增强等技术。因此,AIGC属于《深度合成规定》的监管范围。
《深度合成规定》明确,深度合成服务提供者应当采取技术或者人工方式对深度合成服务使用者的输入数据和合成结果进行审核,此外,提供智能对话、合成人声、人脸生成、沉浸式拟真场景等生成或者显著改变信息内容功能的服务的,应在生成或者编辑的信息内容的合理位置、区域进行显著标识,向公众提示深度合成情况。
(三)部门规范性文件
《新一代人工智能伦理规范》
2021年9月25日,国家新一代人工智能治理专业委员会发布了《新一代人工智能伦理规范》(以下简称《伦理规范》),旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。
《伦理规范》经过专题调研、集中起草、意见征询等环节,充分考虑当前社会各界有关隐私、偏见、歧视、公平等伦理关切,包括总则、特定活动伦理规范和组织实施等内容。《伦理规范》提出了增进人类福祉、促进公平公正、保护隐私安全、确保可控可信、强化责任担当、提升伦理素养等6项基本伦理要求。同时,提出人工智能管理、研发、供应、使用等特定活动的18项具体伦理要求。
《网络安全标准实践指南-人工智能伦理安全风险防范指引》
为防范人工智能伦理安全风险,2021年1月5日,全国信息安全标准化技术委员会秘书处组织编制了《网络安全标准实践指南—人工智能伦理安全风险防范指引》,为组织或个人开展人工智能研究开发、设计制造、部署应用等相关活动提供指引。
(四)行业标准、指导文件
《人工智能医疗器械注册审查指导原则》
2022年3月,器审中心发布《人工智能医疗器械注册审查指导原则》,进一步规范人工智能医疗器械全生命周期过程质控要求和注册申报资料要求,同时提出第三方数据库也可开展算法性能评估,并明确了第三方数据库在权威性、科学性、规范性、多样性、封闭性、动态性方面的专用要求。
《人工智能医用软件产品分类界定指导原则》
2021年7月8日,为进一步加强人工智能医用软件类产品监督管理,推动产业高质量发展,国家药监局组织制定并正式发布《人工智能医用软件产品分类界定指导原则》(下文简称《指导原则》)。
在该《指导原则》中,药监局对人工智能医用软件明晰了定义,其是指“基于医疗器械数据,采用人工智能技术实现其医疗用途的独立软件。含人工智能软件组件的医疗器械分类界定可参考本原则。”同时也对医疗器械数据做出明确定义,指“医疗器械产生的用于医疗用途的客观数据,特殊情形下可包含通用设备产生的用于医疗用途的客观数据。”此外,《指导原则》对管理属性和管理类别还进行了界定。
《深度学习辅助决策医疗器械软件审评要点》
2019年7月,国家药监局医疗器械技术审评中心(以下简称器审中心)发布《深度学习辅助决策医疗器械软件审评要点》,明确通用深度学习辅助决策医疗器械软件的审评范围,并提出基于风险的全生命周期监管方式。
(五)地方性法规
《上海市促进人工智能产业发展条例》
2022年9月22日,上海市十五届人大常委会第四十四次会议表决通过《上海市促进人工智能产业发展条例》,于2022年10月1日起施行。
《深圳经济特区人工智能产业促进条例》
2022年9月,深圳公布了全国首部人工智能产业专项立法《深圳经济特区人工智能产业促进条例》。自2022年11月1日起实施。
《上海市数据条例》
2021年11月25日上海市第十五届人民代表大会常务委员会第三十七次会议通过,2022年1月1日起施行。
(六)地方工作文件
《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023-2025)》、《北京市促进通用人工智能创新发展的若干措施》
2023年5月30日下午,2023中关村论坛重大科技成果专场发布会举行。会上,北京市科委、中关村管委会二级巡视员刘航发布了《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023-2025)》(以下简称《实施方案》)、《北京市促进通用人工智能创新发展的若干措施》(以下简称《若干措施》)两项政策。北京市将通过这两项政策,从鼓励与引导行业发展角度,围绕创新发展共性需求,进一步统筹资源,全面推动人工智能自主技术体系建设及产业生态发展。
这两项政策的发布,旨在加快实施创新驱动发展战略,高水平建设国家新一代人工智能创新发展试验区和国家人工智能创新应用先导区,持续提升人工智能领域全球影响力,进一步推动人工智能创新创新引领和健康发展,支撑北京国际科技创新中心建设。
03全球各国对AIGC监管
欧盟
《数据治理法案》
2022年6月生效。该法案是在《欧洲数据战略》的框架下首先提交的一项法律草案,其最初的内容是在2020年11月。《数据治理法案》整体而言,以制度创新为重点,以鼓励数据共享,提升数据使用效率,使数据资源的流动和使用,以达到更高的公共政策目的。一是要构建公共部门对数据进行重新使用的制度。二是构建一个有利于数据仲介发展的架构。三是对数据的利他行为进行规范指导。
另外,在《数据治理法案》的第六章中,设立了一个欧洲数据革新委员会,为其提供建议,以便将数据分享服务供应商、跨行业数据分享、数据重新使用等方面的信息纳入其中。
《人工智能法案》条例草案
在2021年4月,欧盟委员会就提出了《人工智能法案》条例草案,这被视为欧盟在人工智能以及更广泛的欧盟数字战略领域的里程碑事件。只不过提案的推进并没有想象中顺利,欧洲议会议员们尚未就提案基本原则达成一致。
《可信赖人工智能伦理准则》
2019年发布,这些指导方针包含七个方面:人类活动与监管;科技稳健与安全;隐私权与资料管理;透明度;多样性与非歧视与公平;社会与环境福祉;问责。
《通用数据保护条例》
2016年通过,2018年生效。目的是解决收集和利用用户数据的问题。它将替代1995年欧盟颁布的《数据保护指令》,以适应云计算、因特网和大数据的发展。《规定》的目的是为了约束互联网和大数据公司对个人和敏感数据的处理,保障数据主体的合法权益。与它的前任《数据保护指令》相比,《GDPR》可以直接对所有的欧盟成员国生效,而不需要任何国家将其转换为本国法律。
英国
《促进创新的人工智能监管方法》
2023年3月29日,英国发布《促进创新的人工智能监管方法》白皮书,概述了人工智能治理的5项原则。提出其基于原则的人工智能治理方法,以为企业和群众对人工智能的使用提供信心,为行业提供具有确定性、一致性的监管方法。在本白皮书中,英国提出了人工智能在各部门的开发和使用中都应遵守的五项原则,日后将由各监管部门根据具体情况在该五项原则的基础上对各领域的最佳实践发布指南。同时白皮书指出,为鼓励人工智能的创新,并确保能够对日后产生的各项挑战作出及时回应,将不会在当前就对人工智能行业进行严格立法规制。此外,白皮书特别强调政府和行业、企业等多主体开展协同治理的重要性,以及加强人工智能治理全球合作和互操作性的重要性,以尽快实现英国在人工智能领域的全球领导者地位。
意大利
2023年3月31日,意大利政府数据保护局(Garante)要求禁止OpenAI公司开发的AI聊天机器人ChatGPT在意大利的使用,并对ChatGPT应用程序涉嫌违反隐私规则展开调查。加拿大联邦隐私监管机构近期宣布,已对OpenAI展开调查,因该公司涉嫌“未经同意收集、使用和披露个人信息”。
美国
《人工智能风险管理框架》(AI RMF)1.0版
美国国家标准与技术研究院于2023年1月发布了《人工智能风险管理框架》(AI RMF)1.0版,旨在指导机构组织在开发和部署人工智能系统时降低安全风险,避免产生偏见和其他负面后果,提高人工智能可信度。
早在2016年,美国就颁布了《国家人工智能研究与发展战略规划》和《为人工智能的未来做好准备》两个国家级框架性、促进性而非管制性、约束性的文件,并在近年来不断更新。两个政策框架旨在积极促进人工智能技术发展和科技创新。针对人工智能技术带来的挑战,文件只是提出了原则性的应对方法。
加拿大
《人工智能和数据法案》
2022年6月,加拿大发布《人工智能和数据法案》该法案旨在规范国际及省级之间的人工智能系统交易。为此,法律规定:应当采取措施,降低由高影响人工智能所引起的伤害和输出偏差;公开有关人工智能的公共信息;授权创新、科技和工业部长制定与人工智能系统相关的政策,并对“持有或使用非法获取的个人信息”作出相应的禁止,以保护数据的隐私,以达到设计、开发、使用或提供人工智能系统的目的。
德国
《自动驾驶法案》
2021年7月发布。该议案的目的是为无人驾驶技术的商业应用提供法律基础和管理框架。该议案的最大亮点之一,就是为L4级别的无人驾驶车辆,在高速公路上的特定路段正常运行,提供了合法依据,并对相关的技术要求,行驶条件,数据处理等作出了明确的规定。德国也因此成为世界上第一个让无人汽车加入到每天的交通中,并将其推广到整个国家。
法案的另一项重要内容,就是为“无人驾驶特性”设立了技术监察系统。因此,智能机动车拥有者必须对机动车的使用行为进行规范,以确保机动车的行车安全及机动车的使用环境兼容性,并对机动车的使用行为负责。这些责任包括:对该系统进行经常性的维修,以保证无人驾驶的运行状态良好,对遵守交通规则采取防范措施,以及对技术监管的责任。为了履行这项义务,汽车拥有者应委派具有专门技能的自然人作为技术监视者,对汽车进行远程监视并对汽车进行干预。
本文内容部分来自网络,仅供参考。如有侵权,请联系删除。