中文站

21条!网信办释放AIGC管理办法三大信号

4月11日,国家互联网信息办公室(简称“网信办”)发布了《生成式人工智能服务管理办法(征求意见稿)》,并向社会公众展开为期一个月的意见征求。这份管理办法共计21条,既包含了提供生成式人工智能服务的主体,也包括使用这些服务的组织和个人。


人工智能的安全忧患意识正逐渐正向多国蔓延,全球范围对加强人工智能管理的呼声也愈发高涨。在此之前,已有多国相关管理部门表示密切关注 ChatGPT 引发的数据安全问题。

在ChatGPT被接连发现意外泄露用户聊天记录后,意大利数据保护局于3月底宣布将暂时禁用ChatGPT并对该工具涉嫌违反隐私规则展开调查,并要求OpenAI对用户信息收集等行为提交改进措施;随后,法国和爱尔兰的隐私监管机构表示已经与意大利取得联系,以了解更多有关该禁令的依据。德国数据保护专员指出,考虑到数据保护,原则上不排除暂停ChatGPT在德国的使用。

各国相关政府管理部门不同的状态反映出的是人们对ChatGPT为代表的生成式人工智能以及未来可能出现的通用人工智能技术伴随风险的担忧和关注。此次网信办发布《管理办法》(征求意见稿),有可能意味着中国将成为全球最早实施AIGC相关法律法规的国家。

然而,这并非国内第一次出台有关于AI技术管理的法律法规。早在去年12月,网信办、工信部、公安部联合发布了《互联网信息服务深度合成管理规定》(以下简称《规定》),并于2023年1月10日正式施行。相比《规定》的发布,此次《管理办法》(征求意见稿)直接点名“生成式人工智能”,并明确指出“本办法所称生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术”,虽然此次法规条款内容比较简化,部分条款的线条还比较粗,但不难看出国家此次的管理指向性非常强,是对技术形态监管定性层面上的升级。

风险与潜力并存于人工智能技术之中,生成式人工智能已经展现出多种强大能力,并逐渐渗透到了消费端和产业端的所有领域。它带来了很多新的商业可能性,却也存在着很多阴暗面及诸多安全难题。

针对此次公布的《管理办法》(征求意见稿),网信办明确释放出三大信号。

信号一:国家支持生成式人工智能的健康发展和商业应用,并通过引导和规范让生成式人工智能技术发挥更大的社会和商业价值。


网信办表示,制定本办法的目的是为促进生成式人工智能健康发展和规范应用,并在办法中明文表示“国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源”。

“《征求意见稿》的出台,意味着AI行业的标准化步伐正加快,AIGC产业可持续发展的政策红利期即将来临。”中关村智能科技发展促进会副会长兼首席数字经济学家陈晓华表示,从相关条例可以看出,我国极为重视此轮AI所引领的科技变革,有关部门在鼓励自主创新、推广应用、国际合作的同时,也致力于避免“先污染后治理”的困境。

信号二、生成式人工智能在中国发展和应用的前提必须是合法合规


第二条规定定义了管理办法的范畴,无论是国外还是国内的公司,凡是面向中国境内公众提供的生成式人工智能产品,均适用本办法。这里有一个很重要的前提,就是生成式人工智能产品和服务必须合法合规,且需经过服务审批申请。

将21条规定整合在一起来看,除了对AIGC强调了价值观导向、社会公德、遵守法律及反歧视外,《管理办法》(征求意见稿)在合法合规方面的体现则覆盖了五大版块,它们分别是服务提供方的模型训练阶段、上线前置审批、用户使用阶段、内容生成阶段与违规处置阶段。

1.模型训练阶段

(1)训练数据:符合《中华人民共和国网络安全法》等法律法规的要求,不侵犯知识产权,使用个人信息应征得个人信息主体同意,保证数据的真实性、准确性、客观性、多样性等要求。

(2)数据标注: 如采用人工标注,应制定符合要求,清晰、具体、可操作的标注规则,对标注人员进行必要培训,抽样核验标注内容的正确性。

2.上线前置审批阶段

备案评估:AIGC产品在面向公众提供服务前,技术服务商应向国家网信部门申报安全评估,并履行算法备案和变更、注销备案手续,也就意味着必须先通过评估再上线。

3.用户使用阶段

(1)信息公开:提供者应向用户公开可以影响其信任和选择的必要信息,包括训练数据、人工标注、基础算法和技术体系等基本情况

(2)用户身份:提供者应要求用户提供真实身份信息。

(3)用户引导:提供者应指导用户科学认识和理性使用,不利用生成内容损害他人形象、名誉以及其他合法权益,不进行商业炒作、不正当营销。

(4)防沉迷:提供者应明确服务的适用人群、场合、用途,采取适当防沉迷措施

(5)用户信息保护:对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。

4.内容生成阶段

(1)内容反歧视:提供者不得根据用户的种族、国别、性别等进行带有歧视性的内容生成。

(2)生成内容标识:提供者应当对生成的图片、视频等内容进行标识。

5.违规处置阶段

(1)投诉举报机制:用户发现生成内容不符合要求时,有权向主管部门举报。提供者应当建立用户投诉接收处理机制,及时处置个人关于更正、删除、屏蔽其个人信息的请求;发现、知悉生成的内容侵害他人权益或违规时,应当停止生成。

(2)违规用户处置:提供者发现用户利用产品过程中违反法律法规道德时,应当暂停或者终止服务。

(3)模型优化:对于不符合本办法要求的生成内容,除采取内容过滤等措施外,应在3个月内通过模型优化训练等方式防止再次生成。

信号三、生成式人工智能技术服务商几乎要承担“无限连带责任"

《管理办法》(征求意见稿)共计21条规定,其中有13条都明确针对 “提供者”,即利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人。而对AI生成的内容,技术服务商几乎要承担“无限连带责任”,包括个人信息的保护义务。同时,《管理办法》(征求意见稿)不仅指向生成式人工智能产品和服务的提供者,也对产品和服务使用者划定了原则。

《管理办法》(征求意见稿)的发布意味着国家部门对AIGC的管理力度加强,内容安全和数据隐私安全已经成为AIGC发展的前提和关键。技术提供商如果想要打开中国的商业市场,合法合规已成为无法绕开的重要问题。

作为国内领先的数字风控服务商,易盾一直专注于运用互联网技术与信息化手段为客户提供数字风控服务。值得一提的是,AI作为易盾品牌与技术的关键标签,除了赋能传统娱乐社交、游戏、直播电商、新零售等行业的UGC风控领域,也领先地应用在了AIGC风控领域,成为国内真正可以用AI对抗AI的数字风控服务商。

针对此次《管理办法》(征求意见稿)21条的规定,易盾目前所提供的解决方案几乎覆盖了各项合法合规政策的需求。不管是针对模型的数据训练,AIGC生成内容的检测、数据标注,亦或是用户身份真实性的验证,易盾已完全具备向AIGC行业提供成熟解决方案的能力。

未来,不管人工智能技术发展有多快,易盾将不断创新与突破,始终成为一个可以利用好技术为用户打造合法合规平台的服务商。

相关阅读:

AIGC时代,踏入内容风控新战场