中文站

网易易盾朱浩齐:AI治理的最大挑战不是黑箱和规则缺位,而是技术目标未定型

AI与合规,正在开启一场注定持久的博弈。

在上周落幕的首届“2025亚太合规峰会”上,来自中国大陆、新加坡、澳大利亚、印度、日本、英国及中国香港地区的100多位企业合规官与法总、商界领袖、首席执行官、律师代表、法律科技专家、大学教授汇聚一堂,围绕亚洲地区公司合规治理与政府监管话题深入探讨。

其中,人工智能与合规之间的话题尤为受到关注。

“人工智能发展与合规治理的冲突及应对”为主题的圆桌论坛中,来自世辉律师事务所、TATA、养生堂、惠氏营养品、网易易盾的行业代表围绕主题各抒见解。

作为长期在AI合规前线的业内知名安全专家,网易易盾总经理朱浩齐受邀参与圆桌对话,他在现场也分享不少独到观点:

 ● 合规不是反对创新,而是“让创新少走回头路”。

 ● 在合规方面,未来将呈现人机协作的专业共建模式,机器将负责“广覆盖、高频率、低争议”的合规任务,而人类则专注于“高判断、强敏感、高责任”的复杂场景。

 ● 当前AI治理最大的挑战,不是黑箱,也不是规则缺位,而是我们根本还不知道AI最终要变成什么样子。

 ● 易盾已服务超100家AIGC企业,采用“风险预判+规则试验”的方式进行AI治理,探索行业规则。但对日新月异的AI来说,业内仍缺少成熟的监管路径和治理机制。

下文为朱浩齐完整观点实录

话题一:

随着AI技术的演进,许多企业已对内、对外着手落地多个AI项目。

在一个AI项目落地前,企业的法务合规部应该如何评估其合规风险的等级?

需要考虑的主要问题和因素是什么?

基于我国的人工智能治理框架和国际先进治理实践,以及网易易盾多年安全行业经验,我认为主要以应用场景、应用规模、自主程度三个维度划分AI项目的合规风险等级:

第一,应用场景,分为特殊场景和一般场景。特殊场景主要包括对个人权益或社会公共利益有重大影响和对公民生命健康权益、人格尊严权益、重大财产权益产生显著影响的应用场景,例如教育、医疗、金融、智能驾驶等,治理要求及难度显著高于一般场景。

正因如此,自去年下半年开始,网易易盾基于此前与多个AI大模型企业共创的合规技术能力和经验方案,为这类特殊行业场景的客户提供全生命周期的合规解决方案,覆盖合规框架建设筹备、中前期大模型上线筹备、后期备案后安全运营等环节。同时,网易易盾加强对垂类应用场景的产品研发投入,例如未成年人AI保护解决方案、智能硬件端侧模型等。

第二,应用规模。这关系到出现风险时,风险扩散速度、广度以及可能引发的连锁反应强度。

如何判断应用规模?主要是两个标准:一是单领域应用规模,如用户规模、经济体量等达到一定体量,被视为大规模应用;二是多领域应用通用性程度,如果关联领域较多,可能导致原有较低风险被放大,进而引发系统性风险,这类应用也应视为大规模应用。随着应用规模增大,安全治理要求也要跟着水涨船高。

第三,自主程度,这是AI时代特有的全新研判维度。

可明确预见的是,随着各种智能体和端侧模型的投入使用,AI自主能力将是我们将要面临的新风险点,并且风险占比将逐步扩大。

举一个具体案例:如果让AI智能体完成购买一杯奶茶的任务,那么,付款时是需要人工确认还是小额免密支付?交易过程中的数据使用和鉴权存档应该如何管理?当AI智能体代表使用人与外界进行信息交互时,这当中的信息内容是否遵循内容安全的管理要求?这些都是AI在可预见的未来会带来的问题

目前,网易易盾正在持续关注并加大针对这些问题的安全策略和产品能力研发,在端侧内容安全审核、AI鉴权(设备指纹)等领域做进一步尝试。

话题二:

当合规团队要求限制产品功能(比如用户数据收集)时,如何与业务团队达成共识?

如何平衡公司内部的合规要求和新技术的推广和使用?

这个问题我们经常遇到。新技术落地时,合规要求有时候确实会“看起来”限制了产品能力,比如限制用户数据采集、限制模型调用的范围等。

但我想说的是,合规和创新其实不是对立的,而是需要对齐“时间维度”:合规团队看的是半年之后可能出问题的地方,业务团队看的是明天即将要上线的功能,但其实大家目标是一样的——把产品做好,而且能活得久。因此,为了对齐双方看待问题的“时间维度”,我们总结下来的方法主要有三步:

1.提前介入、共同评估:不是等功能快上线了才开始说“否”,而是项目一立项,合规团队就参与识别未来可能踩的坑。这个时候,我们更像“伙伴”,而不是“拦路虎”。

2.好好说话,而不是拿“红线”压人:很多时候不是说“这个功能不行”,而是要解释“这个方式下,风险是业务能承受的吗”?并且量化这个合规风险,比如未来可能被监管点名、影响用户信任、甚至会被竞品当作攻击点——这样,业务就会更愿意配合做优化。

3.提供替代方案,而不是只说不行:比如我们不能采集完整用户画像,那我们就引入脱敏计算、边缘处理,甚至通过用户主动授权来补回来,推动技术团队探索更可持续的创新方式。

合规不是反对创新,而是“让创新少走回头路”。我们真正要做的,是用合作代替对抗、用规则激发更强的产品力。

话题三:

网易易盾是否有使用AI治理AI的自动审核工具?

自动化AI合规工具和人工审核,未来会呈现什么样的工作分配?

当然,AI的发展一直在驱动网易易盾安全产品的升级,目前我们已利用这些工具实现“内容双筛”:

一是AI审核平台,让我们实现风险筛:基于AI技术实时识别和拦截各类不良内容,包括暴力、色情、恐怖主义、隐私侵犯等违法违规信息,大幅提高审核效率。

二是AI模型自训练平台:让我们实现价值筛:可以通过自训练平台快速构建图片模型,为合法内容加注更多智能标签,如是否由AI生成、内容类型、是否涉及商标、内容质量等,帮助企业更好地制定内容运营和分发策略。

未来,合规方面将会是人机协作的专业共建模式,机器将负责“广覆盖、高频率、低争议”的合规任务,而人类则专注于“高判断、强敏感、高责任”的复杂场景。

话题四:

您认为AI治理正在呈现什么样的趋势?

三类趋势:

其一,技术赋能在合规与违规的正反双方愈演愈烈,驱动着自动化工具不断提升效率和精度,用AI魔法打败AI魔法。

其二,风险类别的演变正在加速,从过去单纯的内容合规,扩展到如今多元化的虚假信息治理和侵权治理,覆盖面更广、复杂性更高。

其三,人类价值观在AI治理中的决定性作用将日益凸显,AI根本目的是服务于人,人类情感、文化、伦理的多样性与复杂性将在未来的人工审核中扮演更重要的角色。

话题五:

您认为AI治理目前最大的挑战是什么?

生成式AI的“黑箱”特性会颠覆现有合规体系吗?

AI治理主要面临的挑战是两个,一是技术难度越来越大,典型场景就是与黑灰产对抗中的AI鉴伪;二是AI带来的风险呈分散化趋势,因为AI的应用已经开始进入第一产业、第二产业中,这些企业的安全基础、行业经验和治理能力较为薄弱,要达到符合法律法规的合规水位,具备较大难度。

AI黑箱特性和不透明性,不会颠覆现有合规体系,反而因为这个特性,企业会希望去验证产品服务的合规能力,勾勒安全边界,确保输出内容符合安全合规要求。我们也研发了大模型测评工具,帮助客户不断测试、发现新的时效性安全问题,实时整改,确保全过程合规。

从更根本上来说,AI治理的挑战不是源自AI黑箱,也不是规则缺位,而是我们根本还不知道AI最终要变成什么样子。也就是说,AI的技术目标还没有定型,我们不知道它是一个工具,是一个伙伴,还是一个能自主演化的系统。

在这样的前提下,我们该怎么设定治理目标?如果要它“可控”,那要可控到什么程度?是让它听话,还是只说正确的话,亦或是要它具备伦理判断能力?这背后其实都取决于我们如何对AI进行“终极定位”。

因此,当前阶段,AI治理最大的挑战是,因为对AI技术的愿景是模糊的,围绕它的治理设计也因此不清晰,只能围绕“风险兜底”打转,管结果、灭风险,而无法从源头去规划机制。

话题六:

现阶段,如果企业要为AI治理提前布局,应该做什么?

如果要建立一个有效的AI合规治理体系,目前最大的痛点在哪儿?

网易易盾已经和100多家AIGC企业深入合作。从我们的实际经验来看,对于已经启动AI项目的企业,首先需要考虑符合业务实际和应用场景的AI安全规划,包含专业团队、合理的安全预算、可落地的安全方案与可信赖的安全合作伙伴。

有一句话叫“AI一天,人间一年”,AI技术发展日新月异,AI的许多使用方式在两三年前甚至未曾出现,因此,摆在我们面前共同的难题,并不是某一个点上有没有规则,而是整个AI合规治理体系也是“边走边建”的,更别说有对应的成熟监管路径和治理机制。

现在很多所谓的“AI合规”,其实只是沿用原来对互联网、对数据的旧规则,但这些规则在AI语境下已经很吃力了。例如,大模型生成内容算不算“主动发布”?使用开源模型出了问题,责任边界在哪儿?这类问题目前既没有成体系的法律答案,也没有可参考的行业先例。网易易盾采用“风险预判+规则试验”的方式,但仍需要不断创新和实践。

所以我特别认同一句话:现在做AI合规,其实是在为未来的“治理样板”打基础。我们不只是遵守规则,更是在帮行业“探索规则”。

话题七:

AI治理可能会涉及不同的合规和法律线(AI合规、数据合规、知识产权例如版权),甚至不同国家的法律。

作为公司法务或者合规负责人,如何去平衡这些不同的要求?

网易易盾在业务实践中服务很多出海客户,总结来看,跨国服务最重要的还是考虑内容安全和数据安全两大类问题。

内容安全维度,是指当我们跨国提供AI内容安全审核服务时,需要按照“一国(地区)一策”的安全策略进行部署,对当地的法律法规,甚至民俗习惯、风土人情、宗教信仰等进行系统了解,并内化成具备属地特质的安全策略和审核能力,添加不同的专属标签,供客户决策使用。

数据安全维度,需要考虑符合属地监管要求,如GDPR等。

但无论在什么国家或地区,AI治理都会是人类文明共识的编码过程,并且需要人机协作,机器确保效率,人类守护意义。

随着技术发展,即使自动化工具可以处理99%的标准合规,仍会存在1%涉及人性微光的复杂判断——比如一首AI诗是否真有“诗意”或一个医疗AI是否给予患者“有尊严的绝望”,这些部分将永远需要人类带着同理心、创造力和道德勇气介入。

最后:

如果请您对即将或正要进行AI治理的企业给出实用建议,会是什么建议?

AI治理是一项需要多方协同的体系化工程,而非单一个体的单打独斗。具体而言:

技术专业人员要保持对技术创新突破的信心和耐心,逐步完善AI安全能力,同时也要秉持技术向善的价值观,打造“有温度的技术”,让科技造福更多人。

AI应用为主的企业,建议在对专业技术要求高的领域与具备对应资质和能力的团队合作,找专业的人,做专业的事,共同推进AI应用落地。