中文站

警惕!AI造假进入新阶段,AI生成识别2.0全面对齐全球标准

上周,两件事刷屏了。

一边,是TikTok和Instagram上突然涌现出一批“完美女性”账号,这些账号面孔精致、身材夸张、互动自然,甚至能够回复评论,但很快被发现全部由AI生成,背后运营者通过矩阵化运作,将流量引导至第三方付费平台进行变现;

另一边,美国一名男子通过AI生成了数十万首音乐作品,并利用上千个机器人账号持续刷播放量,在六年时间里累计骗取超过800万美元的版税。

一个在“制造人”,一个在“制造内容”;

一个依赖真实用户点击,一个依赖虚假流量系统。

看似毫不相关,但如果把它们放在同一视角下来看,会发现一个更值得警惕的趋势:AI,正在把“造假”变成一门可以规模复制的生意

这种变化的关键在于,内容生产的门槛被彻底打破。过去,无论是打造一个网红账号,还是生产一首可被传播的音乐作品,都需要时间、能力甚至团队支撑,而在AI工具的加持下,内容可以被批量生成、快速分发,并通过自动化方式不断复制与放大。也正因此,灰产不再是个别案例,而开始呈现出“模式化”的特征——只要链路跑通,就可以无限复制。

AI正在把灰产,变成“流水线产业”

如果进一步拆解这些案例,会发现它们几乎遵循同一套底层逻辑:

第一步,是内容的“无限供给”。AI将内容生产成本压缩到极低水平,无论是图像、音频还是视频,都可以在短时间内批量生成,甚至通过LoRA等技术实现对特定人物的“定制复刻”;

第二步,是流量的“获取甚至制造”。一方面利用人性偏好获取点击,另一方面通过自动化工具伪造播放、互动等行为,从而绕过平台的分发与风控机制;

第三步,是收益的“稳定变现”。将用户导向付费场景,或直接从平台分成体系中获取收益,形成完整闭环。

过去,平台需要解决的是“内容是否违规”,也就是基于规则对内容进行判断与处置;而在AI时代,这一问题已经悄然转变为“内容是否真实”。当人、声音、图像乃至行为本身都可以被生成与伪造时,单纯依赖内容本身已经无法完成判断,平台所面临的挑战,从“内容治理”升级为“信任治理”。

当标识成为共识,“真假判断”仍然存在盲区

针对这一变化,监管与行业已经开始给出明确方向。

2025年发布的《人工智能生成合成内容标识办法》以及配套国家标准GB 45438-2025,明确提出AI生成内容需要具备标识信息,通过显式标识与隐式标识的双轨机制,使内容在生成与传播过程中具备可识别、可追溯的能力。与此同时,国际层面的C2PA标准也在推动类似路径,通过“内容凭证”记录生成与编辑历史,使数字内容具备可验证的来源信息。

但现实情况远比标准复杂。

在灰产与实际业务场景中,大量内容并不会规范携带标识,甚至会主动“去标识化”:显式提示被裁剪,隐式元数据被篡改,内容在压缩、转码与多次传播过程中不断丢失原始信息。同时,内容来源也变得愈发混合——既有国内模型生成内容,也有来自Midjourney、DALL·E、Firefly等海外工具的内容,甚至还存在“二次生成”的情况。

这就导致一个越来越突出的现实问题:仅依赖“有没有标识”,已经无法完成AI内容的有效判断

AI内容治理,正在进入“识别时代”

在这一背景下,AI内容治理的逻辑正在发生变化:从生成标识,走向识别标识,再进一步延伸到全链路溯源。企业真正需要的,不只是满足合规要求,而是一套能够覆盖多来源、多标准、多形态内容的统一识别能力。

具体来看,这种能力至少需要覆盖三个层面:

第一,不只看标识,还能判断“像不像AI生成”。

在实际场景中,很多内容并不携带有效标识,仅依赖显式或隐式信息进行判断,必然会产生漏判。因此,需要通过AI生成识别模型,对内容本身进行分析,输出“是否为AI生成”“生成概率”“风险等级”等结果,即使在标识缺失或被破坏的情况下,依然能够识别异常内容,从而补齐识别盲区。

第二,同时支持国内与国际标准,实现跨生态识别。

在内容来源日益混合的情况下,平台不仅需要满足国内标识规范,也需要具备对C2PA体系的解析能力。作为当前国际主流的内容溯源标准,C2PA(Content Provenance and Authenticity,内容来源与真实性联盟)由Adobe、Microsoft、Google等头部企业推动,通过为内容附加“来源凭证”,记录其生成方式与编辑过程,使内容具备可验证的来源信息。

目前,Adobe Firefly、Google Gemini、Microsoft Designer、OpenAI DALL·E等主流海外AI工具已在生成内容中引入该体系,这也意味着,平台可以通过解析这些内容所携带的关键元数据,还原其生成来源与路径,从而实现跨平台、跨生态的一致性识别与判断。

第三,不仅识别内容,还能“看穿来源”。

真正有效的治理,并不止于判断“是不是AI生成”,而是进一步回答:这段内容是谁生成的、来自哪个平台、是否经过传播链路篡改。只有当这些信息能够被还原,平台才能真正理解内容的来源与路径,从而支撑更精细化的分发策略与风险处置。

在这一逻辑下,网易智企旗下易盾业务推出的「AI生成识别2.0」,本质上正是对上述需求的回应:在持续满足GB 45438-2025合规要求的基础上,新增对C2PA国际标准的识别支持,通过融合标识检测与内容识别能力,在一次检测中即可完成“是否AI生成”“标识存在情况”“来源信息解析”等多维判断,实现对AI内容的全口径覆盖。

当内容来源不断叠加、传播链路愈发复杂,平台需要面对的,已经是一种更加动态的不确定环境。在这样的变化之下,识别能力的意义,也正在被重新定义——不只是判断结果,更是理解来源与路径。

易盾所做的,是把这种能力沉淀为一套可落地的基础能力,让企业在复杂的信息流中,依然能够看得清、判得准。

▲重磅来袭 ▼

我们正全面进入 AI Agent 时代,龙虾(OpenClaw)正在让 Agent 从个人聊天助手,走向企业真正可用的数字员工,重构企业效率与协作方式。但个人版龙虾(OpenClaw)能力有限、权限管控难、场景适配难问题突出。

4月10日,网易智企将在杭州带来企业级AI Agent平台——帝王蟹发布会

现场将完整拆解从个人 Agent 到企业级 AI 员工的升级路径,以及基于企业多场景的实操案例

扫描下方二维码报名,即刻锁定现场席位!