2025年的两会已经顺利闭幕。
回顾今年的两会,是含“AI”量最高的一次两会。
随着人工智能技术的持续创新,AI相关的提案成为热点中的热点,一众互联网和科技领域的代表委员围绕人工智能提出多项建议。
其中,“AI换脸”成为包括小米集团董事长雷军、著名演员靳东、TCL董事长李东生等在内的多位政协委员和人大代表不约而同提出建言的议题。
在AI技术发展的过程中,利用AI技术“改变人在数字世界中的外貌”的确是一个典型的“技术普惠”场景,但此类应用就如同潘多拉魔盒一样,一旦任其不受控制地被滥用,势必会违背科技创新的“向善”初心。
(微信搜索“AI换脸”,各种工具层出不穷)
全国人大代表、小米集团董事长雷军建言,现有法律体系仍将AI侵权嵌套在隐私权、肖像权、名誉权等传统框架中,而“被骂8天”“因AI谣言导致股价下跌”等损失,却因无法量化举证而难以维权。最终,雷军只好亲自发声请求网友停止相关行为。
面对新型侵权形态,现行监管与治理体系正面临现实挑战。
单从技术的发展来看,如今人工智能的发展可以用日新月异形容,但对于新技术的安全监管却相对没这么快。因此,从今年两会有如此之多的提案可以看出,对于以“AI换脸”为代表的科技创新应用场景的监管和安全治理,确实到了迫在眉睫的节点——怎么管?怎么防?怎么治?
“眼见不实”,科技普惠还需安全合规
事实上,苦于被AI偷走面孔和声音的,远不止雷军。前有“假张文宏”深夜直播带货,后有“假刘晓庆”分享人生鸡汤,以及“假古天乐”代言游戏平台,随着技术持续进化、门槛不断降低,“AI换脸”的不当使用已成为违法侵权重灾区,并有愈演愈烈之势。
近年来,我国《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等法律法规已颁布实施,《人工智能生成合成内容标识办法(征求意见稿)》完成社会意见征集,对人工智能治理进行了有益探索。然而,鉴于技术的迅猛发展,治理的“工具箱”仍需不断扩容。
监管与治理需要两条腿走路,一条“监管层面不断完善体系与政策”,另一条则是技术本身的攻防对抗。
“AI换脸”背后的技术被称之为“深度伪造”(Deepfake),深度伪造(Deepfake)技术自2017年问世以来,正以指数级速度渗透日常生活。但多以恶意滥用而被人所知,包括伪造色情视频、政治人物演讲、企业家虚假新闻等。
去年12月,安全媒体安全牛发布了《AI时代深度伪造和合成媒体的安全威胁与对策(2024版)》(下称《报告》),网易易盾作为重要参编单位,参与内容制作。《报告》指出,随着DeepFake技术的推广和使用门槛的降低,不法分子开始利用这项技术违法犯罪的门槛和成本也相应的降低了。所谓“技术平民化”能带来生产力的提升,也带来新的安全挑战。归纳总结不限于以下几类:
■ 虚假宣传-秩序扰乱与信任风险:深度伪造技术可以被用于制作虚假视频和音频,这些内容可以被用于政治宣传或误导公众,从而破坏社会稳定甚至国际关系。例如,2018 年,特朗普宣布中止全球气候变化协议,随后被比利时某政党利用“深度伪造”技术篡改,做出“特朗普宣告比利时政府也应退出”的假视频,引起比利时民众的公愤。
■ 名誉损坏-政策挑战与权利侵犯:深度伪造技术制作的色情换脸视频侵犯了公民的名誉权和肖像权,对被伪造者造成严重的心理和社会影响。这些视频的传播可能导致受害者产生焦虑、抑郁等心理障碍,甚至影响其工作就业与社会交往。多国社会名人、企业家受到波及。如《神奇女侠》主演盖尔·加朵的面容合成到了一部成人影片中,引发桃色风波。
■ 财产损失-经济风险与经济犯罪:深度伪造技术被用于诈骗和勒索,导致个人和企业遭受经济损失。例如,语音克隆技术能够在采集目标人物几句话的基础上,就通过算法生成这个人的全套语音,让人难辨真假。目前,利用假视频、假音频进行碰瓷、诈骗的现实案例层出不穷。如 2024 年,香港一家跨国公司员工被邀请进入用深度伪造制作的“高管视频会议”,被骗转账 2 亿港币,成为香港历史上损失最惨重的“变脸诈骗”案例。
■ 道德伦理-伦理风险与法律风险:深度伪造技术的应用引发了伦理问题,如侵犯已故明星与名人的主体价值完整性,以及对逝者的“赛博重生”可能违反了公民应有的被遗忘权原则等。如疫情期间,合成的爱因斯坦在视频中鼓励大家团结一致共同抗疫引发大众热议。此外,深度伪造技术还可能导致道德行为失序,如伪造视频可能引发对个体身份的操纵和数字暴力。
■ 安全威胁 - 国家安全与国际关系:深度伪造技术可能被用于制作虚假的战争命令或解锁重要设施的人脸识别系统,从而对军事安全构成威胁。此外,深度伪造技术还可能被用于网络钓鱼攻击、交易欺诈等,对企业安全构成威胁。深度伪造技术可能被用于国家间的政治抹黑、军事欺骗,增加国家间的危机和冲突,尤其是增加拥有核武器国家之间爆发核战争的风险。
网易易盾专家认为,如前文提到,监管与治理需要两条腿走路,其中治理更加需要深入到实际场景中,从技术的应用背后逐步拆解使用过程,进行精准的安全攻防对抗。
“火眼金睛”,见招拆招治理黑灰产
根据《报告》统计,深度伪造和合成媒体技术广泛应用于视频、图像与语音领域中。通过公开调研和企业访谈发现,按照视频领域(换脸、动作转移、表情操纵)、图像领域(人脸生成、风格转换)、语音领域(克隆、转换、合成)等来看,不同落地领域的占比分别是37%、56% 和7%。
(AI换脸示例)
哪里有利益可图,黑产就往哪里去。当AI技术成为黑灰产团伙从事不法活动的新武器之后,自然会首先将其运用到利益最大的地方。
因此,除部分出于好奇驱动的使用者外,大部分使用AI换脸技术的都是用于从事黑灰产活动,以谋取不正当甚至违法收益,包括色情视频、金融欺诈、广告侵权等。
以银行为代表的金融业作为关系社会民生的重要行业,也是黑灰产眼中的“香饽饽”。在人脸识别技术广泛应用于我们的日常生活中的时候,登录任何一个银行App或其他互联网金融性质的移动应用,通过人脸识别确保本人操作已经是非常普遍的安全措施,成为数字身份认证的重要基础。
我们以“网易易盾为某城商行提供智能活体检测解决方案”作为实践案例进行详细分享——
一、服务背景
国内某城商行金融理财子公司为客户提供一系列的金融产品和服务,包括但不限于股票、债券、基金、保险、养老金、税务筹划等。这些服务通常根据客户的财务状况、风险偏好、时间和财务目标进行个性化定制。
国家金融监督管理总局发布的《个人贷款管理办法》正式开始实施,对于不超过 20 万元额度的贷款业务,可以通过远程的数字化途径完成签约;超过 20 万元的贷款业务,借款人必须亲自前往银行进行面对面签约,整个签约过程必须全程录音录像。无论是线上远程完成贷款申请还是线下面对面签约,背后是风险防控与合规需求的双重考量,都需进行全程录音和录像,即完成所谓的“双录”。
二、客户挑战
金融作为高净值行业,黑灰产通过深度伪造的虚假人脸视频,可以登录用户的银行账号,拦截银行发送的手机验证短信,进而进行转账、消费、修改账号密码等。客户在人脸识别方面面临以下挑战:
■ 高度复杂的伪造技术:不法分子可能使用高级的人工智能技术和深度学习生成对抗网络(GAN)等手段制作逼真的虚假人脸,以欺骗传统的人脸识别系统。
■ 视频攻击:攻击者可能使用合成的视频素材来模拟真实的人脸动作和表情,以绕过静态图像识别的防护。
■ 活体检测:部分攻击者可能利用面具、照片或视频等手段来绕过活体检测技术,使得传统的人脸识别技术难以应对。
■ 对抗性攻击:攻击者可能会使用特制的眼镜、面具或其他物品,以对抗人脸识别系统,使得系统难以准确识别真实的人脸。
为应对这些挑战,需要金融机构不断改进其人脸识别技术,采用先进的活体检测技术、三维人脸识别技术、基于行为的认证等手段,以及建立反欺诈的全面策略,确保人脸识别的准确性和安全性。
三、解决方案
■ 通过 SaaS 服务接口调用的方式快速对接,传入待审核的人脸视频等,实时返回人脸伪造检测结果。产品能力:双录视频截帧能力,结合视频大小、时长、拍摄时机以及是否有人脸等维度,抽样截取人像照。视频正脸照提取算法,结合人脸旋转角度、人像模糊程度、图片清晰度、光线是否昏暗 / 背光等多维度,选取高清晰的人像照。
■ 网易易盾提出了基于人脸深度评估和注意力机制的活体检测算法(专利名:基于大规模人脸自监督和非对称度量学习的静默活体),通过创新的“光线深度分析”估计真假人脸深度信息并结合注意力机制捕捉假脸细微痕迹进行识别,通过领先的“真人认知人脸模型”,将各种假体攻击进行精准防御。伪造人脸检测能力全覆盖,具体包含:疑似深度伪造、疑似合成攻击、疑似黑产攻击、疑似生成人脸 、疑似翻拍人脸等。
网易易盾智能活体检测解决方案架构图
四、服务价值
部署前:
对于新型AIGC生产的合成脸,常规活体检测算法漏报率较高,对于同背景不同人的情况,只能通过人审的方式去发现,效率相当低下,而且对于高阶的合成脸对抗,人审也存在一定的漏判。视频活体,因为是纯SaaS服务接口调用的方式对接,没有SDK集成,所以也较难通过设备环境信息来检测端侧的风险,这就对活体检测算法提出了更高的挑战。
部署后:
■ 安全性提升:减少身份盗用和欺诈风险,保护客户和用户的个人信息安全。
■ 信任度提高:增强客户对平台或产品的信任,促进用户参与交易的积极性。
■ 遵守法规:满足相关法规和合规要求,降低因安全漏洞而引发的法律责任和罚款风险。
■ 用户体验改善:提高身份验证的准确性和效率,简化注册和登录流程,提升用户体验。
■ 品牌价值提升:对于企业来说,这种技术的应用可以提升品牌形象,增加市场竞争力。
从过往陆续出台的各项政策与制定的标准,到今年“含AI量”最高的一次两会,可以看出,随着AI产业发展的深入,AI的落地应用与安全治理越来越被社会关注。同时,这表明AI产业如朝阳一般,正在焕发蓬勃的生命力。