中文站

内容监管系列,硅谷巨头如何自我监管?

本文转自东西互娱(EW-Entertainment),作者: 东西宏观研究组 

导读

今年,视频网站和社交网站内容合规问题频频爆发,互联网整治收紧,监管潮席卷文娱、广告、游戏各个领域,海外公司中,Facebook先后被通俄门、假新闻、谋杀和自杀视频、剑桥分析公司数据丑闻冲到了风口浪尖; YouTube也因虐童视频、学术造假广告、UGC网红内容创作者行为失当等内容问题缠身。

虽然在内容监管和自查方面,海外互联网内容公司和社交网站的表现并不足以被称作榜样,但也正如Facebook近期的声明中所称——“危机平台内容的对手是背靠资本的顽固派,他们可能永不罢休,甚至不断改变策略,这是一场军备竞赛,平台要做的就是持续进化”,从监管策略改进和技术完善的角度上说,以Facebook为代表的社交和直播、以YouTube 为代表的视频与UGC内容平台、还有Instagram为代表的短视频领域,也已积累出一些既定的方法,对问题的预见和更新策略布局或有借鉴意义。

综合来看,海外网站的争议内容的形态和问题可以概括为以下方面:呈现形式要以文字帖、视频、短视频、直播、游戏、广告为主;涉及的具体违规问题包含——用户隐私侵犯和数据泄露,不正当定向广告,涉及暴力、色情、恐怖主义、异端宗教、虐童、阴谋论、种族歧视、性别歧视等不良内容,虚假新闻,涉嫌诈骗和数据挖掘的钓鱼网站。根据平台产品组成和内容属性,也呈现了不同侧重的内容监管机制。

此为内容监管系列第一篇。

 

社交和直播自我监管-Facebook

Facebook 与Instagram系统保持协同连接的关系, 一般适用于Facebook的内容监测和审查功能也同样适用于Instagram,同时据公司相关人士称,Facebook的平台安全维护团队中有部分人员专门负责Instagram事务,因此连同两者谈Facebook整体的内容监管机制。

1.细化社区准则 精准定义违规内容

Facebook的社区准则主要职能是界定违规内容,过去,社区准则中的违规内容定义较为模糊,反馈称容易混淆,数据泄露丑闻爆发后不久,Facebook发布27页的更新版准则,围绕“暴力与犯罪”、“安全”、“侮辱性内容”、“信誉真实性”、“知识产权”“内容相关的请求”六个大类,有22条详细规定,违规内容和账号将被平台删除或封停。

社区准则具体到如“不可发布诋毁受害者的言论”或“不可发布有辱他人外貌、人格、身体的描述,或对其进行排名”,充分参考平台过去发生争议内容,并与准则的具体化实现强关联。

Facebook平台内容细化准则的目的,一在于详细界定细微的内容问题,二在于鼓励用户、各界专家对平台反馈,帮助平台不断完善平台的指导方针,在内容过滤和撤除时更有理可依。

经过最新一轮的更新,除了发布社区准则之外,内容发布者还有了申诉的机会。多年来,Facebook也误判了许多正规内容,例如撤下经典雕像、越南战争中逃跑儿童等无伤大雅的照片; 如今被错判的申诉会在24小时内被复审,据称这一政策目前只针对部分含有裸露、色情、仇恨言论、暴力图像展开,并仍在不断延伸覆盖的类型。

 2.欧洲通用数据保护条例(GDPR)下的自我监督

2018年5月,欧洲通用数据保护条例(GDPR)正式生效,而在用户数据泄露风波中首当其冲的Facebook决定——将把GDPR条例衍生之其他服务覆盖的国家和地区,监督Instagram、Oculus、WhatsApp对GDPR的遵守,并就“透明度”、“控制”、“责任”三大方面做出承诺,在信息透明度上强化产品内的提醒和用户教育宣传,在用户控制上简化了用户设定信息权限的流程,并提供更多账户安全自查的提醒; 同时, Facebook承诺定期更新合规计划,与世界各地的监管机构、司法机构、专家学者会面,以寻求反馈。

6月,Facebook在投资者的压力影响下,宣布加强管理层管理,提高公司审计委员会权利。

Facebook审计委员会主要负责监控Facebook的社会影响、隐私保护措施和网络安全风险,目前该委员会由前白宫办公厅主任厄斯金·鲍尔斯(Erskine Bowles)担任主席。

经历剑桥数据风波后,委员会增加了三项职责,以至少每年一次的频率对Facebook可能危害公共利益和安全的服务、隐私项目、网络安全风险三大方面进行评估,以此为投资者就“谁对监管隐私、社会影响、网络安全和合规负最终责任”提供更清晰的认识。

3. “透明度举报”平台维护版权

侵权举报和检测工具“信息透明度举报”管理团队将人工删除涉及侵犯内容版权(书籍、音乐、影视、艺术、文字、图像)、商标和涉嫌假冒伪劣的内容,用户可通过Facebook和Instagram的IP帮助中心填写在线投诉表格,投诉交由Facebook的IP运营团队在一天之内受理,重复侵权的账号将被关停。

针对版权的工具类产品还有“版权管理员”(Rights Manager)以及 “商务&广告IP工具”(Commerce& Ads IP Tool), 前者针对包括直播在内的视频内容进行相似性比对,后者营销内容筛选分类,帮助版权所有者举报伪商标和侵权的内容。

4. AI与算法结合人工审查

在国会听证会上,扎克伯格在一小时内提及AI三十余次,并坚称AI是平台内容监管的答案“未来的五到十年,AI将成为世界上最大的社交网络的捍卫者,在全球范围内解决其最紧迫的危机,同时也帮助公司回答有关审查、公平和人类无节制等棘手问题。”

基于人工智能研究项目FAIR,Facebook官方称, 就AI在Facebook内容监管上的应用而言,图像内容审查方面,其物体识别技术(Object recognition)以含有数十亿参数和数百万案例训练的神经网络为基础。

Facebook的产品经理表示,涉及用户安全的内容(如带有自杀、自残倾向的视频),Facebook的AI的监测基于过去相关的直播和帖子收集数据,审查中被识别并标记的图像,Facebook除了为用户提供疏导视频外,还会提供人工心理疏导服务邀请,而在物体识别技术上的每一次进步,都将意味Facebook Accessibility团队将技术的适用范围扩大”;

 在文字审查方面,有“DeepText”(深度文本)引擎,据称“能够以近乎人类的精确度理解每秒数千篇文章的文本内容,跨越20多种语言”,此前Deeptext除用于内容个性化推荐外,还用于自动清除垃圾邮件,帮助公众人物将数百万条评论进行分类,以查看最相关的评论,自动识别销售文章,提取相关信息,识别和显示用户可能感兴趣的内容。

但也有评论称,尽管Facebook的AI技术取得一定成绩,但与目前AI技术的整体发展一样,都面临着三大难题:一、文字识别容易,语义理解任重道远,对于虚假新闻监测来说,联系具体社会语境更是内容鉴别关键; 二、这是一场与资本丰厚的对手之间的军备竞赛,AI也不可避免的会在未来被用于制造出有目标性、被优化的虚假内容; 三、视频内容检测更为不易,建立可以捕捉虚假影像的系统难度巨大。

因此鉴于AI技术的局限性, Facebook聘请了一万五千名人工审查员配合监测和删除争议内容,在之前的分析中我们也提到,扎克伯克宣布于今年年底前新增五千人,辅助内容筛查。

Facebook此前已有人工智能研究项目(FAIR),并也持续邀请在机器学习、医疗保健、游戏、对话类介质算法开发方面颇具经验的人才,对实验室进行管理,同时和麦吉尔大学,蒙特利尔大学等多所高校保持联合开发的密切关系,今年7月,FAIR又传出多位教授加盟的消息,目前在全球Facebook 已有7所AI研究实验室。

UGC如何自我监管-YouTube

对于YouTube来说,UGC视频内容构成了平台内容的绝大部分,这也间接说明,面对内容把控,YouTube的监管总体要比其他网站难度更大,(既从视频内容审查的难度和工作量上说,又从UGC名人可能引发的负面连锁效应上考虑)。

1. YouTube社区准则

在YouTube开启UGC内容时代后不久,美国颁布了两项针对UGC内容发布的法案——千禧年数字版权法(DCMA)和《通行内容端正法案(第230节》(CDA),使平台围绕版权进行了一次“大清洗”。

自2008年起,YouTube 针对平台内容政策作出了一次巨大调整,对违反社群准则的行为明确制定了“三振出局”(非版权相关的)的规则。首次违反的用户将有6个月的观察期使违规记录注销,平台在两年后设定申诉流程,自认为被误判的用户可以要求复审,由此,YouTube正式确立了自身作为“内容适当性”仲裁者的角色。

与Facebook相似, 目前YouTube对违规内容的界定主要包括裸露或色情内容、危害性和危险内容、宣扬仇恨的内容、暴力或过度写实性内容、骚扰和网路霸凌、误导性诈骗内容、隐私侵犯内容、侵权内容、冒充他人、危及未成年人安全的内容。

2. 持续提高与UGC内容创作者合作的门槛(Demonitization Policy)

从年初的YouTube网红发布日本自杀森林尸体视频,到屡次出现的虐童和暴力相关自频道争议,YouTube与UGC内容创作者的的合作伙伴计划(Partner Program)也提高了门槛,筛除了较新、规模较小的内容创作者。

自2月起,只有在过去12个月内拥有至少1000名订阅者和4000小时观看时长的UGC频道才有货币化的可能,此外YouTube对于接受广告赞助UGC内容限制也变得更严格,即使满足了相应的门槛,过度植入广告的内容创作者获得的收入也较过去减少。

3. AI、算法与人工审核 (Google) 

依附于谷歌的YouTube以基于深度学习技术的Google Brain作为支持,Google Brian拥有一个收集用户信息(如观看历史和用户反馈)的神经网络, 以及一个用于对所显示部分视频进行排列的神经网络,通过引入机器学习工具,自动标记暴力极端主义视频,并将违规内容报告给人工审查员进行验证。

YouTube的内容审查系统名为“Content ID”,会监测并直接下架涉及版权、暴力等违规内容。据称,AI内容监测也获得了显著的成效,以2017年Q4为例,平台删除了800万条“令人反感”的视频,有670万条都由监测软件自动标记,大约75%被标记的视频在被用户观看之前就被下架。

与Facebook类似,YouTube的AI标记与识别技术也并不完美,例如2017年,英国政府和一些广告公司发现自己的广告被放在极端主义视频旁边,许多知名广告主宣布撤下YouTube广告。

今年,YouTube CEO苏珊·沃西基也承诺雇佣一万名人工审核员补足算法的局限,并在舆论压力下就员工权利规定每位审核员观看违规视频的上限为4小时,以保护其心理健康。

 4. 账号限制

针对账号有“活跃度”和“年龄”两大限制。至少6个月未登录、从未上传、从不参与视频互动(点赞、评论、收藏、关注)的账号,平台有权收回。

YouTube也在保证一定言论自由的同时,对含有露骨言论和画面的内容采取了“分级制”, 不同国家地区的用户,YouTube会参照用户所在地的法律法规,对观看和平台付费权设定不同的年龄限制,例如欧洲大部分国家用户需年满16岁收看部分内容, 北美用户需年满13岁收看部分内容等。

5. 争议内容标注

今年3月,YouTube的CEO苏珊·沃西基表示YouTube与维基百科合作,在涉嫌阴谋论相关的视频旁边附上维基百科文本链接,对争议内容加以标注;7月,YouTube将信息查证进一步延伸,在争议视频页面信息栏中纳入更多Google News的权威报道链接,并在突发事件发生时优先显示权威新闻来源的视频,帮助高品质新闻更高效触达用户。

其他提升自我监管力的通道-提高新闻比重

扶持权威新闻内容

假新闻事件后,Facebook试图借新闻内容挽回22亿用户的信任,提出了新闻计划(Facebook Journalism project),支持权威新闻内容的辨识和发布。

新闻计划主要包含四大部分:一、对新闻来源和可信度添加标注,便于用户鉴别新闻可靠性;二、 提升新闻内容货币化留住权威新闻出版商,在移动端应用上为新闻内容添加订阅、付费阅读功能;三、提升本地新闻内容的曝光度,与美国6个城市的当地公共新闻机构推行“Today in +地名”的新闻推送,手动筛选、审查、授权,将虚假内容比重降到最低;四、提升新闻类视频的比重,在Watch平台上推出新的新闻内容专区,加入长度至少在3分钟的时效性新闻视频,促进更有意义的用户互动。

相似地,谷歌也针对新闻内容设立了“Google News Initiative”,用3亿美元扶持权威新闻机构并鼓励对新闻视频产品的打造,计划在未来3年里提升新闻品质病帮助权威新闻机构为用户提供更稳定可靠的新闻内容输出。

最终新闻内容能否帮助正规内容养成还有待观察,例如Facebook就与新闻出版商们的关系一直变化无常,先是Newsfeed 内容推荐算法改变突出亲友内容导致新闻内容占比下降,后是与CNN、华尔街日报、纽约时报等头部出版商签订直播授权却提前毁约,使得新闻机构对与Facebook合作仍持保留态度。

儿童内容管理和过滤-童锁和定时器

童锁、内容加密、儿童版专用应用程序、定时提醒都被普遍作为作为用户保护手段,今年8月初,Facebook和Instagram加入了帮助用户控制APP使用时间的新工具,防止用户应过度使用社交媒体而危机心理健康,据报道在未来几周内,更新主页将展示用户使用的时长,平均使用时长,用户可提前设置使用时限,系统将在使用时满时提醒用户。

4月,YouTube,针对面向儿童观众的专业版应用YouTube Kids更新了家长管理权力,为监护人提供更强大的工具套件,将内容可视性的限制具体化,并投入更多的人工审核和资金支持。