大厂内容审核员的境遇,有多糟糕?

2023年02月15日 09:30  

人们谈论内容审核时,不会在第一时间想到实际从事审核工作的员工。这些员工的工作大半是看不见的——深深隐藏在呼叫中心式的办公室里——他们过滤着社交媒体平台上用户生成的大量内容。用户看不见他们,但这部分员工是互联网的一线工作者,一直面对着展示人性最糟糕一面的图片或视频。假如没有他们,社交媒体公司及其以广告驱动的商业模式很可能无法像现在这样存在。

然而,这份工作要不断接触令人不快的内容,却往往报酬很少,是临时性的工作,而且充满了要迅速准确执行的压力。他们的境况一定要这么糟糕吗?

加州大学洛杉矶分校批判性互联网调查中心(Center for Critical Internet Inquiry)学术主任兼性别研究、信息研究及劳工研究副教授萨拉·罗伯茨(Sarah T. Roberts),是内容审核方面的专家。她与《哈佛商业评论》谈了这类工作为何通常设计得就很糟糕、可能有怎样的替代模式,以及我们如何让这种不可或缺的一线工作变得更好。以下采访记录经过编辑。

 

Q:内容审核是在什么时候成为了一项工作,经历过怎样的演变?

这项工作始于社交媒体初期,就连早期的MySpace都意识到了对专业审核人员的需求。

2010年左右,Facebook这样的网站相对还很年轻,用户生成内容可以促进用户参与的想法也很年轻。可是当你打开大门,让每个人都可以上传图片或视频,你就会看到人类全部的自我表达。其中一些产物不合适、令人不安或不符合法律规定,而且会给担心惹麻烦或忧心品牌管理的公司带来问题。

起初公司用一种拼凑的方式来审核:安排内部人员从事这项工作,其中有合同工也有正式员工,但也会外包给第三方,包括其他公司和Mechanical Turk等数字计件工作平台,以满足需求。

我在伊利诺伊大学读博士学位时读过一篇文章,讲爱荷华州农村的人在一个听起来像是呼叫中心的地方工作——但他们不是回应服务咨询,而是审查用户在社交媒体上发布的内容是否符合特定网站的准则。

当时我已经有20年的网龄,从来没有考虑过夹在中间做这些事情的人可以把这当作一份赚钱的工作。我突然意识到,如果你的工作就是寻找和删除那些让其他人不安的东西,反复接触这类材料一定很辛苦。

如今每一家社交媒体公司都有自己详细到令人咋舌的相关政策,总是在修改和完善,呼叫中心模式则更胜一筹。负责执行这些政策的审核员在大规模、工业化的像呼叫中心一样的外包办公室工作,通常位于劳动力成本比美国低得多的地区。企业喜欢这样的关系。这种关系让企业得以方便地置身事外,合理推诿,不必为工作可能造成的伤害承担责任。

 

Q:内容审核员的一天通常是怎么过的?

如果你是第三方承包商公司的一线普通员工,你通常会进入一个相当“无菌”的环境。你可能没有自己的工位,因为是三班倒,下班之后会有其他人坐在你的位置上。你可能要登入一个由需要审核的公司开发的专有系统或界面,然后开始查看材料队列。

你会收到被标记的内容——可能有一些上下文背景信息,也可能几乎没有——你根据自己对公司政策的理解,判断是否删除该内容。处理完这条内容,你会收到另一条内容。这就是你一整天要重复的工作流程,处理待审核的队列。有时会有分类,比如一些人专门处理仇恨言论或自伤内容,但即使是普通员工处理的普通内容,也可能非常可怕。想想那些不允许出现在网站上的东西:通常那就是审核人员看到的东西。

 

Q:你交流过的审核员对这份工作感觉怎样?

一位女性告诉我,她觉得自己扮演着民俗中的“食罪者”角色。这种历史仪式的要旨是穷人在精神上承担死者的罪孽,往往通过吃掉摆放在尸体上的面包来换取金钱。这位女性感到,自己在做内容审核的时候,本质上就是承担他人的不当行为、残忍和暴力以换取报酬。这个比喻真的让我很有共鸣。还有一些审核员把这份工作比作看门人或收垃圾的人——处理垃圾和残渣。

 

Q:审核员的工作辛苦,只是因为内容吗,还有没有其他难题?

除了处理实际的内容以外,审核员使用的界面可能也有段时间没更新过,因为工程资源都用于为客户开发新产品和新功能。为内容审核员改善工作体验,从来不会是公司的首要重点工作。举例来说,旧的界面可能对审核员的指令响应迟缓,让他们无法如愿高效审核被标记的内容。这意味着员工可能不得不耗费额外的时间看一张图片,或者看完一整个令人不安的视频,造成工作压力。

另一个难题在于审核员如何被评估,通常有两个指标。一是生产力:你处理了多少内容。二是准确性:如果某位主管审查你处理过的内容,是否会同意你的判断?因此你承担着迅速完成工作但也要做好的压力。

这项工作的报酬也很低,特别是比起其他技术部门的工作。我想很多人上岗的时候都在想,“我要在社交媒体工作,这是我职业生涯的开端。”但这是最底层的工作,经常被贬低和否定,而且很难长期做下去。

 

Q:那么自动化呢?软件和算法模型能否完成这项工作?

随着对内容审核的需求增长,公司已经投资于机器学习算法、自然语言处理和其他自动化工具。不过这种转变并没有减少参与这项工作的人数,反而增加了人数。公司需要员工对训练工具要用到的图像或其他类型媒体的数据集进行注释,而且算法判断是否正确仍然需要人工检查。

我们要把重复的、令人不安或不快的劳动交给机器——这种理想长期以来一直存在。然而实际情况是,这项工作只是被推到了我们视线以外的地方。自动化审核只对垃圾邮件或数据库中已经被识别的内容有效,除此之外无法进行审核,因为审核工作有细微之处,需要语言和文化能力。例如,某个符号只是一个符号,还是有特殊含义?一些人可能会觉得纳粹标志黑太阳只是一个几何设计,除非熟悉这个符号的背景和使用场合。机器在这方面赶不上人类。

 

Q:目前的体系有没有其他替代方案?

如果社交媒体公司沿用一直以来的商业模式,我觉得对审核员的需求在短期内不会消失。不过改善员工体验的可行措施有很多:升级技术,提升工作时的体验,让他们对自己看到的内容有更大的控制权,并且允许他们说“嘿,我需要休息一下”且不受处罚。

很多公司声称自己会为员工提供支持,但许多审核员告诉我,他们不会寻求支持,因为这意味着让老板知道自己在工作的核心部分有困难。我问他们想要哪些改变,他们总是回答“涨工资”和“更重视我们”。这代表社会上其他人对他们所做的工作普遍缺乏认可。

至于科技以外的行业,前不久我们看到员工成立工会要求有所改善。如果公司不想办法改善审核员的工作状态,审核员或许也可以选择这样做。他们为雇主提供的服务至关重要。平台通过让广告商尽可能多地接触用户来赚钱,这就产生了内容审核作为品牌保护的需求,因为没有哪家公司希望自家的广告出现在斩首视频旁边。

另一种更有争议性的解决方案是重新思考社交媒体平台的设计方式。这类平台真的应该成为供人们用恶言恶语、政治斗争、虚假信息、政治宣传、种族主义和厌女症以及其他垃圾填充的空容器吗?20亿人使用同一个交流网络,真的是件好事吗?除了对规模和利润的渴望,这些平台并没有注定变成现在这种样子的理由。

 

Q:有没有哪些平台审核做得好?

我很难不把早期的互联网浪漫化。过去我对很多事情感到愤怒,有时候还跟人掐架——我们现在跟网络讨论联系在一起的行为我那时候全都干过。

可是早期的互联网社区确实有允许人们决定加入或退出的治理模式。一些网站是无政府主义的,不制定规则,有一套“什么都行”的治理方法。重要的是要认识到,没有规则是一种治理选择,会影响网站的文化。

另一些网站有非常严格的规则,如果不遵守规则,你就会被踢出来。这种情况下,负责审核的人通常有明显的领导作用,通过用户赋予的权力策划特殊的文化空间。现在还有一些网站用的是类似的模式。

以Reddit为例,在每个次级板块或主题论坛上都有社区领导者也就是审核员以及明确的规则,说明可以接受什么内容,以及违规者将受到怎样的惩罚。每个次级板块制定的规则不一样,用户可以决定是否参与。在更高的层面还有专业的负责人,处理执法机构或政府要求提供信息之类的事。这种模式与内容审核工作在很大程度上不可见、不被认可的模式形成了鲜明对比。

 

Q:你还从与你交流的审核员那里了解到什么?

现在,审核员从互联网一线获得的许多集体智慧都丢失了。他们没有有效的反馈机制告诉雇主自己看到了什么,比如当下的趋势或警示信号。跟我聊过的一些审核员可能是美国国务院以外最早了解某些冲突地区的人,却无从上报这部分信息。

企业还可以向这些员工收集关于如何改善网络规则、如何更好地服务公众的商业创意。不过,因为审核员在组织结构的偏僻之处,而且通常在地理上亦然,与领导层的沟通渠道不存在或不畅通,他们会被视为执行当前规则的自动装置,而非有知识可以贡献给更广大生态系统的有价值的员工。我觉得这是企业真正错过的机会。

 

托马斯·斯塔克波尔(Thomas Stackpole) | 访  

托马斯·斯塔克波尔是《哈佛商业评论》英文版高级编辑。

蒋荟蓉 | 译     孙燕 | 校     刘隽 | 编辑

原文见《哈佛商业评论》中文版2023年2月刊。

更多相关评论