互联网,一个浩瀚且不断扩张的信息与连接领域,依赖于一支隐形的劳动力大军来维持秩序的表象。虽然技术进步经常被吹捧为解决在线混乱的方案,但现实情况是,人类内容审核员是抵御有害和非法内容的先锋。然而,这项至关重要的工作伴随着巨大的、且经常被忽视的人力成本。这些个体的操作条件直接影响着互联网监管的有效性,创造了一个悖论:那些负责维护在线空间的人本身却容易受到伤害。
用户生成内容的规模之大,例如在 Facebook、Twitter 和 YouTube 等平台上,需要大规模的审核工作。这支劳动力的具体情况往往被刻意掩盖,但它由全球成千上万的人组成。这些审核员负责执行复杂的社区准则,这项任务需要持续的警惕和快速的决策。这项工作不仅仅是识别明显的违规行为;它还涉及处理细微的情况,平衡言论自由与防止危害的需要,以及解释本身就存在争议的政策。Kozyreva (2023) 的一项研究强调了这种内在的紧张关系,强调了在这两个核心价值观之间解决内容审核困境的困难性。
施加于审核员的经济压力加剧了这些挑战。正如最近的报告所指出的那样,严格的绩效目标迫使个人在有限的时间内处理大量的的内容。这种无情的节奏几乎没有给深思熟虑留下空间,增加了出错的风险并导致倦怠。此外,内容本身的性质也令人深感不安。审核员经常接触到露骨的暴力、仇恨言论、儿童性虐待材料和其他形式的恐怖内容。Sarah T. Roberts 在她的著作《屏幕背后》中详细描述了这种接触所造成的深刻心理影响。来自 ABC 等组织的内部数据显示,审核员每周(有时甚至每天)遇到的有害内容的数量是多么的巨大。这种持续的负面内容轰炸会导致一系列心理健康问题,包括创伤后应激障碍、焦虑和抑郁。正如几份资料所强调的那样,缺乏足够的医疗保健福利和低工资进一步加剧了这个问题,使得审核员特别脆弱。心理影响不仅限于直接接触者;即使是志愿审核员也会因人际冲突、时间限制和不断涌入的在线有毒行为而经历倦怠,密歇根大学的一项研究就证明了这一点。
这些恶劣劳动条件的后果不仅仅限于审核员自身的福祉。越来越多的研究表明,审核员的福祉与互联网监管的质量之间存在直接的关联。当审核员过度劳累、压力过大且情绪低落时,他们做出准确和细致判断的能力就会受到损害。这既会导致误报——删除合法内容——也会导致漏报——未能识别和删除有害内容。一些平台内的激励结构,审核员因速度而不是准确性而受到奖励,甚至因标记难以分类的内容而受到惩罚,这进一步鼓励了仓促的决策。这种情形因以下事实而加剧:处理诸如仇恨言论等特别敏感内容的审核员,通常使用与处理较少挑战性材料的审核员相同的指标进行评估,这可能会增加他们的工作量和压力。此外,正如 Goldberg 在 Medium 文章中指出的那样,围绕内容审核实践缺乏透明度阻碍了问责制,并阻止了工作条件的有意义的改善。对算法的依赖虽然旨在提供帮助,但并非万能药。大型语言模型 (LLM) 的内容审核仍然面临准确性和合法性的挑战,需要人为监督。
归根结底,有效的互联网监管需要在内容审核方面进行根本性的转变。平台必须通过解决经济压力、提供足够的心理健康支持以及营造更可持续的工作环境来优先考虑审核员的福祉。这不仅仅是一个道德责任问题,而是一个战略要务。正如无数研究和报告所表明的那样,拥有健康和受支持的审核员队伍对于维护安全和值得信赖的在线环境至关重要。忽视内容审核的人力成本会破坏自由和开放互联网的基础,并让我们所有人都更容易受到潜伏在其数字深渊中的危害。这些个体的隐形劳动不仅仅是一种必要的恶,而是数字生态系统的一个关键组成部分,值得认可、尊重,而且,最重要的是,值得保护。
发表评论