互联网最脏的活却有几十万人在做

责任编辑。陈微竹0371 2019-09-06 17:26:59浏览次数:5982  

编者按:本文来自微信大众号“运营研讨社”(ID:U_quan),作者,36氪经授权发布。

“20 多年来,互联网以革命者的名义改变了咱们许多的东西。可是一同在某种意义上,它也露出了它的别的一面。

比方说它独占的一面、回绝敞开的一面、攫取赢利的一面。所以你看互联网长得并不像天使,它一半像天使、一半像魔鬼。”

在 2017 年创变者年会上,吴晓波宣布了关于“改变”的主题讲演,他称互联网既像天使、又像魔鬼。

确实,互联网给咱们带来了意想不到的便当,足不出户取得新闻资讯,翻开 App 就能享遭到线下服务。个人的观念、心情,弱者的发声、表达都能够在互联网渠道上传递。

但是,色情、暴力、极点安排言辞也在互联网上有了出口,并加快了传达,网络监管的压力也在逐步变大。

所以,一个新的集体诞生了,他们从事着互联网上“最脏的活”。

01网络清道夫

Facebook 开始的抱负是让这个国际变成一个一致的社区,打造一个“全球性社区,让任何人都能够共享任何东西”。

多年来,扎克伯格坚持以为,Facebook 已然仅仅个衔接国际的渠道,本质上是家科技公司,就不应对在这个渠道上发布的内容担任。

近两年,Facebook 也由于这一理念带来的结果饱尝争议,乃至被告上法庭。

在 2017 年 12 月,Facebook、Google、Twitter 都对外声称,现已引进了现实核对,加大力度研制算法,一同延聘更多的专业人士参加。

但实践上,算法和专家背面,还有许多普通人在对抗着国际的阴暗面。

1)鉴黄师

上一年,导演 Hans Block 和 Moritz Riesewieck 拍了一部纪录片《The Cleaners》揭开了人工审阅的遮羞布。

纪录片以菲律宾的首都马尼拉为布景,在马尼拉市中心高级的写字楼隔间里,显示屏上打出明晃晃的亮光,投射在内容审阅员丹尼斯的脸上,各种生殖器的相片她现已见怪不怪了。

她要先学习英语里各种有关下半身的脏话、俚语,然后要对男女的人体结构研讨透彻,对人类许多的反常嗜好吃个通透。

下了班,还得去趟成人用品店,了解了解最新上市的成人用品,了解千奇百怪的硅胶玩具,来决议渠道上的这些图片和视频,是删去,仍是保存。

在普通人眼里,这好像便是互联网的“鉴黄师”,上班时间看着平常都难以查找到的禁片,领着薪酬。

而实践上,大都内容审阅员由于看了太多的成人图片,现已严峻影响到自己正常的性生活。

而且,“鉴黄师”也仅仅内容审阅中较根底的一项。

2)儿童内容审阅

除了“色情”审阅外,审阅儿童相关内容的作业人员,需求承受更激烈的冲击。

他们每天都会看到那些对孩子施虐、色情的相片、视频,最小的孩子不过 5 岁。

在一些战乱区域的视频和图片里,总会有手无寸铁的孩子躺在地上,或许赤身裸体地奔驰。

查看员也不知道该挑选复原前史本相,仍是根据规则把这些过于暴露的图片的删去,一般来说,他们会挑选后者。

至于那些对孩子进行侵略的内容,没有作业人员乐意去看完,但审阅作业要求有必要完好阅读后给出评判。

当作业人员表明无法坚持看下去的时分,团队担任人会劝说这是你的作业,要坚持下去,而且奉告她签了合同。

这位姑娘在纪录片的最终,抛弃了这份作业,她宁可回到贫穷的老家,和爸爸妈妈一同捡废物。

3)暴力、恐惧安排

更苦楚的,是审阅极点恐惧主义内容查看员。

他们面对的是一段段从 Facebook 网络端传来的恐惧安排的处决视频。

那些杀人的视频,假如仅仅枪击,算是轻松的。但这类内容里,更多的杀人手法,是斩首。

“被害人跪在镜头前,行刑者蒙着脸,对着镜头宣读一通罪行。在愉快的民族音乐里,行刑者掏出刀,对监犯进行斩首。”

假如斩首时用的是大砍刀,那便是刀起头落。假如行刑者拿的是小匕首,斩首将是个绵长的进程。查看员现已能够经过创伤的平整度,判别坏人用了什么刑具。

审阅员说:这对每一个观看者来说,都是一种酷刑。

02谁在从事这份作业?

每一分钟,YouTube 有 500 小时的视频,Facebook 有 250 万条信息,Twitter 有 45 万则推文在上传。

在海洋般的信息流中,恐惧主义、虐杀、自残、色情、极点安排言辞、政治宣传夹杂在网友的猫咪和美食相片里边,谁来担任整理这些废物信息?

1)劳动密集型工业

据不完全统计,各大科技公司的内容审阅职工都来自第三国际国家或是不兴旺区域。其间,在菲律宾的外包内容查看员人数超过了 10 万人。

YouTube、Google 和 Facebook 等科技巨子都会树立两层审阅准则,一是经过人工智能和算法进行首层审阅,接着是经过树立在东南亚的外包公司来进行人工过滤。

作为一项巨大的劳动密集型工业,大大都人遭到保密协议的束缚,他们的作业直面互联网的漆黑旮旯:过滤暴力、色情、恐惧内容,他们被称为“网络清道夫”。

在成为查看员之前,这些人需求经过三到五天的上岗训练,训练的内容,例如记住 37 个恐惧安排——他们的旗号、制服、标语。

经过相似这样的训练,查看员上岗并化身成为品德天使,经过机械又辛劳的作业,使人们信任对社会的夸姣幻想。

在训练中,外包公司会奉告审阅员们会看到什么,需求用到什么东西,以及会发作什么结果。

不少审阅员会意生退意,这时分组长会对他们进行劝说,而且奉告他们现已签了保密协议。

保密协议中要求不能泄漏他们为谁而作业,假如违反了保密协议,他们就会失掉作业并面对 10000 美元的罚款,乃至牢狱之灾。

而且,Facebook 和 Google 并对外声称,他们没有在马尼拉的职工。现实上,马尼拉的审阅员的薪资也确实不来自 Facebook 或许 Google,而是外包的公司。

2)内容审阅员的独白

内容审阅员就像阻击手,方针是那些违反了应用程式规则的用户。

“我做了六年的内容查看员,每天有必要阅读 25000 张图片。”

在记录片中,被采访的查看员自述道,整理脏东西,是他们仅有的责任,保证没有任何可疑的内容上传在渠道上。

他们一同也会对这份作业发作自豪感:“假如咱们少作业一小时,那互联网就会一团糟。”

Facebook 在 2017 年的遭受也印证了这句话:一名泰国男人放出了他杀戮 11 个月大的女儿,然后自杀的视频。

这段视频引起了全国际的一片哗然,并在交际网络上保存了近 24 个小时,这让 Facebook 成为众矢之的。

所以,Facebook 的内容管理员也从 2017 年的 1 万人,增加到 2019 年的 3 万人。

张一鸣也在上一年提出强化总编辑责任制,不断强化人工运营和审阅,将现有 6000 人的运营审阅部队,扩大到 10000 人,天津好像也成了互联网“审阅之都”。

现在,新浪、头条、网易、陌陌、豆瓣、搜狐等都在天津建立了审阅专员职位,不少公司在济南和成都也有建立审阅中心。

在招聘网站中,网络信息审阅员这一职位的平均薪酬在 4-6 千元左右。

比较我国,纪录片中呈现的查看员时薪仅有 1 美金。

夸姣愿景的话术,实践低价的薪酬,一同还有心思问题的呈现。

由于外包公司们未配有相应的心思咨询师和审阅员们每天看许多的暴力色情内容,他们的心思健康极易遭到影响。

在查看员论坛上,还有更多耸人听闻的视频,包含优待妇女、儿童和动物。有人表明他们每看几个视频就得歇息一下才干缓过劲儿来。在铢积寸累的病态作业下,查看员们逐渐麻痹,丧失了对人类的决心。

人便是机器,机器便是人。

“当我脱离公司时,我现已三年没有握手了,由于我发现人们很讨厌。”

Bob 说,

“国际上大大都正常人都他妈的是怪人。当我脱离那里时,我对人道感到讨厌。我的许多同行也遭受相同的工作,咱们都以为人道太可怕了。”

在纪录片中,一位担任查看自我损伤的职工,在看过海量的自虐视频后,不堪重负,在一个晚上挑选完毕自己的生命。

03为什么离不开人工审阅?

回归到内容审阅自身,不少人都会质疑,为什么在技能如此兴旺的今天,还需求如此许多的人工审阅。

1)算法误判

今天头条在上一年 3 月份的时分出品了一个反低俗微信小程序“灵犬”,是国内首款反低俗信息小程序。

根据今天头条反低俗算法模型,用户只需输入文字(10 个字以上)或许图片就能够检测信息的健康程度,并给出定论此信息是否能够取得引荐。

比方输入“你饿不饿我下面给你吃”,输出的健康指数为 19% ,被鉴定为“这里有问题”。

文字信息对机器来说还相对简单,图片和视频在技能上会有更大难度。现在,“灵犬”小程序还不支撑检测视频。

比方我用艺术作品“断臂维纳斯”的图片检测,机器经过辨认图中人物的皮肤暴露面积,就会以为是色情低俗的;而某些拍照芭蕾舞的图片,以机器的视角来看,会相似于裙底偷拍。

Facebook 就从前由于“暴露”,误删了一张闻名的越战新闻相片,内容是一位小女子遭到汽油弹炸伤、浑身赤裸奔驰,工作发作后引起了美国新闻界的巨大争议。

2)内容难以界定

离不开人工的一个更重要原因是,触及政治的内容机器难以直接处理,此类内容一旦呈现问题将形成严峻影响,有必要交由人工进行审阅判别。

乃至许多时分,人工也不知道是该复原本相,仍是“净化”网络环境。

假如发作误删,也可能会引发霸凌,损伤一个或许更多的生命。

所以,在 AI 的背面仍是近万名审阅团队在辅佐审阅,去做算法无法做到的工作。

结语

在纪录片中,被采访的查看员冒着被罚款、牢狱之灾的风险提到:

“我为什么乐意承受采访,由于咱们想要人们知道,咱们的存在,有一群人在查看交际媒体,咱们正在尽最大努力,让咱们能安全运用这些交际渠道。”

写这篇文章的原因,也是想让咱们知道,在科技的背面,还有他们的存在。

假如说互联网的初衷是让这个国际没有信息的不平等,任何一个信息都能够无障碍地抵达全国际的任何地方。

那不可避免地存在极点宗教主义、恐惧安排、负面的声响。究竟人类的多样性在哪里,人类对自我寻求的抵触就会在哪里。

但至少,咱们应该对他们致上最深的谢意。

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!

精彩阅读

阅读排行