莎拉·卡茨(Sarah Katz)走出了Facebook总部大楼,她长舒了一口气:终于要离开这个鬼地方了。
这是卡茨在Facebook工作的第七个月。
第一天,她拿到了一份协议,声明她将看到很多令人不适的影像材料,但当真正坐在电脑前,她还是震惊了。
打开的第一张图片,是人与兽正在性交的裸露照片。
她几乎要吐出来了,下意识地挡住了电脑屏幕。左右望望,却发现:新来的同事们都涨红了脸,尽量挡住屏幕;老前辈们在一边同情地望着他们。
第二条,是一个视频,屏幕前,站着一对裸露着身体的男孩和女孩,屏幕后,有个成年人的声音说,要他们进行性接触……
这条视频直接把她推到了崩溃的边缘。
卡茨真的忍不住了,跑出了办公室。这个晚上,她做了有生以来最可怕的一个梦。
卡茨的工作,说好听点,叫“视频审核员content reviewer”,其实就是我们所说的“鉴黄师”。
当然,他们还有个更高大上的称呼,叫“spam analyst and content monitor”,垃圾邮件分析师和内容审核师。
莎拉·卡茨
她们的工作中,“鉴”的其实不只是“黄”,还有暴力、仇恨、恐怖主义、断头、虐待动物、儿童色情……尺度之大,画面之血腥,难以想象。
卡茨在这个岗位上已经呆了7个月了。这七个月里,她每天面对的,是超过8000条的帖子,每个帖子的判断时间需要小于10秒。
这意味着,她需要在10秒内搞清楚帖子的内容,判断出画面或文字中是否有包含色情、暴力等讯息,并做以处理。
如果你以为,卡茨的工作只是删删“黄帖”,那就大错特错了,如果没有他们,网络世界的发展可能会超出你的想象。
2017年3月,一名15岁美国少女遭多名男子性侵,这一情况被直播到Facebook上,40个人参与了观看,却没有一个人报警。
2017年4月,Facebook上出现了一场直播,一名泰国男子拍摄下自己杀害亲生女儿、随后并自杀的画面。
这个视频在Facebook上被挂出近24小时,播放量超过25万次,冲击了数万观众的眼球,由此也成为了Facebook的一场事故……
图中的孩子母亲,正抱着自己11月大的孩子痛哭
一只猫被扔进微波炉。
儿童士兵参与杀戮。
六个月大的孩子被强奸。
在战时被淹死的平民……
这些,仅仅是卡茨一天中八千分之一的工作内容。
上传者在炫耀“成就”,可卡茨看到的,却是真实发生过的惨案和罪行。
或许你会好奇,AI如此智能,还不能代替人力?
扎克伯格在用2017年招聘3000名审核师的做法回答你:机器毕竟是机器。没有关键字,视频和图片的甄别只能靠人工完成。
多数人在成为“鉴黄师”前,好奇心盖过了忐忑,甚至有人还暗藏私心,以为能够看到什么大尺度画面;而当真正见识到那些色情、暴力、虐待、谋杀、自残、仇恨的内容后,就只剩恶心了。
日复一日,变得麻木。
Google的一位前内容审核员说:一整天盯着刺激的画面,到最后,我的眼睛里除了条款,看不到别的;连手指也只是机械地按下删除键。
熟悉不意味着适应,太过刺激的画面所造成心里创伤,往往无法逆转。工作难长久是必然的结果。
所以来任职的,大多都是外包员工。而这些人,为了顺利地工作下去,也不得不用强烈的社会责任感来要求自己:“为了给用户一片视觉的净土,我不入地狱,谁入?”
这不是Facebook一家的问题,所有对用户自由开放的网站,如Twitter、YouTube等都有同样的困惑:这个职位必不可缺,但却难以找到愿意投身的人。
这些公司也并不是冷血动物,他们同样也注重这些员工的心理健康,Facebook配备了24小时心理咨询服务:
也会向他们提供所需:
可这仍然挡不住卡茨们工作之外还会时时想起的噩梦。
曾在YouTube任职的Rob说,“如果有人上传了虐待动物的影片,那通常就是那个人做的,而且他还会非常得意。”他在工作时看遍了街头斗殴、斩首、自杀炸弹的视频。
另一位来自Facebook的Laura在接受采访时说:有段时间她常常梦到一个被抓住的女孩正在大哭的样子,周围的人们都在拍视频……还有那些不断流血的、跳楼的场景,都在午夜梦回时,被重新唤醒…
就像Laura说的:这是最难的、最无人在意的工作;哪怕是最亲密的家人,也无法理解你的痛苦。
Laura在接受采访时,记者问她:如果扎克伯格坐在这里,你会对他说什么?
她沉默了一会儿,说:你怎么能够允许这样的事情发生呢?怎么能够忍心,让我们去看这样的东西呢?
到底为什么会允许这样的事情发生呢?小扎恐怕也只能以沉默作答。
卡茨们所经历的考验是:最可怕的是,你明知道这样的事情,发生在真实的人身上。
而最无能为力的是,你明知道这对他们是折磨,可这份工作却必须存在,必须有人来完成。
他们替我们吞下了这颗毒药,才保证了这世上更大的安宁。
留言与评论(共有 0 条评论) |