技术、媒介是中性的吗?傻子都知道不是。不然也不会有网瘾和杨永信了。
反过来看,而互联网曾经承诺的“连接每一个人”的乌托邦,在当今现实里的大图景到底是什么样子?
社交媒体,在总体上,是否将把我们的世界变得更好呢?
这几年对互联网和智能手机全球性地改变人的行为的嘲讽或自嘲也不少见了。
前不久又爆出脸书向剑桥分析泄露5000万用户而被用来操控选举的新闻。
上个月中下有哥本哈根纪录片电影节,偶然去看了这部 《清理者》The Cleaners。
片中播放了去年年末美国法庭关于 俄罗斯和2016年大选 Russia and 2016 Election Investigations 的调查。法官质疑,这三大公司的内容环境受到国际政治力量的左右,影响选民,以及被用来组织、散播、宣扬非人道的行动。唯唯诺诺中互联网公司的法律负责人(我不确定这里使用的名词是准确的)说到了自己外包了大量的员工来审核内容的事实。而脸书透露出,他们雇佣的审查者居然有数千人之众,而且未来还会继续增加人数。
——这些被雇佣的网管就是本片的主角,他们内部自称为“内容仲裁者”content moderator,所谓的“清理者”。这是一个驻扎在菲律宾马尼拉的公司,而他们的职业对于外界是一个秘密。
影片开始的时候,镜头在一间典型的现代白领办公室里,关着灯,只有一个人操作着一台亮着的电脑,并只能看到这个人面部的局部。背景音不断回放着,“删除”delete/“无视”ignore/“删除”delete/“无视”ignore……随后镜头跟随同一个主角描述ta夜晚上班的场景,穿过熙攘、喧闹、混杂的马尼拉的城市街道、高架桥,进入一栋漂亮的办公楼。在喧闹拥挤的亚洲城市里,做一项秘密却关乎数十亿人口的工作。这就是他们的工作内容,而操作看起来如此的简单,就是审核每天从全世界上传的上百亿的照片、图片,然后决定是要保留还是删除。
脸书内部关于上传信息内容规定的条例相当复杂,关于对暴力、色情的内容判定是否删除的规定,有一百多条。然而在去年被卫报曝出来以前鲜有人知。被采访者包括Google的负责人、工程师,面对镜头,检讨公司创始人们对中性技术的美好设想并没有尽到相关的责任;而另一方面也列出了关于支持自由者的质疑,包括一些内容被删的艺术家、摄影师。
“这些规定也让自由言论倡导者担忧。他们认为,Facebook可能已经成为了世界上最大的审查员,该事实敲响了言论自由的警钟。”
脸书提供的强大平台,涉及了一系列冲突明显的社会问题,包括美国内部的种族,西欧对移民的态度——到底是发泄不满,还是有组织的政治立场,这两者界限模糊。以ISIS为例的恐怖组织也在借脸书宣扬自己的。片中截取的片段。蛋最让我看不下去的是缅甸迫害罗兴亚人,一个母亲对着镜头哭诉自己的家庭怎样被迫害。——这种原本平缓融洽的文化混杂,被西方殖民者弄得互相仇视的例子早就不新鲜了。
传播能力的扩大,既然足够提供人与人的连接,也可以能让人与人更加分裂。爱是可以被传播的,那么仇恨也可以;敌意、仇视、偏见,技术本身不会过滤任何人人心里的东西。
回到清理者们,这项工作是否看起来十分简单?
然而,到目前为止机器/ AI还没有能力处理人类复杂的认知和表达。光是言论,根据不同的语境,是发泄情感还是表达真实意图都难以判断;再加上图像、视频中更加复杂微妙的视觉语言,机器对此无能为力。而这些内容仲裁者也有很大的负担:他们的神经每天要处理25000项图片或视频,而对每一张图片最多只有8秒钟做判断。这对大脑是巨大的负荷。
更糟糕的是,他们要经手的材料大多都是令人不适甚至不安的内容:色情、虐待、战争、恐怖组织的非人道行为——尽管在正式工作之前已经被训练去应对这些内容,但仍对他们的日常生活也造成困扰,也包括道德上的处境。
开头的场景展示了他们的两难处境,深处闹市,却做着全世界的网管,而工作内容也不能让身边的人知道——他们需要一个让自己心安理得的身份,当然也需要这份得体的薪水;他们不得不相信自己确实是在有尊严地维护秩序。很多人也因为上面这些原因放弃了这份工作。
技术到底带来了什么呢?纪录片的好处是,导演呈现给你的是各方视角和立场。这个问题暂且还不会有结论。
它是给我们所有人的问题。
片头片尾,截了两段扎克伯格对公众的演讲;看他如何表情坚定、豪迈地谈论脸书如何能够成就新的未来。
然后片尾字幕亮起,意味深长,留下片场一片唏嘘。
“太可怕了。太可怕了。”
我跟波兰的好朋友聊起感受,感觉出来的大概是对全球网络的这种无序状态和其无解的担忧。——就他所言,人们还是倾向于相信,世界是需要秩序的;但由谁来引导呢?现在的声音越来越多、越来越庞杂,到最后就是谁也不服谁。朋友说,这里为什么美国人会雇佣菲律宾人就很玩味了——菲律宾是个天主教国家,在价值观上跟西方基督教世界更相通。
技术悄然滋生的权力绕过了所有人的眼睛,但信息审查是真实存在的。(你看,我们的互联网环境在世界上也没有那么特殊嘛)
过去的“信息集权”提供了同一套世界的框架;哪怕你要质疑某个事实,要叫骂对着的也是同一个屏幕。而今天每个人都在自己的屏幕里接受现实,在传送到自己眼前的信息流里,营造自己世界的小泡泡——而且老一辈还带着上个时代的惯性:“那么多人都看了的信息,能不是真的吗?”。但外面还有个过滤的大泡泡呢。
信息是种权力无疑;我想对于很多人,这部片的隐喻是,我们以为今天的时代走向的是美丽新世界,其实背后并行着一个一九八四。——反正我对这种自由斗士的论调保持怀疑;有时不免有点“见到短袖子就想到裸体”的意思。
尼尔·波茨曼早在60年代就在《娱乐至死》里说过的话,到今天仍然适用:从有广播、新闻报纸、电视开始,这个世界的行动跟信息比率越来越小了,我们关注的大多跟自己眼前的事实、跟自己的生活无关。大多数事情不需要关注。而这个世界本身运行机制的复杂程度,远远超出一般普通人所能理解;这种理解也许是不必要的。 我们自己,是在为这个世界带来了更多的噪声,还是更多的秩序、平和呢?这个问题,互联网不会回答我们,技术也永远不会回答我们。
靠点击就能得来的东西并不真的属于我们自己。
这个世界会好的。不是因为技术,而是因为我们在把自己变好。
“Delete”“Ignore”......在反复不断的“删除”或是“忽略”的声音中,导演Hans Block和Moritz将我们代入了第三世界的网络审查员的视角。
社交媒体自诞生至今十五年以来,已经演化成为一件强大而危险的工具,在美国政选中,可以成为左右民主选举的强大异能,也能变成不知不觉改变民众思想的政治力量,比如俄罗斯通过操作社交媒体影响美国政选、英国脱欧民众受到媒体影响等事件曝光后,引起世界的一片哗然。
而这部纪录片作为尖锐的提醒:“我们可能会失去民主,因为我们愿意放弃。”但究竟谁有资格成为社交媒体的嘴巴,谁有权利决定信息流的审核?
《清道夫》通过选择拍摄观点对立的双方,来揭露互联网审查的矛盾。科技公司在第三世界菲律宾存在大量审核内容的审查员,而处于对外宣称外包公司的灰色地带,审查员们面对大量的暴力、色情内容时,一位匿名审查员这么说道:“感觉体内有种病毒在慢慢入侵我的大脑,然后我辞职,我需要停下,这工作有问题。”
科技公司需要有道德责任,于是建立起人工筛选过滤制度,而给审查员心理遭受的极度不健康影响并没有得到重视,而酿成了员工自杀的惨剧。作为第三世界的外包公司中的员工,他们像是一道道黑暗的闸门,阻止着社交媒体上仇恨的传播。其中就不乏极端组织的残忍处决、难民问题造成的儿童死亡、战乱现场......这些触目惊心的场景成为审核员的日常工作。
影片聚焦在这些审查员和不同立场的对象身上,通过采访的对白,一句句戳进互联网监管的内核,而导演的高明之处在于展现矛盾对立对象的平行对话,站在不同的视角,有着不同的利益和立场的人,是怎么思考和回应网络监管的问题:艺术家有自己强烈表达的欲望、科技公司屈于利益关系选择政治干预、第三世界审查员们局限的文化教育背景......
可就像这个不可调和的世界一样,纪录片无法改变只能作出回答:人性本身具有复杂的双面性,网络不过是放大它。而我们再怎么“Delete”或“Ignore”,也无法删除或忽视掉作为人类,我们不愿意面对的一面。
这部纪录片采用三个视角贯穿全片来进行对比分析,是比较全面且多角度的——一个角度是该片的“主角”,即网络审查员;另一个角度则是针对于裸体与艺术、恐怖主义与人道主义等等一系列网络审查员面临的伦理问题,跟网络审查员意见相左的一些群体,他们处于不同的立场,共同构成了这一视角;第三个角度则起到了一种推动情节发展的作用,或者说不算一种角度,因为这一视角并没有什么立场,只是从美国几大科技公司的听证会上,我们能从回答中看到科技在如今的网络环境中扮演的角色,同时反复插播科技公司的听证会画面与网络审查员面临强大的精神压力形成对比,暗示了这种外包制度的不合理和科技公司的不负责任。 在人物的选择上,我们看到影片着墨最多的是几个审查员,他们有的出身拾荒者家庭、有的需要照顾自己刚出生不久的孩子、有的带着预防者的高度责任感却最终走向辞职,这几个审查员的形象主要是靠自白和工作画面得以完整展现的。在处理一段段的影片时,他们往往会给出处理的根据,但是这个根据并不是绝对标准,也因此与另外一群人产生了观点对立。一段影片,两种观点,代表着对立方的人物由此出场,他们可能是艺术家、摄影师、记者或者是普通的公民。出于对自由表达的追求、对人道主义的关怀、对真相的执着、或者仅仅是对当政者的反对之声,这些人都指出,自己要表达的内容被删除是不应该的,他们指出网络审查制度的不合理之处,也让我们思考网络审查员的标准是否有些过于主观。这些反对者的设置其实丰富了作品的视角,赋予了本片辩证性和批判性思考的空间。这些诉求不同,却都因审查制度而受到影响的人们,恰恰丰满了本片的人物塑造,从反面提出网络审查员们面临的矛盾和挣扎。
像fb这样的垄断型大企业,你说他搞审查是完全出于对使用者身心健康着想,才偷偷摸摸在第三世界国家录用这么一大批低学历打工者负责审核,我是完全不信的,这里不可能没有经济利益和政治立场的考量。
毕竟我在推特和脸书看到的关于中国的很多视频,有些比较血腥暴力色情的,他是没有删除的,你能说他们一点政治立场都不站吗?如果在脸书,一个内地的和台湾的骂起来了,内地的被举报会被封号,台湾的毛事没有,你说这里面没立场吗?我踏马是完全不信的。
抛开政治不谈,只看有没有权利审核。我觉得权力这个事,和脸书等媒体的垄断地位是分不开的,他的规模太庞大了,全世界都在使用,除非你不用。他当然没有资格审查,没有资格替别人的大脑做决定该怎么思考,但是一个垄断性大型私企,不是普通使用者能控制的,那就变成他怎么说怎么有理,你没办法。
脸书这类大型垄断媒体自认为可以审核使用者,但是,谁又来监管他们呢?谁在为他们站台,他们背后有没有被谁操纵?我们都不知道!!!!
“很多我看过的照片,我都不记得了。”
镜头里呈现出的是一张倒映在玻璃上的脸,而真实的脸却是模糊的、侧视的。因为他在逃避,他在说谎,他无法正视镜头,他不会真的忘记。就像说完这句话之后,他说起了上次直播上吊的男子,还对当时观看直播的观众评论记得清清楚楚。
很难想象在长时间进行这样的工作后,他们会如何看待这个世界?麻木,冷静,PTSD,绝望自杀,或者是像影片中那样,选择继续工作,把它当成一种责任。而在强人工智能时代到来之前,至少还有很长一段时间,网络世界和我们都少不了他们。
冲着这部片子瞄准的主体,我就想给五星。希望能让更多的人知道,Moderator/网络审查员的工作不像大家戏谑“鉴黄师”那样轻松;网络所释放的欢愉和轻松,也只是他们过滤后的简化了的世界。
原作者 全媒派 2018-10-24 仅供学习交流
信息“擦洗工”、事实核查员……那些卡在人工与智能夹缝的新兴传媒人 qq.com
9月,加州女子Selena Scola一纸诉状把Facebook告上了法庭——因为看了过多暴力、血腥和色情图片,她患上了PTSD(创伤后应激障碍)。Selena是Facebook合作的第三方Pro Unlimited的内容审核员,负责删除Facebook上“剧毒、不安全、有害的内容”,包括色情、暴力、仇恨言论等。
对于PTSD,维基百科的解释是“指人在经历过性侵犯、战争、交通事故等创伤事件后产生的精神疾病”,常见于遭受重大打击后导致的精神创伤。然而,在互联网时代,没有性侵,也没有战争和交通事故,因视听感官长时间遭受刺激产生的伤害,不亚于物理刺激造成的精神损害。
新技术带来了繁荣的互联网产业,随之也诞生了新工种,内容审查员是其中的代表之一,除此外,还有事实核查员、论坛版主、合作伙伴经理等,他们的生存与困境成为了网络时代的缩影。
内容审查员与PTSD:隐匿的信息“擦洗工”,无处安放的焦躁
社交网络上,一头是梦想家用技术缔造的开放盛世——用网络建设一个连接世界的地球村,另一头的人躲在盛世的影子里,把好最后一道关卡——鉴定并删除变态的视频,这一点,人力比机器做得好多了,至少在当下是如此。
或者更早以前的论坛时代,版主们也担任着这个角色,但他们的规模和工作量远不如社交网络时代。据报道,仅Facebook一家,内容审查员的数量就达到了7500人。这些人甚至不是Facebook的员工,只是被第三方雇佣来的廉价劳动力。
2014年,《连线》杂志发表了一篇调查报道《社交网站上不为人知的隐匿职业:信息“擦洗工”》。担任“擦洗工”的廉价劳动力多分布在东南亚,他们可以拿着“美国水平”的工资,代价是“直面人性的恶”。
YouTube在美国本土雇佣的审查员要求更高,需要对东南亚员工审核过的视频进行二次过滤,公司许以YouTube的工作场所、办公福利等条件,甚至承诺转正机会,Facebook条件也是如此。
事实上,这些审查项目几乎是秘密进行,科技公司和外包员工、第三方签订保密协议,不允许他们向外透露任何审查细节,Facebook把这个秘密项目起名为honeybadger(蜜獾)。在此次起诉事件中,Selena暂时无法提供更多工作细节,她担心一旦违反保密协定,会遭到报复。
纪录片《信息擦洗工》海报(2018.5)
在Selena的起诉声明中,她提到Facebook和第三方公司都不曾提供心理干预以保证审查员的精神健康。但即便提供了心理医生,内容审查员也不知道如何开口讲述自己的经历。据《连线》杂志报道,YouTube审查员Rob说,YouTube给擦洗工们雇了心理咨询师,理论上谁都可以和他们谈心,但Rob不知道如何接近他们。据他所知,也没有谁去找过咨询师。所以他只能靠自我调节——喝酒喝得越来越多,身材也越来越胖。
而创伤之后,审查员们可能产生一辈子的心理阴影。Selena的起诉文件里写道:“她的PTSD症状可能会因为碰到鼠标发作,也可能是因为走进了一栋冷冰冰的大厦、在电视上看到一段暴力视频、听到吵闹的声音,又或者,是因为受到一点惊吓。”
如果要真正解决审查员们的心理问题,或许还是应该回归技术,比如提高人工智能的识别能力和审查效率。但目前看来,开放的网络世界背后,还有如此多阴暗和不堪,扎克伯格与科技巨头们在人工智能审查上所做的努力还远远不够。
Reddit版主:用爱发电,无薪且糟心的职位
Reddit,一家月活达到3亿的神奇网站。界面设计极其Old School,但因为许多细分、有趣的小组吸引了一个又一个小圈层爱好者。
相比于Facebook内容审查员的隐秘身份,Reddit版主似乎更为人熟知一些,他们有自己的账号,有删帖和禁言的权利,小组用户可以直接和版主沟通。不同的是,在Reddit上当版主没有薪水,全靠志愿者们用爱发电,他们也一样要遭受种族主义、性别歧视、水贴刷屏等垃圾内容的精神侵害,甚至是被用户直接攻击。
全媒派在《 不抬杠是不可能的!有人用五年筛出了60万优质杠精 qq.com》提到一个小组changemyview,该小组为了建立一个理性讨论的优质社区,启用了22个志愿者作为版主,24小时巡视新鲜发帖,如有不当,则会沟通或删除。
其它小组的版主工作模式也是如此,但生存条件可能更艰难一些,至少,版主人数达不到22个之多。而被审核的小组用户们可没有那么开心,极端的人,给版主们发去一条又一条的辱骂和威胁信息。
在Engaget和 Point发起的联合报道中,他们找到了10个Reddit版主。版主们管理着大大小小的小组,最大的达1600多万订阅者。但无论小组大小,他们的困境都是相似的,被辱骂、攻击、人肉、诅咒甚至死亡威胁,而Reddit官方,一次又一次忽略了版主们提交的被攻击报告。
版主Emily管理着“伦敦”小组和“新闻”小组,为了避免极端报复,她从来不暴露自己的性别,以免有人威胁“强奸她”。还有一些攻击和威胁,描述得具象又恐怖,让人光看文字就会起一身鸡皮疙瘩。
牛津大学实验心理学副教授Lucy Bowes认为,长时间的版主工作必然导致抑郁症、PTSD和焦虑症等精神疾病,工作时间越长,患病危险越高。
对于Reddit这样的社区来说,技术监管和人力监管不到位,内容过于野生是一大原因。但与此同时,注册机制过于松散,导致恶意账号删不尽,喷子们随便用一个邮箱又可以注册回归。即便是禁言72小时,用户被解禁后还是会继续攻击。
而Lucy认为,对于Reddit这样体量的公司而言,要解决版主们的问题,应该从公司自身入手,比如对新版主进行培训,加强汇报反应机制的建设,或是截屏留取证据,以确保未来起诉。另一方面,对于这些志愿者,Reddit也应该随时关注他们的心理健康,及时进行干预和治疗。
尽管体量大,提供咨询的话会增加不少成本,但对于一个依靠一个个小组支撑起来的庞大社区而言,这些愿意资源维持社区秩序的人才是Reddit的财富。
事实核查员:真相的代价
在巴西,一份299页的文件在WhatsApp的右翼群里疯转,里面有40名事实核查员的社交媒体详细资料。巴西网友视奸他们所有人的账号:看,这是他2011年发的贴,他就是一个左派分子。
这一切,只是源自于事实核查组织Agência Lupa和Aos Fatos在今年5月宣布的计划:与Facebook合作,做好今年10月的总统大选辟谣工作。事实核查员们将手动辨别信息流中的假新闻,并打上“Fake”标识,将假消息的影响力降低80%。
但打击也由此开始。
先是大V和右翼媒体发文指责,事实核查员的工作是做“信息审查”,后又有人画了幅漫画,把事实核查员画成了投资人乔治·索罗斯的宠物,在WhatsApp门口巡视。
接下来是死亡威胁。有人给Lupa的总监Tardáguila发信息“你看不到巴西的下一任总统”、“我们会挨个来收拾你”……
这并非孤例。事实上,同Facebook合作的34个事实核查组织都受到了网络谩骂、人肉等威胁,这对他们的工作造成了很大困难,尤其在媒体信任度本就不高的国家。
事实核查的进展并没有那么顺利,一是利益相关方和一些网民在疯狂打击,二是在Facebook方面,他们并没有对这34个事实核查项目投入足够的资源,甚至在态度上都不够强硬和坚定。
在巴西,Facebook从未就此次事实核查项目召开新闻发布会,反复要求的热线和邮件也迟迟没有开通,唯一有的,只是在今年5月发布了两条博文,一是承认网络暴力确有其事并谴责有关行为,二是宣布和巴西、墨西哥和哥伦比亚的事实核查项目的合作。
在Tardáguila看来,Facebook需要明白,这是他们的项目,公司必须要发声,“我们努力了三年,没有任何改变,这些改变必须由Facebook来承担”。为此,她也提出了一些切实可行的合作条例:
关于需要被核查的内容,平台需要更好地翻译相关通知。
Facebook方开通热线或邮件地址,用户和媒体可以询问事实核查项目的相关问题。
在每个国家建立和事实核查员的主要沟通渠道。
对Facebook的事实检查项目运作流程进行可视化,翻译至现有的合作国家。
定期与事实核查合作伙伴开会,了解项目进展情况。
合作伙伴经理:与170个编辑室共同产出
ProPublica在2016年推出了有史以来规模最大的新闻众包项目Electionland 2016,和全国大小媒体合作,以任务分派的形式合作完成大选报道。报道覆盖范围广,参与媒体多,资源利用率高。随后,ProPublica试着开了新的项目,也由此诞生了一个新的职位。
新项目名为Documenting Hate,一个追踪和报道仇恨犯罪和偏见事件的调查项目。新的职业则是合作伙伴经理(partner manager),目前由记者Rachel Glickhouse担任。她像一个统筹者,同时担任记者、编辑、研究员、社交媒体制片人、招聘、培训和项目经理。
Documenting Hate官方网站
通过合作伙伴经理的努力,Documenting Hate项目和150家国家/本地媒体,以及20家高校媒体建立起合作关系。项目的关键在于资源共享和合作报道,ProPublica搜集到的仇恨事件案例和数据都被统一上传到官方数据库保管,并向加入的媒体开放使用,比如公众提供的线索和故事、警方的案卷信息,真正实现了资源上的共享和合作。
与此同时,合作伙伴经理也会担任起“空中管制调解员”的作用,确保不同记者不会在一个事件上耗费精力,或是针对不同当事人,指派合适的记者跟进。
虽然类似Documenting Hate这样的新闻众包项目有利于报道资源的合理分配,但合作伙伴经理也面临着不小的挑战。加入项目的记者可能无法彼此合作,也可能有等级倾轧,又或者,记者们对项目的热情有一定的周期性,有的可能无法长期为这个项目效力,而在一些特殊时期,参与者会少得可怜。
尽管如此,在Rachel看来,众包模式依然会是未来新闻的发展方向之一,在编辑室的时间和资金都非常稀缺的时代,有一个中心化的项目聚合资源并进行再分配,自然能极大程度上缓解编辑室所面临的尴尬。
互联网浪潮下诞生的新职位固然有其局限性和困境,但菲律宾事实核查项目Vera Files的联合创始人Chua认为,类似于事实核查员遭遇网络暴力的事件,Facebook固然有保护事实核查员的责任,但如果Facebook无法保护他们,那记者必须自我保护,“新闻业有风险,事实核查同样如此。”身为大时代下的小个体,我们能做的,不过是催促科技公司解决眼下的问题,让个人迅速跟上这滚滚向前的历史车轮。
【参考资料】
FB内容审查员患PTSD
//www.businessinsider.com/content-moderator-sues-facebook-ptsd-2018-9
社交网站上不为人知的隐匿职业:信息“擦洗工”-钛媒体官方网站 tmtpost.com
//www.theguardian.com/technology/2017/jan/11/microsoft-employees-child-abuse-lawsuit-ptsd
真相的代价:事实核查员遭到的威胁与攻击
//www.poynter.org/news/these-fact-checkers-were-attacked-online-after-partnering-facebook
Reddit讨论区审核管理员遭仇恨言论攻击
//www.engadget.com/2018/08/31/reddit-moderators-speak-out/
新闻业的最新职位 - 合作伙伴经理 -如何在ProPublica的新闻编辑室工作
一部上影节北影节选片首轮一定被毙的纪录片出现在即将被迫全面退票转为免费包场的西宁,来自一个全球最大的被清理者组成的国度。
这群为了网络的健康与和谐默默付出的人们,难以想象他们每天要面对多少充满血腥、暴力、色情以及政治恐怖的镜头。他们目睹过自杀,目睹过砍头,目睹过性侵,出现一点小小的纰漏都可能会造成死伤甚至战争,他们在不为人知的地方守护着世界的和平
不涉及处在局域网的我们,主要介绍采访不存在的欧美几大上传类社交网站的图片视频的人工审查员,他们居然都是在菲律宾的当地人,每天面对两万多件的色情暴力政治战争等敏感信息。梦到大量不同男人生殖器的女基督徒,还有的看过上百段斩首的影像,在自残部门调离不成而自杀的员工,叙利亚老百姓拍摄的那些和isis的如何处理,开放网络后只识脸书的缅甸人被假消息散播利用挑起的大屠杀,最后现身的扎克伯格发布会好像把矛头直指大公司在建立自由之地的同时今后要怎么走向,穿插在美国被诉讼而改变准则的几次事件,对了解那些人背后的操作程序和世界阴暗面有不少直观的感受,联想在高墙之内被保护的这片土地更加唏嘘。
脸书YouTube推特上,内容合法不合法,是让一群外包的菲律宾人来审查。难怪影片中,故意让审查员看两张照片,一张是获普利策奖的越战照片《火从天降》,因为小女孩全身赤裸,被删;另一张,伊战美军虐囚事件,审查员看成了ISIS士兵在虐美军俘虏,被删。
一部片顶十季《黑镜》,而且与当下联系更紧密,讨论的核心仍处在on-going状态,没有人知道之后会发生什么改变。手法无甚高明,但贵在争议的提出和创作者的态度,毕竟很多难题并不可能也并不应当由这部纪录片来回答。
設計的場面和台詞過多,集中於弘大命題而遠離了作為網絡審查者的“人”。始終陷在一種美感過度的不適中。講演現場等視頻的活用很好。“被審查”的部分影像,那些自殺情色宗教與恐怖暴力,除了展示,真的沒有更好的方式了嗎?對影像資料的處理和使用,需要倫理上的再思考。JIFF0507M9
当影像创作紧紧地与道德与立场捆绑,纪录片本身也跳脱开单纯的新闻属性,质问甚至鞭挞所有人习以为常的伦理框架。从网络清道夫,到社交媒体时代的仇恨传播,一块荧幕前后是监控的过犹不及,和话语的无孔不入。信息量大,有些话题点到即止,拍的精细完整,但再做扩充也无妨。
“Delete, delete... Ignore, ignore”,以网络世界不为人注意的审查过滤工作展开,用Google和FB做引子,到最后拉开成了对极右思潮的兴起、政治讽刺的界限还有中东和罗兴亚人的全面涉及,88分钟里满满的信息量和各种立场。勾勒了网络世界近年来除去深网、色情交易和信息安全之外最严峻的现状。无法想象各位清道夫需要在工作中承受多少压力与伤害,才能换得一份维持温饱的工作;女孩穿行于垃圾堆的画面映照,十分加分。
看到扎克伯格意气风发的脸,就像是这个世界真正的领导者一样。可怕的是竟然还有人把自己和国家的人民与希特勒和被屠杀的犹太人类比,渺小无力的我们只能对着社交媒体冒泡。
常在河边走哪能不湿鞋
① 网络审查的存在是必要的,如同现实生活中的质检、保洁和垃圾分类等工种;但对「垃圾」、「有害」的标准界定是模糊的;② 人与人之间的道德标准、族群与族群之间的习俗观念、国与国之间的法律政策都是存在差异,而遍及全球的社交网络平台必然无法普适所有地区人民;③ 平台工具的中立属性,与吸引点击的传播逻辑,形成天然矛盾;④ 国家和联合国都难以解决的矛盾争端,居然需要距离事发千里之外、月入几千元的审查员做出判断,真心无奈。
索爾仁尼琴說過“每個人有不知情的權利”,但是人又卻是好奇和獵奇。前幾年Dark Net第一季的其中一集就對網絡審查員有過展現。感覺這部紀錄片是擴展版,而且選取的事例頗具典型性。我依然覺得對於互聯網(尤其是移動互聯網)要採取謹慎甚至消極的態度。整個片最讓我印象深刻的是NGO組織對敘利亞內戰的社交網絡視頻爭分奪秒的保存。畢竟,很多視頻基於版權和審查已經無法被觀看,而本身又具備價值。其實,“知道太多”的審查員和違規視頻圖文資料庫同樣是個不穩定的危險因素。難道就不怕造反嗎?
清道夫不是人干的活。每天看各种黄色暴力血腥视频,有害身心。审查员有自杀的,也有宁愿回去捡垃圾,也不再看那些网络垃圾。
引人深思。同样的内容在不同的语境下是不一样的,讽刺或者谴责是不是就可以?(实际工作中真的就遇到这样的情况啊)提供一个“干净”的环境是不是就不利于理性批判呢?非常不爽的是,这样一个“国际纪录片节”竟然放个样片给我看,中间字幕还因为剪辑版而字幕对应不上。
看!这盛世,时代之恶,我在这儿先糊你脸上为敬。
审查;还以为是日本人做的,原来是德国人;色情delete,战争暴行(宣传恐怖delete,反战ignore)但作为网络守望者的这部分菲律宾人不可能了解那个背景不好判断,忽略的害处:罗兴亚人的迫害,稀疏的言论自由:人里面不成熟、容易受恶影响的还是不少的,审查是一种偷懒的方式,人类就不用自己费劲去判断了,政治言论:油管的仅对该国ip屏蔽,也算厚道,那为啥我们不行?(大概扶植本国经济吧,也能偷懒,毕竟自己人好管);审查员自己的影响,每天看这些势必有影响(发条橙);网络使全球人心的共通,对于审查员更明显;言论自由观点(我的):事物都有丑恶一面,如果你没看到,说明你还不了解它;人总是需要假象的敌人(鄙视对象),外国移民、CXK。
发人深思的优秀纪录片,不能忽视的人群——网路清道夫
特别严肃、深沉、拓展视野和引人熟思的一部纪录片。新网络时代社交媒体在左右我们的思维动向,可怕的是它利用我们的潜意识,就在我们毫无意识之间替我们决定了一切。而被牺牲的网络审查员,真的新时代最悲伤职业。
很有意思的视角,第三世界廉价审查员,被剥削的不只是重复性劳动,还被迫承受了最为骇人听闻的精神暴力。后半部分上升到社交媒体就比较泛泛而谈了,无非是民主和民粹的讨论,作者立场也过于明显。这部电影本质还是猎奇,但也只有冲击力和未知能引发思考。
你好,你发表的关于《The Cleaners》的短评,因为含有违反相关法律法规或管理规定的内容,已被移除。感谢你的理解与支持。——豆瓣电影