这部纪录片采用三个视角贯穿全片来进行对比分析,是比较全面且多角度的——一个角度是该片的“主角”,即网络审查员;另一个角度则是针对于裸体与艺术、恐怖主义与人道主义等等一系列网络审查员面临的伦理问题,跟网络审查员意见相左的一些群体,他们处于不同的立场,共同构成了这一视角;第三个角度则起到了一种推动情节发展的作用,或者说不算一种角度,因为这一视角并没有什么立场,只是从美国几大科技公司的听证会上,我们能从回答中看到科技在如今的网络环境中扮演的角色,同时反复插播科技公司的听证会画面与网络审查员面临强大的精神压力形成对比,暗示了这种外包制度的不合理和科技公司的不负责任。 在人物的选择上,我们看到影片着墨最多的是几个审查员,他们有的出身拾荒者家庭、有的需要照顾自己刚出生不久的孩子、有的带着预防者的高度责任感却最终走向辞职,这几个审查员的形象主要是靠自白和工作画面得以完整展现的。在处理一段段的影片时,他们往往会给出处理的根据,但是这个根据并不是绝对标准,也因此与另外一群人产生了观点对立。一段影片,两种观点,代表着对立方的人物由此出场,他们可能是艺术家、摄影师、记者或者是普通的公民。出于对自由表达的追求、对人道主义的关怀、对真相的执着、或者仅仅是对当政者的反对之声,这些人都指出,自己要表达的内容被删除是不应该的,他们指出网络审查制度的不合理之处,也让我们思考网络审查员的标准是否有些过于主观。这些反对者的设置其实丰富了作品的视角,赋予了本片辩证性和批判性思考的空间。这些诉求不同,却都因审查制度而受到影响的人们,恰恰丰满了本片的人物塑造,从反面提出网络审查员们面临的矛盾和挣扎。
原作者 全媒派 2018-10-24 仅供学习交流
信息“擦洗工”、事实核查员……那些卡在人工与智能夹缝的新兴传媒人 qq.com
9月,加州女子Selena Scola一纸诉状把Facebook告上了法庭——因为看了过多暴力、血腥和色情图片,她患上了PTSD(创伤后应激障碍)。Selena是Facebook合作的第三方Pro Unlimited的内容审核员,负责删除Facebook上“剧毒、不安全、有害的内容”,包括色情、暴力、仇恨言论等。
对于PTSD,维基百科的解释是“指人在经历过性侵犯、战争、交通事故等创伤事件后产生的精神疾病”,常见于遭受重大打击后导致的精神创伤。然而,在互联网时代,没有性侵,也没有战争和交通事故,因视听感官长时间遭受刺激产生的伤害,不亚于物理刺激造成的精神损害。
新技术带来了繁荣的互联网产业,随之也诞生了新工种,内容审查员是其中的代表之一,除此外,还有事实核查员、论坛版主、合作伙伴经理等,他们的生存与困境成为了网络时代的缩影。
内容审查员与PTSD:隐匿的信息“擦洗工”,无处安放的焦躁
社交网络上,一头是梦想家用技术缔造的开放盛世——用网络建设一个连接世界的地球村,另一头的人躲在盛世的影子里,把好最后一道关卡——鉴定并删除变态的视频,这一点,人力比机器做得好多了,至少在当下是如此。
或者更早以前的论坛时代,版主们也担任着这个角色,但他们的规模和工作量远不如社交网络时代。据报道,仅Facebook一家,内容审查员的数量就达到了7500人。这些人甚至不是Facebook的员工,只是被第三方雇佣来的廉价劳动力。
2014年,《连线》杂志发表了一篇调查报道《社交网站上不为人知的隐匿职业:信息“擦洗工”》。担任“擦洗工”的廉价劳动力多分布在东南亚,他们可以拿着“美国水平”的工资,代价是“直面人性的恶”。
YouTube在美国本土雇佣的审查员要求更高,需要对东南亚员工审核过的视频进行二次过滤,公司许以YouTube的工作场所、办公福利等条件,甚至承诺转正机会,Facebook条件也是如此。
事实上,这些审查项目几乎是秘密进行,科技公司和外包员工、第三方签订保密协议,不允许他们向外透露任何审查细节,Facebook把这个秘密项目起名为honeybadger(蜜獾)。在此次起诉事件中,Selena暂时无法提供更多工作细节,她担心一旦违反保密协定,会遭到报复。
纪录片《信息擦洗工》海报(2018.5)
在Selena的起诉声明中,她提到Facebook和第三方公司都不曾提供心理干预以保证审查员的精神健康。但即便提供了心理医生,内容审查员也不知道如何开口讲述自己的经历。据《连线》杂志报道,YouTube审查员Rob说,YouTube给擦洗工们雇了心理咨询师,理论上谁都可以和他们谈心,但Rob不知道如何接近他们。据他所知,也没有谁去找过咨询师。所以他只能靠自我调节——喝酒喝得越来越多,身材也越来越胖。
而创伤之后,审查员们可能产生一辈子的心理阴影。Selena的起诉文件里写道:“她的PTSD症状可能会因为碰到鼠标发作,也可能是因为走进了一栋冷冰冰的大厦、在电视上看到一段暴力视频、听到吵闹的声音,又或者,是因为受到一点惊吓。”
如果要真正解决审查员们的心理问题,或许还是应该回归技术,比如提高人工智能的识别能力和审查效率。但目前看来,开放的网络世界背后,还有如此多阴暗和不堪,扎克伯格与科技巨头们在人工智能审查上所做的努力还远远不够。
Reddit版主:用爱发电,无薪且糟心的职位
Reddit,一家月活达到3亿的神奇网站。界面设计极其Old School,但因为许多细分、有趣的小组吸引了一个又一个小圈层爱好者。
相比于Facebook内容审查员的隐秘身份,Reddit版主似乎更为人熟知一些,他们有自己的账号,有删帖和禁言的权利,小组用户可以直接和版主沟通。不同的是,在Reddit上当版主没有薪水,全靠志愿者们用爱发电,他们也一样要遭受种族主义、性别歧视、水贴刷屏等垃圾内容的精神侵害,甚至是被用户直接攻击。
全媒派在《 不抬杠是不可能的!有人用五年筛出了60万优质杠精 qq.com》提到一个小组changemyview,该小组为了建立一个理性讨论的优质社区,启用了22个志愿者作为版主,24小时巡视新鲜发帖,如有不当,则会沟通或删除。
其它小组的版主工作模式也是如此,但生存条件可能更艰难一些,至少,版主人数达不到22个之多。而被审核的小组用户们可没有那么开心,极端的人,给版主们发去一条又一条的辱骂和威胁信息。
在Engaget和 Point发起的联合报道中,他们找到了10个Reddit版主。版主们管理着大大小小的小组,最大的达1600多万订阅者。但无论小组大小,他们的困境都是相似的,被辱骂、攻击、人肉、诅咒甚至死亡威胁,而Reddit官方,一次又一次忽略了版主们提交的被攻击报告。
版主Emily管理着“伦敦”小组和“新闻”小组,为了避免极端报复,她从来不暴露自己的性别,以免有人威胁“强奸她”。还有一些攻击和威胁,描述得具象又恐怖,让人光看文字就会起一身鸡皮疙瘩。
牛津大学实验心理学副教授Lucy Bowes认为,长时间的版主工作必然导致抑郁症、PTSD和焦虑症等精神疾病,工作时间越长,患病危险越高。
对于Reddit这样的社区来说,技术监管和人力监管不到位,内容过于野生是一大原因。但与此同时,注册机制过于松散,导致恶意账号删不尽,喷子们随便用一个邮箱又可以注册回归。即便是禁言72小时,用户被解禁后还是会继续攻击。
而Lucy认为,对于Reddit这样体量的公司而言,要解决版主们的问题,应该从公司自身入手,比如对新版主进行培训,加强汇报反应机制的建设,或是截屏留取证据,以确保未来起诉。另一方面,对于这些志愿者,Reddit也应该随时关注他们的心理健康,及时进行干预和治疗。
尽管体量大,提供咨询的话会增加不少成本,但对于一个依靠一个个小组支撑起来的庞大社区而言,这些愿意资源维持社区秩序的人才是Reddit的财富。
事实核查员:真相的代价
在巴西,一份299页的文件在WhatsApp的右翼群里疯转,里面有40名事实核查员的社交媒体详细资料。巴西网友视奸他们所有人的账号:看,这是他2011年发的贴,他就是一个左派分子。
这一切,只是源自于事实核查组织Agência Lupa和Aos Fatos在今年5月宣布的计划:与Facebook合作,做好今年10月的总统大选辟谣工作。事实核查员们将手动辨别信息流中的假新闻,并打上“Fake”标识,将假消息的影响力降低80%。
但打击也由此开始。
先是大V和右翼媒体发文指责,事实核查员的工作是做“信息审查”,后又有人画了幅漫画,把事实核查员画成了投资人乔治·索罗斯的宠物,在WhatsApp门口巡视。
接下来是死亡威胁。有人给Lupa的总监Tardáguila发信息“你看不到巴西的下一任总统”、“我们会挨个来收拾你”……
这并非孤例。事实上,同Facebook合作的34个事实核查组织都受到了网络谩骂、人肉等威胁,这对他们的工作造成了很大困难,尤其在媒体信任度本就不高的国家。
事实核查的进展并没有那么顺利,一是利益相关方和一些网民在疯狂打击,二是在Facebook方面,他们并没有对这34个事实核查项目投入足够的资源,甚至在态度上都不够强硬和坚定。
在巴西,Facebook从未就此次事实核查项目召开新闻发布会,反复要求的热线和邮件也迟迟没有开通,唯一有的,只是在今年5月发布了两条博文,一是承认网络暴力确有其事并谴责有关行为,二是宣布和巴西、墨西哥和哥伦比亚的事实核查项目的合作。
在Tardáguila看来,Facebook需要明白,这是他们的项目,公司必须要发声,“我们努力了三年,没有任何改变,这些改变必须由Facebook来承担”。为此,她也提出了一些切实可行的合作条例:
关于需要被核查的内容,平台需要更好地翻译相关通知。
Facebook方开通热线或邮件地址,用户和媒体可以询问事实核查项目的相关问题。
在每个国家建立和事实核查员的主要沟通渠道。
对Facebook的事实检查项目运作流程进行可视化,翻译至现有的合作国家。
定期与事实核查合作伙伴开会,了解项目进展情况。
合作伙伴经理:与170个编辑室共同产出
ProPublica在2016年推出了有史以来规模最大的新闻众包项目Electionland 2016,和全国大小媒体合作,以任务分派的形式合作完成大选报道。报道覆盖范围广,参与媒体多,资源利用率高。随后,ProPublica试着开了新的项目,也由此诞生了一个新的职位。
新项目名为Documenting Hate,一个追踪和报道仇恨犯罪和偏见事件的调查项目。新的职业则是合作伙伴经理(partner manager),目前由记者Rachel Glickhouse担任。她像一个统筹者,同时担任记者、编辑、研究员、社交媒体制片人、招聘、培训和项目经理。
Documenting Hate官方网站
通过合作伙伴经理的努力,Documenting Hate项目和150家国家/本地媒体,以及20家高校媒体建立起合作关系。项目的关键在于资源共享和合作报道,ProPublica搜集到的仇恨事件案例和数据都被统一上传到官方数据库保管,并向加入的媒体开放使用,比如公众提供的线索和故事、警方的案卷信息,真正实现了资源上的共享和合作。
与此同时,合作伙伴经理也会担任起“空中管制调解员”的作用,确保不同记者不会在一个事件上耗费精力,或是针对不同当事人,指派合适的记者跟进。
虽然类似Documenting Hate这样的新闻众包项目有利于报道资源的合理分配,但合作伙伴经理也面临着不小的挑战。加入项目的记者可能无法彼此合作,也可能有等级倾轧,又或者,记者们对项目的热情有一定的周期性,有的可能无法长期为这个项目效力,而在一些特殊时期,参与者会少得可怜。
尽管如此,在Rachel看来,众包模式依然会是未来新闻的发展方向之一,在编辑室的时间和资金都非常稀缺的时代,有一个中心化的项目聚合资源并进行再分配,自然能极大程度上缓解编辑室所面临的尴尬。
互联网浪潮下诞生的新职位固然有其局限性和困境,但菲律宾事实核查项目Vera Files的联合创始人Chua认为,类似于事实核查员遭遇网络暴力的事件,Facebook固然有保护事实核查员的责任,但如果Facebook无法保护他们,那记者必须自我保护,“新闻业有风险,事实核查同样如此。”身为大时代下的小个体,我们能做的,不过是催促科技公司解决眼下的问题,让个人迅速跟上这滚滚向前的历史车轮。
【参考资料】
FB内容审查员患PTSD
//www.businessinsider.com/content-moderator-sues-facebook-ptsd-2018-9
社交网站上不为人知的隐匿职业:信息“擦洗工”-钛媒体官方网站 tmtpost.com
//www.theguardian.com/technology/2017/jan/11/microsoft-employees-child-abuse-lawsuit-ptsd
真相的代价:事实核查员遭到的威胁与攻击
//www.poynter.org/news/these-fact-checkers-were-attacked-online-after-partnering-facebook
Reddit讨论区审核管理员遭仇恨言论攻击
//www.engadget.com/2018/08/31/reddit-moderators-speak-out/
新闻业的最新职位 - 合作伙伴经理 -如何在ProPublica的新闻编辑室工作
这部纪录片真的非常值得看完了之后进行深思:
我仅敢列出以下的几个点供大家思考,而不敢自己妄下结论。
1.网络SC员通常被外包给第三世界国家的员工,差不多时薪为1美元。
2.长期成为网络SC员,精神上会受到长期的负面影响,因为黄色和暴力信息长期影响人体的身体健康。有的人为此而患上严重的精神疾病。有的人甚至宁愿捡真实世界的垃圾,也不愿意再干这个活。
3.如何鉴别信息不良不止是一个法律问题,有的时候还涉及到哲学上的争辩,比如电影中提到的例子:萨达姆被杀的过程与萨达姆尸体的影像之间的区别。
4.即使专家有的时候也很难做出选择,而这些审查员每天则要做出25000次选择,而其中如果漏判3次的话,就会失去工作。影响他们的是数量和绩效。 这是否导致SC员都会趋向于保守呢?
5.实际上我们现在看到的互联网就是,网络SC整理干净之后的互联网。而真正完整的互联网,可能只有审查员看到了。
6.我们也在用自己的键盘塑造着互联网。
7.互联网公司在各别国家和地区,可能要与这些政府达成协议的话,这样的行为究竟是该被定义为一个影响言论自由还是仅仅只是遵守当地法律的行为呢?这个问题本身还是很值得深思。(顺便提到,The Good Fight S03E08中就出现了一个例子,有一个律师就是利用好了这个争论,从而能够从互联网巨头身上敲上很大一笔竹杠,当然他并不是为了真的将这个话题在法庭上能够进行准确定义,而是为了能够对这个话题进行争论,并且利用媒体的报道对互联网公司进行公关方面的巨大压力,从而能够获得大笔的赔偿金。)
网络审查员的任务,是监视社交媒体上的发布内容,并做出合理化处理,包括防止儿童色情物扩散,觉察恐怖活动于未然,防止网络欺凌等,自动程序所无法完成的工作。
他们每天的处理指标是25000个,这意味着一天单击鼠标25000次。由于这份工作存在的本身就是秘密,作为社交媒体的清洁工,他们都要签署保密协议,不得向家人和朋友透露任何与工作相关的信息。
片子呈现了来自网络审查员,众议院、参议院对谷歌、脸书的听证会,前谷歌、推特法律负责人,大学教授,被删帖封号的艺术家,联合国言论自由特别报告员,记者,前脸书项目经理,前谷歌设计伦理负责人等多个角度的声音,
一个不得不面对的事实就是,社交媒体,确实加剧了人群的分化。精准的数据算法,只显示自己感兴趣的内容,屏蔽不想看到的内容,从人人都有发表自己意见的权利,慢慢演变成人人都只相信自己看到的才是真相。一次又一次的网络热点事件,反复证明一件事,没有基于共同事实认知的理性对话,只有不同阵营发泄情绪的对战。
20世纪我们关于世界的认知,正在被21世纪复杂的计算机算法重新编写,社交媒体的产品属性,决定了它为了存活下去,必须尽可能吸引更多人的注意,并设法不让他们厌倦,一个针对人性弱点,不断刷新认知底线的,充满戾气的,煽动对立,制造愤怒和恐怖情绪的平台,肯定比处处设限的平台能吸引更多用户的关注。
我们的个人喜好,决定了网络社会的变化和走向。没有人是孤岛,所以,今日的分裂局面,每个网民都有份。
你知道为什么有的微博内容会被官方删除吗?你知道为什么B站博主发的视频有一些不能通过审核吗?你知道为什么微博热点会被撤下吗?……这些背后存在着特殊的工种,那就是“网络审查员”。
《网络审查员》是我无意间在微信公众号看到的,吸引我的就是它的特殊,这是我从未听说过也从未关注过的一个工种。出于好奇,我利用下午的空闲时间将其看完。
这篇影片是纪录片,它讲述着一群网络审查员的真实工作。什么是审查员?就是网络的清道夫,清理不符合规定的图片,影片。他们是由互联网一些平台比如脸书,推特等等来和菲律宾的外包公司合作,清理网络上的罪恶(黄色内容,反政治言论,血腥暴力等)。塔曼的工作看似简单,实则不易。
在菲律宾,很多工作的薪水都很微薄,为了能够获得好点的生活,会有一些人选择了网络审查员这个工作。有个女孩面试的时候,看到的视频是恋童癖,一个女孩正在进行口交,而另一个影片则是,一个女孩身上都是精液。对于这些画面,她无法忍受,但因为工作需要,还是要克服自己心中的那个坎。另一名女审查员在步入这个行业之前是很单纯的,一些敏感词比如肛交之类的含义她并不清楚,为了这份工作,她甚至通过看性爱片进行学习这些词。除此之外,因为全球化劳动力,对于审查的内容多数是来源于其他国家,而对历史背景一无所知的情况下,审查的难度就会增加。
在审查的眼中,有些艺术不得不删除。有个女艺术家画了一个川普裸体,并且画上了一个很小的生殖器。虽然审查员知道这幅画表达的意思是,川普的能力和他的生殖器一样弱,不适合领导美国。但是涉及到裸体的图片是审查的底线。尽管艺术家自己认为,为什么会有人觉得裸体恶心。还有一个摄影师,他对叙利亚十分关注,他将一个溺水的小男孩发布到他的脸书上,不到三天就被删除。虽然他想呼吁战争的可恶,政治间的博弈造成无辜生命的丧失,但是影片涉及到sisi影片,审查员不得不删除。
审查在一定程度上,阻挡了黑暗,但也阻挡了真相。叙利亚战争的打响,很多难民都会通过手机记录真实的情况,最后却无法过审。
联合国言论自由权特别报告员说“这些公司越来越多权力决定什么留下什么撤下,利用人乐于安逸,讨厌努力,讨厌挑战的心态。随着时间的推移,总有一天,丧失我们进行批判性思考能力,妨碍接收挑战的能力,造成限缩言论。”
网络审查员的本质是不容犯错,他们决定着人们将会看到什么。而看到的这些东西,很可能引发战争,霸凌,犯罪现象等等。所以他们小心翼翼。这是一项不轻松的工作,更是一份艰巨的责任。有些黑暗是光无法到达的地方,只有审查员能替我们前往。虽然有利有弊,但是利大于弊总是好的。
(摘抄:社交媒体是中性的,不会助长什么,但如何才能吸引眼球增加关注是原因,而愤怒是最有效的诉求。)
“Delete”“Ignore”......在反复不断的“删除”或是“忽略”的声音中,导演Hans Block和Moritz将我们代入了第三世界的网络审查员的视角。
社交媒体自诞生至今十五年以来,已经演化成为一件强大而危险的工具,在美国政选中,可以成为左右民主选举的强大异能,也能变成不知不觉改变民众思想的政治力量,比如俄罗斯通过操作社交媒体影响美国政选、英国脱欧民众受到媒体影响等事件曝光后,引起世界的一片哗然。
而这部纪录片作为尖锐的提醒:“我们可能会失去民主,因为我们愿意放弃。”但究竟谁有资格成为社交媒体的嘴巴,谁有权利决定信息流的审核?
《清道夫》通过选择拍摄观点对立的双方,来揭露互联网审查的矛盾。科技公司在第三世界菲律宾存在大量审核内容的审查员,而处于对外宣称外包公司的灰色地带,审查员们面对大量的暴力、色情内容时,一位匿名审查员这么说道:“感觉体内有种病毒在慢慢入侵我的大脑,然后我辞职,我需要停下,这工作有问题。”
科技公司需要有道德责任,于是建立起人工筛选过滤制度,而给审查员心理遭受的极度不健康影响并没有得到重视,而酿成了员工自杀的惨剧。作为第三世界的外包公司中的员工,他们像是一道道黑暗的闸门,阻止着社交媒体上仇恨的传播。其中就不乏极端组织的残忍处决、难民问题造成的儿童死亡、战乱现场......这些触目惊心的场景成为审核员的日常工作。
影片聚焦在这些审查员和不同立场的对象身上,通过采访的对白,一句句戳进互联网监管的内核,而导演的高明之处在于展现矛盾对立对象的平行对话,站在不同的视角,有着不同的利益和立场的人,是怎么思考和回应网络监管的问题:艺术家有自己强烈表达的欲望、科技公司屈于利益关系选择政治干预、第三世界审查员们局限的文化教育背景......
可就像这个不可调和的世界一样,纪录片无法改变只能作出回答:人性本身具有复杂的双面性,网络不过是放大它。而我们再怎么“Delete”或“Ignore”,也无法删除或忽视掉作为人类,我们不愿意面对的一面。
当影像创作紧紧地与道德与立场捆绑,纪录片本身也跳脱开单纯的新闻属性,质问甚至鞭挞所有人习以为常的伦理框架。从网络清道夫,到社交媒体时代的仇恨传播,一块荧幕前后是监控的过犹不及,和话语的无孔不入。信息量大,有些话题点到即止,拍的精细完整,但再做扩充也无妨。
特别严肃、深沉、拓展视野和引人熟思的一部纪录片。新网络时代社交媒体在左右我们的思维动向,可怕的是它利用我们的潜意识,就在我们毫无意识之间替我们决定了一切。而被牺牲的网络审查员,真的新时代最悲伤职业。
一部片顶十季《黑镜》,而且与当下联系更紧密,讨论的核心仍处在on-going状态,没有人知道之后会发生什么改变。手法无甚高明,但贵在争议的提出和创作者的态度,毕竟很多难题并不可能也并不应当由这部纪录片来回答。
① 网络审查的存在是必要的,如同现实生活中的质检、保洁和垃圾分类等工种;但对「垃圾」、「有害」的标准界定是模糊的;② 人与人之间的道德标准、族群与族群之间的习俗观念、国与国之间的法律政策都是存在差异,而遍及全球的社交网络平台必然无法普适所有地区人民;③ 平台工具的中立属性,与吸引点击的传播逻辑,形成天然矛盾;④ 国家和联合国都难以解决的矛盾争端,居然需要距离事发千里之外、月入几千元的审查员做出判断,真心无奈。
发人深思的优秀纪录片,不能忽视的人群——网路清道夫
脸书YouTube推特上,内容合法不合法,是让一群外包的菲律宾人来审查。难怪影片中,故意让审查员看两张照片,一张是获普利策奖的越战照片《火从天降》,因为小女孩全身赤裸,被删;另一张,伊战美军虐囚事件,审查员看成了ISIS士兵在虐美军俘虏,被删。
引人深思。同样的内容在不同的语境下是不一样的,讽刺或者谴责是不是就可以?(实际工作中真的就遇到这样的情况啊)提供一个“干净”的环境是不是就不利于理性批判呢?非常不爽的是,这样一个“国际纪录片节”竟然放个样片给我看,中间字幕还因为剪辑版而字幕对应不上。
你好,你发表的关于《The Cleaners》的短评,因为含有违反相关法律法规或管理规定的内容,已被移除。感谢你的理解与支持。——豆瓣电影
“Delete, delete... Ignore, ignore”,以网络世界不为人注意的审查过滤工作展开,用Google和FB做引子,到最后拉开成了对极右思潮的兴起、政治讽刺的界限还有中东和罗兴亚人的全面涉及,88分钟里满满的信息量和各种立场。勾勒了网络世界近年来除去深网、色情交易和信息安全之外最严峻的现状。无法想象各位清道夫需要在工作中承受多少压力与伤害,才能换得一份维持温饱的工作;女孩穿行于垃圾堆的画面映照,十分加分。
看!这盛世,时代之恶,我在这儿先糊你脸上为敬。
这群为了网络的健康与和谐默默付出的人们,难以想象他们每天要面对多少充满血腥、暴力、色情以及政治恐怖的镜头。他们目睹过自杀,目睹过砍头,目睹过性侵,出现一点小小的纰漏都可能会造成死伤甚至战争,他们在不为人知的地方守护着世界的和平
不涉及处在局域网的我们,主要介绍采访不存在的欧美几大上传类社交网站的图片视频的人工审查员,他们居然都是在菲律宾的当地人,每天面对两万多件的色情暴力政治战争等敏感信息。梦到大量不同男人生殖器的女基督徒,还有的看过上百段斩首的影像,在自残部门调离不成而自杀的员工,叙利亚老百姓拍摄的那些和isis的如何处理,开放网络后只识脸书的缅甸人被假消息散播利用挑起的大屠杀,最后现身的扎克伯格发布会好像把矛头直指大公司在建立自由之地的同时今后要怎么走向,穿插在美国被诉讼而改变准则的几次事件,对了解那些人背后的操作程序和世界阴暗面有不少直观的感受,联想在高墙之内被保护的这片土地更加唏嘘。
审查;还以为是日本人做的,原来是德国人;色情delete,战争暴行(宣传恐怖delete,反战ignore)但作为网络守望者的这部分菲律宾人不可能了解那个背景不好判断,忽略的害处:罗兴亚人的迫害,稀疏的言论自由:人里面不成熟、容易受恶影响的还是不少的,审查是一种偷懒的方式,人类就不用自己费劲去判断了,政治言论:油管的仅对该国ip屏蔽,也算厚道,那为啥我们不行?(大概扶植本国经济吧,也能偷懒,毕竟自己人好管);审查员自己的影响,每天看这些势必有影响(发条橙);网络使全球人心的共通,对于审查员更明显;言论自由观点(我的):事物都有丑恶一面,如果你没看到,说明你还不了解它;人总是需要假象的敌人(鄙视对象),外国移民、CXK。
一部上影节北影节选片首轮一定被毙的纪录片出现在即将被迫全面退票转为免费包场的西宁,来自一个全球最大的被清理者组成的国度。
很有意思的视角,第三世界廉价审查员,被剥削的不只是重复性劳动,还被迫承受了最为骇人听闻的精神暴力。后半部分上升到社交媒体就比较泛泛而谈了,无非是民主和民粹的讨论,作者立场也过于明显。这部电影本质还是猎奇,但也只有冲击力和未知能引发思考。
常在河边走哪能不湿鞋
索爾仁尼琴說過“每個人有不知情的權利”,但是人又卻是好奇和獵奇。前幾年Dark Net第一季的其中一集就對網絡審查員有過展現。感覺這部紀錄片是擴展版,而且選取的事例頗具典型性。我依然覺得對於互聯網(尤其是移動互聯網)要採取謹慎甚至消極的態度。整個片最讓我印象深刻的是NGO組織對敘利亞內戰的社交網絡視頻爭分奪秒的保存。畢竟,很多視頻基於版權和審查已經無法被觀看,而本身又具備價值。其實,“知道太多”的審查員和違規視頻圖文資料庫同樣是個不穩定的危險因素。難道就不怕造反嗎?
設計的場面和台詞過多,集中於弘大命題而遠離了作為網絡審查者的“人”。始終陷在一種美感過度的不適中。講演現場等視頻的活用很好。“被審查”的部分影像,那些自殺情色宗教與恐怖暴力,除了展示,真的沒有更好的方式了嗎?對影像資料的處理和使用,需要倫理上的再思考。JIFF0507M9
看到扎克伯格意气风发的脸,就像是这个世界真正的领导者一样。可怕的是竟然还有人把自己和国家的人民与希特勒和被屠杀的犹太人类比,渺小无力的我们只能对着社交媒体冒泡。
清道夫不是人干的活。每天看各种黄色暴力血腥视频,有害身心。审查员有自杀的,也有宁愿回去捡垃圾,也不再看那些网络垃圾。