到目前为止,facebook从未公开过其主持人用来决定是否要从社交网络中消除暴力、垃圾邮件、骚扰、自残、恐怖主义、知识产权盗窃和仇恨言论的指导方针。该公司希望避免轻易地遵守这些规则,但公众不断呼吁澄清和抗议其决定,这一担忧已被克服。今天,Facebook发布了25页详细的标准和例子,说明什么是允许的,什么是不允许的。
Facebook正在有效地将被批评的地方转移到潜在的政策上,而不是个别的执法失误事件,比如当它删除有新闻价值的“纳帕姆女孩”(Napalm Girl)的历史照片时,因为它包含了儿童裸露,然后最终恢复原状。一些团体肯定会发现值得商榷的地方,但Facebook已经取得了一些显著的进步。最值得注意的是,它不再使少数群体有资格不受仇恨言论的伤害,因为像“儿童”这样的不受保护的特征被附加到像“黑人”这样受保护的特征中。
从技术上讲,Facebook的政策并没有什么改变。但在此之前,只有“卫报”(The Guardian)获得的内部规则手册的副本那样泄露,才能让外界看到Facebook何时真正实施了这些政策。这些规则将被翻译成40多种语言供公众使用。Facebook目前有7500名内容评审员,比一年前增长了40%。
脸谱网还计划扩大其内容删除上诉程序,它已经允许用户要求审查一项决定,以删除他们的知名度,佩奇,或集团。现在,Face book将在删除用户的隐私、性活动、仇恨言论或图形暴力内容时通知用户,并让他们点击“请求审查”按钮,这通常会在24小时内发生。最后,Face book将在德国、法国、英国、印度、新加坡和美国举办Face book论坛:社区标准活动,让最大的社区更仔细地了解社交网络的政策如何运作。
Facebook全球产品管理副总裁莫妮卡·比克特(Monika Bickert)上周在Facebook门罗公园总部(Menlo Park)对记者表示,“有很多研究表明,当机构出台政策时,人们如何改变自己的行为,这是一件好事。”比克特从去年9月起就一直在协调发布这些指导方针。她承认,人们仍然担心恐怖分子或仇恨组织会更好地开发“解决办法”,以避开Facebook的主持人,“但对幕后所发生的事情更加开放的好处大于这一点。”
包括Face book在内的各种社交媒体公司的内容主持人工作被描述为地狱般的工作,在许多曝光中,它喜欢与儿童色情片、斩首视频、每天数小时的种族主义进行斗争。比克特说,Face book的主持人接受了处理这一问题的培训,并获得了咨询和24/7资源,包括一些现场资源。他们可以要求不看某些类型的内容,他们是敏感的。但比克特并没有说Face book对每天看到的冒犯性版主的数量规定了每小时的限制,比如YouTube最近实施了4小时的限制。
一张有争议的幻灯片描述了Face book现在已经失效的政策,该政策剥夺了受保护群体的子集免受仇恨言论屏蔽的权利。图像通过ProPublica
新公布的指导方针中最有用的说明解释了Face book如何抛弃了其受欢迎程度不高的政策,即认为“白人”不受仇恨言论的保护,而不是“黑人儿童”。这一规则使受保护的群体暴露在仇恨言论中,这一规则于2017年6月在ProPublica的一篇文章中遭到抨击,尽管Face book表示不再适用这一政策。
现在,比克特说:“黑人儿童-这将受到保护。白人-这也会受到保护。我们认为这是对一个人的攻击,但你可以批评一个组织,一个宗教。..如果有人说“这个国家是邪恶的”,那是我们允许的。说“这个宗教的成员是邪恶的”并不是。“她解释说,Face book越来越意识到谁是受害者的背景。然而,比克特指出,如果有人说“如果你不来参加我的聚会,我就杀了你”,如果这不是一个可信的威胁,我们不想消除它。
对其政策的坦率态度可能会让Face book更多地指出它在何时因未能防止其平台上的滥用而受到批评。活动组织说,Face book让假新闻和仇恨言论猖獗,并导致许多发展中国家的暴力行为,在这些国家,Face book没有足够的本地语言主持人。斯里兰卡政府暂时封锁了脸书,希望停止暴力呼声,当地的人说,扎克伯格夸大了脸书对缅甸问题的改进,导致对罗兴亚人的仇恨犯罪。
披露这些准则至少可以减少对Face book上是否允许可恨内容的混淆。不是的。尽管该准则还提出了一个问题,即它编纂的Face book价值体系是否意味着社交网络有一个编辑声音,将其定义为一家媒体公司。这可能意味着失去对其用户所发布的信息的法律豁免权。比克特坚持了一句排练过的话,“我们不是在创造内容,我们不是在固化内容”。尽管如此,有些人肯定会说Face book的所有内容过滤器都相当于一个保护层。
但无论是媒体公司还是科技公司,Face book都是一家利润丰厚的公司。它需要每个季度多花数十亿美元,在世界各地均匀而有力地实施这些政策。