blog

在“Facebook档案”之后,社交媒体巨头必须更加透明

<p>Facebook上的大多数人可能已经看到了他们希望他们没有的东西,无论是暴力图片还是种族主义评论</p><p>社交媒体巨头如何决定什么是可接受的和不可接受的往往是一个谜</p><p>最近在“卫报”上发布的内部内容指南为Facebook内容审核的机制提供了新的见解</p><p>幻灯片显示规则可以是任意的,但这不应该是令人惊讶的</p><p>像Facebook和Twitter这样的社交媒体平台已经存在了不到20年,政府几乎没有关于如何监管​​人们发布内容的监管指导</p><p>事实上,该公司在努力跟上发布内容的数量以及用户,广告商和民间社会组织经常相互冲突的需求方面面临着巨大的挑战</p><p>将Facebook的决定归咎于Facebook当然是一种宣泄,但真正的挑战是弄清楚我们希望如何管理我们的在线社交空间</p><p>在我们进行对话之前,我们需要更多地了解Facebook等平台如何在实践中做出决策</p><p>新发布的指南显然在数千张幻灯片中占据了一席之地,为Facebook与其用户分享的模糊社区标准提供了更多细节</p><p>大多数文件都是Facebook内容主持人大军的培训材料,他们负责决定应该采用哪些内容</p><p>一些区别似乎很奇怪,有些是彻头彻尾的冒犯</p><p>根据这些文件,针对唐纳德特朗普的暴力直接威胁将被删除(“有人射杀特朗普”),但是对女性的伤害可能不会产生厌恶女性的指示(“要抓住婊子的脖子,确保将所有压力都施加到中间她的喉咙“)</p><p>这些规则似乎反映了Facebook和其他社交媒体平台在过去十年中所进行的法律和公共关系战争的伤疤</p><p>在Facebook有争议地禁止在越南战争期间逃离凝固汽油弹爆炸案的着名形象Kim Phuc之后,必须改变对裸体儿童形象的一揽子规则</p><p>经过多年的争议,现在有一个特定的程序,所以人们可以要求删除未经他们同意而张贴的亲密图像</p><p>由于这些规则随着时间的推移而发展,其复杂性并不令人惊讶</p><p>但这指出了一个更大的问题:如果没有关于Facebook如何做出这些决定的良好数据,我们就无法就我们作为一个社会所熟悉的内容类型进行知情对话</p><p>核心问题是,像Facebook这样的社交媒体平台做出了大多数决定,关于什么是闭门造访的可接受的言论</p><p>这使得很难就人们认为应该允许在线发布的内容进行真正的公开辩论</p><p>正如教科文组织指出的联合国文化组织,当像Facebook这样的公司必须发挥这一作用时,言论自由会受到真正的威胁</p><p>当政府决定公共领域允许哪些内容时,通常会有法院程序和上诉途径</p><p>当社交媒体平台做出这样的决定时,用户经常会对他们的内容被删除的原因(或为什么他们的投诉被忽略)一无所知</p><p>挑战这些决定通常非常困难</p><p> Facebook允许用户在他们的个人资料或页面被删除时上诉,但很难吸引特定帖子的审核</p><p>为了解决平台上攻击性和暴力内容的问题,Facebook表示,除了目前的4500人之外,它将为其社区运营团队增加3,000人</p><p> “保持Facebook安全是我们最重要的事情,”Facebook全球政策管理负责人Monika Bickert在一份声明中表示</p><p> “我们努力使Facebook尽可能安全,同时实现言论自由</p><p>这需要经过深思熟虑才能解决详细且经常困难的问题,而且我们非常认真地对待这一问题“</p><p>但是如果没有好的数据,就无法理解Facebook的系统整体运作情况如何 - 无法测试其错误率或潜在的偏差</p><p>民间社会团体和项目,包括排名数字权利,第19条和电子前沿基金会的OnlineCensorship.org,一直在倡导提高这些系统的透明度</p><p> Facebook和其他社交媒体公司必须开始倾听,

查看所有