今天早上Instagram公布了其审核政策的一些变化,其中最重要的是它现在会警告用户,如果他们的帐户可能在实际发生之前被禁用。这一变化旨在解决一个长期存在的问题,即用户只能在没有任何警告的情况下发现他们的帐户被关闭而启动Instagram。Instagram禁止帐户违反其规定的指导方针是一回事,但服务的自动化系统并不总是让事情变得正确。该公司在禁止无害照片之前受到了抨击,例如母亲喂养孩子的照片或艺术照片。(或者,你知道,麦当娜。)
现在该公司表示,它将引入一个新的通知流程,如果他们的帐户有可能成为残疾人,他们会发出警告。该通知还允许他们在某些情况下对已删除的内容提出申诉。
目前,用户可以针对Instagram的裸露和色情政策以及欺凌和骚扰,仇恨言论,毒品销售和反恐政策提出适度决定。随着时间的推移,Instagram将把吸引力扩展到更多类别。
这一变化意味着用户不会被Instagram的执法行动猝不及防。此外,他们将有机会直接在应用程序中提出决定,而不是像以前一样通过帮助中心。
此外,Instagram表示将加大对不良演员的执法力度。
以前,它可以删除违反其政策而具有一定比例内容的帐户。但现在它还能够在一个时间窗口内删除具有一定数量违规的帐户。
“与Facebook上的政策实施方式类似,这一变化将使我们能够更加一致地执行我们的政策,并让人们对他们在Instagram上发布的内容负责,”该公司在其声明中表示。
这些变化是在最近针对由成人表演者演员协会领导的照片共享网络提起集体诉讼的威胁之后发生的。该组织声称Instagram禁止成人表演者的帐户,即使没有显示裸露。
“看来这些帐户仅仅因为他们作为成人表演者的身份而被终止,”成人表演者演员协会法律顾问詹姆斯费尔顿在6月份对“卫报”说。“努力了解终止背后的原因是徒劳的,”他说,并补充说公会正在考虑采取法律行动。
电子前沿基金会(EFF)今年也发起了一项反审查活动,即TOSSed Out,旨在强调社交媒体公司如何不均衡地执行其服务条款。作为其努力的一部分,EFF审查了16个平台和应用程序商店的内容审核政策,包括Facebook,Twitter,Apple App Store和Instagram。
它发现,只有四家公司--Facebook,Reddit,Apple和GitHub - 已经承诺在用户的内容被审查时违反了哪些社区准则违规或法律请求导致了该行为。
“提供申诉流程对用户来说非常好,但是它的效用受到用户不能指望公司告诉他们何时或为什么他们的内容被删除的事实的破坏,”EFF研究副主任Gennie Gebhart说。报告的时间。“当用户数量达到数百万或数十亿时,通知人们他们的内容被删除或审查是一项挑战,但社交媒体平台应该进行投资以提供有意义的通知。”
Instagram的政策变化专注于打击屡犯者现在正在推出,而直接在应用程序内上诉决策的能力将在未来几个月内到来。