Sexo y violencia: las reglas de Facebook para fiscalizar contenido
Un estudio realizado por The Guardian reveló que a la hora de decidir qué puede ser publicado y qué no, la red social está llena de ambigüedades y contradicciones. Con sólo diez segundos para tomar una decisión la empresa debe moverse entre la libertad de expresión y la censura.
Sexo, violencia, pornografía, racismo y terrorismo. Son algunos de los temas que Facebook debe controlar entre sus más de 2000 millones de usuarios.
El periódico británico The Guardian, revisó más de cien manuales internos con las normativas que establecen los criterios para fiscalizar las publicaciones colgadas en la masiva red social.
Según una fuente interna, entrevistada por el diario, la empresa no puede “mantener el control de su contenido” porque “ha crecido demasiado y muy rápido”. Al mismo tiempo los manuales están abiertos a interpretación por lo que dificulta el trabajo de los moderadores, que a veces tienen sólo diez segundos, para tomar una decisión.
Los post más difíciles de controlar son los que contienen algún tipo de carácter sexual, por ser complejos y confusos. En el último tiempo Facebook ha sido blanco de fuertes críticas por su permisividad con la violencia. Las normativas intentan encontrar un equilibrio entre permitir gritos de ayuda y desalentar el comportamiento de posibles imitadores.
The Guardian destacó en su artículo las ambigüedades de la compañía en relación al tema. Por ejemplo, considera que los vídeos que muestran una muerte violenta o daños a la persona, incluidos los trasmitidos por Facebook Live, no siempre deben ser eliminados. Para la empresa este tipo de contenido puede servir para generar conciencia sobre determinados problemas a nivel mundial.
Un criterio parecido tiene con los post que muestran abuso infantil no sexual o maltrato animal. Estos servirían para ayudar a las víctimas al desatar fuertes protestas y denuncias por parte de los usuarios, que han terminado con la intervención de la justicia.
Otra área gris son los desnudos. Facebook permite estas publicaciones si son de carácter artístico, no así si muestra actividad sexual. El año pasado la normativa con respecto a este punto agregó “excepciones de interés periodístico”. El cambio se produjo después de los reclamos desatados en 2016 luego que la red social eliminara una foto de la guerra de Vietnam donde aparecía una mujer sin ropa.
“Queremos que la gente sea capaz de discutir los acontecimientos mundiales y actuales, por lo que el contexto en el que una imagen violenta se comparte es importante”, aseguró Facebook al diario británico.
Con respecto al lenguaje violento la compañía intenta hacer la distinción entre una amenaza real y una expresión de frustración y enojo. Por esto Facebook elimina mensajes del tipo “hay que disparar a Trump”, porque al ser un jefe de Estado entra en una categoría protegida. Lo mismo ocurre con los usuarios que tienen más de cien mil seguidores ya que son considerados figuras públicas. Sin embargo, permite publicaciones como “así hay que romperle el cuello a esa perra” porque la empresa no lo considera como amenazadas creíbles.
Foto: Agencia Uno
En Aire Fresco el experto en tecnología José Ignacio Stark analizó este tema: “Si hay una trasmisión en vivo de alguien que amenaza con hacerse daño físico, Facebook no la baja porque no quiere cuartar la libertad de expresión”.
Aquí lo que comentó Cony Stipicic sobre el tema en Duna en Punto