Las reglas y directrices -hasta ahora secretas- que utiliza Facebook para decidir qué vemos los 2.000 millones de usuarios, qué podemos publicar y qué no acaban de hacerse públicas por primera vez gracias a un trabajo de investigación de The Guardian. Lejos de enterrar la polémica, los más de cien manuales internos que acaban de salir a la luz van a alimentar el debate sobre la ética del gigante de las redes sociales.
¿Cómo deciden qué censurar? Facebook cuenta con un amplio equipo de moderadores que utilizan una serie de algoritmos y se encargan de poner en marcha las directrices de la compañía para decidir qué entra y qué no en nuestro muro.
moderar los contenidos de facebook
En concreto, la guía de estilo incluye unas decisiones éticas –que muchos ya discuten- para determinar si textos, imágenes y vídeos sobre temas sensibles como el sexo, la violencia o el terrorismo deben aparecer en la red social más popular del mundo.
Según plantean los responsables del trabajo de investigación publicado en The Guardian, Facebook ha crecido demasiado y demasiado deprisa por lo que ya no puede mantener el control sobre sus contenidos.
Además, según ha publicado Xataka, algunos de los propios moderadores de la compañía consideran que las reglas impuestas por Facebook caen en incoherencias y no resultan consistentes. Por ejemplo, mientras que una frase que incite a disparar a Trump debe ser eliminada, se puede compartir una amenaza como: ‘’Jódete y muere’’.
Sexo, violencia y terrorismo sobre la mesa
En concreto, los escenarios más sensibles que aparecen en la guía de Facebook son los relacionados con sexo, violencia y terrorismo. Aunque en ocasiones es difícil marcar el límite, pues no es sencillo decidir qué videos de muertes violentas se permiten y cuáles no porque según los expertos de la red social, hay contenidos que ayudan a concienciar a la población sobre ciertas enfermedades mentales.
Aunque resulte difícil de creer, tampoco se censuran las fotografías de abuso físico a menores si no hay un componente sádico o de celebración, y las imágenes de abuso de animales se pueden compartir a no ser que haya imágenes extremadamente violentas. Pero aún hay más: se aceptan vídeos de un aborto si el cuerpo no aparece desnudo y Facebook acepta que se emita en directo cómo alguien se autoinflinge daños para ‘’no censurar o castigar a gente en peligro».
Otra de las decisiones más polémicas de Facebook es que admiten por ejemplo expresiones a favor de la pena de muerte o aquellas que expresan que el autor disfruta con la ejecución de la pena capital en Estados Unidos.
El tamaño de la red social sí importa
Facebook es una red social con más de 2.000 millones de usuarios, lo que supone un gran problema para llevar a cabo la labor de moderación de contenidos. Asimismo, Monika Bickert, máxima responsable de la gestión de la política global de Facebook, destacaba en The Guardian que es muy complicado llegar a un consenso sobre qué permitir y qué no.
¿Por qué es tan difícil? Debido a que la comunidad de Facebook es muy diversa y, por tanto, los diferentes usuarios tienen ideas muy distintas sobre lo que está bien y lo que no lo está. A juicio de Bickert, da igual dónde pongas los límites porque siempre habrá zonas grises y temas polémicos. Por ejemplo, la línea que separa el humor del contenido inapropiado en ocasiones es demasiado estrecha. Por ello, resulta complicado decidir si es apto para Facebook o no.
Para que tú también contribuyas a las tareas de moderación, Facebook ha preparado un pequeño test visual para que señales qué imágenes eliminarías y cuáles no de tu flujo de noticias. ¿Resulta tan complicado aplicar unos criterios que respeten la privacidad y seguridad en internet?
Fotografía: AllTheFreeStock.com
En Nobbot | Esto es todo lo que Facebook sabe de ti y cómo puedes evitarlo