La moderación de contenido es una tarea muy compleja y las empresas, a menudo, intentan minimizar los gastos que conlleva. Contratar moderadores humanos que estén familiarizados con el idioma y el contexto en el que se crea el contenido es caro y estresante para los trabajadores. Sobre todo, cuando se trata de vídeos. De hecho, estarán expuestos a algunas de las imágenes más violentas, perturbadoras y traumáticas que se pueda imaginar. Por otro lado, los sistemas de moderación automatizados todavía no dan la talla.
El problema ya se presentaba cuando las plataformas más utilizadas eran de texto, como Facebook y Twitter. O de imágenes estáticas, como ha sido el caso de Instagram durante mucho tiempo. El éxito de aplicaciones como TikTok, que ofrece un flujo constante de nuevos vídeos seleccionados por el algoritmo, presenta un desafío sin precedentes para la moderación de contenido.
De hecho, los vídeos representan un porcentaje creciente del nuevo contenido que se genera y consume en línea. Las grandes multinacionales también se apuntan al carro y abandonan la producción de textos para dedicarse por entero a los vídeos breves para su difusión en las redes sociales. El mantra siempre es el mismo: la gente ya no lee y debemos proporcionar la información más simplificada posible para captar su atención.
La ‘videomanía’ no está impulsada solo por TikTok. Otras aplicaciones, desde Instagram hasta YouTube, también están invirtiendo en el formato de vídeo corto y la moderación de contenido algorítmica. Lo mismo hace cualquiera que busque forjarse una presencia en línea, incluyendo sitios de periódicos y revistas. «Video killed the writing star».
Problemas en la moderación de contenido en vídeo
Desde un punto de vista técnico, los sistemas automatizados utilizados para la moderación de contenido no textual funcionan de forma sencilla. La inteligencia artificial (IA) examina una imagen y la relaciona con una masa de otras imágenes sobre las que ha sido entrenada. De esta manera, puede saber si una persona en una foto está desnuda o vestida, o si alguien está empuñando un arma.
Sin embargo, el asunto se vuelve más complicado con los vídeos, ya que cada minuto de metraje se compone de miles de imágenes estáticas dispuestas una tras otra, emparejadas con una pista de audio. El problema no es solo que los sistemas de moderación automatizados no reconozcan los vídeos prohibidos en la plataforma. También que muchos de estos vídeos se difunden entre un público muy amplio mediante algoritmos de recomendación.
“YouTube probablemente tiene la mayor experiencia con la moderación automática de vídeos, pero eso no impide que los que violan sus pautas sean visualizados millones de veces al día”, escribió Arthur Holland Michel en ‘The Atlantic’. En parte, el problema es que cada vídeo contiene muchos datos para analizar y es bastante fácil ‘engañar’ al algoritmo. Además, se debe evaluar el contexto. El algoritmo borraría un vídeo de dos anticuarios discutiendo sobre rifles de la Primera Guerra Mundial.
Los TikToks son, en esencia, ‘memes’ tridimensionales en los que el audio, el vídeo y el texto son elementos fundamentales para comprender el contexto y el tono. Esto hace que la moderación del contenido sea aún más compleja. Por esta razón, de momento, solo alrededor del 40 % de los vídeos eliminados de la plataforma son identificados por sistemas automatizados. Los humanos aún realizan millones de otros controles.
Ver no siempre es creer
YouTube gastó 15 millones de euros este año para contratar a más de 100 moderadores de contenido relacionado con las elecciones de Estados Unidos y Brasil. La empresa cuenta con más de 10 000 moderadores en todo el mundo. Aun así, las grandes plataformas no dan abasto y todavía están luchando para lidiar con la gran cantidad de publicaciones nuevas que se comparten todos los días.
Además, porque cada vez hay más formas de crear un vídeo ‘falso’. Más allá de los llamados deepfakes, que permiten simular los rostros de las personas, los vídeos se pueden cortar o cambiar su velocidad o secuencia. O añadir un sonido grabado en otro contexto. “El peligro de los medios manipulados no radica tanto en una publicación concreta, sino en cómo en conjunto pueden llegar a dañar aún más la capacidad de muchos usuarios para descubrir qué es verdad o qué no”, escribió Tiffany Hsu en el ‘New York Times’.
“La mayor parte del contenido manipulado en la actualidad en las redes sociales está mal hecho y resulta descaradamente falso. Pero las tecnologías capaces de alterar y sintetizar con mucha más delicadeza son cada vez más accesibles». En definitiva, si el cambio global hacia los contenidos de vídeo supone una ganancia en términos de viralidad y rapidez, no lo es desde el punto de vista de la veracidad. Pese a que todos seamos más proclives a creer en algo que vemos que en algo que leemos contado por otra persona. Tal vez algún día alguien echará de menos esos largos cinco minutos que se tardaba en leer un artículo.
En Nobbot | Telegram tiene un problema de ‘doxing’
Imágenes | Jesus Loves Austin/Unsplash, Jakob Owens/Unsplash, Nubelson Fernandes/Unsplash