Skip to content

Se destapan las bases que moderan los debates en Facebook

Las herramientas para filtrar temas cometen demasiados errores

Errores.
Errores.
Los filtros para determinar si se hace apología de la violencia y otros temas prohibidos no están actualizados.

Facebook ha vivido su particular “Annus horribilis”. Desde que se destapó el escándalo de Cambridge Analytica, los problemas para la red social más importante del mundo no han hecho otra cosa que crecer. 2018 deja para la empresa creada por Mark Zuckerberg unos registros bursátiles nada halagüeños y un escándalo de postres.

The New York Times ha tenido acceso, gracias a una filtración, los parámetros que rigen el debate de Facebook. La compañía cuenta con un grupo de trabajadores que se encargan de decidir si un debate convertido en la red social puede difundir el odio o hacer apología de la violencia.

Según el rotativo estadounidense, las herramientas para moderar los debates son parciales, erróneos y están desactualizados. A juzgar por la información a la que ha tenido acceso el diario, los moderadores -unos 7.500 repartidos por todo el planeta- contarían con demasiado poco tiempo para determinar si un contenido incumpln las reglas de Facebook. Por norma el tiempo para decidirlo está entre los 8 y los 10 segundos.

El diario ha tenido acceso a 1.400 folios de un documento filtrado por un trabajador mediante el cual los moderadores tienen algunas directrices para hacer su trabajo. Este archivo está, teóricamente, hecho en función del contexto de cada región. Sin embargo, The New York Times determina que existen muchos errores en las directrices según el propio contexto. Además, añade que el documento, redactado en inglés, hace aún más imposible que se analice verdaderamente el marco territorial en el que se produce un debate en la red social.

.-Este es un artículo de Tecnonews/AMIC para Menorcaaldia.com


Deja un comentario

Your email address will not be published.