Facebook cuenta con un equipo de moderadores que se encarga de dirigir el debate en la red social a nivel global para evitar la difusión del discurso del odio o la apología de la violencia, y para ello, cuenta con unas directrices a las que ha tenido acceso The New York Times y que ha calificado parciales, desactualizadas e incluso erróneas.

Los moderadores tienen unos pocos segundos -entre ocho y diez, según los documentos- para decidir si un contenido publicado puede permanecer en la red social o se elimina, de la ingente cantidad de publicaciones que comparten a diario los más de 2.200 millones de usuarios que tiene a nivel global y que se expresan en más de cien idiomas diferentes.

El documento filtrado, facilitado por un empleado de la compañía, y cuya veracidad ha sido confirmada por Facebook, según el medio citado, consta de 1.400 páginas que han descrito como "docenas de presentaciones de PowerPoint y hojas de cálculo de Excel sin organización".

Estas presentaciones buscan ofrecer a los más de 7.500 moderadores repartidos por todo el mundo unas directrices con las que poder hacer frente a cuestiones muy determinadas por el contexto.

Los documentos tratan, por ejemplo, la definición de 'mártir' o 'yihad' y el contexto en el que se pueden entender como terrorismo. También ofrecen una relación de emojis y sus posibles significados y usos, ya sea para deshumanizar, atacar o acosar, o para apoyar, condenar o mostrar la orientación sexual de una persona.

Asimismo, presenta imágenes, nombres y descripciones de personajes y grupos clave de una región, como el general Ratko Mladic, a quien, en este caso, pone como fugitivo cuando fue apresado en 2011, o la Asociación Patriótica de Myanmar (Ma Ba Tha), cuyas publicaciones consintió la red social bajo la directriz de que no debían eliminarse, si bien activistas del país acusaron Facebook de ser complice en la difusión de una campaña de odio contra los rohingya.

Moreadores que trabajan con Facebook, como el experto en antiterrorismo Brian Fishman, consultado por el medio citado, explican que "a veces, estas cosas explotan muy rápido y tenemos que descifrar cuál va ser nuestra reacción, y no tenemos tiempo para Naciones Unidas".

En estos casos, la compañía provee de nuevas directrices para afrontar determinados momentos y eventos. Ocurrió así con las elecciones en Pakistán en julio, cuando la compañía facilitó un documento de 40 páginas con las se instaba a analizar con cuidado el partido Jamiat Ulema-e-Islam, mientras que Jamaat-e-Islami, también religioso, era descrito como "benigno".

The New York Times, tras analizar el documento, considera que en conjunto las directrices revelan "numerosas lagunas, prejuicios y errores abiertos" y que, en algunos casos, la información está desactualizada.

Si bien Facebook también consulta con organizaciones expertas externas, las directrices son establecidas en su mayor parte por ingenieros y abogados de la compañía, quienes, como señala el medio citado, no tienen conocimiento ni experiencia en algunas regiones del mundo sobre las que tienen que tomar decisiones.

Están, además, redactadas en inglés y enfocadas a personas que también tienen que consultar el traductor de Google, lo que puede dar a entender la falta de moderadores locales, que podrían entender mejor determinados contextos.