Facebook avisa a los usuarios cuando sus publicaciones son moderadas por mecanismos automáticos

Facebook ha comenzado unas pruebas, tras la recomendación de su Consejo asesor de contenido, para informar a sus usuarios cuando una de sus publicaciones es moderada por las herramientas automáticas de la red social.

Facebook ha publicado este jueves su primer informe, relativo al primer trimestre de 2021, sobre su Consejo asesor de contenido, integrado por expertos externos y que revisa apelaciones de casos de moderación complejos y emite recomendaciones a la compañía.

Aunque no son vinculantes, Facebook se ha comprometido a implementar parcial o completamente 14 de las 18 recomendaciones emitidas por el Consejo asesor de contenido durante el primer trimestre de 2021, mientras que tres están en consideración y una se ha descartado.

Facebook ya ha comenzado a introducir a modo de prueba algunas de las recomendaciones, como la de avisar a los usuarios cada vez que herramientas automáticas participen en un proceso de moderación contra sus publicaciones.

De momento, esta novedad se está probando entre un número limitado de usuarios y la compañía valorará el impacto de proporcionar estas notificaciones.

Durante el primer trimestre de 2021 Facebook también lanzó, por consejo de su organismo de expertos, nuevas experiencias para proporcionar a los usuarios más información sobre por qué se eliminan sus publicaciones.

En el caso de las notificaciones por discurso del odio, Facebook ha incorporado un clasificador adicional con el que puede predecir qué tipo de odio está presente en el contenido: violencia, deshumanización, mofarse de crímenes de odio, comparaciones visuales, inferioridad, desprecio, blasfemia, exclusión o calumnias.

Esta información más específica sobre la moderación del discurso del odio ya se proporciona a los usuarios de Facebook en inglés, y la compañía se ha comprometido a extenderla a más idiomas en el futuro.

Asimismo, Facebook ha actualizado su política sobre organizaciones e individuos peligrosos y ha creado tres clasificaciones de moderación de contenidos en función de la severidad, añadiendo definiciones de términos clave.