Facebook publica el tercer Informe de Cumplimiento de Normas Comunitarias

Facebook ha publicado su tercer Informe de Cumplimiento de Normas de la Comunidad, que abarca el cuarto trimestre de 2018 y el primer trimestre de 2019. El informe incluye nuevos puntos de datos para proporcionar una mejor comprensión del proceso por el que pasa Facebook al eliminar contenido.

El gigante de los medios sociales ahora ha agregado datos relacionados con las apelaciones de contenido y la cantidad de contenido apelado que se restauró. Esta es la primera vez que Facebook ha incluido esta información.

Además de estos datos, también incluye datos sobre productos regulados, que detallan el rendimiento de la plataforma a la hora de eliminar intentos de venta de productos ilícitos, con un enfoque en drogas y armas de fuego.

Estas adiciones al informe significan que el informe de Facebook ahora incluye métricas en nueve políticas dentro de sus Normas de la comunidad. Estos incluyen desnudez y actividad sexual para adultos, desnudez infantil y explotación sexual, acoso y hostigamiento, cuentas falsas, artículos reglamentados, discurso de odio, spam, propaganda terrorista global y violencia y contenido gráfico.

 

Apelaciones y corrección de errores

 

Facebook ha admitido que su cumplimiento de los estándares comunitarios no es perfecto, por lo que está haciendo que su proceso para tratar cualquier error sea un poco más transparente con su informe. Los datos mostrarán cuánto contenido se restauró luego de las apelaciones de los usuarios y cuánto se restauró por sí mismo.

 

La plataforma puede restaurar contenido sin apelación por varios motivos, entre ellos:

 

  • Cuando se han eliminado varias publicaciones del mismo contenido, Facebook puede usar la apelación de una persona de esta decisión para restaurar todas las publicaciones afectadas.
  • Se identifica un error durante la revisión del contenido eliminado y, por lo tanto, se restaura antes de que se realice una apelación.
  • Si se elimina una publicación porque podría incluir un enlace malicioso, se puede restaurar si Facebook descubre que el enlace no es perjudicial.

 

Bienes regulados

 

Si bien Facebook ha implementado políticas sobre ventas de drogas y armas de fuego durante años, esta es la primera vez que se incluye esta información en el informe. Si bien ha utilizado una variedad de métodos al tratar este tipo de publicaciones anteriormente, introdujo AI en el verano de 2018 para identificar mejor el contenido que viola las políticas de productos regulados.

Según Facebook, esto le ha permitido tomar más medidas, generalmente antes de que las personas hayan tenido que informar el contenido. La plataforma informa que tomó medidas en torno a 900.000 piezas de contenido relacionado con la venta de drogas ilícitas solo en el primer trimestre de este año. De estos, el 83.3% del contenido fue detectado proactivamente.

Facebook espera que esta información adicional lo ayude a cumplir su promesa de ser más transparente cuando se trata de cómo desarrolla sus políticas y cómo mide su cumplimiento.