Facebook publica informe sobre remoción de contenido

mayo 15, 2018 Desactivado Por Jeannet Alvarado

 El informe cubre seis áreas: violencia gráfica, desnudez en adultos y actividad sexual, propaganda terrorista, discurso de odio, spam y cuentas falsas.

El reporte detalla:

·         La cantidad de contenido que viola las normas visto por usuarios de Facebook.

·         La cantidad de contenido que fue eliminado.

·         La cantidad de contenido que fue detectado a través de la tecnología antes de que los usuarios de Facebook lo reportaran.

La mayor parte del trabajo que hacen para eliminar contenido inapropiado involucra cuentas falsas y el spam que estas generan. Los resultados del primer trimestre de 2018 muestran que:

·         Eliminaron 837 millones de mensajes no deseados, casi todos detectados antes de que fueran reportados por los usuarios.

·         Desactivaron alrededor de 583 millones de cuentas falsas, la mayoría apenas unos minutos después de que fueran registradas. Este dato se suma a las tareas de prevención que evitan que millones de cuentas falsas sean creadas diariamente. Calculans que entre 3 y 4 por ciento de las cuentas activas durante el período analizado eran falsas.

Otros tipos de contenido inapropiado:

·         Eliminaron 21 millones de publicaciones de desnudos de adultos o material pornográfico durante el primer trimestre de 2018. Un 96 por ciento fue detectado y marcado con herramientas tecnológicas antes de que fuera reportado. Sus estudios indican que de cada 10.000 publicaciones visualizadas en Facebook, entre siete y nueve incluían material que violaba nuestros estándares.

·         En casos más graves, como violencia gráfica o discursos de odio, nuestra tecnología aún no es lo suficientemente eficaz y requiere de la participación de equipos de revisión. Dieron de baja o colocaron advertencias sobre cerca de 3,5 millones de publicaciones con contenido violento en el primer trimestre de 2018, un 86% de las cuales fueron identificadas por su tecnología antes de que fueran reportadas. También eliminaron 2,5 millones de artículos que contenían discurso de odio, un 38% de los cuales fueron identificado por su tecnología.

4