Después de establecer estándares para combatir el odio y el terrorismo en línea el año pasado, Facebook ha informado un fuerte aumento en el número de publicaciones que ha eliminado automáticamente para promover la violencia y el discurso de odio a su paso. 'aplicaciones. En un artículo de blog, la compañía dijo que eliminó 9.6 millones de mensajes que contenían discurso de odio en el primer trimestre de 2020 en comparación con 5.7 millones en el período anterior. Además, también recortó 4,7 millones de puestos asociados con organizaciones de odio en comparación con 1,6 millones en el trimestre anterior. Facebook dijo que los mensajes se eliminaron automáticamente debido a mejoras en la tecnología utilizada para identificar estos mensajes usando imágenes y texto. Además, también agregó etiquetas de advertencia a 50 millones de bits de contenido asociados con Covid-19, además de prohibir la desinformación dañina sobre la pandemia. En septiembre pasado, la compañía anunció una serie de actualizaciones de algoritmos para mejorar la forma en que combate a terroristas, grupos extremistas violentos y organizaciones de odio en Facebook e Instagram. Desde entonces, la compañía ha proporcionado detalles de retiros en su plataforma matriz, Instagram, Facebook Messenger y WhatsApp. La compañía hizo un progreso similar en Instagram, donde la tasa de detección cayó del 57.6% al 68.9% con 175,000 piezas de contenido eliminadas en el primer trimestre. Además, la compañía también podría identificar dónde el contenido relacionado con un problema es distinto del otro.
Lecciones de la demolición.
"Por ejemplo, hemos visto que las violaciones del odio organizado tienen más probabilidades de involucrar memes, mientras que la propaganda terrorista a menudo se dispersa de una rama central de medios de la organización e incluye una marca formal". Identificar estos patrones nos ayuda a continuar refinando los sistemas organizados de detección de contenido de odio y terrorismo ", dijo el blog. La última actualización es el quinto informe sobre la aplicación de los estándares de la comunidad, un proceso que Facebook comenzó en 2018 junto con reglas estrictas para publicar contenido. Fue el resultado de la reacción brutal de la compañía al monitoreo del contenido publicado en sus plataformas, que también incluye Facebook Messenger y WhatsApp. La compañía dice que ahora puede detectar texto incrustado en imágenes y videos para comprender el contexto completo. También reveló la presencia de tecnología de coincidencia de medios que encuentra contenido idéntico o casi idéntico a fotos, videos, textos y archivos de audio que ya se han eliminado.Bienvenido a todos los nuevos miembros de @OversightBoard. Debido a que es un tema tan importante, hemos hecho un breve video para explicarle cómo funciona el foro pic.twitter.com/ayfqcshGEcMay 6, 2020