Facebook informa un mayor número de publicaciones eliminadas para promover el odio

Facebook informa un mayor número de publicaciones eliminadas para promover el odio

Después de establecer estándares para combatir el odio y el terrorismo en línea el año pasado, Facebook ha informado un fuerte aumento en el número de publicaciones que ha eliminado automáticamente para promover la violencia y el discurso de odio a su paso. 'aplicaciones. En un artículo de blog, la compañía dijo que eliminó 9.6 millones de mensajes que contenían discurso de odio en el primer trimestre de 2020 en comparación con 5.7 millones en el período anterior. Además, también recortó 4,7 millones de puestos asociados con organizaciones de odio en comparación con 1,6 millones en el trimestre anterior. Facebook dijo que los mensajes se eliminaron automáticamente debido a mejoras en la tecnología utilizada para identificar estos mensajes usando imágenes y texto. Además, también agregó etiquetas de advertencia a 50 millones de bits de contenido asociados con Covid-19, además de prohibir la desinformación dañina sobre la pandemia. En septiembre pasado, la compañía anunció una serie de actualizaciones de algoritmos para mejorar la forma en que combate a terroristas, grupos extremistas violentos y organizaciones de odio en Facebook e Instagram. Desde entonces, la compañía ha proporcionado detalles de retiros en su plataforma matriz, Instagram, Facebook Messenger y WhatsApp. La compañía hizo un progreso similar en Instagram, donde la tasa de detección cayó del 57.6% al 68.9% con 175,000 piezas de contenido eliminadas en el primer trimestre. Además, la compañía también podría identificar dónde el contenido relacionado con un problema es distinto del otro.

Lecciones de la demolición.

"Por ejemplo, hemos visto que las violaciones del odio organizado tienen más probabilidades de involucrar memes, mientras que la propaganda terrorista a menudo se dispersa de una rama central de medios de la organización e incluye una marca formal". Identificar estos patrones nos ayuda a continuar refinando los sistemas organizados de detección de contenido de odio y terrorismo ", dijo el blog. La última actualización es el quinto informe sobre la aplicación de los estándares de la comunidad, un proceso que Facebook comenzó en 2018 junto con reglas estrictas para publicar contenido. Fue el resultado de la reacción brutal de la compañía al monitoreo del contenido publicado en sus plataformas, que también incluye Facebook Messenger y WhatsApp. La compañía dice que ahora puede detectar texto incrustado en imágenes y videos para comprender el contexto completo. También reveló la presencia de tecnología de coincidencia de medios que encuentra contenido idéntico o casi idéntico a fotos, videos, textos y archivos de audio que ya se han eliminado.

Bienvenido a todos los nuevos miembros de @OversightBoard. Debido a que es un tema tan importante, hemos hecho un breve video para explicarle cómo funciona el foro pic.twitter.com/ayfqcshGEcMay 6, 2020

El consejo de supervisión

Después de los ataques terroristas en Christchurch, Nueva Zelanda el año pasado en marzo, Facebook anunció que crearía un grupo multidisciplinario de expertos en seguridad y antiterrorismo para desarrollar políticas y crear innovaciones de productos. ayudar a definir, identificar y eliminar contenido conduce al odio y al crimen. Facebook anunció la formación de su tan esperado comité de supervisión la semana pasada con la llegada de los primeros 20 miembros. Este panel internacional incluyó periodistas, un ex primer ministro, un premio Nobel, abogados, expertos en antiterrorismo que tendrían la última palabra en las discusiones sobre la moderación del contenido de la plataforma más grande. redes sociales mundiales. El equipo ahora incluye a 350 personas con experiencia que van desde la aplicación de la ley y la seguridad nacional hasta inteligencia antiterrorista y estudios universitarios sobre radicalización, dijo la compañía.