Los sistemas de recomendación de esta red social tienen el objetivo de vincular a aquellos que comparten intereses de nicho y mediante este algoritmo los pedófilos encuentran fácilmente a los vendedores de contenido sexual de menores, señala la investigación conjunta de The Wall Street Journal (WSJ) e investigadores de la Universidad de Stanford y la Universidad de Massachusetts Amherst.
El algoritmo de Instagram ayuda a conectar y promover una vasta red de cuentas dedicadas a la pedofilia y compra de contenido sexual de menores, según una investigación conjunta de The Wall Street Journal (WSJ) e investigadores de la Universidad de Stanford y la Universidad de Massachusetts Amherst.
Instagram, red social muy popular entre los adolescentes, no solo aloja estas actividades, sino que sus algoritmos los promueve.
Los sistemas de recomendación de esta red social que forma parte de Meta tienen el objetivo de vincular a aquellos que comparten intereses de nicho y mediante este algoritmo los pedófilos encuentran fácilmente a los vendedores de contenido sexual de menores.
Los investigadores descubrieron que Instagram -que tiene más de 1.300 millones de usuarios- permitía a las personas buscar etiquetas explícitas y en ocasiones hasta emoticonos que los conectaban a cuentas que usaban los términos para anunciar la venta de material sexual infantil y “reuniones” con los menores.
La promoción de contenido sexual de menores viola las reglas establecidas por Meta, así como las leyes de EU.
Meta reconoció los problemas dentro de sus operaciones de cumplimiento y dijo al WSJ que ha establecido un grupo de trabajo interno para abordar los problemas planteados.
“La explotación infantil es un crimen horrible”, dijo la compañía, y agregó que está “investigando continuamente formas de defenderse activamente contra este comportamiento”.
Meta -que cuenta con más de 3.000 millones de usuarios en sus aplicaciones, que incluyen Instagram, Facebook y WhatsApp- dijo que en los últimos dos años eliminó 27 redes de pedófilos.
La plataforma, además, aseguró que bloqueó miles de etiquetas que sexualizan a los niños, algunas con millones de publicaciones, y que restringió los sistemas que recomiendan a los usuarios que busquen términos que se sabe que están asociados con el abuso sexual.
En su investigación, el Observatorio de Internet de Stanford usó etiquetas asociadas con el sexo con menores y encontró 405 vendedores.
Por su parte, los investigadores de Stanford encontraron una actividad similar de explotación sexual en otras redes sociales más pequeñas, pero dijeron que el problema en Instagram es particularmente grave.
“La plataforma más importante para estas redes de compradores y vendedores parece ser Instagram”, escribieron los expertos en un informe que se publica hoy.
El equipo de Stanford encontró 128 cuentas que ofrecían vender material de abuso sexual infantil en Twitter, menos de un tercio del número que encontraron en Instagram, que tiene una base de usuarios mucho más grande que Twitter.
Según el estudio, Twitter no recomendó este tipo de cuentas en la misma medida que Instagram, y esta plataforma, además, las eliminó mucho más rápido.
Con información de EFE