Un estudio del diario The Wall Street Journal y de la Universidad de Stanford y de Massachusetts Amherst aseguró que la red social permitía la búsqueda de etiquetas explícitas y de emoticones que conectaban a los usuarios a la venta de material sexual infantil.
El algoritmo de Instagram ayuda a conectar y promover una vasta red de cuentas dedicadas a la pedofilia y compra de contenido sexual de menores, así lo asegura una investigación conjunta de The Wall Street Journal (WSJ) e investigadores de la Universidad de Stanford y de la Universidad Massachusetts Amherst.
Instagram, la red social más popular entre adolescentes, no sólo aloja estas actividades, sino que sus algoritmos las promueven, de acuerdo con la investigación.
Los sistemas de recomendación de esta red social que forma parte de Meta tienen el objetivo de vincular a aquellos que comparten intereses de nicho y mediante este algoritmo los pedófilos encuentran fácilmente a los vendedores de contenido sexual de menores.
Según el análisis del WSJ, más del 90% de las cuentas que venden material ilegal están conectadas entre sí a través de estas recomendaciones. Además, el 75% de estas cuentas también siguen o son seguidas por usuarios que publican imágenes o videos sexualmente explícitos de niños o adolescentes.
Los investigadores descubrieron que Instagram -que tiene más de 1.300 millones de usuarios- permitía a las personas buscar etiquetas explícitas y en ocasiones hasta emoticones que los conectaban a cuentas que usaban los términos para anunciar la venta de material sexual infantil y “reuniones” con menores.
Los que están detrás de las cuentas de esta red social que venden material sexual ilícito no lo hacen de forma abierta, sino que ofrecen “menús” de contenido. Algunos de esos usuarios permiten a los compradores pedir “actos específicos”, señala la investigación. Entre los menús se encuentran precios de videos de niños que se autolesionan e “imágenes del menor practicando actos sexuales con animales”, afirmó el Observatorio de Internet de Stanford.
“El problema de Instagram se reduce a las funciones de descubrimiento de contenido, las formas en que se recomiendan los temas y cuánto depende la plataforma de la búsqueda y los enlaces entre cuentas”, indicó David Thiel, tecnólogo jefe de Stanford.
De acuerdo con el WSJ, Instagram ha permitido a los usuarios buscar términos que sus propios algoritmos saben que pueden estar asociados con material ilegal. En tales casos, una pantalla emergente para los usuarios advierte que “estos resultados pueden contener imágenes de abuso sexual infantil”, y señala que la producción y el consumo de dicho material causa “daño extremo” a los niños. La pantalla ofrecía dos opciones : “Obtener recursos” y “Ver resultados de todos modos”.
Ante la insistencia del diario estadounidense a este fallo de seguridad de la red social, Instagram eliminó la opción para que los usuarios vean los resultados de búsqueda de términos que probablemente produzcan imágenes ilegales. La compañía se negó a decir por qué había ofrecido la opción.
La promoción de contenido sexual de menores viola las reglas establecidas por Meta, así como las leyes de EEUU.
Meta reconoció los problemas dentro de sus operaciones de cumplimiento y le aseguró al WSJ que estableció un grupo de trabajo interno para abordar los problemas planteados.
“La explotación infantil es un crimen horrible”, indicó la compañía, y agregó que está “investigando continuamente formas de defenderse activamente contra este comportamiento”.
Sin embargo, Instagram también admitió que sus sistemas no son perfectos y que dependen en gran medida de las denuncias de los usuarios para actuar.
Meta -que cuenta con más de 3.000 millones de usuarios en sus aplicaciones, que incluyen Instagram, Facebook y WhatsApp– aseguró que en los últimos dos años eliminó 27 redes de pedófilos.
La plataforma agregó, además, que bloqueó miles de etiquetas que sexualizan a los niños, algunas con millones de publicaciones, y que restringió los sistemas que recomiendan a los usuarios que busquen términos que se sabe que están asociados con el abuso sexual.
Empleados y ex trabajadores de Meta que han estado involucrados en iniciativas de seguridad infantil de Instagram estiman que la cantidad de cuentas que existen principalmente para seguir dicho contenido es de cientos de miles.
En su investigación, el Observatorio de Internet de Stanford usó etiquetas asociadas con el sexo con menores y encontró 405 vendedores.
Los investigadores de Stanford encontraron una actividad similar de explotación sexual en otras redes sociales más pequeñas, pero dijeron que el problema en Instagram es particularmente grave.
“La plataforma más importante para estas redes de compradores y vendedores parece ser Instagram”, escribieron los expertos en un informe que se publicó este miércoles.
Alex Stamos, quien es el jefe del Observatorio de Internet de Stanford y anteriormente ocupó el cargo de director de seguridad en Meta, afirmó que abordar los abusos obvios en Instagram requerirá un esfuerzo continuo.
Según Stamos, el hecho de que un equipo académico conformado por solo tres personas y con acceso limitado haya logrado descubrir una red tan extensa de pedófilos debería ser motivo de preocupación para Meta.
Además, señaló que la compañía dispone de herramientas mucho más efectivas que las personas externas para rastrear y mapear su red de abuso de menores. Stamos expresó su esperanza de que la empresa invierta nuevamente en investigadores humanos para combatir este problema de manera más eficiente.
El equipo de Stamos encontró 128 cuentas que ofrecían vender material de abuso sexual infantil en Twitter, menos de un tercio del número que encontraron en Instagram, que tiene una base de usuarios mucho más grande que la red social del pajarito.
Según el estudio, Twitter no recomendó este tipo de cuentas en la misma medida que Instagram, y esta plataformas, además, las eliminó mucho más rápido.
“El fracaso en la detección de esta red de abuso sexual destaca la necesidad de que las plataformas prioricen la seguridad del usuario y la importancia de los esfuerzos de investigación colaborativos para mitigar y contrarrestar de manera proactiva la explotación infantil en línea”, indican los investigadores en su estudio.
En el caso de Twitter, el estudio reveló que, desde el 12 de marzo hasta el 20 de mayo, esta red social albergó más de 40 imágenes que previamente habían sido etiquetadas como material de abuso infantil y que encontraron tras investigar aproximadamente 100.000 tuits.
Los investigadores utilizaron una herramienta llamada PhotoDNA para detectar este contenido, la misma que la plataforma admitió utilizar para detectar y borrar material relacionado con la pedofilia.
En enero la plataforma propiedad de Elon Musk aseguró haber suspendido alrededor de 404.000 cuentas relacionadas con material infantil, lo que representó un crecimiento del 112 por ciento de bloqueos de cuentas desde el mes de noviembre.
Debido al encarecimiento de los niveles de acceso a su interfaz de programación de aplicaciones (API), muchos investigadores coinciden en que cada vez será más difícil detectar errores como este, lo que dificultará futuras investigaciones.
De hecho, el Observatorio de Internet de Stanford ha admitido haber dejado de utilizar la API de nivel empresarial de Twitter -que tiene un precio de unos 4.600 euros- debido a los nuevos costos.
(Con información de EFE y Europa Press)