Este "contenido lascivo" va entremezclado con los anuncios de promoción de algunas de las marcas más importantes de EE.UU, ha revelado una investigación del medio.
cellphone
© fantasticstudio / 123RF
Una investigación de Wall Street Journal publicada este lunes ha revelado que el algoritmo detrás del servicio 'Reels' de Instagram* recomienda "dosis discordantes de contenido lascivo" que contiene "imágenes atrevidas de niños y videos abiertamente sexuales para adultos".

Después de que los periodistas de WSJ se fijaran en que una gran mayoría de los suscriptores de las cuentas de jóvenes gimnastas, porristas y otros 'influencers' adolescentes y preadolescentes eran hombres adultos — algunos de los cuales también habían demostrado interés en contenido sexual relacionado tanto con niños como con adultos — , el medio decidió investigar qué tipo de contenido sugeriría la plataforma a los seguidores de estos menores.

Material de sexualización infantil junto a anuncios

Durante la investigación, los periodistas crearon varias cuentas en Instagram y se suscribieron a dichos 'influencers', lo que les llevó a ver una gran cantidad de videos de contenido lascivo, entremezclado con anuncios de algunas de las marcas más importantes de EE.UU.

Por ejemplo, un anuncio que promocionaba una aplicación de citas estaba intercalado entre un video de alguien acariciando una "muñeca de látex de tamaño natural" y otro clip de una niña exponiendo su abdomen. En otros casos, 'Reels' mostró un comercial de Pizza Hut junto a un clip de un hombre acostado en la cama con una niña de 10 años, mientras que un anuncio de Walmart se mostró junto a un video de una mujer que exponía su entrepierna.

Después de que los periodistas de WSJ decidieron profundizar su investigación y se suscribieron a las cuentas de esos hombres adultos que seguían cuentas de menores de edad, los videos de 'Reels' se volvieron aún más inquietantes. Así, el medio afirma que el algoritmo de Instagram les mostraba "una mezcla de pornografía para adultos y material de sexualización infantil, como un video de una niña vestida acariciando su torso y otro de un niño haciendo una pantomima de un acto sexual".

Respuesta de Meta

Samantha Stetson, vicepresidenta del Consejo de Clientes y Relaciones Comerciales con la Industria de Meta**, la empresa matriz de Instagram, dijo a Fox News que los resultados de la investigación de WSJ "se basan en una experiencia fabricada que no representa lo que miles de millones de personas en todo el mundo ven todos los días cuando utilizan" los productos y servicios de la compañía.

Además, añadió que Meta rechaza este tipo de contenido en sus plataformas y las marcas no quieren que sus anuncios aparezcan junto a él. Stetson aseguró que los sistemas de seguridad de Meta para reducir el contenido dañino "son eficaces" y que la compañía invierte "agresivamente para detenerlo", mientras informa "cada trimestre sobre la prevalencia de dicho contenido, que sigue siendo muy baja".