Las sugerencias producidas con inteligencia artificial generan el 70% de las visitas, pero la empresa no ha revelado detalles de cómo el sistema toma sus decisiones.
El algoritmo de YouTube que facilita videos de niños a posibles pedófilos
El algoritmo de YouTube que facilita videos de niños a posibles pedófilos
La plataforma de video de Google, YouTube, con su obsesión para tener con creces las miles de millones de horas de videos vistas al día, tiene un algoritmo que recomienda a pedófilos ver videos de niños en vestidos de baño y similares, según pudo determinar un equipo de investigadores del Centro Berkman Klein para Internet y Sociedad de Harvard.

En el sistema de la firma tecnológica, reseñado por el diario The New York Times, los pedófilos ni siquiera necesitan buscar videos de niños para terminar viéndolos y se los sugiere por medio del algoritmo de recomendaciones. Según los investigadores del reporte, se generó "una biblioteca de videos que sexualiza a los niños".

YouTube no deshabilitará su algoritmo, pero informó que tomará tres medidas que son básicamente restringir a menores de edad que realicen transmisiones en vivo a menos que estén acompañados de un adulto, reducir las recomendaciones de este tipo de contenidos y prohibir los comentarios en estos videos.

"Si bien el contenido en sí no viola nuestras políticas, reconocemos que los menores podrían correr el riesgo", indicó la compañía, que dice haber aplicado estos cambios a decenas de millones de videos en la plataforma.

Google enfatizó que en el primer trimestre de 2019 fueron eliminados más de 800.000 videos por violaciones sus políticas de seguridad infantil, la mayoría de ellas antes de que tuvieran diez vistas. Las normas de la plataforma incluyen aquellas que "prohíben explotar a menores, fomentar comportamientos peligrosos o inapropiados y agregar videos de menores en formas potencialmente explotadoras".

De esta manera, según añadió la propietaria de YouTube, han trabajado desde hace más de dos años en mejoras periódicas al clasificador de aprendizaje automático que ayuda a proteger a los menores y a las familias.

El estudio en cuestión se da luego de que YouTube desactivara comentarios en febrero sobre videos con menores. Esa medida derivó de informes que evidenciaban una tendencia de comentarios en videos sobre niños que podrían interpretarse de una manera erótica.

En ese momento, varias compañías, entre ellas Nestlé, McDonald's y AT&T, encabezaron un boicot al retirar sus anuncios de YouTube por inquietudes sobre comentarios inapropiados en videos donde aparecen niños.

El algoritmo de YouTube también tuvo un papel en ese escándalo: una vez que alguien se encontró con un video y al hacer clic en uno de los enlaces de comentarios, la barra lateral de recomendaciones surgiría otros videos similares.

El principal objetivo de YouTube es mantener a sus usuarios viendo videos el mayor tiempo posible, por lo tanto su tecnología está orientada a esa prioridad. Las críticas han llegado además por videos de teorías falsas y contenidos extremistas que los algoritmos impulsan, asuntos que la plataforma también ha tenido que atender.

Las recomendaciones se dan a través de inteligencia artificial, que según YouTube, está aprendiendo permanentemente las sugerencias que incentivan a los usuarios seguir mirando. Estas sugerencias generan el 70% de las visitas, pero la empresa no ha revelado detalles de cómo el sistema toma sus decisiones.