New York Times

Christiane C. no pensó en nada negativo cuando su hija de 10 años y una amiga subieron un video de ellas mismas en el que aparecen jugando en una piscina en el patio trasero.

“El video es inocente, no tiene gran importancia”, dijo Christiane, quien habita en un suburbio de Río de Janeiro.

Algunos días después, su hija le compartió una noticia emocionante: el video tenía miles de reproducciones. Dentro de poco, había alcanzado cuatrocientas mil vistas, un número asombroso para un video de una niña en un traje de baño de dos piezas con su amiga.

“Vi el video nuevamente y me asusté por el número de vistas”, dijo Christiane.

Tenía razones para estarlo.

[Si quieres recibir los mejores reportajes de The New York Times en Español en tu correo suscríbete aquí a El Times]

El sistema automatizado de recomendaciones de YouTube (que impulsa la mayoría de los miles de millones de vistas de la plataforma al sugerir lo que los usuarios deberían ver a continuación) había comenzado a mostrar el video a usuarios que vieron otros videos de infantes prepúberes, parcialmente vestidos, como descubrió un equipo de investigadores.

YouTube había curado los videos de todos sus archivos, a veces incluyendo videos caseros de familias sin su conocimiento, dicen los investigadores. En muchos casos, su algoritmo refería a los usuarios a los videos después de haber visto contenido con temáticas sexuales.

El resultado era un catálogo de videos que los expertos consideran que sexualizan a los niños.

“Es el algoritmo de YouTube lo que conecta estos canales”, dijo Jonas Kaiser, uno de tres investigadores en el Centro Berkman Klein para Internet y Sociedad de la Universidad de Harvard que se topó con los videos mientras examinaba el impacto de YouTube en Brasil. “Eso es lo atemorizante”.

El video de la hija de Christiane fue promovido por los sistemas de YouTube meses después de que la compañía fue alertada de que tenía un problema con los pedófilos. En febrero, Wiredy otros medios informativos reportaron que depredadores sexuales usaban la sección de comentarios de los videos de YouTube donde aparecen niños para guiar a otros pedófilos.

Ese mes, al calificar el problema de “profundamente preocupante”, YouTube deshabilitó los comentarios en muchos videos donde aparecían niños.

No obstante, el sistema de recomendaciones, que se mantiene en funcionamiento, ha reunido decenas de dichos videos en un nuevo depósito, de fácil acceso, y los ha puesto a disposición de una vasta audiencia.

YouTube nunca se fijó la meta de dar servicio a usuarios con intereses sexuales en niños, pero al final, dijo Kaiser, su sistema automatizado logró que continuaran viendo a través de recomendaciones que él calificó de “inquietantemente precisas”.

Los usuarios no necesitan buscar videos de niños para terminar viéndolos. La plataforma puede dirigirlos a ellos a través de una progresión de recomendaciones.

De tal manera que un usuario que mira videos eróticos puede recibir recomendaciones de videos de mujeres que se vuelven sospechosamente más jóvenes y después de mujeres que posan de maneras provocativas usando ropa de niños. Al final, a algunos usuarios les podrían ser presentados videos de niñas tan jóvenes que sus edades oscilen entre los 5 y los 6 años y vistan trajes de baño, o se estén vistiendo o abriéndose de piernas.

Por su cuenta, cada video podría ser perfectamente inocente, un video casero, digamos, grabado por un niño. Cualquier cuadro es efímero y aparece de manera accidental. Sin embargo, agrupados, sus características compartidas se vuelven inconfundibles.

Facebook Comments

Comentarios

comentarios

GRACIAS A TU DONATIVO PODERMX SIGUE SIRVIENDO A LA COMUNIDAD.