El uso de las redes sociales por menores es un debate que se mantiene sobre la mesa, ya bien sea por los efectos psicológicos que estás pueden generar en ellos o por el contenido que se consume. Y es que, según unas pruebas realizadas por The Wall Street Journal y la profesora de la Universidad Northeastern Laura Edelson, Instagram recomienda contenido, específicamente reels, subido de tonos a menores de 13 años.
Para estas pruebas, Edelson junto al periódico crearon unas nuevas cuentas entre enero y abril en la red social y señalaron que su edad era 13 años. Es así como se dieron cuenta que desde el inicio Instagram ofrecía vídeos moderadamente subidos de tonos, donde se mostraban mujeres bailando sensualmente o contenido de usuarios que se centraba especialmente en sus cuerpos. Como parte de la prueba, las cuentas se saltaban otros reels que no estuviesen relacionados con ese contenido y seguidamente comenzaron a aparecer más vídeos explícitos.
Entre algunos de los vídeos que se mostraban en el feed de las cuentas, se veían a mujeres casi desnudas haciendo actos que hacían alusión a prácticas sexuales, así como otras que prometían enviar fotos o vídeos completamente desnudas a los usuarios que comentaran en sus cuentas. Tan solo 3 minutos después de haberse creado las cuentas, los supuestos usuarios de 13 años comenzaron a recibir vídeos de contenido sexual y a los 20 minutos de verlos, la sección de Reels recomendados ya estaba dominado casi en su totalidad por creadores de contenido sexual.
Otras redes sociales no muestran contenido sexual a menores
Como parte de la prueba, The Wall Street Journal y la profesora Edelson realizaron la misma prueba en otras redes sociales como TikTok y Snapchat y descubrieron que ninguna de esas dos plataformas recomendaba vídeos sexuales a las cuentas de adolescentes que habían creado. En este caso, las cuentas ni siquiera vieron recomendaciones de vídeos inapropiados para su edad después de buscarlos de manera activa y seguir a creadores de contenido sexualido.
Por su parte, The Journal afirma que los empleados de Meta ya habían identificado anteriormente problemas similares, basándose en documentos no revelados que vio y que detallan investigaciones internas sobre experiencias no apropiadas en Instagram para los jóvenes adolescentes. En el pasado el personal de seguridad de Meta había realizado la misma prueba y habían llegado a resultados similares.
Frente a ello, en enero Meta introdujo significativas actualizaciones de privacidad relacionadas con la protección de los usuarios adolescentes y los colocó automáticamente en su configuración de control más restrictiva. Aun así, las pruebas de The Journal se llevaron a cabo después de que se hayan implementado esas actualizaciones obteniendo los mismos resultados en junio. Esas primeras actualizaciones presentadas por Meta se dieron tras la publicación de un anterior informe también presentado por The Journal, por lo que se espera que esta vez las actualizaciones sean más precisas y tomen el verdadero control del problema.