Este mismo lunes, mi compañero, Alberto R. Aguiar, se proponía mirar a la luna cuando todos los demás estábamos mirando al dedo. Lo hacía en relación al ya famoso pajaporte, la medida que pretende implantar el Gobierno de España para que sea necesario identificarse de forma oficial para poder consumir contenido pornográfico.
Esta norma busca proteger de esa forma a los menores de edad para que no puedan acceder a un determinado tipo de contenidos «inadecuados». Lejos de la conversación que se ha generado en torno a esta legislación, con respecto a su viabilidad técnica, la posible regulación desmedida o la supuesta vulneración de la privacidad de los usuarios, Aguiar apuntaba en otra dirección.
Y es que determinados expertos han asegurado ya que el Ejecutivo no está poniendo el foco en las grandes responsables del malestar digital, que en última instancia podrían ser las plataformas que alojan este tipo de contenidos.
Cuestiones como la publicación en redes sociales de imágenes pornográficas no consentidas han servido precisamente para señalar a esas mismas redes sociales que permiten que ese contenido se publique en sus plataformas. A este problema, ya de por sí bastante grave, habría que sumar ahora la capacidad técnica para cometer delitos que ofrece la inteligencia artificial generativa.
Los deepfakes pornográficos son una cuestión que ha llevado al propio Gobierno de Estados Unidos a calificar el problema de «alarmante» y al director ejecutivo de Microsoft, Satya Nadella, a decir que las grandes tecnológicas deben actuar.
Sin embargo, algunas empresas de este sector todavía no estarían haciendo todo lo posible por erradicar este tipo de contenidos. Al menos esa es la conclusión a la que podría llegarse al leer la última información que ha publicado Wired.
Tal y como ha recogido el medio de comunicación especializado en tecnología, fuentes internas de Google han declarado —bajo condición de anonimato— que están teniendo dificultades para conseguir que sus ejecutivos actúen en ese sentido.
Wired cita el caso de un trío de mujeres que fueron víctimas de una estafa que dio lugar a la difusión de vídeos explícitos de ellas en internet, un contenido que aparecía incluso a través de los resultados de búsqueda de Google. Estas mujeres formaban parte de la trama delictiva que se formó alrededor de la página web pornográfica GirlsDoPorn, que se saldó con el cierre de la página en 2020.
Al parecer, un productor, un contable y un cámara de GirlsDoPorn se declararon culpables de tráfico sexual, pero los vídeos seguían apareciendo en las búsquedas de Google más rápido de lo que las mujeres podían solicitar su retirada.
Según ha informado el medio de comunicación, estas mujeres se pusieron en contacto con Google y, en una reunión en la que participaron dos trabajadores pertenecientes al equipo de políticas de la tecnológica, presentaron una serie de ideas sobre cómo Google podría ocultar mejor los vídeos delictivos y degradantes.
Dos años después, ninguna de las ideas planteadas en dicha reunión se ha puesto en práctica y los vídeos de estas mujeres siguen apareciendo en las búsquedas.
Wired afirma haber hablado con cinco antiguos empleados de Google y con diez defensores de las víctimas. Todos ellos aseguran que agradecen los recientes cambios introducidos por la compañía que ponen el foco en este tipo de cuestiones (haciendo que sea posible solicitar la eliminación de contenido), pero indican que les frustra que el gigante tecnológico no haya aprobado otras propuestas.
Un portavoz de Google habría declarado al medio tecnológico que la lucha contra lo que la empresa denomina «imágenes explícitas no consentidas» sigue siendo una prioridad y que las acciones de Google van mucho más allá de lo que exige la ley: «A lo largo de los años, hemos invertido mucho en políticas líderes en el sector para ayudar a proteger a las personas afectadas por este contenido nocivo».
«Los equipos de todo Google siguen trabajando diligentemente para reforzar nuestras salvaguardas y abordar cuidadosamente los nuevos retos para proteger mejor a las personas», ha añadido el representante de la organización.