Red Sexonet

Hablemos de sexo

  • En esta web, como su nombre indica, hablamos de sexo y publicamos fotos eróticas.
  • Aunque NO es un sitio de porno, no recomendamos su lectura a menores de edad ni personas con sensibilidad negativa a estos temas.
  • En esta web, como su nombre indica, hablamos de sexo y publicamos fotos eróticas.
  • Aunque NO es un sitio de porno, no recomendamos su lectura a menores de edad ni personas con sensibilidad negativa a estos temas.
Sexo virtual e IA

Los deepfakes pornográficos son un gran problema: estas son algunas de las herramientas que podrían ayudar a detenerlos

Los riesgos que conlleva la inteligencia artificial pueden parecer abrumadores: por cada beneficio que ofrece esta tecnología, aparece un daño colateral.

Uno de los principales problemas creados por la IA son los deepfakes: vídeos, imágenes o archivos de audio generados por inteligencia artificial que pueden diseñarse para imitar a una persona real diciendo o haciendo algo que nunca sucedió. Algunos deepfakes se superponen a una secuencia de vídeo real, mientras que otros son completamente generados por ordenador.

Un estudio de 2019 titulado El estado de los deepfakes, realizado por la firma tecnológica Deep Trace, constató que el 96% de los videos deepfake eran pornográficos. Henry Ajder, un investigador especializado en deepfakes y coautor de ese estudio, ha declarado a Business Insider que, si bien la cifra puede haber cambiado, el problema sigue siendo igual de grave.

A medida que los generadores de imágenes por IA, como DALL·E, Stable Diffusion y Midjourney, se vuelven más accesibles, es más fácil que personas con muy pocos conocimientos técnicos puedan generar deepfakes.

“El porcentaje total ahora es menor, pero el volumen global de contenido deepfake pornográfico se ha disparado“, ha afirmado Ajder. “Estamos hablando de millones de víctimas en todo el mundo”.

Aunque el contenido es falso, la humillación, la sensación de trauma y la intimidación para las víctimas son muy reales. Una adolescente británica se suicidó en 2021 después de que otros estudiantes de su instituto generasen y compartiesen deepfakes pornográficos de ella en un grupo de Snapchat, según publicó BBC News.

El mes pasado empezaron a circular por internet deepfakes pornográficos de Taylor Swift, lo que llevó a Elon Musk a prohibir las búsquedas de la superestrella del pop en X.

La situación puede parecer desoladora, pero existen herramientas y métodos que pueden ayudarte a protegerte contra la manipulación de tu identidad por parte de la inteligencia artificial.

Detección de deepfakes

Las marcas de agua digitales, en las que el contenido aparece claramente etiquetado como generado por IA, han sido vistas como una solución por administraciones como el Gobierno de Joe Biden en Estados Unidos.

El objetivo de estas etiquetas sería concienciar al público y facilitar a las plataformas la eliminación de deepfakes perjudiciales. Google y Meta han anunciado sendos planes para empezar a etiquetar el material creado o modificado por inteligencia artificial con una “credencial digital” que aclare el origen de los contenidos.

Por su parte, la desarrolladora de ChatGPT y del generador de imágenes DALL·E, OpenAI, planea incluir tanto una marca de agua visual como metadatos ocultos que revelen la procedencia de una imagen de acuerdo con las normas de la Coalición para la Autenticidad y Procedencia de los Contenidos (C2PA, por sus siglas en inglés).

También existen plataformas dedicadas a comprobar el origen del material que se publica online. Sensity, otra empresa que colaboró en la realización del estudio sobre deepfakes del 2019, ha desarrollado un servicio de detección que alerta a los usuarios por correo electrónico cuando están viendo contenido con marcas que delatan que ha sido generado por inteligencia artificial.

Pero incluso cuando una imagen sea obviamente falsa (aunque la mayoría siga sin tener marcas de agua), la persona que se vea afectada por la misma puede seguir sintiéndose agredida.

“Píldoras envenenadas”

Las herramientas defensivas que protegen las imágenes de la manipulación se consideran una solución más sólida, aunque todavía se encuentran en las primeras fases de sus respectivos desarrollos.

Estas herramientas ofrecen a los usuarios la posibilidad de procesar sus imágenes con una señal imperceptible que, al pasar por cualquier sistema basado en IA, generan un resultado inutilizable y borroso.

Por ejemplo, Nightshade es una herramienta desarrollada por investigadores de la Universidad de Chicago, EEUU, que añade píxeles a las imágenes que se corrompen cuando estas pasan por una inteligencia artificial, pero que dejan la imagen con un aspecto pensado para los seres humanos.

“Puedes pensar en Nightshade como si añadieses una pequeña píldora envenenada dentro de una obra de arte, de tal forma que, literalmente, intenta confundir al modelo de entrenamiento sobre lo que realmente hay en esa imagen”, explicaba Ben Zhao, uno de los investigadores responsables de esta herramienta, a NPR.

Aunque haya sido diseñada para proteger la propiedad intelectual de los artistas, Nightshade puede funcionar con cualquier fotografía.

“Es una defensa de primera línea para que la gente se sienta segura al subir fotos del cumpleaños de su amigo ese fin de semana”, ha asegurado Ajder.

La regulación puede marcar la diferencia

El Reglamento de la inteligencia artificial impulsado por la Unión Europea está cada vez más cerca de ser una realidad y según, Associated Press, al menos 10 estados de Estados Unidos ya han puesto en marcha un conjunto de medidas de protección jurídica para las víctimas de deepfakes.

Aun así, los recientes casos de gran repercusión han aumentado la presión sobre los organismos reguladores para que disuadan y castiguen el uso malintencionado de la IA y de los deepfakes.

La Comisión Federal de Comunicaciones estadounidense ha prohibido los contestadores automáticos generados por inteligencia artificial después de que varios delincuentes hiciesen llamadas falsas utilizando una voz generada por IA que sonaba como Joe Biden para intentar condicionar el resultado de las primarias de New Hampshire.

Además, el pasado mes de enero, un grupo bipartidista de senadores de EEUU presentó un proyecto de ley federal conocido como Ley DEFIANCE que permitiría a las víctimas demandar a quienes generen y distribuyen deepfakes sexuales de ellas, convirtiéndolo así en un asunto civil en lugar de penal.

Aun así, un proyecto de ley presentado en mayo de 2023 por el congresista estadounidense Joe Morelle para penalizar el intercambio de deepfakes no ha llegado a buen puerto.

Y es que gran parte de esta nueva legislación se enfrenta a los defensores de la libertad de expresión. La razón, según Henry Ajder, es que algunos ven la creación privada de deepfakes como algo parecido a una fantasía que alguien puede tener en su cabeza sobre un enamoramiento. Si nadie se entera del contenido pornográfico, ¿se perjudica realmente a alguien?

Disuasión penal

El problema de los deepfakes también ha afectado a la legislación del Reino Unido, donde la Ley de Seguridad Online ha ilegalizado la distribución de deepfakes pornográficos, pero no su creación.

“Mi contraargumento es que, si creas este contenido, estás dando vida a algo que puede compartirse de una forma que una fantasía en realidad no”, ha argumentado Ajder. En su opinión, aunque sea difícil de perseguir, la penalización de la pornografía deepfake sigue siendo un importante elemento disuasorio.

Algunas personas utilizan herramientas de inteligencia artificial para crear contenidos para su consumo privado, afirma Ajder. Sin embargo, es importante asegurarse de que se dan cuenta de que se trata de una conducta delictiva, añade, para disuadir a los que simplemente sientan curiosidad.

Los gobiernos también pueden presionar a los motores de búsqueda, a los creadores de herramientas de IA y a las plataformas de redes sociales donde se distribuyen esos contenidos.

En la India, un escándalo de pornografía falsa en el que se vieron implicadas varias actrices de Bollywood llevó al Gobierno a acelerar la legislación y presionar a las grandes empresas tecnológicas para que impidiesen la difusión online de contenidos generados por inteligencia artificial.

No debemos engañarnos pensando que es posible erradicar por completo el problema“, apunta Ajder. “Lo mejor que podemos hacer, en mi opinión, es introducir la mayor fricción posible para que tengas que ser increíblemente consciente [de lo que estás haciendo] a la hora de intentar crear estos contenidos”.

Polly Thompson,