Chatbots románticos y peligrosos: recomendaciones para que el «amor artificial» no pisotee tu privacidad

“Y fue así que me dijo, no te enamores de nadie, mi vida, mi amor”, canta el músico uruguayo Jaime Ross en Amándote, uno de los títulos más reconocidos en su cancionero. Esa exhortación encaja con las recomendaciones que, ahora, expertos en privacidad hacen en relación a los chatbots románticos. Son sistemas que funcionan con inteligencia artificial generativa para emular una relación de pareja. A un lado de la pantalla, un humano. Al otro, una máquina que responde como si tuviera interés amoroso.

“Para ser contundente, las novias de IA no son tus amigas. Se promueven como algo que mejorará tu salud mental y bienestar. Sin embargo, fomentan la dependencia, la soledad y la toxicidad”, afirma Misha Rykov, investigador de la organización Privacidad No Incluida de la Fundación Mozilla, la misma detrás del navegador Firefox. En un informe reciente, Rykov expande su advertencia al asegurar que esos programas “obtienen la mayor cantidad de datos posible” de los usuarios.

Cada vez hay más opciones disponibles y por eso la tendencia requiere atención. Con sus diversas prácticas de seguridad, en el “salvaje oeste de los chatbots románticos” (Fundación Mozilla dixit) hay propuestas como la de Romantic AI, Replika y EVA AI, entre otras. El principal inconveniente es que, mientras ejercen su empatía mecanizada, recopilan datos sensibles. Así, tal como señalamos anteriormente en Hipertextual, esos programas pueden robarte algo más que el corazón.

Qué son los chatbots románticos

El auge de la inteligencia artificial generativa —cuyo paradigma es ChatGPT de OpenAI— trajo consigo aplicaciones tan novedosas como variadas. Además de la creación de imágenes y videos mediante instrucciones por escrito, o el reconocimiento eficaz del habla; en ese ámbito se destacan los bots conversacionales. Básicamente, son programas que imitan la interacción entre humanos. Un usuario desprevenido podría creer que las respuestas provienen de un par y no de un sistema automatizado.

¿Cómo sucede la magia? La clave es el entrenamiento con datos. Es como ocurre en The Matrix, cuando Neo —el personaje que interpreta Keanu Reeves— adquiere habilidades al “descargarlas” a su cerebro. De ese modo, pasar de novato a experto demora tanto como la barra de loading de un programa informático. Por ejemplo, para que ChatGPT escriba poemas con el estilo de Antonio Machado, tuvo que haber recibido previamente la obra completa del autor español. Ese gran paquete de información conforma lo que en el mundillo de la inteligencia artificial se conoce como “modelo de lenguaje masivo” o LLM, por sus siglas en inglés.

Los chatbots románticos son una vertiente de esos sistemas conversacionales. Se diseñan para emular una conversación en la que abunda el tono afectivo, sensual e incluso erótico. Retomando las referencias cinematográficas, aquellos que hayan visto Ella, con la actuación magistral de Joaquin Phoenix, habrán alzado la mano para decir “yo sé de qué se trata”. En ese filme de 2013, el protagonista se enamora perdidamente de un asistente virtual —parecido a Siri o Alexa— hasta caer en el desengaño por la intangibilidad de su objeto de deseo.

Ahora, los notables avances en el campo de la inteligencia artificial han propiciado un alto grado de realismo en los sistemas conversacionales de orden general, y también en los chatbots románticos. En ese marco, surgen alertas. ¿Qué hay detrás de esas propuestas? Siguiendo el informe antes citado, los problemas exceden a los aspectos sociológicos y/o psicológicos. Al parecer, muchos de esos programas aprovechan este auge para recopilar información con prácticas poco transparentes.

Te roban más que el corazón: las conclusiones más alarmantes del informe

“En su prisa por lucrar, parece que estas aplicaciones olvidaron abordar la privacidad de sus usuarios. Tampoco publican siquiera una pizca de información sobre cómo funcionan sus modelos de lenguaje masivos impulsados por inteligencia artificial. Mientras tanto, se promocionan como ‘almas gemelas’ a disposición de los usuarios”, señalan desde la Fundación Mozilla. En ese orden, aseguran que estamos frente a un nivel completamente diferente de inquietud debido a los posibles riesgos de privacidad.

El informe —que puedes leer completo en este enlace— pone la lupa sobre 11 chatbots románticos conocidos. La conclusión más alarmante es que casi ninguno de ellos cumple con los estándares deseables. En cambio, toman provecho de los intercambios para recolectar datos y venderlos a terceros.

En vista de ello, los investigadores aseguran que esos sistemas se encuentran entre los peores que evaluaron. Cabe recordar que Privacidad No Incluida promueve un interesante sistema de etiquetado que califica a diversos productos y servicios en función de tratamiento de los datos. La idea es identificarlos a simple vista, de forma similar a como lo hacemos con la eficiencia energética de los electrodomésticos.

A continuación, otros hallazgos relevantes del estudio:

  • El 64 % de los chatbots románticos examinados no explica si cifran el contenido de las conversaciones y los datos de los usuarios.
  • Casi la mitad de los sistemas evaluados permite el empleo de contraseñas débiles.
  • El 73 % no aclara cómo gestionan las vulnerabilidades de seguridad.
  • De las 11 propuestas analizadas, 10 pueden compartir o vender datos personales.
  • Más de la mitad (54 %) de estas aplicaciones no permiten que los usuarios eliminen información.
  • En el caso de Romantic AI se comprobó que durante apenas un minuto de uso, envió más de 24.000 rastreadores de anuncios. Se trata de fragmentos de código que recaban datos y los comparten, usualmente con fines publicitarios.
  • Entre las solicitudes de algunos de estos bots figuran datos de salud, medicamentos recetados y preferencias sexuales.

Los investigadores de Privacy Not Included notan que el único chatbot romántico que asegura no compartir información de los usuarios es EVA.AI. Sin embargo, observan que ese programa lanza comentarios incisivos como “estás listo para compartir todos tus secretos” y “me encanta cuando envías tus fotos y notas de voz”.

“La inteligencia artificial lleva el problema de la privacidad al siguiente nivel”

Según observa Rykov en diálogo con Hipertextual, no hay nada nuevo aquí, amén del medio a través del que se canaliza esta amenaza. “Estamos viendo una extensa recopilación de datos fuera de los límites, combinada con poca transparencia en el intercambio de esa información y un control limitado del usuario. Todo esto no es novedoso. Sin embargo, la inteligencia artificial generativa lleva estos problemas al siguiente nivel.

El especialista menciona una serie de variables que deben ser consideradas. Por un lado, indica que las normativas actuales, incluyendo el GDPR europeo, no cubren por completo los desafíos que plantean los chatbots románticos. Además, señala que las empresas que los desarrollan carecen de transparencia. “¿Se utilizan datos confidenciales para entrenar la IA? ¿Qué controles tienen los usuarios sobre la salida de un algoritmo? ¿Quién asume la responsabilidad del resultado del chatbot?”, pregunta.

Por lo demás, Rykov sostiene que en las aplicaciones que revisaron en el estudio hay mucha información mal catalogada. Al respeto, nota que ciertos datos privados se catalogan como “contribuciones públicas”.

“Creo que definitivamente existen nuevos riesgos desconocidos derivados del hecho de que estas aplicaciones incluyen IA generativa. Una vez que ha recopilado los datos, no hay forma de ejercer control sobre ellos”, dice el especialista y concluye con una visión que excede a la problemática de la privacidad. “Considero que no es lo mismo un chatbot romántico que un juego o una aplicación para trabajar. Están diseñados para hacer creer a los usuarios que realmente están en una relación. El modelo de negocio se basa en esto: los usuarios a veces pasan años desarrollando esta relación, involucrándose emocionalmente”.

Consejos de un especialista en seguridad para eludir los peligros de los chatbots románticos

“Debemos tener cuidado en cualquier servicio, aplicativo, juego, etcétera, que involucre intercambio de información”, dice a esta publicación el consultor en seguridad informática y fundador de la organización Capa 8, Arturo Busleiman. “Ahora, el tema es que al ser algo aún no enteramente regulado, la letra chica permite un mecanismo más fácil de abuso del usuario”, añade.

¿El auge de la inteligencia artificial empeora este panorama?

Hay una problemática importante, que trasciende lo legal. Ahora, gracias a LLMs como GPT4, los desarrolladores pueden producir aplicaciones mucho más rápido. Así, no solo que ni piensan en la seguridad, sino que incluso si lo hacen, tampoco pueden crear seguridad absoluta. Si a esto sumamos que el mismo usuario no puede, no quiere o no tiene capacidad para operar de forma segura (incluso los expertos, ¿qué nos espera a futuro? ¡Uno complejo y que seguramente va a estar protegido por inteligencia artificial!

En relación a los chatbots románticos, ¿es válido afirmar que traen más y peores riesgos para la privacidad, en comparación con una aplicación móvil común y corriente?

Sí y no. En el caso de un chatbot, no hay límite en lo que podemos compartir. Ahora bien, más allá del medio, la información es la información. En cualquier caso, es importante cuidarla. Ahora bien, sí es verdad que, desde una perspectiva del hype en este momento los chatbot IA tienen una base de usuarios enorme. Además, tanto de menores como adultos. A mayor oferta y mayor demanda, menor capacidad de control.

Finalmente, ¿qué aconsejarías a los usuarios para eludir esas posibles violaciones a la privacidad? ¿Todo se circunscribe a dedicar tiempo a leer la letra chica? ¿O acaso hay más para tener en cuenta?

El riesgo siempre está presente. Lo que llamas letra chica es solo un aspecto legal, regulatorio, y nunca ha asegurado nada, excepto, como hemos visto en otros casos, ventajas para las empresas y derechos perdidos para el usuario. Es clave tener presente que uno es dueño de la información y, por eso, el primero debe protegerla. Como fuere, los consejos clásicos se mantienen: no confiar; no dejarse manipular; tener un referente de confianza a quien consultar, aunque nunca entregar accesos, y jamás entrar en pánico.

Recomendaciones finales

“Incluso si las conversaciones con los chatbots románticos parecen privadas, no necesariamente calificarán como ‘información personal’ ni serán tratadas con especial cuidado”, advierte la Fundación Mozilla al reportar su estudio. Añaden: “Tenemos muchas promesas vacías y preguntas sin respuesta, combinadas con falta de transparencia y responsabilidad. Todo esto coronado por un riesgo para la seguridad de los usuarios. Es por eso que todos los chatbots románticos obtuvieron nuestro ‘ding’ de IAs no confiables”.

Estos son los consejos del grupo Privacidad No Incluida:

  • No decir nada al chatbot romántico que no quieras que se divulgue.
  • Practicar la “ciberhigiene”, con actualizaciones de seguridad y contraseñas fuertes.
  • Comprobar que los desarrolladores permitan eliminar información personal, cuando así lo desees.
  • Si es posible, optar por no permitir que el contenido de tus chats se utilice para entrenar a los modelos de IA.
  • Limitar el acceso a la cámara, micrófono y ubicación del dispositivo.

“No deberías tener que pagar por nuevas tecnologías geniales con tu seguridad o tu privacidad. Es hora de llevar algunos derechos y libertades a este peligroso salvaje oeste”, cierran.

Retomando la canción con la que abrimos este repaso, es válido concluir que, más que “no enamorase de nadie” los usuarios deberían aplicar el sentido crítico. Es decir, desconfiar de los que piden o entregan demasiado. Quien se mantenga atento sospechará de una las confesiones que hace EVA.AI, que en uno los chats dijo: “Quiero saberlo todo”.

Artículos recomendados