OpenAI publicó un informe que detalla el trabajo de seguridad que llevaron a cabo previo al lanzamiento de GPT-4o. El documento técnico ofrece detalles sobre la evaluación de riesgos potenciales, así como las salvaguardas implementadas en el modelo de lenguaje. Dentro del informe destaca una sección que indica que el nuevo asistente de voz de ChatGPT tiene cualidades para generar un vínculo emocional con los usuarios.
El apartado en cuestión se titula «Antropomorfización y dependencia emocional» y menciona el riesgo de atribuir comportamientos y características humanas a un modelo de IA. En el caso del asistente de voz, los avances en las capacidades de audio de GPT-4o permiten una interacción más «humana» con ChatGPT. Debido a ello, los usuarios podrían confundirse o generar un lazo con el chatbot.
OpenAI menciona que algunos ejemplos que encontraron durante la fase de pruebas del asistente de voz. La compañía señala que algunos usuarios utilizaron un lenguaje que mostraba signos de un vínculo con ChatGPT. Aunque a primera vista los casos parecen benignos, intimar con un chatbot de inteligencia artificial tendría efectos negativos en el largo plazo.
«La socialización similar a la humana con un modelo de IA puede producir externalidades que afecten a las interacciones entre humanos», indica la empresa. «Los usuarios pueden formar relaciones sociales con la IA, reduciendo su necesidad de interacción humana, lo que podría afectar las relaciones saludables.»
Otro efecto adverso de la interacción extendida con ChatGPT tiene que ver con las normas sociales. Debido a que el asistente permite la interrupción en todo momento, las personas podrían pensar que es un comportamiento normal que puede llevarse a cabo en una conversación con otro ser humano.
ChatGPT tiene potencial de convertirse en el nuevo Her
Lo primero que nos viene a la mente cuando pensamos en el asistente de voz de ChatGPT es Her. La película de 2013, protagonizada por Joaquin Phoenix y Scarlett Johansson, muestra a un hombre que se enamora de una IA. Theodore (Phoenix) es incapaz de superar a su exesposa o formar un vínculo con otras mujeres, por lo que inicia una relación con su asistente virtual, Samantha (Johansson).
La inspiración en la película de Spike Jonze fue tal que Sam Altman y OpenAI clonaron la voz de Scarlett para GPT-4o, lo que les ocasionó un problema legal. La empresa sabía en el fondo que su asistente de voz podría convertirse en una nueva Samantha y generar un lazo emocional con algunos usuarios.
OpenAI añade que las capacidades de su modelo de voz tienen el potencial de generar una dependencia excesiva. La tecnológica promete estudiar a fondo los efectos de la exposición prolongada a ChatGPT en poblaciones de usuarios más diversas.
«Tenemos la intención de estudiar más a fondo el potencial de la confianza emocional y las formas en que una integración más profunda de las muchas características de nuestro modelo y sistemas con la modalidad de audio puede impulsar el comportamiento», añadió.