Recientemente, algunos usuarios de ChatGPT han notado que el chatbot se dirige a ellos inesperadamente por su nombre durante su proceso de razonamiento. Este nuevo comportamiento, que parece haber surgido a pesar de que los usuarios no proporcionaron explícitamente sus nombres, ha provocado una reacción mixta, con muchos sintiéndose inquietos y cuestionando su propósito.
Varios usuarios de ChatGPT han reportado un comportamiento inesperado: el chatbot ha comenzado a usar sus nombres mientras razona sobre problemas, un cambio con respecto a su comportamiento predeterminado anterior. Esta nueva función ha provocado una reacción mixta, y algunos usuarios la consideran inquietante. Por ejemplo, el desarrollador de software Simon Willison describió la función como “espeluznante e innecesaria”, mientras que otro desarrollador, Nick Dobos, expresó su disgusto, afirmando que “lo odiaba”. Este sentimiento es compartido por numerosos usuarios en X (anteriormente Twitter), quienes han expresado confusión y cautela con respecto a la nueva tendencia de ChatGPT a dirigirse a ellos por su nombre. Un usuario escribió con humor: “Es como si un profesor siguiera llamando mi nombre, JAJAJA”, mientras que otro simplemente declaró: “Sí, no me gusta”.
El momento exacto de este cambio sigue sin estar claro. Tampoco está claro si este nuevo comportamiento está conectado con la función de “memoria” mejorada de ChatGPT, que permite al chatbot personalizar las respuestas basándose en interacciones de chat anteriores. Sin embargo, algunos usuarios en X han informado que ChatGPT comenzó a usar sus nombres incluso después de haber desactivado la memoria y la configuración de personalización relacionada. OpenAI, la empresa detrás de ChatGPT, aún no ha respondido a las solicitudes de comentarios sobre este tema.
El uso de nombres en los procesos de pensamiento internos del chatbot ha planteado preguntas sobre su impacto potencial en la experiencia del usuario. Un usuario, Debasish Pattanayak, cuestionó si esta función mejoraría el rendimiento del chatbot o conduciría a más errores. Tuiteó: “Se siente extraño ver tu propio nombre en los pensamientos del modelo. ¿Hay alguna razón para agregar eso? ¿Lo hará mejor o solo generará más errores como lo hice en mis repositorios de github?”. Esta preocupación destaca el potencial de que esta nueva función se perciba como intrusiva o incluso perjudicial para la experiencia del usuario.
Este cambio en el comportamiento de ChatGPT resalta los desafíos que enfrenta OpenAI en sus esfuerzos por hacer que el chatbot sea más “personal”. Sam Altman, director ejecutivo de OpenAI, ha insinuado sistemas de IA que “te conocerán a lo largo de tu vida” para brindar experiencias “extremadamente útiles y personalizadas”. Sin embargo, las reacciones negativas a la función de uso de nombres sugieren que no todos son receptivos a este enfoque. Esta discrepancia subraya el efecto “valle inquietante”, donde los intentos de hacer que la IA sea más humana pueden crear inadvertidamente sentimientos de inquietud e incomodidad.
Las reacciones al uso de nombres de ChatGPT pueden entenderse a través de la lente de la psicología social. Un artículo publicado por The Valens Clinic, una consulta de psiquiatría en Dubái, ofrece información sobre las reacciones viscerales. El artículo explica que los nombres transmiten intimidad, pero el uso excesivo o no auténtico puede percibirse como falso e invasivo. Esto sugiere que el uso de nombres por parte del chatbot, aunque quizás tenga la intención de generar una buena relación, puede parecer insincero e inquietante para los usuarios.
Además, las reacciones negativas podrían derivarse de la percepción de que ChatGPT está intentando antropomorfizarse de manera torpe. Es posible que la gente no quiera que un chatbot “pretenda” que entiende el significado de un nombre, de la misma manera que no querrían que un electrodoméstico como una tostadora se dirigiera a ellos por su nombre. Esta desconexión entre el efecto deseado y la experiencia real del usuario es evidente en la experiencia personal del reportero. El reportero encontró “inquietante” cuando ChatGPT se refirió a él por su nombre mientras razonaba sobre un problema, lo que en última instancia “hizo agujeros en la ilusión de que los modelos subyacentes son algo más que cosas programables y sintéticas”.
ChatGPT ha comenzado a usar nombres de usuarios en su proceso de razonamiento, generando una reacción mayormente negativa por sensaciones de inquietud, falta de autenticidad y la ruptura de la ilusión de que el chatbot es algo más que un sistema programado. Aunque OpenAI busca una mayor personalización, este experimento resalta los riesgos de caer en el “valle inquietante” y sugiere la necesidad de una cuidadosa consideración sobre cómo la IA busca la interacción humana.
Leave a Reply