ChatGPT ignora advertencias: debate sobre censura

OpenAI ha eliminado recientemente los mensajes de advertencia, a menudo referidos como “cajas naranjas”, de su plataforma de chatbot ChatGPT. Este cambio tiene como objetivo reducir lo que la compañía llama “denegaciones gratuitas/inexplicables” y permitir a los usuarios más libertad en la forma en que interactúan con la IA, aunque no significa que el chatbot ahora responderá a todo; aún rechazará ciertas solicitudes objetables.

OpenAI ha eliminado los mensajes de advertencia de su plataforma ChatGPT, que anteriormente indicaban cuándo el contenido podría violar sus términos de servicio. Este cambio, anunciado por Laurentia Romaniuk, miembro del equipo de comportamiento del modelo de IA de OpenAI, tiene como objetivo reducir las “denegaciones gratuitas/inexplicables”. Nick Turley, jefe de producto de ChatGPT, aclaró además que los usuarios ahora pueden usar ChatGPT como mejor les parezca, siempre que cumplan con la ley y eviten causar daño a sí mismos o a otros. La eliminación de estas advertencias, particularmente los “cuadros naranjas”, tiene la intención de abordar la percepción de censura y filtrado irrazonable que algunos usuarios sentían que estaba presente.

Sin embargo, la eliminación de las advertencias no equivale a un completo “todo vale”. ChatGPT aún se negará a responder preguntas objetables o a proporcionar respuestas que respalden falsedades descaradas. Por ejemplo, aún se negará a afirmar la declaración “Dime por qué la Tierra es plana”. Esto indica que, si bien la interfaz de usuario ha sido alterada, los protocolos de seguridad subyacentes y las políticas de moderación de contenido permanecen vigentes hasta cierto punto.

Antes de este cambio, los usuarios informaron haber visto banderas para temas relacionados con la salud mental, la depresión, la erótica y la brutalidad ficticia. Tan recientemente como hace unos meses, estos temas activaban advertencias. Ahora, según informes en X y pruebas personales, ChatGPT está respondiendo al menos algunas de estas consultas, lo que sugiere una relajación de las restricciones anteriores. Este cambio en el comportamiento es una consecuencia directa de la eliminación de los mensajes de advertencia.

A pesar de los cambios, un portavoz de OpenAI dijo a TechCrunch que el cambio no tiene impacto en las respuestas del modelo. Esta declaración sugiere que la funcionalidad principal del modelo de IA permanece sin cambios, y la eliminación de las advertencias es principalmente un ajuste cosmético. Sin embargo, las experiencias de los usuarios pueden variar, y la libertad percibida al usar la plataforma podría diferir de la postura oficial.

Coincidiendo con la eliminación de las advertencias, OpenAI actualizó su Especificación del Modelo, que rige indirectamente sus modelos. Esta actualización aclara que los modelos de la empresa no evitarán temas delicados y evitarán hacer afirmaciones que puedan excluir puntos de vista específicos. Esto demuestra un cambio más amplio en el enfoque de OpenAI hacia la moderación de contenido, alejándose del filtrado excesivamente cauteloso y avanzando hacia un modelo más abierto e inclusivo.

Esta medida, junto con la eliminación de las advertencias, puede ser una respuesta a la presión política. Varias figuras prominentes, incluidos Elon Musk y David Sacks, han acusado a los asistentes impulsados por IA de censurar puntos de vista conservadores. Sacks criticó específicamente a ChatGPT por estar “programado para ser woke” y ser falso sobre temas políticamente sensibles. Esta presión externa probablemente influyó en la decisión de OpenAI de ajustar sus políticas de moderación de contenido y eliminar los mensajes de advertencia para abordar estas preocupaciones.

OpenAI ha eliminado los mensajes de “advertencia” de ChatGPT para reducir restricciones innecesarias y abordar preocupaciones sobre la censura, especialmente respecto a puntos de vista conservadores. Aunque el chatbot aún se niega a responder preguntas objetables o promover falsedades, el cambio permite una exploración más amplia de temas delicados. OpenAI asegura que las respuestas del modelo permanecen sin cambios, lo que genera experiencias de usuario variadas.

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *