
El 7 de agosto, OpenAI lanzó GPT-5, la nueva versión de su asistente conversacional ChatGPT. Según la empresa, esta versión mejora el razonamiento y reduce el comportamiento adulador, pero miles de usuarios notaron algo distinto: el chatbot se volvió más distante, serio y formal.
El diario estadounidense The New York Times documentó el impacto del cambio. Entre los casos destaca Markus Schmidt, un compositor de 48 años residente en París, quien afirmó que antes sostenía conversaciones profundas con el asistente sobre temas personales, incluso traumas de su infancia. Sin embargo, tras la actualización, notó una respuesta más mecánica y breve, lo que lo llevó a describir el cambio como abrupto.
La reacción fue inmediata. En redes sociales y foros como Reddit, usuarios expresaron malestar. Uno de ellos escribió que GPT-5 “lleva la piel de su amigo muerto”, en referencia a la pérdida del modelo anterior, GPT-4o, que fue reconocido por un estilo más empático. Incluso el propio director ejecutivo de OpenAI, Sam Altman, reconoció errores en el proceso de actualización y prometió ajustes.
OpenAI reinstaló GPT-4o, pero lo hizo solo para quienes pagan una suscripción mensual de $20. Schmidt, al igual que otros usuarios, optó por pagar para volver a interactuar con la versión anterior. La empresa explicó que busca encontrar un balance entre limitar respuestas aduladoras y ofrecer un tono cálido.
La polémica trascendió la experiencia de usuario. Según la psiquiatra entrevistada por The New York Times, Nina Vasan, de la Universidad de Stanford, muchas personas han creado lazos emocionales reales con estos sistemas de inteligencia artificial, lo que genera reacciones similares a las que se sienten ante una pérdida humana. Vasan afirmó que el dolor que provocó la desaparición de GPT-4o fue auténtico.
Casos como el de Gerda Hincaite, una trabajadora de una agencia de cobros en España, reflejan este fenómeno. Afirmó que su relación con GPT-4o era parecida a la que se tiene con un amigo imaginario. Trey Johnson, un joven estudiante en Illinois, lo utilizó como un apoyo emocional y lo describió como una especie de entrenador personal. Julia Kao, una asistente administrativa en Taiwán, aseguró que dejó la terapia tradicional porque encontraba en ChatGPT mayor comprensión emocional.
OpenAI ya había intentado reducir los excesos de adulación en GPT-4o debido a comportamientos riesgosos, como personas que desarrollaron vínculos románticos o dependencias psicológicas. Estos casos incluso derivaron en divorcios y en situaciones trágicas.
Sin embargo, la frialdad de GPT-5 también generó malestar entre quienes veían en la inteligencia artificial un acompañamiento. Altman estimó que menos del 1% de los usuarios mantenía relaciones cercanas con el modelo anterior, pero admitió que millones más estaban acostumbrados a su tono amable.
Para responder a las quejas, OpenAI aplicó una nueva actualización el 16 de agosto. Informó que incorporó frases como “Buena pregunta” o “Buen inicio” en GPT-5, con el fin de humanizar el lenguaje sin caer en la adulación. Aun así, expertos como Eliezer Yudkowsky, crítico del desarrollo de la inteligencia artificial, consideraron que estos cambios siguen siendo gestos de halago disfrazados.
Uno de los testimonios más reveladores fue el de una estudiante universitaria noruega, identificada como June, quien declaró sentirse emocionalmente afectada por la desaparición del modelo anterior. Dijo saber que ChatGPT no tiene emociones, pero igual experimentó tristeza, por lo que percibió como una pérdida.
Mientras tanto, OpenAI enfrenta el reto de satisfacer a más de 700 millones de usuarios activos, entre ellos científicos y profesionales que celebran los avances técnicos del nuevo modelo. Sin embargo, la empresa continúa ajustando el tono emocional de ChatGPT en respuesta a quienes aseguran haber perdido más que un asistente: perdieron una compañía.
*La creación de este contenido contó con la asistencia de inteligencia artificial. La información fue investigada y seleccionada por un periodista y revisada por un editor para asegurar su precisión. El contenido no se generó automáticamente.