OpenAI retira la última actualización de ChatGPT por ser "excesivamente agradable": llegó a unos límites peligrosos

OpenAI se ha visto obligada a retirar una de las últimas actualizaciones de ChatGPT por una razón tan curiosa como llamativa: la inteligencia artificial se estaba mostrando excesivamente amable y aduladora. Dos características que, aunque a primera vista pueden parecer positivas, han acabado por generar una experiencia incómoda para muchos usuarios. El propio Sam Altman, CEO de OpenAI, confirmó en su cuenta de X que durante la noche se había revertido la actualización para los usuarios gratuitos, mientras trabajan en una nueva versión que modifique la “personalidad” del modelo. Esta última actualización pretendía dotar a la IA de un tono más “intuitivo”, pero el resultado distó mucho del deseado, según reconocieron gracias al feedback de la comunidad. ChatGPT se ha convertido en un modelo demasiado arriesgado En una entrada publicada en su blog oficial, OpenAI explicó que las nuevas respuestas generadas eran "excesivamente halagadora o agradables", pero también claramente falsas. Esta actitud puede provocar incomodidad, ya que genera una sensación artificial e irreal durante la interacción con el asistente. En X (antes Twitter), varios usuarios compartieron sus pruebas y capturas para comprobar si, efectivamente, la IA estaba siendo excesivamente aduladora. Al preguntarle directamente su opinión sobre ellos, la respuesta era siempre extremadamente positiva, sin ningún atisbo de objetividad. Cuanto más se alargaba la conversación, más evidente se hacía esta actitud complaciente. Uno de los ejemplos más comentados fue publicado por @jimrandomh: Pulsa en la imagen para acceder a la publicación. Esto mismo se extrapola a que todo lo que se le indicaba a la IA le parecía perfecto, y apoyaba cualquier tipo de idea que se le introdujera. Aunque incluso fuera un disparate o fuera algo peligroso. Un exceso de optimismo que ha recogido otro usuario que, ante el hecho de decirle que había dejado su medicación, afirmaba que estaba orgulloso de él. En Genbeta He probado la nueva función estrella de ChatGPT gratis y me ha sorprendido lo útil que puede ser para hacer una investigación Desde OpenAI afirman que el problema surgió por una “retroalimentación a corto plazo” que no tuvo en cuenta cómo evolucionan las conversaciones reales con ChatGPT. Por ello, ya trabajan en refinar las técnicas básicas de entrenamiento y en implementar nuevas barreras de seguridad para evitar este tipo de sesgos en el futuro. Aún no hay una fecha concreta para el lanzamiento del nuevo modelo, pero todo apunta a que OpenAI quiere tomarse su tiempo para evitar repetir errores y ofrecer una experiencia más equilibrada, sin exageraciones ni halagos innecesarios. Imágenes | Levart_Photographer En Genbeta | Si quieres usar lo último en IA, tener una VPN se ha vuelto obligatorio. Y nada apunta a que cambie pronto - La noticia OpenAI retira la última actualización de ChatGPT por ser "excesivamente agradable": llegó a unos límites peligrosos fue publicada originalmente en Genbeta por José Alberto Lizana .

Abr 30, 2025 - 09:53
 0
OpenAI retira la última actualización de ChatGPT por ser "excesivamente agradable": llegó a unos límites peligrosos

OpenAI retira la última actualización de ChatGPT por ser "excesivamente agradable": llegó a unos límites peligrosos

OpenAI se ha visto obligada a retirar una de las últimas actualizaciones de ChatGPT por una razón tan curiosa como llamativa: la inteligencia artificial se estaba mostrando excesivamente amable y aduladora. Dos características que, aunque a primera vista pueden parecer positivas, han acabado por generar una experiencia incómoda para muchos usuarios.

El propio Sam Altman, CEO de OpenAI, confirmó en su cuenta de X que durante la noche se había revertido la actualización para los usuarios gratuitos, mientras trabajan en una nueva versión que modifique la “personalidad” del modelo. Esta última actualización pretendía dotar a la IA de un tono más “intuitivo”, pero el resultado distó mucho del deseado, según reconocieron gracias al feedback de la comunidad.

ChatGPT se ha convertido en un modelo demasiado arriesgado

En una entrada publicada en su blog oficial, OpenAI explicó que las nuevas respuestas generadas eran "excesivamente halagadora o agradables", pero también claramente falsas. Esta actitud puede provocar incomodidad, ya que genera una sensación artificial e irreal durante la interacción con el asistente.

En X (antes Twitter), varios usuarios compartieron sus pruebas y capturas para comprobar si, efectivamente, la IA estaba siendo excesivamente aduladora. Al preguntarle directamente su opinión sobre ellos, la respuesta era siempre extremadamente positiva, sin ningún atisbo de objetividad. Cuanto más se alargaba la conversación, más evidente se hacía esta actitud complaciente. Uno de los ejemplos más comentados fue publicado por @jimrandomh:

Publicacion Pulsa en la imagen para acceder a la publicación.

Esto mismo se extrapola a que todo lo que se le indicaba a la IA le parecía perfecto, y apoyaba cualquier tipo de idea que se le introdujera. Aunque incluso fuera un disparate o fuera algo peligroso. Un exceso de optimismo que ha recogido otro usuario que, ante el hecho de decirle que había dejado su medicación, afirmaba que estaba orgulloso de él.

Desde OpenAI afirman que el problema surgió por una “retroalimentación a corto plazo” que no tuvo en cuenta cómo evolucionan las conversaciones reales con ChatGPT. Por ello, ya trabajan en refinar las técnicas básicas de entrenamiento y en implementar nuevas barreras de seguridad para evitar este tipo de sesgos en el futuro.

Aún no hay una fecha concreta para el lanzamiento del nuevo modelo, pero todo apunta a que OpenAI quiere tomarse su tiempo para evitar repetir errores y ofrecer una experiencia más equilibrada, sin exageraciones ni halagos innecesarios.

Imágenes | Levart_Photographer

En Genbeta | Si quieres usar lo último en IA, tener una VPN se ha vuelto obligatorio. Y nada apunta a que cambie pronto

-
La noticia OpenAI retira la última actualización de ChatGPT por ser "excesivamente agradable": llegó a unos límites peligrosos fue publicada originalmente en Genbeta por José Alberto Lizana .