ChatGPT está teniendo un comportamiento muy extraño y respuestas incómodas, ¿es el principio del fin?
Los usuarios de ChatGPT hace algunos días notaron un comportamiento bastante extraño en el uso del chatbot de OpenAI. La consecuencia fue el retiro de una actualización que hasta el mismo Sam Altman, CEO de OpenAI, terminó reconociendo de manera pública. La actualización se aplicó directamente sobre el modelo GPT-4o en donde la personalidad del chatbot cambió severamente a tal grado de influir demasiado en sus respuestas. Algo preocupante tomando en cuenta que ChatGPT ya llegó a un grado de buscador en la red.ChatGPT comienza a comportarse de forma extraña en sus respuestas, ¿debemos temer por ello?En concreto, la personalidad del modelo GPT-4o ha sido "aduladora y molesta" para los usuarios, reconoció Sam Altman en una publicación en X. Resaltó que "tiene algunas partes muy buenas" aunque los usuarios no lo detectaron como tal. Finalizó indicando que "en algún momento" sacarán conclusiones de lo sucedido y "compartirán" los aprendizajes obtenidos.¿Cómo actuaba ChatGPT con esta actualización? Básicamente respondía de forma "falsa" con elogios subidos de tono en preguntas que indicaran respuesta de retroalimentación a tal grado que realmente generaba pena ajena. Apenas durante la madrugada en España, la gente de ChatGPT se encargó de dar marcha atrás a dicha actualización.La llegada de ChatGPT como parte de Apple IntelligenceUna explicación más amplia de lo sucedido en el blog de OpenAI pone en entre dicho si OpenAI realiza pruebas exhaustivas de sus modelos previo a lanzar una actualización como esta. Los ajustes que realizaron al interior del modelo tenían como objetivo mejorar la personalidad del mismo de forma que fuera "intuitivo y efectivo". Se justifican poniendo como base y principios sus propias especificaciones del modelo y mostrando a dichos modelos aplicar los principios con las propias señales de los usuarios. Admiten haberse "centrado demasiado en comentarios a corto plazo" sin considerar las evoluciones en cuanto a interacciones de los usuarios con el tiempo.Un modelo de IA puede basarse más en su personalidad que en sus conocimientos, ¿dónde hemos visto esto?ChatGPT quería ser más empático con las respuestas pero no tuvieron el tiempo suficiente para ello. Darle personalidad a un chatbot requiere de entrenamiento y precisamente de muchas pruebas y errores antes de que pueda salir a la luz pública y provocar algo como lo ya visto. Basta con recordar, en la ficción, lo sucedido en la película de Los Vengadores: la era de Ultron, cómo una simple creación para el bien puede acabar haciendo el mal.La gente de OpenAI indica que quiere seguir apostando por las opciones de personalidad aunque dará pie a la retroalimentación del usuario para poder crear nuevas personalidades. Seguirán buscando esa personalidad amable y comprensiva, aunque con esto queda comprobado que nada puede tomarse a la ligera en cuanto a actualizaciones.ChatGPT está disponible en más de 40 paísesOpenAI estableció un plan de acción en donde se comprometen a seguir trabajando en 4 puntos esenciales: refinar entrenamientos e indicaciones del sistema, construir barreras de protección, ampliar pruebas en usuarios y que puedan retroalimentar antes de una implementación y ampliar evaluaciones basándose en sus propias especificaciones e investigaciones para evitar problemas futuros de personalidad en sus modelos. ¿Podrán lograrlo sin crear una personalidad aún más agresiva y aduladora en el futuro?El artículo ChatGPT está teniendo un comportamiento muy extraño y respuestas incómodas, ¿es el principio del fin? fue publicado originalmente en iPadizate.

Los usuarios de ChatGPT hace algunos días notaron un comportamiento bastante extraño en el uso del chatbot de OpenAI. La consecuencia fue el retiro de una actualización que hasta el mismo Sam Altman, CEO de OpenAI, terminó reconociendo de manera pública. La actualización se aplicó directamente sobre el modelo GPT-4o en donde la personalidad del chatbot cambió severamente a tal grado de influir demasiado en sus respuestas. Algo preocupante tomando en cuenta que ChatGPT ya llegó a un grado de buscador en la red.
ChatGPT comienza a comportarse de forma extraña en sus respuestas, ¿debemos temer por ello?
En concreto, la personalidad del modelo GPT-4o ha sido "aduladora y molesta" para los usuarios, reconoció Sam Altman en una publicación en X. Resaltó que "tiene algunas partes muy buenas" aunque los usuarios no lo detectaron como tal. Finalizó indicando que "en algún momento" sacarán conclusiones de lo sucedido y "compartirán" los aprendizajes obtenidos.
¿Cómo actuaba ChatGPT con esta actualización? Básicamente respondía de forma "falsa" con elogios subidos de tono en preguntas que indicaran respuesta de retroalimentación a tal grado que realmente generaba pena ajena. Apenas durante la madrugada en España, la gente de ChatGPT se encargó de dar marcha atrás a dicha actualización.

La llegada de ChatGPT como parte de Apple Intelligence
Una explicación más amplia de lo sucedido en el blog de OpenAI pone en entre dicho si OpenAI realiza pruebas exhaustivas de sus modelos previo a lanzar una actualización como esta. Los ajustes que realizaron al interior del modelo tenían como objetivo mejorar la personalidad del mismo de forma que fuera "intuitivo y efectivo". Se justifican poniendo como base y principios sus propias especificaciones del modelo y mostrando a dichos modelos aplicar los principios con las propias señales de los usuarios. Admiten haberse "centrado demasiado en comentarios a corto plazo" sin considerar las evoluciones en cuanto a interacciones de los usuarios con el tiempo.
Un modelo de IA puede basarse más en su personalidad que en sus conocimientos, ¿dónde hemos visto esto?
ChatGPT quería ser más empático con las respuestas pero no tuvieron el tiempo suficiente para ello. Darle personalidad a un chatbot requiere de entrenamiento y precisamente de muchas pruebas y errores antes de que pueda salir a la luz pública y provocar algo como lo ya visto. Basta con recordar, en la ficción, lo sucedido en la película de Los Vengadores: la era de Ultron, cómo una simple creación para el bien puede acabar haciendo el mal.
La gente de OpenAI indica que quiere seguir apostando por las opciones de personalidad aunque dará pie a la retroalimentación del usuario para poder crear nuevas personalidades. Seguirán buscando esa personalidad amable y comprensiva, aunque con esto queda comprobado que nada puede tomarse a la ligera en cuanto a actualizaciones.

ChatGPT está disponible en más de 40 países
OpenAI estableció un plan de acción en donde se comprometen a seguir trabajando en 4 puntos esenciales: refinar entrenamientos e indicaciones del sistema, construir barreras de protección, ampliar pruebas en usuarios y que puedan retroalimentar antes de una implementación y ampliar evaluaciones basándose en sus propias especificaciones e investigaciones para evitar problemas futuros de personalidad en sus modelos. ¿Podrán lograrlo sin crear una personalidad aún más agresiva y aduladora en el futuro?
El artículo ChatGPT está teniendo un comportamiento muy extraño y respuestas incómodas, ¿es el principio del fin? fue publicado originalmente en iPadizate.