OpenAI tiene nueva familia de modelos de IA: GPT-4.1. Prometen romper moldes, con un gran ausente: ChatGPT
OpenAI ha vuelto a sacudir el panorama tecnológico con la presentación de su nueva familia de modelos de lenguaje: GPT-4.1, GPT-4.1 mini y GPT-4.1 nano. Este lanzamiento marca un salto significativo respecto a versiones anteriores y refleja la apuesta decidida de la compañía por optimizar IA para realizar tareas del mundo real, especialmente en el ámbito del desarrollo de software y la creación de agentes autónomos. Una nueva generación de modelos Durante una transmisión en directo, OpenAI ha dado a conocer que los modelos GPT-4.1 han sido diseñados con mejoras notables en tres frentes clave: codificación, seguimiento de instrucciones y comprensión de contextos largos. Estos modelos no están disponibles en la web o la app de ChatGPT —al menos por ahora—, sino exclusivamente a través de la API de OpenAI, lo que los posiciona como herramientas orientadas directamente al desarrollo profesional. La gama incluye: GPT-4.1: el modelo insignia, optimizado para tareas complejas y con el rendimiento más alto. GPT-4.1 mini: una versión más ligera y económica que supera incluso a GPT-4o en varias métricas. GPT-4.1 nano: el modelo más rápido y barato hasta la fecha, ideal para tareas simples como autocompletado o clasificación. Innovaciones clave Ventana de contexto masiva Uno de los avances más impresionantes es su ventana de contexto de hasta un millón de tokens, lo que equivale a más de 750.000 palabras, muy por encima de los 128.000 tokens de GPT-4o. Esto permite a los nuevos modelos analizar grandes volúmenes de texto, código o documentos en una sola consulta. En Genbeta OpenAI lanza Operator: antes realizábamos tareas con IA, ahora la IA empieza a hacer tareas por nosotros Rendimiento superior en programación GPT-4.1 ha sido optimizado específicamente para el desarrollo de software. Supera ampliamente a sus predecesores en pruebas como SWE-bench Verified, alcanzando una precisión del 54,6%, frente al 33,2% de GPT-4o y al 38% de GPT-4.5. Además, produce menos ediciones innecesarias, sigue mejor los formatos de diferencia de código (diff) y genera mejores respuestas para tareas frontend. Esas cifras, sin embargo, están ligeramente por debajo de las puntuaciones anunciadas por Google y Anthrope para Gemini 2.5 Pro (63,8%) y Claude 3.7 Sonnet (62,3%), respectivamente, en el mismo benchmark.. Mejor comprensión de instrucciones El modelo también muestra una mejora notable en el seguimiento de instrucciones, crucial para agentes autónomos y aplicaciones empresariales. En evaluaciones como MultiChallenge y IFEval, GPT-4.1 ha superado a sus antecesores con diferencias de hasta 10,5% y 6,4%, respectivamente. Comprensión de contexto extendido Gracias a pruebas como Video-MME, OpenAI-MRCR y Graphwalks, se ha demostrado que GPT-4.1 no solo puede manejar grandes cantidades de texto, sino también entender relaciones complejas y recuperar información específica en contextos extensos. Esto lo hace ideal para áreas como el análisis legal, financiero o la asistencia al cliente. En Genbeta El 'vibe coding' hará que cada vez escribamos menos código. Así que los ingenieros de software tendrán una tarea titánica ¿Qué pasa con ChatGPT? Por ahora, los modelos GPT-4.1 no están disponibles directamente en ChatGPT. Sin embargo, OpenAI ha anunciado que muchas de sus mejoras ya han sido integradas progresivamente en GPT-4o, el modelo por defecto del chatbot. Asimismo, se planea eliminar el modelo GPT-4.5 el 14 de julio de 2025, en favor del más eficiente y barato GPT-4.1. Costes y disponibilidad Los nuevos modelos GPT-4.1 están pensados exclusivamente para desarrolladores y se accede a ellos a través de la API de OpenAI. Uno de sus grandes atractivos es su eficiencia económica, que mejora considerablemente frente a versiones anteriores. El modelo principal, GPT-4.1, tiene un coste de $2 por millón de tokens de entrada y $8 por millón de tokens de salida, posicionándose como una opción robusta para tareas complejas, pero aún más asequible que su predecesor GPT-4o. Por su parte, GPT-4.1 mini es una versión más liviana, optimizada para tareas exigentes pero con menor latencia. Su uso implica un coste de $0,40 por millón de tokens de entrada y $1,60 por millón de tokens de salida, lo que representa una reducción de costes de hasta un 83% en comparación con modelos anteriores de similar rendimiento. Finalmente, GPT-4.1 nano se perfila como el modelo más económico y veloz jamás lanzado por OpenAI. Con tan solo $0,10 por millón de tokens de entrada y $0,40 por millón de tokens de salida, está especialmente indicado para tareas sencillas y de alta frecuencia, como autocompletado, clasificación de texto o asistencia en tiempo real. Además, para quienes reutilizan contextos similares de forma recurrente,

OpenAI ha vuelto a sacudir el panorama tecnológico con la presentación de su nueva familia de modelos de lenguaje: GPT-4.1, GPT-4.1 mini y GPT-4.1 nano. Este lanzamiento marca un salto significativo respecto a versiones anteriores y refleja la apuesta decidida de la compañía por optimizar IA para realizar tareas del mundo real, especialmente en el ámbito del desarrollo de software y la creación de agentes autónomos.
Una nueva generación de modelos
Durante una transmisión en directo, OpenAI ha dado a conocer que los modelos GPT-4.1 han sido diseñados con mejoras notables en tres frentes clave: codificación, seguimiento de instrucciones y comprensión de contextos largos. Estos modelos no están disponibles en la web o la app de ChatGPT —al menos por ahora—, sino exclusivamente a través de la API de OpenAI, lo que los posiciona como herramientas orientadas directamente al desarrollo profesional.
La gama incluye:
- GPT-4.1: el modelo insignia, optimizado para tareas complejas y con el rendimiento más alto.
- GPT-4.1 mini: una versión más ligera y económica que supera incluso a GPT-4o en varias métricas.
- GPT-4.1 nano: el modelo más rápido y barato hasta la fecha, ideal para tareas simples como autocompletado o clasificación.

Innovaciones clave
Ventana de contexto masiva
Uno de los avances más impresionantes es su ventana de contexto de hasta un millón de tokens, lo que equivale a más de 750.000 palabras, muy por encima de los 128.000 tokens de GPT-4o. Esto permite a los nuevos modelos analizar grandes volúmenes de texto, código o documentos en una sola consulta.
Rendimiento superior en programación
GPT-4.1 ha sido optimizado específicamente para el desarrollo de software. Supera ampliamente a sus predecesores en pruebas como SWE-bench Verified, alcanzando una precisión del 54,6%, frente al 33,2% de GPT-4o y al 38% de GPT-4.5. Además, produce menos ediciones innecesarias, sigue mejor los formatos de diferencia de código (diff) y genera mejores respuestas para tareas frontend.

Esas cifras, sin embargo, están ligeramente por debajo de las puntuaciones anunciadas por Google y Anthrope para Gemini 2.5 Pro (63,8%) y Claude 3.7 Sonnet (62,3%), respectivamente, en el mismo benchmark..
Mejor comprensión de instrucciones
El modelo también muestra una mejora notable en el seguimiento de instrucciones, crucial para agentes autónomos y aplicaciones empresariales. En evaluaciones como MultiChallenge y IFEval, GPT-4.1 ha superado a sus antecesores con diferencias de hasta 10,5% y 6,4%, respectivamente.
Comprensión de contexto extendido
Gracias a pruebas como Video-MME, OpenAI-MRCR y Graphwalks, se ha demostrado que GPT-4.1 no solo puede manejar grandes cantidades de texto, sino también entender relaciones complejas y recuperar información específica en contextos extensos. Esto lo hace ideal para áreas como el análisis legal, financiero o la asistencia al cliente.
¿Qué pasa con ChatGPT?
Por ahora, los modelos GPT-4.1 no están disponibles directamente en ChatGPT. Sin embargo, OpenAI ha anunciado que muchas de sus mejoras ya han sido integradas progresivamente en GPT-4o, el modelo por defecto del chatbot. Asimismo, se planea eliminar el modelo GPT-4.5 el 14 de julio de 2025, en favor del más eficiente y barato GPT-4.1.
Costes y disponibilidad
Los nuevos modelos GPT-4.1 están pensados exclusivamente para desarrolladores y se accede a ellos a través de la API de OpenAI. Uno de sus grandes atractivos es su eficiencia económica, que mejora considerablemente frente a versiones anteriores.
El modelo principal, GPT-4.1, tiene un coste de $2 por millón de tokens de entrada y $8 por millón de tokens de salida, posicionándose como una opción robusta para tareas complejas, pero aún más asequible que su predecesor GPT-4o.
Por su parte, GPT-4.1 mini es una versión más liviana, optimizada para tareas exigentes pero con menor latencia. Su uso implica un coste de $0,40 por millón de tokens de entrada y $1,60 por millón de tokens de salida, lo que representa una reducción de costes de hasta un 83% en comparación con modelos anteriores de similar rendimiento.
Finalmente, GPT-4.1 nano se perfila como el modelo más económico y veloz jamás lanzado por OpenAI. Con tan solo $0,10 por millón de tokens de entrada y $0,40 por millón de tokens de salida, está especialmente indicado para tareas sencillas y de alta frecuencia, como autocompletado, clasificación de texto o asistencia en tiempo real.
Además, para quienes reutilizan contextos similares de forma recurrente, OpenAI ofrece descuentos adicionales por almacenamiento en caché de prompts, lo que puede reducir aún más el coste por consulta. También cabe destacar que no se aplican cargos extra por utilizar el contexto extendido de un millón de tokens, lo que permite aprovechar al máximo sus capacidades sin penalizaciones adicionales.
Imagen | Marcos Merino mediante IA
-
La noticia
OpenAI tiene nueva familia de modelos de IA: GPT-4.1. Prometen romper moldes, con un gran ausente: ChatGPT
fue publicada originalmente en
Genbeta
por
Marcos Merino
.