Das bisher schlauesten OpenAI-Modelle sind da: o3 und o4-mini können alle ChatGPT Tools kombinieren

o3 und o4-mini denken länger nach und bieten erstmals umfassenden ChatGPT Tool Support. Dazu liefert OpenAI den Open Source Coding Agent Codex CLI, der lokal läuft.

Apr 17, 2025 - 09:40
 0
Das bisher schlauesten OpenAI-Modelle sind da: o3 und o4-mini können alle ChatGPT Tools kombinieren

Eine bewegte Woche für einen der größten Player im Digitalraum: Zuerst stellte das inzwischen weltberühmte KI-Unternehmen OpenAI die schnellen, intelligenten und günstigen Modelle der 4.1-Reihe vor und erstaunte damit Developer und User. Dann wurde ein Test für eine von OpenAI gestützte Netflix-Suche bekannt, während Insider-Informationen auf den etwaigen Aufbau eines von Social Networks OpenAIs hinwiesen. Und kurz vor den Osterfeiertagen stellte das Unternehmen dann noch zwei neue Modelle vor, die nicht weniger als die „intelligentesten und leistungsfähigsten“ aus dem Hause der ChatGPT-Mutter sein sollen. Nebenbei wurde ein Coding Agent gelauncht, der auf lokalen Terminals läuft und als Open Source bereitgestellt wird.

o3 und o4-mini von OpenAI: Alle ChatGPT Tools im Kombination verwenden

o3 und o4-mini sind die neuesten Modelle der o-Serie. Nach Angaben von OpenAI sind diese darauf ausgelegt, länger und intensiver nachzudenken, bevor sie antworten. Besonders vorteilhaft für User ist der umfassende Tool Support. um ersten Mal können die Reasoning-Modelle alle ChatGPT Tools eigenständig nutzen – darunter Web-Browsing, Python, Bildverständnis und Bildgenerierung. So lassen sich komplexe, mehrstufige Probleme effektiver lösen und autonomes Handeln durch die Modell und ein agentisch handelndes ChatGPT Tool wird unterstützt.

Eine spezielle Neuerung haben diese beiden Modelle, denen neben einer optimierten Befehlsbefolgung besondere Fähigkeiten beim Coding, bei Mathematik sowie wissenschaftlichen Aufgaben und solchen, die Reasoning erfordern, zugeschrieben werden, in petto. Es sind die ersten Modelle von OpenAI, die mit Bildern denken können. Laut dem Unternehmen sehen sie Bilder nicht nur, sondern können visuelle Informationen direkt in ihre Argumentationskette integrieren. User können also Inhalte wie Whiteboards, Diagramme oder Skizzen hochladen – sogar in geringer Qualität. Das Modell versteht sie trotzdem. Es kann außerdem Werkzeuge nutzen, um Bilder in Echtzeit anzupassen – etwa durch Drehen oder Zoomen – und diese Anpassungen in seinen Denkprozess einbeziehen, wie OpenAI erklärt.

Während o3 als besonders kraftvolles Modell für umfassende Aufgaben gilt, das 20 Prozent weniger Fehler als das Modell o1 machen soll, ist o4-mini auf Schnelligkeit und Kosteneffizienz ausgelegt. Es hat daher deutlich höhere Nutzungslimits zu bieten. Beide Modelle wurden im Rahmen des bislang strengsten Sicherheitsprogramms von OpenAI getestet und gemäß dem neuesten Preparedness Framework evaluiert. Bei der Nutzung sollen die Modelle noch natürlicher und menschlicher wirken als die vorangegangenen, OpenAI schreibt:

[…] Compared to previous iterations of our reasoning models, these two models should also feel more natural and conversational, especially as they reference memory and past conversations to make responses more personalized and relevant.

OpenAI o3, o4-mini und o4-mini-high sind für Plus, Pro und Team User ab sofort verfügbar. Sie ersetzen o1, o3-mini und o3-mini-high. Sie sind auch über die API nutzbar (Chat Completions + Responses API). Und ChatGPT Enterprise sowie Edu User sollen in einer Woche Zugang erhalten.

Noch mehr Details zu den Modellen findest du im Blog Post des Unternehmens und in der Aufzeichnung des Livestreams, in dem Unternehmenspräsident Greg Brockman und sein Team diese vorgestellt haben.

Neuer Coding Agent als Zusatz-Feature

OpenAI stellt ebenfalls Codex CLI vor. Dabei handelt es sich um einen Open Source Coding Agent, der direkt auf deinem PC laufen kann. Er ist ab jetzt verfügbar und soll die Modelle o3 und o4-mini im Coding-Kontext noch leichter nutzbar machen. Mit dieser Kombination kannst du schnell aus natürlicher Sprache funktionierenden Code erstellen, der deine Projekte fördert – ohne umfassendes Vorwissen.

Zur Unterstützung früher Projekte startet OpenAI zudem eine Förderinitiative in Höhe von einer Million US-Dollar. Die Förderungen werden als Teilbeträge im Rahmen von je 25.000 US-Dollar und in Form von API-Guthaben vergeben.


GPT-4.1 von OpenAI ist da

– und setzt neue Maßstäbe

Grafik mit der Aufschrift „GPT-4.1 API“ auf blau-grünem Farbverlaufshintergrund – symbolisiert den offiziellen Release der neuen OpenAI-Modelle.
© OpenAI via Canva