Der Status im Maerz 2026
Codex ist im Maerz 2026 nicht mehr nur ein Terminal-Helfer, sondern ein umfassender Agenten-Stack ueber mehrere Oberflaechen. Die Produktlinie hat sich in kurzer Zeit von einem fruehen Cloud-Agent-Preview zu einer breit verfuegbaren, mehrschichtigen Plattform entwickelt: App, CLI, IDE-Extension, Web, Cloud-Delegation, GitHub-Review, SDK und Team-Administration.
Die aktuelle Phase ist von zwei gleichzeitigen Bewegungen gepraegt:
- Schnelle Produkterweiterung (Multi-Agent-Workflows, Skills, Automations, Integrationen)
- Schnelle Modelliteration (GPT-5.3-Codex, Codex-Spark, Performance- und Sicherheitsarbeit)
Zeitrahmen dieses Artikels
Dieser Beitrag bildet den oeffentlich belegten Stand bis einschliesslich 06.03.2026 ab und nutzt ausschliesslich OpenAI-Quellen (OpenAI Blog, Developers Docs, Help Center).
Produktentwicklung: von GA zu App-Strategie
Bereits im Oktober 2025 meldete OpenAI die allgemeine Verfuegbarkeit von Codex. Mit diesem Schritt wurden drei Schienen auf einmal sichtbar ausgebaut:
- Slack-Integration fuer Delegation in Team-Threads
- Codex SDK fuer eigene Workflows/Apps
- Admin-Funktionen fuer Governance, Monitoring und Analytics
Diese GA-Stufe ist relevant, weil sie Codex von der Einzelentwickler-Nutzung in Richtung Team- und Organisationsbetrieb verschoben hat.
Am 2. Februar 2026 folgte die naechste Produktstufe mit der Codex-App als Kommandozentrale fuer mehrere Agenten parallel. Der Fokus liegt dort auf Threads pro Projekt, Worktrees, parallelen Arbeitsstraengen und einem durchgaengigen Wechsel zwischen lokalem und delegiertem Arbeiten.
Am 4. Maerz 2026 wurde die App-Verfuegbarkeit zusaetzlich auf Windows erweitert. Damit wurde der bis dahin macOS-zentrierte Desktop-Pfad zu einem breiteren Betriebspfad ausgebaut.
Der Feature-Stack heute
Multi-Agent-Architektur
Codex positioniert die App explizit als Multi-Agent-Umgebung. Agenten laufen in separaten Kontexten, koennen parallel auf demselben Repo arbeiten und nutzen isolierte Worktrees, um Konflikte zu reduzieren.
Skills und Automations
Die Plattform beschreibt Skills als paketierte Ausfuehrungslogik (Instruktionen, Ressourcen, Skripte), mit der Aufgaben ueber reine Codegeneration hinaus bearbeitet werden. Automations ergaenzen das um zeit- oder ereignisnahe Hintergrundarbeit.
Oberflaechenkonsistenz
Die Architektur ist bewusst surface-uebergreifend:
- App
- CLI
- IDE-Extension
- Web
- Cloud-Delegation
Das zentrale Muster ist: gleicher Agentenkern, unterschiedliche Interaktionsgeschwindigkeit und Kontextform.
Modelllage im Maerz 2026
Die Modellseite und die Produktposts zeigen im Februar/Maerz eine klare Verdichtung auf Codex-optimierte GPT-5.x-Varianten.
GPT-5.3-Codex (Februar 2026)
OpenAI beschreibt GPT-5.3-Codex als aktuell leistungsfaehigste agentische Coding-Variante. Wichtige oeffentliche Eckdaten:
- 400k Kontextfenster
- 128k Max-Output
- reasoning effort: low/medium/high/xhigh
- Pricing im API-Kontext: 1.75 USD Input / 14 USD Output je 1M Tokens
Der Produktpost hebt zusaetzlich hervor, dass GPT-5.3-Codex fuer Codex-Nutzer 25% schneller laeuft als die vorherige Generation.
Benchmark-Signale
Im zugehoerigen Release-Post werden fuer GPT-5.3-Codex mehrere Benchmarks publiziert, darunter SWE-Bench Pro und Terminal-Bench 2.0, mit deutlichen Zugewinnen gegenueber den gelisteten Vergleichsmodellen im Appendix.
GPT-5.3-Codex-Spark (Februar 2026)
Codex-Spark wurde als Research Preview fuer Echtzeitarbeit positioniert, mit eigenem Charakter:
- ausgelegt auf niedrige Latenz statt lange autonome Ausfuehrung
- text-only bei 128k Kontext im Preview
- separate Rate-Limit-Logik
- initial fuer ChatGPT Pro im Preview-Rollout
Damit entsteht ein Zwei-Modi-Narrativ: langer agentischer Lauf vs. schnelle interaktive Iteration.
Technischer Kern der aktuellen Modellstrategie
Die Codex-Linie trennt im Maerz 2026 deutlicher zwischen Langhorizont-Agentik und Realtime-Iteration. Diese Zweiteilung ist fuer die praktische Nutzung genauso relevant wie reine Benchmarkwerte.
Sicherheit, Kontrolle und Betriebsrahmen
OpenAI betont im App-Launch, dass Codex standardmaessig in einem restriktiven Betriebsmodus startet: begrenzter Dateibereich, begrenzte Aktionen, zusaetzliche Freigaben fuer erhoehte Rechte (z. B. Netzwerkzugriff).
Die Help-Center-Dokumentation beschreibt fuer Cloud-Delegation ein isoliertes Sandbox-Modell pro Aufgabe. Gleichzeitig werden Team- und Enterprise-Steuerungen klarer gefasst:
- RBAC
- Enterprise Admin Setup
- Managed Controls
- Compliance-API-Abdeckung fuer Web/Cloud-Nutzung
Die lokale Nutzung wird dabei explizit anders behandelt als delegierte Cloud-Aufgaben, was fuer Governance- und Auditfragen eine zentrale Trennlinie ist.
Auth- und Zugangsrealitaet im Alltag
Die aktuelle Zugangslogik ist nicht ein einzelner Login-Mechanismus, sondern ein gestuftes Modell je Surface.
- ChatGPT-Plan ist die zentrale Zugangsbasis
- Codex Web verlangt zusaetzlich die GitHub-Verknuepfung
- CLI-Nutzer mit frueherem API-Key-Setup sollen auf subscription-basierten Login umstellen (
codex logout-> neu anmelden)
Fuer Plan- und Limitlogik beschreibt das Help Center aktuell temporaere Erweiterungen, darunter die begrenzte Einbindung in Free/Go und 2x-Ratelimits fuer andere Plaene in der Aktionsphase.
Wichtiger Strukturpunkt
Ein relevanter Teil der "Codex funktioniert / funktioniert nicht"-Erfahrung entsteht nicht am Modell selbst, sondern an Surface-spezifischen Zugangsvoraussetzungen, Workspace-Policies und Cloud-vs-Local-Unterschieden.
Relevante Codex-News rund um Maerz 2026
Codex wird allgemein verfuegbar
GA mit Slack-Integration, Codex SDK und neuen Admin-Funktionen.
Codex App startet
Multi-Agent-App mit Worktrees, Skills und Automations als zentrales Produktsignal.
GPT-5.3-Codex Release
Neue Modellgeneration, laut OpenAI 25% schneller, mit staerkeren agentischen Benchmarkwerten.
GPT-5.3-Codex-Spark Preview
Realtime-orientierter Modus mit hoher Geschwindigkeit und separater Preview-Rate-Limitierung.
Codex x Figma Integration
MCP-gestuetzter Code-zu-Design-Roundtrip ueber Figma Design, Make und FigJam.
Codex App auf Windows
Desktop-Verfuegbarkeit wird nach dem macOS-Start auf Windows ausgeweitet.
Der operative Kernzustand im Maerz 2026
Die oeffentlich sichtbare Lage kann auf drei Ebenen zusammengefasst werden:
1) Technisch
Codex ist ein ausgereifterer Agentenrahmen als noch 2025, mit realem Fokus auf Parallelitaet, Tooling und betreibbare Sicherheit.
2) Produktseitig
Die App-Strategie steht im Zentrum: weniger "ein Prompt im Terminal", mehr orchestrierte Agentenarbeit ueber laengere Zeitraeume.
3) Oekosystem
Mit Figma-MCP, Slack, SDK und Admin-Layer verschiebt sich Codex von Einzeltool-Charakter in Richtung Plattformcharakter.
Statusbild Maerz 2026
Codex ist im Maerz 2026 in einer ausgepraegten Beschleunigungsphase.
Die Plattform hat klare Starken in agentischer Ausfuehrung, paralleler Aufgabenstruktur und Teamfaehigkeit. Gleichzeitig bleibt der Alltag von schnellen Releases, planabhaengigen Limits und Governance-Entscheidungen gepraegt. Die Leitfrage lautet daher weniger "ob" Codex leistungsfaehig ist, sondern wie stabil und kontrolliert die Nutzung in realen Entwicklungsorganisationen operationalisiert wird.
Fazit
Im Maerz 2026 ist Codex ein deutlich breiteres System als noch in der fruehen Launchphase: Multi-Agent-App, modellseitige Differenzierung (GPT-5.3-Codex vs. Codex-Spark), tiefere Integrationen und ein sichtbarer Ausbau von Sicherheits- und Admin-Funktionen.
Die wichtigsten News dieses Zeitraums zeigen ein konsistentes Muster: mehr Reichweite, mehr Geschwindigkeit, mehr Plattformtiefe - bei gleichzeitig hoeheren Anforderungen an Konfiguration, Richtlinien und Betriebsdisziplin.
Quellen
- Codex Produktseite: https://openai.com/codex/
- Introducing the Codex app (02.02.2026, Update 04.03.2026): https://openai.com/index/introducing-the-codex-app/
- Introducing GPT-5.3-Codex (05.02.2026): https://openai.com/index/introducing-gpt-5-3-codex/
- Introducing GPT-5.3-Codex-Spark (12.02.2026): https://openai.com/index/introducing-gpt-5-3-codex-spark/
- Codex is now generally available (06.10.2025): https://openai.com/index/codex-now-generally-available/
- Codex x Figma Partnership (26.02.2026): https://openai.com/index/figma-partnership/
- Help Center: Using Codex with your ChatGPT plan (aktualisiert): https://help.openai.com/en/articles/11369540-using-codex-with-your-chatgpt-plan
- Model card GPT-5.3-Codex: https://developers.openai.com/api/docs/models/gpt-5.3-codex




