OpenAI präsentiert GPT-5.3-Codex-Spark für schnellere

OpenAI hat das Modell GPT-5.3-Codex-Spark vorgestellt, das auf Chips von Cerebras läuft und eine bis zu 15-mal schnellere Code-Generierung als sein Vorgänger ermöglicht. Es ist für Echtzeit-Softwareentwicklung konzipiert und übertrifft GPT-5.1-Codex-mini in Bezug auf Leistung bei deutlich reduzierter Bearbeitungszeit.
krone.at

OpenAI hat mit GPT-5.3-Codex-Spark ein neues KI-Modell vorgestellt, das speziell für die beschleunigte Softwareentwicklung entwickelt wurde. Das Modell zeichnet sich durch seine Fähigkeit aus, Code in Echtzeit zu generieren und zu bearbeiten, was es besonders für iterative Entwicklungsprozesse attraktiv macht.

Symbolbild zum Thema Openai
Symbolbild: Openai (Bild: Picsum)

Hintergrund von OpenAI und Codex

OpenAI, gegründet im Jahr 2015, hat sich als eines der führenden Unternehmen im Bereich der künstlichen Intelligenz etabliert. Das Unternehmen hat sich zum Ziel gesetzt, fortschrittliche KI-Technologien zu entwickeln und diese der Öffentlichkeit zugänglich zu machen. Zu den bekanntesten Produkten von OpenAI gehören die GPT-Modelle (Generative Pre-trained Transformer), die für ihre Fähigkeit zur Generierung von menschenähnlichem Text bekannt sind. Die Codex-Modelle sind eine spezielle Variante der GPT-Modelle, die speziell für die Generierung von Code entwickelt wurden. Diese Modelle können Programmierern helfen, Aufgaben zu automatisieren, Code zu vervollständigen und sogar ganze Programme zu erstellen. Mehr Informationen zu OpenAI und seiner Mission finden sich auf der offiziellen Webseite. (Lesen Sie auch: ChatGPT: Was die KI 2026 kann, kostet…)

Die aktuelle Entwicklung: GPT-5.3-Codex-Spark

Das neue Modell GPT-5.3-Codex-Spark ist das Ergebnis einer Zusammenarbeit zwischen OpenAI und Cerebras, einem Unternehmen, das sich auf die Entwicklung von Hochleistungscomputern spezialisiert hat. Ein wesentliches Merkmal von Codex-Spark ist seine optimierte Geschwindigkeit. Laut OpenAI generiert das Modell Code mit einer Geschwindigkeit von über 1.000 Token pro Sekunde. Das ist etwa 15-mal schneller als sein Vorgänger. Diese hohe Geschwindigkeit wird durch den Einsatz des Cerebras Wafer-Scale Engine ermöglicht, einem Chip, der speziell für KI-Anwendungen entwickelt wurde. Cerebras berichtet, dass diese Technologie eine nahezu sofortige Rückmeldung in Live-Coding-Umgebungen ermöglicht.

Technische Details und Leistungsfähigkeit

Codex-Spark ist eine kleinere Version des Codex-Modells, die für schnelle Inferenz optimiert wurde. Das Modell verfügt über ein Kontextfenster von 128.000 Token und unterstützt zunächst nur Text. Laut OpenAI übertrifft Codex-Spark in Agentic-Software-Engineering-Benchmarks wie SWE-Bench Pro und Terminal-Bench 2.0 das Modell GPT-5.1-Codex-mini und das bei deutlich reduzierter Bearbeitungszeit. Das Modell eignet sich besonders gut für präzise Bearbeitungen, die Überarbeitung von Plänen und die Beantwortung kontextbezogener Fragen zum Code. (Lesen Sie auch: Wann ist Valentinstag 2026? Datum und Hintergründe)

Verfügbarkeit und Zugang

Codex-Spark ist als Research Preview für ChatGPT Pro-Abonnenten (200 US-Dollar pro Monat) über die Codex-App, die Befehlszeilenschnittstelle und die VS Code-Erweiterung verfügbar. OpenAI rollt den API-Zugriff auf ausgewählte Designpartner aus. Sachin Katti, Leiter der Computerabteilung bei OpenAI, erklärte laut Ars Technica, dass Cerebras ein großartiger Engineering-Partner sei und man sich freue, schnelle Inferenz als neue Plattformfunktion hinzuzufügen.

Reaktionen und Einordnung

Die Vorstellung von GPT-5.3-Codex-Spark hat in der KI-Community für Aufsehen gesorgt. Experten loben die hohe Geschwindigkeit und die potenziellen Auswirkungen auf die Softwareentwicklung. Einige sehen in dem Modell einen wichtigen Schritt hin zur Automatisierung von Programmieraufgaben und zur Verbesserung der Produktivität von Entwicklern. Andere betonen die Bedeutung der Zusammenarbeit zwischen Mensch und Maschine und sehen in Codex-Spark ein Werkzeug, das Entwickler bei ihrer Arbeit unterstützt, anstatt sie zu ersetzen. Die künstliche Intelligenz entwickelt sich rasant weiter und Modelle wie GPT-5.3-Codex-Spark zeigen, welches Potenzial in der Zukunft steckt. (Lesen Sie auch: Olympia Heute: Deutschland kämpft um Medaillen im…)

OpenAI: Was bedeutet das für die Zukunft der Softwareentwicklung?

Die Einführung von GPT-5.3-Codex-Spark könnte die Softwareentwicklung grundlegend verändern. Durch die Automatisierung von Routineaufgaben und die Beschleunigung des Entwicklungsprozesses könnten sich Entwickler auf komplexere und kreativere Aufgaben konzentrieren. Darüber hinaus könnte das Modell dazu beitragen, die Einstiegshürden für angehende Programmierer zu senken, indem es ihnen ermöglicht, schneller und einfacher Code zu erstellen.Klar ist jedoch, dass OpenAI mit Codex-Spark einen wichtigen Schritt in Richtung einer effizienteren und zugänglicheren Softwareentwicklung gemacht hat.

Detailansicht: Openai
Symbolbild: Openai (Bild: Picsum)
R

Über den Autor
✓ Verifiziert

Redaktion

Online-Redakteur

Unser erfahrenes Redaktionsteam recherchiert und verfasst täglich aktuelle Nachrichten und Hintergrundberichte zu relevanten Themen.

📰 Redaktion
✓ Geprüfter Inhalt

Häufig gestellte Fragen zu openai

Leistungsvergleich von KI-Modellen
Modell Geschwindigkeit Verfügbarkeit
GPT-5.3-Codex-Spark > 1.000 Token/Sekunde ChatGPT Pro-Abonnenten
Claude Opus 4.6 (Fast Mode) ~ 170 Token/Sekunde Premium-Abonnement
Claude Opus 4.6 (Standard) 68.2 Token/Sekunde Standard-Abonnement

Hinweis: Dieser Artikel stellt keine Anlageberatung dar. Anleger sollten eigene Recherche betreiben.

Illustration zu Openai
Symbolbild: Openai (Bild: Picsum)
Previous Post
Next Post
Advertisement