OpenAI bringt mit Codex-Spark ein Echtzeit-Coding-Modell auf Cerebras-Hardware
OpenAI veröffentlicht mit GPT-5.3-Codex-Spark ein kleineres Coding-Modell, das auf Cerebras-Hardware läuft und über 1000 Tokens pro Sekunde liefern soll. Es ist das erste Modell, das speziell für Echtzeit-Programmierung optimiert ist.
OpenAI stellt am 13. Februar 2026 mehrere ältere KI-Modelle in ChatGPT ein: GPT-4o, GPT-4.1, GPT-4.1 mini und o4-mini. In der API bleiben die Modelle vorerst verfügbar. Offiziell begründet das Unternehmen den Schritt mit gesunkenem Traffic: Nur noch 0,1 Prozent der Nutzer wählen GPT-4o täglich.
Wir wissen, dass der Verlust des Zugangs zu GPT-4o für einige Nutzer frustrierend sein wird, und wir haben diese Entscheidung nicht leichtfertig getroffen. Modelle abzuschalten ist nie einfach, aber es erlaubt uns, die Modelle zu verbessern, die die meisten Menschen heute nutzen.
OpenAI
OpenAI verweist zudem auf die verbesserten Nachfolger GPT-5.1 und GPT-5.2, in die das Feedback der GPT-4o-Nutzer eingeflossen sei. Nutzer können nun Ton und Stil von ChatGPT anpassen, etwa Wärme und Enthusiasmus einstellen. Die GPT-4o-Bewegung wird das nicht überzeugen: Mehr als 20 000 Menschen hatten Petitionen gegen die Abschaltung unterzeichnet.
Google Deepmind hat seinen spezialisierten Denkmodus "Gemini 3 Deep Think" aufgerüstet und stellt ihn über die Gemini-App sowie als API über ein Vertex AI-Frühzugangsprogramm bereit. Das Upgrade soll bei komplexen Aufgaben in Wissenschaft, Forschung und Ingenieurwesen helfen. Die Gemini-App steht Google AI Ultra-Abonnenten zur Verfügung, Entwickler und Forscher können sich für das API-Programm anmelden.
Laut Google Deepmind erreicht Deep Think Bestwerte auf mehreren Benchmarks: auf ARC-AGI-2 (einem Test für logisches Denken), auf "Humanity's Last Exam" (schwierige Aufgaben aus Mathematik, Naturwissenschaften und Ingenieurwesen) sowie einen Elo-Wert von 3455 auf der Programmierplattform Codeforces.
Benchmark
Deep Think
Claude Opus 4.6
GPT-5.2
Gemini 3 Pro Preview
ARC-AGI-2
84.6%
68.8%
52.9%
31.1%
Humanity's Last Exam
48.4%
40.0%
34.5%
37.5%
Codeforces
3,455
2,352
-
2,512
Zudem erzielte das Modell bei den Physik- und Chemie-Olympiaden 2025 Ergebnisse auf Goldmedaillen-Niveau. Beispiele für den Einsatz von Deep Think in der Wissenschaft stehen hier.
Pentagon rollt ChatGPT aus und drängt auf KI ohne Schutzmaßnahmen auf sensiblen Netzwerken
Das Pentagon drängt führende KI-Unternehmen wie OpenAI, Anthropic, Google und xAI, ihre KI-Werkzeuge ohne die üblichen Nutzungsbeschränkungen auf sicherheitseingestuften Militärnetzwerken bereitzustellen.
Anthropic verspricht, die Stromkosten für Verbraucher auszugleichen, die durch den Bau neuer Rechenzentren entstehen. Das Unternehmen will Netzausbaukosten vollständig übernehmen, in neue Stromerzeugung investieren und den Energieverbrauch seiner Rechenzentren in Spitzenzeiten begrenzen. Anthropic-CEO Dario Amodei sagte gegenüber NBC News, die Kosten für KI-Modelle sollten bei Anthropic liegen, nicht bei den Bürgern.
Microsoft und OpenAI hatten im Januar ähnliche Zusagen gemacht. Hintergrund ist auch wachsender politischer Druck: New Yorker Senatoren brachten einen Gesetzentwurf ein, der neue Rechenzentrum-Genehmigungen pausieren soll. Senator Van Hollen fordert per Gesetz, dass KI-Firmen Ausbaukosten selbst tragen.
Laut Politico bereitet außerdem die Trump-Regierung eine freiwillige Vereinbarung vor, die KI-Unternehmen zur Übernahme von Strompreissteigerungen verpflichten soll. Das Lawrence Berkeley National Lab schätzt, dass Rechenzentren bis 2028 rund 12 Prozent des US-Stroms verbrauchen könnten – nach 4,4 Prozent im Jahr 2024.
OpenAI setzt eine spezielle Version von ChatGPT ein, um interne Informationslecks aufzuspüren. Das berichtet The Information unter Berufung auf eine mit dem Vorgang vertraute Person. Wenn ein Nachrichtenartikel über interne Vorgänge bei OpenAI erscheint, füttern Sicherheitsmitarbeiter den Text in diese ChatGPT-Version, die Zugriff auf interne Dokumente sowie Slack- und E-Mail-Nachrichten der Mitarbeiter hat.
Das System kann dann mögliche Quellen des Lecks vorschlagen, indem es Dateien oder Kommunikationskanäle identifiziert, die die veröffentlichten Informationen enthalten, und zeigt, wer darauf Zugriff hatte. Ob OpenAI mit dieser Methode tatsächlich schon jemanden überführt hat, ist nicht bekannt.
OpenAI-Ingenieure stellten kürzlich die Architektur eines internen KI-Agenten vor, der hier zum Einsatz kommen könnte: Er soll Mitarbeitern komplexe Datenanalysen in natürlicher Sprache ermöglichen und hat auch Zugang zu institutionellem Wissen in Slack-Nachrichten, Google Docs und mehr.