Anzeige
Skip to content
Read full article about: OpenAIs GPT-5.3-Codex vereint 25 Prozent mehr Geschwindigkeit mit neuen Bestwerten im Coding

OpenAI hat sein neuestes Coding-Modell GPT-5.3-Codex veröffentlicht. Es vereint laut OpenAI die Coding-Fähigkeiten von GPT-5.2-Codex mit den Denk- und Wissensfähigkeiten von GPT-5.2 und ist dabei 25 Prozent schneller als sein Vorgänger. Bei vier Leistungstests für Programmierung und praktische Anwendungen erreicht GPT-5.3-Codex laut OpenAI neue Bestwerte in der Branche. Im agentischen Coding-Benchmark Terminal-Bench 2.0 übertrifft Codex 5.3 das gerade erst veröffentlichte Opus 4.6 um zwölf Prozentpunkte; für aktuelle KI-Modellverhältnisse eine riesige Lücke. Dabei verbraucht das Modell weniger Token als die eigenen Vorgänger.

OpenAI

Das Modell half zudem angeblich bei seiner eigenen Entstehung mit: Das Codex-Team nutzte frühe Versionen, um Fehler im Training zu finden, die Bereitstellung zu steuern und Testergebnisse auszuwerten. Das Team sei überrascht gewesen, wie sehr Codex seine eigene Entwicklung beschleunigt habe, so OpenAI.

GPT-5.3-Codex wird für zahlende ChatGPT-Nutzer in allen Codex-Umgebungen verfügbar sein: in der Codex-App, in der CLI, in der IDE-Erweiterung und im Web. Ein API-Zugang soll folgen. Das Modell wird als erstes OpenAI-Modell mit dem Cybersecurity-Risiko "High" eingestuft: als Vorsichtsmaßnahme, wie OpenAI schreibt, obwohl es keinen sicheren Beweis gebe.

OpenAI startet Frontier-Plattform für KI-Agenten in Unternehmen

OpenAI stellt mit Frontier eine neue Plattform vor, die KI-Agenten in Unternehmen aus ihrer Isolation befreien soll. Die Agenten erhalten eigene Identitäten, gemeinsamen Kontext und sollen aus Erfahrung lernen. Die Software ist zunächst für ausgewählte Enterprise-Kunden verfügbar.

Anzeige
Read full article about: Voxtral Mini Transcribe V2 kombiniert niedrige Fehlerrate mit aggressivem Kampfpreis

Mistral AI will mit Voxtral Transcribe 2 die Konkurrenz bei der Spracherkennung preislich unterbieten. Die zweite Generation der Spracherkennungsmodelle kostet ab 0,003 US-Dollar pro Minute und soll laut Mistral bei der Genauigkeit Modelle wie GPT-4o mini Transcribe, Gemini 2.5 Flash und Deepgram Nova übertreffen. Die Modellfamilie umfasst zwei Varianten: Voxtral Mini Transcribe V2 für die Verarbeitung größerer Audiodateien und Voxtral Realtime für Echtzeit-Anwendungen mit Verzögerungen unter 200 Millisekunden. Das doppelt so teure Voxtral Realtime nutzt eine eigene Streaming-Architektur, die Audio während des Eintreffens transkribiert, gedacht für Sprachassistenten, Live-Untertitel oder Callcenter-Analyse.

Beide neuen Modelle unterstützen 13 Sprachen, darunter Deutsch, Englisch und Chinesisch. Neue Funktionen sind Sprechererkennung, Zeitstempel auf Wortebene und die Verarbeitung von Aufnahmen bis zu drei Stunden. Voxtral Realtime steht als Open-Weights unter Apache 2.0 auf Hugging Face und per API bereit, Voxtral Mini Transcribe V2 ist nur über Le Chat, die Mistral-API sowie einen Playground verfügbar. Die erste Voxtral-Generation hatte Mistral im Juli 2025 vorgestellt.

Read full article about: Amazon entwickelt KI-Werkzeuge für Film- und Fernsehproduktion

Amazon will KI nutzen, um Film- und Fernsehproduktionen zu beschleunigen und Kosten zu senken. Albert Cheng leitet das "AI Studio" bei Amazon MGM Studio, das im März 2026 ein geschlossenes Beta-Programm mit Branchenpartnern startet. Ergebnisse sollen im Mai vorliegen, berichtet Reuters.

Die KI-Werkzeuge sollen die "letzte Meile" zwischen bestehenden KI-Angeboten und den Anforderungen von Regisseuren überbrücken. Dazu gehören bessere Charakterkonsistenz über verschiedene Aufnahmen hinweg und die Einbindung in branchenübliche Kreativwerkzeuge. Amazon arbeitet mit mehreren Sprachmodell-Anbietern zusammen. Produzenten wie Robert Stromberg ("Maleficent") und Animator Colin Brady testen laut dem Bericht bereits die Tools. Die Serie "House of David" auf Amazon nutzt bereits KI: Regisseur Jon Erwin kombinierte für Staffel zwei KI mit Live-Action-Material für Kampfszenen.

Cheng sagte, die hohen Produktionskosten würden das Schaffen neuer Inhalte erschweren. KI solle Prozesse beschleunigen, aber keine Menschen ersetzen. Autoren, Regisseure und Schauspieler blieben in jeden Schritt eingebunden. Amazon hat seit Oktober rund 30.000 Stellen abgebaut, auch bei Prime Video.

Anzeige
Read full article about: Streit um Werbung in KI: Sam Altman verteidigt OpenAIs Strategie gegen Anthropic

Laut OpenAI-CEO Sam Altman hat ChatGPT so viele Nutzer in Texas wie Claude in den USA. Altman verrät diese Statistik im Kontext von Anthropics offensiven Werbespots, die ChatGPT mit Werbung auf die Schippe nehmen. Anthropic hatte angekündigt, keine Werbung in Claude zu bringen.

Laut Altman sind diese Spots zwar lustig, aber unehrlich. OpenAI habe sich explizit dagegen ausgesprochen, Werbung so einzusetzen, wie Anthropic es darstellt: als subtile Beeinflussung, eingebunden in persönliche, vertrauliche Chat-Gespräche. Er wirft Anthropic zudem Elitismus vor: OpenAI wolle KI für Milliarden Menschen zugänglich machen, die sich keine Abos leisten können. Anthropic hingegen bediene mit einem teuren Produkt primär wohlhabende Kunden.

Zur Wahrheit gehört auch: Die Dystopie, die Anthropic in den Werbespots skizziert, hat Altman früher selbst prophezeit, als sie in sein Anti-Google-Narrativ passte. Und gerade bei börsennotierten Unternehmen – und einen Börsengang hat OpenAI Ende des Jahres vor – hat Werbung die Eigenschaft, Überhand zu nehmen und an Einfluss zu gewinnen, wenn der Wachstumsdruck steigt.

Read full article about: KI-Chip-Startup Cerebras sammelt eine Milliarde Dollar in neuer Finanzierungsrunde

Das KI-Chip-Startup Cerebras Systems hat eine Finanzierungsrunde über eine Milliarde US-Dollar abgeschlossen. Die Bewertung des Unternehmens liegt damit bei rund 23 Milliarden Dollar, wie es in einer Pressemitteilung bekannt gibt. Die Runde wurde von Tiger Global angeführt, mit Beteiligung von Benchmark, Fidelity, AMD, Coatue und weiteren Investoren.

Cerebras mit Sitz in Sunnyvale, Kalifornien, entwickelt spezielle KI-Chips mit Fokus auf schnelle Inferenz, also kurze Antwortzeiten der KI-Modelle. Das Besondere an Cerebras ist der Ansatz, einen kompletten Wafer als einen einzigen Chip zu nutzen – die sogenannte "Wafer Scale Engine" (WSE). Das aktuelle Hauptprodukt ist der WSE-3.

Bei der Finanzierungsrunde geholfen haben dürfte der kürzlich bekannt gegebene Deal mit OpenAI über mehr als zehn Milliarden US-Dollar. Das KI-Labor will über einen Zeitraum von drei Jahren 750 Megawatt Rechenkapazität für ChatGPT erwerben. Sehr wahrscheinlich will OpenAI die Antwortzeiten seiner Reasoning- und Code-Modelle beschleunigen, die zwar die wohl besten Ergebnisse am Markt liefern, aber dafür recht lange brauchen. Sam Altman versprach kürzlich "dramatisch schnellere" Antwortzeiten im Kontext des Code-Modells Codex.

Anzeige
Read full article about: Chinesischer KI-Entwickler Kling stellt leistungsstarkes Videomodell 3.0 vor

Die chinesische Firma Kling hat das Videomodell 3.0 veröffentlicht. Das neue Modell wird als "All-in-One Creative Engine" für multimodale Kreation beschrieben. Zu den Hauptfunktionen gehören verbesserte Konsistenz bei Charakteren und Elementen, Videoproduktion mit 15-Sekunden-Clips und verbesserter Kontrolle sowie anpassbare Multi-Shot-Aufnahmen. Die Audiofunktionen wurden erweitert und unterstützen nun mehrere Charakterreferenzen sowie zusätzliche Sprachen und Akzente. Bei der Bildgenerierung bietet Kling 3.0 eine 4K-Ausgabe, einen neuen Serienbildmodus und "verbesserte filmische visuelle Qualität".

Ultra-Abonnenten erhalten exklusiven frühen Zugang über die Webseite von Kling AI. Offizielle Informationen zu einem allgemeinen Release, einer API oder einer technischen Dokumentation zum Videomodell sind bisher nicht verfügbar. Zu den Kling-Omni-Modellen veröffentlichte das Kling-Team im Dezember 2025 ein Paper.

Der YouTube-Kanal "Theoretically Media" hatte vorab Zugriff und hat ein ausführliches Ersteindruck-Video veröffentlicht. Demnach soll das Modell innerhalb einer Woche für weitere Abostufen verfügbar sein.