Anzeige
Skip to content
Read full article about: OpenAI will das beste Sprachmodell, das in 16 MB passt

OpenAI fordert Forscher und Entwickler heraus, das beste Sprachmodell zu bauen, das in nur 16 MB passt – und nutzt den Wettbewerb gezielt zur Talentsuche. Beim offenen Forschungswettbewerb "Parameter Golf" müssen Gewichte und Trainingscode zusammen unter 16 MB bleiben, trainiert wird in maximal zehn Minuten auf acht H100-GPUs. Bewertet wird anhand der Kompression auf einem festen FineWeb-Datensatz.

OpenAI stellt dafür eine Million Dollar an Rechenzeit-Gutschriften über den Partner Runpod bereit. Herausragende Teilnehmer können zu Bewerbungsgesprächen eingeladen werden. Im Juni plant OpenAI, eine kleine Gruppe von Nachwuchsforschern einzustellen, darunter Studierende und Olympiade-Gewinner. Das GitHub-Repository enthält Baseline-Modelle, Evaluierungsskripte und eine öffentliche Rangliste. Die Teilnahme steht allen ab 18 Jahren in unterstützten Ländern offen und ist bis 30. April möglich.

Der Kampf um KI-Talente zwischen den großen Techkonzernen ist so hart wie nie. Meta hat in der Vergangenheit wiederholt Top-Forscher von OpenAI abgeworben, teilweise mit Vergütungspaketen von angeblich bis zu 300 Millionen Dollar.

Apple blockiert Updates von Vibe-Coding-Apps im App Store

Apple verhindert, dass beliebte Vibe-Coding-Apps wie Replit und Vibecode neue Versionen veröffentlichen. Der Konzern beruft sich auf bestehende Richtlinien, doch die Maßnahme trifft eine potenzielle Konkurrenz zum eigenen Ökosystem.

Pentagon plant offenbar KI-Training auf geheimen Militärdaten

Das US-Verteidigungsministerium will laut einem Bericht sichere Umgebungen einrichten, in denen KI-Firmen ihre Modelle mit klassifizierten Daten trainieren. Bisher durften Modelle geheime Daten nur lesen, nicht daraus lernen.

Anzeige

OpenAI bringt GPT-5.4 mini und nano: Schneller, fähiger, aber auch deutlich teurer

OpenAI veröffentlicht mit GPT-5.4 mini und nano zwei neue kompakte Modelle, die für Coding-Assistenten, Subagenten und Computersteuerung optimiert sind. Die Leistung nähert sich bei GPT-5.4 mini dem Vollmodell, die Preise steigen jedoch deutlich gegenüber den Vorgängern.

Anzeige

GTC 2026: Nvidia bringt mit Groq-3-LPX erstmals spezialisierte Inferenz-Hardware ins eigene Ökosystem

Eigene CPU-Racks, spezialisierte Inferenzchips, eine neue Speicherarchitektur, ein Inferenz-Betriebssystem, offene Modellallianzen und Agenten-Sicherheitssoftware: Auf der GTC 2026 füllt Nvidia die zur CES vorgestellte Vera-Rubin-Plattform mit einer Reihe neuer Bausteine.

Anzeige
Read full article about: Mistral AI veröffentlicht Mistral Small 4 als kleinen Open-Weight-Allrounder

Mistral AI hat mit Mistral Small 4 ein neues Modell veröffentlicht, das schnelle Textantworten, logisches Denken und Bildverarbeitung in einem vereint. Obwohl das Modell 119 Milliarden Parameter hat, sind pro Anfrage nur 6 Milliarden aktiv, da eine Architektur mit 128 Experten-Modulen jeweils nur vier davon gleichzeitig nutzt. Nutzer können ähnlich zur Konkurrenz über einen Parameter steuern, ob das Modell schnell oder gründlich antworten soll. Laut Mistral AI ist es 40 Prozent schneller und verarbeitet dreimal mehr Anfragen pro Sekunde als der Vorgänger.

Balkendiagramm zeigt die Benchmark-Ergebnisse von Mistral Small 4 High im Vergleich zu Magistral Medium 1.2 und Magistral Small 1.2 in den Kategorien LCR, AIME25, Collie und LiveCodeBench.
Mistral Small 4 mit hoher Reasoning-Stufe erreicht in internen Benchmarks ähnliche oder bessere Werte als die spezialisierten Magistral-Modelle.

Das Modell steht unter der offenen Apache-2.0-Lizenz und ist über Hugging Face, die Mistral API sowie Nvidia-Plattformen verfügbar. Mistral AI tritt zudem der Nvidia Nemotron Coalition bei, einem Zusammenschluss von Unternehmen, der die Entwicklung offener KI-Modelle vorantreiben soll. Bereits Anfang Dezember hatte Mistral AI mit der Mistral-3-Reihe neue multimodale Open-Source-Modelle veröffentlicht, darunter das Flaggschiff Mistral Large 3 mit 675 Milliarden Parametern.