Anzeige
Skip to content

Erfundene Quellen haben sich bereits in die wissenschaftliche Literatur eingeschlichen

Gefälschte Zitate rutschen durch das Peer-Review führender KI-Konferenzen und kommerzielle LLMs erkennen ihre eigenen Fakes nicht. Ein neues Open-Source-Tool namens CiteAudit soll finden, was GPT, Gemini und Claude übersehen.

Read full article about: OpenAI-Robotik-Chefin kündigt aus Protest gegen Pentagon-Deal

OpenAI verliert seine Robotik-Chefin Caitlin Kalinowski. Sie schreibt bei LinkedIn, sie verlasse OpenAI aus Protest gegen dessen Zusammenarbeit mit dem Militär. Zwar spiele KI eine wichtige Rolle für die nationale Sicherheit, aber die Überwachung von US-Bürgern ohne richterliche Aufsicht und tödliche Autonomie ohne menschliche Genehmigung hätten mehr Diskussion verdient. Kalinowski leitete seit November 2024 die Robotik-Abteilung und kam zuvor von Meta, wo sie die AR-Brille Orion entwickelt hatte.

Kalinowski via LinkedIn

Hintergrund ist ein Vertrag zwischen OpenAI und dem Pentagon zur Nutzung von OpenAI-Modellen, den Anthropic zuvor abgelehnt hatte. OpenAI betonte zwar, der Vertrag enthalte die gleichen klaren roten Linien gegen Überwachung und autonome Waffen wie bei Anthropic. Allerdings akzeptierte OpenAI eine weichere Vertragssprache, darunter die Formulierung "all lawful use" ("jede gesetzlich zulässige Nutzung"), die jedoch Schlupflöcher bietet und die die US-Regierung jetzt für KI-Unternehmen standardisieren will.

Anzeige
Read full article about: Nach Anthropic-Eklat: US-Regierung plant strenge neue Richtlinien für staatliche KI-Verträge

Die US-Regierung unter Präsident Trump hat strenge neue Richtlinien für KI-Verträge mit zivilen Behörden entworfen. Laut einem Entwurf, den die Financial Times einsehen konnte, müssen KI-Unternehmen der Regierung eine unwiderrufliche Lizenz zur Nutzung ihrer Systeme für alle legalen Zwecke ("all lawful use") einräumen – genau die Formulierung, gegen die sich Anthropic gesträubt und die OpenAI akzeptiert hat.

Die Richtlinien der US-General Services Administration (GSA), die schon seit einigen Monaten in Arbeit sein sollen, verbieten zudem, dass KI-Modelle ideologische oder parteipolitische Urteile in ihre Ergebnisse einbauen, etwa zugunsten von Diversitätsprogrammen – was selbst eine ideologische Vorgabe ist und an Chinas Praxis erinnert, KI-Herstellern politische Rahmenbedingungen zu setzen. Eine weitere Klausel verlangt von KI-Unternehmen, offenzulegen, ob ihre Modelle angepasst wurden, um nicht-amerikanische Vorschriften wie den EU Digital Services Act zu erfüllen.

Hintergrund der Maßnahme ist natürlich auch der Konflikt mit Anthropic: Das Pentagon kündigte einen 200-Millionen-Dollar-Vertrag, weil das Unternehmen Einschränkungen gegen Massenüberwachung von US-Bürgern und aus Verlässlichkeitsgründen autonome Waffen forderte. Kriegsminister Pete Hegseth warf Anthropic vor, ein Vetorecht über die operativen Entscheidungen des US-Militärs erlangen zu wollen. Das Weiße Haus stufte Anthropic daraufhin als Lieferkettenrisiko ein.

Anzeige
Read full article about: Anthropics KI-Modell Claude findet mehr als 100 Sicherheitslücken in Firefox

Mozilla und Anthropic haben gemeinsam über 100 Fehler in Firefox gefunden. Anthropic setzte sein KI-Modell Claude ein, um Schwachstellen im Browser-Code zu identifizieren. Das Ergebnis: 14 schwerwiegende Sicherheitslücken, 22 offizielle Sicherheitsmeldungen (CVEs) und 90 weitere Fehler. Alle schweren Lücken sind in Firefox 148 behoben.

Gestapeltes Balkendiagramm zeigt Firefox-Sicherheitslücken pro Monat von Januar 2025 bis Februar 2026, aufgeschlüsselt nach Schweregrad (Critical, High, Moderate, Low). Februar 2026 sticht mit 52 CVEs heraus, davon 22 durch Anthropics Opus 4.6 entdeckt. Die übrigen Monate liegen zwischen 9 und 20 CVEs.
Die Zahl der entdeckten Firefox-Sicherheitslücken im Februar 2026 ist fast dreimal so hoch wie in den Vormonaten. 22 der 52 CVEs gehen auf Anthropics KI-Modell Opus 4.6 zurück. | Bild: Anthropic

Claude fand dabei Fehlerklassen, die klassische automatisierte Testverfahren wie Fuzzing trotz jahrzehntelangem Einsatz übersehen hatten. Laut Mozilla lieferte Anthropic reproduzierbare Testfälle, was die Überprüfung erleichterte. Mozilla will KI-gestützte Codeanalyse künftig in seine internen Sicherheitsprozesse einbauen.

Firefox wurde laut Anthropic als Testfeld gewählt, weil es eines der am intensivsten geprüften Open-Source-Projekte ist. Die Firma hat einen detaillierten technischen Bericht zu den Ergebnissen auf seiner Website veröffentlicht. Für das hauseigene KI-Tool Claude Code erschien kürzlich eine Funktion speziell für Cybersecurity-Prüfungen.

Read full article about: OpenAI bietet Open-Source-Entwicklern kostenlosen Zugang zu ChatGPT Pro und mehr

OpenAI bietet Open-Source-Entwicklern ein neues Unterstützungsprogramm an. Kernbetreuer öffentlicher Softwareprojekte können sich um sechs Monate kostenlosen Zugang zu ChatGPT Pro mit Codex, API-Guthaben und Codex Security bewerben. Codex Security, ein neues KI-Werkzeug für Sicherheitsprüfungen von Code, wird laut OpenAI angesichts der Fähigkeiten von GPT-5.4 einzeln geprüft und nur gezielt freigegeben.

Auch Entwickler, die andere Programmier-Tools wie OpenCode, Cline oder OpenClaw bevorzugen, können sich bewerben. Projekte, die nicht alle Kriterien erfüllen, aber eine wichtige Rolle im Software-Ökosystem spielen, sind ebenfalls eingeladen, sich zu bewerben. Das Programm baut auf dem bestehenden Codex Open Source Fund auf, den OpenAI mit einer Million Dollar ausgestattet hat.

Anzeige
Read full article about: 200-Dollar-Abo für 5000 Dollar Rechenkosten: Anthropic soll Claude Code stark subventionieren

Anthropic soll laut einer internen Analyse des Coding-KI-Start-ups Cursor seine Coding-Angebote stark subventionieren. Cursor schätzte 2025 laut Forbes, dass ein Claude-Code-Abo für 200 Dollar pro Monat bis zu 2.000 Dollar an Rechenkosten verursacht – inzwischen sogar rund 5.000 Dollar. Auch Cursor subventioniert Nutzer, aber weniger stark: Privatkunden-Abos laufen mit negativen Margen, Geschäftskundenverträge profitabel.

Der Fall zeigt das Dilemma von Unternehmen, die auf einem externen Modellanbieter aufbauen, der dieselbe Zielgruppe bedient. Es gibt kaum eine Marge abzugreifen. Zudem könnten die zunehmend agentischen Fähigkeiten von KI-Modellen Cursors Bedienoberfläche überflüssig machen.

Cursor will daher eigene Coding-Modelle stärken: Rund 20 KI-Forscher arbeiten an den Composer-Modellen, die auf Open-Source-Modellen wie DeepSeek, Kimi und Qwen basieren und mit eigenen Daten weitertrainiert werden. Mit Version 2.0 hat Cursor sein erstes eigenes Coding-Modell veröffentlicht. Trotz der Risiken wächst Cursor rasant: von 100 Millionen Dollar Jahresumsatz Anfang 2025 auf über zwei Milliarden – eine Verdopplung allein in den letzten drei Monaten.

Die Schätzungen zeigen in jedem Fall: Sobald generative KI fest in den Arbeitsalltag eingebunden ist, dürften die Preise schnell steigen, das gilt für Claude Code ebenso wie für ChatGPT, Copilot und Co.