Anthropic hat groß angelegte Destillationsangriffe der chinesischen KI-Labore Deepseek, Moonshot und MiniMax auf Claude aufgedeckt. Bei Destillation wird ein schwächeres Modell mit den Ausgaben eines stärkeren trainiert. Mehr als 24.000 gefälschte Accounts generierten mehr als 16 Millionen Anfragen, gezielt auf Claudes Stärken wie logisches Denken, Programmieren und Werkzeugnutzung. Die Labore nutzten laut Anthropic Proxy-Dienste, um Chinas Zugangsbeschränkungen zu umgehen.
| Labor | Anfragen | Ziele |
|---|---|---|
| DeepSeek | 150.000+ | Denkschritte offenlegen, Belohnungsmodell-Daten für Reinforcement Learning, zensurkonforme Antworten zu politisch heiklen Themen |
| Moonshot AI | 3,4 Mio.+ | Agentenbasiertes Denken, Werkzeugnutzung, Programmieren, Datenanalyse, Computer-Vision, Rekonstruktion von Claudes Denkprozessen |
| MiniMax | 13 Mio.+ | Agentenbasiertes Programmieren, Werkzeugnutzung und -orchestrierung; schwenkte innerhalb von 24 Stunden auf neues Claude-Modell um |
Deepseek brachte Claude dazu, Denkschritte offenzulegen und zensurkonforme Antworten zu politisch heiklen Themen zu erzeugen. MiniMax war mit über 13 Millionen Anfragen die größte Kampagne. Als Anthropic ein neues Modell herausbrachte, schwenkte MiniMax innerhalb von 24 Stunden um und leitete fast die Hälfte seines Datenverkehrs auf das neue System um.
Anthropic fordert eine koordinierte Reaktion von Industrie und Politik. Auch OpenAI und Google berichteten von ähnlichen chinesischen Versuchen.
