Das japanische KI-Start-up Sakana AI hat "Ultra Deep Research" entwickelt. Das Programm namens "Sakana Marlin" ist das erste Produkt des Unternehmens für Geschäftskunden. Laut Sakana AI arbeitet das System autonom: Nach der Eingabe eines Themas recherchiert es bis zu acht Stunden selbstständig. Anschließend erstellt es Berichte und Präsentationen rund um das Thema.
Ein Beispiel-Output des KI-Assistenten "Sakana Marlin" mit "Ultra Deep Research": Zu einem vorgegebenen Thema (hier: KI-Trends im Finanzsektor) erstellt das Tool nach seiner autonomen Recherche selbstständig umfangreiche Textberichte sowie die passenden Präsentationsfolien. | Bild: Sakana AI
Laut Sakana AI soll das Tool professionelle Strategieanalysen übernehmen können, für die Teams sonst mehrere Wochen benötigen. Die Technik basiert auf Sakana AIs "AI Scientist", der Widersprüche auflösen soll, kombiniert mit der zuvor vorgestellten Methode "AB-MCTS" für strategische Suche. Im Prozess kommen mehrere KI-Modelle zum Einsatz und längeres Nachdenken soll bessere Ergebnisse liefern.
Microsoft hat mit MAI-Transcribe-1 ein neues Sprache-zu-Text-Modell vorgestellt, das in 25 Sprachen arbeitet und auf dem FLEURS-Benchmark laut Microsoft die niedrigste Wortfehlerrate aller getesteten Modelle erreicht, vor Konkurrenten wie Scribe v2, Whisper-large-V3, GPT-Transcribe und Gemini 3.1 Flash-Lite. MAI-Transcribe-1 soll dabei auch schwierige Aufnahmebedingungen meistern und Hintergrundgeräusche, schlechte Audioqualität sowie überlappende Sprache zuverlässig verarbeiten.
MAI-Transcribe-1 (grün) erzielt in der FLEURS-Benchmark über 25 Sprachen hinweg fast durchgehend die niedrigste Wortfehlerrate und schlägt Scribe v2, Gemini 3.1 Flash-Lite, Whisper-large-v3 und GPT-Transcribe. | Bild: Microsoft
Microsoft setzt das Modell schrittweise in Copilot Voice und Microsoft Teams ein. Entwickler können es ab sofort als Public Preview über Microsoft Foundry und den Microsoft AI Playground nutzen. Das Modell ist 2,5-mal schneller als Microsofts bisheriges Azure-Fast-Angebot und kostet 0,36 Dollar pro Audiostunde. In Kombination mit MAI-Voice-1 und einem Sprachmodell lassen sich damit laut Microsoft Sprachagenten bauen.
Alibaba hat mit Qwen3.6-Plus sein drittes proprietäres KI-Modell innerhalb weniger Tage veröffentlicht. Das Modell ist über die Alibaba Cloud Model-Studio-API verfügbar und bietet ein Kontextfenster von einer Million Token. Laut dem Qwen-Team liegt der Schwerpunkt auf stark verbesserten Fähigkeiten für agentenbasiertes Programmieren, etwa bei Frontend-Entwicklung und komplexen Code-Aufgaben. In von Alibaba veröffentlichten Benchmarks liegt das Modell teilweise vor Anthropics altem Spitzenmodell Claude 4.5 Opus, das im Dezember 2025 vom stärkeren 4.6 Opus abgelöst wurde. Einige der Messungen hat das Unternehmen allerdings selbst durchgeführt.
Das neue Qwen3.6-Plus übertrifft das ältere 3.5-Modell und in einigen Fällen auch Opus. Allerdings erreicht das im Dezember 2025 veröffentlichte Opus 4.6 etwa im Terminal-Bench 2.0 65,4 Prozent und liegt damit vor Qwen3.6-Plus. | Bild: Alibaba
Lange hatte Alibaba seine Qwen-Modelle als Open Source bereitgestellt, zuletzt aber seine Strategie gewechselt: Das jüngste Qwen3.5-Omni ist ebenfalls nicht frei verfügbar. Das Unternehmen will mit den proprietären Modellen mehr Umsatz von Firmenkunden erzielen, da die Cloud-Sparte unter starkem Wettbewerb mit ByteDance steht. Laut Bloomberg strebt Alibaba 100 Milliarden Dollar KI-Umsatz in fünf Jahren an. Qwen3.6-Plus wird in die Qwen-Chatbot-App und den neuen Unternehmens-KI-Dienst Wukong integriert.
KI-Modelle schreiben Roboter-Code fast so gut wie Menschen, aber nur mit Stützrädern
Ein neues Framework von Nvidia, UC Berkeley und Stanford untersucht systematisch, wie gut KI-Modelle Roboter per Code steuern können. Das Ergebnis: Ohne menschliche Abstraktionen scheitern selbst die besten Modelle, doch mit gezielter Laufzeit-Skalierung schließt sich die Lücke.
Chinesische Chiphersteller haben laut einem IDC-Bericht, den Reuters einsehen konnte, im Jahr 2025 fast 41 Prozent des chinesischen Marktes für KI-Beschleuniger-Server erobert. IDC ist ein weltweit tätiges Marktforschungsunternehmen, das auf die Technologiebranche spezialisiert ist.
Nvidia bleibt zwar Marktführer mit rund 2,2 Millionen ausgelieferten Karten und 55 Prozent Marktanteil, verliert aber deutlich an Boden. Insgesamt wurden laut dem Bericht in China rund 4 Millionen KI-Beschleunigerkarten ausgeliefert.
Chinesische Anbieter kamen zusammen auf 1,65 Millionen Karten. Huawei führt die heimischen Hersteller mit etwa 812.000 Chips an, gefolgt von Alibabas Chipsparte T-Head mit 265.000 Karten. Baidu Kunlunxin und Cambricon liegen gleichauf bei je 116.000 Stück. AMD hielt nur 4 Prozent Marktanteil. Hintergrund sind verschärfte US-Exportkontrollen und Pekings Vorgaben, verstärkt auf heimische Chips zu setzen.