Ohne Nvidia: GLM-5.1 schlägt GPT-5.4 und Claude beim Coden

KI-News: GLM-5.1, Huawei, Z.ai

Das chinesische KI-Labor Z.ai (ehemals Zhipu AI) hat GLM-5.1 veröffentlicht, ein Sprachmodell mit 754 Milliarden Parametern unter MIT-Lizenz. Auf SWE-bench Pro, dem anspruchsvollsten Coding-Benchmark der Branche, erreicht es 58,4 Punkte und übertrifft damit GPT-5.4 (57,7), Claude Opus 4.6 (57,3) und Gemini 3.1 Pro (54,2).

GLM-5.1 arbeitet als Mixture-of-Experts-Modell mit 256 Experten, von denen jeweils acht pro Token aktiv werden. Effektiv nutzt es 40 Milliarden aktive Parameter pro Anfrage bei einem Kontextfenster von 200.000 Token und einer maximalen Ausgabelänge von 131.072 Token. Trainiert wurde das komplette Modell auf 100.000 Huawei Ascend 910B-Chips mit dem Framework MindSpore. Kein einziger Nvidia-Chip war beteiligt.

Für Nutzer, die Coding-Aufgaben an Sprachmodelle delegieren, ist GLM-5.1 eine ernst zu nehmende Alternative. Z.ai bietet einen Coding-Plan ab 3 Dollar pro Monat an. Es ist nach DeepSeek V4 das zweite chinesische Modell innerhalb weniger Wochen, das ohne westliche Hardware auf Frontier-Niveau operiert. Die Frage, ob Chinas KI-Branche US-Exportbeschränkungen bei Chips kompensieren kann, beantwortet sich zunehmend von selbst.

Die Modellgewichte stehen auf Hugging Face zum Download, eine API ist über OpenRouter verfügbar. GLM-5.1 ist ein Feintuning des im Februar veröffentlichten GLM-5, das speziell für agentengestützte Arbeit über lange Aufgabenketten mit Tausenden von Tool-Aufrufen optimiert wurde.

Quellen

Diese Meldung wurde mit Unterstützung von Claude (Anthropic) recherchiert und verfasst. Inhaltliche Fehler sind möglich. Die verlinkten Quellen ermöglichen eine eigene Prüfung.

Bist du bereit für mehr?