Mistrals neues Flaggschiff läuft auf vier GPUs

KI-News: Mistral, 128B, Open Weights

Mistral AI hat mit Medium 3.5 ein neues Flaggschiff veröffentlicht. Das Modell ist 128 Milliarden Parameter groß, vollständig dicht (kein Mixture-of-Experts) und unter einer modifizierten MIT-Lizenz als Open Weights verfügbar. Es vereint Instruktionsfolge, Reasoning und Code in einem einzigen Satz Gewichte.

Auf SWE-bench Verified erreicht Medium 3.5 einen Score von 77,6% und liegt damit vor Devstral 2 und Qwen3.5 397B. Auf dem agentischen Telecom-Benchmark τ³ kommt es auf 91,4%. Bemerkenswert: Das Modell lässt sich auf nur vier GPUs selbst hosten, etwa über vLLM, SGLang oder Ollama. Mistral hat außerdem eine EAGLE-Variante für spekulative Inferenz veröffentlicht. Wer eigene KI lokal betreiben will, bekommt damit ein ernstzunehmendes Werkzeug.

Parallel dazu hat Mistral seinen Coding-Dienst Vibe um Remote Agents erweitert. Sessions laufen jetzt in der Cloud und können per CLI oder Le Chat gestartet werden. Eine lokale CLI-Session lässt sich in die Cloud teleportieren, was längere Coding-Aufgaben praktischer macht.

Für Mistral ist das Release strategisch wichtig. Nach der Allianz mit xAI und Cursor positioniert sich das französische Unternehmen als ernsthafter Mitspieler im Wettrennen um die besten Coding-Modelle. Medium 3.5 ist das erste dense Modell dieser Größe, das sich realistisch selbst betreiben lässt, ohne auf geschlossene APIs angewiesen zu sein.

Quellen

Diese Meldung wurde mit Unterstützung von Claude (Anthropic) recherchiert und verfasst. Inhaltliche Fehler sind möglich. Die verlinkten Quellen ermöglichen eine eigene Prüfung. Fachbegriffe erläutert das Glossar.

Bist du bereit für mehr?

Was sagst du dazu?