DeepSeek V4 bringt 1,6 Billionen Parameter als Open Source

KI-News: DeepSeek V4, Open Source, 1.6T

Das chinesische KI-Labor DeepSeek hat zwei neue Modelle veröffentlicht: V4 Pro mit 1,6 Billionen Parametern und V4 Flash mit 284 Milliarden. Beide laufen als Mixture of Experts, beide verarbeiten bis zu eine Million Token Kontext, beide stehen unter MIT-Lizenz auf Hugging Face. V4 Pro ist damit das größte frei verfügbare Sprachmodell der Welt.

Die eigentliche Nachricht steckt nicht in der Parameterzahl, sondern im Preis. V4 Flash kostet über die API 0,14 Dollar pro Million Input-Token. Das ist weniger als OpenAIs GPT-5.4 Nano und weniger als Gemini 3.1 Flash-Lite. V4 Pro liegt bei 1,74 Dollar pro Million Input-Token und unterbietet damit Claude Sonnet, GPT-5.4 und Gemini 3.1 Pro deutlich. Möglich wird das durch eine neue Hybrid Attention Architecture, die den KV-Cache auf sieben Prozent des Vorgängermodells V3.2 drückt. Weniger Speicher, weniger Rechenaufwand, niedrigere API-Kosten.

Bei den Benchmarks ordnet sich V4 Pro knapp hinter GPT-5.4 und Gemini 3.1 Pro ein. DeepSeek selbst spricht von einem Rückstand von drei bis sechs Monaten gegenüber den führenden proprietären Modellen. Für ein Open-Source-Modell ist das bemerkenswert nah an der Spitze. Wer die chinesische KI-Szene verfolgt, kennt das Muster: DeepSeek liefert nicht die besten Modelle, aber die mit dem besten Preis-Leistungs-Verhältnis.

V4 Flash ist mit 160 GB Downloadgröße klein genug, um auf leistungsfähigen Laptops zu laufen. V4 Pro braucht mit 865 GB deutlich mehr Platz. Quantisierte Versionen dürften in den nächsten Tagen folgen.

Quellen

DeepSeek V4 Pro auf Hugging Face
Bloomberg: DeepSeek Unveils Newest Flagship AI Model
Simon Willison: DeepSeek V4 — almost on the frontier, a fraction of the price

Ähnliche News

Diese Meldung wurde mit Unterstützung von Claude (Anthropic) recherchiert und verfasst. Inhaltliche Fehler sind möglich. Die verlinkten Quellen ermöglichen eine eigene Prüfung. Fachbegriffe erläutert das Glossar.

Bist du bereit für mehr?

Was sagst du dazu?