
Chinesische KI macht Silicon Valley nervös. DeepSeek, Qwen, Kimi, Kling – Namen, die vor zwei Jahren kaum jemand kannte, werden jetzt immer öfter erwähnt. Sie sind billig, aber sind sie auch gut?
Für Nutzer im deutschsprachigen Raum heißt das mehr Auswahl, niedrigere Preise, aber auch neue Fragen. Was taugen diese Modelle? Was steckt dahinter? Und kann man sie benutzen, ohne àlle seine Daten nach Peking zu schicken?
Inhaltsverzeichnis
DeepSeek – der Schock aus Hangzhou
Im Januar 2025 veröffentlichte ein bis dahin kaum bekanntes chinesisches Start-up namens DeepSeek sein Modell R1 – und die Börsen krachten. Nvidia verlor an einem einzigen Tag über 500 Milliarden Dollar Marktwert. Ein KI-Modell aus China, das in Benchmarks für Mathematik, Programmierung und logisches Denken mindestens so gut war wie OpenAIs o1. Trainiert für geschätzte 6 Millionen Dollar, während OpenAI Hunderte Millionen in vergleichbare Modelle steckt. Das musste man erst mal sacken lassen.
Der Trick heißt Mixture-of-Experts: Das Modell hat 671 Milliarden Parameter insgesamt, aktiviert pro Anfrage aber nur rund 37 Milliarden. Der Rest schaut zu. Das senkt die Rechenkosten drastisch, und DeepSeek gibt den Vorteil weiter – die API-Preise liegen bei einem Bruchteil dessen, was OpenAI verlangt.
Und das Beste: Die Modelle stehen unter MIT-Lizenz. Man kann sie herunterladen und auf dem eigenen Rechner laufen lassen.
Die DeepSeek-App stieg binnen Tagen zur meistgeladenen kostenlosen App im Apple App Store auf – weltweit, nicht nur in China. Ein Jahr später ist R1 das meistgelikte Open-Source-Modell auf Hugging Face. Die nächste Version, V4, soll im Februar 2026 kommen und besonders beim Programmieren eine neue Stufe erreichen. (Stand 02/2026)
Qwen – Alibabas Alleskönner
DeepSeek ist das Skalpell – präzise bei Mathe und Code, aber im Deutschen eher hölzern. Alibaba verfolgt mit Qwen (gesprochen: Tschwen) einen anderen Ansatz: Qwen soll alles können, und zwar in möglichst vielen Sprachen. Über 29 sind es in der aktuellen Version Qwen 3, darunter Deutsch. Und ja, man merkt den Unterschied. Qwen schreibt flüssigeres Deutsch als DeepSeek.
Was Qwen besonders für Firmen interessant macht: Das Modell kann echte Werkzeuge bedienen – APIs aufrufen, Datenbanken abfragen, Dateien verarbeiten. Nicht nur darüber reden, sondern es tun. Daneben gibt es spezialisierte Varianten: Qwen3-Coder für Programmierung, Qwen3-ASR für Spracherkennung als Konkurrenz zu OpenAIs Whisper.
Alibabas API-Plattform arbeitet mit OpenAI-kompatiblen Standards. Wer eine Anwendung für ChatGPT gebaut hat, kann mit wenigen Zeilen Code auf Qwen umsteigen. Bei den Kosten liegt Qwen ähnlich günstig wie DeepSeek.
Kimi – wenn das Kontextfenster kein Limit kennt
Moonshot AI hat mit Kimi eine Nische besetzt, die für alle interessant ist, die mit langen Dokumenten arbeiten. Kimi K2.5 nutzt eine Billion Parameter (davon 32 Milliarden aktiv) und kann extrem lange Texte am Stück verarbeiten. ChatGPTs Standardfenster liegt bei 128.000 Token. Kimi schafft ein Vielfaches davon.
In der Praxis: Du lädst ein ganzes Fachbuch hoch und stellst Fragen dazu. Oder hunderte Seiten juristischer Dokumente, Forschungsberichte, technische Spezifikationen. In Benchmarks übertrifft Kimi K2.5 laut Moonshot sogar GPT-4o und Claude Opus bei Coding und bei Aufgaben, die selbstständiges Handeln erfordern – also nicht nur antworten, sondern Teilaufgaben erkennen, Werkzeuge auswählen und Ergebnisse zusammenführen.
Dafür hat Moonshot den »Agent Swarm« entwickelt: Kimi schickt spezialisierte Unter-Agenten gleichzeitig los, die verschiedene Aspekte einer Aufgabe parallel bearbeiten. Dezentrale Koordination statt immer größere Einzelmodelle. Ob das in der Praxis hält, was die Benchmarks versprechen, muss sich zeigen.
Was die Benchmarks sagen – und was nicht
Zahlen, weil Zahlen helfen. Eine Studie der Universität Leipzig hat chinesische und westliche Modelle an deutschen medizinischen Prüfungsfragen getestet. DeepSeek-R1 erreichte 96 Prozent Genauigkeit, Gemini 94 Prozent, ChatGPT 92,5 Prozent. Bei medizinischen Fragen in deutscher Sprache lag das chinesische Modell also vorne.
Aber Benchmarks sind Laborbedingungen.
In der täglichen Praxis merkt man, dass DeepSeek beim Schreiben deutscher Texte steifer klingt als Claude oder ChatGPT. Die Grammatik stimmt, der Ton nicht. Qwen ist hier besser, kommt aber auch nicht an die Natürlichkeit westlicher Modelle heran, wenn es um fließende deutsche Prosa geht. Für technische Aufgaben – Code, Analyse, Zusammenfassungen – spielen die chinesischen Modelle ganz vorne mit. Für den deutschen Blogartikel eher weniger.
Video-KI aus China – Kling, Seedance, Vidu, Hailuo
Nicht nur bei Sprachmodellen. Auch bei der Videogenerierung mischen chinesische Anbieter ganz vorne mit – neben Googles Veo und OpenAIs Sora, nicht dahinter.
Kling AI von Kuaishou hat über 60 Millionen Nutzer und wird in praktisch jedem aktuellen Vergleich neben Googles Veo 3.1 und OpenAIs Sora 2 in der Spitzengruppe genannt. Version 3.0 vom Februar 2026 beherrscht Multi-Shot-Sequenzen mit konsistenten Charakteren über verschiedene Kamerawinkel – und bleibt dabei das günstigste produktionsreife Modell am Markt. Für deutsche Nutzer praktisch: Die Bezahlung funktioniert über PayPal. (Stand 02/2026)
Seedance 2.0 von ByteDance (die Firma hinter TikTok) erzeugt Videos in nativer 2K-Auflösung. Die »Multi-Shot«-Funktion plant mehrere zusammenhängende Einstellungen mit konsistenten Charakteren und Lichtverhältnissen. Nicht mehr nur ein Spielzeug.
Vidu Q3 von Shengshu Technology hat laut einer Vergleichsanalyse von WeShop AI eine technische Premiere geliefert: Audio und Video werden gleichzeitig auf Modellebene erzeugt. Perfekte Lippensynchronität, passende Akustik, ohne Nachbearbeitung. Klingt nach Zukunft, ist aber schon da.
Hailuo AI von MiniMax aus Shanghai gehört ebenfalls in diese Reihe. Das aktuelle Modell Hailuo 2.3 erzeugt kurze, visuell beeindruckende Clips mit realistischer Physik und präziser Kamerasteuerung per Textprompt. MiniMax ging im Januar 2026 in Hongkong an die Börse und hat über 200 Millionen Nutzer weltweit. (Stand 02/2026)
Zensur?
Jedes KI-Modell ist gefiltert. Jedes einzelne.
Chinesische Modelle filtern politisch, per Staatsanweisung. Wer DeepSeek über die offizielle Website nach dem Tiananmen-Massaker fragt, sieht, wie der Text Zeichen für Zeichen erscheint – und dann plötzlich gelöscht und durch eine Ausweichantwort ersetzt wird. Der Denkprozess war schon da, die Zensur greift nachträglich. Das ist vielfach dokumentiert. Taiwan, Tibet, Xinjiang, Demokratiebewegung – zu diesen Themen schweigen chinesische Modelle oder weichen aus.
Aber der Blick nur nach China greift zu kurz. Westliche Modelle filtern ebenfalls, nur nach anderen Regeln. Claude weigert sich, bestimmte Inhalte zu erzeugen. ChatGPT hat ausführliche Content Policies. Googles Gemini hat bei der Bildgenerierung historischer Personen so übertrieben gefiltert, dass es absurd wurde. Und die EU verzögert mit dem AI Act den Marktzugang ganzer Produktlinien – Metas Llama-Modelle kamen wochenlang nicht nach Europa, Apple Intelligence startete mit monatelanger Verspätung. Das ist keine politische Zensur im chinesischen Sinne, aber es ist auch keine Freiheit.
Der Unterschied ist einer des Grades, nicht des Prinzips. Chinesische Modelle filtern staatlich zu konkreten politischen Themen. Westliche Modelle filtern per Unternehmensrichtlinie zu Sicherheit, Haftung und kultureller Sensibilität. Eine Analyse des China Media Project zeigte, dass chinesische Modelle bei Fragen zur internationalen Reputation Chinas systematisch positive Aspekte hervorheben. Dass westliche Modelle bei bestimmten gesellschaftlichen Themen ebenfalls eine Schlagseite haben, fällt nur weniger auf, weil es unsere eigene ist.
Wer die Modelle lokal betreibt, umgeht die Cloud-Filter. Die Voreingenommenheit in den Trainingsdaten bleibt aber bestehen – bei chinesischen wie bei westlichen Modellen.
Für technische Aufgaben – Code, Datenanalyse, Zusammenfassungen – spielt das alles keine Rolle. Bei politischen, historischen oder gesellschaftlichen Themen sollte man die Ergebnisse gegenchecken. Nicht nur bei DeepSeek. Bei allen.
Datenschutz – was geht nach China?
Wer DeepSeek über die offizielle Website oder App nutzt, schickt seine Anfragen an Server in China. Die Datenschutzerklärung ist vage, die chinesischen Regulierungsbehörden haben andere Prioritäten als die DSGVO. Kein Panikszenario, aber ein Fakt.
Die Lösung ist dieselbe wie bei allen KI-Modellen, denen man nicht hundertprozentig vertraut: lokal betreiben. Sowohl DeepSeek als auch Qwen lassen sich über Ollama oder LM Studio auf dem eigenen Rechner installieren. Dann verlassen keine Daten das Haus. Für die kleinen Varianten (7–8 Milliarden Parameter) reicht ein normaler Laptop, für die großen braucht man entsprechende Hardware.
Wer die API nutzen will, ohne direkt mit chinesischen Servern zu kommunizieren, kann auf europäische Vermittler wie TextCortex zurückgreifen, die DeepSeek und Qwen in einer DSGVO-konformen Umgebung anbieten. Kostet etwas mehr, löst aber das Problem.
Warum chinesische KI so billig ist
90 bis 97 Prozent günstiger. Das liegt an der effizienteren Architektur, an niedrigeren Trainingskosten und an einer bewussten Preisstrategie: DeepSeek will Marktanteile, nicht Margen. (Stand 02/2026). Die Preisunterschiede sind nicht marginal. Sie sind dramatisch.
Für Einzelnutzer mit einem ChatGPT-Abo ist der Preisunterschied weniger relevant. Für Unternehmen, Entwickler oder Projekte mit hohem Token-Verbrauch kann er den Unterschied zwischen machbar und unbezahlbar bedeuten.
| Modell | Preis pro 1M Token (ca.) | Herkunft |
|---|---|---|
| DeepSeek-V3 | $0,14 | China |
| DeepSeek-R1 | $0,55 | China |
| Qwen 3 | $0,15 – $0,50 | China |
| GPT-4o | $2,50 – $10,00 | USA |
| Claude Opus | $15,00 | USA |
Wann sich chinesische KI lohnt – und wann nicht
DeepSeek und Qwen sind hervorragend für Programmierung, Code-Review, mathematische Probleme, Datenanalyse und Zusammenfassungen langer Dokumente. Kimi ist die erste Wahl, wenn man hunderte Seiten auf einmal verarbeiten will. Für API-intensive Anwendungen sind die Kostenvorteile enorm, und wer lokal betreibt, hat maximalen Datenschutz.
Weniger überzeugend: kreatives Schreiben auf Deutsch, Aufgaben, die kulturelles Feingefühl für den deutschsprachigen Raum erfordern, und alles, was politisch sensibel ist. Da bleiben Claude und ChatGPT die bessere Wahl.
Die kluge Kombination sieht so aus: DeepSeek oder Qwen für die schwere Rechenarbeit, ein westliches Modell für den Feinschliff. Chinesische Modelle als lokale Arbeitspferde, Claude oder ChatGPT für Sprache, Ton und kulturellen Kontext. So nutzen es die meisten, die beide Welten kennen.
Die chinesische KI-Szene entwickelt sich mit einem Tempo, das selbst für Branchenkenner schwer zu verfolgen ist. Was heute gilt, kann in drei Monaten überholt sein. Wer sich dafür interessiert, sollte nicht abwarten, sondern ausprobieren. DeepSeek und Qwen sind kostenlos, lokal installierbar und in zehn Minuten startklar.
Quellen und Daten
- DeepSeek-R1 Release – Offizielle technische Daten, Parameter, Benchmark-Ergebnisse (DeepSeek API Docs)
- AI Index Report 2025, Chapter 2: Technical Performance – Stanford HAI, Vergleich der Trainingskosten und Benchmark-Leistung
- Performance of DeepSeek-R1, ChatGPT and Gemini on German Medical Questions – Universität Leipzig, veröffentlicht über PubMed Central
- Kimi K2.5 Technical Report – Moonshot AI, GitHub (Parameter, Agent Swarm, Benchmarks)
- Moonshot AI debuts Kimi K2.5 – VentureBeat, Agent Swarm und API-Preise
- Kling AI reaches 60M users – eWeek, Nutzerzahlen und Sora-Vergleich
- Seedance 2.0 vs. Kling 3.0 vs. Vidu Q3 – WeShop AI, Vergleich der Video-KI-Modelle 2026
- Tokens of AI Bias – China Media Project, Analyse der politischen Voreingenommenheit in chinesischen Sprachmodellen
- DeepSeek R1: An Initial Assessment – digiethics.org, Dokumentation der Zensurfilter
- DeepSeek R1 Review – TextCortex, API-Preise und DSGVO-konformer Zugang