Googles Gemma 4 schlägt Modelle, die 20-mal größer sind

Google hat Gemma 4 veröffentlicht, eine neue Familie offener Sprachmodelle unter Apache-2.0-Lizenz. Die größte Variante mit 31 Milliarden Parametern landet auf Platz 3 der Arena-AI-Textrangliste und schlägt dort Modelle, die zwanzigmal so groß sind. Vier Varianten gibt es insgesamt: zwei kompakte Modelle mit effektiv 2 und 4 Milliarden Parametern für Smartphones und Edge-Geräte, dazu ein 26-Milliarden-Mixture-of-Experts-Modell und das dichte 31-Milliarden-Modell für leistungsstärkere Hardware.

Die Zahlen klingen nach Fortschritt, und diesmal stimmen sie auch im Alltag. Gemma 4 soll bis zu viermal schneller arbeiten als die Vorgängergeneration und dabei 60 Prozent weniger Akku verbrauchen. Alle Varianten verarbeiten Bilder und Video. Die kleineren Modelle verstehen zusätzlich Spracheingaben. Google hat die Modelle in über 140 Sprachen trainiert, darunter auch Deutsch. Wer bisher mit lokalen KI-Modellen experimentiert hat, bekommt damit eine deutlich leistungsfähigere Option.

Der strategische Hintergrund ist klar. Gemma 4 bildet die Grundlage für die nächste Generation von Gemini Nano, Googles On-Device-Modell für Android. Code, der heute für Gemma 4 geschrieben wird, soll automatisch auf kommenden Gemini-Nano-4-Geräten laufen. Google baut damit ein Ökosystem, in dem Entwickler einmal schreiben und überall ausliefern. NVIDIA hat bereits optimierte Versionen für RTX-Grafikkarten angekündigt.

Für Nutzer bedeutet das: Wer eine halbwegs aktuelle Grafikkarte besitzt, kann bald ein Sprachmodell lokal betreiben, das mit den Cloud-Diensten von vor einem Jahr mithalten kann. Ohne Abo, ohne Datenübertragung, ohne Internetverbindung. Die Apache-2.0-Lizenz erlaubt auch kommerzielle Nutzung ohne Einschränkungen. Das ist Googles Antwort auf Metas Llama und Alibabas Qwen: den Open-Source-Markt mit einem Modell dominieren, das klein genug für die Hosentasche ist und trotzdem liefert.

Quellen

Diese Meldung wurde mit Unterstützung von Claude (Anthropic) recherchiert und verfasst. Inhaltliche Fehler sind möglich. Die verlinkten Quellen ermöglichen eine eigene Prüfung.

Bist du bereit für mehr?