Angriffsfähigkeit von KI-Modellen verdoppelt sich alle sechs Monate

Das KI-Safety-Unternehmen Lyptus Research hat eine Studie veröffentlicht, die belegt: Die offensive Cyberfähigkeit großer Sprachmodelle wächst schneller als bisher dokumentiert. Seit 2019 verdoppelt sie sich alle 9,8 Monate. Seit 2024 hat sich das Tempo auf alle 5,7 Monate erhöht.

Für die Studie nutzten die Forscher eine standardisierte Testmethode für KI-Fähigkeitsgrenzen und ließen zehn professionelle Sicherheitsexperten als Vergleichsmaßstab antreten. 291 Aufgaben flossen in die Bewertung ein. Das Ergebnis: Claude Opus 4.6 und GPT-5.3 Codex lösen bei einem Budget von zwei Millionen Token Aufgaben, für die menschliche Experten rund drei Stunden benötigen, mit einer Erfolgsquote von 50 Prozent. Wächst das Budget auf zehn Millionen Token, springt GPT-5.3 Codex von einem Zeithorizont von 3,1 auf 10,5 Stunden. Als Vergleichspunkt: GPT-2 schaffte 2019 lediglich 30 Sekunden.

Was das für Menschen bedeutet, die KI täglich nutzen: Dieselben Modelle, die für Texte, Recherche und Programmieraufgaben eingesetzt werden, lassen sich zunehmend effektiv für Angriffe auf digitale Infrastruktur einsetzen. Die Einstiegshürde für Angreifer sinkt, je leistungsfähiger die Modelle werden. Spezialwissen, das solche Techniken bisher gebremst hat, ist immer weniger Voraussetzung.

Lyptus Research weist selbst darauf hin, dass ihre Zahlen die tatsächliche Fähigkeit eher unterschätzen: Neuere Modelle legen bei größerem Token-Budget überproportional zu, und die jüngsten Fortschritte seien wahrscheinlich schneller verlaufen als die Messwerte zeigen. Open-Source-Modelle liegen aktuell etwa 5,7 Monate hinter den geschlossenen Systemen.

Quellen

Diese Meldung wurde mit Unterstützung von Claude (Anthropic) recherchiert und verfasst. Inhaltliche Fehler sind möglich. Die verlinkten Quellen ermöglichen eine eigene Prüfung.

Bist du bereit für mehr?