KI-Bilder erkennen – was 2026 wirklich funktioniert

KI-Bilder erkennen – was 2026 wirklich funktioniert

Noch vor zwei Jahren konnte man KI-Bilder an den Händen erkennen. Sechs Finger, verschmolzene Gelenke, Würstchen statt Knöchel. Das war fast ein Gesellschaftsspiel. Vorbei. Die Bildgeneratoren haben aufgeholt, und was 2024 noch als sicheres Erkennungsmerkmal galt, führt 2026 in die Irre.

Die unbequeme Wahrheit: Man kann ein KI-Bild heute oft nicht mehr am Bild selbst beweisen. Selbst professionelle Faktenchecker formulieren nur noch »wahrscheinlich« oder »fast sicher«. Aber es gibt einen Weg, der funktioniert, und der hat weniger mit Pixeln zu tun als mit gesundem Menschenverstand.

Dieser Text zeigt eine Prüfroutine, die in 60 Sekunden machbar ist. Sicher wirst du damit nicht. Aber deutlich schwerer zu täuschen.

Wieso die alten Regeln nicht mehr greifen

Hände mit sechs Fingern, Brillen die ins Gesicht wachsen, Schilder mit Buchstabensalat. Das waren die Klassiker. Manche davon tauchen immer noch auf, besonders in Szenen mit vielen Personen. Aber als Haupttest? Unbrauchbar geworden.

Das Bundesamt für Sicherheit in der Informationstechnik bringt es auf den Punkt: Die Vielzahl an Generatoren und deren laufende Verbesserung machen eine zuverlässige Erkennung schwierig. Was gestern ein sicheres Signal war, ist heute bestenfalls ein Indiz.

Also muss man anders denken. Statt nach dem einen Fehler zu suchen, der das Bild entlarvt, funktioniert ein Dreistufensystem: Herkunft prüfen, Kontext prüfen, dann erst das Bild. In genau dieser Reihenfolge.

KI-Bilder erkennen – Flussdiagramm der Drei-Ebenen-Prüfroutine von Herkunft über Kontext bis Pixel

Ebene 1: Woher kommt das Bild?

Die stärkste Spur ist keine visuelle. Es ist die Frage nach der Herkunft. Dafür gibt es 2026 zwei Systeme, die man kennen sollte.

Content Credentials (C2PA) funktionieren wie ein digitaler Herkunftszettel. Kryptografisch ans Bild gebunden, halten sie fest, wie es entstanden ist. Ob mit einer Kamera, in Photoshop oder mit einem KI-Generator. OpenAI bettet diese Daten in Bilder aus ChatGPT und DALL·E ein. Adobe bietet mit Content Authenticity Inspect ein kostenloses Web-Tool und eine Browser-Erweiterung, mit der sich solche Daten sichtbar machen lassen. Auch die Content Credentials-Seite der C2PA-Koalition bietet eine Prüfmöglichkeit. (Stand 02/2026)

SynthID ist Googles Variante: ein unsichtbares Wasserzeichen, eingebettet in Bilder aus dem Google-Ökosystem, also Gemini und Imagen. In der Gemini-App gibt es eine Verifizierungsfunktion dafür.

Beide Systeme haben denselben Haken: Sie funktionieren nur, wenn die Daten noch da sind. Beim Teilen über soziale Netzwerke, bei Screenshots, bei Re-Uploads gehen Herkunftsdaten regelmäßig verloren. Ein Bild ohne solche Daten ist deshalb nicht automatisch echt. Es kann auch heißen, dass die Spur abgerissen ist. Und genau das passiert ständig.

Plattform-Labels: schnell, aber nicht lückenlos

Für die meisten Leute sind Plattform-Labels der schnellste Hinweis, weil sie ohne Spezialwissen sichtbar sind. TikTok kennzeichnet Inhalte automatisch als »AI-generated«, wenn beim Upload Content Credentials erkannt werden. YouTube verlangt von Creatorn eine Offenlegung bei synthetisch generierten oder wesentlich veränderten Inhalten. Meta zeigt einen »AI info«-Hinweis an.

Ein Label ist ein starkes Signal. Kein Label ist allerdings kein Gegenbeweis. Womöglich hat das System die Kennzeichnung schlicht nicht erkannt. Oder die Metadaten sind beim Teilen verschwunden. Beides kommt vor.

Ebene 2: Stimmt der Kontext?

Wenn Herkunftsdaten und Labels fehlen, und das ist die Regel, nicht die Ausnahme, wird der Kontextcheck zum stärksten Werkzeug. Faktenchecker nutzen ihn als Kernmethode. Nicht aus Überzeugung, sondern weil visuelle Detektoren schlicht nicht zuverlässig genug sind.

Die Rückwärts-Bildersuche ist das Standardinstrument. Bild bei Google Lens oder TinEye hochladen und schauen: Taucht es älter auf? Wird es in einem anderen Zusammenhang verwendet? Gibt es bereits Einordnungen oder Faktenchecks? In vielen Fällen stellt sich heraus, dass ein vermeintliches Beweisfoto gar nicht KI-generiert ist, sondern einfach aus dem Kontext gerissen wurde.

Die wichtigste Frage bei Bildern, die ein echtes Ereignis zeigen sollen, einen Unfall, eine Demo, einen Skandal: Warum gibt es nur dieses eine Bild und keine zweite unabhängige Spur? In einer Welt, in der jeder ein Smartphone hat, ist ein einzelnes Beweisfoto ohne Bestätigung bereits verdächtig. Realistisch wirkt nicht gleich real.

Im Kern ist das nichts anderes als kritisches Denken, angewandt auf Bilder statt auf Argumente.

Ebene 3: Was verrät das Bild selbst?

Wenn Herkunft und Kontext keine Antwort liefern, bleibt die visuelle Prüfung. Der Trick: Nicht nach dem einen Fehler suchen, sondern nach einem Cluster von Unstimmigkeiten. Mehrere kleine Dinge, die zusammen nicht ganz aufgehen.

Text, Zahlen, Logos, Beschilderung. Unsinnige Beschriftungen sind als Signal schwächer geworden, aber sie kommen weiterhin vor. Besonders in historisch wirkenden Szenen oder bei Bildern mit viel Text im Hintergrund produzieren Generatoren immer noch Fehler. Ein Straßenschild, das keine Sprache der Welt zeigt, ist ein Indiz.

Reflexionen und Schatten. Spiegelungen in Fenstern, Brillengläsern, Wasser oder auf Chromflächen sind für Generatoren schwierig. Sie erzwingen konsistente Geometrie über das gesamte Bild, und genau da patzen die Modelle. Wenn die Reflexion in einem Fenster nicht zur Szene passt oder Schatten in verschiedene Richtungen fallen, stimmt etwas nicht.

Die zu glatte Welt. Stoff, Wände, Haut, Wasser. In echten Fotos tragen solche Flächen immer mikroskopische Unordnung. Wenn alles perfekt glatt wirkt, wie von einem Airbrush-Werkzeug behandelt, ist das ein Warnsignal. KI erzeugt oft Detail, das wie Detail aussieht, beim Reinzoomen aber zu Wachs wird. Keine echte Struktur, nur der Eindruck davon.

Anatomie. Finger, Ohren, Zähne können weiterhin verräterisch sein. Als alleiniger Beweis taugen sie nicht mehr. Ein Indiz unter mehreren, nicht der Haupttest.

Die Story-Logik. Der stärkste visuelle Alltagstest ist eine simple Frage: Was müsste in der realen Welt passiert sein, damit dieses Foto möglich ist? Stimmt die Beleuchtung mit der Tageszeit überein? Passt die Kleidung zur Jahreszeit? Ergibt die Szene physikalisch Sinn? Kein Fachwissen nötig. Nur Aufmerksamkeit.

KI als Prüfer: den Bock zum Gärtner machen?

Naheliegender Gedanke: Wenn KI Bilder erzeugen kann, kann sie sie vielleicht auch entlarven. Tatsächlich funktioniert das. Mit Einschränkungen. Man kann ein verdächtiges Bild direkt in ChatGPT, Claude oder Gemini hochladen und fragen: »Siehst du Hinweise darauf, dass dieses Bild KI-generiert ist?«

Die großen Sprachmodelle sind dabei oft gründlicher als das menschliche Auge. Sie achten systematisch auf mehrere Stellen gleichzeitig, identifizieren unsinnigen Text auf Schildern, bemerken inkonsistente Schatten, benennen anatomische Fehler und hinterfragen die physikalische Logik einer Szene. In der Praxis ein brauchbarer erster Filter. Besonders für Bilder, bei denen man ein ungutes Gefühl hat, den Finger aber nicht draufbekommt.

Die Grenzen sind allerdings dieselben wie bei der manuellen Prüfung: Die KI sieht nur Pixel. Keinen Zugriff auf Metadaten, Content Credentials oder SynthID-Wasserzeichen. Sie sammelt Indizien, beweist aber nichts. Und sie kann sich irren, ein perfektes KI-Bild als echt einordnen oder ein echtes Foto mit ungewöhnlicher Beleuchtung für künstlich halten. KI-Halluzinationen gibt es eben nicht nur bei Text. Eine weitere Stimme im Chor, kein Urteil.

Der 60-Sekunden-Check

Alles aus den vorherigen Abschnitten, eingedampft auf eine Routine. Kein Algorithmus, kein Spezialtool. Nur eine Reihenfolge.

Schritt null: Dateiname anschauen. Klingt banal, kostet eine Sekunde. Viele Generatoren erzeugen charakteristische Dateinamen. DALL·E etwa beginnt mit »DALL·E« plus Datum, Midjourney hängt lange Zeichenketten an. Kein Beweis, aber ein Indiz zum Nulltarif.

Erstens: Label vorhanden? Ein Plattform-Hinweis wie »AI-generated« oder »AI info« ist das schnellste Geschenk. Wenn ja, fertig.

Zweitens: Datei verfügbar? Wenn die Originaldatei vorliegt, nicht nur ein Screenshot, dann Content Credentials oder SynthID prüfen. Die Tools stehen oben.

Drittens: Zoom auf drei Stellen. Text und Schilder, Reflexionen und Brillengläser, Hände und Schmuck. Mehrere Unstimmigkeiten in diesen Bereichen machen ein Bild hochgradig verdächtig.

Wer mehr Zeit hat: Rückwärts-Bildersuche, Faktencheck-Portale, Abgleich von Details wie Wetter, Sprache und Kleidung mit der angeblichen Situation. Fünf Minuten, die sich lohnen.

Warum KI-Detektoren dich in die Irre führen können

Dutzende Online-Tools, bei denen man ein Bild hochlädt und eine Wahrscheinlichkeit bekommt: »87 Prozent KI-generiert«. Klingt überzeugend. Ist es aber nicht.

Solche Detektoren liefern Wahrscheinlichkeiten, keine Beweise. Sie sind modellabhängig, datenabhängig und werden durch Re-Encoding, Screenshots oder kleine Bearbeitungen schlechter. Professionelle Faktenchecker, darunter Full Fact in Großbritannien, setzen diese Tools nicht routinemäßig ein, weil sie sich in der Praxis als zu fehleranfällig erwiesen haben. Das US-amerikanische National Institute of Standards and Technology (NIST) arbeitet im Rahmen seines GenAI-Programms noch daran, Detektion überhaupt robust messbar zu machen. Ein Pilotversuch zeigte, dass drei Generatoren sämtliche Detektoren täuschen konnten. Nicht gerade beruhigend.

Das heißt nicht, dass Training nutzlos wäre. Studien zeigen, dass schon wenige Minuten Übung mit typischen KI-Fehlern die Erkennungsrate merklich verbessern. Aber die Trefferquoten bleiben weit weg von »sicher«. Die richtige Haltung ist nicht »Ich erkenne KI«, sondern »Ich werde schneller darin, Unplausibles zu bemerken«.

Was sich rechtlich ändert

Technik allein löst das Problem nicht. Also setzt die Politik auf Regulierung.

Die EU-KI-Verordnung (AI Act) gilt ab dem 2. August 2026. Sie schreibt unter anderem vor, dass KI-generierte Bilder in einem maschinenlesbaren Format als solche zu kennzeichnen sind, also über Metadaten und unsichtbare Wasserzeichen, nicht über sichtbare Stempel oder Logos im Bild. Die Europäische Kommission arbeitet an einem Code of Practice, der die Transparenzpflichten konkretisieren soll. (Stand 02/2026)

Für den Alltag ist allerdings weniger entscheidend, was im Gesetz steht, sondern ob Plattformen Labels zuverlässig anzeigen und ob Herkunftsdaten beim Teilen erhalten bleiben. Tests zeigen da größere Lücken: Marker sind oft unsichtbar oder werden beim Re-Upload entfernt, die Beweiskette reißt ab. Das Gesetz schafft einen Rahmen. Die technische Umsetzung hinkt hinterher. Wie so oft bei EU-Regulierung.

Beweisbar oder nur verdächtig?

Die ehrlichste Antwort auf die Frage »Kann ich sicher erkennen, ob ein Bild von einer KI stammt?« lautet: Kommt drauf an, was man unter »sicher« versteht.

Beweisbar KI-generiert wird es im Alltag nur, wenn ein starkes Herkunftssignal vorhanden ist. Content Credentials, die auf einen Generator verweisen, oder ein SynthID-Wasserzeichen, das positiv erkannt wird.

In allen anderen Fällen bleibt es bei »wahrscheinlich«. Das ist normal. Sogar Profis formulieren dann vorsichtig, weil der endgültige Beweis ohne Herkunftskette fehlt.

Du musst kein Forensiker sein. Die Kombination aus Herkunftsprüfung, Kontextcheck und aufmerksamer Bildbetrachtung macht dich nicht unfehlbar, aber spürbar schwerer zu täuschen. Skepsis ist kein Misstrauen. Sie ist ein Werkzeug, das man trainieren kann. In einer Zeit, in der jede große KI Bilder generiert, eins der nützlicheren.

Sven Lennartz Avatar

Der Autor

Sven Edmund Lennartz ist seit 25 Jahren Fachautor und Gründer mehrerer Online-Unternehmen, wie Dr. Web (Webdesign), Conterest (Bloggen), Sternenvogelreisen (Sprache) und Smashing Magazine (Webdesign & Entwicklung). Autorenhomepage