
Fake News erkennen war schon schwierig, als es noch um schlecht gemachte Websites und obskure Social-Media-Gruppen ging. Seitdem KI-Systeme täuschend echte Texte, Bilder und Videos in Sekunden generieren, hat sich die Geschwindigkeit verändert, mit der Unsinn die Welt umrundet.
Die Werkzeuge sind besser geworden. Die Methoden, sie zu durchschauen, zum Glück auch.
Inhaltsverzeichnis
Warum Falschinformationen so gut funktionieren
Das menschliche Gehirn ist für schnelles Entscheiden gebaut, nicht für systematisches Prüfen. Was emotional auflädt, was die eigene Überzeugung bestätigt und was von vielen geteilt wird, fühlt sich wahr an. Ob es stimmt, ist dem Bauchgefühl egal.
Desinformation nutzt genau diesen Mechanismus. Reißerische Überschriften, emotionale Bilder, scheinbar konkrete Zahlen ohne Quelle. Wer einen solchen Inhalt empört teilt, verbreitet die Botschaft im selben Moment. Im Kern funktioniert der Trick so: Die Verbreitung findet vor der Überprüfung statt.
Desinformation ist das gezielte Verbreiten falscher oder irreführender Informationen in der Absicht zu täuschen. Sie unterscheidet sich von Misinformation, die ebenfalls falsch ist, aber ohne bewusste Täuschungsabsicht weiterverbreitet wird.
Die wirksamste Methode ist Dekontextualisierung: ein echtes Foto, ein echter Satz, ein echtes Video, aus dem Zusammenhang gerissen. Alles daran stimmt, nur die Bedeutung ist eine andere. Das ist schwerer zu entlarven als eine schlichte Lüge.
Lügen ist keine Erfindung des Internets
»Es wird niemals so viel gelogen wie vor der Wahl, während des Krieges und nach der Jagd.« Das Zitat wird gern Bismarck zugeschrieben, lässt sich aber schon 1879 beim Abgeordneten Louis Berger nachweisen. Egal, wer es gesagt hat, der Satz ist über 140 Jahre alt. Und er stimmt immer noch.
Wer glaubt, Fake News seien ein Problem sozialer Medien, greift zu kurz. Schon im alten Rom war gezielte Desinformation ein Machtinstrument. Octavian führte einen regelrechten Propagandakrieg gegen Marcus Antonius, erfand Trinkgelage, unterstellte ihm die Unterwerfung unter Kleopatra und ließ Münzen prägen, die seine eigene Version der Geschichte verbreiteten. Es funktionierte. Antonius verlor nicht nur den Krieg, sondern auch die Deutungshoheit über sein eigenes Leben. Und Karthago? Vieles, was wir über die Karthager zu wissen glauben, stammt aus römischer Propaganda. Die Sieger schreiben die Geschichte. Das war vor 2.000 Jahren so und ist heute nicht anders.
1928 veröffentlichte der britische Pazifist Arthur Ponsonby sein Buch Falsehood in Wartime, in dem er die Lügenmechanismen des Ersten Weltkriegs dokumentierte. Die belgische Historikerin Anne Morelli hat daraus später zehn Prinzipien der Kriegspropaganda destilliert. Sie lesen sich wie eine Gebrauchsanweisung, die bis heute von allen Seiten befolgt wird.
| Nr. | Prinzip |
|---|---|
| 1 | Wir wollen keinen Krieg |
| 2 | Das gegnerische Lager trägt die alleinige Verantwortung |
| 3 | Der Führer des gegnerischen Lagers ist ein Teufel |
| 4 | Wir kämpfen für eine gute Sache, nicht für eigennützige Ziele |
| 5 | Der Gegner kämpft mit unerlaubten Waffen |
| 6 | Der Gegner begeht mit Absicht Grausamkeiten – unsere Fehler passieren nur versehentlich |
| 7 | Unsere Verluste sind gering, die des Gegners enorm |
| 8 | Die Künstler und Intellektuellen unterstützen unsere Sache |
| 9 | Unsere Mission ist heilig |
| 10 | Wer unsere Berichterstattung in Zweifel zieht, ist ein Verräter |
Das Erschreckende an dieser Liste ist nicht, dass sie aus dem Ersten Weltkrieg stammt. Das Erschreckende ist, dass man sie auf jeden Konflikt der letzten hundert Jahre anwenden kann und sie jedes Mal passt. Kosovo, Irak, Libyen, Syrien, Ukraine. Die Muster wechseln nicht, nur die Namen.
Punkt 10 ist dabei womöglich der wichtigste für den Alltag: Wer die offizielle Darstellung hinterfragt, wird nicht widerlegt, sondern zum Verräter erklärt. Dieses Muster findet man nicht nur in Kriegszeiten. Es steckt in jeder Debatte, in der Zweifel als Illoyalität behandelt werden.
Wie prüft man eine verdächtige Meldung?
Der amerikanische Medienpädagoge Michael Caulfield hat eine Methode entwickelt, die sich in der Praxis bewährt hat: SIFT. Vier Schritte, die auf fast jeden verdächtigen Inhalt anwendbar sind und keine besondere Vorbildung erfordern.
- Stop. Bevor man teilt, kommentiert oder sich empört, erst innehalten. Der erste Impuls ist oft der schlechteste Ratgeber.
- Investigate. Wer steckt hinter der Quelle? Ein kurzer Blick auf die Website, den Autor oder die Plattform zeigt oft schon, mit welchem Ziel der Inhalt produziert wurde.
- Find. Berichten andere, seriöse Quellen ebenfalls darüber? Wenn eine Information nur von einer einzigen Stelle kommt, ist das kein Beweis für Falschheit, aber ein guter Grund zum Nachfragen.
- Trace. Den Ursprung zurückverfolgen. Viele viral gegangene Meldungen entstammen einem Originalbericht, der beim Weiterteilen so stark verändert wurde, dass kaum noch etwas vom Original übrig ist. Bei Fotos hilft die Google-Bildersuche: Bild hochladen, Suchmaschine schauen lassen, wo es schon überall aufgetaucht ist.
Die Methode klingt aufwendig. Meistens reicht Schritt eins: innehalten und nicht sofort teilen.
Das Problem mit den Faktencheckern
In Deutschland gibt es mehrere Organisationen, die Behauptungen professionell prüfen: CORRECTIV, dpa Think Twice, Mimikama, der BR Faktenfuchs. Sie präsentieren sich als neutrale Instanzen und werden von vielen Medien als Referenz genutzt.
Das klingt erst mal nützlich. Aber wer die SIFT-Methode konsequent anwendet, muss sie auch auf die Faktencheck-Stellen selbst anwenden. Und da wird es fragwürdig.
CORRECTIV erhält Steuergelder und Stiftungsförderungen, arbeitete jahrelang als bezahlter Faktencheck-Partner für Meta/Facebook und hat eine Ko-Geschäftsführerin ziehen lassen, die direkt in den Wahlkampf der Grünen wechselte. Das muss nicht bedeuten, dass jeder einzelne Faktencheck falsch ist. Aber es bedeutet, dass die behauptete Unabhängigkeit nicht so unabhängig ist, wie sie dargestellt wird. Meta selbst hat das Faktencheck-Programm Anfang 2025 in den USA eingestellt, weil es laut Zuckerberg zu fehlerhaft und politisch voreingenommen war. Er tat das nach dem Machtwechsel in den USA.
Der BR Faktenfuchs und dpa Think Twice haben ähnliche Strukturprobleme: Sie gehören zu Medienhäusern, die selbst Positionen vertreten, und prüfen bevorzugt Behauptungen aus einem bestimmten politischen Spektrum. Wer nur in eine Richtung prüft, betreibt womöglich weniger Aufklärung als Meinungspflege mit Prüfsiegel.
Das heißt nicht, dass man Faktenchecks grundsätzlich ignorieren sollte. Manche Einzelrecherchen sind solide. Aber man sollte sie behandeln wie jede andere Quelle auch: prüfen, wer sie finanziert, welche Themen sie sich aussuchen, welche sie auslassen. Blindes Vertrauen in Faktencheck-Siegel ist im Kern dasselbe Problem wie blindes Vertrauen in eine WhatsApp-Weiterleitung.
Was macht KI mit der Wahrheit?
KI-Systeme wie ChatGPT, Gemini oder Claude haben ein strukturelles Problem: Sie haben kein eigenes Verfahren, Fakten zu prüfen. Sie berechnen, welche Textfortsetzung statistisch am wahrscheinlichsten ist. Was rauskommt klingt plausibel, klingt korrekt, manchmal klingt es sogar wie eine wissenschaftliche Quelle. Es ist trotzdem manchmal falsch.
Fachleute nennen das KI-Halluzinationen: Aussagen, die das Modell mit voller Überzeugung produziert, obwohl sie nicht der Realität entsprechen. Fragwürdig sind vor allem erfundene Quellen. ChatGPT nennt Studien, die es nicht gibt, komplett mit Jahreszahl, Autorenname und Zeitschriftenname. Alles klingt stimmig. Das Paper existiert nicht.
Eine KI-Halluzination entsteht, wenn ein Sprachmodell eine sachlich falsche Aussage produziert, die sprachlich und strukturell korrekt klingt. Das Modell prüft keine Fakten, sondern berechnet statistische Wahrscheinlichkeiten über Sprachmuster.
Laut OpenAIs eigener System Card für o3 halluzinierte das Modell bei einem Drittel der Fragen zu öffentlichen Personen (04/2025). Das war doppelt so viel wie beim Vorgängermodell o1. Bei o4-mini lag die Rate sogar bei 48%. Claude schneidet in unabhängigen Erhebungen besser ab, aber auch hier gilt: Kein Modell ist immun gegen erfundene Fakten.
Die Konsequenz für die Praxis: Jede Zahl, jede Quellenangabe, jede konkrete Behauptung aus einer KI sollte man im Original nachschlagen. Nicht weil KI grundsätzlich unzuverlässig ist, sondern weil sie nicht merkt, wenn sie irrt. Wer konsequent nachfragt und Behauptungen gegenprüft, nutzt KI als Werkzeug statt als Orakel. Wer bessere Fragen stellt, bekommt auch bessere Antworten.
Wie erkennt man Deepfakes?
KI-generierte Videos und Bilder sind inzwischen so überzeugend, dass sie auch geübten Augen entgehen können. Wer sich ausführlich mit dem Thema beschäftigen will, findet in meinem Artikel zu KI-Bildern erkennen eine komplette Prüfroutine. Hier die wichtigsten Warnsignale im Überblick.
Blinzeln. Menschen blinzeln automatisch alle paar Sekunden. Figuren in Deepfake-Videos tun das oft nicht oder seltener. Bei älteren Deepfakes war das ein zuverlässiges Signal, bei neueren Modellen weniger.
Haaransätze und Übergänge. KI hat Mühe mit feinen Details an den Rändern. Der Übergang zwischen Gesicht und Haaren oder zwischen Gesicht und Hals sieht bei Deepfakes oft unscharf oder seltsam geglättet aus.
Licht und Schatten. Künstlich generierte Gesichter sind häufig gleichmäßig ausgeleuchtet, auch wenn die Umgebung andere Lichtquellen vermuten lässt. Zu perfekte Ausleuchtung ist womöglich ein Warnsignal.
Stimme. KI-Stimmen klingen häufig zu glatt: keine echten Atempausen, keine Emotionstiefe, gleichförmige Intonation. Wenn jemand eine kontroverse Aussage macht und dabei klingt wie ein Sprachassistent, lohnt sich ein zweiter Blick.
Der verlässlichste Check bleibt allerdings der alte: Berichten mehrere voneinander unabhängige Medien über dasselbe Ereignis? Wenn nicht, ist das Video womöglich eher Inszenierung als Bericht. Auch Deep Research kann helfen, Quellen systematisch zu prüfen.
Fake News erkennen ist keine Fähigkeit, die man einmal erwirbt und dann hat. Es ist eine Haltung. Die Bereitschaft, einen Moment innezuhalten, auch dann, wenn der Inhalt genau das bestätigt, was man sowieso schon glaubt. Gerade dann. Also, nicht immer gleich alles glauben. Misstrauen ist gesund, manchmal sogar überlebenswichtig. (lk)