Wenn die KI lügt: So erkennst du Halluzinationen bei Claude, ChatGPT und Co.

Dass KI-Sprachmodelle wie Gemini, Claude oder ChatGPT es mit ihren Zahlen und Fakten nicht immer so genau nehmen, wissen wir alle. Aber wie gut bist du eigentlich darin, die Fehler zu spotten? Wir zeigen dir die besten Tipps und Tricks, wie du Halluzinationen bei KI-Tools erkennen und teilweise sogar vermeiden kannst.

«Wie, die Artemis II Mission fand 1969 mit Neil Armstrong statt? War die nicht vorletzte Woche noch in den Nachrichten?»

Wohl die meisten von uns waren schon einmal in der Situation, dass wir eine KI dabei erwischt haben, wie sie uns einen Bären aufbinden will. Erfundene Zahlen, nichtexistente Quellen, falsche historische Daten – die Liste ist lang.

Was diese Fehler so gefährlich macht: Sie klingen nicht wie Fehler. Die KI liefert uns ihre dubiosen Fakten und falschen Quellenangaben mit einer Überzeugung, die zumindest aus sprachlicher Sicht keinen Grund für irgendwelche Zweifel veranlasst. Sich darauf zu verlassen, dass die KI uns wissen lassen würde, wenn sie irgendwo unsicher ist, funktioniert also nicht.

Aber wie können wir Halluzinationen dann überhaupt entdecken? Müssen wir von nun an alle Fakten überprüfen, die die KI so ausspuckt? Glücklicherweise nicht, nein. Aber um ein paar Fact Checks wirst du trotzdem nicht herumkommen. Woher du weisst, welche Fakten es zu überprüfen gilt und wie du Halluzinationen allgemein besser erkennen kannst, zeigen wir dir in diesem Artikel.

Warum halluziniert die KI manchmal?  

Um die Halluzinationen von KIs besser zu spotten, müssen wir allerdings erst einmal verstehen, wie und warum sie entstehen. Denn böswillig ist das Ganze auf jeden Fall nicht.

ChatGPT und Claude geben dir nicht absichtlich falsche Informationen an. Als «Lügen» können die Halluzinationen von KI-Chatbots deshalb eigentlich nicht bezeichnet werden. Tatsächlich ist nicht einmal der Begriff «Halluzination» wirklich korrekt. Schliesslich handelt es sich bei ChatGPT und Co. um Maschinen, und nicht um denkende Wesen, die zu einem psychologischen Zustand wie einer Halluzination fähig sind.

Aber «Halluzination» ist zumindest metaphorisch gesehen immer noch der einfachste Begriff, um zu beschreiben, woher diese aus der Luft gegriffenen Fakten und Falschinformationen kommen.

Das Problem liegt nämlich darin, dass Large Language Models, also Sprachmodelle wie Claude, Gemini und ChatGPT, darauf trainiert sind, «plausibel klingende, aber faktisch falsche Statements abzugeben, anstatt zuzugeben, dass sie etwas nicht genau wissen» (Kalai et al. 2025).

Das liegt nicht etwa daran, dass ChatGPT oder Claude ein Ego-Problem hätten, sondern ganz einfach an der Art und Weise, wie Large Language Models trainiert werden. In den Worten von Anthropic: «Grundsätzlich fördert das Training von Sprachmodellen das Erfinden von Informationen: Die Modelle sollen stets eine Vermutung für das nächste Wort abgeben. So betrachtet besteht die grösste Herausforderung darin, Modelle dazu zu bringen, keine falschen Informationen zu erfinden.» (Anthropic 2025)

Zusammengefasst: Gemini, ChatGPT, Claude und Co. sind darauf trainiert, immer eine Antwort zu liefern. Selbst dann, wenn sie eigentlich keine haben. Anstatt anzugeben, dass ihnen irgendwo Informationen fehlen, produzieren sie deshalb die jeweils statistisch plausibelste Antwort. Und die ist unglücklicherweise nicht immer die richtige.

Welche KI-Antworten sind besonders anfällig für Halluzinationen?

Jetzt, wo wir wissen, weshalb eine KI manchmal halluziniert, fällt es auch leichter zu verstehen, weshalb gewisse Fakten und Antworten anfälliger für Halluzinationen sind als andere. Hier deshalb eine Liste der Fakten, die du lieber doppelt überprüfen solltest.

Zahlen, Daten & Statistiken
Bei Zahlen hat eine KI null Spielraum für Interpretationen. Kennt sie das Datum der Artemis II Mission nicht, sucht sie deshalb nach einer möglichst plausiblen Antwort – wie zum Beispiel diese andere Mondmission, die 1969 stattgefunden hat – und liegt prompt daneben. Deshalb unbedingt Jahreszahlen, Prozentangaben und andere zahlenbasierte Fakten überprüfen, bevor du sie weiterverwendest.

Zitate und Quellenangaben
Ähnlich wie bei den Zahlenangaben gibt es auch bei Zitaten und Quellen keinen Raum für Interpretationen. Fragst du dein KI-Tool deshalb nach Quellenangaben zu einem eben besprochenen Thema, kann es gut sein, dass es hier und da etwas erfindet. Besonders gemein: Diese klingen oft sehr glaubwürdig. Deshalb raten wir dir, jede Quellenangabe und jedes Zitat einer KI nochmals kurz mit einer Google-Suche zu überprüfen.

Sehr aktuelle Informationen
Möchtest du super-aktuelle Ereignisse mit ChatGPT und Co. besprechen, kann es aufgrund des Trainings-Cutoff des Modells sein, dass es (noch) nicht weiss, wovon du sprichst. Suchst du also aktuelle Infos zu einem neu gelaunchten Produkt oder Ähnlichem, ist es zumindest im Moment noch sicherer, deine Informationen von Blogartikeln und News-Portalen zu holen.

Nischenthemen und Spezialwissen
Bei Sprachmodellen gilt generell: Je weniger ein Thema im Trainingskorpus vertreten war, desto unzuverlässiger sind die Antworten dieser KI. Suchst du also Informationen zum wirtschaftlichen Erfolg eines spezialisiertes B2B-Tool im DACH-Raum, könnte es gut sein, dass die KI dir Informationen und Statistiken füttert, die es gar nicht gibt.

Sonderfall: «Motivated Reasoning»
Wusstest du, dass die Art und Weise, wie du einem KI-Modell antwortest, ebenfalls zu Falschantworten und Halluzinationen führen kann? Fügst du deiner Frage beispielsweise an: «Ich glaube, die Antwort ist X», kann eine KI gemäss Anthropic dazu neigen, rückwärts zu argumentieren, also plausibel klingende Zwischenschritte zu erfinden, die zu deiner vorgegebenen Antwort führen. Wenn du eine KI also fragst, ob deine Kampagnenstrategie gut ist, wird sie tendenziell zustimmen. Damit dir das nicht passiert, hilft es, möglichst neutral zu prompten und keine eigene Meinung vorwegzunehmen. Noch wirkungsvoller: Gib der KI explizit den Auftrag, kritisch zu urteilen, zum Beispiel mit einem Prompt wie «Welche Schwächen siehst du in dieser Strategie?» statt «Ist diese Strategie gut?»

Kurzanleitung: So erkennst und vermeidest du Halluzinationen

Also nochmals zusammengefasst: Hier sind die drei wichtigsten Dinge, die du im Umgang mit KI-Halluzinationen im Hinterkopf behalten solltest.

1. Lass dich nicht von der selbstsicheren Sprache der KI täuschen
Wie wir am Anfang des Artikels gesehen haben, sind Sprachmodelle darauf trainiert, immer eine Antwort zu liefern. Selbst dann, wenn sie gar keine haben. Aus der Luft gegriffene Fakten werden dir deshalb mit derselben Überzeugung präsentiert wie die, die gut recherchiert und belegbar sind. Heisst: Nur weil die Antwort der KI plausibel klingt, heisst das nicht, dass sie es auch ist. Lass dich deshalb nie von der selbstsicheren Sprache eines KI-Modells täuschen.

2. Überprüfe KI-Antworten, die anfällig für Halluzinationen sind
Nutze die Liste, die wir dir in diesem Artikel erstellt haben und überprüfe die KI-Antworten, die besonders anfällig für Halluzinationen sind. Das gilt ganz besonders dann, wenn du Quellen, Statistiken oder andere Informationen weiterverwenden willst. Denn wenn in deinem Artikel oder deiner Präsentation die Fakten nicht stimmen, fallen die Konsequenzen nicht auf Claude oder ChatGPT zurück, sondern auf dich.

3. Prüfe, wie du mit der KI umgehst
Um die oben besprochene Rückwärtsargumentation bei einer KI zu vermeiden, solltest du überprüfen, wie du deine Prompts formulierst. Sei kritisch und bitte die KI, ebenfalls kritisch zu antworten. So verringerst du die Wahrscheinlichkeit, dass ein Sprachmodell dir Falschinformationen liefert, nur um deinen Annahmen zustimmen zu können.

Quellen:
Anthropic (27.03.2025): Tracing the thoughts of a large language model. anthropic.com.

Kalai, Adam Tauman; Nachum, Ofir; Vempala, Santosh S.; Zhang, Edwin (04.09.2025): Why Language Models Hallucinate. OpenAI.

Lindsey, Jack et al. (2025): On the Biology of a Large Language Model. Transformer Circuits Thread.

Weisser, Daniel (19.09.2025): Wie OpenAI erklärt, warum LLMs bei völliger Ahnungslosigkeit sicher auftreten. heise online / iX Magazin.

Michelle Fischer

Auf Social Media teilen

Sponsored by