KI-Halluzinationen
Definition:
KI-Halluzinationen (englisch: AI Hallucinations) treten auf, wenn ein KI-Modell – zum Beispiel ein Chatbot oder ein Large Language Model (LLM) – Antworten generiert, die zwar plausibel klingen, aber faktisch falsch, ungenau oder frei erfunden sind. Das bedeutet, die KI „halluziniert“ Inhalte, die nicht mit der Realität oder den Trainingsdaten übereinstimmen.
Wie entstehen KI-Halluzinationen?
Wahrscheinlichkeitsbasierte Vorhersagen: LLMs wählen Wörter nach Wahrscheinlichkeit, nicht nach „Wahrheit“.
Unvollständige Trainingsdaten: Wenn bestimmte Informationen fehlen, füllt die KI Lücken kreativ aus.
Überanpassung: Modelle neigen dazu, auch dann Antworten zu generieren, wenn sie eigentlich keine Datenbasis haben.
Fehlerhafte Prompts: Ungenaue oder missverständliche Eingaben können falsche Ergebnisse verstärken.
Einsatzgebiete, in denen Halluzinationen kritisch sind:
Healthcare: Falsche medizinische Ratschläge können gefährlich sein.
Recht: KI könnte Gesetze oder Urteile erfinden.
Finanzen: Risiko durch falsche Zahlen oder „phantasierte“ Analysen.
Wissenschaft & Bildung: Generierung von nicht existierenden Quellen oder Studien.
Vorteile und Nachteile im Überblick:
Vorteile: Halluzinationen zeigen die kreative Fähigkeit von KI (z. B. im Storytelling oder in der Kunst).
Nachteile: Vertrauensverlust, Fehlinformationen, rechtliche Risiken.
Unterschied zwischen KI-Halluzinationen und klassischen Fehlern:
Klassische Fehler: Entstehen durch falsche Programmierung oder Datenfehler.
KI-Halluzinationen: Entstehen durch die generative Natur der Modelle, die Antworten „erfinden“, um eine plausible Konversation fortzuführen.
Beispiele für KI-Halluzinationen:
Ein Chatbot nennt eine wissenschaftliche Quelle, die nicht existiert.
Eine KI erfindet ein Zitat einer bekannten Persönlichkeit.
Ein Finanzassistent liefert falsche Berechnungen, die jedoch überzeugend formuliert sind.
FAQ zu KI-Halluzinationen:
Was sind KI-Halluzinationen?
Antworten von KI-Systemen, die plausibel wirken, aber faktisch falsch oder erfunden sind.
Warum halluzinieren KIs?
Weil sie Sprache nach Mustern und Wahrscheinlichkeiten erzeugen, nicht nach einem „Verständnis“ der Realität.
Wie kann man KI-Halluzinationen vermeiden?
Durch Guardrails, Fact-Checking, präzisere Prompts und Kombination mit verlässlichen Datenquellen.
Verwandte Begriffe:
Large Language Model (LLM)
Guardrails
Prompt Engineering
Generative KI
Responsible AI