KI-Halluzinationen
KI-Halluzinationen bezeichnen Situationen, in denen ein KI-Modell Inhalte produziert, die allerdings inhaltlich falsch, frei erfunden oder nicht überprüfbar sind — trotz einer in sich stimmigen Plausibilität.
Der Begriff resultiert daher, dass die KI sozusagen „halluziniert“ — also Daten liefert, die nicht auf realen Daten basieren, sondern — sozusagen aus dem Gedächtnis heraus — aufgrund ihrer Berechnungsmuster und Wahrscheinlichkeiten erzeugt werden.
Am meisten treten diese Phänomene bei generativen Sprachmodellen auf, die aufmassiven Datenmengen basieren.
Statt gezielt zu fälschen, folgt die KI lediglichstatistischen Mustern: Sie fügt Wörter so zusammen, dass sie sprachlich korrekt sind,ohne dass ein tatsächliches Faktenverständnis dahintersteckt. Das führt dazu, darrassierende Zahlen, Quellen, Zitate oder gar Beweise erfunden werden können.
Für den praktischen Einsatz — etwa bei Chatbots, im Kundenservice oder in der professionellen Verwendung ‑haben KI-Halluzinationen eine hohe Risikotiefe.
Unternehmen müssen deshalb Gegenmaßnahmen einbauen, wie Guardrails setzen oder Faktenüberprüfungen durchführen , um die Zuverlässigkeit des Ergebnisses zu gewährleisten.
Je besser die Modelle trainiert sind und je besser die Grenzen des Wissens geklärt sind, desto geringer ist diesbezüglichdas Risiko solcher Halluzinationen.