Glossar · Stand 29. April 2026
Halluzination
Wenn ein KI-Modell überzeugt wirkende, aber faktisch falsche Inhalte erzeugt.
Halluzinationen sind das größte Risiko beim produktiven KI-Einsatz: Das Modell behauptet Dinge, die nicht stimmen — oft mit hoher Selbstsicherheit. Mitigations: RAG (eigene Quellen einbinden), Eval-Pipelines, Mensch-im-Loop, klare Output-Schemata. Wer KI im Job nutzt, muss Halluzinationen erkennen können.
Verwandte Begriffe
- Eval (Evaluation)Systematisches Testen von KI-Outputs gegen Erwartungswerte oder Qualitätskriterien.
- RAG (Retrieval-Augmented Generation)Architektur, bei der ein LLM zuerst relevante Dokumente sucht und dann mit deren Inhalt antwortet.
- Mensch im Loop (Human-in-the-Loop)Workflow, bei dem ein Mensch KI-Outputs vor finalen Aktionen prüft oder freigibt.