Halluzination (KI)
KI-Halluzinationen bezeichnen Situationen, in denen ein KI-Modell falsche oder erfundene Informationen als Fakten präsentiert. Ursachen sind Trainingsdaten-Lücken oder statistische Wahrscheinlichkeiten. Gegenmassnahmen: RAG, Faktenprüfung, Grounding auf verifizierte Datenquellen.