Halucinace
Halucinace v kontextu AI označuje situaci, kdy model umělé inteligence generuje nesprávné nebo nepravdivé informace. Tyto chyby mohou vznikat kvůli omezením tréninkových dat nebo špatnému porozumění dotazu.
Halucinace jsou časté u generativních modelů, jako jsou jazykové modely, a mohou ovlivnit spolehlivost výstupu. Jejich minimalizace je klíčová pro zlepšení přesnosti a důvěryhodnosti AI systémů.