AI Hallucination
AI halucinace
Stručně
Když AI generuje plausible vypadající, ale nesprávná fakta. Klíčové riziko LLM v marketingu.
Detail a kontext
AI Hallucination je situace, kdy LLM (ChatGPT, Claude, Gemini) vygeneruje fakticky nesprávnou informaci, kterou ale prezentuje confidently. Příčiny: training data gaps, statistical pattern matching místo deep understanding, leading prompts. Příklady: vymyšlené citace knih, neexistující studie, smyšlené statistiky, špatná data o reálných osobách. Frequency 2026: GPT-4 ~10–20 % faktických chyb, Claude 3.5 ~5–15 %, Perplexity (s citations) ~5 %. Mitigation: 1) verifikujte všechna fakta před publikací, 2) RAG (Retrieval Augmented Generation), 3) prompt engineering ("Cite sources for každý claim"), 4) human-in-the-loop editing, 5) preferujte models s citations (Perplexity, ChatGPT Search) místo no-search ChatGPT.
Související pojmy
Potřebujete pomoci s tímto pojmem v praxi?
Naučit se teorii je první krok. Implementovat ji efektivně už chce zkušenost. Pojďme se o tom pobavit.
Napište mi