ai

AI Hallucination

AI halucinace

Stručně

Když AI generuje plausible vypadající, ale nesprávná fakta. Klíčové riziko LLM v marketingu.

Detail a kontext

AI Hallucination je situace, kdy LLM (ChatGPT, Claude, Gemini) vygeneruje fakticky nesprávnou informaci, kterou ale prezentuje confidently. Příčiny: training data gaps, statistical pattern matching místo deep understanding, leading prompts. Příklady: vymyšlené citace knih, neexistující studie, smyšlené statistiky, špatná data o reálných osobách. Frequency 2026: GPT-4 ~10–20 % faktických chyb, Claude 3.5 ~5–15 %, Perplexity (s citations) ~5 %. Mitigation: 1) verifikujte všechna fakta před publikací, 2) RAG (Retrieval Augmented Generation), 3) prompt engineering ("Cite sources for každý claim"), 4) human-in-the-loop editing, 5) preferujte models s citations (Perplexity, ChatGPT Search) místo no-search ChatGPT.

Potřebujete pomoci s tímto pojmem v praxi?

Naučit se teorii je první krok. Implementovat ji efektivně už chce zkušenost. Pojďme se o tom pobavit.

Napište mi