Skip to main content
BVDNETBVDNET
DienstenWerkBibliotheekOver MijPrijzenBlogContact
Contact
  1. Home
  2. AI Woordenboek
  3. Kernconcepten
  4. Wat Is AI-hallucinatie?
book-openKernconcepten
Beginner

Wat Is AI-hallucinatie?

Wanneer een LLM met vertrouwen onjuiste of verzonnen informatie genereert

Ook bekend als:
Hallucination
AI Confabulatie
AI Fabrication
Hallucination

Een hallucinatie treedt op wanneer een Large Language Model met vertrouwen informatie genereert die feitelijk onjuist, verzonnen of onzinnig is — terwijl het deze presenteert als gezaghebbende waarheid. LLM's hebben geen concept van waarheid; ze voorspellen statistisch waarschijnlijke volgende tokens op basis van trainingspatronen. Dit betekent dat ze plausibel klinkende maar volledig onjuiste citaten, statistieken, historische gebeurtenissen, codebibliotheken en technische specificaties kunnen produceren. Hallucinatie wordt beschouwd als de belangrijkste betrouwbaarheidsuitdaging voor LLM-implementaties, met percentages variërend van 5% tot meer dan 30% afhankelijk van het taakdomein, het model en of mitigatietechnieken zoals RAG worden toegepast.

Waarom het belangrijk is

Hallucinatie vertegenwoordigt de fundamentele vertrouwensbarrière voor AI-adoptie in professionele contexten. Een juridische AI die rechtszaakcitaten verzint, een medische AI die medicijninteracties uitvindt, of een financiële AI die nepstatistieken produceert kan ernstige schade in de echte wereld veroorzaken. Anders dan traditionele softwarebugs die consistente fouten produceren, zijn LLM-hallucinaties onvoorspelbaar — het model kan 99 vragen correct beantwoorden en de 100e met gelijke overtuiging verzinnen. Voor bedrijven die AI inzetten is hallucinatiemanagement geen optie: het vereist retrieval-augmented generation, citaatverificatie, human-in-the-loop review, of domeinspecifieke vangrails. De kosten van een ongedetecteerde hallucinatie in hoog-risico domeinen overtreffen ruimschoots de kosten van het AI-systeem zelf.

Hoe het werkt

Hallucinaties ontstaan door hoe LLM's tekst genereren. Het model produceert elk token op basis van statistische waarschijnlijkheid — welk woord het meest waarschijnlijk volgt gegeven de voorgaande context. Wanneer gevraagd wordt naar onderwerpen aan de rand van zijn trainingsdata, of wanneer de statistisch waarschijnlijke voortzetting toevallig feitelijk onjuist is, heeft het model geen mechanisme om "ik weet het niet" te zeggen. Het genereert de meest plausibel lijkende voortzetting ongeacht feitelijke nauwkeurigheid. Bijdragende factoren zijn lacunes in trainingsdata, conflicterende informatie in trainingsdata, de neiging van het model om patronen te matchen in plaats van te redeneren, en prompts die impliciet aannemen dat het model kennis bezit die het niet heeft. Extended reasoning-modellen en RAG-systemen verminderen hallucinaties aanzienlijk maar elimineren ze niet volledig.

Voorbeeld

Een productteam zet een klantenservicebot in die getraind is op vragen over hun softwareplatform. Een klant vraagt naar een functie die twee jaar geleden is afgeschaft. De bot, getraind op documentatie die zowel oude als nieuwe versies bevat, genereert een zelfverzekerde stapsgewijze handleiding voor het gebruik van de afgeschafte functie — compleet met menupaden die niet meer bestaan en API-endpoints die zijn verwijderd. De klant volgt de instructies, faalt, neemt contact op met menselijke support en verliest het vertrouwen in de AI-assistent volledig. De oplossing: RAG implementeren die alleen uit actuele documentatie ophaalt, een kennisgrens-disclaimer toevoegen, en het systeem configureren om expliciet te zeggen "Ik heb daar geen informatie over" wanneer het ophaalvertrouwen laag is.

Bronnen

  1. Huang et al. — A Survey on Hallucination in LLMs
    arXiv
  2. Wikipedia — AI Hallucination
    Web

Hulp nodig bij het implementeren van AI?

Ik help je dit concept toe te passen in je bedrijf.

Neem contact op

Gerelateerde Concepten

RAG (Retrieval-Augmented Generation)
Een techniek die LLM's combineert met het ophalen van externe kennis om nauwkeurigheid te verbeteren en hallucinaties te verminderen
AI-alignment
Zorgen dat AI-systemen handelen in overeenstemming met menselijke waarden, intenties en veiligheidseisen
Large Language Model (LLM)
Een neuraal netwerk getraind op enorme hoeveelheden tekst om mensachtige taal te begrijpen en genereren
Grounding in AI
Het verankeren van LLM-antwoorden aan geverifieerde externe bronnen om hallucinaties te verminderen en citatie mogelijk te maken

AI-advies

Hulp nodig bij het begrijpen of implementeren van dit concept?

Praat met een expert
Vorige

Grounding in AI

Volgende

In-Context Learning (ICL)

BVDNETBVDNET

Webontwikkeling en AI-automatisering. Goed gedaan.

Bedrijf

  • Over Mij
  • Contact
  • FAQ

Resources

  • Diensten
  • Werk
  • Bibliotheek
  • Blog
  • Prijzen

Connect

  • LinkedIn
  • GitHub
  • Twitter / X
  • Email

© 2026 BVDNET. Alle rechten voorbehouden.

Privacybeleid•Algemene Voorwaarden•Cookiebeleid