Kernconcepten
12 concepten

AI-hallucinatie
Wanneer een LLM met vertrouwen onjuiste of verzonnen informatie genereert

AI-inferentie
Het proces van het draaien van een getraind LLM om output te genereren vanuit input

Fine-tuning
Een voorgetraind LLM verder trainen op domeinspecifieke data om het gedrag te specialiseren

Temperature in AI
Een parameter die de willekeurigheid van LLM-output regelt — lagere waarden produceren consistente resultaten, hogere waarden verhogen creativiteit

Top-p (Nucleus) Sampling
Een decodeermethode die samplet uit de kleinste set tokens waarvan de cumulatieve kans een drempel p overschrijdt — de kandidaatpool past zich aan op basis van modelzekerheid

Contextvenster
Het maximale aantal tokens dat een LLM in één verzoek kan verwerken

Embedding
Een numerieke vector die de semantische betekenis van tekst vastlegt, waardoor zoekopdrachten op gelijkenis mogelijk worden

Large Language Model (LLM)
Een neuraal netwerk getraind op enorme hoeveelheden tekst om mensachtige taal te begrijpen en genereren

Neuraal Netwerk
Een netwerk van onderling verbonden kunstmatige neuronen dat patronen leert uit data — de fundamentele architectuur achter alle moderne AI

Prompt
De invoertekst of instructies die aan een LLM worden gegeven om een antwoord te genereren

Token in AI
De kleinste eenheid tekst die een LLM verwerkt — ongeveer 4 tekens of 0,75 woorden

Schalingswetten voor LLM's
Empirische patronen die aantonen dat LLM-capaciteiten voorspelbaar verbeteren naarmate modelgrootte, trainingsdata en compute toenemen — waardoor betrouwbare planning van AI-investeringen mogelijk wordt