Kernconcepten
41 concepten

AI-hallucinatie
Wanneer een LLM met vertrouwen onjuiste of verzonnen informatie genereert

AI-inferentie
Het proces van het draaien van een getraind LLM om output te genereren vanuit input

Fine-tuning
Een voorgetraind LLM verder trainen op domeinspecifieke data om het gedrag te specialiseren

Temperature in AI
Een parameter die de willekeurigheid van LLM-output regelt — lagere waarden produceren consistente resultaten, hogere waarden verhogen creativiteit

Top-p (Nucleus) Sampling
Een decodeermethode die samplet uit de kleinste set tokens waarvan de cumulatieve kans een drempel p overschrijdt — de kandidaatpool past zich aan op basis van modelzekerheid

Contextvenster
Het maximale aantal tokens dat een LLM in één verzoek kan verwerken

Embedding
Een numerieke vector die de semantische betekenis van tekst vastlegt, waardoor zoekopdrachten op gelijkenis mogelijk worden

Large Language Model (LLM)
Een neuraal netwerk getraind op enorme hoeveelheden tekst om mensachtige taal te begrijpen en genereren

Neuraal Netwerk
Een netwerk van onderling verbonden kunstmatige neuronen dat patronen leert uit data — de fundamentele architectuur achter alle moderne AI

Prompt
De invoertekst of instructies die aan een LLM worden gegeven om een antwoord te genereren

Token in AI
De kleinste eenheid tekst die een LLM verwerkt — ongeveer 4 tekens of 0,75 woorden

Schalingswetten voor LLM's
Empirische patronen die aantonen dat LLM-capaciteiten voorspelbaar verbeteren naarmate modelgrootte, trainingsdata en compute toenemen — waardoor betrouwbare planning van AI-investeringen mogelijk wordt

Backpropagation
Backpropagation is het algoritme dat neurale netwerken traint door te berekenen hoe elk gewicht bijdraagt aan de voorspellingsfout en gewichten aan te passen om die fout te verminderen.

Catastrophic Forgetting
Catastrophic forgetting is wanneer het trainen van een neuraal netwerk op nieuwe data eerder geleerde kennis overschrijft, waardoor eerdere capaciteiten verloren gaan.

Continual Learning
Continual learning stelt AI-systemen in staat om nieuwe taken te leren zonder eerdere kennis te vergeten, door het stabiliteit-plasticiteitsdilemma op te lossen.

Cosine Similarity
Cosine similarity meet hoe vergelijkbaar twee vectoren zijn door de cosinus van de hoek ertussen te berekenen — de standaardmetriek voor het vergelijken van AI-embeddings.

Deep Learning
Deep learning is een machine-learningtechniek met meerlaagse neurale netwerken die automatisch hiërarchische representaties leren, de motor achter moderne AI-doorbraken.

Feature Engineering
Feature engineering transformeert ruwe data in informatieve inputvariabelen voor ML-modellen — features selecteren, creëren en coderen die modellen helpen effectief te leren.

Federated Learning
Federated learning traint AI-modellen op gedecentraliseerde apparaten door modelupdates te delen in plaats van ruwe data, voor privacy-vriendelijk machine learning.

Generatieve AI
Generatieve AI is een categorie AI-systemen die nieuwe content creëren — tekst, afbeeldingen, audio, code — in plaats van alleen bestaande data te analyseren.

Gradient Descent
Gradient descent is het optimalisatie-algoritme dat neurale netwerken traint door parameters iteratief aan te passen in de richting die de voorspellingsfout verkleint.

Kunstmatige Intelligentie (AI)
Kunstmatige intelligentie is het vakgebied dat systemen bouwt die taken uitvoeren waarvoor normaal menselijke intelligentie nodig is, zoals leren, redeneren en waarnemen.

Latent Space
Latent space is de interne representatieruimte die neurale netwerken leren — een gecomprimeerde wiskundige ruimte waar data wordt afgebeeld op vectoren die essentiële kenmerken en relaties vastleggen.

Machine Learning (ML)
Machine learning is een tak van AI waarbij systemen patronen uit data leren om taken beter uit te voeren zonder expliciet geprogrammeerd te zijn.

Natural Language Processing (NLP)
Natural language processing is het AI-vakgebied dat computers in staat stelt menselijke taal te begrijpen, interpreteren en genereren — de basis onder chatbots, vertaling en LLM's.

Pre-training
Pre-training is de eerste trainingsfase waarin een AI-model brede patronen leert uit een grote algemene dataset voordat het voor specifieke taken wordt aangepast.

Redeneren in AI
AI-redeneren is het vermogen van modellen om stap voor stap te denken, met technieken als Chain-of-Thought en reasoning-modellen (o1, o3) voor complex probleemoplossen.

Reinforcement Learning (RL)
Reinforcement learning is een machine-learningparadigma waarbij een agent optimaal gedrag leert door trial-and-error-interactie met een omgeving, gestuurd door beloningssignalen.

Self-Supervised Learning
Self-supervised learning traint modellen door labels uit de data zelf te genereren — zoals het voorspellen van het volgende token — waardoor pre-training op vrijwel onbeperkte ongelabelde data mogelijk is.

Supervised Learning
Supervised learning is een machine-learningaanpak waarbij modellen leren van gelabelde input-outputparen om voorspellingen te doen op nieuwe data.

Synthetische Data
Synthetische data is kunstmatig gegenereerde data die real-world patronen nabootst, gebruikt wanneer echte data schaars, bevooroordeeld of privacygevoelig is.

Transfer Learning
Transfer learning is een techniek waarbij kennis van een model getraind op één taak wordt hergebruikt voor een andere taak, waardoor krachtige AI met minder data en rekenkracht mogelijk is.

Unsupervised Learning
Unsupervised learning is een machine-learningaanpak waarbij modellen patronen en structuur ontdekken in ongelabelde data zonder correcte outputs te krijgen.

Benchmark (AI-evaluatie)
Een benchmark is een gestandaardiseerde test om AI-modelprestaties te meten en vergelijken, met reproduceerbare scores op taken als redeneren, coderen en kennis.

Classifier
Een classifier is een ML-model dat inputs toewijst aan vooraf gedefinieerde categorieën — de basis van spamfilters, sentimentanalyse, beeldherkenning en fraudedetectie.

Loss Function
Een loss function meet hoe fout de voorspellingen van een model zijn en levert het foutsignaal dat trainingsalgoritmen minimaliseren om het model te verbeteren.

Tokenizer
Een tokenizer zet ruwe tekst om in tokens — de discrete eenheden die een taalmodel verwerkt — met subwoordalgoritmen zoals BPE of SentencePiece.

Verschil tussen Regressie
Classificatie voorspelt categorieën (spam/geen spam); regressie voorspelt continue waarden (huisprijs). Dit zijn de twee fundamentele supervised ML-probleemtypen.

Verschil tussen Training
Training leert een model door parameters aan te passen op data (duur, eenmalig); inference gebruikt het getrainde model om voorspellingen te doen (goedkoop, miljoenen keren).

Batch Size
Batch size (voorbeelden per update) en learning rate (stapgrootte voor gewichtsupdates) zijn de twee belangrijkste hyperparameters die bepalen hoe neurale netwerken trainen.

Overfitting
Overfitting betekent dat een model trainingsdata memoriseert zonder te generaliseren; underfitting betekent dat een model te simpel is om de onderliggende patronen te leren. De balans vinden is essentieel.