Modellen & Architectuur
24 concepten

Kwantisatie
Het verlagen van de precisie van modelgewichten van 16/32-bit naar 8/4-bit om de omvang te verkleinen en inferentie te versnellen

LoRA (Low-Rank Adaptation)
Een efficiënte fine-tuningmethode die alleen kleine adapterlagen traint in plaats van het volledige model

Modeldistillatie
Een kleiner 'student'-model trainen om de capaciteiten van een groter 'teacher'-model te repliceren tegen een fractie van de kosten en latentie

Perplexity in NLP
De standaardmetriek voor het evalueren van taalmodelkwaliteit — meet hoe goed een model tekst voorspelt, waarbij lagere waarden betere taalbegrip aangeven

RAG (Retrieval-Augmented Generation)
Een techniek die LLM's combineert met het ophalen van externe kennis om nauwkeurigheid te verbeteren en hallucinaties te verminderen

RLHF (Reinforcement Learning from Human Feedback)
Een trainingstechniek die menselijke voorkeursbeoordelingen gebruikt om LLM-gedrag af te stemmen op menselijke waarden

KV-cache
Een geheugenoptimalisatie die eerder berekende key-value-paren opslaat in transformer-attentielagen — voorkomt redundante berekeningen en versnelt generatie 3-5×

Mixture-of-Experts (MoE) model
Een architectuur die tokens routeert naar gespecialiseerde subnetwerken, waardoor modelcapaciteit toeneemt zonder evenredige stijging van rekenkosten.

Transformer
De neurale-netwerkarchitectuur die aan alle moderne LLM's ten grondslag ligt, met aandachtsmechanismen om tekst te verwerken

Attention-mechanisme
Het wiskundige mechanisme dat transformers in staat stelt dynamisch te focussen op de meest relevante delen van de invoer bij het verwerken van elk token

Adversarial Cost to Exploit (ACE)
Een economische benchmark die de dollarkosten meet die een autonome aanvaller moet maken om een AI-agent een ongeautoriseerde actie te laten uitvoeren.

DeepSeek
Een zeer efficiënte, open-weight AI-modelfamilie die frontier-niveau codeer- en redeneercapaciteiten levert tegen significant lagere computationele kosten.

DeepStack Injection
Een VLM-architectuur die abstracte visuele features naar vroege Transformer-lagen routeert en hoge-resolutiedetails naar latere lagen voor optimale documentparsing in compacte modellen.

Flash Attention
Een hardware-bewust algoritme dat LLM-verwerking enorm versnelt door GPU-geheugenlezingen te optimaliseren, waarmee zeer lange contextvensters mogelijk worden.

GRPO (Group Relative Policy Optimization)
Een reinforcement learning-algoritme dat taalmodellen aligneert door groepen outputs tegen elkaar te vergelijken, zonder de noodzaak van een apart reward-model.

Gemma 4
Google DeepMinds open-weight multimodale modelfamilie die van nature tekst, beeld en audio on-device verwerkt.

Mamba
Een uiterst efficiënte AI-architectuur die State-Space Models gebruikt in plaats van Transformers om enorme hoeveelheden tekst te verwerken met zeer laag geheugengebruik.

PEFT (Parameter-Efficient Fine-Tuning)
Een familie technieken die grote AI-modellen aanpassen aan specifieke taken door slechts een fractie van de parameters bij te werken, wat fine-tuningkosten met 90–99% verlaagt.

Text/Action Mismatch
Een faalpatroon waarbij AI-modellen tekstueel een verzoek weigeren terwijl ze de verboden actie tegelijkertijd uitvoeren in gestructureerde tool-output.

adaptive thinking in AI
Een redeneerstrategie waarbij AI-modellen dynamisch aanpassen hoeveel ze nadenken per beurt — van directe antwoorden tot diepgaande meerstaps-deliberatie — op basis van taakcomplexiteit.

State-Space Model (SSM)
Een efficiënte AI-architectuur die een continu bijwerkende interne toestand onderhoudt om enorme datareeksen te verwerken zonder de geheugenoverhead van Transformers.

VLM (Vision-Language Model)
Een AI-modelarchitectuur die gelijktijdig visuele en tekstuele invoer verwerkt, waardoor taken als documentbegrip, beeldredenering en visueel vraag-antwoord mogelijk zijn.

geautomatiseerd alignment-onderzoek
Het inzetten van frontier AI-modellen om autonoom methoden te ontdekken voor het alignen van andere AI-systemen — het schaalbare-toezichtprobleem aanpakken door veiligheidsonderzoek mee te laten schalen met capaciteiten.

Emotion Vectors
Meetbare interne neurale representaties in AI-modellen die functioneren als emoties en het gedrag van het model causaal sturen.