
Wat is Human-in-the-Loop?
Human-in-the-loop (HITL) is een AI-ontwerppatroon waarbij menselijk toezicht, feedback of goedkeuring is ingebouwd in het AI-beslissingsproces. In plaats van het model volledig autonoom te laten opereren, behoudt een mens controle op kritieke punten — van het labelen van trainingsdata tot het goedkeuren van acties in productie.
Waarom het ertoe doet
AI-modellen zijn krachtig maar niet onfeilbaar. Bij hoog-risicobeslissingen — medische diagnoses, kredietbeoordelingen, juridische analyses — is menselijk toezicht essentieel. HITL is ook de kern van RLHF (Reinforcement Learning from Human Feedback), de techniek waarmee ChatGPT en Claude zijn afgestemd op menselijke voorkeuren.
Hoe het werkt
Drie fasen van HITL:
1. Training (data-labeling):
- Mensen labelen trainingsdata (correct/incorrect, categorie, kwaliteit)
- Active learning: het model selecteert de meest informatieve voorbeelden voor menselijke beoordeling
- RLHF: mensen rangschikken modeloutputs op kwaliteit
2. Validatie (quality assurance):
- Menselijke reviewers controleren modeloutput voor deployment
- Red teaming: experts proberen het model te breken
- A/B-testen met menselijke evaluatie
3. Productie (runtime toezicht):