
Wat is Explainability?
Explainability (uitlegbaarheid) in AI verwijst naar het vermogen om te begrijpen en uit te leggen waarom een AI-model een bepaalde beslissing heeft genomen. Het gaat om het openen van de "black box" — inzichtelijk maken welke factoren bijdroegen aan de output, zodat mensen de beslissing kunnen verifiëren, vertrouwen en verantwoorden.
Waarom het ertoe doet
De EU AI Act vereist uitlegbaarheid voor hoog-risico AI-systemen. Maar los van regelgeving: als een model een lening afwijst, een medische diagnose stelt, of een sollicitant afwijst, moeten betrokkenen begrijpen waarom. Explainability is de brug tussen technische AI-capaciteiten en maatschappelijk vertrouwen.
Hoe het werkt
Niveaus van uitlegbaarheid:
- Globale uitleg — hoe werkt het model in het algemeen? Welke features zijn het belangrijkst?
- Lokale uitleg — waarom nam het model deze specifieke beslissing voor deze specifieke input?
Technieken:
Model-agnostisch (werkt met elk model):
- SHAP (Shapley Additive Explanations) — berekent de bijdrage van elke feature aan de voorspelling via speltheorie
- LIME (Local Interpretable Model-agnostic Explanations) — benadert het model lokaal met een eenvoudig, interpreteerbaar model