Skip to main content
BVDNETBVDNET
DienstenWerkBibliotheekOver MijPrijzenBlogContact
Contact
  1. Home
  2. AI Woordenboek
  3. Modellen & Architectuur
  4. Wat Is een Mixture-of-Experts (MoE) model?
brainModellen & Architectuur
Advanced
2026-W13

Wat Is een Mixture-of-Experts (MoE) model?

Een architectuur die tokens routeert naar gespecialiseerde subnetwerken, waardoor modelcapaciteit toeneemt zonder evenredige stijging van rekenkosten.

Ook bekend als:
MoE
Sparse MoE
AI Intel Pipeline
What is a Mixture-of-Experts (MoE) model?

Een Mixture-of-Experts (MoE) is een neurale netwerkarchitectuur die het totale parameteraantal van een model significant verhoogt zonder de computationele kosten tijdens inferentie evenredig te verhogen.

In plaats van elke input door alle parameters in het netwerk te laten lopen (een dense architectuur), bestaat een MoE-model uit meerdere gespecialiseerde subnetwerken die "experts" worden genoemd. Een routeringsmechanisme, of gating-netwerk, evalueert elk binnenkomend token en stuurt het dynamisch alleen naar de meest relevante expert(s) voor verwerking.

Waarom het belangrijk is

Het trainen van enorme AI-modellen vereist immense rekenkracht. MoE stelt labs in staat om modelcapaciteit en redeneervermogen op te schalen naar honderden miljarden of zelfs biljoenen parameters, terwijl inferentiekosten laag blijven. Omdat slechts een klein deel van de totale parameters (de "actieve parameters") voor elk token wordt gebruikt, kan een MoE-model veel sneller en goedkoper draaien dan een dense model van vergelijkbare totale omvang.

Hoe het werkt

In een standaard Transformer verwerkt het feedforward-netwerk (FFN) elk token. In een MoE-architectuur wordt het FFN vervangen door een set experts (bijv. 8 onafhankelijke FFN's) en een router. Wanneer een token binnenkomt, berekent de router een kansverdeling om te bepalen welke experts het meest geschikt zijn om het te verwerken. Typisch routeert het het token naar de top-k experts (vaak slechts 2 van de 8). De outputs van deze geselecteerde experts worden vervolgens gecombineerd tot het eindresultaat.

Voorbeeld

Mistral Small 4 is een zeer capabel open-weights model gebouwd op een Mixture-of-Experts architectuur. Hoewel het in totaal 119 miljard parameters heeft, gebruikt het slechts 22 miljard actieve parameters tijdens inferentie voor elk token. Deze sparse routering stelt het in staat om capaciteiten te combineren voor complex redeneren, coderen en multimodale taken, terwijl het efficiënt genoeg draait om op lokale enterprise-hardware te worden ingezet.

Bronnen

  1. Hugging Face — Gemma 4 MoE (26B total, 4B active)
    Web
  2. Hugging Face — Holo3-35B-A3B MoE Agent
    Web

Hulp nodig bij het implementeren van AI?

Ik help je dit concept toe te passen in je bedrijf.

Neem contact op

Gerelateerde Concepten

adaptive thinking in AI
Een redeneerstrategie waarbij AI-modellen dynamisch aanpassen hoeveel ze nadenken per beurt — van directe antwoorden tot diepgaande meerstaps-deliberatie — op basis van taakcomplexiteit.
geautomatiseerd alignment-onderzoek
Het inzetten van frontier AI-modellen om autonoom methoden te ontdekken voor het alignen van andere AI-systemen — het schaalbare-toezichtprobleem aanpakken door veiligheidsonderzoek mee te laten schalen met capaciteiten.
Adversarial Cost to Exploit (ACE)
Een economische benchmark die de dollarkosten meet die een autonome aanvaller moet maken om een AI-agent een ongeautoriseerde actie te laten uitvoeren.
Text/Action Mismatch
Een faalpatroon waarbij AI-modellen tekstueel een verzoek weigeren terwijl ze de verboden actie tegelijkertijd uitvoeren in gestructureerde tool-output.

AI-advies

Hulp nodig bij het begrijpen of implementeren van dit concept?

Praat met een expert
Vorige

Managed Agents

Volgende

Model Context Protocol (MCP)

BVDNETBVDNET

Webontwikkeling en AI-automatisering. Goed gedaan.

Bedrijf

  • Over Mij
  • Contact
  • FAQ

Resources

  • Diensten
  • Werk
  • Bibliotheek
  • Blog
  • Prijzen

Connect

  • LinkedIn
  • GitHub
  • Twitter / X
  • Email

© 2026 BVDNET. Alle rechten voorbehouden.

Privacybeleid•Algemene Voorwaarden•Cookiebeleid