Skip to main content
BVDNETBVDNET
DienstenWerkBibliotheekOver MijPrijzenBlogContact
Contact
  1. Home
  2. AI Woordenboek
  3. Modellen & Architectuur
  4. Wat is een State-Space Model (SSM)?
brainModellen & Architectuur
Advanced
2026-W13

Wat is een State-Space Model (SSM)?

Een efficiënte AI-architectuur die een continu bijwerkende interne toestand onderhoudt om enorme datareeksen te verwerken zonder de geheugenoverhead van Transformers.

Ook bekend als:
SSM architecture
Selective State-Space Model
AI Intel Pipeline
What is a State-Space Model (SSM)?

Een State-Space Model (SSM) is een AI-architectuur die datareeksen verwerkt door een invoersequentie wiskundig te projecteren in een interne "toestand," als een uiterst efficiënt alternatief voor de dominante Transformer-architectuur.

Terwijl Transformers aandacht berekenen door terug te kijken naar elk eerder gegenereerd token (wat enorme hoeveelheden geheugen en rekenkracht verbruikt naarmate de context groeit), onderhoudt een SSM een compacte, voortdurend bijwerkende samenvatting van het verleden. Wanneer nieuwe informatie binnenkomt, werkt het model selectief deze verborgen toestand bij, waarbij irrelevante data wordt vergeten en wat ertoe doet wordt behouden.

Waarom het belangrijk is

Het primaire knelpunt van moderne AI is de "contextvenster"-limiet veroorzaakt door de kwadratische schaling van Transformer-geheugen. SSM-architecturen (zoals Mamba) lossen dit op door lineair te schalen. Dit betekent dat ze oneindig lange sequenties kunnen verwerken — zoals complete code-repositories, urenlange videofeeds of persistent agentgeheugen — met hoge doorvoer en een drastisch verminderde hardwarevoetafdruk, wat complexe AI veel goedkoper maakt in gebruik.

Hoe het werkt

SSM's zijn geworteld in klassieke regeltechniek. Ze gebruiken differentiaalvergelijkingen om een invoersignaal naar een interne toestand te mappen, en vervolgens die toestand naar een output. Moderne implementaties introduceren "selectiviteit," waardoor het model dynamisch kan beslissen welke delen van de invoer te memoriseren en welke te negeren op basis van de context. Omdat de toestand een vaste grootte heeft, hoeft het model de hele geschiedenis niet in zijn actieve geheugen op te slaan tijdens generatie.

Voorbeeld

Het Holotron-12B model is een multimodale computer-use agent die een hybride architectuur gebruikt die aandachtsmechanismen combineert met State-Space Models. Door te vertrouwen op SSM's voor het afhandelen van zijn interactiegeheugen, bereikt Holotron meer dan 2x hogere doorvoer vergeleken met standaardmodellen terwijl het een drastisch verminderde geheugenvoetafdruk behoudt, waardoor het efficiënt lange geschiedenissen van multi-image desktopinteracties kan volgen en verwerken.

Bronnen

  1. Holotron-12B Announcement

Hulp nodig bij het implementeren van AI?

Ik help je dit concept toe te passen in je bedrijf.

Neem contact op

Gerelateerde Concepten

adaptive thinking in AI
Een redeneerstrategie waarbij AI-modellen dynamisch aanpassen hoeveel ze nadenken per beurt — van directe antwoorden tot diepgaande meerstaps-deliberatie — op basis van taakcomplexiteit.
geautomatiseerd alignment-onderzoek
Het inzetten van frontier AI-modellen om autonoom methoden te ontdekken voor het alignen van andere AI-systemen — het schaalbare-toezichtprobleem aanpakken door veiligheidsonderzoek mee te laten schalen met capaciteiten.
Adversarial Cost to Exploit (ACE)
Een economische benchmark die de dollarkosten meet die een autonome aanvaller moet maken om een AI-agent een ongeautoriseerde actie te laten uitvoeren.
Text/Action Mismatch
Een faalpatroon waarbij AI-modellen tekstueel een verzoek weigeren terwijl ze de verboden actie tegelijkertijd uitvoeren in gestructureerde tool-output.

AI-advies

Hulp nodig bij het begrijpen of implementeren van dit concept?

Praat met een expert
Vorige

Semantisch Chunken

Volgende

SynthID

BVDNETBVDNET

Webontwikkeling en AI-automatisering. Goed gedaan.

Bedrijf

  • Over Mij
  • Contact
  • FAQ

Resources

  • Diensten
  • Werk
  • Bibliotheek
  • Blog
  • Prijzen

Connect

  • LinkedIn
  • GitHub
  • Twitter / X
  • Email

© 2026 BVDNET. Alle rechten voorbehouden.

Privacybeleid•Algemene Voorwaarden•Cookiebeleid