
Prompt chaining is een techniek waarbij een complexe taak wordt opgesplitst in een reeks eenvoudigere, gerichte LLM-aanroepen, waarbij de output van elke aanroep dient als invoer (of gedeeltelijke invoer) voor de volgende. In plaats van een model te vragen een heel meerstapsproces in één generatie af te handelen — wat foutpercentages verhoogt en controleerbaarheid vermindert — splitst prompt chaining het werk in gespecialiseerde stappen: extraheren, dan analyseren, dan samenvatten; of plannen, dan uitvoeren, dan verifiëren. Elke stap gebruikt een prompt die is geoptimaliseerd voor één specifieke subtaak, wat de kwaliteit met 20-40% verbetert vergeleken met verwerking in één stap. Prompt chaining is een fundamenteel patroon in agentische AI-systemen, waar ketens kunnen vertakken, herhalen en toolaanroepen bevatten naast LLM-generaties.
Waarom het belangrijk is
Eenstaps LLM-verwerking faalt voorspelbaar bij complexe taken: het model probeert gelijktijdig te redeneren, formatteren, valideren en genereren, wat leidt tot fouten die zich opstapelen in de output. Prompt chaining adresseert dit door verantwoordelijkheden te isoleren — elke stap doet één ding goed, en tussenliggende outputs kunnen worden gevalideerd voordat de volgende stap verdergaat. Deze modulariteit maakt ook gemengde modelstrategieën mogelijk: gebruik een snel, goedkoop model voor extractie, routeer naar een krachtig model voor analyse, en gebruik een template-engine voor de uiteindelijke opmaak. Voor productiesystemen biedt prompt chaining cruciale debugbaarheid — wanneer outputkwaliteit afneemt, kunnen teams exact traceren welke stap in de keten faalde en die repareren zonder de hele pipeline te herbouwen. De kostenafweging is 2-5× hogere API-uitgaven per taak door meerdere aanroepen, maar dit is consequent gerechtvaardigd wanneer nauwkeurigheidsverbeteringen handmatige review verderop elimineren.
Hoe het werkt
Een promptketen wordt uitgevoerd als een georkestreerde pipeline waarbij elke stap een eigen systeemprompt, invoertemplate en outputparser bevat. De orchestrator beheert de datastroom tussen stappen, foutafhandeling en conditionele vertakking. Een typische keten volgt dit patroon: Stap 1 ontvangt ruwe invoer en extraheert gestructureerde data. Stap 2 ontvangt de gestructureerde data en voert analyse uit. Stap 3 ontvangt de analyse en genereert de finale output. Tussen elke stap kan de orchestrator outputs valideren (gehallusineerde data afwijzen), invoer verrijken (context toevoegen vanuit databases of API's), en routeringsbeslissingen nemen (verschillende cases naar verschillende ketens sturen). Frameworks als LangChain, LlamaIndex en maatwerk-orchestratielagen implementeren dit patroon. Geavanceerde ketens ondersteunen parallellisme (onafhankelijke stappen gelijktijdig uitvoeren), retries met aangepaste prompts bij falen, en menselijke checkpoints op kritieke beslismomenten.
Voorbeeld
Een adviesbureau automatiseert hun offerteproces met een vierstaps promptketen. Stap 1 (Extractie): gegeven een aanbestedingsdocument van de klant, extraheer eisen, budgetbeperkingen, tijdlijn en beoordelingscriteria naar gestructureerde JSON. Stap 2 (Strategie): gegeven de geëxtraheerde eisen en de capaciteitendatabase van het bureau, genereer een aanbevolen aanpak met personeelsplan en methodologieaansluiting. Stap 3 (Opstellen): gegeven de strategie en offertetemplate, genereer elke sectie met specifieke claims gekoppeld aan eisen. Stap 4 (Review): gegeven de conceptofferte en originele aanbesteding, identificeer hiaten waar eisen niet zijn geadresseerd en markeer ononderbouwde claims. De eenstapsbenadering (het hele document naar één prompt die een complete offerte vraagt) produceerde concepten die slechts 60% van de gestelde eisen adresseerden en regelmatig capaciteiten verzon. De vierstapsketen adresseert 94% van de eisen en markeert de overige 6% voor menselijke aandacht. Verwerkingskosten stijgen van €0,12 naar €0,45 per offerte, maar elimineren acht uur analystreviwtijd per offerte.