
Chain-of-thought (CoT) is een prompting- en redeneertechniek waarbij een AI-model wordt gestuurd om complexe problemen op te breken in tussenliggende logische stappen voordat het tot een eindantwoord komt.
Waarom het ertoe doet
Zonder CoT-redenering springen taalmodellen direct naar antwoorden, wat vaak leidt tot fouten bij meerstapsproblemen. CoT is ook fundamenteel voor adaptive thinking-architecturen.
Hoe het werkt
- Prompting. Zinnen toevoegen zoals "Laten we stap voor stap nadenken".
- Extended thinking. Modellen zoals Claude Opus 4.7 hebben ingebouwde denkblokken met configureerbare inspanningsniveaus.
- Adaptive thinking. Modellen beslissen dynamisch hoeveel CoT-redenering ze per beurt toepassen.
- Zelfverificatie. Het model herevalueert zijn redeneerketen op logische inconsistenties.
Voorbeeld
Zonder CoT: "Wat is 17 × 24?" → "408" (correct, maar ondoorzichtig) Met CoT: "17 × 24 = 17 × 20 + 17 × 4 = 340 + 68 = 408."