
Few-shot prompting is een techniek waarbij je een klein aantal uitgewerkte voorbeelden (doorgaans 2-10) direct in de prompt opneemt om de gewenste taak, het formaat en het redeneerpatroon te demonstreren aan een Large Language Model. In plaats van het model te fine-tunen of alleen op instructies te vertrouwen, laat je het model zien wat je wilt door invoer-uitvoerparen te geven — het LLM leert van deze voorbeelden in context, zonder gewichtsupdates. Few-shot prompting verbetert de nauwkeurigheid doorgaans met 20-30% vergeleken met zero-shot prompting, waardoor het een van de prompt-engineeringtechnieken met de hoogste ROI is. Kwaliteit van voorbeelden telt meer dan hoeveelheid: drie zorgvuldig gekozen voorbeelden presteren consistent beter dan tien matige.
Waarom het belangrijk is
Few-shot prompting is de meest kosteneffectieve manier om de kwaliteit van LLM-output drastisch te verbeteren zonder modeltraining. Voor taken die gestructureerde output vereisen — entiteitextractie, classificatie, datatransformatie, codegeneratie in specifieke patronen — overbrugt few-shot prompting de kloof tussen een generieke instructie ("extraheer entiteiten uit deze tekst") en een gefinetuned model. Nauwkeurigheidsverbeteringen uit de praktijk zijn goed gedocumenteerd: entiteitextractie springt van 60% naar 85%, classificatie van 72% naar 88%, en wiskundig redeneren van 30% naar 60%. Voor bedrijven betekent dit dat 30 minuten besteden aan het maken van goede voorbeelden maanden aan fine-tuningwerk en duizenden euro's aan trainingscompute kan besparen — terwijl het direct bijgewerkt kan worden door voorbeelden te wisselen in plaats van een model te hertrainen.
Hoe het werkt
Wanneer een LLM een prompt ontvangt met voorbeelden, identificeert het patronen — invoerformaat, outputstructuur, redeneerbenadering, omgang met randgevallen — en past die toe op de nieuwe invoer. Dit werkt omdat LLM's patroonvoltooiingsmachines zijn: ze voorspellen wat volgt op basis van de voorgaande context. Door de context te structureren als opgeloste voorbeelden gevolgd door een onopgelost geval, zet het model het patroon voort. De effectiviteit hangt af van: diversiteit (verschillende gevallen dekken), kwaliteit (correct en duidelijk geformateerd), volgorde (sterkste voorbeelden eerst), en formaatconsistentie (identieke structuur). Few-shot prompting verbruikt meer tokens dan zero-shot — elk voorbeeld draagt bij aan de invoerkosten — waardoor een natuurlijke spanning ontstaat tussen nauwkeurigheid en kosten die teams moeten optimaliseren.
Voorbeeld
Een e-commercebedrijf moet productkenmerken extraheren uit ongestructureerde leveranciersbeschrijvingen. Hun zero-shot prompt ("Extraheer merk, kleur, materiaal en maat uit deze productbeschrijving") behaalt 65% nauwkeurigheid — en mist regelmatig kenmerken die indirect worden genoemd of ongebruikelijke opmaak hebben. Ze voegen drie few-shot voorbeelden toe die typische patronen dekken: een eenvoudige beschrijving met expliciete kenmerken, een waarbij kenmerken geïmpliceerd zijn ("Italiaans leer" → materiaal: leer, herkomst: Italië), en een met meerdere producten in een enkele beschrijving. De nauwkeurigheid springt naar 89%. Ze voegen twee randgeval-voorbeelden toe — beschrijvingen in gemengde talen en afgekorte specificaties — waardoor de nauwkeurigheid stijgt naar 93%. De totale prompt groeit van 80 tokens naar 450 tokens, waardoor de kosten per verzoek met 5× stijgen, maar de 93% nauwkeurigheid elimineert de handmatige reviewstap die voorheen €8.000 per maand aan menselijke arbeid kostte.