Skip to main content
BVDNETBVDNET
DienstenWerkBibliotheekOver MijPrijzenBlogContact
Contact
  1. Home
  2. AI Woordenboek
  3. Kernconcepten
  4. Wat Is een Prompt?
book-openKernconcepten
Beginner

Wat Is een Prompt?

De invoertekst of instructies die aan een LLM worden gegeven om een antwoord te genereren

Ook bekend als:
Instructie
Invoer
System Prompt
User Prompt
Prompt

Een prompt is de invoertekst of set instructies die aan een Large Language Model worden gegeven om een antwoord te genereren. Prompts variëren van eenvoudige vragen ("Wat is machine learning?") tot uitgebreide meerdelige instructies met systeemrollen, voorbeelden, contextdocumenten en outputformaatspecificaties. De kwaliteit en structuur van een prompt bepaalt direct de kwaliteit van de output van het LLM — hetzelfde model kan matige of uitstekende resultaten produceren afhankelijk van hoe de prompt is opgesteld. Prompts bestaan uit meerdere mogelijke lagen: een systeemprompt die het gedrag en de persona van het model definieert, gebruikersprompts met het daadwerkelijke verzoek, en optionele context zoals opgehaalde documenten of gespreksgeschiedenis.

Waarom het belangrijk is

De prompt is de primaire interface tussen mens en LLM. Anders dan bij traditionele software waar ontwikkelaars code schrijven om exact gedrag te specificeren, worden LLM's aangestuurd door instructies in natuurlijke taal — waardoor promptkwaliteit de grootste variabele is in de kwaliteit van de output. Een goed gestructureerde prompt met duidelijke instructies, relevante voorbeelden en een expliciet outputformaat kan de nauwkeurigheid van een taak verbeteren van 60% naar 95% zonder iets aan het onderliggende model te veranderen. Voor bedrijven betekent dit dat promptoptimalisatie vaak de activiteit met de hoogste ROI is bij het bouwen van AI-applicaties: het kost niets om een prompt te verbeteren, maar levert dramatische verbeteringen in kwaliteit en kosten op.

Hoe het werkt

Wanneer je een prompt naar een LLM stuurt, wordt de tekst eerst getokeniseerd in een reeks token-ID's. Deze tokens passeren door de lagen van het model, en het model genereert een antwoord door het meest waarschijnlijke volgende token te voorspellen gegeven de volledige invoercontext. De structuur van de prompt is belangrijk omdat verschillende onderdelen verschillende functies vervullen: de systeemprompt (als eerste verwerkt) stelt gedragsbeperkingen en persona vast; de contextsectie biedt referentie-informatie; en het gebruikersbericht bevat het specifieke verzoek. Het model behandelt de gehele prompt als een continue tokensequentie en genereert zijn antwoord als een natuurlijk vervolg. Langere, meer gedetailleerde prompts verbruiken meer tokens en kosten meer, wat een natuurlijke spanning creëert tussen volledigheid en efficiëntie van de prompt.

Voorbeeld

Een legaltech-bedrijf dat een contractanalysetool bouwt, ontdekt het verschil dat promptkwaliteit maakt. Hun initiële prompt — "Analyseer dit contract en vind risico's" — produceert vage, inconsistente output. De geoptimaliseerde versie bevat een systeemprompt die de rol van de AI definieert als commercieel contractanalist, specificeert de exacte risicocategorieën om te controleren (aansprakelijkheidslimieten, vrijwaringsclausules, beëindigingstriggers, IP-overdracht), biedt twee geannoteerde voorbeelden van eerdere analyses, en definieert het outputformaat als een gestructureerde tabel met risiconiveau, clausuleverwijzing en aanbevolen actie. Hetzelfde model dat onbetrouwbare output produceerde met de simpele prompt, levert nu consistente analyse van advocaat-beoordeelde kwaliteit — met als enige wijziging een beter gestructureerde prompt van 400 tokens.

Bronnen

  1. OpenAI — Prompt Engineering Guide
    Web
  2. Anthropic — Prompt Engineering Overview
    Web
  3. Wikipedia

Hulp nodig bij het implementeren van AI?

Ik help je dit concept toe te passen in je bedrijf.

Neem contact op

Gerelateerde Concepten

Prompt-injectie
Een aanval waarbij kwaadaardige invoer een LLM manipuleert om zijn instructies te negeren
Large Language Model (LLM)
Een neuraal netwerk getraind op enorme hoeveelheden tekst om mensachtige taal te begrijpen en genereren
Prompt Engineering
De systematische praktijk van het ontwerpen van effectieve prompts om optimale resultaten te krijgen van LLM's
Few-Shot Prompting
Het meegeven van enkele uitgewerkte voorbeelden in de prompt om het gedrag van een LLM te sturen — verbetert nauwkeurigheid typisch met 20-30% ten opzichte van zero-shot
Zero-Shot Prompting
Een LLM een taak laten uitvoeren met alleen instructies en zonder voorbeelden — de snelste en goedkoopste promptbenadering

AI-advies

Hulp nodig bij het begrijpen of implementeren van dit concept?

Praat met een expert
Vorige

Programmatic Tool Calling

Volgende

Prompt Caching

BVDNETBVDNET

Webontwikkeling en AI-automatisering. Goed gedaan.

Bedrijf

  • Over Mij
  • Contact
  • FAQ

Resources

  • Diensten
  • Werk
  • Bibliotheek
  • Blog
  • Prijzen

Connect

  • LinkedIn
  • GitHub
  • Twitter / X
  • Email

© 2026 BVDNET. Alle rechten voorbehouden.

Privacybeleid•Algemene Voorwaarden•Cookiebeleid