Skip to main content
BVDNETBVDNET
DienstenWerkBibliotheekOver MijPrijzenBlogContact
Contact
  1. Home
  2. AI Woordenboek
  3. Kernconcepten
  4. Wat Is een Prompt?
book-openKernconcepten
Beginner

Wat Is een Prompt?

De invoertekst of instructies die aan een LLM worden gegeven om een antwoord te genereren

Ook bekend als:
Instructie
Invoer
System Prompt
User Prompt
AI Intel Pipeline
Prompt

Een prompt is de invoertekst of set instructies die aan een Large Language Model worden gegeven om een antwoord te genereren. Prompts variëren van eenvoudige vragen ("Wat is machine learning?") tot uitgebreide meerdelige instructies met systeemrollen, voorbeelden, contextdocumenten en outputformaatspecificaties. De kwaliteit en structuur van een prompt bepaalt direct de kwaliteit van de output van het LLM — hetzelfde model kan matige of uitstekende resultaten produceren afhankelijk van hoe de prompt is opgesteld. Prompts bestaan uit meerdere mogelijke lagen: een systeemprompt die het gedrag en de persona van het model definieert, gebruikersprompts met het daadwerkelijke verzoek, en optionele context zoals opgehaalde documenten of gespreksgeschiedenis.

Waarom het belangrijk is

De prompt is de primaire interface tussen mens en LLM. Anders dan bij traditionele software waar ontwikkelaars code schrijven om exact gedrag te specificeren, worden LLM's aangestuurd door instructies in natuurlijke taal — waardoor promptkwaliteit de grootste variabele is in de kwaliteit van de output. Een goed gestructureerde prompt met duidelijke instructies, relevante voorbeelden en een expliciet outputformaat kan de nauwkeurigheid van een taak verbeteren van 60% naar 95% zonder iets aan het onderliggende model te veranderen. Voor bedrijven betekent dit dat promptoptimalisatie vaak de activiteit met de hoogste ROI is bij het bouwen van AI-applicaties: het kost niets om een prompt te verbeteren, maar levert dramatische verbeteringen in kwaliteit en kosten op.

Hoe het werkt

Wanneer je een prompt naar een LLM stuurt, wordt de tekst eerst getokeniseerd in een reeks token-ID's. Deze tokens passeren door de lagen van het model, en het model genereert een antwoord door het meest waarschijnlijke volgende token te voorspellen gegeven de volledige invoercontext. De structuur van de prompt is belangrijk omdat verschillende onderdelen verschillende functies vervullen: de systeemprompt (als eerste verwerkt) stelt gedragsbeperkingen en persona vast; de contextsectie biedt referentie-informatie; en het gebruikersbericht bevat het specifieke verzoek. Het model behandelt de gehele prompt als een continue tokensequentie en genereert zijn antwoord als een natuurlijk vervolg. Langere, meer gedetailleerde prompts verbruiken meer tokens en kosten meer, wat een natuurlijke spanning creëert tussen volledigheid en efficiëntie van de prompt.

Voorbeeld

Een legaltech-bedrijf dat een contractanalysetool bouwt, ontdekt het verschil dat promptkwaliteit maakt. Hun initiële prompt — "Analyseer dit contract en vind risico's" — produceert vage, inconsistente output. De geoptimaliseerde versie bevat een systeemprompt die de rol van de AI definieert als commercieel contractanalist, specificeert de exacte risicocategorieën om te controleren (aansprakelijkheidslimieten, vrijwaringsclausules, beëindigingstriggers, IP-overdracht), biedt twee geannoteerde voorbeelden van eerdere analyses, en definieert het outputformaat als een gestructureerde tabel met risiconiveau, clausuleverwijzing en aanbevolen actie. Hetzelfde model dat onbetrouwbare output produceerde met de simpele prompt, levert nu consistente analyse van advocaat-beoordeelde kwaliteit — met als enige wijziging een beter gestructureerde prompt van 400 tokens.

Bronnen

  1. OpenAI — Prompt Engineering Guide
    Web
  2. Anthropic — Prompt Engineering Overview
    Web
  3. Wikipedia

Hulp nodig bij het implementeren van AI?

Ik help je dit concept toe te passen in je bedrijf.

Neem contact op

Gerelateerde Concepten

Batch Size
Batch size (voorbeelden per update) en learning rate (stapgrootte voor gewichtsupdates) zijn de twee belangrijkste hyperparameters die bepalen hoe neurale netwerken trainen.
Catastrophic Forgetting
Catastrophic forgetting is wanneer het trainen van een neuraal netwerk op nieuwe data eerder geleerde kennis overschrijft, waardoor eerdere capaciteiten verloren gaan.
Classifier
Een classifier is een ML-model dat inputs toewijst aan vooraf gedefinieerde categorieën — de basis van spamfilters, sentimentanalyse, beeldherkenning en fraudedetectie.
Continual Learning
Continual learning stelt AI-systemen in staat om nieuwe taken te leren zonder eerdere kennis te vergeten, door het stabiliteit-plasticiteitsdilemma op te lossen.

AI-advies

Hulp nodig bij het begrijpen of implementeren van dit concept?

Praat met een expert
Vorige

Programmatic Tool Calling

Volgende

Prompt Caching

BVDNETBVDNET

Webontwikkeling en AI-automatisering. Goed gedaan.

Bedrijf

  • Over Mij
  • Contact
  • FAQ

Resources

  • Diensten
  • Werk
  • Bibliotheek
  • Blog
  • Prijzen

Connect

  • LinkedIn
  • GitHub
  • Twitter / X
  • Email

© 2026 BVDNET. Alle rechten voorbehouden.

Privacybeleid•Algemene Voorwaarden•Cookiebeleid