Prompt engineering is de praktijk van het schrijven en optimaliseren van instructies (prompts) aan large language models om consistente, kwalitatieve output te krijgen. Het omvat technieken zoals rolspecificatie, context provisioning, chain-of-thought en few-shot examples, en is een kerncompetentie voor effectief gebruik van AI in organisaties.
Als je ooit hetzelfde hebt gevraagd aan ChatGPT en twee totaal verschillende antwoorden terugkreeg, dan heb je het probleem waar prompt engineering een oplossing voor biedt aan den lijve ervaren. LLMs zijn krachtig, maar ook gevoelig voor hoe je de vraag stelt. Een professionele prompt levert een bruikbaar antwoord, een luie prompt levert middelmaat. Het verschil tussen beide is soms een paar goed gekozen woorden. Voor een praktische cursus zie ons trainingsaanbod bij CleverTech Academy.
Waarom is prompt engineering belangrijk?
Een LLM is een statistisch model dat het meest waarschijnlijke antwoord geeft op basis van je prompt en de onderliggende trainingsdata. Kleine verschillen in formulering leiden tot grote verschillen in output. Dat is geen bug, maar een kenmerk van hoe deze modellen werken — en wie dat begrijpt, kan er ongekend waarde uithalen.
Onderzoek laat zien dat getrainde prompt-gebruikers tot 40% meer waarde halen uit dezelfde LLM-tools dan ongetrainde gebruikers. Het seminal GPT-3 paper van Brown et al. (2020) toonde al aan dat grote taalmodellen zich gedragen als "few-shot learners" — de prestaties verbeteren dramatisch wanneer je een paar voorbeelden in de prompt opneemt, zonder dat het model hoeft te worden hertraind. Dat verschil zit niet in intelligentie, maar in techniek: weten welke structuren werken, welke valkuilen je moet vermijden, en hoe je output consistent en bruikbaar krijgt. Voor organisaties is dit een cruciaal inzicht. Investeren in prompt-training voor je team levert vaak meer op dan investeren in duurdere AI-tools.
Prompt engineering is relevant voor vrijwel elke rol waar LLMs in het werkproces zitten:
- Marketeers die content op schaal produceren
- Ontwikkelaars die LLMs integreren in apps
- Support-medewerkers die AI gebruiken voor klantvragen
- Analisten die data-inzichten uit LLMs halen
- HR en juridisch die documenten en contracten analyseren
De basis: een goed opgebouwde prompt
Voordat we bij technieken komen, eerst de anatomie van een goede prompt. Een effectieve prompt bevat bij voorkeur vier onderdelen:
- Rol: Wie moet het model zijn? (
Je bent een ervaren SEO-specialist) - Context: Wat is de situatie of achtergrond? (
Ik werk voor een MKB-bedrijf in Rotterdam dat boekhoudsoftware verkoopt) - Taak: Wat moet er gebeuren? (
Schrijf een blogpost over factuurautomatisering) - Format: Hoe moet de output eruitzien? (
Gebruik subheadings, 800 woorden, inclusief call-to-action)
Vergelijk deze twee prompts:
Slechte prompt: Schrijf een blog over facturen
Goede prompt: Je bent een ervaren content-marketeer voor B2B SaaS-producten. Ik werk voor een Nederlands boekhoudsoftware-bedrijf (doelgroep MKB). Schrijf een blogpost van circa 800 woorden over de voordelen van factuurautomatisering, met de volgende structuur: inleiding met pijnpunt, 3 subsecties met concrete voordelen, conclusie met call-to-action voor een gratis demo. Gebruik een professionele maar toegankelijke toon in het Nederlands.
Het verschil in output-kwaliteit is dramatisch. Dat is de kern van prompt engineering: specifiek zijn waar het ertoe doet.
De belangrijkste prompting-technieken
Er zijn tientallen prompting-technieken, maar vijf daarvan vormen de kern die iedereen zou moeten kennen.
1. Zero-shot prompting
De meest basale vorm: je vraagt het model iets zonder voorbeelden te geven. Werkt prima voor eenvoudige taken zoals samenvatten, vertalen of herformuleren. Vertaal de volgende tekst naar het Nederlands: [tekst] is een typisch zero-shot prompt.
2. Few-shot prompting
Je geeft het model een paar voorbeelden van input en gewenste output voordat je de echte vraag stelt. Dit is enorm effectief voor taken waar je een specifiek format of stijl wilt. Brown et al. (2020) lieten zien dat GPT-3 met slechts 10-100 voorbeelden concurrerende resultaten behaalt op benchmarks waar eerdere modellen duizenden trainingsvoorbeelden nodig hadden. Voorbeeld:
`Classificeer klantvragen als URGENT, NORMAAL of LAAG.
Voorbeeld 1: 'Mijn website is offline' → URGENT Voorbeeld 2: 'Ik heb een vraag over facturering' → NORMAAL Voorbeeld 3: 'Hoe werkt jullie product?' → LAAG
Classificeer nu: 'Ik kan niet inloggen sinds vanmorgen'`
Het model pakt je patroon op en past het consistent toe.
3. Chain-of-thought (CoT) prompting
Door het model expliciet te vragen om stap voor stap te redeneren, verbeter je de kwaliteit van complexe antwoorden dramatisch. De techniek is formeel geïntroduceerd door Wei et al. (2022) in "Chain-of-Thought Prompting Elicits Reasoning in Large Language Models" — op de GSM8K wiskundebenchmark steeg de nauwkeurigheid van PaLM-540B van 18% naar 57% puur door intermediate reasoning-stappen in de prompt op te nemen. De simpelste vorm is toevoegen: Denk stap voor stap na voordat je antwoordt. Voor wiskundige, logische of analytische taken levert CoT vaak 20-50% betere antwoorden op dan directe vragen.
4. Role prompting
Door het model een specifieke rol te geven (Je bent een senior juridisch adviseur), stuur je zowel de toon als de diepgang. Role prompting activeert specifieke kennis-gebieden uit de trainingsdata en levert aanzienlijk professionelere output dan een neutrale vraag.
5. Structured output prompting
Voor taken waar je de output wilt kunnen verwerken (automation, code, data), vraag je om een specifiek format zoals JSON, YAML of Markdown. Moderne LLMs ondersteunen dit native via zogenaamde structured outputs of JSON mode. OpenAI's Structured Outputs-documentatie beschrijft hoe je via een JSON-schema 100% valide output kunt afdwingen; Anthropic's Claude-documentatie gebruikt XML-tags en tool-use voor vergelijkbare gestructureerde output.
Geavanceerde technieken
Voor complexere use cases zijn er geavanceerdere technieken die het waard zijn om te kennen.
ReAct (Reasoning + Acting): Het model wisselt tussen redeneren over een probleem en acties uitvoeren (zoals een web-search of tool-call). Formeel beschreven in Yao et al. (2022), "ReAct: Synergizing Reasoning and Acting in Language Models" — de paper toonde op HotpotQA en Fever-benchmarks aan dat afwisselend "thought → action → observation" de hallucinatie-rate substantieel verlaagt ten opzichte van pure chain-of-thought. Dit vormt de basis van moderne AI-agents.
Self-consistency: Genereer meerdere antwoorden op dezelfde prompt en kies het meest voorkomende antwoord. Wang et al. (2022) in "Self-Consistency Improves Chain of Thought Reasoning" rapporteerden +17.9 punten absolute verbetering op GSM8K door 40 redeneerpaden te samplen en via majority-voting één antwoord te kiezen. Verhoogt betrouwbaarheid bij complexe taken.
Tree of Thoughts: Een generalisatie van CoT waarbij het model meerdere redeneerpaden expliciet exploreert en backtrackt — zie Yao et al. (2023), "Tree of Thoughts: Deliberate Problem Solving with LLMs". Bruikbaar voor planning- en puzzel-achtige taken waar greedy CoT faalt.
Prompt chaining: Breek een complexe taak op in kleinere stappen met aparte prompts. De output van de eerste wordt input voor de tweede. Veel betrouwbaarder dan een mega-prompt.
Retrieval augmented generation (RAG): Combineer LLMs met een externe kennisbank voor actuele of domeinspecifieke informatie. Zie ook ons artikel wat is RAG voor een uitgebreide uitleg.
Veelvoorkomende fouten om te vermijden
Vijf klassieke valkuilen die beginnende prompt-gebruikers regelmatig maken:
- Te vaag:
Schrijf iets over marketinggeeft generieke output. Wees specifiek over doelgroep, toon, lengte en format. - Te veel tegelijk: Een prompt met tien tegenstrijdige eisen leidt tot middelmatige output. Focus op de drie belangrijkste.
- Geen context geven: Het model weet niet wie jij bent, wat je doel is of wat de achtergrond is. Leg het uit.
- Niet itereren: De eerste output is zelden perfect. Behandel prompting als een dialoog: verfijn, vraag om bijstellingen, vraag om meer details.
- Negatieve instructies:
Schrijf niet over onderwerp Xwerkt slechter dan expliciet zeggen wat je wel wilt. Modellen volgen positieve instructies beter.
Tools en frameworks voor prompt engineering
Professionele prompt engineering werkt met meer dan alleen browser-based chat-interfaces. Een paar tools die je workflow verbeteren:
- LangChain / LlamaIndex: Frameworks voor het bouwen van LLM-apps met prompt-templates, tool-integratie en RAG.
- PromptPerfect / PromptLayer: Tools om prompts te versioneren, te testen en te vergelijken.
- OpenAI Playground / Anthropic Workbench: Developer-omgevingen om prompts te experimenteren zonder code.
- DSPy: Framework om prompts programmatisch te optimaliseren op basis van metrieken.
- Guidance / Outlines: Libraries voor structured output en conditional generation.
Voor teams is het belangrijk om prompts te documenteren en versioneren, net zoals code. Een centrale prompt library waar je beproefde prompts opslaat en hergebruikt, bespaart enorm veel tijd en verhoogt de consistentie.
Prompt engineering als dagelijkse vaardigheid
Prompt engineering is geen exotische vaardigheid maar een kerncompetentie voor het moderne werken met AI. De technieken zijn te leren, de impact is meetbaar, en de ROI voor teams is aanzienlijk. Wie investeert in prompt-training voor zijn medewerkers, haalt significant meer waarde uit dezelfde AI-tools dan wie dat niet doet. Begin vandaag met een goede prompt-structuur, leer de vijf basistechnieken, en experimenteer met iteratieve verfijning.
Wil je je team trainen in prompt engineering? Bekijk ons aanbod bij CleverTech Academy en onze hands-on workshops voor training op maat. Om prompting in perspectief te plaatsen, helpt het om te snappen hoe een LLM werkt en welke rol generatieve AI in de bredere bedrijfsvoering speelt.
Opgesteld met AI-tools en gecontroleerd door het redactieteam van CleverTech — tech-leads met ervaring in AI, procesautomatisering en IT-consulting.
