Een LLM (Large Language Model) is een AI-model getraind op miljarden stukjes tekst. Een complete introductie voor ondernemers en managers.
Foto: Mojahid Mottakin / Unsplash
Een LLM (Large Language Model) is een kunstmatig intelligent model getraind op miljarden stukjes tekst om natuurlijke taal te begrijpen en genereren. Voorbeelden zijn GPT-4, Claude, Gemini en Llama. LLMs vormen de basis van moderne AI-assistenten, chatbots en knowledge retrieval systemen in zakelijke toepassingen.
LLMs zijn de afgelopen jaren exponentieel krachtiger geworden. Wat in 2020 nog klonk als een aardige tekstgenerator, is vandaag een tool die juridische contracten analyseert, software schrijft en klantgesprekken voert op menselijk niveau. Voor ondernemers en managers is het belangrijk om LLMs op hoofdlijnen te begrijpen — niet om zelf een model te trainen, maar om slimme keuzes te maken over welk model waarvoor in te zetten. In dit artikel leggen we uit wat LLMs zijn, hoe ze werken, welke modellen er bestaan en hoe je ze verantwoord inzet in je organisatie. Lees ook onze generatieve AI uitleg voor de bredere context.
Een Large Language Model is een type neuraal netwerk dat getraind is om natuurlijke taal te voorspellen. De large verwijst naar de enorme omvang: moderne LLMs hebben tussen de 70 miljard en meerdere biljoenen parameters, en zijn getraind op honderden miljarden woorden aan tekst. Die schaal is geen gimmick. Vanaf een bepaalde grootte ontstaan emergent capabilities: vaardigheden die kleinere modellen simpelweg niet hebben, zoals complex redeneren, coderen en instructies volgen.
Functioneel doet een LLM een simpele taak: gegeven een reeks woorden (een prompt), voorspel wat het meest waarschijnlijke volgende woord is. Dat proces herhaalt zich per token tot het complete antwoord er staat. Dat klinkt beperkend, maar de kracht zit in de combinatie van schaal (biljarden patronen geleerd tijdens training) en context (het model onthoudt de hele conversatie tot op het context-venster).
Belangrijk om te begrijpen: LLMs zijn niet bewust, hebben geen begrip in de menselijke zin, en weten niet wat ze niet weten. Ze zijn statistische patroonherkenners, getraind op zoveel data dat ze zich gedragen alsof ze begrip hebben — met alle krachten en valkuilen van dien.
LLMs zijn gebouwd op de Transformer-architectuur, een doorbraak uit 2017 die de basis legde voor alle moderne taalmodellen. Drie principes zijn belangrijk om te begrijpen:
Tokenization: Tekst wordt opgesplitst in tokens (ongeveer vier karakters per token gemiddeld). Het woord automatisering is zo circa vier tokens. Je betaalt bij API-gebruik typisch per miljoen tokens.
Attention: Het model kijkt voor elk volgend woord naar alle eerdere tokens en beslist welke het meest relevant zijn. Dit attention mechanism is waarom LLMs lange contexten kunnen begrijpen — het weet nog wat je bovenaan je e-mail hebt geschreven als het onderaan antwoordt.
Context venster: Het maximum aantal tokens dat een model tegelijk kan verwerken. Moderne modellen gaan van 128.000 tokens (GPT-4) tot 1 miljoen+ tokens (Gemini, Claude). Dat is genoeg voor complete boeken of codebases.
Training gebeurt in twee fasen. Eerst pre-training: het model leest miljarden woorden internet-tekst en leert taalpatronen. Daarna fine-tuning met human feedback (RLHF): mensen beoordelen antwoorden en het model leert welke reacties gewenst zijn. De kwaliteit van fine-tuning bepaalt in grote mate hoe nuttig en veilig het model in de praktijk is.
Er zijn honderden LLMs, maar het marktaandeel wordt gedomineerd door een handvol spelers. Een overzicht van de belangrijkste:
| Model | Maker | Sterk in | Open source? | Prijs (per 1M tokens) |
|---|---|---|---|---|
| GPT-4o | OpenAI | Algemene intelligentie | Nee | 2.50-10 euro |
| Claude 3.5/4 | Anthropic | Lange context, coding, schrijven | Nee | 3-15 euro |
| Gemini 1.5/2 | Multimodaal, Google-stack | Nee | 1.25-5 euro | |
| Llama 3 | Meta | Self-hosted, fine-tuning | Ja (gedeeltelijk) | Infrastructuurkosten |
| Mistral | Mistral AI | EU-data, open weights | Ja | 0.50-6 euro |
| DeepSeek V3 | DeepSeek | Kostenefficiente reasoning | Ja | 0.27-1.10 euro |
De keuze tussen deze modellen hangt af van drie factoren: kosten (GPT en Claude zijn premium, Llama en DeepSeek goedkoop), privacy (open-source modellen kun je lokaal draaien, commerciele modellen vereisen vertrouwen in de provider), en taak (Claude is sterk in lange documenten, GPT in algemene chat, Gemini in Google-integratie). Voor een diepgaandere vergelijking zie onze ChatGPT vs Claude zakelijk gebruik vergelijking.
LLMs vormen de basis voor een groeiend aantal zakelijke toepassingen. De vijf meest voorkomende in 2026:
Chatbots en klantenservice: LLM-gedreven assistenten handelen routine-vragen af, escaleren complexe gevallen naar medewerkers en werken 24/7. Dankzij RAG (retrieval augmented generation) kunnen ze bovendien antwoorden geven op basis van je eigen productinformatie, FAQs en handleidingen.
Document-analyse: Juridische contracten, offertes of rapporten worden automatisch samengevat, risicopunten gemarkeerd en tegen een checklist gehouden. Werk dat voorheen uren kostte, in minuten.
Interne kennis-AI: Medewerkers stellen vragen aan een assistent die hun interne documentatie, handboeken en Slack-archieven kent. Onboarding versneld, kennis beter ontsloten.
Content-productie: Marketing-teams genereren first drafts van blogs, product-beschrijvingen, e-mails en social posts. Met menselijke review wordt de output snel bruikbaar, en de productie-capaciteit vermenigvuldigt.
Coding-assistentie: Ontwikkelaars gebruiken LLMs (via GitHub Copilot, Cursor, Claude Code) voor auto-completion, code-reviews, tests en documentatie. Productiviteit gaat met 30-50% omhoog voor routine-taken.
Een kernvraag bij LLM-adoptie: gebruik je een commerciele API (OpenAI, Anthropic, Google) of een open-source model dat je zelf host (Llama, Mistral, DeepSeek)? Elk heeft duidelijke voor- en nadelen.
Commerciele LLMs (API):
Open source LLMs (self-hosted):
Voor de meeste MKB-bedrijven is starten met commerciele API's praktischer. Grotere organisaties met strenge privacy-eisen of hoge volumes wegen zelf-hosten vaker af. Zie ons artikel Llama 3 self-hosted AI gids voor meer over deze afweging.
Een LLM is maar zo goed als je prompt. Drie principes voor betere resultaten:
Geef context: Leg uit wie het model is (Je bent een juridisch adviseur), wat de situatie is en wat het doel is. Hoe meer context, hoe relevanter de output.
Specificeer het format: Wil je een lijst? Een tabel? Een JSON-object? Zeg het expliciet. Modellen zijn goed in structuur, maar alleen als je erom vraagt.
Gebruik voorbeelden (few-shot): Als je een specifieke stijl of format wilt, geef er een of twee voorbeelden bij. Het model neemt dat patroon over.
Meer over effectief prompten lees je in ons artikel wat is prompt engineering.
LLMs zijn de motor achter de huidige AI-revolutie. Voor ondernemers is het belangrijk om de technologie op hoofdlijnen te begrijpen, slim te kiezen welke modellen waarvoor in te zetten, en realistische verwachtingen te hebben over wat ze wel en niet kunnen. LLMs zijn krachtig, maar geen magie — wie ze combineert met goede processen, data en menselijk toezicht, haalt er enorme waarde uit.
Wil je weten welke LLM het beste past bij jouw use case? Vraag een gratis [AI-scan](/gratis AI-scan) aan bij CleverTech voor een advies op maat voor jouw organisatie.
Ontdek verwante AI- en automatiseringsconcepten:
Voor een diepere duik, zie onze AI veiligheid complete gids.
Meer over AI & Automatisering

Waarom faalt AI transformatie bij 70% van de bedrijven? Ontdek de 7 grootste valkuilen en hoe u ze vermijdt. Praktische lessen uit 200+ AI-implementaties.

Hoe werken 200+ AI agents samen in een bedrijf? Ontdek wat AI agents zijn, wat ze kosten en hoe je zelf begint met agentic AI.

Bereken de ROI van procesautomatisering met vier concrete rekenvoorbeelden. Eerlijke cijfers over kosten, besparingen en terugverdientijd.
Ontdek hoe CleverTech jouw organisatie kan helpen met AI-implementatie en automatisering.
Sarah Chen is Lead AI Architect bij CleverTech met meer dan 10 jaar ervaring in het ontwerpen en implementeren van AI-systemen voor enterprise klanten. Ze is gespecialiseerd in AI-agents, machine learning architecturen en schaalbare AI-oplossingen. Sarah heeft een achtergrond in computerwetenschappen en heeft bij verschillende tech-bedrijven gewerkt voordat ze bij CleverTech kwam. Ze schrijft regelmatig over AI-transformatie en de praktische toepassing van AI-agents in bedrijfsomgevingen.
Ontvang wekelijks praktische inzichten over AI en automatisering in je inbox.
In een kort gesprek bespreken we jouw situatie en laten we zien welke processen het meeste opleveren als je ze automatiseert. Geen verplichtingen.
Gratis · vrijblijvend · reactie binnen 24 uur
Al 40+ bedrijven besparen tijd en kosten met onze oplossingen.