Een LLM (Large Language Model) is een kunstmatig intelligent model getraind op miljarden stukjes tekst om natuurlijke taal te begrijpen en genereren. Voorbeelden zijn GPT-4, Claude, Gemini en Llama. LLMs vormen de basis van moderne AI-assistenten, chatbots en knowledge retrieval systemen in zakelijke toepassingen.
LLMs zijn de afgelopen jaren exponentieel krachtiger geworden. Wat in 2020 nog klonk als een aardige tekstgenerator, is vandaag een tool die juridische contracten analyseert, software schrijft en klantgesprekken voert op menselijk niveau. Voor ondernemers en managers is het belangrijk om LLMs op hoofdlijnen te begrijpen — niet om zelf een model te trainen, maar om slimme keuzes te maken over welk model waarvoor in te zetten. Lees ook onze generatieve AI uitleg voor de bredere context.
Wat is een LLM precies?
Een Large Language Model is een type neuraal netwerk dat getraind is om natuurlijke taal te voorspellen. De large verwijst naar de enorme omvang: moderne LLMs hebben tussen de 70 miljard en meerdere biljoenen parameters, en zijn getraind op honderden miljarden woorden aan tekst. Meta's open-weights Llama 3.1 405B werd bijvoorbeeld getraind op meer dan 15 biljoen tokens aan data — een schaal die bewust is gekozen om het gat met gesloten frontier-modellen te dichten. Die schaal is geen gimmick. Vanaf een bepaalde grootte ontstaan emergent capabilities, en onderzoek zoals de Chinchilla-studie van DeepMind laat zien dat modelgrootte en trainings-data compute-optimaal in balans moeten zijn om die capaciteiten daadwerkelijk te ontsluiten.
Functioneel doet een LLM een simpele taak: gegeven een reeks woorden (een prompt), voorspel wat het meest waarschijnlijke volgende woord is. Dat proces herhaalt zich per token tot het complete antwoord er staat. Moderne multimodale varianten zoals OpenAI's GPT-4o voeren deze voorspelling niet alleen op tekst uit, maar op audio- en beeld-tokens binnen één model — met een gemiddelde audio-responstijd van 232 milliseconden, vergelijkbaar met een menselijke gesprekspartner. Dat klinkt beperkend, maar de kracht zit in de combinatie van schaal (biljarden patronen geleerd tijdens training) en context (het model onthoudt de hele conversatie tot op het context-venster).
Belangrijk om te begrijpen: LLMs zijn niet bewust, hebben geen begrip in de menselijke zin, en weten niet wat ze niet weten. Ze zijn statistische patroonherkenners, getraind op zoveel data dat ze zich gedragen alsof ze begrip hebben — met alle krachten en valkuilen van dien.
Hoe werkt een LLM technisch?
LLMs zijn gebouwd op de Transformer-architectuur, geïntroduceerd door Vaswani et al. in het paper Attention Is All You Need (2017). Deze doorbraak legde de basis voor alle moderne taalmodellen, inclusief GPT, Claude en Gemini. Drie principes zijn belangrijk om te begrijpen:
-
Tokenization: Tekst wordt opgesplitst in
tokens(ongeveer vier karakters per token gemiddeld). Het woordautomatiseringis zo circa vier tokens. Je betaalt bij API-gebruik typisch per miljoen tokens. -
Attention: Het model kijkt voor elk volgend woord naar alle eerdere tokens en beslist welke het meest relevant zijn. Dit
attention mechanismis waarom LLMs lange contexten kunnen begrijpen — het weet nog wat je bovenaan je e-mail hebt geschreven als het onderaan antwoordt. -
Context venster: Het maximum aantal tokens dat een model tegelijk kan verwerken. Moderne modellen gaan van 128.000 tokens (het originele GPT-4-niveau) tot 1 miljoen tokens standaard en 2 miljoen in beta bij Google's Gemini 1.5 Pro. Dat is genoeg voor complete boeken of codebases.
Training gebeurt in twee fasen. Eerst pre-training: het model leest miljarden woorden internet-tekst en leert taalpatronen. De scaling laws van Kaplan et al. toonden aan dat prestaties van taalmodellen voorspelbaar verbeteren met model-grootte, dataset-grootte en compute-budget — een inzicht dat de "bigger is better"-race van de afgelopen jaren heeft gestuurd. Daarna volgt fine-tuning met human feedback (RLHF): mensen beoordelen antwoorden en het model leert welke reacties gewenst zijn. De kwaliteit van fine-tuning bepaalt in grote mate hoe nuttig en veilig het model in de praktijk is.
De top LLMs vergeleken
Er zijn honderden LLMs, maar het marktaandeel wordt gedomineerd door een handvol spelers. Anthropic's recent gelanceerde Claude 3.7 Sonnet introduceerde bijvoorbeeld "extended thinking", een modus waarin het model zichtbaar stapsgewijs redeneert voor complexere taken — een trend die je bij alle frontier-modellen ziet doorzetten. Een overzicht van de belangrijkste:
| Model | Maker | Sterk in | Open source? | Prijs (per 1M tokens) |
|---|---|---|---|---|
| GPT-4o | OpenAI | Algemene intelligentie | Nee | 2.50-10 euro |
| Claude 3.5/4 | Anthropic | Lange context, coding, schrijven | Nee | 3-15 euro |
| Gemini 1.5/2 | Multimodaal, Google-stack | Nee | 1.25-5 euro | |
| Llama 3 | Meta | Self-hosted, fine-tuning | Ja (gedeeltelijk) | Infrastructuurkosten |
| Mistral | Mistral AI | EU-data, open weights | Ja | 0.50-6 euro |
| DeepSeek V3 | DeepSeek | Kostenefficiente reasoning | Ja | 0.27-1.10 euro |
De keuze tussen deze modellen hangt af van drie factoren: kosten (GPT en Claude zijn premium, Llama en DeepSeek goedkoop — zie de Anthropic pricing-pagina voor actuele Claude-tarieven per miljoen tokens), privacy (open-source modellen kun je lokaal draaien, commerciele modellen vereisen vertrouwen in de provider), en taak (Claude is sterk in lange documenten, GPT in algemene chat, Gemini in Google-integratie). Objectieve benchmarks zoals MMLU-Pro, GPQA en HumanEval kun je vergelijken via het Hugging Face Open LLM Leaderboard v2 — handig als referentiepunt naast de marketing-claims van de vendors. Voor een diepgaandere vergelijking zie onze ChatGPT vs Claude zakelijk gebruik vergelijking.
Zakelijke toepassingen van LLMs
LLMs vormen de basis voor een groeiend aantal zakelijke toepassingen. De vijf meest voorkomende in 2026:
Chatbots en klantenservice: LLM-gedreven assistenten handelen routine-vragen af, escaleren complexe gevallen naar medewerkers en werken 24/7. Dankzij RAG (retrieval augmented generation) kunnen ze bovendien antwoorden geven op basis van je eigen productinformatie, FAQs en handleidingen.
Document-analyse: Juridische contracten, offertes of rapporten worden automatisch samengevat, risicopunten gemarkeerd en tegen een checklist gehouden. Werk dat voorheen uren kostte, in minuten.
Interne kennis-AI: Medewerkers stellen vragen aan een assistent die hun interne documentatie, handboeken en Slack-archieven kent. Onboarding versneld, kennis beter ontsloten.
Content-productie: Marketing-teams genereren first drafts van blogs, product-beschrijvingen, e-mails en social posts. Met menselijke review wordt de output snel bruikbaar, en de productie-capaciteit vermenigvuldigt.
Coding-assistentie: Ontwikkelaars gebruiken LLMs (via GitHub Copilot, Cursor, Claude Code) voor auto-completion, code-reviews, tests en documentatie. Productiviteit gaat met 30-50% omhoog voor routine-taken.
Open source vs commercial: wat kies je?
Een kernvraag bij LLM-adoptie: gebruik je een commerciele API (OpenAI, Anthropic, Google) of een open-source model dat je zelf host (Llama, Mistral, DeepSeek)? Elk heeft duidelijke voor- en nadelen.
Commerciele LLMs (API):
- Plus: state-of-the-art kwaliteit, geen infrastructuur, snelle updates
- Min: data verlaat je omgeving, pay-per-use kan oplopen, afhankelijkheid van provider
Open source LLMs (self-hosted):
- Plus: volledige controle over data, geen per-token kosten, fine-tuning mogelijk
- Min: aanzienlijke infrastructuur-kosten (GPUs), zelf onderhouden, iets lagere state-of-the-art
Voor de meeste MKB-bedrijven is starten met commerciele API's praktischer. Grotere organisaties met strenge privacy-eisen of hoge volumes wegen zelf-hosten vaker af. Zie ons artikel Llama 3 self-hosted AI gids voor meer over deze afweging.
Prompting basics
Een LLM is maar zo goed als je prompt. Drie principes voor betere resultaten:
-
Geef context: Leg uit wie het model is (
Je bent een juridisch adviseur), wat de situatie is en wat het doel is. Hoe meer context, hoe relevanter de output. -
Specificeer het format: Wil je een lijst? Een tabel? Een JSON-object? Zeg het expliciet. Modellen zijn goed in structuur, maar alleen als je erom vraagt.
-
Gebruik voorbeelden (few-shot): Als je een specifieke stijl of format wilt, geef er een of twee voorbeelden bij. Het model neemt dat patroon over.
Meer over effectief prompten lees je in ons artikel wat is prompt engineering.
Wat je moet onthouden
LLMs zijn de motor achter de huidige AI-revolutie. Voor ondernemers is het belangrijk om de technologie op hoofdlijnen te begrijpen, slim te kiezen welke modellen waarvoor in te zetten, en realistische verwachtingen te hebben over wat ze wel en niet kunnen. LLMs zijn krachtig, maar geen magie — wie ze combineert met goede processen, data en menselijk toezicht, haalt er enorme waarde uit.
Wil je weten welke LLM het beste past bij jouw use case? Ontdek welke oplossing past en ontvang een advies op maat voor jouw organisatie. Zie ook hoe generatieve AI als overkoepelend concept de zakelijke inzet van LLMs stuurt, en waarom procesautomatisering steeds vaker hand in hand gaat met taalmodellen.
Opgesteld met AI-tools en gecontroleerd door het redactieteam van CleverTech — tech-leads met ervaring in AI, procesautomatisering en IT-consulting.
