Prompt engineering is dood. Lang leve context engineering.

Vorige week las ik een analyse van Neo4j over de verschuiving van prompt engineering naar context engineering. De conclusie was helder: prompt engineering focust op eenmalige instructies, context engineering op de informatie-architectuur voor doorlopende interacties. En dat tweede is waar de industrie naartoe beweegt.

Het raakte een snaar, want ik zie dit dagelijks in de praktijk. Organisaties die investeren in betere prompts terwijl het echte probleem structureel is. Het model vergeet context, hallucineert informatie, en maakt vandaag dezelfde fouten als vorige maand. Dat fenomeen heet context rot — en geen prompt ter wereld lost het op.

Dit artikel gaat over waarom die verschuiving van prompt naar context engineering niet optioneel is. En wat het concreet betekent als je AI-systemen bouwt die in productie moeten draaien.

Wat is het verschil?

Het verschil is fundamenteel, maar simpel uit te leggen.

Prompt engineering draait om wat je tegen het model zegt. Je schrijft een instructie, voegt voorbeelden toe, kiest de juiste toon. Het is de kunst van de vraag.

Context engineering draait om wat het model weet op het moment dat je iets vraagt. Welke documenten heeft het gelezen? Welke eerdere gesprekken kent het? Welke tools kan het gebruiken? Welke regels moet het volgen?

Een prompt is één instructie. Context is het complete informatiesysteem dat bepaalt of die instructie werkt.

Of zoals Andrej Karpathy het formuleerde: het taalmodel is de CPU, het contextvenster is het werkgeheugen. Jij als engineer bent het besturingssysteem — je bepaalt welke informatie in dat werkgeheugen past en wanneer. Prompt engineering optimaliseert één instructie. Context engineering ontwerpt het hele werkgeheugen.

Anthropic beschrijft het in hun engineering blog als "de set van strategieën om de optimale verzameling tokens te cureren en onderhouden tijdens LLM-inferentie." Technisch, maar de kern is simpel: het gaat niet om wat je vraagt, maar om wat het model weet als je het vraagt.

Waarom prompts alleen niet schalen

Stel je voor: je bouwt een AI-systeem voor een huisartsenpraktijk. Je schrijft een uitstekende prompt — duidelijke instructies, medische richtlijnen, de juiste toon voor patiënten. In je test werkt het perfect.

Dan gaat het live. En dan:

Het systeem vergeet wat de patiënt drie berichten geleden vertelde over medicijngebruik. Het geeft informatie die vorige maand klopte maar na een richtlijnwijziging niet meer. Het probeert een vraag te beantwoorden die het echt aan een arts zou moeten overlaten. En als je de prompt aanpast voor het ene probleem, ontstaat er een ander.

Dit is geen promptprobleem. Dit is een contextprobleem. Je model mist het systeem dat ervoor zorgt dat het op het juiste moment de juiste informatie heeft.

En de cijfers bevestigen dat. MIT's State of AI in Business rapport (2025) laat zien dat 95% van generatieve AI-pilots geen meetbare impact levert op de P&L. Niet door slechte modellen. Niet door slechte prompts. Maar doordat de systemen om het model heen ontbreken — context, feedback, en governance.

De vier pijlers van context engineering

Context engineering is geen buzzword — het is een concrete set van bouwblokken die samen bepalen of je AI-systeem betrouwbaar functioneert.

1. Kennismanagement

Welke informatie heeft je model nodig, en hoe krijgt het die? RAG-systemen (Retrieval-Augmented Generation) zijn hier het bekendste voorbeeld: in plaats van alles in één prompt te proppen, haal je precies de juiste informatie op uit een kennisbank op het moment dat het model het nodig heeft.

Maar kennismanagement gaat verder dan RAG. Het gaat ook om: welke informatie is verouderd? Hoe voorkom je dat het model bronnen gebruikt die niet meer kloppen? Hoe structureer je informatie zodat het model het efficiënt kan verwerken?

In de zorg is dit cruciaal. Nature Medicine publiceerde dit jaar een artikel over context engineering in de klinische praktijk dat vier typen context onderscheidt: datacontext (welke medische dossiers, biometrie en beeldvorming), taakcontext (wat het systeem wordt gevraagd), toolcontext (welke externe systemen het mag aanroepen), en normatieve context (behandeldoelen, patiëntwaarden, institutioneel beleid). Eén verkeerde of ontbrekende context en het systeem adviseert verkeerd — met potentieel ernstige gevolgen.

2. Geheugen en conversatiegeschiedenis

Een prompt is stateless — elk verzoek begint opnieuw. Context engineering voegt geheugen toe. Het model weet wat er eerder besproken is, welke keuzes zijn gemaakt, en wat de gebruiker eerder heeft gevraagd.

Dit klinkt eenvoudig, maar is technisch complex. Niet alle eerdere berichten zijn even relevant. Te veel context leidt tot context rot — het model verdrinkt in informatie en de kwaliteit daalt stilletjes, zonder dat je het merkt. Het model wordt niet onzeker, het wordt gewoon confident fout. Goede context engineering selecteert wat relevant is en laat de rest weg.

Ik heb dit ook zelf ervaren: mijn token usage reductiestrategie werkt niet door minder context te geven, maar door de juiste context op het juiste moment te laden. Progressive context loading noem ik dat — het verschil tussen een model dat alles tegelijk krijgt en een model dat precies krijgt wat het nodig heeft.

3. Tool-integratie

Moderne AI-systemen doen meer dan tekst genereren. Ze kunnen databases bevragen, API's aanroepen, berekeningen uitvoeren. Context engineering bepaalt welke tools beschikbaar zijn, wanneer ze worden ingezet, en hoe de resultaten terug het model in stromen.

Denk aan een juridisch AI-systeem dat contracten analyseert. Als dat systeem alleen een prompt krijgt met "analyseer dit contract", dan genereert het een plausibel klinkend antwoord op basis van trainingsdata. Maar als het via context injection toegang heeft tot de actuele jurisprudentie-database, de interne beleidsregels van het kantoor, én het specifieke dossier van de klant — dan levert het iets dat bruikbaar is.

Het verschil tussen een AI-demo en een productiesysteem zit niet in het model. Het zit in de tools en informatie die het model kan aanroepen.

4. Governance en quality gates

Dit is de pijler die de meeste organisaties overslaan — en het is de belangrijkste. Wie controleert de output voordat die naar de gebruiker gaat? Hoe weet je dat het model geen onzin vertelt? Hoe traceer je achteraf waarom het model een bepaald antwoord gaf?

Quality gates zijn controlepunten in het systeem die output valideren. Een tweede model dat factual accuracy checkt. Een regelgebaseerd filter dat gevoelige onderwerpen signaleert. Een confidence score die bepaalt wanneer een mens moet ingrijpen.

Zonder governance is je AI-systeem een ongecontroleerde medewerker. En hoe slimmer die medewerker is, hoe gevaarlijker dat wordt. Zonder transparante audit trail kun je achteraf niet reconstrueren waarom het systeem een bepaalde beslissing nam. In sectoren als zorg, financiële dienstverlening en juridisch advies is dat niet alleen een risico — het is een compliance-probleem.

En als meerdere AI-agents samenwerken zonder governance, ontstaat wat ik de cascade of doom noem: hallucinaties die van de ene agent naar de andere stromen en steeds overtuigender worden. Context engineering voorkomt dit door elke stap te valideren voordat de volgende begint.

Prompt engineering is niet dood — maar het is een onderdeel geworden

Laat me nuanceren: prompts doen er nog steeds toe. Een goed geschreven systeemprompt is essentieel. De kunst van heldere instructies verdwijnt niet.

Maar prompt engineering is een onderdeel geworden van iets groters. Het is één laag in een systeem met meerdere lagen. En organisaties die alleen op die ene laag focussen, bouwen op drijfzand.

De vergelijking die ik vaak gebruik: prompt engineering is als een uitstekende chauffeur. Context engineering is de auto, de weg, het verkeerssysteem en de navigatie bij elkaar. Je hebt een goede chauffeur nodig, maar zonder de rest kom je nergens.

Wat dit betekent voor jouw organisatie

Als je nu een AI-systeem bouwt of verbetert, stel jezelf dan deze vragen:

Heeft je model toegang tot actuele informatie? Als het alleen werkt met wat er in de prompt staat, mis je de kennismanagement-laag.

Onthoudt je systeem eerdere interacties? Als elke conversatie opnieuw begint zonder context, mis je de geheugenlaag.

Kan je model acties uitvoeren? Als het alleen tekst genereert maar geen data kan opvragen of tools kan gebruiken, mis je de integratie-laag.

Is er controle op de output? Als het antwoord van het model rechtstreeks naar de eindgebruiker gaat zonder validatie, mis je de governance-laag.

Elke ontbrekende laag is een potentiële bron van fouten, frustratie en risico. Vooral in sectoren waar betrouwbaarheid niet onderhandelbaar is — zorg, financiële dienstverlening, juridisch advies — is het verschil tussen prompt engineering en context engineering het verschil tussen een demo en een productiesysteem.

De verschuiving is al gaande

Gartner beschrijft context engineering als "het ontwerpen en structureren van relevante data, workflows en omgeving zodat AI-systemen intentie begrijpen en enterprise-aligned uitkomsten leveren." Ze adviseren organisaties om er een apart team of verantwoordelijke voor aan te stellen. Anthropic, LangChain en LlamaIndex hebben het tot kernonderdeel van hun platformen gemaakt. Tobi Lütke, CEO van Shopify, noemde het "de kunst van het leveren van alle context die nodig is om een taak oplosbaar te maken voor een model."

Dit is geen hype. Dit is de natuurlijke volwassenwording van AI-implementaties. De organisaties die dit nu begrijpen, bouwen systemen die over zes maanden nog steeds werken. De rest blijft prompts tweaken.

Begin bij het systeem

Mijn advies is simpel: stop niet met prompt engineering. Maar begin er ook niet mee.

Begin bij het systeem. Welke context heeft je model nodig? Hoe krijgt het die? Hoe controleer je de output? Hoe leert het systeem van fouten?

Als die fundamenten staan, dan — en pas dan — optimaliseer je de prompts. En dan zul je merken dat je er veel minder van nodig hebt dan je dacht. Niet omdat prompts er niet toe doen, maar omdat een goed systeem het zware werk al heeft gedaan.

Veelgestelde vragen

Bronnen

Vincent van Deth

AI Strategy & Architecture

Met jarenlange ervaring in marketingstrategie en AI-architectuur help ik bedrijven om hun groeipotentieel te maximaliseren met data-gedreven inzichten en AI-automatisering.

Mijn expertise ligt in het ontwerpen van AI-agent workflows, het strategisch inzetten van multi-agent systemen en het verbeteren van processen door schaalbare, auditeerbare oplossingen.

Of het nu gaat om het verfijnen van je AI-strategie, het selecteren van de juiste modellen of het implementeren van governance voor AI-gestuurde processen — ik bied maatwerkadvies dat leidt tot meetbare resultaten.

Reacties

Je e-mailadres wordt niet gepubliceerd. Reacties worden beoordeeld voor plaatsing.

Reacties laden...