Kees van Brink Kees van Brink

AI Dialoog - De Stand

Iedereen kan een vraag in een chatbot tikken, maar niet iedereen krijgt er een tekst uit die je zonder meer durft te publiceren of naar een klant stuurt. Het verschil zit zelden in magie en bijna altijd in de manier waarop je het gesprek met het model kadert. Wie expliciet is over doel, publiek en vorm, merkt dat de kwaliteit omhoogschiet en de variatie omlaag gaat. De stand van dit moment is daarom geen trucje, maar een werkmethode die je stap voor stap aanleert en vervolgens consequent herhaalt.

Iedereen kan een vraag in een chatbot tikken, maar niet iedereen krijgt er een tekst uit die je zonder meer durft te publiceren of naar een klant stuurt. Het verschil zit zelden in magie en bijna altijd in de manier waarop je het gesprek met het model kadert. Wie expliciet is over doel, publiek en vorm, merkt dat de kwaliteit omhoogschiet en de variatie omlaag gaat. De stand van dit moment is daarom geen trucje, maar een werkmethode die je stap voor stap aanleert en vervolgens consequent herhaalt.

 

Wat de officiële gidsen daadwerkelijk gemeen hebben

Een taalmodel presteert voorspelbaarder wanneer jij voorspelbaar bent in wat je vraagt. De kern valt samen te vatten in vier gewoontes: formuleer een doelzin, geef de benodigde context, definieer de vorm van het antwoord en stel grenzen aan wat het model wel en niet moet doen. Dat is niet mijn mening; het staat in heldere taal in de handleiding over prompttechnieken van OpenAI’s prompt engineering-gids en in het overzicht van strategieën bij Google Vertex AI over prompt-design. Wie die documenten naast elkaar legt, ziet hoe consistent ze zijn en juist dat maakt ze bruikbaar als leidraad in alledaagse projecten.

Die consistentie geldt ook voor het sturen van “gedrag”. Het werkt merkbaar beter als je het systeem een rol toekent en een kader neerzet: laat het model bijvoorbeeld optreden als eindredacteur voor kritische Nederlandstalige lezers, verbied aannames zonder bron, en spreek af dat het antwoord controleerbare claims bevat. Microsoft vat dat praktisch samen in de sectie met technieken voor prompten op Microsoft Learn over prompt engineering: licht het doel toe, splits complexe taken op en leg afspraken vast over de manier van antwoorden, zodat je het geheel kunt herhalen en verbeteren als een echt werkproces. Anthropic sluit daarop aan met een waarschuwing die vaak onderschat wordt: meer woorden zonder structuur helpen niet; maak je doel en format eerst scherp, dan pas uitbreiden. Zie het overzicht bij Anthropic’s pagina over prompt engineering.

 

Voorbeelden als hefboom voor stijl, toon en structuur

Een taalmodel is in de kern een patroonvolger. Wie daarom één of twee korte voorbeeldalinea’s meestuurt die stijl, toon en structuur laten zien, krijgt consistenter resultaat. In plaats van “schrijf iets goeds” laat je het model proeven hoe jouw kop, inleiding en overgangen klinken. De documentatie van OpenAI positioneert dit expliciet als few-shot of multi-shot; ook Google zet voorbeelden vooraan als strategie om variatie te temmen en de kans op bruikbare output te vergroten. Daardoor wordt iedere sessie een mini-lesje in stijlherkenning, iets waar je later tijd mee wint wanneer je in hetzelfde genre blijft publiceren. Zie OpenAI’s prompt engineering-gids en Google’s overzicht prompt-design-strategieën.

De les is ook buiten media bruikbaar. In het onderwijs werkt een beoordelingskader in de prompt, een rubric (beoordelingskader met vaste criteria), als een geleiderail: de feedback komt per criterium terug en is daardoor minder willekeurig. Een Nederlandse praktijkbeschrijving op SURF Communities over formatieve feedback met rubric laat zien dat docenten daarna steekproefsgewijs valideren. Het is geen vervanging van het oordeel, wel een versnelling van het voorbereidende werk.

 

Denkstappen en handelingen: wanneer redeneren helpt en wanneer juist niet

Niet elk onderwerp vraagt om een even lange gedachtegang. Voor taken met echte redenering is het zinvol het model stapsgewijs te laten denken. Chain-of-Thought (keten-van-denkstappen) is een techniek waarbij je korte tussenstappen laat formuleren; in onderzoek is aangetoond dat dit prestaties verbetert bij wiskundige of logische problemen. Het klassieke artikel hierover is te vinden in Chain-of-Thought Prompting op arXiv. Het is geen tovermiddel en je wilt het niet overal forceren; kies het wanneer de taak daar om vraagt.

Soms is denken alleen niet genoeg en moet het model ook een handeling doen. ReAct, een combinatie van redeneren en handelen, laat het model bijvoorbeeld kort nadenken, gericht zoeken en dan verder redeneren. In evaluaties zie je minder verzinsels bij feitelijke opdrachten. De methode is helder beschreven in ReAct: Reasoning and Acting op arXiv. In de praktijk betekent dit dat je niet standaard “denk hardop” vraagt, maar per taak kiest: stapjes zetten waar het helpt, handelen waar het moet, en anders gewoon to the point.

 

De Nederlandse laag: regels die je gesprek beter maken

Wie in Nederland met AI-dialoog werkt, krijgt er automatisch een laag bij: normen en randvoorwaarden die bepalen hoe je met gegevens en beslissingen omgaat. Dat is geen rem, maar een manier om je werk later te kunnen uitleggen. De toezichthouder beschrijft de kern als drie basisprincipes: dataminimalisatie (verwerk niet meer persoonsgegevens dan nodig), doelbinding (gebruik gegevens alleen voor het afgesproken doel) en transparantie (leg uit wat er met teksten en metadata gebeurt). De toelichting op die randvoorwaarden vind je op de site van de Autoriteit Persoonsgegevens over randvoorwaarden voor generatieve AI. Voor redacties en projectteams is de praktische les dat je in je instructies expliciet maakt wat je niet deelt en hoe je omgaat met materiaal dat wél naar het model gaat.

Die principes sluiten aan op beleid dat de inzet van AI binnen organisaties richting geeft. Een landelijke handreiking vertaalt algemene waarden naar concrete werkafspraken: regel governance, borg juridische kaders, leg een ethische toets vast en werk operationeel met mens-in-de-lus, logging en bronverantwoording. Het document is bedoeld om mee te werken, niet als vitrine; je kunt het naast je eigen proces leggen en meteen zien waar afspraken missen. Het staat op de pagina Overheidsbrede handreiking generatieve AI van de Rijksoverheid en sluit aan op de eerdere Overheidsbrede visie generatieve AI. Wie publiceert of beslissingen voorbereidt, heeft hiermee een kader om de dagelijkse AI-dialoog volwassen te maken.

 

Wat Nederlandse praktijkcases laten zien

Wie wil zien hoe afspraken op papier veranderen in gedrag, kan terecht bij een publieke pilot in Amsterdam. Honderdvijftig ambtenaren werkten vier weken met een generatieve chatbot; onderzoekers keken naar promptgedrag, feitelijkheid en de plekken waar vooroordelen het gesprek binnenslopen. Op basis daarvan volgden concrete maatregelen: broneisen expliciet maken, taken afbakenen en afspraken vastleggen in een teamdocument dat je periodiek evalueert. Het verslag is vrij te lezen via Open Research Amsterdam over de prompt-analyse-pilot en laat zien hoe algemene aanbevelingen landen in dagelijkse routines.

In het hoger onderwijs zie je een andere vertaling: als docenten hun rubric (beoordelingskader met criteria) in de instructie opnemen, wordt de feedback voorspelbaarder en minder willekeurig. De docent blijft eindverantwoordelijk en controleert steekproefsgewijs of het klopt; de winst zit in de snelheid en de helderheid van het gesprek over kwaliteit. De beschrijving staat op SURF Communities over formatieve feedback met rubric.

 

Zo breng je het vandaag in praktijk

Begin bij de kleinste eenheid: één duidelijke zin waarin staat voor wie je schrijft en wat de lezer straks moet kunnen. Schrijf daarna in gewone-mensentaal wat het model wel en niet moet doen, en wees precies over de vorm waarin je het terug wilt. Als je een bepaald artikel verwacht, noem dan het minimum en maximum voor de lengte van de tekst, de opbouw met kop, inleiding en tussenkoppen, en spreek af dat je alleen bij de eerste relevante vermelding linkt. De gids met principes van OpenAI’s prompt engineering-pagina en de patroonvoorbeelden bij Google Vertex AI prompt-design helpen om jezelf aan je eigen regels te houden.

 

Wordt het een puzzel, kies dan je instrument. Voor meerdelige redeneertaken werkt het vaak om korte denkstappen te vragen zoals in Chain-of-Thought op arXiv is beschreven; bij feitelijke vragen buiten het model is een ReAct-achtige stap logischer, zoals uitgewerkt in ReAct: Reasoning and Acting. In beide gevallen blijft de bedoeling hetzelfde: dwing structuur af zodat je de vinger aan de pols houdt en achteraf kunt uitleggen hoe het antwoord tot stand kwam.

 

Tot slot is er het organisatieperspectief. De handreiking over verantwoorde inzet van generatieve AI maakt governance en operatie concreet, en de visie plaatst het in een groter kader. Begin nuchter: altijd een doelzin, altijd een mini-voorbeeld en altijd een korte evaluatie achteraf. De winst is minder verrassingen en meer herhaalbaarheid, met teksten die je met minder ingrepen kunt publiceren. Zie Handreiking generatieve AI en Overheidsbrede visie generatieve AI.

Meer lezen