AI Basis - De Stand
Zelflerende systemen die kunst maken, modellen die ziektes voorspellen, chatbots die vloeiend Nederlands praten. Kunstmatige intelligentie (AI) zit inmiddels in zoveel producten en diensten dat je er onbewust tientallen keren per dag mee te maken hebt. Maar wat gebeurt er eigenlijk onder de motorkap? En hoe ver zijn we in 2025 met de belofte en de risico’s van deze technologie?
AI Basis – De stand
Zelflerende systemen die kunst maken, modellen die ziektes voorspellen, chatbots die vloeiend Nederlands praten. Kunstmatige intelligentie (AI) zit inmiddels in zoveel producten en diensten dat je er onbewust tientallen keren per dag mee te maken hebt. Maar wat gebeurt er eigenlijk onder de motorkap? En hoe ver zijn we in 2025 met de belofte en de risico’s van deze technologie?
Wat we bedoelen met AI
AI is meer dan slimme automatisering. Waar traditionele software exact doet wat je erin programmeert, leert AI van data om zelf beslissingen te nemen. Zoals DataNorth het uitlegt: het gaat om computers die menselijke taken kunnen uitvoeren zoals leren, redeneren en problemen oplossen. Het fundament daarvan is machine learning, een methode waarbij systemen patronen ontdekken in grote hoeveelheden gegevens zonder dat je elk scenario vooraf hoeft in te bouwen. Machine learning kent meerdere smaken. Machine Learning Mastery onderscheidt supervised learning (leren van gelabelde voorbeelden, zoals foto’s van katten en honden), unsupervised learning (structuur vinden in ongelabelde data, bijvoorbeeld een set klantgegevens) en reinforcement learning, waarbij een AI leert door beloningen en straffen. Die laatste aanpak levert vaak verrassend creatieve oplossingen op.
Van neurale netwerken naar taalmodellen
Onder de motorkap van veel AI-toepassingen vind je neurale netwerken, een wiskundige nabootsing van hoe hersencellen samenwerken. Als je meerdere lagen van zulke netwerken stapelt, spreek je over deep learning (een vorm van unsupervised learning met meerlaagse (deep) neurale netwerken). Daarmee zijn doorbraken mogelijk in spraakherkenning, beeldanalyse en natuurlijke taalverwerking. Een recente loot aan de stam zijn de zogeheten large language models (LLM’s), zoals beschreven in de LLM-roadmap. Deze modellen zijn getraind op enorme hoeveelheden tekst en kunnen nieuwe zinnen genereren die vaak niet van menselijke teksten te onderscheiden zijn. Generative Pre-trained Transformer (GPT), Bidirectional Encoder Representations from Transformers (BERT) en Text-to-Text Transfer Transformer (T5) zijn bekende architecturen, elk met hun eigen sterktes. Fine-tuning (specifiek bijscholen van een reeds getraind AI-model op niche-data voor betere prestaties in een specifiek domein) en technieken als retrieval-augmented generation (een methode waarbij een AI tijdens het antwoorden extra informatie ophaalt uit een betrouwbare databron) maken ze steeds beter toepasbaar in specifieke domeinen.
Generatief versus analytisch denken
Niet alle AI is hetzelfde. Cognitive World maakt een helder onderscheid: analytische AI analyseert data en doet voorspellingen, terwijl generatieve AI nieuwe content creëert. Het ene model vertelt je welk product waarschijnlijk uitverkocht raakt, het andere schrijft de productbeschrijving erbij. Praktische voorbeelden vind je in het overzicht van DoIT Software: ChatGPT voor tekst, Midjourney voor beelden, Qlik voor data-analyse. De markt groeit hard aan beide kanten, en in veel toepassingen vullen deze vormen elkaar juist aan. Wie dat slim combineert, krijgt systemen die niet alleen begrijpen wat er gebeurt, maar ook voorstellen doen voor wat je vervolgens kunt maken of schrijven.
Hoe AI leert en beslist
AI-systemen leren door miljoenen voorbeelden te verwerken, patronen te herkennen en hun interne parameters telkens bij te stellen. In feite is het een feedbacklus: invoer, voorspelling, vergelijking met de werkelijkheid en bijsturen. Net als een leerling die fouten maakt, feedback krijgt en het de volgende keer beter doet. Maar, zoals CTO Magazine benadrukt: slechte data betekent slechte beslissingen. Het klassieke “garbage in, garbage out” blijft onverminderd van kracht. Datakwaliteit bepaalt direct hoe eerlijk, accuraat en bruikbaar een AI-systeem is. Wie zijn modellen voedt met scheve of rommelige gegevens, bouwt een kaartenhuis dat bij de eerste windvlaag omvalt.
De tools van nu
Wie vandaag met AI wil werken, kan kiezen uit een groeiend arsenaal. Appvizer vergelijkt drie veelgebruikte platforms: ChatGPT, Gemini en Microsoft Copilot. ChatGPT heeft een groot plugin-ecosysteem (systeem waarbij externe ontwikkelaars hun plugins vast kunnen koppelen aan een platform of chatbot), Gemini blinkt uit in verwerking van meerdere soorten data tegelijk (bijvoorbeeld tekst, beeld en geluid), en Copilot is sterk geïntegreerd in bedrijfssoftware. In Nederland is ChatGPT veruit de populairste, zo blijkt uit Emerce. Handig, maar de keuze voor een tool blijft contextafhankelijk: wat heb je precies nodig, en hoe past het in je bestaande werkwijze?
Wat we al zien in de praktijk
AI wordt ingezet in ziekenhuizen om ziektes eerder te detecteren, in fabrieken om onderhoud te voorspellen en in retail voor persoonlijke aanbevelingen. The Intellify laat zien hoe breed het speelveld is: van adaptief leren in het onderwijs tot het versnellen van juridisch werk bij banken. En soms merk je het pas als het er niet is. Denk aan navigatie-apps die zonder verkeersdata minder betrouwbaar zijn, of zoekmachines die zonder AI minder relevant zouden aanvoelen. Wie eenmaal aan die onzichtbare assistent gewend is, mist hem zodra hij uitstaat.
Wat AI oplevert
AI belooft efficiency, snelheid en schaal. Modellen kunnen patronen ontdekken die voor mensen onzichtbaar blijven, taken automatiseren die voorheen uren kostten en nieuwe diensten mogelijk maken. Bedrijven die vroeg instappen, profiteren volgens DataNorth van een blijvend concurrentievoordeel. De keerzijde is dat voordeel niet vanzelf komt: processen moeten worden aangepast, teams getraind en governance ingericht. Anders blijft het bij losse experimenten die de dagelijkse praktijk niet bereiken.
Risico’s en dilemma’s
Er zijn ook schaduwkanten. DataGuard signaleert een toename van privacy-incidenten, waaronder datalekken en ongeautoriseerd gebruik van biometrische gegevens (unieke biologische kenmerken van een persoon, zoals vingerafdrukken of gezichtskenmerken). De toeslagenaffaire, beschreven door CIPP Training, liet zien hoe schadelijk algoritmische vooringenomenheid kan zijn. Qualys pleit daarom voor privacy-by-design (privacy wordt vanaf begin in de ontwikkeling van een product geïntegreerd), rolgebaseerde toegangscontrole (toegangsrechten tot systemen basis van de functie die een gebruiker binnen een organisatie heeft) en systematische controles om bias (vooroordeel) op te sporen en te verminderen. Zonder zulke waarborgen kan AI maatschappelijke schade veroorzaken die lastig te herstellen is. De vraag is dus niet alleen wat de technologie kan, maar ook wie controleert of ze fair, veilig en uitlegbaar blijft.
Vooruitblik en de Nederlandse context
Volgens Microsoft staan we aan de vooravond van breed gebruikte autonome AI-assistenten die zelfstandig plannen en taken uitvoeren, AI-systemen die meerdere soorten informatie tegelijk verwerken en toepassingen die direct op apparaten draaien zonder internetverbinding. Ook doorbraken in kwantumcomputers (computers die rekenen met quantummechanica in plaats van klassieke bits) en technieken waarbij modellen leren zonder dat data centraal worden opgeslagen, kunnen de rekenkracht en privacy verbeteren. Maar voorspellingen over de lange termijn blijven onzeker; niemand weet precies wanneer we richting kunstmatige algemene intelligentie gaan. Nederland loopt intussen voorop in adoptie: 95 procent van de bedrijven gebruikt al AI, blijkt uit Holland High Tech. De investering van 200 miljoen euro in een AI-fabriek in Groningen onderstreept de ambitie dat Nederland een sleutelspeler wil worden in de Europese AI-sector. Tegelijkertijd voert de Autoriteit Persoonsgegevens de nieuwe AI-verordening in, met strengere eisen aan transparantie en risicobeheer. AI ontwikkelt zich hier dus in hoog tempo, maar binnen een steeds strakker regelgevend kader.
De vraag is niet langer óf AI je werk en dagelijks leven gaat beïnvloeden, maar hóe en onder welke voorwaarden. De volgende stap ligt bij ons: gaan we deze technologie vormgeven op een manier die haar beloftes waarmaakt zonder de risico’s te negeren?
AI op hol?
De meeste discussies over kunstmatige intelligentie gaan over productiviteit, veiligheid of ethiek. Maar soms laat AI zich van een totaal andere kant zien: als grappenmaker, nachtelijke sollicitant of, per ongeluk, als scheldende automaat. Drie recente verhalen laten zien hoe kunstmatige intelligentie niet alleen onze efficiëntie, maar ook onze interacties en cultuur onverwachts beïnvloedt.
De meeste discussies over kunstmatige intelligentie gaan over productiviteit, veiligheid of ethiek. Maar soms laat AI zich van een totaal andere kant zien: als grappenmaker, nachtelijke sollicitant of, per ongeluk, als scheldende automaat. Drie recente verhalen laten zien hoe kunstmatige intelligentie niet alleen onze efficiëntie, maar ook onze interacties en cultuur onverwachts beïnvloedt.
Grappen schrijven op het niveau van Letterman
Joe Toplyn heeft een cv dat leest als een ode aan de late-nightcomedy: decennialang schreef hij grappen voor David Letterman en Jay Leno, analyseerde honderden mopstructuren en gaf cursussen over het vak. Toen de nieuwste generatie taalmodellen hun intrede deed, stelde hij zichzelf een vraag: kan een AI leren om op hetzelfde niveau grappen te maken als een mens?
Het antwoord testte hij met Witscript, zijn eigen webapp die voor een paar dollar per maand nieuwsberichten en afbeeldingen omzet in punchlines, woordspelingen en onderschriften. Om de kwaliteit te meten, organiseerde hij een ‘laugh-off’ met een livepubliek in North Hollywood. Comedian Mike Perkins bracht de grappen, de helft door Toplyn geschreven, de andere helft door Witscript. Een neurowetenschapper en Toplyn maten de lengte en intensiteit van het gelach. Het resultaat: geen significant verschil tussen mens en machine.
Dat is opmerkelijk, omdat humor lang gold als een van de laatste bastions van menselijk vernuft. Toch plaatsen experts kanttekeningen. Sarcasme, zwarte humor en sociale finesse blijven lastig voor een model dat geen lichaamstaal leest en geen impliciete sociale codes voelt. Zoals computational linguist Christian Hempelmann het stelt: een AI kan een punchline bedenken, maar begrijpt niet automatisch wanneer humor troost biedt, spanning doorbreekt of iemand subtiel op zijn plaats zet.
Toch ziet Toplyn kansen. In een wereld met toenemende eenzaamheid zouden virtuele assistenten en robots die een paar goede grappen paraat hebben, interacties menselijker kunnen maken. “Het soort grap dat een vriend in een gesprek zou maken,” zegt hij.
Slapen terwijl je solliciteert
Humor mag dan een onverwachte AI-toepassing zijn, productiviteit is dat allerminst. Maar de manier waarop één man het inzette om werk te vinden, tart de grenzen van het conventionele. Met een zelfgebouwde sollicitatiebot diende hij 1.000 sollicitaties in terwijl hij sliep. Binnen een maand leverde dat vijftig uitnodigingen voor gesprekken op.
De bot analyseerde zijn gegevens, matchte ze met vacatureteksten, schreef op maat gemaakte cv’s en motivatiebrieven, en vulde zelfs vragenlijsten in. Het voordeel? Mens én algoritme aan de andere kant zagen een perfect aansluitend profiel, zonder dat hij zelf uren moest typen.
Toch zag hij ook de keerzijde. Automatisering kan de menselijke toets in het sollicitatieproces verder verdringen. Als selectie grotendeels door AI wordt gedaan en kandidaten zich ook door AI laten vertegenwoordigen, wordt het gesprek tussen twee mensen mogelijk vervangen door een dialoog tussen twee scripts. Hij noemt het “een paradox: terwijl we de selectie optimaliseren, verliezen we misschien het menselijke element dat op de werkvloer vaak het verschil maakt.”
De reacties online liepen uiteen: lof voor de efficiëntie, zorgen over eerlijkheid en authenticiteit. Maar dat deze aanpak werkt, staat vast. Daarmee rijst de vraag: wanneer wordt dit de norm en wat betekent dat voor mensen die nog ‘met de hand’ solliciteren?
Wanneer Apple’s AI je uitscheldt
Niet alle AI-verhalen eindigen in succes. Soms wordt de technologie een bron van onbedoeld komisch, of gênant, effect. Louise Littlejohn uit het Schotse Dunfermline kan daarover meepraten. Zij ontving een keurige voicemail van haar autodealer, die door Apple’s voicemailtranscriptieservice werd omgezet in een tekstbericht. In plaats van een uitnodiging voor een evenement, las ze dat men wilde weten of ze “al seks had gehad” en haar vervolgens een “stuk” noemde.
De werkelijkheid was minder schokkend. De verkoper had het over een datum, de zesde van maart, maar dat werd door de spraak-naar-tekstfunctie opgepikt als “sex”. De rest van de zin raakte even ontspoord door achtergrondgeluid en de intonatie van de verkoper alsof hij een script las. Toch bleef het opmerkelijk dat het systeem zulke grove taal zonder waarschuwing in een bericht zette.
Volgens een hoogleraar spraaktechnologie aan de Universiteit van Edinburgh speelde de Schotse tongval mogelijk een rol, maar waren achtergrondruis en de telefoonlijn belangrijkere factoren. In ideale omstandigheden, zegt hij, zijn accentproblemen grotendeels verleden tijd. Toch blijft de vraag: waarom ontbreken er filters die zulke inhoud afvangen?
Het is niet de eerste keer dat Apple’s taaltools ongewenst nieuws halen. Onlangs moesten ze ook een bug verhelpen waarbij het woord ‘racist’ in sommige gevallen automatisch werd omgezet naar “Trump”.
Het voorval met Littlejohn, laat zien hoe dun de scheidslijn kan zijn tussen een handige feature en een gênant moment. Voor bedrijven die AI inzetten in klantcontact is dat een serieuze les: technologie kan misverstanden uitlokken die schadelijker zijn dan een gemiste kans.
Meer dan anekdotes
Op het eerste gezicht lijken deze drie verhalen losstaande curiositeiten. Maar samen vertellen ze iets over de staat van AI. Ze laten zien dat de technologie niet alleen sneller en slimmer wordt, maar ook steeds vaker binnendringt in alledaagse en onverwachte domeinen, van entertainment en werk tot de alledaagse communicatie op onze telefoons.
Ze roepen ook dezelfde kernvragen op: hoe ver laten we automatisering gaan? Moet een sollicitatie een menselijke inspanning blijven? Hoe zorgen we dat humor in digitale interacties geen plat kunstje wordt? En waar trekken we de grens bij fouten die voortkomen uit technische beperkingen?
In alle drie de gevallen speelt menselijke interpretatie een doorslaggevende rol. Toplyn gebruikt zijn ervaring om AI grappiger te maken. De sollicitant ziet zijn bot als gereedschap, maar niet als vervanger voor het gesprek zelf. En bij de mislukte voicemailtranscriptie is het nog altijd de ontvanger die moet bepalen of een bericht serieus of grappig bedoeld is.
Chatgpt heeft geheugen van een goudvis
Je bent middenin een belangrijk gesprek met ChatGPT over een complex project. Plots lijkt de AI-chatbot alles te zijn vergeten wat jullie de afgelopen uren hebben besproken. Herkenbaar? Dan ben je niet de enige die worstelt met een van de meest frustrerende eigenschappen van moderne AI-chatbots: hun geheugen is korter dan dat van een goudvis.
Je bent middenin een belangrijk gesprek met ChatGPT over een complex project. Plots lijkt de AI-chatbot alles te zijn vergeten wat jullie de afgelopen uren hebben besproken. Herkenbaar? Dan ben je niet de enige die worstelt met een van de meest frustrerende eigenschappen van moderne AI-chatbots: hun geheugen is korter dan dat van een goudvis.
De vergeetachtige assistent die alles weet
AI-chatbots hebben een paradoxaal probleem. Ze beschikken over enorme hoeveelheden kennis uit hun training, maar kunnen vaak niet eens onthouden wat je vijf minuten geleden tegen ze zei. De oorzaak ligt in wat techneuten een 'contextvenster' noemen, de beperkte hoeveelheid informatie die een chatbot tegelijk kan 'zien' en gebruiken.
"Het is alsof je een gesprek voert met iemand die een oneindige jetlag heeft," beschrijft BotStacks het probleem kernachtig. Een treffende vergelijking: stel je voor dat je college-aantekeningen steeds worden weggegomd zodra je bladzijde vol is.
Deze contextvensters variëren van zo'n 4.000 tokens (ongeveer 3.000 woorden) bij oudere modellen tot 200.000 tokens bij nieuwere systemen. Dat klinkt veel, maar in een uitgebreid gesprek over bijvoorbeeld een onderzoeksproject of code-review is die ruimte snel vol.
Wanneer vergeten pijnlijk wordt
De frustraties zijn herkenbaar en divers. Op OpenAI's community-forum delen gebruikers hun irritaties: "ChatGPT heeft ineens alle context van mijn hele gesprek verloren. Nu geeft het vreemde antwoorden die helemaal losstaan van wat we bespraken". Een andere gebruiker beschrijft hoe zijn zakelijke AI-chatbot ineens niet meer wist waar ze het over hadden: "Mijn bedrijf is voor een deel afhankelijk van ChatGPT. Dit zorgt voor professionele onbetrouwbaarheid".
⚠️ Vooral bij complexe taken wordt contextverlies problematisch: tijdens het debuggen van code, bij het redigeren van lange documenten, of wanneer je een chatbot instrueert met specifieke bedrijfsregels die later worden 'vergeten'.
Onderzoek van Bohrium naar gebruikersfrustraties toont vier hoofdoorzaken van teleurstelling bij chatbots: slecht begrip van de semantiek, gebrek aan personalisatie, te weinig menselijkheid, en incompetentie. Contextverlies versterkt elk van deze problemen.
Nederlandse ervaring
Nederlandse consumenten zijn bijzonder kritisch over AI-chatbots. Uit onderzoek van Emerce blijkt dat 61% van de Nederlanders vindt dat het slecht herkennen van emoties meer een karaktertrek van AI is dan van mensen. Patrick Meutzner van Trengo observeert: "Chatbots kunnen simpele vragen beantwoorden, maar kunnen het menselijk contact niet vervangen".
De cijfers spreken boekdelen: 64% van de Nederlandse consumenten heeft geen positieve associatie met chatbots, en 65% bestelt liever bij webwinkels met menselijke klantenservice. Het contextverlies draagt direct bij aan deze negatieve perceptie.
💡 Opvallend: Nederlanders versimpelen hun vragen als ze met een chatbot praten, omdat ze weten dat complexe context vaak verloren gaat.
Creatieve oplossingen van gebruikers
Gebruikers hebben zelf slimme workarounds (noodoplossingen) ontwikkeld. Een populaire methode is het regelmatig samenvatten van gesprekken: "Schrijf een coherente, onafhankelijke samenvatting van het hele gesprek en voeg 'laten we doorgaan' toe". Dit reset de context effectief.
Technische doorbraken in aantocht
Wetenschappers werken koortsachtig aan oplossingen. MIT-onderzoekers ontwikkelden 'StreamingLLM', een systeem dat de eerste vier tokens van een gesprek altijd behoudt — vergelijk het met het vastzetten van je belangrijkste notities. Hierdoor presteren chatbots net zo goed na 4 miljoen woorden als aan het begin van een gesprek. OpenAI test een methode om ChatGPT's langetermijngeheugen te verbeteren, zodat gebruikers gesprekken kunnen voortzetten en een werkrelatie opbouwen. Gebruikers kunnen verzoeken om specifieke informatie te onthouden, en deze herinneringen blijven bewaard tenzij de gebruiker ze weer verwijdert.
Meta werkt aan een slim 'flashcard-systeem' voor AI-chatbots, waarin belangrijke feiten snel terug te vinden zijn. Google pakt het anders aan: hun Titan-model werkt net als het menselijk geheugen, met een kortetermijngeheugen voor actieve gesprekken, een langetermijngeheugen voor basiskennis en een vast geheugen voor geleerde vaardigheden. Beide systemen moeten chatbots helpen informatie beter te onthouden en te gebruiken
Soms is vergeten ook een voordeel
Niet alle contextverlies is negatief. Stefan Bauschard wijst erop dat een 'schone lei' handig kan zijn bij het starten van nieuwe onderwerpen. Privacy-bewuste gebruikers waarderen dat gevoelige informatie niet permanent wordt opgeslagen. Sommige gebruikers schakelen bewust tussen chatbots met en zonder geheugen: "Mogelijk kies ik ervoor om bij ChatGPT wel gesprekken te laten onthouden, en bij Claude niet. Zodat ik kan vergelijken".
De toekomst van AI-geheugen
De race om AI-geheugen te verbeteren gaat verder dan alleen grotere contextvensters. Het gaat om slimmere, meer mensachtige geheugenvormen. Bedrijven zoals Botstacks investeren in 'smart context management' — systemen die automatisch bepalen wat belangrijk is om te onthouden.
Blijft de vraag: willen we werkelijk AI-chatbots die alles onthouden? Of is een beetje vergeetachtigheid soms juist menselijk en daarom vertrouwd?