AI Basis - De Stand
Zelflerende systemen die kunst maken, modellen die ziektes voorspellen, chatbots die vloeiend Nederlands praten. Kunstmatige intelligentie (AI) zit inmiddels in zoveel producten en diensten dat je er onbewust tientallen keren per dag mee te maken hebt. Maar wat gebeurt er eigenlijk onder de motorkap? En hoe ver zijn we in 2025 met de belofte en de risico’s van deze technologie?
AI Basis – De stand
Zelflerende systemen die kunst maken, modellen die ziektes voorspellen, chatbots die vloeiend Nederlands praten. Kunstmatige intelligentie (AI) zit inmiddels in zoveel producten en diensten dat je er onbewust tientallen keren per dag mee te maken hebt. Maar wat gebeurt er eigenlijk onder de motorkap? En hoe ver zijn we in 2025 met de belofte en de risico’s van deze technologie?
Wat we bedoelen met AI
AI is meer dan slimme automatisering. Waar traditionele software exact doet wat je erin programmeert, leert AI van data om zelf beslissingen te nemen. Zoals DataNorth het uitlegt: het gaat om computers die menselijke taken kunnen uitvoeren zoals leren, redeneren en problemen oplossen. Het fundament daarvan is machine learning, een methode waarbij systemen patronen ontdekken in grote hoeveelheden gegevens zonder dat je elk scenario vooraf hoeft in te bouwen. Machine learning kent meerdere smaken. Machine Learning Mastery onderscheidt supervised learning (leren van gelabelde voorbeelden, zoals foto’s van katten en honden), unsupervised learning (structuur vinden in ongelabelde data, bijvoorbeeld een set klantgegevens) en reinforcement learning, waarbij een AI leert door beloningen en straffen. Die laatste aanpak levert vaak verrassend creatieve oplossingen op.
Van neurale netwerken naar taalmodellen
Onder de motorkap van veel AI-toepassingen vind je neurale netwerken, een wiskundige nabootsing van hoe hersencellen samenwerken. Als je meerdere lagen van zulke netwerken stapelt, spreek je over deep learning (een vorm van unsupervised learning met meerlaagse (deep) neurale netwerken). Daarmee zijn doorbraken mogelijk in spraakherkenning, beeldanalyse en natuurlijke taalverwerking. Een recente loot aan de stam zijn de zogeheten large language models (LLM’s), zoals beschreven in de LLM-roadmap. Deze modellen zijn getraind op enorme hoeveelheden tekst en kunnen nieuwe zinnen genereren die vaak niet van menselijke teksten te onderscheiden zijn. Generative Pre-trained Transformer (GPT), Bidirectional Encoder Representations from Transformers (BERT) en Text-to-Text Transfer Transformer (T5) zijn bekende architecturen, elk met hun eigen sterktes. Fine-tuning (specifiek bijscholen van een reeds getraind AI-model op niche-data voor betere prestaties in een specifiek domein) en technieken als retrieval-augmented generation (een methode waarbij een AI tijdens het antwoorden extra informatie ophaalt uit een betrouwbare databron) maken ze steeds beter toepasbaar in specifieke domeinen.
Generatief versus analytisch denken
Niet alle AI is hetzelfde. Cognitive World maakt een helder onderscheid: analytische AI analyseert data en doet voorspellingen, terwijl generatieve AI nieuwe content creëert. Het ene model vertelt je welk product waarschijnlijk uitverkocht raakt, het andere schrijft de productbeschrijving erbij. Praktische voorbeelden vind je in het overzicht van DoIT Software: ChatGPT voor tekst, Midjourney voor beelden, Qlik voor data-analyse. De markt groeit hard aan beide kanten, en in veel toepassingen vullen deze vormen elkaar juist aan. Wie dat slim combineert, krijgt systemen die niet alleen begrijpen wat er gebeurt, maar ook voorstellen doen voor wat je vervolgens kunt maken of schrijven.
Hoe AI leert en beslist
AI-systemen leren door miljoenen voorbeelden te verwerken, patronen te herkennen en hun interne parameters telkens bij te stellen. In feite is het een feedbacklus: invoer, voorspelling, vergelijking met de werkelijkheid en bijsturen. Net als een leerling die fouten maakt, feedback krijgt en het de volgende keer beter doet. Maar, zoals CTO Magazine benadrukt: slechte data betekent slechte beslissingen. Het klassieke “garbage in, garbage out” blijft onverminderd van kracht. Datakwaliteit bepaalt direct hoe eerlijk, accuraat en bruikbaar een AI-systeem is. Wie zijn modellen voedt met scheve of rommelige gegevens, bouwt een kaartenhuis dat bij de eerste windvlaag omvalt.
De tools van nu
Wie vandaag met AI wil werken, kan kiezen uit een groeiend arsenaal. Appvizer vergelijkt drie veelgebruikte platforms: ChatGPT, Gemini en Microsoft Copilot. ChatGPT heeft een groot plugin-ecosysteem (systeem waarbij externe ontwikkelaars hun plugins vast kunnen koppelen aan een platform of chatbot), Gemini blinkt uit in verwerking van meerdere soorten data tegelijk (bijvoorbeeld tekst, beeld en geluid), en Copilot is sterk geïntegreerd in bedrijfssoftware. In Nederland is ChatGPT veruit de populairste, zo blijkt uit Emerce. Handig, maar de keuze voor een tool blijft contextafhankelijk: wat heb je precies nodig, en hoe past het in je bestaande werkwijze?
Wat we al zien in de praktijk
AI wordt ingezet in ziekenhuizen om ziektes eerder te detecteren, in fabrieken om onderhoud te voorspellen en in retail voor persoonlijke aanbevelingen. The Intellify laat zien hoe breed het speelveld is: van adaptief leren in het onderwijs tot het versnellen van juridisch werk bij banken. En soms merk je het pas als het er niet is. Denk aan navigatie-apps die zonder verkeersdata minder betrouwbaar zijn, of zoekmachines die zonder AI minder relevant zouden aanvoelen. Wie eenmaal aan die onzichtbare assistent gewend is, mist hem zodra hij uitstaat.
Wat AI oplevert
AI belooft efficiency, snelheid en schaal. Modellen kunnen patronen ontdekken die voor mensen onzichtbaar blijven, taken automatiseren die voorheen uren kostten en nieuwe diensten mogelijk maken. Bedrijven die vroeg instappen, profiteren volgens DataNorth van een blijvend concurrentievoordeel. De keerzijde is dat voordeel niet vanzelf komt: processen moeten worden aangepast, teams getraind en governance ingericht. Anders blijft het bij losse experimenten die de dagelijkse praktijk niet bereiken.
Risico’s en dilemma’s
Er zijn ook schaduwkanten. DataGuard signaleert een toename van privacy-incidenten, waaronder datalekken en ongeautoriseerd gebruik van biometrische gegevens (unieke biologische kenmerken van een persoon, zoals vingerafdrukken of gezichtskenmerken). De toeslagenaffaire, beschreven door CIPP Training, liet zien hoe schadelijk algoritmische vooringenomenheid kan zijn. Qualys pleit daarom voor privacy-by-design (privacy wordt vanaf begin in de ontwikkeling van een product geïntegreerd), rolgebaseerde toegangscontrole (toegangsrechten tot systemen basis van de functie die een gebruiker binnen een organisatie heeft) en systematische controles om bias (vooroordeel) op te sporen en te verminderen. Zonder zulke waarborgen kan AI maatschappelijke schade veroorzaken die lastig te herstellen is. De vraag is dus niet alleen wat de technologie kan, maar ook wie controleert of ze fair, veilig en uitlegbaar blijft.
Vooruitblik en de Nederlandse context
Volgens Microsoft staan we aan de vooravond van breed gebruikte autonome AI-assistenten die zelfstandig plannen en taken uitvoeren, AI-systemen die meerdere soorten informatie tegelijk verwerken en toepassingen die direct op apparaten draaien zonder internetverbinding. Ook doorbraken in kwantumcomputers (computers die rekenen met quantummechanica in plaats van klassieke bits) en technieken waarbij modellen leren zonder dat data centraal worden opgeslagen, kunnen de rekenkracht en privacy verbeteren. Maar voorspellingen over de lange termijn blijven onzeker; niemand weet precies wanneer we richting kunstmatige algemene intelligentie gaan. Nederland loopt intussen voorop in adoptie: 95 procent van de bedrijven gebruikt al AI, blijkt uit Holland High Tech. De investering van 200 miljoen euro in een AI-fabriek in Groningen onderstreept de ambitie dat Nederland een sleutelspeler wil worden in de Europese AI-sector. Tegelijkertijd voert de Autoriteit Persoonsgegevens de nieuwe AI-verordening in, met strengere eisen aan transparantie en risicobeheer. AI ontwikkelt zich hier dus in hoog tempo, maar binnen een steeds strakker regelgevend kader.
De vraag is niet langer óf AI je werk en dagelijks leven gaat beïnvloeden, maar hóe en onder welke voorwaarden. De volgende stap ligt bij ons: gaan we deze technologie vormgeven op een manier die haar beloftes waarmaakt zonder de risico’s te negeren?