Kees van Brink Kees van Brink

Financien en Economie - De Stand

Artificiële intelligentie bepaalt al wie een lening krijgt en beantwoordt vragen in je bank-app. Deze stille revolutie belooft efficiëntie, maar roept fundamentele vragen op over controle, eerlijkheid en veiligheid. Hoe benut Nederland de kansen van AI zonder de grip op ons financiële systeem te verliezen?

Artificiële intelligentie bepaalt al wie een lening krijgt en beantwoordt vragen in je bank-app. Deze stille revolutie belooft efficiëntie, maar roept fundamentele vragen op over controle, eerlijkheid en veiligheid. Hoe benut Nederland de kansen van AI zonder de grip op ons financiële systeem te verliezen?

AI in de praktijk

De invloed van artificiële intelligentie (AI) op de financiële sector is een dagelijkse realiteit voor miljoenen Nederlanders. Grote banken hebben de experimentele fase verlaten en integreren AI nu diep in hun dienstverlening. Deze toepassingen variëren van zichtbare klantinteracties, zoals chatbots, tot cruciale processen op de achtergrond die de efficiëntie en commerciële slagkracht van de instellingen vergroten. Dit markeert een definitieve verschuiving in hoe banken opereren en met klanten omgaan.

De meest tastbare manifestatie van AI in het bankwezen is de opkomst van geavanceerde chatbots. ABN AMRO heeft zijn klantcontact fundamenteel opnieuw ingericht rondom de chatbots 'Anna' en 'Abby', die draaien op het Copilot Studio-platform van Microsoft. Deze systemen verwerken jaarlijks meer dan 3,5 miljoen conversaties en maken gebruik van conversational language understanding (CLU), een techniek om de intentie achter een vraag te herkennen. Dit leidt tot een hogere nauwkeurigheid, waardoor klanten effectiever zelf zaken regelen. Ook Rabobank zet vol in op wat het "conversational banking" noemt, met als doel een naadloze mix van menselijke en kunstmatige interactie.

 Achter de schermen wordt AI ingezet voor complexere, commerciële doelen. Rabobank implementeerde een AI-systeem dat data uit verschillende bronnen samenvoegt tot een uniform klantbeeld. De software signaleert wanneer een klant vastloopt in een aanvraag, waarop een medewerker proactief contact opneemt. Deze datagedreven aanpak stimuleert verkoop en wordt inmiddels voor meer dan 25 producten ingezet. Dit toont een dieper, strategisch gebruik van AI: het gaat niet alleen om service, maar om het proactief beïnvloeden van klantgedrag en financiële uitkomsten.

Banken kiezen eigen strategische weg

De strategieën voor AI-adoptie lopen binnen de Nederlandse bankensector uiteen. Terwijl ABN AMRO en Rabobank zwaar leunen op platformen van techgiganten als Microsoft, investeren ze tegelijkertijd in eigen kennis. Rabobank heeft intern een "GenAI Guild" opgericht, een team van experts dat eigen, schaalbare AI-oplossingen ontwikkelt, zoals systemen voor Retrieval-Augmented Generation (RAG), een methode die taalmodellen toegang geeft tot actuele, externe informatie. Deze wens om cruciale technologie in huis te ontwikkelen, beperkt de afhankelijkheid van externe leveranciers.

 

ING kiest daarentegen voor een uitgesproken "cloud-first" strategie via een diepgaand partnerschap met Google. Volgens de bank ligt de ware uitdaging niet in de techniek zelf, maar in de verantwoorde uitrol op grote schaal. Dit vereist een rigoureus risicobeheerproces waarin meer dan twintig verschillende risicotypes worden geëvalueerd voordat een systeem live gaat. Deze verschillende benaderingen illustreren een fundamentele spanning tussen snelle innovatie via Big Tech en de noodzaak om risico's te minimaliseren door eigen capaciteiten op te bouwen.

 Deze strategische keuzes hebben verstrekkende gevolgen, ook voor de toezichthouders die deze uiteenlopende modellen moeten beoordelen. Een audit van ING's gedeelde risicomodel met een externe techpartner vereist een andere aanpak dan de beoordeling van een volledig intern ontwikkeld systeem bij een andere bank. Dit vergroot de complexiteit van het toezicht in het AI-tijdperk aanzienlijk en vraagt om een flexibele, maar kritische houding van de controlerende instanties.

Toezichthouders stellen duidelijke kaders

De snelle integratie van AI is niet onopgemerkt gebleven bij De Nederlandsche Bank (DNB) en de Autoriteit Financiële Markten (AFM). In een gezamenlijk rapport over de impact van AI presenteren zij een eenduidige visie om te voorkomen dat er ruimte ontstaat voor 'regulatory arbitrage', waarbij instellingen de ene toezichthouder tegen de andere uitspelen. Het doel is helder: zorgen dat financiële instellingen de risico's adequaat beheersen, terwijl er ruimte blijft voor innovatie.

 De toezichthouders benadrukken dat alle bestaande wet- en regelgeving onverkort van toepassing blijft op AI-gedreven activiteiten. Bovendien zijn DNB en de AFM in Nederland aangewezen als de toezichthouders op de naleving van de Europese AI Act binnen de financiële sector. De voornaamste zorg betreft niet-financiële risico's, zoals reputatieschade, discriminatie en sociale uitsluiting door bevooroordeelde data of ondoorzichtige algoritmes. Het argument "het algoritme heeft het besloten" is geen geldige verdediging voor een onrechtvaardige uitkomst.

 Het risico op "algoritmische bias" staat hierbij centraal. Een AI-model dat getraind is op historische data kan onbewust bestaande maatschappelijke vooroordelen overnemen en versterken. Zelfs het gebruik van ogenschijnlijk neutrale data, zoals een woonadres, kan leiden tot indirecte discriminatie bij kredietverlening, wat verboden is zonder objectieve rechtvaardiging. DNB hanteert daarom principes voor verantwoorde AI, die zich richten op soliditeit, verantwoording, eerlijkheid en transparantie.

De zoektocht naar transparantie

De complexiteit van veel AI-modellen, vaak 'black boxes' genoemd, vormt een fundamentele uitdaging. Als een bank niet kan uitleggen waarom een model een bepaalde beslissing neemt, wordt het voor een toezichthouder onmogelijk om de soliditeit en eerlijkheid ervan te controleren. Deze spanning tussen de snelle implementatie van complexe technologie en de harde eis van transparantie creëert een "uitlegbaarheidskloof".

Om deze kloof te overbruggen, is in Nederland een unieke samenwerking ontstaan. De Hogeschool Utrecht leidt een groot onderzoeksproject naar "Uitlegbare AI", in nauwe samenwerking met DNB, de AFM en grootbanken. Het doel is het ontwikkelen van concrete raamwerken en tools om verschillende belanghebbenden – van klant tot toezichthouder – een passende uitleg te geven over de werking en uitkomsten van een AI-systeem.

 Deze proactieve, gezamenlijke aanpak toont aan dat de Nederlandse strategie niet alleen gericht is op handhaving, maar ook op het bouwen van de fundamenten die nodig zijn voor daadwerkelijke transparantie. Voor banken wordt het vermogen om hun modellen uitlegbaar te maken, ook wel Explainable AI (XAI) genoemd, een cruciale factor. Instellingen die hierin investeren, zullen niet alleen beter voldoen aan de eisen van de toezichthouder, maar ook een concurrentievoordeel behalen doordat ze sneller en met meer vertrouwen kunnen innoveren.

Productiviteitsgroei blijft voorlopig uit

Terwijl banken AI inzetten voor efficiëntiewinsten, wordt op nationaal niveau gekeken naar de bredere economische impact. De belofte van door AI aangedreven productiviteitsgroei is groot, maar analyses manen tot voorzichtigheid. Het AiNed-programma refereerde bijvoorbeeld aan een studie die de potentiële impact van AI op de Nederlandse economie schat op een bbp-groei van 1,6%. Het Centraal Planbureau (CPB) plaatste hier echter een belangrijke kanttekening bij.

In zijn analyse stelt het CPB dat dit cijfer het totale theoretische potentieel weerspiegelt, en niet de concrete, additionele impact die een specifiek voorstel zal genereren. De claim werd dan ook als een overschatting bestempeld. Deze kritische rol van het CPB is essentieel om te zorgen dat publieke investeringen gebaseerd zijn op realistische aannames en niet enkel op technologisch optimisme.

 Internationale analyses suggereren een moderne versie van de productiviteitsparadox: ondanks de snelle technologische vooruitgang is dit nog niet direct terug te zien in de macro-economische groeicijfers. Een invloedrijk paper van het Massachusetts Institute of Technology (MIT) concludeert dat de productiviteitswinst op middellange termijn weliswaar "niet-triviaal" maar "bescheiden" zal zijn. De efficiëntiewinsten bij individuele banken vertalen zich dus vooralsnog niet in een brede, economie-omvattende productiviteitsrevolutie, wat politieke en publieke verwachtingen kan temperen.

Systeemrisico’s vragen om overzicht

De implementatie van AI is onderdeel van een wereldwijde transformatie die ook nieuwe systeemrisico's met zich meebrengt. Internationale organen zoals de Financial Stability Board (FSB) analyseren de implicaties hiervan voor de stabiliteit van het hele financiële systeem. De risico's zijn niet traditioneel van aard, maar worden gedreven door de unieke eigenschappen van de technologie zelf, zoals de afhankelijkheid van een klein aantal externe techbedrijven.

Een van de voornaamste systeemrisico's is deze toenemende concentratie. Het feit dat de wereldwijde financiële sector voor cruciale infrastructuur, zoals clouddiensten en fundamentele AI-modellen, steeds meer leunt op een handvol Big Tech-bedrijven, creëert een potentieel single point of failure. Een storing bij een van deze giganten kan een schokgolf door het hele systeem sturen. Een gerelateerd risico is dat van verhoogde marktcorrelatie: als veel instellingen vergelijkbare AI-modellen gebruiken, kunnen ze identiek reageren op marktsignalen en zo kuddegedrag en extreme volatiliteit veroorzaken.

 Daarnaast is AI een tweesnijdend zwaard voor cyberveiligheid. Enerzijds biedt het krachtige instrumenten voor verdediging, anderzijds verlaagt het de drempel voor kwaadwillenden. Het FSB waarschuwt dat generatieve AI kan worden ingezet voor uiterst overtuigende phishing-aanvallen, deepfakes voor identiteitsfraude en desinformatie die het vertrouwen in een bank kan ondermijnen. De Nederlandse aanpak, met zijn focus op bestaande regels en dialoog, fungeert als een proeftuin om deze nieuwe, wereldwijde risico's het hoofd te bieden.

 AI is een concrete realiteit die de fundamenten van onze financiële sector herdefinieert. De technologie biedt onmiskenbare voordelen, maar introduceert tegelijkertijd uitdagingen die de hoogste aandacht vereisen. De weg vooruit is een delicate balans tussen innovatie omarmen en controle behouden. De vraag is dan ook niet óf we AI in ons financiële leven willen, maar hoeveel menselijke controle we als absolute ondergrens eisen.

Meer lezen
Kees van Brink Kees van Brink

Infrastructuur & Logistiek - De Stand

Artificiële intelligentie belooft een einde te maken aan de dagelijkse files en vertragingen in Nederland. Van zelflerende verkeerslichten tot voorspellend onderhoud aan treinen, de techniek staat klaar om onze mobiliteit te transformeren. Maar terwijl de algoritmes steeds slimmer worden, kijkt Nederland kritisch toe. Hoe zorgen we dat deze onzichtbare copiloot onze publieke waarden blijft dienen?

Artificiële intelligentie belooft een einde te maken aan de dagelijkse files en vertragingen in Nederland. Van zelflerende verkeerslichten tot voorspellend onderhoud aan treinen, de techniek staat klaar om onze mobiliteit te transformeren. Maar terwijl de algoritmes steeds slimmer worden, kijkt Nederland kritisch toe. Hoe zorgen we dat deze onzichtbare copiloot onze publieke waarden blijft dienen?

De slimme weg lost files op?

De belofte van artificiële intelligentie (AI) voor het Nederlandse wegennet is even helder als verleidelijk: minder files, kortere reistijden en een hogere verkeersveiligheid. De technologie, die patronen leert uit enorme datastromen, kan verkeer voorspellen en proactief ingrijpen voordat een opstopping ontstaat. Toch blijkt de praktijk weerbarstiger dan de theorie, wat de spanning toont tussen wat technologisch mogelijk is en wat maatschappelijk haalbaar is.

Ver buiten het zicht van de gemiddelde automobilist heeft Rijkswaterstaat een AI-systeem in gebruik dat de verkeersveiligheid verbetert. Dit systeem functioneert als een digitale weginspecteur die continu het wegennet analyseert om te voorspellen waar de kans op een incident het grootst is. Door historische data over ongevallen, drukte en weer te combineren, identificeert het algoritme ‘hotspots’. Deze informatie wordt niet gebruikt om verkeer direct aan te sturen, maar om de inzet van menselijke weginspecteurs te optimaliseren. Omdat het systeem achter de schermen opereert en geen direct herleidbare persoonsgegevens verwerkt, is de implementatie succesvol en geruisloos verlopen.

 Een meer tot de verbeelding sprekende toepassing is de intelligente Verkeersregelinstallatie (iVRI), een zelflerend verkeerslicht dat zich dynamisch aanpast aan de actuele verkeerssituatie. Dankzij een combinatie van technologieën zoals machine learning en computer vision kan het de groentijd verlengen bij een lange wachtrij of voorrang geven aan een bus. Internationaal onderzoek en pilots tonen aan dat zulke systemen wachttijden en reistijden aanzienlijk kunnen verkorten. Deze veelbelovende resultaten vormden de opmaat voor een praktijktest in de Nederlandse hoofdstad.

 Ondanks deze belofte is de gemeente Amsterdam een proef met iVRI’s gestopt. De meest fundamentele horde was privacy, waarbij de Autoriteit Persoonsgegevens (AP) stelde dat de systemen via smartphone-apps op grote schaal en zonder duidelijke juridische grondslag persoonsgegevens verzamelden. Daarnaast was het effect op de doorstroming in de praktijk zeer beperkt, terwijl de onderhoudskosten aanzienlijk hoger lagen dan bij reguliere installaties. Het project faalde niet omdat de technologie niet werkte, maar omdat er geen overtuigend antwoord was op fundamentele vragen over privacy en publieke meerwaarde, en in het Algoritmeregister staat de status nu dan ook op "Buiten gebruik".

Het spoorboekje wordt data-gedreven

Terwijl de slimme weg nog in de kinderschoenen staat, is AI in het openbaar vervoer al een onmisbare kracht geworden. Bij de Nederlandse Spoorwegen wordt de technologie vooral ingezet om de betrouwbaarheid van de dienstverlening te verhogen. Van de werkplaats tot de app op de telefoon van de reiziger, algoritmes spelen een steeds centralere rol in de operatie. Een van de meest impactvolle toepassingen van AI bij de NS is voorspellend onderhoud, een techniek waarbij sensordata geanalyseerd worden om te voorspellen wanneer een onderdeel aan vervanging toe is. Treinen zijn uitgerust met duizenden sensoren die continu de toestand van wielen, remmen en deuren meten. AI-algoritmes leren de subtiele signalen herkennen die wijzen op naderende slijtage, zoals een lichte verandering in trillingspatronen. Hierdoor kan onderhoud precies worden ingepland wanneer het nodig is: niet te vroeg, wat onnodig geld kost, en vooral niet te laat, wat tot uitval en vertraging leidt.

Naast de onzichtbare verbeteringen zet de NS AI ook in om de reizigerservaring direct te verbeteren. Een bekend voorbeeld is de ‘zitplaatsvinder’ in de app, die op basis van sensordata en historische bezetting een voorspelling doet over de drukte in verschillende coupés. Internationaal gaan vervoerders verder; de Zwitserse PostBus gebruikt bijvoorbeeld Large Language Models (LLM’s) – de technologie achter systemen als ChatGPT – om reisinformatie te genereren. Deze ontwikkelingen illustreren de groeiende rol van data in het personaliseren van de reis.

 De volgende stap is een dynamische dienstregeling, die zich in real time aanpast aan de actuele vraag. Een AI-systeem zou op basis van weerdata en evenementenkalenders automatisch extra treinen kunnen inplannen naar de kust op een zonnige dag. De implementatie hiervan is echter complex. Het vereist enorme hoeveelheden data over de verplaatsingen van reizigers, wat direct dezelfde privacyvragen oproept die de Amsterdamse iVRI-proef de das omdeden. De weg naar een volledig flexibel openbaar vervoer is daarom niet alleen een technologische, maar vooral een maatschappelijke en politieke uitdaging.

De haven werkt efficiënter door AI

In de logistiek, waar elke minuut telt, is de adoptie van AI geen kwestie van maatschappelijk debat, maar een economische noodzaak. De Haven van Rotterdam loopt voorop in deze transformatie en gebruikt AI als een cruciaal instrument om de concurrentiepositie te versterken. Hier is de technologie geen experiment, maar een integraal onderdeel van de dagelijkse operatie.

Het kroonjuweel van de Rotterdamse strategie is het platform ‘Pronto’, dat functioneert als een digitale verkeerstoren voor de scheepvaart. Het zelflerende model combineert data over de positie en snelheid van schepen met historische havenbezoeken, het type schip, de lading en zelfs de weersomstandigheden. Op basis daarvan kan Pronto de aankomsttijd bij de ligplaats tot op 20 minuten nauwkeurig voorspellen. Sinds de invoering is de wachttijd voor schepen met 20% gedaald, wat zich door de hele logistieke keten vertaalt in efficiëntiewinst en kostenbesparingen.

 De optimalisatie stopt echter niet bij de kade. Algoritmes worden ook ingezet om de meest efficiënte routes voor vrachtwagens te berekenen, rekening houdend met actuele verkeersdrukte en aflevertijden. Geavanceerde modellen creëren zelfs een ‘digitale tweeling’, een virtueel model van de hele toeleveringsketen. Hiermee kunnen bedrijven de impact van mogelijke verstoringen simuleren en proactief maatregelen nemen. De drijvende kracht achter deze snelle adoptie is de onmiskenbare businesscase: een investering die wachttijd en brandstofverbruik reduceert, betaalt zichzelf direct terug.

Wie is er eindverantwoordelijk?

De snelle opkomst van AI in onze infrastructuur dwingt ons om fundamentele vragen te stellen over controle en verantwoordelijkheid. Terwijl de technologie zich ontwikkelt, proberen wetgevers een kader te scheppen dat innovatie mogelijk maakt en tegelijkertijd publieke belangen beschermt. De uitdaging is om regels op te stellen voor een technologie die zichzelf continu opnieuw uitvindt.

Het meest ambitieuze antwoord komt uit Brussel. De Europese AI Act, aangenomen in 2024, is de eerste omvattende wet ter wereld die AI reguleert. De wet hanteert een op risico gebaseerde aanpak, waarbij AI-systemen in kritieke infrastructuren zoals transport als ‘hoog risico’ worden aangemerkt. Dit betekent dat systemen voor verkeersmanagement of de planning van dienstregelingen aan strenge eisen moeten voldoen rondom risicobeoordeling, datakwaliteit, transparantie en cybersecurity voordat ze op de markt mogen komen.

 Naast de Europese aanpak ontwikkelt Nederland eigen instrumenten, zoals het landelijke Algoritmeregister dat in 2022 werd gelanceerd. Dit register dwingt overheidsorganisaties om transparant te zijn over de algoritmes die zij inzetten en biedt zo een antwoord op de angst voor de ‘black box’. Door te publiceren welk algoritme wordt gebruikt, met welke data het is getraind en hoe het toezicht is geregeld, wordt publieke controle mogelijk gemaakt. Dit instrument is essentieel voor verantwoording.

 Een fundamenteel principe in alle regelgeving is dat van menselijk toezicht. Een AI-systeem mag niet volledig autonoom opereren in situaties waar fundamentele rechten op het spel staan; er moet altijd een mens kunnen ingrijpen. Dit beantwoordt de vraag naar aansprakelijkheid: als een door AI geoptimaliseerd systeem een ongeval veroorzaakt, ligt de verantwoordelijkheid bij de mens of de organisatie die het systeem inzet. Een algoritme kan geen rechtspersoon zijn en wordt beschouwd als een hulpmiddel, waarvoor de gebruiker aansprakelijk is.

De intrede van AI in de Nederlandse infrastructuur is een realiteit die zich dagelijks ontvouwt. De technologie bewijst haar waarde waar ze operationele processen verbetert, zoals bij de NS en de Haven van Rotterdam. Tegelijkertijd laat de gestrande proef in Amsterdam zien dat implementatie in de publieke ruimte een complexe afweging is tussen efficiëntie en fundamentele waarden als privacy. De onzichtbare copiloot kan ons helpen de weg te vinden, maar alleen als we zelf aan het stuur blijven zitten.

Meer lezen
Kees van Brink Kees van Brink

Overheids-dienstverlening

Beleidsmakers zien het als maakbaar en wenselijk doel: een digitale overheid. Met één klik een verhuizing regelen, een vergunning verlenen of een toeslag aanpassen. De realiteit is voor velen een hindernisbaan van DigiD-storingen en onbegrijpelijke chatbots. Nederland investeert fors in een ‘slimme’ toekomst, gedreven door data en AI, maar voor wie bouwen we die eigenlijk?

Beleidsmakers zien het als maakbaar en wenselijk doel: een digitale overheid. Met één klik een verhuizing regelen, een vergunning verlenen of een toeslag aanpassen. De realiteit is voor velen een hindernisbaan van DigiD-storingen en onbegrijpelijke chatbots. Nederland investeert fors in een ‘slimme’ toekomst, gedreven door data en AI, maar voor wie bouwen we die eigenlijk?

De droom van een slimme overheid

Aan ambitie is er geen gebrek. Zowel in Den Haag als in Brussel wordt gewerkt aan een overheid die proactief, transparant en vooral mensgericht is. Deze visie is vastgelegd in de Nederlandse I-strategie Rijk 2021-2025. Het beleidsdocument breekt met het idee dat digitalisering slechts een technisch hulpmiddel is; de ‘I’ van informatie moet de kern worden van beleid en uitvoering. De strategie rust op pijlers als digitale vaardigheden en streeft naar een veilige en effectieve digitale toekomst waarin datamogelijkheden een vertrekpunt voor beleid zijn.

 Deze nationale strategie staat niet op zichzelf, maar is ingebed in een bredere Europese beweging. De Verklaring van Berlijn uit 2020 benadrukt een op waarden gebaseerde transformatie die grondrechten respecteert en de gebruiker centraal stelt. Deze principes worden verder geconcretiseerd in het Digital Decade beleidsprogramma, dat harde doelen stelt voor 2030: alle belangrijke publieke diensten moeten dan volledig online beschikbaar zijn. De wettelijke fundamenten lijken hiermee stevig verankerd.

Hoe slim is de slimme overheid?

Terwijl de digitale basisdienstverlening nog kraakt, wordt volop geëxperimenteerd met de volgende generatie overheidstechnologie. Gemeenten en provincies zetten data en kunstmatige intelligentie in om efficiënter te werken. In Eindhoven wordt bijvoorbeeld in het uitgaansgebied Stratumseind met camera’s en geluidssensoren de sfeer gemeten, waarna de straatverlichting zich automatisch aanpast. In Goes beantwoordt chatbot Guus, aangedreven door generatieve AI, 24/7 vragen van burgers op basis van de gemeentelijke website.

Niet alle toepassingen zijn direct gericht op de burger. De provincie Zuid-Holland ontwikkelde de PZH-assistent, een interne chatbot die functioneert als een veilig alternatief voor publieke AI-tools. Ambtenaren kunnen de assistent gebruiken om teksten te redigeren of te brainstormen, zonder dat gevoelige data de organisatie verlaat. Deze projecten tonen de potentie van technologie, maar roepen tegelijkertijd fundamentele vragen op over publieke waarden, afhankelijkheid van techbedrijven en transparantie.

Waarden komen onder druk te staan

Deze technologische vooruitgang heeft een keerzijde. Kennisinstituten waarschuwen dat de inzet van slimme technologie op gespannen voet staat met publieke waarden. Het Rathenau Instituut stelt in het rapport Koers zetten richting digitale autonomie dat de overheid door het gebruik van systemen van grote techbedrijven de regie over haar kernprocessen dreigt te verliezen. Deze afhankelijkheid, ook wel ‘vendor lock-in’ genoemd, beperkt de keuzevrijheid en onderhandelingsmacht.

 

De Wetenschappelijke Raad voor het Regeringsbeleid (WRR) voegt in een factsheet over de digitale uitvoering van wetgeving een principiële waarschuwing toe: technologie is nooit neutraal. Het digitaliseren van beleid reduceert een complexe realiteit tot rigide computercode, wat kan leiden tot een machtsverschuiving ten nadele van de burger. Ook de Algemene Rekenkamer is kritisch. Uit hun onderzoek naar AI bij de Rijksoverheid blijkt dat risico’s vaak onvoldoende worden ingeschat en de technologie vooral interne efficiëntie dient, niet per se de burger. Zo introduceert de zoektocht naar transparantie paradoxaal genoeg een nieuwe, technologische vorm van ondoorzichtigheid.

Een digitale drempel voor miljoenen

Terwijl de aandacht uitgaat naar de beloftes van AI, worstelt de overheid met een fundamenteler probleem: voor een grote groep burgers is de digitale basis niet op orde. Naar schatting 4,5 miljoen mensen in Nederland kunnen niet volledig meedoen in de digitale samenleving. Dit betreft niet alleen mensen met een functiebeperking, maar ook laaggeletterden, ouderen en mensen met beperkte digitale vaardigheden. Voor hen is de digitale overheid geen gemak, maar een bron van uitsluiting.

De overheid is wettelijk verplicht om haar websites en apps toegankelijk te maken, maar de naleving laat te wensen over. De meest recente Jaarmonitor Digitale Toegankelijkheid laat zien dat eind 2024 meer dan de helft van de overheidswebsites en -apps nog niet aan de wettelijke eisen voldeed. Het aandeel dat de hoogste status van volledige toegankelijkheid haalt, is met 5,9% zeer laag. Dit is meer dan een technisch mankement; het is een falen van de publieke dienstverlening. De overheid bouwt een digitaal huis met indrukwekkende snufjes, maar vergeet een rolstoelhelling bij de voordeur.

Nederland is geen absolute koploper

Internationale benchmarks bieden een spiegel die de binnenlandse paradox scherp reflecteert. Op de tweejaarlijkse UN E-Government Survey scoort Nederland traditioneel sterk, met een 10e plaats wereldwijd in 2024. Deze hoge score is vooral te danken aan de uitstekende telecommunicatie-infrastructuur en het hoge opleidingsniveau van de bevolking. Dit reflecteert het potentieel van Nederland, niet noodzakelijkerwijs de daadwerkelijke kwaliteit van de dienstverlening.

 Een ander beeld ontstaat bij de OECD Digital Government Index. Deze index, die meer focust op de daadwerkelijke implementatie van beleid, laat zien dat Nederland net onder het OESO-gemiddelde scoort. Het OECD Digital Government Policy Framework beschrijft de dimensies waarop deze meting is gebaseerd. Binnen Europa behoort Nederland tot de kopgroep, maar de eGovernment Benchmark 2023 toont aan dat landen als Malta en Estland significant beter presteren. De aanwezigheid van een digitale snelweg garandeert nog geen soepele reis voor alle burgers.

De praktijk is weerbarstiger dan de wet

De kloof tussen belofte en realiteit wordt pijnlijk zichtbaar wanneer wettelijke verplichtingen worden getoetst. Een onderzoek van adviesbureau Daadkracht toont aan dat 97,4% van de Nederlandse gemeenten niet voldoet aan de Wet modernisering elektronisch bestuurlijk verkeer. Deze wet, die begin 2026 volledig in werking treedt, verplicht overheden om voor hun diensten ten minste één digitaal kanaal aan te bieden. Dat een overweldigende meerderheid hier kort voor de deadline niet aan voldoet, is een teken van een grootschalig implementatieprobleem.

 Een deel van de verklaring ligt in de verouderde en versnipperde ICT-systemen van de overheid, een probleem waar de Algemene Rekenkamer al jaren voor waarschuwt. Deze combinatie van factoren – een cultuur gericht op minimale naleving, een decentraal bestuur en een krakkemikkige technische fundering – creëert een krachtige systemische inertie. De Nederlandse overheid probeert een moderne façade te bouwen op een oud en rigide fundament. De barsten die daardoor ontstaan, zijn de onvermijdelijke gevolgen.

De hardnekkige digitale drempel voor miljoenen, wetten die massaal niet worden nageleefd, en een focus op technologische snufjes die de basis overschaduwen, schetsen een kritisch beeld. De ‘mensgerichte’ overheid blijft vooralsnog vaker een belofte op papier dan een geleefde realiteit. De vraag blijft of de overheid haar eigen processen optimaliseert, of daadwerkelijk de drempels verlaagt voor de burger die ze dient.

Meer lezen
Kees van Brink Kees van Brink

Veiligheid & Defensie - De Stand

Kunstmatige intelligentie is een dagelijkse realiteit in het hart van onze nationale veiligheid. Het is een krachtig schild en tegelijk een revolutionair zwaard dat nieuwe risico’s introduceert. Voor een land als Nederland, dat de rechtsstaat en privacy hoog in het vaandel draagt, is de centrale vraag hoe het met deze technologische wapenwedloop omgaat.

Kunstmatige intelligentie is een dagelijkse realiteit in het hart van onze nationale veiligheid. Het is een krachtig schild en tegelijk een revolutionair zwaard dat nieuwe risico’s introduceert. Voor een land als Nederland, dat de rechtsstaat en privacy hoog in het vaandel draagt, is de centrale vraag hoe het met deze technologische wapenwedloop omgaat.

Nederland leeft in een AI-realiteit

De adoptie van artificiële intelligentie (AI), technologie die menselijke intelligentie nabootst, is binnen de Nederlandse publieke sector in een stroomversnelling geraakt. AI is een operationeel instrument dat actief wordt ingezet in cruciale domeinen. Een recente quickscan door TNO identificeerde 266 AI-toepassingen in de publieke dienstverlening, waarbij ‘publieke orde en veiligheid’ een van de belangrijkste toepassingsgebieden is. Deze cijfers tonen aan dat de technologie de experimentele fase voorbij is en steeds vaker wordt geïmplementeerd in de dagelijkse praktijk van overheidsorganisaties.

 Deze snelle technologische vooruitgang staat echter in schril contrast met de bestuurlijke realiteit. Een diepgravend onderzoek van de Algemene Rekenkamer legt een zorgwekkende ‘volwassenheidskloof’ bloot: het bestuur, de risicobeheersing en de openheid houden de technologische ontwikkelingen niet bij. Van de 433 AI-systemen die de Rijksoverheid in kaart bracht, ontbreekt bij meer dan de helft een aantoonbare afweging van de risico’s. Bovendien is van 35% van de daadwerkelijk gebruikte systemen niet bekend of ze de beoogde prestaties leveren, terwijl slechts 5% is terug te vinden in het openbare algoritmeregister.

 De situatie schetst een paradoxale ontwikkeling. Terwijl de kwantitatieve data een beeld geven van een volwassen wordend gebruik van AI, onthult de kwalitatieve analyse dat deze volwassenheid vooral technisch van aard is. De organisatorische en ethische kaders die nodig zijn voor een verantwoorde inzet, blijven achter. Er worden systemen geïmplementeerd waarvan de prestaties en risico’s onvoldoende worden begrepen, wat een gevaar vormt voor de rechtszekerheid van burgers. Deze technisch gerichte manier van werken wordt een steeds groter risico nu de systemen krachtiger en meer verweven raken met cruciale overheidstaken.

Defensie zet een digitale sprong voorwaarts

Voor het Ministerie van Defensie is de adoptie van AI geen vrijblijvende verbeterstap, maar een strategische noodzaak. De kern van deze ambitie is vastgelegd in de Defensie Strategie Data Science en AI 2023-2027, die stelt dat moderne militaire operaties “bijna niet inzetbaar zijn zonder Data Science en AI”. TNO waarschuwt zelfs dat Defensie momenteel achterloopt en dat de sterke media-aandacht voor risico's een verlammend effect heeft op de besluitvorming. Het overkoepelende doel is ‘Informatie Gestuurd Optreden’ (IGO), waarbij data en AI de krijgsmacht in staat stellen sneller en beter te beslissen.

 De inzet van AI wordt hier gezien als een geopolitieke noonzaak, een onmisbaar element van moderne afschrikking. Dit verandert de risicoafweging fundamenteel: het risico van niet adopteren wordt afgewogen tegen de implementatierisico’s, wat kan leiden tot een grotere acceptatie van onzekerheden. Een dieperliggende uitdaging is de kwetsbaarheid van de digitale infrastructuur. Defensie erkent de sterke afhankelijkheid van Amerikaanse clouddiensten en benadrukt het belang van “strategische autonomie”. De strijd om AI-dominantie gaat dus niet alleen over algoritmes, maar ook over de controle over de data en rekenkracht.

De politie experimenteert in een grijs gebied

Binnen de Nederlandse rechtshandhaving manifesteert AI zich als een instrument met twee gezichten. Aan de ene kant biedt het veelbelovende mogelijkheden om de opsporing effectiever te maken; de politie zet AI in om complexe datastromen te analyseren en cybercriminaliteit te bestrijden. Een succesverhaal is het ‘Q’-project, een machine-learning-systeem dat duizenden ‘koude zaken’ analyseert en de analysetijd van een complex dossier kan terugbrengen van weken naar één dag. Een ander voorbeeld is het automatisch onherkenbaar maken van autoruiten op camerabeelden om de privacy van burgers te beschermen.

 Aan de andere kant opereert de politie in wat onderzoekers een “niemandsland” noemen, een grijze zone tussen technologische innovatie en juridische waarborgen. Experimenten met predictive policing (voorspellend politiewerk) hebben tot felle maatschappelijke kritiek geleid, zoals het ‘Sensing Project’ in Roermond, dat volgens Amnesty International etnisch profileren mogelijk maakte. De politie is zich bewust van deze risico’s; zo werd na kritiek van de Algemene Rekenkamer de inzet van een risicotaxatie-instrument voor geweld gestaakt. Dit patroon van experimenteren en terugtrekken duidt op een reactief bestuursmodel, waarbij externe partijen vaak als te late controleurs fungeren.

AI als onzichtbaar wapen in cybersecurity

In de wereld van cybersecurity speelt AI een cruciale, maar vaak onzichtbare dubbelrol. De AIVD beschouwt AI als een “versterkende factor voor bestaande dreigingen”. De technologie verlaagt de drempel voor kwaadwillenden om geavanceerde cyberaanvallen te ontwikkelen die traditionele systemen omzeilen. Tegelijkertijd is AI een onmisbaar wapen voor de verdediging, omdat het enorme hoeveelheden data kan analyseren om dreigingen veel sneller te ontdekken dan een mens. Dit creëert een klassieke wapenwedloop, die een kernonderdeel is van de Nederlandse Cybersecuritystrategie.

 

Een belangrijke verschuiving is dat AI-systemen zelf een nieuw doel voor een aanval  vormen. Als de verdediging van vitale infrastructuur afhankelijk wordt van AI, wordt dat systeem een aantrekkelijk doelwit. De AIVD heeft daarom richtlijnen gepubliceerd voor het beveiligen van AI-modellen tegen specifieke aanvallen. Het gaat hierbij om technieken als poisoning, waarbij trainingsdata wordt gemanipuleerd, en evasion attacks, die een model met misleidende input om de tuin leiden. Cybersecurity gaat dus niet langer alleen over het beschermen van netwerken, maar ook over het waarborgen van de integriteit van de intelligente systemen zelf.

De internationale spelregels blijven diffuus

De Nederlandse aanpak wordt mede bepaald door een gefragmenteerd internationaal speelveld. De meest invloedrijke regelgeving, de EU AI Act, hanteert een op risico gebaseerde aanpak. AI-toepassingen van de politie vallen waarschijnlijk onder de categorie ‘hoog risico’, wat strenge eisen met zich meebrengt. Cruciaal is echter de expliciete uitzondering in de verordening: zij is niet van toepassing op AI-systemen die exclusief voor militaire doeleinden worden ontwikkeld en gebruikt. Dit creëert een juridisch vacuüm voor de technologieën die Defensie ontwikkelt.

 Dit vacuüm wordt deels opgevuld door de kaders van militaire bondgenootschappen. De NAVO heeft een AI-strategie aangenomen die is gebaseerd op zes ‘Principes van Verantwoord Gebruik’, waaronder wettigheid, verantwoordelijkheid en bestuurbaarheid. Als NAVO-lid is Nederland aan deze niet-bindende, maar politiek belangrijke principes gecommitteerd. Vergelijkbare ethische raamwerken zijn ontwikkeld door belangrijke bondgenoten als de Verenigde Staten, die zich richten op het behouden van een ‘beslissingsvoordeel’, en het Verenigd Koninkrijk, dat spreekt over de noodzaak van “context-appropriate human involvement”.

Deze verschillende kaders leiden tot een fundamentele tweedeling. Voor het civiele domein worden harde, wettelijk afdwingbare regels opgesteld, terwijl voor het militaire domein wordt vertrouwd op zachte, op principes gebaseerde afspraken. Een bedrijf dat een discriminerend algoritme voor personeelswerving verkoopt, kan een boete krijgen, maar een defensiebedrijf dat een vergelijkbaar bevooroordeeld algoritme voor doelselectie ontwikkelt, schendt enkel niet-bindende principes. Dit resulteert in een aanzienlijke kloof in aansprakelijkheid, precies in het domein waar de gevolgen van fouten het meest catastrofaal kunnen zijn.

De mens blijft de baas, maar hoe lang nog?

De ultieme grens ligt bij de ontwikkeling van autonome wapensystemen. Het publieke debat is in beleidskringen verschoven naar de vraag wat “betekenisvolle menselijke controle” precies inhoudt. Machines kunnen niet juridisch verantwoordelijk worden gehouden; die verantwoordelijkheid moet altijd bij een mens blijven liggen. Ondertussen waarschuwen denktanks als de RAND Corporation dat de ware revolutie van AI niet zozeer technologisch, maar strategisch van aard zal zijn. AI kan de fundamentele logica van oorlogsvoering veranderen.

Het kan ervoor zorgen dat kwantiteit weer prevaleert boven kwaliteit: een zwerm van duizenden goedkope, autonome drones kan een klein aantal technologisch superieure gevechtsvliegtuigen overrompelen. Daarnaast kan AI misleiding tot een kernelement van oorlogsvoering maken. Voor westerse krijgsmachten, die decennialang hebben geïnvesteerd in een kwalitatief technologisch overwicht, vormt dit een existentiële uitdaging. De inzet van loitering munitions (rondhangende munitie) met autonome capaciteiten is al gerapporteerd in conflicten. Tegelijkertijd waarschuwt het Stockholm International Peace Research Institute (SIPRI) dat algoritmische bias kan leiden tot het foutief identificeren van doelen, met potentieel catastrofale gevolgen.

 

Nederland bevindt zich midden in een onomkeerbare integratie van AI in zijn veiligheidsapparaat. Deze transitie wordt gedreven door strategische noodzaak, maar is bezaaid met bestuurlijke en ethische uitdagingen. Er gaapt een kloof tussen de technologische mogelijkheden en de volwassenheid van de besturing, en fundamentele vragen over menselijke controle blijven onbeantwoord. Terwijl AI de ruggengraat van onze nationale veiligheid wordt, is de ultieme uitdaging niet technologisch, maar democratisch: hoe bouwen we de vangrails om ervoor te zorgen dat deze systemen onze waarden net zo goed beschermen als onze grenzen?

Meer lezen
Kees van Brink Kees van Brink

Thuis & Leven - De Stand

De belofte van een slim huis achtervolgt ons al decennia: een omgeving die naadloos anticipeert op onze wensen. Tot voor kort was de realiteit weerbarstig, met losse apps en simpele commando’s. Is kunstmatige intelligentie nu eindelijk aan het evolueren van veredelde afstandsbediening naar een werkelijk intelligente partner in ons dagelijks leven?

De belofte van een slim huis achtervolgt ons al decennia: een omgeving die naadloos anticipeert op onze wensen. Tot voor kort was de realiteit weerbarstig, met losse apps en simpele commando’s. Is kunstmatige intelligentie nu eindelijk aan het evolueren van veredelde afstandsbediening naar een werkelijk intelligente partner in ons dagelijks leven?

Het brein van uw huis wordt slimmer

De centrale intelligentie in huis ondergaat een transformatie. Waar de eerste spraakassistenten fungeerden als een reactief doorgeefluik, zien we nu de opkomst van proactieve systemen. De eerste slimme speakers met assistenten als Amazon Alexa en Google Assistant dienden als centraal punt voor commando’s als “doe het licht aan”. De nieuwste generatie, aangevoerd door systemen als Google's Gemini for Home en Amazon's Alexa+, is gebouwd op de technologie van grote taalmodellen (Large Language Models, LLMs). Dit zijn modellen die complexe, natuurlijke taal begrijpen en de intentie van de gebruiker afleiden. Een oud commando als “doe het licht in de woonkamer aan” wordt overtroffen door de capaciteit om een opdracht als “doe overal de lichten uit, behalve in mijn slaapkamer” te verwerken.

 Deze geavanceerde intelligentie is echter nutteloos als het brein niet kan communiceren met de apparaten van verschillende merken. Dit ‘walled garden’-probleem, waarbij elk merk zijn eigen ecosysteem beschermt, frustreert de ontwikkeling al jaren. De industrie poogt dit nu op te lossen met het Matter-protocol, een universele standaard ondersteund door alle grote spelers. Het moet fungeren als een keurmerk dat garandeert dat apparaten naadloos samenwerken. De paradox is dat het succes van geavanceerde AI in huis volledig afhangt van het welslagen van deze fundamentele communicatiestandaard.

Huishoudelijke apparaten denken zelfstandig mee

AI is niet langer beperkt tot een centrale hub, maar wordt steeds vaker direct ingebed in individuele apparaten. Een sprekend voorbeeld is de koelkast die de rol van voedselmanager op zich neemt. Samsung’s nieuwste Family Hub™-koelkasten zijn uitgerust met AI Vision Inside™, een technologie die via een interne camera en beeldherkenning een actuele inventaris bijhoudt, recepten voorstelt en boodschappenlijstjes aanvult. Hierdoor verandert een alledaags apparaat in een gespecialiseerd, datagedreven hulpmiddel.

 Op vergelijkbare wijze transformeert de wasmachine tot een textielexpert. De AI DD™-technologie (Artificial Intelligence Direct Drive) van LG gebruikt sensoren om het gewicht en de zachtheid van de stof te detecteren en vergelijkt dit met een database om de optimale wascyclus te kiezen. Het doel is niet alleen een schone was, maar vooral het minimaliseren van slijtage. Ook de robotstofzuiger evolueert tot een slimme navigator. De Roomba j-serie van iRobot maakt gebruik van PrecisionVision Navigation, een systeem dat actief obstakels zoals snoeren en uitwerpselen van huisdieren herkent en vermijdt. Deze voorbeelden illustreren een diepere trend: huishoudelijke klussen worden datamanagementtaken.

Uw energierekening wordt een datavraagstuk

In Nederland is de meest tastbare toepassing van AI in huis momenteel te vinden in energiebeheer. Intelligente systemen transformeren huishoudens van passieve consumenten in actieve deelnemers aan het elektriciteitsnet. De slimme thermostaat is hiervan de bekendste vorm; de Toon van Eneco leert de thermische eigenschappen van een woning en berekent de optimale starttijd voor de verwarming. Een meer geavanceerde toepassing is het slim laden van elektrische auto’s. Diensten als die van Tibber en de ANWB Slim Laden-app sturen het laadproces automatisch naar de uren met de laagste stroomprijzen. De AI kan zelfs de accu van de auto inzetten om het landelijke stroomnet te stabiliseren, waarvoor de gebruiker financieel wordt gecompenseerd. Zo fungeert een netwerk van duizenden autoaccu’s als een virtuele energiecentrale.

 De onzichtbare prijs van al dit gemak

De toenemende intelligentie van apparaten creëert een spanning tussen gemak en privacy. Dit dwingt consumenten tot een kritische houding. De Autoriteit Persoonsgegevens (AP) adviseert om vóór aankoop privacyverklaringen te lezen en onafhankelijke tests te raadplegen. De Consumentenbond onderzoekt in haar tests bijvoorbeeld specifiek de digitale veiligheid van slimme deurbellen, zoals de beveiliging tegen ‘man-in-the-middle’-aanvallen en de helderheid van het updatebeleid. Veiligheid is immers geen producteigenschap, maar een doorlopende dienstverlening.

 Op Europees niveau vindt een fundamentele verschuiving plaats met de introductie van de EU Data Act, die vanaf 12 september 2025 van kracht wordt. Deze wet verankert het recht van gebruikers op toegang tot de data die hun apparaten genereren en het recht om deze data te delen met derden. In Nederland zullen de Autoriteit Consument & Markt (ACM) en de AP toezien op de handhaving. De data wordt niet langer gezien als exclusief eigendom van de fabrikant, maar als een bezit van de gebruiker.

Zorg en comfort krijgen een nieuwe dimensie

Naast gemak vindt AI een cruciale toepassing in het ondersteunen van zelfstandig wonen en zorg. Juist hier komen ethische vraagstukken scherp naar voren. Kenniscentrum Vilans beschrijft toepassingen als leefstijlmonitoring, waarbij sensoren veranderingen in dagelijkse routines signaleren die kunnen wijzen op een verslechterende gezondheid. Een bedsensor kan waarschuwen wanneer iemand met valrisico opstaat, waardoor preventief kan worden ingegrepen. Deze technologieën roepen fundamentele vragen op, zoals het Rathenau Instituut benadrukt. De grens tussen zorg en surveillance vervaagt. Dit creëert een paradox van ‘welwillende surveillance’: de mechanismen bedoeld voor zorg zijn technisch niet te onderscheiden van mechanismen voor toezicht.

 De stand van AI in huis is volwassen geworden. De technologie is de fase van simpele gadgets voorbij en manifesteert zich als een geïntegreerd systeem dat gespecialiseerde taken uitvoert, energiesystemen optimaliseert en zorg ondersteunt. Deze toegenomen capaciteit is onlosmakelijk verbonden met dataverzameling. De centrale afweging is daarmee verschoven van “werkt het?” naar “wat is de prijs van dit gemak in termen van mijn data, privacy en autonomie?”.

Meer lezen
Kees van Brink Kees van Brink

Vrije Tijd & Entertainment - De Stand

Artificiële intelligentie is een onzichtbare architect van ons vermaak. Van series tot games en muziek: algoritmes sturen, creëren en personaliseren onze culturele ervaringen op een ongekende schaal. Wat betekent het voor onze creativiteit wanneer code een co-creator, curator en zelfs tegenspeler wordt?

Artificiële intelligentie is een onzichtbare architect van ons vermaak. Van series tot games en muziek: algoritmes sturen, creëren en personaliseren onze culturele ervaringen op een ongekende schaal. Wat betekent het voor onze creativiteit wanneer code een co-creator, curator en zelfs tegenspeler wordt?

Code cureert jouw kijklijst

Voor miljoenen Nederlanders vindt de meest directe aanraking met artificiële intelligentie (AI) plaats op de startpagina’s van streamingdiensten. Wanneer Netflix een film aanbeveelt of Spotify een afspeellijst samenstelt, is dat het werk van complexe AI-systemen. Deze technologie is nu de onzichtbare regisseur: Uw entertainment, gecureerd door code. De drijvende kracht is een harde commerciële realiteit. Volgens onderzoek van McKinsey verwacht 71% van de consumenten gepersonaliseerde interacties, en snelgroeiende bedrijven halen tot 40% meer omzet uit personalisatie dan hun concurrenten.

 Deze personalisatie is een nauwgezet, datagedreven proces dat hoofdzakelijk twee methoden gebruikt. De eerste is collaborative filtering, een techniek die aanbevelingen doet op basis van het gedrag van gebruikers met een vergelijkbare smaak. De tweede, content-based filtering, analyseert de inhoud zelf door metadata zoals genre, acteurs en sfeer te vergelijken met content die een gebruiker eerder waardeerde. Door kijkgeschiedenis, het al dan niet afkijken van een serie en zelfs het tijdstip van kijken te analyseren, bouwt de AI een steeds verfijnder profiel op. Hoewel het gemak onmiskenbaar is, is het primaire doel niet culturele verrijking, maar het maximaliseren van de gebruikerstijd op het platform om zo abonnees te behouden.

 Dit verandert de ontdekking van cultuur van een verrassende zoektocht in een geoptimaliseerde transactie. De algoritmes zijn ontworpen om te voorspellen en te bevestigen, niet om uit te dagen. Dit creëert een feedbackloop: de gebruiker kijkt wat wordt aanbevolen, wat het profiel versterkt en leidt tot nog meer vergelijkbare aanbevelingen. Dit mechanisme kan resulteren in zogenoemde 'filterbubbels', waarin gebruikers onbewust worden afgeschermd van een diverser cultureel aanbod. Op de lange termijn kan dit de culturele horizon versmallen, een belangrijk risico bij de curatie van media.

AI bouwt mee aan games

De game-industrie, met een wereldwijde waarde van meer dan $250 miljard, fungeert als technologische voorhoede waar de impact van AI misschien wel het diepgaandst is. De markt voor AI in gaming alleen al wordt verwacht te groeien van $4,3 miljard in 2024 naar meer dan $51 miljard in 2033. Het is dan ook geen verrassing dat 87% van de gameontwikkelaars al AI-systemen gebruikt voor taken als het testen van spellen en het genereren van code. In de productiefase levert AI een enorme efficiëntieslag op. Ubisoft gebruikt bijvoorbeeld een tool die voorspelt waar fouten in de code zullen optreden, terwijl Electronic Arts AI-bots inzet die duizenden spelsessies simuleren om de spelbalans te testen.

 Een andere revolutionaire toepassing is Procedural Content Generation (PCG), een techniek waarbij AI algoritmes gebruikt om op grote schaal unieke spelwerelden te creëren. Games als No Man's Sky gebruiken Procedural Content Generation (PCG) om een universum met miljarden unieke planeten te genereren, een prestatie die handmatig onmogelijk zou zijn. Voor de speler vertaalt deze revolutie zich in rijkere ervaringen. Technologieën zoals NVIDIA's Deep Learning Super Sampling (DLSS) gebruiken AI om grafische beelden te verbeteren, wat resulteert in een hogere beeldkwaliteit. De meest merkbare verbetering zit echter in het gedrag van Non-Player Characters (NPCs), de door de computer bestuurde personages. In spellen als The Last of Us Part II gebruiken vijanden geavanceerde tactieken, wat zorgt voor een dynamische en onvoorspelbare uitdaging.

De wisselwerking tussen AI in productie en in de spelervaring creëert een zichzelf versterkende cyclus. De efficiëntiewinst door AI stelt ontwikkelaars in staat om op een veel grotere schaal te denken, maar het procedureel genereren van een sterrenstelsel creëert een nieuw probleem: hoe vul je die ruimte met geloofwaardig leven? Dit kan alleen worden opgelost met nog geavanceerdere in-game AI, zoals slimmere NPCs en dynamische verhaalsystemen. Zo voedt de inzet van AI als productietool direct de vraag naar AI als kernelement van de gameplay, waardoor de grenzen van wat creatief en technisch mogelijk is continu worden verlegd.

De creatieve copiloot schrijft mee

De invloed van AI strekt zich ook uit tot de traditionele media-industrieën van film en muziek. Hier is generatieve AI – AI die nieuwe, originele content kan creëren – in opkomst als een krachtige, maar controversiële, creatieve copiloot. In de filmwereld wordt AI in elke productiefase ingezet. Systemen als ScriptBook analyseren scenario's om hun commerciële potentieel te voorspellen, terwijl tools als Adobe Sensei helpen bij complexe taken als kleurcorrectie en geluidsmontage in de post-productie. Dit versnelt workflows, maar devalueert tegelijkertijd het ambacht van gespecialiseerde editors en coloristen.

 In de muziekwereld is de opkomst nog directer voelbaar. Platforms als Suno en Udio stellen gebruikers in staat om met eenvoudige tekstinstructies complete muziekstukken te componeren. Deze technologieën worden vaak gepresenteerd met het argument dat ze creativiteit 'democratiseren' door technische drempels te verlagen. Deze optimistische visie wordt echter geconfronteerd met serieuze zorgen. In de filmindustrie bestaat de vrees dat een te grote afhankelijkheid van data-analyse leidt tot meer formulematige films. Een onderzoek naar muziekplatforms concludeerde dat de retoriek van democratisering vaak dient als marketingpraat die een "individualistische, techno-liberale en ethisch ontwijkende" ideologie promoot.

Deze ontwikkelingen wijzen op een mogelijke paradigmaverschuiving. Traditioneel wordt de waarde van een kunstwerk mede bepaald door het creatieve proces: het vakmanschap en de menselijke samenwerking. Generatieve AI abstraheert dit proces; een gebruiker kan een muziekstuk genereren zonder enige kennis van muziektheorie. De focus verschuift hiermee van het proces naar het onmiddellijke resultaat. Deze verschuiving devalueert het menselijk ambacht en herdefinieert creativiteit als een handeling van sturen en selecteren, wat fundamentele vragen oproept over de betekenis van kunst en de toekomstige rol van de kunstenaar.

Nederland experimenteert en reflecteert

Terwijl techgiganten de toon zetten, benadert de Nederlandse cultuursector de opkomst van AI met een mix van nieuwsgierigheid, experimenteerdrift en kritische reflectie. Een sprekend voorbeeld is de samenwerking tussen het Rijksmuseum, Bram Krikke en Philips, waarbij AI werd ingezet om portretten in de stijl van Frans Hals te genereren. Dit project bracht een jonger publiek op een laagdrempelige manier in aanraking met cultureel erfgoed. Een diepere integratie is te zien bij het Nederlands Instituut voor Beeld en Geluid, waar gezichtsherkenning wordt gebruikt om bezoekers een gepersonaliseerde rondleiding te bieden in het Mediamuseum.

Deze praktijkvoorbeelden worden ondersteund door een robuust ecosysteem van onderzoek en beleid. De Raad voor Cultuur, het belangrijkste adviesorgaan van de overheid, is een onderzoek gestart naar de impact van AI op makers, met een advies dat begin 2026 wordt verwacht. Tegelijkertijd heeft DEN, het kennisinstituut voor cultuur en digitale transformatie, een whitepaper gepubliceerd dat de stand van zaken en de behoeften in de sector in kaart brengt. Dit alles wordt gevoed door fundamenteel onderzoek aan universiteiten, zoals het AI & Media Lab van de Universiteit Utrecht en het Designing Intelligence Lab van de TU Delft.

 De Nederlandse aanpak lijkt op een 'poldermodel' voor technologische disruptie. In plaats van een door de markt gedreven 'move fast and break things'-mentaliteit, zien we een samenspel van verschillende actoren. Culturele instellingen experimenteren, kennisinstituten verzamelen data, de academische wereld legt een theoretische basis en een adviesorgaan bereidt beleid voor. Deze gezamenlijke aanpak is gericht op het sturen van innovatie op een manier die publieke waarden en de positie van creatieve professionals beschermt, in plaats van de technologie ongebreideld haar gang te laten gaan.

De wet probeert AI bij te benen

De snelle opmars van AI stelt de samenleving voor fundamentele vragen over eigendom, transparantie en regulering. Een van de meest complexe uitdagingen is het auteursrecht. Huidige wetgeving is gebaseerd op menselijke creatie, waardoor AI-gegenereerde content in een juridisch grijs gebied belandt. In de Verenigde Staten hebben rechtbanken meermaals bevestigd dat een werk zonder voldoende menselijke inbreng niet voor bescherming in aanmerking komt. Dit creëert grote onzekerheid voor makers en bedrijven die AI-tools gebruiken.

In Nederland is er een duidelijke wens voor meer helderheid. Uit onderzoek blijkt dat 48% van de Nederlanders wil dat merken expliciet vermelden wanneer content door AI is gegenereerd. Deze roep om transparantie signaleert dat het publiek behoefte heeft aan context. Op Europees niveau wordt getracht deze uitdagingen het hoofd te bieden met de AI Act, een omvangrijk wetgevingspakket dat in augustus 2024 in werking is getreden. De verordening hanteert een op risico gebaseerde aanpak. Veel toepassingen in de entertainmentsector vallen in de categorie 'beperkt risico', waarvoor transparantieverplichtingen gelden.

 Deze plicht om gebruikers te informeren sluit direct aan bij de wens van de Nederlandse consument. De complexiteit van implementatie wordt echter geïllustreerd door de overheid zelf. Een rapport van de Algemene Rekenkamer onthulde dat voor 54% van de 120 gebruikte AI-systemen geen aantoonbare risicoafweging was gemaakt. Dit toont het 'pacing problem': het tempoverschil tussen exponentiële technologische vooruitgang en lineaire wetgeving. De AI Act is een ambitieuze poging deze kloof te dichten, maar de effectiviteit ervan zal afhangen van het vermogen om relevant te blijven in een landschap dat sneller verandert dan de wet zelf.

Artificiële intelligentie is een fundamentele kracht geworden die de productie, distributie en consumptie van onze cultuur herschikt. De transformatie biedt enorme kansen, maar brengt ook serieuze uitdagingen met zich mee op het gebied van auteursrecht, filterbubbels en de waarde van menselijk vakmanschap. De Nederlandse cultuursector navigeert dit landschap met een kenmerkende combinatie van experiment en bedachtzaamheid. De vraag is nu hoe we de ontwikkeling van AI sturen om menselijke creativiteit te versterken, in plaats van deze simpelweg te automatiseren.

 

Meer lezen
Kees van Brink Kees van Brink

Toekomst - De Stand

Toekomst

AI ontwikkelt zich razendsnel en daarmee verandert ook onze samenleving. In deze artikelen kijk je vooruit: welke trends zijn relevant, welke technologische keuzes staan voor de deur, en wat betekenen ze voor werk, onderwijs, privacy en ons dagelijks leven? Geen voorspellingen in grote woorden, maar doorkijkjes die je helpen begrijpen wat er speelt en waar het heen kan gaan.

De storm van kunstmatige intelligentie is een realiteit die de samenleving in recordtempo hertekent. Gevoed door miljardeninvesteringen en technologische doorbraken, dringt AI door tot in de kern van ons leven. Hoe kan Nederland de enorme potentie benutten zonder zijn publieke waarden op het spel te zetten?

AI versnelt zonder rem

De huidige stand van kunstmatige intelligentie (AI) wordt gekenmerkt door een momentum dat moeilijk te overschatten is. Deze ontwikkeling wordt gedreven door exponentiële verbeteringen in de technologie en een ongekende stroom kapitaal. De vooruitgang in AI-modellen is spectaculair; waar enkele jaren geleden alleen techgiganten de rekenkracht hadden voor grensverleggende modellen, is krachtige AI nu toegankelijker dan ooit. Een treffend voorbeeld is de evolutie in taalmodellen, waarbij de omvang van modellen voor vergelijkbare prestaties in twee jaar tijd met een factor 142 is afgenomen, zo blijkt uit de Stanford AI Index. Tegelijkertijd zijn de kosten voor het gebruik, de zogeheten inference cost, drastisch gedaald, waardoor de technologie voor een breed publiek beschikbaar komt.

Deze technologische vooruitgang wordt weerspiegeld in de economische cijfers. De bedrijfsinvesteringen in AI zijn na een korte vertraging weer fors toegenomen, waarbij de Verenigde Staten het voortouw nemen. Deze investeringen vertalen zich direct naar de werkvloer. Volgens onderzoek van McKinsey steeg het aandeel van organisaties dat AI inzet in iets meer dan een jaar van 55% naar 78%. Succesvolle bedrijven gebruiken AI echter niet als een simpele plug-and-play-oplossing; ze herontwerpen complete processen en ontwikkelen op maat gemaakte systemen. Dit creëert een nieuwe concurrentiekloof, niet tussen bedrijven die wel of geen AI gebruiken, maar tussen degenen die het oppervlakkig toepassen en zij die hun organisatie eromheen herbouwen.

De impact op de arbeidsmarkt is al even ingrijpend. Het World Economic Forum (WEF) schetst in zijn Future of Jobs Report 2025 een beeld van een massale, structurele verschuiving. Naar schatting zullen er tegen 2030 170 miljoen nieuwe banen ontstaan, terwijl 92 miljoen bestaande rollen verdwijnen of fundamenteel veranderen. Dit resulteert in een netto toename van werkgelegenheid, maar verhult de enorme transitie die nodig is. Deze verschuiving creëert een acute vraag naar nieuwe vaardigheden, waarbij "AI en big data" de meest gevraagde competentie is. De concurrentiekracht van landen hangt daardoor steeds meer af van het vermogen om de beroepsbevolking op grote schaal om te scholen.

Europa kiest voor duidelijke regels

Te midden van de snelle, marktgedreven AI-ontwikkeling kiest Europa voor een fundamenteel andere benadering. Met de introductie van de AI Act, de eerste alomvattende AI-wetgeving ter wereld, probeert de Europese Unie de technologie te sturen op basis van publieke waarden. De wet is geen rem op innovatie, maar een poging een raamwerk te creëren voor betrouwbare en mensgerichte AI. De kern van de wet is een aanpak gebaseerd op risico, waarbij systemen worden ingedeeld in vier categorieën: onacceptabel, hoog, beperkt en minimaal risico. Systemen met een onacceptabel risico, zoals sociale scoresystemen door overheden en bepaalde vormen van manipulatie, worden volledig verboden.

AI-toepassingen met een hoog risico, zoals die in kritieke infrastructuur, medische apparatuur of werving en selectie, moeten aan strenge eisen voldoen voordat ze op de markt komen. Dit omvat risicoanalyses, het gebruik van hoogwaardige data, gedetailleerde documentatie en de garantie van menselijk toezicht. Voor systemen met een beperkt risico, zoals chatbots, geldt vooral een transparantieverplichting: gebruikers moeten weten dat ze met een AI interacteren. De overgrote meerderheid van AI-toepassingen, zoals in videogames of spamfilters, valt in de categorie minimaal risico en wordt niet gereguleerd. Met deze strategie zet de EU haar marktmacht in om wereldwijde standaarden te bepalen, vergelijkbaar met het effect van de privacywetgeving (AVG). Dit brengt echter ook een spanning met zich mee: de hoge compliance-kosten kunnen een drempel vormen voor kleinere startups en zo onbedoeld de marktpositie van gevestigde techgiganten versterken.

Nederland zoekt een eigen weg

De wereldwijde trends en Europese regels landen in Nederland in een uniek maatschappelijk en politiek klimaat, gekenmerkt door nuchterheid en een sterke nadruk op publieke waarden. Onafhankelijke instituten spelen een cruciale rol in het vormgeven van dit debat. Zo concludeert het Rathenau Instituut dat generatieve AI bestaande digitale risico's versterkt en nieuwe introduceert, zoals desinformatie en de concentratie van macht. De Sociaal-Economische Raad (SER) richt zich in het advies ‘AI en werk’ op de sociale opgave van de transitie op de arbeidsmarkt, waarbij de kwaliteit van werk en de betrokkenheid van werknemers centraal moeten staan.

Deze adviezen vinden weerklank in het beleid. De Overheidsbrede visie Generatieve AI stelt expliciet dat het doel is om de kansen van AI te benutten binnen een kader van publieke waarden en grondrechten. Toch staat Nederland voor een complex trilemma. Enerzijds is er de drang naar economische concurrentie en innovatie, anderzijds dwingt de nadruk op waarden tot een zorgvuldige aanpak. Dit wordt verder versterkt door een opvallend sceptisch publiek; slechts 36% van de Nederlanders gelooft dat de voordelen van AI opwegen tegen de nadelen. Het succes van de Nederlandse strategie zal afhangen van het vermogen om deze drie krachten – innovatie, waarden en publieke opinie – in balans te brengen.

AI bewijst zich in praktijk

Terwijl het beleidsdebat volop gaande is, heeft AI zijn weg naar de Nederlandse praktijk al gevonden. Volgens recente cijfers van het CBS en Eurostat gebruikte in 2024 bijna 23% van de Nederlandse bedrijven AI, waarmee Nederland op een zesde plaats binnen de EU staat. Ook de publieke sector omarmt de technologie steeds meer. Een inventarisatie door TNO identificeerde in 2024 al 266 AI-toepassingen bij de overheid, een forse toename ten opzichte van 2021. Mede dankzij de introductie van het landelijke Algoritmeregister is er bovendien steeds meer transparantie over welke technieken de overheid inzet.

Concrete voorbeelden tonen de potentie. In de gezondheidszorg loopt het Radboudumc in Nijmegen voorop met AI-algoritmes die helpen bij het opsporen van kanker op medische beelden. In de Haven van Rotterdam stroomlijnt het systeem genaamd Pronto de logistiek door aankomsttijden van schepen nauwkeurig te voorspellen, wat wachttijden met 20% heeft gereduceerd. De Nederlandse agrifoodsector gebruikt AI voor precisielandbouw in kassen en het monitoren van vee. In het onderwijs worden adaptieve leersystemen ingezet die oefeningen aanpassen aan het niveau van de leerling, al waarschuwen organisaties als Kennisnet en de Autoriteit Persoonsgegevens voor de risico's, zoals een verminderde regie voor leraren. Deze voorbeelden illustreren dat de implementatie complexer is in mensgerichte publieke sectoren dan in kapitaalintensieve sectoren.

AI wordt een creatieve partner

Terwijl Nederland worstelt met de implementatie van de huidige generatie AI, staat de volgende technologische golf al voor de deur. De ontwikkelingen wijzen in de richting van een toekomst waarin AI steeds meer een partner wordt in complex denkwerk. Dit vraagt om een herbezinning op vaardigheden; naast technische competenties winnen juist uniek menselijke eigenschappen als creatief denken, veerkracht en leiderschap aan belang. De belangrijkste "AI-vaardigheid" is wellicht niet technisch, maar metacognitief: het vermogen om effectief met intelligente systemen samen te werken. Dit heeft diepgaande implicaties voor het onderwijs, dat zich minder kan richten op het reproduceren van kennis en meer op het aanleren van kritisch en creatief denkvermogen.

De meest fundamentele verandering voltrekt zich mogelijk in de wetenschap, waar AI evolueert van een hulpmiddel voor data-analyse naar een actieve partner in het ontdekkingsproces. Er wordt al gesproken over een vierde paradigma van wetenschap: AI-gedreven ontdekking. Modellen getraind op data uit verschillende domeinen kunnen nieuwe, testbare hypotheses genereren en wetenschappers helpen complexe problemen aan te pakken die voorheen onoplosbaar leken. Deze ontwikkelingen onderstrepen de noodzaak van voortdurende waakzaamheid, want de risico's rondom bias, transparantie en verantwoordelijkheid groeien mee met de capaciteiten van de technologie. De Nederlandse weg van bedachtzame, waarde-gedreven implementatie is geen afwijzing van vooruitgang, maar een andere, wellicht duurzamere definitie ervan.

Meer lezen
Kees van Brink Kees van Brink

Privacy & Toezicht - De Stand

De overheid zet steeds vaker algoritmes in voor cruciale beslissingen, van fraudebestrijding tot sociale voorzieningen. Hoewel dit efficiëntie belooft, leidden mislukkingen tot grote schade voor burgers. Dit roept een fundamentele vraag op: wie controleert de onzichtbare systemen die over ons oordelen en is het toezicht wel sterk genoeg om onze grondrechten te beschermen?

De overheid zet steeds vaker algoritmes in voor cruciale beslissingen, van fraudebestrijding tot sociale voorzieningen. Hoewel dit efficiëntie belooft, leidden mislukkingen tot grote schade voor burgers. Dit roept een fundamentele vraag op: wie controleert de onzichtbare systemen die over ons oordelen en is het toezicht wel sterk genoeg om onze grondrechten te beschermen?

Barsten in het digitale fundament

Het debat over de risico's van algoritmes is in Nederland geen abstracte discussie. Twee geruchtmakende zaken, de Toeslagenaffaire en de rechtszaak tegen het Systeem Risico Indicatie (SyRI), hebben pijnlijk duidelijk gemaakt hoe geautomatiseerde systemen diepgaande mensenrechtenschendingen kunnen veroorzaken. Dit zijn geen hypothetische gevaren, maar gedocumenteerde mislukkingen van de staat die de context vormen voor elke discussie over privacy en toezicht.

De Toeslagenaffaire staat in het collectief geheugen gegrift als een van de grootste schandalen in de recente geschiedenis. Een datagedreven aanpak van fraudebestrijding door de Belastingdienst speelde een verwoestende rol. De parlementaire ondervragingscommissie concludeerde in haar rapport Ongekend Onrecht dat de grondrechten van burgers waren geschonden. Het systeem was ontworpen om kleine fouten als fraude te behandelen, wat leidde tot een genadeloze 'alles-of-niets'-benadering zonder ruimte voor menselijke maat.

 De technologische spil in de affaire was de Fraude Signalering Voorziening (FSV), een applicatie die later door de Autoriteit Persoonsgegevens (AP) onrechtmatig werd verklaard. De FSV functioneerde als een illegale zwarte lijst waarin persoonsgegevens zonder wettelijke grondslag werden verwerkt. Zelfs na de onthullingen bleken de problemen hardnekkig; de Algemene Rekenkamer signaleerde later nog steeds ernstige privacyproblemen bij algoritmes die niet voldeden aan de Algemene verordening gegevensbescherming (AVG). Het schandaal werd verergerd door een systemisch falen in de informatiehuishouding, waardoor cruciale dossiers versnipperd of vernietigd werden.

 

De affaire was echter meer dan een technologisch falen; het was een symptoom van institutionele blindheid. Het algoritme fungeerde als een versneller voor een politieke en ambtelijke cultuur die "blind voor mens en recht" was. De technologie versterkte een bestaand institutioneel gebrek en gaf een schijn van objectiviteit aan beslissingen die fundamenteel onrechtvaardig waren.

De rechter corrigeert de staat

Een andere cruciale episode is de rechtszaak tegen het Systeem Risico Indicatie (SyRI). Dit systeem koppelde persoonsgegevens van verschillende instanties om de kans op fraude met uitkeringen in specifieke wijken te voorspellen. Een coalitie van maatschappelijke organisaties spande een rechtszaak aan tegen de staat, met het argument dat SyRI een instrument voor massasurveillance was. In een baanbrekende uitspraak oordeelde de rechtbank Den Haag in 2020 dat de wetgeving die SyRI mogelijk maakte, in strijd was met het Europees Verdrag voor de Rechten van de Mens (EVRM), dat het recht op een privéleven beschermt. Het systeem werd als onvoldoende transparant en verifieerbaar beschouwd. De geheimhouding rondom het risicomodel maakte het voor burgers onmogelijk om te begrijpen waarom zij als risico werden aangemerkt.

 

De uitspraak stelt een belangrijk juridisch precedent: ondoorzichtigheid in algoritmisch bestuur kan een schending van mensenrechten zijn. Een systeem kan niet "noodzakelijk in een democratische samenleving" zijn als de werking ervan niet controleerbaar is. De rechter legt hiermee de lat hoog voor toekomstige overheidsalgoritmes. Het is niet voldoende dat een systeem effectief is; het moet ook aantoonbaar eerlijk, transparant en controleerbaar zijn.

Een toezichthouder met te weinig middelen

In het hart van de bescherming van persoonsgegevens staat de Autoriteit Persoonsgegevens (AP), de onafhankelijke toezichthouder die waakt over de naleving van de AVG. De effectiviteit van deze digitale waakhond is echter een punt van zorg, gekenmerkt door een groeiend takenpakket en chronisch ontoereikende middelen. De AP worstelt met aanhoudende tekorten in budget en personeel, waardoor er "zo goed als geen ruimte" is om op eigen initiatief proactieve onderzoeken te starten.

 

Deze onderfinanciering is een consistente politieke keuze die een 'toezichtstekort' heeft gecreëerd. Terwijl de overheid de inzet van algoritmes stimuleert, laat ze de belangrijkste toezichthouder onderbemand. Dit creëert een structurele onbalans die toekomstige schandalen waarschijnlijk maakt, zeker nu de AP in haar eigen Rapportage AI- & Algoritmerisico’s Nederland concludeert dat de risico's van AI toenemen en de beheersing achterblijft.

 

De overheid mist cruciale kennis

De effectiviteit van toezicht hangt ook af van de capaciteit van de overheid zelf om algoritmes verantwoord te beheren. De Wetenschappelijke Raad voor het Regeringsbeleid (WRR) concludeert dat de overheid kampt met een kritiek tekort aan ICT-expertise en te afhankelijk is van externe inhuur. De diagnose is er een van "slimme mensen in domme systemen", wat impliceert dat de organisatiestructuur zelf een effectief gebruik van kennis in de weg staat.

 

Hoe dit gebrek aan expertise zich vertaalt naar de praktijk, blijkt uit onderzoek van de Algemene Rekenkamer. In het rapport Algoritmes getoetst voldeed een meerderheid van de negen onderzochte overheidsalgoritmes niet aan de basisvereisten. Een cruciaal probleem is het gebrek aan verantwoording wanneer algoritmes worden ingekocht. Dit creëert een vicieuze cirkel: de overheid besteedt uit omdat ze de kennis niet heeft, maar daardoor kan ze het uitbestedingsproces niet effectief sturen.

 

Europa trekt de teugels aan

Terwijl Nederland worstelt met zijn tekortkomingen, ontvouwt zich op Europees niveau een nieuw wettelijk kader. De AI Act, die in 2024 is gepubliceerd, introduceert een risicogebaseerde aanpak voor de regulering van kunstmatige intelligentie. AI-systemen worden gecategoriseerd op basis van risico, met bijbehorende verplichtingen. Praktijken met een onaanvaardbaar risico, zoals 'social scoring' door overheden, worden verboden.

 

Systemen met een hoog risico, zoals die voor rechtshandhaving, migratie en toegang tot sociale voorzieningen, worden onderworpen aan strenge eisen voordat ze mogen worden ingezet. Dit omvat risicobeoordelingen, het gebruik van hoogwaardige data, menselijk toezicht en een hoog niveau van nauwkeurigheid. Voor systemen met een beperkt risico, zoals chatbots, gelden transparantieverplichtingen. Voor de meeste AI-toepassingen, zoals spamfilters, komen er geen nieuwe regels.

Een nieuwe standaard voor bestuur

Nederland staat op een kritiek punt. Er gaapt een kloof tussen de ambitie van een digitale koploper en de realiteit van het bestuurlijk vermogen. Grote schandalen zijn symptomen van systemische zwaktes in expertise en toezicht. De strenge Europese regelgeving, aangevoerd door de AI Act, dwingt een hogere standaard van verantwoording af. Dit moment biedt een scherpe keuze: een fundamentele hervorming van de aanpak, of het risico lopen een nieuw tijdperk van "ongekend onrecht" binnen te slapen. Welke rol moeten burgers spelen om te zorgen dat waarden als rechtvaardigheid en menselijke waardigheid niet uit de code worden geschreven?

Meer lezen
Kees van Brink Kees van Brink

Arbeidsmarkt & HR - De Stand

Artificiële intelligentie is een realiteit op de Nederlandse werkvloer geworden. Terwijl sommigen een productiviteitsrevolutie verwachten, vrezen anderen massaal banenverlies. Wat betekent de komst van AI echt voor onze banen, carrières en de toekomst van werk in Nederland? Dit artikel ontleedt de feiten achter de hype en schetst een beeld van de komende transformatie.

Artificiële intelligentie is een realiteit op de Nederlandse werkvloer geworden. Terwijl sommigen een productiviteitsrevolutie verwachten, vrezen anderen massaal banenverlies. Wat betekent de komst van AI echt voor onze banen, carrières en de toekomst van werk in Nederland? Dit artikel ontleedt de feiten achter de hype en schetst een beeld van de komende transformatie.

Mondiale voorspellingen lopen sterk uiteen

De discussie over de impact van AI op de arbeidsmarkt wordt gedomineerd door schijnbaar tegenstrijdige visies van wereldwijde denktanks. Het World Economic Forum (WEF) schetst in zijn Future of Jobs Report 2025 een beeld van netto banengroei, gedreven door de groene transitie en technologie. Dit macro-economische perspectief suggereert dat technologische vooruitgang, net als in het verleden, per saldo meer werk creëert dan het vernietigt.

 Tegenover dit optimisme staat de gedetailleerde taakanalyse van het McKinsey Global Institute (MGI). Hun onderzoek stelt dat tegen 2030 activiteiten die tot 30 procent van de gewerkte uren in de VS uitmaken, geautomatiseerd kunnen worden, mede door generatieve AI. Dit impliceert geen direct banenverlies, maar een fundamentele verandering in de inhoud van vrijwel elke baan en een enorme omscholingsopgave.

 Een meer alarmerend signaal komt uit een werkdocument van Stanford University. Dit onderzoek, gebaseerd op recente salarisdata, toont aan dat de werkgelegenheid voor starters in AI-gevoelige beroepen significant is gedaald, terwijl die voor ervaren professionals stabiel bleef of groeide. De transitiepijn is dus niet iets voor de verre toekomst, maar is nu al voelbaar voor de meest kwetsbare groep op de arbeidsmarkt. 

Deze drie visies spreken elkaar niet tegen, maar belichten verschillende lagen van de disruptie. Het WEF kijkt naar het eindresultaat op de lange termijn, McKinsey analyseert de onderliggende verandering in taken, en Stanford toont de eerste, pijnlijke symptomen in real-time. Zelfs als er netto banen bijkomen, kan de korte termijn gekenmerkt worden door frictie en ongelijkheid.

De ervaringskloof bedreigt starters

De data van Stanford wijzen op een structureel probleem: de devaluatie van onervarenheid. Routinematige instaptaken, de traditionele leerschool voor juniors, worden in hoog tempo overgenomen door generatieve AI. Bedrijven kunnen nu met een kleiner team van ervaren medewerkers en AI-assistenten productiever zijn, waardoor de noodzaak om starters op te leiden afneemt. Dit creëert een potentieel kritieke ervaringskloof: als de eerste sport van de carrièreladder verdwijnt, hoe leiden we dan de volgende generatie senior talent op? Dit vraagstuk dwingt tot een herbezinning op stages, traineeships en kennisoverdracht.

Nederland kiest voor waardig werk

In Nederland is de impact van AI eveneens concreet. De AI Monitor 2024 van het CBS en TNO toont aan dat bijna 23% van de bedrijven AI-technologieën gebruikt, vooral in marketing en administratie. Hiermee is AI de experimentele fase voorbij en wordt het een integraal onderdeel van de bedrijfsvoering.

 De discussie wordt hier echter niet alleen in economische termen gevoerd. De Sociaal-Economische Raad (SER) benadrukt de noodzaak om "waardig werk" centraal te stellen, waarbij menselijke waardigheid en zeggenschap gewaarborgd blijven. Dit typisch Nederlandse Rijnlandse model positioneert AI niet als een onvermijdelijke natuurkracht, maar als een instrument dat we met bewust beleid kunnen vormgeven.

 Een analyse van het UWV voegt hieraan toe dat AI vooral denkwerk op middelbaar en hoger niveau raakt, zoals in de administratieve, juridische en creatieve sectoren. Dit markeert een historische trendbreuk: waar automatisering eerst arbeiders trof, richt AI zich nu op de kern van kenniswerk. De vanzelfsprekendheid dat een hogere opleiding immuniteit biedt tegen automatisering is daarmee verdwenen.

De HR-afdeling ondergaat een transformatie

Nergens is de transformatie zo direct voelbaar als binnen Human Resources. HR-afdelingen implementeren zelf op grote schaal AI-tools om processen te stroomlijnen. Onderzoeksbureau Gartner meldde dat begin 2025 al 61% van de HR-leiders bezig was met de inzet van generatieve AI. Een analyse van PwC stelt dat AI-agenten de menselijke inspanning in HR-processen met 40 tot 70% kunnen verminderen. AI-systemen analyseren cv's, voeren screenende gesprekken en stellen gepersonaliseerde leerpaden voor.

Deze technologische sprong komt echter met grote verantwoordelijkheden. De Europese Commissie heeft in haar AI Act veel van deze HR-toepassingen geclassificeerd als "hoog-risico". Dit dwingt organisaties tot strenge eisen rond transparantie en menselijk toezicht om discriminatie te voorkomen. Onderzoek van onder meer Tilburg University waarschuwt dat algoritmes, getraind op historische data, bestaande vooroordelen kunnen versterken.

 De grootste uitdaging is echter de vaardighedenkloof binnen HR zelf. Een enquête van AIHR wees uit dat slechts 9% van de HR-professionals zich voldoende toegerust voelt om met deze technologieën te werken. Paradoxaal genoeg kan de AI Act hier een positieve rol spelen: de wet dwingt bedrijven om hun processen kritisch te evalueren en te investeren in datageletterdheid, wat kan leiden tot eerlijkere HR-praktijken.

Nederlandse organisaties pakken de handschoen op

De abstracte discussie krijgt betekenis door te kijken naar concrete toepassingen in Nederland. Een sprekend voorbeeld is het UWV, dat samenwerkt met de Nederlandse AI-scale-up 8vance om zijn matching-systeem te moderniseren. Dit nieuwe platform kijkt niet naar functietitels, maar matcht kandidaten en vacatures op basis van een diepe analyse van vaardigheden en competenties. Dit markeert een verschuiving van een statisch, cv-gedreven model naar een dynamisch model waarin overdraagbare vaardigheden de centrale valuta zijn.

.De toekomst vraagt om menselijke vaardigheden

De rode draad in alle analyses is dat AI een fundamentele verschuiving in gevraagde vaardigheden veroorzaakt. De belangrijkste competenties voor de toekomst zijn een combinatie van technologische geletterdheid en uitgesproken menselijke eigenschappen als creatief en analytisch denken, veerkracht en nieuwsgierigheid. Naarmate AI routinematige cognitieve taken overneemt, worden "soft skills" zoals communicatie en samenwerken cruciaal. Een nieuwe, essentiële vaardigheid is het kritisch kunnen beoordelen van de output van AI-systemen.

De professional van de toekomst is geen techneut, maar een "centaur": iemand die diepgaande menselijke expertise combineert met de rekenkracht van AI. Een AI kan een contract opstellen, maar het vereist een menselijk oordeel om te bepalen of het eerlijk en strategisch is. De sleutel is niet zozeer programmeren, maar het stellen van de juiste vragen, het kritisch evalueren van de antwoorden en de wijsheid om het advies van de machine soms te negeren.

 AI is noch een sloopkogel, noch een simpele oplossing. De impact is complex en wordt nu gevormd door de keuzes van bedrijven en beleidsmakers. De Nederlandse aanpak, met zijn nadruk op "waardig werk", biedt een waardevol kompas. Het succes hangt af van een ongekende investering in scholing en een herbezinning op de waarde van vaardigheden boven diploma's. Nu AI steeds meer kenniswerk overneemt, staat de definitie van wat het betekent om een professional te zijn ter discussie.

Meer lezen
Kees van Brink Kees van Brink

Reizen en Toerisme-De Stand

De voorpret van een reis is heerlijk, maar de logistiek vaak een struikelblok. Artificiële intelligentie nestelt zich nu geruisloos in dit proces, als een co-piloot die alles vormgeeft: van persoonlijke routes tot de zelfrijdende taxi van straks. Wat betekent deze technologische sturing voor onze reiservaring, veiligheid en autonomie als reiziger?

De voorpret van een reis is heerlijk, maar de logistiek vaak een struikelblok. Artificiële intelligentie nestelt zich nu geruisloos in dit proces, als een co-piloot die alles vormgeeft: van persoonlijke routes tot de zelfrijdende taxi van straks. Wat betekent deze technologische sturing voor onze reiservaring, veiligheid en autonomie als reiziger?

Je reisplanner krijgt een brein

Het traditionele plannen van een reis is een versnipperd proces, waarbij reizigers door een oerwoud van websites navigeren. AI-gedreven reisplanners beloven dit te veranderen in een moeiteloze ervaring. Platformen zoals Booking.com zijn geëvolueerd naar geavanceerde aanbevelingssystemen die de genuanceerde, conversationele wens van een gebruiker begrijpen. Een vage zoekopdracht wordt zo vertaald naar concrete, boekbare suggesties. Deze ontwikkeling vormt de opmaat naar een volledig geïntegreerde planning.

 

De achterliggende technologieën zijn complex, maar de principes helder. Machine learning (ML), dat systemen in staat stelt van gebruikersgedrag te leren, analyseert elke klik en boeking om voorkeuren te voorspellen. Natural Language Processing (NLP) is de techniek die systemen vragen in natuurlijke taal laat begrijpen, zodat zoekvragen worden omgezet in gestructureerde data. Dit wordt gecombineerd met AI-gedreven personalisatie op basis van vergelijkbare gebruikers, wat resulteert in een hyper-persoonlijk reisschema. Dit systeem kan zelfs helpen verborgen parels te ontdekken en overtoerisme tegen te gaan.

 

De ambitie reikt verder dan alleen de planning en omvat een doorlopende "AI-reisassistent" die de reiziger continu ondersteunt, van automatisch omboeken tot restaurantaanbevelingen. Onderzoek van technologiebedrijf Amadeus toont aan dat een meerderheid van de reizigers bereid is voor zo'n dienst te betalen. Deze belofte van gemak creëert echter een spanning met privacy, aangezien de effectiviteit afhangt van de diepgang van verzamelde persoonlijke data. Bovendien ondermijnt de onbetrouwbaarheid van de technologie soms het vertrouwen: een kwart van de gebruikers meldt onjuiste informatie, wat de belofte van een moeiteloze ervaring tenietdoet.

 

Nederland als proeftuin voor autonoom vervoer

Terwijl software onze reis voorbereidt, wordt op de Nederlandse wegen en luchthavens de hardware voor de volgende fase getest. Autonoom vervoer is hier geen toekomstmuziek, maar een praktijk die al in afgebakende omgevingen wordt toegepast. Deze weloverwogen nationale strategie richt zich op het stapsgewijs opbouwen van complexiteit. Een sprekend voorbeeld hiervan is de proef op Luchthaven Schiphol met zelfrijdende bagagevoertuigen. Het doel is een volledig autonome, emissievrije grondoperatie in 2050, waarbij de voertuigen eerst op eenvoudige routes worden getest alvorens ze in drukkere omgevingen worden ingezet.

 

Deze aanpak wordt onderschreven door TNO, dat zich richt op het oplossen van concrete problemen zoals het chauffeurstekort. Hun adagium is "begin zo simpel mogelijk", waarbij autonome vrachtwagens eerst worden ingezet in zogenoemde Operational Design Domains (ODD’s): afgebakende, voorspelbare omgevingen zoals de containerterminals in de Rotterdamse haven. Ook de Nederlandse Spoorwegen (NS) experimenteert met Automatic Train Operation (ATO), een systeem dat machinisten ondersteunt om efficiënter te rijden en zo de capaciteit op het drukke spoornet te verhogen.

 

Op regionale schaal wordt deze strategie uitgerold door Hive.Mobility in Noord-Nederland. In zogenoemde fieldlabs wordt gewerkt aan de automatisering van busdepots en het testen van autonome bussen. In tegenstelling tot de "robotaxi-race" in Amerikaanse steden, kiest Nederland voor een pragmatisch en risicomijdend proeftuinmodel. Deze systematische aanpak, gericht op samenwerking tussen overheden, bedrijven en kennisinstellingen, positioneert Nederland als een bedachtzame pionier in de toepassing van autonome systemen.

 

Veiligheid is kilometers of wiskunde

De belangrijkste voorwaarde voor acceptatie van autonoom vervoer is het vertrouwen in de veiligheid. Binnen de industrie domineren twee filosofieën: de ene is gebaseerd op ervaring, de andere op wiskundige logica. De empirische benadering wordt aangevoerd door Waymo, dat zijn veiligheidsargument bouwt op de analyse van miljoenen gereden kilometers. De statistieken tonen aan dat hun systeem significant minder ongevallen met letsel veroorzaakt dan menselijke bestuurders, wat de veiligheid door superieure prestaties in de praktijk poogt te bewijzen.

 

Een fundamenteel andere benadering komt van Mobileye, dat stelt dat miljoenen kilometers nooit een fatale fout kunnen uitsluiten. Hun alternatief is Responsibility-Sensitive Safety (RSS), een wiskundig model dat veilig rijden in transparante, verifieerbare regels vastlegt. Dit model functioneert als een "veiligheidsenvelop" die onafhankelijk van het AI-stuurbrein opereert en elke manoeuvre blokkeert die tot een gevaarlijke situatie kan leiden. Het voertuig kan hierdoor assertief rijden, maar zal volgens het model nooit een ongeval veroorzaken.

 

Deze twee benaderingen vertegenwoordigen een dieper debat over hoe we vertrouwen in complexe AI-systemen opbouwen. De methode van Waymo is inductief: uit miljoenen observaties wordt een algemene regel afgeleid, maar dit kan een onvoorziene gebeurtenis nooit volledig uitsluiten. De methode van Mobileye is deductief: beginnend met een set regels wordt logisch bewezen dat elke handeling veilig is. Dit biedt een sterkere garantie, maar is afhankelijk van de aanname dat het model van de wereld compleet is. Het debat is dus een fundamentele afweging tussen empirisch bewijs en formele logica.

De toekomst vraagt om Europese regie

De intelligentie van een enkel voertuig is niet voldoende om een revolutie in mobiliteit te realiseren; de technologie functioneert binnen een groter ecosysteem. De noodzaak van een slimme infrastructuur wordt onderstreept door het werk van Rijkswaterstaat. Hun visie op Smart Mobility richt zich op de veiligheid en doorstroming van het gehele transportnetwerk, waarbij betrouwbare en snelle communicatie een cruciale voorwaarde is. Het Europese 5G-Blueprint-project was hierin een belangrijke stap en ontwikkelde de architectuur voor naadloze 5G-connectiviteit over de grens.

 

Op beleidsniveau wordt de regie gevoerd door de Europese Commissie met haar strategie voor Cooperative, Connected and Automated Mobility (CCAM). Het hoofddoel is niet één Europese zelfrijdende auto te ontwikkelen, maar een geharmoniseerd raamwerk te creëren dat interoperabiliteit waarborgt. Dit moet ervoor zorgen dat een voertuig van een Duitse fabrikant kan communiceren met de Nederlandse infrastructuur en veilig kan opereren onder Franse verkeersregels, door investeringen en regelgeving te coördineren.

 

Deze inspanningen tonen een strategische arbeidsverdeling. Waar Amerikaanse partijen als Waymo zich richten op de innovatie van het product, het autonome voertuig zelf, concentreert de Europese Unie zich op het bouwen van het operationele en regelgestuurde ecosysteem. Dit is geen teken dat Europa achterloopt, maar dat het een andere, even cruciale rol vervult. Zonder deze orkestratie van standaarden en grensoverschrijdende afspraken kan elders ontwikkelde technologie niet effectief op het continent worden uitgerold.

De reis als bestemming

Artificiële intelligentie ontwikkelt zich tot het centrale zenuwstelsel van onze gehele reiservaring. Het fungeert als persoonlijke planner, autonome chauffeur en opereert binnen een complex, digitaal verbonden ecosysteem. Deze transformatie biedt ongekende mogelijkheden voor efficiëntie, veiligheid en personalisatie. Tegelijkertijd roept het fundamentele vragen op over onze rol als reiziger. Nu de route steeds meer door algoritmes wordt bepaald en het stuur uit onze handen verdwijnt, wat wordt dan de essentie van reizen: de efficiënte verplaatsing, of de onvoorspelbare ontdekking die we onderweg zelf nog kunnen maken?

Meer lezen
Kees van Brink Kees van Brink

Landbouw en Mileu-De Stand

Een boer die per plant de stikstofbehoefte controleert, een ecoloog die de wildstand op de Veluwe in minuten analyseert, en een klimatoloog die een hittegolf sneller voorspelt. Artificiële intelligentie is een invloedrijk instrument in het beheer van onze leefomgeving. Wat betekent deze ontwikkeling voor de Nederlandse landbouw, natuur en onze omgang met klimaatverandering?

Een boer die per plant de stikstofbehoefte controleert, een ecoloog die de wildstand op de Veluwe in minuten analyseert, en een klimatoloog die een hittegolf sneller voorspelt. Artificiële intelligentie is een invloedrijk instrument in het beheer van onze leefomgeving. Wat betekent deze ontwikkeling voor de Nederlandse landbouw, natuur en onze omgang met klimaatverandering?

AI versterkt de kennis van boeren

De Nederlandse landbouw staat onder grote druk om te verduurzamen en vindt in artificiële intelligentie een cruciaal hulpmiddel voor die transitie. AI vormt het brein achter precisielandbouw, een vorm van landbouw die data gebruikt om gewassen gericht te verzorgen en zo efficiënter om te gaan met water, meststoffen en bestrijdingsmiddelen. De technologie vervangt niet de vakkennis van de boer, maar versterkt deze met een ongekend detailniveau. De kern van deze aanpak is de overstap van gissen naar weten, mogelijk gemaakt door een constante datastroom.

Sensoren, drones en satellieten leveren een enorme hoeveelheid informatie die door AI-modellen wordt geanalyseerd. Een belangrijke techniek hierbij is computer vision, waarbij algoritmes beelden analyseren om onkruid of ziektes te herkennen, waardoor een machine heel gericht kan ingrijpen. Een andere toepassing is predictive analytics, waarbij machine learning-modellen historische en actuele data combineren om bijvoorbeeld oogstopbrengsten te voorspellen. Deze datagedreven methoden vormen de basis voor een veerkrachtigere landbouwsector.

Nederland loopt voorop in deze ontwikkelingen, met Wageningen University & Research (WUR) als centraal kennisinstituut. Onderzoekers ontwikkelen er AI-modellen die tot vijftig jaar vooruit kunnen kijken om de effecten van landbouwstrategieën onder diverse klimaatscenario's te simuleren. Om innovaties naar de praktijk te brengen, leidt WUR de Nederlandse tak van AgrifoodTEF, een Europees netwerk waar bedrijven AI-toepassingen in realistische omgevingen testen.

Deze technologische vooruitgang is direct verbonden met maatschappelijke opgaven. Een recent WUR-rapport toont aan dat datagedreven innovaties de ammoniakuitstoot op korte termijn met 41 tot 50 procent kunnen reduceren. Dit illustreert dat AI een cruciaal onderdeel kan zijn van de oplossing voor het stikstofprobleem. Deze ontwikkelingen worden ondersteund door een nationale strategie, met financiering uit het Nationaal Groeifonds en specifieke onderzoeksprogramma’s van NWO.

AI automatiseert het monitoren van natuur

Dezelfde principes die de landbouw transformeren, worden steeds vaker ingezet voor het beschermen van natuur en biodiversiteit. Het in kaart brengen van de gezondheid van ecosystemen is van oudsher een arbeidsintensieve taak die vaak slechts een momentopname oplevert. AI biedt een oplossing voor dit schaalprobleem door de analyse van enorme hoeveelheden data, zoals foto's, geluid en satellietbeelden, te automatiseren.

Een sprekend internationaal voorbeeld is Wildlife Insights, een samenwerking tussen Google en natuurorganisaties als het Wereld Natuur Fonds (WWF). Duizenden cameravallen genereren miljoenen beelden die handmatig onmogelijk te verwerken zijn. De AI van dit platform analyseert 3,6 miljoen beelden per uur, filtert lege foto's en identificeert diersoorten met hoge nauwkeurigheid, wat onderzoek naar populaties enorm versnelt.

Naast beelden kan AI ook geluid en satellietdata analyseren om migratiepatronen te volgen of de kwaliteit van habitats (leefomgevingen) te beoordelen. Het Alan Turing Institute in het Verenigd Koninkrijk combineert satellietbeelden met data van burgerwetenschap om biodiversiteitshotspots te lokaliseren. Deze aanpak overbrugt de kloof tussen lokale waarnemingen en een landelijk dekkend beeld, een ontwikkeling die ook voor Nederland zeer relevant is.

De Nederlandse overheid stimuleert deze technologie actief. Zo heeft het Netherlands Space Office (NSO) een oproep gedaan aan ondernemers om met behulp van satellietdata nieuwe diensten te ontwikkelen voor biodiversiteitsmonitoring, specifiek rond landbouwgebieden. Dit soort instrumenten helpt natuurbeheerders om de effectiviteit van hun maatregelen te meten. Zo evolueert de technologie van beschrijvend naar voorspellend, met modellen die kunnen aangeven waar ontbossing dreigt.

AI versnelt voorspellingen van klimaatverandering

Op planetaire schaal wordt AI een onmisbaar instrument in de klimaatwetenschap. Traditionele, op natuurkunde gebaseerde klimaatmodellen vereisen enorme rekenkracht en worstelen soms met de complexiteit van het aardsysteem. Machine learning biedt een complementaire aanpak door uitmuntend te zijn in het herkennen van subtiele patronen in gigantische datasets, wat leidt tot snellere en soms nauwkeurigere voorspellingen.

Het KNMI heeft de potentie van AI volledig omarmd en verankerd in zijn langetermijnstrategie. In het document 'Ambition 2035' stelt het instituut dat AI zal helpen om weerswaarschuwingen met een hogere resolutie en kortere doorlooptijd te realiseren. Het doel is niet om modellen te vervangen, maar om een hybride aanpak te ontwikkelen die AI combineert met menselijke expertise.

Deze ontwikkeling wordt gevoed door een ongekende beschikbaarheid van data, grotendeels dankzij Europese initiatieven. Het Copernicus-programma van de Europese Unie genereert met zijn satellieten dagelijks terabytes aan aardobservatiedata. AI is essentieel om deze datastroom te verwerken en er waardevolle informatie uit te destilleren. De kracht van deze combinatie wordt erkend op het hoogste niveau; het IPCC gebruikte een kaart van klimaateffecten in Afrika die met behulp van machine learning was samengesteld.

Betere voorspellingen maken effectiever handelen mogelijk. Nauwkeurigere prognoses van zon- en windenergie helpen het elektriciteitsnet stabiel te houden, terwijl verbeterde modellen voor extreem weer bijdragen aan een betere voorbereiding op overstromingen of droogte. Zo wordt AI een cruciaal instrument voor zowel klimaatmitigatie als -adaptatie, door ons te helpen de opwarming te beperken en ons aan te passen aan de gevolgen.

Nederland pakt kansen en risico's aan

Nederland bevindt zich in een uitstekende positie om een leidende rol te spelen in de verantwoorde toepassing van AI voor milieu en klimaat. Het land staat op de eerste plaats op de Global Index on Responsible AI, wat wijst op een sterke basis op het gebied van bestuur en ethische kaders. Met het AiNed-programma investeert de overheid substantieel in de verdere versterking van dit ecosysteem. Toch is technologische vooruitgang alleen niet voldoende.

Cruciale randvoorwaarden, zoals wetgeving en data-eigendom, vereisen aandacht. De aanstaande Europese AI-verordening zal een juridisch kader bieden om risico's te reguleren en vertrouwen te vergroten. Minstens zo belangrijk is de vraag wie eigenaar is van de data die precisielandbouw en milieumonitoring genereren. Rapporten van TNO en de WRR waarschuwen dat deze data in handen kunnen komen van enkele grote bedrijven, wat de autonomie van boeren en overheden kan ondermijnen.

Uiteindelijk blijft de menselijke factor doorslaggevend, want de beste technologie is nutteloos zonder de juiste kennis en implementatie. De Voedsel- en Landbouworganisatie van de VN (FAO) benadrukt dat training en onderwijs cruciaal zijn om te zorgen dat ook kleine boeren kunnen profiteren. AI is een krachtig hulpmiddel, maar geen magische oplossing; het succes hangt af van een zorgvuldige integratie met menselijke expertise en een robuust wettelijk kader.

Nu AI ons de data geeft om elke plant, elk dier en elke weersverandering te meten, wordt de belangrijkste vraag niet langer wat we kunnen weten, maar hoe we met die kennis verstandig omgaan.

Meer lezen
Kees van Brink Kees van Brink

Met AI op reis?

Een vakantie boeken was ooit een kwestie van stapels brochures, lange avonden achter de laptop en eindeloos surfen langs vergelijkingssites. Vandaag schuift een groeiende groep Nederlanders dat allemaal opzij voor kunstmatige intelligentie. Maar verandert die digitale reisassistent onze vakantietradities werkelijk, of is het vooral een slimme filter in een zee van keuzestress?

Een vakantie boeken was ooit een kwestie van stapels brochures, lange avonden achter de laptop en eindeloos surfen langs vergelijkingssites. Vandaag schuift een groeiende groep Nederlanders dat allemaal opzij voor kunstmatige intelligentie. Maar verandert die digitale reisassistent onze vakantietradities werkelijk, of is het vooral een slimme filter in een zee van keuzestress?

 

Van folders naar AI

Uit een marktanalyse van ABN AMRO Financial Focus blijkt dat 39 procent van de Nederlanders inmiddels AI gebruikt om vakantie-inspiratie op te doen en arrangementen samen te stellen. Nog eens 63 procent verwacht dit bij de volgende boeking te doen. Vooral jongeren lopen voorop: bij Generatie Z denkt 80 procent AI te gebruiken voor hun vakantie, terwijl onder babyboomers de helft nog liever traditioneel plant.

Reisorganisaties hebben de hint begrepen. TUI lanceerde Lena, een AI-assistent die fungeert als virtuele influencer. Lena geeft persoonlijke tips, sneller dan een menselijke reisblogger en met beelden die rechtstreeks uit de databank komen. Daarmee speelt de reisgigant in op de wens van consumenten om geen standaardpakket te krijgen, maar een ervaring die aansluit op hun eigen smaak.

 

De nieuwe gereedschapskist van de reiziger

Voor wie zelf experimenteert met digitale assistenten zijn er talloze opties. Volgens een analyse van TravelValley is ChatGPT momenteel de meest gebruikte tool, al staat of valt de kwaliteit ervan met hoe precies je je vraag formuleert. De gratis versie biedt routes en hotspots in enkele seconden, de betaalde variant koppelt met Google Maps en levert dynamische kaarten.

 

Speciaal voor Nederlandstaligen is er Layla.ai, die complete routes genereert met directe links naar Booking.com en Skyscanner. Wie droomt van Amerikaanse roadtrips kan terecht bij Roadtrippers.com, terwijl Mindtrip.ai routes combineert met restaurant- en hoteladvies. Toch schuilt er een valkuil: AI kan informatie verhaspelen of combineren tot iets dat nooit zo is gezegd. Daarom luidt het advies van TravelValley om AI-tips altijd te spiegelen aan traditionele reisblogs en reviews.

 

Hospitality tussen hoop en vrees

Niet alleen vakantiegangers, ook hotels en touroperators voelen de impact. Uit onderzoek van Adyen blijkt dat 26 procent van de Nederlanders AI gebruikte om hun zomervakantie te plannen, een stijging van 91 procent ten opzichte van een jaar eerder. Zelfs boomers omarmen de technologie, vooral omdat AI hen helpt de eindeloze stroom gesponsorde influencer-posts te omzeilen.

 

Toch worstelt de sector. Zo blijft het koppelen van betalingen tussen online platforms en fysieke hotels een technische hobbel. Zonder vlekkeloze transacties wordt de belofte van AI niet waargemaakt.

 

Tegelijkertijd melden hotels meer fraude, al filteren AI-systemen zoals Protect van Adyen de meeste nepboekingen eruit. Het laat zien dat de digitalisering kansen biedt, maar ook nieuwe risico’s meebrengt.

 

Nederlandse innovaties in de spotlight

Naast de internationale platforms groeit ook lokaal aanbod. Wonderplan positioneert zich als toegankelijke AI-planner met een gebruiksvriendelijke interface en offline functionaliteit. Reizigers kunnen hun plannen downloaden als PDF, handig in gebieden zonder stabiele verbinding. Die praktische benadering sluit goed aan bij de Nederlandse voorkeur voor efficiëntie en zekerheid.

 

Een andere opvallende speler is Trip Planner AI, die sociale media koppelt aan reisroutes. Bezienswaardigheden uit TikTok-video’s of Instagram Reels (korte, vermakelijke video's die gebruikers kunnen maken en delen) worden vertaald naar een concreet reisschema. Voor de digitale generatie voelt dat als een logische stap: de scheidslijn tussen inspiratie en uitvoering vervaagt.

 

Booking.com zet de standaard

In eigen land zet marktleider Booking.com in op generatieve AI. Nieuwe functies zoals Smart Filter en Property Q&A maken het mogelijk om in gewone taal specifieke wensen door te geven: van een hotel in Amsterdam met dakterras tot de vraag of er laadpalen zijn. Bovendien vat de AI automatisch reviews samen, waardoor reizigers niet meer door eindeloze meningen hoeven te scrollen.

 

De AI Trip Planner, die eerst in de Verenigde Staten werd getest, komt nu ook naar Nederland. Daarmee combineert Booking.com inspiratie, planning en boeken in één platform, wat de kans groot maakt dat gebruikers minder snel uitwijken naar andere aanbieders.

 

Wat betekent dit voor de Nederlandse reiziger?

Voor de nuchtere Nederlandse vakantieganger brengt AI twee grote voordelen: tijdswinst en personalisatie. In plaats van urenlang surfen, kan een complete route inclusief hotels en activiteiten in enkele minuten klaarstaan. Tegelijkertijd biedt AI de kans om weg te bewegen van standaardpakketjes en unieke ervaringen te creëren die beter passen bij individuele wensen.

 

Toch blijft de vraag: hoe betrouwbaar is die digitale gids? Wie blind vaart op AI loopt het risico dat een verouderde tip of gefingeerde review een vakantie kleurt. De hybride aanpak, waarin AI-adviezen worden gecombineerd met menselijke ervaring en traditionele reviews, lijkt voorlopig het meest kansrijk.

 

De toekomst van vakantieplannen

Wat opvalt, is dat AI niet alleen het plannen zelf verandert, maar ook de rol van inspiratiebronnen. Waar vroeger de reisspecialist of glossy brochure leidend was, bepalen nu data en algoritmes wat we zien en uiteindelijk boeken. De reisbranche ondergaat een stille revolutie: minder afhankelijk van menselijke tussenpersonen, meer gestuurd door digitale assistenten die beloven sneller, goedkoper en persoonlijker te zijn.

 

De vraag die overblijft: verliezen we onderweg iets van de magie van het plannen zelf, of winnen we juist vrijheid door de routine uit handen te geven?

Meer lezen
Kees van Brink Kees van Brink

AI Dialoog - De Stand

Iedereen kan een vraag in een chatbot tikken, maar niet iedereen krijgt er een tekst uit die je zonder meer durft te publiceren of naar een klant stuurt. Het verschil zit zelden in magie en bijna altijd in de manier waarop je het gesprek met het model kadert. Wie expliciet is over doel, publiek en vorm, merkt dat de kwaliteit omhoogschiet en de variatie omlaag gaat. De stand van dit moment is daarom geen trucje, maar een werkmethode die je stap voor stap aanleert en vervolgens consequent herhaalt.

Iedereen kan een vraag in een chatbot tikken, maar niet iedereen krijgt er een tekst uit die je zonder meer durft te publiceren of naar een klant stuurt. Het verschil zit zelden in magie en bijna altijd in de manier waarop je het gesprek met het model kadert. Wie expliciet is over doel, publiek en vorm, merkt dat de kwaliteit omhoogschiet en de variatie omlaag gaat. De stand van dit moment is daarom geen trucje, maar een werkmethode die je stap voor stap aanleert en vervolgens consequent herhaalt.

 

Wat de officiële gidsen daadwerkelijk gemeen hebben

Een taalmodel presteert voorspelbaarder wanneer jij voorspelbaar bent in wat je vraagt. De kern valt samen te vatten in vier gewoontes: formuleer een doelzin, geef de benodigde context, definieer de vorm van het antwoord en stel grenzen aan wat het model wel en niet moet doen. Dat is niet mijn mening; het staat in heldere taal in de handleiding over prompttechnieken van OpenAI’s prompt engineering-gids en in het overzicht van strategieën bij Google Vertex AI over prompt-design. Wie die documenten naast elkaar legt, ziet hoe consistent ze zijn en juist dat maakt ze bruikbaar als leidraad in alledaagse projecten.

Die consistentie geldt ook voor het sturen van “gedrag”. Het werkt merkbaar beter als je het systeem een rol toekent en een kader neerzet: laat het model bijvoorbeeld optreden als eindredacteur voor kritische Nederlandstalige lezers, verbied aannames zonder bron, en spreek af dat het antwoord controleerbare claims bevat. Microsoft vat dat praktisch samen in de sectie met technieken voor prompten op Microsoft Learn over prompt engineering: licht het doel toe, splits complexe taken op en leg afspraken vast over de manier van antwoorden, zodat je het geheel kunt herhalen en verbeteren als een echt werkproces. Anthropic sluit daarop aan met een waarschuwing die vaak onderschat wordt: meer woorden zonder structuur helpen niet; maak je doel en format eerst scherp, dan pas uitbreiden. Zie het overzicht bij Anthropic’s pagina over prompt engineering.

 

Voorbeelden als hefboom voor stijl, toon en structuur

Een taalmodel is in de kern een patroonvolger. Wie daarom één of twee korte voorbeeldalinea’s meestuurt die stijl, toon en structuur laten zien, krijgt consistenter resultaat. In plaats van “schrijf iets goeds” laat je het model proeven hoe jouw kop, inleiding en overgangen klinken. De documentatie van OpenAI positioneert dit expliciet als few-shot of multi-shot; ook Google zet voorbeelden vooraan als strategie om variatie te temmen en de kans op bruikbare output te vergroten. Daardoor wordt iedere sessie een mini-lesje in stijlherkenning, iets waar je later tijd mee wint wanneer je in hetzelfde genre blijft publiceren. Zie OpenAI’s prompt engineering-gids en Google’s overzicht prompt-design-strategieën.

De les is ook buiten media bruikbaar. In het onderwijs werkt een beoordelingskader in de prompt, een rubric (beoordelingskader met vaste criteria), als een geleiderail: de feedback komt per criterium terug en is daardoor minder willekeurig. Een Nederlandse praktijkbeschrijving op SURF Communities over formatieve feedback met rubric laat zien dat docenten daarna steekproefsgewijs valideren. Het is geen vervanging van het oordeel, wel een versnelling van het voorbereidende werk.

 

Denkstappen en handelingen: wanneer redeneren helpt en wanneer juist niet

Niet elk onderwerp vraagt om een even lange gedachtegang. Voor taken met echte redenering is het zinvol het model stapsgewijs te laten denken. Chain-of-Thought (keten-van-denkstappen) is een techniek waarbij je korte tussenstappen laat formuleren; in onderzoek is aangetoond dat dit prestaties verbetert bij wiskundige of logische problemen. Het klassieke artikel hierover is te vinden in Chain-of-Thought Prompting op arXiv. Het is geen tovermiddel en je wilt het niet overal forceren; kies het wanneer de taak daar om vraagt.

Soms is denken alleen niet genoeg en moet het model ook een handeling doen. ReAct, een combinatie van redeneren en handelen, laat het model bijvoorbeeld kort nadenken, gericht zoeken en dan verder redeneren. In evaluaties zie je minder verzinsels bij feitelijke opdrachten. De methode is helder beschreven in ReAct: Reasoning and Acting op arXiv. In de praktijk betekent dit dat je niet standaard “denk hardop” vraagt, maar per taak kiest: stapjes zetten waar het helpt, handelen waar het moet, en anders gewoon to the point.

 

De Nederlandse laag: regels die je gesprek beter maken

Wie in Nederland met AI-dialoog werkt, krijgt er automatisch een laag bij: normen en randvoorwaarden die bepalen hoe je met gegevens en beslissingen omgaat. Dat is geen rem, maar een manier om je werk later te kunnen uitleggen. De toezichthouder beschrijft de kern als drie basisprincipes: dataminimalisatie (verwerk niet meer persoonsgegevens dan nodig), doelbinding (gebruik gegevens alleen voor het afgesproken doel) en transparantie (leg uit wat er met teksten en metadata gebeurt). De toelichting op die randvoorwaarden vind je op de site van de Autoriteit Persoonsgegevens over randvoorwaarden voor generatieve AI. Voor redacties en projectteams is de praktische les dat je in je instructies expliciet maakt wat je niet deelt en hoe je omgaat met materiaal dat wél naar het model gaat.

Die principes sluiten aan op beleid dat de inzet van AI binnen organisaties richting geeft. Een landelijke handreiking vertaalt algemene waarden naar concrete werkafspraken: regel governance, borg juridische kaders, leg een ethische toets vast en werk operationeel met mens-in-de-lus, logging en bronverantwoording. Het document is bedoeld om mee te werken, niet als vitrine; je kunt het naast je eigen proces leggen en meteen zien waar afspraken missen. Het staat op de pagina Overheidsbrede handreiking generatieve AI van de Rijksoverheid en sluit aan op de eerdere Overheidsbrede visie generatieve AI. Wie publiceert of beslissingen voorbereidt, heeft hiermee een kader om de dagelijkse AI-dialoog volwassen te maken.

 

Wat Nederlandse praktijkcases laten zien

Wie wil zien hoe afspraken op papier veranderen in gedrag, kan terecht bij een publieke pilot in Amsterdam. Honderdvijftig ambtenaren werkten vier weken met een generatieve chatbot; onderzoekers keken naar promptgedrag, feitelijkheid en de plekken waar vooroordelen het gesprek binnenslopen. Op basis daarvan volgden concrete maatregelen: broneisen expliciet maken, taken afbakenen en afspraken vastleggen in een teamdocument dat je periodiek evalueert. Het verslag is vrij te lezen via Open Research Amsterdam over de prompt-analyse-pilot en laat zien hoe algemene aanbevelingen landen in dagelijkse routines.

In het hoger onderwijs zie je een andere vertaling: als docenten hun rubric (beoordelingskader met criteria) in de instructie opnemen, wordt de feedback voorspelbaarder en minder willekeurig. De docent blijft eindverantwoordelijk en controleert steekproefsgewijs of het klopt; de winst zit in de snelheid en de helderheid van het gesprek over kwaliteit. De beschrijving staat op SURF Communities over formatieve feedback met rubric.

 

Zo breng je het vandaag in praktijk

Begin bij de kleinste eenheid: één duidelijke zin waarin staat voor wie je schrijft en wat de lezer straks moet kunnen. Schrijf daarna in gewone-mensentaal wat het model wel en niet moet doen, en wees precies over de vorm waarin je het terug wilt. Als je een bepaald artikel verwacht, noem dan het minimum en maximum voor de lengte van de tekst, de opbouw met kop, inleiding en tussenkoppen, en spreek af dat je alleen bij de eerste relevante vermelding linkt. De gids met principes van OpenAI’s prompt engineering-pagina en de patroonvoorbeelden bij Google Vertex AI prompt-design helpen om jezelf aan je eigen regels te houden.

 

Wordt het een puzzel, kies dan je instrument. Voor meerdelige redeneertaken werkt het vaak om korte denkstappen te vragen zoals in Chain-of-Thought op arXiv is beschreven; bij feitelijke vragen buiten het model is een ReAct-achtige stap logischer, zoals uitgewerkt in ReAct: Reasoning and Acting. In beide gevallen blijft de bedoeling hetzelfde: dwing structuur af zodat je de vinger aan de pols houdt en achteraf kunt uitleggen hoe het antwoord tot stand kwam.

 

Tot slot is er het organisatieperspectief. De handreiking over verantwoorde inzet van generatieve AI maakt governance en operatie concreet, en de visie plaatst het in een groter kader. Begin nuchter: altijd een doelzin, altijd een mini-voorbeeld en altijd een korte evaluatie achteraf. De winst is minder verrassingen en meer herhaalbaarheid, met teksten die je met minder ingrepen kunt publiceren. Zie Handreiking generatieve AI en Overheidsbrede visie generatieve AI.

Meer lezen
Kees van Brink Kees van Brink

Energie - De Stand

Het klinkt bijna ironisch. Kunstmatige intelligentie helpt ons naar een schonere energie­toekomst, maar slurpt zelf stroom alsof er geen klimaatdoelen bestaan. Hoe kan een technologie tegelijk een bedreiging én een reddingsboei zijn voor de energietransitie?

Het klinkt bijna ironisch. Kunstmatige intelligentie helpt ons naar een schonere energie­toekomst, maar slurpt zelf stroom alsof er geen klimaatdoelen bestaan. Hoe kan een technologie tegelijk een bedreiging én een reddingsboei zijn voor de energietransitie?

 

De honger van de datacenters

De cijfers zijn confronterend. Het trainen van één groot taalmodel kostte volgens een analyse in PONT Klimaat zo’n 500 ton CO2-uitstoot, vergelijkbaar met het jaarverbruik van 29 Nederlandse huishoudens. Een enkele vraag aan ChatGPT gebruikt tien keer zoveel energie als een Google-zoekopdracht. Onderzoeker Alex de Vries van de VU berekende in De Ingenieur dat AI-systemen in 2025 wereldwijd tot 200 terawattuur per jaar kunnen opslokken, tweemaal het huidige Nederlandse verbruik.

Daarmee schuurt AI tegen onze klimaatdoelen. Bedrijven als Google en Microsoft rapporteren een stijgend stroomverbruik, terwijl hun eigen duurzaamheidsbeloften juist strenger worden. Voor een klein land als Nederland, waar de bouw van een nieuw datacenter al snel tien jaar duurt, kan die groeiende vraag de energietransitie zelfs blokkeren, zoals Netkwesties laat zien.

 

AI als energie-optimist

Toch zou het te kort door de bocht zijn AI enkel als energieslurper af te schilderen. De paradox is dat dezelfde algoritmes enorme besparingen mogelijk maken. Denk aan voorspellend onderhoud in windparken: in het project Hollandse Kust Noord analyseren systemen sensordata om te voorspellen wanneer turbines onderhoud nodig hebben, zodat dure reparatiemissies op zee worden vermeden, aldus Airegio.

Of neem het werk van TNO in Uden. In het Syn.ikia-project wordt een appartementencomplex niet alleen energieneutraal gemaakt, maar zelfs energieproducerend. Warmtepompen worden op afstand uitgelezen, en AI voorspelt energievraag en -aanbod op wijkniveau. Hierdoor ontstaat een zelfregulerend ecosysteem waarin apparaten automatisch hun verbruik afstemmen op beschikbare energie.

 

Slimmer netgebruik

Het Nederlandse elektriciteitsnet kraakt onder de druk van zonnepanelen, warmtepompen en elektrische auto’s. Nieuwe kabels aanleggen duurt jaren, maar AI kan het bestaande net efficiënter benutten. Onderzoekers van Radboud Universiteit en Alliander lieten in Energeia zien dat netten vaak onnodig onderbenut blijven door te conservatieve planningen. Hun algoritmes interpreteren meetdata dynamisch, waardoor bedrijven sneller aangesloten kunnen worden via flexibele contracten.

TenneT en Alliander gebruiken AI al voor realtime netbeheer. Volgens Change Inc. is die flexibiliteit cruciaal, omdat de stroomvraag richting 2050 kan verdrievoudigen. Zonder intelligente sturing lopen we vast.

 

Huizen als energiecentrales

De energietransitie speelt zich niet alleen af op zee of in datacenters, maar ook in onze woonkamers. Fabrikanten introduceren slimme apparaten die zelf leren hoe ze het beste met energie omgaan. Zo presenteerde Sigenergy een systeem dat huishoudens helpt hun zonne-energie optimaal te gebruiken, belangrijk nu de salderingsregeling vanaf 2027 verdwijnt, meldde Solar Magazine.

Ook warmtepompen worden slimmer. NIBE bouwt modellen die zich aanpassen aan dynamische stroomprijzen en zelfs communiceren met zonnepanelen om overschotten direct te benutten (NIBE). Voor woningen die moeilijk elektrificeren introduceerde Cooll een wereldprimeur: een warmtepomp die draait op 100 procent waterstof, beschreven door Bright.

 

Europese regels en lokale praktijk

De Europese Unie ziet de energievraag van AI met lede ogen aan. Het Parlement benadrukt in een recente briefing dat datacenters uiterlijk in 2030 klimaatneutraal moeten zijn. Transparante rapportage van energieverbruik wordt verplicht, net als strengere standaarden voor efficiënte AI-systemen. Tegelijk stimuleert Brussel toepassingen die juist bijdragen aan slim netgebruik en energie-efficiëntie.

Voor Nederland, waar netcongestie een rem vormt op verduurzaming, kan dat dubbel uitpakken. Aan de ene kant komen er meer verplichtingen voor datacenters, aan de andere kant kan Europese coördinatie zorgen voor snellere infrastructuur en betere integratie van hernieuwbare bronnen.

 

Wat betekent dit voor Nederlanders?

Voor huishoudens en bedrijven draait het uiteindelijk om betaalbaarheid en betrouwbaarheid. Slimme apparaten die automatisch inspelen op goedkope uren kunnen de energierekening verlagen. Bedrijven krijgen via flexcontracten sneller toegang tot het net. En de belofte dat AI onze stroom slimmer verdeelt, kan betekenen dat de lichten blijven branden, ook als het niet waait.

De spanning blijft dat elke digitale prompt en elk getraind model energie kost. AI kan de energietransitie versnellen, maar alleen als we de eigen honger van de technologie weten te beteugelen.

De vraag is dus: laten we AI vooral slurpen, of maken we het tot bondgenoot in onze zoektocht naar een duurzaam energiesysteem?

Meer lezen
Kees van Brink Kees van Brink

Doe Ideeën - De Stand

De belofte van kunstmatige intelligentie lijkt vaak groot en abstract. Maar wat gebeurt er wanneer AI letterlijk in onze keukens, tuinen en hobbykamers belandt? Hoe verandert die technologie onze dagelijkse routines en creatieve uitspattingen?

Een robot die ’s nachts naast het bed van een dementerende waakt. Een algoritme dat in een seconde een röntgenfoto leest. Een chatbot die een depressie herkent in een enkel zinnetje. Het klinkt als sciencefiction, maar midden 2025 is het de dagelijkse realiteit in steeds meer Nederlandse zorginstellingen. Alleen: lost deze digitale golf onze problemen op, of veroorzaakt hij nieuwe?

Van pilot naar hoeksteen van het stelsel

Adviesbureau McKinsey schetst het dreigende gat: zonder stevige digitale versnelling komen we in 2033 zo’n 245.000 zorgmedewerkers tekort. De rekensom is hard: bewezen toepassingen van kunstmatige intelligentie (AI), software die patronen herkent leert en autonoom beslissingen kan nemen, kunnen jaarlijks tot 22 miljard euro besparen. Maar zolang succesvolle proeven blijven steken in lokale experimenten, verandert er weinig aan de werkdruk. Het pleidooi is even simpel als onontkoombaar: denk digitaal vanaf de start, deel data via een landelijke architectuur en schaal op zodra iets werkt.

Ook onderzoeksorganisatie ZonMw zet druk op de ketel. In maart presenteerde ze het AI-signalement aan de minister van Volksgezondheid. De kern: AI kan de zorg menselijker maken door werkdruk te verlichten en kwaliteit te verhogen, maar daarvoor moeten zes cruciale kennishiaten worden gedicht. Van het valideren van modellen tot het meten van maatschappelijke impact, en van ethische kaders tot praktische opschaling. Het klinkt technisch, maar in feite gaat het om vertrouwen: wie durft een diagnose te baseren op een black box die nog niet volledig is getest?

AI in de praktijk

In een jaar tijd steeg het aandeel Nederlandse zorginstellingen dat AI gebruikt van 43 naar 70 procent. Opvallend genoeg neemt het gebruik in diagnostiek iets af: van bijna de helft naar een derde. De verklaring is alledaagser dan verwacht. Veel instellingen zetten AI eerst in om de papieren berg te verkleinen: patiëntdossiers samenvatten, data doorzoeken, administratie verlichten.

Ook medische beeldvorming is cruciaal. Philips wijst erop dat AI in echografie hartproblemen kan signaleren voordat het menselijk oog iets ziet.

In de geestelijke gezondheidszorg (GGZ) wordt AI weer heel anders ingezet. De Nederlandse AI-Coalitie publiceerde in mei een kompas voor verantwoord gebruik, van automatische gespreksverslagen tot subtiele analyse van toon en woordkeuze. Jongeren zien er soms een anonieme hulplijn in tijdens de lange wachtweken.

De aaibare kant van robotica

In de ouderenzorg verschijnt AI in zachte vorm. Kenniscentrum Vilans testte een knuffelbare robot, Maatje, die naast mensen met dementie kruipt, onrust registreert en met eenvoudige gesprekjes probeert te kalmeren. Bij sommigen werkt het, bij anderen wekt het kinderlijke ervan weerstand. Het advies: zorg voor variatie in stem, uiterlijk en gedrag, alsof het acteurs zijn in een toneelstuk. Maar er klinkt ook een waarschuwing: het eerste effect kan warm zijn, de vraag is of het blijvend is.

Meer dan cijfers alleen

AI kan de zorg sneller, preciezer en toegankelijker maken. Algoritmen lezen een scan in seconden, ontdekken patronen die een arts niet ziet en brengen hulp naar de smartphone in de broekzak. De rekensommen zijn indrukwekkend, maar de echte waarde zit soms in het kleine: een MS-patiënt die dankzij thuismonitoring minder vaak naar het ziekenhuis hoeft, een oudere die via een sociale robot langer het gevoel houdt dat iemand luistert.

Wetgeving als nieuwe spelregel

Minder zichtbaar maar minstens zo ingrijpend is de Europese AI Act, de nieuwe verordening die medische toepassingen strenger reguleert. Veel zorginstellingen zijn nog niet klaar. Vanaf februari 2025 geldt al een verbod op systemen die kwetsbare groepen manipuleren. Medische AI valt bijna altijd onder ‘hoog risico’, wat betekent dat leveranciers moeten aantonen dat hun algoritmen transparant werken, door mensen worden gecontroleerd en dat datamanagement op orde is. Ziekenhuizen liggen voorop, GGZ en verpleeghuizen volgen. De wet maakt van een zorgrobot geen schattig speeltje, maar een medisch hulpmiddel onder toezicht.

De horizon van 2030

Stel: de wijkverpleegkundige heeft een draagbare scanner in haar tas. Ze maakt een scan, een cloud-algoritme geeft binnen minuten een diagnosevoorstel, en de AI Act borgt dat het model eerlijk en uitlegbaar werkt. In de GGZ kan iemand met zware klachten meteen terecht bij een digitale coach, wetend dat menselijk toezicht de laatste stap blijft. Het beeld is haalbaar, maar vraagt meer dan techniek. Bijscholing van personeel en investeringen in een betrouwbare digitale infrastructuur zijn noodzakelijk.

Niet iedereen aan boord

Blijft de vraag wie mee kan in deze digitale trein. Ouderen zonder smartphone, nieuwkomers die de taal nog leren, mensen met lage digitale vaardigheden, voor hen is AI geen vanzelfsprekende gereedschap. In de praktijk kan een chatbot de afstand soms vergroten, terwijl een tastbare robot als Maatje juist nabijheid schept. De technologie is neutraal, de toepassing niet.

Keuzes

AI kan artsen sneller laten werken, diagnoses scherper maken en patiënten een warmer gevoel geven. Tegelijk zijn er regels, twijfels en praktische obstakels. Wordt AI de hoeksteen die de zorg betaalbaar en toegankelijk houdt of blijft dat een belofte die niet wordt waar gemaakt?

Meer lezen
Kees van Brink Kees van Brink

Gezondheid & Welzijn - De Stand

Een robot die ’s nachts naast het bed van een dementerende waakt. Een algoritme dat in een seconde een röntgenfoto leest. Een chatbot die een depressie herkent in een enkel zinnetje. Het klinkt als sciencefiction, maar midden 2025 is het de dagelijkse realiteit in steeds meer Nederlandse zorginstellingen. Alleen: lost deze digitale golf onze problemen op, of veroorzaakt hij nieuwe?

Een robot die ’s nachts naast het bed van een dementerende waakt. Een algoritme dat in een seconde een röntgenfoto leest. Een chatbot die een depressie herkent in een enkel zinnetje. Het klinkt als sciencefiction, maar midden 2025 is het de dagelijkse realiteit in steeds meer Nederlandse zorginstellingen. Alleen: lost deze digitale golf onze problemen op, of veroorzaakt hij nieuwe?

 

Van pilot naar hoeksteen van het stelsel

Adviesbureau McKinsey schetst het dreigende gat: zonder stevige digitale versnelling komen we in 2033 zo’n 245.000 zorgmedewerkers tekort. De rekensom is hard: bewezen toepassingen van kunstmatige intelligentie (AI), software die patronen herkent leert en autonoom beslissingen kan nemen, kunnen jaarlijks tot 22 miljard euro besparen. Maar zolang succesvolle proeven blijven steken in lokale experimenten, verandert er weinig aan de werkdruk. Het pleidooi is even simpel als onontkoombaar: denk digitaal vanaf de start, deel data via een landelijke architectuur en schaal op zodra iets werkt.

 

Ook onderzoeksorganisatie ZonMw zet druk op de ketel. In maart presenteerde ze het AI-signalement aan de minister van Volksgezondheid. De kern: AI kan de zorg menselijker maken door werkdruk te verlichten en kwaliteit te verhogen, maar daarvoor moeten zes cruciale kennishiaten worden gedicht. Van het valideren van modellen tot het meten van maatschappelijke impact, en van ethische kaders tot praktische opschaling. Het klinkt technisch, maar in feite gaat het om vertrouwen: wie durft een diagnose te baseren op een black box die nog niet volledig is getest?

 

AI in de praktijk

In een jaar tijd steeg het aandeel Nederlandse zorginstellingen dat AI gebruikt van 43 naar 70 procent. Opvallend genoeg neemt het gebruik in diagnostiek iets af: van bijna de helft naar een derde. De verklaring is alledaagser dan verwacht. Veel instellingen zetten AI eerst in om de papieren berg te verkleinen: patiëntdossiers samenvatten, data doorzoeken, administratie verlichten.

Ook medische beeldvorming is cruciaal. Philips wijst erop dat AI in echografie hartproblemen kan signaleren voordat het menselijk oog iets ziet.

In de geestelijke gezondheidszorg (GGZ) wordt AI weer heel anders ingezet. De Nederlandse AI-Coalitie publiceerde in mei een kompas voor verantwoord gebruik, van automatische gespreksverslagen tot subtiele analyse van toon en woordkeuze. Jongeren zien er soms een anonieme hulplijn in tijdens de lange wachtweken.

De aaibare kant van robotica

In de ouderenzorg verschijnt AI in zachte vorm. Kenniscentrum Vilans testte een knuffelbare robot, Maatje, die naast mensen met dementie kruipt, onrust registreert en met eenvoudige gesprekjes probeert te kalmeren. Bij sommigen werkt het, bij anderen wekt het kinderlijke ervan weerstand. Het advies: zorg voor variatie in stem, uiterlijk en gedrag, alsof het acteurs zijn in een toneelstuk. Maar er klinkt ook een waarschuwing: het eerste effect kan warm zijn, de vraag is of het blijvend is.

 

Meer dan cijfers alleen

AI kan de zorg sneller, preciezer en toegankelijker maken. Algoritmen lezen een scan in seconden, ontdekken patronen die een arts niet ziet en brengen hulp naar de smartphone in de broekzak. De rekensommen zijn indrukwekkend, maar de echte waarde zit soms in het kleine: een MS-patiënt die dankzij thuismonitoring minder vaak naar het ziekenhuis hoeft, een oudere die via een sociale robot langer het gevoel houdt dat iemand luistert.

Wetgeving als nieuwe spelregel

Minder zichtbaar maar minstens zo ingrijpend is de Europese AI Act, de nieuwe verordening die medische toepassingen strenger reguleert. Veel zorginstellingen zijn nog niet klaar. Vanaf februari 2025 geldt al een verbod op systemen die kwetsbare groepen manipuleren. Medische AI valt bijna altijd onder ‘hoog risico’, wat betekent dat leveranciers moeten aantonen dat hun algoritmen transparant werken, door mensen worden gecontroleerd en dat datamanagement op orde is. Ziekenhuizen liggen voorop, GGZ en verpleeghuizen volgen. De wet maakt van een zorgrobot geen schattig speeltje, maar een medisch hulpmiddel onder toezicht.

De horizon van 2030

Stel: de wijkverpleegkundige heeft een draagbare scanner in haar tas. Ze maakt een scan, een cloud-algoritme geeft binnen minuten een diagnosevoorstel, en de AI Act borgt dat het model eerlijk en uitlegbaar werkt. In de GGZ kan iemand met zware klachten meteen terecht bij een digitale coach, wetend dat menselijk toezicht de laatste stap blijft. Het beeld is haalbaar, maar vraagt meer dan techniek. Bijscholing van personeel en investeringen in een betrouwbare digitale infrastructuur zijn noodzakelijk.

Niet iedereen aan boord

Blijft de vraag wie mee kan in deze digitale trein. Ouderen zonder smartphone, nieuwkomers die de taal nog leren, mensen met lage digitale vaardigheden, voor hen is AI geen vanzelfspreken gereedschap. In de praktijk kan een chatbot de afstand soms vergroten, terwijl een tastbare robot als Maatje juist nabijheid schept. De technologie is neutraal, de toepassing niet.

Keuzes

AI kan artsen sneller laten werken, diagnoses scherper maken en patiënten een warmer gevoel geven. Tegelijk zijn er  regels, twijfels en praktische obstakels. Wordt AI de hoeksteen die de zorg betaalbaar en toegankelijk houdt of blijft dat een belofte die niet wordt waar gemaakt?

Meer lezen
Kees van Brink Kees van Brink

AI record: Covid-19 antistoffen in 5 dagen

Een AI multi-agent systeem van Stanford heeft als een team van specialistische onderzoekers gewerkt om onderzoek te doen naar Covid-19 antistoffen. Deze agents stellen samen hypotheses op, toetsen ze en sturen ze bij. Een AI multi-agent systeem (MAS) is een platform waarin meerdere gespecialiseerde AI-modules tegelijk werken aan één onderzoeksvraag. Stanford Medicine bouwde zo’n systeem als digitaal laboratorium, een virtuele werkruimte waar experimenten digitaal draaien. De AI-principal investigator, oftewel de AI-hoofdonderzoeker, coördineert alle taken en zet de onderzoekslijnen uit.

AI record: Covid-19 antistoffen in 5 dagen

Een AI multi-agent systeem van Stanford heeft als een team van specialistische onderzoekers gewerkt om onderzoek te doen naar Covid-19 antistoffen. Deze agents stellen  samen hypotheses op, toetsen ze en sturen ze bij. Een AI multi-agent systeem (MAS) is een platform waarin meerdere gespecialiseerde AI-modules tegelijk werken aan één onderzoeksvraag. Stanford Medicine bouwde zo’n systeem als digitaal laboratorium, een virtuele werkruimte waar experimenten digitaal draaien. De AI-principal investigator, oftewel de AI-hoofdonderzoeker, coördineert alle taken en zet de onderzoekslijnen uit.

Onder deze leiding acteren immunologie-agents, immunologie bestudeert hoe ons immuunsysteem ons beschermt, computationele biologie-agents, die wiskundige modellen toepassen op biologische processen, en machine learning-agents, die statistische patroonherkenning uit grote datasets mogelijk maken. Iedere agent levert input en vraagt zo  nodig extra software aan, zoals AlphaFold, een AI-tool voor eiwitstructuurvoorspelling.

In een paar klikken roepen de agents elkaar bijeen in virtuele meetings. Hypothesen worden in seconden besproken, parallel geëvalueerd en direct bijgesteld door een criticus-agent die gaten in redeneringen aankaart. Zo ontstaat een zelfregulerende cyclus waarin mens en machine naadloos samenwerken.

Hoe de digitale pitstop verliep

 

Traditioneel kost het weken tot maanden om antistofkandidaten te ontwerpen. Het MAS leverde in vijf dagen een strategie en tientallen moleculaire ontwerpen. Dankzij parallelle planning en voortdurende toetsing konden onderzoekers in het fysieke lab meteen aan de slag met 92 nanobodies, kleine eiwitten die de functie van antilichamen nabootsen en binden aan het spike-eiwit van SARS-CoV-2.

Vergelijk het met een Formule 1 pitstop, maar dan voor moleculair design: banden wisselen, tanken en snelle checks gebeuren simultaan. Terwijl een traditioneel team talent, apparatuur en tijd nodig heeft, draait het digitale lab dag en nacht zonder pauzes. Twee van de 92 nanobodies bewezen zelfs effectief te zijn tegen nieuwe virusvarianten.

Waarschuwingen bij autonome aanbevelingen

Net zo snel als een MAS ideeën genereert, kunnen aanbevelingen afglijden onder wat performance drift wordt genoemd, de geleidelijke afname van een AI-model dankzij verouderende data. Onderzoekers van Lawrence Livermore National Laboratory (LLNL) zagen dat na verloop van tijd de betrouwbaarheid van optimalisaties daalde zonder voortdurende menselijke validatie.

Die waarschuwing onderstreept de noodzaak van onafhankelijke controle die afwijkende voorstellen blokkeert en in lijn brengt met klinische standaarden. Blind vertrouwen in algoritmische convergentie kan leiden tot nieuwe routes die logisch lijken maar klinisch onhaalbaar zijn.

Agents plus mensen in balans

De grote vraag: maken we onderzoekers overbodig of winnen we aan scherpte? De casus van Stanford en LLNL laten zien dat mensen de onderzoeksvraag blijven formuleren, kaders zetten en in de laatste fase voorstellen valideren. De échte kracht schuilt niet in solo’s van AI of mens, maar in harmonie tussen digitale snelheid en menselijke controle.

Meer lezen
Kees van Brink Kees van Brink

AI de grote energievreter

De honger van kunstmatige intelligentie naar stroom groeit sneller dan ons stroomnet kan slikken. Wat betekent dat voor onze banen, onze portemonnee en ons klimaat – en is AI tegelijk ook deel van de oplossing?

De honger van kunstmatige intelligentie naar stroom groeit sneller dan ons stroomnet kan slikken. Wat betekent dat voor onze banen, onze portemonnee en ons klimaat – en is AI tegelijk ook deel van de oplossing?

Een nieuwe speler op het energietoneel

Datacenters waren al energievreters, maar de opkomst van kunstmatige intelligentie (AI) doet daar nog een flinke schep bovenop. Volgens het Internationaal Energieagentschap zal het wereldwijde elektriciteitsverbruik van datacenters tegen 2030 meer dan verdubbelen tot circa 945 terawattuur – vergelijkbaar met het huidige verbruik van Japan. AI is de grootste aanjager. Alleen al in 2025 slurpt AI naar schatting 200 terawattuur op, twee keer het jaarlijkse verbruik van Nederland.

Die groei is niet alleen het gevolg van het trainen van enorme taalmodellen, maar vooral van het dagelijks gebruik ervan. Het genereren van teksten, beelden en video’s – ook wel de ‘inference’-fase genoemd – is een constante stroomslurper.

Een conflict dat dichtbij komt

De explosieve energievraag zet druk op elektriciteitsnetten die daar niet op berekend zijn. In de Verenigde Staten dreigen volgens Politico zelfs oude kolencentrales weer op te starten om de piekvraag van datacenters op te vangen. In Nederland is het stroomnet op veel plekken ‘vol’, waardoor nieuwe aansluitingen worden geweigerd. Als AI deze druk opvoert, wie krijgt er dan voorrang: een ziekenhuis, een fabriek of een serverpark?

Het economische verhaal is dubbel. Enerzijds kan AI miljarden toevoegen aan de wereldeconomie, ook in de Nederlandse techsector. Anderzijds gaat de concurrentie om stroom onvermijdelijk invloed hebben op de energierekening van bedrijven en huishoudens.

Huishoudens voelen de rekening

In sommige Amerikaanse staten berekenden onderzoekers al dat de maandelijkse stroomrekening met zo’n 37,50 dollar kan stijgen door de expansie van datacenters. Koneksa Mondo waarschuwt dat de kosten hier uiteindelijk ook bij de consument terechtkomen. In Nederland, waar energieprijzen de afgelopen jaren grillig waren, kan zo’n extra belasting hard aankomen, vooral bij huishoudens die al moeite hebben de eindjes aan elkaar te knopen.

Gezondheid en milieu onder druk

Meer stroom betekent niet automatisch meer CO₂-uitstoot, maar zolang hernieuwbare energiebronnen de groei niet bijbenen, stijgt de emissie. MIT News wijst erop dat veel datacenters draaien op elektriciteit met een hogere koolstofintensiteit dan het nationale gemiddelde. En naast stroom gebruiken ze enorme hoeveelheden water voor koeling – water dat in droge zomers elders node gemist kan worden.

Nederlandse gemeenten die nieuwe datacenters verwelkomen, krijgen dus niet alleen met ruimtelijke inpassing te maken, maar ook met vragen over waterrechten en energiebronnen.

AI als reddingsboei

Ironisch genoeg kan AI ook helpen het eigen probleem te verkleinen. Algoritmes kunnen het elektriciteitsnet efficiënter maken, hernieuwbare bronnen beter integreren en het energieverbruik van gebouwen optimaliseren. De vraag is alleen of deze winst groot genoeg is om de eigen honger te compenseren. Het Internationaal Energieagentschap en onderzoekers van PwC en Oxford spreken van een “dubbel mes”: elke besparing kan leiden tot méér gebruik, een bekend fenomeen dat ook wel de paradox van Jevons wordt genoemd.

Europa kijkt mee

De Europese Centrale Bank schat het huidige AI-gerelateerde verbruik in Europese datacenters op circa 20 terawattuur – 0,02 procent van het wereldtotaal – maar verwacht een groei van 90 TWh. Dat is zo’n 4 procent van het huidige EU-verbruik. Voor Nederland betekent dat een stevigere vraag naar elektriciteit, mogelijk hogere gasimporten en druk op de markt voor kritieke mineralen.

Het onzekere pad vooruit

Blijft AI een energie-etende reus, of groeit het uit tot een systeem dat zichzelf voedt met efficiëntiewinsten? In Nederland, waar innovatie en duurzaamheid vaak hand in hand moeten gaan, zal het antwoord bepalen of we AI zien als bondgenoot of als last. De strijd om stroom is begonnen – de uitkomst ligt nog open. Wat vinden wij belangrijker: technologische sprongkracht of een houdbare energietoekomst?

Meer lezen
Kees van Brink Kees van Brink

Onderwijs & Leren – De Stand

AI dringt steeds dieper het Nederlandse onderwijs binnen. Van de kleuterklas tot universiteiten en bijscholingstrajecten voor volwassenen: overal duiken AI chatbots, adaptieve programma’s en automatische nakijktools op. Ze beloven maatwerk en efficiëntie, maar roepen ook vragen op. Wie bepaalt straks de inhoud van de les: de docent of het algoritme?

oude bibliotheek Praag

AI dringt steeds dieper het Nederlandse onderwijs binnen. Van de kleuterklas tot universiteiten en bijscholingstrajecten voor volwassenen: overal duiken AI chatbots, adaptieve programma’s en automatische nakijktools op. Ze beloven maatwerk en efficiëntie, maar roepen ook vragen op. Wie bepaalt straks de inhoud van de les: de docent of het algoritme?

 

De nieuwe collega in de lerarenkamer

Een paar jaar geleden was AI nog vooral een onderwerp voor studiedagen en experimenten. Nu is het, onzichtbaar maar nadrukkelijk aanwezig, in de klaslokalen, lerarenkamers en beleidsstukken. Het is alsof er een nieuwe collega is komen werken: stil in het begin, maar steeds vaker met een stevige stem in het onderwijsdebat.

 Dat AI in onderwijs en leren in Nederland zo snel terrein wint, is geen toeval. Het lerarentekort, de druk op leerresultaten en de groeiende diversiteit in klassen maken de technologie aantrekkelijk. Tegelijkertijd waarschuwen onderzoekers dat te veel leunen op digitale systemen kan leiden tot verlies van autonomie, kansenongelijkheid en privacy problemen.

 De centrale vraag is: is AI in het onderwijs een hulpmiddel dat ons beter laat lesgeven, of sluipt er ongemerkt een medebeslisser binnen die het leerproces stuurt?

 

Beleidskaders en strategische initiatieven

De Nederlandse aanpak is niet louter pragmatisch; er ligt beleid achter. Een van de leidende documenten is de handreiking van Npuls, die een systematische methode biedt om AI in onderwijsprogramma’s te integreren. De kern daarvan is de ‘Two-Lane approach’.

 

Baan 1 is de route van kwaliteitsmeting onder toezicht, waarin AI beperkt is toegestaan. Denk aan examens of formele toetsen waarbij menselijke beoordeling de norm blijft. Baan 2 draait om ontwikkelingsgerichte toetsing, waarbij AI niet alleen is toegestaan, maar soms zelfs verplicht wordt ingezet. Hier passen bijvoorbeeld projecten in het hbo waarin studenten AI gebruiken voor onderzoeksanalyses, mét een verplichte procesverantwoording.

 

Belangrijk is het principe van constructive alignment: leerdoelen, onderwijsactiviteiten en toetsvormen moeten op elkaar zijn afgestemd. Daarmee wordt voorkomen dat AI in de ene fase wel, maar in de andere fase niet effectief wordt ingezet.

 

De handreiking van Npuls benadrukt vijf kernprincipes: mensgericht gebruik, eerlijkheid en inclusie, betrouwbaarheid, samenhang en flexibiliteit. Dat laatste is cruciaal: curricula moeten kunnen meebewegen met technologische ontwikkelingen zonder hun kern te verliezen.

 

NOLAI en het Nationaal Groeifonds

Naast Npuls speelt NOLAI een sleutelrol. Dit nationale onderwijslab, gehuisvest bij de Radboud Universiteit, is het eerste publiek gefinancierde lab ter wereld dat zich volledig richt op digitale onderwijsinnovatie. Het wordt ondersteund door het Nationaal Groeifonds en werkt in co-creatie met scholen, bedrijven en wetenschappers.

 

De doelstellingen zijn ambitieus: 77 co-creatieprojecten afronden, 15 gevalideerde technologieën ontwikkelen en 9 AI-producten demonstreren in echte onderwijssituaties. De maatschappelijke belofte is groot: hogere productiviteit van leraren, minder lerarentekort, meer kansengelijkheid en betere leerresultaten.

 

Hoogleraar Inge Molenaar, directeur van NOLAI, benadrukt een van de belangrijkste doelen: kinderen minder vaak toetsen door adaptieve systemen die continu meten. “Zo halen we de druk van het momentopname-examen weg,” legt ze uit, “en krijgen we een rijker beeld van het leerproces.”

 

AI in de klaspraktijk

Voor veel basisschoolleraren is AI al onderdeel van het dagelijkse werk. Volgens een literatuurverkenning van het Arbeidsmarktplatform PO gebruikt 65% van de scholen adaptieve leermiddelen zoals Snappet en Gynzy. 63% werkt met dashboards die leerlingvoortgang in real time tonen. En 47% zet digitale feedbacktools in.

 

Een beeld uit de praktijk: in groep 6 zit een jongen die moeite heeft met breuken, terwijl een meisje in dezelfde klas al verder is dan de lesstof. Het adaptieve systeem past de opdrachten automatisch aan. De jongen krijgt extra visuele uitleg, het meisje krijgt uitdagendere opgaven. De leraar kan zo meer tijd besteden aan complexe vaardigheden en sociaal-emotionele begeleiding.

       

Trends in feedback en toetsing

Volgens Wij-leren.nl zijn er vier opvallende trends in AI-toepassingen.

 De eerste is adaptief oefenen, waarbij programma’s automatisch feedback geven en stof aanpassen. Onderzoek toont een middelgroot tot groot leereffect. Zuid-Korea wil in 2025 zelfs AI-leerboeken op alle scholen invoeren.

 De tweede trend is automatische feedback: systemen beoordelen grammatica, argumentatie en structuur. In Brazilië laat het Letrus-programma zien dat dit vooral in armere regio’s tot betere schrijfvaardigheid leidt.

 Derde trend: slimme tutors en chatbots. Voorbeelden zijn Khan Academy’s Khanmigo en de Nederlandse chatbot Aischa, die eindexamenleerlingen begeleidt.

 De vierde trend is het gebruik van ChatGPT in de klas. Veel docenten staan open voor experimenten, maar missen duidelijke richtlijnen.

 

ToetsTester: nakijken met AI

In het voortgezet onderwijs gaat veel tijd zitten in nakijken — zo’n 17 miljoen uur per jaar. Het initiatief ToetsTester, ontwikkeld door studenten van de Universiteit Utrecht, pakt dit aan.

 Het systeem herkent handgeschreven antwoorden, vergelijkt die met modelantwoorden en geeft uitgebreide feedback. De privacy wordt gewaarborgd doordat data in Europa wordt opgeslagen en docenten de eigenaar blijven. Conform de EU AI-Act blijft er altijd een mens in de beoordelingslus.

 De reacties variëren van enthousiast (“Holy shit!”) tot voorzichtig: hoe voorkomen we dat docenten blind op AI-scores vertrouwen?

 

Levenslang leren en microlearning

AI beperkt zich niet tot formeel onderwijs. In ziekenhuizen gebruiken verpleegkundigen microlearning-modules die precies uitleg geven over een nieuwe infuusprocedure op het moment dat ze die nodig hebben. In de techniek kan een monteur via een AR-bril (AR voegt digitale info toe aan de echte wereld) stap-voor-stap instructies krijgen, terwijl hij aan het werk is.

 Deze vorm van just-in-time leren sluit aan bij Nederlandse beleidsvisies over leven lang ontwikkelen. AI kan het leren verweven in dagelijkse routines, waardoor kennisoverdracht sneller en relevanter wordt.

 Techniek achter adaptief leren

Adaptief leren is technisch gezien een continue cyclus van meten en aanpassen. Snappet gebruikt machine learning-modellen (werkwijze binnen AI waarbij systemen patronen leren uit data) die antwoorden van leerlingen analyseren en voorspellen welke opgaven het best passen bij hun niveau.

 De modellen worden getraind met toestemming van scholen, waarbij alleen geanonimiseerde data wordt bewaard. Om overfitting (probleem waarbij een model te veel leert van specifieke details in een beperkte dataset, waardoor het geen betrouwbare patronen herkent in nieuwe data) te voorkomen, test Snappet met nieuwe datasets en controleert het op bias.

 Zo krijgen leerlingen die de stof beheersen moeilijkere vragen, terwijl anderen juist extra herhaling krijgen. Leraren zien precies welke onderdelen nog aandacht nodig hebben.

 

Risico’s en dilemma’s

Het College voor de Rechten van de Mens wijst op de gevaren van bias (vooroordeel) in algoritmen. Wanneer datasets niet representatief zijn, kunnen minderheidsgroepen of leerlingen met bijvoorbeeld dyslexie benadeeld worden.

 Daarbij komt de vraag wie eigenaar is van de data. Vaak is onduidelijk wat bedrijven precies met leerlinggegevens doen. Het College pleit voor een keurmerk en strengere nationale regels.

 

De vraag die blijft

AI kan leraren tijd geven, leerlingen maatwerk bieden en leren flexibeler maken. Maar dezelfde technologie kan ook beslissingen nemen die we liever zelf in handen houden.

 De vraag is dus niet óf AI in het onderwijs blijft, maar hóe we ervoor zorgen dat het onze onderwijsidealen versterkt in plaats van herschrijft. Wie zit er straks echt aan het hoofd van de klas?

Meer lezen
Kees van Brink Kees van Brink

AI Basis - De Stand

Zelflerende systemen die kunst maken, modellen die ziektes voorspellen, chatbots die vloeiend Nederlands praten. Kunstmatige intelligentie (AI) zit inmiddels in zoveel producten en diensten dat je er onbewust tientallen keren per dag mee te maken hebt. Maar wat gebeurt er eigenlijk onder de motorkap? En hoe ver zijn we in 2025 met de belofte en de risico’s van deze technologie?

AI Basis – De stand

Zelflerende systemen die kunst maken, modellen die ziektes voorspellen, chatbots die vloeiend Nederlands praten. Kunstmatige intelligentie (AI) zit inmiddels in zoveel producten en diensten dat je er onbewust tientallen keren per dag mee te maken hebt. Maar wat gebeurt er eigenlijk onder de motorkap? En hoe ver zijn we in 2025 met de belofte en de risico’s van deze technologie?

Wat we bedoelen met AI

AI is meer dan slimme automatisering. Waar traditionele software exact doet wat je erin programmeert, leert AI van data om zelf beslissingen te nemen. Zoals DataNorth het uitlegt: het gaat om computers die menselijke taken kunnen uitvoeren zoals leren, redeneren en problemen oplossen. Het fundament daarvan is machine learning, een methode waarbij systemen patronen ontdekken in grote hoeveelheden gegevens zonder dat je elk scenario vooraf hoeft in te bouwen. Machine learning kent meerdere smaken. Machine Learning Mastery onderscheidt supervised learning (leren van gelabelde voorbeelden, zoals foto’s van katten en honden), unsupervised learning (structuur vinden in ongelabelde data, bijvoorbeeld een set klantgegevens) en reinforcement learning, waarbij een AI leert door beloningen en straffen. Die laatste aanpak levert vaak verrassend creatieve oplossingen op.

Van neurale netwerken naar taalmodellen

Onder de motorkap van veel AI-toepassingen vind je neurale netwerken, een wiskundige nabootsing van hoe hersencellen samenwerken. Als je meerdere lagen van zulke netwerken stapelt, spreek je over deep learning (een vorm van unsupervised learning met meerlaagse (deep) neurale netwerken). Daarmee zijn doorbraken mogelijk in spraakherkenning, beeldanalyse en natuurlijke taalverwerking. Een recente loot aan de stam zijn de zogeheten large language models (LLM’s), zoals beschreven in de LLM-roadmap. Deze modellen zijn getraind op enorme hoeveelheden tekst en kunnen nieuwe zinnen genereren die vaak niet van menselijke teksten te onderscheiden zijn. Generative Pre-trained Transformer (GPT), Bidirectional Encoder Representations from Transformers (BERT) en Text-to-Text Transfer Transformer (T5) zijn bekende architecturen, elk met hun eigen sterktes. Fine-tuning (specifiek bijscholen van een reeds getraind AI-model op niche-data voor betere prestaties in een specifiek domein) en technieken als retrieval-augmented generation (een methode waarbij een AI tijdens het antwoorden extra informatie ophaalt uit een betrouwbare databron) maken ze steeds beter toepasbaar in specifieke domeinen.

Generatief versus analytisch denken

Niet alle AI is hetzelfde. Cognitive World maakt een helder onderscheid: analytische AI analyseert data en doet voorspellingen, terwijl generatieve AI nieuwe content creëert. Het ene model vertelt je welk product waarschijnlijk uitverkocht raakt, het andere schrijft de productbeschrijving erbij. Praktische voorbeelden vind je in het overzicht van DoIT Software: ChatGPT voor tekst, Midjourney voor beelden, Qlik voor data-analyse. De markt groeit hard aan beide kanten, en in veel toepassingen vullen deze vormen elkaar juist aan. Wie dat slim combineert, krijgt systemen die niet alleen begrijpen wat er gebeurt, maar ook voorstellen doen voor wat je vervolgens kunt maken of schrijven.

Hoe AI leert en beslist

AI-systemen leren door miljoenen voorbeelden te verwerken, patronen te herkennen en hun interne parameters telkens bij te stellen. In feite is het een feedbacklus: invoer, voorspelling, vergelijking met de werkelijkheid en bijsturen. Net als een leerling die fouten maakt, feedback krijgt en het de volgende keer beter doet. Maar, zoals CTO Magazine benadrukt: slechte data betekent slechte beslissingen. Het klassieke “garbage in, garbage out” blijft onverminderd van kracht. Datakwaliteit bepaalt direct hoe eerlijk, accuraat en bruikbaar een AI-systeem is. Wie zijn modellen voedt met scheve of rommelige gegevens, bouwt een kaartenhuis dat bij de eerste windvlaag omvalt.

De tools van nu

Wie vandaag met AI wil werken, kan kiezen uit een groeiend arsenaal. Appvizer vergelijkt drie veelgebruikte platforms: ChatGPT, Gemini en Microsoft Copilot. ChatGPT heeft een groot plugin-ecosysteem (systeem waarbij externe ontwikkelaars hun plugins vast kunnen koppelen aan een platform of chatbot), Gemini blinkt uit in verwerking van meerdere soorten data tegelijk (bijvoorbeeld tekst, beeld en geluid), en Copilot is sterk geïntegreerd in bedrijfssoftware. In Nederland is ChatGPT veruit de populairste, zo blijkt uit Emerce. Handig, maar de keuze voor een tool blijft contextafhankelijk: wat heb je precies nodig, en hoe past het in je bestaande werkwijze?

Wat we al zien in de praktijk

AI wordt ingezet in ziekenhuizen om ziektes eerder te detecteren, in fabrieken om onderhoud te voorspellen en in retail voor persoonlijke aanbevelingen. The Intellify laat zien hoe breed het speelveld is: van adaptief leren in het onderwijs tot het versnellen van juridisch werk bij banken. En soms merk je het pas als het er niet is. Denk aan navigatie-apps die zonder verkeersdata minder betrouwbaar zijn, of zoekmachines die zonder AI minder relevant zouden aanvoelen. Wie eenmaal aan die onzichtbare assistent gewend is, mist hem zodra hij uitstaat.

Wat AI oplevert

AI belooft efficiency, snelheid en schaal. Modellen kunnen patronen ontdekken die voor mensen onzichtbaar blijven, taken automatiseren die voorheen uren kostten en nieuwe diensten mogelijk maken. Bedrijven die vroeg instappen, profiteren volgens DataNorth van een blijvend concurrentievoordeel. De keerzijde is dat voordeel niet vanzelf komt: processen moeten worden aangepast, teams getraind en governance ingericht. Anders blijft het bij losse experimenten die de dagelijkse praktijk niet bereiken.

Risico’s en dilemma’s

Er zijn ook schaduwkanten. DataGuard signaleert een toename van privacy-incidenten, waaronder datalekken en ongeautoriseerd gebruik van biometrische gegevens (unieke biologische kenmerken van een persoon, zoals vingerafdrukken of gezichtskenmerken). De toeslagenaffaire, beschreven door CIPP Training, liet zien hoe schadelijk algoritmische vooringenomenheid kan zijn. Qualys pleit daarom voor privacy-by-design (privacy wordt vanaf begin in de ontwikkeling van een product geïntegreerd), rolgebaseerde toegangscontrole (toegangsrechten tot systemen basis van de functie die een gebruiker binnen een organisatie heeft) en systematische controles om bias (vooroordeel) op te sporen en te verminderen. Zonder zulke waarborgen kan AI maatschappelijke schade veroorzaken die lastig te herstellen is. De vraag is dus niet alleen wat de technologie kan, maar ook wie controleert of ze fair, veilig en uitlegbaar blijft.

Vooruitblik en de Nederlandse context

Volgens Microsoft staan we aan de vooravond van breed gebruikte autonome AI-assistenten die zelfstandig plannen en taken uitvoeren, AI-systemen die meerdere soorten informatie tegelijk verwerken en toepassingen die direct op apparaten draaien zonder internetverbinding. Ook doorbraken in kwantumcomputers (computers die rekenen met quantummechanica in plaats van klassieke bits) en technieken waarbij modellen leren zonder dat data centraal worden opgeslagen, kunnen de rekenkracht en privacy verbeteren. Maar voorspellingen over de lange termijn blijven onzeker; niemand weet precies wanneer we richting kunstmatige algemene intelligentie gaan. Nederland loopt intussen voorop in adoptie: 95 procent van de bedrijven gebruikt al AI, blijkt uit Holland High Tech. De investering van 200 miljoen euro in een AI-fabriek in Groningen onderstreept de ambitie dat Nederland een sleutelspeler wil worden in de Europese AI-sector. Tegelijkertijd voert de Autoriteit Persoonsgegevens de nieuwe AI-verordening in, met strengere eisen aan transparantie en risicobeheer. AI ontwikkelt zich hier dus in hoog tempo, maar binnen een steeds strakker regelgevend kader.

De vraag is niet langer óf AI je werk en dagelijks leven gaat beïnvloeden, maar hóe en onder welke voorwaarden. De volgende stap ligt bij ons: gaan we deze technologie vormgeven op een manier die haar beloftes waarmaakt zonder de risico’s te negeren?

 

Meer lezen