Veiligheid & Defensie - De Stand

Kunstmatige intelligentie is een dagelijkse realiteit in het hart van onze nationale veiligheid. Het is een krachtig schild en tegelijk een revolutionair zwaard dat nieuwe risico’s introduceert. Voor een land als Nederland, dat de rechtsstaat en privacy hoog in het vaandel draagt, is de centrale vraag hoe het met deze technologische wapenwedloop omgaat.

Nederland leeft in een AI-realiteit

De adoptie van artificiële intelligentie (AI), technologie die menselijke intelligentie nabootst, is binnen de Nederlandse publieke sector in een stroomversnelling geraakt. AI is een operationeel instrument dat actief wordt ingezet in cruciale domeinen. Een recente quickscan door TNO identificeerde 266 AI-toepassingen in de publieke dienstverlening, waarbij ‘publieke orde en veiligheid’ een van de belangrijkste toepassingsgebieden is. Deze cijfers tonen aan dat de technologie de experimentele fase voorbij is en steeds vaker wordt geïmplementeerd in de dagelijkse praktijk van overheidsorganisaties.

 Deze snelle technologische vooruitgang staat echter in schril contrast met de bestuurlijke realiteit. Een diepgravend onderzoek van de Algemene Rekenkamer legt een zorgwekkende ‘volwassenheidskloof’ bloot: het bestuur, de risicobeheersing en de openheid houden de technologische ontwikkelingen niet bij. Van de 433 AI-systemen die de Rijksoverheid in kaart bracht, ontbreekt bij meer dan de helft een aantoonbare afweging van de risico’s. Bovendien is van 35% van de daadwerkelijk gebruikte systemen niet bekend of ze de beoogde prestaties leveren, terwijl slechts 5% is terug te vinden in het openbare algoritmeregister.

 De situatie schetst een paradoxale ontwikkeling. Terwijl de kwantitatieve data een beeld geven van een volwassen wordend gebruik van AI, onthult de kwalitatieve analyse dat deze volwassenheid vooral technisch van aard is. De organisatorische en ethische kaders die nodig zijn voor een verantwoorde inzet, blijven achter. Er worden systemen geïmplementeerd waarvan de prestaties en risico’s onvoldoende worden begrepen, wat een gevaar vormt voor de rechtszekerheid van burgers. Deze technisch gerichte manier van werken wordt een steeds groter risico nu de systemen krachtiger en meer verweven raken met cruciale overheidstaken.

Defensie zet een digitale sprong voorwaarts

Voor het Ministerie van Defensie is de adoptie van AI geen vrijblijvende verbeterstap, maar een strategische noodzaak. De kern van deze ambitie is vastgelegd in de Defensie Strategie Data Science en AI 2023-2027, die stelt dat moderne militaire operaties “bijna niet inzetbaar zijn zonder Data Science en AI”. TNO waarschuwt zelfs dat Defensie momenteel achterloopt en dat de sterke media-aandacht voor risico's een verlammend effect heeft op de besluitvorming. Het overkoepelende doel is ‘Informatie Gestuurd Optreden’ (IGO), waarbij data en AI de krijgsmacht in staat stellen sneller en beter te beslissen.

 De inzet van AI wordt hier gezien als een geopolitieke noonzaak, een onmisbaar element van moderne afschrikking. Dit verandert de risicoafweging fundamenteel: het risico van niet adopteren wordt afgewogen tegen de implementatierisico’s, wat kan leiden tot een grotere acceptatie van onzekerheden. Een dieperliggende uitdaging is de kwetsbaarheid van de digitale infrastructuur. Defensie erkent de sterke afhankelijkheid van Amerikaanse clouddiensten en benadrukt het belang van “strategische autonomie”. De strijd om AI-dominantie gaat dus niet alleen over algoritmes, maar ook over de controle over de data en rekenkracht.

De politie experimenteert in een grijs gebied

Binnen de Nederlandse rechtshandhaving manifesteert AI zich als een instrument met twee gezichten. Aan de ene kant biedt het veelbelovende mogelijkheden om de opsporing effectiever te maken; de politie zet AI in om complexe datastromen te analyseren en cybercriminaliteit te bestrijden. Een succesverhaal is het ‘Q’-project, een machine-learning-systeem dat duizenden ‘koude zaken’ analyseert en de analysetijd van een complex dossier kan terugbrengen van weken naar één dag. Een ander voorbeeld is het automatisch onherkenbaar maken van autoruiten op camerabeelden om de privacy van burgers te beschermen.

 Aan de andere kant opereert de politie in wat onderzoekers een “niemandsland” noemen, een grijze zone tussen technologische innovatie en juridische waarborgen. Experimenten met predictive policing (voorspellend politiewerk) hebben tot felle maatschappelijke kritiek geleid, zoals het ‘Sensing Project’ in Roermond, dat volgens Amnesty International etnisch profileren mogelijk maakte. De politie is zich bewust van deze risico’s; zo werd na kritiek van de Algemene Rekenkamer de inzet van een risicotaxatie-instrument voor geweld gestaakt. Dit patroon van experimenteren en terugtrekken duidt op een reactief bestuursmodel, waarbij externe partijen vaak als te late controleurs fungeren.

AI als onzichtbaar wapen in cybersecurity

In de wereld van cybersecurity speelt AI een cruciale, maar vaak onzichtbare dubbelrol. De AIVD beschouwt AI als een “versterkende factor voor bestaande dreigingen”. De technologie verlaagt de drempel voor kwaadwillenden om geavanceerde cyberaanvallen te ontwikkelen die traditionele systemen omzeilen. Tegelijkertijd is AI een onmisbaar wapen voor de verdediging, omdat het enorme hoeveelheden data kan analyseren om dreigingen veel sneller te ontdekken dan een mens. Dit creëert een klassieke wapenwedloop, die een kernonderdeel is van de Nederlandse Cybersecuritystrategie.

 

Een belangrijke verschuiving is dat AI-systemen zelf een nieuw doel voor een aanval  vormen. Als de verdediging van vitale infrastructuur afhankelijk wordt van AI, wordt dat systeem een aantrekkelijk doelwit. De AIVD heeft daarom richtlijnen gepubliceerd voor het beveiligen van AI-modellen tegen specifieke aanvallen. Het gaat hierbij om technieken als poisoning, waarbij trainingsdata wordt gemanipuleerd, en evasion attacks, die een model met misleidende input om de tuin leiden. Cybersecurity gaat dus niet langer alleen over het beschermen van netwerken, maar ook over het waarborgen van de integriteit van de intelligente systemen zelf.

De internationale spelregels blijven diffuus

De Nederlandse aanpak wordt mede bepaald door een gefragmenteerd internationaal speelveld. De meest invloedrijke regelgeving, de EU AI Act, hanteert een op risico gebaseerde aanpak. AI-toepassingen van de politie vallen waarschijnlijk onder de categorie ‘hoog risico’, wat strenge eisen met zich meebrengt. Cruciaal is echter de expliciete uitzondering in de verordening: zij is niet van toepassing op AI-systemen die exclusief voor militaire doeleinden worden ontwikkeld en gebruikt. Dit creëert een juridisch vacuüm voor de technologieën die Defensie ontwikkelt.

 Dit vacuüm wordt deels opgevuld door de kaders van militaire bondgenootschappen. De NAVO heeft een AI-strategie aangenomen die is gebaseerd op zes ‘Principes van Verantwoord Gebruik’, waaronder wettigheid, verantwoordelijkheid en bestuurbaarheid. Als NAVO-lid is Nederland aan deze niet-bindende, maar politiek belangrijke principes gecommitteerd. Vergelijkbare ethische raamwerken zijn ontwikkeld door belangrijke bondgenoten als de Verenigde Staten, die zich richten op het behouden van een ‘beslissingsvoordeel’, en het Verenigd Koninkrijk, dat spreekt over de noodzaak van “context-appropriate human involvement”.

Deze verschillende kaders leiden tot een fundamentele tweedeling. Voor het civiele domein worden harde, wettelijk afdwingbare regels opgesteld, terwijl voor het militaire domein wordt vertrouwd op zachte, op principes gebaseerde afspraken. Een bedrijf dat een discriminerend algoritme voor personeelswerving verkoopt, kan een boete krijgen, maar een defensiebedrijf dat een vergelijkbaar bevooroordeeld algoritme voor doelselectie ontwikkelt, schendt enkel niet-bindende principes. Dit resulteert in een aanzienlijke kloof in aansprakelijkheid, precies in het domein waar de gevolgen van fouten het meest catastrofaal kunnen zijn.

De mens blijft de baas, maar hoe lang nog?

De ultieme grens ligt bij de ontwikkeling van autonome wapensystemen. Het publieke debat is in beleidskringen verschoven naar de vraag wat “betekenisvolle menselijke controle” precies inhoudt. Machines kunnen niet juridisch verantwoordelijk worden gehouden; die verantwoordelijkheid moet altijd bij een mens blijven liggen. Ondertussen waarschuwen denktanks als de RAND Corporation dat de ware revolutie van AI niet zozeer technologisch, maar strategisch van aard zal zijn. AI kan de fundamentele logica van oorlogsvoering veranderen.

Het kan ervoor zorgen dat kwantiteit weer prevaleert boven kwaliteit: een zwerm van duizenden goedkope, autonome drones kan een klein aantal technologisch superieure gevechtsvliegtuigen overrompelen. Daarnaast kan AI misleiding tot een kernelement van oorlogsvoering maken. Voor westerse krijgsmachten, die decennialang hebben geïnvesteerd in een kwalitatief technologisch overwicht, vormt dit een existentiële uitdaging. De inzet van loitering munitions (rondhangende munitie) met autonome capaciteiten is al gerapporteerd in conflicten. Tegelijkertijd waarschuwt het Stockholm International Peace Research Institute (SIPRI) dat algoritmische bias kan leiden tot het foutief identificeren van doelen, met potentieel catastrofale gevolgen.

 

Nederland bevindt zich midden in een onomkeerbare integratie van AI in zijn veiligheidsapparaat. Deze transitie wordt gedreven door strategische noodzaak, maar is bezaaid met bestuurlijke en ethische uitdagingen. Er gaapt een kloof tussen de technologische mogelijkheden en de volwassenheid van de besturing, en fundamentele vragen over menselijke controle blijven onbeantwoord. Terwijl AI de ruggengraat van onze nationale veiligheid wordt, is de ultieme uitdaging niet technologisch, maar democratisch: hoe bouwen we de vangrails om ervoor te zorgen dat deze systemen onze waarden net zo goed beschermen als onze grenzen?

Vorige
Vorige

Overheids-dienstverlening

Volgende
Volgende

Thuis & Leven - De Stand