Gezondheid & Welzijn - De Stand
Een robot die ’s nachts naast het bed van een dementerende waakt. Een algoritme dat in een seconde een röntgenfoto leest. Een chatbot die een depressie herkent in een enkel zinnetje. Het klinkt als sciencefiction, maar midden 2025 is het de dagelijkse realiteit in steeds meer Nederlandse zorginstellingen. Alleen: lost deze digitale golf onze problemen op, of veroorzaakt hij nieuwe?
Een robot die ’s nachts naast het bed van een dementerende waakt. Een algoritme dat in een seconde een röntgenfoto leest. Een chatbot die een depressie herkent in een enkel zinnetje. Het klinkt als sciencefiction, maar midden 2025 is het de dagelijkse realiteit in steeds meer Nederlandse zorginstellingen. Alleen: lost deze digitale golf onze problemen op, of veroorzaakt hij nieuwe?
Van pilot naar hoeksteen van het stelsel
Adviesbureau McKinsey schetst het dreigende gat: zonder stevige digitale versnelling komen we in 2033 zo’n 245.000 zorgmedewerkers tekort. De rekensom is hard: bewezen toepassingen van kunstmatige intelligentie (AI), software die patronen herkent leert en autonoom beslissingen kan nemen, kunnen jaarlijks tot 22 miljard euro besparen. Maar zolang succesvolle proeven blijven steken in lokale experimenten, verandert er weinig aan de werkdruk. Het pleidooi is even simpel als onontkoombaar: denk digitaal vanaf de start, deel data via een landelijke architectuur en schaal op zodra iets werkt.
Ook onderzoeksorganisatie ZonMw zet druk op de ketel. In maart presenteerde ze het AI-signalement aan de minister van Volksgezondheid. De kern: AI kan de zorg menselijker maken door werkdruk te verlichten en kwaliteit te verhogen, maar daarvoor moeten zes cruciale kennishiaten worden gedicht. Van het valideren van modellen tot het meten van maatschappelijke impact, en van ethische kaders tot praktische opschaling. Het klinkt technisch, maar in feite gaat het om vertrouwen: wie durft een diagnose te baseren op een black box die nog niet volledig is getest?
AI in de praktijk
In een jaar tijd steeg het aandeel Nederlandse zorginstellingen dat AI gebruikt van 43 naar 70 procent. Opvallend genoeg neemt het gebruik in diagnostiek iets af: van bijna de helft naar een derde. De verklaring is alledaagser dan verwacht. Veel instellingen zetten AI eerst in om de papieren berg te verkleinen: patiëntdossiers samenvatten, data doorzoeken, administratie verlichten.
Ook medische beeldvorming is cruciaal. Philips wijst erop dat AI in echografie hartproblemen kan signaleren voordat het menselijk oog iets ziet.
In de geestelijke gezondheidszorg (GGZ) wordt AI weer heel anders ingezet. De Nederlandse AI-Coalitie publiceerde in mei een kompas voor verantwoord gebruik, van automatische gespreksverslagen tot subtiele analyse van toon en woordkeuze. Jongeren zien er soms een anonieme hulplijn in tijdens de lange wachtweken.
De aaibare kant van robotica
In de ouderenzorg verschijnt AI in zachte vorm. Kenniscentrum Vilans testte een knuffelbare robot, Maatje, die naast mensen met dementie kruipt, onrust registreert en met eenvoudige gesprekjes probeert te kalmeren. Bij sommigen werkt het, bij anderen wekt het kinderlijke ervan weerstand. Het advies: zorg voor variatie in stem, uiterlijk en gedrag, alsof het acteurs zijn in een toneelstuk. Maar er klinkt ook een waarschuwing: het eerste effect kan warm zijn, de vraag is of het blijvend is.
Meer dan cijfers alleen
AI kan de zorg sneller, preciezer en toegankelijker maken. Algoritmen lezen een scan in seconden, ontdekken patronen die een arts niet ziet en brengen hulp naar de smartphone in de broekzak. De rekensommen zijn indrukwekkend, maar de echte waarde zit soms in het kleine: een MS-patiënt die dankzij thuismonitoring minder vaak naar het ziekenhuis hoeft, een oudere die via een sociale robot langer het gevoel houdt dat iemand luistert.
Wetgeving als nieuwe spelregel
Minder zichtbaar maar minstens zo ingrijpend is de Europese AI Act, de nieuwe verordening die medische toepassingen strenger reguleert. Veel zorginstellingen zijn nog niet klaar. Vanaf februari 2025 geldt al een verbod op systemen die kwetsbare groepen manipuleren. Medische AI valt bijna altijd onder ‘hoog risico’, wat betekent dat leveranciers moeten aantonen dat hun algoritmen transparant werken, door mensen worden gecontroleerd en dat datamanagement op orde is. Ziekenhuizen liggen voorop, GGZ en verpleeghuizen volgen. De wet maakt van een zorgrobot geen schattig speeltje, maar een medisch hulpmiddel onder toezicht.
De horizon van 2030
Stel: de wijkverpleegkundige heeft een draagbare scanner in haar tas. Ze maakt een scan, een cloud-algoritme geeft binnen minuten een diagnosevoorstel, en de AI Act borgt dat het model eerlijk en uitlegbaar werkt. In de GGZ kan iemand met zware klachten meteen terecht bij een digitale coach, wetend dat menselijk toezicht de laatste stap blijft. Het beeld is haalbaar, maar vraagt meer dan techniek. Bijscholing van personeel en investeringen in een betrouwbare digitale infrastructuur zijn noodzakelijk.
Niet iedereen aan boord
Blijft de vraag wie mee kan in deze digitale trein. Ouderen zonder smartphone, nieuwkomers die de taal nog leren, mensen met lage digitale vaardigheden, voor hen is AI geen vanzelfspreken gereedschap. In de praktijk kan een chatbot de afstand soms vergroten, terwijl een tastbare robot als Maatje juist nabijheid schept. De technologie is neutraal, de toepassing niet.
Keuzes
AI kan artsen sneller laten werken, diagnoses scherper maken en patiënten een warmer gevoel geven. Tegelijk zijn er regels, twijfels en praktische obstakels. Wordt AI de hoeksteen die de zorg betaalbaar en toegankelijk houdt of blijft dat een belofte die niet wordt waar gemaakt?
AI record: Covid-19 antistoffen in 5 dagen
Een AI multi-agent systeem van Stanford heeft als een team van specialistische onderzoekers gewerkt om onderzoek te doen naar Covid-19 antistoffen. Deze agents stellen samen hypotheses op, toetsen ze en sturen ze bij. Een AI multi-agent systeem (MAS) is een platform waarin meerdere gespecialiseerde AI-modules tegelijk werken aan één onderzoeksvraag. Stanford Medicine bouwde zo’n systeem als digitaal laboratorium, een virtuele werkruimte waar experimenten digitaal draaien. De AI-principal investigator, oftewel de AI-hoofdonderzoeker, coördineert alle taken en zet de onderzoekslijnen uit.
AI record: Covid-19 antistoffen in 5 dagen
Een AI multi-agent systeem van Stanford heeft als een team van specialistische onderzoekers gewerkt om onderzoek te doen naar Covid-19 antistoffen. Deze agents stellen samen hypotheses op, toetsen ze en sturen ze bij. Een AI multi-agent systeem (MAS) is een platform waarin meerdere gespecialiseerde AI-modules tegelijk werken aan één onderzoeksvraag. Stanford Medicine bouwde zo’n systeem als digitaal laboratorium, een virtuele werkruimte waar experimenten digitaal draaien. De AI-principal investigator, oftewel de AI-hoofdonderzoeker, coördineert alle taken en zet de onderzoekslijnen uit.
Onder deze leiding acteren immunologie-agents, immunologie bestudeert hoe ons immuunsysteem ons beschermt, computationele biologie-agents, die wiskundige modellen toepassen op biologische processen, en machine learning-agents, die statistische patroonherkenning uit grote datasets mogelijk maken. Iedere agent levert input en vraagt zo nodig extra software aan, zoals AlphaFold, een AI-tool voor eiwitstructuurvoorspelling.
In een paar klikken roepen de agents elkaar bijeen in virtuele meetings. Hypothesen worden in seconden besproken, parallel geëvalueerd en direct bijgesteld door een criticus-agent die gaten in redeneringen aankaart. Zo ontstaat een zelfregulerende cyclus waarin mens en machine naadloos samenwerken.
Hoe de digitale pitstop verliep
Traditioneel kost het weken tot maanden om antistofkandidaten te ontwerpen. Het MAS leverde in vijf dagen een strategie en tientallen moleculaire ontwerpen. Dankzij parallelle planning en voortdurende toetsing konden onderzoekers in het fysieke lab meteen aan de slag met 92 nanobodies, kleine eiwitten die de functie van antilichamen nabootsen en binden aan het spike-eiwit van SARS-CoV-2.
Vergelijk het met een Formule 1 pitstop, maar dan voor moleculair design: banden wisselen, tanken en snelle checks gebeuren simultaan. Terwijl een traditioneel team talent, apparatuur en tijd nodig heeft, draait het digitale lab dag en nacht zonder pauzes. Twee van de 92 nanobodies bewezen zelfs effectief te zijn tegen nieuwe virusvarianten.
Waarschuwingen bij autonome aanbevelingen
Net zo snel als een MAS ideeën genereert, kunnen aanbevelingen afglijden onder wat performance drift wordt genoemd, de geleidelijke afname van een AI-model dankzij verouderende data. Onderzoekers van Lawrence Livermore National Laboratory (LLNL) zagen dat na verloop van tijd de betrouwbaarheid van optimalisaties daalde zonder voortdurende menselijke validatie.
Die waarschuwing onderstreept de noodzaak van onafhankelijke controle die afwijkende voorstellen blokkeert en in lijn brengt met klinische standaarden. Blind vertrouwen in algoritmische convergentie kan leiden tot nieuwe routes die logisch lijken maar klinisch onhaalbaar zijn.
Agents plus mensen in balans
De grote vraag: maken we onderzoekers overbodig of winnen we aan scherpte? De casus van Stanford en LLNL laten zien dat mensen de onderzoeksvraag blijven formuleren, kaders zetten en in de laatste fase voorstellen valideren. De échte kracht schuilt niet in solo’s van AI of mens, maar in harmonie tussen digitale snelheid en menselijke controle.