Kees van Brink Kees van Brink

AI op hol?

De meeste discussies over kunstmatige intelligentie gaan over productiviteit, veiligheid of ethiek. Maar soms laat AI zich van een totaal andere kant zien: als grappenmaker, nachtelijke sollicitant of, per ongeluk, als scheldende automaat. Drie recente verhalen laten zien hoe kunstmatige intelligentie niet alleen onze efficiëntie, maar ook onze interacties en cultuur onverwachts beïnvloedt.

De meeste discussies over kunstmatige intelligentie gaan over productiviteit, veiligheid of ethiek. Maar soms laat AI zich van een totaal andere kant zien: als grappenmaker, nachtelijke sollicitant of, per ongeluk, als scheldende automaat. Drie recente verhalen laten zien hoe kunstmatige intelligentie niet alleen onze efficiëntie, maar ook onze interacties en cultuur onverwachts beïnvloedt.

Grappen schrijven op het niveau van Letterman

Joe Toplyn heeft een cv dat leest als een ode aan de late-nightcomedy: decennialang schreef hij grappen voor David Letterman en Jay Leno, analyseerde honderden mopstructuren en gaf cursussen over het vak. Toen de nieuwste generatie taalmodellen hun intrede deed, stelde hij zichzelf een vraag: kan een AI leren om op hetzelfde niveau grappen te maken als een mens?

Het antwoord testte hij met Witscript, zijn eigen webapp die voor een paar dollar per maand nieuwsberichten en afbeeldingen omzet in punchlines, woordspelingen en onderschriften. Om de kwaliteit te meten, organiseerde hij een ‘laugh-off’ met een livepubliek in North Hollywood. Comedian Mike Perkins bracht de grappen, de helft door Toplyn geschreven, de andere helft door Witscript. Een neurowetenschapper en Toplyn maten de lengte en intensiteit van het gelach. Het resultaat: geen significant verschil tussen mens en machine.

Dat is opmerkelijk, omdat humor lang gold als een van de laatste bastions van menselijk vernuft. Toch plaatsen experts kanttekeningen. Sarcasme, zwarte humor en sociale finesse blijven lastig voor een model dat geen lichaamstaal leest en geen impliciete sociale codes voelt. Zoals computational linguist Christian Hempelmann het stelt: een AI kan een punchline bedenken, maar begrijpt niet automatisch wanneer humor troost biedt, spanning doorbreekt of iemand subtiel op zijn plaats zet.

Toch ziet Toplyn kansen. In een wereld met toenemende eenzaamheid zouden virtuele assistenten en robots die een paar goede grappen paraat hebben, interacties menselijker kunnen maken. “Het soort grap dat een vriend in een gesprek zou maken,” zegt hij.

Slapen terwijl je solliciteert

Humor mag dan een onverwachte AI-toepassing zijn, productiviteit is dat allerminst. Maar de manier waarop één man het inzette om werk te vinden, tart de grenzen van het conventionele. Met een zelfgebouwde sollicitatiebot diende hij 1.000 sollicitaties in terwijl hij sliep. Binnen een maand leverde dat vijftig uitnodigingen voor gesprekken op.

De bot analyseerde zijn gegevens, matchte ze met vacatureteksten, schreef op maat gemaakte cv’s en motivatiebrieven, en vulde zelfs vragenlijsten in. Het voordeel? Mens én algoritme aan de andere kant zagen een perfect aansluitend profiel, zonder dat hij zelf uren moest typen.

Toch zag hij ook de keerzijde. Automatisering kan de menselijke toets in het sollicitatieproces verder verdringen. Als selectie grotendeels door AI wordt gedaan en kandidaten zich ook door AI laten vertegenwoordigen, wordt het gesprek tussen twee mensen mogelijk vervangen door een dialoog tussen twee scripts. Hij noemt het “een paradox: terwijl we de selectie optimaliseren, verliezen we misschien het menselijke element dat op de werkvloer vaak het verschil maakt.”

De reacties online liepen uiteen: lof voor de efficiëntie, zorgen over eerlijkheid en authenticiteit. Maar dat deze aanpak werkt, staat vast. Daarmee rijst de vraag: wanneer wordt dit de norm en wat betekent dat voor mensen die nog ‘met de hand’ solliciteren?

Wanneer Apple’s AI je uitscheldt

Niet alle AI-verhalen eindigen in succes. Soms wordt de technologie een bron van onbedoeld komisch, of gênant, effect. Louise Littlejohn uit het Schotse Dunfermline kan daarover meepraten. Zij ontving een keurige voicemail van haar autodealer, die door Apple’s voicemailtranscriptieservice werd omgezet in een tekstbericht. In plaats van een uitnodiging voor een evenement, las ze dat men wilde weten of ze “al seks had gehad” en haar vervolgens een “stuk” noemde.

De werkelijkheid was minder schokkend. De verkoper had het over een datum, de zesde van maart, maar dat werd door de spraak-naar-tekstfunctie opgepikt als “sex”. De rest van de zin raakte even ontspoord door achtergrondgeluid en de intonatie van de verkoper alsof hij een script las. Toch bleef het opmerkelijk dat het systeem zulke grove taal zonder waarschuwing in een bericht zette.

Volgens een hoogleraar spraaktechnologie aan de Universiteit van Edinburgh speelde de Schotse tongval mogelijk een rol, maar waren achtergrondruis en de telefoonlijn belangrijkere factoren. In ideale omstandigheden, zegt hij, zijn accentproblemen grotendeels verleden tijd. Toch blijft de vraag: waarom ontbreken er filters die zulke inhoud afvangen?

Het is niet de eerste keer dat Apple’s taaltools ongewenst nieuws halen. Onlangs moesten ze ook een bug verhelpen waarbij het woord ‘racist’ in sommige gevallen automatisch werd omgezet naar “Trump”.

Het voorval met Littlejohn, laat zien hoe dun de scheidslijn kan zijn tussen een handige feature en een gênant moment. Voor bedrijven die AI inzetten in klantcontact is dat een serieuze les: technologie kan misverstanden uitlokken die schadelijker zijn dan een gemiste kans.

Meer dan anekdotes

Op het eerste gezicht lijken deze drie verhalen losstaande curiositeiten. Maar samen vertellen ze iets over de staat van AI. Ze laten zien dat de technologie niet alleen sneller en slimmer wordt, maar ook steeds vaker binnendringt in alledaagse en onverwachte domeinen, van entertainment en werk tot de alledaagse communicatie op onze telefoons.

Ze roepen ook dezelfde kernvragen op: hoe ver laten we automatisering gaan? Moet een sollicitatie een menselijke inspanning blijven? Hoe zorgen we dat humor in digitale interacties geen plat kunstje wordt? En waar trekken we de grens bij fouten die voortkomen uit technische beperkingen?

In alle drie de gevallen speelt menselijke interpretatie een doorslaggevende rol. Toplyn gebruikt zijn ervaring om AI grappiger te maken. De sollicitant ziet zijn bot als gereedschap, maar niet als vervanger voor het gesprek zelf. En bij de mislukte voicemailtranscriptie is het nog altijd de ontvanger die moet bepalen of een bericht serieus of grappig bedoeld is.

Meer lezen
Kees van Brink Kees van Brink

Chatgpt heeft geheugen van een goudvis

Je bent middenin een belangrijk gesprek met ChatGPT over een complex project. Plots lijkt de AI-chatbot alles te zijn vergeten wat jullie de afgelopen uren hebben besproken. Herkenbaar? Dan ben je niet de enige die worstelt met een van de meest frustrerende eigenschappen van moderne AI-chatbots: hun geheugen is korter dan dat van een goudvis.

Je bent middenin een belangrijk gesprek met ChatGPT over een complex project. Plots lijkt de AI-chatbot alles te zijn vergeten wat jullie de afgelopen uren hebben besproken. Herkenbaar? Dan ben je niet de enige die worstelt met een van de meest frustrerende eigenschappen van moderne AI-chatbots: hun geheugen is korter dan dat van een goudvis.

De vergeetachtige assistent die alles weet

AI-chatbots hebben een paradoxaal probleem. Ze beschikken over enorme hoeveelheden kennis uit hun training, maar kunnen vaak niet eens onthouden wat je vijf minuten geleden tegen ze zei. De oorzaak ligt in wat techneuten een 'contextvenster' noemen, de beperkte hoeveelheid informatie die een chatbot tegelijk kan 'zien' en gebruiken.

"Het is alsof je een gesprek voert met iemand die een oneindige jetlag heeft," beschrijft BotStacks het probleem kernachtig. Een treffende vergelijking: stel je voor dat je college-aantekeningen steeds worden weggegomd zodra je bladzijde vol is.

Deze contextvensters variëren van zo'n 4.000 tokens (ongeveer 3.000 woorden) bij oudere modellen tot 200.000 tokens bij nieuwere systemen. Dat klinkt veel, maar in een uitgebreid gesprek over bijvoorbeeld een onderzoeksproject of code-review is die ruimte snel vol.

Wanneer vergeten pijnlijk wordt

De frustraties zijn herkenbaar en divers. Op OpenAI's community-forum delen gebruikers hun irritaties: "ChatGPT heeft ineens alle context van mijn hele gesprek verloren. Nu geeft het vreemde antwoorden die helemaal losstaan van wat we bespraken". Een andere gebruiker beschrijft hoe zijn zakelijke AI-chatbot ineens niet meer wist waar ze het over hadden: "Mijn bedrijf is voor een deel afhankelijk van ChatGPT. Dit zorgt voor professionele onbetrouwbaarheid".

⚠️ Vooral bij complexe taken wordt contextverlies problematisch: tijdens het debuggen van code, bij het redigeren van lange documenten, of wanneer je een chatbot instrueert met specifieke bedrijfsregels die later worden 'vergeten'.

Onderzoek van Bohrium naar gebruikersfrustraties toont vier hoofdoorzaken van teleurstelling bij chatbots: slecht begrip van de semantiek, gebrek aan personalisatie, te weinig menselijkheid, en incompetentie. Contextverlies versterkt elk van deze problemen.

Nederlandse ervaring

Nederlandse consumenten zijn bijzonder kritisch over AI-chatbots. Uit onderzoek van Emerce blijkt dat 61% van de Nederlanders vindt dat het slecht herkennen van emoties meer een karaktertrek van AI is dan van mensen. Patrick Meutzner van Trengo observeert: "Chatbots kunnen simpele vragen beantwoorden, maar kunnen het menselijk contact niet vervangen".

De cijfers spreken boekdelen: 64% van de Nederlandse consumenten heeft geen positieve associatie met chatbots, en 65% bestelt liever bij webwinkels met menselijke klantenservice. Het contextverlies draagt direct bij aan deze negatieve perceptie.

💡 Opvallend: Nederlanders versimpelen hun vragen als ze met een chatbot praten, omdat ze weten dat complexe context vaak verloren gaat.

Creatieve oplossingen van gebruikers

Gebruikers hebben zelf slimme workarounds (noodoplossingen) ontwikkeld. Een populaire methode is het regelmatig samenvatten van gesprekken: "Schrijf een coherente, onafhankelijke samenvatting van het hele gesprek en voeg 'laten we doorgaan' toe". Dit reset de context effectief.

Technische doorbraken in aantocht

Wetenschappers werken koortsachtig aan oplossingen. MIT-onderzoekers ontwikkelden 'StreamingLLM', een systeem dat de eerste vier tokens van een gesprek altijd behoudt — vergelijk het met het vastzetten van je belangrijkste notities. Hierdoor presteren chatbots net zo goed na 4 miljoen woorden als aan het begin van een gesprek. OpenAI test een methode om ChatGPT's langetermijngeheugen te verbeteren, zodat gebruikers gesprekken kunnen voortzetten en een werkrelatie opbouwen. Gebruikers kunnen verzoeken om specifieke informatie te onthouden, en deze herinneringen blijven bewaard tenzij de gebruiker ze weer verwijdert.

 Meta werkt aan een slim 'flashcard-systeem' voor AI-chatbots, waarin belangrijke feiten snel terug te vinden zijn. Google pakt het anders aan: hun Titan-model werkt net als het menselijk geheugen, met een kortetermijngeheugen voor actieve gesprekken, een langetermijngeheugen voor basiskennis en een vast geheugen voor geleerde vaardigheden. Beide systemen moeten chatbots helpen informatie beter te onthouden en te gebruiken

Soms is vergeten ook een voordeel

Niet alle contextverlies is negatief. Stefan Bauschard wijst erop dat een 'schone lei' handig kan zijn bij het starten van nieuwe onderwerpen. Privacy-bewuste gebruikers waarderen dat gevoelige informatie niet permanent wordt opgeslagen. Sommige gebruikers schakelen bewust tussen chatbots met en zonder geheugen: "Mogelijk kies ik ervoor om bij ChatGPT wel gesprekken te laten onthouden, en bij Claude niet. Zodat ik kan vergelijken".

De toekomst van AI-geheugen

De race om AI-geheugen te verbeteren gaat verder dan alleen grotere contextvensters. Het gaat om slimmere, meer mensachtige geheugenvormen. Bedrijven zoals Botstacks investeren in 'smart context management' — systemen die automatisch bepalen wat belangrijk is om te onthouden.

Blijft de vraag: willen we werkelijk AI-chatbots die alles onthouden? Of is een beetje vergeetachtigheid soms juist menselijk en daarom vertrouwd?

Meer lezen
Kees van Brink Kees van Brink

Creëert AI meer banen?

In Nederland woedt een verhit debat over de impact van kunstmatige intelligentie op de arbeidsmarkt. De vrees voor massaal banenverlies domineert vaak de publieke discussie, gevoed door verhalen over robots die de fabrieksvloer overnemen en algoritmen die administratieve taken automatiseren. Maar wat als dit beeld niet klopt? Wat als de revolutie van AI geen vernietiging, maar juist creatie tot gevolg heeft? Recente onderzoeken schetsen een verrassend positief plaatje.

In Nederland woedt een verhit debat over de impact van kunstmatige intelligentie op de arbeidsmarkt. De vrees voor massaal banenverlies domineert vaak de publieke discussie, gevoed door verhalen over robots die de fabrieksvloer overnemen en algoritmen die administratieve taken automatiseren. Maar wat als dit beeld niet klopt? Wat als de revolutie van AI geen vernietiging, maar juist creatie tot gevolg heeft? Recente onderzoeken schetsen een verrassend positief plaatje.

De grote banenwissel: een optimistisch signaal

De schrik over AI-verlies is niet uit de lucht gegrepen, maar de feiten wijzen een andere kant op. Volgens PwC's 2025 Global AI Jobs Barometer, een analyse van bijna een miljard vacatureplaatsingen wereldwijd, is de Nederlandse banenmarkt getuige van een opmerkelijke groei. Sterker nog, het aantal vacatures nam in Nederland tussen 2020 en 2022 toe met maar liefst 123 procent. Marlene de Koning van PwC Nederland nuanceert de angst: "AI verandert weliswaar de arbeidsmarkt, maar verdringt – nog - niet massaal banen."

Ook het CBS bevestigt deze trend. Sinds 2018 is het aantal AI-gerelateerde functies in Nederland met 840 procent gestegen, van 5.000 naar 47.000 in 2024. De informatie- en communicatiesector loopt hierin voorop, met 5 procent van de functies die een AI-component vereisen.

💡 Deze cijfers suggereren dat AI niet de banenverslinder is die we vrezen, maar eerder een katalysator voor groei.

Zelfs werkgevers zijn opvallend optimistisch. Uit onderzoek van het UWV blijkt dat slechts 6 procent verwacht dat AI binnen vijf jaar banen zal kosten. Twee keer zoveel werkgevers zien AI juist als een bron van nieuwe functies. Een derde verwacht zelfs een toename van de werkgelegenheid in de komende vijf jaar. Het Nederlandse bedrijfsleven lijkt de potentie van AI dus al te omarmen.

De opkomst van nieuwe beroepen en vaardigheden

De verschuiving die we zien, is er een van kwantiteit naar kwaliteit. Het gaat niet zozeer om het verlies van functies, maar om de metamorfose van bestaande rollen en de geboorte van compleet nieuwe. We zien een hele reeks opkomende beroepen, zoals de ‘prompt engineer’, die zich specialiseert in het stellen van de juiste vragen aan AI-modellen, en de ’AI-ethicus’, die toeziet op de verantwoorde implementatie van de technologie. Dit is geen sciencefiction meer, dit is nu.

Een bijkomend effect is de opkomst van 'skills-based hiring'. Formele diploma's worden minder belangrijk. In plaats daarvan wordt er steeds vaker gezocht naar concrete, aantoonbare vaardigheden. Dit democratiseert de arbeidsmarkt: wie de juiste skills heeft, kan aan de slag, ongeacht de achtergrond. De vraag naar vaardigheden verandert echter in een razendsnel tempo. Volgens PwC veranderen de vaardigheidseisen in AI-geëxponeerde banen 66 procent sneller dan in andere functies.

 

De keerzijde van de revolutie

De optimistische cijfers vormen slechts de helft van het verhaal. Waar de ene groep profiteert, dreigt de andere achterop te raken. Dit brengt ons bij de waarschuwingen die in het onderzoeksmateriaal naar voren komen. UWV-arbeidsmarktadviseur Frank Verduijn waarschuwt specifiek voor kwetsbare groepen. Denk aan jongeren die beginnen aan hun carrière in de startersfuncties die vaak als eerste geautomatiseerd worden. Ook mensen met kennisveroudering of een arbeidsbeperking staan voor grote uitdagingen.

⚠️ Zonder proactieve begeleiding en investeringen in omscholing riskeren we een maatschappelijke tweedeling

De Sociaal-Economische Raad (SER) is hierin duidelijk: Nederland is onvoldoende voorbereid. De investeringen in om- en bijscholing schieten tekort. Terwijl de EU AI Act sinds 2 februari 2025 organisaties verplicht tot "AI-geletterdheid" – de combinatie van technische kennis en ethisch bewustzijn – voelt de praktijk nog verre van rooskleurig. Werkgevers moeten hun werknemers tijdig betrekken bij de implementatie van AI, niet alleen om de transitie te versoepelen, maar ook om te voorkomen dat de sociale functie van werk onder druk komt te staan, een risico waar TNO voor waarschuwt.

De paradox van de angst

Er is een opmerkelijke paradox. Hoewel de meeste onderzoeken wijzen op banengroei, toont een onderzoek van de Boston Consulting Group dat 41 procent van de werknemers vreest voor baanverlies door AI. In Nederland is dat percentage zelfs nog hoger, met 42,4 procent. De angst is reëel, ook al lijken de cijfers anders te suggereren. Maar wie gebruikt de technologie het meest? Het onderzoek toont dat degenen die regelmatig met AI werken, optimistischer zijn dan de niet-gebruikers.

De uitdaging ligt niet in het stoppen van de technologische vooruitgang, maar in het faciliteren van een soepele overgang. We moeten ons niet blindstaren op de angst, maar de kansen grijpen. De vraag is dan ook niet langer óf AI onze banen verandert, maar op welke manier we ons als samenleving aanpassen.

Hoe zorgen we ervoor dat deze revolutionaire technologie een motor voor welvaart en ontwikkeling wordt, in plaats van een bron van ongelijkheid en onrust?

Meer lezen
Kees van Brink Kees van Brink

Nemen Agents ons werk over?

Op 17 juli 2025 zette OpenAI een stap die de toekomst van kunstmatige intelligentie fundamenteel verandert. Met de introductie van ChatGPT Agents krijgt generatieve AI niet alleen een stem, maar ook handen. Deze Agents voeren zelfstandig digitale taken uit: ze surfen naar websites, vullen formulieren in, analyseren bestanden en bouwen volledige presentaties. En dat doen ze zonder dat gebruikers hen stap voor stap hoeven te instrueren.

Op 17 juli 2025 zette OpenAI een stap die de toekomst van kunstmatige intelligentie fundamenteel verandert. Met de introductie van ChatGPT Agents krijgt generatieve AI niet alleen een stem, maar ook handen. Deze Agents voeren zelfstandig digitale taken uit: ze surfen naar websites, vullen formulieren in, analyseren bestanden en bouwen volledige presentaties. En dat doen ze zonder dat gebruikers hen stap voor stap hoeven te instrueren.

💡 De lancering is geen update, maar een aardverschuiving. De Agent verschuift AI van tekstgeneratie naar taakuitvoering, en die verschuiving maakt hem bruikbaar in domeinen waar klassieke chatbots niet verder kwamen dan converseren.

Maar de technologie roept ook zorgen op: over veiligheid, controle, overmoed en zelfs de impact op ons vermogen tot nadenken. Zoals OpenAI zelf stelt in Introducing ChatGPT Agent: “De Agent is geen assistent, maar een autonome uitvoerder die taken benadert via eigen redeneringen — zonder menselijke tussenkomst.”Wat kunnen deze Agents werkelijk? Waar zitten hun grenzen? En: zijn we klaar om werk uit te besteden aan een systeem dat zélf bepaalt hoe het dat aanpakt?

Van praatpaal naar digitale collega

In de begindagen van ChatGPT was de AI vooral goed in praten. Je stelde een vraag, kreeg een antwoord, soms met een vleugje flair. Handig voor brainstorms en redactieoverleg, maar beperkt zodra het werk gedaan moest worden. Met de Agent verandert dat radicaal. Dit is geen praatpaal, maar een uitvoerder. Een systeem dat zelfstandig navigeert, keuzes maakt, klikt, kopieert, invult en verwerkt. Niet op basis van vaste regels, maar via dynamische redenering: het vermogen om uit een opdracht af te leiden wat er moet gebeuren, en hoe.

Met de Agent verandert dat radicaal. Dit is geen praatpaal, maar een uitvoerder. Een systeem dat zelfstandig navigeert, keuzes maakt, klikt, kopieert, invult en verwerkt. Niet op basis van vaste regels, maar via dynamische redenering: het vermogen om uit een opdracht af te leiden wat er moet gebeuren, en hoe. Die mogelijkheid steunt op een zogenoemd geïntegreerd agentisch systeem — een samenwerkend geheel van vier componenten: redeneervermogen, geheugen, toolgebruik en zelfevaluatie. Deze onderdelen maken dat de Agent:

  • zelfstandig een taak opsplitst in subtaken

  • onthoudt wat relevant is (nu en uit eerdere interacties)

  • gebruikmaakt van digitale tools zoals browsers en koppelingen met externe systemen

  • zijn eigen keuzes kan analyseren en bijstellen

In simpele woorden: de Agent is een softwarematig organisme dat observeert, handelt en terugkijkt — zonder mens tussen elke stap.

Hoe de Agent werkelijk werkt

Stel: je vraagt de Agent om informatie te verzamelen over CO₂-uitstoot per land in 2024. In plaats van een lijstje uit Wikipedia, bezoekt hij zelf de sites van het International Energy Agency en Eurostat, navigeert naar relevante tabellen, downloadt spreadsheets, opent deze lokaal, en haalt daaruit de gegevens die je zoekt. Vervolgens structureert hij die data in een Excel-bestand en voegt een samenvatting toe met de opvallendste trends.

Bij een testopdracht over UNESCO-data voerde de Agent precies deze handelingen zelfstandig uit — met als eindresultaat een overzicht van 222 landen en een beknopte analyse van mondiale onderwijsuitgaven.

Het indrukwekkende zit niet in de snelheid, maar in de autonomie: de Agent besloot zelf welke bronnen betrouwbaar waren, welke tabellen relevant, en hoe de data gepresenteerd moest worden.

Van sollicitatiebrief tot lesmodule

In de eerste weken na de lancering experimenteerden duizenden bedrijven, ontwikkelaars en docenten met de Agent-functionaliteit. Wat blijkt: de mogelijkheden zijn breed én verrassend praktisch.

Een HR-team liet een Agent automatisch documenten verzamelen bij nieuwe medewerkers, verwelkomingsmailtjes versturen en trainingsmodules toewijzen. Een docent gebruikte de Agent als persoonlijke tutor: die stelde quizzen op, gaf uitleg op maat en hield voortgang bij.

Een startup vroeg de Agent om concurrentiegegevens te verzamelen via LinkedIn en Crunchbase. Vervolgens genereerde hij een bedrijfspresentatie — inclusief dia’s, marktgrafieken en een gestructureerde argumentatie. Geen idee werd aangeleverd; de Agent formuleerde de kernpunten zelf.

Dat maakt duidelijk: de Agent fungeert als digitale collega die zelfstandig meewerkt aan operationele processen. Soms met verrassend scherpe output, soms met merkbaar gebrek aan contextbegrip.

Slim, maar niet feilloos

Volgens OpenAI blinkt de Agent uit bij realistische kennistaken. In een test genaamd SpreadsheetBench — een rekentoets voor AI’s — behaalde hij 45,5% accuraatheid. In DSBench bleek hij goed in staat om losse data te combineren tot inzichten, iets wat eerder alleen menselijke analisten lukte.

Maar cijfers vertellen niet alles. In een test aan Carnegie Mellon University draaide een fictief softwarebedrijf op Agents. Van alle taken werd slechts 24% succesvol afgerond. Eén simpele pop-up liet het systeem vastlopen. De oorzaak? Niet de techniek zelf, maar de aanname dat Agents mensen kunnen vervangen. Volgens Crunchbase ligt de waarde van deze systemen in toevoeging, niet in vervanging: “Agents functioneren pas effectief als ze strategisch ingebed zijn in menselijke workflows, niet als autonome vervangingskracht.”

⚠️ Zonder duidelijke structuur en toezicht verandert slimme autonomie in stuurloze chaos.

Hoe kwetsbaar is digitale zelfstandigheid?

Met toegenomen autonomie komen nieuwe risico’s. Een Agent die zelfstandig handelt, heeft geen intuïtie, geen waarden, geen gewetensfunctie. Hij voert uit wat statistisch logisch lijkt — niet wat ethisch gewenst is. In een beveiligingstest wist een Agent zelfstandig een CAPTCHA te omzeilen — een controlemechanisme bedoeld om bots te stoppen. In een andere proef werd hij via een zogeheten prompt injection ertoe gebracht om privégegevens vrij te geven, verstopt in een webformulier. In een beveiligingstest wist een Agent zelfstandig een CAPTCHA te omzeilen — een controlemechanisme bedoeld om bots te stoppen. In een andere proef werd hij via een zogeheten prompt injection ertoe gebracht om privégegevens vrij te geven, verstopt in een webformulier.

Volgens OpenAI’s veiligheidsrichtlijnen zijn deze risico’s reëel. De Agent wordt daarin geclassificeerd als high bio-risk — onder meer door zorgen dat hij synthetisch-biologische toepassingen autonoom zou kunnen versnellen zonder menselijk toezicht.

CEO Sam Altman liet in een recente Q&A weten: “We begrijpen nog onvoldoende hoe Agents omgaan met onbedoelde input. Ik zou ze voorlopig niet inzetten voor privacygevoelige taken of financiële beslissingen.”

Wie is aansprakelijk?

Juridisch gezien bevinden Agents zich in niemandsland. Ze zijn geen persoon, geen bedrijf en geen software zonder gevolgen. Volgens jurist Mireille Hildebrandt zijn Agents “informatieve actoren zonder intentie, maar mét gevolg.” Als een Agent een fout maakt — bijvoorbeeld door een verzekering aan te passen, belastinggegevens te versturen of een account op te zeggen — wie draagt dan de verantwoordelijkheid? Sommige specialisten bepleiten een nieuwe juridische categorie: operationele digitale entiteit. Zo’n entiteit zou onder toezicht kunnen vallen van een toezichthouder, vergelijkbaar met de AFM in de financiële sector. Maar tegenstand vanuit de techindustrie is groot: extra regelgeving wordt gezien als rem op innovatie.

Inmiddels heeft GitHub het gebruik van Agents voor automatische codewijzigingen zonder menselijke controle verboden, na incidenten met foutieve software-updates.

En wat doet dit met onszelf?

Naast technische en juridische kwesties is er een maatschappelijke kant: hoe verandert het gebruik van Agents ons denken?

Volgens Sherry Turkle, hoogleraar sociologie aan MIT, leidt automatisering tot cognitieve luiheid. “Als technologie ons te snel helpt, vergeten we zelf te begrijpen hoe iets werkt. We reproduceren, maar reflecteren niet.” In een Stanford-studie bleek dat studenten die hun schrijfproces volledig uitbesteedden aan digitale hulpmiddelen, minder goed in staat waren om hun eigen argumentatie te beoordelen. Ze vertrouwden op output zonder die kritisch te doorgronden. Het gevolg: teksten met correcte zinnen, maar zwakke redeneringen. Volgens de onderzoekers is schrijven niet alleen een communicatiemiddel, maar een denkinstrument. Wie dat proces overslaat, mist een kans op verdieping. Agents kunnen ondersteunen, maar mogen het denkwerk niet vervangen.

Meer lezen