Dit interview is onderdeel van de reeks dialoogsessies die de Aanpak Begeleidingsethiek (ABE) heeft georganiseerd, in samenwerking met ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK) over Agentic AI.
AI-agents veroveren in rap tempo een plek binnen organisaties: digitale assistenten die zelfstandig taken uitvoeren, beslissingen voorbereiden en processen aansturen. Handig, maar ook spannend. Hoe zet je zulke agenten veilig in, zonder de mens uit het oog te verliezen?
Daarover gaan we in gesprek met Wouter van der Harg, AI-expert bij CGI. Hij ontwerpt nieuwe AI-oplossingen, vaak met behulp van AI-agents. Ook begeleidt en adviseert hij organisaties bij deze transitie. Wouter laat zien hoe agents niet de mens vervangen, maar juist ruimte kunnen maken voor betekenisvoller werk én de volgende stap in je carrière. “Het is cruciaal dat je de juiste dingen automatiseert, zonder dat werknemers hun autonomie en gevoel van controle verliezen,” zegt hij. Maar hoe bepaal je welke taken je aan een AI-agent toevertrouwt – en welke je niet uit handen wilt geven?
Veilig werken met AI begint volgens Wouter bij een stevige basis. ‘Bij CGI gaan we pas met AI aan de slag als de kaders waterdicht zijn,’ zegt hij. ‘Als we niet in control zijn of niet zeker weten wat er met data gebeurt, dan gebruiken we het gewoon niet. Punt.’ Zo kon CGI als een van de eerste partijen de Europese AI Act ondertekenen. Een paar van de randvoorwaarden: hun ChatGPT-servers staan in Europa, daar wijken ze niet van af, en klantdata mogen nooit gebruikt worden om modellen mee te trainen.
Volgens Wouter wordt het idee dat een AI-agent voortdurend moet ‘leren’ vaak overschat. Net als mensen nemen agents eerdere ervaringen mee. Het échte trainen van het model gebeurt maar zelden. ‘Meestal gaat het erom dat je de instructies aan de agent aanpast, niet het onderliggende taalmodel zelf. We trainen het taalmodel alleen op een heel specifiek en vast bepaald moment. Dat kost namelijk veel rekenkracht en vereist supervisie.’ En dus gaat Agentic AI minder over ‘magisch lerende systemen’ en meer over helder geformuleerde taken binnen duidelijke kaders. Mensen blijven daarbij zelf aan het stuur. Vanuit die stevige basis kijkt Wouter verder dan alleen risico’s: wat kunnen AI-agents betekenen voor het werk van mensen?
In deze transitie vertrekt Wouter altijd vanuit een simpel uitgangspunt: mensen floreren in contact met andere mensen. ‘Ik geloof sterk: hoe meer het werk van mensen uit interactie en connectie bestaat, hoe fijner en prettiger werknemers zich voelen.’ Vanuit dat idee kijkt hij naar welke taken juist níet over menselijk contact gaan – en dus het meest geschikt zijn om te automatiseren. Daar zit volgens hem ook een belangrijk ethisch punt. ‘De vraag is: hoe zorg je dat je de juiste dingen automatiseert? Waar ik tegenaan loop is dat je taken van mensen zou kunnen automatiseren die zij zelf als hun kerntaak zien.’
Hij geeft het voorbeeld van iemand die databases beheert en data van het ene systeem naar het andere overzet. ‘Dat hele proces kunnen AI-agents inmiddels overnemen. Maar als je dat klakkeloos bij iemand wegneemt, kan diegene zich heel nutteloos gaan voelen.’
Deze zorgen om menselijke waardigheid en autonomie nam Wouter mee in een sessie begeleidingsethiek over Agentic AI met inkopers. Tijdens deze sessie werd één van zijn eigen aannames genuanceerd: de bekende ‘human in the loop’. Hierbij blijft een mens actief betrokken bij het beoordelen, bijsturen en goedkeuren van beslissingen die door een AI-agent worden genomen. ‘Zeker bij gevoelige data of besluiten met grote impact moet de mens natuurlijk blijven beslissen,’ ligt Wouter toe. In de begeleidingssessie ontdekte hij echter, dankzij gesprekken met inkopers, dat dit principe nauwkeuriger toegepast kan worden.
Voor sommige, goed afgebakende delen van het inkoopproces is het niet nodig dat er steeds een mens meekijkt, zolang de kaders vooraf heel scherp zijn. ‘Als iemand een proces zó goed kent dat hij in het ontwerp kan meedenken en vooraf kan valideren of iets binnen de afspraken blijft, kun je dat deel volledig automatiseren,’ zegt hij. ‘Dan zit de mens niet meer ín iedere stap, maar vooraf in het ontwerp. Dat was voor mij echt een eyeopener: niet overal de mens uithalen, maar beter kijken waar menselijke tussenkomst écht waarde toevoegt.’
Doordat AI-agents veel uitvoerend werk kunnen overnemen, ontstaat er meer ruimte om na te denken over hóe iets zou moeten werken. ‘Nu hebben inkopers door alle papieren rompslomp vaak weinig tijd voor gesprekken waarin ze écht kunnen uitvragen wat de opdrachtgever nodig heeft. Die last zien we in veel werkgebieden terug,’ zegt Wouter.
Door automatisering ontstaat er meer tijd voor het échte gesprek met de eindgebruiker: hoe wil je het hebben, wat is handig, wat voelt intuïtief? ‘Dat zijn cruciale vragen waar menselijke interactie onmisbaar is – en waar het eindproduct écht beter van wordt,’ zegt hij. ‘De agent voert uit, maar mensen bepalen de richting én de kwaliteit.’
In deze volgende fase ziet hij medewerkers dus als ‘de manager van AI’. De werknemer stuurt de AI-agent aan binnen zijn of haar vakgebied, juist omdat die inhoudelijk weet wat de agent zou moeten doen, en kan beoordelen of het proces goed blijft lopen.
AI zorgt volgens Wouter niet alleen voor meer efficiëntie en zinvoller werk, maar het kan ook processen eerlijker maken. ‘In de praktijk zijn mensen natuurlijk niet onafhankelijk,’ zegt hij. ‘Een inkoper heeft bijvoorbeeld vaak onbedoeld een voorkeur voor een bepaalde leverancier.’ Voor nieuwe partijen maakt dat het lastig om binnen te komen. ‘Terwijl je juist bij de overheid wilt dat nieuwe marktpartijen ook een eerlijke kans krijgen.’
Daarom verkent Logius de mogelijkheden voor een soort inkoopadviseur op basis van AI. Ook deze inkoopadviseur is tijdens een sessie begeleidingsethiek behandeld. ‘Zo’n AI-agent kan onafhankelijker naar een aanbesteding kijken,’ legt Wouter uit. ‘Als er een uitvraag is, kan het systeem valideren of een leverancier aan alle criteria voldoet. En als dat nog niet zo is, hoeft dat niet meteen te betekenen: je ligt eruit. De agent kan ook gerichte feedback geven.’ Zo wordt het verschil kleiner tussen grote, ervaren partijen en een startende mkb’er.
Volgens Wouter laat dit zien dat AI niet per se ongelijkheid hoeft te versterken door bias in data – een angst die vaak leeft. ‘Door bewust te investeren in dit soort toepassingen kan AI juist zorgen voor een neutraler speelveld en meer gelijke kansen.’
Met AI-agents aan de slag gaan betekent voor Wouter óók kritisch blijven op je eigen beeldvorming. ‘Er zijn heel veel beelden over AI die niet altijd op feiten gebaseerd zijn,’ legt hij uit. ‘Dingen die je hebt gehoord in een blog, vlog of video. Maar de innovatie gaat zó snel dat kennis van een halfjaar geleden vaak al niet meer klopt. Zorg dus dat je je eigen aannames checkt en toets je kennis aan de meest recente informatie.’
Tot slot heeft Wouter een duidelijke oproep voor organisaties: ‘Ga vooral met elkaar in gesprek. Spreek zorgen en angsten naar elkaar uit en heb écht oog voor de ander. Maar kijk ook samen naar de kansen, en neem mensen daar met geduld in mee.’
Zijn conclusie? Als we AI inzetten om administratieve rompslomp weg te halen en tijd vrij te maken voor echte verbinding, dan kan technologie het werk juist menselijker maken en het resultaat beter. ‘Hoe meer ruimte er is voor echte gesprekken, hoe beter je achterhaalt wat gebruikers écht nodig hebben.’
Lees hier het verslag van de sessie Agentic AI voor inkoop bij de overheid
Artikelen uit de nieuwsbrief ‘Waardengedreven Dialogen – Agentic AI‘
1. Introductie nieuwsbrief ‘Waardengedreven Dialogen – Agentic AI’
2. Agentic AI en de impact op publieke waarden – Sophie van Baalen (TNO)
3. Hoe AI-agents werk menselijker kunnen maken – Wouter van der Harg (CGI)
4. Casus in beeld: De AI-agent als recruiter bij CM.com
5. Agentic AI in de praktijk – Ethische afwegingen bij IBANXS – Hans Vermeijs (IBANXS)
6. Kansen benutten, risico’s begrenzen: BZK over Agentic AI – Djoe Kuils (BZK)
7. Terugblik: Werkconferentie Agentic AI
8. Toekomstscenario’s: een blik op de toekomst met AI-Agents – Daniël Tijink (ECP) en Marleen van Leengoed (VBI studio)
Lees hier de verslagen van de sessies rondom Agentic AI
1. Recruitment AI Agent
2. Agentic AI in Fintech
3. Agentic AI voor inkoop bij de overheid