Dit verslag is onderdeel van de reeks dialoogsessies die de Aanpak Begeleidingsethiek (ABE) heeft georganiseerd, in samenwerking met ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK) over Agentic AI.
AI-agents zijn applicaties die op basis van kunstmatige intelligentie beslissingen nemen en taken uitvoeren (vrijwel) zonder menselijke tussenkomst. Inmiddels zij ze flink in opmars, maar het is nog onduidelijk wat ons precies te wachten staat. We kunnen ons dus maar beter op verschillende scenario’s voorbereiden zodat we AI-agents op een verantwoordelijke manier kunnen inzetten.
Strategisch adviseur en designer Marleen van Leengoed ontwikkelde samen met Daniël Tijink van ECP vier toekomstscenario’s die de mogelijke ontwikkelingen van AI-agents schetsen. De scenario’s zijn bedoeld om bestuurders en beleidsmedewerkers van zowel publieke als private instellingen te inspireren en gesprekken uit te lokken.
Strategisch adviseur en designer Marleen van Leengoed legt uit wat nut en noodzaak is van het maken van scenario’s. ‘De scenario’s verkennen mogelijke toekomstige ontwikkelingen rond AI-agents, waarbij we anticiperen op zowel wenselijke als onwenselijke situaties. Scenario’s zijn geen voorspellingen, maar verkenningen die ons denken uitdagen. Ze onthullen mogelijke blinde vlekken en bereiden ons voor op de complexe ethische vraagstukken rond AI-agents. Door zich in scenario’s te verplaatsen kunnen organisaties en professionals proactief nadenken over AI-implementatie.’
De scenario’s die Marleen ontwikkelde zijn gebaseerd op de uitkomsten van drie sessies met de aanpak begeleidingsethiek over Agentic AI: Recruitment AI agent, Agentic AI voor inkoop bij de overheid, en Agentic AI in Fintech. Deze sessies bieden een breed perspectief op de toekomst van AI-agents. De scenario’s staan los van de betreffende bedrijven en de cases, maar uit de sessies zijn handelingsopties en effecten gedestilleerd die de basis vormen voor de scenario’s. De centrale waarden van waaruit handelingsopties zijn benoemd zijn: betrouwbaarheid, efficiëntie, kwaliteit, rechtvaardigheid, uitlegbaarheid en werkgeluk.
‘De handelingsopties en effecten heb ik geclusterd rond vier dimensies: reikwijdte van de AI (wat deze allemaal mag en kan doen), correctie en toezicht, machtsconcentratie en innovatie,’ zet Marleen uiteen. ‘De reikwijdte van de AI-agents, samen met de correctie en toezicht, zegt iets over de autonomie van de AI-agents. Een kleine reikwijdte en veel correctie en toezicht geeft een beperkte autonomie van de AI-agent. Een grote reikwijdte en weinig correctie en toezicht geeft heel veel autonomie. Bij machtsconcentratie kun je denken aan het in meer of mindere mate inbouwen van controlemechanismes die ervoor zorgen dat er niet te veel macht komt te liggen bij één partij. Bij innovatie kunnen je handelingsopties bepaald worden door de vraag of vernieuwingen met name gedreven wordt door de markt of door de behoeften van de samenleving.’ Deze dimensies vormen de basis voor vier scenario’s. ‘De scenario’s variëren van een voorzichtige, stapsgewijze benadering tot een toekomst waarin AI-agents een complex netwerk vormen.’

Figuur 1: Vier verkennende scenario’s voor de toekomst van AI-agents
Scenario 1: Stevige stapjes – Gedreven door het bedrijfsleven met focus op betrouwbare en hoogkwalitatieve AI, omdat het alleen dan echt meerwaarde blijkt op te leveren. Beweging gaat langzamer maar met zekere stappen.
Scenario 2: Iedereen zijn eigen AI-agent – Enkele grote spelers domineren met veel laagrisico-toepassingen, AI-agents zijn heel toegankelijk maar niet transparant. Er is veel (risico op) automation bias en onvoorziene systemische effecten.
Scenario 3: Goede voorbereiding is het halve werk – Ketens van AI werken samen. Veel controlemechanismen en regelgeving remmen, maar zorgen voor effectieve inzet.
Scenario 4: Continue maatschappelijke aanpassing – AI-agents vormen een complex netwerk en moeten transparant zijn over de optimalisatiedoelen. Bedrijven zijn verplicht opening van zaken te geven.
Klik hier voor een uitgebreide beschrijving van de scenario’s.
De vier scenario’s zijn besproken tijdens de door ECP georganiseerde werkconferentie Waardengedreven Dialogen – Agentic AI: De volgende stap in AI van afgelopen oktober. ‘Tijdens de discussies kwamen fundamentele vraagstukken naar voren,’ memoreert Marleen. ‘Hoe beschermen we mensenrechten en richten we effectieve controlemechanismen in? Hoe kunnen we onze markt beschermen tegen ongewenste ontwikkelingen buiten de EU? Hoe stimuleren we kleine succesvolle spelers op de markt zodat deze kunnen uitgroeien tot grote spelers? En hoe beschermen we ze zodat ze niet overgenomen worden door partijen met een heel ander ethisch kompas?’
De deelnemers waren het erover eens dat er dringend behoefte is aan een genuanceerde aanpak. ‘Dat betekent het ontwikkelen en implementeren van juridische kaders, goede afspraken over verantwoordelijkheid als er iets fout gaat, het beschermen van kwetsbare groepen en het creëren van ruimte voor kleine, ethisch opererende bedrijven, met ethische businessmodellen en bedrijfsstructuren.’
Tegelijkertijd moet er aandacht zijn voor de mogelijke systeemrisico’s en de bredere maatschappelijke impact van AI-agents. Een van de belangrijke elementen hierin is onderscheid kunnen maken tussen mens en AI. Met de European Digital Identity wordt het mogelijk om dit op
een veilige en privacy vriendelijke manier te doen, weet Marleen. ‘Deze ontwikkeling moet dan wel worden versneld.’ Maar de kernuitdaging blijft hoe we AI-agents bewust kunnen inzetten waar dat meerwaarde biedt, en welke ketens van Ai-agents we wel en niet toestaan. Soms botst efficiëntie met menselijke waardigheid, soms versterkt het die.
Hoe leiden we dit in goede banen? Er moet een goede balans zijn tussen eigen verantwoordelijkheid van bedrijven en burgers, en regelgeving en toezicht vanuit de overheid. Proactief denken en handelen is noodzaak. ‘We kunnen niet passief afwachten hoe AI-technologie zich ontwikkelt,’ waarschuwt Marleen, ‘we moeten nu nadenken over randvoorwaarden, ethische richtlijnen en controlemechanismen én over de AI-agents waarmee we willen werken. Dit vraagt om samenwerking tussen overheid, bedrijfsleven, kennisinstellingen en maatschappelijke organisaties.
De boodschap is helder: de volgende stap in AI-ontwikkeling moet een gezamenlijke inspanning zijn, gericht op verantwoorde, samenlevingsgerichte technologie. We staan voor de uitdaging om AI-agents zo te ontwikkelen dat ze onze maatschappelijke waarden versterken in plaats van ondermijnen.’
Lees hier de terugblik: Conferentie Waardengedreven Dialogen – Agentic AI
Artikelen uit de nieuwsbrief ‘Waardengedreven Dialogen – Agentic AI‘
1. Introductie nieuwsbrief ‘Waardengedreven Dialogen – Agentic AI’
2. Agentic AI en de impact op publieke waarden – Sophie van Baalen (TNO)
3. Hoe AI-agents werk menselijker kunnen maken – Wouter van der Harg (CGI)
4. Casus in beeld: De AI-agent als recruiter bij CM.com
5. Agentic AI in de praktijk – Ethische afwegingen bij IBANXS – Hans Vermeijs (IBANXS)
6. Kansen benutten, risico’s begrenzen: BZK over Agentic AI – Djoe Kuils (BZK)
7. Terugblik: Werkconferentie Agentic AI
8. Toekomstscenario’s: een blik op de toekomst met AI-Agents – Daniël Tijink (ECP) en Marleen van Leengoed (VBI studio)
Lees hier de verslagen van de sessies rondom Agentic AI
1. Recruitment AI Agent
2. Agentic AI in Fintech
3. Agentic AI voor inkoop bij de overheid