Dit interview is onderdeel van de reeks dialoogsessies die de Aanpak Begeleidingsethiek (ABE) heeft georganiseerd, in samenwerking met ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK) over Agentic AI.
Het woord agent komt van het Latijnse werkwoord agere: ‘doen’ of ‘maken’. En dat maakt meteen duidelijk waarom Agentic AI de volgende stap is in het gebruik van kunstmatige intelligentie. Waar traditionele AI reageert op een opdracht, neemt Agentic AI zelf het initiatief. ‘Het is een technologie die zelfstandig taken kan uitvoeren en aanpassen. Het denkt mee, in plaats van alleen een voorgeschreven taak uit te voeren,’ doceert Sophie van Baalen, senior scientist digital society bij TNO Vector. ‘Dat maakt de noodzaak groot om te onderzoeken welke effecten Agentic AI heeft op publieke waarden.
Dragen AI-agents bij aan inclusie? Of dreigt juist het gevaar van buitensluiten? Of beide? Grip is belangrijk en dus moeten we keuzes maken.’
TNO Vector heeft onderzoek gedaan naar opkomende digitale technologieën in breed perspectief: ‘We keken als het ware om de technologie heen naar de sociale en maatschappelijke aspecten van digitale technologie. En ook naar de impact ervan op publieke waarden. We hebben veertien technologieën onderzocht – van digitale wallets tot digital twins tot AI-gestuurde robotica. Agentic AI is volgens onze deskundigen zonder meer de meest urgente om aandacht aan te besteden, want het is een snel opkomende technologie die op veel maatschappelijke domeinen impact zal hebben; of dat nu gezondheidszorg is, veiligheid, werkgelegenheid of milieu. Bovendien kan Agentic AI de mogelijke impact van andere digitale technologieën versterken. Denk bijvoorbeeld aan de combinatie van Agentic AI met robotica.’
Zelfstandig en proactief zijn twee van de sleutelwoorden van Agentic AI, adaptief en lerend maken het kwartet compleet. Bij elkaar zorgen ze ervoor dat Agentic AI steeds complexere taken kan uitvoeren zonder dat er van tevoren een gewenste uitkomst is gedefinieerd. Waar generatieve AI heel goed is in het beantwoorden van afzonderlijke vragen (prompts), kan Agentic AI een complexe vraag zelf opsplitsen in deelvragen, om deze vervolgens één voor één uit te voeren, of verschillende agents aan het werk te zetten om die deelvragen in de juiste volgorde te beantwoorden. Zonder dat je daar als mens toezicht op houdt. Sophie licht dat toen aan de hand van een relatief ‘simpel’ voorbeeld, dat van de AI-reisagent. ‘Je geeft het systeem een paar voorkeuren (budget, hoe lang je weg wilt, avontuurlijk) en de AI-agent gaat zoeken, boekt, stelt van dag tot dag een reisschema op, geeft suggesties (zelfs voor de lekkerste restaurantjes) en hij onthoudt je voorkeuren zodat hij je volgende reis daarop kan aanpassen. En dat alles razendsnel.’
Hoewel het voorbeeld van de reisagent vooral een vrolijke kant van Agentic AI laat zien, herbergt het ook de urgentie in zich voor verder onderzoek. ‘We kunnen nog niet exact definiëren wat Agentic AI is. Er zijn wel meer vormen van AI die een mate van autonomie of flexibiliteit hebben. Je zou kunnen spreken van een spectrum van meer of minder agentic. Maar wat we wel al voorzien is dat Agentic AI die hoog in dat spectrum zit veel impact kan hebben op publieke waarden. Daarom hebben we daar een verkenning naar gedaan De uitkomsten staan in een rapport dat we in opdracht van BZK schreven, en begin december zal worden aangeboden aan de Tweede Kamer.’
Die impact op publieke waarden kan positief en negatief zijn. ‘De experts die we ernaar vroegen verwachten dat AI-agents kunnen bijdragen aan inclusiviteit. Bijvoorbeeld met agents die zich kunnen aanpassen aan de behoeften van mensen die lastig mee kunnen komen in de digitale samenleving, waardoor de toegang voor hen verbetert. De vraag is: volgen we die maatschappelijke behoefte? Of gaan we misschien innoveren voor de mensen die juist makkelijk mee kunnen. Als je het aan de grote marktpartijen overlaat loop je de kans dat het tweede de overhand krijgt. Maar ook als je zelf aan het stuur zit van de ontwikkeling is het lastig om risico’s als impliciete bias te vermijden; lastiger nog dan bij traditionele AI vanwege die hoge mate van autonomie waardoor je het risico loopt dat je de controle verliest.’
Een ander aspect is de impact op privacy. ‘We geven nu al veel data weg aan digitale toepassingen,’ legt Sophie uit. ‘Met Agentic AI die zelfstandig acties uitvoert bij andere partijen raak je al snel het overzicht kwijt over de gegevens die deelt en met wie. In het voorbeeld van die reis geeft de AI-agent je gegevens misschien door aan de vliegtuigmaatschappij en aan de hotelketen. Dat kan voor privacyproblemen zorgen. Hoe zal dat zijn als de overheid, die heel veel hele gevoelige gegevens heeft van burgers, Agentic AI gaat gebruiken?
Het meest concreet op dit moment is de impact op werk: rollen en taken veranderen. AI-agents kunnen taken overnemen, en menselijke werknemers krijgen nieuwe taken die zich daarnaar plooien, bijvoorbeeld het controleren of accorderen van de uitkomsten van Agentic AI. In plaats daarvan zouden we moeten denken over een AI-agent met een theory of mind. Zo’n samenwerkende AI kan menselijke behoeften en emoties begrijpen, daarop acteren en beslissingen nemen en dus als een ‘echte collega’ samenwerken. Sophie: ‘Fantastisch natuurlijk als de agent een echte helper kan zijn. Bijvoorbeeld in de operatiekamer door zonder dat de chirurg dat aan hoeft te geven op het juiste moment op het juiste operatiegebied in te zoomen. Wat het verschil gaat maken in dit soort ontwikkelingen is of de AI-agent samen met de gebruikers en voor de specifieke context wordt ontwikkeld. Of ga je voor een size one fits all-oplossing die door de grote spelers op de markt wordt aangeboden?’
Kortom: er zijn plussen en minnen, zoals bij elke technologie. De politiek heeft een belangrijke rol in de keuze voor welke afslagen we willen nemen. ‘Daartoe moet je grip op je keuzes krijgen en daar willen wij met ons rapport aan bijdragen. Niet alleen waarschuwen, maar ook voorlichten en adviseren. De sessies Begeleidingsethiek helpen om zicht te krijgen op de impact van verschillende toepassingen. Ik zou het mooi vinden als zulke sessies ook aan de voorkant van een ontwikkeling georganiseerd worden. Dat je bij de start van een toepassing met relevante partijen gaan cocreëren op basis van publieke waarden. Want het grootste gevaar is dat je geen grip hebt op de ontwikkelingen en daardoor te afhankelijk wordt van big tech; zeker omdat dit soort technologieën veel rekenkracht, data en investeringsvermogen vragen, waar die grote technologiebedrijven echt een voorsprong in hebben.’
‘Maar we hoeven er absoluut niet fatalistisch in te staan. Wat ik mooi en interessant vind zijn de scenario’s die binnen de Aanpak Begeleidingsethiek zijn ontwikkeld op basis van de casussen die binnen dit thema waren georganiseerd. Scenario’s helpen om nog onbetreden paden te verbeelden. Heel belangrijk voor technologieën die zo razendsnel opkomen dat je moet oppassen dat ze je niet overkomen. We moeten onze verbeeldingskracht inzetten om andere toepassingen en andere manieren van innoveren te bedenken zodat we de toekomst die we nog kennen zoveel mogelijk in eigen hand kunnen houden.’
Het rapport ‘Zicht op de digitale toekomst’ wordt gepresenteerd aan de Tweede Kamer.
Artikelen uit de nieuwsbrief ‘Waardengedreven Dialogen – Agentic AI‘
1. Introductie nieuwsbrief ‘Waardengedreven Dialogen – Agentic AI’
2. Agentic AI en de impact op publieke waarden – Sophie van Baalen (TNO)
3. Hoe AI-agents werk menselijker kunnen maken – Wouter van der Harg (CGI)
4. Casus in beeld: De AI-agent als recruiter bij CM.com
5. Agentic AI in de praktijk – Ethische afwegingen bij IBANXS – Hans Vermeijs (IBANXS)
6. Kansen benutten, risico’s begrenzen: BZK over Agentic AI – Djoe Kuils (BZK)
7. Terugblik: Werkconferentie Agentic AI
8. Toekomstscenario’s: een blik op de toekomst met AI-Agents – Daniël Tijink (ECP) en Marleen van Leengoed (VBI studio)
Lees hier de verslagen van de sessies rondom Agentic AI
1. Recruitment AI Agent
2. Agentic AI in Fintech
3. Agentic AI voor inkoop bij de overheid