Dit interview is onderdeel van de reeks dialoogsessies die de Aanpak Begeleidingsethiek (ABE) organiseert, in samenwerking met ministerie van Binnenlandse Zaken en Koninkrijksrelaties (BZK) over vier belangrijke thema’s: immersieve technologie, algoritmen in het openbaar bestuur, neurotechnologie en generatieve AI in overheidsprocessen.
Rijk, provincies, gemeenten en uitvoeringsorganisaties maken steeds meer gebruik van hedendaagse technologieën om processen en dienstverlening efficiënt en effectief in te richten. Van het innen van belastingen tot het scannen van containers in de Rotterdamse haven. Dit roept allerlei terechte en onterechte (denk)beelden op over het gebruik van algoritmen en AI. Bram Klievink, is hoogleraar bestuurskunde aan de Universiteit Leiden met speciale aandacht voor digitalisering en publiek beleid. Hij brengt duiding in het thema ‘Algoritmen in het openbaar bestuur’.
Het thema van de afgelopen reeks dialoogsessies en de afsluitende werkconferentie was ‘Algoritmen in het openbaar bestuur’. Alleen al de term algoritme zorgt bij veel mensen tot verwarring. Terwijl, in feite is een algoritme niets meer en niets minder dan een set instructies – ook wel samengevat als formule of recept – om een bepaald doel te bereiken. Wat Bram Klievink betreft is het zaak om het vooral bij de feiten te houden, al heeft hij begrip voor de verwarring. “We zien de afgelopen twee, drie jaar een sterke opkomst van AI (kunstmatige intelligentie), ook in algoritmen. Daardoor krijg je zelflerende algoritmische beslismodellen die steeds krachtiger en ingewikkelder zijn. En door bijvoorbeeld ChatGPT en andere tools die heel goed menselijke taal kunnen produceren, voelen we er ineens van alles bij; we dichten algoritmen krachten en capaciteiten toe die we niet goed kunnen duiden maar waardoor die tools wel in het verdachtenbankje komen te zitten. Onterecht denk ik, maar het heeft als voordeel dat we nu normatieve vragen gaan stellen: willen we dit wel, wat betekent dit voor het openbaar bestuur?”
Gewoon bedrijfsvoering
“Met methoden als de Aanpak Begeleidingsethiek worden ethische afwegingen en het publieke waardenperspectief bij het gebruik van AI onderzocht. En dat is alleen maar goed,” meent Klievink. “Tegelijkertijd moeten we ons realiseren dat je niet de verkeerde sentimenten plot op systemen die we voorheen gewoon als onderdeel van de bedrijfsvoering zagen. Organisaties ontwerpen werkregels voor de uitvoering, hebben ondersteunende systemen die data produceren en verzamelen, daar hang je definities aan en daar produceer je x, y en z mee. Dat is gewoon procesondersteuning en in al die stappen zitten keuzes; het is niet neutraal, dat is het nooit geweest en dat kan ook niet. En dat vonden we tien jaar geleden, terecht of onterecht, veel minder problematisch. Door die versnelling – van een simpele beslisboom naar geavanceerde AI – maken we nu een inhaalslag in het gesprek hierover.”
Niet realistisch
Klievink pleit voor een zekere nuchterheid, maar ziet ook dat de ophef rond het anti-fraudesysteem SyRi en het toeslagenschandaal het gesprek over geautomatiseerde beslismodellen lastiger maakt. “Het is nu eenmaal niet makkelijk om in dat gesprek over wat we wel en niet willen het onderscheid te maken tussen een geavanceerd algoritmisch model met een ondoorgrondelijke werkwijze en een net zo geavanceerd model dat door de plek waarin dat in het werkproces zit en door de manier waarop professionals ermee werken nergens in de buurt komt van geautomatiseerde besluitvorming. We moeten niet te veel meenemen in het doemdenken, waarbij het ook niet realistisch is om te denken dat we zonder dit soort systemen kunnen. Als je miljoenen transacties moet verwerken, zitten er altijd ergens geautomatiseerde stappen in. We willen en kunnen de mensen niet betalen om alles handmatig te checken.”
Betekenisvolle context
Als bestuurskundige kijkt Klievink vooral naar de context waarbinnen een digitaal model wordt gebruikt door de ambtenaar. “Dat is minstens zo betekenisvol als de kenmerken van het systeem zelf. Neem weer even de toeslagenaffaire. Er was een algoritmesysteem dat werd gedraaid door een team dat geen beslissingsmacht had; het systeem was adviserend, het menselijk besluit doorslaggevend. Precies zoals we het willen. Maar voor de ambtenaar werkt het zo. Als je een dossier van 100 pagina’s op je bureau krijgt en er ontbreken drie bonnetjes, dan denk je al snel: oké, ik mis er een paar, dat gebeurt mij ook wel eens. Zegt het systeem tegen je: hier heb je de top 100 meest ‘risicovolle’ dossiers en je ziet in datzelfde dossier dat die drie bonnetjes ontbreken dan denk je: het systeem geeft om redenen die mij niet bekend zijn aan dat dit een hoog-risicodossier is en ik stuit op ontbrekende bonnetjes. Er zal dus wel wat aan de hand zijn. Formeel gezien verandert er niks ten opzichte van het manuele proces, maar er wordt een bepaalde waarde geïntroduceerd die wel degelijk invloed heeft door de manier waarop wij als mensen redeneren.”
Balans vinden
Bovenstaande laat zien dat er geen eendimensionale adviezen zijn voor de inzet van algoritmen in het openbaar bestuur. Klievink benadrukt dat we vooral moeten blijven leren en innoveren. “Welke soorten systemen vinden we in welke contexten wel of niet passen? Welke mate van uitleg is wanneer nodig, en wanneer wel en niet? Kunnen we taal geven aan menselijke besluitvorming om te onderzoeken of dat per se anders werkt dan een algoritme? Afhankelijk van de context kan het best zo zijn dat de kennis van een professional beter en rijker is om een bepaald dossier te behandelen. Maar het kan ook dat een algoritme ons juist uitdaagt op biases die we als mensen hebben. Dus moeten we ruimte maken voor leren en experimenten. Er is een risico wanneer je zaken categorisch gaat verbieden. In de AI Act van de EU is het gebruik van biometrics in de openbare ruimte verboden. Als burger is daar veel voor te zeggen. Maar als we helemaal niet onderzoeken wat we daar eventueel wel en niet mee kunnen, in welke situaties en onder welke voorwaarden, dan zijn we over vijf jaar misschien overgeleverd aan spelers van elders in de wereld. Liever bepalen we zelf wat de kaders zijn.”
“Uiteindelijk moeten we de balans vinden tussen verschillende waarden, tussen kosteneffectiviteit, privacy, veiligheid, waarborgsystemen, enzovoort. Daar moeten we onze keuzes op baseren. Ik begon ermee te zeggen dat algoritmen, AI en digitale technologie in het algemeen vooral het feestje van bedrijfsvoering was. Vandaag de dag is dat opgeschoven naar de kernassets van de publieke dienst en is het met alles verweven. Daar hoort complexiteit nu eenmaal bij, dat hebben we te accepteren en daar moeten we van leren.”
Artikelen uit de nieuwsbrief ‘Waardengedreven Dialogen – Algoritmen in het openbaar bestuur’:
1. Nieuwsbrief Waardengedreven Digitaliseren – Algoritmen in het Openbaar Bestuur – ‘Ethiek als begeleider van innovatie’
2. Interview: Hoogleraar Bram Klievink ‘Vooral blijven leren en experimenteren’
3. Interview: ‘Hulp bij armoedebestrijding met PET’
4. Video: ‘Zicht op Werk’
5. ‘Informatie Gestuurd Optreden (IGO) aan de Grens’
6. Terugblik: Conferentie Waardengedreven Dialogen – Algoritmen in het openbaar bestuur