Waarom uitlegbare en verantwoorde AI onmisbaar is voor de publieke sector
De publieke sector verandert ingrijpend door de inzet van kunstmatige intelligentie (AI), met toepassingen in beleid, dienstverlening en risicobeheer. Volgens AI-ethicus Joris Krijger is het essentieel om ethische risico’s actief te beheersen en AI verantwoord in te zetten. Daarvoor is een sterke ethische infrastructuur nodig, met aandacht voor transparantie, verantwoording en continue monitoring. Uitlegbare AI is hierin cruciaal, omdat het vertrouwen, legitimiteit en controle over AI-systemen waarborgt. Alleen zo kan AI op een democratisch verantwoorde manier bijdragen aan publieke waarden.

De publieke sector zit middenin een grote verandering door de groeiende adoptie van kunstmatige intelligentie (artificial intelligence (AI)). AI-implementaties voor procesoptimalisatie, datagestuurde beleidsvorming, het inzetten van AI-assistenten voor burgerondersteuning ,en het aanwenden van machine learning voor risico-identificatie en -voorspelling worden steeds prominenter in de uitvoering van publieke dienstverlening en interne bedrijfsvoering. In zijn recente boek Onze kunstmatige toekomst omschrijft AI-ethicus Joris Krijger dit als een “kolkende kunstmatige stroom” waarin de samenleving is beland. De vraag die hij behandelt., is “wat willen wij met AI en wat wil AI met ons?” Deze vraag is enorm relevant voor de nakende transformatie van publieke dienstverlening en de bedrijfsvoering van de overheid vanwege de inzet van steeds geavanceerdere AI-systemen.
Omdat de ‘voorspelmachines’ die AI-systemen zijn niet begrepen kunnen worden buiten de sociale en politieke context van hun inzet en ontwikkeling (denk hierbij bijvoorbeeld enerzijds aan de ethische risico’s voor belanghebbenden als een systeem in gebruik is en anderzijds aan het onzichtbare menselijke werk dat aan gebruiksklare AI-systemen voorafgaat), is het volgens Krijger van belang actief richting te geven aan de ‘samenleving met AI’ waar we op afstevenen. We kunnen en moeten namelijk de ethische risico’s van het gebruik van AI-systemen het hoofd bieden, zowel om het beste te halen uit de mogelijkheden van deze nieuwe technologie – in dienst van burgers en publieke waarden –, als om de mensen die nieuwe risico’s lopen te beschermen (burgers en consumenten) en hen die profiteren verantwoordelijk te houden (bedrijven en instellingen).
Krijger pleit daarom voor het aanleggen en verstevigen van de ‘ethische infrastructuur’ van organisaties die zorgen voor ‘morele veerkracht’. Wat bedoelt hij hiermee? Het gaat hier om het vormgeven van de processen binnen organisaties en het speelveld rondom organisaties zodat verantwoorde AI daar een vaste plaats in heeft. Denk aan:
- het trainen van AI-geletterde medewerkers die ethische dilemma’s kunnen herkennen;
- het opzetten van communicatiekanalen over AI;
- het betrekken van de juiste belanghebbenden in de evaluatie en ontwikkeling van AI-systemen;
- en, voor Krijger wellicht het belangrijkste, de openbare ethische rechtvaardiging van de keuzes die worden gemaakt omtrent het inzetten van AI, zodat men binnen organisaties, en organisaties onderling, elkaar verantwoordelijk kan houden.
Voor publieke organisaties is het verantwoord implementeren van AI en het ontwerpen van procedures en mechanismen om verantwoord gebruik te geleiden en af te dwingen niet optioneel, maar een democratische verplichting.
De noodzaak van uitlegbare AI voor de publieke sector
Eén van de fundamentele vragen die deze “kolkende kunstmatige stroom” met zich meebrengt, gaat over transparantie, verantwoordelijkheid en vertrouwen. Hoe kunnen we namelijk AI-systemen inzetten als we hun werking niet kunnen begrijpen en geen verantwoording af kunnen leggen over de gevolgen van de uitkomsten van AI-systemen? In het kader van deze vraag vormt uitlegbare AI een kritische succesfactor voor de aanleg van de ethische infrastructuur als ondersteuning van verantwoorde AI-implementaties. Publieke instituties zijn verantwoordelijk voor het waarborgen van rechtmatigheid, gelijkheid en legitimiteit in hun dienstverlening. AI-systemen die opereren zonder adequate verantwoording of controle kunnen deze kernwaarden ondermijnen en het maatschappelijk contract tussen burger en overheid beschadigen. Hierom is het uitleggen van wat AI-systemen doen en hoe ze zijn ingebed in de dienstverlening en bedrijfsvoering noodzakelijk.
Machine learning modellen zoals taakgebonden deep learning modellen of ‘grote taalmodellen’ (Large Language Models) zoals ChatGPT en Claude zijn complex en nooit perfect. Wanneer kunnen we vertrouwen op de uitkomsten van AI-systemen, wat doen we als er fouten in de uitkomsten blijken te zitten en hoe kunnen we de werking van deze systemen begrijpelijk uitleggen aan belanghebbenden? Het werkveld van ‘uitlegbare AI’ (explainable AI) adresseert deze uitdaging door inzicht te bieden in hoe AI-systemen tot specifieke uitkomsten komen. Dit moet verder gaan dan louter technische transparantie, dient rekening te houden met de belanghebbende doelgroep van de uitleg én vraagt om het ontmantelen van de schijnobjectiviteit van AI-systemen.
Het idee dat de AI-specialisten van Highberg hebben van uitlegbare AI die onderdeel uitmaakt van de ethische infrastructuur van organisaties heeft daarom drie uitgangspunten met een praktische weerslag.
De uitgangspunten van uitlegbare AI
Voor het in de praktijk brengen van uitlegbare AI in een effectieve strategie om AI-toepassingen te beheersen, zijn de volgende uitgangspunten van belang:
- Transparantie. Onder transparantie verstaan we het op een begrijpelijke manier toegang verlenen tot de basisinformatie over het systeem en over de logische of door het systeem gegenereerde uitkomsten en hun relatie(s) met de invoer in het systeem. Voor publieke organisaties is dit uitgangspunt belangrijk, namelijk voor het naleven van informatieplichten jegens belanghebbenden. Transparantie stelt organisaties in staat om diverse partijen, van individuele burgers tot toezichthouders, inzicht te verschaffen in de werking van AI-systemen en zodat de motivatie van het gebruik van het systeem beter begrepen kan worden.
- Verantwoording. Echter zorgt transparantie op zichzelf niet voor vertrouwen, omdat een overvloed van informatie voor wantrouwen kan zorgen. Hierom is een proactieve verantwoording vanuit de organisatie benodigd. Verantwoording vereist dat organisaties kunnen motiveren hoe beslissingen voortvloeien uit AI-uitkomsten. Publieke organisaties moeten proactief de verantwoordelijkheid dragen voor de consequenties van systeemresultaten. Dit uitgangspunt draagt bij aan het uitoefenen van democratische en menselijke controle over geautomatiseerde processen. Hierdoor blijft publieke dienstverlening onderhevig aan de tegenmachten intern en extern aan de organisatie die verantwoorde inzet kunnen afdwingen.
- Monitoring. Verantwoording en transparantie zorgen samen dus voor vertrouwen dat terecht is, maar hoe kunnen we voorkomen dat er toch iets misgaat? En hoe gaan we om met systeemfouten? Hierom is het derde en laatste uitgangspunt monitoring. Monitoring faciliteert de continue analyse van systeemuitkomsten en de daaraan verbonden beslissingen, waardoor organisaties ongewenste effecten zoals discriminatie en bias kunnen identificeren, mitigeren en voorkomen. Voor publieke organisaties is monitoring cruciaal voor het waarborgen van gelijkberechtiging en het voorkomen van systematische achterstelling van specifieke bevolkingsgroepen.
Deze drie uitgangspunten maken het idee van uitlegbare AI een idee dat zowel de technische implementatie als de richting van de strategie bepaalt. Het bewaakt de mensgerichtheid en het aspect van ethische verantwoording bij de inzet van AI-systemen.
Het is tijd dat we in de publieke sector samenwerken aan de ethische infrastructuur rondom AI. Uitlegbare AI-systemen zijn een condicio sine qua non voor het verbinden van de morele veerkracht van een organisatie met het realiseren van de voordelen die de inzet van AI met zich meebrengt.
Hoe komen we tot AI-systemen waar we als samenleving achter kunnen staan?
Zou je meer willen weten over de waarde van uitlegbare AI en de mogelijkheden om het toe te passen? Dit artikel is een samenvatting van het whitepaper “Wat als je de uitkomsten van AI-systemen niet begrijpt?” van Highbergs Analytics & AI expertisegroep. Lees het hele whitepaper voor de benodigde verdieping en om te weten te komen wat je nu kan doen om met uitlegbare AI te beginnen.
De samenvatting is tot stand gekomen door Claude 4 Sonnet het artikel gericht te laten samenvatten. Vervolgens heeft de auteur de samenvatting volledig herschreven en voorzien van een nieuwe introductie
Conclusie: Publieke sector: verantwoorde & uitlegbare AI
AI wordt steeds vaker ingezet in de publieke sector, bijvoorbeeld voor beleid, dienstverlening en risicobeheer. Dat brengt ethische risico’s met zich mee. Volgens AI-ethicus Joris Krijger is het daarom belangrijk dat organisaties een sterke ethische infrastructuur opbouwen, waarin uitlegbare AI centraal staat. Uitlegbare AI zorgt voor transparantie, verantwoording en monitoring, en is essentieel om vertrouwen, gelijkheid en democratische controle te waarborgen.
Meer weten?
Neem contact op met AI-consultant Thomas Mollema.
Gerelateerde Insights
