Artikel

Waarom uitlegbare en verantwoorde AI onmisbaar is voor de publieke sector

7 min leestijd
juni 26, 2025
Waarom uitlegbare en verantwoorde AI onmisbaar is voor de publieke sector

De publieke sector verandert ingrijpend door de inzet van kunstmatige intelligentie (AI), met toepassingen in beleid, dienstverlening en risicobeheer. Volgens AI-ethicus Joris Krijger is het essentieel om ethische risico’s actief te beheersen en AI verantwoord in te zetten. Daarvoor is een sterke ethische infrastructuur nodig, met aandacht voor transparantie, verantwoording en continue monitoring. Uitlegbare AI is hierin cruciaal, omdat het vertrouwen, legitimiteit en controle over AI-systemen waarborgt. Alleen zo kan AI op een democratisch verantwoorde manier bijdragen aan publieke waarden.

 

De publieke sector zit middenin een grote verandering door de groeiende adoptie van kunstmatige intelligentie (artificial intelligence (AI)). AI-implementaties voor procesoptimalisatie, datagestuurde beleidsvorming, het inzetten van AI-assistenten voor burgerondersteuning ,en het aanwenden van machine learning voor risico-identificatie en -voorspelling worden steeds prominenter in de uitvoering van publieke dienstverlening en interne bedrijfsvoering. In zijn recente boek Onze kunstmatige toekomst omschrijft AI-ethicus Joris Krijger dit als een “kolkende kunstmatige stroom” waarin de samenleving is beland. De vraag die hij behandelt., is “wat willen wij met AI en wat wil AI met ons?” Deze vraag is enorm relevant voor de nakende transformatie van publieke dienstverlening en de bedrijfsvoering van de overheid vanwege de inzet van steeds geavanceerdere AI-systemen.

Omdat de ‘voorspelmachines’ die AI-systemen zijn niet begrepen kunnen worden buiten de sociale en politieke context van hun inzet en ontwikkeling (denk hierbij bijvoorbeeld enerzijds aan de ethische risico’s voor belanghebbenden als een systeem in gebruik is en anderzijds aan het onzichtbare menselijke werk dat aan gebruiksklare AI-systemen voorafgaat), is het volgens Krijger van belang actief richting te geven aan de ‘samenleving met AI’ waar we op afstevenen. We kunnen en moeten namelijk de ethische risico’s van het gebruik van AI-systemen het hoofd bieden, zowel om het beste te halen uit de mogelijkheden van deze nieuwe technologie – in dienst van burgers en publieke waarden –, als om de mensen die nieuwe risico’s lopen te beschermen (burgers en consumenten) en hen die profiteren verantwoordelijk te houden (bedrijven en instellingen).

Krijger pleit daarom voor het aanleggen en verstevigen van de ‘ethische infrastructuur’ van organisaties die zorgen voor ‘morele veerkracht’. Wat bedoelt hij hiermee? Het gaat hier om het vormgeven van de processen binnen organisaties en het speelveld rondom organisaties zodat verantwoorde AI daar een vaste plaats in heeft. Denk aan:

  • het trainen van AI-geletterde medewerkers die ethische dilemma’s kunnen herkennen;
  • het opzetten van communicatiekanalen over AI;
  • het betrekken van de juiste belanghebbenden in de evaluatie en ontwikkeling van AI-systemen;
  • en, voor Krijger wellicht het belangrijkste, de openbare ethische rechtvaardiging van de keuzes die worden gemaakt omtrent het inzetten van AI, zodat men binnen organisaties, en organisaties onderling, elkaar verantwoordelijk kan houden.

Voor publieke organisaties is het verantwoord implementeren van AI en het ontwerpen van procedures en mechanismen om verantwoord gebruik te geleiden en af te dwingen niet optioneel, maar een democratische verplichting.

De noodzaak van uitlegbare AI voor de publieke sector

Eén van de fundamentele vragen die deze “kolkende kunstmatige stroom” met zich meebrengt, gaat over transparantie, verantwoordelijkheid en vertrouwen. Hoe kunnen we namelijk AI-systemen inzetten als we hun werking niet kunnen begrijpen en geen verantwoording af kunnen leggen over de gevolgen van de uitkomsten van AI-systemen? In het kader van deze vraag vormt uitlegbare AI een kritische succesfactor voor de aanleg van de ethische infrastructuur als ondersteuning van verantwoorde AI-implementaties. Publieke instituties zijn verantwoordelijk voor het waarborgen van rechtmatigheid, gelijkheid en legitimiteit in hun dienstverlening. AI-systemen die opereren zonder adequate verantwoording of controle kunnen deze kernwaarden ondermijnen en het maatschappelijk contract tussen burger en overheid beschadigen. Hierom is het uitleggen van wat AI-systemen doen en hoe ze zijn ingebed in de dienstverlening en bedrijfsvoering noodzakelijk.

Machine learning modellen zoals taakgebonden deep learning modellen of ‘grote taalmodellen’ (Large Language Models) zoals ChatGPT en Claude zijn complex en nooit perfect. Wanneer kunnen we vertrouwen op de uitkomsten van AI-systemen, wat doen we als er fouten in de uitkomsten blijken te zitten en hoe kunnen we de werking van deze systemen begrijpelijk uitleggen aan belanghebbenden? Het werkveld van ‘uitlegbare AI’ (explainable AI) adresseert deze uitdaging door inzicht te bieden in hoe AI-systemen tot specifieke uitkomsten komen. Dit moet verder gaan dan louter technische transparantie, dient rekening te houden met de belanghebbende doelgroep van de uitleg én vraagt om het ontmantelen van de schijnobjectiviteit van AI-systemen.

Het idee dat de AI-specialisten van Highberg hebben van uitlegbare AI die onderdeel uitmaakt van de ethische infrastructuur van organisaties heeft daarom drie uitgangspunten met een praktische weerslag.

De uitgangspunten van uitlegbare AI

Voor het in de praktijk brengen van uitlegbare AI in een effectieve strategie om AI-toepassingen te beheersen, zijn de volgende uitgangspunten van belang:

  1. Transparantie. Onder transparantie verstaan we het op een begrijpelijke manier toegang verlenen tot de basisinformatie over het systeem en over de logische of door het systeem gegenereerde uitkomsten en hun relatie(s) met de invoer in het systeem. Voor publieke organisaties is dit uitgangspunt belangrijk, namelijk voor het naleven van informatieplichten jegens belanghebbenden. Transparantie stelt organisaties in staat om diverse partijen, van individuele burgers tot toezichthouders, inzicht te verschaffen in de werking van AI-systemen en zodat de motivatie van het gebruik van het systeem beter begrepen kan worden.
  2. Verantwoording. Echter zorgt transparantie op zichzelf niet voor vertrouwen, omdat een overvloed van informatie voor wantrouwen kan zorgen. Hierom is een proactieve verantwoording vanuit de organisatie benodigd. Verantwoording vereist dat organisaties kunnen motiveren hoe beslissingen voortvloeien uit AI-uitkomsten. Publieke organisaties moeten proactief de verantwoordelijkheid dragen voor de consequenties van systeemresultaten. Dit uitgangspunt draagt bij aan het uitoefenen van democratische en menselijke controle over geautomatiseerde processen. Hierdoor blijft publieke dienstverlening onderhevig aan de tegenmachten intern en extern aan de organisatie die verantwoorde inzet kunnen afdwingen.
  3. Monitoring. Verantwoording en transparantie zorgen samen dus voor vertrouwen dat terecht is, maar hoe kunnen we voorkomen dat er toch iets misgaat? En hoe gaan we om met systeemfouten? Hierom is het derde en laatste uitgangspunt monitoring. Monitoring faciliteert de continue analyse van systeemuitkomsten en de daaraan verbonden beslissingen, waardoor organisaties ongewenste effecten zoals discriminatie en bias kunnen identificeren, mitigeren en voorkomen. Voor publieke organisaties is monitoring cruciaal voor het waarborgen van gelijkberechtiging en het voorkomen van systematische achterstelling van specifieke bevolkingsgroepen.

Deze drie uitgangspunten maken het idee van uitlegbare AI een idee dat zowel de technische implementatie als de richting van de strategie bepaalt. Het bewaakt de mensgerichtheid en het aspect van ethische verantwoording bij de inzet van AI-systemen.

Het is tijd dat we in de publieke sector samenwerken aan de ethische infrastructuur rondom AI. Uitlegbare AI-systemen zijn een condicio sine qua non voor het verbinden van de morele veerkracht van een organisatie met het realiseren van de voordelen die de inzet van AI met zich meebrengt.

Hoe komen we tot AI-systemen waar we als samenleving achter kunnen staan?

Zou je meer willen weten over de waarde van uitlegbare AI en de mogelijkheden om het toe te passen? Dit artikel is een samenvatting van het whitepaper “Wat als je de uitkomsten van AI-systemen niet begrijpt?” van Highbergs Analytics & AI expertisegroep. Lees het hele whitepaper voor de benodigde verdieping en om te weten te komen wat je nu kan doen om met uitlegbare AI te beginnen.

 

Conclusie: Publieke sector: verantwoorde & uitlegbare AI

AI wordt steeds vaker ingezet in de publieke sector, bijvoorbeeld voor beleid, dienstverlening en risicobeheer. Dat brengt ethische risico’s met zich mee. Volgens AI-ethicus Joris Krijger is het daarom belangrijk dat organisaties een sterke ethische infrastructuur opbouwen, waarin uitlegbare AI centraal staat. Uitlegbare AI zorgt voor transparantie, verantwoording en monitoring, en is essentieel om vertrouwen, gelijkheid en democratische controle te waarborgen.

Lees het whitepaper hier

De samenvatting is tot stand gekomen door Claude 4 Sonnet het artikel gericht te laten samenvatten. Vervolgens heeft de auteur de samenvatting volledig herschreven en voorzien van een nieuwe introductie.

Thomas Mollema
Thomas Mollema

Consultant Data & AI

Thomas is gepassioneerd over het bijdragen aan verantwoorde, ethische en aansprakelijke AI-ontwikkeling en -inzet. Als consultant Data & AI adviseert hij over billijke ontwikkeling van…
Lees meer

Gerelateerde inzichten

Highberg AI-Behoeftescan: Eerst de behoefte, dan de technologie
Whitepaper
1 jaar geleden | 5 min leestijd
Highberg AI-Behoeftescan: Eerst de behoefte, dan de technologie

De druk om te digitaliseren is groot. AI belooft organisaties sneller, slimmer en efficiënter te maken. Maar zonder een scherpe focus op de daadwerkelijke behoefte binnen je organisatie, kan de technologie meer problemen veroorzaken dan oplossen. In de praktijk zien we dat veel AI-initiatieven stranden door onduidelijke strategie, gebrek aan draagvlak en verkeerde keuzes. De sleutel? Begin niet met de technologie, maar met de vraag: wat heeft onze organisatie écht nodig? In dit whitepaper belichten we waarom het essentieel is om AI niet als hype te benaderen, maar als een strategisch middel dat alleen waarde toevoegt als het aansluit op zowel de organisatiedoelen als de behoeften van medewerkers. We zoomen in op de twee niveaus die bepalend zijn voor succesvolle inzet van AI: het strategische en het menselijke niveau.

Zes transformatietrends in de publieke sector
Artikel
1 jaar geleden | 5 min leestijd
Zes transformatietrends in de publieke sector

Bij Highberg volgen we nauwgezet de transformatietrends bij onze klanten. We hebben onze ervaringen en inzichten in de publieke sector van afgelopen jaar geanalyseerd, gebundeld en vertaald naar de uitdagingen en trends voor 2025 in de publieke sector. Onze analyse onthult een complex landschap van kansen en obstakels voor grote uitvoeringsinstanties zoals onder meer UWV, DUO, SVB en de Belastingdienst. Deze organisaties staan voor de immense taak hun dienstverlening te moderniseren en te optimaliseren, terwijl ze laveren tussen strikte regelgeving, technologische vernieuwing en maatschappelijke verwachtingen. In dit artikel belichten we zes cruciale observaties die de transformatie in de publieke sector beïnvloeden. Deze observaties weerspiegelen niet alleen de huidige situatie, maar geven ook inzicht in de toekomstige koers als gevolg van digitale en organisatorische veranderingen binnen deze uitvoeringsorganisaties.

Coherentie is de sleutel: echte impact creëren in digitale overheidsstrategieën
Artikel
10 maanden geleden | 5 min leestijd
Coherentie is de sleutel: echte impact creëren in digitale overheidsstrategieën

Digitale transformatie in de publieke sector vraagt om meer samenhang en minder versnippering. Highberg pleit voor een stevig fundament van overzichtelijke IT en data, meer wendbaarheid om proactief op wetgeving in te spelen, en innovatie die maatschappelijke waarde oplevert in plaats van losse technologische pilots. Zo wordt digitale transformatie een strategisch proces, niet alleen een technische uitdaging.