Deel 3: Wanneer en waar is AI-ethiek nodig?

Het is fijn om te weten dat AI-ethiek een must is wanneer uw organisatie AI inzet om maatschappelijke problemen op te lossen of het publiek beter te dienen. Maar door alleen geld te investeren in AI-systemen komt u niet ver. AI laten werken voor de maatschappij is immers het werk van mensen. Maar hoe doet u dat dan? Wanneer en waar moet ethische reflectie op AI worden geïntroduceerd in publieke organisaties? 

In dit laatste deel van de serie inleidingen over “AI-ethiek voor publieke organisaties” worden de verschillende fasen van AI-gebruik onderscheiden. We formuleren nuttige ethische vragen die bijzonder relevant zijn voor elke fase. Ook delen we inzichten over waar u de AI-ethiekcapaciteit kunt beleggen in uw organisatie.

placeholder

Wanneer moet je AI-ethiek in de praktijk brengen?

Dus, wanneer moeten we AI-ethiek in een organisatie beoefenen? Het korte antwoord: in alle fasen van AI-ontwikkeling en -implementatie. Om dit schijnbare cliché te ontleden, is het nuttig om de rol van AI-ethiek in de verschillende fasen van een AI-systeem te bekijken. We bespreken deze fasen één voor één.  

  • In de ontwerpfase komen de relevante belanghebbenden samen om de use case en het type AI te bepalen dat nodig is om aan de zakelijke vraag te voldoen. Natuurlijk zorgt men voor de naleving van de wet; de ethische reflectie daarvoor en het opnemen van de juiste belanghebbenden, het beschrijven van de use case en welke organisatorische en publieke waarden het systeem zal raken. Het omvat ook het ontwerpen van de gewenste gang van zaken voor de productiefase en de uiteindelijke interacties met menselijke gebruikers. Relevante ethische vragen in deze fase zijn: Wie zal het systeem beïnvloeden? Wat gebeurt er als het systeem niet goed functioneert? Aan welke maatschappelijke doelen kan het systeem bijdragen?  
  • Vervolgens worden in de dataverzamelingsfase (bestaande) datasets geselecteerd. Mogelijk worden de benodigde data gespecificeerd, verzameld en eventueel verder geannoteerd. ‘Wiens morele perspectief is ‘ingebakken’ in de data?’ is hierbij een belangrijke vraag. Dat wil zeggen: het is belangrijk te weten hoe data worden gedefinieerd en wie verzamelt en annoteert.  
  • In de training en testfase, wordt het AI-model afgestemd op adequate prestaties op de gespecificeerde use case volgens een bepaalde metriek, zoals nauwkeurigheid voor classificatie. De afstemming van de parameters van het model gebeurt in deze fase, maar het is ook belangrijk om duidelijke vereisten voor modelprestaties te stellen op basis van de use case uit de ontwerpfase. Bijvoorbeeld: als de output van het AI-systeem leidt tot een beslissing, welke foutmarge is dan acceptabel? Wat doen we als het systeem niet goed functioneert en wie is verantwoordelijk en/of in staat om adequaat te reageren? Dit zijn vragen die moeten worden gespecificeerd, zodat ze in de trainings- en testfase in overweging kunnen worden genomen.  
  • In de productiefase wordt het AI-systeem ingezet en werken mensen samen met de output van het systeem. Hier is ethische reflectie afgestemd op het monitoren van prestaties, het instellen van beperkingen en het uitvoeren van controles zodat het AI-systeem werkt zoals verwacht. De resterende ethische risico’s moeten worden beperkt zonder complicaties of ondoorzichtige beslissingen te introduceren.  

Welke positie moet de ethiek van AI innemen binnen een organisatie?

Vervolgens kunnen we ons afvragen: waar (bij welke rol) moet de verantwoordelijkheid voor ethische reflectie worden belegd? Recent onderzoek heeft benadrukt dat ‘de latente ruimte van data-ethiek’ de plek is waar reflectie op algoritmische risico’s en voordelen kan worden opgenomen. Data-ethiek is het aanpakken van morele uitdagingen met betrekking tot alles wat met data te maken heeft. AI-ethiek kan worden gezien als een subveld van data-ethiek.1

Het bouwen van de ethische laag

De beste ruimte om deze mogelijkheid toe te wijzen is de zogenaamde ‘ethische laag’ van een organisatie. Deze bevindt zich tussen de juridische laag die zich bezighoudt met naleving van wet- en regelgeving en de bestuurslaag voor data- en AI-governance. Wanneer risico’s met betrekking tot data en algoritmen concreet worden gedefinieerd, komen de ethische vragen idealiter terecht bij een ‘chief data ethics officer’ of ‘AI ethics officer’. Als deze rollen ontbreken komen ze terecht bij een chief data officer of zelfs bij datamedewerkers op bedrijfsuitvoerend niveau. Bij afwezigheid van een AI ethics officer stellen sommigen voor om commissies voor algoritmische risico’s of data-ethiek in te stellen om de bestuurlijke en juridische lagen beter te verbinden met de kern van de data-uitvoering. 

Het is belangrijk om deze opties te overwegen. Het voordeel van het beoefenen van ethiek in deze ruimte is dat het de identificatie van ethische hiaten mogelijk maakt, die overblijven nadat AI-systemen voldoen aan wettelijke beperkingen. De vragen die we eerder stelden, zoals ‘welke belanghebbenden worden beïnvloed en hoe?’ en ‘welke publieke of organisatorische waarden richt dit AI-systeem zich op?’ blijven hier onbeantwoord. Maar juist deze vragen moeten worden ingevuld én vertaald van data- of AI-problemen naar bestuurlijke keuzes. 

Maar zoals gesteld is er ook een duidelijke rol weggelegd voor ethiekofficieren bij de conceptie van een AI-systeem. Namelijk het adviseren van de bestuurslaag over de vraag ‘Wat willen we eigenlijk bereiken en waarom?’ 

AI-ethiek van de grond krijgen

Nu de basis, noodzaak en het ‘waar en wanneer’ van AI-ethiek zijn uitgelegd, is het tijd om AI-ethiek in de praktijk te brengen. Maar het uitvoeren van AI-ethiek is veeleisend. Het is moeilijk om continu te realiseren en wordt daarom gemeden of vergeten. AI-ethiek kan ook iets zijn waar uw organisatie de competenties niet voor in huis heeft.  

Dit is waar Highberg u kan helpen. Wij hebben ervaring met het opzetten van algoritmische commissies en het leveren van ethiekfunctionarissen. Wij bieden praktische en duurzame implementaties van data- en AI-ethiek in uw organisatie en zijn in staat om interne rollen te vervullen, variërend van de bestuurslaag, tot aan de ethische en uitvoerende lagen.  

Deze reeks inleidingen wordt gevolgd door een position paper over het opzetten van AI-ethiek binnen een publieke organisatie. Hierin wordt een op risico gebaseerde bandering uiteengezet die publieke organisaties kunnen inzetten om ethische processen te implementeren in hun AI-ontwerp, -ontwikkeling en -implementatie.  

Geïnteresseerd in wat wij voor u kunnen betekenen, of heeft u ideeën of use cases die u wilt delen? Neem gerust contact op met onze consultants.

Referenties

  • Enrico Panai, “The latent space of data ethics,” AI & Society (2023): 1-15.

Gerelateerde Insights

divider