Deel 2: AI-ethiek: beperk risico’s en benut potentieel
Als u AI wilt toepassen op de problemen van uw organisatie, waar begint u dan? Hoe doet u dit in lijn met de publieke waarden waarvoor uw organisatie aan de lat staat? Zoals bij alle technologieën hangt het ervan af hoe AI gebruikt wordt of het zal helpen of schaden. Maar onwetend gebruik van AI zal eerder kwaad dan goed doen. Dat betekent: niet nadenken over hoe AI zich verhoudt tot de doelen en waarden van uw organisatie. ‘Waarom is AI-ethiek noodzakelijk voor elke organisatie die AI-systemen gebruikt?’ is daarom de tweede vraag die onze serie inleidingen “AI-ethiek voor publieke organisaties” behandelt.
Centraliseren van ethisch risico
Het concept van ‘ethisch risico’ staat centraal bij het vaststellen van de noodzaak van AI-ethiek. ‘Risico’ is de combinatie van de ernst van een bepaald leed en hoe waarschijnlijk het is dat dit optreedt.1 ‘Ethisch risico' wordt gedefinieerd als risico met betrekking tot een AI-systeem dat kan leiden tot het doen falen van ethische verantwoordelijkheden die belanghebbenden hebben jegens andere belanghebbenden.2
Omdat deze definities nog steeds tamelijk abstract zijn, illustreren we ze met behulp van drie eenvoudige voorbeelden die acceptabel zijn onder de AI Verordening: (1) algoritmische vooringenomenheid, (2) onbetrouwbare AI en (3) verkeerde afstemming tussen AI en waarden.
Bij AI-ethiek bewegen we van reflectie op de morele context van het systeem naar risicobeperking door maatregelen te implementeren voor wanneer risico’s zich voordoen. De voorbeelden laten zien hoe het identificeren en aanpakken van ethische uitdagingen van essentieel belang is voor zowel het voorkomen van ongewenste gevolgen als het benutten van het potentieel van AI. Het identificeren van de ethische risico’s en het beperken ervan is daarom de kern van het in de praktijk brengen van AI-ethiek.
Algoritmische vooringenomenheid (1)
AI-systemen die gebaseerd zijn op machine learning kunnen alleen de juiste voorspellingen of classificaties leveren als de data die wordt gebruikt om ze te trainen van de juiste kwaliteit en kwantiteit zijn. Het probleem ligt bij de manier waarop invoergegevens worden verzameld of hoe het model zelf wordt gedefinieerd en getraind. Dit heeft namelijk gevolgen voor de onvermijdelijke vooringenomenheid (‘biases’) die een AI-systeem heeft. Het is ethisch belangrijk om op de hoogte te zijn van de biases van een systeem. Een dergelijk bewustzijn zorgt ervoor dat de ‘valse positieven of negatieven’ kunnen worden aangepakt door de gebruiker die met het systeem communiceert. Denk hierbij aan het signaleren van misinformatie of een onjuiste voorspelling. Als de gebruiker zich niet bewust is van de specifieke biases, worden gebrekkige outputs onkritisch geaccepteerd en wordt ernaar gehandeld. Bovendien is men als uitvoerder verantwoordelijk voor beslissingen die worden genomen op basis van het gebruikte AI-systeem. Ethisch bewustzijn van algoritmische bias is dus essentieel voor veilig en verantwoord gebruik van AI-systemen door publieke organisaties.
Onbetrouwbare AI (2)
Stel u voor: de toepassing van AI-systemen voor het beheren van de logistiek van het vervoer van mensen met een beperking naar school, werk of zorginstellingen. Sommige publieke organisaties hebben de taak om dit vervoer efficiënt te organiseren. Ze fungeren als interface tussen mensen met een beperking en de instellingen waarvan ze afhankelijk zijn. In dit geval is het ethische risico van het AI-systeem dat de belanghebbende schade ondervindt wanneer het systeem niet goed functioneert. Als de algoritmisch gegenereerde route men structureel te laat doet aankomen bij sommige huizen of die mist, dan draagt de te vervoeren persoon de last van het falen van het systeem. Dit is een ethisch risico, namelijk het niet nakomen van een plicht, dat onaanvaardbaar is. Aan de andere kant is er een ethisch voordeel te behalen door dit AI-systeem te optimaliseren. Dat is het verbeteren en soepeler maken van de toegang van mensen met een beperking tot instellingen zoals werk, school of zorg. Als zodanig raakt het potentieel van AI direct de kernactiviteiten van dit type publieke organisatie.
Verkeerde afstemming tussen AI en waarden (3)
Ten slotte is er het probleem van het ‘afstemmen’ van AI-systemen. Het afstemmingsprobleem is net zo oud als automatisering en robotica zelf: je wilt dat machines doen waarvoor ze bedoeld zijn. In het geval van AI-systemen krijgt dit probleem echter een nieuw gezicht. Het opnemen van ‘regels’ voor machine learning-toepassingen is moeilijker te doen dan voor op logica gebaseerde expertsystemen. De vraag ‘waarom ze doen wat ze doen’ is namelijk moeilijker te beantwoorden. Hun interne werking is vaak ondoorzichtig.
Dus wanneer u bij het nemen van beslissingen afhankelijk bent van AI-systemen, is een niet te negeren ethisch risico dat de werking van het systeem niet in contact staat met (a) wat gebruikers verwachten of (b) wat de waarden van een organisatie zijn. Niet afgestemde AI leidt dus tot ethische risico's die moeten worden beperkt, terwijl goed afgestemde AI is waar elke use case om draait én waar het unieke ethische voordeel van het systeem ligt. Met andere woorden: afgestemde AI draait om de automatisering van het oplossen van een probleem precies zoals het bedoeld was om te worden opgelost. Door de prestaties van AI-systemen af te stemmen op de wensen, behoeften en overtuigingen van gebruikers en organisaties, lukt het u zowel risico’s te beperken als voordelen te behalen.
De ethische risico’s van AI de nodige aandacht geven
Er zijn nog veel meer voorbeelden te geven van ethische risico’s die verband houden met de technische aspecten van AI-systemen. Maar de kern van de zaak is dat ethische risico’s en voordelen net zo divers zijn als de use cases van AI-systemen. Ethische reflectie is noodzakelijk om de gevaren en kansen te begrijpen waarmee uw organisatie wordt geconfronteerd bij het ontwikkelen en implementeren van AI. AI-ethiek mag niet worden geschuwd of verworpen. Het is essentieel om technologie te ontwikkelen die voldoet aan de doelen en eisen van uw organisatie.
Bent u al op weg met AI-ethiek maar heeft u ethische verificatie of validatie nodig? Het kan nuttig zijn om te weten dat Highberg AI-audits aanbiedt en de ontwikkeling van algoritmeregisters kan ondersteunen om ethische aspecten van bestaande AI-systemen duidelijk te documenteren.
Ter ondersteuning in de ontwerpfase kan het nuttig zijn om richtlijnen te raadplegen over mensenrechten- en algoritme-impactbeoordelingen. Zo kunt u de use case die een organisatie nastreeft, vrijwaren van onbedoelde en mogelijk schadelijke gevolgen.
Wilt u meer weten over wat wij kunnen doen om uw AI-ethiek van de grond te krijgen? Bekijk onze capability Verantwoord gebruik van AI of neem contact op met een van onze consultants.
Referenties
- European Commission, “AI Act,” Article 3.2.
- David M. Douglas, Justine Lacey and David Howard, “Ethical risk for AI,” AI and Ethics (2024): 1-15.