AI-ethiek voor publieke organisaties: een reeks inleidingen
In het publieke debat wordt kunstmatige intelligentie (AI) gezien als een middel om de productiviteit van werknemers te verhogen en betere en meer gezondheidszorg te kunnen bieden. Daarnaast kan AI administratieve processen versnellen en automatiseren, energie en middelen efficiënter verdelen en natuurrampen beter detecteren. AI is zowel een technologie als een maatschappelijke belofte. Publieke organisaties stellen zichzelf en Highberg de vraag of ze iets met AI moeten doen en hoe AI zich verhoudt tot de problemen die ze moeten oplossen.
Ethisch gebruik van AI in de publieke sector
Het verkennen van de mogelijkheden van AI is iets om nú mee te beginnen. Maar het is de verantwoordelijkheid van een publieke organisatie om dit op een verantwoorde manier te doen. Voor AI in de publieke sector is ethische ontwikkeling en inzet eerder een ‘must have’ dan een ‘could have’.
Verantwoord gebruik van technologie en data is natuurlijk iets waar organisaties die in de digitale sfeer actief zijn naar streven. In het geval van AI mogen de risico’s en voordelen die hiermee gepaard gaan echter niet worden onderschat. Ethiek kan in organisaties worden genegeerd en als ‘vaag’, ‘onpraktisch’ of ‘overbodig’ worden weggezet als de relevante wetgeving wordt nageleefd. Maar dergelijke vooroordelen moeten worden vermeden. Talrijke ethische aspecten zijn namelijk inherent aan het gebruik van AI-systemen. Denk bijvoorbeeld aan de belanghebbenden die betrokken zijn bij of worden beïnvloed door het verzamelen van data en wiens keuzes worden meegenomen in de ontwerpfase. Blindheid voor deze ethische dimensies leidt tot schadelijke uitkomsten én voordelen die onbenut blijven.
Dit artikel is het startschot voor een serie inleidingen van Highberg over het onderwerp AI-ethiek, speciaal gericht op publieke organisaties.
AI-ethiek toegankelijk maken
De afgelopen jaren is er een wildgroei aan toolkits, richtlijnen en principes voor AI ontstaan met betrekking tot waarden zoals uitlegbaarheid, transparantie, rechtvaardigheid en verantwoording.1 Maar voor overheidsorganisaties en overige publieke organisaties zijn niet al deze waarden altijd even relevant. De nieuwe AI Verordening verbiedt sommige toepassingen van AI omdat ze te 'risicovol' zijn, zoals gezichtsherkenning, sociale scores en cv-selectie.2 Maar wettelijk aanvaardbare AI-systemen brengen nog steeds hun eigen ethische uitdagingen met zich mee. Deze uitdagingen variëren van algoritmische vooringenomenheid en discriminatie tot verkeerde voorstelling van informatie en de schadelijke gevolgen van verkeerde voorspellingen.
Het probleem dat wij zien is dat beoefenaars geen tijd hebben om te bepalen welke principes, waarden en richtlijnen van toepassing zijn op hun AI-use case. ‘Het ethische perspectief innemen’ is daarom makkelijker gezegd dan gedaan. Ethiek moet worden beoefend en wordt niet vrijgesproken door het formuleren van gedragscodes of resoluties alleen. Maar gelukkig kunnen deze moeilijkheden worden overwonnen. Deze serie inleidingen voorziet in de behoefte om de ethiek van AI toegankelijk te maken voor publieke belanghebbenden.
Wat bespreken we in de inleidingenreeks
In de komende weken zullen we de basisbeginselen van AI-ethiek presenteren. En we vertellen waarom, hoe, waar en wanneer ethische reflectie moet worden beoefend voor elk AI-gebruiksscenario:
- In de eerste inleiding bespreken we hoe ‘AI-ethiek’ begrepen moet worden.
- In het tweede deel wordt aan de hand van drie voorbeelden de wisselwerking tussen het beperken van ethische risico’s en het benutten van het potentieel van AI besproken.
- In de laatste inleiding beschrijven we wanneer en waar ethische reflectie een rol kan spelen in het proces van het ontwerpen, implementeren en evalueren van AI-systemen.
Omdat het vaststellen van AI-ethiek een grote uitdaging is, kan Highberg uw organisatie ondersteunen bij het realiseren van verantwoorde, verantwoordelijke en ethische AI.
Kunt u niet wachten op het volgende deel van deze serie? Neem contact op met een van onze consultants in AI-ethiek of verantwoorde AI om meer te weten te komen over de workshops en lezingen die we geven over de ethiek van AI om de werknemers van uw organisatie op de hoogte te brengen.
Referenties
1. Tomasz Hollanek, “The ethico‑politics of design toolkits: responsible AI tools, from big tech guidelines to feminist ideation cards,” AI and Ethics (2024): 1-10. See for example: OECD, “Recommendation of the Council on Artificial Intelligence”, (2024), https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449; and UNESCO, “Consultation Paper on AI Regulation”: Emerging Approaches Across the World,” (16 August 2024), https://unesdoc.unesco.org/ark:/48223/pf0000390979. For the discussion of general risks and risks particular to the situation of the Netherlands, see: AutoriteitPersoonsgegevens, “AI & Algorithmic Risks Report Netherlands - Summer 2024,” (18 July 2024), https://autoriteitpersoonsgegevens.nl/en/documents/ai-algorithmic-risks-report-netherlands-summer-2024.
2. European Commission, “AI Act,” https://artificialintelligenceact.eu/the-act/.