Algoritme transparantie redt levens

Door Ed van Doorn

Wie gebruikt ze niet: Alexa, Google Assistant of Siri? Slimme spraakherkenningsapps met intelligente software die leren van jouw vragen en daardoor met steeds betere antwoorden komen. Helaas zijn de antwoorden nu soms onhandig, onwetend of zelfs fout. Voor een eenvoudige vraag om de radio aan te doen én reclameblokken eruit te halen komt ze niet uit, zelfs na veel herhalingsvragen. Waarom, hoe en wat? Werkelijk geen idee want het is niet transparant gemaakt. Dit is voor grappige toepassingen niet erg maar voor serieuze toepassingen kan een fout levens kosten of maatschappelijke onvrede betekenen.

Wie gebruikt ze niet: Alexa, Google Assistant of Siri? Slimme spraakherkenningsapps met intelligente software die leren van jouw vragen en daardoor met steeds betere antwoorden komen. Helaas zijn de antwoorden nu soms onhandig, onwetend of zelfs fout. Voor een eenvoudige vraag om de radio aan te doen én reclameblokken eruit te halen komt ze niet uit, zelfs na veel herhalingsvragen. Waarom, hoe en wat? Werkelijk geen idee want het is niet transparant gemaakt. Dit is voor grappige toepassingen niet erg maar voor serieuze toepassingen kan een fout levens kosten of maatschappelijke onvrede betekenen.

Een bekend voorbeeld is de Amazon ‘AI applicatie voor recruitment’ die voor de werving van personeel niet gender neutraal beoordeelde. Het algoritme bleek voorkeuren te hebben voor mannelijke experts.

Een ander schokkend voorbeeld is die van de autonoom rijdende auto van Uber. Uber had een met algoritmen uitgeruste autonoom rijdende auto ontwikkeld die niet tijdig ingreep bij het oversteken van een voetgangster met de dood als gevolg. Een belangrijke oorzaak van het ongeluk was een algoritme dat door late en vage input uit sensoren besloot door te rijden omdat remmen geen zin meer had terwijl uitwijken ten koste van de auto ook geen optie was. Algoritmen zijn per definitie, net zoals mensenwerk niet altijd objectief. Een algoritmetoets en een laboratoriumproef voordat de Uber-auto de weg op ging, had het ergste kunnen voorkomen.

Sinds de komst van kunstmatige intelligentie (AI) neemt de complexiteit toe en is de betrouwbaarheid een steeds grotere uitdaging. De intelligentie wordt gecreëerd door gebruik te maken van algoritmen. Deze algoritmen worden geschreven door softwarespecialisten. Het schrijven is mensenwerk, waarbij het algoritme lastig transparant en objectief te maken is zoals in het voorbeeld van Uber autonoom rijden en de gender neutrale werving bij Amazon.

Daarom is het noodzakelijk het algoritme onafhankelijk te laten toetsen. Toetsing maakt de kwaliteit van het algoritme transparant en maakt het uitlegbaar richting gebruikers en toezichthouders. Een algoritme toets volgens VKA is een review in hoeverre je algoritme voldoet aan generieke principes zoals: bewust gebruik, gebaseerd op kennis van, privacy by design, lerend, gecontroleerde toepassing, transparant, en maatschappelijk uitlegbaarheid.

Hierbij de top drie tips om de bestuurbaarheid, transparantie, voorspelbaarheid en draagvlak te vergroten van AI en het algoritme.

Tip 1. Toets algoritmen onafhankelijk.

Als Uber in 2018 een onafhankelijke algoritmetoets en laboratoriumproef had gedaan alvorens de straat op te gaan had het een leven gered. Overigens zal je algoritmen moeten blijven toetsen en testen, ook na implementatie. In het geval van Amazon had men de “bias” kunnen voorkomen door gebruik te maken van een onafhankelijke algoritme toets. Een dergelijke toets kijkt niet alleen naar generieke principes zoals hierboven beschreven, maar ook naar de mate van datakwaliteit, ethiek en subjectiviteit in werkwijzen.

Tip 2. Controleer je datakwaliteit.

Het is belangrijk te weten wat de kwaliteit is van je data, zeker als je “data lakes” combineert. Zijn er privacygegevens of gender data die je wilt schrappen voordat je de data gebruikt? Zijn de gegevens goed genoeg voor gebruik of zijn niet betrouwbare datablokken te herkennen? Maak de data klaar voor gebruik. Controleer in hoeverre historische data nog representatief zijn voor de gewenste of toekomstige uitkomsten. Opschoning of het verwijderen van gegevens voorkomt subjectiviteit of “bias”.

Tip 3. Maak het algoritme transparant zodat het maatschappelijk uitlegbaar is.

Wat het doel ook is, hoe de softwarespecialist ook te werk is gegaan, hoe goed het ook lijkt te zijn geregeld rondom privacy, hoe complex het ook is, stel de vraag: “zijn voordelen én nadelen uitlegbaar voor alle stakeholders?”. Vraag om transparantie over (opgeschoonde) data, de werking van het algoritme en de werkprocessen. Hebben de getoetste uitkomsten een mogelijke impact op het maatschappelijk draagvlak? Ken de “bias” van het algoritme en communiceer altijd de mogelijke maatschappelijke – voordelen én -nadelen. Zo is het maatschappelijk uitlegbaar.

Een krachtig mogelijk “live saving” voorbeeld van het gebruik van algoritmes is van begin dit jaar. Het Deepmind Google algoritme herkent borstkanker beter dan de menselijke dokter. Helaas waren er ook klachten over transparantie van (privacy) data afspraken. Met een onafhankelijke algoritme toets had Google wellicht dit gedoe kunnen voorkomen. Een algoritme toets op met transparantie in het “hey google” algoritme had mijn onwetendheid kunnen oplossen of mijn begrip kunnen verbeteren.

Mijn tip aan Google: ‘Algoritm transparency saves lives and may solve my ignorence‘.

Gerelateerde insights

divider