Page 12 - HS 5 AI en ethiek
P. 12
A.I. voor wiskunde
Zo ook het antwoord op de vraag om afbeeldingen van dokters te maken. Je krijgt enkel mannelijke
specialisten te zien.
Dat de ontwikkelaars van deze AI-systemen wel rekening houden met biases in het systeem blijkt het
antwoord van Copilot (januari 2025) van Microsoft op diezelfde vragen.
Voorbeeld 2: COMPAS en raciale bias in het Amerikaanse rechtssysteem
In Amerika is veelvuldig gebruik gemaakt van de software Compas om te voorspellen hoe groot de kans
is dat een veroordeelde opnieuw de fout in gaat. Uit onderzoek van Pro Publica in 2016 blijkt dat zwarte
verdachten vaker als "hoog risico" werden geclassificeerd in vergelijking met witte verdachten, zelfs als
hun criminele geschiedenis vergelijkbaar was.
Het is daarbij bijzonder lastig om in te schatten op welke wijze autonome systemen zich gaan gedragen
Wanneer uit data bijvoorbeeld blijkt dat zwarte mannen een grotere kans hebben om na vrijlating weer
terug te komen in de gevangenis, dan zal het algoritme bepalen dat zwarte mannen langer in de
gevangenis moeten blijven. Dit heeft vervolgens weer invloed op de gevolgcijfers: zwarte mannen zitten
dan daadwerkelijk langer in de cel, wat vervolgens weer wordt versterkt door het algoritme, etc.
Hierbij wordt geen rekening gehouden met het feit dat de cijfers gebiased zijn als gevolg van menselijk
politiewerk, waarbij mogelijk sprake is van profilering.
Voorbeeld 3:
t
e
n
.
o
l
e
h
In 2018 stonden slechts 5 procent vrouwen aan de leiding van een Fortune-500 bedrijf. t
a
In 2025 stonden 11 procent vrouwen aan de top van een Fortune-500 bedrijf.
m
Hoewel dit een positieve ontwikkeling is, zijn slechts twee van deze 55 vrouwen zwart, wat de . w
aanhoudende ongelijkheid in raciale vertegenwoordiging benadrukt.
w
Google heeft in 2024 de zoekresultaten van CEO aangepast om een hoger percentage vrouwen te tonen. w
Een zoekopdracht voor CEO op Google levert vandaag 10 procent van vrouwelijke CEO’s op.
© 2025 Ivan De Winne ivan@mathelo.net 12

