Page 14 - HS 5 AI en ethiek
P. 14
A.I. voor wiskunde
Historische data bevatten uiteraard bias, maar indien AI-systemen dit proberen te corrigeren om diverse
afbeeldingen te bekomen uit verschillende etnische groepen dan ontstaan er door bevoordeling van
deze groepen opnieuw biases die niet overeenstemmen met de historische werkelijkheid.
Hetzelfde probleem deed zich voor bij de vraag om afbeeldingen van Vikings, Spartaanse soldaten of de
“Founding fathers van Amerika”.
5.6.3 Representatiebias:
De trainingsdata zijn niet representatief voor de doelgroep en bevatten vooroordelen waarmee het
systeem getraind werd. Hierdoor kunnen stereotypen versterkt worden.
Representatiebias kan om minstens 2 redenen optreden:
• De steekproef uit de populatie bereikt slechts een deel van de populatie. Datasets die via
smartphone-apps worden verzameld kunnen groepen met lagere inkomens en ouderen onder
vertegenwoordigen;
• De populatie die van belang is veranderd of verschilt van de populatie die gebruikt wordt als
dataset om het AI-systeem te trainen en te modeleren. Datasets die representatief zijn voor de
bevolking van Londen weerspiegelen niet de bevolking in een grootstad zoals Antwerpen.
Voorbeeld 1:
Een spraakherkenningssysteem dat vooral getraind is op stemmen van witte, middelbare mannen,
presteert slechter bij stemmen van vrouwen of mensen met een andere etnische achtergrond.
Voorbeeld 2:
In de gezondheidszorg kunnen AI-systemen minder accuraat zijn voor mensen met een donkere huid als
t
het algoritme niet ontworpen is om met verschillende huidtinten rekening te houden. e
n
.
o
5.6.4 Algoritmische bias l
e
h
Voortkomend uit verkeerde of onvolledige probleemdefinities of aannames in het algoritme zelf. t
Hierdoor versterkt het systeem bepaalde patronen. a
m
Bias kan ontstaan door de softwareontwikkelaar die een vooroordeel in de code programmeert. .
w
Voorbeeld: w
Een vrouw/man is beter geschikt voor functie x, dus krijgt hogere score voor ranking. w
© 2025 Ivan De Winne ivan@mathelo.net 14

