Page 13 - HS 5 AI en ethiek
P. 13

A.I. voor wiskunde



               Voorbeeld 4:
               Sommige scholen (of shoppingcentra) in de USA en China of winkels gebruiken
               gezichtsherkenningstechnologie voor beveiliging of aanwezigheid. Deze systemen gebruiken AI om de
               gezichten van mensen te herkennen door ze te vergelijken met foto's in hun database.
               Studies hebben aangetoond dat deze systemen vaak beter werken voor mensen met een lichtere
               huidskleur dan voor mensen met een donkerdere huidskleur. De AI herkent mogelijk niet iemand met
               een donkere huid, zelfs niet als hun foto in de database staat. Het kan ook ten onrechte iemand
               identificeren als de verkeerde persoon, wat leidt tot oneerlijke gevolgen, zoals ondervraging of
               weigering van toegang.


               5.6  Vormen van AI- bias


               Hieronder een korte opsomming van de belangrijkste soorten bias die in verschillende stadia van AI-
               systemen kunnen sluipen.

               5.6.1  Historische data bias

               Ontstaat wanneer AI getraind wordt op historische data die al bestaande vooroordelen bevat.
               Dit is een structureel en fundamenteel probleem dat al ontstaat bij de eerste stap van het
               datageneratieproces.

               Voorbeeld: Amazon’s discriminerende wervingsalgoritme.
               De pakjesdienst Amazon ontwikkelde in 2014 een AI-systeem om sollicitanten te screenen en de beste
               kandidaten te selecteren. Helaas werd ontdekt dat het systeem systematisch de voorkeur gaf aan
               mannelijke kandidaten. Dit kwam door het feit dat het algoritme was getraind op historische gegevens
               waarbij de meeste sollicitanten uit het verleden bij Amazon mannen waren.

               Het AI-systeem gaf bijvoorbeeld minder gewicht aan diploma's van vrouwelijke hogescholen en zette
               kandidaten die lid waren van vrouwengroepen op een achterstand.  In 2017 is de ontwikkeling van de
               applicatie door Amazon stopgezet.
               5.6.2  Corrigeren van historische bias kan opnieuw bias opleveren


               Bij de lancering van Google’s Gemini (2024) leverde de afbeeldingsgenerator ongewone resultaten op.
               Gemini maakte beelden van historische gebeurtenissen waarbij het mensen toont met een afkomst die
               in die historische context niet plausibel was.
               Zo leverde de vraag om een afbeelding van een paus te genereren een gekleurde vrouw op.



                                                                                                                   t
                                                                                                                   e
                                                                                                                   n
                                                                                                                   .
                                                                                                                   o
                                                                                                                   l
                                                                                                                   e
                                                                                                                   h
                                                                                                                   t
                                                                                                                   a
                                                                                                                   m
                                                                                                                   .
                                                                                                                   w
                                                                                                                   w
                                                                                                                   w
               https://www.tijd.be/opinie/algemeen/google-gemini-en-de-vrouwelijke-paus/10530371.html



               © 2025 Ivan De Winne                                          ivan@mathelo.net                                                          13
   8   9   10   11   12   13   14   15   16   17   18