Page 20 - HS 3 Taaltecnologie
P. 20
A.I. voor wiskunde
3.11 LLM hallucineren (niet)?
Misschien heb je het al eens meegemaakt, maar soms gaat ChatGPT op de fantasietour. Het komt dan
met niet bestaande feiten of steekt een bijzonder onlogisch verhaal af. Dit wordt wel hallucineren
genoemd. Soms gebeurt het spontaan, soms omdat gebruikers expres "vreemde" instructies invoeren.
ChatGPT is getraind met veel data, maar niet met alle data op de wereld. Ook zijn niet alle data 100%
correct. Het kan dus zo zijn dat ChatGPT heel overtuigend iets probeert te beweren waarvan jij zeker
weet dat het niet klopt.
Indien LLM zoals ChatGPT niet zouden hallucineren dan zou dit ook kunnen leiden tot minder creatieve
output
In feite hallucineren LLM niet, maar het is nu eenmaal zo dat een opeenvolging van woorden,
die waarschijnlijk is niet noodzakelijk ook waar is.
Voorbeeld van een (ongewenste) hallucinatie.
Na verduidelijking van de vraag…
t
e
n
.
o
l
e
h
t
a
m
.
w
w
w
© 2025 Ivan De Winne ivan@mathelo.net 20

