Page 20 - HS 5 AI en ethiek
P. 20
A.I. voor wiskunde
5.8.3 Energie is nodig voor de trainingen van AI-modellen (GenAI)
De laatste keer dat OpenAI de cijfers voor het trainen van hun AI-model was voor de versie GPT-3.
Uit een paper van OpenAI over ChatGPT-3 bleek dat het systeem gebaseerd was op een model met 175
miljard parameters.
Dit model werd 24 uur per dag getraind gedurende 9 dagen. Dit kostte zowat 5 miljoen dollar om de
training tot een goed einde te brengen en 1 GWh aan energie.
Dit komt overeen met het jaarlijks energieverbruik van ongeveer 400 Vlaamse gezinnen.
Ondertussen werden de AI-modellen worden steeds groter met meer data en meer parameters.
GPT-4 werd zo’n 10 keer groter, zowel in parameters als hoeveelheid verwerkte trainingsdata.
Google’s Gemini (2025) heeft 175 biljoen parameters- is dus 1000X omvangrijker dan ChatGPT-3 en
verbruikte tijdens de trainingsfase 1 TWh energie, vergelijkbaar met het stroomverbruik San Francisco
gedurende 3 dagen.
In de grafiek van Epoch AI hieronder zien we voor verschillende modellen het aantal benodigde FLOPS
voor de ontwikkeling. Een FLOP, wat staat voor Floating Point Operation, is een elementaire
computerberekening.
https://epoch.ai/blog/training-compute-of-frontier-ai-models-grows-by-4-5x-per-year
t
https://koneksa-mondo.nl/2025/05/21/wat-ai-echt-kost-aan-energie/ e
n
https://www.technologyreview.com/2025/05/20/1116327/ai-energy-usage-climate-footprint-big- .
tech/amp/ o l
e
h
t
Volgens Google kost een vraag via hun AI-model het bedrijf 10 keer meer a
m
dan een traditionele Google-zoekopdracht. .
w
w
w
© 2025 Ivan De Winne ivan@mathelo.net 20

