Overslaan en naar de inhoud gaan
(advertentie)

Datacenters kosten veel stroom door AI, dat kan anders

Man zit op stenen blok, met ketting vast aan grote kogel met tekst 'Stockholm Syndrom'
Gegijzeld door MS Office lijden overheid en het bedrijfsleven aan een vorm van Stockholm-syndroom. | Beeld: Shutterstock

Martijn Aslanders artikel over de vermeende data-explosie, liever gezegd dataduplicatie-explosie, was voer voor flink wat discussie op LinkedIn. Met name uit de hoek van mensen die veel verstand hebben van datacenters, rekenkracht, energiebehoeften en infrastructuur. Hij komt echter nu tot een nog verdergaande conclusie. AI-modellen verbruiken die enorme hoeveelheden rekenkracht omdat ze zoveel parameters hebben. Maar waarom? Het antwoord op deze vraag ligt niet in de hardware maar in de data.

Het zijn legitieme perspectieven die serieus genomen moeten worden: AI-modellen verbruiken enorme hoeveelheden rekenkracht, die rekenkracht draait op GPU-clusters, en die clusters staan in datacenters die stroom slurpen. Dat raakt direct aan de overbelasting van ons stroomnet en de duurzaamheidsopgave.

Ik leer graag en dook er nog veel dieper in. Want er zijn duidelijk meerdere elementen die meewegen in dit discours. Ik werd aangenaam verrast door alles wat ik tegenkwam en leerde. En kwam tot een conclusie die verder gaat dan mijn vorige artikel: datacenters zijn ook niet nodig vanwege de gepercipieerde toegenomen behoefte aan rekenkracht. Dat kan veel handiger en slimmer. Maar dat vereist wel een paradigmaverschuiving in onze benaderingswijze en ons denken. Eentje die al heel hard nodig is en al veel langer, gezien de maatschappelijke impact ervan.

De oorzaak van de rekenhonger

Het heersende narratief voor de stroomhonger van AI is dat modellen nu eenmaal groot moeten zijn. GPT-4 heeft naar schatting honderden miljarden parameters, de volgende generatie wordt weer groter, en grotere modellen presteren beter. Althans, zo luidt het verhaal. De vraag is waarom die modellen zoveel parameters nodig hebben, en het antwoord ligt niet in de hardware maar in de data.

We slaan informatie op in bestanden die bedoeld zijn voor printers

Tachtig procent van alle organisatiedata is ongestructureerd: e-mails, documenten, PDF’s, presentaties en spreadsheets vormen het overgrote deel. Een van de merkwaardigste ontwikkelingen van de afgelopen twintig jaar is dat we de hele dag met computers werken, maar informatie opslaan in bestanden die bedoeld zijn voor printers. Word en PDF zijn presentatieformaten, ontworpen om er op papier goed uit te zien. Wij gebruiken ze als opslagformaat voor levende informatie. De balans tussen menselijke toegankelijkheid en machinale verwerkbaarheid is volledig doorgeslagen naar één kant.

Het gevolg is dat een AI-model door de bomen het bos niet meer ziet en veel meer parameters en brute rekenkracht (en dus stroom en water) nodig heeft om te raden wat woorden betekenen. De informatie anders opslaan zou dit probleem grotendeels oplossen.

Meer structuur, minder rekenkracht nodig

Het omgekeerde is ook waar: niet toevallig investeren de grote AI-labs steeds meer in ontologieën, gestructureerde systemen die vastleggen wat dingen zijn en hoe ze zich tot elkaar verhouden. Ze ontdekken wat informatiedeskundigen al decennia weten, namelijk dat structuur de noodzaak voor brute rekenkracht vermindert. In mijn eigen werk merk ik dat dit precies het verschil is tussen mij en veel andere AI-gebruikers. Mijn data is gestructureerd en die van hen niet, waardoor ik snel, effectief en energiezuinig met AI kan werken zonder de grootste modellen nodig te hebben.

Op deze manier ontstaat dus een vicieuze cirkel. Ongestructureerde data vereist grotere modellen, grotere modellen vereisen meer GPU-clusters, en die clusters staan in datacenters die stroom kosten en water verbruiken. De gangbare analyse richt zich op de laatste schakels van deze keten, maar de oorzaak ligt aan het begin.

Het bewijs dat het anders kan

In januari 2025 bracht het Chinese DeepSeek een model uit dat qua prestaties vergelijkbaar is met de beste westerse modellen, maar met een fractie van de rekenkracht. DeepSeek-V3 kostte 2,8 miljoen GPU-uren om te trainen, terwijl Llama 3 van Meta 30,8 miljoen GPU-uren nodig had, elfmaal zoveel. De trainingskosten bedroegen ongeveer 5,6 miljoen dollar, terwijl GPT-4 naar schatting tussen de 50 en 100 miljoen kostte.

Microsoft Research ging nog een stap verder met hun Phi-modellen. Phi-1 heeft slechts 1,3 miljard parameters en presteert vergelijkbaar met modellen die tien keer zo groot zijn. Het verschil zit in de trainingsdata: zorgvuldig gecureerd en didactisch opgebouwd in plaats van alle rommel van het internet. De grootte van een model compenseert voor de kwaliteit van de data. Curatie bij training en structuur bij gebruik zijn verschillende ingrepen, maar ze delen hetzelfde principe: hoe minder ruis een model moet doorwerken, hoe minder rekenkracht het nodig heeft om tot betekenis te komen.

Apple toont hoe dit op schaal werkt. Hun on-device foundation model heeft slechts 3 miljard parameters maar presteert beter dan grotere modellen zoals Mistral-7B en Llama-3-8B. Het draait lokaal op iPhones, zonder datacenter, dankzij slimme compressie en architectuuroptimalisaties die het model klein genoeg maken voor een telefoon. Met anderhalf miljard actieve iPhones wordt dit het grootste gedistribueerde AI-netwerk ter wereld, en het verbruikt een fractie van de energie die een gecentraliseerde oplossing zou kosten.

Complexiteit is te vaak een verdienmodel, het is tijd om dat te doorbreken

Huidige modellen niet houdbaar

Hier tekent zich een paradox af. Big Tech verdient aan cloud-afhankelijkheid, want hoe meer data organisaties in hun datacenters stoppen, hoe hoger de rekening en hoe lastiger het wordt om over te stappen naar een concurrent. Maar diezelfde bedrijven investeren via hun research-afdelingen in het tegenovergestelde. Apple zet in op on-device AI: zoveel mogelijk lokaal, en waar dat niet kan via eigen servers met strikte privacy-architectuur. Microsoft Research publiceert Phi en ondermijnt daarmee hun eigen Azure-model. Google investeert in edge computing. Ze doen dit omdat ze weten dat het huidige model niet houdbaar is. Energiekosten stijgen, regelgeving komt eraan, en DeepSeek heeft bewezen dat een buitenstaander met minder rekenkracht kan concurreren. China had door exportbeperkingen op chips geen keuze en moest wel efficiënter worden, wat laat zien dat de markt nog niet heeft gekozen voor datacenters als enige weg. De beweging richting edge computing en lokale AI groeit.

Persoonlijk experiment

En dan is er mijn eigen experiment. ThetaOS is mijn persoonlijk informatiesysteem: ruim 329.000 records, 256 tabellen, 145 megabyte aan gestructureerde data over twintig jaar aan notities, contacten, projecten en artikelen. Het draait lokaal op een MacBook en zoeken duurt milliseconden, omdat elke record een type, relaties en metadata heeft waardoor de computer niet hoeft te raden wat iets betekent.

ThetaOS bewijst niet dat het makkelijk is om de Belastingdienst te herstructureren, maar wel dat de data zelf niet het probleem is. 150 megabyte voor twintig jaar aan kenniswerk, en als je dat vermenigvuldigt met honderdduizend ambtenaren heb je 15 terabyte, wat op één harde schijf past. De complexiteit zit niet in de schaal maar in de organisatie, en organisatie is een keuze.

Het waren deze experimenten die me deden beseffen hoe verschrikkelijk snel eenvoudig gestructureerde data kan zijn. Als ik dit zonder enige programmeerervaring voor elkaar krijg, waarom is IT dan zo ingewikkeld? Felienne Hermans opende me vorig jaar de ogen op de KNVI-conferentie toen ze zei: we hebben IT onnodig mystiek en complex gemaakt. In haar Volkskrant-column schreef ze over het machismo dat zich verschuilt achter complexiteit. Ik ben het daar hartgrondig mee eens. Complexiteit is te vaak een verdienmodel, het is tijd om dat te doorbreken.

Alternatieven verkennen

Die complexiteit vertroebelt ook het zicht op waar we naartoe gaan. Steve Jobs citeerde graag ijshockeyspeler Wayne Gretzky: je moet niet schaatsen naar waar de puck nu is, maar naar waar die naartoe gaat. De datacenterplannen van vandaag schaatsen naar de puck van gisteren. De ontwikkelingen rondom AI zijn duizelingwekkend. Gegeven de enorme problematiek rondom waterverbruik, stroomverbruik en brute rekenkracht doen we er verstandig aan alternatieven te verkennen. En dat gebeurt over de hele wereld. Wie die ontwikkelingen nauwkeurig volgt, ziet een duidelijke tendens: kleinere modellen in combinatie met gestructureerde data.

Investeren in datacenters zonder de informatie-architectuur te verbeteren is symptoombestrijding

Het mooiste bewijs komt uit de sector zelf. In het Stratix-rapport “Digitale drivers in de MRA” over de Metropoolregio Amsterdam wordt Royal FloraHolland beschreven als succesverhaal van een digitaal ecosysteem dat “wereldwijd toonaangevend” is. De bloemenveiling ontwikkelde een coderingssysteem dat elke bloem tot in detail beschrijft: soort, kleur, steellengte en meer. Die codes werden in Nederland ontwikkeld en zijn de facto wereldstandaard geworden. Omdat deze data gestructureerd is kan de veiling nu over locaties heen plaatsvinden. De informatie-architectuur bepaalt nu hoe de fysieke infrastructuur wordt ingezet.

Wat te doen?

De rekenhonger van AI heeft meerdere oorzaken. Maar als informatie-architectuur er één van is, en de voorbeelden van DeepSeek, Microsoft Phi en Apple laten zien dat het een significante is, dan is investeren in datacenters zonder die architectuur te verbeteren symptoombestrijding.

De vraag die beleidsmakers moeten stellen is niet alleen hoeveel datacenters we bouwen, maar waarom die datacenters nodig zijn. Er is geautomatiseerd, maar niet geïnformatiseerd. De hamvraag is: hoe zorgen we dat organisaties hun informatie beter structureren?

Concreet zou de overheid kunnen beginnen bij zichzelf. Stop met informatie opslaan in Word-documenten die bedoeld zijn voor een printer, niet voor een computer. Dat is een grotere bron van ellende en AI-afhankelijkheid dan wordt aangenomen.

De vraag “maar wat is het alternatief voor Word?” verraadt het probleem. Buiten de geïnstitutionaliseerde wereld zijn miljoenen mensen dagelijks bezig met tools als Obsidian en Notion: leesbare, doorzoekbare informatie die net zo goed werkt op een smartphone als op een beeldscherm. Deze alternatieven hebben wereldwijd een miljoenen publiek, actieve gebruikers en ze halen de mensen in de formele geïnstitutionaliseerde organisaties inhoudelijk links en rechts in, domweg omdat ze sneller bij hun informatie en kennis kunnen. Maar de overheid en het bedrijfsleven lijden aan een vorm van Stockholm-syndroom: zo lang gegijzeld door MS Office dat ze niet meer kunnen bedenken dat het anders kan, laat staan dat het anders moet.

FloraHolland werd wereldmarktleider door bloemen te coderen, niet door hallen te bouwen

Investeer in ontologieën en metadata, behandel informatie-architectuur als strategisch vraagstuk in plaats van als IT-kostenpost, en stel bij nieuwe systemen als eis dat data gestructureerd en machine-leesbaar moet zijn.

FloraHolland deed het met bloemen, biologisch bederfelijke waar met duizenden variëteiten, real-time prijsvorming en mondiale logistiek, en de Belastingdienst zou het kunnen doen met toeslagen, waar jaarlijks vastgestelde regels worden toegepast op gestructureerde gegevens. Dat laatste voelt misschien complexer, maar de realiteit is waarschijnlijk omgekeerd.

Het infrastructuurperspectief heeft gelijk binnen zijn paradigma, maar de praktijk bewijst dat het niet het enige paradigma is. FloraHolland werd wereldmarktleider door bloemen te coderen, niet door hallen te bouwen. Wie de informatie-architectuur beheerst, heeft een keuze. Wie dat niet doet, bouwt datacenters die misschien nooit nodig waren geweest.

Bronnen

Plaats een reactie

U moet ingelogd zijn om een reactie te kunnen plaatsen.

Melden als ongepast

Door u gemelde berichten worden door ons verwijderd indien ze niet voldoen aan onze gebruiksvoorwaarden.

Schrijvers van gemelde berichten zien niet wie de melding heeft gedaan.

(advertentie)

Bevestig jouw e-mailadres

We hebben de bevestigingsmail naar %email% gestuurd.

Geen bevestigingsmail ontvangen? Controleer je spam folder. Niet in de spam, klik dan hier om een account aan te maken.

Er is iets mis gegaan

Helaas konden we op dit moment geen account voor je aanmaken. Probeer het later nog eens.

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in

Maak een gratis account aan en geniet van alle voordelen:

Heb je al een account? Log in