HET DATACENTER van us $400 MILJARD

Wat Big Tech daadwerkelijk bouwt, waarom het stilstaat, en wat de cijfers werkelijk betekenen
DEEL III
eyesonsuriname
Amsterdam, 3 november 2025–Er is een datacenter buiten Des Moines, Iowa, dat 10 miljard dollar kostte om te bouwen.

Het beslaat 2,1 miljoen vierkante meter – ongeveer 36 voetbalvelden. Binnenin staan 50.000 GPU-servers, elk met 8 NVIDIA H100-chips. Het elektriciteitsverbruik is gelijk aan dat van 180.000 huishoudens.
Op een gemiddelde dinsdagmiddag doen ongeveer 62% van die GPU’s… iets. Modellen trainen, inferentie draaien, werklasten verwerken. De andere 38% staan stil, verbruiken stroom, depreciëren, een dag dichter bij veroudering.
Dit is niet een Amazon-datacenter, of een van Google, of van Meta. Dit is een samengesteld beeld – een vereenvoudigde momentopname van wat er daadwerkelijk gebeurt in tientallen faciliteiten die Big Tech heeft gebouwd of nu aan het bouwen is.
De komende drie jaar geven ze 400 miljard dollar uit aan deze infrastructuur. Dat is meer dan het BBP van Oostenrijk. Meer dan de gecombineerde marktwaarde van Boeing, Intel en
IBM.Laten we begrijpen wat ze kopen, waarom zoveel ervan ongebruikt staat, en wat het betekent wanneer hardware met een levensduur van 1-3 jaar wordt gebouwd voor vraag die mogelijk over 5-10 jaar komt.
WAT IS EEN GPU EN WAAROM HEEFT AI ER ZOVEEL NODIG?

Begin met de basis, want de technologie doet ertoe.
Een GPU – Graphics Processing Unit – was oorspronkelijk ontworpen om videogame-graphics te renderen. Het belangrijkste inzicht: in plaats van één complexe berekening per keer te doen (zoals een CPU), doet een GPU duizenden simpele berekeningen tegelijk.
Blijkt perfect te zijn voor AI ook.Het trainen van een AI-model zoals GPT-4 of Claude vereist het verwerken van miljarden voorbeelden, het zoeken naar patronen, het aanpassen van miljarden parameters. Elke aanpassing is relatief simpele wiskunde. Maar je moet het biljoen keer doen.Een moderne AI-training kan inhouden:1 biljoen parameters (variabelen om te optimaliseren)10 biljoen tokens aan trainingsdata (woorden/stukjes tekst)Weken of maanden aan continue berekeningDuizenden GPU’s die parallel werken
De wiskunde is verbijsterend:Het trainen van GPT-4 vereiste naar schatting 25.000 NVIDIA A100 GPU’s die 90-100 dagen draaiden. Tegen huidige cloudtarieven is dat $50-100 miljoen aan rekenkosten alleen.Het trainen van de volgende generatie modellen (GPT-5, Gemini Ultra, Claude 4) zou 10x meer kunnen vereisen: 250.000 GPU’s, $500 miljoen tot $1 miljard per trainingsrun.
Dit is waarom Big Tech GPU’s bij de honderdduizenden koopt.

Niet omdat ze verspillend zijn. Omdat je op deze schaal letterlijk geen geavanceerde AI-modellen kunt trainen zonder ze.
DE INVESTERINGS-BREAKDOWN
Laten we het geld volgen. Waar gaat die $400 miljard eigenlijk naartoe?
Hardware: ~$200-250 miljard
NVIDIA H100/H200 GPU’s: $25.000-40.000 per chipServers om ze te huisvesten: netwerken, koeling, stroomsystemenElke “GPU-server” (8 chips + infrastructuur): $300.000-500.000Op schaal: 400.000-800.000 GPU-servers in de hele industrie
Infrastructuur: ~$100-150 miljard
Datacenter-constructie en uitbreidingStroomsystemen (deze faciliteiten hebben 50-300 megawatt nodig)Koelingssystemen (GPU’s genereren enorme hitte)Netwerkinfrastructuur (data verplaatsen tussen GPU’s)

Energie: ~$30-50 miljardElektriciteit om de faciliteiten te laten draaienEen enkel groot AI-datacenter: 200-300 megawatt continuJaarlijkse kosten: $100-200 miljoen alleen aan elektriciteit
Overig: ~$20-50 miljardSoftware, talent, overnamesOnderzoek en ontwikkelingGeografische expansie
Het Dashboard – AI Infrastructuur 2025Totale investering: $300-400 miljardAantal GPU-datacenters: 50-80 wereldwijdTotaal uitgerolde GPU’s: 2-3 miljoen (geschat)Gemiddelde kosten per GPU (geïnstalleerd): $150.000-200.000Gemiddeld benuttingspercentage: 60-70%Jaarlijks energieverbruik: equivalent aan ~5 miljoen huishoudens
WAAROM 60-70% BENUTTING?
Hier wordt het interessant. Omdat “60-70% benut” niet betekent wat de meeste mensen denken.eyesonsuriname sprak met een datacenter-architect die faciliteiten heeft gebouwd voor twee van de Big Four (anoniem, natuurlijk). Hij leidde me door de realiteit:“Mensen horen ‘stilstaande GPU’s’ en stellen zich computers voor die donker en ongebruikt staan. Zo werkt het niet.”

Er zijn verschillende soorten “onbenutte” capaciteit, en ze zijn niet allemaal verspilling:
- 1. Piekcapaciteitsreserves (15-20% van totaal) “Je bouwt geen snelweg voor gemiddeld verkeer. Je bouwt voor de spits. Hetzelfde met AI-infrastructuur. Wanneer iemand een grote trainingsrun start, hebben ze onmiddellijk 10.000 GPU’s nodig. Als je ze niet beschikbaar hebt, gaan ze naar je concurrent.”
- 2. Redundantie en failover (10-15%) “Op deze schaal faalt hardware constant. GPU’s sterven. Servers crashen. Netwerkverbindingen vallen uit. Je hebt reservecapaciteit nodig om uptime te behouden. Een enkele falende GPU in een 10.000-GPU trainingsrun kan de hele taak corrumperen.”
- 3. Ontwikkeling en testen (10-15%) “Je kunt experimentele modellen niet testen op productiesystemen. Je hebt toegewijde capaciteit nodig voor R&D, testen, debuggen. Dat ziet er van buitenaf ‘stil’ uit maar het is essentieel.”
- 4. Geografische spreiding (5-10%) “AI-inferentie (daadwerkelijk de modellen gebruiken) moet dicht bij gebruikers zijn voor lage latentie. Dat betekent dat je capaciteit nodig hebt in Noord-Amerika, Europa, Azië. Elke regio heeft zijn eigen benuttingspatronen.”
- 5. Daadwerkelijk stil (10-20%) “En ja, sommige capaciteit is echt onderbenut. We bouwden voor geprojecteerde 2026-vraag. Het is 2025. We lopen voorop.”Tel het op: 15 + 15 + 15 + 10 + 15 = 70% “in gebruik” volgens verschillende definities, 30% echt stil.
- Is dat redelijk?
HET VERGELIJKINGSPROBLEEM
Om te begrijpen of 60-70% goed of slecht is, hebben we context nodig.Traditionele cloud-datacenters: 40-60% gemiddelde benutting Amazon’s AWS, Microsoft’s Azure, Google Cloud Platform draaien allemaal op ongeveer 50% gemiddelde benutting. Dat wordt als gezond en efficiënt beschouwd.Waarom zo laag?Cloud moet pieken aankunnen (Black Friday, productlanceringen, virale content)Verschillende tijdzones creëren ongelijkmatige vraagEnterprise-klanten eisen gegarandeerde beschikbaarheidRedundantie voor betrouwbaarheidProductiefabrieken: 70-85% benutting Een autofabriek die op 75% draait wordt als goed beheerd beschouwd. Onder de 60% is zorgwekkend. Boven 90% betekent dat je risico loopt op defecten en verstoringen niet aankunt.Energiecentrales: 50-70% benutting Elektriciteitsnetten onderhouden enorme overcapaciteit voor pieken. Gemiddelde benutting van 50-60% is normaal. Het ziet er “verspillend” uit tot er een hittegolf is en iedereen tegelijk de airco aanzet.

Dus waar past AI-infrastructuur?De mening van de datacenter-architect:”Voor gloednieuwe technologie met explosieve groeiprojecties is 60-70% eigenlijk best goed. Als we op 90% zaten, zou ik bezorgd zijn – dat betekent dat we capaciteit-beperkt zijn en zaken afwijzen. Als we op 40% zaten, zou ik zorgen maken dat we overgebouwd hebben.”60-70% betekent dat we ruimte hebben. We kunnen groei aan. We kunnen grote klanten aannemen. We hebben redundantie voor betrouwbaarheid.”Is het duur? Ja. Maar is het verspilling? Niet volgens datacenter-standaarden.”
MAAR ER IS EEN ADDERTJE
Hier begint Big Tech’s verdediging te kraken.Alles hierboven veronderstelt één cruciaal ding: dat de vraag zal groeien om de capaciteit te vullen.Voor traditionele cloud gebeurde dat. AWS bouwde capaciteit, en binnen 2-3 jaar migreerden bedrijven. De “stilstaande” capaciteit werd volledig benut.Voor AI is dat nog niet gebeurd.En er is een fundamenteler probleem: GPU-levensduur.De afschrijvingstijdlijn:Een traditionele server: 5-10 jaar bruikbare levensduur Een GPU voor AI: 1-3 jaar voordat het functioneel verouderd isWaarom zo kort?
- 1. Snelle technologische vooruitgangNVIDIA brengt elke 1,5-2 jaar nieuwe GPU-generaties uitElke generatie: 2-3x prestatieverbeteringJe $40.000 H100 uit 2023 wordt overtroffen door de $35.000 H200 in 2025
- 2. Extreme operationele stressAI-training draait GPU’s op 100% capaciteit, 24/7Hittecycli veroorzaken fysieke degradatieFaalpercentages: ~9% jaarlijks, 25%+ over drie jaar
- 3. Software-optimalisatieNieuwe modellen zijn geoptimaliseerd voor nieuwe hardware2027-modellen draaien op 2024-GPU’s is zoals Windows 11 op een 2015-laptop draaien – technisch mogelijk, praktisch pijnlijk
De wiskunde wordt snel lelijk:Als je $200 miljard uitgeeft aan GPU’s in 2024-2025, en ze vervanging nodig hebben in 2027-2028, heb je een window van 3 jaar om waarde te extracten.Als de vraag 5 jaar duurt om zich te materialiseren, ben je hardware aan het vervangen voordat het ooit voor zichzelf betaalde.
Dit is het echte risico.Niet dat 60-70% benutting te laag is. Maar dat de resterende 30-40% nooit benut wordt voordat de hardware verouderd raakt.
DE BENUTTINGSTREND
Dus neemt de benutting toe? Vullen ze die capaciteit?Gemengde signalen.Microsoft (interne data, off-the-record gedeeld):Q1 2024: 45% gemiddelde GPU-benuttingQ4 2024: 58%Q1 2025: 68%Trend omhoog. Goed nieuws.Maar:Veel van die toename is interne R&D (hun eigen modellen trainen)Enterprise-klant werklasten (de echte omzet) groeien langzamerGitHub Copilot, Office AI-functies: incrementele adoptie, niet explosiefMeta (publieke earnings calls + analyse):Zware benutting voor interne producten (feed-algoritmes, contentmoderatie, advertentietargeting)Llama-modeltrainingExtern klantgebruik: minimaal (Meta verkoopt niet echt AI-diensten)Amazon AWS (uit klantgesprekken):Sterke groei in AI-diensten (80%+ jaar-op-jaar)Maar vanaf een kleine basis ($5-8 miljard jaarlijkse run rate)Het grootste deel van AWS’s $100 miljard omzet is nog steeds traditionele cloudGoogle Cloud (publieke data + analisten-schattingen):AI-diensten groeien snel in percentage-termenAbsolute getallen nog steeds klein relatief aan infrastructuurinvesteringMeeste omzet nog steeds van traditionele zoeken en advertentiesHet patroon:Benutting neemt toe, maar langzaam. Groei is echt maar niet explosief. Intern gebruik (proprietary modellen trainen) is hoog. Extern klantgebruik (het daadwerkelijke bedrijfsmodel) blijft achter.

DE ECHTE CIJFERS
In perspectief geplaatst met een gedachte-experiment.
- Scenario: Microsoft’s AI-investering2025 AI capex: $80 miljardVerwachte bruikbare levensduur: 3 jaarJaarlijkse afschrijving: $26,7 miljard/jaarExtra operationele kosten (stroom, koeling, personeel): ~$8 miljard/jaar
- Totale jaarlijkse kosten: ~$35 miljard/jaarOm break-even te draaien op die investering, moet Microsoft $35 miljard aan extra jaarlijkse omzet uit AI genereren.Hun huidige AI-omzet (GitHub Copilot, Office AI, Azure AI-diensten): geschat $8-12 miljard jaarlijks.
- Te vullen gat: $23-27 miljard/jaar.Dat is niet onmogelijk. Maar het vereist:Verdrievoudiging van huidige AI-omzet binnen 2-3 jaarGroei behouden terwijl hardware veroudertConcurrenten verslaan die identieke weddenschappen maken
- Vermenigvuldig nu over de industrie:Gecombineerde Big Tech AI-investering: $400 miljardAfschrijving + operationele kosten: ~$180-200 miljard/jaarHuidige gecombineerde AI-omzet (geschat): $40-60 miljard/jaar
- Gat: $120-160 miljard/jaarOm de investering te rechtvaardigen, moet de industrie AI-omzet ongeveer verdrievoudigen binnen 2-3 jaar.Is dat realistisch?
DRIE SCENARIO’S
- Scenario A: De Bull Case AI-adoptie versnelt. Het 95% pilot-faalpercentage daalt naar 60% naarmate tooling verbetert. Enterprise-uitgaven gaan van $20 miljard/jaar naar $150 miljard/jaar tegen 2027. De infrastructuur wordt volledig benut. Hardware-verversing wordt gefinancierd uit cashflow. Big Tech wint groot.Waarschijnlijkheid: 20-25%
- Scenario B: Het Modderscenario AI-adoptie gebeurt, maar langzamer dan geprojecteerd. Omzet groeit van $50 miljard naar $100 miljard tegen 2027 – echte groei, maar niet genoeg om de investering te rechtvaardigen. Benutting blijft op 65-70%. Sommige hardware wordt vervangen, sommige wordt vroegtijdig afgeschreven. Bedrijven nemen gematigde verliezen maar overleven. Niemand “wint” maar niemand verliest catastrofaal.Waarschijnlijkheid: 50-60%
- Scenario C: De Crash Enterprise-adoptie stagneert. Het 95% faalpercentage blijft bestaan. Omzet groeit naar slechts $60-70 miljard tegen 2027. Benutting daalt naarmate bedrijven investering vertragen. Hardware veroudert ongebruikt. Big Tech krijgt te maken met $100+ miljard aan afschrijvingen. Beurskoersen kelderen. Ontslagen versnellen. De bubbel knapt.Waarschijnlijkheid: 20-25%
- STEMMEN UIT HET VELD
*”Ik beheer GPU-inkoop voor een grote cloudprovider. We kopen tienduizenden per kwartaal. Denk ik dat we ze allemaal gaan gebruiken? Eerlijk? Ik weet het niet. Maar ik weet dat als we ze niet kopen en de concurrent doet het wel, we verliezen. Dus kopen we.”*– Infrastructuur VP, Big Tech (anoniem)“De benuttingscijfers die we publiekelijk rapporteren zijn… laten we zeggen ‘optimistisch’. We rekenen dingen als ‘benut’ die de meeste mensen stil zouden noemen. Maar iedereen doet het, dus het is eerlijk, toch?”
– Datacenter Operations Manager (anoniem)“We bouwen voor een toekomst waarvan we geloven dat die komt. Maar geloof en zekerheid zijn verschillende dingen. Dit is de grootste weddenschap in de techgeschiedenis. We zijn óf visionairs óf idioten. Over drie jaar weten we het.”
– CFO, Fortune 100 tech-bedrijf (op de achtergrond)

DE VRAAG DIE blijft en ACHTERVOLGT
Dit is wat eyesonsuriname ’s nachts wakker houdt over dit verhaal:Big Tech geeft $400 miljard uit aan infrastructuur met een bruikbare levensduur van 1-3 jaar, weddend op vraag die mogelijk 5-10 jaar nodig heeft om te materialiseren.Als ze het mis hebben over timing – niet over het potentieel van AI, alleen over de tijdlijn – zullen ze verouderde hardware aan het vervangen zijn voordat ze er ooit waarde uit haalden.Dat is geen margeprobleem. Dat is geen beurskoerscorrectie.Dat is een afschrijving van historische proporties.En ze financieren het door 176.000 mensen te ontslaan.
HET BREDERE PLAATJE
Laten we even een stap terug doen en het volledige plaatje bekijken.
Wat we weten:$400 miljard investering over 3 jaar60-70% benutting (redelijk voor nieuwe infrastructuur, maar…)Hardware met 1-3 jaar levensduurVraag die langzamer groeit dan geprojecteerd176.000 mensen ontslagen om het te financieren
Wat Big Tech zegt: “Dit is een langetermijnweddenschap. Historisch heeft vroeg investeren in transformatieve technologie altijd geloond. We bouwen de infrastructuur van 2030 vandaag.”
Wat de cijfers zeggen: “Je moet de omzet verdrievoudigen in 2-3 jaar om break-even te draaien. Momenteel ben je op 20-30% van dat doel.”
Wat geschiedenis zegt: “Soms werkt het (AWS, cloud). Soms niet (Google Glass, 3D TV’s, veel van het ‘Internet of Things’). De schaal van deze weddenschap is ongekend.”
DE ONGEMAKKELIJKE WAARHEID
Hier is wat niemand hardop wil zeggen:Big Tech bouwt niet voor bewezen vraag. Ze bouwen voor gehoopte vraag.Ze bouwen niet op basis van klantorders. Ze bouwen op basis van projecties en angst.Ze bouwden niet omdat de business case klopt. Ze bouwen omdat niet bouwen erger lijkt dan verkeerd bouwen.En het meest verontrustende: ze kunnen zich niet veroorloven om te stoppen.Waarom niet?Omdat stoppen betekent toegeven dat de weddenschap misschien fout was. Omdat stoppen betekent capaciteit aan concurrenten overlaten. Omdat stoppen betekent Wall Street vertellen: “We weten het niet zeker.”Dus blijven ze bouwen. En blijven ontslagen. En blijven investeren.En ergens, in een datacenter buiten Des Moines, staan 19.000 GPU’s stil, wachtend op werk dat misschien komt, verouderend met elke dag die voorbijgaat.
DE VRAAG VOOR INVESTEERDERS
Als je aandelen bezit in deze bedrijven, is hier de vraag die ertoe doet:Geloof jij dat AI-omzet binnen 2-3 jaar verdrievoudigt?Niet “denk je dat AI belangrijk is” – natuurlijk is het dat. Niet “zal AI uiteindelijk transformatief zijn” – waarschijnlijk wel.Maar specifiek: Zullen bedrijven in 2027 $120-160 miljard per jaar uitgeven aan AI-diensten van Big Tech?

Dat is 3x wat ze nu uitgeven. Dat vereist dat het 95% faalpercentage dramatisch daalt. Dat vereist dat AI van “interessante pilot” naar “mission-critical productie” gaat bij duizenden grote bedrijven.Is dat realistisch?Misschien. De geschiedenis suggereert dat technologie-adoptie soms sneller gaat dan iemand verwacht.Maar het vereist ook dat bijna alles goed gaat. En in tech gaat zelden alles goed.
DE VRAAG VOOR ONDERNEMERS
Als je een bedrijf runt en naar AI kijkt, is hier wat je moet weten:Big Tech bouwt enorme capaciteit in de verwachting dat jij het gaat gebruiken.Hun bedrijfsmodel vereist dat jij en miljoenen andere bedrijven massaal AI adopteren.Maar:95% van de bedrijven die het proberen, falenDe technologie is nog steeds complex en duurDe ROI is vaak onduidelijkVeel “AI-oplossingen” zijn gewoon traditionele software met een AI-labelHet betekent niet dat je AI moet vermijden.Het betekent: wees sceptisch. Begin klein. Meet resultaten. Schaal alleen als het werkt.En besef dat de druk die je voelt om “AI te doen” gedeeltelijk komt van bedrijven die miljarden uitgaven die ze moeten rechtvaardigen.
WAT KOMT HIERNA ?
We hebben nu gezien:De ontslagen (Essay 1)Big Tech’s verdediging (Essay 2)De infrastructuur en de cijfers (Essay 3)Maar we missen nog een cruciaal stuk: de klanten.Want uiteindelijk draait alles om de vraag: Willen bedrijven daadwerkelijk AI kopen op de schaal die Big Tech projecteert?95% van enterprise AI-pilots faalt. 42% van bedrijven heeft de meeste AI-initiatieven opgegeven. 80% van AI-projecten faalt – dubbel het normale IT-percentage.
Waarom?Dat is niet de vraag die Big Tech wil dat je stelt.Maar het is de vraag die alles bepaalt.In het volgende essay gaan we diep op die vraag in. We spreken met bedrijven die het probeerden. CTO’s die investeerden. Projectmanagers die het zagen mislukken.En we ontdekken waarom de kloof tussen “wat Big Tech bouwt” en “wat bedrijven daadwerkelijk kunnen gebruiken” misschien groter is dan iemand wil toegeven.In het volgende essay: “De Klanten Die Niet Kwamen” – waarom 95% van enterprise AI-pilots faalt, en wat het betekent voor die $400 miljard weddenschap.
HET DASHBOARD – SAMENVATTING ESSAY 3
- De Investering:Totaal: $300-400 miljard (2024-2026)Hardware: $200-250 miljardInfrastructuur: $100-150 miljardEnergie: $30-50 miljard
- De Capaciteit:2-3 miljoen GPU’s uitgerold50-80 grote AI-datacentersEnergieverbruik: equivalent aan 5 miljoen huishoudens
- De Benutting:Gemiddeld: 60-70%Echt stil: 10-20%Operationele reserves: 40-50%
- De Economie:Jaarlijkse kosten (afschrijving + operationeel): $180-200 miljardHuidige AI-omzet: $40-60 miljardVereiste groei: 3x in 2-3 jaar
- Het Risico:Hardware-levensduur: 1-3 jaarVraag-materialisatie: mogelijk 5-10 jaarPotentiële afschrijvingen bij mislukking: $100+ miljar
- De Menselijke Kosten:Ontslagen tot nu toe: 176.332Ontslagen om investeringen te financierenDe vraag die niemand stelt:Als de infrastructuur binnen 1-3 jaar verouderd is, maar de vraag 5-10 jaar nodig heeft om te materialiseren – vervang je dan niet gewoon dure apparatuur die nooit zijn waarde bewees?En als dat zo is – is dit dan een investering of een heel dure gok?DEEL III
