Geschatte leestijd - 7 minuten

In 2013 schreef ik in vanAnaloognaarDigitaal.nu dat de Digitale Revolutie ‘in een steeds hoger tempo doordendert, dankzij de voortdurende ontwikkeling van de rekenkracht van processoren.’ De Wet van Moore, elke twee jaar verdubbelt het aantal transistors op een chip, was het businessmodel van de chipindustrie al veertig jaar. Maar niemand kon destijds bevroeden wat dat tempo zou betekenen als het richtpunt niet meer de pc was, maar een neuraal netwerk dat taal, beeld en redenering imiteert.

AI Index 2026 geeft inzicht

De Stanford University publiceert jaarlijks de AI Index, een wereldwijd erkend rapport over de staat van kunstmatige intelligentie. Wanneer je de rapporten van 2017 tot en met 2026 naast elkaar legt, zie je geen geleidelijke groei. Je ziet een explosie. En die explosie raakt elke organisatie die serieus wil nadenken over haar toekomst.

Dit is geen theoretisch verhaal. Dit is de digitale keten in actie. Wie deze trends niet volgt, zo schreef ik destijds al, is letterlijk een Hansje Brinker die met zijn vingers in de dijk staat terwijl het water al over de rand klotst. De tijd van afwachten is definitief voorbij.

Fase 1 (2017–2019): De ontdekking van de schaal

Rekenkracht was er altijd al. Meten was de uitdaging.

In 2017 bestond de AI Index nog grotendeels uit prestatiemetingen en publicatiecijfers. Hoeveel papers werden er geschreven? Hoe goed scoorde een beeldherkenningssysteem? Compute, de pure rekenkracht die nodig is om een AI-model te trainen, was er impliciet altijd al. Maar werd nog niet als strategisch cijfer benoemd. AI-ontwikkeling was grotendeels academisch gedreven, verspreid en relatief bescheiden van schaal.

Dat veranderde in 2019 met het eerste harde getal: trainingscompute verdubbelt elke 3,4 maanden. Niet elke twee jaar, zoals Moore voorspelde voor transistors. Niet elke twaalf maanden, zoals de optimisten geloofden. Elke 3,4 maanden. Dat is een verdubbeling van zo’n 3,5 keer per jaar. Wie het wiskundige lef heeft om dit door te rekenen naar een decennium, begrijpt direct waarom de wereld van 2026 zo radicaal verschilt van die van 2016.

“Het is ongelofelijk hoe drastisch de wereld veranderd is sinds de introductie van de processor, maar nog veel boeiender is het om na te denken over de toekomst.”
— vanAnaloognaarDigitaal.nu, 2013

Wat in 2019 ook voor het eerst zichtbaar werd: de relatie tussen compute en resultaat is niet lineair, ze is exponentieel. Meer rekenkracht levert niet evenredig betere modellen op. Het levert overweldigend betere modellen op. Dat inzicht, de ‘scaling laws’, is de spil waarop de hele AI-industrie sindsdien draait.

Wat de data laat zien: 2017–2019

  • 2017: AI-ontwikkeling is academisch en versnipperd. Compute is impliciet aanwezig maar niet gemeten als strategisch cijfer.
  • 2019: Eerste harde getal, trainingscompute verdubbelt elke 3,4 maanden. Trainingstijd daalt van uren naar seconden voor bepaalde taken. Keerpunt: schaal wordt de dominante variabele in AI-prestatie.

Fase 2 (2020–2022): Compute wordt infrastructuur

De academische hobby wordt industriële ernst.

In 2020 en 2021 zette de industrialisering definitief in. Grote taalmodellen, GPT-3 is het symbool van dit tijdperk, vereisten rekenkracht op een schaal die universiteiten simpelweg niet konden financieren. Compute werd duur. Compute werd schaars. Compute werd een strategisch bezit in handen van de partijen die de GPU-clusters konden betalen: de techreuzen.

In Digitaal Vermogen (2018) schreef ik over de ‘gerobotiseerde sturing’ die eraan zat te komen. Ik beschreef hoe kunstmatige intelligentie onlosmakelijk verbonden is met data, met processen en met raamwerken die organisaties in staat stellen om te versnellen. Wat ik beschreef als toekomstperspectief was feitelijk al volop in gang, alleen de rekenkracht om het echt schaalbaar te maken, lag nog op de tekentafel.

De periode 2020–2022 bracht een tegenstelling die op het eerste gezicht paradoxaal lijkt: de kosten van AI-training daalden tegelijkertijd met de schaalvergroting. Volgens de AI Index daalden de trainingskosten tussen 2018 en 2022 met 63,6 procent. De trainingstijd daalde met 94,4 procent. Goedkoper én beter, terwijl de modellen exponentieel groter werden. Hoe is dat mogelijk?

Het antwoord ligt in de combinatie van betere hardware-architecturen, efficiëntere algoritmes en de massale overstap naar cloud-GPU’s. Compute werd niet alleen goedkoper per eenheid, de eenheden zelf werden radicaal productiever. Dit is precies de dynamiek die ik in 2013 al beschreef als het fundament van de digitale economie: technologie rendeert bij gebruik. En gebruik versnelt de volgende generatie technologie.

Wat de data laat zien: 2020–2022

  • 2020–2021: Compute verschuift van academisch experiment naar industriële infrastructuur. Grote modellen eisen GPU-clusters die alleen techbedrijven kunnen financieren.
  • 2022: Trainingskosten dalen 63,6% ten opzichte van 2018. Trainingstijd daalt 94,4%. Paradox: modellen worden groter én goedkoper tegelijk. Compute wordt schaars bezit én democratiseert in gebruik.

De Industriële Revolutie herhaalt zichzelf — maar sneller.

Laat ik hier een vergelijking trekken die ik eerder al maakte. De Industriële Revolutie maakte onze spierkracht overbodig. Machines namen het fysieke werk over. De huidige technologische revolutie automatiseert onze denkkracht. Dat is geen doemscenario, het is een ontwikkelingspad dat we al eerder hebben bewandeld. De vraag is nooit óf je meegaat, maar hoe snel.

Organisaties die in 2020–2022 wachtten op ‘meer duidelijkheid over AI’ verloren precies die twee jaar die beslissend zijn gebleken. Want wie niet begon met het organiseren van data, het doorbreken van silo’s en het bouwen van een raamwerk dat AI kan dragen, staat in 2026 met lege handen voor de deur van de frontier-modellen en die deur gaat niet open zonder fundament.

Fase 3 (2023–2026): Hyperscale, macht en infrastructuur

Compute bepaalt wie kan meedoen aan de wedstrijd.

In 2023 verscheen voor het eerst een metric die alles samenvat: de industrie domineerde AI-onderzoek met 32 nieuwe grote modellen, tegenover slechts 3 vanuit academische instellingen. De reden is simpel en hard: grote modellen vereisen ‘large amounts of compute, data, and money’. Dat is geen triviaal probleem. Dat is een structurele uitsluiting van iedereen die niet de schaal heeft om mee te doen.

Wat in 2013 begon als een democratiseringsbelofte, informatie voor iedereen, analytics voor iedereen, concentreerde zich in 2023 tot een oligopolie van compute. Wie de GPU-clusters bezit, bezit de frontier van AI. En wie de frontier bezit, bepaalt mede de spelregels.

In 2024 werden de eerste concrete trainingskosten gepubliceerd: GPT-4 kostte naar schatting 78 miljoen dollar om te trainen. Gemini Ultra: 191 miljoen dollar. Dit zijn geen softwareprojecten meer. Dit zijn ‘big science’-investeringen, vergelijkbaar met de bouw van deeltjesversnellers als de LHC bij CERN. De drempel om frontier-modellen te bouwen, ligt inmiddels buiten bereik van bijna elke organisatie buiten de top vijf techreuzen.

Wat de data laat zien: 2023–2024

  • 2023: 32 frontier-modellen vanuit de industrie vs. 3 vanuit de academische wereld. Compute = toetredingsbarrière tot de AI-top.
  • 2024: GPT-4-training ~$78 miljoen. Gemini Ultra ~$191 miljoen. Compute bereikt ‘big science’-schaal. AI-macht concentreert zich bij enkele techbedrijven.

2025–2026: Twee werelden die verder uiteendrijven.

In 2025 en 2026 splitst de wereld van AI-compute definitief in twee lagen. Bovenaan: hyperscale training, extreem duur, met een verdubbeling elke vijf maanden. Onderin: inferentie, het daadwerkelijk gebruiken van AI-modellen, wordt razendsnel goedkoper. Inferentie-kosten daalden tussen 2022 en 2024 met een factor 280. Hardware wordt elk jaar 30% goedkoper terwijl de efficiëntie met 40% stijgt.

De conclusie is helder: de kosten om AI te bouwen stijgen naar astronomische hoogtes. De kosten om AI te gebruiken dalen naar bijna nul. Voor organisaties die niet zelf frontier-modellen gaan trainen, en dat zijn vrijwel alle organisaties buiten Silicon Valley, is dit eigenlijk goed nieuws. De toegang tot AI-intelligentie is er. De rekening voor de infrastructuur eronder hoef je niet te betalen.

Maar dan moet je wel weten hoe je die intelligentie koppelt aan jouw data, jouw processen en jouw organisatie. En daar zit de echte uitdaging, niet in de rekenkracht zelf, maar in het raamwerk dat de rekenkracht bruikbaar maakt.

Wat de data laat zien: 2025–2026

  • Training compute verdubbelt elke ~5 maanden. Inferentiekosten daalden 280 keer tussen 2022 en 2024. Hardware: kosten −30%/jaar, efficiëntie +40%/jaar. VS: 5.427 datacenters. AI-supply chain afhankelijk van TSMC (Taiwan). Compute is nu geopolitiek, economisch en ecologisch kritisch.

Compute wordt geopolitiek. En dat raakt ook jou.

Het jaar 2026 markeert een keerpunt dat verder gaat dan bedrijfsstrategie. De VS telt inmiddels 5.427 datacenters. De wereldwijde AI-supply chain is afhankelijk van één chipfabrikant: TSMC, gevestigd op Taiwan. De energie- en waterconsumptie van de datacenterinfrastructuur heeft een ecologische voetafdruk die in beleidskringen niet langer genegeerd kan worden.

Compute is geen technologisch detail meer. Het is een geopolitieke variabele, een economische machtsfactor en een ecologische uitdaging tegelijk. Organisaties die AI als pure softwarekwestie zien, missen de fundamentele laag waarop alles rust: de fysieke infrastructuur van chips, datacenters en energienetten die de digitale wereld draaiende houdt.

Dit is precies de reden waarom ik in 2013 al schreef dat het volgen van ontwikkelingen in de wereld van processoren, apparaten en infrastructuur een vereiste is voor elke serieuze digitale strategie. Niet als technologisch hobbyisme. Maar als strategische basiskennis.

Wat dit betekent voor jouw organisatie

AI werkt alleen als de organisatie erop is gebouwd.

De AI-rekenkracht is er. De modellen zijn er. De toegang via API’s is er. De kosten voor gebruik zijn historisch laag. Alle ingrediënten liggen op tafel. Maar AI zonder georganiseerde data is als een Formule 1-motor in een karretje zonder wielen. Het mooiste stuk techniek dat je ooit hebt gezien — maar het rijdt nergens heen.

De winnende formule is niet: adopteer zo snel mogelijk de nieuwste AI. De winnende formule is: bouw een organisatie die AI kan dragen. Dat betekent data uit silo’s halen. Dat betekent processen digitaliseren tot op het niveau waarop ze automatisch aangestuurd kunnen worden. Dat betekent een raamwerk bouwen dat de vijf doelen van je organisatie verbindt met de data die dagelijks beschikbaar is.

De Industriële Revolutie maakte spierkracht overbodig. De Digitale Revolutie automatiseert denkkracht. De Intelligente Revolutie is nu echt begonnen. Denkkracht zonder context is nutteloos. En context zonder data is leeg. De organisaties die dat begrijpen en nu handelen, bouwen hun digitale vermogen. De rest kijkt toe, terwijl de rekenkracht zonder hen verder groeit.

“Gebruikmaken van de juiste definities en statistieken en het volgen van ontwikkelingen in de wereld van apparaten, infrastructuur en processoren zijn een vereiste voor de basis van een gedegen digitale strategie in de alsmaar groeiende digitale wereld die een uiterst revolutionair karakter heeft.”
Digitaal Vermogen, 2018

Tien jaar AI Index. Tien jaar data. Tien jaar onmiskenbare richting. De machine leert denken. De vraag is niet of jouw organisatie daarmee te maken krijgt. De vraag is of jij er klaar voor bent, maar of dat je nog steeds met je vingers in de dijk staat terwijl het water al over de rand klotst.

AI-rekenkracht in een tijdslijn

  • 2017: compute groeit, maar nog onder de radar
  • 2018: grotere modellen → impliciete compute groei
  • 2019: explosieve scaling wordt zichtbaar (3,4 maanden doubling)
  • 2020: compute wordt infrastructuur
  • 2021: compute wordt strategisch en duur
  • 2022: efficientie en schaal groeien tegelijk
  • 2023: compute bepaalt wie AI kan bouwen
  • 2024: kosten van frontier modellen exploderen
  • 2025: hyperscale + steeds minder inferentie-kosten
  • 2026: compute wordt geopolitiek en van vitaal belang

Op deze vragen geeft dit artikel antwoord


Hoe heeft AI-rekenkracht zich ontwikkeld van 2017 tot 2026?

Dit artikel doorloopt tien jaar AI Index-data in drie fasen, van academisch experiment tot hyperscale infrastructuur. En laat met concrete cijfers zien hoe trainingscompute, kosten en macht zich hebben ontwikkeld.

Wie bepaalt de spelregels in AI en waarom is dat een probleem?

Dit artikel toont aan dat compute is geconcentreerd bij een handvol techreuzen, dat de drempel om frontier-modellen te bouwen astronomisch is geworden, en dat dit geopolitieke, economische en ecologische consequenties heeft die elke organisatie raken.

Wat moet een organisatie nú doen om niet buitenspel te staan?

Dit artikel betoogt dat toegang tot AI-intelligentie er al is en goedkoop wordt, maar dat alleen organisaties die hun data georganiseerd hebben, silo’s doorbroken hebben en werken vanuit een raamwerk daar daadwerkelijk van kunnen profiteren.

Denis Doeland is digitaal strateeg en auteur van vanAnaloognaarDigitaal.nu (2013), EDM en de Digitale Wereld (2015) en Digitaal Vermogen (2018). Hij helpt organisaties navigeren door digitale transformatie via het Business Acceleration Framework.

JOUW DIGITAAL VERMOGEN LATEN GROEIEN? Gebruik het ABCD-principe! Lees hier meer ... Heb je vragen over digitale strategie en transformatie? Chat hier met de Denis Doeland | Virtuele Assistent. Direct contact nodig over jouw strategie en transformatie? Kijk hier …


Ontdek meer van Digitaal Vermogen

Abonneer je om de nieuwste berichten naar je e-mail te laten verzenden.

Denis Doeland http://denisdoeland.com

Slashie: Author, Blogger, Maven, Disruptor, Numerati and Transformer. Passion for IP/Data/Tech/Internet/Social Media and what's next ...

Wellicht vind je dit ook leuk

Meer door Denis Doeland

+ Er zijn geen reacties

Plaats jouw reactie

Plaats jouw reactie