De drie schalingswetten van AI: voorbij de technische horizon

In mijn vorige artikel "Hebben we het plafond bereikt?" betoogde ik dat de huidige staat van AI-technologie voldoende is voor jaren aan ontwikkeling. Deze week, tijdens CES 2025, bood NVIDIA CEO Jensen Huang een fascinerend nieuw perspectief op de schalingswetten van AI die deze visie versterkt.

"De industrie jaagt en holt om kunstmatige intelligentie te schalen," observeerde Huang. Hij onthulde vervolgens dat er volgens hem niet één, maar drie fundamentele schalingswetten zijn die de evolutie van AI bepalen: pre-training, post-training, en test-timescaling.

De drie dimensies van groei

De eerste schalingswet (pre-training) is welbekend: meer data, grotere modellen en meer rekenkracht leiden tot betere prestaties. Maar Huang's inzichten over de twee aanvullende schalingswetten zijn bijzonder relevant voor onze huidige fase van AI-ontwikkeling.

Detweede wet, post-training schaling, draait om verfijning door menselijke feedback (beter bekend als RLHF), maar ook (synthetische) data. "Het is als het ware een mentor of een coach die je feedback geeft nadat je klaar bent met de les," legde Huang uit. Deze fase is cruciaal voor het ontwikkelen van domeinspecifieke expertise.

De derde wet, test-time scaling, is nog niet zo bekend. Het gaat over hoe AI systemen rekenkracht gebruiken—eigenlijk "nadenken" voordat ze antwoorden geven. Zoals Huang het verwoordt: "In plaats van directe inferentie kun je erover nadenken, het probleem in meerdere stappen opbreken." We hebben dit gezien met modellen die meer redeneren zoals OpenAI's o1 en o3.

Implicaties voor de praktijk

Naast de technische schalingswetten zien we ook een langzame ontwikkeling in de maatschappij. Naast de technische vooruitgang zien we dat er verschillende gradaties van implementatie en toepassing zijn. We zien dit in drie parallelle ontwikkelingen:

1.  De menselijkeexpertise in het werken met AI groeit gestaag

2.  Nieuwe domeinspecifieke toepassingen worden continuontdekt

3.  Sectoren die aanvankelijk terughoudend waren, beginnen nu te experimenteren

Dit verklaart waarom we, zelfs als de pre-training schalingswet zou afvlakken, nog steeds jaren aan innovatie voor onshebben. De andere twee schalingswetten bieden nieuwe wegen voor vooruitgang.

Een nieuw perspectief

We bevinden ons inderdaad op een technologisch kantelpunt, maar niet zoals velen denken. Het is niet zozeer een kwestie van pure rekenkracht of modelgrootte,maar van de synergie tussen deze drie schalingswetten en hoe mensen het inzetten. Huang's raamwerk helpt ons begrijpen waarom organisaties die AI succesvol implementeren vaak op alle drie deze fronten werken: ze trainen of finetunen modellen, verzamelen feedback, én optimaliseren hun prestaties.

Voor organisaties en professionals betekent dit dat de focus niet alleen moet liggen op het omarmen van de nieuwste modellen, maar op het ontwikkelen van expertise in alle drie deze dimensies van AI-schalen. De toekomst van AI-innovatie ligt niet alleen in de laboratoria van grote techbedrijven, maar ook in de creatieve toepassingen en implementaties in het veld.

By Author
Oscar Lepoeter
Category
Filosofie, ethiek en de sociale impact van AI
Published On
May 28, 2025
Share This On

Related Articles

Filosofie, ethiek en de sociale impact van AI

Technologie als hefboom voor intrinsieke motivatie

Intrinsiek gemotiveerde mensen blijven langer bevlogen. Lees hier hoe dat te werk gaat.
May 2, 2025
Read More
Filosofie, ethiek en de sociale impact van AI

Hebben we het plafond bereikt? Dat maakt niet uit, we kunnen nu al 10 jaar vooruit!

AI groeit misschien minder snel, maar er is nog veel onbenut potentieel voor komende jaren.
March 26, 2025
Read More
Filosofie, ethiek en de sociale impact van AI

De drie schalingswetten van AI

de drie schalingswetten van AI
March 26, 2025
Read More
© 2025 manava. Alle rechten voorbehouden.