Nvidia AI-chips overtreffen Wet van Moore

Paul Grieselhuber

Paul Grieselhuber

Jan 12, 2025

Nvidia's CEO Jensen Huang heeft een gewaagde uitspraak gedaan: de prestaties van Nvidia's AI-chips gaan vooruit in een tempo dat de historische maatstaf van de Wet van Moore overtreft. De uitspraak, gedaan tijdens een interview met TechCrunch op CES 2025, plaatst Nvidia in het centrum van wat Huang een nieuw "hyper Moore's Law" tijdperk noemt, waar de vooruitgang in AI-hardware het traditionele tempo van computerinnovatie ver overtreft.

De Wet van Moore, bedacht door Intel mede-oprichter Gordon Moore in 1965, voorspelde dat het aantal transistors op een chip ongeveer elke twee jaar zou verdubbelen, waardoor de prestaties effectief zouden verdubbelen. Dit hield tientallen jaren stand en zorgde voor een exponentiële toename in rekenkracht tegen dalende kosten. Maar in de afgelopen jaren is de Wet van Moore vertraagd, waardoor velen zich afvroegen of het tempo van innovatie afnam. Volgens Huang volgen de vorderingen van Nvidia op het gebied van AI-chips echter een heel ander traject.

Huang stelt dat het unieke vermogen van het bedrijf om te innoveren over de hele technologiestapel - van chiparchitectuur tot algoritmen - Nvidia in staat stelt om de traditionele grenzen van hardwareschaling te overschrijden. Tijdens zijn keynote op CES liet hij Nvidia's nieuwste superchip voor datacenters zien, de GB200 NVL72, die volgens hem 30 tot 40 keer sneller is in het uitvoeren van AI-inferentiewerklasten dan zijn voorganger, de H100.

Deze focus op inferentie is belangrijk. De AI-industrie verschuift van het trainen van enorme taalmodellen naar het optimaliseren van hoe ze presteren tijdens het gebruik in de echte wereld, ook wel inference genoemd. Het efficiënt op schaal uitvoeren van AI-modellen is duur en velen hebben zich afgevraagd of de kosten van inferentie de adoptie in de weg zullen staan. Het o3-model van OpenAI, dat een rekenintensief "test-time compute"-proces gebruikt tijdens inferentie, heeft geleid tot bezorgdheid over de toegankelijkheid vanwege de hoge operationele kosten.

Huang gelooft echter dat de chips van Nvidia dat probleem zullen oplossen. "Onze systemen gaan veel sneller dan de Wet van Moore," zei hij. "De directe en onmiddellijke oplossing voor testtijdcomputers, zowel qua prestaties als qua betaalbaarheid, is het vergroten van onze rekencapaciteit." Volgens hem zullen snellere chips de kosten van inferentie in de loop der tijd omlaag brengen, waardoor geavanceerde AI-modellen toegankelijker en schaalbaarder worden.

Dit verhaal komt overeen met de bredere bedrijfsstrategie van Nvidia. Bedrijven als OpenAI, Google en Anthropic vertrouwen zwaar op Nvidia-chips om hun modellen van energie te voorzien. Nvidia's dominantie in AI-hardware heeft het bedrijf een van de meest waardevolle bedrijven ter wereld gemaakt. De boodschap van Huang is duidelijk: Nvidia bevindt zich niet alleen in een positie om gelijke tred te houden met de vooruitgang van AI, maar om deze te leiden.

Ondanks het optimisme blijft er enige scepsis. AI-modellen die zwaar leunen op compute in testtijd zijn momenteel duur om te gebruiken. OpenAI besteedde bijvoorbeeld naar verluidt bijna $20 per taak met o3 om scores op menselijk niveau te halen in een algemene intelligentietest - een schril contrast met het maandelijkse abonnement van $20 voor ChatGPT Plus. Huang benadrukt echter dat prestatiedoorbraken zoals die te zien zijn in de nieuwste chips van Nvidia deze modellen na verloop van tijd betaalbaarder zullen maken.

Dit is niet de eerste keer dat Huang suggereert dat Nvidia de Wet van Moore aan het overtreffen is. In een podcast in november beschreef hij de snelle vooruitgang in AI-hardware als een vorm van "hyper Moore's Law". Op CES ging hij nog een stap verder en benadrukte hij de drie AI-schalingswetten die volgens hem de toekomst van AI-ontwikkeling zullen bepalen: pre-training (waarbij modellen leren van enorme datasets), post-training (het verfijnen van modellen voor specifieke taken) en test-time compute (waarbij AI-modellen taken in realtime verwerken).

Voor Nvidia gaat de focus op test-time compute niet alleen over het efficiënter maken van AI - het gaat over het fundamenteel veranderen van de economische aspecten van AI. "Hetzelfde wat de Wet van Moore deed voor de kosten van computers, zal ook gebeuren met inferentie," zei Huang. De onderliggende boodschap is dat naarmate AI-chips beter worden, het uitvoeren van complexe modellen zoals o3 steeds betaalbaarder wordt, wat nieuwe mogelijkheden biedt voor de toepassing van AI in zowel consumenten- als bedrijfstoepassingen.

Terugkijkend merkte Huang op dat de huidige AI-chips van Nvidia 1000 keer krachtiger zijn dan tien jaar geleden. Het is een onthutsende bewering die het tempo van de veranderingen in AI-hardware weergeeft. De uitdaging voor Nvidia is nu om ervoor te zorgen dat zijn innovaties niet alleen voorbehouden blijven aan high-end techbedrijven, maar ook toegankelijk worden voor bedrijven en particulieren.

Bij Rendr raakt deze evolutie van AI-hardware een gevoelige snaar. Het afgelopen jaar hebben we met eigen ogen gezien hoe de vooruitgang in AI-tools en -infrastructuur de manier waarop we software bouwen heeft veranderd. Wat begon als scepsis ten opzichte van het potentieel van AI in ontwikkeling veranderde snel toen we AI in onze workflow integreerden. De resultaten spreken voor zich: snellere MVP's, uitgebreidere oplossingen en, nog belangrijker, betere resultaten voor onze klanten.

Wat Huang beschrijft als "hyper Moore's Law" hebben we aan den lijve ondervonden. Met de tools die tegenwoordig beschikbaar zijn, aangedreven door chips zoals die van Nvidia, kunnen teamleden die geen ingenieur zijn complexe oplossingen bouwen met AI, waarbij ontwikkelaars meer optreden als coaches dan als traditionele programmeurs. Deze verschuiving naar AI-ondersteunde ontwikkeling gaat alleen maar sneller.

De belofte van de nieuwste doorbraken van Nvidia - het verlagen van de inferentiekosten en het verhogen van de prestaties - suggereert dat de barrières voor de adoptie van AI steeds lager zullen worden. Als de visie van Huang klopt, kijken we naar een toekomst waarin AI-gestuurde oplossingen alomtegenwoordiger en toegankelijker worden dan ooit tevoren. Het is een toekomst waar we ons actief op voorbereiden bij Rendr, waar AI niet langer slechts een hulpmiddel is, maar een kernonderdeel van hoe we bouwen, creëren en innoveren.

Referenties

  • Maxwell Zeff (2025). Nvidia CEO zegt dat zijn AI-chips sneller verbeteren dan de Wet van Moore. TechCrunch. Available online. Geraadpleegd op 12 januari 2025.
  • Isaak Kamau (2024). Test-Time Compute Scaling: Hoe je een LLM "langer kunt laten nadenken" over moeilijkere problemen zoals OpenAI's o1-model. Medium. Available online. Geraadpleegd op 12 januari 2025.
  • Kif Leswing (2024). Nvidia verdubbelt bijna omzet op sterke AI-vraag. CNBC. Available online. Geraadpleegd op 12 januari 2025.
Paul Grieselhuber

Paul Grieselhuber

Founder, President

Paul has extensive background in software development and product design. Currently he runs rendr.

Boek een kennismakingsgesprek met onze productexperts.

Ons team van experts in web- en mobiele applicaties kijkt ernaar uit om uw volgende project met u te bespreken.

Boek een gesprek 👋