Opnieuw steelt Nvidia de show tijdens de Computex-beurs in Taipei, het jaarlijkse evenement waar aankondigingen op chipgebied vallen. Topman Jensen Huang presenteerde een routekaart van de ai-accelerators die worden gebruikt voor het trainen en ontwikkelen van grote taalmodellen. Blackwell, de opvolger van huidige ai-krachtbron H200, is nog niet eens in productie of Nvidia onthult al een nieuwe generatie.
Na de Blackwell-reeks komt in 2026 een nieuwe generatie ai-chips die de benaming Rubin krijgt. Dit ai-platform onderscheidt zich door het gebruik van HBM4 (High Bandwidth Memory 4), een nieuw soort geheugentechnologie die twee keer zo snel is dan zijn voorganger en een 2048-bit interface kent. Verder komt een NVLink 6 Switch aan boord, die draait op een snelheid van 3.600 GB per seconde. Volgens Huang leidt de toepassing van HBM4 in ai-chips tot een nieuwe sprong op gebied van ai. Na Rubin komt Rubin Ultra (in 2027).
Huang geeft hiermee aan dat jaarlijks een nieuwe generatie ai-chips uitkomt. Net als Intel in zijn beste jaren kunnen afnemers op een soort cyclus rekenen die lijkt op het tick-tock model waarbij een verandering in microarchitectuur wordt opgevolgd door een nieuwe procestechniek. Tussen 2007 en 2016 kwam er elke 1 tot 1,5 jaar een nieuwe generatie processors uit. Nvidia heeft niet alleen de voortrekkersrol van Intel overgenomen, maar ook het voorbeeld van een vaste cyclus.
De chipontwerper, na Microsoft en Apple de duurste onderneming ter wereld, levert meer dan 80 procent van de ai-chips voor datacenters. Nvidia levert behalve de chips ook de netwerkapparatuur en andere hardware die nodig is voor wat Huang ‘ai-fabrieken’ noemt.
Neurale processors
Na Nvidia trekt AMD tijdens Computex de aandacht. Anders dan Nvidia levert AMD de neurale processors voor de nieuwe ai-ready-pc’s. Qualcomm was de eerste die hiermee kwam, binnenkort volgt AMD.
De Amerikaanse chipontwerper lanceert ook ai-chips (Instinct-serie) voor datacenters en het trainen van grote taalmodellen. AMD-topvrouw Lisa Su meldt dat ai-chips voor haar bedrijf de hoogste prioriteit hebben. De verwachting is dat AMD op dit gebied de nummer twee achter Nvidia kan worden. Volgend jaar brengt AMD de MI350 uit, gebaseerd op een nieuwe chiparchitectuur en 35 keer krachtiger is dan de huidige MI300. In 2026 komt de MI400 uit, die de nieuwe Next-architectuur als basis krijgt.
Ook Intel dingt op de gpu-markt mee met de Gaudi 2- en Gaudi 3-accelerators. De voormalige marktleider hanteert tegenover Nvidia en AMD het prijswapen om een stuk van deze markt mee te kunnen pikken. Volgens Intel kost een standaardkit met acht Gaudi 2-ai-accelerators (65.000 dollar) voor het trainen van ai-modellen slechts een derde van concurrerende kits. Een kit met acht Gaudi 3-ai-accelerators (125.000) kost zo’n twee derde van de prijs van de concurrentie.
Voor ai-werkbelastingen in datacenters lanceert Intel de Xeon 6. De eerder genoemde Gaudi’s zijn volgens Intel goed te combineren met deze nieuwe Xeon 6-processoren die ook energiezuinig zijn. Ze maken ai sneller, goedkoper en meer toegankelijk, stelt Intel. Ook doet de opgekrabbelde fabrikant een gooi naar de markt voor ai-pc’s. In dit verband onthult Intel de Lunar Lake-client-processorarchitectuur. Lunar Lake moet vergeleken met de vorige generatie processors. Intel introduceert daarmee een brede reeks processors voor het hele ai-ecosysteem, variërend van datacenters, de cloud en netwerken tot edge computing en pc’s.
Ook de Britse chipontwerper Arm verwacht veel van de ai-markt. Topman Rene Haas verwacht eind volgend jaar al honderd miljard Arm-apparaten die klaar zijn voor ai.