Google en Intel hebben tijdens de jaarlijkse Cloud Next-conferentie in Las Vegas nieuwe chips aangekondigd. Google komt met Axion, een op maat gemaakte Arm-gebaseerde chip voor servers, terwijl Intel met de nieuwe ai-chip Gaudi 3 de aanval op koploper Nvidia inzet. De stap moet beide techbedrijven voorop of in ieder geval langszij in de chip-race brengen.
Google positioneert zijn nieuwe processor als een cpu voor algemeen gebruik. Axion kan een breed scala van taken aan, waaronder ook webserving en de verwerking van niet al te zware ai-taken. Het is de bedoeling dat Axion vooral in datacenters terechtkomt, niet alleen in die van Google zelf maar ook in die van concurrenten. De zoekmachinegigant, na AWS en Microsoft de grootste cloud-aanbieder, beweegt zich daarmee meer en meer op het terrein van Intel en AMD.
Terwijl Google veel investeert in eigen hardware, moet het echter nog altijd zonder een echt grote knaller op gebied van ai doen. Tijdens Cloud Next liet ceo Thomas Kurian tal van innovaties uit de afgelopen acht maanden de revue passeren. Hij zei dat Google sinds de vorige Next-conferentie meer dan duizend productverbeteringen heeft doorgevoerd. Bovendien heeft Google de wereldwijde infrastructuur voor zijn cloud uitgebreid tot veertig regio’s. Investeringen in nieuwe onderzeese kabels moeten zorgen voor minimale vertragingen (low latency) in het netwerk dat klanten waar ook ter wereld met de Google Cloud verbindt. Op ai-gebied introduceerde Google zijn nieuwe Gemini-taalmodellen waarmee de strijd met OpenAI’s GPT-4 wordt aangegaan.
Volgens Kurian zijn meer dan zestig procent van de ai-startups en negentig procent van de generatieve ai-unicorns (met een waarde van meer dan een miljard dollar) klant van Google Cloud. Anthropic, AI21 Labs, Contextual AI, Essential AI en het Franse Mistral AI gebruiken Google’s infrastructuur.
De Google-ceo wees ook op de ‘connected ai agents’ die de mogelijkheden van generatieve ai tot leven brengen. Deze agenten helpen gebruikers bepaalde doelen te bereiken zoals het vinden van de perfecte kleding voor een huwelijk. Ze begrijpen en kunnen overweg met multi-modale informatie zoals video, audio en tekst uit verschillende bronnen. Deze agenten doen in de loop van de tijd steeds meer kennis op en vergemakkelijken bepaalde transacties en bedrijfsprocessen. Kurian noemde ING Bank als klant die de voordelen van deze agenten gaat benutten.
Maar om alles goed te laten werken zijn een ai-geoptimaliseerde infrastructuur, modellen en platforms nodig. Dat betekent de inzet van een ai-hypercomputer, een architectuur die krachtige tpu’s, gpu’s en ai-software combineert om efficiënt en kosteneffectief modellen te trainen en te bedienen. Kurian ging gedetailleerd in op de chips, opslagopties en de Google Distributed Cloud die hiervoor worden ingezet. Google’s nieuwe chipvariant tpu v5p moet twee keer zo snel werken als zijn voorganger. Maar een echt grote aankondiging bleef gisteren uit.
Schaduw
Intel dat de laatste jaren in de schaduw leeft van Nvidia, deed dat wel met de ai-chip Gaudi 3. Volgens Intel kunnen bepaalde ai-systemen hiermee de helft sneller worden getraind dan met de H100-processor van Nvidia. Die H100 is het werkpaard bij de verwerking van gegevens voor generatieve ai. Maar Nvidia heeft met de H200, die veel geavanceerder geheugen levert, alweer een opvolger in huis.
Intel denkt dat Gaudi 3 commercieel een succes zal worden omdat de afnemers meer keuze willen hebben. Vergeleken met zijn voorganger Gaudi 2 biedt de nieuwe ai-accelerator vier keer zoveel verwerkingskracht op ai-gebied, anderhalf keer meer geheugenbandbreedte en een dubbele netwerkbandbreedte. Intel spreekt van een aanzienlijke sprong in prestatie en productiviteit voor ai-training en gevolgtrekking op populaire grote taalmodellen en multimodale modellen.