De chipstrijd om kunstmatige intelligentie (ai) verhevigt: Intel komt met een nieuwe instructieset om machine learning te versnellen. Ondertussen speelt er een benchmarkruzie met Nvidia.
Intel voorziet zijn processors van speciale instructies voor het draaien van software die aan machine learning doet. Deze vorm van kunstmatige intelligentie (artificial intelligence, ofwel ai) is bezig aan een flinke opmars, waarbij lopende trends als big data, het internet of things (IoT) en ook social media een grote, aandrijvende rol spelen. Voor processorproducent Intel schuilt hierin zowel een groeimarkt on als ook een bedreiging.
Nieuwe markt, nieuwe aanpak
Machine learning en deep learning vereisen weliswaar flinke rekenkracht, maar daarbij kan ook een andere benadering veel opleveren. De standaard x86-architectuur zit wel enigszins vast aan de al jaren geldende compatibiliteit. Relatief nieuwe chipspelers als Google en ook Nvidia hebben geen last van deze bagage. De grafische processors (gpu’s) van Nvidia lenen zich al jaren goed voor zware rekenklussen zoals machine learning en het bedrijf heeft daarmee grote ambities.
De chipproducent maakt niet alleen gpu’s voor op andermans videokaarten en in andermans rekenmachines. Nvidia biedt zelf een kant-en-klare 3U-appliance voor machine learning. Daarbij levert het ook software-frameworks voor data-analyse zodat de appliance direct in gebruik valt te nemen. Ondertussen heeft Google speciale ai-chips (tensor processing units, tpu’s) zelf ontworpen en ook al in gebruik genomen. Deze tpu’s zijn echter voorbehouden aan Google zelf: de chips komen niet beschikbaar als product voor de externe markt.
Intel mikt natuurlijk wel op de grotere markt. De nieuwe ai-instructiesets komen echter niet naar alle x86-chips van de fabrikant. De instructies in de zogeheten AVX-512 familie zijn voor aankomende Xeon- en Xeon Phi-processors, weet The Register. Laatstgenoemde chips met enorme aantallen rekencores vormen een aparte productfamilie die is bedoeld voor supercomputing, en ook kunstmatige intelligentie. Daarvoor krijgen deze speciale processors, samen met Intels reguliere serverchips, aparte vector-instructies voor deep learning.
Basis voor de toekomst
Details en documentatie van deze nieuwe instructies moeten nog geopenbaard worden. Ontwikkelaars van Intel hebben al wel code ingediend voor de Linux-kernel waarmee die chipsupport voor de nieuwe ai-versnellende instructies kan detecteren en dan benutten. Het kan nog enige tijd duren voordat software de nieuw eai-steun benut; daarvoor moeten immers compilers en andere ontwikkeltools nog aangepast worden. Net zoals dat eind vorige eeuw nodig was toen Intel zijn eerste gespecialiseerde instructiesets (MMX en later SSE) introduceerde voor de versnelling van multimediacode.
In tegenstelling tot die oude tijden is de markt voor deze toepassingen grotendeels onontgonnen én voorzien van stevige concurrentie. De inzet is dan ook hoog en de strijd wordt stevig gevoerd. Zo heeft Intel op de toonaangevende HPC-conferentie (high performance computing) ISC 2016 straffe prestatieclaims neergezet voor zijn Xeon Phi-chips. Concurrent Nvidia heeft die benchmarkcijfers vervolgens gehekeld als onjuist en achterhaald.
Prestatieclaims
De geclaimde prestatieverbeteringen van de Xeon Phi in vergelijking met gpu’s zouden namelijk gebaseerd zijn op oude technologie. Dit geldt volgens Nvidia voor zowel de gebruikte benchmarkversie als ook de gpu waartegen de Phi wordt afgezet. Een actuele versie van de gebruikte benchmark (Caffe Alexnet) zou de geclaimde Intel-winst laten omslaan in een lichte Nvidia-winst en vergelijking met de huidige Pascal gpu-generatie zou een flinke Nvidia-winst geven.
Intel heeft in een reactie aan Ars Technica gesteld dat het begrijpelijk is dat Nvidia zich zorgen maakt over Intel in deze markt. Daarbij benadrukt de Xeon-processorproducent dat het zijn eerder gepubliceerde prestatieclaims ondersteunt. De kritiek van Nvidia wordt dus afgewezen. Het is nog niet bekend wat voor oppepper de aankomende ai-instructies van Intel gaan geven aan prestatieniveaus voor machine learning en het dieper gaande deep learning.