Intel introduceert zijn derde generatie Intel Xeon Scalable-processors, net als nieuwe geheugen-, opslag- en field-programmable gate array (fpga)-oplossingen. Met de nieuwe producten moeten de ontwikkeling en het gebruik van ai- en analytics-workloads in datacenters, netwerken en intelligent edge-omgevingen versneld worden.
In totaal gaat het om elf nieuwe processoren, met basiskloksnelheden tussen de 2,3 en 3,1 gigahertz. De topmodellen beschikken over over 28 cores en kunnen 56 threads verwerken.
Intel positioneert de chips als geschikt voor ai-, analytics- en machine learning-toepassingen, zoals beeldclassificatie, aanbeveling-engines, spraakherkenning en taalmodellering. Dit onder meer door de introductie van een nieuwe instructieset: bfloat16. Dat is een compact numeriek format dat de helft van de bits gebruikt in vergelijking met het huidige FP32-formaat. Het biedt echter vergelijkbare modelnauwkeurigheid waarvoor quasi geen softwarewijzigingen nodig zijn. De toevoeging van bfloat16-ondersteuning versnelt de ai-training en de inferentieprestaties in de cpu.
Deep learning-frameworks met distributies die al voor Intel geoptimaliseerd zijn (zoals TensorFlow en Pytorch) ondersteunen bfloat16 al. Intel biedt ook bfloat16-optimalisaties in zijn OpenVINO-toolkit en de ONNX Runtime-omgeving.
Samen met de nieuwe cpu’s introduceert Intel ook nieuw Optane Persistent Memory. Deze biedt tot 4,5 TB geheugen per socket voor het beheren van data-intensieve workloads, zoals in-memory databases, virtualisaties, analytics en high power computing. Data opslaan kan dan weer op nieuwe Intel 3d nand-ssd’s. Deze bevatten Intel’s nieuwste triple-level cell (TLC) 3D NAND-technologie en een nieuwe, low-latency PCIe-controller.
Intel onthulde tot slot de nieuwe Stratix 10 NX-fpga’s. Het zijn de eerste voor ai geoptimaliseerde fpga’s van Intel. Ze bieden (her)configureerbare en schaalbare AI-acceleratie voor veeleisende applicaties, zoals natuurlijke-taalverwerking en fraudedetectie en komen met geïntegreerd high-bandwidth geheugen. De chips hebben ook nieuwe, voor ai geoptimaliseerde rekenblokken, die AI Tensor Blocks worden genoemd. Deze bevatten dichte arrays van vermenigvuldigers met lagere precisie, die veelal worden ingezet voor ai-modelberekeningen.