De opkomst van AI speelt een cruciale rol bij het analyseren van datacenter workloads. De technologie is inmiddels diep verweven met de strategische doelstellingen en werkwijzen van bedrijven. Toch blijven fundamentele opslagbeperkingen een obstakel voor succes.
De industrieën die hiermee te maken hebben zijn onder andere high performance computing (HPC), hyperconverged infrastructuur (HCI), media en entertainment productie en hyperscalers. De strategieën om dergelijke beperkingen te beperken kunnen echter variëren. In dit artikel worden deze oplossingen onderzocht en krijgen bedrijven aanwijzingen over de beste methoden om een robuuste storage architectuur te integreren in het ontwerp van hun datacenter.
Software gedefinieerde storage versus propriëtaire oplossingen
Een softwaregedefinieerde storage benadering heeft aanzienlijke voordelen ten opzichte van meer traditionele en bedrijfseigen storage toepassingen. Een propriëtaire aanpak, hoewel al vele jaren populair, heeft beperkingen in de vorm van hoge kosten, vendor lock-in en beperkte beschikbaarheid van oplossingen. Dit komt met name door de noodzaak om specifieke software te gebruiken in combinatie met de gebruikte hardware. Software-georiënteerde oplossingen omzeilen deze beperking met voor opslag geoptimaliseerde servers die speciaal gebouwde beheersoftware hosten, waardoor gespecialiseerde oplossingen voor een verscheidenheid aan workloads mogelijk zijn.
Deze oplossingen combineren scale-out parallelle bestandssystemen, objectopslag en scale-up netwerken. Ze maken gebruik van een optimale mix van workload-geoptimaliseerde solid-state en harde schijven voor een efficiëntere en meer op maat gemaakte levering. Daarnaast kunnen datacenters extra prestatievoordelen benutten door geavanceerde netwerk- en systeemtechnologieën te integreren. Denk aan RoCE (RDMA over Converged Ethernet), GPUDirect Storage (GDS), CXL (Compute eXpress Link) en PCIe Gen 5. Dit opent ook de deur naar nieuwe functionele mogelijkheden.
De juiste pasvorm vinden
Bedrijven kunnen de juiste opslagmix alleen vinden door te experimenteren. Daarom zijn robuuste solution engineering, testen en kwalificatie essentieel. Hoewel softwaregedefinieerde methoden theoretisch gezien elke combinatie van systeemhardware, opslagmedia, software en netwerken kunnen gebruiken, is de praktijk vaak anders. De specifieke combinatie moet worden getest en gevalideerd om te garanderen dat de werking in de praktijk betrouwbaar en consistent is. Dit is iets waar de overkoepelende solution architect en integrator rekening mee moet houden bij het toewijzen van resources.
Daarnaast moet de systeemarchitect ervoor zorgen dat hij de vinger aan de pols van de industrie houdt. Op de hoogte blijven van de snelle innovaties op het gebied van systeemarchitectuur, CPU-ontwerp, SSD- en HDD-ontwerp en -capaciteit, netwerken en opslagsoftware is van vitaal belang bij het kiezen van de juiste combinatie van hardware en software. Dit gebeurt vaak samen met de technologiepartners, waaronder de softwareleverancier, om optimale prestaties en kosten te realiseren.
Meer AI-denken
Gezien de alomtegenwoordigheid van AI in datacenters, moet elke opslagoplossing rekening houden met AI in de operaties, zelfs wanneer het niet de primaire workload is. Bijvoorbeeld, parallelle bestandssystemen zoals WEKA en DDN zijn ontworpen voor HPC- en AI-trainingsworkloads, terwijl enterprise-georiënteerde HCI-oplossingen van Nutanix AI-inferentieworkloads ondersteunen met ChatGPT-in-a-Box-functionaliteit. Daarnaast wordt objectopslagsoftware van DDN, Cloudian, Quantum en OSNexus zowel als capaciteitslaag voor parallelle bestandssystemen gebruikt, als direct ingezet voor AI-trainingsworkloads.
Kijken naar wat de toekomst in petto heeft… voor opslagoplossingen
Storage in datacenters zal altijd een belangrijk discussiepunt zijn voor hoe datacenters hun beperkingen kunnen overwinnen en een brug kunnen slaan naar meer veeleisende workloads. De implementatie van klantspecifieke enterprise AI-modellen en -toepassingen is een kritieke mijlpaal voor algemene AI-adoptie en -aggregatie, met als gemeenschappelijke factor hun enterprise data backbone. Om dit te vergemakkelijken, verwachten we dat bedrijven zullen kijken naar de adoptie van data lakes en lake-houses voor het aggregeren van data.
Kortom, naarmate de bronnen van bedrijfsgegevens blijven groeien en de noodzaak om AI-modellen in real-time bij te werken via event-driven frameworks toeneemt, zal meer geautomatiseerde data-orkestratie via geavanceerde beheersoftware van cruciaal belang zijn.
Wendell Wenjen, Director of Storage Market Development, Supermicro
Meer lezen