Als we het in de ict-branche over convergentie hebben, gaan onze gedachten al snel uit naar multifunctionele apparaten die een printer, kopieermachine en scanner in zich verenigen, of een combinatie van spraak en ip-communicatie zoals VoIP. We zien de trend van convergentie niet alleen terug in nieuwe producten, maar ook in de marktontwikkelingen.
Steeds meer leveranciers fuseren. Deze consolidatieslag is bedoeld om te kunnen voorzien in de nieuwe geconvergeerde realiteit. Ook moeten traditionele leveranciers het veld ruimen voor innovatieve nieuwe spelers. Degenen onder ons die aan de leverancierskant van de ict-branche opereren, houden zich over het algemeen minder bezig met de gevolgen die convergentie heeft voor de mensen die met de betrokken technologieën werken. Welke vaardigheden moeten deze gebruikers zich eigen maken om relevant te blijven in het nieuwe geconvergeerde landschap?
Grenzen vervagen
Engineers en operationele ict-teams zijn er in de loop van jaren aan gewend geraakt om binnen hun eigen expertisegebied te werken. Binnen ondernemingen is er vaak sprake van teams van experts die zijn ingericht rond bepaalde eilandjes van technologie (silo’s) die na verloop van tijd zijn ontstaan. Als het serverteam opslagcapaciteit nodig had, moest het daarvoor aankloppen bij het storage-team. Als ze netwerkverbindingen nodig hadden, deden ze een beroep op de netwerkexperts. Inmiddels betreden we een wereld waarin softwaretoepassingen in staat zijn om direct aan te geven dat ze extra ict-bronnen nodig hebben. Daarmee vervagen de vertrouwde grenzen tussen silo’s. Dit betekent dat ict-professionals hun vaardigheden moeten aanpassen aan de nieuwe technische en organisatorische structuur. Met andere woorden: technologische convergentie zet aan tot loopbaanconvergentie.
Een voorbeeld van de vervaging van grenzen tussen silo’s is de overgang naar VoIP. Experts in spraaktechnologie moesten opeens met het netwerkteam gaan samenwerken toen ip-communicatie uitgroeide tot het dominante medium voor spraak- en videocommunicatie. Elke middelgrote tot grote onderneming werd gedwongen om te beslissen hoe het team van spraakexperts en het netwerkteam – en in sommige gevallen zelfs het serverteam – moesten worden omgevormd tot één entiteit die verantwoordelijk was voor het ontwikkelen van oplossingen voor ip-communicatie of VoIP voor eindgebruikers.
Enorm veel van mijn collega’s maken momenteel zo’n veranderingsproces door, nu er softwaregedefinieerde datacenters of cloud-architecturen in productie worden genomen. Het softwaregedefinieerde datacenter biedt de belofte van flexibiliteit en een integrale workflow die het inrichten en beheer van bedrijfssystemen omvat. Daarnaast is dit moderne type datacenter applicatiebewust. Dit houdt in dat applicaties op aanvraag en op basis van acceptabele serviceniveaus beschikbaar kunnen worden gesteld. Daarnaast kunnen applicaties – eveneens naar behoefte – toegang krijgen tot de juiste bronnen binnen het datacenter. Dit houdt in dat er niet langer sprake is van formele aanvragen voor ict-bronnen die bij de silo’s naast of onder je worden ingediend. De ‘application and orchestration engine’ regelt alles. De ict-organisatie moet ervoor zorgen dat er expertise en vaardigheden worden opgebouwd binnen elke laag van de ict-stack om deze nieuwe convergente wereld mogelijk te maken.
Integratie van ontwikkeling en beheer
Softwaregedefinieerde datacenters vereisen van ict-organisaties dat ze een holistische visie op hun ict-infrastructuur hanteren en hun operationele team herindelen. Er is sprake van een veel sterkere behoefte aan een instelling die de ontwikkeling en het beheer van ict integreert en de vaardigheden die daar nodig voor zijn. De experts die binnen silo’s actief blijven, zullen zij aan zij komen te werken met collega’s die ict-platforms ontwikkelen. Op deze manier kunnen ze de flexibiliteit realiseren die door het softwaregedefinieerde datacenter wordt beloofd.
Ook wat storage betreft zal in de toekomst een softwaregedefinieerd model worden gehanteerd. Storage-teams moeten daarom deel uitmaken van de nieuwe aanpak. Zelfs de grootste leveranciers van niet-open oplossingen, waar de verdienmodellen zijn gebaseerd op vendor lock-in, zijn het er inmiddels over eens: de onderliggende hardware zal door middel van storage-virtualisatie worden losgekoppeld om de flexibiliteit en dynamiek uit te breiden naar het opslagbeheer. De data zal worden losgekoppeld van de gegevensbeheerlagen. Alle data zal worden aangeleverd via software die in staat is om automatisch de opslagattributen te definiëren van de server, het flashgeheugen en schijfclusters. Dit gebeurt niet langer in reactie op formele verzoeken en jaarplannen, maar op basis van instructies die door de api worden afgegeven.
Software Defined Storage (SDS) gaat zich van schijfgebaseerde formaten uitbreiden naar api’s en verdienmodellen en op brede schaal beschikbaar komen. Het zal compatibel zijn met alle belangrijke protocollen en ondersteuning bieden voor blok-, bestands- en objectprotocollen.
Snelle uitbreiding van expertise noodzakelijk
Om de belofte van SDS in te lossen, moeten storage-professionals hun expertisegebied snel uitbreiden buiten hun bestaande silo’s. Dit is met name nodig nu de focus verschuift naar een service die data op uiterst flexibele wijze aanlevert, op elk gewenst moment en op elke locatie, en via het platform dat het meest geschikt is voor de desbetreffende taak. We zien dit al gebeuren binnen kleinere ict-organisaties (waar generalisatie mogelijk al de regel is) met gebruikers van verschillende 200PB+ storage-implementaties. Maar ook grotere bedrijven hebben de trend van convergentie gespot. Men is bezig met het samenstellen van operationele teams die verschillende functies en silo’s omspannen, ter ondersteuning van het ontwerp, de implementatie en het beheer van hun steeds sterker door software gedefinieerde datacenters.
De transformatie die middelgrote tot grote ict-organisaties te wachten staat omvat het trainen van ict-medewerkers binnen nieuwe disciplines, reorganisaties, teambuilding, het gedeelde gebruik van tools en sla’s die op de eindgebruikers zijn gericht. Dit zijn slechts enkele aspecten die nodig zijn om ervoor te zorgen dat het storage-team, serverteam, netwerkteam en zelfs het beveiligingsteam zowel op technisch als operationeel niveau hun krachten kunnen bundelen om de belofte van softwaregedefinieerde datacenters in te lossen.
SDS gooit olie op het vuur
Deze veranderingen zullen niet van de ene op de andere dag plaatsvinden. Bij veel bedrijven is momenteel sprake van grotere onzekerheid rond de fundamentele structuur van de ict-organisatie dan in de afgelopen jaren. SDS gooit wat dat betreft nog wat olie op het vuur. Veel storage-teams hebben het gevoel dat hun positie wordt bedreigd. En terecht. Hun positie staat inderdaad op de tocht. Of beter gezegd, hun oude manier van werken wordt bedreigd. Het goede nieuws is echter dat ze een onlosmakelijk onderdeel gaan vormen van de toekomst van SDS en een centrale rol spelen bij de realisatie daarvan.
Met SDS geeft de ict-branche de aanzet tot een enorme sprong vooruit in zijn ontwikkeling. De grenzen tussen de traditionele silo’s zullen dankzij de moderne convergentie vervagen, zodat ict een werkelijk holistisch karakter krijgt. De teams die zich op dit moment bezighouden met disciplines zoals storage, servers, netwerken en applicaties moeten zich buiten hun expertisegebied begeven. Ze moeten zich een holistische visie eigen maken die hen inzicht biedt in de manier waarop zij SDS en alles wat daarbij komt kijken kunnen implementeren. Het eindresultaat is verbeterde ict. Door convergentie van hun expertise kunnen zij bijdragen aan een efficiënt gestructureerde ict-organisatie die het concurrentievermogen van de onderneming bevordert en van grote betekenis is voor de business.
Het gaat hier dus om generalisme versus specialisme, nog niet echt het holisme waar het om de som der delen gaat. Standarisatie in plaats van passend maatwerk dus waardoor effectiviteit en efficientie weer eens vrolijk door elkaar gehaald worden.
SDS wordt dan ook vooral gedreven door virtualisatie, het ‘commodity’ antwoord op alle vragen met nog vaak een vendor lock.
Jacco,
Vergelijk bijvoorbeeld Exchange 5,5 met Exchange 2013. Het is direct zichtbaar dat de laatste versie tig keer meer functies heeft en ingewikkelder is dan die van circa 10-20 jaar geleden. Dit geldt ook voor andere objecten in je infrastructuur. Je kunt niet van een netwerkman verwachten dat hij ook de hypervisor en alles er omheen gaat beheren en ook niet van een storageman om naast zijn werk, op CCNA of nog wat hogere niveau het netwerk gaat beheren.
Ik betwijfel of SDS, CI (converged infrastructure)en de overige ontwikkelingen op dit gebied, de eilandjes overbodig kunnen maken.
Een verkooppraatje dat probeert mee te liften op de kreet software defined, op dit moment het meest in zwang bij netwerken onder naam software defined networking.
Als je nu als organisatie al vergaand een gevirtualiseerde infrastructuur hebt dan zul je meemaken dat de convergentie waar de schrijver over spreekt allang heeft plaatsgevonden. Vanuit de api’s van de virtualisatie software wordt het netwerk, de server en de storage al dynamisch bediend en geconfigureerd. Dit ontwikkelt zich verder en we staan nu op een punt om af te vragen wie de storage omgeving technisch beheert, is dat de oplossing van de leverancier of doet de software zoals bijvoorbeeld Openstack dat dadelijk. De ontwikkelingen binnen een opencompute.org zijn dan interessant, ook als het gaat om storage.
Een software defined datacenter gaat verder en is nog in staat van ontwikkeling. Je hebt dan niet alleen te maken met infrastructuur voor IT, maar met water, lucht en electriciteit als infrastructuur, de samenwerking tussen die 2 is in volle ontwikkeling. Openrack.org is dan interessant. Ik ken geen software die de 2 infrastructuren integraal kan besturen.