Het mainframe bestaat vijftig jaar en wordt nog steeds volop gebruikt door bedrijven wereldwijd waaronder banken en retailers. De kans is groot dat veel mensen dagelijks, ongemerkt, gebruikmaken van het mainframe door bijvoorbeeld geld op te nemen of de creditcard te gebruiken. De vijftigjarige kampt echter met enkele hardnekkige misvattingen als hoge kosten en problemen met achterhaalde applicaties. Hoog tijd om deze misvattingen uit de weg te ruimen en de kracht van het mainframe te laten zien.
Misvatting 1:Het mainframe is ouderwets
Snelle technologische ontwikkelingen verplichten organisaties te innoveren om competitief te blijven. Daarin is het mainframe volgens sommige organisaties een obstakel voor innovatie, omdat het te oubollig zou zijn. En dat terwijl net als bij auto’s, die een goede honderd jaar bestaan, zijn de exemplaren van vijftig jaar geleden niet te vergelijken met die van nu.
Inmiddels bestaan er twintig generaties mainframes, waarbij elke generatie betrouwbaarder is dan de voorgaande. Zo zijn verschillende eigenschappen ontwikkeld die bij vele andere systemen missen. Eigenschappen zoals fouttolerantie en zelfherstellende mogelijkheden. Maar ook het snel en eenvoudig uitvoeren van onderhoud door de mogelijkheid om partities te maken, zijn gevolgen van de vijftig jaar lange ontwikkeling. Het mainframe is daardoor bij uitstek geschikt om een rol te spelen in de initiatieven die nu sterk in de schijnwerpers staan, zoals Linux, cloud, big data en analytics, mobile en security.
Misvatting 2:Het mainframe draait met achterhaalde applicaties
Applicaties en gegevens staan tegenwoordig steeds vaker in de cloud. Mainframes zijn op dit gebied enorm vooruitstrevend en kunnen beschouwd worden als private clouds. Concepten als infrastructure as a service, platform as a service of software as a service zijn geen onbekende en stabiliteit en betrouwbaarheid van het mainframe is hierbij de enorme kracht. Maar stabiliteit en betrouwbaarheid betekent niet dat het mainframe niet innoveert en slechts achterhaalde en oude applicaties bevat.
Een andere misvatting is dat elke mainframe alleen een command line interface (CLI) gebruikt. Toch is de grafische gebruikersomgeving, in plaats van een CLI, al jaren een mogelijke werkomgeving. Ook de zogenaamde achterhaalde applicaties zijn juist op maat gemaakt, efficiënt en zeer uitgebreid uitgewerkt. Dit zorgt er juist voor dat applicaties langer blijven doen wat ze moeten doen, waardoor juist meer en meer organisaties ervoor kiezen om te investeren in nieuwe applicaties voor het mainframe.
Misvatting 3: Het mainframe is duur
Uit onderzoek blijkt dat de onderhoudskosten, personeelskosten en overige kosten in vergelijking met een servergroep lager zijn. Meer servers betekent immers meer licenties, systeembeheerders en een grotere kans op een fout of een kapot onderdeel. Daarnaast bestaat er een standaard onderhoudsprocedure voor elke server: denk aan patches, updates, en applicaties die ook meer mankracht eisen voor het onderhoud.
In dit opzicht blijft het mainframe langer up to date en op verschillende kostenposten goedkoper. Ook is het energieverbruik lager en de ruimte die een mainframe inneemt minder in vergelijking met een servergroep. Energievretende koelsystemen zijn niet langer nodig, de omvang van een mainframe is vaak niet groter dan een standaard serverrek. Op energieverbruik en ruimteverbruik kan dus juist flink worden bezuinigd.
Misvatting 4: Het mainframe vereist bijzondere vaardigheden
Sinds 2000 draaien verschillende mainframes op Linux. Dit betekent dat Linux-gebruikers nauwelijks omgeschoold hoeven te worden om met het platform te werken. Linux op een mainframe verschilt weinig van Linux op andere platformen. Verder wordt er geïnvesteerd in het verspreiden van bestaande kennis en skills door scholing, communities en conferenties. Uiteindelijk blijkt dat het aantal benodigde mensen, dat ingezet moet worden voor het managen van een mainframe, lager ligt in vergelijking met de benodigde capaciteit voor een servergroep.
Van harte gefeliciteerd mainframe
Dat het mainframe ouderwets, duur en ingewikkeld is, zijn misvattingen die door de jaren heen zijn ontstaan. Dankzij constante ontwikkelingen is het nog steeds een van de meest efficiënte, betrouwbare en veilige platformen. Dit maakt het ook nog eens tot een van de goedkoopste alternatieven voor servergroepen. Laten wij daarom het mainframe op zijn vijftigste verjaardag de eer geven die het toekomt en het nog vele succesvolle jaren toewensen.
Paul de Vin, directeur Systems & Technology Group Benelux bij IBM
@anderen
Partionering bestaat ook al op UNIX (dat is echt niet meer voorbehouden aan mainframes). Koop maar eens een Superdome van HP (zowel HW als SW partionering)
Ik geef aan dat mainframes in het kader van beschikbare kennis in de markt en de verschuiving naar andere platformen een feit is. Dat is niet mijn mening, maar een feitelijke constatering.
De reden dat mainframes nog bestaan, is dat veel organisaties (met name in de financiële wereld) met niet aan vervanging en migratie naar andere platformen durft over te gaan. Ook met name gevoed door de ontbrekende kennis aan het bestaande platform.
Het idee dat een mainframe betrouwbaarder is dan een rij pizzadozen is gebaseerd op verkeerde uitgangspunten:
1. Dat bij afname van een mainframe er al een heel veel fout detectie aanwezig is
2. Dat de mainframe methode qua beheer en utilisatie van hoge kwaliteit is
3. Dat virtualisatie en partionering veel beter is geregeld in een mainframe
Het verhaal doet me denken aan het de discussie van 20 jaar geleden dat open source kwalitatief en beheerstechnisch minder waren dan de commerciële varianten. Inmiddels is wel vast komen te staan, dat de waarheid daarvan heel erg in midden ligt (en wat mij betreft, zeker als ik de kosten meeneem, naar open source variant ten positieve uitvalt).
Natuurlijk lijkt het aantrekkelijker om een black box te kopen als een mainframe, maar je koopt natuurlijk het gehele ecosysteem daarbij (met alle daarbij behorende werkwijzen). Daar betaal je ook voor.
Als ik alleen een rijtje pizzadozen koop, ben ik er natuurlijk niet. De kosten van de hardware bij pizzadozen zullen veel lager zijn. En de hele riedel extra producten die ik erbij nodig heb om het complex van pizzadozen (desnoods in een blade omgeving) om op hetzelfde functionele niveau te komen als dat van een mainframe. Voordeel is wel dat ik klein kan beginnen.
Het lijkt op de stelling dat SAP het beste ERP pakket is voor elke organisatie, want het is compleet geïntegreerd. Maar een ieder weet dat de functional fit met de werkvloer vaak leidt tot gigantisch veel aanpassingen, zodat het uiteindelijk veel meer gaat kosten en niet meer aansluit.
Ik geloof niet in one-size-fits-all producten per se. Per situatie (en naar de toekomst kijkend) dien je te kijken welke oplossingen relevant zijn.
Laat ik mijn stelling eens omdraaien: hoeveel van de huidige mainframe bezitters zouden bij een nieuwe start (green field situatie) wederom voor een dergelijke omgeving kiezen in 2014!
@Jan Ik ga er nog een keer goed kijken maar dat klinkt dan als virtueel binnen een virtuele machine. Dacht daar gisteren wat aan, de cloud binnen de cloud. Zou dat nou kunnen? Maar denk dan ook, zou dat niet heel erg wiebelen in performance? De cloud wiebelt nu al.
Attila,
Je begint met een in mijn optiek oneerlijk vergelijk Mainframes vs X86 servers.
“De vraag rijst: gebeurt dat ook. Wat is de minimale prijs van een enigsinds acceptabele mainframe en vergelijk dat eens met een pizzadoos (blade) of losse x86 server. Hoeveel mensen zijn er die mainframes kunnen beheren en servicen. Vergeleken met het grote leger aan x86 kennis en ervaring, is dat te verwaarlozen. Het is niet voor niets dat het lastig is om deze mensen in de markt te vinden”
Dat is natuurlijk appels met peren vergelijken.
Gelukkig breng je in 1 van je latere reacties de juiste nuance aan.
“Als ik alleen een rijtje pizzadozen koop, ben ik er natuurlijk niet. De kosten van de hardware bij pizzadozen zullen veel lager zijn. En de hele riedel extra producten die ik erbij nodig heb om het complex van pizzadozen (desnoods in een blade omgeving) om op hetzelfde functionele niveau te komen als dat van een mainframe”
Ieder voordeel heeft zo zijn nadeel. Zoals Cruyff dat altijd mooi zegt. Veel losse producten zorgt ook voor mogelijk veel onduidelijkheid op het gebied van support. Wie doet nu wat? Hoe voorkom je het wijzen naar elkaar? Juist dat is ook 1 van de krachten van een mainframe platform. 1 centraal aanspreekpunt.
Een ook de huidige generatie mainframes zijn flexibeler, meer schaalbaarder en kosteffectiever dan je denkt. Je ziet al enige tijd dat bijvoorbeeld X86 nu zijn intrede doet in de mainframe wereld.
En wat ik al eerder zei kijk ook eens naar Forward. Meer informatie kan je hier terug vinden: http://www.unisys.com/unisys/ri/pub/bl/detail.jsp?id=1120000970027010286
@Louis. Inderdaad draait een mainframe meerdere virtualisatie lagen.
De eerste laag is de LPAR (partitionering). De tweede laag is de VM host. De derde laag is dan de virtuele machine zoals een linux guest of VSE. De belangrijkste techniek hierin is dat, simpel gezegd, de guest direct toegang kan krijgen tot de CPU. Hierdoor hoeven de CPU cycles niet te worden gevirtualiseerd. En IO wordt al door een aparte IO processor afgehandeld.
Voor performance is het een probleem als je nog een laag gaat toevoegen. Bijvoorbeeld een java virtual machine. Of een extra VM laag. Die virtuele omgevingen moeten wel volledig worden gevirtualiseerd, wat extra CPU load op de host gaat geven. Dit is overigens niet uniek voor mainframe, hetzelfde geldt eigenlijk voor alle virtualisatie omgevingen. Draai maar eens een java engine in een virtuele machine op VM ware of virtual box.
Performance management in virtuele omgevingen is een vak apart, je hebt een virtuele mindset nodig. Ongeacht welk platform. Als je vast houdt aan de technieken op discrete machines dan ga je onderuit. En dat is juist de reden waarom zoveel virtualisatie projecten mislukken.
@Attila
Mbt de uitgangspunten:
1. Ik zie fouten alleen in de logging, niet in het verlies van beschikbaarheid van de omgeving. Sterker nog, vaak worden we door de leverancier gebeld dat we een hardware error hebben gehad zonder dat we het zelf hebben gemerkt.
2. We draaien het liefst op 100% CPU. Zonder dat we er performance problemen mee hebben. Ik heb wel eens een omgeving in een loop zitten en dat merk ik niet als ik inlog op de omgeving maar pas als ik de performance logging ga nakijken.
3a. We doen al 45+ jaar virtualisatie. Ik denk dat we er iets meer ervaring mee hebben dan in andere platformen. Dat uit zich bijvoorbeeld in de mogelijkheid om voor virtualisatie-perfomance belangrijke parameters te kunnen meten (wat niet of slecht mogelijk is in een linux of windows platform).
3b. Het mainframe heeft de hoogste EAL certificering voor partitionering en virtualisatie. Kwaliteit en beveiliging zijn altijd al key geweest in ontwikkeling en beheer en dat zal altijd zo blijven.
Inderdaad, je koopt het hele ecosysteem. Inderdaad is dat duurder als je alleen een simpel webservertje wil hebben. Het wordt anders als je 24×7, mirroring, redundantie etc etc wil hebben. Dan lopen de kosten snel op, terwijl een aantal zaken bij mainframe al wel standaard in de prijs zit. Of anders gezegd, de vanaf prijs mag dan wel hoger zijn, maar je krijgt meer waar voor je geld.
@Berry
De ‘call home’ hebben we ook voor Intel platform waarbij N+1 redundantie ervoor zorgt dat het systeem doorwerkt en event management dat reserve onderdelen en monteur komen. Dat klanten niet door hebben dat een onderdeel de geest heeft gegeven zegt net als een loop pas bemerken na het inloggen meer over de processen dan het platform.
Kijkend naar WMI (Windows) en meer open management protocollen zoals SNMP is er eerder een teveel dan een tekort aan meetwaarden. IBM heeft dan ook nog weleens last van de wet van de remmende voorsprong waarbij ze vasthouden aan technologie die al lang achterhaald is, het duurde dan ook opmerkelijk lang voordat ze SNA loslieten. En als je het over meten hebt, dat was in token-ring netwerken meer een spelletje ‘whack-a-mole’ dan een gestructureerd proces.
Performance management in virtuele omgevingen is ook niet zo zeer een vak apart alleen moet je weten welke waarden wel en welke niet interessant zijn. Verder is de claim over virtualisatie en EAL certificering nogal bedenkelijk als ik me de problemen in de begintijd hiermee herinner en dat is zeker niet meer dan 45 jaar geleden. Zie verder ook: http://en.wikipedia.org/wiki/XTS-400
Als je met ecosysteem het beheer bedoelt dan kun je dat inderdaad bij IBM kopen, je moet dan niet alleen een flinke zak geld meebrengen bij het begin maar gedurende de looptijd ook flink bijstorten. Tussen een simpel webservertje of websphere zit inderdaad nog weleens een groot verschil wat dan ook meer op diefstal lijkt dan een misvatting.
@ Ewout,
Een kleine toevoeging over performance management. Bij virtualisatie bestaat dit vaak uit meerdere lagen ( storage, network, compute ) welke onafhankelijk van elkaar werken. Bij MF’s is op het netwerk alles intern afgevangen. De kans op ketenproblematiek is daarom een stuk kleiner aangezien alles optimaal op elkaar is afgestemd en getest.
Ook is een pay for use model zeer gemakkelijk in een MF-omgeving toe te passen.
@Ruud
Dat losse abstractielagen zoals SDN en SDS niet handig zijn bij performance management is een terechte opmerking, puntoplossingen bemoeilijken altijd het ketenbeheer. Misschien iets om mee te nemen in de keus van een oplossing hoewel beheersbaarheid nimmer een functionele eis is. Stellen dat problemen bij MF kleiner zijn geldt dan ook alleen als je binnen de box blijft want op het moment dat je buiten de lijntjes gaat tekenen dan wordt het meestal wel anders.
@Ewout,
De EAL certificering geld voor ‘vandaag’. Inderdaad, een aantal jaren geleden was het zeker een stuk slechter. Daar heeft IBM heel wat verbeteringen in gemaakt. Dat is natuurlijk niet uniek, in alle platformen is de kwaliteit een stuk verbeterd.
Als je redundant systemen gaat bouwen kun je ook zelf al veel problemen voorkomen. Of je koopt een systeem dat intrinsiek redundant is opgebouwd. Dus, losse CPU’s of een cluster, losse disken of een RAID cluster. Wat ik alleen vaak zie is dat met begint met enkele losse componenten omdat dat zoveel goedkoper is en dat gedurende het project wordt ontdekt dat er flink wat bij moet om toch aan de requirements te kunnen voldoen.
Ik heb wel eens een loop in mijn PC. Dan kan ik performance wel vergeten. Ik heb wel eens wat hardware errors in een server gezien die vaak meteen de dood van de machine betekenen, of op zijn minst een downtijd voor de machine. Dit heb ik op het mainframe al 15 jaar niet meer meegemaakt. (Dan bedoel ik wel de loops en hardware failures maar niet een downtijd).
Klopt, IBM heeft veel te lang vastgehouden aan alleen SNA. Maar daarbij waren de traditionele mainframe klanten ook niet meteen geïnteresseerd in de IP technologie. Als die eerder waren gaan aandringen had het een hogere prioriteit gekregen.
Vwb meten, een praktijk voorbeeld dan. Een linux guest (op mainframe) geeft aan dat hij 100% idle is. En op de host zie ik 100% activity en CPU load. Inderdaad, je moet kijken wat de parameters zijn die belangrijk zijn, maar dan blijft staan dat je moet weten wat belangrijk is EN je moet het kunnen meten. Pas sinds kort is er met powertop enige mogelijkheid om parameters te meten die ECHT belangrijk zijn in virtuele omgevingen (al is het daar dan niet eens voor ontwikkeld). Zolang men denkt met top en sysstat performance te kunnen monitoren zal het lastig worden om echt goede virtuele omgevingen te kunnen inrichten.
@ Ewout,
Goede toevoeging. Waar voor dank.