Het mainframe is nog lang niet dood
In een eerdere blog schreef ik dat in de wereld van informatie verwerkende systemen vaak bestaande techniek dood lijken te gaan als er nieuwe alternatieven komen. Maar de waarheid is uiteindelijk toch vaak anders. Zestig jaar geleden zag het mainframe het levenslicht en nog steeds is het een oplossing voor belangrijke, missie-kritische processen. De centrale plaats waar dagelijks miljarden transacties plaatsvinden in sectoren als banken, productiebedrijven, retail, energie en overheid. De mainframemarkt is vergeleken met de server- en cloudmarkt weliswaar zeer beperkt maar analisten verwachten dat deze de komen jaren toch gestaag met 4,3 % zal blijven groeien tot bijna 3 miljard dollar in 2025.
Groeiend aantal transacties
In 1952 werd het eerste mainframe van IBM gelanceerd en tot vandaag zijn in veel informatie-omgevingen nog steeds mainframes aanwezig. Van banktransactie tot pin-afhandeling, van ticketboeking tot een online aankoop. De reden is dat het mainframe de meest efficiënte transactieprocessor is die je je kunt voorstellen. Vergelijk het met een raffinaderij, het kan slechts één product maken zoals benzine, maar wel heel efficiënt. Dat geldt voor het mainframe ook: het is geoptimaliseerd om grote aantallen, kleine transacties te verwerken. Met de groei van het internet en vooral de edge en mobiele ontwikkelingen wordt het aantal transacties dat we moeten afhandelen steeds groter.
Een mainframe kan 2,5 miljard transacties per dag verwerken. Dat komt overeen met het aantal transacties op Cyber Monday: het in één dag verwerken van een omzet van 790 miljard dollar via één enkel systeem. Als DellEMC verkopen we ook nog steeds storage producten die mainframes ondersteunen. Daar is EMC eind vorige eeuw zelfs groot mee geworden: concurrentie met IBM op het gebied van storage voor mainframes. Ook in de tijd van cloudcomputing houdt het mainframe stand. Eigenlijk wel begrijpelijk; de wereld van transacties groeit gigantisch door nieuwe IoT en IIoT toepassingen die in een back-end proces enorm veel transactioneel werk opleveren.
Groeiende behoefte
Telemetry en 5G maken het mogelijk het aantal transacties met de groeiende hoeveelheid devices honderden malen te vergroten. Maar iets of iemand moet uiteindelijk elke dag de clearing van al die transacties afwerken. Steeds meer mensen checken dagelijks of zelfs per uur hun bankrekening. Willen constant inzicht hebben in de afwikkeling van hun aankopen. We willen realtime op de hoogte worden gehouden van Internet of Things data die intelligentie aan hun omgeving toegevoegd. Vullen realtime onze winkelwagentjes op internet. Het aantal mobiele betalingen blijft stijgen. Daar zijn dus enorme ‘processing raffinaderijen’ voor nodig die al die transacties in de achtergrond afhandelen.
Het mainframe groeit momenteel dus het meest door de groei van end-user toepassingen. Wie had ooit gedacht dat onze mobiele app-ontwikkeling aan de voorkant zou leiden tot de groei van het mainframe aan de achterkant? Omdat het naast supercomputers nog steeds de grootst mogelijke hoeveelheid geconcentreerde processing power in de markt bezit. Mainframes handelen wereldwijd 30 miljard transacties per dag af. Dat zijn meer transacties dan door Google worden uitgevoerd. Mainframes zijn nog steeds de enige systemen die deze enorme groei ook in de toekomst aan zullen kunnen. Vandaar de verwachting dat mainframes nog vele decennia kritisch onderdeel van onze informatie huishouding zullen zijn. In een huidige maximale configuratie kan een mainframe tot 146 miljoen transacties per seconde (TPS) uitvoeren. In vergelijking, de limiet voor AWS is momenteel ongeveer 10.000 TPS op een enkele instance.
Veiligheid en privacy
In een mainframe omgeving is standaardisatie en strikt data-management sine-qua-non. In mijn vorige blog vertelde ik over het belang van standaarden en goed beheerde datamodellen. De centrale data-bibliotheek met strak georganiseerde datamodellen zijn een perfecte plaats om compliance te regelen. De komst van GDPR blijkt een groot probleem te zijn als men grote, verspreidde en niet goed beheerde data-omgevingen heeft. Welke data staat waar? Welke status of versie heeft die data? Zijn in bijvoorbeeld een multicloud omgeving al die verschillende data-verzamelingen afzonderlijk beveiligd? Daarom wordt door de multicloud-ontwikkeling ook zo gehamerd op data-centrisch denken.
Een mainframe is uit zichzelf al centraal, op zichzelf staand en data-centrisch en daarom relatief makkelijk te beschermen en compliant te maken. Moderne mainframes kunnen tegenwoordig hun data op kost-effectieve wijze in de database, de dataset en op disk encrypten. Daardoor worden ze voor bedrijven soms al als centrale crypto-grafische hub voor grotere data-omgevingen ingezet. We zien dat voor analytics, blockchain, machine virtualisatie, compliance en containerisatie het mainframe verrassend genoeg nieuwe mogelijkheden biedt die we amper voor mogelijk hielden.
Serverfarms
De enorme groei van x86/ARM servers werd mogelijk omdat de flexibiliteit die servers bieden vele malen groter is dan het mainframe. De huidige clouds zijn gebouwd op enorme server-farms die via netwerken met elkaar zijn verbonden. Bij dit soort grote omgevingen wordt het netwerk uiteindelijk de grens van de schaalbaarheid of performance. In een mainframe zijn alle componenten via backplanes en duizenden specifieke high-speed kanalen realtime verbonden. Mijn eerdere vergelijking van een de geïntegreerde raffinaderij die één product heel goed kan maken versus flexibele boerderijen en fabrieken die duizenden verschillende producten kunnen maken maar elk een transportuitdaging hebben om het op de juiste plaats te krijgen.
Velen kennen de ‘pets or cattle’ metafoor. Is uw server een huisdier of een uitwisselbaar stuk vee. Een container-gebaseerde serverfarm werkt alleen goed als alle onderdelen direct vervangbaar zijn door nieuwe. Als een proces faalt, moet gelijk een ander proces starten. Voor elke mogelijke fout is een failover aanwezig. Denk aan een kippenboerderij: elke kip die om welke reden niet goed functioneert, kan direct door een andere kip worden vervangen. Daarom is een serverfarm flexibel en toch efficiënt. Virtuele machines, containers en microservices werken binnen een enkel mainframe. Nieuwe producten als Docker, Apache Mesos, Marathon, Zookeeper, Chef, Puppet, DC/OS waren nodig om in grote flexibele serverfarms de effectiviteit en dus efficiency voor grootschalige ontwikkeling, operatie en levering van open systemen mogelijk maken.
Keuze
Processoren passen we toe in al onze informatie productiemiddelen. En daarbij kunnen we verschillende families van productiemiddelen zien: de gespecialiseerde en de generieke. De gespecialiseerde zoals supercomputers en mainframes zijn elk voor zich geoptimaliseerd om één specifiek proces optimaal te kunnen uitvoeren. Daarnaast kunnen we generieke goedkope componenten in grote farms flexibel en hyperconverged samen laten functioneren terwijl toch een hoge mate van efficiency kan worden bereikt. Elke keuze is arbitrair: wat past het beste bij de productiemethode die voor een bepaald soort eindproduct optimaal is. Mooi genoeg houdt het mainframe zich op een specifiek gebied in de dominante markt van open oplossingen staande. Een reden dat huisdieren kennelijk soms toch effectief kunnen concurreren met generiek vee.