Cloud lock-in wordt ‘Chefsache’

Kostenexplosies rond cloud worden chefsache’ was de kop boven een artikel in Computable. Vooral de prijsontwikkeling van hun diensten baart klanten momenteel grote zorgen. Een logische uitkomst van een lang traject. Informatisering begon lokaal met een mainframe: duur, efficiënt, maar centraal en inflexibel. Client/server bracht decentrale flexibiliteit, maar bleef een hardware platform met dure, gelicenceerde software. Toen kwam het ‘mainframe’ van het internet: de cloud. Software als een Service. Het ei van Columbus: decentraal gebruik, flexibel en ook nog betaalbaar. De exodus naar die flexibele clouddiensten startte rond 2010. Maar er verdween ook veel interne, lokale kennis over ICT, want die was nu ‘ge-outsourcet’. Water uit de kraan. Makkelijker kon het niet. Niet alleen de interne kennis verdween, maar ook de data. Kwam in handen van (vooral Amerikaanse) cloud-dienstverleners. Langzaam startte de lock-in. Stapje voor stapje. Tot je als klant niet meer terug kon. En dat moment is nu aangebroken.  

Eén cloud is geen cloud

Die mooie belofte van één centrale cloud waar je al je diensten decentraal op basis van één datamodel kon gebruiken, was natuurlijk prachtig. De ellende van al die niet uitwisselbare datamodellen op vele server-platformen, was een doorn in het oog. Via ‘kijkdozen’ (browsers) verbonden met die centrale cloud zou die ellende als sneeuw voor de zon verdwijnen. Software als een service. Open data. Gelijke informatieposities. Centrale veiligheid en professionele support. De cloud als oplossing voor alle problemen. Met Big Data datalakes waar we al onze intelligente data analytics op konden uitvoeren. En vervolgens kunstmatig intelligent konden worden.

Maar er kwam een tweede cloud. Een marketing-cloud waar de marketingafdeling – los van de IT-afdeling – een contract mee sloot. De productie ging met een derde cloudleverancier in zee. Inkoop met weer een andere aanbieder. HRM bleef niet achter met eigen clouddiensten. De bloemkool van clouddiensten groeide. Met vele verschillende aanbieders. Met andere software platformen. Met nog meer specifieke datamodellen. Allemaal optimaal voor de puntoplossing van die ene functionele dienst. Met afrekenmodellen die vager en abstracter werden. Niet centraal afgerekend maar betaalt vanuit de kostenplaats van die functionele afdelingen. Steeds meer werden we ongemerkt afhankelijk van die cloudleveranciers. Immers niet alleen onze diensten, maar ook onze data – de assets van je bedrijf – stonden in en kwamen uit die cloud!

Sommigen zagen het gevaar

In 2012 al zag GE het gevaar van de cloud-afhankelijkheid. Zij huurden 1100 ICT professionals terug die zij eerder hadden ge-outsourcet in de offshoring van de ICT-activiteiten de jaren daarvoor. In 2012 schreef ik de blogVan outsourcen naar cloudsourcen’ over deze omgekeerde terughuur van ICT deskundigen van GE. Een oud Chinees gezegde stelt: ‘kennis (intelligence) is de basis van een winnende strategie’. Die intelligence kun je slechts opbouwen op basis van je eigen data, informatie en inzichten. Dan begrijp je wat je klant wil. Wat de klant van je verwacht. Hoe hij met je communiceert. Hoe de markt beweegt. Daarbij is er tegenwoordig ‘om de klant heen’ heel wat extra informatie te verzamelen. Internet, sociale media, klantcommunicatie zijn allemaal indrukken en signalen die een ander beslist niet voor je kan omvormen tot klanttevredenheid en inzicht in zijn veranderende behoeften.

De ironie is dat ‘eenvoudige software en platte dataverwerking’ natuurlijk prima kan worden uitbesteed. Dat is het water uit de kraan, of de elektriciteit uit het stopcontact. De eenvoudige, stabiele nutsvoorziening die uitwisselbaar is. Maar zodra je er iets meer intelligentie uit wilt halen, moet je wel begrijpen wat je doet. En nog meer wat je wilt. De cloud als water uit de kraan is eenvoudig gezegd je excelsheets op een extern platform laten draaien en de heldere kosten van die gestandaardiseerde, uitwisselbare en dus goedkope consumptie betalen. Maar zodra die clouddienst meer en meer je bedrijfsactiviteit wordt, is het een strategische dienst geworden. Als die strategische dienst stopt, sta ook jij stil. Als je niet (meer) bij je strategische data kunt, sta je ook stil. Als je eenmaal als cloudleverancier in die afhankelijke strategische positie komt, is dus jouw klant met handen en voeten gebonden en ligt geld voor het oprapen.

De cloud als vendor lock-in 

Dat oprapen van dat geld gebeurt nu. De cloud is een prachtig concept om snel te kunnen op- en afschalen in processing en data-opslag. Voor die flexibiliteit betaal je natuurlijk. Want zelf die hard- en software kopen en beheren, is immers vele malen duurder. Maar voor eenvoudige stabiele capaciteit van zowel processing-power als data-opslag, hoeft een cloud niet vanzelfsprekend goedkoop te zijn. Je koopt immers heel makkelijk veel te veel super flexibele capaciteit, terwijl slechts een klein deel van je productie die kostbare flexibiliteit nodig heeft. Blind clouddiensten afnemen zonder gericht, actief inkoopbeleid, is bestuurlijk makkelijk, maar kan schreeuwend duur worden. Zeker als je als klant minder makkelijk kunt opstappen, kan men die dienst makkelijk duurder en beperkter maken. De klant gaat – kan – toch niet weg. 

Meestal gebeuren er op momenten dat dit soort (commerciële) lock-ins ontstaan, ook allerlei nieuwe technische ontwikkelingen die je juist weer uit die fuik kunnen laten ontsnappen. Dat gebeurt decennia lang en dus nu ook. Die ontwikkeling is grid- en edge-computing, Web3 en decentralisatie. Er is inmiddels voldoende innovatieve techniek om in een gedecentraliseerde ICT-wereld toch weer goedkoop te kunnen ‘leven’. Met crypto, tokens, blockchains en edge-computing. Prachtig om de gewenste decentralisatie van IoT voor smart city’s, cyber- en quantum-safe dataverwerking en opslag en om mobiele zero-trust omgevingen te kunnen ondersteunen. Om de mobiele burger en medewerkers moderne op privacy én informatiegelijkheid gebaseerde oplossingen te bieden. Decentraal wordt de nieuwe normaal én de ontsnapping uit die cyber-onveilige en steeds duurdere centrale clouds. 

Mix van centraal en decentraal

Natuurlijk verdwijnt de cloud niet, net zoals het mainframe nooit verdwenen is. Of de client/server omgeving. De internet-cloud was een welkome aanvulling waar we met zijn allen iets te enthousiast allemaal naar toe migreerden. Maar centralisatie heeft naast gemak ook gevaren. Je creëert heerlijke ‘honingpotten’ voor criminelen en agressieve landen. Je creëert enorme lokale afhankelijkheden wat betreft verwerking en opslag van je data. Zolang dat uitwisselbare ‘nuts-achtige’ capaciteit is, valt die kwetsbaarheid mee, maar voor je strategische of ‘gouden’ data wordt het anders. Als die ene cloud het ‘even’ niet meer doet, sta je als organisatie ook stil. Of ben je eenvoudigweg gegijzeld. Als jouw dienst en data vanuit het buitenland of door een buitenlandse leverancier wordt geleverd en er ontstaat oorlog – een tijdje geleden ondenkbaar – kun je opeens niet meer je dienst afnemen of zelfs niet eens meer bij je data. 

Dan blijkt dat goedkoop eindigt in duurkoop. Dat gemak wel lekker is, maar je de kennis verliest het zelf te doen. Al die zaken poppen nu tegelijkertijd op. Cyber-onveiligheid. Regie over je (lokale) governance, risico en compliance die steeds strikter en complexer wordt. Daarom is een teruggang uit die centrale cloud helemaal geen gekke gedachte. Iets meer essentiële diensten en belangrijke data wat dichter om je heen. Wellicht zelfs weer op eigen grondgebied, in het eigen rechtsgebied, achter je eigen veilige voordeur en zelfs on-premise. Op Nederlandse bodem, bij een Nederlands bedrijf met Nederlandse eigenaren. Klinkt nostalgisch, nationalistisch en soeverein, maar blijkt voor sommige strategische diensten en data zeker veiliger te zijn. Beter de strategische continuïteit te garanderen en ook cyber-technisch heel veilig – en zelfs soms veel veiliger. Een slinger van een klok gaat langzaam heen en weer. Als deze te ver is doorgeschoten, gaat hij altijd weer terug. En dat is precies wat er nu gebeurt en gaat gebeuren. De toekomst verkennen is makkelijker dan het soms lijkt  . . . 

Photo by Towfiqu barbhuiya

———————– translated by ChatGPT   ————————-

Cloud Lock-In Becomes a “C-Suite Priority”

“Cost explosions around cloud computing become a C-suite issue,” read the headline of an article in Computable. The rising costs of cloud services are causing significant concern among customers, marking the logical outcome of a long journey. Initially, IT infrastructure was centralized with mainframes: expensive, efficient, but inflexible. The client/server model brought decentralized flexibility, yet still relied on costly hardware and licensed software. Then came the “mainframe” of the internet: the cloud. Software as a Service (SaaS) seemed like the perfect solution—decentralized, flexible, and affordable. Around 2010, organizations began migrating en masse to these services. But this shift led to the loss of internal IT knowledge as operations were outsourced. Cloud computing became as simple as turning on a tap. However, this convenience came with a price: not only did companies lose control over their knowledge but also over their data, which often ended up with (primarily U.S.-based) cloud providers. Gradually, vendor lock-in began to take hold. Step by step, customers found themselves unable to switch. That moment has now arrived.

One Cloud Is Not Enough

The vision of a single, centralized cloud for all services, operating on a unified data model, was compelling. It promised to eliminate the chaos of incompatible data models spread across multiple servers. SaaS solutions, open data, and centralized security seemed like the answer to every problem. Big Data lakes allowed for intelligent analytics and advancements in artificial intelligence.

However, the reality diverged. Marketing teams adopted a second cloud provider, independent of IT. Production opted for a third. Procurement chose yet another. HR followed suit with its own cloud services. This proliferation created a “cauliflower” of cloud services—each optimized for a specific purpose but operating on distinct platforms with unique data models. Pricing became more abstract, charged not centrally but by individual departments. Over time, companies became heavily dependent on their cloud providers. With both services and critical data—the lifeblood of any business—tied up in the cloud, customers had limited options.

Recognizing the Risks Early

As early as 2012, General Electric (GE) recognized the dangers of cloud dependency. The company rehired 1,100 IT professionals it had previously outsourced, reversing its earlier offshoring decisions. At the time, I wrote a blog titled From Outsourcing to Cloud Sourcing about GE’s bold move. As an old Chinese proverb states, “Knowledge (intelligence) is the foundation of a winning strategy.” Intelligence is built on proprietary data, information, and insights—key to understanding customer needs, market movements, and communication trends. These insights cannot be effectively outsourced.

While basic software and straightforward data processing are well-suited for outsourcing, extracting meaningful intelligence requires in-house expertise. Cloud services can indeed function like utilities—simple, interchangeable, and cost-effective for standardized needs. However, once cloud services become integral to business strategy, the stakes change. A disruption in access to these strategic services or data can bring a business to a standstill. Cloud vendors in a position of strategic dependency can exploit this, charging premium prices as customers find themselves locked in.

The Cloud as a Vendor Lock-In

Today, the financial implications of cloud dependency are becoming clear. While the cloud offers scalability in processing and storage, this flexibility comes at a cost. Managing hardware and software internally might be more expensive, but blind reliance on cloud services without a strategic procurement policy can lead to exorbitant expenses. This is especially problematic when customers cannot easily switch providers, giving vendors the leverage to increase prices or impose restrictions.

Technological advances often emerge as a counterbalance to such lock-ins. Currently, innovations like grid computing, edge computing, Web3, and decentralization offer potential escape routes. Technologies like crypto, tokens, blockchains, and edge computing enable cost-effective decentralization, supporting IoT for smart cities, secure data processing, and privacy-oriented mobile solutions. Decentralization is becoming the new normal, providing an alternative to expensive and cyber-vulnerable centralized clouds.

A Hybrid Future: Centralized and Decentralized

The cloud is unlikely to disappear, much like the mainframe and client/server models that preceded it. While the internet cloud was a welcome addition, overly enthusiastic migration has highlighted its vulnerabilities. Centralized systems are attractive targets for cybercriminals and geopolitically hostile nations. They also create dependencies that can paralyze organizations in the event of outages or conflicts.

For non-critical, utility-like services, centralized clouds may remain practical. However, strategic data and services demand closer control, potentially on local servers within national jurisdictions. This shift may seem nostalgic or nationalist, but for certain data and services, it ensures security and continuity. Organizations are reconsidering the balance between centralized convenience and decentralized resilience. As history has shown, the pendulum swings back when it goes too far in one direction. This correction is already underway, reshaping the future of IT infrastructure.