De ontsnappingssnelheid van data

In een vorige blog sprak ik over datagravity; een gedachten-experiment over aantrekkingskracht tussen ‘data-deeltjes’. Als je het fenomeen doortrekt, dat data net zoals massa zwaartekracht ondervindt, zal data eenmaal aangekomen bij een grotere dataset daar altijd blijven. Net zoals op aarde: een meteoriet uit de ruimte die op de aarde valt, zal uit zichzelf nooit meer de ruimte ingaan. De zwaartekracht verhindert dat nu eenmaal. Om de aarde te verlaten, heeft een object een zogenaamde ontsnappingssnelheid nodig. Deze snelheid is formeel: ‘de minimale snelheid waarmee een niet-aangedreven voorwerp (met een kleinere massa dan het hemellichaam) vanaf dat hemellichaam zou moeten worden weggeschoten opdat het object dus niet terugvalt naar het hemellichaam’.

Kanon van Newton
Newton was bijzonder gefascineerd door de zwaartekracht en bedacht allerlei gedachten-experimenten om een beter begrip op te bouwen. Een daarvan was de vraag: je schiet vanaf een berg een kogel af met een instelbare horizontale snelheid. Hoe groot moet dan de beginsnelheid zijn om hem in een cirkelbaan rond de aarde te krijgen? Immers, als de snelheid te laag is, zal de kogel een kogelbaan (ellips) volgen en verderop weer op aarde belanden. Een leuke animatie voor deze proef is hier, waarbij je zelf de ontsnappingssnelheid kunt instellen en ziet waar de kogel beland.

Pas bij een snelheid van 7100 m/s blijkt de kogel rond de aarde te gaan. Een snelheid van 2000 km/uur. De snelle kogel valt zo langzaam, dat hij precies in een baan om de aarde komt. Net zoals de maan om de aarde draait. Als de kogel een grotere snelheid krijgt, zal hij aan de aarde ontsnappen. Als een planeet – en dus de zwaartekracht – groter is, neemt de ook de ontsnappingssnelheid toe. Dat betekent dat een projectiel initieel een steeds grotere snelheid moet hebben om te ontsnappen. De hoogst mogelijke snelheid is de lichtsnelheid. Hoe groot moet een hemellichaam zijn opdat de ontsnappingssnelheid groter dan de lichtsnelheid wordt?

Zwarte gaten
Als de zwaartekracht zo groot is dat zelfs licht niet meer kan ontsnappen, spreken we over een zwart gat. Alles – massa en licht cq een foton – wordt dit zwarte gat ingetrokken. Ontsnappen is onmogelijk en we kunnen we niets meer van zien. Als een ster te klein is, zoals onze zon, kan deze nooit een zwart gat worden. De massa wordt nooit zo dicht en zwaar dat licht niet meer kan ontsnappen. Het wordt dan een kleine dwergster die we als mens gewoon kunnen blijven zien. De onlangs overleden wetenschapper Stephen Hawkings was gefascineerd door zwarte gaten. Omdat licht een zwart gat niet kan verlaten, kunnen we niets zien van wat er daarbinnen gebeurt en daarom weten we nog relatief heel weinig van zwarte gaten.

Een zwart gat ontstaat als een ster implodeert. Als alle helium en waterstof zijn opgebrand, zal de materie van de ster dichter op elkaar komen te zitten. Dat wordt op een gegeven moment zó dicht, dat het zo zwaar wordt dat zelfs licht niet meer kan ontsnappen. Rond een zwart gat vindt een merkwaardig natuurkundig verschijnsel plaats dat we supertranslatie-lading noemen. Deze lading bevindt zich op grotere afstand van het zwarte gat en geeft dus op afstand inzicht in het zwarte gat. Die ladingen buiten het zwarte gat kunnen we bestuderen en we hopen daarmee meer inzicht te krijgen wat in een zwart gat gebeurt. De fascinatie van Stephen Hawkins. Een geïmplodeerde ster laat – buiten het zwarte gat – niets na behalve de lading die er nog omheen dwaalt. Een soort halo die als een geest rondwaart en we kunnen bestuderen.

Data en zwarte gaten
In het gedachten-experiment dat we aan data massa toekennen, kunnen we ons afvragen of bij grote datasets ook zwarte gaten kunnen ontstaan. Data-omgevingen die zo groot zijn dat zij alle data in hun omgeving aantrekken. In een artikel van Melvin Vopson in AIP Advances beschrijft deze de ‘informatiecatastrofe’ waar wij als mensheid op afstevenen. Hij stelt dat we jaarlijks 10 tot de 21ste digitale bits produceren en die hoeveelheid groeit jaarlijks. Net als met de graankorrels op het dambord, zal deze groei zo groot worden dat het aantal bits het aantal atomen op deze planeet zal overstijgen. Dit aantal is 10 tot de 50ste, dus dat duurt nog wel even; Melvin berekende dat dit over 350 jaar zal gebeuren.

Maar eerder al zal het maken en verwerken van data zoveel energie kosten, dat het ons jaarlijks verbruik voor niet-data gerelateerde activiteiten zal overstijgen. Dus alle energie op aarde zal dan nodig zijn voor dataverwerking. Als we aan data ook gewicht toekennen, zie mijn blog de aantrekkingskracht van data, dan heeft de data van het internet nu ongeveer het gewicht van één kilo. Maar door die enorme groei berekent Melvin op basis van het massa-energie-data equivalent principe, dat over 500 jaar de helft van de aardmassa het gewicht van data zal zijn. Dat lijkt op de perfecte storm voor een zwart gat. Een zwart data-gat. Een informatie-catastrofe waar de aarde aan ten onder zal gaan. Naast het klimaat dus nu ook een data-alarmisme 🙂

Data gravity index
September dit jaar werd in een rapport van Digital Realty de data gravity index geïntroduceerd. Uitgaande van het in 2010 ontwikkelde concept van data gravity door Dave McCrory (toen VMware, nu Digital Realty) is een index ontwikkeld. Dit is het product van data-massa, data-activiteit en bandbreedte, gedeeld door latency. Een methodiek om de creatie, aggregatie en private uitwisseling van data wereldwijd te beschrijven. Er is zelfs patent op aangevraagd omdat hiermee data gravity kan worden gemeten en beschreven. Op een arbitraire wijze weliswaar, maar het leuke is dat geheel van deze formule is meer dan de som der delen.

De Data Gravity Index – DGx – geeft volgens McCrory inzicht hoe snel data groeit en wordt geconsumeerd. Het geeft handvatten de implicaties van het creëren, samenvoegen en privaat uitwisselen van data te begrijpen. Een additionele indicatie over de explosieve groei van bedrijfsgegevens en een onderligger om die groei te meten, te kwantificeren en vast te stellen. Kunnen werken met het begrip data gravity vraagt allereerst de aanwezigheid van een datacentrische architectuur. Ook heeft het invloed op het ‘omkeren’ van de huidige public cloud gerichte ontwikkeling naar meer privaat gehoste enterprise clouds.

Het datacentrische universum
In de informatiewereld zijn data vergelijkbaar met atomen: de kleinste bouwstenen van toepassingen. Atomaire krachten zijn de basis van onze fysieke, analoge wereld. Een wereld waar we elke dag in leven en zullen blijven leven, zie mijn vorige blog hierover. Maar we omringen ons met virtuele digitale werelden die we opbouwen met data als bouwstenen. Inclusief procesgerichte toepassingen (software, applicaties) om in die virtuele wereld met die data om te (kunnen) gaan.

Daarom zijn data de wortels waarop elk informatieproces is gebouwd. Zonder data valt elke applicatie om en staat alles stil. En zoals ik vaker schreef: “processen en applicaties vergaan, maar data blijft altijd bestaan”. Het is als het ware het DNA van digitale informatie. Daarom is bij onze reis naar al die virtuele werelden – ook wel de digitale transformatie genoemd – datacentrisch denken zo cruciaal. De data gravity index helpt ons die datawereld te kwantificeren en de groei meetbaar en zichtbaar te maken. En te beseffen dat als we al onze data in hele grote clouds concentreren, dat data daaruit bijna niet meer kan ontsnappen. Een soort Hotel California dus maar dan als zwart data-gat waar je je data nooit meer uit terugkrijgt of kunt halen . . .

Photo by Jacob Granneman on Unsplash