Quantum veilige encryptie en data opslag
Siliconangle meldde vorige week dat ‘Microdoft 365 message encrypty’ een structureel lek heeft. Men gebruikt voor het encrypten van mails het Electronic Code Book (ECB), een vrij simpele encryptie-methode. Deze encryptie zet op een gestandaardiseerde wijze ‘berichtblokken’ om in afzonderlijke ge-encrypte tekstblokken. Daarna is de tekst niet meer leesbaar. Het probleem bij deze eenvoudige vorm van encryptie is, dat als hackers genoeg van deze encrypted mails in handen krijgen, zij zonder al te veel problemen in staat zijn het gebruikte codebook te re-engineeren. Waarmee de hele beveiliging van Microdoft 365 message encrypty onderuit gaat.
Vlaamse oorsprong
ECB is een eerste generatie versleuteling, vastgelegd in de Advanced Encryption Standard AES. Het is de meest elementaire vorm van blokversleuteling en het is eigenlijk verbazingwekkend dat Microsoft deze minimale encryptie-methode nog steeds gebruikt. De geavanceerdere vorm van blok-versleuteling is Cypher Blocker Chaining (CBC) waarbij de CBC modus in elk tekstblok afhankelijk is van de leesbare tekstblokken die tot dat moment zijn verwerkt. Een soort blockchain dus. Decryptie en codebook re-engineering worden daardoor veel lastiger.
AES komt voort uit het werk van twee Vlaamse cryptografen, Joan Damen en Vincent Rijmen die in 1999 onder de naam ‘Rijndael’ de specificatie voor deze standaard ontwikkelden. Zij baseerden hun methode op een familie van cijfers met verschillende sleutel- en blokgroottes. Voor de AES standaard selecteerde de NIST drie onderdelen van deze Rijndael-familie, elk met een blokgrootte van 128 bits, maar met verschillende sleutellengtes: 128, 192 en 256 bits.
Toekomst van AES
AES is in 2001 door de NIST uitgegeven en opgenomen in de ISO/IEC 18033-3 norm. De Amerikaanse overheid adopteerde in 2002 deze encryptie standaard die nog steeds de eerste en enige openbaar toegankelijke codering is. Goedgekeurd door de National Security Agency (NSA) voor uiterst geheime informatie bij gebruik van NSA-goedgekeurde cryptografische modules. Het elegante van AES is dat het vertrouwt op permutatie-substitutie. Verschillende substitutie- en permutatiestappen die uiteindelijk een versleuteld blok opleveren. En daardoor inherent minder vatbaar is voor bovengenoemde crypto-analyse zoals bij het eenvoudiger Electronic Code Book.
De flexibiliteit in het gebruik van sleutellengtes draagt bij aan die veiligheid. Bijvoorbeeld 10 ronden met 128 bit, dan 12 ronden voor 192 bit en vervolgens 14 ronden met 256 bits. Immers, onbekende variatie vraagt extra rekenkracht om iets te ontcijferen. In een eerdere blog ‘Quantum safe’ meldde ik dat de NIST dit jaar – in verband met de komst van de enorm krachtige quantum computers – vier nieuwe coderingsalgoritmen heeft gekozen. De nieuwe quantumcryptografische standaard van de NIST die over twee jaar geldig wordt. Een belangrijke mijlpaal in de encryptie-wereld voor het blijvend goed kunnen beveiligen van de groeiende hoeveelheid gegevens en informatie die wij genereren. Gelukkig worden de laatste jaren steeds meer quantum-resistente algoritmen ontwikkeld, die quantumcomputers niet of moeilijk kunnen oplossen en onze informatieveiligheid in de post-quantum periode borgen.
‘Quantum secure’ ook voor data-opslag
Bovengenoemde algoritmen richten zich op algemene codering gebruikt om informatie te beschermen, uitgewisseld via openbare netwerken, en daarnaast op digitale handtekeningen, gebruikt voor identiteitsverificatie. Een belangrijke bescherming is ook nodig voor data die in rust is gekomen en is opgeslagen op een storage platform. We spreken dan over quantum veilige opslag. Natuurlijk is een ge-encrypte boodschap die we opslaan bij diefstal al lastig te decrypten. Maar de performance van quantum computers zal in de toekomst snel groeien, dus is het slim om ook ‘de zoektocht’ naar die opgeslagen files, lastiger te maken.
Daar is het principe van quantum secure storage op gericht: het in wisselende stukken knippen, verschillend encrypten en vervolgens verdelen over verschillende plekken in het netwerk. Dit maakt allereerst de zoektocht uiterst lastig omdat, mocht iemand al zo’n encrypt blok vinden, dan is dat slechts een onbekend fragment van de gehele boodschap. Door daarnaast de data niet via een algoritme op te knippen en te verdelen, maar via relatief simpele ‘menselijke logica’, kan welke computer ook, zelfs met super quantum-eigenschappen, hier weinig mee. En dat is de charme van deze nieuwe wijze van opslag: hoe kun de speld in de hooiberg vinden, als je niet weet en begrijpt wat een speld is . . .
Grid computing
Een gedistribueerd grid-netwerk is van nature perfect geschikt voor de genoemde verspreide opslag van de in stukken geknipte file. De decentrale netwerken die we als Web 3.0 infrastructuren zien ontstaan voor de nieuwe Web3 gebaseerde initiatieven. Data- en identiteitsprotectie in deze ons steeds meer omringende virtuele werelden is één van de grote uitdagingen van deze tijd. In een vorige blog ‘Bescherming van digitale identiteit en privacy’ vertelde ik over de Europese standaarden die worden ontwikkeld om veilig met deze nieuwe digitale identiteiten binnen Europa te kunnen werken. Een soort nieuwe GDPR, niet voor privacy maar voor identiteitsbescherming.
IDC studies laten zien dat in 2025 de wereldwijde data groeit tot 175ZB, een vervijfvoudiging van de 33 ZB, de gecreëerde data in 2018. Met de komst van outsourcing en later de cloud wordt data steeds centraler opgeslagen, rond 2025 verwacht IDC 49% hiervan in publieke clouds. Hoewel deze publieke providers hun veiligheid op een steeds professioneler niveau hebben gebracht, creëert centralisatie echter gelijkertijd een ‘single-point-of-failure’. Eén enkele beveiligingsinbreuk, virus of hack brengt de hele database in gevaar. Een risico dat kan oplopen tot miljoenen, zelfs miljarden files die kunnen worden gestolen.
Data decentralisatie
In de slinger tussen decentraal en centraal, waar de cloud – als het mainframe van het internet – die centrale beweging enorm heeft versterkt, zien we dat edge en grid computing juist een decentrale beweging creëert. Mede door het ‘Internet of Things & People’ is juist aan de randen en op de knooppunten van netwerken steeds meer processing power en lokale storage nodig om die data lokaal op te slaan en te bewerken. Een balans tussen centrale Big Data en lokale Fast Data. Ik besteedde hier al jaren geleden aandacht aan, zie deze blog over ‘VM-world 2018’ en deze blog over ‘de aantrekkingskracht van data’ uit 2015.
Maar datacentralisatie is niet alleen riskant; het is ook oneerlijk. Hoewel het als oplossing zeer effectief is, leidt het vaak tot een oneerlijke verdeling van activa en middelen. Algemene voorwaarden die aan de systemen zijn gekoppeld, beschermen de grote databedrijven, niet de individuen of kleine bedrijven. Ondertussen hebben de gebruikers van deze gecentraliseerde datasystemen geen andere keuze dan de voorwaarden te accepteren of te worden uitgesloten van deelname. Ook om die reden is data decentralisatie een goede zaak. Mits die data net zo veilig – en zonder ‘single-point-of-failure’ zelfs veiliger – kan worden opgeslagen en bewaard.
Photo by Debby Hudson on Unsplash