De dag dat wetenschap ophield van iedereen te zijn
English version: scroll down
Denkvermogen als eigendom: waarom AI-infrastructuur de nieuwe geopolitiek is
Er was een tijd dat wetenschap geen grenzen kende. In internationale projecten ontmoetten onderzoekers elkaar niet als concurrenten, maar als bouwers van dezelfde toren van kennis. Ieder bracht zijn ervaring mee – een dataset, een experiment, een modellering – en daaruit werd iets nieuws gemaakt. De uitkomst was van iedereen: niet omdat auteursrecht dat voorschreef, maar omdat het ondenkbaar was dat je wetenschap in eigendom zou houden zodra ze eenmaal was ontstaan.
Wie zich ooit in zulke projecten heeft bewogen, kent dat gevoel: je stopt iets in de machine, de machine slaat aan en wat eruit komt is groter dan jijzelf. Het is een vorm van gemeenschappelijk denken. De snelheid van vooruitgang is niet de optelsom van individuele ideeën, maar de vermenigvuldiging van perspectieven. Dat is hoe wetenschap tot op heden werkt.
En toen veranderde er iets. Niet in de hoofden van onderzoekers, maar in de infrastructuur waar wetenschap op rust. Supercomputers, energiecontracten, nationale datasets, cloudplatforms, algoritmische ecosystemen – de onderlaag verschoof. Dat is de achtergrond van wat Dion Wiggins “The Genesis Gambit” noemt: het moment waarop staten wetenschap niet langer zien als een open domein, maar als een strategisch bezit.
Het nieuwe fundament: energie, compute, data
We spreken vaak over AI alsof het een soort software is. Een product dat uit een industrieel kanaal rolt: versie 3.0, update, bugfix. Maar dat is een misverstand. AI is geen programma. AI is thermodynamica. Het is verwerkte energie.
Een modern taalmodel, een klimaatvoorspelling of een simulatie van nano-materialen bestaat bij gratie van elektriciteit. Zonder megawatts aan voeding, koeling en continue beschikbaarheid zijn de mooiste algoritmes slechts tekst op een server. Het beeld dat AI “in de cloud leeft” is ironisch genoeg misleidend: die cloud bestaat uit reusachtige betonnen dozen vol hardware, omgeven door hoogspanningslijnen en waterleidingen.
Daarom begint AI altijd bij energie. Energie is de brandstof. Compute is de motor. Data zijn de bouwstenen. AI is de fabriek die daaruit kennis maakt. Wie die keten controleert, bepaalt de richting van vooruitgang. Dat was nooit eerder zo zichtbaar als nu.
Van software naar geopolitiek
In het recente artikel over het Genesis-programma legt Dion Wiggins een ongemakkelijke conclusie neer: AI is geen industrie, maar een machtsstructuur. De Verenigde Staten bouwen niet aan een nieuw product, maar aan een soevereine perimeter. Een beschermende muur van nationale supercomputers, federale datalakes, industriële energiecontracten en overheidscontrole op toegang.
Het lijkt technisch, maar het is politiek. Private labs en startups ontwikkelen modellen, bedrijven experimenteren met modellen, universiteiten proberen ze te begrijpen — maar het skelet waar dat denken op rust, verschuift naar de staat.
En met dat skelet verschuift eigendom. Wie onderzoek doet op Amerikaanse supercomputers, gebruikt datasets die in federale infrastructuur zijn opgeslagen, of werkt met door de staat gesanctioneerde compute, is niet langer een vrij denkend subject, maar een gebruiker in een systeem. Er is geen kwaad opzet — maar er is wel een grens. Niet iedereen mag overal bij.
Voorstanders noemen het noodzakelijk: China loopt in; Europa reguleert zichzelf dood. Deglobalisatie van technologie is geen keuze, maar een reactie. Wie geopolitiek als schaakspel ziet, begrijpt de zet: je sluit je koningsvleugel voordat de tegenstander dat doet. Maar wie wetenschap ziet als een open ecosysteem waarin ideeën vrij circuleren, voelt iets anders: een krimpende horizon.
Het vergeten geheugen van wetenschap
Hoe ingrijpend die verschuiving is, merk je pas als je naar de moderne “memoires” van wetenschap kijkt. Geen boeken, maar rekenwerk: simulaties die maanden hebben gedraaid, modellen die generaties lang zijn verfijnd, datacollecties die door klimaat- of genoomonderzoek zijn opgebouwd. Ze zijn niet zichtbaar als PDF’s in een bibliotheek, maar leven als getrainde parameters, numerieke velden, ruwe meetreeksen. Deze memoires komen alleen tot leven via enorme compute. Zet ze op een laptop en ze zijn inert; zet ze in een nationaal HPC-cluster en ze veranderen in vragen die antwoord krijgen.
Wie compute beheert, beheert interpretatie. En interpretatie ís macht.
Niet de onderzoeker die een idee heeft, maar het platform dat miljoenen ideeën kan doorrekenen, bepaalt welke ideeën realiteit worden. Niet omdat iemand dat besluit, maar omdat infrastructuur altijd prioriteiten afdwingt. Net zoals een microscoop bepaalt wat zichtbaar is, bepaalt een AI-stack welke hypotheses kunnen worden getest. De machine bepaalt immers (de grenzen van) de output.
Van open wetenschap naar gesloten systemen
Hier ligt de verschuiving die velen nog niet zien: wetenschap verandert van disciplines die ideeën uitwisselen in ecosystemen die rekenkracht uitwisselen. En rekenkracht is niet een dienst; het is een strategisch goed. Wie daar geen toegang toe heeft, doet niet meer mee.
We hebben dit eerder gezien. Cloud werd een wereldwijde default, totdat geopolitiek het in regio’s splitste. 5G werd een standaard, totdat je ontdekte dat je leverancier tegelijk je spion was. Chips waren commodities, totdat fabricage een veiligheidsissue werd. GPS was navigatie, totdat het oorlogsvoering werd. AI was een aardig hulpje tot je er cyberbased door werd aangevallen.
AI volgt dus hetzelfde pad — maar sneller en met veel grotere repercussies. Want AI is geen toepassing; het is kennis zelf. Niet alleen de goede kennis, maar ook kwade, vernietigende kennis.
Europa reguleert wat het niet bezit
Europa reageert zoals Europa altijd reageert: met regels. Transparantie, watermarking, ethiek, governance. De zorgen zijn legitiem. Maar reguleren zonder infrastructuur is als verkeersregels opleggen aan een land zonder auto’s: het klinkt verantwoordelijk, maar verandert niets aan de machtsverhoudingen. Als je zelf het spel niet speelt, moet je je ook niet met de spelregels bemoeien.
Je kunt Big Tech verplichten tot audits, maar als hun trainingsclusters in Arizona staan en hun datacenters draaien op Amerikaanse energiecontracten, dan liggen de sleutels elders. Voor wetenschap geldt dit nog harder. Onderzoek zonder toegang tot compute is geen onderzoek maar retoriek. De promovendus die wel ideeën heeft maar geen GPU’s, bestaat niet als deelnemer; hij bestaat als toeschouwer. Europa publiceert artikelen, maar bouwt geen modellen. We leveren de fundamentele inzichten en laten ze vervolgens in Amerika implementeren en in China industrialiseren.
Europa is verworden tot een continent van theorie, zonder machinekamer.
Nederland in het kwetsbare midden
Nederland zit midden in dat kruispunt. We hebben briljante onderzoekers, een industrie die tot de moeilijkste technologie ter wereld in staat is — kijk naar ASML — en een traditie van open wetenschap. Maar de infrastructuren die die wetenschappelijke kracht kunnen vertalen naar AI-capaciteit zijn nipjes bij elkaar geknoopt. Verspreid over 28 landen die als individuele landen en industrie niet echt samenwerken.
We hebben HPC-clusters, maar ze zijn versnipperd en tijdgebonden. We hebben data, maar geen robuuste publieke datalakes. We hebben energie, maar niet de zekerheid die lange termijn compute vereist en op sommige plaatsen kraakt in zijn voegen. We hebben beleid, maar geen strategie die tien of twintig jaar omspant. We zijn een land van wetenschap, talent en ideeën, maar met gehuurde rekencapaciteit. En zoals Wiggins scherp zegt: “wie compute huurt, huurt zijn toekomst”.
De schaduwkant van “open”
Het wrange is dat we nog steeds geloven dat open wetenschap vanzelfsprekend is. We delen papers, we delen code, we spreken op conferenties. Maar open science functioneert alleen als de infrastructuur waarop ze draait ook open – of ten minste sovereign toegankelijk en autonoom bruikbaar – is. Anders is “open” slechts een toegangsdeur tot andermans machine.
En in die machine is niet alles zichtbaar. Een black box met infrastructuur die bepaalt wat je kunt – en erger – niet kunt modelleren. Want wat de box niet kan modelleren, bestaat gewoon niet.
Dit is Wiggins’ scherpste inzicht: niet alles wat modern is, is beter – maar alles wat niet in vaste architecturen past, verdwijnt uit de waarneming. Lokale kennis, niet-westerse methoden, domeinspecifieke innovaties: als ze niet op de dominante stack (kunnen) draaien, glijden ze weg uit het discours. Niet omdat ze fout zijn, maar omdat ze onzichtbaar worden.
Soevereiniteit en autonomie als ontwerp, niet als symbool
Wat betekent soevereiniteit dan in een AI-tijdperk? Geen vlag, geen ceremonie, geen PR-offensief. Slechts eigen soevereiniteit, autonomie en verantwoording. Soevereiniteit is je eigen infrastructuur kunnen ontwikkelen. Autonomie is dat je er vrij mee kunt werken. Verantwoording is aantonen dat je het goed deed. Zie mijn blog de digitale Trias Politica. Dus we willen:
- Rekencentra met langjarige garanties; denken in decennia in plaats van jaren.
- Publieke datasets met governance die universiteiten en burgermaatschappij vertrouwen.
- Energiecontracten die niet elk jaar ter discussie staan: goedkoop, betrouwbaar, stabiel.
- Een bestuursmodel waarin overheid, onderzoek en industrie niet klant en leverancier zijn, maar mede-eigenaren.
Het gaat niet om het kopiëren van Genesis of het verheerlijken van Amerikaanse staatsmacht. Het gaat om het begrijpen van de onderlaag: zonder infrastructuur bestaat er geen wetenschap, slechts verslaggeving en discussie over wetenschap elders.
De keuze die Europa — en Nederland — moet maken
De komende jaren bepalen of wij spelers of gebruikers worden. We kunnen blijven geloven dat regulering genoeg is. We kunnen hopen dat Amerikaanse of Chinese stacks “neutraal” blijven. We kunnen watchen, evalueren, conferenties organiseren. Hopen dat we mee mogen blijven doen.
Maar innovatie is een machine. Een machine die stroom verbruikt. Een machine die warmte produceert. Een machine die data verslindt. Een machine die uit ideeën, kennis maakt. En kennis is uiteindelijk macht. Dus we moeten onze eigen machines hebben om zelfstandig te blijven . . .
Als we geen eigen machines durven te bouwen, verdwijnen onze ideeën in het gat tussen talent en toegang. Dan worden onze universiteiten de grijze zones van een infrastructuur die elders staat — met onderzoekers die wachten op andermans capaciteit, terwijl de wereld verdergaat.
Dat is niet cynisch. Het is gewoon fysica.
Wie denkt dat de toekomst van wetenschap een debat is, vergist zich. De toekomst van wetenschap is beton, koeling, glasvezel en energie. En de vraag is niet of wij dat willen, maar of wij het durven.
Als we dat niet doen, blijft er nog maar één ding over:
blogs zoals deze — en een wetenschap die niet van ons is.
Photo by Pixabay
————————- Translated by ChatGPT ———————————
The Day Science Stopped Belonging to Everyone
Thinking as Property: Why AI Infrastructure Is the New Geopolitics
There was a time when science was a collective endeavor. In international projects, every participant could contribute knowledge under NDA. Each dataset, model, or article was part of a shared outcome. Not because we were naïve, but because collaboration was simply the fastest way forward.
I spent years in such projects. You brought your ideas, someone else brought theirs, and the system multiplied them. The results became bigger than any individual. That is how knowledge grew: cumulatively, inclusively, openly.
Today, the rules have changed. Not because scientists suddenly stopped sharing, but because the infrastructure that underpins science has shifted. Supercomputers, data lakes, national energy contracts, AI training platforms — these are now the levers of power. Dion Wiggins calls this shift “The Genesis Gambit”: the moment when scientific infrastructure becomes a geopolitical weapon.
Energy is the fuel. Compute is the engine. Data is the building blocks. And AI is the factory that turns all of this into new knowledge. Whoever controls this chain controls influence, and increasingly, control over the future of science itself.
AI Is Thermodynamics
Many analysts still describe AI as software. That is a misconception. AI is thermodynamics.
Training a large model consumes enormous amounts of electricity, cooling and physical infrastructure. Without sustained energy, even the most elegant algorithms are inert. The cloud does not float above the Earth; it sits in massive datacenters, drawing power, pumping water for cooling, and consuming real-world resources.
Only states, industrial conglomerates, or energy superpowers can afford to sustain this kind of computation. And the energy itself is not a passive input; it becomes part of the knowledge production process. Reliable, large-scale, long-term energy access — whether from nuclear, fusion, or connected grids — determines who can generate knowledge.
In short: AI is not a technical problem. It is an energy-architecture problem. And that is where countries like the Netherlands and much of Europe face a stark challenge. We have knowledge and expertise, but not the strategic energy or compute infrastructure to support large-scale AI-driven science.
AI Infrastructure as Geopolitics
Conversations about AI tend to focus on applications, ethics, or risks. Rarely do they focus on infrastructure. Yet this is precisely where the struggle for power and sovereignty is being fought.
The Genesis program in the United States is a clear example. It is not an innovation program in the usual sense. It is a sovereign perimeter: national supercomputers, federal datalakes, energy contracts and institutional authority come together to create AI capacity. Private labs become renters of infrastructure that they do not own. Knowledge production shifts from private innovation to political strategy.
Proponents argue that this centralization is necessary: the U.S. faced the risk of losing scientific dominance to China and had no choice but to protect its advantage. Seen as a chess move, it is elegant. Seen as an attack on open science, it is alarming: the space of freely accessible knowledge contracts.
The Memory of Science
To understand the stakes, we need to think beyond generative AI and buzzwords. Science is cumulative: it builds over decades. Nuclear simulations, climate data, genomic research, materials science, aerospace — all these domains have “memories”: massive archives of experiments, observations and simulations.
These archives are not like books in a library. They only come to life through enormous computational power, often requiring supercomputers running for months. Whoever controls the compute controls who can reinterpret this knowledge.
Here emerges a subtle but massive shift in power: thinking as property. Not the individual who had an idea, but the platform capable of processing millions of ideas decides what can be realized, tested and applied.
The Geopolitical Domino
Genesis is not merely a domestic U.S. project. It is a strategic lock-in. Countries or companies that wish to participate must plug into the American stack. Access to compute, datasets, or simulation platforms may be tied to compliance, export restrictions, or intellectual property.
This is not science fiction. We have seen it before with cloud regions, 5G standards, chip fabrication, GPS, satellite communications. Once an infrastructure becomes the global default, it transforms from a service into a dominant structure.
Europe understands this. We have decades of experience with dependency in energy, defense and technology. Yet on AI and scientific computation, the continent faces an even more dangerous crossroads: we regulate what we do not own.
And the Netherlands?
The Netherlands sits squarely in this category: highly educated, strong in research, yet vulnerable in infrastructure. We excel at building technology (ASML), experimenting with data (universities, healthcare, public research), and generating knowledge. But the ecosystems that turn that knowledge into AI capacity — national supercomputers, datacenters, energy contracts, federal data provision — are fragmented, temporary, or underfunded.
We have brilliant scientists, but insufficient compute to model their questions at scale. We have ideals of open data, but no robust, sovereign datasets. We have ministers who speak about AI, but no long-term strategy backed by billions and state guarantees.
In other words: whoever rents their compute, rents their future.
Regulating Without Building
Europe has become a champion of regulation. It sounds noble — protecting citizens, ensuring transparency, safeguarding ethics. But without its own infrastructure, regulation becomes a ritual of dependency.
Audits, model watermarking, and transparency rules mean little if the underlying compute is foreign. And in science, the problem is starker: research without access to compute is no longer research; it is rhetoric. A PhD student with brilliant ideas but no GPU is not talent; they are a spectator. Europe may produce fundamental discoveries but leaves implementation and industrial scale elsewhere.
Innovation That Disappears
One of Wiggins’ most striking observations is epistemic: not all that is modern is better, but everything that cannot be modeled disappears from view. Infrastructure does not just shape output; it shapes what is even thinkable.
Entire scientific traditions, local methodologies, non-Western knowledge, domain-specific approaches — if they do not fit within the dominant system, they vanish. It is not failure; it is invisibility. And this invisibility is permanent if we do not maintain our own compute ecosystem.
Sovereignty as Architecture
In a world where AI is infrastructure, sovereignty is not a symbol. It is physical. It is investment, governance, and control.
- Long-term, reliable supercomputing clusters
- Public and scientific datasets secured and shared under clear governance
- Energy contracts capable of sustaining HPC workloads
- Governance models that integrate universities, industry, and government as co-owners, not clients
Without these, open science ceases to function as open. “Open” becomes a gate that grants access to someone else’s machine.
We do not need to build a Genesis-style centralist program. But we must realize that open science only works on a sovereign foundation. Without it, “open” is an illusion.
The Choice Ahead
In the coming years, the Netherlands will decide whether it is a producer or a consumer of AI-driven science. Blind faith in European regulation with patchwork national initiatives will increase dependency, not reduce it. If compute and data reside elsewhere, our researchers queue for capacity that is not theirs.
Wiggins’ point is not a triumphal American narrative; it is a mirror.
If you want to participate in the future, you must have a future to run on.
Not ideology, but electricity, coolant, fiber, scientific datasets, and people who can write code.
Those who build infrastructure produce science. Those who rent it observe.
If we do not act, all that remains are blogs and committees
— but no science of our own.