Grenzen aan AI
English version: scroll down
Waarom de Concorde en de A380 ons iets leren over de toekomst van kunstmatige intelligentie
Stel je voor dat je in de Concorde zit. Mach 2. Een glas champagne in de hand terwijl de Atlantische Oceaan onder je voorbijschiet. Van Londen naar New York in minder dan drie uur. Het toestel was een technisch meesterwerk, misschien wel het ultieme symbool van menselijke ambitie. Omdat ik enkele van de ingenieurs achter de Concorde nog persoonlijk heb gekend, voelde het toestel voor mij altijd als meer dan alleen een vliegtuig; het was een visie op de toekomst. Alles eraan straalde vooruitgang uit: sneller, hoger, indrukwekkender.
En toch verdwenen beide vliegtuigen langzaam uit het centrum van de burgerluchtvaart. Niet omdat ze technisch faalden, maar omdat ze economisch en praktisch tegen hun grenzen aanliepen. De Concorde verbruikte absurd veel brandstof, vergde extreem onderhoud en was alleen betaalbaar voor een kleine elite. De A380 bleek op veel luchthavens een logistieke uitdaging en sloot steeds minder aan op een wereld die juist flexibelere point-to-point verbindingen wilde. Uiteindelijk koos de luchtvaartindustrie niet voor het meest spectaculaire vliegtuig, maar voor efficiëntere toestellen zoals de Boeing 787 Dreamliner en de Airbus A350. Technische perfectie bleek iets anders dan duurzame bruikbaarheid.
Grenzen aan bruikbaarheid
Precies diezelfde beweging zie ik vandaag ontstaan binnen AI. De afgelopen jaren voelde kunstmatige intelligentie alsof we collectief in een technologische roes terechtkwamen. Elke nieuwe generatie modellen leek een sprong vooruit. GPT, Claude, Gemini, Grok — telkens sneller, slimmer, krachtiger. De indruk ontstond dat schaalvergroting oneindig door kon gaan. Meer data, meer GPU’s, grotere modellen, grotere datacenters. Alsof intelligentie simpelweg een kwestie was van nóg meer rekenkracht toevoegen.
Maar technologie ontwikkelt zich zelden lineair. Vrijwel iedere grote innovatie volgt uiteindelijk een S-curve. Eerst is er een lange periode van experimenteren en teleurstellingen. Daarna volgt een explosieve groeifase waarin alles ineens lijkt samen te komen. En vervolgens ontstaat onvermijdelijk een afvlakking, het moment waarop elke extra stap meer energie, meer geld en meer complexiteit kost voor relatief minder vooruitgang.
De harde werkelijkheid van S-curven
Bij AI begon die eerste fase al in de jaren vijftig en zestig, toen onderzoekers experimenteerden met de eerste neurale netwerken. In de jaren tachtig kwamen expert-systemen en ambitieuze onderzoeksprojecten die destijds revolutionair leken, maar in de praktijk beperkt bleven. Decennialang bleef kunstmatige intelligentie vooral een academisch domein, interessant maar verre van wereldveranderend.
Pas rond 2012 begon deep learning echt tractie te krijgen. Daarna volgden de transformers in 2017 en ontstond de perfecte storm van gigantische datasets, NVIDIA-GPU’s en ongekende schaalvergroting. Ineens zat AI midden in het steile deel van de S-curve. De vooruitgang voelde bijna exponentieel. Maar wie goed kijkt, ziet inmiddels dezelfde signalen verschijnen die ooit ook zichtbaar werden in de luchtvaart. De nieuwste modellen zijn absoluut beter dan hun voorgangers, maar de sprongen worden kleiner terwijl de kosten juist explosief stijgen. Voor marginale kwaliteitsverbeteringen zijn gigantische hoeveelheden extra energie, hardware en infrastructuur nodig. Dat is geen toevalligheid. Het is een fundamentele eigenschap van schaal.
Brandstof versus massa
Ik gebruik daarbij graag een analogie die ik eerder ook al eens beschreef op mijn blog ‘De aantrekkingskracht van data’. Een processor — of dat nu een GPU- of TPU-cluster is — kun je zien als de motor. Data is de brandstof. De processor zet opgeslagen informatie om in nieuwe informatie: tekst, code, beelden, inzichten, voorspellingen. In zekere zin ontstaat er een continue omzetting van energie naar nieuwe kennis.
En net zoals brandstof in de luchtvaart gewicht en logistiek met zich meebrengt, heeft data dat ook. Grote datasets trekken nieuwe datasets aan. Applicaties trekken meer applicaties aan. Rekenkracht trekt meer rekenkracht aan. Dat fenomeen wordt vaak omschreven als data gravity: hoe groter het systeem wordt, hoe moeilijker en duurder het wordt om alles nog efficiënt te verplaatsen en beheren. Grotere motoren en meer brandstof leveren aanvankelijk enorme voordelen op. Totdat je een punt bereikt waarop extra schaal vooral leidt tot meer hitte, meer kosten, meer complexiteit en steeds kleinere opbrengsten.
De praktische grenzen van AI
In feite hebben we de AI-versies van de Concorde en de A380 inmiddels gebouwd. Aan de ene kant zijn er modellen die enorme hoeveelheden energie verbruiken voor relatief kleine kwaliteitsverbeteringen. Supersnel, indrukwekkend en technologisch fascinerend — maar met een prijskaartje dat steeds moeilijker te rechtvaardigen wordt. Aan de andere kant ontstaan gigantische modellen met honderden miljarden of zelfs biljoenen parameters, draaiend op duizenden GPU’s in datacenters die complete elektriciteitscentrales lijken te voeden.
Voor defensie, wetenschappelijk onderzoek of geopolitieke machtsprojecten zullen zulke systemen waarschijnlijk nog lang interessant blijven. Daar is efficiëntie niet altijd de hoogste prioriteit. Maar voor dagelijks gebruik — AI in kantoorsoftware, klantenservice, zoekmachines, creatieve toepassingen of persoonlijke assistenten — begint de verhouding tussen kosten, energieverbruik en daadwerkelijke meerwaarde steeds kritischer te worden.
Grenzen aan groei
Daarmee raken we niet alleen economische grenzen, maar ook natuurkundige. Lithografie blijft uiteindelijk gebonden aan de beperkingen van licht, warmteafvoer en materiaalfysica. Datacenters vragen steeds meer elektriciteit en koeling. Netwerken lopen tegen capaciteitsvraagstukken aan. Zelfs de beschikbaarheid van hoogwaardige chips en zeldzame grondstoffen wordt een strategische factor. De wet van ‘diminishing returns’ wordt zichtbaar.
Dat betekent overigens niet dat AI ophoudt te groeien. Integendeel. Waarschijnlijk staan we juist aan het einde van de eerste grote schaalfase en aan het begin van een volwassenere periode. Net zoals de luchtvaart na de Concorde niet instortte, maar juist efficiënter, comfortabeler en toegankelijker werd.
Ik verwacht daarom dat de volgende golf van AI minder draait om brute schaal en meer om intelligent ontwerp. Kleinere gespecialiseerde modellen die efficiënter werken. Architecturen zoals Mixture of Experts die slimmer omgaan met rekenkracht. Agentic systemen die beter kunnen redeneren en samenwerken. Meer AI direct op apparaten zelf, zonder gigantische cloudinfrastructuren op de achtergrond.
Tot een volgende doorbraak
Misschien komt er ooit nog een fundamentele doorbraak via quantum computing, neuromorphic chips of compleet nieuwe materialen. Maar zelfs als die technologieën werkelijkheid worden, zullen ze waarschijnlijk eerst hun weg vinden naar militaire, wetenschappelijke en industriële toepassingen voordat ze massaal beschikbaar komen voor consumenten. De belangrijkste les blijft daarom verrassend simpel: oneindige schaal bestaat niet. Niet in de luchtvaart. Niet in energie. Niet in chips. Niet in data. En uiteindelijk ook niet in AI.
Misschien ligt de meest interessante fase van kunstmatige intelligentie daarom niet achter ons, maar juist vóór ons. Niet de fase van steeds groter, duurder en energieverslindender, maar de fase waarin intelligentie efficiënter, bruikbaarder en duurzamer wordt.
De Concorde was spectaculair. Maar de Boeing 787 bracht de wereld uiteindelijk verder. Misschien moeten we in AI ook stoppen met dromen over supersonische modellen, en beginnen met bouwen aan de intelligente equivalent van de Dreamliner.
Photo by Reiner Schneider
—————————— Translated with ChatGPT —————————-
The Limits of AI
What the Concorde and the A380 can teach us about the future of artificial intelligence
Imagine sitting aboard the Concorde. Mach 2. A glass of champagne in your hand while the Atlantic Ocean rushes beneath you. From London to New York in less than three hours. The aircraft was a masterpiece of engineering, perhaps the ultimate symbol of human ambition. Having personally known several of the engineers involved, I always saw the Concorde as more than an aircraft; it was a vision of the future. Everything about it radiated progress: faster, higher, more impressive.
And yet, both aircraft slowly disappeared from the center of commercial aviation. Not because they failed technically, but because they ultimately collided with economic and practical realities. The Concorde consumed enormous amounts of fuel, required extremely expensive maintenance, and was only affordable for a small elite. The A380 became a logistical challenge for many airports and increasingly failed to match a world moving toward flexible point-to-point connections rather than giant hub-and-spoke systems. In the end, the aviation industry chose efficiency over spectacle, embracing aircraft such as the Boeing 787 Dreamliner and the Airbus A350.
Technical brilliance turned out to be something very different from sustainable practicality.
Today, I see exactly the same pattern emerging in AI.
Over the past few years, artificial intelligence has felt like a technological gold rush. Every new generation of models appeared to make another leap forward. GPT, Claude, Gemini, Grok — each one faster, smarter, and more powerful than the last. The impression emerged that scaling could continue indefinitely. More data, more GPUs, larger models, larger datacenters. As if intelligence itself were simply a matter of adding ever more computational power.
But technology rarely evolves in a straight line. Almost every major innovation follows an S-curve. First comes a long period of experimentation and disappointment. Then comes the explosive growth phase where everything suddenly seems to come together. And eventually, there is always a flattening — the moment when every additional step requires exponentially more energy, money, and complexity for increasingly smaller gains.
For AI, that first phase already began in the 1950s and 1960s, when researchers experimented with early neural networks. During the 1980s, expert systems and ambitious research projects emerged that looked revolutionary at the time, yet remained limited in practice. For decades, artificial intelligence largely remained an academic field: fascinating, but far from transformative.
Only around 2012 did deep learning truly begin to gain momentum. Then came transformers in 2017, followed by the perfect storm of massive datasets, NVIDIA GPUs, and unprecedented scaling. Suddenly, AI entered the steepest part of the S-curve. Progress felt almost exponential.
But if you look carefully, the same signals that once appeared in aviation are now becoming visible in AI. The newest models are certainly better than their predecessors, but the leaps are becoming smaller while the costs continue to explode. Marginal improvements now demand vast amounts of additional energy, hardware, and infrastructure.
That is not accidental. It is a fundamental property of scale itself.
I often use an analogy I explored earlier on my previous blog about datagravity. A processor — whether a GPU or TPU cluster — can be seen as the engine. Data is the fuel. The processor converts stored information into new information: text, code, images, insights, predictions. In a sense, there is a constant transformation of energy into knowledge.
And just as fuel in aviation introduces weight and logistical complexity, data does the same. Large datasets attract new datasets. Applications attract more applications. Computational power attracts more computational power. This phenomenon is often described as data gravity: the larger the system becomes, the harder and more expensive it becomes to move and manage everything efficiently.
Larger engines and more fuel initially deliver enormous advantages. Until a point is reached where additional scale mainly creates more heat, more cost, more complexity, and diminishing returns.
In reality, we have already built the AI equivalents of the Concorde and the A380.
On one side, there are ultra-powerful models consuming extraordinary amounts of energy for relatively small quality improvements. Fast, impressive, technologically fascinating — but increasingly difficult to justify economically. On the other side, we see gigantic models with hundreds of billions, even trillions, of parameters running on thousands of GPUs inside datacenters that resemble modern power plants.
For defense, scientific research, or geopolitical competition, these systems will likely remain valuable for years to come. In those domains, efficiency is not always the highest priority. But for everyday use — AI in office software, customer service, search engines, creative applications, or personal assistants — the balance between cost, energy consumption, and actual added value is becoming increasingly difficult to ignore.
And this is not merely an economic boundary. It is also a physical one. Lithography ultimately remains constrained by the limits of light, heat dissipation, and material physics. Datacenters require ever more electricity and cooling. Networks face growing capacity challenges. Even the availability of advanced chips and rare materials is becoming a strategic concern.
The law of diminishing returns is becoming visible.
That does not mean AI is ending. Quite the opposite. We are likely witnessing the end of the first great scaling era and the beginning of a more mature phase. Just as aviation did not collapse after the Concorde, but instead became more efficient, comfortable, and accessible.
The next wave of AI will probably focus less on brute-force scale and more on intelligent design. Smaller specialized models operating far more efficiently. Architectures such as Mixture of Experts optimizing computational resources more intelligently. Agentic systems capable of better reasoning and collaboration. More AI running directly on personal devices instead of depending entirely on massive cloud infrastructures.
Perhaps one day another fundamental breakthrough will emerge through quantum computing, neuromorphic chips, or entirely new materials. But even if those technologies become reality, they will likely first appear in military, scientific, and industrial environments long before reaching mainstream consumer applications.
Infinite scale does not exist.
The most important lesson remains surprisingly simple: infinite scale does not exist.vNot in aviation. Not in energy. Not in semiconductors. Not in data. And ultimately, not in AI either.
Perhaps the most exciting phase of artificial intelligence is therefore not behind us, but still ahead of us. Not the era of endlessly bigger, more expensive, and more energy-hungry systems, but the era in which intelligence becomes more efficient, more useful, and more sustainable.
The Concorde was spectacular. But the Boeing 787 ultimately moved the world forward.
Maybe AI should stop dreaming about supersonic models — and start building the intelligent equivalent of the Dreamliner.
#ArtificialIntelligence, #AI, #MachineLearning, #LLM, #FutureOfAI, #Technology, #Innovation, #DataGravity, #DeepLearning, #DigitalTransformation, #Sustainability, #Computing, #TechTrends, #AGI, #Cybersecurity