{"id":86997,"date":"2026-05-10T01:34:59","date_gmt":"2026-05-10T01:34:59","guid":{"rendered":"https:\/\/hanstimmerman.me\/?p=86997"},"modified":"2026-05-10T01:34:59","modified_gmt":"2026-05-10T01:34:59","slug":"grenzen-aan-ai","status":"publish","type":"post","link":"https:\/\/hanstimmerman.me\/nl_nl\/grenzen-aan-ai\/","title":{"rendered":"Grenzen aan AI"},"content":{"rendered":"<p style=\"text-align: right;\"><span style=\"color: #000000;\"><em>English version: scroll down<\/em><\/span><\/p>\n<h4><span style=\"color: #000000;\"><b>Waarom de Concorde en de A380 ons iets leren over de toekomst van kunstmatige intelligentie<\/b><\/span><\/h4>\n<h5><span style=\"color: #000000;\">Stel je voor dat je in de Concorde zit. Mach 2. Een glas champagne in de hand terwijl de Atlantische Oceaan onder je voorbijschiet. Van Londen naar New York in minder dan drie uur. Het toestel was een technisch meesterwerk, misschien wel het ultieme symbool van menselijke ambitie. Omdat ik enkele van de ingenieurs achter de Concorde nog persoonlijk heb gekend, voelde het toestel voor mij altijd als meer dan alleen een vliegtuig; het was een visie op de toekomst. Alles eraan straalde vooruitgang uit: sneller, hoger, indrukwekkender.<\/span><\/h5>\n<p><span style=\"color: #000000;\">En toch verdwenen beide vliegtuigen langzaam uit het centrum van de burgerluchtvaart. Niet omdat ze technisch faalden, maar omdat ze economisch en praktisch tegen hun grenzen aanliepen. De Concorde verbruikte absurd veel brandstof, vergde extreem onderhoud en was alleen betaalbaar voor een kleine elite. De A380 bleek op veel luchthavens een logistieke uitdaging en sloot steeds minder aan op een wereld die juist flexibelere point-to-point verbindingen wilde. Uiteindelijk koos de luchtvaartindustrie niet voor het meest spectaculaire vliegtuig, maar voor effici\u00ebntere toestellen zoals de Boeing 787 Dreamliner en de Airbus A350. Technische perfectie bleek iets anders dan duurzame bruikbaarheid.<\/span><\/p>\n<h3><span style=\"color: #000000;\"><b>Grenzen aan bruikbaarheid<\/b><\/span><\/h3>\n<p><span style=\"color: #000000;\">Precies diezelfde beweging zie ik vandaag ontstaan binnen AI. De afgelopen jaren voelde kunstmatige intelligentie alsof we collectief in een technologische roes terechtkwamen. Elke nieuwe generatie modellen leek een sprong vooruit. GPT, Claude, Gemini, Grok \u2014 telkens sneller, slimmer, krachtiger. De indruk ontstond dat schaalvergroting oneindig door kon gaan. Meer data, meer GPU\u2019s, grotere modellen, grotere datacenters. Alsof intelligentie simpelweg een kwestie was van n\u00f3g meer rekenkracht toevoegen.<\/span><\/p>\n<p><span style=\"color: #000000;\">Maar technologie ontwikkelt zich zelden lineair. Vrijwel iedere grote innovatie volgt uiteindelijk een S-curve. Eerst is er een lange periode van experimenteren en teleurstellingen. Daarna volgt een explosieve groeifase waarin alles ineens lijkt samen te komen. En vervolgens ontstaat onvermijdelijk een afvlakking, het moment waarop elke extra stap meer energie, meer geld en meer complexiteit kost voor relatief minder vooruitgang.<\/span><\/p>\n<h3><span style=\"color: #000000;\"><b>De harde werkelijkheid van S-curven<\/b><\/span><\/h3>\n<p><span style=\"color: #000000;\">Bij AI begon die eerste fase al in de jaren vijftig en zestig, toen onderzoekers experimenteerden met de eerste neurale netwerken. In de jaren tachtig kwamen expert-systemen en ambitieuze onderzoeksprojecten die destijds revolutionair leken, maar in de praktijk beperkt bleven. Decennialang bleef kunstmatige intelligentie vooral een academisch domein, interessant maar verre van wereldveranderend.<\/span><\/p>\n<p><span style=\"color: #000000;\">Pas rond 2012 begon deep learning echt tractie te krijgen. Daarna volgden de transformers in 2017 en ontstond de perfecte storm van gigantische datasets, NVIDIA-GPU\u2019s en ongekende schaalvergroting. Ineens zat AI midden in het steile deel van de S-curve. De vooruitgang voelde bijna exponentieel. Maar wie goed kijkt, ziet inmiddels dezelfde signalen verschijnen die ooit ook zichtbaar werden in de luchtvaart. De nieuwste modellen zijn absoluut beter dan hun voorgangers, maar de sprongen worden kleiner terwijl de kosten juist explosief stijgen. Voor marginale kwaliteitsverbeteringen zijn gigantische hoeveelheden extra energie, hardware en infrastructuur nodig. Dat is geen toevalligheid. Het is een fundamentele eigenschap van schaal.<\/span><\/p>\n<h3><span style=\"color: #000000;\"><b>Brandstof versus massa<\/b><\/span><\/h3>\n<p><span style=\"color: #000000;\">Ik gebruik daarbij graag een analogie die ik eerder ook al eens beschreef op <a style=\"color: #000000;\" href=\"https:\/\/hanstimmerman.me\/nl_nl\/de-aantrekkingskracht-van-data\/\">mijn blog \u2018De aantrekkingskracht van data\u2019<\/a>. Een processor \u2014 of dat nu een GPU- of TPU-cluster is \u2014 kun je zien als de motor. Data is de brandstof. De processor zet opgeslagen informatie om in nieuwe informatie: tekst, code, beelden, inzichten, voorspellingen. In zekere zin ontstaat er een continue omzetting van energie naar nieuwe kennis.<\/span><\/p>\n<p><span style=\"color: #000000;\">En net zoals brandstof in de luchtvaart gewicht en logistiek met zich meebrengt, heeft data dat ook. Grote datasets trekken nieuwe datasets aan. Applicaties trekken meer applicaties aan. Rekenkracht trekt meer rekenkracht aan. Dat fenomeen wordt vaak omschreven als data gravity: hoe groter het systeem wordt, hoe moeilijker en duurder het wordt om alles nog effici\u00ebnt te verplaatsen en beheren. Grotere motoren en meer brandstof leveren aanvankelijk enorme voordelen op. Totdat je een punt bereikt waarop extra schaal vooral leidt tot meer hitte, meer kosten, meer complexiteit en steeds kleinere opbrengsten.<\/span><\/p>\n<h3><span style=\"color: #000000;\"><b>De praktische grenzen van AI<\/b><\/span><\/h3>\n<p><span style=\"color: #000000;\">In feite hebben we de AI-versies van de Concorde en de A380 inmiddels gebouwd. Aan de ene kant zijn er modellen die enorme hoeveelheden energie verbruiken voor relatief kleine kwaliteitsverbeteringen. Supersnel, indrukwekkend en technologisch fascinerend \u2014 maar met een prijskaartje dat steeds moeilijker te rechtvaardigen wordt. Aan de andere kant ontstaan gigantische modellen met honderden miljarden of zelfs biljoenen parameters, draaiend op duizenden GPU\u2019s in datacenters die complete elektriciteitscentrales lijken te voeden.<\/span><\/p>\n<p><span style=\"color: #000000;\">Voor defensie, wetenschappelijk onderzoek of geopolitieke machtsprojecten zullen zulke systemen waarschijnlijk nog lang interessant blijven. Daar is effici\u00ebntie niet altijd de hoogste prioriteit. Maar voor dagelijks gebruik \u2014 AI in kantoorsoftware, klantenservice, zoekmachines, creatieve toepassingen of persoonlijke assistenten \u2014 begint de verhouding tussen kosten, energieverbruik en daadwerkelijke meerwaarde steeds kritischer te worden.<\/span><\/p>\n<h3><span style=\"color: #000000;\"><b>Grenzen aan groei<\/b><\/span><\/h3>\n<p><span style=\"color: #000000;\">Daarmee raken we niet alleen economische grenzen, maar ook natuurkundige. Lithografie blijft uiteindelijk gebonden aan de beperkingen van licht, warmteafvoer en materiaalfysica. Datacenters vragen steeds meer elektriciteit en koeling. Netwerken lopen tegen capaciteitsvraagstukken aan. Zelfs de beschikbaarheid van hoogwaardige chips en zeldzame grondstoffen wordt een strategische factor. De wet van \u2018diminishing returns\u2019 wordt zichtbaar.<\/span><\/p>\n<p><span style=\"color: #000000;\">Dat betekent overigens niet dat AI ophoudt te groeien. Integendeel. Waarschijnlijk staan we juist aan het einde van de eerste grote schaalfase en aan het begin van een volwassenere periode. Net zoals de luchtvaart na de Concorde niet instortte, maar juist effici\u00ebnter, comfortabeler en toegankelijker werd.<\/span><\/p>\n<p><span style=\"color: #000000;\">Ik verwacht daarom dat de volgende golf van AI minder draait om brute schaal en meer om intelligent ontwerp. Kleinere gespecialiseerde modellen die effici\u00ebnter werken. Architecturen zoals Mixture of Experts die slimmer omgaan met rekenkracht. Agentic systemen die beter kunnen redeneren en samenwerken. Meer AI direct op apparaten zelf, zonder gigantische cloudinfrastructuren op de achtergrond.<\/span><\/p>\n<h3><span style=\"color: #000000;\"><b>Tot een volgende doorbraak<\/b><\/span><\/h3>\n<p><span style=\"color: #000000;\">Misschien komt er ooit nog een fundamentele doorbraak via quantum computing, neuromorphic chips of compleet nieuwe materialen. Maar zelfs als die technologie\u00ebn werkelijkheid worden, zullen ze waarschijnlijk eerst hun weg vinden naar militaire, wetenschappelijke en industri\u00eble toepassingen voordat ze massaal beschikbaar komen voor consumenten. De belangrijkste les blijft daarom verrassend simpel: oneindige schaal bestaat niet. Niet in de luchtvaart. Niet in energie. Niet in chips. Niet in data. En uiteindelijk ook niet in AI.<\/span><\/p>\n<p><span style=\"color: #000000;\">Misschien ligt de meest interessante fase van kunstmatige intelligentie daarom niet achter ons, maar juist v\u00f3\u00f3r ons. Niet de fase van steeds groter, duurder en energieverslindender, maar de fase waarin intelligentie effici\u00ebnter, bruikbaarder en duurzamer wordt.<\/span><\/p>\n<p><span style=\"color: #000000;\">De Concorde was spectaculair. Maar de Boeing 787 bracht de wereld uiteindelijk verder. Misschien moeten we in AI ook stoppen met dromen over supersonische modellen, en beginnen met bouwen aan de intelligente equivalent van de Dreamliner.<\/span><\/p>\n<p><span style=\"color: #000000;\">Photo by <a style=\"color: #000000;\" href=\"https:\/\/www.pexels.com\/photo\/concorde-rc-model-in-british-airways-livery-taking-off-27015991\/\">Reiner Schneider<\/a><\/span><\/p>\n<p><span style=\"color: #000000;\">\u2014\u2014\u2014\u2014\u2014\u2014\u2014\u2014\u2014\u2014 Translated with ChatGPT <span class=\"Apple-converted-space\">\u00a0 <\/span>\u2014\u2014\u2014\u2014\u2014\u2014\u2014\u2014\u2014-<\/span><\/p>\n<h2><span style=\"color: #000000;\"><b>The Limits of AI<\/b><\/span><\/h2>\n<h3><span style=\"color: #000000;\"><b>What the Concorde and the A380 can teach us about the future of artificial intelligence<\/b><\/span><\/h3>\n<h5><span style=\"color: #000000;\">Imagine sitting aboard the Concorde. Mach 2. A glass of champagne in your hand while the Atlantic Ocean rushes beneath you. From London to New York in less than three hours. The aircraft was a masterpiece of engineering, perhaps the ultimate symbol of human ambition. Having personally known several of the engineers involved, I always saw the Concorde as more than an aircraft; it was a vision of the future. Everything about it radiated progress: faster, higher, more impressive.<\/span><\/h5>\n<p><span style=\"color: #000000;\">And yet, both aircraft slowly disappeared from the center of commercial aviation. Not because they failed technically, but because they ultimately collided with economic and practical realities. The Concorde consumed enormous amounts of fuel, required extremely expensive maintenance, and was only affordable for a small elite. The A380 became a logistical challenge for many airports and increasingly failed to match a world moving toward flexible point-to-point connections rather than giant hub-and-spoke systems. In the end, the aviation industry chose efficiency over spectacle, embracing aircraft such as the Boeing 787 Dreamliner and the Airbus A350.<\/span><\/p>\n<p><span style=\"color: #000000;\">Technical brilliance turned out to be something very different from sustainable practicality.<\/span><\/p>\n<p><span style=\"color: #000000;\">Today, I see exactly the same pattern emerging in AI.<\/span><\/p>\n<p><span style=\"color: #000000;\">Over the past few years, artificial intelligence has felt like a technological gold rush. Every new generation of models appeared to make another leap forward. GPT, Claude, Gemini, Grok \u2014 each one faster, smarter, and more powerful than the last. The impression emerged that scaling could continue indefinitely. More data, more GPUs, larger models, larger datacenters. As if intelligence itself were simply a matter of adding ever more computational power.<\/span><\/p>\n<p><span style=\"color: #000000;\">But technology rarely evolves in a straight line. Almost every major innovation follows an S-curve. First comes a long period of experimentation and disappointment. Then comes the explosive growth phase where everything suddenly seems to come together. And eventually, there is always a flattening \u2014 the moment when every additional step requires exponentially more energy, money, and complexity for increasingly smaller gains.<\/span><\/p>\n<p><span style=\"color: #000000;\">For AI, that first phase already began in the 1950s and 1960s, when researchers experimented with early neural networks. During the 1980s, expert systems and ambitious research projects emerged that looked revolutionary at the time, yet remained limited in practice. For decades, artificial intelligence largely remained an academic field: fascinating, but far from transformative.<\/span><\/p>\n<p><span style=\"color: #000000;\">Only around 2012 did deep learning truly begin to gain momentum. Then came transformers in 2017, followed by the perfect storm of massive datasets, NVIDIA GPUs, and unprecedented scaling. Suddenly, AI entered the steepest part of the S-curve. Progress felt almost exponential.<\/span><\/p>\n<p><span style=\"color: #000000;\">But if you look carefully, the same signals that once appeared in aviation are now becoming visible in AI. The newest models are certainly better than their predecessors, but the leaps are becoming smaller while the costs continue to explode. Marginal improvements now demand vast amounts of additional energy, hardware, and infrastructure.<\/span><\/p>\n<p><span style=\"color: #000000;\">That is not accidental. It is a fundamental property of scale itself.<\/span><\/p>\n<p><span style=\"color: #000000;\">I often use an analogy I explored earlier on my <a style=\"color: #000000;\" href=\"https:\/\/hanstimmerman.me\/nl_nl\/de-aantrekkingskracht-van-data\/\">previous blog about datagravity.<\/a> A processor \u2014 whether a GPU or TPU cluster \u2014 can be seen as the engine. Data is the fuel. The processor converts stored information into new information: text, code, images, insights, predictions. In a sense, there is a constant transformation of energy into knowledge.<\/span><\/p>\n<p><span style=\"color: #000000;\">And just as fuel in aviation introduces weight and logistical complexity, data does the same. Large datasets attract new datasets. Applications attract more applications. Computational power attracts more computational power. This phenomenon is often described as data gravity: the larger the system becomes, the harder and more expensive it becomes to move and manage everything efficiently.<\/span><\/p>\n<p><span style=\"color: #000000;\">Larger engines and more fuel initially deliver enormous advantages. Until a point is reached where additional scale mainly creates more heat, more cost, more complexity, and diminishing returns.<\/span><\/p>\n<p><span style=\"color: #000000;\">In reality, we have already built the AI equivalents of the Concorde and the A380.<\/span><\/p>\n<p><span style=\"color: #000000;\">On one side, there are ultra-powerful models consuming extraordinary amounts of energy for relatively small quality improvements. Fast, impressive, technologically fascinating \u2014 but increasingly difficult to justify economically. On the other side, we see gigantic models with hundreds of billions, even trillions, of parameters running on thousands of GPUs inside datacenters that resemble modern power plants.<\/span><\/p>\n<p><span style=\"color: #000000;\">For defense, scientific research, or geopolitical competition, these systems will likely remain valuable for years to come. In those domains, efficiency is not always the highest priority. But for everyday use \u2014 AI in office software, customer service, search engines, creative applications, or personal assistants \u2014 the balance between cost, energy consumption, and actual added value is becoming increasingly difficult to ignore.<\/span><\/p>\n<p><span style=\"color: #000000;\">And this is not merely an economic boundary. It is also a physical one. Lithography ultimately remains constrained by the limits of light, heat dissipation, and material physics. Datacenters require ever more electricity and cooling. Networks face growing capacity challenges. Even the availability of advanced chips and rare materials is becoming a strategic concern.<\/span><\/p>\n<h3><span style=\"color: #000000;\"><b>The law of diminishing returns is becoming visible.<\/b><\/span><\/h3>\n<p><span style=\"color: #000000;\">That does not mean AI is ending. Quite the opposite. We are likely witnessing the end of the first great scaling era and the beginning of a more mature phase. Just as aviation did not collapse after the Concorde, but instead became more efficient, comfortable, and accessible.<\/span><\/p>\n<p><span style=\"color: #000000;\">The next wave of AI will probably focus less on brute-force scale and more on intelligent design. Smaller specialized models operating far more efficiently. Architectures such as Mixture of Experts optimizing computational resources more intelligently. Agentic systems capable of better reasoning and collaboration. More AI running directly on personal devices instead of depending entirely on massive cloud infrastructures.<\/span><\/p>\n<p><span style=\"color: #000000;\">Perhaps one day another fundamental breakthrough will emerge through quantum computing, neuromorphic chips, or entirely new materials. But even if those technologies become reality, they will likely first appear in military, scientific, and industrial environments long before reaching mainstream consumer applications.<\/span><\/p>\n<h3><span style=\"color: #000000;\"><b>Infinite scale does not exist.<\/b><\/span><\/h3>\n<p><span style=\"color: #000000;\">The most important lesson remains surprisingly simple: infinite scale does not exist.vNot in aviation. Not in energy. Not in semiconductors. Not in data. And ultimately, not in AI either.<\/span><\/p>\n<p><span style=\"color: #000000;\">Perhaps the most exciting phase of artificial intelligence is therefore not behind us, but still ahead of us. Not the era of endlessly bigger, more expensive, and more energy-hungry systems, but the era in which intelligence becomes more efficient, more useful, and more sustainable.<\/span><\/p>\n<p><span style=\"color: #000000;\">The Concorde was spectacular. But the Boeing 787 ultimately moved the world forward.<\/span><\/p>\n<p><span style=\"color: #000000;\">Maybe AI should stop dreaming about supersonic models \u2014 and start building the intelligent equivalent of the Dreamliner.<\/span><\/p>\n<p><span style=\"color: #000000;\">#ArtificialIntelligence, #AI, #MachineLearning, #LLM, #FutureOfAI, #Technology, #Innovation, #DataGravity, #DeepLearning, #DigitalTransformation, #Sustainability, #Computing, #TechTrends, #AGI, #Cybersecurity<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p>The most important lesson remains surprisingly simple: infinite scale does not exist.vNot in aviation. Not in energy. Not in semiconductors. Not in data. And ultimately, not in AI either.<\/p>\n<p>Perhaps the most exciting phase of artificial intelligence is therefore not behind us, but still ahead of us. Not the era of endlessly bigger, more expensive, and more energy-hungry systems, but the era in which intelligence becomes more efficient, more useful, and more sustainable.<\/p>\n","protected":false},"author":3,"featured_media":87000,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[293,71,72,75,138],"tags":[1023,109,119,122,297,339,374,547,631,682,1018,1019,1020,1021,1022],"class_list":["post-86997","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-artificial-intelligence","category-digital-economy","category-digitalisation","category-innovation","category-strategie","tag-agi","tag-innovation","tag-ai","tag-sustainability","tag-machinelearning","tag-cybersecurity","tag-datagravity","tag-futureofai","tag-digitaltransformation","tag-artificialintelligence","tag-llm","tag-technology","tag-deeplearning","tag-computing","tag-techtrends"],"jetpack_featured_media_url":"https:\/\/i0.wp.com\/hanstimmerman.me\/wp-content\/uploads\/2026\/05\/pexels-reiner-schneider-1313702650-27015991-scaled-e1778375587822.jpg?fit=2540%2C1067&ssl=1","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/posts\/86997","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/comments?post=86997"}],"version-history":[{"count":8,"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/posts\/86997\/revisions"}],"predecessor-version":[{"id":86999,"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/posts\/86997\/revisions\/86999"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/media\/87000"}],"wp:attachment":[{"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/media?parent=86997"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/categories?post=86997"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/tags?post=86997"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}