{"id":86480,"date":"2025-11-18T09:44:08","date_gmt":"2025-11-18T09:44:08","guid":{"rendered":"https:\/\/hanstimmerman.me\/?p=86480"},"modified":"2025-11-18T09:44:08","modified_gmt":"2025-11-18T09:44:08","slug":"ai-begon-groot-net-als-het-mainframe","status":"publish","type":"post","link":"https:\/\/hanstimmerman.me\/nl_nl\/ai-begon-groot-net-als-het-mainframe\/","title":{"rendered":"AI begon groot \u2013 net als het mainframe."},"content":{"rendered":"<p style=\"text-align: right;\"><span style=\"color: #000000;\"><em>English version: scroll down<\/em><\/span><\/p>\n<h5><span style=\"color: #000000;\">Dat is eigenlijk geen verrassing. Veel baanbrekende technologie\u00ebn starten met massiviteit en complexiteit. De eerste stoommachines vulden hele fabrieken, de eerste elektriciteitscentrales waren kathedralen van staal en koper en de eerste computers vulden complete kantoren. Radio\u2019s, televisies en mobiele telefoons begonnen als logge monumenten van techniek, totdat miniaturisering de sprong naar massaal gebruik mogelijk maakte.<\/span><\/h5>\n<h5><span style=\"color: #000000;\">Bij AI zien we dezelfde cyclus. De eerste taalmodellen moesten gigantisch zijn: enorme datacenters, miljarden parameters, astronomische kosten. Maar nu die eerste brute sprong is gemaakt, dringt de echte vraag zich op: <b>moet een taalmodel eigenlijk wel \u00e1lles weten?<\/b> Of worden juist kleinere, gespecialiseerde modellen de nieuwe norm? Die verschuiving is al volop gaande \u2013 en het voelt als een oude les die terugkomt.<\/span><\/h5>\n<h3><span style=\"color: #000000;\"><b>De terugkeer van specialisatie<\/b><\/span><\/h3>\n<p><span style=\"color: #000000;\">In de jaren negentig waren kennissystemen hip. Strak afgebakend, rule-based en domeinspecifiek. Niet uit schoonheidsoverwegingen, maar uit pure noodzaak: hardware was schaars, rekenkracht duur, een alleskunner was (nog) ondenkbaar. Achteraf bleek die beperking een zegen: specialisatie maakte systemen overzichtelijk, uitlegbaar en betaalbaar.<\/span><\/p>\n<p><span style=\"color: #000000;\">Vandaag gebeurt hetzelfde, maar nu met neurale netwerken in plaats van regels. Wat vroeger een gespecialiseerd kennissysteem was, is nu een compact AI-model van een paar honderd megabyte dat verrassend veel kan, een alleskunner. Omdat de rekenkracht er eindelijk <i>w\u00e9l<\/i> is.<span class=\"Apple-converted-space\">\u00a0<\/span><\/span><\/p>\n<p><span style=\"color: #000000;\">De ontwikkeling lijkt op de luchtvaart toen de gebroeders Wright een lichtgewicht 10 pk-motor in hun Flyer schroefden. Het liftprincipe van vleugels was door van Bernoulli decennia eerder beschreven. Maar pas toen er voldoende compacte power beschikbaar kwam, kon het echt vliegen.<\/span><\/p>\n<p><span style=\"color: #000000;\">De massieve AI en taal modellen van 2023\u20132025 waren onze Wright Flyer: het bewijs dat het k\u00e1n. Omdat we de compacte energie eindelijk in onze datacenters hadden. Die fase ligt intussen achter ons en nu pas begint de echte evolutie: <b>miniaturisering, specialisatie en decentralisatie<\/b>.<\/span><\/p>\n<h3><span style=\"color: #000000;\"><b>De opmars van het kleine<\/b><\/span><\/h3>\n<p><span style=\"color: #000000;\">Kleine modellen worden krachtig genoeg om op een smartphone of zelfs een IoT-sensor te draaien en leveren voor de meeste praktische taken resultaten die nauwelijks onderdoen voor de allergrootste reuzen. Het datacenter verdwijnt niet, maar het is niet langer het centrum van de intelligentie. Kunstmatige intelligentie is zich decentraal aan het ontwikkelen en verspreiden.<\/span><\/p>\n<p><span style=\"color: #000000;\">Net zoals wifi ooit een luxe-extra was &#8211; alleen in de lobby van het hotel &#8211; wordt het nu simpelweg overal verwacht. Op dezelfde wijze nestelt AI zich nu daar waar de data ontstaat: in auto\u2019s voor predictive safety en in drones voor navigatie. Of in beveiligingscamera\u2019s voor intrusion detection, in fabrieksmachines voor predictive maintenance en in routers voor anomaly detection.<span class=\"Apple-converted-space\">\u00a0<\/span><\/span><\/p>\n<p><span style=\"color: #000000;\">Het wordt <b>embedded intelligence<\/b> \u2013 net zo onzichtbaar en vanzelfsprekend als de tientallen algoritmes die vandaag al je auto stabiliseren. Neem branddetectie in moderne gebouwen: een piepklein model analyseert rook, hitte en geluid lokaal, reageert binnen milliseconden en verbruikt amper energie. Geen cloud-latency, geen datarisico. Maar ook geen mee-kijkers en data-dieven.<span class=\"Apple-converted-space\">\u00a0<\/span><\/span><\/p>\n<h3><span style=\"color: #000000;\"><b>De opkomst van modulaire AI<\/b><\/span><\/h3>\n<p><span style=\"color: #000000;\">Tegelijkertijd ontstaat er een modulaire AI-architectuur. In plaats van \u00e9\u00e9n generalistische alleskunner komt er een ecosysteem van specialistische modellen, bijvoorbeeld voor juridische naleving of medische triage. Of voor industri\u00eble procescontrole, specifieke cybersecurity of voor energie-optimalisatie. Ze doen per model minder, maar wat ze doen, doen ze <b>v\u00e9\u00e9l beter<\/b>.<\/span><\/p>\n<p><span style=\"color: #000000;\">Rond 2030 zit een Neural Processing Unit (NPU) standaard in elk apparaat. Richting 2040 heeft vrijwel elk stuk hardware zijn eigen micro-AI van enkele miljoenen parameters: specifiek getraind op \u00e9\u00e9n taak, zuinig met energie en volledig autonoom. Net zoals GPU\u2019s ooit niche waren en nu overal in zitten, wordt <b>embedded AI de nieuwe normaal<\/b>. Stel je een netwerk voor waarin autonome mini-AI\u2019s op switch-niveau verdacht verkeer herkennen zonder dat er ook maar \u00e9\u00e9n pakketje de cloud raakt. Sneller, veiliger, goedkoper.<\/span><\/p>\n<p><span style=\"color: #000000;\">Apple\u2019s Apple Intelligence in de iPhone 16-serie (2024\u20132025) en de nieuwe MacBooks met M4 draaien vrijwel alle on-device features \u2013 van schrijven en beeldbewerking tot Siri-begrip \u2013 met modellen van 3 tot 30 miljard parameters lokaal, waarbij alleen de allermoeilijkste taken nog naar Private Cloud Compute gaan.<\/span><\/p>\n<h3><span style=\"color: #000000;\"><b>In 2040 zal AI onder de motorkap wonen<\/b><\/span><\/h3>\n<p><span style=\"color: #000000;\">In 2040 praat niemand meer over \u201ceen AI-applicatie\u201d, net zomin als we nu zeggen: \u201cdit apparaat heeft internet\u201d. AI zit er gewoon in \u2013 altijd aan, vrijwel altijd onzichtbaar. Miljoenen kleine, autonome modellen werken lokaal, wisselen alleen noodzakelijke informatie uit en verbeteren zichzelf binnen hun eigen domein. Iedereen heeft tegen die tijd een device-gebaseerde persoonlijke assistent die heel vertrouwelijk slechts jouw data gebruikt en aanvult. Jouw denkproces en workflow door en door kent. Jou volledige privacy garandeert en alleen bij uitzondering een extern model raadpleegt.<\/span><\/p>\n<p><span style=\"color: #000000;\">Het is de digitale evolutie van de persoonlijke router: <b>klein, lokaal, volledig in eigen beheer<\/b>. De grote modellen blijven als clouds en datalakes bestaan, maar ze worden infrastructuur \u2013 net als elektriciteitscentrales. De echte innovatie gebeurt van onder de motorkap: van de miljoenen kleine AI\u2019s die op miljarden devices overal draaien. Intelligentie verspreidt zich, wordt kleinschaliger en versterkt daardoor het geheel. Decentralisatie wordt de nieuwe macht.<\/span><\/p>\n<p><span style=\"color: #000000;\">In slimme thermostaten en beveiligingscamera&#8217;s van fabrikanten als Nest en Arlo, die sinds begin 2025 een compact 200 MB-model aan boord hebben, wordt gezichtsherkenning en abnormaal gedrag lokaal verwerkt om bijvoorbeeld valpartijen bij ouderen te detecteren of ongeautoriseerde toegang te blokkeren, allemaal zonder directe internetverbinding en met minimale batterijbelasting.<\/span><\/p>\n<h3><span style=\"color: #000000;\"><b>Slot<\/b><\/span><\/h3>\n<p><span style=\"color: #000000;\">AI begon zijn zegetocht groots en gigantisch omdat die eerste technische sprong brute kracht vereiste. Maar nu die stap gezet is, volgt de natuurlijke evolutie: miniaturisering, specialisatie en decentralisatie. Wat ooit alleen in kathedraalachtige datacenters paste, past straks op een chip kleiner dan een postzegel. En zoals bij elke grote technologische transformatie geldt: de echte massa-adoptie begint pas wanneer het grootse uiteenvalt in het kleine.<br \/>\nNiet in de cloud, maar <b>onder de motorkap<\/b> \u2013 daar woont de toekomst van AI.<\/span><\/p>\n<p>Photo by <a href=\"https:\/\/www.pexels.com\/photo\/a-green-scrabble-board-with-letters-spelling-out-ai-18524070\/\">Markus Winkler<\/a><\/p>\n<article class=\"text-token-text-primary w-full focus:outline-none [--shadow-height:45px] has-data-writing-block:pointer-events-none has-data-writing-block:-mt-(--shadow-height) has-data-writing-block:pt-(--shadow-height) [&amp;:has([data-writing-block])&gt;*]:pointer-events-auto [content-visibility:auto] supports-[content-visibility:auto]:[contain-intrinsic-size:auto_100lvh] scroll-mt-[calc(var(--header-height)+min(200px,max(70px,20svh)))]\" dir=\"auto\" style=\"font-style: normal; font-variant-caps: normal; font-weight: 400; letter-spacing: normal; orphans: auto; text-align: start; text-indent: 0px; text-transform: none; white-space: normal; widows: auto; word-spacing: 0px; -webkit-text-stroke-width: 0px; text-decoration: none; caret-color: #000000; color: #000000;\" tabindex=\"-1\" data-turn-id=\"39f1a2a2-d7ec-45c2-a742-72f1ad4988df\" data-testid=\"conversation-turn-2\" data-scroll-anchor=\"false\" data-turn=\"assistant\">\n<div class=\"text-base my-auto mx-auto [--thread-content-margin:--spacing(4)] thread-sm:[--thread-content-margin:--spacing(6)] thread-lg:[--thread-content-margin:--spacing(16)] px-(--thread-content-margin)\">\n<div class=\"[--thread-content-max-width:40rem] thread-lg:[--thread-content-max-width:48rem] mx-auto max-w-(--thread-content-max-width) flex-1 group\/turn-messages focus-visible:outline-hidden relative flex w-full min-w-0 flex-col agent-turn\" tabindex=\"-1\">\n<div class=\"flex max-w-full flex-col grow\">\n<div class=\"min-h-8 text-message relative flex w-full flex-col items-end gap-2 text-start break-words whitespace-normal [.text-message+&amp;]:mt-1\" dir=\"auto\" data-message-author-role=\"assistant\" data-message-id=\"da8848fa-b264-4052-9245-637211b32d9b\" data-message-model-slug=\"gpt-5-1\">\n<div class=\"flex w-full flex-col gap-1 empty:hidden first:pt-[1px]\">\n<h2 data-start=\"57\" data-end=\"511\"><span style=\"color: #000000;\">AI started big \u2014 just like the mainframe.<\/span><\/h2>\n<h5 data-start=\"57\" data-end=\"511\"><span style=\"color: #000000;\">That shouldn\u2019t surprise anyone. Many breakthrough technologies begin as massive, unwieldy systems. The first steam engines filled entire factories, the first power stations were cathedrals of steel and copper, and the earliest computers devoured whole rooms. Radios, televisions, and mobile phones all started out as bulky monuments of engineering, until miniaturization opened the door to widespread adoption.<\/span><\/h5>\n<h5 data-start=\"513\" data-end=\"942\"><span style=\"color: #000000;\">We\u2019re seeing the same cycle with AI. The first language models had to be gigantic: huge data centers, billions of parameters, astronomical costs. But now that the initial brute-force leap has been made, the real question emerges: does a language model actually need to know <em data-start=\"787\" data-end=\"799\">everything<\/em>? Or will smaller, specialized models become the new standard? That shift is already well underway \u2014 and it feels like an old lesson returning.<\/span><\/h5>\n<p class=\"markdown prose dark:prose-invert w-full break-words dark markdown-new-styling\"><span style=\"color: #000000;\">The return of specialization<\/span><span style=\"color: #000000;\">In the 1990s, knowledge systems were all the rage. Strictly scoped, rule-based, domain-specific. Not out of elegance, but out of necessity: hardware was scarce, compute was expensive, and a general-purpose system was still unthinkable. In hindsight, that limitation turned out to be a blessing: specialization made systems understandable, explainable, and affordable.<\/span><\/p>\n<p class=\"markdown prose dark:prose-invert w-full break-words dark markdown-new-styling\"><span style=\"color: #000000;\">Today the same thing is happening, but now with neural networks instead of rules. What used to be a specialized knowledge system is now a compact AI model of only a few hundred megabytes that can do surprisingly much \u2014 almost a generalist. Because now the compute <em data-start=\"1612\" data-end=\"1616\">is<\/em> available. <\/span><\/p>\n<p class=\"markdown prose dark:prose-invert w-full break-words dark markdown-new-styling\"><span style=\"color: #000000;\">The development mirrors aviation when the Wright brothers bolted a lightweight 10 hp engine onto their Flyer. Bernoulli had described the lift principle decades earlier, but real flight only became possible once enough compact power existed.<\/span><span style=\"color: #000000;\">The massive AI and language models of 2023\u20132025 were our Wright Flyer: proof that it <em data-start=\"1957\" data-end=\"1962\">can<\/em> be done \u2014 because we finally had compact energy in our data centers. That phase is now behind us, and the real evolution is beginning: miniaturization, specialization, and decentralization.<\/span><\/p>\n<h3 data-start=\"2154\" data-end=\"2181\"><span style=\"color: #000000;\">The rise of the small<\/span><\/h3>\n<p class=\"markdown prose dark:prose-invert w-full break-words dark markdown-new-styling\"><span style=\"color: #000000;\">Small models are becoming powerful enough to run on a smartphone or even an IoT sensor, delivering results for most practical tasks that barely lag behind the giant models. The data center won\u2019t disappear, but it\u2019s no longer the center of intelligence.<\/span><span style=\"color: #000000;\">Just as Wi-Fi shifted from luxury feature to basic expectation, AI is embedding itself right where data is born: in cars for predictive safety, in drones for navigation. Or in security cameras for intrusion detection, factory machines for predictive maintenance, and routers for anomaly detection.<\/span><\/p>\n<p class=\"markdown prose dark:prose-invert w-full break-words dark markdown-new-styling\"><span style=\"color: #000000;\">This becomes embedded intelligence \u2014 as invisible and self-evident as the dozens of algorithms that already keep your car stable today. Consider fire detection in modern buildings: a tiny model analyzes smoke, heat, and sound locally, responds within milliseconds, and consumes almost no power. No cloud latency, no data risk. And no eavesdroppers or data thieves.<\/span><\/p>\n<h3 data-start=\"3101\" data-end=\"3129\"><span style=\"color: #000000;\">The rise of modular AI<\/span><\/h3>\n<p class=\"markdown prose dark:prose-invert w-full break-words dark markdown-new-styling\"><span style=\"color: #000000;\">At the same time, a modular AI architecture is emerging. Instead of one generalist system, we\u2019ll have an ecosystem of specialist models \u2014 for legal compliance, medical triage, industrial process control, targeted cybersecurity, or energy optimization. Each model does less, but what it does, it does <em data-start=\"3430\" data-end=\"3435\">far<\/em> better.<\/span><span style=\"color: #000000;\">By around 2030, a Neural Processing Unit (NPU) will be standard in every device. <\/span><\/p>\n<p class=\"markdown prose dark:prose-invert w-full break-words dark markdown-new-styling\"><span style=\"color: #000000;\">By 2040, virtually every piece of hardware will host its own micro-AI with a few million parameters: trained for a single task, extremely energy-efficient, and fully autonomous. Just as GPUs went from niche to ubiquitous, embedded AI will become the new normal.<\/span><span style=\"color: #000000;\">Imagine a network where autonomous mini-AIs detect suspicious traffic directly at the switch level, without a single packet ever touching the cloud. Faster, safer, cheaper.<\/span><\/p>\n<p class=\"markdown prose dark:prose-invert w-full break-words dark markdown-new-styling\"><span style=\"color: #000000;\">Apple\u2019s <strong data-start=\"3973\" data-end=\"3995\">Apple Intelligence<\/strong> on the iPhone 16 series (2024\u20132025) and the new M4-based MacBooks already run nearly all on-device features \u2014 from writing assistance and image editing to Siri understanding \u2014 using local models ranging from 3 to 30 billion parameters, with only the most complex tasks sent to Private Cloud Compute.<\/span><\/p>\n<h3 data-start=\"4297\" data-end=\"4339\"><span style=\"color: #000000;\">By 2040, AI will live under the hood<\/span><\/h3>\n<p class=\"markdown prose dark:prose-invert w-full break-words dark markdown-new-styling\"><span style=\"color: #000000;\">By 2040, no one will talk about \u201can AI application,\u201d just as no one today says, \u201cthis device has internet.\u201d AI will simply be there \u2014 always on, almost always invisible. Millions of small, autonomous models will work locally, sharing only essential information, improving themselves within their own domain.<\/span><span style=\"color: #000000;\">Everyone will have a device-based personal assistant that uses only your data, knows your thinking and workflow in detail, guards your privacy completely, and consults an external model only when absolutely necessary.<\/span><span style=\"color: #000000;\">It will be the digital evolution of the personal router: small, local, fully under your control. <\/span><\/p>\n<p class=\"markdown prose dark:prose-invert w-full break-words dark markdown-new-styling\"><span style=\"color: #000000;\">The big models will remain as clouds and data lakes, but they will become infrastructure \u2014 like power plants. The real innovation will happen under the hood, in the millions of tiny AIs running on billions of devices. Intelligence will disperse, become smaller, and strengthen the whole system. Decentralization will become the new power structure.<\/span><\/p>\n<p class=\"markdown prose dark:prose-invert w-full break-words dark markdown-new-styling\"><span style=\"color: #000000;\">In smart thermostats and security cameras from manufacturers like Nest and Arlo \u2014 which since early 2025 have included a compact 200 MB model \u2014 facial recognition and abnormal-behavior detection run entirely on-device, enabling fall detection for elderly users or blocking unauthorized access without any internet connection and with minimal battery use.<\/span><\/p>\n<h3 data-start=\"5671\" data-end=\"5687\"><span style=\"color: #000000;\">Conclusion<\/span><\/h3>\n<p class=\"markdown prose dark:prose-invert w-full break-words dark markdown-new-styling\"><span style=\"color: #000000;\">AI began its triumph with grand, gigantic systems because that initial technological leap demanded raw power. But now that the leap is behind us, the natural evolution follows: miniaturization, specialization, and decentralization.<\/span><span style=\"color: #000000;\">What once required cathedral-sized data centers will soon fit on a chip smaller than a postage stamp. And as with every major technological shift, mass adoption begins only when the monumental breaks down into the miniature. Not in the cloud, but under the hood \u2014 that\u2019s where the future of AI will live.<\/span><\/p>\n<\/div>\n<\/div>\n<\/div>\n<div class=\"z-0 flex min-h-[46px] justify-start\"><\/div>\n<\/div>\n<\/div>\n<\/article>\n","protected":false},"excerpt":{"rendered":"<p>AI began its triumph with grand, gigantic systems because that initial technological leap demanded raw power. But now that the leap is behind us, the natural evolution follows: miniaturization, specialization, and decentralization.<\/p>\n<p>What once required cathedral-sized data centers will soon fit on a chip smaller than a postage stamp. And as with every major technological shift, mass adoption begins only when the monumental breaks down into the miniature. Not in the cloud, but under the hood \u2014 that\u2019s where the future of AI will live.<\/p>\n","protected":false},"author":3,"featured_media":86484,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[293,194,75,138],"tags":[119,644,863,864,865,866,867,868,869,870],"class_list":["post-86480","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-artificial-intelligence","category-transformatie","category-innovation","category-strategie","tag-ai","tag-decentralization","tag-miniaturization","tag-edgeai","tag-embeddedintelligence","tag-futuretech","tag-npus","tag-ondeviceai","tag-modularai","tag-techevolution"],"jetpack_featured_media_url":"https:\/\/i0.wp.com\/hanstimmerman.me\/wp-content\/uploads\/2025\/11\/pexels-markus-winkler-1430818-18524070-scaled-e1763458175421.jpg?fit=1702%2C986&ssl=1","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/posts\/86480","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/comments?post=86480"}],"version-history":[{"count":5,"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/posts\/86480\/revisions"}],"predecessor-version":[{"id":86486,"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/posts\/86480\/revisions\/86486"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/media\/86484"}],"wp:attachment":[{"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/media?parent=86480"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/categories?post=86480"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/hanstimmerman.me\/nl_nl\/wp-json\/wp\/v2\/tags?post=86480"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}