Menselijke versus kunstmatige intelligentie

English version: scroll down

Dezelfde uitkomst, een totaal andere redenatie

In een recent LinkedIn-artikel werd scherp blootgelegd hoe fundamenteel verschillend menselijke en kunstmatige intelligentie eigenlijk functioneren. Niet zozeer in wat ze produceren, maar in hoe ze tot die productie komen. Mensen en grote taalmodellen (LLMs) kunnen zinnen schrijven die sterk op elkaar lijken, vergelijkbare beoordelingen geven en soms zelfs identieke conclusies trekken.

Die gelijkenis is echter oppervlakkig. Onder de motorkap gaapt een ontologische kloof: een fundamenteel verschil in de aard van hun bestaan. Menselijke intelligentie ontstaat uit een belichaamd, ervaringsrijk leven in de wereld. Kunstmatige intelligentie daarentegen berust op statistische patronen tussen symbolen — zonder lichaam, zonder ervaring, zonder eigen verhouding tot de werkelijkheid.

Oordeel is belichaamd

Menselijk oordeel ontstaat uit een geleefd leven. Het wordt gevormd door lichamelijke ervaring, emoties, herinneringen, sociale interacties, morele intuïties en intenties. Een mens oordeelt niet alleen over de wereld, maar altijd in de wereld — met een lichaam, in een tijdsverloop, met persoonlijke inzet en verantwoordelijkheid.

Een taalmodel heeft niets van dat alles. Het kent geen ervaring, geen lichaam, geen tijdsbesef, geen intentie. Het verwerkt tekst door die op te knippen in tokens — kleine, op zichzelf betekenisloze eenheden — en berekent welke woorden statistisch het meest waarschijnlijk op elkaar volgen. Betekenis ontstaat niet uit beleefde realiteit, maar uit waarschijnlijkheidsverdelingen over enorme tekstkorpora. Woorden verwijzen niet naar de wereld, maar naar andere woorden.

En toch: de output kan verbluffend menselijk lijken.

Wanneer plausibiliteit kennis begint te vervangen

Wanneer radicaal verschillende processen tot vrijwel identieke taal leiden, verschuift het probleem van technologie naar epistemologie: de vraag wat we eigenlijk als kennis accepteren.

Het risico zit niet primair in leugens — taalmodellen liegen zelden bewust — maar in de illusie die ontstaat wanneer vloeiende, coherente taal verificatie begint te vervangen. Wanneer de vorm van kennis — overtuigend, grammaticaal perfect, zelfverzekerd — de daadwerkelijke arbeid van kennen overschaduwt.

Dit is geen academisch detail, maar een praktische waarschuwing voor iedereen die AI inzet voor evaluatie, advies of oordeel.

Een oude droom in een nieuwe gedaante

Het verlangen om denken mechanisch te reproduceren is oud. Griekse mythen verhalen over de gouden automaten van Hephaestus. De Joodse golem werd tot leven gewekt door letters. In de middeleeuwen droomde Ramon Llull van logische machines; Leibniz fantaseerde over een calculus ratiocinator die conflicten oplost met symbolen. Descartes en La Mettrie zagen de mens zelf als machine.

Alan Turing maakte deze droom in 1950 meetbaar met een pragmatische vraag: kan een machine gedrag vertonen dat niet van menselijk gedrag te onderscheiden is? Daarmee werd intelligentie gereduceerd tot imiteerbaar gedrag.

En precies daar staan we nu.

De studie van Loru et al.: een systematische blik

Een recente publicatie in Proceedings of the National Academy of Sciences biedt hier zeldzame helderheid: Loru et al. (2025). De onderzoekers lieten zes grote taalmodellen — waaronder varianten van ChatGPT, Gemini, Llama en Mistral — en mensen dezelfde taak uitvoeren: nieuwsbronnen beoordelen op betrouwbaarheid en bias, volgens identieke stappen (criteria kiezen, inhoud ophalen, uitleg geven).

Die beoordelingen werden vergeleken met expertanalyses van onder meer NewsGuard en Media Bias/Fact Check. Op het eerste gezicht presteren de modellen goed: de alignment met experts is vaak hoog.

Maar onder de oppervlakte verschijnen structurele verschillen.

Modellen leunen zwaar op lexicale patronen — woordkeuze, stijl, toon — in plaats van inhoudelijke context. Er ontstaan politieke asymmetrieën, waarbij bepaalde ideologische richtingen consistent als betrouwbaarder worden beoordeeld. En modellen blijken geneigd linguïstische elegantie te verwarren met epistemische kwaliteit.

De auteurs noemen dit fenomeen “epistemia”: de illusie van kennis wanneer plausibiliteit verificatie vervangt — of, in mooiere woorden, het overtuigend verbloemen van een inhoudelijk gebrek aan begrip.

Twee paden naar hetzelfde antwoord 

Het menselijke pad
Informatie komt binnen via zintuigen → wordt gekoppeld aan herinneringen, emoties en waarden → verwerkt in sociale en morele context → leidt tot een oordeel dat onvermijdelijk gekleurd is door wie je bent.

Het model-pad
Tekst → tokenisatie → statistische voorspelling van het volgende token → laag na laag waarschijnlijkheidsberekening → output die volgens trainingsdata het meest “menselijk” aandoet.

De uitkomst kan identiek lijken.
Het proces is radicaal onpersoonlijk.

Implicaties: waar we nu staan

AI ondersteunt inmiddels talloze schaalbare taken: samenvattingen maken, patronen herkennen, hypotheses genereren, synthetische data produceren. Dat is waardevol.

Maar zodra we daadwerkelijk oordeel delegeren — in onderwijs, journalistiek, rechtspraak, beleid of zorg — moeten we ons realiseren wat we uitbesteden: geen inzicht, maar een plausibele simulatie ervan. De studie laat zien dat die simulatie overtuigend kan zijn, maar systematisch afwijkt op punten die ertoe doen: bias, contextgevoeligheid en normatieve diepgang.

Slot

De uitdaging is niet technologisch — modellen zullen onvermijdelijk beter worden. De uitdaging is menselijk: blijven we scherp zien wat AI níét is? Wie hier vaker over nadenkt, herkent dit spanningsveld. Techniek presenteert zich zelden als neutraal instrument, zeker niet wanneer zij zich vermomt als oordelend wezen.

De vraag is niet of kunstmatige intelligentie slim genoeg wordt. De vraag is of wij wijs genoeg blijven om het verschil te blijven zien.

*) Proceedings of the National Academy of Sciences biedt hier zeldzame helderheid: Loru, E. et al. (2025). The simulation of judgment in LLMs. PNAS 122(42): e2518443122. https://doi.org/10.1073/pnas.2518443122

Photo by Ecliptic Graphic on Unsplash

———————-  Translated by ChatGPT  ———————

Human vs. Artificial Intelligence

Same outcome, radically different reasoning

A recent LinkedIn article highlighted a fundamental difference between human and artificial intelligence. Not so much in what they produce, but in how they arrive there. Humans and large language models (LLMs) can generate similar sentences, reach comparable judgments, and sometimes even draw identical conclusions.

That similarity, however, is superficial. Beneath the surface lies an ontological gap — a fundamental difference in the nature of their existence. Human intelligence emerges from an embodied, experiential life in the world. Artificial intelligence, by contrast, is built on statistical relationships between symbols — without a body, without experience, without any lived relationship to reality.

Judgment is embodied

Human judgment arises from a lived life. It is shaped by bodily experience, emotions, memories, social interaction, moral intuition, and intention. Humans do not judge about the world from the outside; they judge within the world — with a body, over time, and with personal involvement and responsibility.

A language model has none of this. It has no experience, no body, no sense of time, no intention. It processes text by breaking it down into tokens — small, intrinsically meaningless units — and calculating which words are statistically most likely to follow. Meaning does not arise from lived reality, but from probability distributions across vast text corpora. Words do not point to the world, but to other words.

And yet, the output can feel strikingly human.

When plausibility begins to replace knowledge

When radically different processes produce nearly identical language, the problem shifts from technology to epistemology: what do we actually accept as knowledge?

The risk does not primarily lie in falsehoods — models rarely “lie” intentionally — but in the illusion created when fluent, coherent language begins to substitute for verification. When the form of knowledge — persuasive, grammatically perfect, authoritative-sounding — overshadows the actual labor of knowing.

This is not an academic concern. It is a practical warning for anyone using AI for evaluation, advice, or judgment.

An old dream in a new form

The desire to mechanize thinking is ancient. Greek myths tell of Hephaestus’ golden automatons. The Jewish golem was animated through letters. In the Middle Ages, Ramon Llull dreamed of logical machines; Leibniz imagined a calculus ratiocinator capable of resolving disputes through symbols. Descartes and La Mettrie viewed humans themselves as machines.

In 1950, Alan Turing reframed this dream pragmatically: can a machine exhibit behavior indistinguishable from that of a human? Intelligence was reduced to imitable behavior.

That is precisely where we find ourselves today.

The study by Loru et al.: a systematic view

A recent publication *) in Proceedings of the National Academy of Sciences offers rare clarity: Loru et al. (2025). The researchers asked six major language models — including versions of ChatGPT, Gemini, Llama, and Mistral — and humans to perform the same task: evaluating news sources for reliability and bias, following identical steps (selecting criteria, retrieving content, and providing explanations).

Their results were compared with expert assessments from organizations such as NewsGuard and Media Bias/Fact Check. At first glance, the models perform well, often showing high alignment with expert judgments.

But beneath the surface, systematic differences emerge.

Models rely heavily on lexical cues — wording, style, tone — rather than deeper contextual understanding. Political asymmetries appear, with certain ideological positions consistently rated as more reliable. And linguistic elegance is frequently mistaken for epistemic quality.

The authors call this phenomenon “epistemia”: the illusion of knowledge that arises when plausibility replaces verification — a polished way of sounding knowledgeable without truly understanding.

Two paths to the same answer

The human path
Information enters through the senses → is connected to memories, emotions, and values → processed within social and moral contexts → results in a judgment shaped by who the person is.

The model path
Text → tokenization → statistical prediction of the next token → layer upon layer of probability calculations → output that appears most “human” according to training data.

The outcome may look the same.
The process is radically impersonal.

Implications: where we stand now

AI already supports many scalable tasks: summarization, pattern recognition, hypothesis generation, synthetic data creation. That is valuable.

But once we begin delegating judgment — in education, journalism, law, policy, or healthcare — we must be clear about what we are outsourcing: not understanding, but a plausible simulation of it. The study shows that this simulation can be highly convincing, yet systematically diverges where it matters most: bias, contextual awareness, and normative depth.

Closing

The challenge is not technological – models will inevitably improve – but the challenge is human: do we remain capable of recognizing what AI is not?

The question is thus not whether artificial intelligence will become smart enough. The question is whether we will remain wise enough to see the difference.

*) Proceedings of the National Academy of Sciences biedt hier zeldzame helderheid: Loru, E. et al. (2025). The simulation of judgment in LLMs. PNAS 122(42): e2518443122. https://doi.org/10.1073/pnas.2518443122