{"id":83527,"date":"2023-06-08T19:43:25","date_gmt":"2023-06-08T19:43:25","guid":{"rendered":"https:\/\/hanstimmerman.me\/?p=83527"},"modified":"2023-08-03T16:12:51","modified_gmt":"2023-08-03T16:12:51","slug":"ai-is-voorlopig-niet-meer-dan-toegepaste-statistiek","status":"publish","type":"post","link":"https:\/\/hanstimmerman.me\/en\/ai-is-voorlopig-niet-meer-dan-toegepaste-statistiek\/","title":{"rendered":"AI is voorlopig niet meer dan \u2018toegepaste statistiek\u2019"},"content":{"rendered":"<h5><span style=\"color: #000000;\">Afgelopen week las ik een <a style=\"color: #000000;\" href=\"https:\/\/www.ft.com\/content\/c1f6d948-3dde-405f-924c-09cc0dcf8c84?sharetype=blocked\">interview<\/a> van Madhumita Murgia (FT) met de beroemde science-fiction schrijver Ted Chiang. <a style=\"color: #000000;\" href=\"https:\/\/en.wikipedia.org\/wiki\/Ted_Chiang\">Chiang<\/a> is \u00e9\u00e9n van de vooraanstaande Sci-Fi novellisten van deze tijd en heeft vele succesvolle boeken op zijn naam staan. Zijn interesse is de relatie tussen taal en cognitie: de hersenfuncties die nodig zijn voor waarnemen, denken, onthouden van kennis en deze kennis op een goede manier toepassen. Wat is natuurlijke intelligentie en welke implicaties kan \u2018bovenmenselijke\u2019 intelligentie hebben. De machines die we nu hebben, hebben geen bewustzijn. De huidige AI-modellen worden getraind op waarden en sterkten tussen verbindingen, niet op begrip. Kort gezegd kun je stellen dat de huidige AI systemen niet meer zijn dan &#8216;<em>technisch slim toegepaste statistiek<\/em>&#8216;.<span class=\"Apple-converted-space\">\u00a0<\/span><\/span><\/h5>\n<p><span style=\"color: #000000;\"><b>Wat is intelligentie?<\/b><\/span><\/p>\n<p><span style=\"color: #000000;\">Het bezwaar van Chiang is dat we verkeerde woorden gebruiken voor de techniek die we momenteel ontwikkelen. We projecteren termen als \u2018leren\u2019, \u2018begrijpen\u2019 en \u2018kennen\u2019 op de chatbots die we bouwen. Hierdoor lijkt het of zij intelligentie hebben, maar dat is absoluut niet zo. Eigenlijk hebben we last van een verkeerde definitie die we in 1954 aan deze ontwikkeling hebben gegeven: kunstmatige intelligentie. Terwijl hetgeen wat we toen en nu nog steeds doen, niet meer is dan slimme statistiek toepassen op steeds grotere data-verzamelingen.<span class=\"Apple-converted-space\">\u00a0<\/span><\/span><\/p>\n<p><span style=\"color: #000000;\">Het is natuurlijk verbazingwekkend dat we vanuit de statistische analyse van enorm grote hoeveelheden tekst, deze antwoorden kunnen halen. Maar dat maakt het gereedschap nog \u00a0niet intelligent. Helaas is statistiek geen sexy term en verkoopt dus minder goed dan AI. In zijn novel \u2018<i>The lifecycle of software objects<\/i>\u2019 neemt Chiang ons mee in een verhaal over nieuw ontwikkelde digitale wezens die worden verkocht als virtuele huisdieren. Deze objecten hebben wel een bewustzijn en cognitie, maar zijn nog volkomen onvolwassen. In zijn boek wordt het gedachten-experiment uitgewerkt om te begrijpen wat de fundamenten van intelligentie nu werkelijk zijn.<span class=\"Apple-converted-space\">\u00a0<\/span><\/span><\/p>\n<p><span style=\"color: #000000;\"><b>Verantwoordelijkheid en moraal<\/b><\/span><\/p>\n<p><span style=\"color: #000000;\">Een deel van zijn filosofische zoektocht is te ontdekken wanneer een digitaal wezen \u2018moraal\u2019 heeft, of kan krijgen. Of eigen verantwoordelijkheid kan nemen. Of we beslissingen aan hen kunnen overlaten, of dat we als mens altijd eindverantwoordelijkheid moeten houden. Het is eenzelfde moment voor een ouder dat je je kind zelfstandig in de maatschappij kunt \u2018loslaten\u2019. Wanneer zijn de huidige &#8216;onvolwassen digitale objecten&#8217; ooit volwassen genoeg om zelfstandig te kunnen functioneren? Chiang\u2019s stelling is dat de huidige digitale objecten zich vooralsnog in een zuigelingen-status bevinden.<span class=\"Apple-converted-space\">\u00a0<\/span><\/span><\/p>\n<p><span style=\"color: #000000;\">Chiang\u2019s interesse is de hoe het menselijke leven zoals werk, liefde en familie kan worden be\u00efnvloed door technisch wetenschappelijke ontwikkelingen zoals kwantummechanica, AI en theoretische wiskunde. En hoe taal daarin een belangrijke verbindende rol speelt. Taal immers bepaalt hoe we denken en wie we zijn en hoe we onze vrije wil uiten. Zou je met je eigen digitale zelf willen praten? Een digitaal wezen dat veel van jou weet, je meningen en interesses kent en je als persoonlijke assistent ondersteunt. Zie ook mijn <a style=\"color: #000000;\" href=\"https:\/\/hanstimmerman.me\/en\/the-assistive-computing-era\/\">eerdere blog<\/a> over \u2018<i>The assistive Computing Era\u2019<\/i>. Hoe een persoonlijke digitale assistent je helpt met het \u2018wegen\u2019 van logische vraagstukken, zoals ChatGPT ook doet: je ondersteunen met slimme statistiek. Vergelijkbaar met de oude kennissystemen uit de jaren tachtig.<span class=\"Apple-converted-space\">\u00a0<\/span><\/span><\/p>\n<p><span style=\"color: #000000;\"><b>Alter ego<\/b><\/span><\/p>\n<p><span style=\"color: #000000;\">Een persoonlijke assistent kan een alter ego worden. In de betekenis van een tweede persoonlijkheid waarmee iemand zich onderscheidt van zijn werkelijke identiteit. Ik schreef<span class=\"Apple-converted-space\">\u00a0 <\/span><a style=\"color: #000000;\" href=\"https:\/\/www.dell.com\/nl-nl\/blog\/digitaal-alter-ego\/\">eerder<\/a> over \u2018digitale alter ego\u2019s\u2019 als tweede persoonlijkheid. Niet te verwarren met een pseudoniem of alias dat letterlijk valse naam of schuilnaam betekent. Een artiestennaam is een mooi voorbeeld van een alter ego. Het heeft een afwijkende persoonlijkheid, heeft andere belangen en gedraagt zich op een eigen wijze. Voor Chiang is de fascinatie: wat als je alter ego te dominant wordt en je vrije wil en keuzen gaat inperken?<span class=\"Apple-converted-space\">\u00a0<\/span><\/span><\/p>\n<p><span style=\"color: #000000;\">Wat als je alter ego steeds meer gewicht krijgt in het nemen van persoonlijke beslissingen. We zien dat bij artiesten soms ook dat hun \u2018artiesten ego\u2019 de overhand krijgt en de priv\u00e9 persoon op de achtergrond raakt. Dit zijn voor Chiang veel interessantere vraagstukken dan de vulteksten die chatbots produceren die niemand noodzakelijkerwijs wil schrijven of lezen. Chiang is van mening dat de grote taalmodellen (of LLM\u2019s) vooral nuttig zijn voor het produceren van \u2018opvultekst\u2019 die niemand per se wil lezen of schrijven. Taken die antropoloog David Graeber \u2018<i>bullshit jobs<\/i>\u2019 noemt en waar AI-gegenereerde tekst handig is. <span class=\"Apple-converted-space\">\u00a0<\/span><\/span><\/p>\n<p><span style=\"color: #000000;\"><b>Taal leren<\/b><\/span><\/p>\n<p><span style=\"color: #000000;\">Kinderen leren taal door woorden te oefenen. Te ontdekken dat anderen &#8211; <\/span><span style=\"caret-color: #000000; color: #000000;\">door de juiste woorden te gebruiken &#8211; <\/span><span style=\"color: #000000;\">begrijpen wat ze bedoelen. Sommige woorden grappig te vinden en andere woorden stom. Zo leren ze spelenderwijs spreken, lezen en schrijven. Een computer \u2018<em>vindt niets<\/em>\u2019. Er zijn geen leuke of stomme woorden, slechts woorden, eigenlijk alleen maar bits. Een computer bedoelt niets en kan dus ook niet leren dat sommige woorden daar beter bij horen dan andere woorden. Of snappen dat door de volgorde te veranderen, de betekenis verandert. Chatbots reconstrueren op vele mogelijke manieren bestaand materiaal. Omdat het uiteindelijk domme machines zijn, \u2019<em>vinden en voelen ze daar niets bij<\/em>\u2019.<\/span><\/p>\n<p><span style=\"color: #000000;\">In mijn <a style=\"color: #000000;\" href=\"https:\/\/hanstimmerman.me\/en\/ia-de-intelligente-assistent\/\">blog<\/a> \u2018de Intelligente Assistent\u2019 haalde ik het voorbeeld van het \u2018Eliza-effect\u2019 aan. De bekende chatbot van het MIT in de jaren zestig toen mensen ook al dachten dat zij een echt gesprek voerden met de computer. In plaats van zich te realiseren dat zij slechts tegen een onpersoonlijke machine spraken die geen enkel besef had \u2018wat\u2019 zij vertelden en bespraken. Het <i>ELIZA<\/i>-effect, de neiging om onbewust aan te nemen dat computergedrag analoog is aan menselijk gedrag: antropomorfisering, een fenomeen dat aanwezig is in de menselijke interacties met virtuele speeltjes en digitale assistenten. Maar er is geen enkele sociale component in de antwoorden van de computer, toen niet en nu niet en wellicht nooit. Het klinkt steeds \u2018intelligenter\u2019 maar is het niet . . .<\/span><\/p>\n<p><span style=\"color: #000000;\"><b>Taal heeft intentie, emotie en een doel<\/b><\/span><\/p>\n<p><span style=\"color: #000000;\">Conclusie in het interview met Chiang is dat menselijke taal altijd een intentie, een emotie en een doel heeft. Wat voor conversatie je ook voert. Taal zonder intentie, emotie en doel is zinloos en heeft weinig waarde. Taal is de manier om communicatie en interactie met andere wezens te vergemakkelijken. Dat is iets heel anders dan een voorspelling van het volgende token, zoals chatbots werken. ChatGPT is niet op de achtergrond \u2018dingen\u2019 mentaal aan het repeteren om te zien of het je de volgende keer dat je elkaar ontmoet, kan laten lachen.\u00a0<\/span><\/p>\n<p><span style=\"color: #000000;\">Chiang denkt dat AI vooralsnog vooral een enorme multiplier zal zijn voor commerci\u00eble toepassingen. Dat we aangemoedigd worden de onpersoonlijke computer meer en meer \u2018op zijn woord\u2019 te geloven en dat organisaties zich daarmee voordoen als \u2018super intelligent\u2019 en zich kunnen verrijken. Hij is niet bang dat<span class=\"Apple-converted-space\">\u00a0 <\/span>AI de wereld overneemt, wel dat het meer ongelijkheid in de wereld zal brengen en macht nog meer zal concentreren. Sociale chatbots zijn een marktkans voor een grote groep eenzame mensen die vriendschap en troost zoeken. Het voelt dat er een ander wezen aan de andere kant van de lijn is, maar die is er echt niet. Want de <span class=\"Apple-converted-space\">computer blijft vooralsnog een dood ding . . .\u00a0<\/span><\/span><\/p>\n<p>Photo pexels.com: by <a href=\"https:\/\/www.pexels.com\/photo\/high-angle-photo-of-robot-2599244\/\">Alex Knight<\/a><\/p>","protected":false},"excerpt":{"rendered":"<p>Chiang is \u00e9\u00e9n van de vooraanstaande Sci-Fi novellisten van deze tijd en zijn interesse is de relatie tussen taal en cognitie: de hersenfuncties die nodig zijn voor waarnemen, denken, onthouden van kennis en deze kennis op een goede manier toepassen. Wat is natuurlijke intelligentie en welke implicaties kan \u2018bovenmenselijke\u2019 intelligentie hebben. De machines die we nu hebben, hebben geen bewustzijn. De huidige AI-modellen worden getraind op waarden en sterkten tussen verbindingen, niet op begrip. Kort gezegd kun je stellen dat de huidige AI systemen niet meer zijn dan technisch slim toegepaste statistiek.\u00a0<\/p>\n<p>Chiang is van mening dat de grote taalmodellen (of LLM\u2019s) vooral nuttig zijn voor het produceren van \u2018opvultekst\u2019 die niemand per se wil lezen of schrijven. Taken die antropoloog David Graeber \u2018bullshit jobs\u2019 noemt en waar AI-gegenereerde tekst handig is. \u00a0<\/p>","protected":false},"author":3,"featured_media":83531,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[293,75,80],"tags":[301,119,134],"class_list":["post-83527","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-artificial-intelligence","category-innovation","category-trusted-it","tag-statistiek","tag-ai","tag-toekomst"],"jetpack_featured_media_url":"https:\/\/i0.wp.com\/hanstimmerman.me\/wp-content\/uploads\/2023\/06\/pexels-alex-knight-2599244-scaled-e1686240082508.jpg?fit=2553%2C1273&ssl=1","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/posts\/83527","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/comments?post=83527"}],"version-history":[{"count":6,"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/posts\/83527\/revisions"}],"predecessor-version":[{"id":83698,"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/posts\/83527\/revisions\/83698"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/media\/83531"}],"wp:attachment":[{"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/media?parent=83527"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/categories?post=83527"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/tags?post=83527"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}