{"id":81279,"date":"2020-07-03T12:33:53","date_gmt":"2020-07-03T12:33:53","guid":{"rendered":"https:\/\/hanstimmerman.me\/?p=81279"},"modified":"2020-10-05T12:48:11","modified_gmt":"2020-10-05T12:48:11","slug":"ai-heeft-geen-stekker-meer","status":"publish","type":"post","link":"https:\/\/hanstimmerman.me\/en\/ai-heeft-geen-stekker-meer\/","title":{"rendered":"AI heeft geen stekker meer"},"content":{"rendered":"<p>Afgelopen week presenteerde STT de <a href=\"https:\/\/stt.nl\/publicatie\/stt-92-deel-3-ai-heeft-geen-stekker-meer\/\">resultaten<\/a> van haar laatste studie over artifici\u00eble intelligentie. Projectleider Rudy van <a href=\"https:\/\/www.linkedin.com\/in\/rudyvanbelkom\/\">Belkom<\/a> verdiepte zich afgelopen anderhalf jaar in wat AI nu werkelijk is en welke toekomstbeelden kunnen worden geschetst. Van utopie tot dystopie; van ideale wereld tot een afschrikwekkende toekomst. Of vanuit een beginselfilosofie \u2013 stelen mag niet \u2013 tot een gevolgfilosofie \u2013 Robin Hood stal van rijken om armen geld te geven. Hoe moet een systeem reageren op situaties waar wij als mens allerhande ethische overwegingen bij hebben. De titel \u2018<em>AI heeft geen stekker meer\u2019<\/em> is een knipoog naar een situatie waar techniek zelfstandig beslissingen gaat nemen en we als mens de stekker van het apparaat niet meer uit het stopcontact kunnen trekken. De techniek neemt het over van de mens.<\/p>\n<p><strong>Duikboten zwemmen niet<br \/>\n<\/strong>In het <a href=\"https:\/\/stt.nl\/wp-content\/uploads\/2019\/06\/DuikbotenZwemmenNiet.pdf\">eerste deel<\/a> van de studie publiceerde Rudy de studie \u2018<em>Duikboten zwemmen niet\u2019<\/em>. In een eerdere <a href=\"https:\/\/hanstimmerman.me\/en\/inzicht-in-intelligence\/\">blog<\/a> \u2018<em>Inzicht in intelligence\u2019<\/em> kwamen resultaten uit deze studie al aan de orde. Namelijk dat we anders tegen kunstmatige intelligentie kunnen aankijken omdat het niet menselijk of dierlijk behoeft te zijn. \u201c<em>Als mens kunnen we vliegen, maar vliegtuigen lijken niet op vogels met slaande vleugels. We varen met een duikboot onder water, maar doen dat niet zoals een vis zwemt. Dus wellicht ontwikkelt kunstmatige intelligentie zich niet op een menselijke manier.\u201d <\/em>Door op deze wijze tegen de ontwikkeling van AI aan te kijken, kunnen we het vermeende unieke van de mens veiligstellen. U weet wel, wij hebben immers een ziel, hebben wijsheid, bewustzijn en emoties die ons <a href=\"https:\/\/www.volkskrant.nl\/wetenschap\/aan-kunstmatige-intelligentie-is-weinig-menselijks~bc947088\/\">serieus<\/a> onderscheiden van dieren en dus ook (!) van machines.<\/p>\n<p>Het tweede deel van de toekomstverkenning had de <a href=\"https:\/\/stt.nl\/wp-content\/uploads\/2019\/12\/STT-92-deel-2-DeComputerZegtNee.pdf\">titel<\/a> \u2018<em>De computer zegt nee\u2019<\/em>. Welk gezag geven we de computer om iets te vinden, te zeggen of om te beslissen? U kent waarschijnlijk wel dat moment bij de balie dat de medewerker zegt: \u2018<em>het staat niet in de computer\u2019<\/em>. De uitdaging de medewerker te overtuigen dat de computer weleens fout zou kunnen zijn, is op dat moment enorm. Immers de computer bepaalt in de administratieve wereld al heel veel zaken. Als je niet in \u2018het systeem\u2019 zit door welke oorzaak ook, zullen allerhande legale mogelijkheden vooralsnog niet mogelijk zijn. In een \u2018domme\u2019 omgeving is de computer vaak de hoogste wijsheid, ondanks alle re\u00eble tegenwerpingen en zelfs bewijzen. De komst van AI maakt deze \u2018nee-zeggende\u2019 computer ernstiger, omdat het dan vaak niet om \u2018aantoonbare en bewijsbare\u2019 fouten gaat. Omdat het nu om een veel abstractere opinie, mening, conclusie of gevolgtrekking gaat, die volledig onvolledig, fout of misplaatst kan zijn.<\/p>\n<p><strong>Normen, waarden en moraal<br \/>\n<\/strong>De moraal zijn heersende zeden. Gedragsregels, ethische normen, plichten en deugden die we als groep personen accepteren en als norm hanteren. <a href=\"https:\/\/nl.wikipedia.org\/wiki\/Moraliteit_(toneelspel)\">Moraliteit<\/a> is een middeleeuws toneelspel uitgevoerd in volkstaal waar toneelspelers verschillende deugden en ondeugden op het toneel uitbeelden: \u2018<em><a href=\"https:\/\/onzetaal.nl\/taaladvies\/ter-leering-ende-vermaeck\/\">Ter leering ende Vermaeck\u2019<\/a><\/em> voor het aanleren van goede zeden en normen. Door de deugden en ondeugden op toneel uit te beelden, kon men de veelal analfabetische bevolking op didactische wijze de morele les leren wat goed en kwaad was. Het was niet per se religieus van aard en kwam vooral veel voor in Engeland, Frankrijk en Nederland. Het bekendste voorbeeld bij ons was de uitvoering van <a href=\"https:\/\/nl.wikipedia.org\/wiki\/Elckerlijc\">Elkerlijc<\/a>: <em>Den Spyeghel der Salicheyt van Elckerlijc &#8211; Hoe dat elckerlijc mensche wert ghedaecht Gode rekeninghe te doen.<\/em><\/p>\n<p>Net zoals vroeger de onwetende bevolking moest worden opgevoed in goed en kwaad, geldt dat ook voor computers. Hoe gaan we onze onwetende computers normen, waarden en moraal leren en meegeven? Dat is de focus van het laatste deel van deze studie \u201c<em>AI heeft geen stekker meer<\/em>\u2019, over de ethiek in het ontwerpproces. In een eerdere blog beschreef ik dat het Engelse \u2018intelligence\u2019 naast intelligentie ook inlichtingen betekent. Een intelligence agency is een <a href=\"https:\/\/nl.wikipedia.org\/wiki\/Central_Intelligence_Agency\">inlichtingendienst<\/a> en dus is artificial intelligence ook het automatisch verzamelen van inlichtingen. En dat heeft (nog) weinig met menselijke intelligentie te maken. We spreken ook vaak over \u2018<em>machine intelligence of learning\u2019<\/em>, slimme machines die zelfstandig besluiten kunnen (en mogen) nemen. Ik heb dat ook in een <a href=\"https:\/\/blog.dellemc.com\/nl-nl\/toegevoegde-intelligentie\/\">blog<\/a> weleens \u2018<em>toegevoegde intelligentie\u2019<\/em> genoemd.<\/p>\n<p><strong>Ethiek<br \/>\n<\/strong>Een belangrijk deel van het afsluitende deel van deze studie was de ethiek in het ontwerpen van AI-systemen. Over uitlegbare richtlijnen, over privacy-beperkingen, over open en eerlijke algoritmes, over complexe, ondoorgrondelijke wiskundige modellen, over de uitlegbaarheid en accuraatheid. Veel vraagtekens die zo\u2019n ontwerpproces omringen. Kun je een ethisch verantwoord ontwerp maken? Een uitspraak in de studie is dat niet ethici maar ingenieurs aan de frontlinie van de ethiek staan. Zij bepalen wat een systeem wel of niet kan, wat de software wel of niet overweegt, wat het systeem wel of niet kan doen, wat een machine in een noodsituatie zal doen en hoe de techniek uiteindelijk kan worden gebruikt. De techniek is uiteindelijk \u2018slechts\u2019 een gereedschap voor mensen die besluiten nemen, die techniek wel of niet inzetten en daarmee de besluiten wel of niet aan die machines overlaten.<\/p>\n<p>Er zijn <a href=\"https:\/\/decorrespondent.nl\/8802\/algoritmes-zijn-even-bevooroordeeld-als-de-mensen-die-ze-maken\/2301477723468-47451fec\">uitspraken<\/a> dat algoritmes even bevooroordeeld zijn als de mensen die ze maken. Immers een algoritme is niets anders dan hoe een ontwerper volgens haar of zijn eigen gedachtegang een proces of bewerking, regel voor regel opschrijft. En dan vervolgens daar conclusies bij definieert. Ook de kwaliteit van data die wordt gebruikt om dat algoritme te voeden, is cruciaal. Immers, een proces of systeem kan nog zo perfect zijn, als de toegeleverde grondstof verkeerd, vervuild is of geen betekenis heeft, is de uitkomst per definitie verkeerd. Zie mijn <a href=\"https:\/\/hanstimmerman.me\/en\/data-zonder-betekenis-is-waardeloos\/\">eerdere blog<\/a> \u2018<em>data zonder betekenis is waardeloos\u2019<\/em>.<\/p>\n<p><strong>Fairness<br \/>\n<\/strong>De conclusie van de studie stelt dat AI verder gaat dan technologie en filosofie. Ontwikkeling van AI heeft impact op de hele samenleving. De manier hoe we samenleven en samenwerken, onderlinge communicatie en besluitvorming, onze keurmerken en certificaties en breed gedragen standaarden en governance. Dit moeten we niet via de waterval-methode maar via agile-technieken ontwikkelen. Iteratieve benaderingen waarbij we holistisch kijken of we de goede weg opgaan. Wellicht zoals de <a href=\"https:\/\/nl.wikipedia.org\/wiki\/Processie_van_Echternach\">Echternach-processie<\/a> met drie stappen vooruit en twee stappen achteruit; accepteren dat als iets niet goed uitpakt, je stappen terug moet durven doen.<\/p>\n<p>Daarnaast dienen er betrokken stakeholders te zijn die in staat zijn die waarden en belangen in hun context te beoordelen. Een hele opgave, omdat we hier aan de wortels van onze maatschappij en samenleving staan en \u2018<a href=\"https:\/\/www.ensie.nl\/lexicon-van-de-ethiek\/fairness\">fairness<\/a>\u2019 moeten beoordelen van gemaakte techniek. Fairness is een complex van kwaliteiten die niet met \u00e9\u00e9n Nederlands equivalent kan worden aangeduid. De termen \u2018redelijkheid\u2019 en &#8216;billijkheid\u2019 komen dicht in de buurt. Of de conclusie \u2018voor allen aanvaardbaar\u2019 hetgeen weer dicht bij het Nederlandse woord \u2018<em>polderen<\/em>\u2019 komt: bij een probleem eerst overleggen met zoveel mogelijk betrokken partijen en dan een oplossing vinden waar iedereen zich in kan vinden. Eigenlijk de uitvoering van de motie die de Eerste Kamer in 2014 daarover al aannam onder de werktitel: <a href=\"https:\/\/hanstimmerman.me\/en\/ethische-digitalisering\/\">ethische digitalisering<\/a>.<\/p>\n<p><em>Auteur is oud-projectleider en lid van het Algemeen bestuur van de Stichting Toekomstbeeld der Techniek.<\/em><\/p>\n<p>Photo by <a href=\"https:\/\/unsplash.com\/@lazycreekimages?utm_source=unsplash&amp;utm_medium=referral&amp;utm_content=creditCopyText\">Michael Dziedzic<\/a> on <a href=\"https:\/\/unsplash.com\/s\/photos\/artificial-intelligence?utm_source=unsplash&amp;utm_medium=referral&amp;utm_content=creditCopyText\">Unsplash<\/a><\/p>","protected":false},"excerpt":{"rendered":"<p>De conclusie van de studie stelt dat AI verder gaat dan technologie en filosofie. Ontwikkeling van AI heeft impact op de hele samenleving. De manier hoe we samenleven en samenwerken, onderlinge communicatie en besluitvorming, onze keurmerken en certificaties en breed gedragen standaarden en governance.<br \/>\nEen hele opgave, omdat we hierdoor aan de wortels van onze maatschappij en samenleving staan en \u2018fairness\u2019 moeten beoordelen van gemaakte techniek. Fairness is een complex van kwaliteiten die niet met \u00e9\u00e9n Nederlands equivalent kan worden aangeduid. De termen \u2018redelijkheid\u2019 en billijkheid\u2019 komen dicht in de buurt. <\/p>","protected":false},"author":3,"featured_media":81280,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_jetpack_memberships_contains_paid_content":false,"footnotes":""},"categories":[72],"tags":[119,120,132,81,82,86,87,108,109],"class_list":["post-81279","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-digitalisation","tag-ai","tag-machine-learning","tag-trust","tag-strategie","tag-transformatie","tag-governance","tag-digitalisering","tag-artificial-intelligence","tag-innovation"],"jetpack_featured_media_url":"https:\/\/i0.wp.com\/hanstimmerman.me\/wp-content\/uploads\/2020\/07\/michael-dziedzic-deHhHOttSdk-unsplash-e1593778974891.jpg?fit=4135%2C1825&ssl=1","jetpack_sharing_enabled":true,"_links":{"self":[{"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/posts\/81279","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/users\/3"}],"replies":[{"embeddable":true,"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/comments?post=81279"}],"version-history":[{"count":6,"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/posts\/81279\/revisions"}],"predecessor-version":[{"id":81353,"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/posts\/81279\/revisions\/81353"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/media\/81280"}],"wp:attachment":[{"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/media?parent=81279"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/categories?post=81279"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/hanstimmerman.me\/en\/wp-json\/wp\/v2\/tags?post=81279"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}