AI heeft geen stekker meer
Afgelopen week presenteerde STT de resultaten van haar laatste studie over artificiële intelligentie. Projectleider Rudy van Belkom verdiepte zich afgelopen anderhalf jaar in wat AI nu werkelijk is en welke toekomstbeelden kunnen worden geschetst. Van utopie tot dystopie; van ideale wereld tot een afschrikwekkende toekomst. Of vanuit een beginselfilosofie – stelen mag niet – tot een gevolgfilosofie – Robin Hood stal van rijken om armen geld te geven. Hoe moet een systeem reageren op situaties waar wij als mens allerhande ethische overwegingen bij hebben. De titel ‘AI heeft geen stekker meer’ is een knipoog naar een situatie waar techniek zelfstandig beslissingen gaat nemen en we als mens de stekker van het apparaat niet meer uit het stopcontact kunnen trekken. De techniek neemt het over van de mens.
Duikboten zwemmen niet
In het eerste deel van de studie publiceerde Rudy de studie ‘Duikboten zwemmen niet’. In een eerdere blog ‘Inzicht in intelligence’ kwamen resultaten uit deze studie al aan de orde. Namelijk dat we anders tegen kunstmatige intelligentie kunnen aankijken omdat het niet menselijk of dierlijk behoeft te zijn. “Als mens kunnen we vliegen, maar vliegtuigen lijken niet op vogels met slaande vleugels. We varen met een duikboot onder water, maar doen dat niet zoals een vis zwemt. Dus wellicht ontwikkelt kunstmatige intelligentie zich niet op een menselijke manier.” Door op deze wijze tegen de ontwikkeling van AI aan te kijken, kunnen we het vermeende unieke van de mens veiligstellen. U weet wel, wij hebben immers een ziel, hebben wijsheid, bewustzijn en emoties die ons serieus onderscheiden van dieren en dus ook (!) van machines.
Het tweede deel van de toekomstverkenning had de titel ‘De computer zegt nee’. Welk gezag geven we de computer om iets te vinden, te zeggen of om te beslissen? U kent waarschijnlijk wel dat moment bij de balie dat de medewerker zegt: ‘het staat niet in de computer’. De uitdaging de medewerker te overtuigen dat de computer weleens fout zou kunnen zijn, is op dat moment enorm. Immers de computer bepaalt in de administratieve wereld al heel veel zaken. Als je niet in ‘het systeem’ zit door welke oorzaak ook, zullen allerhande legale mogelijkheden vooralsnog niet mogelijk zijn. In een ‘domme’ omgeving is de computer vaak de hoogste wijsheid, ondanks alle reële tegenwerpingen en zelfs bewijzen. De komst van AI maakt deze ‘nee-zeggende’ computer ernstiger, omdat het dan vaak niet om ‘aantoonbare en bewijsbare’ fouten gaat. Omdat het nu om een veel abstractere opinie, mening, conclusie of gevolgtrekking gaat, die volledig onvolledig, fout of misplaatst kan zijn.
Normen, waarden en moraal
De moraal zijn heersende zeden. Gedragsregels, ethische normen, plichten en deugden die we als groep personen accepteren en als norm hanteren. Moraliteit is een middeleeuws toneelspel uitgevoerd in volkstaal waar toneelspelers verschillende deugden en ondeugden op het toneel uitbeelden: ‘Ter leering ende Vermaeck’ voor het aanleren van goede zeden en normen. Door de deugden en ondeugden op toneel uit te beelden, kon men de veelal analfabetische bevolking op didactische wijze de morele les leren wat goed en kwaad was. Het was niet per se religieus van aard en kwam vooral veel voor in Engeland, Frankrijk en Nederland. Het bekendste voorbeeld bij ons was de uitvoering van Elkerlijc: Den Spyeghel der Salicheyt van Elckerlijc – Hoe dat elckerlijc mensche wert ghedaecht Gode rekeninghe te doen.
Net zoals vroeger de onwetende bevolking moest worden opgevoed in goed en kwaad, geldt dat ook voor computers. Hoe gaan we onze onwetende computers normen, waarden en moraal leren en meegeven? Dat is de focus van het laatste deel van deze studie “AI heeft geen stekker meer’, over de ethiek in het ontwerpproces. In een eerdere blog beschreef ik dat het Engelse ‘intelligence’ naast intelligentie ook inlichtingen betekent. Een intelligence agency is een inlichtingendienst en dus is artificial intelligence ook het automatisch verzamelen van inlichtingen. En dat heeft (nog) weinig met menselijke intelligentie te maken. We spreken ook vaak over ‘machine intelligence of learning’, slimme machines die zelfstandig besluiten kunnen (en mogen) nemen. Ik heb dat ook in een blog weleens ‘toegevoegde intelligentie’ genoemd.
Ethiek
Een belangrijk deel van het afsluitende deel van deze studie was de ethiek in het ontwerpen van AI-systemen. Over uitlegbare richtlijnen, over privacy-beperkingen, over open en eerlijke algoritmes, over complexe, ondoorgrondelijke wiskundige modellen, over de uitlegbaarheid en accuraatheid. Veel vraagtekens die zo’n ontwerpproces omringen. Kun je een ethisch verantwoord ontwerp maken? Een uitspraak in de studie is dat niet ethici maar ingenieurs aan de frontlinie van de ethiek staan. Zij bepalen wat een systeem wel of niet kan, wat de software wel of niet overweegt, wat het systeem wel of niet kan doen, wat een machine in een noodsituatie zal doen en hoe de techniek uiteindelijk kan worden gebruikt. De techniek is uiteindelijk ‘slechts’ een gereedschap voor mensen die besluiten nemen, die techniek wel of niet inzetten en daarmee de besluiten wel of niet aan die machines overlaten.
Er zijn uitspraken dat algoritmes even bevooroordeeld zijn als de mensen die ze maken. Immers een algoritme is niets anders dan hoe een ontwerper volgens haar of zijn eigen gedachtegang een proces of bewerking, regel voor regel opschrijft. En dan vervolgens daar conclusies bij definieert. Ook de kwaliteit van data die wordt gebruikt om dat algoritme te voeden, is cruciaal. Immers, een proces of systeem kan nog zo perfect zijn, als de toegeleverde grondstof verkeerd, vervuild is of geen betekenis heeft, is de uitkomst per definitie verkeerd. Zie mijn eerdere blog ‘data zonder betekenis is waardeloos’.
Fairness
De conclusie van de studie stelt dat AI verder gaat dan technologie en filosofie. Ontwikkeling van AI heeft impact op de hele samenleving. De manier hoe we samenleven en samenwerken, onderlinge communicatie en besluitvorming, onze keurmerken en certificaties en breed gedragen standaarden en governance. Dit moeten we niet via de waterval-methode maar via agile-technieken ontwikkelen. Iteratieve benaderingen waarbij we holistisch kijken of we de goede weg opgaan. Wellicht zoals de Echternach-processie met drie stappen vooruit en twee stappen achteruit; accepteren dat als iets niet goed uitpakt, je stappen terug moet durven doen.
Daarnaast dienen er betrokken stakeholders te zijn die in staat zijn die waarden en belangen in hun context te beoordelen. Een hele opgave, omdat we hier aan de wortels van onze maatschappij en samenleving staan en ‘fairness’ moeten beoordelen van gemaakte techniek. Fairness is een complex van kwaliteiten die niet met één Nederlands equivalent kan worden aangeduid. De termen ‘redelijkheid’ en ‘billijkheid’ komen dicht in de buurt. Of de conclusie ‘voor allen aanvaardbaar’ hetgeen weer dicht bij het Nederlandse woord ‘polderen’ komt: bij een probleem eerst overleggen met zoveel mogelijk betrokken partijen en dan een oplossing vinden waar iedereen zich in kan vinden. Eigenlijk de uitvoering van de motie die de Eerste Kamer in 2014 daarover al aannam onder de werktitel: ethische digitalisering.
Auteur is oud-projectleider en lid van het Algemeen bestuur van de Stichting Toekomstbeeld der Techniek.
Photo by Michael Dziedzic on Unsplash