Kan ethiek worden geautomatiseerd in AI-systemen?

AI-systemen worden meer en meer (artificieel) intelligent en kunnen steeds sterker cognitieve functies van de mens benaderen of zelfs overstijgen. Daarom komt de vraag naar artificial morality scherper op de voorgrond. Kunnen we een AI-systeem zo programmeren dat het zelfstandig ethisch handelt? Een vraag die zeker de moeite waard is om er een blog aan te wijden.

Twee manier van kijken

Er zijn verschillende mogelijkheden om naar ‘artificiële ethiek’ te kijken. Grosso modo zijn de verschillende theorieën onder te verdelen in twee visies. In een meer top-down benadering worden een aantal beslissingsregels geïmplementeerd in AI-systemen.

Een meer inductieve benadering vertrekt dan vanuit concreet gedrag. Daarbij wordt het AI-algoritme getraind in situaties waarbij het ethisch correcte gedrag wordt beloond.

Kritiek op de huidige benaderingen

Beide theorieën gaan er van uit dat alles wat nodig is om ethisch gedrag te stellen in de capaciteiten van een autonoom AI-systeem te vinden is. Intelligentie en autonomie zijn echter nog geen garantie voor ethisch handelen. Kan een AI-systeem zo ontwikkeld worden dat het effectief vanuit zichzelf ethisch handelt?

Het verschil tussen oplossend denken en ethisch denken

De Amerikaanse computerwetenschapper Drew McDermott geeft aan dat er grossomodo drie verschillen zijn tussen het gewone oplossend denken en ethisch denken: (1) ethisch denken draagt een normatieve component in zich; (2) ethisch denken is veel minder eenduidig dan probleemoplossend denken en er bestaat dan ook nogal wat controverse over wat ethisch denken nu precies is; en (3) het is één van de moeilijkste vormen van denken om te automatiseren.

Moeilijkheden verbonden met de normatieve component

(1) Ten eerste zijn normen te concreet om een systeem te programmeren dat in alle situaties geldig is.

(2) Ten tweede is er nogal wat controverse over de inhoud van dergelijke normen. De gehanteerde normen zijn voor een deel cultureel bepaald. Welke normen dienen gekozen te worden? Wie maakt de keuze?

(3) Ten derde is het niet helemaal duidelijk wat er moet gebeuren als er een conflict optreedt tussen verschillende normen.

Moeilijkheden met de complexiteit van ethiek

Het tweede element, namelijk de discussie over wat ethisch denken in wezen is, zorgt voor een bijkomende moeilijkheid. Alhoewel ethiek in de eerste plaats reflectie is op die gewoonten, waarden, normen en opvattingen die leven in een samenleving (het ethos), blijft de opvatting dat ethiek louter een intellectueel gegeven is nog altijd in heel wat literatuur overeind.

Een eerste kritiek hierop kan gevonden worden in de stelling dat machines geen motivatie kunnen ontwikkelen. Hoewel ethiek een duidelijk reflexieve component bevat die als rationeel kan bestempeld worden, staat ze ook onder invloed van andere factoren. Bij de mens gaat het hier om emoties, om het onbewuste…

Kant en Freud gaven reeds aan dat emoties moeilijk te controleren zijn. Voor Kant een reden om ze buiten de ethiek te plaatsen, voor anderen een eerder complexe zoektocht naar de manier waarop emoties een rol spelen in de ethiek. Psychologisch onderzoek spreekt over ‘morele emoties’ als een sleutelelement van de ethiek, omdat ze een grote invloed hebben op de vertaling van morele standaarden of normen naar het moreel handelen (Tangney et al., 2007). Het gaat dan bijvoorbeeld over emoties als schuld, schaamte, trots, dankbaarheid. Daar zouden bijvoorbeeld ook empathie, respect en erkenning kunnen aan toegevoegd worden.

Het ethisch beslissingsproces is dus niet volledig stuurbaar en in die zin ook niet altijd voorspelbaar. Bovendien is het niet zo transparant als het op het eerste gezicht lijkt. Noch de buitenstaander, noch de actor zelf heeft volledig zicht op het proces dat aan het ethisch handelen voorafgaat. De vraag is of ethisch denken mogelijk is als al deze componenten volledig buitenspel gezet worden.

Een tweede kritiek sluit aan bij de vraag wat ethiek in wezen is. Deze discussie is min of meer een constante in de geschiedenis van de filosofie. Het is van daaruit dat zich verschillende visies op ethiek hebben ontwikkeld.  De diverse ethische theorieën leren ons allemaal iets over wat ethiek is. Wat hier vooral uit blijkt is de complexiteit van het ethisch denken. De verscheidenheid aan ethische denksystemen vormt een moeilijkheid voor het opstellen van een eenduidig algoritme die aan deze complexiteit tegemoet komt. Het zal dan ook niet verwonderen dat er een gebrek is aan overeenstemming tussen filosofen over welk systeem gekozen zou moeten worden.

Andere kritische bedenkingen

Aan de drie elementen die McDermot onder de aandacht bracht kunnen nog verschillende andere bedenkingen toegevoegd worden.

Ten eerste is elke ethische beslissing bij de mens ook gekleurd door tijd en ruimte. In het nemen van een beslissing wordt de mens beperkt door inzicht, maar ook verrijkt door de reeds opgedane ervaring.

Ten tweede is ethiek altijd een relationeel gegeven. De ethiek is ingebed in een ruimer verhaal en is wezenlijk geen solipsistisch gegeven is, maar bevat een dialogale dimensie.  

Het zou dus wel eens kunnen dat het programmeren van een ethisch denkende vorm van AI een veel moeilijkere drempel vormt dan op het eerste gezicht lijkt. Het programmeren botst op de diversiteit en de complexiteit van de materie, op de moeilijkheid om het gevolg van een bepaalde handeling adequaat te kunnen inschatten en te beoordelen. De complexiteit van de samenleving brengt daarbij in de meeste gevallen de nood aan het maken van een afweging met zich mee. Voor deze afweging zijn de criteria niet altijd even duidelijk.

Naast een discussie over de al dan niet te volgen normen en over welke norm wanneer voorrang geeft, kan het hier ook gaan over heel concrete beslissingen. Een autonome wagen komt in een situatie terecht waar er dient gekozen te worden tussen het leven van de chauffeur en het leven van de man of vrouw die de straat oversteekt. Welke keuze is de ethisch goede keuze? Een bekende discussie rond deze afweging is het trolleyprobleem waarbij op het ene spoor één persoon ligt vastgebonden en op het ander spoor vijf personen liggen vastgebonden. De persoon aan de wissel van het spoor neemt de beslissing.

We moeten besluiten dat het moeilijk is om ethiek op een goede manier te automatiseren in AI-systemen. Elke vorm van automatisering brengt immers een verlies met zich mee van een deel van de menselijke ethische overweging. Vandaar dat we AI-systemen best niet beschouwen als moral agencies in de volle zin van het woord.

Plaats een reactie