René Pennings       

Risico's nemen met gezond verstand


Wat altijd beter is dan schade veroorzaken is om deze te voorkomen. Al met al kunnen we dankzij AI schade voorkomen. De makers van zelfrijdende auto’s spreken niet voor niets van moral machines. Hun testauto’s worden gevoed met een gratis computerspel op internet waarin deelnemers vereenvoudigde morele dilemma’s worden voorgeschoteld, meestal een tekening van een zelfrijdende auto met nul of meer mensen erin, die in de richting rijdt van een aantal verkeersdeelnemers op een zebrapad. Spelers moeten kiezen: moet de auto bijvoorbeeld iedereen op de zebra doden, of op een barrière botsen, waarbij alle inzittenden omkomen, aldus de samenvatting in het NRC. 

Meer dan 40 miljoen mensen hebben aan het spel meegedaan met als doel om de AI hun ‘gemiddelde morele dimensie’ mee te geven. En dat betekende in dit geval goed nieuws voor – weinig verrassend – zwangere vrouwen met kinderwagens, maar beduidend slechter nieuws voor oude mensen op het zebrapad, katten en criminelen. Onduidelijk is overigens hoe de auto onderscheid maakt tussen criminelen en brave burgers.

 Prince Robot IV uit de stripreeks Saga, Vaughan & Staples (2015) 

AI-experts, met Stuart Russel voorop, willen een ethische richtlijn voorschrijven om met en door AI te komen tot niets minder dan een veilige toekomst. Op futureoflife.org staan 23 ethische principes waar mensvriendelijke computersystemen aan zouden moeten voldoen. Russel heeft ze samengevat tot drie principes en goed gekeken naar de drie robotwetten (uit 1950!) van SF-schrijver Isaac Asimov:

1.      Het enige doel van de robot is het dienen van de mensheid en menselijke waarden
Hij is met andere woorden onbaatzuchtig en zelfs bereid zichzelf af te sluiten.

2.      De robot weet niet bij voorbaat wat die waarden zijn.
Dat maakt hem nederig én veilig. Hij zal niet streven naar het maximaliseren van iemands persoonlijke waarde.

3.      Menselijke gedrag geeft de robot informatie over die waarden.
Hij leert van de keuzes die mensen maken en hoe wij omgaan met tegenstrijdige belangen. 

Of in algoritme-lingo:

IF for all robot actions, the human is equally safe

THEN (* default safe actions *) output safe actions

ELSE (* ethical action *) output action(s) for least unsafe human outcome(s)

In een testomgeving op de universiteit van Bristol werd onderzocht hoe een zelfdenkende robot reageert als hij twee mensen uit even zoveel onmogelijke situaties moet redden. De robot kan ze niet allebei redden. Welke keus maakt de arme robot wanneer hij voor dit duivelse dilemma komt te staan? 

In 16 van de 33 gevallen lukte het hem om één mens te redden en drie keer had hij het geluk zo snel te reageren dat hij beiden kon behoeden voor het gevaar. Maar 14 keer raakte hij zó van slag dat hij niet op tijd een keus kon maken, waardoor beiden in de nagebootste situaties in het gat vielen. 

Hoogleraar robot-ethica Alan Winfield beschouwt zijn AI-geesteskinderen als ethische zombies. “Ze voeren de ethische regels die wij geprogrammeerd hebben uit, maar denken daar niet zelf over na. De volgende stap is een robot die bewust een ethische keus maakt en achteraf kan verantwoorden waarom hij die keus maakt.” 

Een algoritme dat ook van slag raakte was het Dynamisch Verkeersmanagement systeem van Prorail. In augustus 2018 vluchtte een winkeldief de Schipholtunnel in, waarna een trein precies werd stilgezet op de plek waar het systeem toewijst op welk spoor de treinen aankomen op het station. De software dacht vervolgens dat er voortdurend een nieuwe trein arriveerde, raakte van slag en crashte. 52.000 treinreizigers strandden in een storing die een halve dag duurde en een week later in de software werd gerepareerd. De gevolgen waren nog erger geweest als er een kettingreactie op gang was gekomen en door bijvoorbeeld overbelasting een stroomstoring zou plaatsvinden. Gelukkig behoort Principe 1 er voor te zorgen dat systemen in staat zijn zichzelf af te sluiten.

  Uit de video ‘Geomancer’ van Lawrence Lek