Bij zelf-rijdende auto's kan je het zo programmeren dat als er een situatie is waarin je de keuze moet maken:
1. Recht op de auto voor je knallen (minimaal 1 persoon, misschien 4 of zelfs 5, misschien kinderen)
of
2. Linksaf over een voetganger heen hobbelen (1 persoon)
of
3. Rechtsaf over op een motorrijder. (1 persoon)
En als ik als programmeur er voor kies om in zo'n geval of vergelijkbare gevallen altijd op de motorrijder in te sturen... met als gedachte dat:
1. Ik mijn waarde auto-kopende eigen-veiligheid-minnende klant wil laten inrijden op een zachter doelwit ipv op een grote auto
2. Ik voetgangers geen deel wil laten uitmaken van de morele situatie
3. Ik het aantal doden en gewonden wil beperken.
Dan ben je een morele keuze aan het maken om machines te bouwen die om de zoveel tijd brute street-justice uit te delen aan motorrijders, niet per se omdat ze de veroorzaker zijn van de situatie maar omdat ze een zachter doelwit zijn dan de auto voor je... diezelfde auto die 10x vaker de veroorzaker is van de situatie dan de motorrijders.
Dat voelt voor mij als immoreel. Maar zo'n keuze van een programmeur kan het verschil zijn tussen 10.000 dode motorrijders en 30.000 dode autorijders.
De vraag is dan ook eerder... wat voor effect heeft dit op de samenleving als we motorrijders bovengemiddeld vaker gaan laten aanrijden? Niemand gaat meer met de motor en de situatie vervalt terug naar lekker recht bovenop je voorganger knallen.
There are no things, but as a consequence there are as many things as we like