FOK!forum / Filosofie & Levensbeschouwing / Hoe gaan we om met 'racistische' AI?
#ANONIEMwoensdag 15 maart 2017 @ 12:42
In Amerika hebben ze lopen spelen met een AI die op basis van verschillende algoritmes een inschatting kan maken van het vluchtrisico van verdachten. Deze bleek 25% meer accuraat dan rechters.

https://www.technologyrev(...)th-machine-learning/

De informatie die de AI gebruikt is nog vrij beperkt en richt zich vooral op het individu zelf (strafblad, opleidingsniveau) i.c.m. met de inclusie van slechts één demografisch element: leeftijd. Ras/etniciteit, geslacht, religieuze en (socio-)economische achtergrond, zijn nog buiten gesloten. De vraag is; willen (of mogen) we de dat soort demografische informatie wel includeren als blijkt dat de toevoeging van zulke additionele data er toe leid dat de nóg AI accurater zal worden?

Ik kan mij ook voorstellen dat zulke software ook op andere terreinen ingezet zal (kunnen) worden en dat we zullen concluderen dat het op het ene terrein meer of minder wenselijk zal zijn om al dat soort data toe te voegen dan op het andere terrein.

[ Bericht 0% gewijzigd door #ANONIEM op 15-03-2017 12:46:06 ]
Jordy-Bwoensdag 15 maart 2017 @ 12:51
Ja, dat mag.

Als nou uit de cijfers blijkt dat laagopgeleide verdachten een hoger vluchtrisico kennen dan hoogopgeleide verdachten, dan discrimineer je op opleiding/intelligentie.

Blijkt nou dat uit de cijfers naar voren komt dat mannen een hoger vluchtrisico kennen dan vrouwen, dan discrimineer je op geslacht.

Blijkt nou dat Afrikaans-Amerikaanse verdachten een groter vluchtrisico kennen dan Mexicanen, dan discrimineer je op afkomst (dat wordt ook wel racisme genoemd).

Hoe je het ook went of keert, gediscrimineerd wordt er sowieso. De AI is letterlijk gemaakt om te discrimineren: onderscheid vormen.

Het verschil zit hem erin dat zo'n AI geen echte mening heeft, maar heel droog kansberekening doet aan de hand van de kennis die je het ding geeft.
RM-rfwoensdag 15 maart 2017 @ 12:52
quote:
0s.gif Op woensdag 15 maart 2017 12:42 schreef LelijKnap het volgende:
De vraag is; willen (of mogen) we de dat soort demografische informatie wel includeren als blijkt dat de toevoeging van zulke additionele data er toe leid dat de nóg AI accurater zal worden?

uit het artikel zelf blijkt dat meewegen van bv etniciteit een grotere en ongelijke foutmarge zou kunnen opleveren:
sterker nog, het verwijst naar een onderzoek naar een al gebruikt commercieel programma dat etniciteit meeneemt, waarvan blijkt dat het zwarten benadeeld

quote:
more research is needed into how to ensure that criminal justice algorithms don’t lead to unfair outcomes. Last year an investigation by ProPublica found that commercial software developed to help determine which convicts should receive probation was more likely to incorrectly label black people than white people as “high risk.”
link in het artikel naar het onderzoek dat een al gebruikt programma als 'bevooroordeeld' aantoonde:
https://www.propublica.or(...)-criminal-sentencing

Natuurlijk is de foutmarge, zeker als die specifiek bepaalde groepen sterker benaeeld wel degelijk een probleem als daardoor specifieke groepen harder behandeld worden...

Stel je bv voor dat je als jonge man in zn twintiger jaren opeens zwaarder bestraft wordt dan bv vrouwen of oudere mensen, omdat je nu eenmaal deel uitmaakt van een bepaalde groep personen, die duidelijk veel crimineler is dan andere groepen (het overgrote deel van de criminaliteit wordt begaan door jonge mannen tussen de 18 en 30 jaar)
#ANONIEMwoensdag 15 maart 2017 @ 13:05
quote:
0s.gif Op woensdag 15 maart 2017 12:52 schreef RM-rf het volgende:

[..]

uit het artikel zelf blijkt dat meewegen van bv etniciteit een grotere en ongelijke foutmarge zou kunnen opleveren:
sterker nog, het verwijst naar een onderzoek naar een al gebruikt commercieel programma dat etniciteit meeneemt, waarvan blijkt dat het zwarten benadeeld

[..]

link in het artikel naar het onderzoek dat een al gebruikt programma als 'bevooroordeeld' aantoonde:
https://www.propublica.or(...)-criminal-sentencing

Natuurlijk is de foutmarge, zeker als die specifiek bepaalde groepen sterker benaeeld wel degelijk een probleem als daardoor specifieke groepen harder behandeld worden...

Stel je bv voor dat je als jonge man in zn twintiger jaren opeens zwaarder bestraft wordt dan bv vrouwen of oudere mensen, omdat je nu eenmaal deel uitmaakt van een bepaalde groep personen, die duidelijk veel crimineler is dan andere groepen (het overgrote deel van de criminaliteit wordt begaan door jonge mannen tussen de 18 en 30 jaar)
Daar zat ik ook al te denken, al had ik er overheen gelezen. Probleem is dat je niet kan onderzoeken of degene die je hebt vastgehouden zal vluchten. Dat kan diegene dan immers niet. Dan zal je het dus moeten laten uitrekenen en negeren om achteraf te kunnen bepalen of de AI wel of niet accurater was met het gebruik van demografische statistieken.

Leeftijd wordt overigens al meegenomen. Zou je er ook voor pleiten die statistieken er uit te halen?
Jordy-Bwoensdag 15 maart 2017 @ 13:52
quote:
0s.gif Op woensdag 15 maart 2017 12:52 schreef RM-rf het volgende:
Stel je bv voor dat je als jonge man in zn twintiger jaren opeens zwaarder bestraft wordt dan bv vrouwen of oudere mensen, omdat je nu eenmaal deel uitmaakt van een bepaalde groep personen, die duidelijk veel crimineler is dan andere groepen (het overgrote deel van de criminaliteit wordt begaan door jonge mannen tussen de 18 en 30 jaar)
Dan is dat toch niet geheel onterecht? Er wordt niet alleen maar naar je leeftijd en opleidingsniveau en strafblad gekeken als een mens over jou beslist. Dan wordt er ook gekeken naar jouw acteertalent, je blauwe ogen, etc.

Maar je moet niet vergeten dat hier bij de inschatting van vluchtgedrag ook rekening mee gehouden wordt. En dat betekent dus ook dat deze kennis reeds in de statistieken zit ingebakken.

Ben je een vijfentwintigjarige, laagopgeleide, mannelijke verdachte met een eerder een dik strafdossier dan een strafblad. Dan is de kans groter dat je probeert te vluchten als je de gelegenheid hebt om het vonnis thuis af te wachten.

Dus de borgsom wordt dan hoger dan van bijvoorbeeld een hoogopgeleide vrouw van middelbare leeftijd die nog niet bekend is bij de politie.

Dat lijkt me eigenlijk niet zo heel erg oneerlijk.

Dat de foutmarge groter wordt als je ras erbij betrekt, zal ermee te maken hebben dat dat gewoon een minder grote rol speelt dan leeftijd/strafblad/opleiding/etc.
nogeenoudebekendewoensdag 15 maart 2017 @ 13:55
Rauwe, eerlijke data over dit soort onderwerpen kunnen wij helemaal niet aan. We spinnen veel liever verhaaltjes om de cijfers zo uit te laten vallen zodat ze ons het beste uitkomen.
Jordy-Bwoensdag 15 maart 2017 @ 13:57
quote:
14s.gif Op woensdag 15 maart 2017 13:55 schreef nogeenoudebekende het volgende:
Rauwe, eerlijke data over dit soort onderwerpen kunnen wij helemaal niet aan. We spinnen veel liever verhaaltjes om de cijfers zo uit te laten vallen zodat ze ons het beste uitkomen.
Ik denk dat dat, naast tijdbesparing, een reden is om kunstmatige intelligentie in te zetten. Gewoon omdat een machine door de objectiviteit veel beter is in dergelijk werk.

Dat is ook de reden dat de deltawerken in Nederland automatisch gestuurd worden. Als je dat door mensen laat doen, is de kans dat die in de paniek van een storm de stormwering véél te vroeg sluiten, en dat brengt direct hoge economische schade met zich mee.


Ik zou alleen niet graag een machine als rechterlijke macht willen hebben.

[ Bericht 5% gewijzigd door Jordy-B op 15-03-2017 14:04:14 ]
Tango5Romeodonderdag 16 maart 2017 @ 16:43
quote:
0s.gif Op woensdag 15 maart 2017 12:52 schreef RM-rf het volgende:

Stel je bv voor dat je als jonge man in zn twintiger jaren opeens zwaarder bestraft wordt dan bv vrouwen of oudere mensen, omdat je nu eenmaal deel uitmaakt van een bepaalde groep personen, die duidelijk veel crimineler is dan andere groepen (het overgrote deel van de criminaliteit wordt begaan door jonge mannen tussen de 18 en 30 jaar)
Het gaat niet over zwaarder straffen, maar of een verdachte wel of niet opgesloten moet worden in afwachting van zijn rechtszaak.
Moluruszaterdag 18 maart 2017 @ 01:20
Er is niks mis met statistische berekeningen. Het wordt wel een ethisch probleem als we individuen gaan beoordelen of behandelen op basis van statistieken van groepen waartoe ze behoren. Of dat nu ras, leeftijd of iets anders is.
0000zaterdag 18 maart 2017 @ 18:41
quote:
0s.gif Op zaterdag 18 maart 2017 01:20 schreef Molurus het volgende:
Het wordt wel een ethisch probleem als we individuen gaan beoordelen of behandelen op basis van statistieken van groepen waartoe ze behoren. Of dat nu ras, leeftijd of iets anders is.
gebeurt al

als je er lang over nadenkt is het niet goed, maar het is ook de natuur

lastige onderwerp
Moluruszaterdag 18 maart 2017 @ 18:51
quote:
0s.gif Op zaterdag 18 maart 2017 18:41 schreef 0000 het volgende:

[..]

gebeurt al

als je er lang over nadenkt is het niet goed, maar het is ook de natuur

lastige onderwerp
Gelukkig steeds minder dan in onze geschiedenis het geval was. De mens is meer en meer gaan inzien dat zo'n benadering fundamenteel onrechtvaardig is.

Maar inderdaad, het gebeurt op sommige vlakken nog steeds. We raken die gewoonte maar moeilijk kwijt.

En on topic: het is niet de AI die individuele mensen beoordeelt op basis van statistieken. Dus met zulke software is ook niks mis.
Sparafuciledinsdag 21 maart 2017 @ 18:11
Artificial intelligence bestaat nog niet (echt). Het zal hier gaan om machinelearning. Los van dit onderscheid worden natuurlijk attributen meegenomen die goede voorspellers zijn. Als de genoemde attributen dat zijn, tsja dan is dat gewoon de realiteit. Het is een ethische vraag of je ze gebruikt of niet en genoegen neemt met een model met lagere voorspellingskracht.

Overigens worden deze principes los van deze discussie al veel langer toegepast. Zo is je postcode een zeer goede voorspeller voor het aflossen van een lening. Als je de pech hebt op een postcode te wonen waar veel wanbetalers zitten krijg jij ook geen lening.