AIToday Live

S06E41 - In gesprek met Jonge Denker des Vaderlands en AI-ethiekexpert Ajuna Soerjadi

Aigency by Info Support Season 6 Episode 41

In deze aflevering van AIToday Live is Ajuna Soerjadi te gast, een expert op het gebied van de ethiek van AI. Ajuna heeft een achtergrond in filosofie en heeft zich gespecialiseerd in hoe AI sociale ongelijkheid beïnvloedt en vice versa.

Ze deelt inzichten uit haar onderzoek naar etnisch profileren in risicoprofielen en de complexe interactie tussen sociale ongelijkheid en AI-ontwikkeling. Ajuna, die ook actief is bij het expertisecentrum dataethiek, bespreekt de noodzaak van een ethische dialoog en het belang van diversiteit in het ontwikkelen van AI-toepassingen.

Een boeiende discussie over de diepere lagen van AI-ethiek en de maatschappelijke impact ervan.


Links

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:07,280
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live met vandaag de gast

2
00:00:07,280 --> 00:00:14,320
Ajuna Soerjadi. Zeg ik het zo goed? Ja, helemaal goed. Mijn naam Joop Snijder, CTO bij Aigency.

3
00:00:14,320 --> 00:00:19,760
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support. Ja Ajuna, we zijn hartstikke blij dat je bij ons

4
00:00:19,760 --> 00:00:25,120
in de studio bent. Zou je jezelf eerst willen voorstellen aan de luisteraars? Ja, dank je voor

5
00:00:25,120 --> 00:00:30,680
de uitnodiging in ieder geval. Dus mijn naam is Ajuna Soerjadi en ik heb een achtergrond in de

6
00:00:30,680 --> 00:00:40,880
filosofie en ik heb me vooral gespecialiseerd in de ethiek van AI en ik heb het expertisecentrum

7
00:00:40,880 --> 00:00:46,280
dataethiek opgericht en wij houden ons eigenlijk vooral bezig met de manieren waarop AI impact

8
00:00:46,280 --> 00:00:51,200
heeft op sociale ongelijkheid en ook andersom de manier waarop sociale ongelijkheid impact

9
00:00:51,200 --> 00:00:56,120
heeft op de manier waarop AI ontwikkeld wordt. Oh, dat laatste is wel heel leuk. Daar gaan we

10
00:00:56,120 --> 00:01:03,880
zoiets in ieder geval een aantal vragen over stellen. En dat onderzoek, daar ben je nog mee

11
00:01:03,880 --> 00:01:10,040
bezig hè? Ja, nou dat onderzoek doe ik eigenlijk vanuit verschillende rollen. Dit heb ik eigenlijk

12
00:01:10,040 --> 00:01:19,040
tijdens mijn filosofiestudie onderzocht in mijn scriptie. Dus mijn scriptie ging over wat de ras

13
00:01:19,040 --> 00:01:25,240
nou eigenlijk precies betekent als het gaat om etnisch profileren in risicoprofielen. En dat

14
00:01:25,240 --> 00:01:29,440
vond ik zo interessant dat ik daar gewoon mee verder ben gegaan binnen het expertisecentrum.

15
00:01:29,440 --> 00:01:34,640
En dat doe ik inmiddels ook bij de Staatscommissie tegen discriminatie en racisme. Ja, en over het

16
00:01:34,640 --> 00:01:38,720
laatste kan je niet inhoudelijk praten. Dus daar gaan we geen vragen over stellen, maar dat andere

17
00:01:38,720 --> 00:01:47,480
daar gaan we lekker dieper op in. En één van de dingen wat mij intrigeerde, want we kijken

18
00:01:47,480 --> 00:01:53,080
natuurlijk altijd eventjes bij de gasten van ja wat doe je, waar schrijf je over. En je schrijft

19
00:01:53,080 --> 00:01:57,680
volgens mij ook best wel aardig wat. Je komt regelmatig in de media, zou je daar wat over

20
00:01:57,680 --> 00:02:10,080
kunnen zeggen? Ja, ik ben verkozen als jonge denker des vaderland. En dat was in 2017. En dat ging toen

21
00:02:10,080 --> 00:02:16,240
eigenlijk over een essaywedstrijd die georganiseerd werd door de Stichting Maand van de Filosofie.

22
00:02:16,240 --> 00:02:23,760
Maar ook door in samenwerking met Lemniscaat en de Vereniging voor Filosofie-Docenten. En ja,

23
00:02:23,760 --> 00:02:29,120
ze gingen eigenlijk kijken van welke essays zijn er het meest maatschappelijk relevant. En hoe

24
00:02:29,120 --> 00:02:34,600
zitten de filosofische vaardigheden van de mensen die wat insturen. Toen werden er finalisten

25
00:02:34,600 --> 00:02:39,040
verkozen en die moesten toen een voordracht houden met elkaar in gesprek. Dus ze gingen ook echt

26
00:02:39,040 --> 00:02:43,920
kijken van kun je goed luisteren en kun je echt goed op een toegankelijke manier complexe filosofische

27
00:02:43,920 --> 00:02:50,880
dingen uitleggen. En toen ben ik verkozen en toen mocht ik gaan optreden op conferenties

28
00:02:50,880 --> 00:02:57,720
en evenementen en zo. Ja, en je schrijft ook nog wel veel over AI en ethiek. Dus misschien

29
00:02:57,720 --> 00:03:03,080
kunnen wij ook wel een aantal van jouw artikelen delen in de show notes. Heb je daar wat aan gehad,

30
00:03:03,080 --> 00:03:10,920
zeg maar, als jonge denker, zeg maar, hoe je nu naar ethiek en AI kijkt? Heb je daar dingen

31
00:03:10,920 --> 00:03:18,240
van meegenomen? Ja, zeker. En sowieso vanuit mijn filosofische achtergrond merk ik heel erg dat ik

32
00:03:18,240 --> 00:03:25,880
op een toch wat andere manier kijk naar AI. Ook naar de manier waarop er eigenlijk gesproken

33
00:03:25,880 --> 00:03:32,400
wordt over AI ethiek. Want meestal gaat het over het mitigeren van risico's en het gebruikmaken

34
00:03:32,400 --> 00:03:37,600
van kansen. Eigenlijk zie ik dat heel anders. Ik spreek vaak in termen van risico's, maar echt

35
00:03:37,600 --> 00:03:44,920
van fundamentele problemen, zeg maar. En ja, die ethische achtergrond was zo belangrijk voor mij,

36
00:03:44,920 --> 00:03:52,280
omdat we echt concepten heel diep gingen analyseren. Zo van wat is rechtvaardig? Maar ook wat onderscheid

37
00:03:52,280 --> 00:04:00,280
verschillende soorten bias? Wat maakt discriminatie nou precies verkeerd? Want bias is in zichzelf

38
00:04:00,280 --> 00:04:07,160
nog niet per se onrechtvaardig. En over dat soort vragen heb ik... Oh ja, zou je een voorbeeld kunnen

39
00:04:07,160 --> 00:04:13,400
noemen van waar bias niet onrechtvaardig is? Nou, je kunt een onderscheid maken tussen bias

40
00:04:13,400 --> 00:04:20,840
die impact heeft op de accuraatheid van een systeem. Dus je ziet gezichtsherkenningssystemen

41
00:04:20,840 --> 00:04:28,720
die minder goed kunnen omgaan met mensen met een donkere huidskleur. En dat kun je oplossen door

42
00:04:28,720 --> 00:04:33,600
een dataset representatiever te maken, zeg maar. Ja, goed, dat heeft natuurlijk al te maken met

43
00:04:33,600 --> 00:04:39,720
met de manier waarop datasets... Dat er scheve verhoudingen in zitten. Dat heeft toch een beetje

44
00:04:39,720 --> 00:04:48,000
te maken met onrechtvaardigheid. Maar er zijn ook echt manieren waarop sociale ongelijkheid in

45
00:04:48,000 --> 00:04:54,000
datasets gaat zitten, waarbij de accuraatheid van het systeem eigenlijk niet wordt aangetast,

46
00:04:54,000 --> 00:04:59,440
maar dat die accuraatheid juist voortkomt uit het feit dat de samenleving onrechtvaardig is.

47
00:04:59,440 --> 00:05:03,440
En dat is heel ingewikkeld. Ja, ik probeer even door te denken.

48
00:05:03,440 --> 00:05:09,720
Heb je een concreet voorbeeld? Waar ik op dit moment mee bezig ben,

49
00:05:09,720 --> 00:05:17,640
is risicoprofielen. En dan zie je dat het effect van zulke systemen is dat bepaalde groepen in

50
00:05:17,640 --> 00:05:25,360
de samenleving slechter worden behandeld dan andere groepen. En dat is niet omdat zoiets

51
00:05:25,360 --> 00:05:32,680
als migratieachtergrond direct in dat systeem zit, als een soort van data. Maar dat gebeurt

52
00:05:32,680 --> 00:05:39,600
via andere wegen. Dus dan gaat het om proxy discriminatie. En die risicoprofielen, even

53
00:05:39,600 --> 00:05:43,320
voor mijn duidelijkheid, dat het zouden kunnen bijvoorbeeld fraudeopsporing kunnen zijn.

54
00:05:43,320 --> 00:05:49,440
Ja. In dat soort type systemen moet ik dan denken. Ja, of predictive policing. Dus dat je gaat

55
00:05:49,440 --> 00:05:58,280
voorspellen wie er kans heeft op criminaliteit. En mijn onderzoek gaat dan echt over hoe ver gaan

56
00:05:58,280 --> 00:06:03,480
die proxies nou precies. Want vaak wordt postcode gebied gebruikt als voorbeeld. Maar eigenlijk gaat

57
00:06:03,480 --> 00:06:09,360
het nog veel verder dan dat. Dus ook allemaal dingen die te maken hebben met je sociaal-economische

58
00:06:09,360 --> 00:06:15,920
positie. Dus je inkomensniveau, je opleidingsniveau, of je laaggeletterd bent of niet.

59
00:06:15,920 --> 00:06:23,880
En zelfs het kenteken van je auto. Want er staat een landcode op. En nationaliteit heeft natuurlijk

60
00:06:23,880 --> 00:06:29,320
weer te maken met etniciteit en ras. En vanuit het kenteken kan je natuurlijk ook de prijs van

61
00:06:29,320 --> 00:06:35,360
de auto achterhalen. Wat iets mogelijk zegt over je inkomensniveau. Oh ja. Dat gaat dus wel snel

62
00:06:35,360 --> 00:06:45,920
heel ver. Ja. En er zitten eigenlijk twee problemen aan die proxiediscriminatie. Want

63
00:06:45,920 --> 00:06:55,240
enerzijds kunnen de statistieken of de correlaties beïnvloed zijn door dingen zoals etnisch profileren

64
00:06:55,240 --> 00:07:02,520
en stereotypes in de media. Maar zelfs als ze accuraat zouden zijn, dus zelfs als het inderdaad

65
00:07:02,520 --> 00:07:07,000
zo is dat bijvoorbeeld Marokkaanse mensen meer criminaliteit vertonen dan anderen,

66
00:07:07,000 --> 00:07:13,920
dan heb je nog steeds redenen om het af te wijzen. Ja. En wat zouden die redenen zijn?

67
00:07:13,920 --> 00:07:19,920
Ja, nou bijvoorbeeld omdat je dan toch ongelijke sociale posities in stand gaat houden. Ja,

68
00:07:19,920 --> 00:07:30,040
snap ik. Of je kunt het aanvliegen vanuit het idee van, is het nou echt verkeerd om in een

69
00:07:30,040 --> 00:07:35,320
bepaald risicoprofiel te vallen. Dat je iemand niet als individu gaat benaderen, maar op basis

70
00:07:35,320 --> 00:07:40,840
van de groep waartoe die hoort. Ja. En je zou ook bijna een soort van omgekeerde, want we hebben

71
00:07:40,840 --> 00:07:44,520
natuurlijk in onze wetgeving zitten, je bent onschuldig totdat het tegendeel wordt bewezen.

72
00:07:44,520 --> 00:07:52,600
Zou je in zo'n risicoprofiel vallen, dan zit er al een soort van schuldstempel op je toch? Ja,

73
00:07:52,600 --> 00:07:58,680
precies. En een van de dingen die het betekent om burger te zijn, is dat je in beginsel het

74
00:07:58,680 --> 00:08:05,760
recht hebt om benaderd te worden vanuit vertrouwen. En als individu ook. Ja, maar als je naar die

75
00:08:05,760 --> 00:08:10,000
risicoprofielen kijkt, dat is op basis van criteria waar je zelf ook niet altijd invloed

76
00:08:10,000 --> 00:08:14,120
op hebt. Bijvoorbeeld de plek waar je wordt geboren, dat kun je niet veranderen. Dan ga

77
00:08:14,120 --> 00:08:21,360
je dus als risicogeval gezien worden door informatie waar je zelf geen grip op hebt,

78
00:08:21,360 --> 00:08:29,480
zeg maar. Ja, precies. Wat zou er daar dan wel kunnen en niet kunnen? Wanneer mag je dan wel

79
00:08:29,480 --> 00:08:37,240
met die informatie wat gaan doen? Je kunt bijvoorbeeld echt kijken van zijn de criteria

80
00:08:37,240 --> 00:08:45,160
echt causaal relevant voor het doel wat je wil bereiken? Dus ja, als je dingen hebt zoals iemand

81
00:08:45,160 --> 00:08:51,640
heeft eerder al eens een criminele activiteit vertoond, ja dan is dat misschien een relevant

82
00:08:51,640 --> 00:08:58,040
en causaal criterium dat je kunt gebruiken om inderdaad het risico beter te kunnen inschatten.

83
00:08:58,040 --> 00:09:06,800
Tegelijkertijd is dat ook weer beïnvloed door de politie, etc. Ja, dat is een lastig dilemma.

84
00:09:06,800 --> 00:09:14,280
En zijn dit dan ook de voorbeelden, want daar sloeg ik helemaal in het begin op aan,

85
00:09:14,280 --> 00:09:20,680
die zeggen van hoe bar je in de samenleving effect heeft op de systemen?

86
00:09:20,680 --> 00:09:27,400
Ja, dus je ziet eigenlijk een wisselwerking. Enerzijds heeft AI impact op sociale ongelijkheid.

87
00:09:27,400 --> 00:09:33,760
Dat zijn deze risicoprofielen die ervoor zorgen dat die ongelijke sociale posities in stand worden

88
00:09:33,760 --> 00:09:41,120
gehouden en dat stigmatiserende beelden worden bevestigd. Maar dat andere, dus de manier waarop

89
00:09:41,120 --> 00:09:46,760
sociale ongelijkheid impact heeft op de manier waarop AI wordt ontwikkeld, is eigenlijk weer

90
00:09:46,760 --> 00:09:56,000
iets anders. En dat zie ik als volgt, de reden dat we fraudeopsporingsalgoritme ontwikkelen,

91
00:09:56,000 --> 00:10:01,520
of de reden dat we daar zoveel tijd en geld in stoppen, dat is ook weer een reflectie van hoe

92
00:10:01,520 --> 00:10:05,840
wij denken over bepaalde groepen. Want we kunnen ook al die tijd en moeite steken in het ontwikkelen

93
00:10:05,840 --> 00:10:11,280
van algoritme die mensen helpen identificeren, die hulp nodig hebben, die recht hebben op bijstand

94
00:10:11,280 --> 00:10:15,760
en uitkering, maar die er niet om durven vragen, omdat ze misschien de Nederlandse taal niet

95
00:10:15,760 --> 00:10:23,920
helemaal, niet Nederlands kunnen spreken. En ja, dus die keuzes die komen ook voort uit hoe wij

96
00:10:23,920 --> 00:10:27,240
denken. Als je daar op focust, dan kan je niet op het andere focussen inderdaad.

97
00:10:27,240 --> 00:10:35,840
Nou en dat zijn wel, soms is het inderdaad wel heel krom, dat zit niet in de AI, maar deze week,

98
00:10:35,840 --> 00:10:43,280
ik weet niet wanneer deze uitkomt, maar deze week van de opname. Ik woon in Arnhem en Arnhem heeft

99
00:10:43,280 --> 00:10:49,760
blijkbaar een van de armste wijken van Nederland en daar zijn ze een proef gestart om namelijk

100
00:10:49,760 --> 00:10:58,680
mensen, 50 gezinnen met de hoogste schulden, ik heb een krimpel in de kils hoor, met de hoogste

101
00:10:58,680 --> 00:11:05,000
schulden om die schulden vrij te maken. Om op die manier ze eigenlijk vooruit te helpen.

102
00:11:05,000 --> 00:11:13,120
Dus een nieuwe start gegeven. En daar kwam naar voren dat we hebben blijkbaar een soort

103
00:11:13,120 --> 00:11:19,360
van schuldenlast in Nederland van 3,5 miljard, maar er zit een economie omheen, schrik niet,

104
00:11:19,360 --> 00:11:29,600
van 17,5 miljard. Dus we besteden 17,5 miljard euro om 3,5 miljard schulden bij burgers te innen.

105
00:11:29,600 --> 00:11:34,760
En ik denk dat dat, het heeft niks met de AI te maken, maar dat is wel denk ik zo'n voorbeeld

106
00:11:34,760 --> 00:11:39,320
waar jij het over hebt. Ja precies, heel goed voorbeeld inderdaad. En als je naar fraudeopsporing

107
00:11:39,320 --> 00:11:44,600
kijkt, 2% van alle mensen fraudeert. Maar als je kijkt naar de maatschappelijke impact van

108
00:11:44,600 --> 00:11:50,880
bijvoorbeeld miljonairs die hun belasting ontduiken of politieke corruptie, ja het zou toch veel meer

109
00:11:50,880 --> 00:11:55,360
maatschappelijke waarde hebben als we daar AI op inzetten. Zeg maar de meer white collar crime

110
00:11:55,360 --> 00:12:00,640
in plaats van de street crime. Want er komt ook uit onderzoek dat street crime, zoals diefstal

111
00:12:00,640 --> 00:12:05,160
of iets, dat dat heel onvoorspelbaar is. En dat die AI systemen eigenlijk niet eens zo veel

112
00:12:05,160 --> 00:12:12,920
effectiever zijn dan A-select te proeven. Ja. En, oh sorry. Ik vraag me af, wat voor stappen

113
00:12:12,920 --> 00:12:17,840
kunnen we hierin zetten als maatschappij, als individu? Wat zijn de stappen die we daar zouden

114
00:12:17,840 --> 00:12:24,640
kunnen gaan maken? Ja, je kunt het eigenlijk op verschillende manieren aanvliegen. Je hebt

115
00:12:24,640 --> 00:12:31,360
natuurlijk frameworks zoals van de high level expert group, dat je bepaalde principes centraal

116
00:12:31,360 --> 00:12:35,680
gaat stellen. Dus dat je transparant gaat zijn over de systemen die je gebruikt. Dat je zorgt

117
00:12:35,680 --> 00:12:44,160
dat ze uitlegbaar zijn. En dat soort principes. Waar ik vooral de nadruk op leg is het ethisch

118
00:12:44,160 --> 00:12:51,400
dialoog. Dus dat eigenlijk, dat je met een zo groot mogelijke groep mensen al van tevoren

119
00:12:51,400 --> 00:12:57,200
gaat praten over wat voor AI willen we eigenlijk ontwikkelen. Wat is het probleem dat we in de

120
00:12:57,200 --> 00:13:01,480
samenleving zien en hoe willen we dat gaan oplossen met AI? Dus dat AI niet een doel op zich wordt,

121
00:13:01,480 --> 00:13:06,680
maar juist dat je eerst gaat nadenken wat wil je en hoe kan AI daarbij helpen? En dat je dat wel

122
00:13:06,680 --> 00:13:12,160
doet met een diversiteit aan mensen zodat het niet bepaald wordt vanuit één perspectief of één

123
00:13:12,160 --> 00:13:18,240
bepaalde groep mensen. Het is misschien een wat cynische vraag hoor die ik nu zou stellen. Ik

124
00:13:18,240 --> 00:13:24,640
ben ook heel erg voor uitlegbaarheid. Dat is een van de passies die ik heb en waarvan ik ook vind

125
00:13:24,640 --> 00:13:30,520
dat het heel belangrijk is. Maar denk je niet dat juist de keuzes waar jij het over hebt,

126
00:13:30,520 --> 00:13:35,080
het zijn eigenlijk hele grote maatschappelijke keuzes die gemaakt worden, dat die uitlegbaarheid

127
00:13:35,080 --> 00:13:41,120
daar helemaal niet bij gaat helpen. Dus als daaruit komt van deze groep wordt gediscrimineerd,

128
00:13:41,120 --> 00:13:46,360
dat er toch wordt uitgegaan van ja maar we willen het, weet je, die fraudebestrijding die moet,

129
00:13:46,360 --> 00:13:54,160
die gaan we doen. Weet je, wat er ook gebeurt, hier geloven we in en dat de techniek je niet

130
00:13:54,160 --> 00:14:03,040
gaat helpen bij het laten bewegen zeg maar eigenlijk van die keuzes. Ja dat denk ik ook

131
00:14:03,040 --> 00:14:11,240
en ik denk ook van transparantie dat dat niet gaat helpen. In de zin van dat je moet ook eigenlijk

132
00:14:11,240 --> 00:14:16,520
niet te veel verantwoordelijkheid vragen van de mensen waarop zo'n AI systeem wordt toegepast.

133
00:14:16,520 --> 00:14:22,880
Die hebben er niet zoveel aan om te weten hoe zo'n systeem in elkaar zit. Als ze er nog steeds

134
00:14:22,880 --> 00:14:29,240
door beoordeeld worden en ja veel mensen snappen gewoon niet zo goed van de techniek die erachter

135
00:14:29,240 --> 00:14:35,840
zit. Maar die uitlegbaarheid kan tegelijkertijd wel functioneren als een soort van spiegel. Dat

136
00:14:35,840 --> 00:14:40,200
je toch gaat als overheidsorganisatie bijvoorbeeld gaat denken van oké als ik het niet kan uitleggen

137
00:14:40,200 --> 00:14:45,040
dan kan ik het ook niet rechtvaardigen. Ja ja dus eigenlijk het reflecterend vermogen naar

138
00:14:45,040 --> 00:14:50,520
degene die het toepassen of inderdaad gebruiken om de keuze te maken en daar eigenlijk inderdaad

139
00:14:50,520 --> 00:14:55,400
spiegelend te reflecteren van wat we hier doen is dat wel het juiste of moeten we niet gewoon

140
00:14:55,400 --> 00:14:59,160
wat anders gaan doen. Want Joop wat jij zegt is eigenlijk van hebben we niet het algemene

141
00:14:59,160 --> 00:15:02,760
probleem van het doel wat we willen bereiken is dat wel het juiste doel wat we moeten pakken.

142
00:15:02,760 --> 00:15:09,840
Ja daar ben ik dan cynisch over. Dat je toch denkt van weet je en ook al ook al leg je terug

143
00:15:09,840 --> 00:15:16,680
zelfs bij de bij degenen die de besluiten neemt van we gaan dit soort modellen inzetten. Ook als

144
00:15:16,680 --> 00:15:21,320
je daar aan kan laten zien van ja maar dit werkt discriminerend dat er eigenlijk al besluit is

145
00:15:21,320 --> 00:15:27,960
genomen van we gaan discrimineren. Misschien niet zo letterlijk maar iets als de toeslagenaffaire

146
00:15:27,960 --> 00:15:31,640
is natuurlijk gewoon gekozen om gewoon te zeggen van ja we knallen er gewoon keihard in.

147
00:15:31,640 --> 00:15:38,640
Ja en ik denk ook dat het belangrijk is om dus te erkennen dat heel veel van de criteria die

148
00:15:38,640 --> 00:15:44,680
worden gebruikt in algoritme dat die dus relateren aan iemand's etnische achtergrond. Zoals ik net

149
00:15:44,680 --> 00:15:51,840
zei niet alleen je postcode gebied maar echt heel veel andere dingen omdat discriminatie is ook heel

150
00:15:51,840 --> 00:15:58,880
structureel. Dat gebeurt op allerlei verborgen manieren en is niet op basis van waar iemand

151
00:15:58,880 --> 00:16:04,040
vandaan komt maar ook de manier waarop je eruit ziet maar ook de relaties die je met mensen aangaat.

152
00:16:04,040 --> 00:16:15,440
En ja. Absoluut. Wat zouden voor jou praktische tips zijn hoe je hiermee om zou kunnen gaan?

153
00:16:15,440 --> 00:16:21,560
Je bent een bedrijf, je bent een organisatie, je zit misschien in de overheid als je nu luistert

154
00:16:21,560 --> 00:16:31,880
en je zegt van ik wil dat op een goede nette manier gaan doen. Ik zou in ieder geval aanraden om een

155
00:16:31,880 --> 00:16:38,800
assessment te doen zoals het IAMA, dus impact assessment mensenrechten in algoritme. Waarbij

156
00:16:38,800 --> 00:16:44,760
wel het idee is, dat is trouwens een grote vragenlijst van bijvoorbeeld is je dataset

157
00:16:44,760 --> 00:16:51,280
representatief, op welke mensenrechten kan dit impact hebben, etc. Maar waarbij dat oprechte

158
00:16:51,280 --> 00:16:57,200
gesprek wel centraal staat. Dus dat het geen afvinklijstje wordt. Want ethiek gaat juist

159
00:16:57,200 --> 00:17:02,080
om het opzoeken van die schuring eigenlijk en opzoeken van die frictie en meningsverschillen

160
00:17:02,080 --> 00:17:06,800
en verschillende perspectieven. Dus dat we ook niet een snel oplossingsgericht gaan denken,

161
00:17:06,800 --> 00:17:13,840
maar juist ook even goed het probleem gaan begrijpen en daarbij stilstaan. Hoe weet je dat

162
00:17:13,840 --> 00:17:22,600
je daarmee klaar bent? Goeie vraag. Ik denk zelf dat je nooit klaar bent met ethiek. Dus dat ethiek

163
00:17:22,600 --> 00:17:29,400
ook wel echt een activiteit is die je moet blijven doen met zoals ik al zei met zoveel mogelijk

164
00:17:29,400 --> 00:17:39,160
mensen. Met de programmeurs, beleidsmakers en ook de betrokkenen. Ja. Ja, nee. Ik laat hem nog

165
00:17:39,160 --> 00:17:46,280
even. Dan heb ik wel een vraag. Want hoe kijk jij tegen met die filosofische achtergronden je hebt,

166
00:17:46,280 --> 00:17:53,280
tegen de nieuwe AI-act die eraan gaat komen? Hoe kijk je daartegen aan? Nou, ik denk dat het in

167
00:17:53,280 --> 00:17:58,800
ieder geval goed is dat er weer nieuwe wetgeving komt. Want vaak zie je dat de wetgeving iets

168
00:17:58,800 --> 00:18:04,640
achter de sociale en maatschappelijke ontwikkelingen aanloopt. Dit is toch wel snel gegaan,

169
00:18:04,640 --> 00:18:11,000
vind ik zelf. Ik was positief verrast. Maar met wetgeving heb je wel altijd, er blijft gewoon

170
00:18:11,000 --> 00:18:18,240
interpretatieruimte waar bedrijven soms graag gebruik of gerust misbruik van maken. Dus de wet

171
00:18:18,240 --> 00:18:23,840
kan nooit alles dicht timmeren. Dus je blijft ook wel altijd ethiek nodig hebben om het gesprek te

172
00:18:23,840 --> 00:18:29,200
voeren over wat betekent nou precies proportionaliteit? Wat betekent subsidiariteit? Kunnen

173
00:18:29,200 --> 00:18:35,560
de dingen ook met minder ingrijpende middelen? Betekent dat? Dus ja, dat grijze gebied,

174
00:18:35,560 --> 00:18:41,080
dat blijft iets waar mensen over moeten praten. Dat kan niet opgevangen worden door wetgeving.

175
00:18:41,080 --> 00:18:45,880
Nee, dus we hebben wel wat meer kades waar je een beetje ziet waar je wel en waar je niet

176
00:18:45,880 --> 00:18:50,920
heen gaat. Maar dat blijft een grijze gebied. Ik zat nog even voor een vraag inderdaad door te denken,

177
00:18:50,920 --> 00:18:54,800
dus vandaar dat ik een beetje lastig keek. Ik zie jullie niet, maar Joop die zag het wel. De vraag

178
00:18:54,800 --> 00:19:01,200
die ik had is, binnen organisaties, wat voor rollen en functies kom je vaak tegen als we het over

179
00:19:01,200 --> 00:19:06,840
ethiek hebben? Ik ken het over CIO, CEO en dat soort zaken. Maar als we het over ethiek hebben,

180
00:19:06,840 --> 00:19:12,560
wat voor rollen en functies kom je dan zo tegen? Nou, wat ik wel eens zie is dat er een ethische

181
00:19:12,560 --> 00:19:18,000
commissie is. Dat zijn eigenlijk mensen met andere functies, maar die dan daarnaast ook in een

182
00:19:18,000 --> 00:19:25,120
commissie zitten waar ethische vragen worden belegd. Je ziet ook wel ethiek officers. Dus

183
00:19:25,120 --> 00:19:29,520
echt mensen die speciaal zijn aangesteld om over dit soort dingen na te denken of zelfs dataethiek

184
00:19:29,520 --> 00:19:36,960
officers. Maar in de praktijk wordt het ook wel eens neergelegd bij privacy officers. Je hebt

185
00:19:36,960 --> 00:19:45,040
natuurlijk te maken met persoonsgegevensverwerking ook. Dat soort mensen ook eigenlijk ethische

186
00:19:45,040 --> 00:19:49,520
beslissingen aan het nemen zijn. Ja, want wat ik wel mooi vind in je passie als het over inderdaad

187
00:19:49,520 --> 00:19:55,520
ethiek gaat en je filosofie-achtergrond is dat jij dan een andere blik hebt dan dat ik vaak bij

188
00:19:55,520 --> 00:19:59,480
bedrijven tegenkom. Als we het over dit soort zaken hebben, dan hebben we het meer over mag dit,

189
00:19:59,480 --> 00:20:06,120
hoe staat het in de wet, hoe technisch. Die andere blik, ja, hoe zie je die binnen organisaties

190
00:20:06,120 --> 00:20:14,080
nou binnen gaan komen? Ja, goeie vraag. Want ik zie inderdaad dat wanneer mensen denken dat ze het

191
00:20:14,080 --> 00:20:22,200
hebben over ethiek, dat het inderdaad gaat over de vraag van mag dit nou wel? Terwijl ethiek juist

192
00:20:22,200 --> 00:20:28,360
ook gaat om moeten we het willen? En ja, dat kan soms echt heel diep gaan. En weet je, ik zeg altijd

193
00:20:28,360 --> 00:20:33,000
ethiek is er niet om de dingen makkelijker te maken, maar om juist de wereld in al haar complexiteit

194
00:20:33,000 --> 00:20:37,400
te laten zien en om daar oprecht gesprekken over te voeren. Ja, hoe gaat het binnenkomen bij

195
00:20:37,400 --> 00:20:42,560
organisaties? Nou, wat ik zelf bij het expertisecentrum doe is ik geef weleens ethische

196
00:20:42,560 --> 00:20:49,520
verdiepingssessies. En je ziet dat die bewustwording wel echt helpt voor mensen om te begrijpen wat is

197
00:20:49,520 --> 00:20:54,200
die bias nou precies? En wat houdt die ethiek nou precies in? En ook soms kunnen dingen heel

198
00:20:54,200 --> 00:20:59,240
abstract zijn, van dat de burger buiten het informatiesysteem valt. Nou, wat betekent dat

199
00:20:59,240 --> 00:21:05,360
nou precies? En dat je met zo'n verdiepingssessie wel gelijk dat ze weer concreet maakt voor de

200
00:21:05,360 --> 00:21:09,800
mensen, dat ze snappen waar ze mee bezig zijn en wat de impact van hun werk is. Ja, dus eigenlijk

201
00:21:09,800 --> 00:21:14,800
de verdieping inderdaad dat mensen begrijpen, oh wacht, er is meer daarbij. Heb je tips voor

202
00:21:14,800 --> 00:21:19,240
mensen die nu luisteren, die zeggen van, ik heb ook dit soort vraagstukken als ik het over ethiek

203
00:21:19,240 --> 00:21:25,600
heb, dan moet ik hier aan denken. Ja, ligt er heel erg aan wat voor AI-toepassingen je wil,

204
00:21:25,600 --> 00:21:31,320
is er iets waar je speciaal aan denkt? Nou ja, laten we even het voorbeeld waar we net over het

205
00:21:31,320 --> 00:21:38,520
fraudesysteem hebben. Van gewoon proberen malicious aanvallen op een systeem te vinden. Gebruikers die

206
00:21:38,520 --> 00:21:46,560
oneigenlijk worden benadeeld. Ja, dus dat ze worden benadeeld op basis van criteria die misschien

207
00:21:46,560 --> 00:21:54,560
niet gerechtvaardigd zijn. Ja, dan kom ik toch weer terug bij dat oprechte gesprek waarbij je

208
00:21:54,560 --> 00:22:02,440
verschillende soorten argumenten aan bod laat komen. Dus zowel is het systeem echt effectief,

209
00:22:02,440 --> 00:22:06,760
dat moet wel echt getest worden, want dat is wel eens wat overheidsorganisaties beweren,

210
00:22:06,760 --> 00:22:11,680
dat risicoprofilering dat dat effectiever is dan a-select te proeven. Dat moeten ze kunnen

211
00:22:11,680 --> 00:22:18,920
aantonen, anders is het sowieso niet gerechtvaardigd. En dat je dus je echt gaat afvragen van in hoeverre

212
00:22:18,920 --> 00:22:25,600
is het wenselijk dat mensen op basis van een statistisch profiel worden benaderd. Ook kijken

213
00:22:25,600 --> 00:22:30,200
naar andere case studies, want in de rechtspraak is er wel eens gezegd van, nou dit mag niet,

214
00:22:30,200 --> 00:22:35,360
bijvoorbeeld bij de Koninklijke Marechausee mag niet op basis van uiterlijk mensen worden

215
00:22:35,360 --> 00:22:40,880
gecontroleerd. En dan zie je dus wel nog overheidsorganisaties die zeggen van, ja maar

216
00:22:40,880 --> 00:22:45,080
dat geldt niet voor ons. Het kan wel eens handig zijn om dus te kijken van, oké wat is nou de

217
00:22:45,080 --> 00:22:49,440
redenering van de College voor de Rechten van de Mens, et cetera. En dat ze ook wel denken van,

218
00:22:49,440 --> 00:22:54,080
oké misschien heeft dat dan ook impact op ons. - Ja, en een hele praktische, wat zij er straks

219
00:22:54,080 --> 00:22:59,160
eigenlijk al zei, is gewoon de vraag stellen van, willen we dit? Het is kan het, mag het,

220
00:22:59,160 --> 00:23:03,840
wil je het? - Ja, en daar zou ik aan willen toevoegen van wie is die 'we' dan precies?

221
00:23:03,840 --> 00:23:07,400
- Ja, precies. - Ja, vaak mensgerichte AI is een term die

222
00:23:07,400 --> 00:23:11,480
vaak wordt gebruikt. En dan moet je je echt afvragen van wie is die mens nou precies? Want

223
00:23:11,480 --> 00:23:18,240
ook als wij een vraag in ChatGPT gooien, dan hebben we ook niet door dat er allemaal mensen aan

224
00:23:18,240 --> 00:23:22,040
de andere kant van de wereld zitten die dat mogelijk voor ons maken. Dus ik denk echt dat

225
00:23:22,040 --> 00:23:26,400
we onze horizon ook moeten verbreden in termen van wat gebeurt er op het globaal gebied.

226
00:23:26,400 --> 00:23:30,840
- Ja, ik krijg steeds meer het gevoel in het gesprek dat we bij heel veel dingen gewoon te

227
00:23:30,840 --> 00:23:35,400
snel willen en te snel gaan. Als maatschappij en als ontwikkeling. Dat we soms niet de tijd

228
00:23:35,400 --> 00:23:40,800
nemen om eigenlijk dit soort rudimentaire vragen eigenlijk genoeg tijd te gunnen.

229
00:23:40,800 --> 00:23:46,680
- Ja, dat denk ik ook. - Ja, waarbij je als je er langer

230
00:23:46,680 --> 00:23:52,760
over nadenkt misschien ook later sneller kan gaan. Als je problemen naar voren haalt,

231
00:23:52,760 --> 00:24:00,520
daar goed over nadenkt en daar mogelijk dingen tegenover zet of wegneemt of beter maakt dat je

232
00:24:00,520 --> 00:24:05,600
uiteindelijk sneller aan de eindstreep bent dan dat je maar gewoon gaat starten.

233
00:24:05,600 --> 00:24:11,120
- Ja, want ik merk wel eens dat mensen huiverig zijn om zich met ethiek bezig te houden. Want

234
00:24:11,120 --> 00:24:16,400
ze moeten al zoveel en dan ook nog ethiek. Uiteindelijk gaat het inderdaad tijd opleveren.

235
00:24:16,400 --> 00:24:21,840
Omdat ja, je ziet al die schandalen en al die risicoprofielen die misgaan. En ja,

236
00:24:21,840 --> 00:24:26,360
als je dat kunt voorkomen dan... - Ja, en ik vind ook heel goed wat je zegt

237
00:24:26,360 --> 00:24:34,200
over wie is dan de 'we'. Ik was laatst ook in een workshop over ook weer use cases bij een bedrijf

238
00:24:34,200 --> 00:24:40,480
waar ze aan zaten te denken. En een van de 'we's' waar ze het eigenlijk over hadden,

239
00:24:40,480 --> 00:24:46,800
is dat ze het vooral zelf iets heel erg... Ja, ik kan het niet helemaal vertellen wat het was,

240
00:24:46,800 --> 00:24:52,360
maar het was een model. Maar die zorgde ervoor dat iemand vanuit... In plaats van dat hij in het

241
00:24:52,360 --> 00:24:59,280
veld zou gaan werken, achter een bureau terecht zou komen waar hij dus eigenlijk een deskjob ging

242
00:24:59,280 --> 00:25:04,240
krijgen. In plaats van dat je in het veld... Maar de 'we' was eigenlijk van... Zij zelf binnen de

243
00:25:04,240 --> 00:25:08,840
organisatie vonden dat wel een heel goed idee, want daardoor konden dingen allemaal efficiënter en

244
00:25:08,840 --> 00:25:13,760
beter. Maar de 'we' in dit geval was eigenlijk ook nog degene waar het over ging waarvan de

245
00:25:13,760 --> 00:25:18,520
baan totaal zou veranderen. Ze zou niet vervangen worden of zo, maar de baan zou wel heel erg

246
00:25:18,520 --> 00:25:23,560
veranderen. En toen dat ter sprake kwam, was het wel zo van 'ja, dan moeten we wel eens even gaan

247
00:25:23,560 --> 00:25:27,160
valideren. Willen die mensen dat eigenlijk wel? Zitten ze daar eigenlijk wel op te wachten? En

248
00:25:27,160 --> 00:25:32,240
wat betekent dat dan?' En dus eigenlijk door even de vraag te stellen van 'en willen we dit?',

249
00:25:32,240 --> 00:25:38,200
krijg je inderdaad een heel ander gesprek. Ja. En wie is 'we'? Ja, eigenlijk de 'we' is 'we'.

250
00:25:38,200 --> 00:25:43,480
Die blijft hangen. Die ga ik me vragen stellen nu. Zoveel mogelijk mensen erbij betrekt,

251
00:25:43,480 --> 00:25:49,920
dan los je elkaars blinde vlekken ook op. Ja. Vandaar dat diversiteit ook zo waardevol is.

252
00:25:49,920 --> 00:25:54,520
Net zoals je, ik zeg wel eens, in een ecosysteem heb je ook een diversiteit aan flora en fauna

253
00:25:54,520 --> 00:25:59,080
nodig om het te laten bloeien en floreren. Oh ja, mooi. In de samenleving en in het hele AI

254
00:25:59,080 --> 00:26:04,760
gebeuren heb je ook een diversiteit aan mensen en perspectieven nodig. Ja. Om betekenisvolle

255
00:26:04,760 --> 00:26:09,560
innovatie te krijgen. Precies, precies. En vanuit het expertisecentrum dat je hebt opgericht,

256
00:26:09,560 --> 00:26:16,960
wat doe je daar? Wat kunnen de mensen daarvan verwachten? Wij doen vooral onderzoek in opdracht.

257
00:26:16,960 --> 00:26:21,600
Dus we hebben bijvoorbeeld in opdracht van BZK een onderzoek gedaan naar dataethiek bij

258
00:26:21,600 --> 00:26:27,800
uitvoeringsorganisaties. Verder geven we vooral training. Dus dat gaat dan om bijvoorbeeld die

259
00:26:27,800 --> 00:26:33,080
ethische verdiepingssessies. En dat kan toegespitst worden op een specifiek onderwerp, zoals fraude

260
00:26:33,080 --> 00:26:38,040
opsporing of smart cities of zelfrijdende auto's. En dat doen we vooral bij overheidsorganisaties.

261
00:26:38,040 --> 00:26:44,240
Dus niet echt de bedrijfskant, maar meer de publieke kant. Waar natuurlijk ook heel snel

262
00:26:44,240 --> 00:26:51,000
uiteindelijk ethische vraagstukken spelen. Zeker. Heb je iets van een voorbeeld? Want het is namelijk

263
00:26:51,000 --> 00:26:55,120
altijd best wel heel makkelijk om te hebben over waar het niet goed gaat. Maar ik heb hier een

264
00:26:55,120 --> 00:26:59,760
voorbeeld, hoe klein of groot dan ook. Hier is het eigenlijk best wel heel goed gegaan.

265
00:26:59,760 --> 00:27:06,160
Nou, ik vind het wel mooi dat ze bij de Voedselbank nou een meertalige chatbot op de website hebben

266
00:27:06,160 --> 00:27:10,720
gezet. Zodat de drempel wordt verlaagd voor mensen die geen Nederlands kunnen spreken. Dat

267
00:27:10,720 --> 00:27:16,600
die wel hulp kunnen vragen. Terwijl ze dat normaal niet zo durfden misschien. Dus daar

268
00:27:16,600 --> 00:27:20,840
zie je dat AI echt helpt om die sociale ongelijkheid juist op te lossen.

269
00:27:20,840 --> 00:27:27,240
Oei, praktisch voorbeeld. Ja, en in dit geval kan ik me ook voorstellen dat zelfs de chatbot helpt.

270
00:27:27,240 --> 00:27:32,160
Normaal gesproken zeg je misschien menselijke interactie. Dat dat er ook helpt, dat er een

271
00:27:32,160 --> 00:27:37,240
afstand is. Dat het wat veiliger is om vragen te stellen aan een machine dan aan een mens.

272
00:27:37,240 --> 00:27:45,240
Dat kan ik me wel voorstellen. Ik weet niet hoe mensen dat ervaren. Maar ja, ik vond het wel een

273
00:27:45,240 --> 00:27:50,360
mooie toepassing. Ja, dat is zeker een mooie toepassing. We hebben ook een virtuele co-host.

274
00:27:50,360 --> 00:27:54,240
Zij wil ook graag een vraag stellen. Oké.

275
00:27:54,240 --> 00:28:16,240
Aisha. Prettig kennis te maken. Ik ben Aisha, de AI van deze podcast. Mag ik je een vraag stellen?

276
00:28:16,240 --> 00:28:23,360
Tuurlijk. Hoe kunnen we ervoor zorgen dat AI-systemen geen vooroordelen repliceren

277
00:28:23,360 --> 00:28:33,520
en juist inclusiever worden? Ja, die vooroordelen kunnen op heel veel manieren

278
00:28:33,520 --> 00:28:38,200
tot stand komen in een dataset. En een van de manieren om dat op te lossen is om te zorgen

279
00:28:38,200 --> 00:28:47,960
voor meer representativiteit. Ja. Maar daardoor ben je er ook nog niet. Want ja, als je bijvoorbeeld

280
00:28:47,960 --> 00:28:53,520
dat bij Google Translate dat er een gender bias zit en dat er wordt gezegd van als het een

281
00:28:53,520 --> 00:29:02,880
receptionist is, dan is het "zij heeft het gedaan" of zoiets. Maar als het daadwerkelijk zo is dat er

282
00:29:02,880 --> 00:29:07,480
meer vrouwen receptionist zijn dan mannen, ja dan ben je er dus niet met representativiteit.

283
00:29:07,480 --> 00:29:13,600
Nee, precies. Dan moet je nog iets extra's doen. Ja, dus eigenlijk ook weer het stukje terugpakken

284
00:29:13,600 --> 00:29:18,120
van wat willen we eigenlijk bereiken? Willen we inderdaad volledig representatief zijn,

285
00:29:18,120 --> 00:29:21,720
maar dan houden we het in stand wat het nu is? En is dat ook hetgeen wat we willen bereiken? Of

286
00:29:21,720 --> 00:29:25,800
willen we eigenlijk dat het ook gewoon eerlijk verdeeld is en moeten we daar dus rekening mee

287
00:29:25,800 --> 00:29:29,480
gaan houden? Ja, want bij die gezichtsherkenningssystemen wil je eigenlijk dat het systeem

288
00:29:29,480 --> 00:29:33,000
net zo goed werkt voor mensen met een donkere huidskleur als met mensen met een lichte huidskleur.

289
00:29:33,000 --> 00:29:37,880
Maar dan moet je dus extra veel moeite doen om die data te verzamelen van minderheidskanten.

290
00:29:37,880 --> 00:29:44,640
Ja, en zorg natuurlijk ook. Dat is het ook natuurlijk, dat data met vrouwen is veel minder

291
00:29:44,640 --> 00:29:49,520
historisch gezien dan van mannen. Ik waardeer dat je mijn vraag van

292
00:29:49,520 --> 00:29:53,600
verschillende kanten belicht, dank je wel. Zo dan, ja ja.

293
00:29:53,600 --> 00:30:05,840
Wat stel je, je was Jonge Denker des Vaderlands, ja toch? Jonge Denker des Vaderlands. Je wordt

294
00:30:05,840 --> 00:30:13,600
de jongste minister van Digitale Zaken. Misschien niet het aankomende kabinet,

295
00:30:13,600 --> 00:30:20,120
maar een wat progressiever kabinet. Wat zou je als eerste gaan doen op het gebied van ethiek?

296
00:30:20,120 --> 00:30:23,440
Op het gebied van ethiek of specifiek AI-ethiek?

297
00:30:23,440 --> 00:30:27,480
Oh ja, dat is een goede. Laten we eens beginnen met AI-ethiek.

298
00:30:27,480 --> 00:30:32,680
Ja, nou ik denk dat ik vooral andere keuzes zou maken in het soort AI dat we ontwikkelen. Ik

299
00:30:32,680 --> 00:30:39,000
zou het vooral inzetten om bijvoorbeeld duurzaamheid verder te helpen en om sociale ongelijkheid op te

300
00:30:39,000 --> 00:30:43,280
lossen. Ja, mooi. Focus shift.

301
00:30:43,280 --> 00:30:50,480
Ja, en ethiek breed? Want dan heb je me wel een sfeer gemaakt door dat onderscheid te maken.

302
00:30:50,480 --> 00:30:55,640
Goeie vraag. Ik weet eigenlijk niet.

303
00:30:55,640 --> 00:31:01,680
Maar op het gebied van AI-ethiek, dan zouden we denk ik al een mooie stap maken, toch?

304
00:31:01,680 --> 00:31:08,760
Ja, zeker. Als het om ethiek gaat, wil ik vooral het kritisch denkvermogen van mensen aanwakkeren.

305
00:31:08,760 --> 00:31:15,400
Ja. Dingen zoals het verschil tussen correlatie en causatie is zo belangrijk in algoritmische

306
00:31:15,400 --> 00:31:20,040
profielen. Als mensen correlatie zien, dan denken ze van 'oh, dat zal dan wel kloppen'.

307
00:31:20,040 --> 00:31:22,320
Ja, zou je het kunnen uitleggen wat het verschil is?

308
00:31:22,320 --> 00:31:28,040
Ja, nou we zien bijvoorbeeld de correlatie tussen inderdaad die mensen met de Marokkaanse

309
00:31:28,040 --> 00:31:34,400
achtergrond en criminaliteit, maar de causale structuur die erachter zit.

310
00:31:34,400 --> 00:31:35,480
Ja, oorzakelijk verband.

311
00:31:35,480 --> 00:31:41,200
Ja, dat komt niet omdat criminaliteit inherent is aan Marokkaans zijn,

312
00:31:41,200 --> 00:31:45,920
maar het kan door allemaal andere factoren komen, zoals het kan een effect zijn van dat ze worden

313
00:31:45,920 --> 00:31:49,800
gediscrimineerd en bias in politie. Ja, precies.

314
00:31:49,800 --> 00:31:55,720
En het causale verband kan komen door bijvoorbeeld armoede. Dat armoede ervoor zorgt dat mensen meer

315
00:31:55,720 --> 00:32:00,280
kans hebben om de criminaliteit in te gaan en omdat Marokkaanse mensen worden gediscrimineerd,

316
00:32:00,280 --> 00:32:05,680
komen ze in armoede terecht en daardoor hebben ze meer kans om criminaliteit in te gaan.

317
00:32:05,680 --> 00:32:10,280
En het probleem is natuurlijk dat wij als mensen, als wij correlatie zien,

318
00:32:10,280 --> 00:32:16,000
iets wat verband met elkaar lijkt te houden, dat we er meteen ook oorzakelijk verband aan koppelen.

319
00:32:16,000 --> 00:32:23,720
Ja, ik heb nog wel een grappig voorbeeld. Een algoritme dat cv's beoordeelt om een

320
00:32:23,720 --> 00:32:29,880
goede werknemer te vinden. Nou blijkt het dat er heel veel mensen met een leiderschapspositie

321
00:32:29,880 --> 00:32:34,720
de naam Peter hebben. En als je een zelflerend algoritme gebruikt, die gaat dan nieuwe cv's

322
00:32:34,720 --> 00:32:37,320
met de naam Peter, gaat hij denken van 'oh, dat is een goede werknemer'.

323
00:32:37,320 --> 00:32:42,000
Ik kijk ineens heel anders naar mijn collega die toevallig Peter heet.

324
00:32:42,000 --> 00:32:47,880
Ja, die is dus op positieve discriminatie aangenomen.

325
00:32:47,880 --> 00:32:56,440
Dat zijn jouw woorden. Dat soort dingen daar hebben we natuurlijk heel snel last van.

326
00:32:56,440 --> 00:33:00,440
En dan komt de confirmation bias ook weer. Ik ben aan het zoeken, dit komt eruit.

327
00:33:00,440 --> 00:33:04,920
Nou, dat is ook mijn beeld, dus ik ga ervan uit dat dit wel klopt. Dus daar zit die bias natuurlijk ook flink in.

328
00:33:04,920 --> 00:33:08,960
Je hebt een geweldige website die heet 'Spurious Correlations'.

329
00:33:08,960 --> 00:33:09,960
Ja, heel leuk.

330
00:33:09,960 --> 00:33:16,000
Ja, geweldig. Ik kijk daar eens in zoveel tijd op en dat zijn dan hele maffe correlaties,

331
00:33:16,000 --> 00:33:18,840
verbanden die geen oorzakelijke gevolg hebben.

332
00:33:18,840 --> 00:33:25,760
Ja, en ik denk dat algoritmen niet dat oorzakelijke verband kunnen zien, van causaliteit.

333
00:33:25,760 --> 00:33:34,400
Ja, daarvan weet ik dat er onderzoek naar wordt gedaan, maar dat is echt wel lastig inderdaad,

334
00:33:34,400 --> 00:33:36,920
om echt causaliteit aan te tonen.

335
00:33:36,920 --> 00:33:40,040
Nou, ik heb wel een voorbeeld. Een algoritme kan bijvoorbeeld zien van

336
00:33:40,040 --> 00:33:43,880
deze persoon heeft 70% kans om fraude te plegen.

337
00:33:43,880 --> 00:33:50,960
Maar je kunt al zien dat er iets niet goed gaat als je kijkt naar de manier waarop mensen over zichzelf denken.

338
00:33:50,960 --> 00:33:54,920
Want ik denk niet over mezelf, nou vandaag heb ik 70% kans om fraude te plegen.

339
00:33:54,920 --> 00:33:59,960
Je bent het van plan of je bent het niet van plan. Je hebt een soort van intenties en gevoelens daarachter.

340
00:33:59,960 --> 00:34:09,440
Maar dus die denken in termen van statistische kansen is sowieso al heel anders dan hoe het menselijke intenties werken.

341
00:34:09,440 --> 00:34:15,440
Ja, dat is wel een goede vraag. Ik had het nog niet overnacht.

342
00:34:15,440 --> 00:34:18,440
Het is een ja of een nee.

343
00:34:18,440 --> 00:34:24,440
Nou, maar er kan dus ook heel lang nee zijn tot het moment dat je denkt van ik doe het toch.

344
00:34:24,440 --> 00:34:29,440
Ja, ik denk dat mensen heel onvoorspelbaar zijn wat dat betreft.

345
00:34:29,440 --> 00:34:33,440
Dat ze nooit helemaal gevat kunnen worden in hun data profiel.

346
00:34:33,440 --> 00:34:36,440
Ja, je bent niet je datapunt van het verleden zeg maar.

347
00:34:36,440 --> 00:34:41,440
Je bent hetgeen wat je nu bent en dat verandert over tijd.

348
00:34:41,440 --> 00:34:47,440
Ik was nogal nieuwsgierig inderdaad. Je kwam hier naartoe en je bent met de trein hier naartoe gekomen.

349
00:34:47,440 --> 00:34:53,440
Hebben wij een vraag aan jou niet gesteld, maar die je had verwacht die we wel gesteld zouden hebben?

350
00:34:53,440 --> 00:34:56,440
Nou, dat is een leuke vraag.

351
00:34:56,440 --> 00:35:05,440
Nou, dat weet ik eigenlijk niet. Ik denk dat heel veel dingen in ieder geval aan bod zijn gekomen.

352
00:35:05,440 --> 00:35:16,440
Heb je nog een vraag aan ons? We zitten vaak bij bedrijven en dat soort zaken waar wij weer mee aan de slag kunnen met ethiek en AI-ethiek.

353
00:35:16,440 --> 00:35:27,440
Nou, iets wat ik wel eens zeg in mijn presentaties is dat ik denk dat het probleem soms niet zit in het weten hoe je het moet doen.

354
00:35:27,440 --> 00:35:40,440
Ik zie dat mensen, ja, we hebben al de wetenschappelijke kennis om te weten hoe we problemen moeten oplossen, zoals klimaatproblemen, sociale ongelijkheid, maar we voelen niet waarom.

355
00:35:40,440 --> 00:35:50,440
En dat zie ik ook dus bij AI. Want we weten wel dat we voor representativiteit in de dataset moeten zorgen, dat we bias uit het systeem moeten halen.

356
00:35:50,440 --> 00:35:58,440
Maar mensen weten niet hoe het is om gediscrimineerd te worden en hoe het is om onterecht benadeeld te worden door een algoritme systeem.

357
00:35:58,440 --> 00:36:08,440
En daarom weten ze ook niet wat precies die aard van die bias is en wat het onderscheid is tussen onterechte discriminatie en gerechtvaardigd onderscheid.

358
00:36:08,440 --> 00:36:19,440
Dus ja, als je naar bedrijven gaat, wees dan niet te snel weer oplossingsgericht, maar sta eerst even stil bij het probleem en ga na of mensen echt invoelen wat het probleem is.

359
00:36:19,440 --> 00:36:27,440
Ja, als ik van mezelf kom, dan ga ik in oplossingen denken. Ja, sorry. Dan moet je die doen.

360
00:36:27,440 --> 00:36:28,440
Dan moet je die doen. Stop.

361
00:36:28,440 --> 00:36:35,440
Nee, maar zelf pas ik het liefst aan 5 times why en het doorblijven vragen en echt de vraag achter de vraag proberen te ontdekken.

362
00:36:35,440 --> 00:36:40,440
Dat zou voor mij de praktische vertaling zijn hoe ik dat in de praktijk zou verengen.

363
00:36:40,440 --> 00:36:43,440
Niet in oplossingen denken.

364
00:36:43,440 --> 00:36:58,440
Als ik met mensen in gesprek ben of je hebt een ethisch gesprek, je merkt al gauw dat als het moeilijk wordt, dat mensen dan dichtslaan en vervallen in dingen zoals agree to disagree of anything goes.

365
00:36:58,440 --> 00:37:04,440
Maar dat is eigenlijk een conversation stopper. Dat is de manier waarop je constructief gesprek eigenlijk uit de weg gaat.

366
00:37:04,440 --> 00:37:07,440
Dat is juist het moment waarop je door moet gaan.

367
00:37:07,440 --> 00:37:14,440
Inderdaad, die why vragen stellen en ook ruimte laten voor verschil in perspectieven. Niet gelijk die consensus ook proberen te zoeken.

368
00:37:14,440 --> 00:37:17,440
Dus het mag schuren. Dat had je het over.

369
00:37:17,440 --> 00:37:18,440
Ja, zeker.

370
00:37:18,440 --> 00:37:22,440
Het mag schuren. Dat lijkt me een hele mooie afsluiting. Dank je wel. Het mag schuren.

371
00:37:22,440 --> 00:37:23,440
Heerlijk.

372
00:37:23,440 --> 00:37:24,440
Klinkt goed.

373
00:37:24,440 --> 00:37:27,440
Zo, die spiegel.

374
00:37:27,440 --> 00:37:28,440
Die komt binnen.

375
00:37:31,440 --> 00:37:40,440
Dank je wel Ajuna voor toch ook wel weer de praktische tips en vooral ook eigenlijk de andere manier van kijken wat je hier hebt gebracht.

376
00:37:40,440 --> 00:37:47,440
We hebben het al wat vaker over ethiek gehad. Je hebt een hele andere invalshoek. Heel erg leuk om te horen.

377
00:37:47,440 --> 00:37:56,440
Dank je wel voor het luisteren. Wil je geen aflevering missen? Zorg dan dat je even op het volgknopje drukt van je favoriete podcast app. Dan krijg je vanzelf een seintje als er weer een nieuwe is.

378
00:37:56,440 --> 00:37:58,440
Dank je wel. Tot de volgende keer.

379
00:37:58,440 --> 00:38:03,240
[Muziek]


People on this episode