AIToday Live

S05E61 - Bevooroordeelde AI examensoftware: Het gevecht van Robin Pocornie

Aigency by Info Support Season 5 Episode 61

AIToday Live - Een Verhaal van Discriminatie in Online Examens

Welkom bij een nieuwe aflevering van AIToday Live! Vandaag hebben we Robin Pocornie als speciale gast.

Robin deelt haar ervaringen met discriminatie in online examens en vertelt over haar strijd voor verandering. Laat je inspireren en abonneer je op onze podcast via je favoriete podcast-app!


Links

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:06,440
Hi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

2
00:00:06,440 --> 00:00:09,160
Mijn naam is Joop Snijder, CTO bij Aigency.

3
00:00:09,160 --> 00:00:12,120
Mijn naam Niels Naglé, Chapter Lead Data & AI bij Info Support.

4
00:00:12,120 --> 00:00:16,240
En we hebben vandaag de gast Robin Pocornie.

5
00:00:16,240 --> 00:00:18,760
Robin, dank je wel dat je de gast wilde zijn.

6
00:00:18,760 --> 00:00:20,640
Ik had al een hoop over je gelezen.

7
00:00:20,640 --> 00:00:24,320
Maar voordat we daarover beginnen, zou je jezelf willen voorstellen?

8
00:00:24,320 --> 00:00:28,120
Ja, nou super bedankt dat ik hier mag zijn vandaag sowieso.

9
00:00:28,120 --> 00:00:35,120
Mijn naam is Robin en ik ben student bio-informatica aan de VU, Vrije Universiteit Amsterdam.

10
00:00:35,120 --> 00:00:42,120
En daar ben ik eigenlijk nog steeds mee bezig met die master.

11
00:00:42,120 --> 00:00:48,120
Door samen te lopen van omstandigheden, waar we het zeker nog wel even over zullen hebben vandaag.

12
00:00:48,120 --> 00:00:54,120
En ik ben dus een klein beetje uitgefaseerd uit de wetenschap momenteel.

13
00:00:54,120 --> 00:00:58,680
En ik werk nu als creatief producent voor evenementen.

14
00:00:58,680 --> 00:01:03,080
En daarnaast spreek ik ook over AI en ethiek voornamelijk.

15
00:01:03,080 --> 00:01:06,760
Ja, want we hebben het hier ook best wel redelijk vaak over ethiek.

16
00:01:06,760 --> 00:01:08,520
Ja. - In deze podcast.

17
00:01:08,520 --> 00:01:13,800
En wat je dan ziet is dat dat mensen zijn die aan de kant zitten, zeg maar,

18
00:01:13,800 --> 00:01:16,480
van advies geven, dat soort zaken.

19
00:01:16,480 --> 00:01:20,480
Jij hebt heel nadrukkelijk aan de andere kant van de streep gezeten,

20
00:01:20,480 --> 00:01:27,240
dat je heel erg last hebt gehad van wat er mis kan gaan als dingen ethisch niet op de juiste manier zijn geïmplementeerd.

21
00:01:27,240 --> 00:01:34,020
Klopt en daar is dus dan ook dat interessante juxtaposition er ook bij,

22
00:01:34,020 --> 00:01:38,320
dat ik natuurlijk zelf ook een computer science achtergrond heb,

23
00:01:38,320 --> 00:01:42,520
wat het ook gewoon een interessante zaak maakt.

24
00:01:42,520 --> 00:01:49,200
Dus ja, bij de VU is er, en bij verschillende universiteiten tijdens corona,

25
00:01:49,200 --> 00:01:56,080
software gebruikt om tentamens in remote te kunnen afleggen, laten afleggen door studenten.

26
00:01:56,080 --> 00:02:01,560
En wat er bij die software moest gebeuren, is dat je moet inloggen.

27
00:02:01,560 --> 00:02:06,720
Net als bij een echt examen op locatie, heb je dan een surveillant.

28
00:02:06,720 --> 00:02:12,520
En in dit geval is de surveillant vervangen door een software die heet Proctorio.

29
00:02:12,520 --> 00:02:15,600
En die checkt of studenten spieken of niet.

30
00:02:15,600 --> 00:02:21,280
En dat doet die software door middel van image data.

31
00:02:21,280 --> 00:02:24,040
Kijken of je lang wegkijkt of juist niet.

32
00:02:24,040 --> 00:02:26,320
Een klik-klik behavior.

33
00:02:26,320 --> 00:02:31,400
En in mijn geval, om daar dus in te kunnen loggen, moet je dan je gezicht scannen.

34
00:02:31,400 --> 00:02:36,080
En in mijn geval, ik ben een zwarte vrouw, kon ik niet in die software.

35
00:02:36,560 --> 00:02:40,160
En dat viel me eigenlijk al best wel vroeg op.

36
00:02:40,160 --> 00:02:43,120
En nu denk ik dat dat voornamelijk komt door dus...

37
00:02:43,120 --> 00:02:48,700
toen wat minder, nu wat meer kennis van AI en hoe dat werkt,

38
00:02:48,700 --> 00:02:52,500
hoe we dat bouwen, hoe we dat trainen, modellen, dat soort dingen.

39
00:02:52,500 --> 00:02:56,580
En... -Hoe merk je dat het niet werkte?

40
00:02:56,580 --> 00:03:02,060
Nou, je hebt natuurlijk de fase waar je bijvoorbeeld je studentenpas moet scannen.

41
00:03:02,080 --> 00:03:07,240
en de computer of in ieder geval de software kan dat op dat moment wel herkennen als een pas.

42
00:03:07,240 --> 00:03:11,040
Dus de drie of de vier hoeken van een pas.

43
00:03:11,040 --> 00:03:13,320
Maar mijn gezicht dus dan niet.

44
00:03:13,320 --> 00:03:17,440
Dus er is in dezelfde omstandigheden, namelijk in die kamer,

45
00:03:17,440 --> 00:03:20,640
is er dus wel de mogelijkheid om mijn pas te scannen, maar niet mijn gezicht.

46
00:03:20,640 --> 00:03:23,360
En dan zijn er ook dat soort...

47
00:03:23,360 --> 00:03:29,400
Kreeg ik een notificatie van 'room too dark', 'face not detected', dat soort gevallen.

48
00:03:29,400 --> 00:03:32,680
Dus dan merk je dus dat je je gezicht niet kan scannen.

49
00:03:32,680 --> 00:03:35,800
En toen heb ik een lamp op mijn gezicht geschenen en toen werkte het wel.

50
00:03:35,800 --> 00:03:39,680
Maar wat bijzonder hier is, het is gewoon overdag en het waren...

51
00:03:39,680 --> 00:03:45,400
eigenlijk gewoon realistische levensomstandigheden waar ik in zat.

52
00:03:45,400 --> 00:03:48,800
Dus dat niet een te donkere kamer, het was niet 's avonds laat, het was gewoon 's middags.

53
00:03:48,800 --> 00:03:54,840
Met goed verlichten, niet achter verlichten, maar echt van voren, raamlicht.

54
00:03:54,840 --> 00:03:56,040
Dus dat is wel...

55
00:03:56,040 --> 00:03:59,200
- Je had vrijstand in de gaten, dit gaat om mijn huidskleur.

56
00:03:59,200 --> 00:04:02,360
Nou, niet per se meteen mijn huidskleur, maar meer van dat ik dacht,

57
00:04:02,360 --> 00:04:06,800
oh, dit algoritme kan waarschijnlijk gezichten gewoon niet goed detecteren.

58
00:04:06,800 --> 00:04:07,800
- Ah, zo ja.

59
00:04:07,800 --> 00:04:10,000
- Dus ik was best wel, misschien naïef of zo,

60
00:04:10,000 --> 00:04:14,800
wel willen vertrouwen dat het niet aan mijn zwarte huidskleur ging.

61
00:04:14,800 --> 00:04:22,000
Maar deze software werd op dat moment al heel veel gebruikt in de Verenigde Staten,

62
00:04:22,000 --> 00:04:25,000
dus veel grotere groep gebruikers had je daar al.

63
00:04:25,000 --> 00:04:37,440
En daar was al een anekdotische bewijs van studenten dat het was gewoon heel evident dat zwarte studenten daar last van hadden.

64
00:04:37,440 --> 00:04:39,680
Op die manier zoals ik daar ook last van had.

65
00:04:39,680 --> 00:04:49,640
En toen was het eigenlijk nog meer gewoon een beetje onderzoek doen naar empirical evidence, of in ieder geval kwantitatieve bewijs.

66
00:04:49,640 --> 00:04:57,040
En daar was al reverse-engineerd geweest door een andere wetenschapper.

67
00:04:57,040 --> 00:05:01,040
Je weet in ieder geval op welke datasets het getraind is.

68
00:05:01,040 --> 00:05:05,240
Dan kom je er al wel snel achter dat het dus wel komt...

69
00:05:05,240 --> 00:05:08,240
door niet kunnen detecteren van mijn huidskleur.

70
00:05:08,240 --> 00:05:13,320
Maar dan heb je volgens mij een heel helder, duidelijk probleem.

71
00:05:13,320 --> 00:05:15,580
Ja. -Zou je zeggen, die is makkelijk oplosbaar.

72
00:05:15,580 --> 00:05:18,720
Ja, dan denk je toch eigenlijk, perfecte situatie.

73
00:05:18,740 --> 00:05:23,020
Je maakt iets mee, je gaat op onderzoek uit, je vergaart de bewijs.

74
00:05:23,020 --> 00:05:26,380
Je gaat door dat hele pakketje naar de universiteit.

75
00:05:26,380 --> 00:05:28,780
En dan zou je denken dat die zou zeggen...

76
00:05:28,780 --> 00:05:33,180
'Hé, goed dat je dit eigenlijk voor ons gedaan hebt. Dank je wel.'

77
00:05:33,180 --> 00:05:37,740
'En we gaan hiermee aan de slag en we zetten dit niet meer in...

78
00:05:37,740 --> 00:05:43,540
voor onze volledige studentenpopulatie die ook student van kleur heeft.'

79
00:05:43,660 --> 00:05:48,220
Dus tijdens een pandemie waar we weer op een eerlijke manier moeten kunnen studeren.

80
00:05:48,220 --> 00:05:49,220
Zeker.

81
00:05:49,220 --> 00:05:51,060
Maar...

82
00:05:51,060 --> 00:05:52,060
Dat is niet geweest.

83
00:05:52,060 --> 00:05:53,060
Nee, dat was...

84
00:05:53,060 --> 00:05:54,060
Nee.

85
00:05:54,060 --> 00:05:56,660
Nou weet je, had het ook al snel klaar geweest dit gesprek.

86
00:05:56,660 --> 00:05:57,660
Ja, ja.

87
00:05:57,660 --> 00:05:58,660
Volgende maanden hadden we kunnen gaan.

88
00:05:58,660 --> 00:05:59,660
Nou ja, misschien ook juist...

89
00:05:59,660 --> 00:06:00,660
Misschien niet hè.

90
00:06:00,660 --> 00:06:03,660
Dan kunnen we het juist hebben over hoe we vooruit zijn gegaan.

91
00:06:03,660 --> 00:06:04,660
Ja, precies.

92
00:06:04,660 --> 00:06:05,660
Ja.

93
00:06:05,660 --> 00:06:06,660
Dus...

94
00:06:06,660 --> 00:06:08,660
Nee, maar het is verbazingwekkend.

95
00:06:08,660 --> 00:06:09,660
Dus weet je, blijf luisteren.

96
00:06:09,660 --> 00:06:10,660
Want het is...

97
00:06:10,660 --> 00:06:12,660
Je hebt echt een heel bizar proces.

98
00:06:12,660 --> 00:06:17,580
gemaakt want het klinkt allemaal heel... ja we zitten er nu om te lachen maar het is natuurlijk heel bizar.

99
00:06:17,580 --> 00:06:21,100
Want je denkt van nou ja je komt inderdaad met zo'n pakketje, je komt bij de universiteit.

100
00:06:21,100 --> 00:06:26,940
Bij de faculteit Beta wetenschappen ook waar de mensen die dit maken.

101
00:06:26,940 --> 00:06:29,340
Ja, weten hoe.

102
00:06:29,340 --> 00:06:32,340
En wat was hun reactie?

103
00:06:32,340 --> 00:06:41,340
Eigenlijk de reactie die je vaak krijgt, althans ik vaak krijg als persoon van kleur die racisme meemaakt.

104
00:06:41,340 --> 00:06:45,020
En dat is wat vervelend dat je het meemaakt, maar we gaan er eigenlijk niets aan doen.

105
00:06:45,020 --> 00:06:49,220
Of dat is aan jou, dat is jouw probleem en dat is niet het systeem.

106
00:06:49,220 --> 00:06:51,980
Nou, dus dat is de korte versie.

107
00:06:51,980 --> 00:06:58,340
En de lange versie is dat ik natuurlijk uiteindelijk van eerst gewoon klein begon.

108
00:06:58,340 --> 00:07:04,580
Dus eerst docent en toen naar studentenraad en toen naar de studentenadviseur.

109
00:07:04,580 --> 00:07:06,980
En toen naar de studentenombudsman.

110
00:07:06,980 --> 00:07:09,900
En overal kreeg ik geen gehoor.

111
00:07:09,900 --> 00:07:15,300
Dus dat ik niet verder ben gegaan omdat ik het leuk vond, maar meer omdat ik dacht deze persoon kan mij niet helpen.

112
00:07:15,300 --> 00:07:19,020
Die wijst mij weer naar de volgende, dus daar ging ik dan weer naar de volgende.

113
00:07:19,020 --> 00:07:26,940
En uiteindelijk ben ik, heb ik een soort regenbrief geschreven, een regenklachtbrief geschreven naar het college van de bestuur,

114
00:07:26,940 --> 00:07:30,740
de ombudsman en examencommissie. - Van de universiteit.

115
00:07:30,740 --> 00:07:36,700
Van de universiteit, ja. En gewoon gezegd, hier is wat er gebeurd is, dit is al het bewijs dat ik heb dat dit,

116
00:07:36,700 --> 00:07:40,100
Dat dit programma, dat deze software niet werkt.

117
00:07:40,100 --> 00:07:45,660
Het systeem moet niet ingesteld worden op een publieke instelling zoals onze universiteit.

118
00:07:45,660 --> 00:07:50,580
En jullie moeten daar nu onderzoek naar doen, want het wordt nog steeds gebruikt.

119
00:07:50,580 --> 00:07:52,700
Het was niet alleen dat je niet kon inloggen...

120
00:07:52,700 --> 00:07:55,780
maar tijdens het examen had je er ook last van, toch?

121
00:07:55,780 --> 00:08:00,500
Ja, dus dat is ook het vage van deze software.

122
00:08:00,500 --> 00:08:04,700
En nog steeds in het proces, drie jaar later, is het nog steeds onduidelijk hoe het werkt.

123
00:08:04,820 --> 00:08:12,600
Maar ja, dat is vaak bij dit soort ontwikkelingen, dat je natuurlijk als je product, als je daar geld mee verdient,

124
00:08:12,600 --> 00:08:15,180
dan ga je niet vertellen hoe het precies werkt natuurlijk.

125
00:08:15,180 --> 00:08:19,780
Maar inderdaad, ik werd uit het systeem gegooid.

126
00:08:19,780 --> 00:08:23,080
En dan moest ik dan weer inloggen met datzelfde proces.

127
00:08:23,080 --> 00:08:25,320
Met mijn gezicht die niet gedetecteerd werd.

128
00:08:25,320 --> 00:08:29,700
En daarnaast ben je een student en je probeert gewoon goed je best te doen en goede zaken te halen.

129
00:08:29,700 --> 00:08:30,200
- Precies, tuurlijk.

130
00:08:30,200 --> 00:08:37,200
Dus je bent nerveus, ik was nerveus dat het niet zou lukken, dat ik niet in mijn examen zou komen, dat ik dan niet mijn examen zou kunnen doen.

131
00:08:37,200 --> 00:08:47,560
En het is ook niet even alternatief inloggen, niet dat het minder erg zou maken, maar het is niet even een workaround en alles was klaar.

132
00:08:47,560 --> 00:08:51,560
Nee, je werd gewoon echt gehinderd in het uitvoeren van je examens.

133
00:08:51,560 --> 00:09:00,560
Ja, dus in de beginfase. Als ik er eenmaal in was, dan was het zweet van mijn voorhoofd, afdeppen van de stress en dan gewoon een examen maken.

134
00:09:00,560 --> 00:09:07,800
Dus de universiteit gaf geen gehoor aan mijn klacht.

135
00:09:07,800 --> 00:09:20,840
En mijn klacht diende ik in vanuit mijn eigen ervaring, maar ook vanuit de zorg dat andere studenten dit meemaken zonder deze achtergrondkennis.

136
00:09:20,840 --> 00:09:25,920
en daar misschien wel, misschien geen lamp in hun gezicht hebben weten te schijnen,

137
00:09:25,920 --> 00:09:29,900
want dat je weet van de camera hoe dat een beetje werkt enzo.

138
00:09:29,900 --> 00:09:38,040
En dat ze dan misschien daar nog grotere consequenties aan hebben gehangen,

139
00:09:38,040 --> 00:09:41,160
dus dat ze misschien hun studie niet hebben kunnen afmaken,

140
00:09:41,160 --> 00:09:43,340
of nog meer vertraging hebben opgelopen.

141
00:09:43,340 --> 00:09:44,160
Precies.

142
00:09:44,160 --> 00:09:48,620
Want waren er ook meer van de universiteit die bij jou aangesloten,

143
00:09:48,640 --> 00:09:50,920
Met hetzelfde probleem, dezelfde uitdaging?

144
00:09:50,920 --> 00:09:55,920
Er is niemand bij mij aangesloten, maar ik weet wel dat meerdere studenten dit hebben meegemaakt.

145
00:09:55,920 --> 00:10:00,040
En ik snap dat niemand bij mij zich heeft aangesloten,

146
00:10:00,040 --> 00:10:04,200
omdat dat gewoon een heel erg vermoeiend en lang proces is.

147
00:10:04,200 --> 00:10:08,000
En ook sommige studenten zitten er echt niet op te wachten om...

148
00:10:08,000 --> 00:10:11,960
Ja, ik ben uiteindelijk wel sterk in het nieuws met mijn naam.

149
00:10:11,960 --> 00:10:16,440
Ik ben makkelijk te vinden nu, veel makkelijker dan hiervoor.

150
00:10:16,460 --> 00:10:25,460
En dat is wel iets wat ik zelf niet had gewild, maar ik daar wel voor in durf te zetten.

151
00:10:25,460 --> 00:10:32,760
En dat ook belangrijk vind voor de volgende generatie en de volgende mensen die dit meemaken.

152
00:10:32,760 --> 00:10:34,460
Heel goed, heel goed.

153
00:10:34,460 --> 00:10:37,460
Sterk ook van je, want het is net wat je zegt.

154
00:10:37,460 --> 00:10:40,460
Je bent tegen iets aan het vechten.

155
00:10:40,460 --> 00:10:48,460
Als je geen erkenning krijgt van het probleem, dan ben je wel heel ver van de oplossing af.

156
00:10:48,460 --> 00:10:49,460
Ja.

157
00:10:49,460 --> 00:10:53,460
Waren er mensen die jou hierin hielpen?

158
00:10:53,460 --> 00:10:55,460
Ja, zeker.

159
00:10:55,460 --> 00:10:59,460
Uiteindelijk ben ik naar het College voor de Rechten van de Mens gestapt,

160
00:10:59,460 --> 00:11:04,460
omdat er bij de universiteit geen gehoor was voor dit probleem.

161
00:11:04,460 --> 00:11:11,860
En dit probleem is natuurlijk ook groter dan alleen het gebruik van deze specifieke software.

162
00:11:11,860 --> 00:11:16,100
Maar het gaat ook over software die later door de universiteit wordt aangeschaft.

163
00:11:16,100 --> 00:11:20,860
En als daar niet met zorg en een ander oog naar wordt gekeken,

164
00:11:20,860 --> 00:11:25,860
dan blijft dit probleem zich voortduren binnen de universiteit.

165
00:11:25,860 --> 00:11:28,860
En toen ben ik bij het Ways and Men Technology Center.

166
00:11:28,860 --> 00:11:33,260
Ik kende daar een van de oprichters van.

167
00:11:33,260 --> 00:11:40,660
En daar zijn we bij elkaar gekomen om die zaak, die klacht, bij het College voor de Rechten van de Mens in te dienen.

168
00:11:40,660 --> 00:11:44,900
Want ik heb verder geen juridische achtergrond en ik weet allemaal niet hoe dat werkt.

169
00:11:44,900 --> 00:11:47,540
Dus daar heb ik hun hulp bij gekregen.

170
00:11:47,540 --> 00:11:52,660
En dat is echt super geweest, want zonder hun had ik dat niet kunnen doen.

171
00:11:52,660 --> 00:11:57,140
Maar dat is dus eigenlijk toen de universiteit ging overstijgen?

172
00:11:57,140 --> 00:11:58,140
Ja.

173
00:11:58,140 --> 00:12:03,820
En binnen de universiteit, zeg maar, in dat traject is er niemand met je mee gedacht of gewerkt?

174
00:12:03,820 --> 00:12:08,780
Nee, nee. Alle hulp die ik heb gehad, heb ik van het Racism Technology Center gehad.

175
00:12:08,780 --> 00:12:14,180
En dat is dus een organisatie buiten de universiteit, helemaal volunteer run,

176
00:12:14,180 --> 00:12:26,100
door de oprichters daarvan die zich inzetten tegen de invloeden van onze oneerlijkheid in de maatschappij,

177
00:12:26,100 --> 00:12:29,100
in ons technologie heeft heel makkelijk gezegd.

178
00:12:29,100 --> 00:12:31,500
Ja, we zullen ook even dat linkje opnemen.

179
00:12:31,500 --> 00:12:33,000
Ik had ook de website zitten kijken.

180
00:12:33,000 --> 00:12:38,200
Zij maken ook een heel mooi overzicht van waar technologie uit de bocht vliegt.

181
00:12:38,200 --> 00:12:39,700
Op dit gebied.

182
00:12:39,700 --> 00:12:42,900
Dus dat is echt wel handig om eens na te kijken.

183
00:12:42,900 --> 00:12:44,300
Want er zaten gevallen tussen.

184
00:12:44,300 --> 00:12:48,300
Wij bespreken er best wel regelmatig wat die ik ook nog niet kende.

185
00:12:48,300 --> 00:12:50,400
Ja, en ook op een begrijpbare manier.

186
00:12:50,400 --> 00:12:54,200
Want je hebt dan de technologie, zoals ik dat noem, de wetenschappers.

187
00:12:54,200 --> 00:13:02,200
Ik zie mezelf daar ook onder. Ik zie mezelf een beetje als een vertaler tussen die twee, de maatschappij en de wetenschap.

188
00:13:02,200 --> 00:13:12,200
Want ik ze allebei snap, maar de verbinding daarin, daar zijn nog heel weinig platforms, mensen die daar echt op een begrijpbare manier de verbinding in maken.

189
00:13:12,200 --> 00:13:18,200
En ook zien en ook dat uiteen kunnen zetten.

190
00:13:18,200 --> 00:13:25,640
en ik denk dat dat dat de Racism technology center dat heel erg goed doet. Hans de Zwart,

191
00:13:25,640 --> 00:13:33,440
hij is de voormalige directeur van Bits of Freedom. Hij is een van de oprichters van het

192
00:13:33,440 --> 00:13:39,560
race and make technology center en hij schrijft daar ook heel goed over voor die. Dat is echt een

193
00:13:39,560 --> 00:13:45,840
interessante platform. Ja en ook gewoon complimenten aan jou en mooi dat je het verhaal ook deelt,

194
00:13:45,840 --> 00:13:49,520
want ik denk dat het heel waardevol is, maar ook wel voor jou een spannende tijd als ik het zo hoor.

195
00:13:49,520 --> 00:13:54,280
Inderdaad zonder hulp, alles wat er op de universiteit is al zoveel. Laat staan daar buiten dan de hulp.

196
00:13:54,280 --> 00:13:56,480
Terwijl je ook nog studeert.

197
00:13:56,480 --> 00:14:01,480
Ja, want hoe lang heeft het tussen gezeten, zeg maar, tussen als het ware je eerste klacht...

198
00:14:01,480 --> 00:14:04,080
en dat je bij het College van de Rechten van de Mensen terecht kwam?

199
00:14:04,080 --> 00:14:08,680
Mijn eerste ervaring was in september 2020.

200
00:14:08,680 --> 00:14:15,200
Dus dat is op het moment dat ik meemaakte dat de software mijn gezicht niet kon detecteren.

201
00:14:15,200 --> 00:14:24,560
En ik heb in juli 2022, dus ongeveer anderhalf jaar later, die klacht ingediend.

202
00:14:24,560 --> 00:14:28,080
En nu zitten we dus in september 2023, of oktober.

203
00:14:28,080 --> 00:14:33,920
En over een paar weken komt dat eindoordeel.

204
00:14:33,920 --> 00:14:35,560
Oké, die heb je ook nog niet.

205
00:14:35,560 --> 00:14:38,200
Die heb ik nog niet, nee. Maar die komt er aan.

206
00:14:38,200 --> 00:14:39,200
Oh, wat goed.

207
00:14:39,200 --> 00:14:44,480
Dus waarschijnlijk als deze podcast live gaat, is dat misschien het eindoordeel.

208
00:14:44,480 --> 00:14:48,480
Dat zou wel... - Drie jaar.

209
00:14:48,480 --> 00:14:50,480
Ja. - Ja.

210
00:14:50,480 --> 00:14:52,480
Alleen dat is al bizar.

211
00:14:52,480 --> 00:14:57,480
Maar dat is dus drie jaar vanaf het moment dat ik het heb geconstateerd.

212
00:14:57,480 --> 00:14:59,480
Dus ervaring en nu is drie jaar.

213
00:14:59,480 --> 00:15:01,480
Maar dat is wel je reis, toch? - Ja, zeker.

214
00:15:01,480 --> 00:15:05,480
Maar omdat mensen soms aan het verwarren met de procedure.

215
00:15:05,480 --> 00:15:07,480
Nee, tuurlijk.

216
00:15:07,480 --> 00:15:09,480
Nee, echt gewoon van...

217
00:15:09,480 --> 00:15:13,480
In het begin ga je ook niet gelijk uit van zo'n proces gaat te volgen natuurlijk.

218
00:15:13,480 --> 00:15:16,760
Dat is ook een reis die eigenlijk niet van tevoren start.

219
00:15:16,760 --> 00:15:21,560
Nee, echt niet. Ik ben blij dat ik dat allemaal niet weet.

220
00:15:21,560 --> 00:15:25,960
Precies. Soms moet je niet gehinderd worden door enige kennis.

221
00:15:25,960 --> 00:15:28,360
Precies, hoe noemen ze dat? Ignorance is bliss toch?

222
00:15:28,360 --> 00:15:30,120
Ja, precies.

223
00:15:30,120 --> 00:15:34,600
Oké, ik was er al even van uitgegaan dat je überhaupt gelijk had gekregen.

224
00:15:34,600 --> 00:15:38,920
Nou, ik heb dus in december 2022 een tussenoordeel geveld...

225
00:15:38,920 --> 00:15:47,920
waarin er werd de, ja, ik ken veel Engelse termen hoor, maar hoe noem je dat, dat je zeg maar de...

226
00:15:47,920 --> 00:15:49,420
- Je mag het even...

227
00:15:49,420 --> 00:15:50,920
- Burden of responsibility.

228
00:15:50,920 --> 00:15:51,920
- Ja.

229
00:15:51,920 --> 00:15:53,920
- Dat werd op de vuur gelegd.

230
00:15:53,920 --> 00:15:54,920
- Ja.

231
00:15:54,920 --> 00:16:04,920
- En dat is best wel, ja, een heel belangrijk ding in onze jurisprudentie binnen technologie en discriminatie en ongelijkheid.

232
00:16:04,920 --> 00:16:11,920
want in Nederland is dat dus de eerste keer dat iemand aanneembaar heeft kunnen maken dat software heeft gediscrimineerd.

233
00:16:11,920 --> 00:16:15,920
Dus dat is in december al, dat is voor ons al een win.

234
00:16:15,920 --> 00:16:19,920
Want dat was in Nederland, kon je dat nog niet doen op die manier.

235
00:16:19,920 --> 00:16:26,920
En nu is het college ook gezegd dat de verantwoordelijkheid ligt bij de persoon die het aankoopt.

236
00:16:26,920 --> 00:16:30,920
Dus dat maakt ook in ons...

237
00:16:30,920 --> 00:16:33,920
- Oh, zodat ze het niet kunnen afschrijven op die leverancier.

238
00:16:33,920 --> 00:16:43,920
Dat zou kunnen, maar dat maakt het dus wat fijner voor de consument als het ware, of de mensen die daar van gedupeerd worden,

239
00:16:43,920 --> 00:16:52,920
omdat dan bijvoorbeeld de overheid, als die overheid iets aanschaft, dat die wordt verantwoordelijk gehouden en niet de leverancier van het product.

240
00:16:52,920 --> 00:17:00,920
Want als we alleen achter de leverancier zouden aangaan, dan zouden we makkelijk kunnen zeggen, oké, Proctorio gebruiken we niet meer.

241
00:17:00,920 --> 00:17:05,120
Dan gebruiken we wel een ander product die precies hetzelfde werkt.

242
00:17:05,120 --> 00:17:07,120
Dan heb je eigenlijk een probleem daarmee niet.

243
00:17:07,120 --> 00:17:08,140
- Nee, precies.

244
00:17:08,140 --> 00:17:10,080
- Ja, opgelost is het sowieso nog niet.

245
00:17:10,080 --> 00:17:14,800
Maar in ieder geval de verantwoordelijkheid houden op de persoon die dat aankoopt...

246
00:17:14,800 --> 00:17:18,240
en niet van tevoren checkt en niet van tevoren dat in acht neemt.

247
00:17:18,240 --> 00:17:21,200
Dat is al een hele stap vooruit, vind ik zelf.

248
00:17:21,200 --> 00:17:22,220
- Absoluut.

249
00:17:22,220 --> 00:17:24,040
- In onze...

250
00:17:24,040 --> 00:17:26,040
Ja, als we het hebben over AI en ethiek.

251
00:17:26,060 --> 00:17:31,900
Het gaat natuurlijk ook heel vaak over die mensen die de producten maken.

252
00:17:31,900 --> 00:17:35,020
Dat zijn vaak witte oude mannen en daar ben ik het mee eens.

253
00:17:35,020 --> 00:17:41,260
Maar dat idee van datasets, trainen en modellen, dat is nog best wel gecompliceerd.

254
00:17:41,260 --> 00:17:45,420
Ontzettend gecompliceerd voor mensen die daar nul ideeën van hebben.

255
00:17:45,420 --> 00:17:49,660
Maar het idee van wat je aankoopt, daar ben je verantwoordelijk voor, dat is veel makkelijker te snappen.

256
00:17:49,660 --> 00:17:55,540
En dat kan ook veel sneller leiden tot veranderingen, denk ik, bij de leverancier, bij de ontwikkelaars.

257
00:17:55,540 --> 00:17:58,540
Heb je van die leveranciers wel eens een reactie gehad?

258
00:17:58,540 --> 00:18:03,540
Indirect. Dus de VU heeft in december dus, we hebben een tussenoordeel gehad,

259
00:18:03,540 --> 00:18:07,040
waarin de burden of responsibility dus bij hen lag.

260
00:18:07,040 --> 00:18:13,540
En toen moesten zij gaan bewijzen dat de software van Proctorio niet discrimineerde.

261
00:18:13,540 --> 00:18:16,540
Dus dan moesten ze bewijzen dat dat niet zo was.

262
00:18:16,540 --> 00:18:25,040
En dan ga je natuurlijk wel bij de leverancier aankloppen voor data en verschillende bewijsstukken.

263
00:18:25,040 --> 00:18:32,320
Indirect heb ik van de leverancier, de bewijsstukken vanuit de VU, wat Proctorio heeft aangeleverd bij de VU.

264
00:18:32,320 --> 00:18:36,120
Als bewijs dat hun product helemaal goed is.

265
00:18:36,120 --> 00:18:37,120
Ja.

266
00:18:37,120 --> 00:18:38,120
Ja.

267
00:18:38,120 --> 00:18:39,120
Oké.

268
00:18:39,120 --> 00:18:41,120
Een beetje dan.

269
00:18:41,120 --> 00:18:45,560
En dat kan ik inhoudelijk nog niet helemaal uitgemaakt doen tot het eindoordeel.

270
00:18:45,560 --> 00:18:54,400
Maar wanneer dat allemaal wrapped up is, dan ben ik wel van plan om daar wat meer inhoudelijk over uit te wijden.

271
00:18:54,400 --> 00:18:58,400
Maar we wachten nog even af totdat eindoordeel er is.

272
00:18:58,400 --> 00:19:00,920
Zodat we daar gewoon nog in kunnen...

273
00:19:00,920 --> 00:19:05,000
Mocht er nog iets komen dat we nog iets tegen moeten zeggen of zo, weet ik veel.

274
00:19:05,000 --> 00:19:07,320
Dan zijn we daarvoor ingedekt.

275
00:19:07,320 --> 00:19:10,320
Maar key takeaway voor mij dan even, burden of responsibility.

276
00:19:10,320 --> 00:19:13,520
Dus waar ligt de verantwoordelijkheid, als we het even zo vertalen?

277
00:19:13,520 --> 00:19:18,400
Ligt dus bij de UVA of degene die eigenlijk het pakket selectie gedaan heeft.

278
00:19:18,400 --> 00:19:20,120
Keus gemaakt heeft bij de VU.

279
00:19:20,120 --> 00:19:22,640
Omdat... Oké.

280
00:19:22,660 --> 00:19:27,340
Ja en dat is niet heel veel anders dan dat jij nu iets koopt in de winkel,

281
00:19:27,340 --> 00:19:31,100
dat zij verantwoordelijk zijn dat het een goed product is.

282
00:19:31,100 --> 00:19:36,900
Zij mogen niet doorverwijzen naar wie er allemaal in de keten achter zit.

283
00:19:36,900 --> 00:19:39,700
Ik denk dat dat een soort van analogie is.

284
00:19:39,700 --> 00:19:46,660
Maar ook super in het Nederlandse systeem is dat dus nog niet.

285
00:19:46,660 --> 00:19:51,540
Volgens mij ook over de wereld nog niet, maar dat moet ik nog even goed checken.

286
00:19:51,540 --> 00:20:02,540
Maar zover heb ik dit dus nog niet gezien in andere scenario's waar de persoon die aanklaagt uiteindelijk dus niet verantwoordelijk is voor het leveren van bewijs.

287
00:20:02,540 --> 00:20:08,540
Ja, mooi. Helemaal mooi.

288
00:20:08,540 --> 00:20:10,540
Ik ben ook niet gewijs van het geleefd hoor.

289
00:20:10,540 --> 00:20:16,540
Maar mooi dat we het hier over hebben en dat er verandering komt. Want die verandering is natuurlijk wel heel belangrijk.

290
00:20:16,540 --> 00:20:22,040
Want de grote techleveranciers hebben natuurlijk ook allemaal gezichtsherkenningssoftware.

291
00:20:22,040 --> 00:20:30,180
Waar trouwens al eerder van duidelijk was dat die, laten we zeg maar, als je het heel eufemistisch zegt,

292
00:20:30,180 --> 00:20:33,560
nogal in disbalans was qua trainingsdata.

293
00:20:33,560 --> 00:20:34,560
Ja, zeker.

294
00:20:34,560 --> 00:20:40,580
Als je kijkt naar het werk van de Algorithmic Justice League,

295
00:20:40,580 --> 00:20:42,580
Ja, de dokter, oh dan moet ik het altijd goed zeggen.

296
00:20:42,580 --> 00:20:44,580
Joy Buolamwini.

297
00:20:44,580 --> 00:20:46,580
Joy.

298
00:20:46,580 --> 00:20:48,580
Zij doet hier natuurlijk ook heel goed werk op.

299
00:20:48,580 --> 00:20:50,580
Zij heeft heel erg laten zien

300
00:20:50,580 --> 00:20:52,580
dat die trainingsdata van

301
00:20:52,580 --> 00:20:54,580
bijvoorbeeld de Microsoft, van Amazon,

302
00:20:54,580 --> 00:20:56,580
dat je

303
00:20:56,580 --> 00:20:58,580
juist als vrouw van kleur,

304
00:20:58,580 --> 00:21:00,580
dat je echt wel, dan heb je een soort van

305
00:21:00,580 --> 00:21:02,580
dubbelachterstand, want er zitten al minder vrouwen

306
00:21:02,580 --> 00:21:04,580
in de trainingsdataset.

307
00:21:04,580 --> 00:21:06,580
En nog minder van kleur.

308
00:21:06,580 --> 00:21:08,580
En ja,

309
00:21:08,580 --> 00:21:11,580
Helaas Niels, wij en ik zitten daar heel veel in.

310
00:21:11,580 --> 00:21:15,340
En dat zorgt ervoor dat dat gewoon uit balans is.

311
00:21:15,340 --> 00:21:19,860
Ja, en daarnaast heb ik dus ook op natuurkundige basis...

312
00:21:19,860 --> 00:21:24,460
...proberen te bewijzen of bewezen dat de cameratechnologie...

313
00:21:24,460 --> 00:21:28,860
...überhaupt ook nog niet daar is om de...

314
00:21:28,860 --> 00:21:31,260
...het heeft te maken met lichtreflectie.

315
00:21:31,260 --> 00:21:34,540
Dat lichtreflectie van mijn huid anders is dan dat van jullie.

316
00:21:34,540 --> 00:21:40,900
En dat daarom camera's überhaupt de zwarte gezichten niet kunnen detecteren.

317
00:21:40,900 --> 00:21:45,900
Dus als je daarnaast nog een algoritme erop mag gooien, dat het dus nog moeilijker wordt.

318
00:21:45,900 --> 00:21:49,100
Daar heb ik dus op die manier ook.

319
00:21:49,100 --> 00:21:52,540
O, daar was ik me nooit bewust van.

320
00:21:52,540 --> 00:21:54,540
Dat was vooral heel veel trainingsdata.

321
00:21:54,540 --> 00:21:56,540
Het is natuurlijk ook de training daarbij.

322
00:21:56,540 --> 00:21:59,540
Dus dat is niet om totaal de verantwoordelijkheid af te halen.

323
00:21:59,540 --> 00:22:08,900
Er zijn meerdere variabelen die het gewoon maken dat dit moeilijker mogelijk is.

324
00:22:08,900 --> 00:22:10,900
Ja, niet niet mogelijk.

325
00:22:10,900 --> 00:22:13,940
Nee, precies. Ja, interessant.

326
00:22:13,940 --> 00:22:16,980
Had jij van haar case gehoord?

327
00:22:16,980 --> 00:22:21,300
Nee, nee. Ja, de naam kwam natuurlijk voorbij voor de podcast en toen ben ik even gaan kijken inderdaad.

328
00:22:21,300 --> 00:22:24,100
Maar nee, ik had hem dus niet groot in het nieuws voorbij zien komen.

329
00:22:24,100 --> 00:22:29,820
Als ik het verhaal hoor, verbaast mij dat dat dan niet op mijn radar is waar ik toch wel kijk.

330
00:22:29,820 --> 00:22:33,340
Je bent echt veel gevraagd, hè?

331
00:22:33,340 --> 00:22:34,360
Ja.

332
00:22:34,360 --> 00:22:36,380
Veel media bij je verschenen.

333
00:22:36,380 --> 00:22:38,160
Ja, ook wel groot inderdaad.

334
00:22:38,160 --> 00:22:40,940
Maar ik denk dat het net te niche is of zo.

335
00:22:40,940 --> 00:22:42,960
Soms mensen dat niet helemaal...

336
00:22:42,960 --> 00:22:49,640
Het is ook wel een lastige case, omdat die AI daarin zit.

337
00:22:49,640 --> 00:22:52,260
En AI is toch wel een onderwerp waar heel veel mensen denken,

338
00:22:52,280 --> 00:22:55,280
"Oh, snap ik niet. Hoe werkt dat nou?"

339
00:22:55,280 --> 00:22:57,300
"Laat me handen er maar van af."

340
00:22:57,300 --> 00:22:59,320
Ja, het wel.

341
00:22:59,320 --> 00:23:02,640
Dit soort cases, ja, ze zijn niet prettig, zeker niet in jouw verhaal.

342
00:23:02,640 --> 00:23:05,260
Maar het zijn wel de cases die we met elkaar juist moeten bespreken.

343
00:23:05,260 --> 00:23:07,280
Dus die juist wel breder inderdaad.

344
00:23:07,280 --> 00:23:10,300
En daarom verbaas ik dat ik hem zelf ook niet veel had zien komen inderdaad.

345
00:23:10,300 --> 00:23:13,320
Dat we dit soort dingen moeten bespreken, ja.

346
00:23:13,320 --> 00:23:18,340
Wij hebben onze virtuele co-host.

347
00:23:18,360 --> 00:23:21,120
Als je me nog niet kent, ik ben Aisha.

348
00:23:21,120 --> 00:23:24,720
De AI van deze podcast mag ik je een vraag stellen.

349
00:23:24,720 --> 00:23:27,920
Als je me nog niet kent, ik ben Aisha.

350
00:23:27,920 --> 00:23:31,400
De AI van deze podcast mag ik je een vraag stellen.

351
00:23:31,400 --> 00:23:34,400
Als je me nog niet kent, ik ben Aisha.

352
00:23:34,400 --> 00:23:37,000
Als je me nog niet kent, ik ben Aisha.

353
00:23:37,000 --> 00:23:39,600
Als je me nog niet kent, ik ben Aisha.

354
00:23:39,600 --> 00:23:42,400
Als je me nog niet kent, ik ben Aisha.

355
00:23:42,400 --> 00:23:45,000
Als je me nog niet kent, ik ben Aisha.

356
00:23:45,200 --> 00:23:48,760
De AI van deze podcast, mag ik je een vraag stellen?

357
00:23:48,760 --> 00:23:50,780
Jazeker.

358
00:23:50,780 --> 00:23:55,660
Kun je meer vertellen over hoe jullie psychologische inzichten gebruiken...

359
00:23:55,660 --> 00:23:59,580
bij het ontwikkelen van deze AI-toepassing?

360
00:23:59,580 --> 00:24:03,020
Oeh, dat is wel een...

361
00:24:03,020 --> 00:24:06,340
Psychologische... Wat was dat? Psychologische instellingen?

362
00:24:06,340 --> 00:24:08,940
Hoe je psychologische inzichten zou kunnen gebruiken...

363
00:24:08,940 --> 00:24:10,960
bij het ontwikkelen van AI-toepassingen.

364
00:24:10,960 --> 00:24:12,980
Vertaal hem eventjes.

365
00:24:12,980 --> 00:24:15,000
Nou, ik vind dat wel een grappige vraag...

366
00:24:15,020 --> 00:24:17,460
Ik heb wel een master in neurowetenschappen.

367
00:24:17,460 --> 00:24:20,300
Dat is mijn eerste... Ik ben eigenlijk bioloog.

368
00:24:20,300 --> 00:24:23,080
Kijk, oké. Zo leer je wel.

369
00:24:23,080 --> 00:24:25,760
Eerst bioloog, daarna computerwetenschapper.

370
00:24:25,760 --> 00:24:28,720
Of nu is het een beetje gemixt, bio-informatica.

371
00:24:28,720 --> 00:24:30,920
Dus dat vind ik altijd wel een grappige vraag.

372
00:24:30,920 --> 00:24:32,080
Die krijg ik best wel vaak.

373
00:24:32,080 --> 00:24:35,200
Gaan we het brein nou nabootsen?

374
00:24:35,200 --> 00:24:38,820
Als jij als neurowetenschapper, leg ons nou eens uit

375
00:24:38,820 --> 00:24:41,800
hoe je het brein nabootst in een AI.

376
00:24:41,820 --> 00:24:48,660
Ik weet niet of dat helemaal de vraag beantwoord, maar ik vind dat altijd wel een grappige vraag.

377
00:24:48,660 --> 00:24:53,860
Maar psychologische inzichten, wat bedoelt ze eigenlijk daarmee precies, denk je?

378
00:24:53,860 --> 00:24:55,860
Welke inzichten?

379
00:24:55,860 --> 00:25:00,820
Ik denk wel wat jij zegt, psychologische inzichten gaat natuurlijk inderdaad over ons menselijk brein.

380
00:25:00,820 --> 00:25:05,980
En de vraag is, zouden we dat überhaupt moeten toepassen?

381
00:25:05,980 --> 00:25:09,980
Ik heb er zelf wel een mening over.

382
00:25:09,980 --> 00:25:12,740
We kunnen misschien alle drie, maar ik kan wel eerst gaan.

383
00:25:12,740 --> 00:25:19,540
Ik denk dat AI een hulpmiddel zou moeten zijn om ons leven makkelijker te maken,

384
00:25:19,540 --> 00:25:22,700
zodat wij meer plezier uit het leven kunnen halen.

385
00:25:22,700 --> 00:25:30,780
En ik denk dat bijvoorbeeld AI die kunst nabootst of kunst maakt,

386
00:25:30,780 --> 00:25:35,020
en dat is muziek of visual art, noem maar op heel breed,

387
00:25:35,020 --> 00:25:37,820
daar ben ik persoonlijk niet een fan van,

388
00:25:37,820 --> 00:25:44,820
omdat ik denk dat kunstmaken, muziek maken, dat dat een menselijke enjoyment is.

389
00:25:44,820 --> 00:25:48,260
Dat is waar we veel geluk uit halen.

390
00:25:48,260 --> 00:25:51,900
Dus om dat dan te laten vervangen door AI,

391
00:25:51,900 --> 00:26:00,620
dat zou ik dan zelf dus niet heel erg aan het goede inzet vinden van zo'n systeem.

392
00:26:01,900 --> 00:26:10,500
En verder ben ik van mening dat sommige, bijvoorbeeld prediction models, die bijvoorbeeld een soort van futuristic,

393
00:26:10,500 --> 00:26:16,180
van hé, hoe gaat dit, wat is de uitkomst van deze actie bijvoorbeeld, een menselijke actie,

394
00:26:16,180 --> 00:26:23,380
dat dat ook een beetje, ja dat vind ik ook een beetje jammer ofzo, dat ik denk van hé, we moeten nog wel leven met dat idee dat er,

395
00:26:23,380 --> 00:26:26,660
dat alles kan gebeuren, hè? Dus dat het... - Ja, precies.

396
00:26:26,660 --> 00:26:30,900
Dus dat zou mijn antwoord zijn daarop.

397
00:26:30,900 --> 00:26:33,900
Mag ik daar op reageren? - Jazeker.

398
00:26:33,900 --> 00:26:39,900
Over dat van die muziek, daar ben ik het gedeeltelijk mee eens.

399
00:26:39,900 --> 00:26:45,900
Gevoelsmatig ja, maar ik weet ook, synthesizers werden ook al een soort van elektronische muziek.

400
00:26:45,900 --> 00:26:46,900
Dat is waar.

401
00:26:46,900 --> 00:26:50,900
En ik moet zeggen, ik ben al ietsje ouder dan jullie.

402
00:26:50,900 --> 00:26:55,900
Ik vond dat verschrikkelijk, dat op een gegeven moment in de jaren 80 alleen maar synthesizer...

403
00:26:55,900 --> 00:26:57,900
Ja, dat bedoel ik.

404
00:26:57,900 --> 00:27:05,500
Dus ik kan me zo voorstellen dat een volgende generatie de normaalste zaak van de wereld vindt.

405
00:27:05,500 --> 00:27:11,620
En dan zou je het gebruiken als middel voor je creativiteit.

406
00:27:11,620 --> 00:27:12,620
En dan zie ik het wel.

407
00:27:12,620 --> 00:27:21,300
Als je alleen maar, laten we zeggen, zoutloze muziek er mee gaat genereren.

408
00:27:21,300 --> 00:27:22,300
Nee, liefst niet.

409
00:27:22,300 --> 00:27:29,340
En qua psychologische toepassingen, als dat gaat over dingen als emotieherkenning of dat soort dingen,

410
00:27:29,340 --> 00:27:32,300
daar hoop ik ook niet aan toe te gaan.

411
00:27:32,300 --> 00:27:37,300
Dat je, weet ik veel, dat het optrekken van één wenkbrauw, dat er een of andere klassificatie aan zit.

412
00:27:37,300 --> 00:27:40,300
Dat is ook cultureel heel verschillend.

413
00:27:40,300 --> 00:27:49,300
Dat kan je bijna, ja, zou ik denken dat het wel heel lastig is, of één systeem dat dan zou moeten.

414
00:27:49,300 --> 00:27:53,520
Ja, ik denk dat het op termijn wel zou kunnen. De vraag is of we moeten willen.

415
00:27:53,520 --> 00:27:59,280
Ik wil er nog wel even op aanhaken, inderdaad. Wat mij betreft, zeker ook in het creatieve proces,

416
00:27:59,280 --> 00:28:02,840
mag voor mij ook prima AI toegepast worden, maar als ondersteuning van.

417
00:28:02,840 --> 00:28:07,480
En niet de vervanging van. Dus qua ondersteuning zeker, zowel muziek.

418
00:28:07,480 --> 00:28:14,920
Maar toen Joop jij dan over muziek ging, had ik ook even een linkje naar een radio-uitzending over boeken.

419
00:28:14,940 --> 00:28:20,940
Hoeveel boeken er op dit moment op Bol, Amazon en dat soort zaken volledig op de chat-gpt geschreven zijn.

420
00:28:20,940 --> 00:28:25,340
Daar moest ik ervan denken. De muziek moet niet van zichzelf gecreëerd worden en maar uitvloeien.

421
00:28:25,340 --> 00:28:28,940
Moest ik even aan dat artikel of naar de radio-hits die luisteren,

422
00:28:28,940 --> 00:28:33,220
denken van hoeveel boeken er eigenlijk al zijn. Dat schrok ik echt.

423
00:28:33,220 --> 00:28:37,540
Hoeveel waren dat dan? - Ja, echt duizenden, als het niet meer is inderdaad.

424
00:28:37,540 --> 00:28:42,220
Op bol.com alleen al? - Ja, Amazon volgens mij die erbij kwam.

425
00:28:42,220 --> 00:28:47,220
En sommige waren dan nog geredigeerd, tot een bepaalde zin.

426
00:28:47,220 --> 00:28:49,220
Maar sommige waren volledig.

427
00:28:49,220 --> 00:28:52,220
En er was er eentje, daarom bleef hij hangen bij mij,

428
00:28:52,220 --> 00:28:56,220
dat was een boek geschreven over veilig verkeer in Amsterdam.

429
00:28:56,220 --> 00:28:59,220
En dan moest je weten hoe je uit een auto moest komen,

430
00:28:59,220 --> 00:29:02,220
die volgens mij in de sloot op zijn kop terecht was gekomen.

431
00:29:02,220 --> 00:29:04,220
Anders kon je je rijbewijs niet halen.

432
00:29:04,220 --> 00:29:06,220
Zo iets was eruit gekomen.

433
00:29:06,220 --> 00:29:10,220
Klok, slepel, hallucinaat.

434
00:29:10,220 --> 00:29:12,220
Wat hebben we hier aan?

435
00:29:12,220 --> 00:29:16,220
Om even terug te pakken op de originele vraag.

436
00:29:16,220 --> 00:29:18,220
Ik denk inderdaad dat het steeds meer kan.

437
00:29:18,220 --> 00:29:21,220
En dat we met elkaar moeten kijken waar we het voor willen inzetten.

438
00:29:21,220 --> 00:29:25,220
En ook als het iets wel kan, hebben we nog steeds zelf de keuze om het ervoor in te zetten.

439
00:29:25,220 --> 00:29:29,220
Dus in die hoedanigheid, prima als die emotie kan herkennen.

440
00:29:29,220 --> 00:29:31,220
Of ik dat wil gebruiken? Nee, ik denk het niet.

441
00:29:31,220 --> 00:29:33,220
Want er zit vaak in de middel van context omheen.

442
00:29:33,220 --> 00:29:36,220
En ja, laat ook gewoon een gesprek met elkaar aangaan.

443
00:29:36,220 --> 00:29:39,620
Hoe voel je je echt? Ik zie dat je inderdaad nu fronst of lacht.

444
00:29:39,620 --> 00:29:41,620
Ik kan niet eens één mijn brouw optrekken.

445
00:29:41,620 --> 00:29:43,620
Nee, ik ook niet.

446
00:29:43,620 --> 00:29:45,620
Ik kan alleen één mijn brouw optrekken.

447
00:29:45,620 --> 00:29:47,620
De andere kant kan ik niet.

448
00:29:47,620 --> 00:29:49,620
Het is goed dat we nog geen camera's of hebben.

449
00:29:49,620 --> 00:29:55,120
Je antwoord op mijn vraag is zeer verhelderend.

450
00:29:55,120 --> 00:29:57,120
Dank voor je bijdrage.

451
00:29:57,120 --> 00:29:58,120
Alsjeblieft.

452
00:29:58,120 --> 00:30:00,120
Ik denk dat dat ook voor ons geldt, Robin.

453
00:30:00,120 --> 00:30:04,120
Dank je wel dat je dat verhaal wilde delen.

454
00:30:04,120 --> 00:30:10,960
Wat ik in het begin al zei, we hebben echt wel veel mensen gehad die advies geven hierover.

455
00:30:10,960 --> 00:30:18,400
Maar als je leidend voorwerp bent in dit verhaal, is het wel even wat anders en komt het toch wel heel erg dichtbij.

456
00:30:18,400 --> 00:30:19,920
Dank je wel.

457
00:30:19,920 --> 00:30:22,120
Dank je wel dat ik hier mocht zijn.

458
00:30:22,120 --> 00:30:27,800
Leuk dat je weer luistert naar een nieuwe aflevering van AIToday.

459
00:30:27,800 --> 00:30:29,320
Live moet ik zeggen.

460
00:30:29,320 --> 00:30:35,840
En vergeet niet om je te abonneren via je favoriete podcast app, zo dan mis je geen aflevering.

461
00:30:35,840 --> 00:30:37,840
 
462
00:30:37,840 --> 00:30:38,840
- Dank u.


People on this episode