AIToday Live

S05E69 - De waarde van diversiteit in AI-ontwikkeling: Het ontdekken van blinde vlekken

November 20, 2023 Aigency by Info Support Season 5 Episode 67
S05E69 - De waarde van diversiteit in AI-ontwikkeling: Het ontdekken van blinde vlekken
AIToday Live
More Info
AIToday Live
S05E69 - De waarde van diversiteit in AI-ontwikkeling: Het ontdekken van blinde vlekken
Nov 20, 2023 Season 5 Episode 67
Aigency by Info Support

Welkom bij een nieuwe aflevering van AIToday Live! Vandaag hebben we Robin Pocornie in de studio, een student bio-informatica die een klacht heeft ingediend over het gebruik van gezichtsherkenningssoftware die zwarte gezichten niet kon detecteren.

Robin deelt haar persoonlijke ervaring en haar visie op de rol van AI in onze samenleving. Ze roept op tot samenwerking en bewustwording, en benadrukt het belang van diversiteit en inclusie.

Luister nu en leer hoe we technologie kunnen verbeteren en actie kunnen ondernemen! 


Links

Met onze podcast AIToday Live zijn we genomineerd voor de Belgian Podcast Awards ! 🏆🤩 Belgisch? Ja, een Belgische award, want er is een speciale categorie voor Nederlandse podcasts: Prijs van Oranje.

Wil je ons steunen? 🙏❤️ Stem op ons!

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Wil je toegang tot exclusieve toegang voor onze luisteraars? Schrijf je in voor de nieuwsbrief 'AI versterkt de Mens'

Contact AIToday Live


We zijn altijd op zoek naar nieuwe gasten die over AI willen spreken.

Show Notes Transcript

Welkom bij een nieuwe aflevering van AIToday Live! Vandaag hebben we Robin Pocornie in de studio, een student bio-informatica die een klacht heeft ingediend over het gebruik van gezichtsherkenningssoftware die zwarte gezichten niet kon detecteren.

Robin deelt haar persoonlijke ervaring en haar visie op de rol van AI in onze samenleving. Ze roept op tot samenwerking en bewustwording, en benadrukt het belang van diversiteit en inclusie.

Luister nu en leer hoe we technologie kunnen verbeteren en actie kunnen ondernemen! 


Links

Met onze podcast AIToday Live zijn we genomineerd voor de Belgian Podcast Awards ! 🏆🤩 Belgisch? Ja, een Belgische award, want er is een speciale categorie voor Nederlandse podcasts: Prijs van Oranje.

Wil je ons steunen? 🙏❤️ Stem op ons!

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Wil je toegang tot exclusieve toegang voor onze luisteraars? Schrijf je in voor de nieuwsbrief 'AI versterkt de Mens'

Contact AIToday Live


We zijn altijd op zoek naar nieuwe gasten die over AI willen spreken.

1
00:00:00,000 --> 00:00:03,000
[Muziek]

2
00:00:03,000 --> 00:00:07,000
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

3
00:00:07,000 --> 00:00:09,000
Mijn naam is Joop Snijder, CTO bij Aigency.

4
00:00:09,000 --> 00:00:12,000
Mijn naam Niels Naglé, chapter lead Data & AI bij Info Support.

5
00:00:12,000 --> 00:00:17,000
En vandaag hebben we in de studio Robin Pocornie.

6
00:00:17,000 --> 00:00:24,000
En Robin, we hebben je in deel 1 gesproken met je over wat er eigenlijk allemaal gebeurd is.

7
00:00:24,000 --> 00:00:26,000
Een heel verhaal. - Een verhaal ja.

8
00:00:26,000 --> 00:00:29,680
Ja, het heeft diepe indruk gemaakt op ons.

9
00:00:29,680 --> 00:00:31,000
Ja serieus.

10
00:00:31,000 --> 00:00:35,200
Over wat er gebeurd is met gezichtsherkenning, dat dat niet lukte.

11
00:00:35,200 --> 00:00:39,120
En dat je daar behoorlijk mee bezig bent geweest met de universiteit.

12
00:00:39,120 --> 00:00:44,760
En zit je nu nog te wachten op uitslag van het college van de rechten van de mens.

13
00:00:44,760 --> 00:00:45,360
Ja.

14
00:00:45,360 --> 00:00:52,800
Om, ja, je moet daar gelijk in krijgen toch, dat dit soort systemen veranderd moeten worden.

15
00:00:52,800 --> 00:01:01,800
Met het bewijs dat we al, niet alleen ik, maar dat het bewijs dat we hebben dat gezichtsherkennings- en gezichtsdetectiesoftware

16
00:01:01,800 --> 00:01:07,480
op een disbalance manier werkt voor mensen van kleur.

17
00:01:07,480 --> 00:01:11,080
Dus niet alleen dat, maar in dit geval.

18
00:01:11,080 --> 00:01:16,280
Voor de luisteraar die misschien even deel 1 heeft overgeslagen, zou je jezelf nog even heel kort willen voorstellen?

19
00:01:16,280 --> 00:01:18,880
Ja, natuurlijk. Mijn naam is Robin Pocornie.

20
00:01:18,880 --> 00:01:24,160
Ik ben student bio-informatica aan de VU, Vrije Universiteit Amsterdam.

21
00:01:24,160 --> 00:01:29,640
En ik heb een zaak of een klacht ingediend bij de College voor de Rechten van de Mens...

22
00:01:29,640 --> 00:01:35,320
voor het gebruik van gezichtsherkenningssoftware die zwarte gezichten niet kon detecteren.

23
00:01:35,320 --> 00:01:37,320
En die werd gebruikt door de VU.

24
00:01:37,320 --> 00:01:44,080
Ja, en als je haar indringende verhaal wil luisteren, zoek die eventjes terug.

25
00:01:46,560 --> 00:01:52,160
De vervolgstap is dat je hierover aan het spreken bent over dit onderwerp, toch?

26
00:01:52,160 --> 00:01:54,160
Over AI, ethiek.

27
00:01:54,160 --> 00:02:02,440
Kan je daar... Nee, ik wil eigenlijk nog even terug, want je bent namelijk ook best wel in heel veel media verschenen met dit verhaal.

28
00:02:02,440 --> 00:02:04,440
Kan je daar wat van noemen?

29
00:02:04,440 --> 00:02:08,080
Ja, dus ik ben bij de Eén Vandaag.

30
00:02:08,080 --> 00:02:15,480
Dus het programma Eén Vandaag heeft een item gemaakt over mijn zaak en over AI en gezichtsdetectiesoftware an sich.

31
00:02:15,480 --> 00:02:24,320
Bij RTL ben ik geweest, op de radio met Natasja Gibbs, hoe heet het programma? NPO1.

32
00:02:24,320 --> 00:02:26,320
Een middagprogramma.

33
00:02:26,320 --> 00:02:32,080
En internationaal bij Wired en Al Jazeera.

34
00:02:32,080 --> 00:02:39,080
Dus dat is wel indrukwekkend. Ik weet niet of dat het woord is, maar gewoon een beetje...

35
00:02:39,080 --> 00:02:50,560
Als een normale student die gewoon iets goeds wil doen, is dat een interessante manier hoe mijn leven een beetje is veranderd.

36
00:02:50,560 --> 00:02:52,560
Dat is wel spannend.

37
00:02:52,560 --> 00:02:54,560
Ja, dat was het ook wel.

38
00:02:54,560 --> 00:02:58,800
Ik heb me er maar aan overgegeven en nu doe ik dit soort dingen.

39
00:02:58,800 --> 00:03:04,960
Ik denk dat je hiermee wel kan aflezen wat de impact is van de zaak die je voert.

40
00:03:04,960 --> 00:03:09,960
Nou, soms... Ik ben me er eigenlijk niet helemaal van bewust.

41
00:03:09,960 --> 00:03:13,260
Dus ik ben dan heel, ja misschien nog wel een beetje naïef, dat ik dan denk...

42
00:03:13,260 --> 00:03:17,840
Oh, 60.000 mensen hebben de ding van Al Jazeera bekeken. Dat is raar.

43
00:03:17,840 --> 00:03:24,120
Of dat ik bij een conferentie kom die specifiek gaat over AI of publieke spaces.

44
00:03:24,120 --> 00:03:27,280
Ja, en dat mensen mij daar dan van herkennen.

45
00:03:27,280 --> 00:03:33,600
Terwijl ik denk, ik kom hier eigenlijk ook gewoon om iets te leren of naar een lezing te kijken.

46
00:03:33,620 --> 00:03:39,620
bij te wonen. Dus dat is voor mij nog een beetje nieuw gebied.

47
00:03:39,620 --> 00:03:48,620
Maar ik probeer daarin wel gebruik te maken om mijn verhaal en het bewustzijn rondom dit onderwerp wel echt te vergroten.

48
00:03:48,620 --> 00:03:53,620
Dus ik denk ook van, nou weet je, ik wou niet per se op deze manier bekend worden of zo.

49
00:03:53,620 --> 00:03:57,620
Maar bekend is ook een groot woord. Maar gewoon dat mensen mij daarvoor kennen.

50
00:03:57,620 --> 00:04:04,120
En ik probeer daar nu een positieve draai in te geven en daar ook echt die bewustzijn, vooral binnen Nederland,

51
00:04:04,120 --> 00:04:12,120
echt wel meer een goede slinger aan te geven, zodat mensen daar echt meer van af weten.

52
00:04:12,120 --> 00:04:17,420
Ja, en wij zaten net even voor te praten en dan vertelde je over TEDx Amsterdam.

53
00:04:17,420 --> 00:04:20,120
Wordt het een TED-talk of TEDx?

54
00:04:20,120 --> 00:04:21,620
Nee, dat wordt een TEDx-talk.

55
00:04:21,620 --> 00:04:23,120
Kun je daar iets meer over vertellen?

56
00:04:23,120 --> 00:04:29,200
Ja, dus ik ga een TEDx-talk doen, TEDx Amsterdam, eind november.

57
00:04:29,200 --> 00:04:34,680
Dus dat is superspannend en ik ga het dus hebben over mijn zaak en over mijn ervaring daarin.

58
00:04:34,680 --> 00:04:40,920
En eigenlijk over hoe wij als normale mensen toch niet...

59
00:04:40,920 --> 00:04:44,920
hopeloos of hulpeloos staan tegenover AI.

60
00:04:44,920 --> 00:04:48,800
Want het idee dat AI, dat we te veel technologieën hebben...

61
00:04:48,800 --> 00:04:51,720
en dat we het allemaal door het boom en het bos niet meer zien...

62
00:04:51,840 --> 00:04:55,320
Dat is wat ik heel erg ervaar, dat mensen dat zo zien.

63
00:04:55,320 --> 00:05:00,440
Maar dat we, met mijn verhaal van een simpele student die...

64
00:05:00,440 --> 00:05:06,840
ook maar diens best probeert te doen, dat we daaruit ook verandering teweeg kunnen brengen.

65
00:05:06,840 --> 00:05:09,160
En dat die verandering ook belangrijk is.

66
00:05:09,160 --> 00:05:12,920
Hoe kijk je eigenlijk tegen deze technologie aan?

67
00:05:12,920 --> 00:05:15,640
Deze specifiek, dus Proctorio of...

68
00:05:15,640 --> 00:05:19,680
Nee, gewoon kunstmatige intelligentie.

69
00:05:19,720 --> 00:05:23,120
Ja, als computerwetenschapper vind ik het tof, hè.

70
00:05:23,120 --> 00:05:25,520
Om dan zo'n model te bouwen en het werkt...

71
00:05:25,520 --> 00:05:31,240
en je krijgt allemaal predictions eruit en je gaat modellen aan elkaar vergelijken.

72
00:05:31,240 --> 00:05:36,640
En ook het rekenen vind ik bijvoorbeeld heel leuk, wiskundig gedeelde erachter.

73
00:05:36,640 --> 00:05:40,720
Ik denk echt er wel als mens, ook als zwarte persoon...

74
00:05:40,720 --> 00:05:45,840
dat er vaak technologieën worden gebouwd die niet per se nodig zijn.

75
00:05:45,840 --> 00:05:48,440
Dus dat we het kunnen, betekent niet dat we het moeten doen.

76
00:05:48,560 --> 00:05:53,960
Dat is echt ook in deze zaak mijn mening daarin.

77
00:05:53,960 --> 00:05:56,640
Het soort van het pad dat ik daarin bewandel.

78
00:05:56,640 --> 00:06:05,240
Moeten wij studenten surveilleren in hun eigen huis, terwijl ze een examen maken?

79
00:06:05,240 --> 00:06:16,000
Terwijl het eigenlijk ook laat zien dat het niet per se een grotere niveau aan detectie van spiekende studenten levert...

80
00:06:16,000 --> 00:06:22,000
dan als we een take-home examen zouden doen of een andere manier van examineren.

81
00:06:22,000 --> 00:06:26,680
Dus dat is wel de manier waarop ik naar AI kijk.

82
00:06:26,680 --> 00:06:29,280
Dit klonk ook een beetje als een soort van...

83
00:06:29,280 --> 00:06:34,360
we willen hetzelfde doen als wat we op locatie zouden doen, maar nu moet dat thuis.

84
00:06:34,360 --> 00:06:37,040
Dus het is ook een soort van weg van de minste weerstand.

85
00:06:37,040 --> 00:06:39,000
We zijn nu op heel veel weerstand gestuurd.

86
00:06:39,000 --> 00:06:42,240
Maar ja, het is zo'n lui, vind je niet?

87
00:06:42,280 --> 00:06:46,360
Het is een luie gedachte van, dan gaan we het maar hetzelfde doen.

88
00:06:46,360 --> 00:06:50,280
En ook best invasief, want je bent op de universiteit examineren,

89
00:06:50,280 --> 00:06:55,920
dan ben je in een hal samen met allemaal mensen in dezelfde omstandigheden.

90
00:06:55,920 --> 00:07:01,000
Terwijl onze huizen, wij zitten hier met z'n drieën, onze huizen zien er waarschijnlijk totaal anders uit.

91
00:07:01,000 --> 00:07:06,160
En willen we dat laten zien? En als student kunnen we ook niet zeggen, we willen het niet.

92
00:07:06,160 --> 00:07:11,600
En heeft iedereen dezelfde rust thuis? Het gaat veel verder dan dat.

93
00:07:11,600 --> 00:07:15,160
Het gaat veel verder dan dat. Dus dat is hoe ik naar AI kijk.

94
00:07:15,160 --> 00:07:19,240
En als je nou eigenlijk de vraag goed wilt beantwoorden, heeft dat niets met AI te maken.

95
00:07:19,240 --> 00:07:24,760
Het heeft met het systeem zelf, maar veel meer over in welke omstandigheden we het implementeren.

96
00:07:24,760 --> 00:07:28,680
Maar daar speelt AI wel een hele grote rol in.

97
00:07:28,680 --> 00:07:34,440
Want het kunnen detecteren of iemand een crimineel is of gaat worden of niet,

98
00:07:34,440 --> 00:07:39,800
dat kan heel veel mensen hun leven impacten.

99
00:07:40,360 --> 00:07:42,800
Dus ja, impact maken op heel veel mensen in hun leven.

100
00:07:42,800 --> 00:07:46,060
En dat is best belangrijk dat we daar bewust van zijn.

101
00:07:46,060 --> 00:07:47,080
Zeker.

102
00:07:47,080 --> 00:07:50,820
Ja, het dingetje waar mij komt op op is, technologie moet nooit leidend zijn.

103
00:07:50,820 --> 00:07:52,320
Het moet ondersteunend zijn.

104
00:07:52,320 --> 00:07:52,900
Zeker.

105
00:07:52,900 --> 00:07:55,040
En nu vaker inderdaad, wat je net zegt,

106
00:07:55,040 --> 00:07:57,040
er wordt eigenlijk nu zo'n mooie pleister geplakt.

107
00:07:57,040 --> 00:08:00,720
We hoeven de proces niet aan te passen, want het proces werkt op de huidige situatie.

108
00:08:00,720 --> 00:08:02,960
De situatie is alleen maar anders, maar laten we het proces vooral niet veranderen.

109
00:08:02,960 --> 00:08:04,600
Dat is veel werk. Daar hebben we mensen voor nodig.

110
00:08:04,600 --> 00:08:08,400
En laten we met technologie oplossen. Eigenlijk is technologie daar leidend geworden.

111
00:08:08,420 --> 00:08:11,060
Daar moeten we volgens mij wel voor waken inderdaad.

112
00:08:11,060 --> 00:08:14,760
Dat is een beetje out of the box denken, business case denken inderdaad.

113
00:08:14,760 --> 00:08:17,160
In plaats van maar gewoon pleisters plakken.

114
00:08:17,160 --> 00:08:18,180
Ja.

115
00:08:18,180 --> 00:08:22,480
En is er dan ook, want ik hoorde je ook heel enthousiast worden...

116
00:08:22,480 --> 00:08:24,600
over kunstmatige intelligentie.

117
00:08:24,600 --> 00:08:27,480
Heb je een toepassing waarvan je zegt, daar word ik zo blij van.

118
00:08:27,480 --> 00:08:32,600
Nou, dit weten nog niet heel veel mensen, maar ik ben er nog mee bezig.

119
00:08:32,600 --> 00:08:38,280
Ik heb dus een chatbot gemaakt gebaseerd op mijn eigen dagboeken.

120
00:08:38,300 --> 00:08:42,000
Dus ik praat tegen mezelf in het verleden.

121
00:08:42,000 --> 00:08:44,000
Dat is toch super cool?

122
00:08:44,000 --> 00:08:46,000
Ja, ik vind dat heel leuk.

123
00:08:46,000 --> 00:08:48,000
Maar hij werkt nog niet helemaal goed.

124
00:08:48,000 --> 00:08:50,000
Maar ik zie eruit.

125
00:08:50,000 --> 00:08:53,700
En leer je dan weer iets van je vroegere zelf?

126
00:08:53,700 --> 00:08:55,700
Ja, maar soms ook niet hoor.

127
00:08:55,700 --> 00:08:57,700
Want hij is nog niet zo slim.

128
00:08:57,700 --> 00:09:05,600
Maar ik leer bijvoorbeeld ook over hoe de AI interpreteert dat ik over mijn ouders dacht.

129
00:09:05,600 --> 00:09:07,600
Oh zo ja. - Ik dacht.

130
00:09:07,600 --> 00:09:11,160
En welke hobby's ik leuk vond.

131
00:09:11,160 --> 00:09:17,800
En ook hoe ik op dat moment vrolijkheid en enjoyment ervaarde.

132
00:09:17,800 --> 00:09:20,280
Welke dingen dat me gaven enzo.

133
00:09:20,280 --> 00:09:23,320
Kleuren ook, mijn lievelingskleur is ook totaal anders dan toen.

134
00:09:23,320 --> 00:09:27,360
Dus dat zijn ook, ja dat is leuk.

135
00:09:27,360 --> 00:09:30,560
Dat is echt een hele leuke toepassing.

136
00:09:30,560 --> 00:09:32,560
Ik heb gedacht te gaan echt wild inderdaad.

137
00:09:32,560 --> 00:09:35,560
Ik had van 'Zo werd ik ook met toekomstige zelf kunnen praten.'

138
00:09:35,560 --> 00:09:37,560
Ik was wel even nieuwsgierig. Maar goed, gaan we even opnieuw.

139
00:09:37,560 --> 00:09:40,560
Ik heb alleen maar, neem maar mijn verleden, ik kan alleen maar met mijn kind zelf.

140
00:09:40,560 --> 00:09:43,560
Ja, je kind zelf. Heb je dan uitgebreide dagboeken?

141
00:09:43,560 --> 00:09:47,560
Ja, ik heb hele uitgebreide dagboeken. Want ik schrijf dus eigenlijk al dagboeken sinds ik kan schrijven.

142
00:09:47,560 --> 00:09:52,560
Nou ja, sinds ik een beetje normaal kan schrijven. Dus niet zo zesjarig. Maar sinds groep vijf.

143
00:09:52,560 --> 00:09:53,560
Zo, wauw.

144
00:09:53,560 --> 00:09:57,560
En hier heb ik altijd, ja echt, ik heb echt stapels aan dagboeken.

145
00:09:57,560 --> 00:09:58,560
Wauw.

146
00:09:58,560 --> 00:10:04,160
En dat ga ik hier eigenlijk mee doen, want het teruglezen is leuk, maar ik wil het nog in een samenvattende manier.

147
00:10:04,160 --> 00:10:13,840
En ik wil ook nog een beetje, want ik werk natuurlijk nu meer in de creatieve sector, ik zit veel minder echt nog achter mijn computer.

148
00:10:13,840 --> 00:10:22,840
En ik dacht, wat voor taak kan ik mezelf geven om mijn programmeerskills nog een beetje daar te houden.

149
00:10:22,840 --> 00:10:25,840
En dat is een leuk project. - Mooi.

150
00:10:25,840 --> 00:10:28,440
Ja, ik heb zo vaak gedacht om eraan te beginnen.

151
00:10:28,440 --> 00:10:30,460
Ja? - Maar ja...

152
00:10:30,460 --> 00:10:33,480
Hahaha. - Aan een dagboek of aan een chatbot?

153
00:10:33,480 --> 00:10:35,500
Haha.

154
00:10:35,500 --> 00:10:39,020
Nee, ja, die chatbot wil nog wel lukken, maar dat dacht ik niet.

155
00:10:39,020 --> 00:10:41,040
Haha.

156
00:10:41,040 --> 00:10:44,060
Dat het toch op één avondje zou passen.

157
00:10:44,060 --> 00:10:48,080
Dat is ook allemaal moeten transcriberen, zeg maar.

158
00:10:48,080 --> 00:10:51,100
Nu achteraf gezien dacht ik, had ik ook heel veel foto's kunnen maken...

159
00:10:51,100 --> 00:10:53,120
en dat we het later doen natuurlijk weer.

160
00:10:53,140 --> 00:10:58,140
maar dat had ik dus niet. Dus het was ook heel therapeutisch om dat dan weer opnieuw uit te schrijven.

161
00:10:58,140 --> 00:10:59,140
Leuk.

162
00:10:59,140 --> 00:11:04,420
Sommige passages zijn ook van 'Hoi, lief dagboek, vandaag ben ik gaan buitenspelen, dat was leuk.'

163
00:11:04,420 --> 00:11:07,620
Ja, daar heb je niet zo heel veel aan.

164
00:11:07,620 --> 00:11:11,140
Nou, als ik dat... Ik zou het toch graag doen.

165
00:11:11,140 --> 00:11:14,780
Als dat het eind van deze dag, als ik dat geschreven zou hebben...

166
00:11:14,780 --> 00:11:15,780
Ja.

167
00:11:15,780 --> 00:11:17,780
Nou, had ik... Ja, toch?

168
00:11:17,780 --> 00:11:21,980
Je trackt mij, je zegt, ik ben nu voornamelijk actief in de creatieve sector.

169
00:11:21,980 --> 00:11:22,980
Ja.

170
00:11:22,980 --> 00:11:24,220
Waar moet ik dan aan denken?

171
00:11:24,220 --> 00:11:27,420
Dus ik werk als creatief producent voor een theater.

172
00:11:27,420 --> 00:11:30,140
Dus dat is...

173
00:11:30,140 --> 00:11:34,540
Gewoon als producent, dus dingen opzetten en dan het draaiboek maken en dat soort dingen.

174
00:11:34,540 --> 00:11:39,100
En dat ben ik eigenlijk gaan doen omdat ik dus in het proces van deze zaak...

175
00:11:39,100 --> 00:11:44,060
niet meer de energie had en de mentale capaciteit om door te studeren.

176
00:11:44,060 --> 00:11:49,740
En ik ook niet nog aan de VU op die manier verbonden was zijn dat ik...

177
00:11:49,740 --> 00:11:54,740
Terwijl ik aan het studeren was, dus toen heb ik dat. Ik dacht, hoe lang kan het duren?

178
00:11:54,740 --> 00:11:58,380
Dus een halfjaartje geen school doen, dat kan wel.

179
00:11:58,380 --> 00:12:01,780
Maar nu zijn we inmiddels alweer twee jaar verder.

180
00:12:01,780 --> 00:12:05,180
Dus ik heb inmiddels een andere master gehaald van een andere universiteit.

181
00:12:05,180 --> 00:12:08,180
Om dat maar een beetje goed te maken.

182
00:12:08,180 --> 00:12:10,180
Maar deze moet ik dus nog afmaken.

183
00:12:10,180 --> 00:12:12,180
En even terug naar je TEDx.

184
00:12:12,180 --> 00:12:13,180
Ja.

185
00:12:13,180 --> 00:12:15,180
We zijn een beetje afgedwongen.

186
00:12:15,180 --> 00:12:17,180
Hou ik van hoor, hou ik van.

187
00:12:17,180 --> 00:12:23,540
Wat ga je straks meegeven aan het publiek? Wat wordt je uitsmijter?

188
00:12:23,540 --> 00:12:29,740
Nou ja, dus dat we niet hopeloos staan tegenover de technologie.

189
00:12:29,740 --> 00:12:33,340
Hoe ik dat ga verwoorden en dat mooi in ga pakken, zodat het ook echt overkomt.

190
00:12:33,340 --> 00:12:35,980
Daar ben ik nog een beetje mee aan het schaven.

191
00:12:35,980 --> 00:12:43,260
Maar dat is de rode lijn van het verhaal. Dat ik als simpele persoon...

192
00:12:43,260 --> 00:12:48,260
Dat we het allemaal kunnen, in een beetje een utopische manier.

193
00:12:48,260 --> 00:12:51,260
Maar ook dat het belangrijk is dat we dat doen.

194
00:12:51,260 --> 00:12:56,260
Omdat, ja, dit is de nieuwe revolutie.

195
00:12:56,260 --> 00:12:58,260
Sommige mensen willen dat ontkennen.

196
00:12:58,260 --> 00:13:00,260
Ik denk dat dat niet slim is.

197
00:13:00,260 --> 00:13:03,260
Want dit is gewoon wat er gaat gebeuren.

198
00:13:03,260 --> 00:13:04,260
Dit is onze volgende wave.

199
00:13:04,260 --> 00:13:07,260
En daar moeten we kijken hoe we daar best op kunnen surfen.

200
00:13:07,260 --> 00:13:12,260
Want als er een golf komt, kan je zeggen ik ga gewoon mijn voeten in stand houden.

201
00:13:12,260 --> 00:13:19,060
Misschien verdrink ik eronder of je kan zeggen ik ga daar overheen en ik ga kijken hoe ik dat het best ermee kan gaan.

202
00:13:19,060 --> 00:13:23,260
Ik ga ervan uit dat onze luisteraars wel enige interesse hebben.

203
00:13:23,260 --> 00:13:25,260
Ja dat denk ik ook.

204
00:13:25,260 --> 00:13:29,660
Maar wat zou jij de luisteraars mee willen geven?

205
00:13:29,660 --> 00:13:34,260
Wat zij eigenlijk weer aan hun omgeving kunnen geven.

206
00:13:34,260 --> 00:13:42,040
Als je je hier iets meer in wil verdiepen of je wil wel een traject aangaan,

207
00:13:42,040 --> 00:13:46,460
je bent oneerlijk behandeld, wat zouden daar jouw tips in zijn?

208
00:13:46,460 --> 00:13:49,840
Als het gaat om oneerlijke behandeling door technologie,

209
00:13:49,840 --> 00:13:53,340
dan kan dat dus nu in het rechtssysteem van Nederland,

210
00:13:53,340 --> 00:13:57,180
omdat ik deze zaken heb tussenoordeel daarin,

211
00:13:57,180 --> 00:14:02,040
heeft geoordeeld dat ik in ieder geval genoeg bewijs heb aangeleverd

212
00:14:02,040 --> 00:14:06,920
om aantoonbaar te maken dat deze AI het discrimineerde.

213
00:14:06,920 --> 00:14:11,840
En dat dat dus ook kan op de werkvloer van de mensen die misschien luisteren...

214
00:14:11,840 --> 00:14:16,280
of als zij technologieën tegenkomen die op een of andere manier...

215
00:14:16,280 --> 00:14:20,080
mensen ongelijk behandelt, dat dat dus kan.

216
00:14:20,080 --> 00:14:23,680
En dat dat ook zou moeten, denk ik, hè?

217
00:14:23,680 --> 00:14:30,640
Omdat we zeggen dat we naar een eerlijke, respectvolle en tolerante samenleving willen...

218
00:14:30,760 --> 00:14:34,160
Nou, dan is dat de stap die je zou moeten zetten.

219
00:14:34,160 --> 00:14:36,360
Mijns inziens.

220
00:14:36,360 --> 00:14:43,000
En daarnaast, ik merk dat binnen ons vakgebied...

221
00:14:43,000 --> 00:14:45,400
daar vaak best wel veel...

222
00:14:45,400 --> 00:14:48,920
Hoe noem je dat? Resistances?

223
00:14:48,920 --> 00:14:50,760
Weerstand. - Weerstand, ja.

224
00:14:50,760 --> 00:14:56,200
Weerstand is als het gaat om diversiteit, issues van...

225
00:14:56,240 --> 00:15:01,080
"Ja, maar we maken gewoon technologieën, dat moet je niet zo moeilijk doen."

226
00:15:01,080 --> 00:15:05,480
Alsof het veel vrouwen zijn, of vrouwen van kleur, het maakt allemaal niet zoveel uit.

227
00:15:05,480 --> 00:15:08,040
We maken gewoon een... Het systeem is het systeem.

228
00:15:08,040 --> 00:15:10,600
Het gaat over de users, hoor ik wel eens.

229
00:15:10,600 --> 00:15:14,080
Gaat het over de users, dan gaan het niet aan ons, maar de users.

230
00:15:14,080 --> 00:15:16,480
Dus dat wordt vaak verschoven.

231
00:15:16,480 --> 00:15:20,840
En ik denk dat dat ook belangrijk is binnen ons vakgebied, om echt te kijken...

232
00:15:20,960 --> 00:15:27,560
Wij staan niet aan de zijkant van deze maatschappelijke problematiek.

233
00:15:27,560 --> 00:15:31,280
En als we dat niet erkennen, dan kunnen we het ook niet beter maken.

234
00:15:31,280 --> 00:15:34,680
En onze systemen zijn daarin ook een onderdeel van.

235
00:15:34,680 --> 00:15:40,640
Dus dat is het echte binnen de computer sciences en AI-engineers.

236
00:15:40,640 --> 00:15:47,240
Dat is echt iets wat ik ook met mijn spreken daar ook voor inzet.

237
00:15:47,360 --> 00:15:51,220
Omdat ik dus aan beide kanten sta, he, dan het maatschappelijke deel maar ook aan het technische deel.

238
00:15:51,220 --> 00:15:54,680
Dat geeft mij wel een unieke positie in dit verhaal.

239
00:15:54,680 --> 00:15:55,800
Dat denk ik ook, ja.

240
00:15:55,800 --> 00:15:56,840
Een mooi verhaal.

241
00:15:56,840 --> 00:15:57,840
Dank je.

242
00:15:57,840 --> 00:16:03,300
Wij hebben onze virtuele co-host Aisha.

243
00:16:03,300 --> 00:16:05,300
Maar nou, wil het geval...

244
00:16:05,300 --> 00:16:06,300
Ja!

245
00:16:06,300 --> 00:16:10,940
Eigenlijk hebben wij de menselijke Aisha in de studio.

246
00:16:10,940 --> 00:16:14,600
Want jouw middelste naam is dat, he?

247
00:16:14,600 --> 00:16:24,160
Ja, Robin Aisha, ik heb begonnen in mijn creatieve werk, want ik dacht, als ik straks later in de industrie wil werken,

248
00:16:24,160 --> 00:16:29,200
dan hoeft niemand te weten dat ik dit allemaal heb gedaan. Nu schaam ik me dan langer voor, hoor.

249
00:16:29,200 --> 00:16:35,120
Ik heb ook niks slechts gedaan, maar ik dacht, misschien is dat een beetje raar als creatief producent,

250
00:16:35,120 --> 00:16:39,840
en dan opeens AI, data scientist of zo, dat dat een beetje raar is voor mensen.

251
00:16:39,840 --> 00:16:43,840
Dus toen heb ik mijn tweede naam gewoon gebruikt als werknaam.

252
00:16:43,840 --> 00:16:44,840
Dus Robin Aisha.

253
00:16:44,840 --> 00:16:46,840
Dat is mijn naam ook.

254
00:16:46,840 --> 00:16:50,840
En Robin Pocornie gebruik ik dan als mijn LinkedIn-naam.

255
00:16:50,840 --> 00:16:55,840
Maar nu heb ik dat gewoon lekker samengevoegd.

256
00:16:55,840 --> 00:16:57,840
Robin Aisha Pocornie.

257
00:16:57,840 --> 00:16:58,840
Dus ja, Aisha is mijn naam.

258
00:16:58,840 --> 00:17:02,840
Dus wij dachten dat het leuk zou zijn om het om te draaien.

259
00:17:02,840 --> 00:17:05,840
Dus we starten wel de jingle in.

260
00:17:05,840 --> 00:17:06,840
Ik ga de vraag stellen.

261
00:17:06,840 --> 00:17:07,840
Jij gaat de vraag stellen.

262
00:17:07,840 --> 00:17:09,840
En dan zijn de rollen omgedraaid.

263
00:17:09,840 --> 00:17:29,720
Ik heb eigenlijk misschien niet zo'n intelligente vraag, maar ik zat wel te denken.

264
00:17:29,720 --> 00:17:32,920
Ik vond jouw vraag heel goed, Ned, om dat te stelen.

265
00:17:32,920 --> 00:17:38,080
Want ik heb natuurlijk een hele andere, misschien wel wat jongere, weet ik niet.

266
00:17:38,080 --> 00:17:44,560
Maar ik denk het, visie op hoe, binnen ons vakgebied, hoe we dat kunnen verbeteren,

267
00:17:44,560 --> 00:17:47,480
deze kwesties van diversiteit, inclusie en AI.

268
00:17:47,480 --> 00:17:49,480
Hoe zien jullie dat?

269
00:17:49,480 --> 00:17:54,400
Jullie hebben een hele andere ervaring dan ik, ook veel langer.

270
00:17:54,400 --> 00:17:57,560
Ja, zal ik hem aftrappen inderdaad?

271
00:17:57,560 --> 00:18:02,160
Eerst even een paar steekjes bij het technologische hart, waar we het net over hadden inderdaad.

272
00:18:02,160 --> 00:18:07,160
A, het stukje dat er inderdaad weerstand is en dat we dit eigenlijk niet al aan het begin tacklen.

273
00:18:07,160 --> 00:18:10,840
Dus ik vind dat we dit met elkaar moeten tacklen.

274
00:18:10,840 --> 00:18:13,480
Dus met de verschillende rollen die we allemaal hebben.

275
00:18:13,480 --> 00:18:15,600
En ik denk dat we er allemaal een bijdrage in hebben.

276
00:18:15,600 --> 00:18:18,720
En het eerste besef is, welke bijdrage heb ik?

277
00:18:18,720 --> 00:18:20,320
Welke rol vervul jij?

278
00:18:20,320 --> 00:18:23,280
Het kan gewoon iemand zijn die in de maatschappij gebruik maakt van de dienst.

279
00:18:23,280 --> 00:18:25,760
Maar het kan ook iemand zijn die het aankoopt, zoals we al gehad hebben.

280
00:18:25,760 --> 00:18:28,440
Maar ook iemand die het ontwikkelt, die de data verzamelt.

281
00:18:28,440 --> 00:18:29,840
En we hebben hier allemaal een rol in.

282
00:18:29,840 --> 00:18:34,100
Ik denk dat het stap daarin is, zorgen dat we die erkenning hebben bij elkaar.

283
00:18:34,100 --> 00:18:37,440
En dat we elkaar erop aan kunnen spreken, van "hé, maar staan we hier achter?"

284
00:18:37,440 --> 00:18:39,440
En het gesprek daarover te voeren.

285
00:18:39,440 --> 00:18:44,240
Dus ik denk dat daar, dus helemaal niet met per se alleen technologie, juist niet,

286
00:18:44,240 --> 00:18:46,240
daar moeten starten.

287
00:18:46,240 --> 00:18:50,640
Ja, ik heb wel,

288
00:18:50,640 --> 00:18:57,240
ja, hoe moet ik het zeggen, daar een soort van proces in meegemaakt,

289
00:18:57,240 --> 00:19:04,240
omdat ik in de naïeve veronderstelling was dat dit in eerste instantie echt wel een Amerikaans probleem was.

290
00:19:04,240 --> 00:19:07,240
Je hebt hier ook te maken met een Amerikaans bedrijf.

291
00:19:07,240 --> 00:19:16,240
Vanuit mijn technologische blik zag ik echt wel de problemen bij de grote techbedrijven, wat ze daar aan het doen waren.

292
00:19:16,240 --> 00:19:18,240
En kwam dat tot mij.

293
00:19:18,240 --> 00:19:25,240
Maar het is echt geland bij mij, bij de documentaire Coded Bias van Netflix.

294
00:19:25,240 --> 00:19:32,240
En wat mij daar raakte was sowieso het begin.

295
00:19:32,240 --> 00:19:37,240
Het begin van waar zij zeg maar het masker, het witte masker op moet zetten.

296
00:19:37,240 --> 00:19:41,240
Precies eigenlijk wat er met jou gebeurde met dat licht dat ze het witte masker op moest zetten.

297
00:19:41,240 --> 00:19:46,240
Om haar gezicht te laten herkennen voor gezichtsherkenningssoftware.

298
00:19:46,240 --> 00:19:51,240
Dat raakte mij op de een of andere manier ernstig.

299
00:19:51,240 --> 00:19:55,240
En dat werd gedurende de documentaire alleen maar erger.

300
00:19:55,240 --> 00:20:01,240
En vooral wat zo mooi was in de documentaire is dat ze ook lieten zien dat het ook in Europa plaatsvond.

301
00:20:01,240 --> 00:20:08,240
En dat heeft bij mij in ieder geval het besef gecreëerd van daar hebben we allemaal last van.

302
00:20:08,240 --> 00:20:14,240
En sinds die tijd ook daar natuurlijk allerlei voorbeelden van gezien in de media.

303
00:20:14,240 --> 00:20:20,240
En dan niet, ja uiteindelijk is, je valt altijd ergens onder een minderheid.

304
00:20:20,240 --> 00:20:24,640
Dat hoeft niet van kleur te zijn, dat hoeft niet. Dat maakt helemaal niks uit.

305
00:20:24,640 --> 00:20:30,360
Je bent ergens bij je een minderheid, dus uiteindelijk zijn we hier zo direct allemaal onderdeel van.

306
00:20:30,360 --> 00:20:40,880
Daarvoor waren we wel al als bedrijf bezig van hoe zou je dit nou weer naar de technologie kunnen halen.

307
00:20:40,880 --> 00:20:43,480
Ja, uiteindelijk vindt men dat toch beter.

308
00:20:43,480 --> 00:20:45,680
En dat zit ook een deel leuk.

309
00:20:45,680 --> 00:20:49,680
is dat we ook wel hebben gezien dat je dingen kan meten in je data.

310
00:20:49,680 --> 00:20:55,680
Je hebt fairness, je kan je model onder de microscoop zetten...

311
00:20:55,680 --> 00:20:58,680
en kijken van als ik het nou van verschillende kanten belicht.

312
00:20:58,680 --> 00:21:01,680
En dat vind ik daar ook wel een leuk onderdeel van.

313
00:21:01,680 --> 00:21:05,680
En zo leuk dat ik... Ik heb echt een passie voor uitlegbare AI.

314
00:21:05,680 --> 00:21:08,680
En ik denk dat dat een puzzelstukje is...

315
00:21:08,680 --> 00:21:12,680
in ieder geval oplossen van dit probleem.

316
00:21:12,680 --> 00:21:17,560
Dus als je weet hoe een model redeneert, heb je in ieder geval al een...

317
00:21:17,560 --> 00:21:22,660
Als ik hardop uitspreek hoe ik denk, kan een ander zeggen van...

318
00:21:22,660 --> 00:21:25,360
"Ja, hallo, hier zit een vooroordeel."

319
00:21:25,360 --> 00:21:27,480
- Woordkeuze bijvoorbeeld.

320
00:21:27,480 --> 00:21:30,680
- Woordkeuze of hoe je naar data kijkt.

321
00:21:30,680 --> 00:21:34,400
Nou ja, dat... En vooroordelen hebben we allemaal.

322
00:21:34,400 --> 00:21:37,800
Daar ontkomen we niet aan. Sterker nog, dat zit erin gebakken.

323
00:21:37,800 --> 00:21:40,700
Want in heel veel gevallen schijnen we het nodig te hebben.

324
00:21:40,700 --> 00:21:43,700
Waar gaat dit naartoe?

325
00:21:43,700 --> 00:21:47,700
Bij mij begon het zeg maar...

326
00:21:47,700 --> 00:21:49,700
In eerste instantie waren we er technologisch mee bezig.

327
00:21:49,700 --> 00:21:52,700
Toen begreep ik eigenlijk pas wat voor effect het heeft.

328
00:21:52,700 --> 00:21:57,700
En het heeft ervoor gezorgd dat ik heel veel onderzoek begeleid...

329
00:21:57,700 --> 00:21:59,700
op het gebied van uitlegbaarheid.

330
00:21:59,700 --> 00:22:01,700
En dat vind ik echt geweldig.

331
00:22:01,700 --> 00:22:04,700
Mag ik daarop doorpakken? - Zeker.

332
00:22:04,700 --> 00:22:06,700
Wat ik wil zeggen inderdaad is dus...

333
00:22:06,700 --> 00:22:14,100
Het met onze expertise openbreken van het stukje, alleen maar de sticker van AI of van een model.

334
00:22:14,100 --> 00:22:20,180
En daar inderdaad de handvaten geven om dat verder te kunnen onderzoeken, verklaren en dat soort zaken.

335
00:22:20,180 --> 00:22:25,860
En dat is een beetje de invulling die ik had inderdaad. Dat is onze rol en ja, mooi verwoord.

336
00:22:25,860 --> 00:22:30,100
Ja, en ik ben me heel erg bewust dat dat een puzzelstukje is.

337
00:22:30,100 --> 00:22:34,500
Je hebt zoveel meer nodig, al is het maar het verhaal wat jij vertelde over de universiteit.

338
00:22:34,500 --> 00:22:36,500
dat als jij met iets komt, dat iemand ook zegt van...

339
00:22:36,500 --> 00:22:38,500
Ik geloof jou. - Toch?

340
00:22:38,500 --> 00:22:40,500
Niet alleen geloof, maar ook gewoon zegt van...

341
00:22:40,500 --> 00:22:42,500
Ja, daar moeten we iets mee. - Het kan toch niet?

342
00:22:42,500 --> 00:22:44,500
Het lijkt zo evident, weet je.

343
00:22:44,500 --> 00:22:46,500
Je gezicht wordt niet herkend, daar heb je problemen mee.

344
00:22:46,500 --> 00:22:48,500
Los 'm op.

345
00:22:48,500 --> 00:22:51,500
En ja, daar snap ik af en toe echt helemaal niks van.

346
00:22:51,500 --> 00:22:53,500
Nee, ik ook niet. - Ja, toch?

347
00:22:53,500 --> 00:22:57,500
Dat is nog steeds voor mij een hele grote vraag...

348
00:22:57,500 --> 00:23:00,500
van waarom ze op die manier gehandeld hebben.

349
00:23:00,500 --> 00:23:03,500
Dus dat heeft niks meer met AI te maken, maar gewoon met de behandeling van...

350
00:23:03,500 --> 00:23:08,660
andere mensen maar het is voor mij waarschijnlijk voor altijd een raadsel blijven.

351
00:23:08,660 --> 00:23:13,500
Ja. Dus ja, dank jullie wel voor het goed beantwoorden van mijn verhaal.

352
00:23:13,500 --> 00:23:18,500
Ja geweldig.

353
00:23:18,500 --> 00:23:20,500
Ja, voor je goede inzicht.

354
00:23:20,500 --> 00:23:25,500
Ja, dat is maar net hoe het gegenereerd is.

355
00:23:25,500 --> 00:23:31,500
Ja, ik had een volgende vraag, maar die is wel groot.

356
00:23:31,500 --> 00:23:33,500
Dat doe je goed.

357
00:23:33,500 --> 00:23:35,500
Aisha is nu out of her chest.

358
00:23:35,500 --> 00:23:37,500
Ik dacht dat Aisha haar werk zou overnemen.

359
00:23:37,500 --> 00:23:39,500
Maar kijk, we doen het nog.

360
00:23:39,500 --> 00:23:41,500
Andersom. The human touch.

361
00:23:41,500 --> 00:23:43,500
De AI is overgenomen door de mensen.

362
00:23:43,500 --> 00:23:45,500
Ehm...

363
00:23:45,500 --> 00:23:49,500
Jeetje. Ik ben echt even van me afgekomen.

364
00:23:49,500 --> 00:23:53,500
We hebben natuurlijk ook wel meer gasten die gaten hebben over ethiek.

365
00:23:53,500 --> 00:23:55,500
En ik ben even de naam kwijt.

366
00:23:55,500 --> 00:23:59,500
Van de groep die vaak bij elkaar komt.

367
00:23:59,500 --> 00:24:05,620
komt toch wat erg Samaa bedoel je van Samaa hoe het Samaa en Noëlle van de Dutch AI Ethics

368
00:24:05,620 --> 00:24:12,500
inderdaad ja ja ja ken ik ook persoonlijk heel leuke leuke dames heel lief heel ook echt gewoon

369
00:24:12,500 --> 00:24:17,820
super strijdbaar dus super tof wat ze allemaal doen ja ja en in de teek van inderdaad we zijn

370
00:24:17,820 --> 00:24:22,860
met meer mensen hiermee bezig dus zoek ook de groepen op hier met elkaar over te hebben en

371
00:24:22,860 --> 00:24:26,540
en wat het voor je kan betekenen om daar een hulplijn in te hebben.

372
00:24:26,540 --> 00:24:30,700
Dank je wel Aisha, zou ik bijna zeggen.

373
00:24:30,700 --> 00:24:37,180
Robin, heel fijn dat je bij ons te gast wilde zijn en hierover wilde spreken.

374
00:24:37,180 --> 00:24:43,900
Ik was heel erg benieuwd naar je verhaal en ik denk dat dat voor iedereen ook van belang is.

375
00:24:43,900 --> 00:24:44,920
Dank je wel.

376
00:24:44,920 --> 00:24:48,940
Dank jullie wel en tot de volgende keer.

377
00:24:48,940 --> 00:24:55,940
Leuk dat je weer luisterde naar een aflevering van AETD Live.

378
00:24:55,940 --> 00:25:02,940
Als je ons wil steunen via Spotify heb je de mogelijkheid om 5 sterren uit te delen.

379
00:25:02,940 --> 00:25:05,940
Dat zou ons ontzettend helpen. Alvast bedankt!

380
00:25:05,940 --> 00:25:07,940
 
381
00:25:07,940 --> 00:25:10,940
<Muziek>