AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S06E35 - Een algoritme voor de liefde, maar dan eerlijk - Met Thomas Crul
In de laatste aflevering van AIToday Live gaat het gesprek over AI en ethiek in de context van datingapps. Gast Thomas Crul deelt inzichten over de uitdagingen bij het ontwikkelen van ethische AI-algoritmes voor Breeze, waarbij specifieke aandacht is voor discriminatie en diversiteit.
De discussie belicht de samenwerking met het College van de Rechten van de Mens en onderzoek van de Rijksuniversiteit Groningen, en onderzoekt mogelijke wegen vooruit in de continue strijd tegen bias in AI-systemen.
Links
- Oordeel: Breeze Social B.V. discrimineert niet, als zij maatregelen neemt die voorkomen dat haar algoritme gebruikers met een niet-Nederlandse afkomst of donkere huidskleur benadeelt. (https://oordelen.mensenrechten.nl/oordeel/2023-82)
- Community: DAIEC • Dutch AI Ethics Community (https://www.linkedin.com/company/daiec/)
- Expert netwerk: Ethische Data Science Associatie (https://edsa.ai)
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:05,920
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.
2
00:00:05,920 --> 00:00:07,960
Mijn naam Joop Snijder, CTO bij Aigency.
3
00:00:07,960 --> 00:00:11,280
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support.
4
00:00:11,280 --> 00:00:15,160
En vandaag een hele bijzondere gast, Thomas Crul.
5
00:00:15,160 --> 00:00:19,840
Thomas, welkom en fijn dat je bij ons in de studio wil zijn.
6
00:00:19,840 --> 00:00:20,840
We hebben straks een...
7
00:00:20,840 --> 00:00:21,840
- Hartelijk bedankt Thomas.
8
00:00:21,840 --> 00:00:22,840
Ja, graag gedaan.
9
00:00:22,840 --> 00:00:26,760
Ik ben heel benieuwd naar je verhaal, want je hebt namelijk nogal een verhaal.
10
00:00:26,760 --> 00:00:32,520
Je bent naar het College van de Rechten van de Mensen zelf gestapt om je eigen applicatie
11
00:00:32,520 --> 00:00:33,520
te toetsen.
12
00:00:33,520 --> 00:00:34,520
- Klopt.
13
00:00:34,520 --> 00:00:35,520
Dus daar gaan we het vandaag over hebben.
14
00:00:35,520 --> 00:00:39,800
Maar voordat we daarmee beginnen, zou je jezelf eerst aan de luisteraars willen voorstellen?
15
00:00:39,800 --> 00:00:40,800
- Ja.
16
00:00:40,800 --> 00:00:41,800
Ik ben Thomas Crul.
17
00:00:41,800 --> 00:00:45,360
Ik werk nu sinds augustus van 2022 voor Breeze, de dating app.
18
00:00:45,360 --> 00:00:49,480
En daarvoor heb ik mijn bachelor in computer science en engineering in Delft vervolgd.
19
00:00:49,480 --> 00:00:50,800
Dat geldt in mijn achtergrond.
20
00:00:50,800 --> 00:00:55,040
We hadden het veel over juridische dingen en soms ook filosofische dingen hebben.
21
00:00:55,040 --> 00:00:58,480
Dat is een beetje een disclaimer dat mijn achtergrond vooral technisch is.
22
00:00:58,480 --> 00:01:02,440
En ik ben nu een beetje wijs proberen te maken in andere velden.
23
00:01:02,440 --> 00:01:04,840
- Ja, en misschien denkt het luisteraar dat het een dating app is.
24
00:01:04,840 --> 00:01:07,880
Ik zit toch naar een AI-podcast te luisteren.
25
00:01:07,880 --> 00:01:10,440
Wat heeft een dating app met AI te maken?
26
00:01:10,440 --> 00:01:11,680
- Nou, best wel heel veel.
27
00:01:11,680 --> 00:01:15,520
Ik ben in Breeze in het matchmaking team, wat eigenlijk betekent dat ik aan het volledige
28
00:01:15,520 --> 00:01:17,720
systeem werk wat bepaalt wie welke profielen te zien krijgt.
29
00:01:17,720 --> 00:01:20,080
Nou, dat is natuurlijk eigenlijk een recommender system.
30
00:01:20,080 --> 00:01:24,360
En met alle haken en oren van die, dus zeker veel AI hebben we ernaartoe te passen.
31
00:01:24,360 --> 00:01:29,280
- Ja, en dat is volgens mij ook de reden waarom jullie naar het college van de rechten van
32
00:01:29,280 --> 00:01:30,280
de mens zijn gestart.
33
00:01:30,280 --> 00:01:33,400
Omdat je die AI wilde laten toetsen, toch?
34
00:01:33,400 --> 00:01:34,400
- Ja, klopt.
35
00:01:34,400 --> 00:01:40,520
We hebben het vermoeden dat ons AI of ons recommender system, ons algoritme, discriminerend
36
00:01:40,520 --> 00:01:41,520
gedrag kan vertonen.
37
00:01:41,520 --> 00:01:44,480
En daar willen we wat aan doen, logischerwijs.
38
00:01:44,480 --> 00:01:47,560
Alleen de vraag was of we hier wat aan zouden mogen doen.
39
00:01:47,560 --> 00:01:51,000
Want je zou het ook kunnen zien als positieve discriminatie.
40
00:01:51,000 --> 00:01:52,880
Nou, daar zullen we zo meteen verder dieper op induiken.
41
00:01:52,880 --> 00:01:56,960
Maar kort door de bocht is dat wat we hebben gevraagd aan het college van de mens.
42
00:01:56,960 --> 00:02:01,320
Stel dat ons algoritme discriminerend gedrag vertoont, mogen wij daar maatregelen tegen
43
00:02:01,320 --> 00:02:04,320
treffen en zouden we niet in strijd zijn met de gelijkhandelingswetgeving.
44
00:02:04,320 --> 00:02:06,760
- En hoe zijn jullie er zo opgekomen?
45
00:02:06,760 --> 00:02:12,600
Want het is best wel bijzonder dat je zelf als bedrijf dit bent gaan doen.
46
00:02:12,600 --> 00:02:17,520
- Ja, nou het begon in november 2022 was dat, dus ik werkte nog niet heel lang.
47
00:02:17,520 --> 00:02:20,240
Maar toen was het matchmaking team nog maar twee man sterk.
48
00:02:20,240 --> 00:02:22,600
Ondertussen hebben we een nieuwe aanwinst er bij, dus dat is wel heel leuk.
49
00:02:22,600 --> 00:02:27,240
Maar Daan, een van de co-founders van Breeze, die liet een paper aan me zien van de Rijksuniversiteit
50
00:02:27,240 --> 00:02:28,240
Groningen.
51
00:02:28,240 --> 00:02:32,560
En die hadden onderzoek gedaan naar het online date gedrag van Europeanen op dating apps.
52
00:02:32,560 --> 00:02:36,720
En daar hebben ze gekeken wat de voorkeuren zijn op basis van etniciteit van een potentiële
53
00:02:36,720 --> 00:02:37,720
partner.
54
00:02:37,720 --> 00:02:41,360
Gegeven ook de etniciteit van degene die de beslissingen maakt, zeg maar.
55
00:02:41,360 --> 00:02:43,760
En daar kwamen twee uitkomsten eigenlijk uit.
56
00:02:43,760 --> 00:02:47,680
De grootste is dat er een globale voorkeur was naar mensen van Europese afkomst.
57
00:02:47,680 --> 00:02:50,840
Dus een beetje kort door de bocht mensen met wit huidkleur.
58
00:02:50,840 --> 00:02:53,560
En daarbij was er nog een ander effect.
59
00:02:53,560 --> 00:02:58,600
En dat was geloof ik niet alleen onderling, dus ook mensen van kleur wilden dan toch...
60
00:02:58,600 --> 00:03:04,800
Ongeacht de etniciteit van degene die de profielen beoordeelde, was er een globaal vooroordeel
61
00:03:04,800 --> 00:03:08,160
van voorkeur naar mensen van een wel Europese achtergrond.
62
00:03:08,160 --> 00:03:10,080
Dus dat was ongeacht in die tijd.
63
00:03:10,080 --> 00:03:15,040
En dan was er ook nog een ander, iets minder sterk effect, was dat de same ethnicity bias,
64
00:03:15,040 --> 00:03:19,360
dus eigenlijk dat mensen van in die tijd, een potentiële partner van diezelfde etniciteit
65
00:03:19,360 --> 00:03:20,360
een voorkeur gaven.
66
00:03:20,360 --> 00:03:25,360
Maar dat was wel een stuk minder sterk dan de voorkeur naar Europese kandidaten.
67
00:03:25,360 --> 00:03:27,640
En toen kreeg je die paper onder ogen.
68
00:03:27,640 --> 00:03:28,640
En toen?
69
00:03:28,640 --> 00:03:32,960
En dan is het vrij snel doorredeneren van, oké, dit ging dan...
70
00:03:32,960 --> 00:03:38,400
Nederland was onderzocht in die paper, dus dat zal ook over onze gebruikersbasis gaan.
71
00:03:38,400 --> 00:03:41,280
We zijn een dating-app in Europa, 1+1=2.
72
00:03:41,280 --> 00:03:44,440
Dus dat zal voor onze gebruikersbasis tellen.
73
00:03:44,440 --> 00:03:48,720
En we hebben het vermoeden dat we een vrij homogene gebruikersbasis hebben.
74
00:03:48,720 --> 00:03:53,280
Ik zeg vermoeden omdat de AFWG ons niet toestaat om daar echt data over te hebben.
75
00:03:53,280 --> 00:03:54,760
Maar meer daarover zo meteen.
76
00:03:54,760 --> 00:04:00,040
Maar hoe we dat vermoeden komen, is enerzijds feedback van de gebruikers.
77
00:04:00,040 --> 00:04:03,480
Dus we doen een survey om te kijken hoe de product market fit is, elke kwartaal.
78
00:04:03,480 --> 00:04:05,720
En dan zeggen we, hé, wat vind je goed, wat kan er beter?
79
00:04:05,720 --> 00:04:09,760
En dan gaven sommige mensen gaven aan van, nou, de diversiteit kan wel eens beter in
80
00:04:09,760 --> 00:04:11,760
de profielen die ik getoond heb.
81
00:04:11,760 --> 00:04:14,640
Dus nou, oké, dat ziet er goed teken in ieder geval.
82
00:04:14,640 --> 00:04:15,640
Ja, is wel een signaal.
83
00:04:15,640 --> 00:04:16,640
Ja, zeker.
84
00:04:16,640 --> 00:04:20,680
Dus enerzijds kwam het van de gebruikers, anderzijds checken we alle profielen die op
85
00:04:20,680 --> 00:04:25,440
de app komen om te zorgen dat er geen aanstootgevende content op staat of nep profielen, of weet
86
00:04:25,440 --> 00:04:26,440
ik het allemaal.
87
00:04:26,440 --> 00:04:27,920
Dus dan zie je een soort van snapshot.
88
00:04:27,920 --> 00:04:29,360
Ik heb daar een paar keer mee gekeken.
89
00:04:29,360 --> 00:04:32,600
En dan krijg je een soort van gevoel voor wat er op de app komt.
90
00:04:32,600 --> 00:04:35,680
En dat was wel voornamelijk Europees in de context van die paper.
91
00:04:35,680 --> 00:04:36,680
Ja, precies.
92
00:04:36,680 --> 00:04:40,720
Dus als je die twee dan combineert, dan eigenlijk heel kort door de bocht zou je kunnen concluderen
93
00:04:40,720 --> 00:04:42,920
dat onze gebruikersbasis zichzelf heel leuk vindt.
94
00:04:42,920 --> 00:04:49,680
Ja, mensen die homogene of homogene die dominante cultuur passen, dat die niet echt in smaak
95
00:04:49,680 --> 00:04:50,680
vallen.
96
00:04:50,680 --> 00:04:51,680
Die niet zo gek zijn.
97
00:04:51,680 --> 00:04:53,520
Maar goed, dan constateer je dat.
98
00:04:53,520 --> 00:04:57,480
Dan is het nog steeds best wel een stap om dan zelf het initiatief te nemen naar het
99
00:04:57,480 --> 00:04:58,480
college te op te stappen.
100
00:04:58,480 --> 00:04:59,480
Ja, klopt.
101
00:04:59,480 --> 00:05:00,480
Wat heeft u daar toe gezet?
102
00:05:00,480 --> 00:05:04,120
Nou, dat onze gebruikers voorkeuren hebben, dat is natuurlijk niet gek.
103
00:05:04,120 --> 00:05:07,720
En ook zeker in het context van dating mag dat ook gewoon.
104
00:05:07,720 --> 00:05:11,760
Iedereen mag gewoon zelf zeggen zijn voorkeuren binnen de date-sfeer.
105
00:05:11,760 --> 00:05:14,320
Maar ja, dan komen we dus bij ons algoritme terecht.
106
00:05:14,320 --> 00:05:17,640
Wij trainen ons data op het like-gedrag van onze gebruikers.
107
00:05:17,640 --> 00:05:19,440
We trainen ons algoritme op het like-gedrag.
108
00:05:19,440 --> 00:05:25,040
En doordat die vooroordelen in de like-data zitten, zitten die vooroordelen ook in ons
109
00:05:25,040 --> 00:05:27,400
algoritme en ook in de voorstellen die het algoritme maakt.
110
00:05:27,400 --> 00:05:32,400
Dus daarom zijn we bang dat ons algoritme die bestaande vooroordelen versterkt.
111
00:05:32,400 --> 00:05:35,280
Dus dat ze er zijn, daar kunnen we nog niet zoveel aan doen, denk ik.
112
00:05:35,280 --> 00:05:36,280
Zeker niet met onze schaal.
113
00:05:36,280 --> 00:05:39,080
Misschien als je zo ongelooflijk groot bent, zou je wel wat meer vinger in de pap kunnen
114
00:05:39,080 --> 00:05:40,080
hebben.
115
00:05:40,080 --> 00:05:43,880
Dus we kunnen er niet echt iets aan doen dat ze er zijn, maar we kunnen er wel iets
116
00:05:43,880 --> 00:05:44,880
aan doen.
117
00:05:44,880 --> 00:05:47,800
Je wil geen zelfversterkend effect in ieder geval veroorzaken.
118
00:05:47,800 --> 00:05:48,800
Precies.
119
00:05:48,800 --> 00:05:51,200
En daar denk ik wel, die verantwoordelijkheid ligt wel echt bij ons.
120
00:05:51,200 --> 00:05:52,200
Bij wie anders?
121
00:05:52,200 --> 00:05:54,160
Wij maken het algoritme en niemand anders kan er wat aan doen.
122
00:05:54,160 --> 00:05:58,240
Dus dat ons algoritme die vooroordelen versterkt, dat vinden we wel problematisch.
123
00:05:58,240 --> 00:06:00,160
En daar willen we in ieder geval wat aan doen.
124
00:06:00,160 --> 00:06:01,600
En heb je die stap gezet?
125
00:06:01,600 --> 00:06:02,600
Wat gebeurt er dan?
126
00:06:02,600 --> 00:06:03,600
Je hebt het aangemeld?
127
00:06:03,600 --> 00:06:08,720
Ja, het was eerst gewoon, het was vrij snel, het was de conclusie van ons.
128
00:06:08,720 --> 00:06:10,200
We willen er wat aan doen.
129
00:06:10,200 --> 00:06:13,280
Het is natuurlijk een heel moeilijk gebied.
130
00:06:13,280 --> 00:06:15,000
Je hebt cancel culture, weet ik het allemaal.
131
00:06:15,000 --> 00:06:18,560
De bedoelingen zijn goed, maar uiteindelijk kan er misschien, in een headline staat er
132
00:06:18,560 --> 00:06:20,040
'breeze' en 'discriminatie'.
133
00:06:20,040 --> 00:06:21,040
Doodeng.
134
00:06:21,040 --> 00:06:24,520
Dus we willen eigenlijk een beetje zekerheid inbouwen.
135
00:06:24,520 --> 00:06:29,120
Dus daarom eigenlijk zoeken, we willen een expert opinion met of we hier wat aan mogen
136
00:06:29,120 --> 00:06:32,720
doen, zodat we later kunnen zeggen, we hebben het van tevoren gecheckt, het is een beetje
137
00:06:32,720 --> 00:06:36,120
een grijs gebied waar we mee bezig zijn, maar onze bedoelingen zijn goed en we hebben deze
138
00:06:36,120 --> 00:06:37,440
mensen die zeggen dat het goed is.
139
00:06:37,440 --> 00:06:39,280
Dus we willen eigenlijk een beetje zekerheid inbouwen.
140
00:06:39,280 --> 00:06:42,280
En dat is ook een van de dingen die we willen doen.
141
00:12:54,280 --> 00:12:58,280
Misschien kan je wat vertellen over de samenstelling van het publiek dat opkwam.
142
00:12:58,280 --> 00:13:01,280
Misschien kan je wat vertellen over de samenstelling van het publiek dat opkwam.
143
00:13:01,280 --> 00:13:04,280
Dat had volgens mij heel veel invloed op de uitkomst.
144
00:13:10,280 --> 00:13:13,280
Ik heb de mensen die met mij in contact zijn gekomen sinds de LinkedIn-post heb ik uitgenodigd.
145
00:13:16,280 --> 00:13:19,280
Het grotendeels kwam van hen.
146
00:13:19,280 --> 00:13:22,280
Het waren technische mensen, AI, software engineering.
147
00:13:25,280 --> 00:13:28,280
Het waren studenten, professionals.
148
00:13:28,280 --> 00:13:31,280
Het was een heel breed scala aan publiek.
149
00:13:31,280 --> 00:13:34,280
Het was een heel breed scale aan publiek.
150
00:13:34,280 --> 00:13:37,280
Toen er tijd waren we twee witte mannen binnen het matchmaking team van Breeze.
151
00:13:40,280 --> 00:13:43,280
Nu zijn we drie witte mannen.
152
00:13:46,280 --> 00:13:49,280
Dus daar gaan we de diversiteitsoorlog niet mee winnen.
153
00:27:46,280 --> 00:27:51,280
Mooi. We hebben ook een virtuele co-host.
154
00:27:51,280 --> 00:27:54,280
Zij wil ook altijd een vraag stellen. Leuk.
155
00:27:54,280 --> 00:28:13,280
Ik hoop dat je je welkom voelt. Ik ben Aisha.
156
00:28:13,280 --> 00:28:18,280
De AI van deze podcast. Zou je het erg vinden als ik je een vraag stel?
157
00:28:18,280 --> 00:28:20,280
Helemaal niet.
158
00:28:20,280 --> 00:28:24,280
Als je een AI elke taak perfect zou kunnen laten uitvoeren,
159
00:28:24,280 --> 00:28:27,280
welke taak zou je dan kiezen?
160
00:28:27,280 --> 00:28:30,280
Een AI elke taak perfect zou kunnen laten uitvoeren?
161
00:28:30,280 --> 00:28:33,280
Is het alleen maar digitaal of kunnen we ook fysiek?
162
00:28:33,280 --> 00:28:36,280
Het mag van alles zijn. Het is jouw antwoord.
163
00:28:36,280 --> 00:28:38,280
Ik zat er laatst over te denken.
164
00:28:38,280 --> 00:28:41,280
Met mijn vriendin ook. Dat het wel echt heel fijn zou zijn
165
00:28:41,280 --> 00:28:44,280
als al je kleding gewoon altijd gewassen en gestreken was.
166
00:28:44,280 --> 00:28:47,280
Ik zou dan denk ik ook veel mooiere kleding dragen.
167
00:28:47,280 --> 00:28:49,280
Want ik heb het nu gewoon heel praktisch.
168
00:28:49,280 --> 00:28:52,280
Dan kan je gewoon lekker wassen, uithangen en dan is het gefixt.
169
00:28:52,280 --> 00:28:54,280
Maar ik denk dat dat wel echt heel fijn zou zijn.
170
00:28:54,280 --> 00:28:57,280
Ik zag laatst op Twitter, X moet je tegenwoordig zeggen.
171
00:28:57,280 --> 00:29:00,280
Ik zag een hele mooie dat iemand zei van,
172
00:29:00,280 --> 00:29:07,280
AI kan nu dingen voor mij schrijven en kunstvormen maken.
173
00:29:07,280 --> 00:29:15,280
Maar eigenlijk wil ik dat hij de was doet en de afwas doet.
174
00:29:15,280 --> 00:29:19,280
Dat soort dingen. Zodat ik tijd overhoud om te schrijven en kunst te maken.
175
00:29:19,280 --> 00:29:22,280
In plaats van dat de AI dingen voor jou doet.
176
00:29:22,280 --> 00:29:24,280
Ze pakken nu de leuke dingen weg.
177
00:29:24,280 --> 00:29:27,280
Dat je alleen maar tijd overhoudt voor de was.
178
00:29:27,280 --> 00:29:30,280
Dus ik vond dat eigenlijk wel een hele mooie.
179
00:29:30,280 --> 00:29:34,280
Misschien zitten we ook wel eens af en toe een beetje aan de verkeerde kant te zoeken.
180
00:29:34,280 --> 00:29:37,280
Ja, heel veel praktische dingen lijken me gewoon heel fijn.
181
00:29:37,280 --> 00:29:40,280
Het is niet eens hetgeen waar ik aan zat te denken.
182
00:29:40,280 --> 00:29:42,280
Ik vond het wel heel mooi.
183
00:29:42,280 --> 00:29:44,280
Ja, eigenlijk heb je helemaal gelijk.
184
00:29:44,280 --> 00:29:46,280
Waarom fokken we ons daar niet aan?
185
00:29:46,280 --> 00:29:48,280
Waar dacht jij meteen aan?
186
00:29:48,280 --> 00:29:51,280
Waar we het net over hadden is die discriminatie en zo.
187
00:29:51,280 --> 00:29:54,280
Met een knop wegdraaien en dat probleem eigenlijk oplossen.
188
00:29:54,280 --> 00:29:56,280
Daar zat ik aan te denken. Maar dat is meer omdat ik in die mode zat.
189
00:29:56,280 --> 00:29:58,280
Maar ik vond het wel heel mooi.
190
00:29:58,280 --> 00:29:59,280
Misschien zit ik wel klein te denken.
191
00:29:59,280 --> 00:30:01,280
In principe zou ik ook kunnen zeggen wereldproblemen oplossen.
192
00:30:01,280 --> 00:30:04,280
Dat was wel het eerste wat bij me binnenkwam.
193
00:30:04,280 --> 00:30:08,280
Nou, met een huishouden vind ik wel een wereldprobleem.
194
00:30:08,280 --> 00:30:10,280
Nee, dat is niet het zekerste.
195
00:30:10,280 --> 00:30:12,280
Het geeft wel gewoon heel veel ruimte.
196
00:30:12,280 --> 00:30:16,280
Ik kan me moeilijk voorstellen dat in de AI je diversiteit op zou kunnen lossen.
197
00:30:16,280 --> 00:30:18,280
Daar heb ik een beetje hardhoofd in.
198
00:30:18,280 --> 00:30:21,280
Dat is en blijft echt een menselijk ding.
199
00:30:21,280 --> 00:30:27,280
Ik waardeer de tijd en moeite voor jouw antwoord op mijn vraag. Bedankt.
200
00:30:27,280 --> 00:30:29,280
Alsjeblieft, Ayesha.
201
00:30:29,280 --> 00:30:31,280
Dat is best wel een pittige vraag.
202
00:30:31,280 --> 00:30:33,280
Heel mooie antwoord.
203
00:30:33,280 --> 00:30:35,280
Heel grappig.
204
00:30:35,280 --> 00:30:39,280
Toch nog even verder over de algoritmes.
205
00:30:39,280 --> 00:30:48,280
Waar zit nou het verschil, want je bent dit helemaal doorgegaan, tussen het moment...
206
00:30:48,280 --> 00:30:53,280
Want toen je naar de college ging, had je natuurlijk iets in je hoofd.
207
00:30:53,280 --> 00:30:56,280
Dan gaan we aan dit knopje draaien en dan komt het goed.
208
00:30:56,280 --> 00:30:59,280
Maar je bent nu een heel stuk verder.
209
00:30:59,280 --> 00:31:04,280
Wat heb je in die tussentijd geleerd daarvan en wat ga je anders doen?
210
00:31:04,280 --> 00:31:08,280
In eerste instantie het grootste deel is bewustwording.
211
00:31:08,280 --> 00:31:13,280
Rekening mee houden wat de consequenties kunnen zijn van een feature of wat dan ook.
212
00:31:13,280 --> 00:31:16,280
Of hoe dat verdeeld is tussen verschillende mensen.
213
00:31:16,280 --> 00:31:23,280
Of ze de kans hebben gehad om die aspecten of toegang te hebben om bepaalde featurewaardes te halen.
214
00:31:23,280 --> 00:31:29,280
Of dat mensen daar niet zullen komen door de limitaties die wij op ons opleggen.
215
00:31:29,280 --> 00:31:32,280
Dus ik denk dat bewustwording een heel groot ding is.
216
00:31:32,280 --> 00:31:39,280
Voor de rest is het heel specifiek per task of toepassing waar je mee bezig bent.
217
00:31:39,280 --> 00:31:43,280
Om een rekening te houden en het goede baan te leiden.
218
00:31:43,280 --> 00:31:50,280
Ik probeer mezelf te behoeden voor de beperktheid die ik heb.
219
00:31:50,280 --> 00:31:54,280
Ik ben maar één persoon met één achtergrond. Ik ben een witte man.
220
00:31:54,280 --> 00:31:56,280
Daarin gewoon al heel erg beperkt.
221
00:31:56,280 --> 00:31:58,280
Dus ik probeer gewoon heel veel input te krijgen van mensen.
222
00:31:58,280 --> 00:32:03,280
En op die manier mijn originele... - Je blik te verruimen.
223
00:32:03,280 --> 00:32:05,280
Ja, mijn blik te verruimen inderdaad.
224
00:32:05,280 --> 00:32:10,280
Ik ben opnieuw bij nieuwe features of nieuwe uitbreidingen in de app.
225
00:32:10,280 --> 00:32:13,280
Is dat proces hierdoor veranderd?
226
00:32:13,280 --> 00:32:17,280
We zijn een heel klein team.
227
00:32:17,280 --> 00:32:19,280
Procesmatig werken we nog niet echt.
228
00:32:19,280 --> 00:32:21,280
We zijn nu met z'n drieën.
229
00:32:21,280 --> 00:32:23,280
We zijn best wel een snel groeiende start-up.
230
00:32:23,280 --> 00:32:25,280
Dus we zijn met heel het proces niet bezig.
231
00:32:25,280 --> 00:32:27,280
Drieën die aan het algoritme werken.
232
00:32:27,280 --> 00:32:28,280
Matchmaking en data.
233
00:32:28,280 --> 00:32:30,280
Breeze is een stuk groter dan drie mensen.
234
00:32:30,280 --> 00:32:32,280
Dat zouden we echt niet kunnen doen.
235
00:32:32,280 --> 00:32:35,280
Dan bedoel ik feature misschien in de terminologie.
236
00:32:35,280 --> 00:32:37,280
Niet van data science feature, maar een feature in de app.
237
00:32:37,280 --> 00:32:39,280
Dus nieuwe functionaliteit in de app.
238
00:32:39,280 --> 00:32:43,280
Is daar vooral, de hele organisatie heeft meegeleefd hierin.
239
00:32:43,280 --> 00:32:46,280
Is daarin veranderd in hoe jullie die aanpak noemen?
240
00:32:46,280 --> 00:32:49,280
Ik denk dat product er in eerste instantie een stuk beter in was dan wij.
241
00:32:49,280 --> 00:32:51,280
Je hebt accessibility en dingen.
242
00:32:51,280 --> 00:32:53,280
Er wordt al veel meer dingen meegehouden.
243
00:32:53,280 --> 00:32:55,280
Terwijl het algoritme dat zegt totaal niet.
244
00:32:55,280 --> 00:32:57,280
Dus die deden er al wel meer mee.
245
00:32:57,280 --> 00:33:00,280
Maar het is vooral door die bewustwording in het hele bedrijf is gekomen.
246
00:33:00,280 --> 00:33:01,280
Door dat event.
247
00:33:01,280 --> 00:33:03,280
Zijn er veel meer kritische vragen.
248
00:33:03,280 --> 00:33:06,280
Gaat dit hetzelfde zijn voor mensen van niet-Europese achtergrond?
249
00:33:06,280 --> 00:33:08,280
Of mensen met een handicap?
250
00:33:08,280 --> 00:33:11,280
Of gaan die overal van kleurenblindheid uit?
251
00:33:11,280 --> 00:33:13,280
Er worden veel meer vragen gesteld.
252
00:33:13,280 --> 00:33:15,280
Dat is mooi inderdaad.
253
00:33:15,280 --> 00:33:17,280
De meeste winst was daar wel bij ons toe.
254
00:33:17,280 --> 00:33:22,280
En buiten de AI, is er een verandering geweest?
255
00:33:22,280 --> 00:33:24,280
Is er al een verandering doorgevoerd?
256
00:33:24,280 --> 00:33:30,280
Want jullie hadden heel veel ideeën meegekregen.
257
00:33:30,280 --> 00:33:34,280
Maar ook over marketing, over uitingen.
258
00:33:34,280 --> 00:33:36,280
Van alles en nog wat.
259
00:33:36,280 --> 00:33:37,280
Is er iets veranderd?
260
00:33:37,280 --> 00:33:38,280
Ik vind het jammer om mee te delen.
261
00:33:38,280 --> 00:33:40,280
Het zijn nog niet heel grote dingen.
262
00:33:40,280 --> 00:33:42,280
We zijn toch nog een beetje gevangen.
263
00:33:42,280 --> 00:33:45,280
En we zijn een kleine organisatie.
264
00:33:45,280 --> 00:33:48,280
Het is moeilijk om er heel veel manuur aan toe te wijden.
265
00:33:48,280 --> 00:33:51,280
Aan de andere kant zijn we nog steeds een beetje bang.
266
00:33:51,280 --> 00:33:53,280
Om er echt hard mee bezig te zijn.
267
00:33:53,280 --> 00:33:54,280
We zijn hard aan het slachten aan.
268
00:33:54,280 --> 00:33:55,280
Wat ik eigenlijk wel heel jammer vind.
269
00:33:55,280 --> 00:33:56,280
Want ik denk dat er heel veel winst te behalen is.
270
00:33:56,280 --> 00:33:57,280
Ook voor andere apps.
271
00:33:57,280 --> 00:34:01,280
En dat we daar ook heel veel andere organisaties mee kunnen helpen.
272
00:34:01,280 --> 00:34:04,280
Maar dus eigenlijk minder dan ik had gehoopt.
273
00:34:04,280 --> 00:34:07,280
Dat vind ik wel heel openhartig van je.
274
00:34:07,280 --> 00:34:11,280
Wat is de angst?
275
00:34:11,280 --> 00:34:14,280
Ik denk dat er nu best wel heel veel luisteraars zijn.
276
00:34:14,280 --> 00:34:15,280
Die ook in bedrijven zitten.
277
00:34:15,280 --> 00:34:18,280
Die uiteindelijk tegen ditzelfde soort problemen aanlopen.
278
00:34:18,280 --> 00:34:21,280
Maar er niet zo open over zijn zoals jij dat bent.
279
00:34:21,280 --> 00:34:22,280
Wat is de angst?
280
00:34:22,280 --> 00:34:24,280
En wat zou je eraan kunnen doen?
281
00:34:24,280 --> 00:34:26,280
Heb je daar enig ideeën over?
282
00:34:26,280 --> 00:34:29,280
De angst denk ik dat je enerzijds het ding over het hoofd ziet.
283
00:34:29,280 --> 00:34:32,280
Dat je gewoon die referentiekader niet hebt.
284
00:34:32,280 --> 00:34:35,280
En dat je gewoon hele simpele fouten in de ogen van andere mensen maakt.
285
00:34:35,280 --> 00:34:37,280
En dat je daar de hele groepen uitsluit.
286
00:34:37,280 --> 00:34:39,280
Angst om het verkeerde te zeggen.
287
00:34:39,280 --> 00:34:40,280
Het cancel culture.
288
00:34:40,280 --> 00:34:41,280
Die noemde ik al.
289
00:34:41,280 --> 00:34:43,280
Dus het is vooral de eerste maanden nu.
290
00:34:43,280 --> 00:34:45,280
Nu praat ik er wat rustiger over.
291
00:34:45,280 --> 00:34:47,280
Ik heb het vaker gedaan.
292
00:34:47,280 --> 00:34:51,280
Maar aan het begin was als de dood om verschillende benamingen.
293
00:34:51,280 --> 00:34:54,280
Dat maakt het heel veel stroperiger.
294
00:34:54,280 --> 00:34:56,280
Je denkt echt wel vier keer na voordat je het erover hebt.
295
00:34:56,280 --> 00:34:59,280
Dus het is veel moeilijker om het gewoon met mensen over te hebben.
296
00:34:59,280 --> 00:35:02,280
Ik denk dat dat wel de grootste angsten zijn.
297
00:35:02,280 --> 00:35:05,280
Mensen lezen niet heel veel.
298
00:35:05,280 --> 00:35:08,280
Het is best een gecompliceerd onderwerp.
299
00:35:08,280 --> 00:35:10,280
En je moet er best wel diep in gaan.
300
00:35:10,280 --> 00:35:12,280
Om te begrijpen wat we nou willen doen.
301
00:35:12,280 --> 00:35:14,280
En wat er nou aan de hand is.
302
00:35:14,280 --> 00:35:16,280
Het is heel makkelijk om het na te lezen.
303
00:35:16,280 --> 00:35:18,280
Breach, discriminatie in één headline.
304
00:35:18,280 --> 00:35:20,280
En dan je conclusie te trekken.
305
00:35:20,280 --> 00:35:23,280
Dus daar zijn we gewoon huiverig in.
306
00:35:23,280 --> 00:35:27,280
Maar tegelijkertijd is het misschien niet in helemaal gegronde angst.
307
00:35:27,280 --> 00:35:29,280
Want alle uitingen die we tot nu toe hebben gedaan.
308
00:35:29,280 --> 00:35:31,280
Zijn ongelooflijk positief ontvangen.
309
00:35:31,280 --> 00:35:34,280
Dus het is een beetje stukje bij beetje.
310
00:35:34,280 --> 00:35:36,280
Juist omdat je er wat mee doet en wil.
311
00:35:36,280 --> 00:35:39,280
Precies. Het is echt super positief ontvangen.
312
00:35:39,280 --> 00:35:41,280
Het is een super warm onthaal geweest.
313
00:35:41,280 --> 00:35:44,280
Van de Fairness AI community.
314
00:35:44,280 --> 00:35:48,280
Dus ik denk dat het zelfs een beetje een irrationele angst is.
315
00:35:48,280 --> 00:35:52,280
En dat andere mensen zeker advies willen geven.
316
00:35:52,280 --> 00:35:54,280
Blijf je er niet stuk op. Kijk er niet blind op.
317
00:35:54,280 --> 00:35:56,280
Ga gewoon lekker aan de gang.
318
00:35:56,280 --> 00:35:58,280
En je krijgt er ongelooflijk veel complimenten op doorgaans.
319
00:35:58,280 --> 00:36:00,280
Lijkt me een hele mooie.
320
00:36:00,280 --> 00:36:04,280
Super bedankt voor je openhartige gesprek.
321
00:36:04,280 --> 00:36:10,280
Ik vind het zo mooi dat jullie dit doen.
322
00:36:10,280 --> 00:36:13,280
Je bent bijna een voorvechter geworden.
323
00:36:13,280 --> 00:36:16,280
Zonder dat je dat van tevoren gedacht hebt.
324
00:36:16,280 --> 00:36:19,280
In openheid hierover.
325
00:36:19,280 --> 00:36:22,280
En de enige manier om het te verbeteren is door erover te praten.
326
00:36:22,280 --> 00:36:24,280
Dingen te doen. Proberen.
327
00:36:24,280 --> 00:36:26,280
En ervoor gaan denk ik dan.
328
00:36:26,280 --> 00:36:28,280
Lekker samen oplossen.
329
00:36:28,280 --> 00:36:32,280
Niels en ik hebben na aanleiding van die workshop.
330
00:36:32,280 --> 00:36:34,280
We hebben ook ontzettend veel gesproken.
331
00:36:34,280 --> 00:36:38,280
Het was niet alleen leuk en gezellig.
332
00:36:38,280 --> 00:36:40,280
Het was ook gewoon leerzaam.
333
00:36:40,280 --> 00:36:46,280
Ik wist dat je met diverse mensen moest praten.
334
00:36:46,280 --> 00:36:48,280
Maar dat het zo breed kan.
335
00:36:48,280 --> 00:36:52,280
En dat je daardoor zo ontzettend veel meer inzichten krijgt.
336
00:36:52,280 --> 00:36:54,280
Dat had ik eigenlijk niet verwacht.
337
00:36:54,280 --> 00:36:56,280
Wij hebben een aantal dingen opgenomen.
338
00:36:56,280 --> 00:36:58,280
Wij hebben een guidance framework.
339
00:36:58,280 --> 00:37:00,280
We hebben bepaalde processen.
340
00:37:00,280 --> 00:37:02,280
We hebben dit opgenomen.
341
00:37:02,280 --> 00:37:04,280
Als je hiermee aan de slag gaat.
342
00:37:04,280 --> 00:37:08,280
Moet je toch echt wel ook dit soort initiatieven nemen.
343
00:37:08,280 --> 00:37:11,280
Dus wij hebben er ook heel veel van geleerd.
344
00:37:11,280 --> 00:37:13,280
Daarvoor sowieso dank je.
345
00:37:13,280 --> 00:37:14,280
Superleuk.
346
00:37:14,280 --> 00:37:16,280
En dank dat je vandaag onze gast bent.
347
00:37:16,280 --> 00:37:17,280
Super.
348
00:37:17,280 --> 00:37:22,280
Leuk dat je weer luisterde naar een aflevering van AIToday Live.
349
00:37:22,280 --> 00:37:25,280
Vergeet je niet te abonneren via je favoriete podcast app.
350
00:37:25,280 --> 00:37:28,280
En dan mis je geen aflevering, krijg je vanzelf een seintje.
351
00:37:28,280 --> 00:37:30,280
Tot de volgende keer!
352
00:37:30,280 --> 00:37:38,180
[Muziek]