AIToday Live

S07E95 - Expliciete guardrails voor AI: hoe je genderbias in dagelijks gebruik tegengaat

Aigency by Info Support Season 7 Episode 95

In de nieuwste aflevering van AIToday Live staat Julia Klinkert, Product Owner bij Info Support, centraal met haar expertise over gender bias in AI. Ze legt uit hoe AI-systemen vooroordelen overnemen uit trainingsdata van het internet, waar bepaalde groepen ondervertegenwoordigd zijn.

Klinkert illustreert dit met voorbeelden: bij beeldgeneratie worden ontwikkelaars als mannen afgebeeld en verpleegkundigen als vriendelijke vrouwen. Deze bias versterkt bestaande stereotypen en belemmert maatschappelijke vooruitgang.

Ze biedt praktische oplossingen zoals het geven van expliciete instructies aan AI-systemen en het kritisch blijven over het gebruik ervan.

Onderwerpen

  • Oorsprong van gender bias in AI
  • Manifestatie van gender bias in beeldgeneratie
  • Risico's van bias in AI-systemen
  • Praktische oplossingen voor gebruikers
  • Impact van AI op vaardigheden
Links

Genoemde entiteiten: Julia Klinkert

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:04,919
In deze aflevering hoor je Julia Klinkert, Product Owner bij Info Support.

2
00:00:05,080 --> 00:00:09,519
Ze deelt praktische technieken om genderbaars in je eigen AI gebruik tegen te gaan,

3
00:00:09,679 --> 00:00:15,119
met expliciete guardrails en verklaart waarom AI achterloopt op haar progressieve ideale.

4
00:00:17,779 --> 00:00:20,459
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

5
00:00:20,759 --> 00:00:22,399
Mijn naam Joop Snijder, CTO bij Aigency.

6
00:00:22,699 --> 00:00:25,279
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support.

7
00:00:25,879 --> 00:00:28,239
En vandaag de gast Julia Klinkert.

8
00:00:29,159 --> 00:00:32,039
Julia, voordat we beginnen, zou je jezelf eerst willen voorstellen?

9
00:00:32,698 --> 00:00:35,499
Yes, hi. Ik ben Julia Klinkert inderdaad.

10
00:00:35,759 --> 00:00:38,059
Ik werk nu zo'n twee jaartjes bij Info Support.

11
00:00:39,559 --> 00:00:44,259
Maar hiervoor heb ik een bachelor in kunstmatige intelligentie gedaan in Utrecht.

12
00:00:44,759 --> 00:00:48,459
Ik was eigenlijk altijd al wel geïnteresseerd in, vooral ook het sociale aspect.

13
00:00:48,999 --> 00:00:51,199
Dus wat voor impact hebben we nou ook op mensen.

14
00:00:52,779 --> 00:00:58,899
En daarom ben ik vervolgens de master Interaction Technology in Enschede gaan studeren.

15
00:00:59,499 --> 00:01:02,499
En ook daar steeds meer die ethiek hoek gaan opzoeken.

16
00:01:03,439 --> 00:01:05,639
Dus ook in mijn vrije ruimte, vakken die ik kon doen.

17
00:01:06,279 --> 00:01:11,099
Oké, maar hoe gaat dat nou samen eigenlijk? Technologie, ethiek, maatschappij.

18
00:01:12,579 --> 00:01:14,439
En wat trok je daar zo in aan?

19
00:01:16,619 --> 00:01:21,419
Ik denk dat we altijd heel geïnteresseerd zijn in wat kunnen we allemaal met technologie.

20
00:01:21,729 --> 00:01:22,659
In het algemeen zeg maar.

21
00:01:25,298 --> 00:01:27,719
Maar soms denk ik ook, oké maar waarom doen we dit?

22
00:01:27,929 --> 00:01:30,239
En ik denk dat die vraag heel snel wordt overgeslagen.

23
00:01:31,659 --> 00:01:37,019
En je gaat een presentatie houden die heet Gendered Bias in AI.

24
00:01:38,119 --> 00:01:39,499
Wat moet ik me daarbij voorstellen?

25
00:01:41,779 --> 00:01:46,519
Daarbij duik ik eigenlijk dieper in sowieso wat is generative AI.

26
00:01:48,119 --> 00:01:51,639
Maar ook, daar zitten verschillende biases in.

27
00:01:52,119 --> 00:01:53,619
Onder andere gender bias.

28
00:01:55,559 --> 00:01:57,099
Waar komt dit eigenlijk vandaan?

29
00:01:57,519 --> 00:01:59,339
Maar ook, hoe gaan wij hier nou eigenlijk mee om?

30
00:01:59,999 --> 00:02:03,559
Want we krijgen overal te horen, oké, we moeten steeds meer gaan gebruiken.

31
00:02:04,979 --> 00:02:06,779
Maar ja, we maken niet allemaal AI.

32
00:02:06,999 --> 00:02:09,839
Het is niet dat we daar allemaal aan de knoppen zitten van hoe we willen dat het werkt.

33
00:02:10,359 --> 00:02:14,979
Dus hoe ga je er eigenlijk mee om als je er anders mee om wilt gaan dan gewoon maar de standaard?

34
00:02:15,539 --> 00:02:18,699
En wat bedoel je van we zitten niet aan de knoppen?

35
00:02:20,759 --> 00:02:23,779
Nou ja, vooral de big tech companies die ontwikkelen het.

36
00:02:24,039 --> 00:02:31,139
Dus vooral OpenAI, daar zien we gewoon bij, oké, daar hebben we de standaard ChatGPT van, daar hebben we Copilot van.

37
00:02:32,119 --> 00:02:36,599
Zij ontwerpen eigenlijk die producten voor ons die wij vervolgens overal in gaan gebruiken.

38
00:02:38,619 --> 00:02:48,839
Dus je kan wel zoiets gaan sturen, maar uiteindelijk beslissen wij niet hoe het exact gaat werken en hoe moreel we misschien willen dat zo'n systeem werkt.

39
00:02:49,159 --> 00:02:52,539
Ja, en hoe merk je dan dat het biased is?

40
00:02:54,279 --> 00:02:57,839
Ja, ik denk een makkelijk voorbeeld. Ik ben zelf een hele visuele denker.

41
00:02:59,339 --> 00:03:01,939
Dus genereer een plaatje van X.

42
00:03:02,499 --> 00:03:06,119
En ik denk dat je het vooral heel erg ziet ook in bepaalde werkvelden.

43
00:03:06,759 --> 00:03:12,079
En daar hebben we toch, ook al willen we misschien dat het anders is, bepaalde vooroordelen.

44
00:03:13,339 --> 00:03:14,899
En enigszins is dat ook wel waar.

45
00:03:14,909 --> 00:03:17,059
Als ik hier om me heen kijk en ik kijk naar developers,

46
00:03:18,479 --> 00:03:20,279
grotendeels heb ik mannelijke collega's mee.

47
00:03:22,119 --> 00:03:27,319
Dus als ik vervolgens vraag aan een ChatGPT, oké, maak een developer,

48
00:03:27,939 --> 00:03:29,159
dan zal het een man genereren.

49
00:03:30,019 --> 00:03:35,539
Tegelijkertijd als ik vraag, maak een zuster, in het Nederlands is dat ook al een genderd,

50
00:03:35,919 --> 00:03:37,419
Ja, woord eigenlijk.

51
00:03:38,599 --> 00:03:41,619
Maar het Engels als nurse is zowel mannelijk als vrouwelijk.

52
00:03:41,799 --> 00:03:45,599
Dat hoeft niet een geslacht eraan te hebben.

53
00:03:46,779 --> 00:03:52,939
Maar toch zie je daar wel gelijk in terugkomen dat het een hele vrolijke, vriendelijke vrouw is.

54
00:03:53,079 --> 00:03:54,139
Vaak een jonge vrouw.

55
00:03:55,239 --> 00:03:57,119
Terwijl een CEO, oude man.

56
00:03:58,559 --> 00:04:02,299
Dus dat is zowel gender, maar ook met leeftijd heeft het ook te maken.

57
00:04:02,659 --> 00:04:02,719
Ja.

58
00:04:03,459 --> 00:04:04,799
Wat is het risico daar dan van?

59
00:04:06,559 --> 00:04:09,179
Het bevestigt heel erg bepaalde denkpatronen.

60
00:04:10,479 --> 00:04:16,559
Dus sommigen zeggen ook wel, generative AI is een soort van weerspiegeling van de maatschappij.

61
00:04:17,619 --> 00:04:21,719
Maar dat betekent dus ook heel erg dat het een weerspiegeling is misschien van de huidige maatschappij.

62
00:04:22,379 --> 00:04:24,219
Niet hoe we zouden willen dat het werkt.

63
00:04:24,939 --> 00:04:30,159
Dus op die manier bevestig je bepaalde denkpatronen of versterkt dat het alleen maar.

64
00:04:32,039 --> 00:04:34,358
En als we toch nog even doorgaan op dat van die plaatjes.

65
00:04:34,659 --> 00:04:41,399
Want de zuster en de CEO's denk ik, die lijken me nog vrij duidelijk.

66
00:04:43,219 --> 00:04:46,579
Zijn er ook subtielere vormen die je tegen bent gekomen?

67
00:04:47,459 --> 00:04:49,179
Dat is misschien wel nog pijnlijker.

68
00:04:50,579 --> 00:04:54,599
Ik vind het zelf, zag ik het als je bijvoorbeeld een cv wil opstellen.

69
00:04:55,759 --> 00:04:58,719
En je pakt bepaalde eigenschappen.

70
00:04:58,959 --> 00:05:02,699
dan ook daar wordt toch vaak wel een soort van geslacht aan gekoppeld.

71
00:05:03,639 --> 00:05:11,399
Dus vaak zie je dat mannen assertief worden gezien of die zijn heel straightforward.

72
00:05:12,279 --> 00:05:13,779
En dan zijn dat goede eigenschappen.

73
00:05:15,059 --> 00:05:19,779
Terwijl bij vrouwen veel eerder wordt gezegd, nee, misschien moet je sociaal, vriendelijk.

74
00:05:19,949 --> 00:05:22,359
En zijn dat in dat opzicht goede eigenschappen.

75
00:05:22,919 --> 00:05:27,018
Terwijl misschien voor een bepaalde rol dat eigenlijk niet of zou moeten uitmaken

76
00:05:27,059 --> 00:05:32,599
of dat je juist naar die bepaalde eigenschappen assertief daarnaar op zoek bent.

77
00:05:33,019 --> 00:05:40,319
Maar als ik dan vraag, maak voor mij, en waarschijnlijk leest het uit mijn eigen woordgebruik,

78
00:05:40,379 --> 00:05:45,179
of hoe ik er met zo'n systeem omga, kan het al allemaal signalen oppikken,

79
00:05:45,629 --> 00:05:48,659
kan het eruit halen, ik heb waarschijnlijk met een vrouw te maken.

80
00:05:49,219 --> 00:05:51,719
Niet dat het dat denkt, maar zo zal het wel reageren.

81
00:05:52,379 --> 00:06:00,519
En dus misschien eerder bovenaan mijn cv zetten wat een sociaal persoon is dit, dan wat een assertief persoon.

82
00:06:01,079 --> 00:06:06,979
En dat kan dus ook weer je kansen voor eventueel een baan beïnvloeden.

83
00:06:08,899 --> 00:06:11,459
We zaten net eventjes heel kort voor te bespreken.

84
00:06:11,809 --> 00:06:19,379
En toen zei jij van, ik zou eigenlijk verwachten dat iedereen weet dat deze bias in taalmodellen zit.

85
00:06:20,459 --> 00:06:21,739
Maar dat dat niet het geval is.

86
00:06:22,059 --> 00:06:23,579
Hoe merk je dat?

87
00:06:26,259 --> 00:06:28,219
Ik denk gewoon met gesprekken met mensen omheen.

88
00:06:28,529 --> 00:06:32,859
Dat ik zit van, moet ik hier sowieso een praatje over doen?

89
00:06:32,909 --> 00:06:36,959
Ik ga naar een conferentie, ook eigenlijk met het onderwerp wat je al noemde.

90
00:06:37,499 --> 00:06:39,239
Je gaat het in Parijs doen, dat vond ik zo leuk.

91
00:06:39,729 --> 00:06:40,459
Ja, klopt.

92
00:06:41,009 --> 00:06:44,279
Dus echt wel, ook mijn eerste conferentie, nou meteen in Parijs.

93
00:06:44,279 --> 00:06:45,219
Dus dat is super gaaf.

94
00:06:47,579 --> 00:06:51,639
Maar ja, ik had dus de aanname van, wat ik nu ga vertellen, dat heeft niet zoveel nut.

95
00:06:51,759 --> 00:06:54,139
waarom zou ik hier een praatje over doen, want dit is al bekend.

96
00:06:54,329 --> 00:06:55,559
We weten toch dat dit er is.

97
00:06:57,359 --> 00:06:59,259
Maar dat ik eigenlijk om me heen reacties kreeg met,

98
00:06:59,329 --> 00:07:01,059
oh, maar hoe zit dat dan eigenlijk?

99
00:07:01,579 --> 00:07:03,799
En toch ook wel de vraag, waar komt dat vandaan?

100
00:07:05,439 --> 00:07:08,959
En nou ja, ook toch een beetje zorgen, en wat moeten we daar dan mee?

101
00:07:10,039 --> 00:07:12,619
En als je het zou moeten uitleggen van, waar komt het vandaan?

102
00:07:14,439 --> 00:07:17,319
Nou ja, in principe zo'n large language model,

103
00:07:17,489 --> 00:07:20,599
dat zit onder een generative AI in het algemeen,

104
00:07:21,259 --> 00:07:24,399
Dat leert op hele grote datasets.

105
00:07:26,339 --> 00:07:29,119
En als we kijken van oké, wat voor datasets zijn dat dan?

106
00:07:29,879 --> 00:07:31,619
Zie je vooral bij een GPT.

107
00:07:31,939 --> 00:07:35,239
Dat is gebaseerd op de data die al beschikbaar is.

108
00:07:35,239 --> 00:07:37,619
Want ook dat is vrij geheimzinnig allemaal.

109
00:07:38,359 --> 00:07:40,039
Maar voornamelijk gewoon ook wel het internet.

110
00:07:41,399 --> 00:07:43,819
En als je dan verder gaat kijken wat dan op het internet?

111
00:07:44,779 --> 00:07:46,399
Een groot deel ook Reddit stories.

112
00:07:48,278 --> 00:07:51,139
Dus nou ja, ik weet niet of je als op Reddit hebt gekeken.

113
00:07:51,599 --> 00:07:55,619
Maar dat is niet altijd even vriendelijk of genuanceerd.

114
00:07:56,459 --> 00:08:01,079
Dus als je daar vandaan gaat leren, en dat zijn bepaalde biases die daar ook genoemd worden.

115
00:08:02,938 --> 00:08:07,299
Dan komt dat dus ook terug in je large language models waar het op leert.

116
00:08:07,959 --> 00:08:10,099
Maar daarnaast is er ook een onderrepresentatie.

117
00:08:10,499 --> 00:08:18,219
Dus je ziet dat alle biografieën die over mensen zijn geschreven, dat een veel groter percentage over mannen is geschreven.

118
00:08:18,919 --> 00:08:25,079
En er zijn dus wel acties gaande om dat recht te trekken, om veel meer biografieën van vrouwen ook toe te voegen.

119
00:08:26,159 --> 00:08:29,199
Maar dat is er nog niet. We zijn echt nog niet op een gelijk level.

120
00:08:29,749 --> 00:08:35,578
Dus je ziet gewoon dat er daardoor een onderrepresentatie is van vrouwen, een overrepresentatie van mannen.

121
00:08:36,078 --> 00:08:39,719
En dat er dan ook nog eens een vooroordeel in zit eigenlijk.

122
00:08:41,698 --> 00:08:45,799
Zelf gebruik ik in sommige presentaties om dat te laten zien.

123
00:08:46,899 --> 00:08:48,019
Hoe er geleerd wordt.

124
00:08:50,319 --> 00:08:52,179
Trouwens, ik heb het al een hele tijd niet meer geprobeerd.

125
00:08:52,218 --> 00:08:56,019
Maar als je vraagt naar het genereren van een plaatje van een klok.

126
00:08:56,639 --> 00:08:58,098
En je vraagt daar een bepaalde tijd.

127
00:08:59,299 --> 00:09:00,319
Zet hem op half vier.

128
00:09:00,939 --> 00:09:03,399
Wat doet hij? Hij zet hem altijd op tien over tien.

129
00:09:04,619 --> 00:09:06,178
En dat heeft te maken met dat...

130
00:09:07,059 --> 00:09:10,039
Nee, want de wijze, zoals het op tien over tien staat,

131
00:09:10,399 --> 00:09:12,179
dat ziet er visueel heel fijn uit.

132
00:09:12,979 --> 00:09:17,619
Dus als jij googelt op foto's van klokken, van horloges,

133
00:09:18,039 --> 00:09:19,359
staat alles op tien over tien.

134
00:09:19,879 --> 00:09:21,259
Dus daar is op getraind.

135
00:09:21,679 --> 00:09:23,099
Dus dit gaat nog niet eens over bias,

136
00:09:23,279 --> 00:09:25,899
maar dit gaat gewoon over wat doet trainingsdata.

137
00:09:26,359 --> 00:09:30,559
Dus er zit zo ontzettend veel over representatie van die tien over tien,

138
00:09:31,079 --> 00:09:34,159
dat ongeacht wat jij vraagt,

139
00:09:35,119 --> 00:09:37,579
krijg je een horloge altijd op de tijd tien over tien.

140
00:09:38,279 --> 00:09:42,699
En dat is ook deels het probleem van die trainingsdata.

141
00:09:43,419 --> 00:09:45,399
Daar wordt heel veel gereproduceerd.

142
00:09:45,879 --> 00:09:48,839
Ja, en daar is denk ik ook juist die representatie zo belangrijk.

143
00:09:49,779 --> 00:09:51,499
Om daar gelijke representatie in te hebben.

144
00:09:51,619 --> 00:09:53,019
Of de representatie die je wilt.

145
00:09:53,379 --> 00:09:55,139
En dat is denk ik ook altijd de vraag.

146
00:09:55,479 --> 00:09:57,219
Ja, met zo'n bedoel.

147
00:09:57,799 --> 00:09:58,799
Hoe zou jij hem willen?

148
00:09:59,999 --> 00:10:01,539
Kijk, ik heb allemaal idealen.

149
00:10:04,339 --> 00:10:07,099
En eigenlijk wil ik dat het niet uitmaakt.

150
00:10:07,239 --> 00:10:08,939
Dat het dus letterlijk, het is een blank slate.

151
00:10:09,339 --> 00:10:10,259
Het maakt niet uit.

152
00:10:11,319 --> 00:10:12,999
Man, vrouw, ertussenin, erbuiten.

153
00:10:13,919 --> 00:10:17,399
Want ook dat, we hebben het nu vooral nog over man-vrouw, representatie.

154
00:10:18,339 --> 00:10:21,839
Ja, dan gaan we nog helemaal voorbij het binaire denkgedachte.

155
00:10:22,279 --> 00:10:26,239
Of daar blijven binnen en alles daarbuiten, dat is er gewoon niet eens.

156
00:10:27,399 --> 00:10:31,719
En dat komt ook omdat we natuurlijk, je hebt een soort van progressieve denkgedachte.

157
00:10:31,799 --> 00:10:32,739
Tenminste, dat heb ik.

158
00:10:35,899 --> 00:10:38,679
Dus daar wil je naar een plek waar je eigenlijk nog niet bent geweest.

159
00:10:38,959 --> 00:10:41,119
Maar dat is niet hoe een GPT werkt.

160
00:10:41,179 --> 00:10:44,179
Want dat leert op data van het verleden.

161
00:10:44,859 --> 00:10:49,139
Dus als je iets progressief wilt, dan is dit eigenlijk niet het juiste systeem.

162
00:10:49,259 --> 00:10:50,859
Want het bedenkt niet nieuws.

163
00:10:52,159 --> 00:10:53,639
Hoe ga je daar zelf mee om?

164
00:10:55,259 --> 00:10:56,419
Ik vind het heel frustrerend.

165
00:10:58,219 --> 00:11:00,399
En ik probeer het daarin ook te challengen.

166
00:11:00,539 --> 00:11:07,439
Dus vooral als ik met vraagstukken bezig ben waar dit naar voren kan komen.

167
00:11:07,549 --> 00:11:09,719
Dus bijvoorbeeld denk aan een cv opstellen.

168
00:11:10,819 --> 00:11:14,319
Ik heb gelukkig al een tijd geen cv hoeven opstellen of aanpassen.

169
00:11:16,379 --> 00:11:19,679
Maar ik gebruik ChatGPT heel veel voor mijn taalgebruik.

170
00:11:19,859 --> 00:11:20,739
Ik denk heel veel mensen.

171
00:11:21,269 --> 00:11:25,159
Ik heb last van dyslexie, dus mijn zinnen lopen echt nog wel scheef.

172
00:11:26,919 --> 00:11:30,639
Maar daar geef ik echt de juiste guardrails eigenlijk mee.

173
00:11:30,899 --> 00:11:36,699
Dus oké, ik wil dat je geen dingen zomaar bedenkt.

174
00:11:36,889 --> 00:11:41,659
Ik wil dat je, ongeacht man, vrouw, dat het niet uitmaakt.

175
00:11:42,479 --> 00:11:45,459
En ook wel, als ik bepaalde dingen aan het bedenken ben,

176
00:11:46,049 --> 00:11:48,359
dan gebruik ik voor brainstormen.

177
00:11:49,019 --> 00:11:55,019
Oké, maar hoe zouden we hiermee omgaan als we non-binaire personen zouden willen includeren?

178
00:11:55,199 --> 00:11:56,179
Wat moeten we dan daarvoor doen?

179
00:11:56,379 --> 00:11:57,839
En dan komt het wel met een antwoord.

180
00:11:58,019 --> 00:12:00,039
En of het correct is, dat moet je zelf natuurlijk nog toetsen.

181
00:12:00,199 --> 00:12:06,979
Maar daarmee kan je jezelf wel blijven uitdagen om in ieder geval buiten je eigen denkpatronen te denken.

182
00:12:08,159 --> 00:12:08,879
Snap ik, ja.

183
00:12:10,439 --> 00:12:12,459
En dat deel je dan denk ik ook met collega's.

184
00:12:13,039 --> 00:12:16,019
Wat doen die er dan mee als ze dat horen, dat je daarmee bezig bent?

185
00:12:16,339 --> 00:12:17,779
Zet het hen tot actie?

186
00:12:19,559 --> 00:12:24,419
De feedback die ik heb gekregen, want ik heb hier dan ook wel binnen de organisatie een presentatie over gegeven.

187
00:12:25,719 --> 00:12:29,259
Is dat er wel in ieder geval een soort stap wordt gezet om na te denken.

188
00:12:29,479 --> 00:12:31,319
Oké, maar hoe heeft dit impact op mijn werk?

189
00:12:32,599 --> 00:12:36,139
Want in het algemeen is de reactie, maar daar heb ik niks mee te maken.

190
00:12:36,299 --> 00:12:44,099
Ik werk niet met persoonsgegevens of mensen direct.

191
00:12:45,099 --> 00:12:46,159
Dus dan maakt het niet uit.

192
00:12:46,319 --> 00:12:47,299
Omdat ze software ontwikkelen.

193
00:12:47,609 --> 00:12:50,079
Ja, vaak bekend.

194
00:12:50,589 --> 00:12:51,579
Dus dat maakt het toch niet uit.

195
00:12:52,899 --> 00:12:54,099
En daar ben ik het niet mee eens.

196
00:12:54,739 --> 00:12:55,099
Omdat?

197
00:12:56,099 --> 00:12:58,079
Omdat het ergens begint.

198
00:12:58,099 --> 00:13:01,319
En een back-end systeem, dat praat vaak tegen een front-end systeem.

199
00:13:01,439 --> 00:13:05,539
En uiteindelijk bouwen we bijna alles voor onze maatschappij.

200
00:13:06,739 --> 00:13:07,379
Is mijn beeld.

201
00:13:07,579 --> 00:13:07,859
Zeker.

202
00:13:09,519 --> 00:13:11,799
Wij willen als Info Support ook impact maken.

203
00:13:12,379 --> 00:13:14,019
En dat is ook maatschappelijke impact.

204
00:13:14,979 --> 00:13:19,819
En hoe zou die bias dan door kunnen druppelen in de software die je maakt?

205
00:13:22,279 --> 00:13:24,138
Voor alles maak je bepaalde keuzes.

206
00:13:25,039 --> 00:13:32,779
Dus ik denk, het is natuurlijk nog steeds wel afhankelijk welk systeem je mee werkt.

207
00:13:32,979 --> 00:13:40,579
Maar ik denk, bepaalde keuzes die je beïnvloedt later in de keten, dat begint al heel vroeg.

208
00:13:40,679 --> 00:13:44,799
Dus dan geef je al bepaalde data of kennis mee.

209
00:13:46,639 --> 00:13:49,419
Waar ik zelf aan zit te denken, is bijvoorbeeld je testdata.

210
00:13:52,359 --> 00:13:56,159
Vaak maak je, zeker in het begin maak je zelf synthetische testdata.

211
00:13:57,959 --> 00:14:00,939
Daar kan je gewoon een blinde vlek hebben in wat je niet test.

212
00:14:01,069 --> 00:14:05,319
Je zegt net al dat we heel snel denken in die binaire vormen.

213
00:14:06,139 --> 00:14:10,539
Als je allerlei formulieren maakt, misschien juist om persoonsgegevens wel te krijgen,

214
00:14:11,929 --> 00:14:12,839
dat je dat vergeet.

215
00:14:13,399 --> 00:14:15,259
En dat je dat ook vergeet op de testen bijvoorbeeld.

216
00:14:15,739 --> 00:14:18,459
Ja, en ik denk, dan gaan we even naar een stukje requirements engineering.

217
00:14:18,759 --> 00:14:21,579
Daar waren ook AI best wel wat ingezet om wat voor vragen moet ik stellen.

218
00:14:22,059 --> 00:14:25,659
Ik denk dat daar best wel een bepaalde richting misschien wel onderbelicht is.

219
00:14:26,739 --> 00:14:28,619
Wat moet het systeem wel of niet aankunnen inderdaad?

220
00:14:29,219 --> 00:14:30,099
Ja, zeker weten.

221
00:14:30,839 --> 00:14:32,939
Ik denk dat het een heel mooi voorbeeld is wat je geeft,

222
00:14:33,019 --> 00:14:36,459
dat synthetische data genereren, maar ook testdata.

223
00:14:37,679 --> 00:14:40,399
Het kan dus ook juist daarvoor heel goed gebruikt worden

224
00:14:40,979 --> 00:14:43,199
om diversiteit te introduceren.

225
00:14:44,779 --> 00:14:48,679
Ik denk als je inderdaad zonder na te denken zegt, geef me data,

226
00:14:49,539 --> 00:14:53,079
dan zal het inderdaad dezelfde oordeling nog steeds hebben.

227
00:14:54,299 --> 00:14:58,339
Maar als je daar dus juist gaat prompten, oké, maar ik wil zoveel representatie,

228
00:14:58,619 --> 00:15:02,639
dit, dat, zus, zo en ook de vraag in het gaat stellen, wat vergeet ik nu nog?

229
00:15:03,398 --> 00:15:06,999
Of wat kan ik nog meer raken buiten waar ik nu aan denk?

230
00:15:07,639 --> 00:15:11,519
Dat je daardoor juist betere representatie in je synthetische data kan krijgen.

231
00:15:11,799 --> 00:15:11,939
Precies.

232
00:15:12,889 --> 00:15:16,259
Ze waren hier bezig voor een evenement om een applicatie te maken,

233
00:15:16,679 --> 00:15:21,239
Waarbij gebruik werd gemaakt van foto's van deelnemers.

234
00:15:22,539 --> 00:15:24,239
En daar werd een transformatie gedaan.

235
00:15:24,479 --> 00:15:25,879
Ik zal je de details besparen.

236
00:15:27,799 --> 00:15:29,899
Maar daarvan hebben we ook gekeken.

237
00:15:31,299 --> 00:15:35,918
Test nou met allerlei verschillende foto's.

238
00:15:36,799 --> 00:15:39,579
En die zijn natuurlijk heel moeilijk om die te krijgen.

239
00:15:39,759 --> 00:15:41,419
Maar als je dat met synthetische data doet.

240
00:15:41,479 --> 00:15:45,979
Dan kan je inderdaad zeggen van verschillende genders.

241
00:15:46,339 --> 00:15:53,899
Verschillende huidskleuren, verschillende leeftijden, gezichtsvormen, haar en dracht.

242
00:15:54,919 --> 00:16:00,159
Dus dat kan je dan heel erg helpen om daarmee ook daadwerkelijk je applicatie gewoon te verbeteren.

243
00:16:00,519 --> 00:16:09,999
Het is niet alleen maar het voorkomen van bias, maar ook gewoon kwalitatief betere producten leveren.

244
00:16:10,479 --> 00:16:11,979
Of zie je dat anders?

245
00:16:12,329 --> 00:16:13,399
Nee, klopt inderdaad.

246
00:16:14,199 --> 00:16:21,979
En het is wel interessant, want ik was vorige week bij een conferentie over AI fairness en ethiek in de AI in Brussel.

247
00:16:21,989 --> 00:16:28,939
En daar was ook een praatje dat ging over hoe ze de synthetische daten hebben gebruikt in de medische sector.

248
00:16:30,179 --> 00:16:41,519
Waarbij ze voor een bepaalde huidaandoening gebruikten om meerdere huidskleuren te krijgen.

249
00:16:41,779 --> 00:16:43,939
Want ze waren gebaseerd in Italië.

250
00:16:44,459 --> 00:16:47,259
Daar hadden ze dus voornamelijk lichte huidskleuren.

251
00:16:47,399 --> 00:16:48,559
Of in ieder geval lichte tint.

252
00:16:48,769 --> 00:16:49,919
Maar niet een hele range.

253
00:16:50,029 --> 00:16:54,119
Of in ieder geval dat het kleinere hoeveelheden waren.

254
00:16:54,459 --> 00:16:56,039
Met echt donkere huidskleuren.

255
00:16:57,419 --> 00:17:00,059
En door dus synthetische data te gebruiken.

256
00:17:00,539 --> 00:17:06,098
Konden ze daarmee veel beter ook de juiste huidaandoeningen vinden.

257
00:17:06,579 --> 00:17:07,579
Bij verschillende mensen.

258
00:17:07,839 --> 00:17:11,699
Dus daarmee zag je echt dat het het product ook verbeterde op die manier.

259
00:17:13,459 --> 00:17:15,019
Ja, gevoelsmatig zit het dus echt.

260
00:17:16,259 --> 00:17:18,259
Je legt toe, het zit erin, de bias.

261
00:17:18,719 --> 00:17:20,839
We denken niet altijd bewust over na.

262
00:17:21,458 --> 00:17:23,799
Je spreekt collega's, dus die hebben het ook niet door.

263
00:17:24,279 --> 00:17:28,239
Hoe krijgen we het uit die mist dat mensen er hiervan moeten weten?

264
00:17:28,578 --> 00:17:29,698
En wat kunnen ze eraan doen?

265
00:17:31,179 --> 00:17:33,938
Ik denk, ik vind dat altijd een moeilijke vraag.

266
00:17:34,019 --> 00:17:34,839
Wat kan je eraan doen?

267
00:17:35,078 --> 00:17:40,639
Want uiteindelijk denk ik dat ook een stuk verantwoordelijkheid bij de big tech nog steeds ligt.

268
00:17:41,279 --> 00:17:43,259
Daar zit echt het probleem.

269
00:17:45,739 --> 00:17:48,299
Maar dus hoe kunnen mensen er dagelijks mee omgaan?

270
00:17:49,499 --> 00:17:50,359
Zit ik zelf echt te kijken.

271
00:17:50,419 --> 00:17:52,119
Je wilt niet elke keer je prompt aanpassen.

272
00:17:52,119 --> 00:17:56,299
Want met hoe je je prompt opstelt, kan je echt veel betere resultaten krijgen.

273
00:17:57,939 --> 00:18:06,099
Nu kan je in bijvoorbeeld ChatGPT, maar ook in Copilot en ik denk ook wel andere generative AI systemen van die projecten aanmaken.

274
00:18:06,759 --> 00:18:09,379
En daar kan je bepaalde instructies, werkinstructies meegeven.

275
00:18:10,279 --> 00:18:14,699
En ik denk als je daar al heel duidelijk aangeeft, dit is wat ik wil dat je wel doet, niet doet.

276
00:18:16,459 --> 00:18:22,259
Een stuk ethiek meegeven, dus ook daar bronnen in meegeven van ik wil dat je je zo gedraagt.

277
00:18:23,499 --> 00:18:27,039
Dat je eigenlijk al heel veel betere antwoorden krijgt.

278
00:18:27,299 --> 00:18:30,019
Zonder dat je ook bij elke prompt weer opnieuw hoeft na te denken.

279
00:18:30,839 --> 00:18:33,039
Oh, maar ik wil dat je eerlijk bent, ik wil dat je ethisch bent.

280
00:18:33,159 --> 00:18:35,699
Want op een gegeven moment word je daar ook moe van, natuurlijk.

281
00:18:35,959 --> 00:18:41,879
Ja, maar wat ik wel lastig vind, als je zou zeggen van gedraag je ethisch.

282
00:18:43,739 --> 00:18:46,179
Er is geen vast kader wat ethisch gedrag is.

283
00:18:46,379 --> 00:18:51,219
Dat is heel erg genomeerd door de maatschappij en door jezelf eigenlijk.

284
00:18:51,859 --> 00:18:55,739
Dus hoe weet dan het taalmodel wat jouw ethisch kader is?

285
00:18:56,839 --> 00:19:01,099
Ik denk dat je dat, kijk dat is sowieso denk ik iets wat je voor jezelf over na moet denken.

286
00:19:01,699 --> 00:19:05,419
Wat vind ik nou eigenlijk belangrijk? Welke normen en waarden vind ik belangrijk?

287
00:19:05,639 --> 00:19:08,639
Want misschien zijn mijn normen en waarden wel anders dan die van jou.

288
00:19:08,959 --> 00:19:11,299
Zeker. Bijna gegarandeerd, denk ik.

289
00:19:13,579 --> 00:19:17,639
Dus dat zijn ook zaken waar je bij jezelf moet nagaan.

290
00:19:17,719 --> 00:19:19,479
Vind ik dit eigenlijk überhaupt belangrijk of niet?

291
00:19:20,579 --> 00:19:25,399
En natuurlijk probeer ik daarom dit gesprek aan te gaan met dit is wel belangrijk.

292
00:19:25,699 --> 00:19:28,539
Ook als het jou niet direct raakt, raakt het andere wel.

293
00:19:28,759 --> 00:19:30,359
Ik denk dat dat ook een belangrijk iets is.

294
00:19:32,959 --> 00:19:34,879
Dus dat je dat dan goed kan formuleren.

295
00:19:36,499 --> 00:19:37,739
wat wil je dat het meeneemt

296
00:19:37,829 --> 00:19:40,119
dus inderdaad wat gespecificeerder

297
00:19:40,239 --> 00:19:41,539
dan alleen maar wees ethisch

298
00:19:41,679 --> 00:19:43,999
en voor de luisteraar

299
00:19:44,189 --> 00:19:46,039
zou je daar drie voorbeelden

300
00:19:46,039 --> 00:19:47,759
van kunnen noemen wat jij in je prompt

301
00:19:47,789 --> 00:19:48,159
hebt staan

302
00:19:49,779 --> 00:19:52,119
oeh dat vind ik een lastige

303
00:19:52,559 --> 00:19:52,619
ja

304
00:19:53,839 --> 00:19:55,959
omdat het te persoonlijk is of om dat nu

305
00:19:56,139 --> 00:19:56,599
op te lepelen

306
00:19:56,689 --> 00:19:57,979
nee om dat nu op te lepelen

307
00:19:58,249 --> 00:19:58,359
dus

308
00:20:00,399 --> 00:20:02,439
ja ik weet niet hoe ik dat specifiek

309
00:20:03,979 --> 00:20:04,859
heb benoemd

310
00:20:04,879 --> 00:20:09,599
Maar ik denk dat ik sowieso in de breedste zin gewoon voorkom bias.

311
00:20:10,819 --> 00:20:12,259
En dat is inderdaad nog heel breed.

312
00:20:14,539 --> 00:20:20,419
Maar zo maak je het in ieder geval ook inclusief genoeg dat je bewust bent dat er verschillende biases zijn.

313
00:20:20,699 --> 00:20:25,859
Ik focus nu heel erg op de genderbias, omdat dat mij persoonlijk gewoon het meeste raakt.

314
00:20:26,339 --> 00:20:27,419
En daardoor iets met me doet.

315
00:20:29,459 --> 00:20:33,039
Maar je hebt natuurlijk ook leeftijdsbias, is echt een ding.

316
00:20:35,199 --> 00:20:36,159
we weten het eigenlijk ook allemaal

317
00:20:36,339 --> 00:20:38,139
maar je huidskleur

318
00:20:38,139 --> 00:20:39,799
je afkomst, dergelijke

319
00:20:40,939 --> 00:20:42,099
dus als je dat ook kan

320
00:20:42,599 --> 00:20:44,059
specificeren van oké, dit wil ik allemaal

321
00:20:44,779 --> 00:20:45,139
exclusie

322
00:20:45,699 --> 00:20:47,039
hoe zeg je dat? Excluderen

323
00:20:48,179 --> 00:20:49,399
uitsluiten? Ja, precies

324
00:20:50,239 --> 00:20:52,099
ik denk dat dat al een hele goede stap is

325
00:20:53,739 --> 00:20:54,299
en misschien

326
00:20:54,389 --> 00:20:56,379
ook het woordgebruik dat je daarop stuurt

327
00:20:56,389 --> 00:20:58,739
ik wil een genderloos woordgebruik

328
00:20:59,339 --> 00:21:00,319
ik denk dat dat al best wel veel

329
00:21:02,699 --> 00:21:03,059
uitmaakt

330
00:21:03,819 --> 00:21:05,159
Als ik dan even probeer te bedenken.

331
00:21:05,239 --> 00:21:06,659
Hoe doe ik dat nou eigenlijk?

332
00:21:07,239 --> 00:21:08,339
Omdat we het hier nu over hebben.

333
00:21:09,219 --> 00:21:10,619
Ik probeer altijd de context.

334
00:21:11,919 --> 00:21:12,419
Voor het project.

335
00:21:12,659 --> 00:21:14,239
Of voor het vraagstuk wat je hebt.

336
00:21:14,799 --> 00:21:15,799
Ver genoeg uit te breiden.

337
00:21:15,899 --> 00:21:18,619
En ook continu mee te nemen.

338
00:21:18,699 --> 00:21:20,239
Dat je zelf gechallenged moet worden.

339
00:21:20,539 --> 00:21:22,319
Dus challenge mij op wat er nog niet.

340
00:21:23,459 --> 00:21:24,279
In de tekst staat.

341
00:21:24,459 --> 00:21:26,899
Of bepaalde beelden nog niet helemaal dekt.

342
00:21:26,979 --> 00:21:28,039
Of het proces nog niet helemaal dekt.

343
00:21:28,219 --> 00:21:28,959
Dus de white noise.

344
00:21:29,939 --> 00:21:31,099
Die je zelf meestal niet spot.

345
00:21:31,319 --> 00:21:33,039
Om dat eigenlijk er ook proberen uit te halen.

346
00:21:33,359 --> 00:21:34,079
Dat helpt mij al.

347
00:21:34,679 --> 00:21:35,939
Niet zozeer de gender bias.

348
00:21:36,259 --> 00:21:37,459
Maar daar ga ik wel vaker op letten.

349
00:21:39,119 --> 00:21:39,939
Dus echt heel goed.

350
00:21:40,079 --> 00:21:40,859
Welk doel wil ik bereiken?

351
00:21:41,219 --> 00:21:42,159
Wat is de context die ik heb?

352
00:21:42,839 --> 00:21:43,859
Dat is de context die ik heb.

353
00:21:44,279 --> 00:21:44,979
Maar wat mist er nog?

354
00:21:45,899 --> 00:21:47,899
En die vraag regelmatig te stellen.

355
00:21:48,099 --> 00:21:50,079
En dat weer mee te nemen in mijn prompt.

356
00:21:50,159 --> 00:21:51,619
Of in ieder geval in mijn flow.

357
00:21:52,399 --> 00:21:54,919
En heb je ook het gevoel dat je erin gechallenged wordt?

358
00:21:55,859 --> 00:21:58,199
Dat hangt heel erg af van de situatie inderdaad.

359
00:21:58,219 --> 00:21:58,959
En wat er gesteld is.

360
00:21:59,119 --> 00:22:01,219
Ik denk dat het vaak nog positief is.

361
00:22:01,419 --> 00:22:05,159
En ik best wel nadrukkelijk semi-boos moet worden.

362
00:22:05,319 --> 00:22:07,199
Om te zeggen, wees nou eens wat strenger inderdaad.

363
00:22:08,459 --> 00:22:09,739
En zo vanochtend nog.

364
00:22:09,809 --> 00:22:16,519
Ik doe altijd voor de luisteraars die weten dat ik altijd op de ochtend van tevoren nog even met ChatGPT en voice modus even de gesprekken van vandaag voorbereid.

365
00:22:17,219 --> 00:22:20,619
En ik moest echt boos worden inderdaad om tot jouw persoon te blijven.

366
00:22:20,689 --> 00:22:23,739
En dat die niet ging raaskakelen over het hele onderwerp daarbij.

367
00:22:25,279 --> 00:22:26,459
En dat had eigenlijk helemaal geen effect.

368
00:22:26,489 --> 00:22:27,139
Kom ik ook achter.

369
00:22:28,719 --> 00:22:30,399
Ik heb al te duur het gesprek gestopt.

370
00:22:31,459 --> 00:22:33,759
Ja, want ik vind dat het altijd een hele grote cheerleader is.

371
00:22:33,809 --> 00:22:37,139
Nou, ik weet dat sommige mensen er allergisch voor zijn.

372
00:22:38,139 --> 00:22:39,679
Ik vind die vierden wel leuk.

373
00:22:40,359 --> 00:22:40,699
Dankjewel.

374
00:22:40,749 --> 00:22:43,599
Ik vind inderdaad ook dat mijn ideeën enorm goed zijn.

375
00:22:45,019 --> 00:22:46,459
Maar dat vind ik wel een hele uitdaging.

376
00:22:47,699 --> 00:22:51,139
Want je wilt er inderdaad kritisch mee blijven en gechallenged worden.

377
00:22:51,149 --> 00:22:53,379
En ik denk dat daar heel goed voor zou kunnen zijn.

378
00:22:54,699 --> 00:22:57,219
Maar omdat het zo positief ook is ingesteld.

379
00:22:57,439 --> 00:23:00,279
En dat is eigenlijk ook wat ik eerder bedoelde met je kan niet aan die knoppen draaien.

380
00:23:01,259 --> 00:23:05,179
Want anders zou jij misschien hebben ingesteld van wees maar zo kritisch als maar kan.

381
00:23:05,369 --> 00:23:09,979
Ja, ik wil echt graag een kriticaster inderdaad die gewoon continu de discussie opzoekt.

382
00:23:10,479 --> 00:23:12,979
En dan het liefst nog wel in de positieve tonen, want dat vind ik toch fijn.

383
00:23:13,559 --> 00:23:15,979
Een andere is dat je natuurlijk ook proactief...

384
00:23:17,419 --> 00:23:22,519
Kijk, in de prompt wordt heel vaak gezegd, je kan ChatGPT in een rol zetten.

385
00:23:24,239 --> 00:23:26,099
Ik gebruik het niet al te vaak, moet ik zeggen.

386
00:23:26,759 --> 00:23:28,059
Omdat het vaak niet meer nodig is.

387
00:23:28,089 --> 00:23:31,419
Maar als je juist die gender zelf wil bepalen.

388
00:23:31,999 --> 00:23:36,079
Is het natuurlijk heel makkelijk om juist de rol te geven.

389
00:23:36,219 --> 00:23:37,419
Nu wil ik het vanuit een man.

390
00:23:37,529 --> 00:23:38,519
Nu wil ik het vanuit een vrouw.

391
00:23:38,539 --> 00:23:40,299
Nu wil ik het misschien non-binair.

392
00:23:41,459 --> 00:23:42,939
Dus je kan er ook heel expliciet in zijn.

393
00:23:43,819 --> 00:23:47,199
Ja, al draagt dat denk ik ook weer risico's met zich mee.

394
00:23:47,619 --> 00:23:47,979
Zeker.

395
00:23:48,039 --> 00:23:50,859
Want ook daarbij komen dus bepaalde oordelen.

396
00:23:50,969 --> 00:23:53,319
Maar als jij vanuit een vrouw nadenkt.

397
00:23:53,409 --> 00:23:55,659
Oh, dan zal je wel ABC.

398
00:23:57,219 --> 00:23:58,679
Ik denk dat ik het verkeerd verwoord.

399
00:23:58,779 --> 00:23:59,619
Het is niet nadenkt.

400
00:23:59,789 --> 00:24:01,999
Maar dat je gewoon zegt van...

401
00:24:03,599 --> 00:24:08,199
Stel, ik zou een voorbeeld willen schrijven over een Product Owner.

402
00:24:08,419 --> 00:24:09,039
Hoe die met iets gaat.

403
00:24:09,599 --> 00:24:12,459
Dan kan ik gewoon zeggen van Product Owner en die geef ik een naam.

404
00:24:12,559 --> 00:24:14,119
En dat zou dan bijvoorbeeld een vrouw kunnen zijn.

405
00:24:14,519 --> 00:24:17,559
Waardoor er gewoon zij en ze en haar gezegd wordt.

406
00:24:17,689 --> 00:24:22,539
Om niet altijd een leidinggevende in een mannenrol te zetten.

407
00:24:23,299 --> 00:24:30,559
Dus dan gaat het nog niet eens over karakter-eigenschappen, maar gewoon dat er niet altijd alleen maar hij en hem staat.

408
00:24:31,739 --> 00:24:34,279
Ja, oké. Nee, ik vat er dan ook een beetje op inderdaad.

409
00:24:34,379 --> 00:24:36,139
Nee, dan had ik het echt verkeerd gezegd.

410
00:24:36,149 --> 00:24:36,439
Ja, nee.

411
00:24:40,659 --> 00:24:43,519
En ik kan niet bedenken hoe een vrouw dingen denkt.

412
00:24:44,459 --> 00:24:45,499
Ja, nee.

413
00:24:47,359 --> 00:24:51,478
Ik denk dat het wel interessant kan zijn, want ik denk juist vanuit die verschillende perspectieven

414
00:24:51,499 --> 00:24:55,419
heb je dan misschien wel een compleet beeld van verschillende persoonlijkheden.

415
00:24:55,449 --> 00:24:58,239
Want ik denk dat elk persoon bepaalde karaktereigenschappen kan hebben.

416
00:24:58,289 --> 00:25:02,139
Of het nou mannelijk, vrouwelijk of wat dan ook gelabeld wordt.

417
00:25:03,099 --> 00:25:05,859
Maar door het in ieder geval vanuit verschillende hoeken uit te lichten,

418
00:25:05,929 --> 00:00:00,000
 424
00:25:37,739 --> 00:25:43,279
00:25:37,739 --> 00:25:43,279
Een van de vragen die ik wel vaker stel is dat mensen maken natuurlijk fouten.

425
00:25:44,079 --> 00:25:45,359
En de gen AI ook.

426
00:25:47,279 --> 00:25:55,139
Houden we hier de technologie, verwachten we daar meer van dan de fouten die we als mens maken?

427
00:25:55,139 --> 00:25:56,679
Want we hebben natuurlijk stereotypen.

428
00:25:57,339 --> 00:26:00,999
Ik denk in ons dagelijks gebruik zitten overal vooroordelen.

429
00:26:01,079 --> 00:26:04,079
Dus we zijn nooit oordeelvrij.

430
00:26:04,299 --> 00:26:05,499
Laat staan vooroordeelvrij.

431
00:26:07,819 --> 00:26:13,619
Dus houden we de technologie tegen een hogere standaard aan dan die we van mensen verwachten?

432
00:26:14,439 --> 00:26:15,179
Dat denk ik wel.

433
00:26:15,579 --> 00:26:17,579
En ik denk ook wel dat dat terecht is eigenlijk.

434
00:26:17,999 --> 00:26:22,559
Want mensen gebruiken het steeds meer ook als een vervanging van een Google.

435
00:26:23,649 --> 00:26:31,979
En daar krijg je een lijst met mogelijkheden van artikelen of iets waarvoor je gezocht hebt.

436
00:26:32,069 --> 00:26:36,759
Om dat zelf vervolgens te selecteren met klopt dit of klopt dit niet.

437
00:26:37,719 --> 00:26:45,099
Terwijl als je nu een vraag stelt aan chat en die geeft een heel mooi antwoord en die verkoopt het als de waarheid.

438
00:26:46,399 --> 00:26:47,719
en dat is ook hoeveel mensen

439
00:26:47,919 --> 00:26:49,819
dan toch geneigd zijn om

440
00:26:50,079 --> 00:26:51,759
op te vatten, dus je moet zelf

441
00:26:51,839 --> 00:26:53,639
heel kritisch blijven nadenken, klopt dit

442
00:26:53,719 --> 00:26:55,839
of klopt dit niet, ben ik het hier mee eens of ben ik het

443
00:26:55,839 --> 00:26:57,999
hier niet mee eens, maar ik denk

444
00:26:58,259 --> 00:26:59,239
met de manier waarop het

445
00:26:59,999 --> 00:27:01,119
gerepresenteerd wordt en hoe

446
00:27:01,999 --> 00:27:03,199
overtuigend het kan zijn

447
00:27:04,779 --> 00:27:05,579
dat het daardoor

448
00:27:06,219 --> 00:27:07,799
moeilijk is om zelf

449
00:27:08,298 --> 00:27:09,219
kritisch te blijven

450
00:27:09,799 --> 00:27:11,719
en je kan dus ook niet kiezen voor

451
00:27:12,119 --> 00:27:13,758
oh, maar hier ben ik het niet helemaal mee eens

452
00:27:13,779 --> 00:27:19,059
Dus ik ga even naar het volgende antwoord of het volgende perspectief ook eigenlijk.

453
00:27:20,259 --> 00:27:26,139
Dus ik denk dat daar wel het gevaar zit dat als hier een fout in zit wat logisch is.

454
00:27:26,289 --> 00:27:28,319
Wat inderdaad, mensen maken ook fouten.

455
00:27:29,419 --> 00:27:34,779
Maar met zo'n systeem, als mensen daar verder op bouwen en hun kennis daar op doen.

456
00:27:36,779 --> 00:27:38,739
Dan is er daar een gevaar in denk ik.

457
00:27:41,339 --> 00:27:46,619
Wat me net ontschoot, nog even terug naar die prompt en eigenlijk van dat het je helpt.

458
00:27:46,999 --> 00:27:50,819
Er zijn natuurlijk ook bedrijven of sectoren die gewoon ethische kaders hebben.

459
00:27:51,659 --> 00:27:57,359
Dus ik weet het Verbond voor Verzekeraars heeft bijvoorbeeld een ethisch kader opgesteld voor haar leden.

460
00:27:58,659 --> 00:28:05,479
Dat zijn typisch stukken die je in je standaardinstructies mee kan nemen, kan uploaden.

461
00:28:05,919 --> 00:28:10,959
En dat je kan zeggen van ja, alles wat geschreven wordt, toetst dat aan die ethische kaders.

462
00:28:11,779 --> 00:28:13,179
is dat foutloos? Ik denk het niet.

463
00:28:13,449 --> 00:28:15,139
Dus je moet daar dan ook heel goed naar kijken.

464
00:28:15,639 --> 00:28:17,219
Maar dat soort kaders kunnen je helpen.

465
00:28:17,279 --> 00:28:19,259
Dus als je kaders hebt binnen je organisatie

466
00:28:20,859 --> 00:28:21,579
helpt het om

467
00:28:21,669 --> 00:28:22,259
in ieder geval

468
00:28:23,299 --> 00:28:25,299
als een vangnet voor de dingen die je doet.

469
00:28:26,499 --> 00:28:27,519
Ja, ik denk dat het ook

470
00:28:27,639 --> 00:28:28,739
namelijk altijd afhankelijk is

471
00:28:29,359 --> 00:28:31,599
per use case. Dus precies wat je nu noemt

472
00:28:31,639 --> 00:28:33,659
als je in die verzekeringen zit

473
00:28:33,959 --> 00:28:35,019
dan is dat een heel mooi

474
00:28:36,399 --> 00:28:37,619
systeem wat je ook kan gebruiken.

475
00:28:40,259 --> 00:28:40,979
Als het

476
00:28:40,999 --> 00:28:42,379
misschien net wat andere zaken.

477
00:28:42,589 --> 00:28:44,399
Wil je het misschien ook aanscherpen? Precies.

478
00:28:44,659 --> 00:28:46,939
Ik heb zelf een project

479
00:28:47,119 --> 00:28:48,459
gestart waar ik ook al deze vragen

480
00:28:49,659 --> 00:28:51,019
eigenlijk rondom, dus die

481
00:28:51,819 --> 00:28:52,939
bias in AI

482
00:28:53,179 --> 00:28:54,199
en ethische AI.

483
00:28:55,359 --> 00:28:57,019
Nou, daar heb ik ook bijvoorbeeld de AI Act

484
00:28:57,439 --> 00:28:58,779
ingeladen, omdat ik wil van

485
00:28:59,349 --> 00:29:01,019
ja, je moet hier aan voldoen ook.

486
00:29:01,299 --> 00:29:02,999
En je moet eerlijk en transparant

487
00:29:03,199 --> 00:29:04,979
zijn. En wat voor mij heel

488
00:29:05,209 --> 00:29:07,219
belangrijk is, daar heb ik dus wel meegegeven

489
00:29:07,319 --> 00:29:08,999
van, ik wil dat je een onderzoeker bent. En geef

490
00:29:09,019 --> 00:29:11,719
of ook alle bronnen waar je dit vandaan haalt.

491
00:29:11,979 --> 00:29:13,479
Zodat ik zelf nog kan gaan factchecken.

492
00:29:14,139 --> 00:29:15,159
Klopt het wat je zegt?

493
00:29:15,419 --> 00:29:16,959
Komt het ook echt ergens vandaan?

494
00:29:17,039 --> 00:29:18,719
In plaats van dat je nu iets bent gaan verzinnen.

495
00:29:19,959 --> 00:29:25,519
Ik hoor de hele tijd een beetje een strijd tussen gemak, snelheid en kritisch blijven.

496
00:29:26,059 --> 00:29:27,559
En ik denk dat dat is...

497
00:29:27,559 --> 00:29:31,359
Kijk, zo gauw je je snelheid nodig hebt, leun je heel snel op gemak.

498
00:29:31,679 --> 00:29:32,519
En vergeet je dingen.

499
00:29:32,759 --> 00:29:34,479
Daarom is het ook fijn als er een vang...

500
00:29:34,679 --> 00:29:36,539
Dus als je dat standaard hebt ingesteld...

501
00:29:38,139 --> 00:29:40,139
dat je daar altijd op geattendeerd wordt.

502
00:29:40,349 --> 00:29:43,339
Ja, en ik denk dat die vangnetten nog niet door iedereen worden gebruikt.

503
00:29:43,719 --> 00:29:47,859
En dat mensen het besef niet hebben, omdat het een beetje onder het gespreksstof ligt.

504
00:29:48,379 --> 00:29:51,099
En dat het belangrijk is dat dit soort gesprekken dus vaker gevoerd worden.

505
00:29:51,719 --> 00:29:54,279
En dat mensen weten dat het gemak tegen een prijs kan komen.

506
00:29:54,379 --> 00:29:56,299
En dat je daar niet voor car sales voor kan inzetten.

507
00:29:56,839 --> 00:29:58,279
Maar dat je er dus echt op moet letten.

508
00:30:00,339 --> 00:30:01,239
Doe je deze expres?

509
00:30:02,599 --> 00:30:05,419
Nee, deze was niet expres, maar ik zie je wel echt in de knop gaan.

510
00:30:05,679 --> 00:30:05,979
Ja, daarom.

511
00:30:06,259 --> 00:30:07,419
Over gesprekken gesproken.

512
00:30:07,639 --> 00:30:11,479
Dus we hebben van hier gespreksstarters met stellingen.

513
00:30:11,559 --> 00:30:16,259
En het leuke is, we krijgen nu een stelling die is ingebracht door een van onze vorige gasten.

514
00:30:30,179 --> 00:30:32,439
Ja, en deze stelling is van Jozien Boetje.

515
00:30:32,819 --> 00:30:34,559
Heb je de aflevering van Jozien nog niet geluisterd?

516
00:30:34,659 --> 00:30:35,579
luister je zeker even terug.

517
00:30:36,449 --> 00:30:38,119
En haar stelling luidt als volgt.

518
00:30:39,219 --> 00:30:40,979
AI maakt ons slimmer

519
00:30:42,279 --> 00:30:46,159
totdat we vergeten hoe we het zelf moeten bedenken.

520
00:30:48,538 --> 00:30:49,059
Interessant.

521
00:30:50,959 --> 00:30:52,619
Waar ik zelf meteen aan moet denken,

522
00:30:53,439 --> 00:30:55,039
ik heb het zelf nog niet kunnen factchecken.

523
00:30:55,139 --> 00:30:57,959
Ik denk dat dat een goede is om te noemen.

524
00:30:59,199 --> 00:31:01,339
Maar ook in eerdere podcast heb ik gehoord van

525
00:31:01,499 --> 00:31:03,779
oké, we worden juist dommer.

526
00:31:04,479 --> 00:31:05,019
Van AI.

527
00:31:05,739 --> 00:31:11,239
Juist omdat we heel veel taken uitbesteden.

528
00:31:12,039 --> 00:31:13,419
Dus eigenlijk wil ik het net zelf noemen.

529
00:31:13,519 --> 00:31:17,379
Ik gebruik het om mijn zinnen te verbeteren.

530
00:31:18,379 --> 00:31:18,919
En dergelijke.

531
00:31:19,299 --> 00:31:22,359
Ik doe dat omdat mijn zinnen al niet zo goed lopen.

532
00:31:23,019 --> 00:31:24,459
Maar het wordt ook niet beter van.

533
00:31:24,799 --> 00:31:27,419
Want ik ben er zelf niet meer met any skill bezig.

534
00:31:27,879 --> 00:31:32,659
Dus ik denk hoe meer je je in die zin uitbesteedt aan generative AI.

535
00:31:32,979 --> 00:31:35,359
om een taak voor jou even gemakkelijk, even snel te doen,

536
00:31:35,559 --> 00:31:38,459
betekent ook dat je die skill niet meer blijft ontwikkelen.

537
00:31:38,979 --> 00:31:42,219
Dus ik denk dat daar de vraag is, oké, wat is dommer worden?

538
00:31:43,319 --> 00:31:45,039
Maar ik vind dat echt wel een verlies van skills.

539
00:31:45,289 --> 00:31:49,119
Als dat betekent inderdaad dat hoe meer ik dat zelf minder doe,

540
00:31:49,609 --> 00:31:50,419
dan word ik daar dommer van.

543
00:31:57,229 --> 00:31:59,199
Maar in het onderwijs zit ook het systematiseren,

544
00:31:59,909 --> 00:32:02,599
dus het systematisch continu herhalen,

545
00:32:02,719 --> 00:32:05,699
Waardoor je het blijft leren en eigenlijk een aanpak voor kan creëren.

546
00:32:06,959 --> 00:32:10,399
En ik denk dat dat voor veel taken belangrijk is om te leren hoe je leert.

547
00:32:12,199 --> 00:32:15,179
Ik weet niet of het voor alle taken erg is als we daar wat dommer in worden.

548
00:32:15,239 --> 00:32:16,399
Om in die termen maar te gebruiken.

549
00:32:16,499 --> 00:32:18,759
Als we dat inderdaad weg kunnen automatiseren.

550
00:32:19,699 --> 00:32:25,999
Maar ik denk dat je wel moet beseffen wat er wordt weggegeven.

551
00:32:26,859 --> 00:32:30,139
Ik heb wel moeite met de termen slimmer en dommer.

552
00:32:32,639 --> 00:32:38,259
Want de vraag is of je sowieso slimmer wordt met deze technologie.

553
00:32:38,559 --> 00:32:40,199
Dus volgens mij helpt het je in iets.

554
00:32:40,719 --> 00:32:44,159
En het feit dat ik bepaalde vaardigheden zou kunnen verliezen.

555
00:32:45,699 --> 00:32:47,499
Laat ik het helemaal terughalen naar...

556
00:32:47,499 --> 00:32:53,319
Ik heb vroeger op de lagere school allerlei handarbeid zaken.

557
00:32:53,479 --> 00:32:55,719
Dus ik heb leren punnikken.

558
00:32:55,859 --> 00:32:58,159
Ik heb leren breien.

559
00:32:59,579 --> 00:33:00,379
Dat kan ik nu niet meer.

560
00:33:00,479 --> 00:33:02,219
Het zijn vaardigheden die ik ben verloren.

561
00:33:02,419 --> 00:33:03,979
Maakt mij dat dommer?

562
00:33:04,279 --> 00:33:06,239
Ik denk dat ik die vaardigheden niet meer heb.

563
00:33:07,219 --> 00:33:10,299
Dus ik geloof wel in het verlies van vaardigheden.

564
00:33:10,369 --> 00:33:12,259
Of het verkrijgen van vaardigheden.

565
00:33:13,259 --> 00:33:18,759
Maar maakt mij het slimmer als ik deze vaardigheden weer wel heb?

566
00:33:19,719 --> 00:33:25,459
Dus ben je slimmer als jij die zinnen wel handmatig schrijft?

567
00:33:27,179 --> 00:33:29,219
Dus het gaat om vaardigheden.

568
00:33:29,259 --> 00:33:39,519
En dus gaat het veel meer over, denk ik, de vraag, vind ik deze vaardigheid belangrijk, dat ik die behoud of dat ik die aanleer?

569
00:33:40,798 --> 00:33:50,559
En daarom vind ik termen als slimmer en dommer, daar zit een waardeoordeel in.

570
00:33:50,559 --> 00:33:56,999
Er zit een oordeel in, inderdaad. Dus ik vind het wel heel mooi, vaardigheden inderdaad. Heb ik deze vaardigheden nodig? Wil ik deze vaardigheden?

571
00:33:57,819 --> 00:34:02,619
Ik denk het in zekere mate dat je van sommige vaardigheden wel degelijk slimmer of dommer wordt.

572
00:34:03,499 --> 00:34:09,918
Want als dat vaardigheden zijn rondom redeneren, hoe redeneer ik om tot een bepaald antwoord te komen,

573
00:34:10,759 --> 00:34:14,619
dan maakt dat je slimmer of dommer als je die skill soort van verliest.

574
00:34:14,879 --> 00:34:17,059
En ook dat is iets wat we denk ik vaak uitbesteden.

575
00:34:18,339 --> 00:34:19,339
Goeie toevoeging.

576
00:34:19,458 --> 00:34:27,819
Ben ik het wel mee eens dat qua kennis, als het kennis opdoen is, ook daarbij, it depends.

577
00:34:28,119 --> 00:34:29,839
Ik denk dat dat altijd een mooi antwoord is.

578
00:34:31,199 --> 00:34:34,958
Want je kan er heel veel nieuwe kennis mee opdoen of tot nieuwe inzichten komen.

579
00:34:35,139 --> 00:34:36,438
En dat kan je slimmer maken.

580
00:34:36,679 --> 00:34:37,619
Dat denk ik zeker.

581
00:34:37,757 --> 00:34:39,978
En daar is het ook wel een goede tool voor, denk ik.

582
00:34:41,379 --> 00:34:44,199
Tegelijkertijd, als jij daardoor toch...

583
00:34:44,219 --> 00:34:46,538
Maar dan leer je de vaardigheid kennis opdoen.

584
00:34:46,757 --> 00:34:49,359
Ja, of het verrijken van jouw kennis.

585
00:34:49,839 --> 00:34:51,257
Het verbreden van jouw kennis.

586
00:34:51,768 --> 00:34:54,679
Dat hoeft niet slimmer of dommer te zijn, maar dat is misschien het oordeel.

587
00:34:54,899 --> 00:34:56,618
Nee, maar we hoeven niet...

588
00:34:58,699 --> 00:35:02,079
Dus ik denk dat het daarmee in ieder geval iets kan brengen en kan toevoegen.

589
00:35:04,879 --> 00:35:08,979
Tegelijkertijd, daarmee moet je dan wel het juiste hebben opgepikt.

590
00:35:09,359 --> 00:35:11,599
Want het kan je dus ook op het verkeerde been zetten.

591
00:35:12,719 --> 00:35:14,159
Sommige mensen zeggen het liegt.

592
00:35:14,519 --> 00:35:17,459
Ik denk niet dat het liegt, maar het vertelt wel onwaarheden.

593
00:35:18,739 --> 00:35:19,859
En dan een persoonlijke vraag.

594
00:35:20,179 --> 00:35:24,559
Welke vaardigheden heb jij zien afdalen na het gebruik van AI persoonlijk?

595
00:35:24,879 --> 00:35:25,579
Of zien groeien?

596
00:35:25,999 --> 00:35:27,139
Net hoe je hem wil inzetten.

597
00:35:29,959 --> 00:35:34,099
Ik denk echt wel dat als ik nu zelf een goede professionele mail moet opstellen,

598
00:35:34,479 --> 00:35:37,859
dat dat slechter is dan toen ik misschien net van de middelbare kwam.

599
00:35:38,259 --> 00:35:40,499
Waar je dat nog wel enigszins geleerd kreeg.

600
00:35:42,179 --> 00:35:43,879
Dus dat is er niet beter op geworden.

601
00:35:44,219 --> 00:35:45,579
Ja, schattig. En vind je dat erg?

602
00:35:48,559 --> 00:35:49,119
Goeie vraag.

603
00:35:50,519 --> 00:35:55,419
Ik vind het jammer dat ik er voor mijn gevoel daardoor bijna afhankelijk van word.

604
00:35:55,559 --> 00:36:01,619
Dus ik merk echt wel dat ook nu ik bijvoorbeeld laatst een berichtje voor een Halloweenfeestje naar mijn vrienden wilde sturen.

605
00:36:02,199 --> 00:36:04,339
Dat ik ook dacht, ik ga even deze tekst oppoetsen.

606
00:36:05,079 --> 00:36:07,839
En dat mijn partner meteen was van, wat ben je nou aan het doen?

607
00:36:09,259 --> 00:36:10,879
Zo klink jij helemaal niet.

608
00:36:11,059 --> 00:36:14,959
Dus het is ook een stukje persoonlijkheid wat daardoor weggaat.

609
00:36:15,959 --> 00:36:19,119
En ik denk dat dat misschien nog wel interessant is.

610
00:36:19,219 --> 00:36:22,459
Hoe graag willen we dat alles gewoon maar perfect is?

611
00:36:23,799 --> 00:36:27,539
En hoe erg is het als dingen niet perfect zijn, maar wel een stuk persoonlijker?

612
00:36:28,419 --> 00:36:32,279
Dat is zowel mails, maar ook mijn presentaties en mijn teksten daarvan.

613
00:36:33,079 --> 00:36:37,759
Hou ik vaak toch ook nog wel even door ChatGPT om te kijken van...

614
00:36:37,759 --> 00:36:39,719
Welke zin kan er nou net even wat soepeler?

615
00:36:40,539 --> 00:36:43,639
Maar daardoor verlies je misschien ook gewoon wel een stukje persoonlijkheid.

616
00:36:44,039 --> 00:36:45,119
Wat wel weer zonde kan zijn.

617
00:36:46,379 --> 00:36:47,939
Nou ja, ik zou zeggen wat zonde is.

618
00:36:48,479 --> 00:36:48,539
Ja.

619
00:36:49,239 --> 00:36:49,299
Ja.

620
00:36:50,119 --> 00:36:50,899
Nou, dat denk ik ook wel.

621
00:36:50,949 --> 00:36:51,059
Ja.

622
00:36:53,639 --> 00:36:57,859
Ik wil nog, we hebben ook een rubriek om te kijken van,

623
00:36:58,009 --> 00:37:02,259
ja maar stel je zou helemaal vrij mogen denken in vorm,

624
00:37:02,609 --> 00:37:04,999
of het technisch of niet haalbaar is, maakt eigenlijk niet uit.

625
00:37:05,259 --> 00:37:08,519
Maar wat zou nou je droom zijn met deze technologieën?

626
00:37:10,019 --> 00:37:13,019
De droom, een leven vol gemak.

627
00:37:14,079 --> 00:37:17,599
De technologie die alles doet waar we van dromen.

628
00:37:18,859 --> 00:37:21,939
Geen grenzen meer, niets houdt ons nog tegen.

629
00:37:23,279 --> 00:37:27,999
Het leven zoals wij het altijd wilden beleven.

630
00:37:30,419 --> 00:37:31,019
Heb je een idee?

631
00:37:31,999 --> 00:37:33,019
Ja, het is lastig.

632
00:37:36,439 --> 00:37:41,999
Voor mij, ideale plaatje, zitten er natuurlijk gewoon geen oordelen meer in.

633
00:37:42,019 --> 00:37:46,099
We hebben een volledig ethische vorm van AI.

634
00:37:46,619 --> 00:37:50,459
Tegelijkertijd, ik denk dat we gewoon heel kritisch moeten blijven kijken, waar zetten we dit in?

635
00:37:50,919 --> 00:37:55,919
En ik denk eigenlijk dat mijn droom is dat we het op de plekken waar het super nuttig is,

636
00:37:56,499 --> 00:38:02,079
ik denk in bepaalde medische toepassingen.

637
00:38:02,459 --> 00:38:07,219
Dus je ziet dat het heel goed is in kanker detecteren en dergelijke.

638
00:38:07,839 --> 00:38:09,499
Daar moeten we het echt op blijven verbeteren.

639
00:38:09,499 --> 00:38:18,179
Ik denk dat als we het daar zo goed kunnen laten leren dat het echt met alle vormen en diversiteit kan omgaan.

640
00:38:18,679 --> 00:38:20,179
Dat is mijn ideale beeld.

641
00:38:20,879 --> 00:38:26,479
Maar misschien de zaken waar het leuk is of waar we het voor gebruiken om het maar...

642
00:38:28,179 --> 00:38:30,419
Zodat wij efficiënter zijn.

643
00:38:31,159 --> 00:38:32,619
Denk ik, misschien hoeft dat wel niet.

644
00:38:32,979 --> 00:38:36,839
Misschien hoeven we niet naar het meest efficiënte versie van onszelf.

645
00:38:36,909 --> 00:38:39,119
En daarmee alleen maar de werkdruk blijven verhogen.

646
00:38:39,659 --> 00:38:41,699
Dus eigenlijk is mijn droom om het minder te gebruiken.

647
00:38:42,499 --> 00:38:45,979
En het te verbeteren in de plek waar het echt heel veel waarde toevoegt.

648
00:38:46,119 --> 00:38:46,559
Heel mooi.

649
00:38:47,249 --> 00:38:47,919
En jij voor goed.

650
00:38:50,019 --> 00:38:54,579
En toen je begon met je studie had je al interesse in ethiek.

651
00:38:55,319 --> 00:39:00,699
Zie je dat er een verandering heeft plaatsgevonden tussen dat moment toen.

652
00:39:01,099 --> 00:39:02,179
en waar we nu zijn.

653
00:39:03,959 --> 00:39:05,319
Bedoel je in...

654
00:39:05,899 --> 00:39:07,899
Hoe wij als maatschappij...

655
00:39:09,738 --> 00:39:12,319
Als maatschappij omgaan met dit onderwerp.

656
00:39:15,119 --> 00:39:16,479
Zie je überhaupt een verandering?

657
00:39:17,679 --> 00:39:18,639
En welke verandering?

658
00:39:19,819 --> 00:39:23,119
Ik denk dat ik het zelf anders ben gaan zien.

659
00:39:23,639 --> 00:39:26,019
In de zin van toen ik op de Unie zat...

660
00:39:26,019 --> 00:39:28,239
dan leef je in de academische bubbel.

661
00:39:29,179 --> 00:39:34,379
En ik denk dat je dan heel veel onderzoek doet, ook met het beeld van, oh, maar dan ziet de wereld dit.

662
00:39:34,649 --> 00:39:36,279
En dan gaat de wereld er wat mee doen.

663
00:39:37,439 --> 00:39:47,819
En ik ben daar misschien wat realistischer in geworden, dat in gewoon het normale werkleven heb je daar niet de tijd voor, niet het geld voor.

664
00:39:48,339 --> 00:39:53,319
En komt ethiek denk ik vaak ergens op een backburner te staan.

665
00:39:53,579 --> 00:39:59,659
Dan is het leuk als we dat kunnen meenemen, maar hoe kan je nou goed motiveren dat dat belangrijk is?

666
00:40:00,679 --> 00:40:02,739
En dat vind ik nog wel heel erg moeilijk.

667
00:40:02,839 --> 00:40:07,399
Dat nu in de echte wereld, zeg maar, daar gewoon niet altijd ruimte voor is.

668
00:40:09,179 --> 00:40:11,359
En hoe zou die ruimte gecreëerd kunnen worden, denk je?

669
00:40:12,399 --> 00:40:14,719
Ik denk dat sowieso dit dialoog blijft heel belangrijk.

670
00:40:16,859 --> 00:40:20,959
Maar ik denk dat het voor bedrijven heel belangrijk is om na te gaan ook.

671
00:40:21,859 --> 00:40:24,979
Wat wil ik laten zien naar de buitenwereld?

672
00:40:25,209 --> 00:40:26,239
Wat ik nou belangrijk vind?

673
00:40:28,539 --> 00:40:33,959
Is dat misschien als je in het OV zit dat je duurzaamheid heel belangrijk vindt?

674
00:40:34,339 --> 00:40:35,559
Dat lijkt mij een logische.

675
00:40:35,909 --> 00:40:37,499
Maar hoe ga je dat dan ook verkondigen?

676
00:40:37,849 --> 00:40:39,879
Is dat alleen maar neem het OV?

677
00:40:40,069 --> 00:40:43,039
Of is dat ook, kijk al onze systemen zijn ook duurzaam?

678
00:40:43,699 --> 00:40:46,939
Want ook daarin zit een stukje, wil je dan AI inzetten of niet?

679
00:40:47,919 --> 00:40:51,659
Dus ik denk dat als bedrijven, als je dat kan stimuleren,

680
00:40:51,949 --> 00:40:56,619
dat zij ook nagaan wat zijn mijn eigen normen en waarden en wat willen wij naar buiten laten zien.

681
00:40:57,239 --> 00:40:59,179
En dat vervolgens proberen toe te passen.

682
00:40:59,229 --> 00:41:00,699
Ik denk dat dat een hele mooie stap zou zijn.

683
00:41:01,839 --> 00:41:02,159
Zeker.

684
00:41:03,759 --> 00:41:05,979
Ik zat al even te denken, hoe zou dat eruit zien?

685
00:41:06,679 --> 00:41:13,259
En als afsluiten, wat zijn nou de tips die je meegeeft in jouw presentatie aan het publiek?

686
00:41:13,819 --> 00:41:16,479
Ik denk dat een groot deel we eigenlijk al hebben gehad.

687
00:41:16,919 --> 00:41:21,499
Dus voor mij is vooral ook dat, wat je ook al noemde, synthetische data goed inzetten.

688
00:41:22,319 --> 00:41:24,799
Daar vooral diversiteit echt promoten.

689
00:41:25,679 --> 00:41:26,919
Superbelangrijk, super nuttig.

690
00:41:27,199 --> 00:41:30,559
Zodat je ook je systemen kan testen daarmee.

691
00:41:31,639 --> 00:41:34,399
Je kan ook daarmee juist je systemen stress testen.

692
00:41:35,019 --> 00:41:41,079
Want als je nou je synthetische data helemaal skewed maakt, hoe zeg je dat?

693
00:41:41,179 --> 00:41:42,399
Dus helemaal één kant op.

694
00:41:43,539 --> 00:41:44,719
Wanneer detecteert dat het?

695
00:41:45,259 --> 00:41:48,239
Dus ga daar maar eens je systemen mee challengen en kijken,

696
00:41:48,439 --> 00:41:53,719
oké, hoe kunnen we ervoor zorgen dat we al veel sneller misschien zien van dit gaat niet goed.

697
00:41:55,359 --> 00:41:57,399
Dus synthetische data kan heel krachtig zijn daarvoor.

698
00:41:58,759 --> 00:42:02,399
En tegelijkertijd voor gewoon je dagelijkse gebruik, blijf gewoon bij jezelf toetsen.

699
00:42:03,419 --> 00:42:04,659
Waarvoor gebruik ik dit nou eigenlijk?

700
00:42:04,959 --> 00:42:05,599
Waarom doe ik dit?

701
00:42:05,839 --> 00:42:06,739
Wat wil ik hiermee bereiken?

702
00:42:09,019 --> 00:42:10,939
En ook wat kan de impact op mijn eigen werk zijn?

703
00:42:12,459 --> 00:42:13,779
En om het een beetje gemakkelijk te maken.

704
00:42:13,939 --> 00:42:15,359
Nou ja, maak van die libraries.

705
00:42:15,699 --> 00:42:16,239
Doe het één keer.

706
00:42:16,839 --> 00:42:17,719
Zit er gewoon één keer even.

707
00:42:18,239 --> 00:42:18,859
Denk erover na.

708
00:42:19,099 --> 00:42:19,939
Wat wil ik nou dat het doet?

709
00:42:20,659 --> 00:42:23,619
Dan heb je denk ik best wel lang profijt daarmee.

710
00:42:24,679 --> 00:42:25,059
Goeie tips.

711
00:42:25,439 --> 00:42:25,759
Dankjewel.

712
00:42:26,559 --> 00:42:28,479
Superbedankt dat je bij ons in de studio wilde zijn.

713
00:42:29,438 --> 00:42:32,819
En ja, fijn dat we dit eens even konden uitdiepen.

714
00:42:33,239 --> 00:42:33,539
Dank je wel.

715
00:42:33,979 --> 00:42:34,559
Je leert bedankt.

716
00:42:37,019 --> 00:42:38,939
Leuk dat je weer luistert naar deze aflevering.

717
00:42:39,079 --> 00:42:43,079
We hebben ook een hele leuke nieuwsbrief met dingen voor achter de schermen.

718
00:42:43,678 --> 00:42:47,459
Waar wij ook aanbevelingen geven voor misschien wat leuke literatuur.

719
00:42:47,549 --> 00:42:48,079
Dat soort zaken.

720
00:42:48,109 --> 00:42:49,499
Dus abonneer je daarop.

721
00:42:49,999 --> 00:42:51,279
De link staat in de show notes.

722
00:42:52,099 --> 00:42:54,539
Vergeet je niet te abonneren via je favoriete podcast app.

723
00:42:54,609 --> 00:42:55,639
Dan mis je geen aflevering.

724
00:42:55,899 --> 00:42:56,459
Tot de volgende keer.

725
00:42:56,679 --> 00:42:57,359
Tot de volgende keer.