AIToday Live

S07E51 - Het enthousiasmeren van 55.000 medewerkers voor AI met Sjoerd Koolen

Aigency by Info Support Season 7 Episode 51

Sjoerd Koolen, medeoprichter van WorkplaceBuddy, deelt in deze aflevering zijn inzichten over AI-adoptie in organisaties. Hij benadrukt het belang van het erkennen van stress bij digitale vernieuwingen en het bieden van adequate begeleiding.

Sjoerd signaleert een verschuiving van 'push' naar 'pull' in de vraag naar AI-tools en waarschuwt voor de risico's van 'shadow AI'. Hij licht toe hoe WorkplaceBuddy AI-adoptie op grote schaal aanpakt met een gelaagde benadering.

De podcast biedt drie concrete tips voor succesvolle AI-implementatie en bespreekt de uitdaging om authenticiteit te behouden in het AI-tijdperk.

Onderwerpen

  • Stress bij digitale vernieuwingen
  • Verschuiving van push naar pull in AI-tools
  • AI-adoptie op grote schaal
  • Tips voor succesvolle AI-adoptie
  • Authenticiteit bewaren in het AI-tijdperk
Links

Genoemde entiteiten: WorkplaceBuddy - Microsoft - Motivaction

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:05,840
In deze aflevering hoor je Sjoerd Koolen, medeoprichter van WorkplaceBuddy, over de uitdagingen van

2
00:00:05,840 --> 00:00:10,880
AI-adoptie binnen grote organisaties en hoe stress bij digitale vernieuwingen vaak onderschat

3
00:00:10,880 --> 00:00:11,880
wordt.

4
00:00:11,880 --> 00:00:16,160
Met zijn achtergrond als adoptieconsultant bij Microsoft deelt hij praktische inzichten

5
00:00:16,160 --> 00:00:21,120
over hoe je medewerkers kunt enthousiasmeren voor nieuwe technologie, terwijl je tegelijkertijd

6
00:00:21,120 --> 00:00:23,680
hun authenticiteit en autonomie respecteert.

7
00:00:23,680 --> 00:00:25,920
Dus, blijf luisteren!

8
00:00:28,000 --> 00:00:31,060
Hoi, leuk dat je luistert naar een nieuwe aflevering van AIToday Live.

9
00:00:31,660 --> 00:00:33,480
Mijn naam Joop Snijder, CTO bij Energy.

10
00:00:34,140 --> 00:00:37,100
Niels heeft eventjes andere verplichtingen, dus die is er niet bij.

11
00:00:38,420 --> 00:00:41,680
Maar de gast is in die zin dubbel interessant, Sjoerd Koolen.

12
00:00:42,240 --> 00:00:44,980
Sjoerd, dankjewel dat je bij ons in de studio wil zijn.

13
00:00:45,200 --> 00:00:47,800
Zou je jezelf eerst even willen voorstellen aan de luisteraar?

14
00:00:48,120 --> 00:00:52,060
Jazeker. Ik ben Sjoerd, medeoprichter van WorkplaceBuddy.

15
00:00:52,380 --> 00:00:57,420
Dat is een Teams app om adoptie voor de werkplek schaalbaar mogelijk te maken.

16
00:00:58,130 --> 00:00:59,600
Ik heb een achtergrond bij Microsoft.

17
00:01:00,110 --> 00:01:02,500
Daar was ik je raad het nooit adoptie consult.

18
00:01:04,319 --> 00:01:06,980
Daar ook de adoptie propositie mogen vormgeven.

19
00:01:07,780 --> 00:01:13,080
Gezien hoe belangrijk adoptie werd en steeds belangrijker werd.

20
00:01:13,470 --> 00:01:15,720
Maar ook gezien hoe lastig het is om dat te schalen.

21
00:01:15,900 --> 00:01:19,460
Want ik had een geweldige impact op 50 mensen.

22
00:01:21,240 --> 00:01:23,540
Maar mijn klanten waren Defensie en Tata Steel

23
00:01:23,540 --> 00:01:24,420
en

24
00:01:24,420 --> 00:01:25,140
dat soort namen.

25
00:01:25,280 --> 00:01:26,160
Iets groter dan 50.

26
00:01:26,210 --> 00:01:28,000
Ja, er waren nog 50.000 andere mensen die je

27
00:01:28,000 --> 00:01:28,860
ook nog moest bereiken.

28
00:01:30,060 --> 00:01:34,100
Ja, daar heb je een tal van middelen voor, maar dat ging toch niet zo lekker, vond ik.

29
00:01:35,000 --> 00:01:40,260
Dus ja, daar hebben we iets voor gebouwd wat uiteindelijk echt vooral richt zich op die schaallbaarheid.

30
00:01:41,219 --> 00:01:44,580
En is dat ook de reden waarom je met dit bedrijf bent begonnen?

31
00:01:45,100 --> 00:01:50,360
Ja, ook trouwens omdat ik niet helemaal paste bij een enterprise.

32
00:01:50,740 --> 00:01:52,100
Dat was zes jaar.

33
00:01:52,320 --> 00:01:53,720
Dan was het voor mij wel even

34
00:01:53,720 --> 00:01:54,120
op.

35
00:01:55,500 --> 00:01:57,040
Is het dan niet paradoxaal.

36
00:01:57,090 --> 00:01:58,320
Dat je dan nu die adopties doet.

37
00:01:58,440 --> 00:01:59,480
Voor hele grote enterprises.

38
00:02:00,120 --> 00:02:00,580
Ja dat klopt.

39
00:02:00,590 --> 00:02:01,320
Die doe ik het liefst.

40
00:02:02,260 --> 00:02:03,040
Ja dat is het.

41
00:02:04,120 --> 00:02:06,120
En dat vind ik de meest interessante omgevingen.

42
00:02:06,600 --> 00:02:08,560
Ik zou er zelf alleen niet willen werken.

43
00:02:08,699 --> 00:02:10,560
Maar ik had het ook niet kunnen doen.

44
00:02:10,979 --> 00:02:12,660
Zonder daar zelf gezeten te hebben.

45
00:02:14,740 --> 00:02:16,820
Al is de ene enterprise de andere natuurlijk niet.

46
00:02:17,020 --> 00:02:18,200
Dat verschilt nogal.

47
00:02:18,290 --> 00:02:20,580
Maar dat is inderdaad wel paradox.

48
00:02:20,600 --> 00:02:21,600
Paradoxaal, dat is wel interessant.

49
00:02:21,820 --> 00:02:23,180
Ik heb nog nooit eerder bij stilgestaan.

50
00:02:24,180 --> 00:02:24,800
Ja, zo zie je.

51
00:02:26,340 --> 00:02:27,620
Want we zitten in de AI-podcast.

52
00:02:28,300 --> 00:02:29,580
Wat voor adoptie doen jullie?

53
00:02:30,420 --> 00:02:35,580
Ja, we richten ons voornamelijk op de Microsoft moderne werkplek.

54
00:02:35,860 --> 00:02:38,600
Dus Microsoft 365 E3, E5.

55
00:02:39,880 --> 00:02:41,920
Daar komt natuurlijk steeds meer Copilot bij.

56
00:02:43,300 --> 00:02:45,540
De vraag is of dat meer een push is vanuit Microsoft.

57
00:02:45,740 --> 00:02:47,220
Of dat echt een vraag is.

58
00:02:47,320 --> 00:02:52,580
Dat begint zich nu wel te transformeren tot een oprechte vraag vanuit klanten.

59
00:02:52,710 --> 00:02:55,120
Maar in ieder geval, dat is ons startpunt.

60
00:02:56,740 --> 00:03:03,940
Maar we komen steeds meer tegen dat we nu ook systemen aan het uitleggen zijn waar we zelf eigenlijk helemaal niks over weten.

61
00:03:04,540 --> 00:03:10,640
Maar de klant heeft wel een of ander zaaksysteem dat uitgelegd moet worden aan iedereen.

62
00:03:10,900 --> 00:03:15,960
Dan komen we een dag langs en dan zeggen we van beste collega, laat ons eens zien hoe het werkt.

63
00:03:16,140 --> 00:03:17,400
Terwijl onze camera's aanstaan.

64
00:03:17,500 --> 00:03:17,720
Oh ja.

65
00:03:18,440 --> 00:03:19,160
Dan doen we het samen.

66
00:03:19,740 --> 00:03:20,080
Interessant.

67
00:03:20,260 --> 00:03:20,360
Ja.

68
00:03:21,000 --> 00:03:23,180
Ja kijk uiteindelijk moet iedereen het kunnen begrijpen.

69
00:03:23,220 --> 00:03:23,720
Dus ook wij.

70
00:03:24,000 --> 00:03:24,140
Ja.

71
00:03:25,220 --> 00:03:26,800
Dus uiteindelijk hoeft het allemaal niet zo moeilijk te zijn.

72
00:03:27,540 --> 00:03:29,700
En even over die push van Microsoft.

73
00:03:30,480 --> 00:03:30,620
Ja.

74
00:03:30,820 --> 00:03:31,160
Waar.

75
00:03:31,960 --> 00:03:32,060
Ja.

76
00:03:32,340 --> 00:03:34,540
Ik denk dat iedereen die wel merkt.

77
00:03:34,820 --> 00:03:36,760
Als je met Microsoft in aanraking komt.

78
00:03:38,560 --> 00:03:39,720
Waar ligt dan dat omslagpunt.

79
00:03:40,540 --> 00:03:43,080
Wat je merkt van push naar vraag.

80
00:03:43,720 --> 00:03:43,900
Ja.

81
00:03:45,499 --> 00:03:45,900
Interessante.

82
00:03:46,660 --> 00:03:50,820
Dat heeft natuurlijk best wel een tijdje geduurd voordat dat kwam, denk ik.

83
00:03:51,080 --> 00:03:54,320
Dat Copilot is er nu ook alweer anderhalf jaar of zo.

84
00:03:54,360 --> 00:03:54,880
Ja, zoiets.

85
00:03:54,960 --> 00:03:55,260
Stiekem.

86
00:03:56,280 --> 00:03:57,560
En dat is natuurlijk best wel hard gepusht.

87
00:03:57,560 --> 00:03:59,660
Ik denk dat dat nog altijd gaande is trouwens.

88
00:04:00,380 --> 00:04:02,600
Ik denk dat dat ook averechts kan werken.

89
00:04:03,840 --> 00:04:06,680
Maar je ziet wel degelijk dat het ook wel werkt.

90
00:04:06,940 --> 00:04:09,780
Want klanten beginnen zichzelf ook af te vragen van

91
00:04:10,700 --> 00:04:12,460
mis ik niet iets als ik het niet doe?

92
00:04:12,540 --> 00:04:13,320
En

93
00:04:13,320 --> 00:04:18,800
het beste argument van Microsoft in de sales is dat ook een beetje.

94
00:04:19,300 --> 00:04:21,160
Als je het niet doet, dan krijg je

95
00:04:21,160 --> 00:04:22,440
heel veel shadow AI.

96
00:04:24,060 --> 00:04:27,240
Wat is shadow AI? Ik denk dat niet iedereen dat helemaal weet.

97
00:04:27,400 --> 00:04:29,620
Ja, shadow IT, maar dan voor AI. Nee, geintje.

98
00:04:31,420 --> 00:04:32,320
Dat is natuurlijk wel zo.

99
00:04:32,780 --> 00:04:33,640
Wat is shadow IT?

100
00:04:35,160 --> 00:04:38,700
De organisatie heeft als idee dat je bepaalde systemen gaat gebruiken.

101
00:04:39,000 --> 00:04:40,420
Daarvoor schaft het systemen aan.

102
00:04:42,180 --> 00:04:50,200
En dan is het op zich niet zo heel erg handig als iedereen vervolgens allerlei gratis tooltjes op het web gaat gebruiken.

103
00:04:51,380 --> 00:04:53,940
Voor de veiligheid, voor de interactie met collega's niet.

104
00:04:54,140 --> 00:04:57,320
En voor het feit dat je data dan overal en nergens komt te staan.

105
00:04:57,820 --> 00:05:00,560
Nou ja, en bij AI is dat natuurlijk hetzelfde.

106
00:05:01,820 --> 00:05:06,860
Wellicht grote kans dat de IT-manager voorschrijft dat je copilot moet gebruiken.

107
00:05:07,380 --> 00:05:13,600
Als iedereen dan Perplexity, GPT, co-pilot door elkaar heen gaat gebruiken, gaat de data ook overal en nergens heen.

108
00:05:13,720 --> 00:05:19,860
En dan heb je minder controle over wat er met je data gebeurt.

109
00:05:20,740 --> 00:05:21,580
Dan krijg je silo-vorming.

110
00:05:21,980 --> 00:05:22,380
Wat is silo

111
00:05:22,380 --> 00:05:22,640
-vorming?

112
00:05:23,700 --> 00:05:25,860
Ik denk dat dat nog wel redelijk duidelijk is.

113
00:05:26,980 --> 00:05:30,880
Dus Microsoft zit dat te pushen om duidelijke redenen.

114
00:05:32,020 --> 00:05:34,380
Hoe zie je die vraag dan ontstaan?

115
00:05:36,420 --> 00:05:39,680
Ja, ik denk dat een belangrijk component toch fear of missing out is.

116
00:05:40,350 --> 00:05:43,420
Want als je het niet doet, dan gaat mijn concurrentie wel verder.

117
00:05:44,480 --> 00:05:49,240
Ik denk dat het shadow AI argument ook wel degelijk klopt.

118
00:05:50,580 --> 00:05:51,960
Inderdaad, we moeten iets.

119
00:05:52,210 --> 00:05:55,180
Als we niet doen, dan gebeurt er in ieder geval iets anders.

120
00:05:56,540 --> 00:05:59,319
Ik denk dat dat eigenlijk de sterkste argumenten zijn...

121
00:06:00,510 --> 00:06:02,319
om vanuit even de Microsoft perspectief...

122
00:06:02,730 --> 00:06:05,160
dan maar als IT manager iets met Copilot te doen.

123
00:06:05,480 --> 00:06:08,680
Even los van de feiten dat je veel met die spullenboel kan.

124
00:06:10,180 --> 00:06:18,180
En dat Copilot natuurlijk wat verder in de Office apps is geïntegreerd dan andere AI tools.

125
00:06:20,460 --> 00:06:24,080
Als je het mij vraagt, op basis van wat ik zie bij klanten,

126
00:06:25,020 --> 00:06:30,560
is het tussen haakjes helaas vooral het sterkste argument.

127
00:06:30,920 --> 00:06:33,720
Ja, wat als je niks doet? We moeten iets, we moeten bewegen.

128
00:06:33,860 --> 00:06:35,320
En dat is op zich trouwens ook helemaal niet erg.

129
00:06:35,440 --> 00:06:37,220
Het is gewoon belangrijk dat je beweegt.

130
00:06:38,360 --> 00:06:40,260
Dat je lessen leert.

131
00:06:41,580 --> 00:06:44,120
Zodat je ook weet hoe je het hierna weer beter wil doen.

132
00:06:44,220 --> 00:06:47,320
Want het staat toch nooit stil meer, het IT-landschap.

133
00:06:47,320 --> 00:06:48,800
Dus dan kun je maar beter blijven bewegen.

134
00:06:50,000 --> 00:06:52,220
En dat op een enigszins veilige manier doen.

135
00:06:52,500 --> 00:06:52,980
Ja, precies.

136
00:06:54,200 --> 00:06:57,580
En bij die adoptie, want daar zijn jullie mee bezig.

137
00:06:58,920 --> 00:07:02,339
Zou de mensen die nu aan het luisteren zijn ook kunnen denken van...

138
00:07:02,360 --> 00:07:04,980
Maar een tool is het.

139
00:07:05,600 --> 00:07:06,880
We moeten AI als tool zien.

140
00:07:07,780 --> 00:07:09,100
Dat leer je gaandeweg wel.

141
00:07:10,640 --> 00:07:10,760
Ja.

142
00:07:12,020 --> 00:07:13,280
En vervolgens gebeurt er niks.

143
00:07:13,720 --> 00:07:16,360
Dus ja, je moet er toch iets mee.

144
00:07:17,020 --> 00:07:18,420
En dat kun je zeggen.

145
00:07:18,480 --> 00:07:20,580
Je leert er gaandeweg wel wat mee.

146
00:07:21,760 --> 00:07:23,200
Maar er is ook gewoon heel veel weerstand.

147
00:07:24,000 --> 00:07:25,500
En zij leren helemaal niks.

148
00:07:26,800 --> 00:07:28,080
Maar ze hebben wel een punt.

149
00:07:28,180 --> 00:07:29,300
Ik wil ze niet zwart maken.

150
00:07:29,400 --> 00:07:30,860
Het is ook de meerderheid overigens.

151
00:07:31,700 --> 00:07:32,240
Ja, zie je dat?

152
00:07:32,340 --> 00:07:32,700
Merk je dat?

153
00:07:32,880 --> 00:07:32,960
Ja,

154
00:07:33,080 --> 00:07:34,060
volmondig ja.

155
00:07:35,440 --> 00:07:36,540
Niet in onze bubbel natuurlijk.

156
00:07:38,300 --> 00:07:41,400
We zitten in het ecosysteem en

157
00:07:41,400 --> 00:07:42,040
we praten met

158
00:07:42,040 --> 00:07:42,980
IT-managers.

159
00:07:43,240 --> 00:07:45,760
Die zijn ook wel enthousiast, anders zat je niet in het vak, denk ik.

160
00:07:47,020 --> 00:07:52,220
Maar de gewone medewerker heeft andere prioriteiten.

161
00:07:52,380 --> 00:07:56,140
Dat is gewoon zijn of haar vak met alles wat daarbij komt kijken.

162
00:07:57,440 --> 00:07:59,320
Doe een beetje denken aan dat plaatje.

163
00:07:59,680 --> 00:08:03,460
is misschien wel bekend van die mensen die die stenen aan het trekken zijn.

164
00:08:04,020 --> 00:08:05,940
En daarachter loopt iemand met, ja, maar ik heb een wiel.

165
00:08:07,480 --> 00:08:07,920
Natuurlijk.

166
00:08:08,620 --> 00:08:10,300
Maar niet iedereen ziet dat gelijk in.

167
00:08:10,760 --> 00:08:16,120
En adoptie gaat denk ik ook voornamelijk over een stukje enthousiasmering.

168
00:08:16,620 --> 00:08:18,820
En dat is men niet automatisch.

169
00:08:19,390 --> 00:08:19,500
Nee.

170
00:08:19,770 --> 00:08:20,540
En dat is ook helemaal niet erg.

171
00:08:21,640 --> 00:08:24,320
Ik zelf denk ook wel eens van, ja, there we go again.

172
00:08:24,700 --> 00:08:26,420
En mijn LinkedIn staat er vol

173
00:08:26,420 --> 00:08:26,580
mee.

174
00:08:26,680 --> 00:08:27,580
Ik weet, ik kan zelf,

175
00:08:27,760 --> 00:08:30,440
nu heb ik voor het eerst het gevoel dat ik zelf ook niet meer bij ben.

176
00:08:31,640 --> 00:08:35,820
En dat werkt averechts ook voor mij persoonlijk.

177
00:08:36,140 --> 00:08:36,520
Oké,

178
00:08:36,799 --> 00:08:37,840
hoe merk je dat?

179
00:08:37,860 --> 00:08:38,240
Ik kan misschien eigenlijk niet

180
00:08:38,240 --> 00:08:38,940
zeggen vanuit mijn

181
00:08:38,940 --> 00:08:39,559
positie.

182
00:08:40,280 --> 00:08:40,840
Nee, maar dat maakt

183
00:08:40,840 --> 00:08:41,380
het wel interessant.

184
00:08:41,820 --> 00:08:44,760
Je wordt zo overrompeld met iedere week weer een nieuwe feature.

185
00:08:44,840 --> 00:08:50,120
Dat je denkt, ja, en nu gaat het een punt voorbij dat je niet meer weet wat er speelt.

186
00:08:50,200 --> 00:08:54,720
Een beetje als je, ik ben al 37, dus niet meer 20 of 30.

187
00:08:55,760 --> 00:08:57,480
Vroeger wist je nog wat er in de top 40

188
00:08:57,480 --> 00:08:58,000
speelde.

189
00:08:58,139 --> 00:08:58,220
En

190
00:08:58,220 --> 00:08:59,860
op een gegeven moment is dat ook voorbij.

191
00:09:01,260 --> 00:09:01,339
Ja,

192
00:09:01,680 --> 00:09:02,399
dan haak je af.

193
00:09:03,560 --> 00:09:03,839
En

194
00:09:03,839 --> 00:09:04,860
dan blijf je gewoon hangen.

195
00:09:04,860 --> 00:09:06,560
Een beetje meer Jamiroqai en Red Hot Chili Peppers.

196
00:09:06,760 --> 00:09:07,339
Ja, precies.

197
00:09:08,040 --> 00:09:08,459
Klinkt goed.

198
00:09:11,320 --> 00:09:13,900
Dus ja, niks menselijks is ook mij vreemd.

199
00:09:13,900 --> 00:09:15,060
En ik probeer dat ook expres.

200
00:09:15,220 --> 00:09:16,640
Ik probeer niet cynisch te doen.

201
00:09:17,800 --> 00:09:19,440
Maar ik probeer wel expres zo te denken.

202
00:09:20,040 --> 00:09:21,680
Hoe zou de rest denken?

203
00:09:22,060 --> 00:09:22,420
En

204
00:09:22,420 --> 00:09:25,480
je hebt zelf ook zoveel andere dingen aan je hoofd.

205
00:09:26,660 --> 00:09:27,740
wat is nou wel belangrijk

206
00:09:27,920 --> 00:09:30,120
wat is het meest belangrijk dat ik zou moeten weten

207
00:09:30,240 --> 00:09:31,500
help mij om

208
00:09:31,920 --> 00:09:33,700
te differentiëren wat er wel toe doet

209
00:09:33,900 --> 00:09:34,600
en wat allemaal

210
00:09:36,800 --> 00:09:37,200
BS AI

211
00:09:37,460 --> 00:09:38,940
ja, heel goed

212
00:09:39,080 --> 00:09:39,600
want het is er ook

213
00:09:39,600 --> 00:09:39,760
veel

214
00:09:41,499 --> 00:09:43,340
zeker in de tijd waarin we nu zitten

215
00:09:43,380 --> 00:09:44,340
met die poppen allemaal

216
00:09:45,819 --> 00:09:47,640
daar heb ik nog een aflevering over gemaakt

217
00:09:47,900 --> 00:09:48,660
waarom dat mogelijk

218
00:09:49,600 --> 00:09:51,520
iets met adoptie te maken kan hebben

219
00:09:51,680 --> 00:09:53,380
ja, je gaat inderdaad wel dat door

220
00:09:55,119 --> 00:09:55,520
oefenen

221
00:09:55,540 --> 00:09:58,220
een gevoel dat iets lukt...

222
00:09:58,220 --> 00:09:59,620
met iets waar je misschien...

223
00:09:59,620 --> 00:10:01,120
daarvoor het heel spannend kon vinden.

224
00:10:02,520 --> 00:10:03,540
Op de een of andere manier...

225
00:10:03,540 --> 00:10:05,400
is er heel veel behoefte om dat dan ook te delen.

226
00:10:05,400 --> 00:10:06,660
Om te laten zien dat je het kan.

227
00:10:07,640 --> 00:10:10,160
Er zit misschien nog iets serieuzers...

228
00:10:10,160 --> 00:10:11,720
onder dan dat je...

229
00:10:11,720 --> 00:10:13,040
misschien in eerste instantie zou

230
00:10:13,040 --> 00:10:13,260
denken.

231
00:10:13,260 --> 00:10:13,580
Dat is

232
00:10:13,580 --> 00:10:14,940
wel een goed punt. Heb jij het gedaan?

233
00:10:15,380 --> 00:10:15,920
Ik heb het niet gedaan,

234
00:10:16,060 --> 00:10:16,160
nee.

235
00:10:18,080 --> 00:10:19,480
No offense naar de mensen...

236
00:10:19,480 --> 00:10:21,400
die het wel gedaan hebben, maar het verbaasde me wel.

237
00:10:21,860 --> 00:10:22,940
Je hebt wel een paar goede

238
00:10:22,940 --> 00:10:23,280
punten.

239
00:10:23,480 --> 00:10:25,060
Daarom was ik er ook ingedoken.

240
00:10:25,240 --> 00:10:28,000
dat het zoveel gedaan wordt.

241
00:10:28,920 --> 00:10:31,300
Dat zie je natuurlijk iedere keer als iemand iets bedacht heeft...

242
00:10:31,300 --> 00:10:33,820
wat je met AI kan doen, dat dat een gevolg heeft.

243
00:10:35,060 --> 00:10:36,440
Dat ik dat ben gaan uitzoeken.

244
00:10:36,640 --> 00:10:39,660
En wat je ziet is dat in adoptiemodellen...

245
00:10:39,660 --> 00:10:41,760
zie je natuurlijk wel dat je succes nodig hebt.

246
00:10:42,780 --> 00:10:44,040
Dan moet je iets prikkelen.

247
00:10:44,220 --> 00:10:45,720
Dus er moet iets zijn waarvan je denkt...

248
00:10:45,720 --> 00:10:47,020
dat zou ik eigenlijk ook wel willen.

249
00:10:47,600 --> 00:10:48,000
Je hebt het

250
00:10:48,000 --> 00:10:48,300
al over

251
00:10:48,300 --> 00:10:49,580
enthousiasmeren gehad.

252
00:10:50,319 --> 00:10:51,520
Blijkbaar enthousiasmeert het iemand.

253
00:10:52,160 --> 00:10:54,439
En het levert een resultaat op...

254
00:10:54,460 --> 00:10:57,120
Die mensen leuk genoeg vinden om te delen.

255
00:10:57,580 --> 00:10:59,480
Of ik het allemaal op mijn LinkedIn wil zien.

256
00:10:59,790 --> 00:11:00,760
Dat is een ander verhaal.

257
00:11:00,850 --> 00:11:01,860
Maar qua adoptie.

258
00:11:02,760 --> 00:11:03,860
Is het wel een interessant

259
00:11:03,860 --> 00:11:04,460
gegeven.

260
00:11:04,460 --> 00:11:05,860
Ze hebben er wel iets mee gedaan.

261
00:11:07,000 --> 00:11:08,220
Al vind ik dat de truc.

262
00:11:08,940 --> 00:11:09,820
Vooral ook is.

263
00:11:09,980 --> 00:11:13,960
Dat je ook iets nuttigs ermee moet gaan doen.

264
00:11:14,560 --> 00:11:15,720
De carrot en de stick.

265
00:11:16,020 --> 00:11:18,080
En dat je ook mag verwachten.

266
00:11:18,380 --> 00:11:20,080
Ook van die gemiddelde medewerker.

267
00:11:20,280 --> 00:11:22,740
Die ik net probeerde aan te geven.

268
00:11:23,620 --> 00:11:26,540
Dat hij er ook wel iets al meer mee kan.

269
00:11:27,840 --> 00:11:29,080
En dat ook op gaat zoeken.

270
00:11:29,140 --> 00:11:31,400
Dus het is wat mij betreft ook wel tweeledig.

271
00:11:33,120 --> 00:11:34,560
Ja, een beetje spielerei.

272
00:11:34,580 --> 00:11:35,380
Dat hoort erbij.

273
00:11:35,680 --> 00:11:36,680
Anders kom je er niet.

274
00:11:37,940 --> 00:11:41,180
Maar ook dat je die use cases gaat zoeken.

275
00:11:41,920 --> 00:11:42,840
En daar zelf eens over

276
00:11:42,840 --> 00:11:43,360
nadenkt.

277
00:11:43,500 --> 00:11:46,300
Dus het is inderdaad een hele interessante tweestrijd.

278
00:11:46,420 --> 00:11:47,940
Van ja, ergens begrijp ik het wel.

279
00:11:48,100 --> 00:11:50,620
Dat je niet meteen mee wil.

280
00:11:50,840 --> 00:11:54,200
Aan de andere kant vind ik ook dat je weer wel iets van mensen mag verwachten.

281
00:11:54,360 --> 00:11:56,160
Dus dat is een

282
00:11:56,160 --> 00:11:58,920
interessante filosofische gedachte.

283
00:12:00,080 --> 00:12:01,400
Nou, want ik was wel benieuwd.

284
00:12:01,640 --> 00:12:02,660
Want jij hebt het ook over enthousiasmeren.

285
00:12:03,620 --> 00:12:03,820
En

286
00:12:03,820 --> 00:12:04,600
zeker op schaal.

287
00:12:04,800 --> 00:12:06,780
Dus je hebt het over hele grote bedrijven.

288
00:12:07,340 --> 00:12:11,040
Hoe enthousiasmeer je een bedrijf op zo'n schaal?

289
00:12:11,360 --> 00:12:11,520
Ja.

290
00:12:12,800 --> 00:12:16,500
Nou, dat doen wij vooral met content.

291
00:12:16,940 --> 00:12:17,800
Content is king.

292
00:12:20,620 --> 00:12:21,980
Dat doen we met generieke content.

293
00:12:22,330 --> 00:12:26,680
Content die wij bedenken dat relevant is voor de hele Microsoft stack.

294
00:12:27,320 --> 00:12:33,220
Maar ook door relevantie en ook met de klant in gesprek te gaan over wat er nou bij jullie speelt.

295
00:12:33,820 --> 00:12:36,780
Het is leuk dat deze mogelijkheden er nu technisch zijn.

296
00:12:37,040 --> 00:12:40,400
Maar welke toepassingen maakt dat bij jullie mogelijk?

297
00:12:40,630 --> 00:12:42,060
En wat betekent dat voor jullie?

298
00:12:42,720 --> 00:12:46,820
En dan gaan we niet alleen maar uitleggen over het hoe, maar ook het wat en waarom.

299
00:12:46,890 --> 00:12:48,900
En het liefst ook met een sponsor in beeld.

300
00:12:49,460 --> 00:12:51,960
Zodat het ook echt vanuit de organisatie zelf komt.

301
00:12:53,340 --> 00:12:54,500
Wat het voor hen betekent.

302
00:12:56,020 --> 00:12:57,100
Stukje hoe het kan.

303
00:12:57,200 --> 00:12:58,140
En ook weer gelijk.

304
00:12:58,780 --> 00:13:04,820
Wat dat met jouw belangrijke sponsor van de interne organisatie gedaan heeft.

305
00:13:04,960 --> 00:13:09,820
Zodat je ook echt mensen helpt er een voorstellingsvermogen bij te maken.

306
00:13:10,100 --> 00:13:15,780
En daarbij blijft dat ons betreft video nog steeds een heel makkelijk, prettig communicatiemiddel.

307
00:13:16,200 --> 00:13:21,920
om toch persoonlijk en relevant en toch schaalbaar mensen te bereiken.

308
00:13:22,140 --> 00:13:22,200
Oh

309
00:13:22,200 --> 00:13:22,340
ja.

310
00:13:23,480 --> 00:13:25,360
Ja, en dan gaat het nog eens ergens over.

311
00:13:25,660 --> 00:13:27,800
En zijn mensen dan ook bereid om die video's te kijken?

312
00:13:28,120 --> 00:13:30,240
Ja, dat is het grappige.

313
00:13:32,280 --> 00:13:34,400
Vaker dan ik zelf voorheen de

314
00:13:34,400 --> 00:13:34,740
dag.

315
00:13:35,300 --> 00:13:37,440
Zeker als je proactief naar ze toestapt met,

316
00:13:37,660 --> 00:13:38,720
ik heb iets voor je.

317
00:13:39,160 --> 00:13:39,820
En op basis

318
00:13:39,820 --> 00:13:42,760
van je profiel denken wij dat dit relevant voor je is.

319
00:13:44,060 --> 00:13:46,300
Vervolgens met een stukje introductie daarbij.

320
00:13:46,580 --> 00:13:47,960
Van die sponsor het liefst.

321
00:13:48,100 --> 00:13:50,140
En vervolgens weer het stukje consent van.

322
00:13:50,300 --> 00:13:51,900
Mag ik je hier meer over vertellen?

323
00:13:52,480 --> 00:13:53,160
Ja of nee.

324
00:13:53,540 --> 00:13:54,940
Waardoor we ook weer beter begrijpen wie

325
00:13:54,940 --> 00:13:55,380
jij bent.

326
00:13:56,500 --> 00:13:57,940
Dus we doen het ook echt gelaagd.

327
00:13:58,160 --> 00:13:58,580
En je

328
00:13:58,580 --> 00:14:03,080
kiest er ook zelf voor om te participeren aan de content.

329
00:14:03,560 --> 00:14:05,980
Die voor die organisatie relevant is.

330
00:14:06,640 --> 00:14:09,940
En er is altijd nog, maar wel wat ons betreft, de laatste stap.

331
00:14:10,460 --> 00:14:13,420
De stap om trainingen te gaan volgen.

332
00:14:13,680 --> 00:14:17,500
Maar bij 55.000 man kun je niet iedereen in één week in een trainingszaal

333
00:14:17,500 --> 00:14:17,820
krijgen.

334
00:14:17,980 --> 00:14:23,060
Dus doe het liever 80, 20 gedachten van 80% krijgen alvast met video mee.

335
00:14:24,090 --> 00:14:28,080
En het resterende gedeelte die toch nog interesse heeft om meer te leren.

336
00:14:28,360 --> 00:14:31,320
Maar meer behoefte heeft aan een handje vast te houden.

337
00:14:31,540 --> 00:14:32,120
Daarvoor kun je

338
00:14:32,120 --> 00:14:32,740
altijd nog

339
00:14:32,740 --> 00:14:34,520
training van partners aanbieden.

340
00:14:34,660 --> 00:14:35,220
Interessant.

341
00:14:35,900 --> 00:14:40,680
Kan jij, ik weet niet of je kan en mag, een soort van rode draad geven.

342
00:14:40,800 --> 00:14:42,440
van waar dan die sponsors

343
00:14:42,740 --> 00:14:43,700
eigenlijk naar op zoek zijn.

344
00:14:44,200 --> 00:14:44,820
Wat is voor hun

345
00:14:46,520 --> 00:14:47,640
uiteindelijk een succes?

346
00:14:48,080 --> 00:14:49,520
Wanneer is de adoptie een succes?

347
00:14:49,840 --> 00:14:52,140
Ja, als het gebruikt wordt

348
00:14:52,240 --> 00:14:53,100
is het eerste wat er

349
00:14:53,100 --> 00:14:54,160
binnen

350
00:14:54,160 --> 00:14:54,680
schoot.

351
00:14:55,260 --> 00:14:56,440
Het begint bij ons

352
00:14:56,560 --> 00:14:57,320
met de IT manager.

353
00:14:57,520 --> 00:14:59,380
Die heeft een bepaalde verantwoordelijkheid

354
00:15:00,759 --> 00:15:01,560
over spullenboel

355
00:15:02,120 --> 00:15:03,520
dat gebruikt moet worden.

356
00:15:05,040 --> 00:15:06,180
Zo plat begint het

357
00:15:06,380 --> 00:15:07,700
negen van de tien keer voor ons.

358
00:15:08,380 --> 00:15:09,920
We hebben wat, we moeten het gebruiken.

359
00:15:10,320 --> 00:15:10,600
We moeten

360
00:15:10,600 --> 00:15:13,720
voorkomen dat ze naar andere softwarepakketten grijpen.

361
00:15:14,150 --> 00:15:14,340
Want

362
00:15:14,340 --> 00:15:18,180
dan maken we shadow AI, shadow IT mogelijk.

363
00:15:19,300 --> 00:15:23,480
Maar daar zit een soort van aanname in dat mensen het sowieso willen gebruiken.

364
00:15:25,220 --> 00:15:27,080
Dat je een Copilot wil

365
00:15:27,080 --> 00:15:29,860
gebruiken of een ChatGPT-achtig iets.

366
00:15:30,260 --> 00:15:32,020
Ja, dat is wel iets om af te pellen.

367
00:15:33,580 --> 00:15:39,260
Dus vaak beginnen wij met de vraag aan de IT manager of aan de end user die we allemaal bereiken.

368
00:15:39,280 --> 00:15:41,300
bereiken. Je mag geen end-user zeggen,

369
00:15:41,460 --> 00:15:42,080
maar doe het toch.

370
00:15:43,760 --> 00:15:44,260
De collega.

371
00:15:47,360 --> 00:15:48,480
Waar ligt jullie interesse?

372
00:15:49,680 --> 00:15:51,480
Laten we dat dan ook gewoon democratiseren

373
00:15:51,780 --> 00:15:53,280
en daar antwoorden op

374
00:15:53,420 --> 00:15:54,760
ontwikkelen. Dus we doen ook een soort scan.

375
00:15:55,800 --> 00:15:56,940
Waarbij we vragen van,

376
00:15:57,130 --> 00:15:59,160
wat speelt er bij jullie eigenlijk? En daar kunnen we dan

377
00:15:59,300 --> 00:16:00,760
ook weer op terugkomen later van,

378
00:16:01,860 --> 00:16:03,180
jullie behoren tot een groep die

379
00:16:04,220 --> 00:16:05,280
echt het nieuwste van het

380
00:16:05,380 --> 00:16:07,200
nieuwste willen ontdekken, maar misschien

381
00:16:07,420 --> 00:16:08,780
moeite hebben om te ontdekken wat dat is.

382
00:16:09,100 --> 00:16:10,460
check dit en check dat eens

383
00:16:10,800 --> 00:16:10,960
ja

384
00:16:13,200 --> 00:16:14,380
maar stapje terug

385
00:16:15,820 --> 00:16:16,760
dat zou ook

386
00:16:16,880 --> 00:16:18,740
wat wij doen is ook doorvragen

387
00:16:18,740 --> 00:16:20,840
aan de IT manager en sponsors

388
00:16:21,100 --> 00:16:22,480
betrekken van

389
00:16:23,240 --> 00:16:24,860
wat betekent dat dan voor jullie

390
00:16:26,440 --> 00:16:27,400
welke bedrijfsprocessen

391
00:16:27,520 --> 00:16:28,520
willen jullie verbeteren

392
00:16:28,800 --> 00:16:30,260
leuk dat je iets wil met

393
00:16:30,760 --> 00:16:32,400
laatst hadden we, je gelooft het niet

394
00:16:32,600 --> 00:16:34,180
met whiteboard en lists

395
00:16:36,020 --> 00:16:36,500
ja

396
00:16:36,620 --> 00:16:38,820
moest gepromoot worden, maar dan is het veel interessanter

397
00:16:38,840 --> 00:16:42,020
om erachter te komen wat zij daarmee willen bereiken

398
00:16:42,100 --> 00:16:42,500
en welke

399
00:16:42,500 --> 00:16:43,740
teams gaan daarmee aan de slag.

400
00:16:44,460 --> 00:16:48,960
En misschien zijn er ook bepaalde teams bereid om te laten zien op beeld

401
00:16:49,050 --> 00:16:52,460
van wat dit voor hen betekent om bepaalde processen slimmer in te richten.

402
00:16:52,500 --> 00:16:52,960
Dat

403
00:16:52,960 --> 00:16:55,260
is veel interessanter om te consumeren ook.

404
00:16:56,040 --> 00:16:58,380
Nou, en ik denk ook dat je, neem ik aan,

405
00:16:58,600 --> 00:17:00,800
dat ze uiteindelijk toch wel iets van een stip op de horizon willen.

406
00:17:00,810 --> 00:17:03,960
Want of een tool gebruikt wordt, dan heb je een heel makkelijke metriek.

407
00:17:04,000 --> 00:17:04,900
Het is gewoon ja of nee.

408
00:17:06,440 --> 00:17:06,780
En dan

409
00:17:06,780 --> 00:17:07,740
spreek

410
00:17:07,740 --> 00:17:09,920
je een bepaald percentage af en dan heb je het gehaald.

411
00:17:10,060 --> 00:17:10,460
Ik neem aan

412
00:17:10,460 --> 00:17:12,920
dat het toch iets verder gaat dan dat.

413
00:17:13,160 --> 00:17:13,859
Ja, veel verder.

414
00:17:14,130 --> 00:17:14,920
Het gaat inderdaad

415
00:17:14,920 --> 00:17:19,440
over die toepassingsgebieden, zoals je dat zou kunnen noemen.

416
00:17:20,240 --> 00:17:27,260
Echt over hoe het in jouw bedrijfsproces, wat dat voor jullie betekent, maakt het wel moeilijker meetbaar.

417
00:17:28,940 --> 00:17:31,119
Maar niet minder interessant, integendeel.

418
00:17:31,739 --> 00:17:35,999
Het is natuurlijk veel interessanter om dan maar kwalitatief onderzocht te hebben.

419
00:17:36,060 --> 00:17:37,560
Wat dat voor hen betekent heeft.

420
00:17:37,700 --> 00:17:39,060
Hoe de processen verbeterd zijn.

421
00:17:39,359 --> 00:17:41,660
Welke mensen daar positief over zijn.

422
00:17:41,690 --> 00:17:42,999
En erin meegaan en welke niet.

423
00:17:43,980 --> 00:17:47,440
Dus je hebt die theorie over die green en de red en de orange dots.

424
00:17:47,710 --> 00:17:49,060
Nou ja, gewoon het verkeersbord.

425
00:17:49,300 --> 00:17:51,420
Hoeveel mensen gaan daar mee en niet.

426
00:17:52,119 --> 00:17:54,960
Dat bord is gewoon best wel rood en oranje.

427
00:17:56,780 --> 00:17:57,860
In de standaardsituatie.

428
00:17:57,980 --> 00:17:58,760
Voordat je iets doet.

429
00:17:59,740 --> 00:18:04,420
Dus het is wel nodig om mensen in ieder geval in de activatiemodus te krijgen.

430
00:18:04,720 --> 00:18:06,680
Van hey, hopelijk doe je mee.

431
00:18:06,850 --> 00:18:08,160
En dit is wat jij eraan hebt.

432
00:18:08,230 --> 00:18:10,540
En dit is wat wij er ook als organisatie aan hebben.

433
00:18:10,680 --> 00:18:13,260
Als we op een eenduidige wijze gaan samenwerken.

434
00:18:14,640 --> 00:18:15,980
Dat valt ook niet te onderschatten.

435
00:18:16,100 --> 00:18:17,660
Dat je dat ook gewoon even uitlegt.

436
00:18:17,860 --> 00:18:20,000
Hoe voordat liggend het ook kan lijken.

437
00:18:21,360 --> 00:18:22,580
Om mensen daarin mee te nemen.

438
00:18:22,680 --> 00:18:24,820
Zodat ze ook begrijpen van waar doen we dit ook alweer voor.

439
00:18:25,240 --> 00:18:28,460
Maar ze zijn dan heus niet te flauw om mee te doen.

440
00:18:28,700 --> 00:18:33,860
En eventjes een stap buiten de comfortzone te zetten.

441
00:18:33,860 --> 00:18:34,320
Ja, precies.

442
00:18:35,100 --> 00:18:45,220
En zie je van, kijk wat je zou het in kunnen zetten voor productiviteitswinst, kostenverlaging, je werk leuker maken, makkelijker maken.

443
00:18:45,520 --> 00:18:49,480
Zit daar een rode draad in dat je ziet waar mensen eigenlijk naar op zoek zijn?

444
00:18:51,300 --> 00:18:58,500
Ja, het begint toch met de angst, wat als we niks doen?

445
00:18:58,550 --> 00:19:00,100
Oh ja, daar

446
00:19:00,100 --> 00:19:01,040
kom ik ook daar weer op

447
00:19:01,040 --> 00:19:01,180
terug.

448
00:19:03,320 --> 00:19:03,400
En

449
00:19:03,400 --> 00:19:05,920
natuurlijk, uiteindelijk wil je het wel hebben over de business case.

450
00:19:06,620 --> 00:19:08,540
Wat is er gewonnen aan productiviteit?

451
00:19:09,900 --> 00:19:11,340
Hebben we minder support tickets?

452
00:19:13,140 --> 00:19:15,900
Maar ik denk dat klanten toch ook het meest gevoelig zijn voor...

453
00:19:16,020 --> 00:19:18,400
zijn mensen gewoon wat positiever geworden?

454
00:19:19,340 --> 00:19:22,260
Want als je het niet doet, en dat hebben we ook recent onderzocht...

455
00:19:22,700 --> 00:19:24,860
met Motivaction, een onderzoeksbureau...

456
00:19:24,860 --> 00:19:29,240
is dat de grootste uitdaging is de stress die mensen ervaren...

457
00:19:29,820 --> 00:19:31,320
bij digitale vernieuwingen.

458
00:19:31,620 --> 00:19:32,000
Oké.

459
00:19:32,820 --> 00:19:38,580
En dan werkt het dus AVR rechts in plaats van dat zo'n geweldige tool al die fantastische functionaliteiten heeft.

460
00:19:38,700 --> 00:19:39,160
Wat ik

461
00:19:39,160 --> 00:19:40,560
ook vind als enthousiaste ding.

462
00:19:41,120 --> 00:19:49,860
Maar de grootste uitdaging voor IT-managers en bestuurders is echt gewoon het stukje stress dat je juist

463
00:19:49,860 --> 00:19:50,640
komt brengen.

464
00:19:51,200 --> 00:19:54,880
Door innovatie aan te leveren en verder niks te doen.

465
00:19:55,460 --> 00:20:00,360
Dus als je het gewoon laat zoals het is, dan heb je gewoon te maken met de red en orange dots.

466
00:20:00,680 --> 00:20:01,240
Ja, precies.

467
00:20:01,860 --> 00:20:03,300
Die juist roder worden.

468
00:20:03,680 --> 00:20:05,360
En niet een beetje groener.

469
00:20:05,920 --> 00:20:08,340
Het is dus niet van hoe kan ik het een beetje groener krijgen.

470
00:20:09,480 --> 00:20:10,780
Dan dat het al zou worden.

471
00:20:10,900 --> 00:20:13,240
Nee, het kan juist de andere kant opslaan.

472
00:20:14,220 --> 00:20:18,940
En dat is wel iets waar steeds meer organisaties bij stilstaan.

473
00:20:19,300 --> 00:20:19,700
Gelukkig.

474
00:20:21,400 --> 00:20:23,760
Ja, en gelukkig ook iets aan willen doen.

475
00:20:24,180 --> 00:20:26,400
En zijn daar bijvoorbeeld drie tips in te geven.

476
00:20:27,100 --> 00:20:29,040
Wat je aan voorbereiding zou kunnen doen.

477
00:20:29,380 --> 00:20:30,760
Om niet in zo'n valkuil te stappen.

478
00:20:31,260 --> 00:20:32,500
Ja, dat kan.

479
00:20:33,360 --> 00:20:38,640
Allereerst is het, wat zijn wij van plan met deze introductie?

480
00:20:38,880 --> 00:20:39,940
Met deze innovatie?

481
00:20:40,440 --> 00:20:41,920
Ga daar eens over nadenken.

482
00:20:43,240 --> 00:20:46,520
Want heel vaak heb je je laten overtuigen door de leverancier.

483
00:20:46,720 --> 00:20:47,440
Die heeft allerlei

484
00:20:47,440 --> 00:20:49,360
geweldige benefits opgesomt.

485
00:20:49,720 --> 00:20:50,960
Maar jij moet erbij aan de slag.

486
00:20:50,960 --> 00:20:51,140
Jij

487
00:20:51,140 --> 00:20:51,500
staat er

488
00:20:51,500 --> 00:20:52,460
dadelijk weer alleen voor.

489
00:20:52,700 --> 00:20:53,360
En als

490
00:20:53,360 --> 00:20:59,080
je als innovatiemanager of directielid staat, wij doen dit vanwege FOMO.

491
00:20:59,600 --> 00:21:00,100
Lijkt me dat niet

492
00:21:00,100 --> 00:21:01,800
een

493
00:21:01,800 --> 00:21:02,380
heel goed argument.

494
00:21:02,920 --> 00:21:04,480
Het zou mij wel omhalen.

495
00:21:04,640 --> 00:21:04,720
Ja?

496
00:21:07,000 --> 00:21:07,600
Mijn niet.

497
00:21:07,700 --> 00:21:09,460
Ja, eindelijk eens een keer een befrissend verhaal.

498
00:21:10,620 --> 00:21:11,360
Gewoon eerlijk.

499
00:21:12,920 --> 00:21:14,600
Nee, maar je kan wel zeggen...

500
00:21:16,360 --> 00:21:20,180
Er is enorm veel innovatie gaande en wij moeten leren.

501
00:21:20,700 --> 00:21:21,920
En we gaan met elkaar leren.

502
00:21:22,600 --> 00:21:25,840
En we zouden graag willen weten wat jullie beste ervaringen zijn.

503
00:21:25,980 --> 00:21:27,660
Wat jullie slechtste ervaringen zijn.

504
00:21:27,920 --> 00:21:28,260
Want

505
00:21:28,260 --> 00:21:31,940
het is niet alleen die van ons als bestuur, maar ook jullie verantwoordelijkheid.

506
00:21:31,940 --> 00:21:33,800
Dat wij samen lessen leren.

507
00:21:35,220 --> 00:21:38,260
En gaandeweg ook best practices natuurlijk verzamelen.

508
00:21:38,330 --> 00:21:39,760
En daardoor processen kunnen verbeteren.

509
00:21:39,780 --> 00:21:40,560
Dat is helemaal niet erg.

510
00:21:41,480 --> 00:21:41,920
Om

511
00:21:41,920 --> 00:21:43,820
er enigszins open in te staan.

512
00:21:43,910 --> 00:21:48,360
Ja, dat klinkt als een betere pitch dan de FOMO van de eigenaar.

513
00:21:49,260 --> 00:21:51,500
Ja, maar het

514
00:21:51,500 --> 00:21:52,300
zit er niet heel ver

515
00:21:52,300 --> 00:21:52,700
vanaf.

516
00:21:52,860 --> 00:21:52,920
Nee,

517
00:21:53,120 --> 00:21:53,780
klopt.

518
00:21:54,430 --> 00:21:55,020
Dus dat is één.

519
00:21:56,360 --> 00:21:59,300
Dus wees daar ook gewoon eerlijk in.

520
00:22:00,140 --> 00:22:01,720
Denk erover na hoe je het wil inzetten.

521
00:22:01,770 --> 00:22:04,360
Maar wees ook gewoon eerlijk in wat je wil leren.

522
00:22:05,200 --> 00:22:05,580
Waarom niet?

523
00:22:06,560 --> 00:22:07,000
Twee.

524
00:22:08,800 --> 00:22:10,740
Weten waar je organisatie staat.

525
00:22:11,010 --> 00:22:17,420
Ik omschreef het dus net als een soort grote bord met orange, red en green dots.

526
00:22:19,380 --> 00:22:20,700
Dat is natuurlijk oneerbiedig.

527
00:22:21,380 --> 00:22:22,640
Zo bedoel ik het helemaal niet.

528
00:22:22,840 --> 00:22:26,520
Maar er is natuurlijk wel een verschil in veranderbereidheid.

529
00:22:28,100 --> 00:22:29,200
En er een beetje zin in hebben.

530
00:22:29,390 --> 00:22:31,340
En een stukje digitale vaardigheden.

531
00:22:31,480 --> 00:22:33,700
Al vind ik persoonlijk dat laatste.

532
00:22:34,180 --> 00:22:35,540
Het gaat meer om interesse.

533
00:22:36,140 --> 00:22:37,920
Zoveel domme mensen kom ik niet tegen.

534
00:22:38,130 --> 00:22:39,040
Dat valt heus wel mee.

535
00:22:39,050 --> 00:22:42,820
Het zit meer in de wil en het enthousiasme.

536
00:22:43,680 --> 00:22:43,740
Maar

537
00:22:43,740 --> 00:22:48,260
hoe kom je aan de associatie digitale vaardigheid en dom?

538
00:22:48,580 --> 00:22:49,520
Nou, dat zeg ik niet.

539
00:22:50,860 --> 00:22:52,100
Dat hoor ik om me heen.

540
00:22:52,160 --> 00:22:52,620
Oké.

541
00:22:54,280 --> 00:22:57,740
Nou ja, ik zeg dat omdat ik wil voorkomen dat dat

542
00:22:57,740 --> 00:22:58,200
gedacht wordt.

543
00:22:58,400 --> 00:22:59,280
Ik wil juist

544
00:22:59,280 --> 00:23:00,780
niet zeggen dat ze dom zijn.

545
00:23:02,160 --> 00:23:03,840
Maar de digitale vaardigheden kunnen verschillen.

546
00:23:04,900 --> 00:23:07,040
Het gaat vooral over het enthousiasme.

547
00:23:07,290 --> 00:23:08,620
Dat daar het verschil in zit.

548
00:23:09,620 --> 00:23:11,560
En de wens om iets te leren.

549
00:23:12,670 --> 00:23:14,700
En de stress die je mogelijk ervaart.

550
00:23:14,780 --> 00:23:16,820
Zoals we dat ook in dat onderzoek hebben teruggevonden.

551
00:23:17,500 --> 00:23:19,740
Dus start met analyseren.

552
00:23:19,750 --> 00:23:21,320
En dat kan op tal van manieren.

553
00:23:21,560 --> 00:23:23,060
Je kunt zelf een formuliertje bouwen.

554
00:23:23,360 --> 00:23:24,980
Wij hebben een hele scan in onze software.

555
00:23:25,130 --> 00:23:26,740
Er zijn tal van andere oplossingen.

556
00:23:27,540 --> 00:23:31,060
Maar genereer een beeld van hoe je organisatie ervoor staat.

557
00:23:31,580 --> 00:23:33,100
En wat zij willen.

558
00:23:34,320 --> 00:23:35,940
Want pas dan weet je ook beter.

559
00:23:36,100 --> 00:23:38,480
En dan maken we een beetje het bruggetje naar tip 3.

560
00:23:40,260 --> 00:23:47,700
Met welke onderwerpen we welke doelgroepen eigenlijk proactief gaan benaderen.

561
00:23:48,400 --> 00:23:50,080
Van hey, is dit iets voor jou?

562
00:23:50,340 --> 00:23:58,860
Dus echt dat je die toereikingen biedt met suggesties die waarschijnlijk relevant zijn op basis van hoe zij erin zitten.

563
00:23:59,480 --> 00:24:00,640
Wat er voor hen speelt.

564
00:24:01,060 --> 00:24:02,200
Wat ze interessant vinden.

565
00:24:02,900 --> 00:24:04,960
Misschien kun je juist een beetje provoceren.

566
00:24:05,120 --> 00:24:09,060
Je gaf aan dit niet interessant te vinden, maar dan heb ik toch eens wat voor je.

567
00:24:09,780 --> 00:24:11,420
En niks is gek genoeg.

568
00:24:11,820 --> 00:24:12,320
Het zijn allemaal

569
00:24:12,320 --> 00:24:12,640
mensen.

570
00:24:12,710 --> 00:24:14,800
Dus je moet ook een klein beetje wakker geschud worden.

571
00:24:15,310 --> 00:24:18,660
Je hebt een melange van humor dat je kan inzetten.

572
00:24:18,880 --> 00:24:21,280
Tot en met serious business.

573
00:24:21,500 --> 00:24:23,080
We zitten hier niet om te pimpampetten.

574
00:24:23,740 --> 00:24:27,380
Wij zitten bij een aantal groot overheidsorganisaties.

575
00:24:27,800 --> 00:24:29,260
Die zijn heel erg groot.

576
00:24:31,640 --> 00:24:33,400
Daar mag ook best wel een gebbetje.

577
00:24:33,720 --> 00:24:37,160
Op menselijk enigszins veilig niveau.

578
00:24:38,580 --> 00:24:43,020
Maar het is daar ook al gauw duidelijk wat het grotere gemeengoed is.

579
00:24:44,260 --> 00:24:45,700
Als we daaraan kunnen linken.

580
00:24:46,260 --> 00:24:47,400
Die toepassingsgebieden.

581
00:24:47,660 --> 00:24:52,420
die thema's die we definiëren en omzetten tot een verhaal.

582
00:24:53,080 --> 00:24:54,720
En dat is dus wat mij betreft punt drie.

583
00:24:55,340 --> 00:25:00,320
Maak een verhaal dat echt relevant is en verpak het voor de juiste doelgroepen.

584
00:25:02,020 --> 00:25:04,580
Dan is dat gewoon heel prettig te consumeren.

585
00:25:04,820 --> 00:25:07,600
En dan kun je het ook in je hoofd veel makkelijker omzetten naar...

586
00:25:07,600 --> 00:25:11,540
wat betekent dat voor mij en hoe kan ik eens gaan testen?

587
00:25:13,420 --> 00:25:21,820
En dan moet er ook een context neergezet worden dat ik mag fouten maken en dat ik mag uitproberen.

588
00:25:22,020 --> 00:25:29,060
En dan is het helemaal oké dat je een keer denkt dat alles wat AI output is, dat dat goed is.

589
00:25:29,280 --> 00:25:32,440
Dat moeten we nog even leren met z'n allen, dat dat niet altijd het geval is.

590
00:25:33,870 --> 00:25:34,180
Dus dat.

591
00:25:34,800 --> 00:25:39,480
Er wordt best wel heel makkelijk gezegd, er mogen fouten gemaakt worden.

592
00:25:40,660 --> 00:25:43,900
Hoe zorg je nou dat dat ook echt mag en

593
00:25:43,900 --> 00:25:44,540
dat

594
00:25:44,540 --> 00:25:45,920
daar een veilige omgeving voor is?

595
00:25:46,400 --> 00:25:49,380
Ja, toegegeven, dat is wel makkelijk gezegd.

596
00:25:49,700 --> 00:25:49,860
Ja, toch?

597
00:25:50,100 --> 00:25:50,980
Ja, ja, ja.

598
00:25:51,220 --> 00:25:54,640
Want we roepen het, iedereen is het eens.

599
00:25:57,880 --> 00:26:01,080
Maar ik heb een anekdote in mijn hoofd, maar ik ga hem niet vertellen.

600
00:26:02,060 --> 00:26:06,640
Maar het is wel een organisatie waar fouten wel degelijk worden afgestraft.

601
00:26:06,720 --> 00:26:07,580
Dus dat

602
00:26:07,580 --> 00:26:10,679
is inderdaad wel gevaarlijk.

603
00:26:11,339 --> 00:26:16,100
Er zijn organisaties waar men de kop niet boven het Mindfeld durft te uitsteken.

604
00:26:16,300 --> 00:26:18,000
Dus dat is inderdaad dan een beetje riskant.

605
00:26:18,080 --> 00:26:23,520
Aan de andere kant, als je met AI op je werkplek aan de slag gaat,

606
00:26:23,600 --> 00:26:26,140
je doet niet meteen alles publiekelijk maken.

607
00:26:26,940 --> 00:26:32,060
Je denkt zelf ook wel na voordat je iets op LinkedIn plaatst en dat soort zaken.

608
00:26:32,240 --> 00:26:34,100
Dus het hoeft ook weer niet meteen zover te gaan.

609
00:26:34,500 --> 00:26:38,620
Het gaat in de categorie samenwerken aan een document.

610
00:26:39,300 --> 00:26:43,360
Een documentje opzetten en de eerste versie even genereren met AI.

611
00:26:44,860 --> 00:26:48,600
Daarvoor wordt juist niet ontslagen als daar een spelfout in staat.

612
00:26:49,240 --> 00:26:49,340
Nee,

613
00:26:49,540 --> 00:26:50,780
zeker niet.

614
00:26:51,060 --> 00:26:53,800
Ja, eigenlijk wel.

615
00:26:54,780 --> 00:26:54,940
Want die

616
00:26:54,940 --> 00:26:56,580
spelfout is het probleem natuurlijk niet.

617
00:26:56,960 --> 00:27:01,740
Als we iedereen erop moeten wijzen wie die spelfouten maakt, dan houden we het snel op.

618
00:27:02,260 --> 00:27:03,600
Maar hij is dat mijn punt toch?

619
00:27:03,660 --> 00:27:04,240
Zeker, zeker.

620
00:27:04,960 --> 00:27:05,100
Het

621
00:27:05,100 --> 00:27:06,140
is ook even van, ja.

622
00:27:07,140 --> 00:27:08,380
Maar je moet

623
00:27:08,380 --> 00:27:09,880
wel natuurlijk wel heel serieus.

624
00:27:09,980 --> 00:27:11,680
Kijk, wat ik wel als een gevaar zie,

625
00:27:12,480 --> 00:27:16,580
is dat je over de grenzen van je eigen competentie dingen gaat maken.

626
00:27:17,160 --> 00:27:18,220
En om daar een

627
00:27:18,220 --> 00:27:19,360
concreet voorbeeld van te geven,

628
00:27:19,460 --> 00:27:21,440
ik ben bij een conferentie geweest,

629
00:27:21,520 --> 00:27:23,220
dus denk ik alweer anderhalf jaar geleden of zo.

630
00:27:23,880 --> 00:27:26,120
En daar was iemand die kwam uit de,

631
00:27:27,780 --> 00:27:30,000
ja, zat geloof ik in de privacy hoek of zo.

632
00:27:30,700 --> 00:27:33,000
En die zat iets te vertellen over explainable AI,

633
00:27:33,280 --> 00:27:34,060
Uitlegbare AI.

634
00:27:34,720 --> 00:27:37,280
Nou ben ik daar juist expert in.

635
00:27:37,460 --> 00:27:40,340
Hij stond daar op het podium voor een paar honderd man.

636
00:27:40,980 --> 00:27:43,900
Echt de meest verschrikkelijke onzin te verkopen.

637
00:27:44,100 --> 00:27:50,560
En het was typisch een bullet points gegenereerde ChatGPT verhaal.

638
00:27:50,560 --> 00:27:52,700
Wat hij daar aan het afsteken was.

639
00:27:54,780 --> 00:27:55,760
Kun je er iets van aangeven?

640
00:27:57,420 --> 00:27:58,440
Je bent nu nieuwsgierig.

641
00:27:58,580 --> 00:28:02,260
Nou wat hij aangaf is dat je hebt allerlei evaluatie metrieken.

642
00:28:02,760 --> 00:28:04,020
om large language models.

643
00:28:04,440 --> 00:28:06,420
Van hoe goed dat hij het doet op

644
00:28:07,180 --> 00:28:08,060
wiskunde bijvoorbeeld.

645
00:28:08,380 --> 00:28:08,520
Of

646
00:28:08,520 --> 00:28:09,020
hoe goed

647
00:28:09,020 --> 00:28:10,000
doet hij het op bepaalde

648
00:28:10,000 --> 00:28:10,720
vraagstukken.

649
00:28:11,280 --> 00:28:12,260
En hij vond dat die

650
00:28:13,260 --> 00:28:14,740
evaluatiemetrieken een vorm waren

651
00:28:14,880 --> 00:28:16,020
van uitlegbare AI.

652
00:28:16,360 --> 00:28:16,900
Explainable AI.

653
00:28:18,300 --> 00:28:19,200
Daar kon ik helemaal niks mee.

654
00:28:20,200 --> 00:28:21,460
Want uiteindelijk is het

655
00:28:22,100 --> 00:28:23,800
het deel van explainable AI gaat over

656
00:28:23,920 --> 00:28:25,900
dat je in een model eigenlijk

657
00:28:26,260 --> 00:28:27,840
kan kijken. Hoe heeft hij

658
00:28:27,940 --> 00:28:30,320
geredeneerd? Waar komt hij op uit?

659
00:28:30,520 --> 00:28:32,079
Welke inputdaten is er misschien

660
00:28:32,100 --> 00:28:33,100
gebruikt om

661
00:28:33,940 --> 00:28:35,740
tot een bepaalde voorspelling te komen.

662
00:28:37,020 --> 00:28:37,900
Dus die twee

663
00:28:38,060 --> 00:28:39,920
hebben niets met elkaar te maken.

664
00:28:41,200 --> 00:28:42,120
Maar ik vroeg natuurlijk wel

665
00:28:42,860 --> 00:28:43,740
ja, hoe zit dat dan?

666
00:28:44,100 --> 00:28:45,120
Je had een vraag gesteld. Ja,

667
00:28:45,160 --> 00:28:45,680
uiteraard.

668
00:28:46,340 --> 00:28:47,880
Dus ik vroeg

669
00:28:47,980 --> 00:28:49,860
hoe kunnen dit soort

670
00:28:50,060 --> 00:28:51,460
evaluatie metrieken

671
00:28:52,940 --> 00:28:54,240
hoe goed die is in wiskunde

672
00:28:54,440 --> 00:28:56,500
iets zeggen over de uitlegbaarheid

673
00:28:57,400 --> 00:28:58,140
van wat

674
00:28:58,260 --> 00:28:58,980
die blackbox doet.

675
00:28:59,870 --> 00:29:02,060
Daar kwam die natuurlijk niet uit, want daar zit

676
00:29:02,080 --> 00:29:02,840
relatie tussen.

677
00:29:03,460 --> 00:29:03,900
En

678
00:29:03,900 --> 00:29:04,000
dan

679
00:29:04,200 --> 00:29:05,920
is het wel heel erg, want dan zit je dus

680
00:29:06,460 --> 00:29:07,620
over de grenzen van je

681
00:29:07,620 --> 00:29:08,300
competentie

682
00:29:08,330 --> 00:29:08,600
zit je

683
00:29:08,600 --> 00:29:10,200
iets te vertellen aan een paar honderd

684
00:29:10,340 --> 00:29:10,460
man.

685
00:29:12,400 --> 00:29:14,080
Daar moet je wel heel voorzichtig

686
00:29:14,170 --> 00:29:14,560
mee zijn.

687
00:29:14,720 --> 00:29:15,120
En dat zijn

688
00:29:15,120 --> 00:29:16,040
wel serieuze

689
00:29:16,260 --> 00:29:16,600
fouten.

690
00:29:18,080 --> 00:29:19,540
En mag je die dan nog maken?

691
00:29:19,630 --> 00:29:21,960
Ja, herkenbaar. Wij hadden dat bij een

692
00:29:22,120 --> 00:29:23,460
sollicitatie voor een

693
00:29:25,840 --> 00:29:26,280
verantwoordelijke

694
00:29:26,480 --> 00:29:26,660
baan.

695
00:29:27,900 --> 00:29:29,920
Daar moest een plan bij komen en dat plan

696
00:29:29,940 --> 00:29:32,240
was gewoon volledig door AI gegenereerd.

697
00:29:32,340 --> 00:29:32,860
Dat wil je gewoon

698
00:29:32,860 --> 00:29:33,940
toch wel aan alles zien.

699
00:29:34,180 --> 00:29:35,660
Gelukkig. Nu nog.

700
00:29:36,720 --> 00:29:37,520
Voor hoe lang het duurt.

701
00:29:39,360 --> 00:29:40,080
Precies dat.

702
00:29:40,300 --> 00:29:41,740
Hoe geloofwaardig is dat?

703
00:29:42,760 --> 00:29:43,260
En als

704
00:29:43,260 --> 00:29:43,980
dat gewoon

705
00:29:44,050 --> 00:29:45,960
een heel goed plan is, hoeft dat

706
00:29:45,960 --> 00:29:47,640
nog helemaal niet zo erg te zijn, vind ik zelf.

707
00:29:47,980 --> 00:29:49,760
Als je het kan zien dat het met hulp

708
00:29:50,000 --> 00:29:51,940
van AI gemaakt is. Maar als

709
00:29:52,040 --> 00:29:53,580
daar dusdanige

710
00:29:55,620 --> 00:29:55,980
beginnersfouten

711
00:29:56,080 --> 00:29:56,320
in staan.

712
00:29:56,620 --> 00:29:56,760
Onzin.

713
00:29:57,900 --> 00:29:59,900
Omdat je eigenlijk niet

714
00:29:59,900 --> 00:30:02,340
ervoor bent, dat vind ik wel heel kwalijk.

715
00:30:02,390 --> 00:30:04,240
Ja, mooi hè? Deze nieuwe

716
00:30:04,520 --> 00:30:06,200
wave waar we in zitten

717
00:30:06,210 --> 00:30:08,460
van innovatie waar één oog koning

718
00:30:08,680 --> 00:30:08,800
dat.

719
00:30:09,080 --> 00:30:09,260
Ja.

720
00:30:10,170 --> 00:30:11,320
En zelfs eigenlijk een blinde.

721
00:30:12,360 --> 00:30:14,180
Ja, het is bijna

722
00:30:14,340 --> 00:30:16,300
de kleding van de keizer

723
00:30:16,370 --> 00:30:17,000
is het geworden.

724
00:30:18,160 --> 00:30:19,320
Which reminds me, want

725
00:30:20,880 --> 00:30:22,160
het gaat dus ook meer

726
00:30:22,230 --> 00:30:24,300
om de uitgangspunten. Niet zozeer

727
00:30:24,460 --> 00:30:26,040
inderdaad om alle features

728
00:30:26,540 --> 00:30:26,820
en

729
00:30:28,060 --> 00:30:29,880
nitty gritty details. Het gaat

730
00:30:29,900 --> 00:30:33,240
Het gaat dus inderdaad ook over hoe werken we met elkaar samen?

731
00:30:33,460 --> 00:30:34,860
Wat wordt er van je verwacht?

732
00:30:35,660 --> 00:30:38,320
Waar moet je helemaal niet bang voor zijn?

733
00:30:38,800 --> 00:30:39,680
Waar wel voor?

734
00:30:40,700 --> 00:30:42,100
Vind ik ook steeds relevanter

735
00:30:42,100 --> 00:30:42,440
eigenlijk.

736
00:30:43,820 --> 00:30:46,980
Dus het gaat ook meer over de hoger gelegen thema's.

737
00:30:47,440 --> 00:30:50,460
Waar we elkaar in moeten helpen.

738
00:30:50,600 --> 00:30:57,000
En waar ik denk vanuit ons perspectief dan even steeds meer content over gemaakt gaat worden.

739
00:30:57,360 --> 00:30:57,460
Ja,

740
00:30:58,000 --> 00:30:58,620
waar ben je bang voor?

741
00:30:59,440 --> 00:30:59,660
Ik?

742
00:31:01,520 --> 00:31:02,300
Ja, voor zoveel.

743
00:31:03,180 --> 00:31:03,520
Houden we dan op

744
00:31:03,520 --> 00:31:04,080
het gebied van AI.

745
00:31:04,380 --> 00:31:04,900
Oh, AI.

746
00:31:05,660 --> 00:31:08,000
Oh, dat is wel heel open.

747
00:31:09,479 --> 00:31:10,000
Wegvalt.

748
00:31:12,020 --> 00:31:16,560
Ik denk wel dat AI iets meer is dan wat de rekenmachine voor wiskunde was.

749
00:31:20,200 --> 00:31:22,360
Fake news gaat natuurlijk nog verder.

750
00:31:23,020 --> 00:31:24,500
Dus we weten het dadelijk echt niet meer.

751
00:31:25,280 --> 00:31:28,900
Ik heb een angst voor grote partijen die te groot worden.

752
00:31:29,920 --> 00:31:32,240
en daar een bepaalde toon in kunnen opleggen

753
00:31:32,400 --> 00:31:36,240
en dat we afhankelijk worden van steeds oligopolie.

754
00:31:36,860 --> 00:31:38,500
Dus van maar een paar partijen.

755
00:31:39,500 --> 00:31:44,020
Ik heb een angst voor bepaalde landen die een en ander naar zich toe trekken.

756
00:31:46,240 --> 00:31:47,760
Ja, ik hou van sci-fi films.

757
00:31:48,060 --> 00:31:48,360
Dus dat

758
00:31:48,360 --> 00:31:50,340
kan nog even doorgaan.

759
00:31:51,900 --> 00:31:52,380
Duidelijk.

760
00:31:52,460 --> 00:31:52,860
Nou ja,

761
00:31:53,000 --> 00:31:54,840
kijk, iRobot loopt natuurlijk wel goed af.

762
00:31:55,100 --> 00:32:02,660
Maar ja, uiteindelijk zijn de basisregels, drie basisregels, toch weer conflicterend.

763
00:32:02,880 --> 00:32:05,380
Alles is weer op een andere manier te interpreteren.

764
00:32:05,380 --> 00:32:06,500
Dat zien we ook in rechtszaken.

765
00:32:07,340 --> 00:32:13,140
Dus ja, dat regels toch een eigen leven gaan leiden, vind ik gewoon heel gevaarlijk.

766
00:32:13,200 --> 00:32:17,460
Ik moet telkens denken ook aan dat interview met David Bowie.

767
00:32:17,560 --> 00:32:21,060
Niet dat ik mezelf als zodanig wil neerzetten als zo'n visionair als hij was.

768
00:32:21,120 --> 00:32:23,200
Ik weet niet of je dat interviewtje kent dat hij zegt.

769
00:32:24,000 --> 00:32:27,160
In 1996 of zoiets zei hij, dat internet komt eraan.

770
00:32:27,600 --> 00:32:29,140
Ik weet niet waartoe het in staat is.

771
00:32:29,660 --> 00:32:35,380
Maar er gaat nog veel meer gebeuren dan dat informatie op een andere manier wordt

772
00:32:35,380 --> 00:32:36,140
overgegaan.

773
00:32:36,580 --> 00:32:37,000
Waarop de

774
00:32:37,000 --> 00:32:44,140
interviewer zei, dat is toch gewoon een andere versie van teleprompting.

775
00:32:44,160 --> 00:32:45,180
Of weet ik veel hoe hij het noemde.

776
00:32:45,320 --> 00:32:46,860
Van informatie van A naar B krijgen.

777
00:32:47,580 --> 00:32:49,660
Hij zei, nee, ik kan het op dit moment niet overzien.

778
00:32:50,320 --> 00:32:51,740
Maar er gaat wel heel veel gebeuren.

779
00:32:51,980 --> 00:32:53,140
Dat had hij goed gezien, ja.

780
00:32:53,280 --> 00:32:53,700
Dat had hij goed

781
00:32:53,700 --> 00:32:53,980
gezien.

782
00:32:54,020 --> 00:32:54,800
En ik denk dat AI

783
00:32:54,800 --> 00:32:55,940
dat is in het kwadraat.

784
00:32:57,339 --> 00:33:02,920
Ik zou eigenlijk ook niet alleen maar roze geur, manenschijn en yippie willen doen eigenlijk.

785
00:33:03,800 --> 00:33:05,500
Ik vind dat dat ook veel te veel gebeurt.

786
00:33:06,140 --> 00:33:06,980
Nou, wij ook.

787
00:33:07,100 --> 00:33:09,220
En daarom zijn we ook deze podcast gestart.

788
00:33:09,460 --> 00:33:11,240
Om daar juist over te praten.

789
00:33:12,180 --> 00:33:13,100
En we hebben een kaartspel

790
00:33:13,100 --> 00:33:13,640
ontwikkeld.

791
00:33:13,800 --> 00:33:17,000
Om ook over van alles en nog wat te praten.

792
00:33:18,260 --> 00:33:21,400
En zo krijg je ook een beeld van de ander.

793
00:33:21,600 --> 00:33:22,480
Hoe die erover denkt.

794
00:33:22,900 --> 00:33:25,740
Ik merk dat nu we de afslag maken naar negativiteit.

795
00:33:25,880 --> 00:33:27,100
Dat je snel naar het volgende onder.

796
00:33:27,180 --> 00:33:27,940
Nee, zeker niet.

797
00:33:28,460 --> 00:33:30,420
Voor mij is het een mooi bruggetje namelijk

798
00:33:30,420 --> 00:33:31,760
om de stelling erin te gooien.

799
00:33:32,160 --> 00:33:33,040
Dat is eigenlijk het idee.

800
00:33:34,600 --> 00:33:35,920
Dus ik ga even de kaart schudden.

801
00:33:36,280 --> 00:33:36,380
Ja.

802
00:33:53,980 --> 00:33:57,820
Ja, kijk, normaal gesproken pak ik echt gewoon de kaart die er is.

803
00:33:57,980 --> 00:33:58,080
Ik

804
00:33:58,080 --> 00:33:58,840
zal hem voorlezen.

805
00:33:59,020 --> 00:33:59,720
Ik zeg het al.

806
00:33:59,800 --> 00:34:00,640
Zo transparant

807
00:34:00,640 --> 00:34:00,960
is het.

808
00:34:00,960 --> 00:34:05,299
Maar dat is echt bedrijven die generatieve AI integreren in hun bedrijfsvoering

809
00:34:05,600 --> 00:34:07,840
zullen een aanzienlijk concurrentievoordeel hebben.

810
00:34:08,040 --> 00:34:09,360
Daar hebben we het uitgebreid over

811
00:34:09,360 --> 00:34:09,659
gehad.

812
00:34:09,800 --> 00:34:10,340
Het FOMO.

813
00:34:11,060 --> 00:34:11,260
Precies.

814
00:34:11,900 --> 00:34:14,500
Dus we maken de uitzondering.

815
00:34:14,600 --> 00:34:16,260
Ik pak gewoon de kaart die erachter zat.

816
00:34:17,800 --> 00:34:19,000
In gebruik en toepassing.

817
00:34:19,139 --> 00:34:24,360
De stelling is, generatieve AI zal de ervaring van onze klanten personaliseren.

818
00:34:25,980 --> 00:34:27,760
Ja, dat zeker wel.

819
00:34:29,159 --> 00:34:32,020
Het is maar net welk perspectief je natuurlijk kiest.

820
00:34:33,020 --> 00:34:34,000
Kiezen ze een perspectief?

821
00:34:34,339 --> 00:34:36,460
Ja, ik heb iets met sales natuurlijk.

822
00:34:36,679 --> 00:34:39,440
Dus dan wil je mensen aanschrijven.

823
00:34:40,120 --> 00:34:43,679
En hoe persoonlijker je dat doet, hoe meer dat past bij de ontvanger.

824
00:34:43,760 --> 00:34:47,360
Hoe groter de kans is dat je mag laten zien wat je te bieden hebt.

825
00:34:48,139 --> 00:34:51,819
Nou ja, daar zijn natuurlijk ook heel veel AI oplossingen voor.

826
00:34:51,960 --> 00:34:53,400
Om dat steeds beter te doen.

827
00:34:54,000 --> 00:34:57,400
De keerzijde is natuurlijk dat mensen zich beginnen af te vragen.

828
00:34:58,040 --> 00:35:02,220
In hoeverre dat authentiek is, dan wel gegenereerd.

829
00:35:02,280 --> 00:35:04,819
Dus dat is ook een interessante.

830
00:35:07,220 --> 00:35:12,120
Bij onze klanten, dus mensen die iets moeten doen met de werkplek.

831
00:35:12,480 --> 00:35:14,420
Ja, hoe kun je dat persoonlijker maken? Heb jij een idee?

832
00:35:15,559 --> 00:35:17,299
Hoe zouden de leveranciers daar...

833
00:35:18,140 --> 00:35:24,700
Ja, die komen natuurlijk met suggesties van welke andere informatiebronnen voor jou interessant zouden kunnen zijn.

834
00:35:24,840 --> 00:35:29,340
Dus je kunt wel makkelijker vinden wat er bij collega's speelt.

835
00:35:29,700 --> 00:35:30,840
Dat zou al heel wat zijn, toch?

836
00:35:31,380 --> 00:35:33,920
Ja, er wordt natuurlijk al van alles in gedaan al jaren.

837
00:35:33,990 --> 00:35:35,840
En dat lukt nog niet echt.

838
00:35:36,340 --> 00:35:36,900
Delft en zo.

839
00:35:37,380 --> 00:35:38,340
Maar tegelijkertijd

840
00:35:38,340 --> 00:35:41,080
is één ding zeker.

841
00:35:41,130 --> 00:35:41,860
Het komt er heus

842
00:35:41,860 --> 00:35:42,060
wel.

843
00:35:42,100 --> 00:35:42,340
Zeker.

844
00:35:43,200 --> 00:35:45,180
Dat dat wel een nuttige vorm gaat krijgen.

845
00:35:45,540 --> 00:35:45,620
Ja.

846
00:35:46,210 --> 00:35:50,380
Nou, en ik moet meteen denken wat jij zegt over dat sales.

847
00:35:51,840 --> 00:35:55,520
Vanwege mijn functie krijg ik helaas ook een hele hoop cold calling.

848
00:35:56,720 --> 00:36:01,360
En op het moment dat ik alleen maar het verhaal van de anderen te horen krijg.

849
00:36:01,960 --> 00:36:03,420
Wat zij doen, wat zij te bieden hebben.

850
00:36:04,680 --> 00:36:06,720
Dan kom je er bij mij sowieso niet door.

851
00:36:07,959 --> 00:36:10,380
Dus maakt het dan uit of het AI gegenereerd is.

852
00:36:10,480 --> 00:36:11,480
Dat weet ik eigenlijk niet zo goed.

853
00:36:11,580 --> 00:36:14,300
Maar dat je überhaupt niet de moeite neemt.

854
00:36:15,900 --> 00:36:17,900
Om te kijken naar wie je aan de lijn hebt.

855
00:36:17,920 --> 00:36:19,340
En wat het voor mij zou kunnen betekenen.

856
00:36:20,320 --> 00:36:20,640
En dan houdt

857
00:36:20,640 --> 00:36:21,160
het gewoon al op.

858
00:36:22,240 --> 00:36:26,760
Maar je zult ook met een enigszins creatieve inslag moeten komen, toch?

859
00:36:26,920 --> 00:36:27,100
Het

860
00:36:27,100 --> 00:36:31,280
is toch leuk als iemand weet dat jij toevallig heel erg veel van zij laat.

861
00:36:31,500 --> 00:36:33,920
Dat hij een woordgrapje daarin verwerkt.

862
00:36:34,300 --> 00:36:34,880
Desnoods.

863
00:36:35,410 --> 00:36:42,160
Maar in ieder geval dat er iets persoonlijks wordt gedeeld.

864
00:36:42,779 --> 00:36:43,140
Wanneer

865
00:36:43,140 --> 00:36:47,600
is het de laatste keer dat bij jou iemand succesvol jouw koud benaderd heeft?

866
00:36:47,700 --> 00:36:48,840
Is het bestaat dat?

867
00:36:50,480 --> 00:36:51,400
Dat is een goede vraag.

868
00:36:53,140 --> 00:36:54,360
er popt zo niks op.

869
00:36:54,660 --> 00:36:57,220
Ja, ik ben nu zover in de groei

870
00:36:57,320 --> 00:36:58,460
dat het nu pas begint.

871
00:36:58,740 --> 00:36:58,840
Dat

872
00:36:58,840 --> 00:36:59,460
anderen

873
00:36:59,460 --> 00:37:01,300
mij koud beginnen te naderen.

874
00:37:01,400 --> 00:37:01,760
De

875
00:37:01,760 --> 00:37:02,220
eerste

876
00:37:02,220 --> 00:37:02,900
paar jaar

877
00:37:03,460 --> 00:37:04,640
was het vooral andersom.

878
00:37:07,700 --> 00:37:08,940
Overigens, toen deed ik alles

879
00:37:09,000 --> 00:37:10,160
met LinkedIn Automation.

880
00:37:10,840 --> 00:37:12,580
En in 2020 werkte dat echt.

881
00:37:12,840 --> 00:37:13,320
Kon

882
00:37:13,320 --> 00:37:15,060
ik echt hier gewoon duizend mensen aanschrijven

883
00:37:15,220 --> 00:37:16,180
met high first name.

884
00:37:17,140 --> 00:37:18,360
En pakte die jouw naam op.

885
00:37:18,720 --> 00:37:19,560
Super persoonlijk.

886
00:37:20,920 --> 00:37:22,200
Dat is niet meer genoeg nu.

887
00:37:22,480 --> 00:37:23,900
Nee, totaal

888
00:37:23,900 --> 00:37:24,040
niet.

889
00:37:24,280 --> 00:37:26,160
En nu begint het zich te draaien.

890
00:37:26,240 --> 00:37:30,800
Dat ik iedere dag inderdaad wel een paar LinkedIn uitnodigingen krijg.

891
00:37:31,000 --> 00:37:32,200
Om geholpen te worden.

892
00:37:32,360 --> 00:37:32,980
Maar ja, inderdaad.

893
00:37:33,040 --> 00:37:34,640
Je wordt er toch een beetje ook cynisch van.

894
00:37:36,500 --> 00:37:38,340
Dat je denkt, ja, we hebben er weer een.

895
00:37:39,640 --> 00:37:41,360
Nu begrijp ik al die andere mensen.

896
00:37:41,620 --> 00:37:43,680
Die ik jarenlang heb geprobeerd.

897
00:37:46,720 --> 00:37:48,580
Voordat we de stelling ingingen.

898
00:37:48,860 --> 00:37:49,300
Zal ik me

899
00:37:49,300 --> 00:37:50,180
nog te bedenken.

900
00:37:50,520 --> 00:37:57,380
En je begon met van, ik had dit werk niet kunnen doen zonder de ervaring die je had bij Microsoft.

901
00:37:57,570 --> 00:38:00,040
Of gewoon zeg maar überhaupt in een grote enterprise te werken.

902
00:38:01,640 --> 00:38:06,080
Dus dat maakt me nieuwsgierig.

903
00:38:06,240 --> 00:38:08,020
Wat heb je daar dan geleerd?

904
00:38:09,060 --> 00:38:15,700
Wat je nu gebruikt met je product, met je bedrijf?

905
00:38:17,600 --> 00:38:18,640
Ja, perspectieven.

906
00:38:19,600 --> 00:38:23,580
Dus voorheen op meerdere manieren.

907
00:38:24,920 --> 00:38:29,740
Ik kan me beter inleven in andere mensen die bij grotere organisaties werken.

908
00:38:30,080 --> 00:38:30,360
Niet

909
00:38:30,360 --> 00:38:32,920
beter dan een ander, maar beter dan ik zelf had gekund.

910
00:38:32,960 --> 00:38:34,620
Even voor de zekerheid.

911
00:38:38,280 --> 00:38:42,860
Maar ook wat ik heel interessant vond in de switch van bij Microsoft werken en weggaan,

912
00:38:43,700 --> 00:38:45,660
was vooral hoe de buitenwereld naar je keek.

913
00:38:47,900 --> 00:38:48,980
Maar ook weer op verschillende manieren.

914
00:38:49,220 --> 00:38:57,460
Sommige mensen vinden je heel erg hoog en iets knaps gedaan dat je bij Microsoft werkt.

915
00:38:57,930 --> 00:38:59,640
Daar had ik totaal niks mee.

916
00:39:00,620 --> 00:39:02,340
Maar die perceptie is er.

917
00:39:03,660 --> 00:39:05,540
Die liet je dus ook vallen daarna.

918
00:39:09,180 --> 00:39:11,580
Maar ook mensen die dat juist weer heel interessant vonden.

919
00:39:11,680 --> 00:39:13,480
Dat je zo'n onlogische switch maakt.

920
00:39:13,490 --> 00:39:17,600
Want de meeste mensen willen daar juist in groeien.

921
00:39:18,880 --> 00:39:20,140
In dat keurslijf.

922
00:39:22,960 --> 00:39:27,380
Ja, dus je ziet daardoor heel veel verschillende perspectieven.

923
00:39:27,400 --> 00:39:30,900
Ook toen had ik andere gesprekken met klanten dan dat ik nu heb.

924
00:39:31,180 --> 00:39:41,600
Dus dat vind ik er heel erg interessant aan om ooit voor een van de grootste organisaties en nu een van de kleinste organisaties gewerkt te hebben.

925
00:39:42,540 --> 00:39:46,120
En druppelt dat ergens door in je adoptieprogramma?

926
00:39:47,940 --> 00:39:52,280
Die perspectieven, dus hetgeen ik geleerd heb bij Microsoft.

927
00:39:53,780 --> 00:40:00,800
In die zin, ja, ik hou er heel erg van om dingen juist plat te slaan en zo.

928
00:40:00,980 --> 00:40:07,360
Dus juist dat Amerikaanse toontje vind ik wel leuk om daar ook een beetje tegenin te gaan.

929
00:40:08,000 --> 00:40:10,000
En dat matcht wel lekker met Nederlanders.

930
00:40:10,500 --> 00:40:12,180
Laat mij nou maar gewoon weten wat ik moet weten.

931
00:40:14,880 --> 00:40:17,460
En waarom jij dat belangrijk vindt in plaats van it's amazing.

932
00:40:17,700 --> 00:40:25,260
Dus ik kan er wel eens een beetje tegenin gaan vechten ofzo.

933
00:40:25,680 --> 00:40:26,140
Dat is

934
00:40:26,140 --> 00:40:27,240
natuurlijk de reden dat ik dan maar onder

935
00:40:27,240 --> 00:40:28,160
de hand ben gehoord.

936
00:40:29,739 --> 00:40:31,760
Maar dat werkt op zich wel.

937
00:40:32,510 --> 00:40:33,720
Ook weer juist verbindend.

938
00:40:35,499 --> 00:40:40,260
Want iedereen laat zich maar over aan de grote macht van de grote IT-partijen.

939
00:40:40,270 --> 00:40:46,680
En het is op zich ook wel verfrissend om daar even een beetje objectief in te zitten.

940
00:40:46,980 --> 00:40:48,920
Niet zeggende dat ze slecht en gemeen zijn.

941
00:40:49,240 --> 00:40:50,200
Nee, zeker

942
00:40:50,200 --> 00:40:50,420
niet.

943
00:40:50,950 --> 00:40:52,280
Voor ons is het ook een hele goede partner.

944
00:40:52,980 --> 00:40:53,080
Dus

945
00:40:53,080 --> 00:40:53,600
zo

946
00:40:53,600 --> 00:40:54,040
is het ook.

947
00:40:54,860 --> 00:40:58,660
Als je nou vrij zou mogen denken over deze technologie.

948
00:41:01,540 --> 00:41:06,080
Wat voor systeem of welk probleem zou je oplossen met AI?

949
00:41:08,380 --> 00:41:12,440
Als je daar onbeperkt over zou kunnen beschikken.

950
00:41:12,940 --> 00:41:14,220
En ik geef je even wat bedenkt uit.

951
00:41:14,220 --> 00:41:15,000
Ja, dank je.

952
00:41:15,060 --> 00:41:18,200
Een leven vol gemak.

953
00:41:19,340 --> 00:41:22,840
De technologie die alles doet waar we van dromen.

954
00:41:24,060 --> 00:41:27,160
Geen grenzen meer, niets houdt ons nog tegen.

955
00:41:28,520 --> 00:41:33,220
Het leven zoals wij het altijd wilden beleven.

956
00:41:36,400 --> 00:41:36,560
Ja.

957
00:41:36,880 --> 00:41:37,400
Heb je een idee?

958
00:41:37,800 --> 00:41:38,000
Ja.

959
00:41:39,700 --> 00:41:43,880
Nou ja, ook dat thema van dit gesprek was misschien wel tegenstrijdigheden.

960
00:41:44,240 --> 00:41:44,400
Ja.

961
00:41:48,620 --> 00:41:51,000
is waarborgen van de authenticiteit.

962
00:41:52,860 --> 00:41:54,800
En dat is natuurlijk ook best wel tegenstrijdig iets,

963
00:41:54,940 --> 00:41:59,660
want AI leert van hetgeen er al ooit eens een keer gezegd of gedaan is.

964
00:42:00,420 --> 00:42:02,760
Dus ik heb ook geen idee hoe we dat gaan realiseren.

965
00:42:04,160 --> 00:42:06,460
Maar dat is nog een van die andere angsten waar ik op kom.

966
00:42:07,470 --> 00:42:08,240
Dus dat AI

967
00:42:08,240 --> 00:42:11,860
je gaat helpen bij authentieker worden?

968
00:42:13,080 --> 00:42:13,700
Of blijven.

969
00:42:14,020 --> 00:42:14,480
Dat we wel

970
00:42:14,480 --> 00:42:15,740
een stukje mens blijven.

971
00:42:15,900 --> 00:42:16,480
En

972
00:42:16,480 --> 00:42:20,680
dat is natuurlijk ook nog een reden.

973
00:42:20,940 --> 00:42:24,200
Ook wat weer een link is naar het verhaal van Microsoft van net.

974
00:42:25,860 --> 00:42:28,260
Niet zeggende dat dat voor andere mensen geldt.

975
00:42:28,740 --> 00:42:34,600
Maar voor mij was het niet mogelijk om authentiek te blijven in zo'n grote organisatie die één kant op gaat.

976
00:42:35,400 --> 00:42:38,440
Nogmaals, niet zeggende dat dit voor andere mensen zo is.

977
00:42:38,980 --> 00:42:41,340
Maar ik vind dat gewoon heel erg belangrijk.

978
00:42:41,760 --> 00:42:45,080
Dat dingen authentiek en ook een beetje leuk blijven.

979
00:42:45,760 --> 00:42:47,200
Want het leven is al kort genoeg.

980
00:42:47,430 --> 00:42:47,580
Ze

981
00:42:47,580 --> 00:42:49,320
mag ook wel een beetje gelachen worden en zo.

982
00:42:52,260 --> 00:42:55,160
En ja, ik ben benieuwd hoe AI daaraan gaat bijdragen.

983
00:42:55,640 --> 00:43:00,020
Dat zit dus ook vooral in het stukje opvoeding.

984
00:43:01,140 --> 00:43:05,120
Het leren van dat mensen ook daar zichzelf in kunnen blijven.

985
00:43:05,180 --> 00:43:06,460
Dat mensen blijven nadenken.

986
00:43:06,560 --> 00:43:10,580
Dat mensen ook een stukje common sense behouden.

987
00:43:12,400 --> 00:43:14,460
terwijl alles richting AI gaat.

988
00:43:14,500 --> 00:43:17,160
Want ik merk nu al een beetje dat ik ook weer een beetje dommer word.

989
00:43:17,440 --> 00:43:20,680
Net zoals navigeren, daar konden we vroeger ook beter.

990
00:43:20,720 --> 00:43:21,740
Daar zijn we slechter in geworden.

991
00:43:22,640 --> 00:43:26,800
En ik ben ook in e-mails, ik was altijd best wel goed in taal en zo,

992
00:43:26,920 --> 00:43:28,160
ik word ontzettend lui.

993
00:43:28,380 --> 00:43:28,640
Oh ja.

994
00:43:29,820 --> 00:43:32,100
En dan probeer ik ook echt over na te denken van,

995
00:43:33,340 --> 00:43:35,620
Sjoerd, welk Engels woordje heeft hij nu toegepast,

996
00:43:35,660 --> 00:43:37,840
waardoor dit echt een mooiere zin is geworden?

997
00:43:38,480 --> 00:43:43,500
Dat je wel even beseft dat je er ook nog van leert.

998
00:43:43,580 --> 00:43:45,540
En dat het niet weer klakkeloos overneemt.

999
00:43:45,640 --> 00:43:47,900
Misschien is het daarom ook wat jij zegt.

1000
00:43:49,140 --> 00:43:51,080
Dat we dat AI moeten leren.

1001
00:43:51,220 --> 00:43:52,900
Maar zouden we dat niet gewoon onszelf moeten leren?

1002
00:43:52,980 --> 00:43:55,880
Dat je eigenlijk een aantal dingen helemaal niet uitbesteedt?

1003
00:43:56,040 --> 00:43:57,100
Ja, misschien wel.

1004
00:43:57,640 --> 00:44:01,140
En zit dat eigenlijk ook in de adoptie van...

1005
00:44:02,520 --> 00:44:05,780
Want authentiek en misschien autonoom ligt misschien ook dicht bij elkaar.

1006
00:44:07,640 --> 00:44:14,460
Dat je dat bewaakt, begrenst op delen waarvan je zegt van dit wil ik dat dit van mezelf blijft.

1007
00:44:15,160 --> 00:44:19,180
Ja, dat is wel een heel belangrijk onderwerp om mee te nemen.

1008
00:44:19,400 --> 00:44:21,960
Niet zeggende dat we dit nu al doen, maar een fantastisch idee

1009
00:44:21,960 --> 00:44:22,860
om

1010
00:44:22,860 --> 00:44:24,400
dat als zodanig op te pakken.

1011
00:44:24,400 --> 00:44:28,420
En dat linkt ook weer een beetje naar die hoger gelegen thema's waar we het net over hadden.

1012
00:44:28,840 --> 00:44:33,780
Misschien moeten we daar wat meer bij stilstaan en is dat eigenlijk best interessant voor iedereen ook.

1013
00:44:34,340 --> 00:44:35,260
Om het daar eerst eens.

1014
00:44:36,380 --> 00:44:37,200
Of parallel te gaan.

1015
00:44:37,200 --> 00:44:37,840
We hoeven niet te wachten.

1016
00:44:39,280 --> 00:44:40,240
Over te hebben met elkaar.

1017
00:44:41,160 --> 00:44:42,800
Nou, dat lijkt me een mooie.

1018
00:44:43,320 --> 00:44:44,460
Om er mee af te sluiten.

1019
00:44:44,600 --> 00:44:46,200
Volgens mij zijn we begonnen.

1020
00:44:46,380 --> 00:44:48,140
Bij jouw verhaal van Microsoft.

1021
00:44:48,440 --> 00:44:49,660
Naar WorkplaceBuddy.

1022
00:44:50,240 --> 00:44:52,680
Wat je doet qua adoptie.

1023
00:44:53,700 --> 00:44:54,380
Mooie inzichten.

1024
00:44:54,500 --> 00:44:55,540
Goede tips gegeven.

1025
00:44:55,600 --> 00:44:57,360
Dus ik denk dat mensen daar wel mee aan de slag kunnen.

1026
00:44:57,840 --> 00:44:58,200
Dankjewel.

1027
00:44:58,840 --> 00:45:02,180
Ik heb ook weer allemaal inspiratie opgedaan.

1028
00:45:02,500 --> 00:45:03,620
Om de adoptie weer mee te

1029
00:45:03,620 --> 00:45:04,300
verbeteren.

1030
00:45:04,420 --> 00:45:05,880
Dus jij ook bedankt.

1031
00:45:06,020 --> 00:45:07,520
En luisteraar misschien ook.

1032
00:45:07,630 --> 00:45:08,940
Dus dat zou helemaal fijn zijn.

1033
00:45:09,520 --> 00:45:09,940
Dankjewel.

1034
00:45:12,440 --> 00:45:14,640
Dankjewel weer voor het luisteren naar deze aflevering.

1035
00:45:15,380 --> 00:45:17,740
Abonneer je eens op onze nieuwsbrief.

1036
00:45:17,860 --> 00:45:20,160
Daar vind je allerlei exclusieve content.

1037
00:45:20,480 --> 00:45:21,700
Over de opnames.

1038
00:45:22,200 --> 00:45:24,060
En kijk je achter de schermen.

1039
00:45:24,880 --> 00:45:25,360
Altijd leuk.

1040
00:45:25,750 --> 00:45:26,820
Eén keer in de maand.

1041
00:45:27,660 --> 00:45:28,580
Tot de volgende keer.

1042
00:45:29,000 --> 00:45:29,380
Dankjewel.


People on this episode