AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S05E31 - De omscholing naar Data Scientist: Persoonlijke verhaal over groei
In deze aflevering van AIToday Live verwelkomen we Harm Bodewes, een prominente figuur in de wereld van data en AI als co-host van De Dataloog. AI & Data Science is een prachtig vak en Harm deelt zijn ervaring hoe hij zich omschoolde. Een inspiratie voor een ieder die een dergelijke carrière switch overweegt.
Harm, afgestudeerd aan de Universiteit van Tilburg, begon zijn carrière bij Oracle Nederland en heeft in zijn loopbaan verschillende tech-bedrijven op zijn CV kunnen plaatsen.
Bodewes verliet de corporate wereld om zich volledig te richten op data science aan de Jheronimus Academy of Data Science. Zijn passie voor data en software heeft hem aangezet tot een freelance carrière waarin hij machine learning technieken toepast in diverse projecten.
Tijdens deze podcast deelt Harm zijn kostbare ervaringen en inzichten uit de AI-sector en benadrukt hij het belang van het bijhouden van IT-kennis voor iedereen die een carrière in AI en Data Science overweegt.
Links
- De Dataloog: https://dedataloog.nl/
- Crisp-dm: https://en.wikipedia.org/wiki/Cross-industry_standard_process_for_data_mining
- Jheronimus Academy of Data Science (JADS) : https://www.jads.nl/
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:03,000
[Muziek]
2
00:00:03,000 --> 00:00:06,000
Hoi, welkom bij een nieuwe aflevering van de AI Today Live.
3
00:00:06,000 --> 00:00:08,000
Leuk dat je weer luistert.
4
00:00:08,000 --> 00:00:10,000
Mijn naam is Joop Snijder, CTO bij Aigency.
5
00:00:10,000 --> 00:00:13,000
Mijn naam Niels Naglé, chapter lead, data en AI bij Info Support.
6
00:00:13,000 --> 00:00:16,000
En te gast is Harm Bodewes
7
00:00:16,000 --> 00:00:21,000
En Harm is eigenlijk meer ervaren dan wij met de podcast.
8
00:00:21,000 --> 00:00:24,000
Want Harm, jij bent ook co-host van de Dataloog.
9
00:00:24,000 --> 00:00:29,000
We vinden het een enorme eer dat we jou in de show hebben.
10
00:00:29,000 --> 00:00:34,000
Maar zou je je eerst even willen voorstellen wat je buiten dataloog nog meer doet?
11
00:00:34,000 --> 00:00:38,000
Ik vind het zelf ook een eer om hier te mogen verschijnen, heren.
12
00:00:38,000 --> 00:00:39,000
Kijk.
13
00:00:39,000 --> 00:00:41,000
Ja, wat willen jullie van me weten?
14
00:00:41,000 --> 00:00:45,000
Nou, gewoon een klein beetje achtergrond, wie je bent.
15
00:00:45,000 --> 00:00:52,000
Dat de luisteraar een beetje een, nou niet misschien een beeld heeft, maar wel dat ze wat van je gehoord hebben.
16
00:00:52,000 --> 00:00:55,000
Oké. Nou, mijn naam is Harm Bodewes.
17
00:00:55,000 --> 00:01:05,000
Ik ben 55 jaar jong. Ik heb lang geleden bestuurlijke informatiekunde gestudeerd in Tilburg.
18
00:01:05,000 --> 00:01:10,000
En misschien wel leuk om te vertellen is dat ik in de jaren 80 al een vak gedaan heb.
19
00:01:10,000 --> 00:01:13,000
En dat heette AI. - Geweldig.
20
00:01:13,000 --> 00:01:15,000
Artificiële intelligentie. - Ja.
21
00:01:15,000 --> 00:01:19,000
En wij mochten programmeren in Prolog. Kennen jullie dat heren?
22
00:01:19,000 --> 00:01:21,000
Ja, dat heb ik ook gehad. - Nee, sorry jongens.
23
00:01:21,000 --> 00:01:34,000
Ja, ik ben 51. Prologue, dat heeft ervoor gezorgd dat ik zoveel jaren later uiteindelijk weer het vuurtje van AI heb opgepikt.
24
00:01:34,000 --> 00:01:40,000
Ik vond dat toen zo cool, ook dat Prologue, stel er niet zoveel voor, maar was wel cool.
25
00:01:40,000 --> 00:01:46,000
Nou ja, en het was, ik weet niet of alle luisteraars dit interessant vinden hoor, maar goed, we gaan er door met praten.
26
00:01:46,000 --> 00:01:50,000
Het was helemaal gebaseerd op predicate-logica.
27
00:01:50,000 --> 00:01:56,000
Het was een declaratieve vorm van programmeren, totaal anders dan Turbo Pascal.
28
00:01:56,000 --> 00:01:58,000
Wat we in die tijd ook moesten leren.
29
00:01:58,000 --> 00:02:01,000
Ik kijk naar Niels, ik denk waar hebben die heren het over?
30
00:02:01,000 --> 00:02:03,000
Ik krijg even een geschiedenislesje.
31
00:02:03,000 --> 00:02:07,000
Dit is een soort van pondskaart, maar dan over het gebied van...
32
00:02:07,000 --> 00:02:13,000
Maar goed, daarna ben ik, net zoals de meeste mensen, gaan werken.
33
00:02:13,000 --> 00:02:15,920
Ik ben in het Oracle vak terechtgekomen.
34
00:02:15,920 --> 00:02:18,600
Mijn eerste werkgever was ook Oracle Nederland.
35
00:02:18,600 --> 00:02:20,600
Daar was ik docent.
36
00:02:20,600 --> 00:02:25,200
Dus ik gaf cursussen SQL, PL/SQL, datamodellering.
37
00:02:25,200 --> 00:02:30,000
Eigenlijk over de hele wereld stond ik als jong baroekie toen nog cursus te geven.
38
00:02:30,000 --> 00:02:35,400
1995 zijn we met een aantal mensen het bedrijf Transfer Solutions gestart.
39
00:02:35,400 --> 00:02:40,800
Een Oracle spin-off zou je kunnen zeggen in Leerdam of all places.
40
00:02:40,800 --> 00:02:43,800
Daar heb ik uiteindelijk exact 20 jaar gewerkt.
41
00:02:43,800 --> 00:02:50,800
Toen ben ik in dienst getreden van Van der Landen, een groot bedrijf in Veghel.
42
00:02:50,800 --> 00:02:55,800
Specialiseerd in warehouse automatisering en bagage afhandelingssystemen.
43
00:02:55,800 --> 00:02:59,800
Iedereen die wel eens op Schiphol is geweest, die heeft er gebruik van gemaakt.
44
00:02:59,800 --> 00:03:04,800
Dus als je je koffertje van die band afhaalt...
45
00:03:04,800 --> 00:03:08,800
Die koffer is over systemen van Van der Landen heen gegaan.
46
00:03:08,800 --> 00:03:11,800
En daar heb ik de andere host Niels ook leren kennen,
47
00:03:11,800 --> 00:03:14,400
want daar heb ik toen Infosport ingehuurd.
48
00:03:14,400 --> 00:03:17,800
En na een jaar of vijf toen dacht ik,
49
00:03:17,800 --> 00:03:20,400
nou weet je, ik vind dit vak heel erg leuk,
50
00:03:20,400 --> 00:03:24,400
maar ik vind het eigenlijk nog veel leuker om dit voor mezelf te gaan doen.
51
00:03:24,400 --> 00:03:27,800
Dus toen heb ik eerst een korte break ingelast.
52
00:03:27,800 --> 00:03:31,400
Ben ik gaan studeren, Data Science.
53
00:03:31,400 --> 00:03:35,200
En ja, daarna ben ik weer naar de universiteit gegaan.
54
00:03:35,200 --> 00:03:37,200
Data Science.
55
00:03:37,200 --> 00:03:41,200
En daarna ben ik voor mezelf begonnen als ZZP'er.
56
00:03:41,200 --> 00:03:44,200
En dat doe ik nog steeds. Kan ik iedereen aanraden.
57
00:03:44,200 --> 00:03:47,200
- Nou, waar we je voor hebben uitgenodigd.
58
00:03:47,200 --> 00:03:51,200
Misschien Niels, want dit kwam echt uit jouw koken.
59
00:03:51,200 --> 00:03:55,200
- Ja, ik was wel geïnspireerd door jouw harm dat je inderdaad...
60
00:03:55,200 --> 00:03:58,200
Data Analytics, daar zit ik ook in.
61
00:03:58,200 --> 00:04:00,200
Dat doe ik ook al jaren.
62
00:04:00,200 --> 00:04:02,200
We hadden het net over een beetje historie.
63
00:04:02,200 --> 00:04:05,680
is toch wel oudere leeftijd, als ik dat mag zeggen. Zo niet, ik heb het net gezegd.
64
00:04:05,680 --> 00:04:14,920
En dan toch inderdaad de stap maakt, inderdaad van een studie volgen en het vakgebied AI weer en
65
00:04:14,920 --> 00:04:21,360
Data Science weer verder inrollen. En ik was benieuwd, wat heb je daar aan meegekregen? Wat
66
00:04:21,360 --> 00:04:25,640
heb je overwogen om die stap te maken en hoe is het bevallen? Heb je net een klein beetje door laten
67
00:04:25,640 --> 00:04:32,120
slijmen? Ja ja ja, natuurlijk. Nou eigenlijk was ik binnen Van Landen al met het vakgebied bezig,
68
00:04:32,120 --> 00:04:35,920
Ik was de eerste director van die afdeling.
69
00:04:35,920 --> 00:04:38,920
Het was ook een nieuwe afdeling, Data Analytics.
70
00:04:38,920 --> 00:04:42,720
En het omvat binnen Van Landen zowel Business Intelligence...
71
00:04:42,720 --> 00:04:46,920
als Master Data Management en een heel klein beetje Data Science.
72
00:04:46,920 --> 00:04:50,120
En wat ik nu vertel is, nou, zes jaar geleden, denk ik.
73
00:04:50,120 --> 00:04:51,120
Ja, zoiets, ja.
74
00:04:51,120 --> 00:04:54,920
Dus daar hebben we de eerste stapjes gemaakt.
75
00:04:54,920 --> 00:05:00,720
Voorspelmodellen van, nou, bijvoorbeeld het voorspellen van de kosten...
76
00:05:00,720 --> 00:05:02,720
of het voorspellen van de omzet.
77
00:05:02,720 --> 00:05:07,720
Eigenlijk redelijk eenvoudige modellen, nog niet eens met machine learning technieken.
78
00:05:07,720 --> 00:05:12,720
En jouw vraag, wat heeft jou bewogen?
79
00:05:12,720 --> 00:05:17,720
Nou het was ten eerste een persoonlijke afweging dat ik er op een gegeven moment achterkwam
80
00:05:17,720 --> 00:05:21,720
dat ik gewoon veel beter bij een wat kleiner bedrijf pas
81
00:05:21,720 --> 00:05:27,720
dan bij een heel groot bolwerk met alle politiek en noem maar op wat daarbij hoort.
82
00:05:27,720 --> 00:05:30,720
Dus ik dacht ik moet echt weer bij een kleiner bedrijf gaan werken.
83
00:05:30,720 --> 00:05:33,720
Uiteindelijk ben ik dus bij een eenmansbedrijf gaan werken.
84
00:05:33,720 --> 00:05:35,720
Kleiner kan niet.
85
00:05:35,720 --> 00:05:37,720
Dus dat was een overweging.
86
00:05:37,720 --> 00:05:43,720
En een andere overweging was, ik vond op een gegeven moment dat dat op zich niks met Van der Landen te maken had.
87
00:05:43,720 --> 00:05:49,720
Maar ik was managers aan het managen, die op hun beurt weer managers aan het managen waren.
88
00:05:49,720 --> 00:05:52,720
En ik stond zo ver van de inhoud af.
89
00:05:52,720 --> 00:05:55,720
En ik dacht, ja wacht eens even, wat vind ik nou echt leuk.
90
00:05:55,720 --> 00:06:00,920
leuk. Ik was inmiddels de vijftige gepasseerd. Misschien zat ik midden in de midlife, weet ik veel.
91
00:06:00,920 --> 00:06:07,960
Maar ik dacht ik moet weer de inhoud induiken en toen had ik inmiddels al met een aantal collega's
92
00:06:07,960 --> 00:06:14,480
van Van der Lande een summer course of iets dergelijks gevolgd. Vier keer een vrijdag een
93
00:06:14,480 --> 00:06:21,600
college op het JATS. Het JATS is de Geronimous Academy of Data Science in Den Bosch. Ik zie
94
00:06:21,600 --> 00:06:23,600
Ik wil niet heel erg in eens klikken, je kent het.
95
00:06:23,600 --> 00:06:26,800
Toen dacht ik, nou weet je, ik neem ontslag bij Van der Landen.
96
00:06:26,800 --> 00:06:29,300
En ik ga gewoon weer lekker studeren.
97
00:06:29,300 --> 00:06:33,800
Dus ik heb me ingeschreven bij Professional Education aan het JATS.
98
00:06:33,800 --> 00:06:37,300
En dat is een hele goede keuze geweest.
99
00:06:37,300 --> 00:06:43,600
Wat sprak je nou zo aan in de AI machine learning om je juist daarin te verdiepen?
100
00:06:43,600 --> 00:06:47,100
Want je zegt, je komt uit de software development.
101
00:06:47,100 --> 00:06:51,600
Je bent de data analytics, BI hoek ingegaan.
102
00:06:51,600 --> 00:06:55,300
Wat heeft je nou getriggerd om juist dit te kiezen?
103
00:06:55,300 --> 00:06:58,100
Ik kom eigenlijk oorspronkelijk al uit die wereld,
104
00:06:58,100 --> 00:07:02,400
want ik studeerde in Tilburg, maar ik was daar ook studentassistent.
105
00:07:02,400 --> 00:07:07,300
En ik was daar het hulpje van professor Meersman.
106
00:07:07,300 --> 00:07:12,100
Die was hoogleraar in datamodellering en kennisrepresentatie.
107
00:07:12,700 --> 00:07:18,300
En ik ben ook afgestudeerd op een vergelijking tussen twee datamodelleringsmethoden.
108
00:07:18,300 --> 00:07:22,300
Dus dat data, ik ben het eigenlijk wel de softwarewereld in gerold.
109
00:07:22,300 --> 00:07:25,700
Data en software zijn eigenlijk hele verschillende gebieden, vind je niet?
110
00:07:25,700 --> 00:07:27,700
Zeker. - Vind ik wel in ieder geval.
111
00:07:27,700 --> 00:07:29,700
Ik ga jullie nu even een vraag stellen.
112
00:07:29,700 --> 00:07:34,700
Ja, zeker. Het ligt er een beetje aan op welk vlak.
113
00:07:34,700 --> 00:07:42,660
Dus als je robuuste systemen wil maken, kan je heel goed software development technieken gebruiken.
114
00:07:42,660 --> 00:07:50,260
binnen data en 99 van de 100 keer heb je ook data nodig als je softwareontwikkeling aan het doen bent.
115
00:07:50,260 --> 00:07:55,860
Dus het heeft zeker overlap, maar als je het als vakgebieden ziet, denk ik dat het twee vakgebieden zijn.
116
00:07:55,860 --> 00:07:58,460
Ja, nou zo denk ik het dus ook over.
117
00:07:58,460 --> 00:08:06,660
En het vakgebied van datamodellering, kijk in essentie is datamodellering het maken van een model,
118
00:08:06,660 --> 00:08:09,660
Een vereenvoudiging van de werkelijkheid.
119
00:08:09,660 --> 00:08:13,660
En de meeste datamodellen veranderen ook helemaal niet in de loop der tijd.
120
00:08:13,660 --> 00:08:14,660
Het hoeft ook helemaal niet.
121
00:08:14,660 --> 00:08:17,660
Als je op een flexibele manier modelleert, hoeft het helemaal niet.
122
00:08:17,660 --> 00:08:22,660
Dus om nu even terug te komen op jouw vraag, wat heeft jou bewogen?
123
00:08:22,660 --> 00:08:27,660
Dat data-vak sprak mij vanaf toen ik heel jong was al aan.
124
00:08:27,660 --> 00:08:29,660
Ik wilde dus meer met de inhoud gaan doen.
125
00:08:29,660 --> 00:08:34,660
Ik wilde af van dat manager van managers van managers van managers, et cetera.
126
00:08:34,660 --> 00:08:37,660
En ik was al enthousiast geraakt over het JATS.
127
00:08:37,660 --> 00:08:42,260
Dus ik dacht, als ik het nu niet doe, dan komt het er niet meer van.
128
00:08:42,260 --> 00:08:44,260
Dus toen ben ik gaan bellen naar Den Bosch.
129
00:08:44,260 --> 00:08:48,260
Nou, jammer meneer Boudet, we zijn net met een groep gestart.
130
00:08:48,260 --> 00:08:52,260
Is er geen mogelijkheid om toch nog aan te sluiten?
131
00:08:52,260 --> 00:08:54,660
En toen heb ik in de kerstvakantie, ik weet het niet,
132
00:08:54,660 --> 00:08:57,660
veel jaar of vier geleden inmiddels denk ik,
133
00:08:57,660 --> 00:09:01,660
het werd toen al allemaal opgenomen, het was al net,
134
00:09:01,660 --> 00:09:03,380
Ja, het was coronatijd.
135
00:09:03,380 --> 00:09:05,380
Dat is drie jaar geleden trouwens, bedenk ik me nu.
136
00:09:05,380 --> 00:09:07,980
En toen heb ik alle colleges die al geweest waren,
137
00:09:07,980 --> 00:09:11,980
heb ik even op film, op mp4, gezet te kijken.
138
00:09:11,980 --> 00:09:16,980
Ik moest een programmeertest doen in Python.
139
00:09:16,980 --> 00:09:21,220
Nou, wonder boven wonder. Ik was ervoor geslaagd.
140
00:09:21,220 --> 00:09:27,100
Toen ben ik aangesloten bij een groep van 25 studenten of zo.
141
00:09:27,100 --> 00:09:28,300
En eerst was ik nog even bang,
142
00:09:28,300 --> 00:09:33,380
Straks kom ik dus allemaal van die hele jonge mensen die allemaal veel sneller en handiger zijn.
143
00:09:33,380 --> 00:09:38,100
Maar dat viel dus heel erg tegen of mee, net hoe je het bekijkt.
144
00:09:38,100 --> 00:09:44,820
Het waren heel veel mensen juist die ook op bepaalde perioden in hun carrière waren en iets anders wilden gaan doen.
145
00:09:44,820 --> 00:09:46,820
Echt hartstikke leuk.
146
00:09:46,820 --> 00:09:50,620
Dus voor mij persoonlijk is dit een hele goede keuze geweest.
147
00:09:50,620 --> 00:09:52,620
Het heeft me heel veel nieuws gebracht.
148
00:09:52,620 --> 00:09:56,900
Ja, nou en dat is ook denk ik de reden waarom we juist je hebben uitgenodigd.
149
00:09:56,900 --> 00:10:02,980
De technologie wordt steeds bekender en ik denk dat mensen best wel aan het twijfelen zijn.
150
00:10:02,980 --> 00:10:07,300
Ga ik me daar nou wel of niet in verdiepen? Kan ik dat nog wel?
151
00:10:07,300 --> 00:10:14,420
Wij zien bij sommige mensen, laten we het koud watervrees noemen.
152
00:10:14,420 --> 00:10:20,180
Het is juist zo mooi om iemand te zien die dit gewoon gedaan heeft, het aangepakt heeft.
153
00:10:20,180 --> 00:10:22,180
Je bent gewoon het gaan doen.
154
00:10:22,180 --> 00:10:29,180
Als je er nu op terugkijkt, hoe is zo'n studie bevallen?
155
00:10:29,180 --> 00:10:37,180
Ik heb er heel veel van geleerd en wat ik vooral geleerd heb...
156
00:10:37,180 --> 00:10:41,180
Dan moet ik eerst even vertellen hoe die studie ongeveer georganiseerd was.
157
00:10:41,180 --> 00:10:46,180
Iedere vrijdagochtend kreeg je college in Den Bosch.
158
00:10:46,180 --> 00:10:51,180
Tijdens de coronaperiode was dat dan online helaas, maar goed, dat moest even.
159
00:10:51,180 --> 00:10:56,380
Dat waren in het algemeen echt goede hoogleraren, of uit Tilburg of uit Eindhoven.
160
00:10:56,380 --> 00:11:00,340
Want JATS is een samenwerking tussen TU Eindhoven en Tilburg University.
161
00:11:00,340 --> 00:11:05,620
's Middags werkte je dan in een klein groepje aan een opdracht.
162
00:11:05,620 --> 00:11:10,660
Ik had de meest technische variant gekozen, dus je moest ook zelf programmeren in Python.
163
00:11:10,660 --> 00:11:13,060
En dat was hartstikke leuk.
164
00:11:13,060 --> 00:11:18,580
Dus om je een voorbeeld te geven, we hebben een voorspelmodel voor een supermarkt gebouwd.
165
00:11:18,580 --> 00:11:26,220
En daarin hebben we alle klassieke machine learning technieken toegepast.
166
00:11:26,220 --> 00:11:38,940
Dus lineaire regressie, random forest, XGBoost, ik zie jullie al knikken, die hele RITS methodes hebben gebruikt.
167
00:11:38,940 --> 00:11:45,340
Het is hartstikke leuk om daar eens wat mee te oefenen en om daar gevoel bij te krijgen.
168
00:11:45,340 --> 00:11:53,120
En toen ben ik uiteindelijk afgestudeerd bij een bedrijf waar een vriend van me directeur was.
169
00:11:53,120 --> 00:11:55,120
Dat is Aldi Press.
170
00:11:55,120 --> 00:12:02,320
En daar moest een model gemaakt worden om de verkoop van tijdschriften,
171
00:12:02,320 --> 00:12:04,780
papieren tijdschriften, want die bestaan nog steeds,
172
00:12:04,780 --> 00:12:06,780
2023. - Ik geloofde niet.
173
00:12:06,780 --> 00:12:09,440
- Daar moest ik een soort clusteranalyse op loslaten.
174
00:12:09,440 --> 00:12:10,440
Dat was wel heel leuk.
175
00:12:10,440 --> 00:12:17,640
Ik heb bijvoorbeeld achtergekomen dat er een sterke correlatie is tussen de verkoop van rollenbladen en tv-gidsen.
176
00:12:17,640 --> 00:12:19,140
Dat is moeilijk hè?
177
00:12:19,140 --> 00:12:21,640
Ja, met die rollenbladen koop ik ook tv-gidsen.
178
00:12:21,640 --> 00:12:23,240
Oh zo, grappig.
179
00:12:23,240 --> 00:12:25,240
Ik moet aantonen met de data.
180
00:12:25,240 --> 00:12:37,840
En ik vertel het nu als schapje, maar het was wel echt serieus, want Aldi Press is dus verantwoordelijk voor de distributie van tijdschriften in supermarkten, bij benzinestations, ziekenhuizen, noem maar op.
181
00:12:37,840 --> 00:12:44,500
En zij wilden eigenlijk met minder titels, dus een kleiner arsenaal aan titels, meer geld verdienen.
182
00:12:44,500 --> 00:12:47,200
Daarvoor wilden ze die clusteranalyse aanvoeren.
183
00:12:47,200 --> 00:12:54,480
Dus om terug te komen op jouw vraag, het is de combinatie van praktijk en theorie die mij heel goed beviel.
184
00:12:54,480 --> 00:12:57,420
- En voor mij was één dag in de week dan?
185
00:12:57,420 --> 00:13:00,000
Was dan de vrijdag, was dan alles...
186
00:13:00,000 --> 00:13:04,880
- Ja, en ik had een beetje een luxe situatie, want ik heb een korte sabbatical gehad,
187
00:13:04,880 --> 00:13:07,320
Uiteindelijk was het maar drie maanden volgens mij.
188
00:13:07,320 --> 00:13:13,840
Dus ik had ook de rest van de tijd wel tijd om aan opdrachten te besteden.
189
00:13:13,840 --> 00:13:18,640
De eerste keer dat je een model had en die deed het.
190
00:13:18,640 --> 00:13:20,920
Kan je daar iets over vertellen?
191
00:13:20,920 --> 00:13:23,440
Dat is zo'n geweldig gevoel.
192
00:13:23,440 --> 00:13:28,920
Zeker als je daar ook nog zo'n hele mooie visualisatie in...
193
00:13:29,240 --> 00:13:34,560
Mat, plot, lip of plotly of seaborn make-up maken.
194
00:13:34,560 --> 00:13:36,580
Dan denk je, wauw, dat heb ik gemaakt.
195
00:13:36,580 --> 00:13:39,140
Ik herken dat ook nog wel.
196
00:13:39,140 --> 00:13:41,960
Ik kom dan helemaal uit de software development kant.
197
00:13:41,960 --> 00:13:43,980
Ik herhaal de data.
198
00:13:43,980 --> 00:13:48,040
Niels data, dus in die zin vullen wij elkaar aan.
199
00:13:48,040 --> 00:13:51,980
Maar de eerste keer inderdaad, ja, eigenlijk is dat bizar.
200
00:13:51,980 --> 00:13:58,280
Je kan programmeren, je kan eigenlijk voor je gevoel alles maken wat er bestaat.
201
00:13:58,680 --> 00:14:01,200
En toch was er in één keer een andere dimensie.
202
00:14:01,200 --> 00:14:05,960
En als je dan een model hebt dat werkt, ja dat is een heel bijzonder gevoel.
203
00:14:05,960 --> 00:14:07,480
Ja, ja.
204
00:14:07,480 --> 00:14:12,800
En het model, ik weet niet of het ook in productie is genomen,
205
00:14:12,800 --> 00:14:15,400
want dat is de frustratie bij veel data scientists.
206
00:14:15,400 --> 00:14:20,560
Van die laatste stap, deployment, vaak stokt het ergens.
207
00:14:20,560 --> 00:14:22,400
Ik weet niet wat jullie ervaring daarin is.
208
00:14:22,400 --> 00:14:23,840
Ja, nee, dat zien we nog steeds.
209
00:14:23,840 --> 00:14:26,040
En dat doet ons pijn aan het hart inderdaad.
210
00:14:26,040 --> 00:14:28,200
We hebben ook allemaal processen ervoor met MLOps,
211
00:14:28,240 --> 00:14:31,000
om dat echt wel te gaan ondersteunen en dat doen we op dit moment ook.
212
00:14:31,000 --> 00:14:35,000
Maar we zien nog te vaak inderdaad dat het op de laptop van de data scientist blijft.
213
00:14:35,000 --> 00:14:39,000
Daar zit nog wel een slag in die gemaakt moet worden.
214
00:14:39,000 --> 00:14:43,000
En een van de hoogleraren, of het juist, Daniel Kapitan,
215
00:14:43,000 --> 00:14:45,000
leuk om die naam even te noemen.
216
00:14:45,000 --> 00:14:46,000
Kennen jullie hem of niet?
217
00:14:46,000 --> 00:14:48,000
Ja, we hebben hem te gast gehad in de podcast.
218
00:14:48,000 --> 00:14:50,000
Is Daniel hier ook geweest?
219
00:14:50,000 --> 00:14:54,000
Zeker. Nou eigenlijk nog beter, wij zijn naar Daniel geweest in Rotterdam.
220
00:14:54,000 --> 00:14:57,000
Dat was een hele mooie locatie. Naast Centraal, Zuid-Zondag.
221
00:14:57,000 --> 00:14:59,680
Ja, nou ja grappig, ik ken hem dus heel goed.
222
00:14:59,680 --> 00:15:03,200
En een van zijn statements was dan zo altijd...
223
00:15:03,200 --> 00:15:12,160
"Oké, daar hebben we weer een project dat sneuvelt op het kerkhof van data science projecten."
224
00:15:12,160 --> 00:15:13,160
Zoiets.
225
00:15:13,160 --> 00:15:14,160
[GELACH]
226
00:15:14,160 --> 00:15:16,160
Ja, nee dat is zeker jammer.
227
00:15:16,160 --> 00:15:22,960
Wat wij daar wel voor doen, is dat we kijken naar meer dan techniek.
228
00:15:22,960 --> 00:15:28,480
Dus dat we proberen om zo vroeg mogelijk in het traject met de klant erom te gaan zitten van...
229
00:15:28,480 --> 00:15:33,040
...wat is je doel, wat ga je veranderen, wat gaat het je opleveren?
230
00:15:33,040 --> 00:15:36,820
En wil je ook dit tijd, geld en energie erin steken?
231
00:15:36,820 --> 00:15:40,000
Dat we heel vroeg dit soort dingen eigenlijk afgedekt hebben.
232
00:15:40,000 --> 00:15:42,800
Zorgt dat ervoor dat alles in productie komt? Nee.
233
00:15:42,800 --> 00:15:47,020
Maar daarmee verhogen we wel de kansen op dat het inderdaad in productie gaat...
234
00:15:47,020 --> 00:15:48,780
...en dat je er ook echt waarde uit haalt.
235
00:15:48,800 --> 00:15:55,800
Ik doe op dit moment een interim klus. Ik zit al een jaar bij Binder.
236
00:15:55,800 --> 00:16:02,480
En daar proberen we de methode CRISPDM te volgen.
237
00:16:02,480 --> 00:16:05,200
Ik zie jullie weer erom, allebei knikken, dus jullie kennen de methode.
238
00:16:05,200 --> 00:16:07,840
Misschien kun je me heel kort even voor de luisteraar uitleggen.
239
00:16:07,840 --> 00:16:10,880
Dat betekent eigenlijk precies wat jij net zei Joop.
240
00:16:10,880 --> 00:16:14,680
Je moet altijd beginnen met business understanding en data understanding.
241
00:16:14,680 --> 00:16:16,680
Eerst business understanding.
242
00:16:16,680 --> 00:16:20,320
Echt begrijpen welk probleem ga je nu oplossen.
243
00:16:20,320 --> 00:16:27,000
Dus als dat helemaal duidelijk is, en dat heb je ook helemaal afgestemd met je opdrachtgever,
244
00:16:27,000 --> 00:16:31,920
dan ga je naar data understanding, dan ga je kijken naar de data bronnen die je tot je beschikking hebt.
245
00:16:31,920 --> 00:16:37,920
Data warehouse of andere gestructureerde data of ongestructureerde data.
246
00:16:37,920 --> 00:16:44,520
Als je dat klaar hebt, dan begin je met data preparation, dan ga je de data zo klaarstomen
247
00:16:44,520 --> 00:16:49,280
Als je in Python werkt, bijvoorbeeld in DataFrames,
248
00:16:49,280 --> 00:16:50,640
pandas DataFrames,
249
00:16:50,640 --> 00:16:52,640
dat je ermee kunt werken.
250
00:16:52,640 --> 00:16:54,920
Als je dat klaar hebt, even kijken waar komen we dan door.
251
00:16:54,920 --> 00:16:56,360
Dan kom je bij modeling natuurlijk.
252
00:16:56,360 --> 00:16:58,800
Dan ga je je model ontwikkelen.
253
00:16:58,800 --> 00:17:02,040
Dan ga je je model trainen.
254
00:17:02,040 --> 00:17:05,240
Want een machine learning model moet eerst getraind worden.
255
00:17:05,240 --> 00:17:10,920
Dan ga je je model, moet ik even uit mijn hoofd denken,
256
00:17:10,920 --> 00:17:16,040
Daar kun je natuurlijk altijd nog iets doen met optimalisatie van hyperparameters enzo.
257
00:17:16,040 --> 00:17:20,240
En uiteindelijk, daar hadden we het net over, ga je model deployen.
258
00:17:20,240 --> 00:17:23,360
Dus een model in een werkelijke omgeving.
259
00:17:23,360 --> 00:17:26,360
Meestal is dat een cloudomgeving, tegenwoordig hoeft dat niet natuurlijk.
260
00:17:26,360 --> 00:17:28,960
Dan willen we veel uitrollen.
261
00:17:28,960 --> 00:17:35,320
En eigenlijk, op het punt van die business understanding, die allereerste fase,
262
00:17:35,320 --> 00:17:37,320
die krijgt vaak te weinig aandacht.
263
00:17:37,320 --> 00:17:39,320
Waarom zou dat zijn, denk je?
264
00:17:39,320 --> 00:17:43,920
Vaak is het een technologisch ingestoken feestje.
265
00:17:43,920 --> 00:17:48,720
En dat maakt het heel erg lastig dat ze zeggen van dit is hip en cool.
266
00:17:48,720 --> 00:17:52,720
We willen iets met AI machine learning.
267
00:17:52,720 --> 00:17:54,720
Het zit in de innovatiehoek.
268
00:17:54,720 --> 00:17:57,720
En uiteindelijk wordt er dan te weinig aandacht besteed aan.
269
00:17:57,720 --> 00:18:02,720
Het moet uiteindelijk iets strategisch in je kernprocessen zitten.
270
00:18:02,720 --> 00:18:06,320
Om daadwerkelijk het geld eruit te halen wat erin zit.
271
00:18:06,320 --> 00:18:10,320
Maar doet het altijd goed hè, als je ergens in de directiekamer binnenkomt en zegt...
272
00:18:10,320 --> 00:18:12,320
"Ik ga iets met AI doen."
273
00:18:12,320 --> 00:18:15,320
Nou dan scoor je al een paar punten.
274
00:18:15,320 --> 00:18:19,320
"Wat ga je dan doen?" "Ja, ik ga efficiënter leren werken."
275
00:18:19,320 --> 00:18:21,320
"Ik ga de klanttevredenheid vogelen."
276
00:18:21,320 --> 00:18:25,320
En we hebben veel data, dus daar moet iets mee te doen zijn, toch?
277
00:18:25,320 --> 00:18:28,320
Maar maak dat maar eens concreet, maak dat tastbaar.
278
00:18:28,320 --> 00:18:33,320
En volgens mij is dat een beetje de kern van die business understanding fase.
279
00:18:33,320 --> 00:18:34,720
Dat is eigenlijk het begin.
280
00:18:34,720 --> 00:18:37,820
Dus het is ook je monitoring en continu blijven doorontwikkelen...
281
00:18:37,820 --> 00:18:39,520
en weer tegen de business value aanhouden.
282
00:18:39,520 --> 00:18:41,520
Dat is eigenlijk een cycle die wel door moet.
283
00:18:41,520 --> 00:18:43,520
En ook daar zie je nog wel vaak...
284
00:18:43,520 --> 00:18:46,120
Dat doet mijn data hart dan altijd al pijn, dat het dan daar stopt.
285
00:18:46,120 --> 00:18:48,320
Alleen de data gaat dan niet meer naar de business value.
286
00:18:48,320 --> 00:18:49,920
Dus dat is eigenlijk het begin.
287
00:18:49,920 --> 00:18:51,520
En dan heb je ook nog een andere loop.
288
00:18:51,520 --> 00:18:53,120
En dat is eigenlijk de loop die je moet doen.
289
00:18:53,120 --> 00:18:55,120
En dat is eigenlijk de loop die je moet doen.
290
00:18:55,120 --> 00:18:57,120
En dat is eigenlijk de loop die je moet doen.
291
00:18:57,120 --> 00:18:59,120
En dat is eigenlijk de loop die je moet doen.
292
00:18:59,120 --> 00:19:01,120
En dat is eigenlijk de loop die je moet doen.
293
00:19:01,220 --> 00:19:05,620
dat het dan daar stopt, alleen de data gaat nog gewoon door, verandert, de maatschappij gaat door.
294
00:19:05,620 --> 00:19:09,660
Dus het is continu in ontwikkeling en ja, dus het stopt niet bij deployment.
295
00:19:09,660 --> 00:19:15,500
Maar waarom, ja nou ga ik een beetje de vraag stellen, waarom stopt dat daar?
296
00:19:15,500 --> 00:19:18,500
Is dan het budget op of zoiets banaals?
297
00:19:18,500 --> 00:19:23,780
Ja, dat hangt dus heel vanaf inderdaad en dat is ook waarom we in het begin willen weten wat is die business value,
298
00:19:23,780 --> 00:19:26,980
welke onderdelen van het bedrijf zijn erbij betrokken?
299
00:19:26,980 --> 00:19:30,820
Is het een R&D, is dat het doel? Wat is het doel en de purpose ervan?
300
00:19:30,820 --> 00:19:34,860
Als het is voor die business value, dan is het belangrijk om het verhaal mee te nemen.
301
00:19:34,860 --> 00:19:37,860
Het is niet alleen een techniek, het is veel meer dan dat.
302
00:19:37,860 --> 00:19:41,660
Het is een procesverandering, het is een aanpassing in de data, het is een werkwijze.
303
00:19:41,660 --> 00:19:43,260
En het is meer dan dat.
304
00:19:43,260 --> 00:19:45,260
Dat moet je meenemen in de transitie.
305
00:19:45,260 --> 00:19:49,580
Ik wil niet zeggen dat je daar gelijk op moet focussen, maar je moet mensen erin meenemen dat dat er ook bij hoort.
306
00:19:49,580 --> 00:19:55,020
Je moet niet alle tijden stoppen, want als het niet feasible is en het komt na een week eruit dat het toch niet te doen is,
307
00:19:55,020 --> 00:19:56,020
dan moet je ook gewoon stoppen.
308
00:19:56,020 --> 00:19:58,020
Dan moet je ook durven stoppen.
309
00:19:59,020 --> 00:20:02,700
En waar je ook wel eens mee te maken hebt is IT-afdeling.
310
00:20:02,700 --> 00:20:07,380
Dat vind ik trouwens wel altijd grappig, want ik heb, jullie eigenlijk allebei ook,
311
00:20:07,380 --> 00:20:10,420
de IT-wereld, daar liggen eigenlijk onze roots.
312
00:20:10,420 --> 00:20:20,260
En tegenwoordig in mijn huidige job heb ik soms wel een beetje last van IT-afdelingen.
313
00:20:20,260 --> 00:20:22,260
Kennen jullie dat?
314
00:20:22,260 --> 00:20:24,260
Welke vorm bedoel je?
315
00:20:24,260 --> 00:20:27,620
Nou ja, ten eerste toegang krijgen tot de data.
316
00:20:27,620 --> 00:20:34,060
Dan krijg je het hele riedeltje met security en AVG en noem maar op.
317
00:20:34,060 --> 00:20:40,300
Ja allemaal belangrijk, maar beste luisteraars, ik vind dat heel vaak AVG als een oneigelijk
318
00:20:40,300 --> 00:20:41,500
argument wordt gebruikt.
319
00:20:41,500 --> 00:20:51,140
Want als je iets wil bereiken, zeker in een wetenschappelijke context, diezelfde Daniel
320
00:20:51,140 --> 00:20:53,980
Kapitan kan daar ook helemaal op los gaan.
321
00:20:53,980 --> 00:21:04,980
Iedere patiënt wil in principe echt wel zijn medische data delen als hij of zij weet dat de medische wetenschap daarmee een stapje hoger komt.
322
00:21:04,980 --> 00:21:06,980
En dat het veilig is.
323
00:21:06,980 --> 00:21:08,980
Toch is het overal moeilijk, moeilijk, moeilijk.
324
00:21:08,980 --> 00:21:12,980
Even terug te komen op wat jij zegt, de IT afdeling.
325
00:21:12,980 --> 00:21:20,980
Ik doe heel veel workshops rondom juist dat idee naar boven halen en pas het bij je business goals en waarom niet.
326
00:21:20,980 --> 00:21:27,980
En dan vraag ik ook om zoveel mogelijk niet-IT'ers in die workshop te hebben.
327
00:21:27,980 --> 00:21:32,980
En niet omdat ik wat tegen IT'ers heb, software developers.
328
00:21:32,980 --> 00:21:35,980
Van nature ben ik dat zelf.
329
00:21:35,980 --> 00:21:42,980
Het probleem is vaak dat die meteen, als er een idee of een experiment ligt,
330
00:21:42,980 --> 00:21:46,980
dat ze dat in hun hoofd opgelost willen zien hebben.
331
00:21:46,980 --> 00:21:48,980
Dus die denken regelgebaseerd.
332
00:21:48,980 --> 00:21:53,820
En dat is nou typisch niet zoals we dat oplossen met de technologie van AI.
333
00:21:53,820 --> 00:21:59,620
Dus daar loop je als het ware meteen tegen drempels aan.
334
00:21:59,620 --> 00:22:02,740
Terwijl als je niet gehinderd wordt door enige kennis,
335
00:22:02,740 --> 00:22:05,220
IT-kennis, en dat is vaak in de business,
336
00:22:05,220 --> 00:22:08,020
dan ben je dus vooral bezig met welke problemen heb ik,
337
00:22:08,020 --> 00:22:11,060
en wat wil ik opgelost zien, en hoe verlevert me dat op?
338
00:22:11,060 --> 00:22:16,300
En dat helpt bij het voortbrengen uiteindelijk van het experiment.
339
00:22:16,320 --> 00:22:19,120
Uiteindelijk moeten we natuurlijk naar IT en hebben we dat ook nodig...
340
00:22:19,120 --> 00:22:21,120
en willen we daar heel graag mee samenwerken.
341
00:22:21,120 --> 00:22:27,120
Maar het begin is eigenlijk wel handig om in ieder geval niet al die drempels te hebben van...
342
00:22:27,120 --> 00:22:29,720
ja, maar hoe gaat dat dan werken?
343
00:22:29,720 --> 00:22:30,920
Ja.
344
00:22:30,920 --> 00:22:34,720
En om deze reden volgens mij beginnen data science projecten...
345
00:22:34,720 --> 00:22:38,320
vaak in een soort sandbox of een zandbakomgeving.
346
00:22:38,320 --> 00:22:44,320
Van een afgeschermde omgeving, een kleine dataset...
347
00:22:44,320 --> 00:22:49,800
Een kopie van de productiedata van een jaar geleden ofzo.
348
00:22:49,800 --> 00:22:53,000
En dan gaat het nog allemaal goed.
349
00:22:53,000 --> 00:22:56,640
Maar op het moment dat jij dus wilt deployen,
350
00:22:56,640 --> 00:22:59,040
en het moet allemaal achter de firewall,
351
00:22:59,040 --> 00:23:01,040
en het moet helemaal dicht in het zijn,
352
00:23:01,040 --> 00:23:04,280
dan wordt het vaak lastig.
353
00:23:04,280 --> 00:23:07,920
Dat is eigenlijk voor mij nog een heel groot vraagstuk.
354
00:23:07,920 --> 00:23:10,160
Dan wordt het lastig, maar dan wordt het ook leuk.
355
00:23:10,160 --> 00:23:11,760
En dan wordt het leuk.
356
00:23:11,760 --> 00:23:13,760
Ja zeker, dan wordt het leuk.
357
00:23:13,760 --> 00:23:19,700
Nou, en als jij nou kijkt, want er zijn mensen zeg maar uit de softwarehoek,
358
00:23:19,700 --> 00:23:25,560
datahoek, die misschien juist die data science in willen, meer willen weten van machine learning.
359
00:23:25,560 --> 00:23:28,360
Dat is eigenlijk de stap die jij ook gemaakt hebt.
360
00:23:28,360 --> 00:23:31,960
Wat zou jouw tip zijn voor een luisteraar die niet zoiets heeft van ja,
361
00:23:31,960 --> 00:23:34,200
maar ik zou ook heel graag die stap willen maken,
362
00:23:34,200 --> 00:23:37,560
want het is gewoon een hele leuke dynamische vakgebied.
363
00:23:37,560 --> 00:23:40,080
Wat zou je voor tips geven?
364
00:23:40,080 --> 00:23:46,080
Dat vind ik een leuke vraag. Moet ik heel even over nadenken.
365
00:23:46,080 --> 00:23:51,080
Eén tip is sowieso, hou ook je IT-kennis bij.
366
00:23:51,080 --> 00:23:54,080
Want die werelden kunnen uiteraard helemaal niet zonder elkaar.
367
00:23:54,080 --> 00:23:57,080
Waarom kunnen die niet zonder elkaar?
368
00:23:57,080 --> 00:24:04,080
Omdat je uiteindelijk, nou ja eigenlijk hebben we het hier al over gehad,
369
00:24:04,080 --> 00:24:08,080
om een machine learning model bijvoorbeeld succesvol te laten draaien,
370
00:24:08,080 --> 00:24:11,120
draaien, heb je gewoon een IT-infrastructuur nodig.
371
00:24:11,120 --> 00:24:13,760
Ja, heb je software nodig, je hebt data nodig.
372
00:24:13,760 --> 00:24:15,760
Dus dat is iets.
373
00:24:15,760 --> 00:24:17,760
En wat ik ook heb gemerkt,
374
00:24:17,760 --> 00:24:22,080
van, nou ja, ik ben de vijftig gepasseerd,
375
00:24:22,080 --> 00:24:25,360
en dan op een gegeven moment, iedereen heeft denk ik wel eens het gevoel,
376
00:24:25,360 --> 00:24:27,360
ik word links en rechts ingehaald,
377
00:24:27,360 --> 00:24:31,760
door allemaal van die jonge gastjes in korte broeken,
378
00:24:31,760 --> 00:24:35,600
met paardenstaarten, en weet je, die alles veel sneller en beter kunnen.
379
00:24:35,600 --> 00:24:37,600
Dat is helemaal niet zo, dat is een waanidee,
380
00:24:37,600 --> 00:24:40,600
wat in je hoofd zit, zat in ieder geval in mijn hoofd.
381
00:24:40,600 --> 00:24:43,600
Je hebt in al die jaren zoveel ervaring opgedaan,
382
00:24:43,600 --> 00:24:48,600
je hebt zoveel gezien van de wereld, van de IT-wereld.
383
00:24:48,600 --> 00:24:52,600
Ik merk dat het waar ik goed in ben,
384
00:24:52,600 --> 00:24:54,600
ik heb ook heel veel slechte eigenschappen overigens,
385
00:24:54,600 --> 00:24:59,600
waar ik goed in ben is precies de juiste vragen op het juiste moment stellen.
386
00:24:59,600 --> 00:25:01,600
En noem dat ervaring, ik weet niet.
387
00:25:01,600 --> 00:25:03,600
Ja, dat denk ik wel, dat is een sluiting.
388
00:25:03,600 --> 00:25:06,600
Een tip, ik wil even terugkomen op jouw vraag,
389
00:25:06,600 --> 00:25:13,320
Hou ook je IT-kennis bij en om die stap te zetten, voor de luisteraars die dit willen,
390
00:25:13,320 --> 00:25:18,120
van IT naar Data Science, neem bijvoorbeeld een paar keer een proefcollege,
391
00:25:18,120 --> 00:25:23,840
of op JATS of op een ander instituut. Luister naar deze podcast,
392
00:25:23,840 --> 00:25:27,360
of luister naar die andere hele goede podcast, de Dataloog.
393
00:25:27,360 --> 00:25:33,160
En er is gewoon nog zoveel te leren in deze wereld.
394
00:25:33,160 --> 00:25:35,400
En het is echt een heel leuk vak.
395
00:25:35,400 --> 00:25:41,000
Ja, dat denk ik ook. Ja, absoluut. Dank je wel. Ik denk dat dit hele nuttige tips zijn.
396
00:25:41,000 --> 00:25:47,840
Heel mooi om te horen van hoe je daar doorheen bent gegaan. Niels tevreden?
397
00:25:47,840 --> 00:25:48,840
Ja, zeker.
398
00:25:48,840 --> 00:25:49,840
Ja toch?
399
00:25:49,840 --> 00:25:50,840
Ja, en zeker die...
400
00:25:50,840 --> 00:25:54,760
Ik wil altijd meer weten over wat heeft die theorie met je gedaan in de praktijk.
401
00:25:54,760 --> 00:25:55,760
Maar goed.
402
00:25:55,760 --> 00:25:57,680
Dat is mooi voor een volgende keer.
403
00:25:57,680 --> 00:26:03,160
Dank je wel Harm voor dit inspirerende gesprek. Heel erg leuk.
404
00:26:03,160 --> 00:26:04,160
Graag gedaan.
405
00:26:04,160 --> 00:26:07,040
En nou, vergeet geen...
406
00:26:07,040 --> 00:26:09,440
Ik ben het even kwijt.
407
00:26:09,440 --> 00:26:12,240
Vergeet je niet te abonneren op Spotify.
408
00:26:12,240 --> 00:26:14,240
Soms heb je dat.
409
00:26:14,240 --> 00:26:18,240
Vergeet je niet te abonneren via je favoriete podcast app.
410
00:26:18,240 --> 00:26:23,440
En je zou ons kunnen helpen als je hem een paar keer geluisterd hebt op Spotify...
411
00:26:23,440 --> 00:26:24,960
om even een rating te geven.
412
00:26:24,960 --> 00:26:28,480
Dat geeft een bepaalde boost aan de podcast.
413
00:26:28,480 --> 00:26:29,680
En daar help je ons enorm mee.
414
00:26:29,680 --> 00:26:31,680
Dank je wel voor het luisteren en tot de volgende keer.
415
00:26:31,680 --> 00:26:33,680
*gekracht*