AIToday Live

S06E59 - Programmeurs gezocht: alleen AI's hoeven te solliciteren met Rob van der Star (Windesheim)

Aigency by Info Support Season 6 Episode 59

In deze aflevering van AIToday Live is Rob van der Star te gast. Rob werkt bij Hogeschool Windesheim en deelt zijn ervaringen met het coachen van studententeams, het leiden van afstudeerders en zijn recente betrokkenheid bij het opzetten van een ELSA AI innovatielab.

Hij bespreekt de uitdagingen en mogelijkheden van AI in het onderwijs en de bredere maatschappij, inclusief de impact op softwareontwikkeling en de noodzaak van nieuwe vaardigheden in een snel veranderende digitale wereld. 


Links

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,001 --> 00:00:07,000
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van de AIToday Live.

2
00:00:07,000 --> 00:00:10,440
Vandaag hebben we de gast Rob van der Star.

3
00:00:10,440 --> 00:00:13,000
Mijn naam is Joop Snijder, CTO bij Aigency.

4
00:00:13,000 --> 00:00:16,000
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support.

5
00:00:16,000 --> 00:00:19,000
Rob, leuk dat je bij ons in de studio wil zijn.

6
00:00:19,000 --> 00:00:21,000
Zou je je even willen voorstellen aan de luisteraars?

7
00:00:21,000 --> 00:00:23,000
Graag, mijn naam is Rob van de Star.

8
00:00:23,000 --> 00:00:28,000
In het dagelijks leven werk ik bij Hogeschool Windesheim, Zwolle en Almere.

9
00:00:28,000 --> 00:00:34,000
Ik zit daar bij HBO ICT en sinds kort ook bij een van onze lectoraten,

10
00:00:34,000 --> 00:00:36,000
de lectoraten Digital Business & Society.

11
00:00:36,000 --> 00:00:42,000
Bij HBO ICT heb ik me de afgelopen acht jaar bezig gehouden met met name het coachen van minorenteams,

12
00:00:42,000 --> 00:00:44,000
geleiden van afstudeerders.

13
00:00:44,000 --> 00:00:50,000
En bij het lectoraat Digital Business & Society ga ik me met twee zaken bezig houden.

14
00:00:50,000 --> 00:01:00,000
Dat is enerzijds een makelaarspelen tussen het groot Zwolse MKB en de studenten van wat heet de Zwolse 8, MBO en HBO.

15
00:01:00,000 --> 00:01:07,000
En ik ben drukdoende assocratiemaker met opzet van een ELSA AI innovatielab.

16
00:01:07,000 --> 00:01:15,000
We hopen dat dat gecertificeerd gaat worden als 25ste AI lab door de Nederlandse AI-coalitie.

17
00:01:15,000 --> 00:01:17,000
Dat zou heel mooi zijn toch?

18
00:01:17,000 --> 00:01:23,000
Dat zou heel mooi zijn en dat wordt een samenwerkingsband met wat ik leer veel in de onderzoekswereld,

19
00:01:23,000 --> 00:01:27,000
want daar ligt niet mijn achtergrond, in wat genoemd wordt de Quintepol Helix.

20
00:01:27,000 --> 00:01:33,000
Dat is even in Jip en Janneke het al, boeren, burgers, buitenlei, het helikopter van het onderwijs, dat is iedereen.

21
00:01:33,000 --> 00:01:39,000
Ik ben nu acht jaar actief bij Binderswijn.

22
00:01:39,000 --> 00:01:46,000
Daarvoor heb ik een start-up, we mogen founden, leiden in de tijd dat de deeleconmie groot werd,

23
00:01:46,000 --> 00:01:48,000
2013.

24
00:01:48,000 --> 00:01:52,000
Die buren helpen, die vier landen in Europa zijn gestart.

25
00:01:52,000 --> 00:01:57,000
In de tussentijd hebben we hem gestopt, want we ontdekten dat er heel veel vrijwilligers zijn,

26
00:01:57,000 --> 00:02:05,000
maar dat bij mensen de vraag genereren uit zichzelf om geholpen te worden, dat dat een uitdaging is.

27
00:02:05,000 --> 00:02:08,000
Daar kan ik uren over praten, maar dat is wel andere.

28
00:02:08,000 --> 00:02:12,000
Daarvoor heb ik een tweet al IT-bedrijven als algemeen directeur geleid.

29
00:02:12,000 --> 00:02:18,000
Ik heb een kleine 25 jaar bij Capgemini gewerkt, waar ik alle rangen en standen heb mogen doorlopen.

30
00:02:18,000 --> 00:02:26,000
De laatste tien jaar als vice-president onder meer ook verantwoordelijk geweest voor zorgvuldig ontwikkeling en innovatie, lokaal en ook wereldwijd.

31
00:02:26,000 --> 00:02:31,000
Ja, dat zegt het achtergrond technologie, nu in het onderwijs.

32
00:02:31,000 --> 00:02:35,000
Zou je misschien nog heel kort kunnen uitleggen aan de luisteraar wat een lectoraat is?

33
00:02:35,000 --> 00:02:46,000
Een lectoraat bij een hogeschool is een gedeelte waar praktisch praktijkgericht onderzoek, zoals dat zo mooi heet, uitgevoerd wordt.

34
00:02:46,000 --> 00:02:49,000
Binnen Windersheim hebben we de luxe als grote hogeschool.

35
00:02:49,000 --> 00:02:54,000
We hebben in totaal zo'n 30.000 studenten en medewerkers bij elkaar.

36
00:02:54,000 --> 00:02:58,000
We hebben 28 van die lectoraten.

37
00:02:58,000 --> 00:03:03,000
Een andere lectoraat is bijvoorbeeld onderwijs en ICT-innovatie.

38
00:03:03,000 --> 00:03:08,000
Een derde lectoraat is zorg en IT.

39
00:03:08,000 --> 00:03:10,000
En zo zijn er nog vele andere.

40
00:03:10,000 --> 00:03:13,000
Een familiebedrijf is een hele bijzondere in Nederland.

41
00:03:13,000 --> 00:03:17,000
Dus die hebben allemaal hun eigen niches gekozen waar onderzoek gepleegd wordt.

42
00:03:17,000 --> 00:03:22,000
Dus ik mag me tegenwoordig in plaats van docent ook onderzoeker.

43
00:03:22,000 --> 00:03:31,000
En dat onderzoek dat wordt veel betaald vanuit overheidssubsidie, NWO-calls en dergelijke.

44
00:03:31,000 --> 00:03:36,000
Dus in zo'n onderzoeksclub ben je ongeveer twee dagen in de week.

45
00:03:36,000 --> 00:03:42,000
De baas en de lectoren zijn bezig met het uitschrijven van subsidieaanvragen.

46
00:03:42,000 --> 00:03:46,000
Om het geld weer aan elkaar te harken en de onderzoekers weer te financieren.

47
00:03:46,000 --> 00:03:50,000
En wij zaten net even heel kort voor te praten.

48
00:03:50,000 --> 00:03:56,000
En toen zei je van, met die lectoren heb ik een leuke discussie gehad.

49
00:03:56,000 --> 00:03:58,000
En die wilde je eigenlijk even hier voorleggen, toch?

50
00:03:58,000 --> 00:04:00,000
Als een soort van stelling.

51
00:04:00,000 --> 00:04:04,000
Ja, en zeker bij Info Support, want waar verdient die brood er met name mee?

52
00:04:04,000 --> 00:04:07,000
Ja, wij doen heel veel aan softwareontwikkeling.

53
00:04:07,000 --> 00:04:13,000
En het onderwerp van gesprekken gisteren met zo'n 14, 15 mensen in de call.

54
00:04:13,000 --> 00:04:15,000
Aantal lectoren van een aantal hogescholen.

55
00:04:15,000 --> 00:04:21,000
Was eigenlijk, the end of coding.

56
00:04:21,000 --> 00:04:25,000
Is er nog leven na de generative AI productieversnelling?

57
00:04:25,000 --> 00:04:29,000
En zijn in de toekomst überhaupt nog softwareontwikkelaars nodig?

58
00:04:29,000 --> 00:04:33,000
Ja, dat is een behoorlijk interessante stelling, denk ik.

59
00:04:33,000 --> 00:04:38,000
En dat geldt denk ik voor best wel heel veel vakgebieden.

60
00:04:38,000 --> 00:04:41,000
In de marketing hebben ze natuurlijk hier heel veel over.

61
00:04:41,000 --> 00:04:43,000
Copywriters, dat soort zaken.

62
00:04:43,000 --> 00:04:47,000
Wij zijn eigenlijk ook, wij schrijven ook.

63
00:04:47,000 --> 00:04:53,000
Dus ik denk alles wat iets met schrijven en taal te maken heeft, wordt geraakt.

64
00:04:53,000 --> 00:04:58,000
Dus ik denk dat het heel interessant is om dit even uit te diepen.

65
00:04:58,000 --> 00:05:01,000
Maar het gaat denk ik niet alleen maar over software.

66
00:05:01,000 --> 00:05:06,000
Als luisteraar, weet je, alles wat met schrijven te maken heeft, hebben we schrijven nog nodig?

67
00:05:06,000 --> 00:05:09,000
We zouden hem bijna breder kunnen trekken, toch?

68
00:05:09,000 --> 00:05:11,000
Wat denk jij?

69
00:05:11,000 --> 00:05:13,000
Nou, ik vind dat je een hele mooie formulering hebt.

70
00:05:13,000 --> 00:05:19,000
Want dat was eigenlijk wat in het laatste kwart van het gesprek ook al samenvattend naar boven kwam.

71
00:05:19,000 --> 00:05:23,000
Dat was de hardcore technische vaardigheden.

72
00:05:23,000 --> 00:05:26,000
En het, hoe zeg je dat in het Nederlands?

73
00:05:26,000 --> 00:05:31,000
De schrijfvaardigheid lijkt nog alleen maar aan belang te winnen.

74
00:05:31,000 --> 00:05:34,000
Want waar we het over hebben is met name generatieve AI.

75
00:05:34,000 --> 00:05:36,000
Klinkt heel paradoxaal hè?

76
00:05:36,000 --> 00:05:37,000
Ja, ja.

77
00:05:37,000 --> 00:05:45,000
Maar generatieve AI, als JGPT en allerlei andere varianten die in de tussentijd zijn.

78
00:05:45,000 --> 00:05:52,000
We deelden ook een aantal bevindingen aan de hand van AB-testen die we hebben uitgevoerd.

79
00:05:52,000 --> 00:06:03,000
Zowel bij onze eigen hogeschool als bij Hanze hebben we teams met en zonder training van in ons geval GitHub Copilot.

80
00:06:03,000 --> 00:06:07,000
Een AI-tool voor softwareontwikkelaars van Microsoft.

81
00:06:07,000 --> 00:06:12,000
Hebben we dezelfde opdrachten gegeven en wat we allebei waarnamen was dat met een korte training van twee uur,

82
00:06:12,000 --> 00:06:18,000
dat de productiviteit van het getrainde team met 30% hoger lag als in vergelijking met het niet getrainde team.

83
00:06:18,000 --> 00:06:24,000
Dat is ook in synch met onderzoek wat Harvard gedaan heeft bij de Boston Consultancy Groep.

84
00:06:24,000 --> 00:06:25,000
Ik zie jullie knikken.

85
00:06:25,000 --> 00:06:29,000
Waar ze zo'n kleine 700 consultants hebben genomen.

86
00:06:29,000 --> 00:06:31,000
In tweeën gedeeld.

87
00:06:31,000 --> 00:06:34,000
In één groep hebben ze twee uur getraind in ChatGPT 4.

88
00:06:34,000 --> 00:06:39,000
En daarna zijn ze gaan meten met toch wel verbluffende resultaten.

89
00:06:39,000 --> 00:06:41,000
Laat ik dat woord maar gebruiken.

90
00:06:41,000 --> 00:06:47,000
Uit mijn hoofd 40% sneller, 50% meer taken en een beduidend hogere kwaliteit.

91
00:06:47,000 --> 00:06:48,000
En dat allemaal bij elkaar.

92
00:06:48,000 --> 00:06:54,000
Dat past eigenlijk in de voorspelling die ik ook uit onderzoek heb gehad.

93
00:06:54,000 --> 00:07:02,000
Dat als je deze technologie omarmt, als kenniswerker, dan hebben we het hele brede te pakken.

94
00:07:02,000 --> 00:07:03,000
Iedereen die schrijft.

95
00:07:03,000 --> 00:07:11,000
Dan mag je verwachten dat in de komende zes, zeven jaar je productiviteit in allerlei opzichten met zo'n multiplier van vier,

96
00:07:11,000 --> 00:07:13,000
lees 400% gaat stijgen.

97
00:07:13,000 --> 00:07:14,000
Dat is fors.

98
00:07:14,000 --> 00:07:19,000
En om even de link te maken naar het onderwijs.

99
00:07:19,000 --> 00:07:31,000
Toen ChatGPT anderhalf jaar geleden werd geannonceerd, hebben we in februari en maart een aantal onderzoeken gedaan.

100
00:07:31,000 --> 00:07:35,000
Studenten geïnterviewd, docenten geïnterviewd om te kijken naar de impact.

101
00:07:35,000 --> 00:07:39,000
En wat bleek dat 10% van onze studentenpopulatie was depressief geworden.

102
00:07:39,000 --> 00:07:40,000
Echt waar?

103
00:07:40,000 --> 00:07:41,000
Oh, weet je.

104
00:07:41,000 --> 00:07:46,000
Ja, en we hebben 2000 studenten, dus je praat over 200 studenten.

105
00:07:46,000 --> 00:07:50,000
Want het vraag was van heb ik wel het goede vak gekozen?

106
00:07:50,000 --> 00:07:52,000
Want is er nog wel werk voor ons in het oplossen?

107
00:07:52,000 --> 00:07:55,000
We hebben toen alle 120 docenten bij elkaar gehaald.

108
00:07:55,000 --> 00:08:02,000
En ze zeiden, we gaan binnen een week met elk van jouw studenten, waar jij student begeleider bent, een kopje koffie drinken en uithoren.

109
00:08:02,000 --> 00:08:05,000
En hou hun het volgende voor.

110
00:08:05,000 --> 00:08:07,000
Het zijn eigenlijk twee scenario's.

111
00:08:07,000 --> 00:08:10,000
We blijven hetzelfde werk doen met een kwart van de mensen.

112
00:08:10,000 --> 00:08:11,000
Dat is scenario 1.

113
00:08:11,000 --> 00:08:15,000
Scenario 2 is, we trekken allemaal het been bij, we worden allemaal productiever.

114
00:08:15,000 --> 00:08:19,000
En we gaan vier keer zoveel output leveren.

115
00:08:19,000 --> 00:08:25,000
De kans dat het laatste scenario waar wordt is in mijn optiek 99,99%.

116
00:08:25,000 --> 00:08:28,000
En ik zit 40 jaar in het IT-vak.

117
00:08:28,000 --> 00:08:31,000
Ik zou ook blij zijn dat onze productiviteit wat gaat stijgen.

118
00:08:31,000 --> 00:08:34,000
Dus vanuit dat perspectief jaag ik het alleen maar toe.

119
00:08:34,000 --> 00:08:37,000
Dus die dialoog zijn we ook aangegaan.

120
00:08:37,000 --> 00:08:50,000
Ik denk dat we ook naarmate de maanden daarna voor de adoptie gaat, ook bij studenten en docenten, in die volgorde overigens, dat is wel humoristisch.

121
00:08:50,000 --> 00:08:55,000
Dat je merkt dat ze inderdaad ook zelf de voordelen zijn gaan ervaren.

122
00:08:55,000 --> 00:08:58,000
De onwennigheid, de onbekendheid wegging.

123
00:08:58,000 --> 00:09:03,000
Je ziet eigenlijk dat we een klassieke adoptie curve aan het volgen zijn.

124
00:09:03,000 --> 00:09:06,000
Binnen onze hoge scholen, maar eigenlijk binnen heel Nederland.

125
00:09:06,000 --> 00:09:09,000
Ik heb het voorrecht gehad om ook bij veel bedrijven hierover te mogen praten.

126
00:09:09,000 --> 00:09:14,000
Jullie zijn ook te gast geweest bij een community of practice die we georganiseerd hebben.

127
00:09:14,000 --> 00:09:17,000
Waar we 150, 100 mensen in de zaal hebben gekregen.

128
00:09:17,000 --> 00:09:20,000
Wat een mixback van allerlei achtergronden was.

129
00:09:20,000 --> 00:09:23,000
Dus je ziet dat aan de ene kant de interesse groot is.

130
00:09:23,000 --> 00:09:27,000
Als ik de klok een jaar geleden terugzet had je echt twee groepen.

131
00:09:27,000 --> 00:09:30,000
Een die je hielden en een groep die je met hun rug naartoe stond.

132
00:09:30,000 --> 00:09:33,000
En vooral hel en verdoemend is aan het preken.

133
00:09:33,000 --> 00:09:37,000
En je ziet dat dat nu allemaal veel meer aan het normaliseren is.

134
00:09:37,000 --> 00:09:42,000
Ik ben wel nieuwsgierig hoe het met de studenten afgelopen die depressief waren geworden na die gesprekken.

135
00:09:42,000 --> 00:09:43,000
Is dat weer goed gekomen?

136
00:09:43,000 --> 00:09:45,000
Er zijn geen ongelukken gebeurd.

137
00:09:45,000 --> 00:09:47,000
Dat is heel duidelijk.

138
00:09:47,000 --> 00:09:52,000
Er zijn een paar zaken geweest.

139
00:09:52,000 --> 00:10:00,000
In een grote club is de snelheid waarmee je dan ook een standpunt op dit punt ontwikkeld leest, beleid maakt.

140
00:10:00,000 --> 00:10:03,000
Dat wordt goed doorgedacht.

141
00:10:03,000 --> 00:10:06,000
Ik zeg als ondernemer dat duurt soms hartstikke lang.

142
00:10:06,000 --> 00:10:15,000
Maar tegelijkertijd is het goed om ook het brede polit van standpunten de kans te geven om opgenomen te worden.

143
00:10:15,000 --> 00:10:16,000
En zo'n gevuldigheid.

144
00:10:16,000 --> 00:10:20,000
We hebben er negen maanden over gedaan na de launch van JetGPT.

145
00:10:20,000 --> 00:10:23,000
Dus dat is 1 december negen maanden verder.

146
00:10:23,000 --> 00:10:27,000
Dus na de zomervakantie een jaar geleden.

147
00:10:27,000 --> 00:10:35,000
Dat we een handreiking hebben uitgeschreven en hebben gedeeld.

148
00:10:35,000 --> 00:10:39,000
Wat was de essentie naar de studenten toe?

149
00:10:39,000 --> 00:10:41,000
Je mag alles gebruiken.

150
00:10:41,000 --> 00:10:43,000
Er komen een drietal mitsen.

151
00:10:43,000 --> 00:10:45,000
Mits dat mag van je docent.

152
00:10:45,000 --> 00:10:51,000
Als je bij een bedrijf bijvoorbeeld bij Info Support een afstudeeropdracht doet.

153
00:10:51,000 --> 00:10:53,000
Dat het van het bedrijf het werk valt mag.

154
00:10:53,000 --> 00:10:58,000
En mits je ook een disclaimer opneemt in alles wat je maakt.

155
00:10:58,000 --> 00:11:00,000
Waarin je je academische integriteit.

156
00:11:00,000 --> 00:11:02,000
Dat is de chique taal voor het.

157
00:11:02,000 --> 00:11:07,000
Het blijft altijd mijn stuk en niet van een ander als je dat benoemd.

158
00:11:07,000 --> 00:11:08,000
Ja wat goed.

159
00:11:08,000 --> 00:11:12,000
Dus dat was een hele mooie.

160
00:11:12,000 --> 00:11:18,000
Binnen HBO ICT zie je dat we eigenlijk in de onderbouw de eerste twee jaar.

161
00:11:18,000 --> 00:11:23,000
Nog steeds studenten het vak van softwareontwikkelaar willen leren.

162
00:11:23,000 --> 00:11:32,000
Dat betekent als programmeur dat ze bijvoorbeeld een engineering tentamen afnemen.

163
00:11:32,000 --> 00:11:37,000
In een grote ruimte met 500 werkplekken die afgesloten zijn van internet.

164
00:11:37,000 --> 00:11:41,000
Waarmee ze kunnen aantonen dat ze een programma kunnen bouwen.

165
00:11:41,000 --> 00:11:44,000
Dus dan moeten ze echt de vaardigheden tonen die uit hun zelf komen.

166
00:11:44,000 --> 00:11:47,000
Dat ze dit soort dingen kunnen doen zonder het gebruik van AI.

167
00:11:47,000 --> 00:11:48,000
Ja exact.

168
00:11:48,000 --> 00:11:50,000
Ziet maar zo als metselaar.

169
00:11:50,000 --> 00:11:52,000
Laat maar zien dat je een eerste muurtje kan metselen.

170
00:11:52,000 --> 00:11:54,000
Ja je begrijpt het.

171
00:11:54,000 --> 00:11:55,000
Je weet de theorie.

172
00:11:55,000 --> 00:11:56,000
Maar je kan het ook zelf toepassen.

173
00:11:56,000 --> 00:11:59,000
En je kan herproduceren om nieuwe dingen te gaan creëren.

174
00:11:59,000 --> 00:12:02,000
Dat past ook bij de aard van een hogeschool.

175
00:12:02,000 --> 00:12:06,000
In het Engels mocht ons betitlen als een university of applied sciences.

176
00:12:06,000 --> 00:12:08,000
Namelijk een stukje applied, praktijk gericht.

177
00:12:08,000 --> 00:12:13,000
In het derde en vierde jaar draaien we de wereld 180 graden om.

178
00:12:13,000 --> 00:12:20,000
Want in het werkveld bij jullie, bij de bedrijven en organisaties waar onze studenten gaan werken.

179
00:12:20,000 --> 00:12:22,000
Wordt generatieve AI voluit toegepast.

180
00:12:22,000 --> 00:12:26,000
Dus in onze minoren, in onze opleiding.

181
00:12:26,000 --> 00:12:30,000
We hebben een minor AI en data science waar ze echt de diepte in gaan.

182
00:12:30,000 --> 00:12:36,000
Waar ze ook zeg maar onder de motorkap grote taalmodellen bouwen en daar mee spelen.

183
00:12:36,000 --> 00:12:43,000
Onze cloud engineers die we ook opleiden, die leiden we op in Azure aan de ene kant.

184
00:12:43,000 --> 00:12:46,000
En AWS en Amazon aan de andere kant.

185
00:12:46,000 --> 00:12:48,000
Maar we hebben ook een grote kast staan.

186
00:12:48,000 --> 00:12:50,000
Dus een on-prem kast, klassiek.

187
00:12:50,000 --> 00:12:54,000
Waar we ook een Nvidia plaat van een belachelijk hoog bedrag ingestort hebben.

188
00:12:54,000 --> 00:12:57,000
Waar onze studenten mee spelen.

189
00:12:57,000 --> 00:13:02,000
Dus hebben ze eigenlijk lokaal alle middelen om het gewoon uit te proberen.

190
00:13:02,000 --> 00:13:05,000
Ja, ervaring daarmee op te doen.

191
00:13:05,000 --> 00:13:14,000
En in onze eigen minoren, ik heb zelf de verantwoordelijkheid gedragen voor de minor waarin mobiele apps ontwikkeld worden.

192
00:13:14,000 --> 00:13:22,000
Waar we elk semester tussen de 30 tot 50 studenten in teams van 4, 5 mensen groot voor bedrijven betaalt.

193
00:13:22,000 --> 00:13:25,000
Ook apps laten ontwikkelen die ook daadwerkelijk gebruikt worden.

194
00:13:25,000 --> 00:13:29,000
En daar trainen we ze ook diep in het gebruik van GitHub GoPilot.

195
00:13:29,000 --> 00:13:34,000
Naast dat we ze ook zeg maar het kritiek denken, het goed leren vragen.

196
00:13:34,000 --> 00:13:38,000
Bijbrengen, als ook de ELSA principes.

197
00:13:38,000 --> 00:13:43,000
Wat staat voor ethiek, welke wetgeving is van kracht.

198
00:13:43,000 --> 00:13:47,000
En ja, wat is de impact op de maatschappij van al deze zaken.

199
00:13:47,000 --> 00:13:51,000
Daar willen we ook hun duidingen geven en richtingen geven.

200
00:13:51,000 --> 00:13:52,000
Mooi.

201
00:13:52,000 --> 00:13:57,000
En bij verandering, dan wil er ook wel van alles schuren en zo.

202
00:13:57,000 --> 00:14:02,000
En zijn we ook wel geneigd om vooral eigenlijk te kijken van wat gaat heel lastig.

203
00:14:02,000 --> 00:14:08,000
Maar zou je ook een positief bijeffect kunnen noemen die je van tevoren misschien niet bedacht had?

204
00:14:08,000 --> 00:14:16,000
Ja, uit het onderzoek waar ik eerder aan refereerde van Harvard bij BCG kwam een onverwachte bijvangst naar boven.

205
00:14:16,000 --> 00:14:25,000
En die bijvangst was dat in een doormeting van de resultaten, dat bleek dat de ChatGPT getrainde consultants,

206
00:14:25,000 --> 00:14:30,000
die hebben ze verdeeld in een bovenste 50% en een onderste 50%,

207
00:14:30,000 --> 00:14:38,000
dat de afstand tussen de topperformers en de underperformers, indien getraind door ChatGPT,

208
00:14:38,000 --> 00:14:41,000
kleiner was geworden dan waar waar niet getraind is geworden.

209
00:14:41,000 --> 00:14:42,000
Dat is een mooie.

210
00:14:42,000 --> 00:14:49,000
Met andere woorden, een level playing field, waarin dus ook de minder ervaren mensen,

211
00:14:49,000 --> 00:14:58,000
of mensen die vanuit de natuur minder begriftigd zijn met kwaliteit en daardoor eigenlijk als onderperformance betiteld zouden mogen worden,

212
00:14:58,000 --> 00:15:00,000
je ziet dat die kloof kleiner is geworden.

213
00:15:00,000 --> 00:15:02,000
En die had ik totaal niet aan z'n komen.

214
00:15:02,000 --> 00:15:04,000
Nee, ik ook niet.

215
00:15:04,000 --> 00:15:05,000
Dat is een hele mooie ja.

216
00:15:05,000 --> 00:15:06,000
Ja, grappig.

217
00:15:06,000 --> 00:15:15,000
En wat ik ook nog wel weet is ING heeft bijvoorbeeld ook zo'n onderzoek gedaan naar productiviteitswins.

218
00:15:15,000 --> 00:15:24,000
En wat je daar vooral zag is dat dan de minst ervaren mensen het meest productiviteitsgroei laten zien.

219
00:15:24,000 --> 00:15:30,000
Dus hoe meer ervaren je bent, hoe kleiner die winst.

220
00:15:30,000 --> 00:15:34,000
Ik weet eigenlijk niet eens waar ik aan het vragen toe ben.

221
00:15:34,000 --> 00:15:36,000
Ik ook niet, maar dat is wel interessant inderdaad.

222
00:15:36,000 --> 00:15:43,000
Want wat je eigenlijk zegt inderdaad, je kan enorme stappen maken als je het gaat omarmen en gaat gebruiken.

223
00:15:43,000 --> 00:15:47,000
Maar je maakt ook nog stappen als je wel ervaren bent in het vakgebied.

224
00:15:47,000 --> 00:15:52,000
Dus je kan nog steeds blijven groeien en improven en verbeteren, als ik het zo hoor.

225
00:15:52,000 --> 00:15:55,000
Ik weet niet welke vraag je ging, maar dat was even de interpretatie die ik daarvan had.

226
00:15:55,000 --> 00:15:59,000
Je bevestigt eigenlijk ook hetgeen dat ik zelf ook waarnam.

227
00:15:59,000 --> 00:16:04,000
En dan deugt dat ook, in ieder geval Nederlandse partijen, datzelfde waarneming.

228
00:16:04,000 --> 00:16:10,000
Ja, want de vraag was eigenlijk, is de end of coding?

229
00:16:10,000 --> 00:16:15,000
We hebben nog geen definitief antwoord op gegeven, toch?

230
00:16:15,000 --> 00:16:17,000
Nee, nee.

231
00:16:17,000 --> 00:16:20,000
Laat ik maar meteen een disclaimer geven.

232
00:16:20,000 --> 00:16:22,000
Dat gaat in het gesprek ook niet komen.

233
00:16:22,000 --> 00:16:25,000
Maar wel wat gedachten en richtingen.

234
00:16:25,000 --> 00:16:36,000
Wat heel bijzonder is, is dat je ziet dat non-IT'ers, kenniswerkers, nu in staat zijn, heel makkelijk softwareprogramma's te maken.

235
00:16:36,000 --> 00:16:42,000
Mijn collega gisteren van de Hans Hogeschool liet een aantal voorbeelden zien waarbij communicatiestudenten,

236
00:16:42,000 --> 00:16:50,000
richtstudenten, binnen no time, met gebruikmaken van Genertv, goed werkende programmatuur hadden geschreven.

237
00:16:50,000 --> 00:16:53,000
Dat was in de pre-ChatGPT tijd ondenkbaar.

238
00:16:53,000 --> 00:16:55,000
Totaal ondenkbaar.

239
00:16:55,000 --> 00:17:01,000
Dus je ziet dat, als ik dat zo mag noemen, monooplossingen voor één specifiek probleem,

240
00:17:01,000 --> 00:17:06,000
Greenfields, daar is dit goud voor.

241
00:17:06,000 --> 00:17:10,000
We hebben hier de kinderen gehad, NextGen.

242
00:17:10,000 --> 00:17:17,000
Dat zijn kinderen tot de leeftijd van 12 jaar geloof ik.

243
00:17:17,000 --> 00:17:21,000
En die maakten in een uur tijd een spelletje.

244
00:17:21,000 --> 00:17:24,000
Een game die gewoon werkt.

245
00:17:24,000 --> 00:17:28,000
Zo'n slang die dingetjes opeet, inclusief scoren en al.

246
00:17:28,000 --> 00:17:34,000
Dus als je dat mag betitelen als laaghangend fruit,

247
00:17:34,000 --> 00:17:39,000
dat is eigenlijk een vaardigheid die al ontegenwoordig iedereen die achter een laptop kan zitten,

248
00:17:39,000 --> 00:17:45,000
een goede prompt kan schrijven, een goede vraag kan formuleren, die is in staat om dat te doen.

249
00:17:45,000 --> 00:17:50,000
Vraag aan jullie, is dat waar de Info Support medewerkers hun boterham mee verdienen?

250
00:17:50,000 --> 00:17:51,000
Nee, zeker niet.

251
00:17:51,000 --> 00:17:52,000
Ik denk het niet.

252
00:17:53,000 --> 00:17:57,000
Net zo goed als dat wij de boterham niet verdienen met Excel macro's.

253
00:17:57,000 --> 00:17:59,000
Heel mijns.

254
00:17:59,000 --> 00:18:06,000
Ik heb zelf ook een korte intro mogen voorbereiden gisteren.

255
00:18:06,000 --> 00:18:11,000
Ik heb toen het begrip Greenfield en Brownfield op tafel gelegd.

256
00:18:11,000 --> 00:18:16,000
En waar we het nu over hebben, is dat in de Greenfield situaties is dit prachtig.

257
00:18:16,000 --> 00:18:19,000
Niet iedereen van de luisteraars is IT-jaar.

258
00:18:19,000 --> 00:18:20,000
Ik zal het maar uitleggen.

259
00:18:20,000 --> 00:18:26,000
Greenfield is, je bent een start-up en je gaat een nieuwe applicatie bouwen die nog nooit eerder heeft bestaan.

260
00:18:26,000 --> 00:18:28,000
We noemen het maar een moder applicatie.

261
00:18:28,000 --> 00:18:35,000
Brownfield, wat onderzoek gedaan, een gemiddeld MKB bedrijf, niet al te groot,

262
00:18:35,000 --> 00:18:39,000
heeft zo'n 120 verschillende applicaties in gebruik.

263
00:18:39,000 --> 00:18:43,000
En die hangen vaak ook met plakband aan elkaar.

264
00:18:43,000 --> 00:18:44,000
Met allerlei interfaces.

265
00:18:44,000 --> 00:18:46,000
Dat is de werkelijkheid van dit moment.

266
00:18:46,000 --> 00:18:55,000
Een heel grote verzekeraar in Nederland, ik had daar een afstudeerder zitten, die heeft nu over alle merken heen,

267
00:18:55,000 --> 00:18:57,000
5000 applicaties.

268
00:18:57,000 --> 00:19:02,000
En ook die hangen onelegant geformuleerd met plakband aan elkaar.

269
00:19:02,000 --> 00:19:06,000
Het gaat nog even duren.

270
00:19:06,000 --> 00:19:07,000
Ik ga het niet meer meemaken.

271
00:19:07,000 --> 00:19:09,000
Ik denk dat jullie dat ook niet meer meemaken.

272
00:19:09,000 --> 00:19:12,000
Maar, kom ik zo op terug.

273
00:19:12,000 --> 00:19:22,000
Morgen zal een gen-AI op dit punt niet in één keer het herconfigureren van zo'n complexe situatie in één keer overnemen.

274
00:19:22,000 --> 00:19:24,000
En dat is wat jullie medewerkers doen.

275
00:19:24,000 --> 00:19:27,000
De verroeten binnen complexe structuren.

276
00:19:27,000 --> 00:19:32,000
Dat is één zienswijze.

277
00:19:32,000 --> 00:19:34,000
Gelukkig, er is nog leven.

278
00:19:34,000 --> 00:19:38,000
Een andere zienswijze, en die is wat provocatief.

279
00:19:38,000 --> 00:19:43,000
Het ligt voor de hand dat een volgende verrassing in ontwikkeling is.

280
00:19:43,000 --> 00:19:47,000
Je ziet hem al eigenlijk als een soort trein op ons afkomen.

281
00:19:47,000 --> 00:19:53,000
Dat is dat er steeds meer intelligente zelfsturende AI-agenten gaan komen.

282
00:19:53,000 --> 00:20:06,000
Stel je voor dat die ook als een cohort van 500 drones, in dit geval 500 AI-agenten, onderling gaan samenwerken.

283
00:20:06,000 --> 00:20:19,000
Dat zou een setup kunnen zijn, als je die slim instelt op jouw configuratie, dat er wel degelijk heel veel werk vervangen kan worden van wat nu handmatig gebeurt.

284
00:20:19,000 --> 00:20:25,000
Of en wanneer dat gaat gebeuren, hoeveel ongelukken er nog gaan gebeuren voordat dat gebeurt, dat is een andere vraag.

285
00:20:25,000 --> 00:20:29,000
Maar het is wel een richting waarvan ik denk dat hij eraan gaat komen.

286
00:20:29,000 --> 00:20:37,000
Dat je allemaal gespecialiseerde stukjes AI hebt, die gespecialiseerd in een specifieke taak, maar wel kunnen samenwerken.

287
00:20:37,000 --> 00:20:47,000
Ja en die ook ongevraagd voor jou aan de slag gaan op basis van een interactie die jij hebt met andere mensen, met andere AI-modellen.

288
00:20:47,000 --> 00:20:52,000
Maar waarom zou dat ongevraagd gaan? Want software gaat toch niet ongevraagd iets doen?

289
00:20:52,000 --> 00:21:00,000
Wat nu al mogelijk is, stel dat wij een teamcircle hebben, we hebben Microsoft Copilot meelopen.

290
00:21:00,000 --> 00:21:07,000
Je krijgt een transgressie, je krijgt actiepunten, dan ligt het voor de hand als we zeggen van goh joh, wij moeten een afspraakje maken.

291
00:21:07,000 --> 00:21:19,000
Dat dus ongevraagd voor ons al die afspraak gemaakt wordt, omdat die agent toegang heeft tot onze beide agendas, de context van de meeting begrijpt, het onderwerp begrijpt.

292
00:21:19,000 --> 00:21:24,000
Dus als je een inschatting maakt wie nog extra aan tafel nodig is, dat bedoel ik ongevraagd.

293
00:21:24,000 --> 00:21:29,000
Dus als jouw persoonlijke assistent jouw eigen werk uit honden gaat nemen.

294
00:21:29,000 --> 00:21:37,000
Als je dat concept doordenkt, en dat ook verplaatst in de wereld van een software-ontwikkelaar,

295
00:21:37,000 --> 00:21:42,000
een goede software-ontwikkelaar heeft een zeer groot en uitgebreid mentaal model in zijn hoofd.

296
00:21:42,000 --> 00:21:45,000
Dat kan je aftappen en in een taalmodel stoppen.

297
00:21:45,000 --> 00:21:47,000
Ja dat denk ik ook wel.

298
00:21:47,000 --> 00:21:52,000
Dus eigenlijk wat we nu vaak bouwen zijn complexe integraties tussen systemen.

299
00:21:52,000 --> 00:22:04,000
Dat die integraties semi-automatisch op basis van een intent, een doel dat bereikt moet worden waar we zelf wel het doel zouden moeten bepalen, die integratie gaat realiseren.

300
00:22:04,000 --> 00:22:15,000
Dat dat ook cq elementen daaruit oppakt, cq voorstellen doet, zodat jij als mens nog steeds hopelijk in controle blijft.

301
00:22:15,000 --> 00:22:20,000
Maar dat het die richting uitgaat, dat ligt helemaal voor de hand.

302
00:22:20,000 --> 00:22:23,000
En ik vroeg daar nog één aspect naar toe.

303
00:22:23,000 --> 00:22:27,000
Hoe coderen we nu in een tekst-editor?

304
00:22:27,000 --> 00:22:36,000
Multimodality, dus niet alleen van tekst naar tekst, maar tekst naar spraak, naar video, dat is de route waar alle grote tech-providers in zitten.

305
00:22:36,000 --> 00:22:43,000
Ik zit te wachten tot het moment dat ook die functionaliteit in een GitHub Go-pilot komt,

306
00:22:43,000 --> 00:22:50,000
zodat ik zoals we nu zitten praten lekker kan babbelen met mijn personal AI-assistant,

307
00:22:50,000 --> 00:22:57,000
liggend op een strand op een fiets, op die manier je boterham kan verdienen.

308
00:22:57,000 --> 00:23:07,000
Nou, en er zijn natuurlijk ook al initiatieven, als je nou je webpagina bijvoorbeeld uittekent, dat dat wordt gezet naar code, dat werkt nog.

309
00:23:07,000 --> 00:23:12,000
Maar daar gaan we natuurlijk inderdaad wel naar toe, als je het hebt over multimodaal,

310
00:23:12,000 --> 00:23:20,000
dus niet alleen van tekst naar andere dingen, maar ook van wat jij tekent, wat jij misschien inderdaad wat je zegt met spraak,

311
00:23:20,000 --> 00:23:23,000
dat dat ook omgezet kan worden naar code.

312
00:23:23,000 --> 00:23:26,000
Een dikke stap verder, heel eng.

313
00:23:26,000 --> 00:23:30,000
Jullie kennen ongetwijfeld allemaal Neurolink van Elon Musk.

314
00:23:30,000 --> 00:23:35,000
We hebben de video's gezien van die jongen die aan het schakelen is, die volledig verlamd is,

315
00:23:35,000 --> 00:23:41,000
maar nog wel met zijn gedachten in staat is in dit geval een browser te besturen.

316
00:23:41,000 --> 00:23:53,000
Ik heb ooit een plaatje gehad van Time Magazine, die voorspelt dat in 2043 wij allemaal een ploeg in de bovenkamer hebben zitten.

317
00:23:53,000 --> 00:24:04,000
Maar even conceptueel, het aftappen van hersencapaciteit is iets waar nu zeer fanatiek onderzoek aan gedaan wordt,

318
00:24:04,000 --> 00:24:09,000
want het woord taalmodel is eigenlijk een verkeerde formulering.

319
00:24:09,000 --> 00:24:15,000
Dus niets anders dan als ik jou een aantal synapsen die jouw hersenactiviteit meten op jouw hoofd zet,

320
00:24:15,000 --> 00:24:21,000
en ik zeg tegen jou oranje, we hebben met twee een oranje shirt aan vandaag, je kan ons vragen waarom,

321
00:24:21,000 --> 00:24:27,000
dan wordt op dat moment de hersenactiviteit opgeslagen, die hoort bij het woord oranje.

322
00:24:27,000 --> 00:24:30,000
Jij doet ook mee, je hebt een groene shirt aan.

323
00:24:30,000 --> 00:24:35,000
Nou, dat doe je zelf. Maar als je dat met enkele honderden miljarden woorden doet, en die sla je op,

324
00:24:35,000 --> 00:24:40,000
en dat is dan niet een taalmodel, maar een grote database, wat dan een taalmodel heet,

325
00:24:40,000 --> 00:24:44,000
en ik laat die synapse op jouw hoofd staan, dan ben ik in staat jouw gedachten te lezen.

326
00:24:44,000 --> 00:24:49,000
En dit is geen rocket science meer, dit is geen science fiction, dit is wat nu aan het gebeuren is.

327
00:24:49,000 --> 00:25:00,000
Waarbij wel de disclaimer moet, 2043 is zo, want ik kan me ook herinneren dat in 2015 Elon Musk bijvoorbeeld zei

328
00:25:00,000 --> 00:25:07,000
over twee jaar hebben we level 5 zelfrijdende auto's. Dus het is altijd een beetje kijken van hoe...

329
00:25:07,000 --> 00:25:10,000
Ik denk dat dat de intentie was.

330
00:25:10,000 --> 00:25:16,000
Dit is denk ik ook een intentie of in ieder geval een gedachtegang inderdaad, dus realiteit moet het nog bewijzen.

331
00:25:16,000 --> 00:25:19,000
Maar dat zijn natuurlijk ontwikkelingen die we in het verleden al heel vaak gezien hebben,

332
00:25:19,000 --> 00:25:22,000
brain to computer interfaces, wat ook al jarenlang iets is.

333
00:25:22,000 --> 00:25:28,000
De technologie gaat steeds stapjes meer mogelijk maken, of makkelijker mogelijk maken,

334
00:25:28,000 --> 00:25:33,000
en we zien ook steeds meer de kansen en bijbekomende risico's die we daarin kunnen doen.

335
00:25:33,000 --> 00:25:37,000
Dus we kunnen er meer op gaan acteren, dus we kunnen er meer mee gaan doen.

336
00:25:37,000 --> 00:25:47,000
Ergens gaf je ook aan, dat was de paradox, we gaan minder schrijven, minder coderen,

337
00:25:47,000 --> 00:25:53,000
maar de schrijfvaardigheid moet omhoog. Volgens mij ben je daar wel langzaam naartoe aan het redeneren,

338
00:25:53,000 --> 00:25:59,000
want dat betekent dus volgens mij wat jij zegt, dat je steeds beter moet zijn in het formuleren wat je nou eigenlijk wil.

339
00:25:59,000 --> 00:26:09,000
Klopt. Maar waar in de toekomst nog steeds de vaardigheid van de softwareontwikkelaar in de skills het relevant blijft,

340
00:26:09,000 --> 00:26:16,000
dat is nu ook al, is het, denk aan de vakterm, de requirement analyse,

341
00:26:16,000 --> 00:26:23,000
dat je dan op tafel krijgt van, wat is nou de behoefte van mijn opdrachtgever,

342
00:26:23,000 --> 00:26:27,000
in het Nederlands, welk probleem willen we eigenlijk tackelen, welk bedrijfsproces willen we verbeteren, optimaliseren,

343
00:26:27,000 --> 00:26:36,000
of koppelen of wat is meer zijn. De blik van de mens op dat probleem, de intuïtie, het luisteren, het ruiken daarna,

344
00:26:36,000 --> 00:26:42,000
dat zie ik in de AI niet oppakken. Als dan, met behulp van al deze mooie tools, al dan niet,

345
00:26:42,000 --> 00:26:47,000
in welke diepgang er een oplossing komt, dan komt er een andere fase, dat pakt een AI ook niet op.

346
00:26:47,000 --> 00:26:53,000
Dat is namelijk mensen veranderen, mensen mobiliseren, om in ons geval software te gaan gebruiken.

347
00:26:53,000 --> 00:26:59,000
We weten allemaal hier hoe uitdagend het soms is om menselijk gedrag aan te passen en te veranderen.

348
00:26:59,000 --> 00:27:04,000
En ook ja, op dat vlak kan een AI helpen in de zin van trainingen maken,

349
00:27:04,000 --> 00:27:09,000
voorlichtingsfilmpjes maken en dergelijke, dus aan de productieve kant kan het helpen,

350
00:27:09,000 --> 00:27:14,000
maar bedenken hoe je dat doet, dat proces monitoren, dat ook succesvol maken,

351
00:27:14,000 --> 00:27:20,000
ook ingrijpen als het niet helemaal optimaal werkt, dat blijft nog steeds mensenwerk.

352
00:27:20,000 --> 00:27:28,000
De stap tussen de requirement analyse en de implementatie, daar zal veel productiviteitswinst te halen zijn.

353
00:27:28,000 --> 00:27:35,000
En dat komt, het bruggetje waar ik je aan schetste, prompt engineering, ik denk dat iedereen ondertussen aardig weet wat dat is,

354
00:27:35,000 --> 00:27:40,000
dat is niets anders dan het programmeren in menselijke taal.

355
00:27:40,000 --> 00:27:48,000
En het is ook niet verrassend dat onze softwareontwikkelaars, als we eenmaal over de brug heen zijn,

356
00:27:48,000 --> 00:27:52,000
als ik het zo mag noemen, dit vrij makkelijk weten te omarmen.

357
00:27:52,000 --> 00:28:00,000
Je begint met een eenvoudige een regel prompt en dan ga je ontdekken dat er iets als prompt patterns zijn.

358
00:28:00,000 --> 00:28:08,000
Ga achter GPT, jij bent nu mijn softwareontwikkelaar of ICT docent of mijn marketeer of mijn HR medewerker,

359
00:28:08,000 --> 00:28:11,000
wat een pattern is, er zijn er nog veel meer.

360
00:28:11,000 --> 00:28:17,000
En ik heb al de eerste, dat mag je noemen, megaprompt gezien, die drie, vier, A4'tjes bestaan.

361
00:28:17,000 --> 00:28:23,000
Dat bedenken, dat en dan dat wordt te gebruiken, de taalvaardigheid,

362
00:28:23,000 --> 00:28:27,000
het hebben om op basis van jouw, noem het maar probleemanalyse, requirement analyse,

363
00:28:27,000 --> 00:28:31,000
zulke diepe prompts te maken, dat zal een nieuw vakgebied worden.

364
00:28:31,000 --> 00:28:38,000
En nemen jullie dat ook op dan in je curriculum, dat je je taalvaardigheid gaat verbeteren?

365
00:28:38,000 --> 00:28:47,000
Natuurlijk doen we dat. Het tempo waar we dat in doen, dat gaat met kleine stapjes.

366
00:28:47,000 --> 00:28:52,000
We zijn nu druk doende onze eigen proper duizel volledig te herontwikkelen,

367
00:28:52,000 --> 00:29:02,000
waarin onder meer integraal duurzaamheid, inclusie, gelijkewaardigheid in dat hele curriculum wordt meegenomen.

368
00:29:02,000 --> 00:29:10,000
Deze ontwikkeling, als het hebben over taalvaardigheid, dan hebben we het eigenlijk over AI, literacy, AI vaardigheid,

369
00:29:10,000 --> 00:29:16,000
is er een die ook in dat hele palet is en wordt meegenomen.

370
00:29:16,000 --> 00:29:23,000
En met name in onze bovenbouw, de derde en de vierjarige, waar ze actief aan de slag gaan voor bedrijven als jullie zelf,

371
00:29:23,000 --> 00:29:30,000
werkveld, merk je dat de toename in de opdrachten, de stageopdrachten, de afstudieopdrachten,

372
00:29:30,000 --> 00:29:33,000
dat die nu aan het exploderen zijn.

373
00:29:33,000 --> 00:29:41,000
Ik heb een afstudeerder mogen begeleiden die voor een marketingbedrijf het fabrieken van een eigen LLM-model

374
00:29:41,000 --> 00:29:49,000
of een grote opdrachtgevers al had uitgewerkt en daar als softwareontwikkelaar op aan het afstuderen is.

375
00:29:49,000 --> 00:29:54,000
Ik zit toch nog even op de taalvaardigheid zitten te voren, terwijl ik het gesprek volg,

376
00:29:54,000 --> 00:29:57,000
er gaan er nog wat andere dingetjes van bovenkamer heen en weer inderdaad.

377
00:29:57,000 --> 00:30:02,000
Ik wil er echt nog wel eentje aan toevoegen en dat is dat niet alleen de taalvaardigheid van belang is,

378
00:30:02,000 --> 00:30:04,000
maar ook het begrijpend lezen.

379
00:30:04,000 --> 00:30:09,000
Ik denk dat dat ook een hele belangrijke vaardigheid is die we nu hebben,

380
00:30:09,000 --> 00:30:13,000
omdat we weten hoe software moeten bouwen en het zelf gebouwd hebben en daarmee AI gaan inzetten.

381
00:30:13,000 --> 00:30:17,000
Maar ik denk zodra je die kennis, die blijft wat mij betreft noodzakelijk om dat te begrijpen,

382
00:30:17,000 --> 00:30:20,000
maar daar heb je begrijpend lezen denk ik heel veel nodig.

383
00:30:20,000 --> 00:30:24,000
Want wat krijg ik terug vanuit de AI van het Large Language Model?

384
00:30:24,000 --> 00:30:27,000
Hoe moet ik dat interpreteren? Wat is er correct en wat is niet correct?

385
00:30:27,000 --> 00:30:29,000
En dan met de schrijfvaardigheid daar kampen invloeden.

386
00:30:29,000 --> 00:30:33,000
Dus ik denk dat dat ook een belangrijke vaardigheid is die we niet moeten onderschatten.

387
00:30:33,000 --> 00:30:42,000
Ja, helemaal eens. Het beoordelen of de output in de context past en ook met name de nuances in zich heeft.

388
00:30:42,000 --> 00:30:49,000
En ik denk met name dat we het hebben over de nuances en daarin het spelen met kleine deltas, kleine variabelen,

389
00:30:49,000 --> 00:30:57,000
die maken dat uiteindelijk je oplossing nog beter fit, beter past,

390
00:30:57,000 --> 00:31:01,000
passend is bij de probleemstelling die je probeert op te lossen.

391
00:31:01,000 --> 00:31:06,000
Ja, vooral als we vertalen aan Infrastructure, wij maken maatwerk software wat in de core van de organisatie zit.

392
00:31:06,000 --> 00:31:12,000
En daar is de nuance van essentieel verschil. Want daarmee maak je de organisatie en maak je de impact die je wil maken.

393
00:31:12,000 --> 00:31:17,000
Dus die nuance is juist degene waar wij ons op focussen, op die expertise en niche van de oplossingen.

394
00:31:17,000 --> 00:31:20,000
Dus vandaar dat ik daar even op aanging inderdaad.

395
00:31:20,000 --> 00:31:25,000
Hetzelfde geldt met explainability. We hadden het over die AI agents en ik zag in een keer 500 drones.

396
00:31:25,000 --> 00:31:28,000
Mooi dat je dat visueel maakt, gelijk voor mij 500 drones dat zie.

397
00:31:28,000 --> 00:31:35,000
Maar hoe gaan we daar ethische vraagstukken mee handelen? Hoe gaan we daar governance, hoe gaan we daar transparantie inbouwen?

398
00:31:35,000 --> 00:31:38,000
Dat zijn vraagstukken die gaan de AI ook niet nog voor ons oplossen.

399
00:31:38,000 --> 00:31:41,000
Maar het zijn wel zaken waar wij invloed op hebben en waar we mee aan de slag moeten.

400
00:31:41,000 --> 00:31:50,000
Heel mooi, en je triggerde bij mij een van de workshops die we gemaakt hebben en ook geven aan onze derde- en vierdejaars studenten.

401
00:31:50,000 --> 00:31:56,000
Bij de opstart van elke minor, ik krijg ze in de training op het vlak van projectmanagement,

402
00:31:56,000 --> 00:31:59,000
hoe ze dat het beste de komende zes maanden kunnen doen.

403
00:31:59,000 --> 00:32:02,000
En dat is meer dan je hebt watervallen en je hebt scrum.

404
00:32:02,000 --> 00:32:10,000
Maar een van de aspecten die we noemen is ook het proberen te lezen van de purpose, de why van je opdrachtgever.

405
00:32:10,000 --> 00:32:13,000
De golden circle van Simon Sinek, ik zie jullie begrijpen te knikken.

406
00:32:13,000 --> 00:32:23,000
Veel van de studenten hebben dat nog nooit gehoord en die moet je dan ook echt meenemen en uitleggen wat dat in een rol als ontwerper, ontwikkelaar, meebrengt.

407
00:32:23,000 --> 00:32:28,000
Als je de why van je opdrachtgever, het DNA van je opdrachtgever echt diep begrijpt.

408
00:32:28,000 --> 00:32:37,000
En ik probeer zelf altijd uit te leggen, als je die why goed doorgrond in je eerste weken, op het moment dat jij je ontwerp gaat maken,

409
00:32:37,000 --> 00:32:44,000
traditioneel je functioneel ontwerp, requirements analysen, dan maak je eigenlijk heel veel kleine minikeuzes.

410
00:32:44,000 --> 00:32:51,000
Op het moment dat je die why goed doorgrond, dan vergroot je de kans dat je de meest effectieve minikeuzes gaat maken.

411
00:32:51,000 --> 00:32:55,000
Die liggen dan allemaal in lijn met het doel wat je voor ogen hebt.

412
00:32:55,000 --> 00:33:02,000
Nou dat is iets dat is bijna ongrijpbaar. Dit is ook een van de meest moeilijke onderwerpen om over de bühne te krijgen bij de studenten.

413
00:33:02,000 --> 00:33:11,000
Dus je leert ze ook, je prooft ze in ieder geval zo veruit te dagen dat ze na een opdrachtgevers gaan en dan ook helemaal die why gaan doorvragen.

414
00:33:11,000 --> 00:33:18,000
En dat is niet een missie, dat is niet de visie, dat is niet de hoe we het doen of wat we doen, maar waarom bestaan we.

415
00:33:18,000 --> 00:33:31,000
We hebben het net over AI, dat is iets waarvan ik denk dat een AI-tool, zou dat theoretisch in staat moeten zijn als een goed geschreven website,

416
00:33:31,000 --> 00:33:33,000
dat er inhoudt om dat boven water te krijgen?

417
00:33:33,000 --> 00:33:37,000
Oh boven water, oh ja, dat geloof ik wel.

418
00:33:37,000 --> 00:33:44,000
Ik ben nu toevallig, we maken ook korte afleveringen met de podcast, begonnen met een drieluik.

419
00:33:44,000 --> 00:33:52,000
Mensen zullen dat misschien voor een gedeelte hebben al geluisterd en dat gaat juist over heel goed neerzetten van het doel.

420
00:33:52,000 --> 00:33:59,000
Wat wil je bereiken? En dus niet alleen studenten hebben daar moeite mee, maar het hele bedrijfsleven heeft daar moeite mee.

421
00:33:59,000 --> 00:34:06,000
Ik heb bij weet ik veel hoeveel kick-offs gezeten en dan gaan we het allemaal over hebben hoe we dingen gaan doen, heel slecht waarom.

422
00:34:06,000 --> 00:34:13,000
En dan wordt het startschort gegeven en dan moet ik altijd denken aan de Monty Python Olympics.

423
00:34:13,000 --> 00:34:21,000
Dan zie je iedereen keurig, zie je acht mensen die op rij staan, startschort wordt gegeven en iedereen loopt aan de andere kant op, behalve richting de finish.

424
00:34:21,000 --> 00:34:35,000
En een leuke werkvorm is dan, die pas ik regelmatig toe, dat leer ik ook studenten, zeker als ze met een opdrachtgever om de tafel zitten en dat ze niet met één persoon om de tafel zitten, maar twee, drie of vier.

425
00:34:35,000 --> 00:34:45,000
Ik zeg nou pakken, vraag ze even een geldje te pakken en vragen ieder los van elkaar de why op te schrijven waarvan zij denken dat het van Mercedes.

426
00:34:45,000 --> 00:34:52,000
En dat naar elkaar uit te spreken en het geeft je meteen een heel goed inzicht als student van wat vlees heb ik in de kuif.

427
00:34:52,000 --> 00:35:03,000
Maar de kans dat daar zeg maar een honderd procent overeenkomst zit in de geldjes, tendeert naar nul.

428
00:35:03,000 --> 00:35:08,000
En wat je dan ziet is dat er vaak ook allerlei persoonlijke agendas onder zitten.

429
00:35:08,000 --> 00:35:15,000
Dus iemand wil al heel lang iets en dat zou dan heel mooi onder dit project passen en we maken het pas het onder het doel.

430
00:35:15,000 --> 00:35:23,000
En als je het dan hebt over wat kan AI wel, wat kan AI niet. Ik denk dat als je het hebt over end of coding, ja we gaan steeds minder coderen.

431
00:35:23,000 --> 00:35:32,000
Maar dat zou moeten betekenen dat we steeds meer tijd, ruimte moeten krijgen om juist dit gefocust te blijven.

432
00:35:32,000 --> 00:35:39,000
Want als jij focust op je doel en eigenlijk niet doet wat niet bijdraagt aan je doel, dat is je grootste productiviteitswinst.

433
00:35:39,000 --> 00:35:41,000
Niet doen wat niet nodig is.

434
00:35:41,000 --> 00:35:44,000
En mijn droom is dat wij overbodig worden.

435
00:35:44,000 --> 00:35:45,000
Oh ja.

436
00:35:45,000 --> 00:35:47,000
Ik zal je uitleggen waarom.

437
00:35:47,000 --> 00:35:52,000
Kijk, als softwareontwikkelaars zijn wij eigenlijk overbodig.

438
00:35:52,000 --> 00:35:54,000
Wij zijn een ramp voor elk bedrijf.

439
00:35:54,000 --> 00:36:01,000
Want elke uur, elke week, elke maand, elk kwartaal wat we nodig hebben om gewoon te ontwikkelen,

440
00:36:01,000 --> 00:36:05,000
is een barrière tussen het moment dat je die waarde gaat toevoegen.

441
00:36:05,000 --> 00:36:17,000
Dus hoe sneller, en als dat naar de tijdse nul gaat, je op dat punt je wendbaarheid, je agility als bedrijf kan krijgen, hoe beter het zou zijn.

442
00:36:17,000 --> 00:36:24,000
Dus eigenlijk is de taak voor Info Support, is eigenlijk te streven naar het moment dat jullie jezelf overbodig maken.

443
00:36:24,000 --> 00:36:27,000
Dat is altijd onze ambitie volgens mij.

444
00:36:27,000 --> 00:36:31,000
Het klinkt misschien heel raar, maar dat is wel wat we proberen te doen.

445
00:36:31,000 --> 00:36:36,000
Ons eigen werk automatiseren, zodat we ons kunnen focussen op het volgende probleem en de volgende uitdaging.

446
00:36:36,000 --> 00:36:43,000
Het is bijna alsof we dit hebben afgesproken, maar bij iedere klant die wil komen, zeggen wij komen om weg te gaan.

447
00:36:43,000 --> 00:36:45,000
Maar niet te snel.

448
00:36:45,000 --> 00:36:48,000
Nee, uiteraard. Dan moet je wel brood op de plank.

449
00:36:48,000 --> 00:36:55,000
We hebben ook een virtuele co-host en zij wil eigenlijk ook altijd graag een vraag stellen.

450
00:36:55,000 --> 00:36:57,000
Laat maar komen.

451
00:36:57,000 --> 00:37:18,000
Het is een plezier om deel te nemen aan dit gesprek. Ik ben Aisha, de AI hier. Zou ik je een vraag mogen stellen?

452
00:37:18,000 --> 00:37:20,000
Natuurlijk.

453
00:37:20,000 --> 00:37:23,000
Kun je een nieuwe kleur bedenken? Kan AI dat?

454
00:37:23,000 --> 00:37:25,000
Uiteraard.

455
00:37:25,000 --> 00:37:27,000
Hoe dan?

456
00:37:27,000 --> 00:37:35,000
Door een goede prompt te schrijven met de ding als opdracht, dan zal je verrast zijn met de uitkomst.

457
00:37:35,000 --> 00:37:39,000
Ik vind het een hele bizarre vraag.

458
00:37:39,000 --> 00:37:41,000
Een nieuwe kleur bedenken.

459
00:37:41,000 --> 00:37:45,000
Jij? Doe eens even een nieuwe kleur.

460
00:37:45,000 --> 00:37:50,000
Maar je zei er sowieso niet veel kleuren, dus als ik een kleur moet kiezen, dan moet je niet aan mij overlaten.

461
00:37:50,000 --> 00:37:53,000
Dat delegeer ik altijd.

462
00:37:53,000 --> 00:37:58,000
Jij begon over de kleuren van onze shirt. Niels is net overgestapt van al zijn blauwe blouses.

463
00:37:58,000 --> 00:38:01,000
Dat hij 'n keer iets groens aantrekt.

464
00:38:01,000 --> 00:38:06,000
Mijn kleurenpakket, palet, is vrij summier.

465
00:38:06,000 --> 00:38:09,000
Niet kleuren blind, maar kleuren...

466
00:38:09,000 --> 00:38:11,000
Monogaam.

467
00:38:11,000 --> 00:38:13,000
Selectief.

468
00:38:13,000 --> 00:38:17,000
Dankjewel, dat was een zeer informatief antwoord.

469
00:38:17,000 --> 00:38:24,000
Ik was nog even aan het doordenken over het stukje.

470
00:38:24,000 --> 00:38:30,000
Ik was even op de kleuren van mijn palet blijven hangen.

471
00:38:30,000 --> 00:38:33,000
Over de juiste dingen doen.

472
00:38:33,000 --> 00:38:35,000
En zorgen dat we dat helder hebben.

473
00:38:35,000 --> 00:38:43,000
En ik denk ook bij de gepaste kwaliteit en security, die daarvan belangrijk is.

474
00:38:43,000 --> 00:38:45,000
Want het juiste doen, dat is vaak een doel.

475
00:38:45,000 --> 00:38:49,000
Maar ook de kaders die eromheen zitten, moeten we daarbij niet vergeten.

476
00:38:49,000 --> 00:38:53,000
Dat is denk ik ook wel de 'how' en de 'why' die bij elkaar komen.

477
00:38:53,000 --> 00:38:59,000
De gepaste kwaliteit en de gepaste kaders die eromheen gecreëerd worden.

478
00:38:59,000 --> 00:39:01,000
Ik denk dat dat wel belangrijk is.

479
00:39:01,000 --> 00:39:03,000
En als je het hebt over software schrijven.

480
00:39:03,000 --> 00:39:07,000
Maar ik denk dat dat ook geldt voor als jij journalistiek werk doet.

481
00:39:07,000 --> 00:39:09,000
Als je copywriting doet.

482
00:39:09,000 --> 00:39:11,000
Is eyes on the prize, zeggen ze zo mooi in het Engels.

483
00:39:11,000 --> 00:39:15,000
Die vergeten we vaak als mensen.

484
00:39:15,000 --> 00:39:19,000
Dat we een beetje afdwalen van het doel dat we uiteindelijk hebben.

485
00:39:19,000 --> 00:39:25,000
Ik was ook bij, dat is even een heel ander onderwerp.

486
00:39:25,000 --> 00:39:31,000
Maar ik was bij jullie ook bij de viering van 1 jaar GGPT.

487
00:39:31,000 --> 00:39:35,000
En daar hadden jullie een geweldige app die je lanceerde.

488
00:39:35,000 --> 00:39:37,000
Zou je daar iets over kunnen vertellen?

489
00:39:37,000 --> 00:39:39,000
Ja inderdaad, windesheim.ai.

490
00:39:39,000 --> 00:39:43,000
Je kan hem zo downloaden, zowel in Google Play als in de App Store.

491
00:39:43,000 --> 00:39:47,000
We hebben een maand geleden het tweede feestje gehouden.

492
00:39:47,000 --> 00:39:51,000
Toen hebben we de derde iteratieslag gepubliceerd.

493
00:39:51,000 --> 00:39:56,000
Het is allemaal door studententeams gebouwd.

494
00:39:56,000 --> 00:40:00,000
Hij staat netjes onder de Windersheim vlag in de beide stores.

495
00:40:00,000 --> 00:40:03,000
Dat gaf interesse intern.

496
00:40:03,000 --> 00:40:05,000
Interessante dialogue.

497
00:40:05,000 --> 00:40:10,000
Daar zit in onder meer een prompt bibliotheek.

498
00:40:10,000 --> 00:40:13,000
Die je kan helpen om makkelijker prompts te zuiven.

499
00:40:13,000 --> 00:40:16,000
Zeg maar voorbeelden tref je daaraan.

500
00:40:16,000 --> 00:40:20,000
We zijn drie jaar geleden gestart met een ander initiatief.

501
00:40:20,000 --> 00:40:26,000
Om een trend analyse te doen op het vlak van trends in technologie.

502
00:40:26,000 --> 00:40:31,000
Via een website, dat is windersheim.tech als uitkomst.

503
00:40:31,000 --> 00:40:36,000
Wat we gedaan hebben, de leidende analisten.

504
00:40:36,000 --> 00:40:40,000
Dan moet je denken aan McKinsey in de IT World Gardener.

505
00:40:40,000 --> 00:40:44,000
Een oude werkgever, Cap Gemini, Sogeti kennen jullie allemaal.

506
00:40:44,000 --> 00:40:47,000
Dat hebben we in een gabbelton gegooid.

507
00:40:47,000 --> 00:40:50,000
Daar hebben we negen thema's uit gehaald.

508
00:40:50,000 --> 00:40:54,000
Die je op die website diepgaand beschreven ziet.

509
00:40:54,000 --> 00:41:00,000
We hebben de Roadmaps, technologie Roadmaps voor de 14.

510
00:41:00,000 --> 00:41:03,000
De tech providers hebben ook een kaart gebracht.

511
00:41:03,000 --> 00:41:07,000
Met daarnaast ook linkjes naar bijvoorbeeld sandboxen.

512
00:41:07,000 --> 00:41:09,000
Speeltuinen waar je mee aan de slag kan gaan.

513
00:41:09,000 --> 00:41:12,000
Voor studenten gratis licenties.

514
00:41:12,000 --> 00:41:15,000
Dus wil je wat spelen met de quantum computer van IBM.

515
00:41:15,000 --> 00:41:17,000
Dan zit je daar een linkje.

516
00:41:17,000 --> 00:41:21,000
Afgelopen semester, we praten steeds over half jaar.

517
00:41:21,000 --> 00:41:29,000
Naast de twaalf bekende, Amazon, Google, Meta, Apple.

518
00:41:29,000 --> 00:41:32,000
Hebben we ook OpenAI en NVIDIA toegevoegd.

519
00:41:32,000 --> 00:41:35,000
Qua informatie verstrekking.

520
00:41:35,000 --> 00:41:39,000
We hebben daar ook in de biotheek al gebouwd.

521
00:41:39,000 --> 00:41:42,000
En gevuld met de eerste tachtig use cases.

522
00:41:42,000 --> 00:41:48,000
En ook die informatie, die content is via de app te ontsluiten.

523
00:41:48,000 --> 00:41:51,000
En de use cases zijn dat? Gen AI use cases?

524
00:41:51,000 --> 00:41:53,000
Nee, dat zijn generieke use cases.

525
00:41:53,000 --> 00:41:55,000
Dat kan van alles zijn.

526
00:41:55,000 --> 00:41:59,000
De helft van de use cases komen vanuit studentenprojecten.

527
00:41:59,000 --> 00:42:04,000
En de andere helft van de use cases komen uit en van de diverse tech providers.

528
00:42:04,000 --> 00:42:07,000
Die kan je doorsnijden op bijvoorbeeld de SBI code.

529
00:42:07,000 --> 00:42:09,000
In welke branche zit je?

530
00:42:09,000 --> 00:42:12,000
Je kan het doorsnijden op welk bedrijfsproces.

531
00:42:12,000 --> 00:42:14,000
De waardeketen van porten worden genomen.

532
00:42:14,000 --> 00:42:18,000
Dus met name om, hoe kan ik als bedrijf dit toe gaan passen?

533
00:42:18,000 --> 00:42:20,000
Dat is dan de use case waar we het over hebben.

534
00:42:20,000 --> 00:42:24,000
Met name inspiratie en naar studenten het voorkomen van transparatie.

535
00:42:24,000 --> 00:42:27,000
Eigenlijk het nieuwe op wielen uitvinden.

536
00:42:27,000 --> 00:42:29,000
Dat is de gedachte die erachter zit.

537
00:42:29,000 --> 00:42:33,000
Verder vind je binnen die app ook een aantal trainingen.

538
00:42:33,000 --> 00:42:37,000
Ik heb de studenten ook uitgedaagd van leuk dat jullie een app bouwen.

539
00:42:37,000 --> 00:42:39,000
Of voortbouwturen op een reeds bestaande app.

540
00:42:39,000 --> 00:42:42,000
Maar zelf ook, eat your own dog food, slecht Nederlands.

541
00:42:42,000 --> 00:42:48,000
Ga ook met name ook gen2 AI gebruiken binnen de bouw van de app.

542
00:42:48,000 --> 00:42:52,000
En ze hebben mij verrast door met een aantal gegenererde podcasts te komen.

543
00:42:52,000 --> 00:42:54,000
Waarvan ik nog niet eens weet hoe ze dat gedaan hebben.

544
00:42:54,000 --> 00:42:56,000
Maar het klinkt nog wel lekker ook.

545
00:42:56,000 --> 00:43:01,000
Dus ook jullie tweeën, maar drieën kunnen ook vervangen worden.

546
00:43:01,000 --> 00:43:05,000
Dat hoeft niet, we hebben het er al vaker over gehad.

547
00:43:05,000 --> 00:43:07,000
Je moet ook dingen blijven doen die je leuk vindt.

548
00:43:07,000 --> 00:43:08,000
Je hoeft niet alles op te lossen.

549
00:43:08,000 --> 00:43:10,000
Als je dit leuk vindt, dan blijf je dit gewoon doen.

550
00:43:10,000 --> 00:43:11,000
Dat noem je ook niet.

551
00:43:11,000 --> 00:43:15,000
Die podcast vind ik uiteraard heel interessant.

552
00:43:15,000 --> 00:43:16,000
Waar gaat de podcast dan over?

553
00:43:16,000 --> 00:43:18,000
Over aspecten rond het gen2 VR.

554
00:43:18,000 --> 00:43:22,000
Oh ja, we zullen sowieso die link opnemen in de show notes.

555
00:43:22,000 --> 00:43:28,000
We hebben ook al nagedacht over wat we de komende zes maanden gaan doen.

556
00:43:28,000 --> 00:43:31,000
Dan gaan we de vierde iteratieslag in.

557
00:43:31,000 --> 00:43:34,000
We gaan twee dingen realiseren.

558
00:43:34,000 --> 00:43:40,000
We gaan een AI literacy scan op persoonsniveau maken.

559
00:43:40,000 --> 00:43:44,000
Met andere woorden, hoe AI vaardig, lees van taalvaardig ben jij.

560
00:43:44,000 --> 00:43:46,000
Kan je zelf doormeten.

561
00:43:46,000 --> 00:43:50,000
We gaan daarnaast een tweede meetinstrument toevoegen.

562
00:43:50,000 --> 00:43:53,000
Dat is een AI maturity scan.

563
00:43:53,000 --> 00:43:56,000
Lees hoe volwassen ben jij als organisatie op dit vlak.

564
00:43:56,000 --> 00:43:57,000
Waar zie je gaten?

565
00:43:57,000 --> 00:44:02,000
En als je die gaten ziet, hoe zou je roadmap eruit kunnen zien?

566
00:44:02,000 --> 00:44:07,000
Mede dankzij dit tool om ook stappen te gaan zetten.

567
00:44:07,000 --> 00:44:11,000
En keuzes te gaan maken van welke projecten ga je eigenlijk doen.

568
00:44:11,000 --> 00:44:12,000
Mooi, klinkt handig.

569
00:44:12,000 --> 00:44:16,000
We doen dit met overheidsgeld.

570
00:44:16,000 --> 00:44:19,000
Dit is allemaal open.

571
00:44:19,000 --> 00:44:25,000
Denk ook aan een van mijn rollen, dat is makelaar zijn tussen het mkb en studenten.

572
00:44:25,000 --> 00:44:29,000
Deze tools zullen ook gebruiken om studenten in op te leiden.

573
00:44:29,000 --> 00:44:33,000
Die dit tool weer kunnen gebruiken om een kleine mkb, wat ook een bakker met acht medewerkers kan zijn.

574
00:44:33,000 --> 00:44:34,000
Om die te helpen.

575
00:44:34,000 --> 00:44:39,000
Om te zeggen, laat we die hele questionairissing gaan vulderen.

576
00:44:39,000 --> 00:44:43,000
En kijken waar verder voor jou voordelen te halen zijn.

577
00:44:43,000 --> 00:44:48,000
Dus als we hem even terugpakken naar de why van deze app.

578
00:44:48,000 --> 00:44:58,000
Waar de toevoegen aan de Nederlandse burgers, bedrijfsleven, overheid, punt.

579
00:44:58,000 --> 00:45:03,000
Nou, dat punt lijkt me een hele mooie afsluiting.

580
00:45:03,000 --> 00:45:04,000
Ik ga naar huis.

581
00:45:04,000 --> 00:45:05,000
Hoe zei je het nou?

582
00:45:05,000 --> 00:45:10,000
Software ontwikkelaars zijn een ramp voor iedere organisatie.

583
00:45:10,000 --> 00:45:12,000
Daar eindigen we mee.

584
00:45:12,000 --> 00:45:14,000
Ja toch, dat zei je toch?

585
00:45:14,000 --> 00:45:16,000
Heerlijk, geweldig.

586
00:45:16,000 --> 00:45:19,000
Rob, super bedankt voor het geven van je inzichten.

587
00:45:19,000 --> 00:45:22,000
Wat er allemaal op het gebied van onderwijs gebeurt.

588
00:45:22,000 --> 00:45:23,000
Het onderzoek.

589
00:45:23,000 --> 00:45:25,000
En zeker ook die app.

590
00:45:25,000 --> 00:45:26,000
Dus kijk daarna.

591
00:45:26,000 --> 00:45:28,000
Ik denk dat die heel erg informatief is.

592
00:45:28,000 --> 00:45:32,000
Ook als je je buiten de IT begeeft, is die interessant.

593
00:45:32,000 --> 00:45:34,000
Dus bekijk die.

594
00:45:34,000 --> 00:45:37,000
Nogmaals, super bedankt dat je hier wilde zijn.

595
00:45:37,000 --> 00:45:40,000
En voor jullie bedankt voor het luisteren.

596
00:45:40,000 --> 00:45:42,000
Tot de volgende keer.

597
00:45:42,000 --> 00:45:45,000
Zorg dat je je abonneert via je favoriete podcast-app.

598
00:45:45,000 --> 00:45:47,000
En dan mis je geen aflevering.

599
00:45:47,000 --> 00:45:48,000
Dankjewel.

600
00:45:48,000 --> 00:45:50,000
[Muziek]

601
00:45:50,000 --> 00:46:12,800
[Muziek]


People on this episode