AIToday Live

S07E69 - Verliezen we onze vaardigheden door overmatig AI-gebruik? Met Josien Boetje

Aigency by Info Support Season 7 Episode 69

Josien Boetje, docent en onderzoeker aan de Hogeschool Utrecht en de Open Universiteit, was te gast in de podcast AIToday Live. Ze besprak het fenomeen 'cognitieve luiheid' door AI-gebruik en introduceerde de 'memory paradox'.

Boetje benadrukte het belang van kennis en eigen denkwerk voordat AI wordt ingezet. Ze waarschuwde voor het risico dat professionals hun expertise kunnen verliezen door routinetaken uit te besteden aan AI.

Onderwerpen

  • Cognitieve luiheid door AI
  • De memory paradox en kennisbehoud
  • Leren in het AI-tijdperk
  • AI en expertise-ontwikkeling
  • Balans tussen cognitief werk en rust
Links

Genoemde entiteiten: Hogeschool Utrecht - Open Universiteit - MIT

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:06,000
In deze aflevering hoor je Josien Boetje, docent en onderzoeker aan de Hogeschool Utrecht en Open Universiteit.

2
00:00:06,600 --> 00:00:13,000
Zij vertelt over hoe overmatig AI gebruik kan leiden tot cognitieve luiheid en het verlies van essentiële vaardigheden.

3
00:00:14,000 --> 00:00:15,500
Dus blijf luisteren!

4
00:00:17,460 --> 00:00:20,400
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

5
00:00:20,820 --> 00:00:22,340
Mijn naam is Joop Snijder, CTO bij Aigency.

6
00:00:22,640 --> 00:00:25,280
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support.

7
00:00:25,680 --> 00:00:29,680
En we gaan het vandaag best wel over een bijzonder onderwerp hebben, namelijk luiheid.

8
00:00:30,380 --> 00:00:32,500
En daarvoor hebben wij Josien Boetje uitgenodigd.

9
00:00:34,120 --> 00:00:41,580
Josien, voordat we beginnen met heel lui aan een podcast te beginnen, zou je jezelf eerst willen voorstellen?

10
00:00:41,720 --> 00:00:45,060
Dat vind ik wel een beetje lui van jou. Moet ik zelf mijn best gaan doen?

11
00:00:46,120 --> 00:00:47,280
Ik ben Josien Boetje.

12
00:00:47,630 --> 00:00:51,480
Ik ben docent en onderzoeker aan de Hogeschool Utrecht en de Open Universiteit.

13
00:00:52,140 --> 00:00:58,220
Helemaal gefocust op het aanleren van kritische AI-geletterdheid en digitale informatievaardigheden.

14
00:00:59,180 --> 00:01:01,160
Dat pas ik zelf ook toe in mijn onderwijs.

15
00:01:01,500 --> 00:01:02,900
Aan de nieuwe leraren in opleiding.

16
00:01:03,160 --> 00:01:05,280
Hoe leer je dat nou weer aan de nieuwe leerlingen?

17
00:01:05,980 --> 00:01:07,460
Maar ook aan collega-onderzoekers.

18
00:01:07,690 --> 00:01:08,700
Daar heb ik ook een blog over.

19
00:01:09,420 --> 00:01:13,680
En een eigen bedrijfje waarin ik ook keynotes en workshops over dit thema verzorg.

20
00:01:14,040 --> 00:01:15,200
En een eigen podcast, hoorde ik.

21
00:01:15,280 --> 00:01:16,820
En een eigen podcast DigiSnacks.

22
00:01:17,120 --> 00:01:17,380
Kijk.

23
00:01:18,339 --> 00:01:21,340
En ik begon een beetje flauw natuurlijk over die luiheid.

24
00:01:21,530 --> 00:01:23,280
Maar daar gaan we het wel over hebben, toch?

25
00:01:23,600 --> 00:01:24,200
Klopt, ja.

26
00:01:25,040 --> 00:01:26,380
Kan je daar iets over vertellen?

27
00:01:26,930 --> 00:01:28,040
Want je doet daar onderzoek naar.

28
00:01:28,830 --> 00:01:30,480
Ja, niet specifiek naar luiheid.

29
00:01:30,480 --> 00:01:34,660
Maar ik doe onderzoek naar hoe blijf je nou leren in tijd van AI.

30
00:01:35,020 --> 00:01:39,220
En dan leren in mijn onderzoek leren van digitale informatie.

31
00:01:39,980 --> 00:01:43,360
Dus je leert ook natuurlijk van boeken, van gesprekken met mensen.

32
00:01:43,540 --> 00:01:45,640
Maar ook steeds meer, je zoekt zelf dingen op.

33
00:01:46,040 --> 00:01:48,580
Dus eerst toen Google kwam of de zoekmachine,

34
00:01:48,700 --> 00:01:51,840
was het, dit gaat het onderwijs helemaal op zijn kop zetten.

35
00:01:52,920 --> 00:01:54,820
Dus dat noemen ze ook wel searching as learning.

36
00:01:55,480 --> 00:01:57,480
Dus je gaat leren door te zoeken.

37
00:01:58,200 --> 00:02:01,780
En vaak zoek je als je iets wil weten of als je een probleem moet oplossen.

38
00:02:02,400 --> 00:02:06,200
Maar vroeger dan moest je dat zelf nog vertalen naar je eigen geval.

39
00:02:06,800 --> 00:02:09,580
Dus stel je loopt vast met een bepaald programma op je computer.

40
00:02:09,860 --> 00:02:11,080
Nou, je zoekt de oplossing.

41
00:02:11,760 --> 00:02:14,920
Dan moet je ten eerste weten waar vind ik een goed antwoord vind.

42
00:02:15,120 --> 00:02:16,880
Heb je een bepaalde voorraam misschien voor?

43
00:02:16,950 --> 00:02:18,120
Of je weet je plekken te vinden.

44
00:02:18,210 --> 00:02:20,300
Maar als je een beginner bent, weet je vaak die plekken al niet.

45
00:02:20,440 --> 00:02:21,620
Dus dan ga je voor de default.

46
00:02:21,850 --> 00:02:23,080
Voor veel mensen is dat dan Google.

47
00:02:24,220 --> 00:02:25,259
En nu is dat natuurlijk heel anders.

48
00:02:26,039 --> 00:02:28,640
Nu is de default voor veel mensen ChatGPT.

49
00:02:29,680 --> 00:02:30,600
Je typt je probleem in.

50
00:02:30,790 --> 00:02:32,700
Je krijgt je antwoord wat meestal werkt.

51
00:02:33,560 --> 00:02:35,420
Maar je bent eigenlijk gewoon die monkey do.

52
00:02:35,560 --> 00:02:37,120
Die aapje die het gewoon nadoet.

53
00:02:38,400 --> 00:02:39,880
Misschien is je probleem opgelost.

54
00:02:40,840 --> 00:02:41,580
Dat is op zich fijn.

55
00:02:42,140 --> 00:02:44,040
Maar in jouw hoofd is niet zoveel gebeurd.

56
00:02:45,260 --> 00:02:47,480
En dat zou dan kunnen leiden tot cognitieve luiheid?

57
00:02:48,420 --> 00:02:50,200
Dat is cognitieve luiheid.

58
00:02:52,540 --> 00:02:54,400
In het Engels is de term offloading.

59
00:02:55,000 --> 00:02:57,100
Die vind ik eigenlijk iets passender dan luiheid.

60
00:02:57,220 --> 00:02:57,900
Is het lui?

61
00:02:58,520 --> 00:03:02,240
In ieder geval, je bent niet actief aan het leren op dat moment.

62
00:03:03,040 --> 00:03:05,060
Je hoeft dat helemaal niet de hele dag aan het leren.

63
00:03:05,120 --> 00:03:06,220
Dan zou je heel erg moe worden.

64
00:03:06,680 --> 00:03:07,420
Dat hoeft echt niet.

65
00:03:07,680 --> 00:03:10,059
Maar als je elke dag niet leert...

66
00:03:10,520 --> 00:03:13,080
Ben je dan over tien jaar nog wel expert in jouw vakgebied?

67
00:03:13,700 --> 00:03:16,580
Misschien ben ik nu wel expert in mijn vakgebied.

68
00:03:16,870 --> 00:03:19,500
Maar schrijven is een groot onderdeel van mijn werk.

69
00:03:20,020 --> 00:03:23,040
Als ik nu al mijn wetenschappelijke artikelen voornamelijk leun op AI,

70
00:03:23,540 --> 00:03:26,140
om dat te schrijven, en blogs of LinkedIn posts,

71
00:03:27,300 --> 00:03:30,920
kan ik dan over vijf jaar die kwaliteit van die AI nog wel goed beoordelen.

72
00:03:31,480 --> 00:03:34,760
Je bent meer een supervisor in plaats van de maker.

73
00:03:35,700 --> 00:03:37,660
En wat doet dat met je expertiseontwikkeling?

74
00:03:37,720 --> 00:03:42,440
Want het blijkt juist dat als je iets maakt, dat noemen ze een generatieve leerstrategie.

75
00:03:42,860 --> 00:03:45,420
Als jij dingen maakt, misschien maak je ook wel eens dingen voor klanten.

76
00:03:46,180 --> 00:03:47,480
Ja, dan gaat je brein gewoon aan.

77
00:03:47,550 --> 00:03:49,020
Je gaat met je team dat oplossen.

78
00:03:49,070 --> 00:03:50,780
Je wil alles snappen van dat probleem.

79
00:03:51,090 --> 00:03:52,120
En dan ben je helemaal engaged.

80
00:03:52,250 --> 00:03:54,120
En dan ga je gewoon superveel leren en onthouden.

81
00:03:54,840 --> 00:03:56,520
Terwijl als de oplossing meteen daar is.

82
00:03:59,160 --> 00:04:05,180
Ja, dan ben je niet alleen misschien lui, maar ook niet echt betrokken zou je kunnen zeggen.

83
00:04:06,280 --> 00:04:07,740
Dat je het ook minder opneemt.

84
00:04:08,280 --> 00:04:09,540
Ja, er is ook geen probleem.

85
00:04:10,220 --> 00:04:14,620
Kijk, je brein gaat aan als je dingen ervaart die je niet had verwacht.

86
00:04:15,380 --> 00:04:17,420
Er zijn ook wel onderzoeken met tennis en zo.

87
00:04:17,550 --> 00:04:18,880
Dan komt het balletje over het net.

88
00:04:19,399 --> 00:04:21,140
Meestal verwacht je dat hij een bepaalde kant op gaat.

89
00:04:21,700 --> 00:04:24,420
Maar als je iets anders doet dan je verwacht, dan moet je natuurlijk opletten.

90
00:04:24,500 --> 00:04:26,080
Want dan kan je niet meer op je routine vertrouwen.

91
00:04:27,260 --> 00:04:29,180
De AI maakt het zo makkelijk.

92
00:04:29,550 --> 00:04:31,020
Het ziet er zo overtuigend uit.

93
00:04:31,090 --> 00:04:32,120
Het zal wel kloppen.

94
00:04:32,620 --> 00:04:34,019
Ik ga in de routine-modus.

95
00:04:35,859 --> 00:04:39,620
En dat is niet je brein waarmee je nieuwe dingen leert.

96
00:04:39,710 --> 00:04:40,780
Tot nieuwe inzichten komt.

97
00:04:41,280 --> 00:04:44,740
En betekent dat dan ook dat de volgende keer dat je hetzelfde probleem eigenlijk hebt.

98
00:04:45,120 --> 00:04:46,380
Je eigenlijk het weer moet gaan vragen.

99
00:04:46,400 --> 00:04:47,180
Moet het weer vragen.

100
00:04:47,320 --> 00:04:49,060
Je hebt het niet doorleefd zelf.

101
00:04:49,659 --> 00:04:52,680
Eigenlijk is het niet anders dan veel mensen.

102
00:04:52,840 --> 00:04:55,320
Bijvoorbeeld met computerproblemen om het zo maar te zeggen.

103
00:04:55,880 --> 00:04:57,940
Bijvoorbeeld mijn tante heeft een computermannetje.

104
00:04:58,460 --> 00:05:00,020
Dus die vraagt altijd dat mannetje.

105
00:05:01,560 --> 00:05:02,480
Die is ook afhankelijk.

106
00:05:02,990 --> 00:05:04,140
Dat is precies hetzelfde.

107
00:05:04,600 --> 00:05:06,680
Het gaat ook over outsourcen van expertise.

108
00:05:06,930 --> 00:05:11,280
Als je elke keer maar een consultant invliegt voor bepaalde problemen die je in een bedrijf hebt.

109
00:05:11,860 --> 00:05:13,180
Ja, dan ben je ook afhankelijk.

110
00:05:13,820 --> 00:05:16,180
En als je herhaalt dat ik hetzelfde probleem heb.

111
00:05:16,810 --> 00:05:18,880
Nou, dat weten jullie als ICT is als geen ander.

112
00:05:19,460 --> 00:05:21,560
Ja, je kan het of automatiseren natuurlijk.

113
00:05:22,400 --> 00:05:25,840
Of een deel daarvan kan ook routine bij jezelf inbakken.

114
00:05:26,000 --> 00:05:27,420
Zodat je het gewoon zelf gaat doen.

115
00:05:27,680 --> 00:05:30,140
Het is ook hartstikke duur als je elke keer moet invliegen.

116
00:05:30,170 --> 00:05:31,500
Maar AI is natuurlijk heel goedkoop.

117
00:05:31,900 --> 00:05:32,640
En dat is het probleem.

118
00:05:32,960 --> 00:05:33,900
Het is altijd beschikbaar.

119
00:05:34,120 --> 00:05:34,920
Het is er meteen.

120
00:05:35,540 --> 00:05:37,160
Je hoeft ook helemaal niet alles te kunnen.

121
00:05:37,440 --> 00:05:38,160
Dat is op zich prima.

122
00:05:38,560 --> 00:05:40,240
Maar als ik niet snap wat ik aan het doen ben.

123
00:05:40,760 --> 00:05:42,160
Bijvoorbeeld met dat hele vibe code.

124
00:05:42,460 --> 00:05:42,980
Hartstikke leuk.

125
00:05:43,500 --> 00:05:45,080
Als ik niet snap wat ik aan het maken ben.

126
00:05:46,380 --> 00:05:48,020
Als ik niet snap of het uitmaakt.

127
00:05:48,060 --> 00:05:51,039
In welke browser dat webappje wat ik maak werkt.

128
00:05:51,720 --> 00:05:53,620
En dat ik denk ik heb echt iets gemaakt.

129
00:05:53,820 --> 00:05:54,720
En dan ga ik het echt doen.

130
00:05:54,880 --> 00:05:56,020
En dan loop ik tegen problemen aan.

131
00:05:56,080 --> 00:05:56,960
En dan kan ik het niet oplossen.

132
00:05:57,580 --> 00:06:00,020
Als professional sta je dan wat mij vertelt gewoon verschut.

133
00:06:01,940 --> 00:06:03,480
Dus je hebt toch wel kennis nodig.

134
00:06:04,200 --> 00:06:06,060
Dus dat noemen ze de memory paradox.

135
00:06:06,200 --> 00:06:08,820
Dat is een heel interessant hoofdstuk over geschreven.

136
00:06:09,300 --> 00:06:12,340
Je hebt juist kennis nodig in een tijd van AI.

137
00:06:13,480 --> 00:06:14,140
Heel interessant.

138
00:06:15,200 --> 00:06:21,120
Want de jonge professionals, die gaan hier zo direct mee opgeleid worden.

139
00:06:22,560 --> 00:06:26,660
Hoe moeten wij ze dan het vakmanschap meegeven,

140
00:06:26,900 --> 00:06:31,060
zodat ze, wat jij nu zegt, in die paradox eigenlijk terechtkomen?

141
00:06:31,740 --> 00:06:33,920
Je wil dus werken aan kennisopbouw.

142
00:06:34,040 --> 00:06:37,440
En dat wordt met onderwijskundig term ook wel mentale schema's genoemd.

143
00:06:37,860 --> 00:06:40,160
Dus je wil niet allerlei losse brokjes kennis hebben.

144
00:06:40,640 --> 00:06:43,320
Maar je wil die brokjes aan elkaar verbinden tot een soort...

145
00:06:43,320 --> 00:06:45,140
Misschien kan je een mindmap voorstellen in je hoofd.

146
00:06:45,140 --> 00:06:46,440
En dat wordt op een gegeven moment heel complex.

147
00:06:47,320 --> 00:06:48,240
Daar wil je aan werken.

148
00:06:48,840 --> 00:06:53,500
Dus het zou kunnen zijn dat je zeker voor de beginnende professional...

149
00:06:53,500 --> 00:06:54,700
die iets nieuws gaat leren...

150
00:06:55,659 --> 00:06:58,120
ook gedeeltelijk dat zonder technologie doet.

151
00:06:58,500 --> 00:06:58,820
Gedeeltelijk.

152
00:06:58,960 --> 00:07:00,900
Je moet ook leren hoe je het met doet, uiteraard.

153
00:07:01,400 --> 00:07:02,800
Maar dat is je einddoel.

154
00:07:03,240 --> 00:07:04,320
Kijk, ik ga ook niet...

155
00:07:04,320 --> 00:07:06,440
Ja, ik speel dan tennis, dus ik heb allemaal tennisvoorbeelden.

156
00:07:07,080 --> 00:07:09,960
Ik moet ook niet een top-tennisser na willen doen,

157
00:07:10,010 --> 00:07:10,880
want daar ben ik nog niet.

158
00:07:11,960 --> 00:07:14,560
Je leerpad is iets anders dan je einddoel.

159
00:07:14,740 --> 00:07:18,780
Dus het einddoel is dat je als professional de hele tijd strategisch gaat switchen.

160
00:07:19,020 --> 00:07:22,560
Nu ga ik AI gebruiken op deze manier, en nu op deze manier, en nu niet.

161
00:07:23,280 --> 00:07:25,160
Maar om daar te komen, moet je stapjes doen.

162
00:07:25,760 --> 00:07:28,660
En je zou dus zelfs kunnen zeggen, voor programmeeronderwijs,

163
00:07:28,760 --> 00:07:31,200
schijnt heel effectief te zijn om eerst code te leren lezen.

164
00:07:32,280 --> 00:07:33,160
Misschien gewoon van papier.

165
00:07:33,920 --> 00:07:35,940
Gewoon toetsen op papier maken.

166
00:07:36,500 --> 00:07:39,720
En daarnaast ga je natuurlijk misschien wel parallel of later ook leren...

167
00:07:39,720 --> 00:07:41,920
hoe je dat met AI kunt doen en dat versterkt elkaar.

168
00:07:42,620 --> 00:07:44,360
Maar ik zou dus allebei doen.

169
00:07:44,940 --> 00:07:47,120
En de mens eerst.

170
00:07:47,290 --> 00:07:49,160
Dus uit allerlei onderzoeken blijkt...

171
00:07:49,440 --> 00:07:54,920
als je als mens eerst denkt en daarna de LLM of de generatief AI erbij pakt...

172
00:07:55,440 --> 00:07:56,620
dan leer je het allermeest.

173
00:07:57,140 --> 00:08:00,600
Als je eerst die AI doet en dan dat een beetje gaat bijschaven,

174
00:08:01,240 --> 00:08:02,940
dan kun je zeggen, nou daar leer ik ook wel wat van.

175
00:08:03,440 --> 00:08:05,880
Maar dan ben je dus meer die supervisor, zeg maar.

176
00:08:06,820 --> 00:08:10,000
Maar om die rol goed te kunnen vervullen, heb je al heel veel kennis nodig.

177
00:08:10,260 --> 00:08:13,020
Want als ik een junior wil beoordelen,

178
00:08:13,070 --> 00:08:16,080
ja, ik kan nu echt niet een junior softwareontwikkelaar beoordelen,

179
00:08:16,090 --> 00:08:17,260
daar heb ik gewoon te weinig kennis van.

180
00:08:17,450 --> 00:08:18,160
Ik ben zelf nog junior.

181
00:08:19,370 --> 00:08:20,440
Dat vraag je eigenlijk van mensen.

182
00:08:20,630 --> 00:08:21,460
Dus zo moet je het zien.

183
00:08:21,600 --> 00:08:25,580
Zou je die persoon al in de rol van medior of senior zetten en zo niet?

184
00:08:26,140 --> 00:08:30,480
dan moet je eigenlijk ook niet de AI zo benaderen.

185
00:08:30,570 --> 00:08:33,559
Dan moet je misschien wel zeggen, ik geef die AI een prompt mee.

186
00:08:34,840 --> 00:08:36,159
Wees die persoon voor mij.

187
00:08:36,400 --> 00:08:38,799
Mijn doel is dat ik altijd leer van onze gesprekken.

188
00:08:38,799 --> 00:08:40,240
Dat zeg je dan als system prompt.

189
00:08:41,559 --> 00:08:44,700
Als je door hebt dat ik niet aan het nadenken ben op jouw leun,

190
00:08:44,920 --> 00:08:45,860
stel me dan vragen terug.

191
00:08:46,520 --> 00:08:48,080
Laat me altijd eerst zelf nadenken.

192
00:08:48,520 --> 00:08:51,340
Als je dat aan een system prompt gooit en misschien wel bij een bedrijf

193
00:08:51,370 --> 00:08:55,539
dat als custom AI tool aanbiedt om te leren voor welk doel dan ook.

194
00:08:56,080 --> 00:08:56,840
Ja, dat is gaaf.

195
00:08:56,890 --> 00:08:58,880
En dan zeg je gewoon, wij leren als je AI gebruikt, prima.

196
00:08:59,070 --> 00:09:01,440
Maar dan leren we dat met onze bot.

197
00:09:02,360 --> 00:09:03,500
Of je maakt er meerdere.

198
00:09:03,720 --> 00:09:06,300
En je zegt gewoon, voer deze system prompt in je tool naar keuze in.

199
00:09:06,360 --> 00:09:06,840
Dat kan ook.

200
00:09:07,400 --> 00:09:08,900
Maar dat is dus ook een hele slimme manier.

201
00:09:08,930 --> 00:09:09,680
Als je zegt, nou, ik wil toch.

202
00:09:09,850 --> 00:09:11,160
Want je kunt ook leren met AI.

203
00:09:11,500 --> 00:09:12,620
Hij kan ook jouw tutor zijn.

204
00:09:12,920 --> 00:09:16,580
Maar dan is hij dus niet jouw junior die jou helpt met uitvoeren.

205
00:09:17,420 --> 00:09:19,440
Nee, het is degene die jou laat nadenken.

206
00:09:19,540 --> 00:09:20,360
Die jou laat leren.

207
00:09:20,860 --> 00:09:22,700
Dus eigenlijk AI als supervisor.

208
00:09:24,020 --> 00:09:27,060
Ja, maar ik vind dan supervise een beetje tricky.

209
00:09:27,120 --> 00:09:30,580
Want je wil natuurlijk, dat is namelijk ook weer een risico waarom mensen lui zijn.

210
00:09:30,820 --> 00:09:34,800
Omdat niet iedereen evenveel kennis heeft van hoe werkt AI achter de schermen.

211
00:09:34,800 --> 00:09:36,260
Die hebben daar heel veel vertrouwen in.

212
00:09:36,800 --> 00:09:38,860
Zeggen, er zit zoveel data en die weet alles.

213
00:09:39,760 --> 00:09:40,480
Dus het klopt.

214
00:09:41,000 --> 00:09:43,280
Terwijl er ook heel veel bias in die trainingsdata.

215
00:09:43,360 --> 00:09:45,680
Het klopt echt niet altijd voor jouw casus.

216
00:09:47,460 --> 00:09:52,400
Maar als je overmatig vertrouwen in AI leidt weer tot minder kritisch omgaan met de output.

217
00:09:53,120 --> 00:09:54,440
Copy-paste, het zal wel werken.

218
00:09:54,470 --> 00:09:56,540
Dat ding is zo slim, veel slimmer dan ik.

219
00:09:57,060 --> 00:09:57,680
En dat is een risico.

220
00:09:58,450 --> 00:10:00,960
Dus ik zou hem eigenlijk nooit als hoger dan jezelf zien.

221
00:10:01,480 --> 00:10:03,960
Maar wel als een soort strategische leerpartner.

222
00:10:04,430 --> 00:10:06,820
Die jouw kritische vragen kan stellen.

223
00:10:06,910 --> 00:10:08,440
En die je zo kunt instellen.

224
00:10:09,060 --> 00:10:10,500
Als je die RAG toevoegt.

225
00:10:10,550 --> 00:10:13,280
En als je daar bijvoorbeeld documenten in toevoegt.

226
00:10:13,420 --> 00:10:14,520
Waar je over je wil leren.

227
00:10:15,160 --> 00:10:17,280
Of een bepaalde visie van een bedrijf.

228
00:10:17,330 --> 00:10:18,960
Hoe je nieuwe medewerkers wil opleiden.

229
00:10:19,020 --> 00:10:19,480
Wat dan ook.

230
00:10:20,100 --> 00:10:22,640
Dus ik zou meer zitten in op maat gemaakte.

231
00:10:23,360 --> 00:10:24,860
chatbots, dan

232
00:10:25,040 --> 00:10:26,360
die generieke, zeker voor

233
00:10:27,220 --> 00:10:28,520
leren als doel. Want anders moet die

234
00:10:29,080 --> 00:10:30,860
student of die lerende professional dat zelf

235
00:10:30,920 --> 00:10:32,860
doen. Ja, en dat is ook wel

236
00:10:32,860 --> 00:10:33,460
weer een vak apart.

237
00:10:35,799 --> 00:10:36,600
Het taalmodel

238
00:10:37,100 --> 00:10:38,740
wordt nog wel eens vergeleken met de

239
00:10:38,860 --> 00:10:41,100
rekenmachine. Dat doe ik als het me uitkomt

240
00:10:41,100 --> 00:10:43,060
ook. Maar dan heb je

241
00:10:43,100 --> 00:10:44,600
in het onderwijs, heb je

242
00:10:45,080 --> 00:10:45,740
dat je eerst,

243
00:10:46,980 --> 00:10:48,880
ik denk dat dat past in jouw verhalen, dus je

244
00:10:49,020 --> 00:10:50,939
leert eigenlijk eerst zelf rekenen, eerst

245
00:10:50,960 --> 00:10:51,760
Dat op papier doen.

246
00:10:52,220 --> 00:10:58,040
Maar ergens in de loop ga je met rekenmachine aan de slag.

247
00:10:58,680 --> 00:11:06,620
Waar zou voor jou de taalmachine komen in het opleidingstraject van kleuter tot professional?

248
00:11:07,340 --> 00:11:08,520
Dat is wel echt een goede vraag.

249
00:11:09,120 --> 00:11:12,140
Ik denk zelfs de rol die we net hadden beschreven.

250
00:11:12,160 --> 00:11:16,180
Dat het een soort van jouw tutor is die jou helpt met leren.

251
00:11:16,940 --> 00:11:18,880
Ik denk dat dat al wel redelijk vroeg kan.

252
00:11:19,280 --> 00:11:23,880
Maar dat moet echt helemaal gecureerd en helemaal zo goed ingeregeld dat hij zich zo gedraagt.

253
00:11:23,880 --> 00:11:24,880
Ik denk dat dat al vroeg kan.

254
00:11:25,710 --> 00:11:26,880
Maar jij vraagt eigenlijk iets anders.

255
00:11:27,160 --> 00:11:32,760
Wanneer zou je het zo inzetten dat hij een deel van jouw cognitieve werk overneemt?

256
00:11:32,820 --> 00:11:35,320
In het geval van rekenmachine neemt hij de berekeningen over.

257
00:11:36,740 --> 00:11:39,580
Ik zou zeggen, als het dus ook dusdanig complex wordt.

258
00:11:40,240 --> 00:11:46,320
En je moet al eigenlijk misschien wel hebben aangetoond dat je dat stukje ook zonder al kunt.

259
00:11:47,220 --> 00:11:50,140
Dus ergens moet je zeggen, alles wat jij hebt aangetoond,

260
00:11:50,200 --> 00:11:53,000
en dat is één keer is geen keer in Toetsland.

261
00:11:53,420 --> 00:11:56,000
Ik kan wel één keer zeggen, ik heb een hele goede essay gemaakt.

262
00:11:56,740 --> 00:11:58,680
Maar dat betekent niet dat ik een goede essayschrijver ben.

263
00:11:58,820 --> 00:12:00,440
Misschien had ik toevallig geluk met deze.

264
00:12:03,160 --> 00:12:05,700
Dus ik denk dat je wel herhaaldelijk moet...

265
00:12:05,880 --> 00:12:08,860
Nou, ik moet denken, oké, dit heeft die persoon wel in de vingers, dit niveau.

266
00:12:12,380 --> 00:12:14,520
Van werkwoordspelling, nou, dat heb je wel in de vingers.

267
00:12:15,000 --> 00:12:21,260
Dus dan mag je nu ook wel jouw taal laten verbeteren door de AI.

268
00:12:22,600 --> 00:12:24,460
Maar dan moet je het wel controleren daarna.

269
00:12:24,910 --> 00:12:28,340
En dan moet je bijvoorbeeld de eerste keer analyseren wat er dan veranderd is.

270
00:12:29,080 --> 00:12:31,220
En klopt dat inderdaad? Ben ik het daarmee eens?

271
00:12:32,860 --> 00:12:36,020
Want het risico is natuurlijk dat je denkt, oh die doet dat goed sowieso.

272
00:12:36,480 --> 00:12:38,680
Met spelling denk ik, dat klopt ook meestal.

273
00:12:38,760 --> 00:12:40,100
Dat zal wel goed gaan, verwacht ik.

274
00:12:40,760 --> 00:12:42,480
Maar zeker met moeilijkere taken.

275
00:12:43,060 --> 00:12:46,120
Ik vind bij complexe taken moet je altijd, die human in the loop,

276
00:12:46,400 --> 00:12:49,460
altijd mens moet tenminste controleren.

277
00:12:50,920 --> 00:12:53,140
Maar het liefst eigenlijk de regie hebben, denk ik.

278
00:12:54,120 --> 00:12:57,960
Ik denk dat het ook eigenlijk eer je goed instructies kan geven aan de LLM.

279
00:12:59,639 --> 00:13:04,260
Zeg maar allemaal angsten over leerlingen of studenten die dat dan misbruiken.

280
00:13:05,580 --> 00:13:09,420
Om echt goed instructie te geven om bijvoorbeeld een heel profielwerkstuk in één keer te maken.

281
00:13:09,880 --> 00:13:11,780
Dan moet je zo goed snappen wat erbij komt kijken.

282
00:13:11,980 --> 00:13:15,200
En als je dat zo goed snapt, verdien je misschien wel die 8.

283
00:13:15,380 --> 00:13:16,640
Ja, precies, dan mag het ook.

284
00:13:17,300 --> 00:13:20,080
Je hebt ook kennis nodig over hoe werkt die taak.

285
00:13:20,480 --> 00:13:24,300
En eer je dat hebt opgebouwd, moet je vaak een taak al meerdere malen hebben uitgevoerd.

286
00:13:24,500 --> 00:13:26,900
Dan heb je die routine en weet je, dat werkt zo en zo.

287
00:13:27,820 --> 00:13:31,280
En dan kun je inschatten, nou, dan wil ik bijvoorbeeld bij het verzinnen van mijn onderzoeksvraag.

288
00:13:31,800 --> 00:13:34,760
Nou, dat moet echt uit de praktijk komen, dus dat wil ik echt wel zelf doen.

289
00:13:34,820 --> 00:13:36,600
Maar die kan ik wel bijstellen met AI.

290
00:13:37,380 --> 00:13:40,740
En dan voor het vinden van literatuur vind ik op zich wel weer prettig.

291
00:13:41,440 --> 00:13:45,480
Maar dat vergt al zoveel van die metacognitieve kennis.

292
00:13:46,080 --> 00:13:50,160
En de meeste jongeren zijn nog volop in ontwikkeling.

293
00:13:50,220 --> 00:13:50,920
Hun brein ook.

294
00:13:51,020 --> 00:13:54,700
Dus die kunnen nog helemaal niet zo ver voor uitdenken.

295
00:13:54,720 --> 00:13:55,420
Dat is een uitdaging.

296
00:13:55,700 --> 00:13:57,500
Voor professionals is het een ander verhaal.

297
00:13:57,660 --> 00:13:58,440
Maar is dit...

298
00:13:58,500 --> 00:13:59,420
Wel die regulatie.

299
00:13:59,720 --> 00:14:02,380
Ik ga je een beetje prikkelen.

300
00:14:02,460 --> 00:14:03,280
Misschien een beetje pesten.

301
00:14:04,140 --> 00:14:05,600
Is dit niet de oude manier van denken?

302
00:14:06,160 --> 00:14:07,220
Want als ik nou...

303
00:14:07,640 --> 00:14:08,340
Ik ben een tiener.

304
00:14:08,380 --> 00:14:15,000
En ik denk van, ja maar ik pak gewoon een aantal van dat soort proefwerken of essays.

305
00:14:16,090 --> 00:14:17,480
Die een hoge cijfer hebben gehad.

306
00:14:17,840 --> 00:14:18,520
Geef ik aan de ding.

307
00:14:19,260 --> 00:14:22,160
Maak hem even over een ander onderwerp.

308
00:14:22,290 --> 00:14:25,060
Maar zorg dat je net zo'n cijfer haalt.

309
00:14:26,960 --> 00:14:28,600
Dan had je al kennis van AI.

310
00:14:28,800 --> 00:14:30,240
Dus dat heb je niet van extra geleerd.

311
00:14:30,340 --> 00:14:31,140
Die had je blijkbaar al.

312
00:14:31,150 --> 00:14:34,100
Dus je hebt al allerlei kennis van dat je moet treden met goede voorbeelden.

313
00:14:35,540 --> 00:14:37,380
Misschien haal je wel een hartstikke goed cijfer.

314
00:14:37,980 --> 00:14:38,340
Dat is prima.

315
00:14:39,740 --> 00:14:42,420
Maar wat als je een keer een nieuwe taak moet doen,

316
00:14:42,480 --> 00:14:43,700
waar geen voorbeelden van zijn?

317
00:14:44,860 --> 00:14:46,640
Dan snijden we het eigenlijk over het leren leren.

318
00:14:47,620 --> 00:14:48,640
En hoe doe je dat?

319
00:14:49,320 --> 00:14:51,580
Ja, en hoe ben je in staat,

320
00:14:51,720 --> 00:14:53,440
want als je expertise wil ontwikkelen,

321
00:14:53,660 --> 00:14:56,360
betekent het ook om te kunnen gaan met nieuwe situaties

322
00:14:56,400 --> 00:14:57,340
die je nog niet kent.

323
00:14:58,319 --> 00:15:00,640
Vergelijkingen zien met, oh, dat is net zoiets als dat.

324
00:15:01,920 --> 00:15:03,760
En om dat, nou, uiteindelijk zo goed te kunnen...

325
00:15:03,900 --> 00:15:06,240
Deze persoon, die heeft de taak uitgevoerd.

326
00:15:07,420 --> 00:15:08,500
Succes, prima gedaan.

327
00:15:10,100 --> 00:15:15,060
Maar kan hij tot welk niveau van complexiteit komen als hij het alleen de AI laat doen?

328
00:15:15,640 --> 00:15:21,980
Ik denk dat mensen met AI complexere taken met meer kwaliteit doen, samen.

329
00:15:22,580 --> 00:15:25,460
En als iedereen AI ongeveer gaat gebruiken als professional,

330
00:15:25,540 --> 00:15:29,560
dan wil je dus die mens en AI die elkaar versterken.

331
00:15:30,040 --> 00:15:34,480
Als die mens dus wegvalt, als hij alleen maar eigenlijk een hele lui manager is,

332
00:15:34,480 --> 00:15:36,020
die zegt doe dit voor mij, doe dat, doe dat.

333
00:15:36,640 --> 00:15:37,020
Oké, prima.

334
00:15:38,540 --> 00:15:39,900
Ja, dan word je toch weggeconcureerd.

335
00:15:39,910 --> 00:15:41,280
Dan zeg je eigenlijk wat ik doe.

336
00:15:42,320 --> 00:15:43,500
Als jij later gaat werken ergens.

337
00:15:43,590 --> 00:15:44,320
En dat is jouw werk.

338
00:15:45,000 --> 00:15:47,060
Dan heb je dus echt een hele saaie baan blijkbaar.

339
00:15:47,180 --> 00:15:48,920
Want jij wil alles uitbesteden.

340
00:15:49,380 --> 00:15:50,620
Alles is automatiseerbaar.

341
00:15:51,180 --> 00:15:52,580
Ja, dan is jouw baan er al niet meer.

342
00:15:53,200 --> 00:15:55,460
Dus als wij opleiden voor de toekomst.

343
00:15:56,880 --> 00:15:58,340
Dan is dit niet the way to go.

344
00:15:59,240 --> 00:16:01,300
En ik denk dat je dat gesprek ook kunt hebben.

345
00:16:01,440 --> 00:16:03,020
Je mag het wel doen, doe het maar.

346
00:16:03,650 --> 00:16:04,760
Maar op de lange termijn.

347
00:16:05,900 --> 00:16:07,400
Dat maak je jezelf overbodig.

348
00:16:07,500 --> 00:16:08,920
Het dehumaniseert je eigenlijk.

349
00:16:09,160 --> 00:16:10,760
Je zegt eigenlijk, ik doe er niet toe.

350
00:16:11,500 --> 00:16:12,680
Mijn verhaal doet er niet toe.

351
00:16:13,600 --> 00:16:15,940
Ik vind het niet eens de moeite om in deze taak te investeren.

352
00:16:16,120 --> 00:16:18,720
Natuurlijk, in het onderwijs heb je af en toe wel dingen die je zaai vindt.

353
00:16:19,040 --> 00:16:19,360
Natuurlijk.

354
00:16:19,780 --> 00:16:22,000
Ik zou ook niet zeggen dat ik geen taak heb die ik gewoon zaai vind.

355
00:16:22,100 --> 00:16:24,640
En die ik gewoon heel erg lui voornamelijk uitbesteed.

356
00:16:24,800 --> 00:16:25,560
Die zijn er zeker bij.

357
00:16:26,980 --> 00:16:28,900
Misschien kom ik er wel een keer van in de problemen.

358
00:16:28,980 --> 00:16:34,340
Maar als te veel van mijn werk is, dan is het wel problematisch.

359
00:16:34,340 --> 00:16:35,260
Ik denk dat je iets raakt.

360
00:16:35,380 --> 00:16:40,060
Omdat je zegt, voor ergens waar je minder interesse in hebt, minder passie.

361
00:16:40,480 --> 00:16:41,580
Weet je, allemaal dat soort zaken.

362
00:16:42,120 --> 00:16:44,380
Dan ben je eerder geneigd om dat uit te besteden.

363
00:16:44,430 --> 00:16:45,420
Waar je passie voor hebt.

364
00:16:46,080 --> 00:16:48,000
Waar je meer waarde wil leveren.

365
00:16:48,800 --> 00:16:51,100
Daar hou je dan misschien meer energie voor over.

366
00:16:53,100 --> 00:16:55,880
Meer cognitieve ruimte om daar invulling aan te geven.

367
00:16:56,380 --> 00:16:57,640
Het zou natuurlijk sneu zijn.

368
00:16:58,600 --> 00:17:01,620
Het is wel een bepaalde paradox die ze zeggen over motivatie.

369
00:17:02,240 --> 00:17:04,380
En hoe goed je ergens in bent.

370
00:17:04,700 --> 00:17:06,440
Want wij denken van, nou je hebt passie.

371
00:17:06,980 --> 00:17:08,900
En dan ga je iets doen, dan vind je leuk en dan word je er dan beter in.

372
00:17:09,520 --> 00:17:10,400
Maar het is ook andersom.

373
00:17:10,859 --> 00:17:14,000
Dus vaak als mensen een lage vertrouwen hebben in hun eigen kunnen in iets.

374
00:17:14,579 --> 00:17:16,859
Voor veel mensen is dat bijvoorbeeld programmeren of met de computer.

375
00:17:16,940 --> 00:17:17,359
Dat is eng.

376
00:17:18,380 --> 00:17:20,480
Dus dan ga ik dat uitbesteden, want daar ben ik niet goed.

377
00:17:20,579 --> 00:17:21,160
Er is geen passie voor.

378
00:17:21,599 --> 00:17:24,359
Terwijl als je de basis hebt geleerd en zelf dat vertrouwen hebt.

379
00:17:24,459 --> 00:17:25,240
Hé, ik kan dit.

380
00:17:26,339 --> 00:17:28,220
Dan kun je ook wel weer passie ontwikkelen.

381
00:17:28,640 --> 00:17:31,260
Dus dat vind ik het risico met de AI.

382
00:17:31,720 --> 00:17:34,220
Die best wel heel erg jou helpt en met je meedenkt.

383
00:17:34,439 --> 00:17:35,720
Dat is ook wel van die echo chambers.

384
00:17:36,100 --> 00:17:37,939
Dus het versterkt eigenlijk wat jij toch al dacht.

385
00:17:38,079 --> 00:17:39,140
Een beetje een tunnelvisie.

386
00:17:39,699 --> 00:17:41,079
Alles is op maat tegenwoordig.

387
00:17:41,160 --> 00:17:42,480
En gepersonaliseerd leren.

388
00:17:43,339 --> 00:17:44,640
Ik weet niet of dat zo perfect is.

389
00:17:45,120 --> 00:17:47,800
Soms word je ook geprikkeld door misschien wel een leraar.

390
00:17:47,800 --> 00:17:48,420
Of een collega.

391
00:17:48,520 --> 00:17:49,200
Of ergens een workshop.

392
00:17:49,780 --> 00:17:51,380
Die iets heel anders doet dan jij.

393
00:17:52,740 --> 00:17:53,960
Wat moet ik hiermee?

394
00:17:55,120 --> 00:17:57,020
Maar misschien blijft het daardoor juist hangen.

395
00:17:57,460 --> 00:17:58,800
Je kan bij al het nieuwe denken.

396
00:17:59,000 --> 00:18:00,320
Dat is mijn passie niet.

397
00:18:00,780 --> 00:18:01,900
Ik ben gewoon hiervan.

398
00:18:02,040 --> 00:18:04,280
En ik ga 40 jaar lang hiermee verder.

399
00:18:05,260 --> 00:18:06,800
Maar dan ben je geen wendbare professional.

400
00:18:07,090 --> 00:18:08,120
Dan ga je het ook niet redden.

401
00:18:08,270 --> 00:18:10,080
Dan heb je over tien jaar al geen werk meer.

402
00:18:12,260 --> 00:18:19,220
Dus ik denk dat het sneu is als blijkt dat jij nergens passie voor hebt in je leven op dit moment.

403
00:18:19,410 --> 00:18:22,000
Ik denk dat een aantal mensen dit ook ervaren op dit moment.

404
00:18:22,980 --> 00:18:25,140
Want door AI heb je eigenlijk door van...

405
00:18:25,940 --> 00:18:29,180
Als ik alles zit uit te besteden, dan vind ik het blijkbaar leuk om over AI te leren.

406
00:18:29,650 --> 00:18:30,320
Dat misschien wel.

407
00:18:31,540 --> 00:18:34,960
Dus ik denk dat dat ook wel een beetje een existentiële crisis kan zijn.

408
00:18:35,600 --> 00:18:37,620
En natuurlijk is binnen onderwijsland, nu hebben we de vraag,

409
00:18:38,240 --> 00:18:39,700
welke leerdoelen doen er nog toe?

410
00:18:40,420 --> 00:18:45,380
Waartoe leiden we de professionals en ook de burgers van de toekomst nu op?

411
00:18:46,620 --> 00:18:48,760
En wat is jouw beeld daarbij? Wat doet er toe?

412
00:18:49,460 --> 00:18:53,940
Ik vind zelf visie van wat doet er toe?

413
00:18:55,410 --> 00:18:59,439
Dat je met elkaar het gevoel hebt, oké, je ziet wat belangrijk is

414
00:18:59,640 --> 00:19:01,040
om bijvoorbeeld Nederland

415
00:19:01,530 --> 00:19:02,500
een leefbaarheid te maken,

416
00:19:02,720 --> 00:19:04,940
bepaalde waardes die wij met elkaar belangrijk vinden.

417
00:19:05,660 --> 00:19:06,700
Het is belangrijk dat je

418
00:19:07,370 --> 00:19:08,880
als groep met elkaar

419
00:19:09,140 --> 00:19:09,880
kunt blijven praten.

420
00:19:10,610 --> 00:19:12,880
Dat je niet allemaal in je eigen

421
00:19:13,240 --> 00:19:15,240
silootjes zit en vervolgens

422
00:19:15,250 --> 00:19:16,800
als er een echt probleem op tafel ligt,

423
00:19:16,960 --> 00:19:18,960
wat we nu ook met onze huidige overheid zien,

424
00:19:19,480 --> 00:19:21,240
dat gewoon niet lukt om dat op te lossen.

425
00:19:21,250 --> 00:19:21,940
Dat is sneu.

426
00:19:22,510 --> 00:19:23,980
We leven in zo'n mooie tijd

427
00:19:24,600 --> 00:19:25,800
vol van mogelijkheden.

428
00:19:26,560 --> 00:19:28,620
Natuurlijk, problemen zijn ook allemaal complexe en zo,

429
00:19:28,740 --> 00:19:33,500
Maar dan is het toch gaaf als je mensen opleidt die complexe problemen als groep.

430
00:19:33,820 --> 00:19:36,940
Samen met de technologie en de mensen weten op te lossen.

431
00:19:37,660 --> 00:19:38,700
En wat zijn dan...

432
00:19:38,740 --> 00:19:39,880
Dat is een beetje een hoger doel.

433
00:19:40,180 --> 00:19:42,040
Ja, een mooi doel denk ik.

434
00:19:42,340 --> 00:19:43,980
En zaken die dan bij mij naar boven komen.

435
00:19:44,020 --> 00:19:45,079
Is het kritisch kunnen nadenken.

436
00:19:45,920 --> 00:19:47,160
Het kunnen discussiëren.

437
00:19:47,200 --> 00:19:48,880
Een ander perspectief in kunnen nemen.

438
00:19:49,360 --> 00:19:51,100
Nog meer van dat soort...

439
00:19:51,300 --> 00:19:53,560
Nou, ik denk die je noemt, die ander perspectief.

440
00:19:53,880 --> 00:19:55,680
Dat dat heel essentieel is.

441
00:19:55,860 --> 00:19:57,860
En dat dat iets is wat je moet trainen.

442
00:19:58,600 --> 00:20:00,880
Al binnen onderwijs, maar daarna ook.

443
00:20:01,620 --> 00:20:03,900
Dus enerzijds, ik praat nu bijvoorbeeld met jullie.

444
00:20:04,100 --> 00:20:06,080
En we stellen elkaar ook kritisch vragen.

445
00:20:06,500 --> 00:20:07,380
Dat is leren.

446
00:20:07,700 --> 00:20:08,940
Iets anders horen dan je kennen.

447
00:20:09,040 --> 00:20:11,420
Dan denk ik mijn brein, dat is niet hoe ik erover denk.

448
00:20:11,580 --> 00:20:12,520
Nu ga ik even opletten.

449
00:20:13,480 --> 00:20:16,060
Dus ik denk dat andere perspectieven heel belangrijk is.

450
00:20:16,180 --> 00:20:21,620
Want als je zomaar niet kritisch ook de algoritmes van de big tech volgt.

451
00:20:22,820 --> 00:20:25,080
Die versterken vaak waar jij lang naar kijkt.

452
00:20:25,300 --> 00:20:26,660
Dat is wat je al leuk vindt.

453
00:20:27,160 --> 00:20:29,500
En met AI wordt dat alleen nog maar meer op maat.

454
00:20:30,820 --> 00:20:33,640
Dus daar moeten we wel iets heel groots tegenover zetten.

455
00:20:34,720 --> 00:20:38,380
Of strategie om expres te zien waar je het niet mee eens bent.

456
00:20:38,620 --> 00:20:40,300
Dat kun je natuurlijk expliciet om vragen.

457
00:20:41,120 --> 00:20:46,280
Door expliciet op plekken te komen met mensen die je misschien helemaal niet leuk vindt.

458
00:20:46,620 --> 00:20:48,060
Die heel anders denken.

459
00:20:48,720 --> 00:20:52,680
Of expres zijn ook wel mensen die volgen expres influencers.

460
00:20:53,040 --> 00:20:55,180
mensen waar ze het niet mee eens

461
00:20:55,280 --> 00:20:57,060
zijn bijvoorbeeld. Maar goed, dan ben je al

462
00:20:57,060 --> 00:20:59,080
een heel stuk verder. Ik denk dus voor het onderwijs dat je

463
00:20:59,220 --> 00:21:01,000
altijd ziet, er is niet één waarheid.

464
00:21:01,040 --> 00:21:02,760
Er zijn altijd meerdere perspectieven.

465
00:21:03,300 --> 00:21:05,140
En als dat voor je basishouding

466
00:21:05,280 --> 00:21:07,160
is, ik kan altijd iets leren.

467
00:21:08,080 --> 00:21:09,040
Ik snap nooit iets

468
00:21:09,240 --> 00:21:10,600
helemaal. Dat is onmogelijk.

469
00:21:11,380 --> 00:21:13,200
Ik denk dat dat, en dat is heel moeilijk.

470
00:21:13,280 --> 00:21:14,440
Dat klinkt misschien

471
00:21:15,000 --> 00:21:16,700
als jullie ook al zo denken van, nou ja,

472
00:21:17,160 --> 00:21:19,040
dat weet toch iedereen. Maar om dat

473
00:21:19,260 --> 00:21:21,000
echt zo te doorleven,

474
00:21:21,000 --> 00:21:23,000
dat je denkt, ja inderdaad, er is niet

475
00:21:23,680 --> 00:21:24,660
goed of fout.

476
00:21:24,790 --> 00:21:27,420
We gaan gewoon naar elkaar luisteren, van elkaar leren.

477
00:21:27,990 --> 00:21:29,460
En dat gaat dus ook over

478
00:21:29,720 --> 00:21:31,700
kritisch kijken naar de technologie die we gebruiken.

479
00:21:32,310 --> 00:21:33,280
Dus als je weet, oh,

480
00:21:33,720 --> 00:21:34,700
er is meer dan Google.

481
00:21:36,100 --> 00:21:37,800
Oh, ik denk dat AI chat...

482
00:21:37,840 --> 00:21:39,580
Oh, dat kun je ook lokaal draaien.

483
00:21:40,000 --> 00:21:41,680
Oh, dat kan misschien zelfs op mijn computer.

484
00:21:41,730 --> 00:21:43,500
Oh, dat kan misschien zelfs met mijn eigen

485
00:21:44,280 --> 00:21:45,520
notities ga ik chatten

486
00:21:45,600 --> 00:21:47,740
in plaats van met een of andere megadatabase

487
00:21:47,860 --> 00:21:49,560
met vooral gegevens uit

488
00:21:49,740 --> 00:21:51,600
Engelstalige bronnen uit de steden.

489
00:21:52,460 --> 00:21:55,600
Nou, maar het is een beetje kip-ei-verhaal.

490
00:21:55,600 --> 00:21:57,880
Je hebt dus kennis nodig om kritisch te kunnen zijn.

491
00:21:58,400 --> 00:22:01,280
Want zonder die kennis over en de technologie en de inhoud.

492
00:22:02,280 --> 00:22:04,840
Want als ik kennis over de technologie heb, dan weet ik al...

493
00:22:04,840 --> 00:22:07,900
Nou, misschien moet ik in ieder geval in meerdere LLMs zoeken.

494
00:22:08,480 --> 00:22:12,280
Misschien is het ook interessant als ik inderdaad met een wat dommere model...

495
00:22:12,280 --> 00:22:15,140
maar meer van mijn eigen kennis toevoeg, dat je dat al weet.

496
00:22:15,840 --> 00:22:18,860
En maar kennis van het domein om het resultaat te kunnen inschatten.

497
00:22:18,860 --> 00:22:21,320
Van ja joh, nu gaat hij echt helemaal de verkeerde kant op.

498
00:22:22,020 --> 00:22:23,440
Ik open een nieuwe chat.

499
00:22:23,880 --> 00:22:26,580
En dat van die andere perspectieven zoeken.

500
00:22:27,760 --> 00:22:34,880
Jij zit aan de wat meer enthousiaste kant om AI in het onderwijs te integreren.

501
00:22:35,520 --> 00:22:40,240
Wat heb je dan gehoord, geleerd van degenen die er helemaal niet zo'n zin in hebben?

502
00:22:42,300 --> 00:22:43,940
Nou, dat het niet moet.

503
00:22:44,760 --> 00:22:48,560
Laatst was er een studentenpanel van allerlei studenten van de Hoogschool Utrecht.

504
00:22:48,740 --> 00:22:51,560
Om hun meningen over te horen van hoe ze AI gebruiken.

505
00:22:52,520 --> 00:22:54,360
En wat vinden ze van plagiaat.

506
00:22:54,540 --> 00:22:55,080
En allerlei dingen.

507
00:22:55,200 --> 00:22:56,340
En er was een meid.

508
00:22:56,350 --> 00:22:57,760
En die heeft mij enorm geïnspireerd.

509
00:22:58,380 --> 00:22:59,980
Die wou het gewoon niet gebruiken.

510
00:23:00,490 --> 00:23:00,840
Toen dacht ik.

511
00:23:01,020 --> 00:23:01,080
Ja.

512
00:23:01,680 --> 00:23:04,100
We gaan er een soort van van uit.

513
00:23:04,300 --> 00:23:06,480
Oh die hele nieuwe generatie doet dat allemaal.

514
00:23:06,760 --> 00:23:08,380
En waarom wilde ze het niet gebruiken?

515
00:23:09,100 --> 00:23:10,840
Nou zij deed veel dingen met schrijven.

516
00:23:10,890 --> 00:23:11,300
En ze zei.

517
00:23:11,400 --> 00:23:12,700
Het is juist zo belangrijk.

518
00:23:12,930 --> 00:23:15,080
Dat ik mijn stem laat horen.

519
00:23:15,200 --> 00:23:17,320
En dat is iets wat ik niet wil uitbesteden.

520
00:23:18,060 --> 00:23:20,020
Ik heb het niet nodig. Ik wil het niet.

521
00:23:20,640 --> 00:23:21,640
Laat me met rust gewoon.

522
00:23:22,200 --> 00:23:23,040
En ik vond dat heel mooi.

523
00:23:23,320 --> 00:23:27,080
Je moet ook het recht hebben op het niet te gebruiken.

524
00:23:27,780 --> 00:23:28,860
En die vind ik wel heel tricky.

525
00:23:29,140 --> 00:23:34,000
Want op het feestje laatst zei iemand die is al professional.

526
00:23:34,040 --> 00:23:37,000
Die zei van ja, als je het niet gebruikt.

527
00:23:37,580 --> 00:23:39,120
Iedereen die wil aannemen moet het gebruiken.

528
00:23:39,240 --> 00:23:40,260
Want anders doe je er niet meer toe.

529
00:23:42,060 --> 00:23:43,960
Toen dacht ik van of is het andersom.

530
00:23:45,760 --> 00:23:47,540
De mensen die ervoor durven kiezen.

531
00:23:48,720 --> 00:23:49,660
om het niet te gebruiken.

532
00:23:50,080 --> 00:23:51,500
Er was ook iemand zijn 14-jarige dochter.

533
00:23:51,500 --> 00:23:53,760
Die wou het ook echt expliciet juist niet doen.

534
00:23:53,850 --> 00:23:55,620
Ze zei, ik wil het nu juist leren zonder.

535
00:23:55,650 --> 00:23:56,520
Dat vond ik heel krachtig.

536
00:23:56,890 --> 00:23:58,140
Maar de hele klas deed het.

537
00:23:58,740 --> 00:24:00,920
Dat is wel gaaf als je dat durft.

538
00:24:01,020 --> 00:24:04,320
Ik weet niet op de lange termijn wat het doet.

539
00:24:04,410 --> 00:24:07,340
Maar je kunt ook prima op je twintigste dat nog erbij leren.

540
00:24:08,400 --> 00:24:12,920
Maar die basis, die kennisbasis, die kun je niet zomaar even bijleren.

541
00:24:13,320 --> 00:24:16,520
Terwijl die instrumentele kennis, over vijf jaar ziet het er weer helemaal nieuw uit.

542
00:24:17,000 --> 00:24:23,500
Alles wat ik nu erover leer en over twee jaar, waarschijnlijk hebben we ook veel meer lokale AI's, omdat het allemaal veel kleiner wordt.

543
00:24:23,740 --> 00:24:27,380
Misschien op een gegeven moment kan het gewoon op je eigen laptop veel makkelijker draaien en zo.

544
00:24:29,200 --> 00:24:31,860
Dus ik denk dat dat helemaal niet zo'n slechte strategie is.

545
00:24:32,430 --> 00:24:36,340
En ik denk dat we ook mensen moeten respecteren die zeggen, ik ga het helemaal zonder doen.

546
00:24:39,300 --> 00:24:45,680
Maar ik ben wel benieuwd, misschien kan het niet in elk beroep op die manier, maar het moet niet voelen.

547
00:24:45,820 --> 00:24:48,420
Ik doe het maar omdat ik anders achterblijf.

548
00:24:48,490 --> 00:24:49,640
Dat is geen goede reden.

549
00:24:51,440 --> 00:24:53,400
Maar ik ben me niet ook binnen ICT-land.

550
00:24:53,560 --> 00:24:54,500
Als je het niet doet.

551
00:24:55,290 --> 00:24:55,380
Ja.

552
00:24:57,420 --> 00:24:59,040
Dan kan je veel meer in de productie draaien.

553
00:24:59,140 --> 00:25:00,080
Dus dan word je gewoon heel duur.

554
00:25:00,980 --> 00:25:01,280
Nou ja.

555
00:25:02,980 --> 00:25:03,540
Ja weet je.

556
00:25:04,940 --> 00:25:05,920
Je moet zo direct.

557
00:25:06,420 --> 00:25:07,940
Want hier gaat het inderdaad over.

558
00:25:08,190 --> 00:25:10,000
Ook productiviteit.

559
00:25:10,240 --> 00:25:11,020
Dus het kan niet zo zijn.

560
00:25:11,160 --> 00:25:13,760
Omdat jij ergens een principieel bezwaar hebt.

561
00:25:13,920 --> 00:25:15,440
Of dat jij iets heel graag.

562
00:25:15,740 --> 00:25:17,760
wil blijven doen, dat dat

563
00:25:17,860 --> 00:25:19,880
zo direct tien keer langzamer gaat

564
00:25:21,220 --> 00:25:21,780
dan de

565
00:25:21,960 --> 00:25:23,760
collega naast je. Want dan wordt gewoon gezegd

566
00:25:23,820 --> 00:25:25,160
van ja, dan...

567
00:25:25,679 --> 00:25:26,080
Ja.

568
00:25:27,340 --> 00:25:28,820
En ik denk dat het wel kan

569
00:25:29,760 --> 00:25:31,720
het niet gebruiken, als het de bewuste

570
00:25:31,980 --> 00:25:33,420
keuze is om iets te leren,

571
00:25:33,720 --> 00:25:35,060
om de nadeel te kunnen versnellen.

572
00:25:35,680 --> 00:25:37,340
Dat is wat anders. Maar gewoon

573
00:25:37,560 --> 00:25:38,800
in je werk.

574
00:25:39,640 --> 00:25:41,520
Misschien moet je dan eigenlijk onderscheid maken

575
00:25:41,620 --> 00:25:42,280
dus inderdaad

576
00:25:43,720 --> 00:25:44,920
een leertaak, zeg maar.

577
00:25:45,240 --> 00:25:46,820
Oké, ik doe nu iets, hier wil ik van leren.

578
00:25:47,540 --> 00:25:49,640
En een soort van een werktaak, een beroepstaak.

579
00:25:49,910 --> 00:25:51,100
Die wil je gewoon uitvoeren.

580
00:25:51,880 --> 00:25:54,600
En natuurlijk leer je heel vaak door iets nieuws uit te voeren.

581
00:25:54,920 --> 00:25:59,620
Als iets een beetje routine is, dan kun je het net zo goed grotendeels uitbesteden.

582
00:25:59,760 --> 00:26:01,140
Want jij kende dat toch al.

583
00:26:01,660 --> 00:26:05,220
Maar wat als jij vijf jaar lang iets wat routine voor jou was,

584
00:26:06,400 --> 00:26:09,100
het makkelijke junior programmeerwerk uitbesteedt.

585
00:26:10,120 --> 00:26:12,220
Misschien is het dan geen routine meer voor je over drie jaar.

586
00:26:14,020 --> 00:26:14,960
Daar ben ik wel eens benieuwd.

587
00:26:15,100 --> 00:26:16,760
En dan is dat erg, dat is dan ook een punt.

588
00:26:16,960 --> 00:26:18,760
Maar kun je dan nog goed genoeg...

589
00:26:19,400 --> 00:26:22,280
Er moeten wel genoeg leermomenten ook on the job blijven.

590
00:26:22,280 --> 00:26:24,280
Want als je alleen maar aan het uitvoeren bent...

591
00:26:24,900 --> 00:26:26,440
Ja, misschien...

592
00:26:28,539 --> 00:26:33,320
Waar ik nou wel eens over denk...

593
00:26:34,860 --> 00:26:41,700
Want juist de dingen die je misschien cognitief iets minder belastend zijn...

594
00:26:41,900 --> 00:26:44,120
die kan je dus eigenlijk heel makkelijk uitbesteden.

595
00:26:45,260 --> 00:26:52,360
Dat zou in theorie betekenen dat eigenlijk de zaken overblijven waar je dus hoogcognitief mee bezig bent.

596
00:26:52,480 --> 00:26:52,840
Klopt.

597
00:26:53,500 --> 00:26:59,300
En als je nou na de hele dag alleen maar hoogcognitief werk krijgt, word je dus misschien helemaal geen...

598
00:26:59,300 --> 00:27:00,420
Dus misschien hebben wij ook wel...

599
00:27:00,440 --> 00:27:02,420
Misschien gaan we wel naar die drie uurige werkweek.

600
00:27:02,770 --> 00:27:03,660
Oh, werkdag, sorry.

601
00:27:04,220 --> 00:27:06,840
Ja, ik ben bang dat het zich alleen maar stapelt.

602
00:27:08,880 --> 00:27:12,520
We hebben af en toe ook cognitief laag werk nodig.

603
00:27:12,830 --> 00:27:15,440
Om gewoon even misschien tot rust te komen.

604
00:27:15,600 --> 00:27:17,560
Terwijl je toch eigenlijk met iets bezig bent.

605
00:27:18,540 --> 00:27:19,160
Ik vraag me af.

606
00:27:19,980 --> 00:27:25,660
Gaan we een moment krijgen dat de AI voor mij bijvoorbeeld een deel aan het programmeren is.

607
00:27:25,860 --> 00:27:27,280
Dus dat ik heel goed heb aangegeven.

608
00:27:27,340 --> 00:27:28,420
Dit moet je doen.

609
00:27:29,180 --> 00:27:29,880
Die is bezig.

610
00:27:30,220 --> 00:27:32,620
Ga ik dan daadwerkelijk even koffie drinken.

611
00:27:34,020 --> 00:27:35,540
Om die cognitieve lood.

612
00:27:35,540 --> 00:27:36,760
Of ga je multitasken weer.

613
00:27:37,020 --> 00:27:37,760
Of ga je multitasken.

614
00:27:37,760 --> 00:27:38,720
Mail checken ofzo.

615
00:27:38,840 --> 00:27:40,980
Ja, en toch weer...

616
00:27:41,600 --> 00:27:42,820
Ik denk dat het wel...

617
00:27:43,360 --> 00:27:45,100
Het is sowieso al een beetje een trend.

618
00:27:45,580 --> 00:27:46,540
Dus los van die AI.

619
00:27:47,180 --> 00:27:48,419
Bijvoorbeeld mijn schoonvader...

620
00:27:48,900 --> 00:27:50,140
die werkte heel lang op het ROC.

621
00:27:50,620 --> 00:27:52,340
En eerst gingen ze als er een feestje was...

622
00:27:52,340 --> 00:27:53,400
zelf de slingers ophangen.

623
00:27:54,680 --> 00:27:55,680
En nu is het zo van...

624
00:27:55,680 --> 00:27:57,580
Nee, jij bent docent, dus jij doet lessen.

625
00:27:58,300 --> 00:28:00,160
In één keer was ze een hele werkweek...

626
00:28:00,160 --> 00:28:01,820
lessen draaien, dat is heel belastend.

627
00:28:01,980 --> 00:28:02,600
Dus zij was kapot.

628
00:28:03,800 --> 00:28:04,940
En dan hebben we een apart iemand.

629
00:28:05,560 --> 00:28:06,800
En die doet dat met slingers.

630
00:28:07,320 --> 00:28:09,120
En dat klinkt dan allemaal op papier heel efficiënt.

631
00:28:09,470 --> 00:28:12,940
Maar je kunt niet acht uur op een dag hoog intensief cognitief werk.

632
00:28:13,080 --> 00:28:14,480
Dat trek je eigenlijk niet.

633
00:28:15,260 --> 00:28:18,060
En wat het risico is, en dat gebeurt volgens mij nu al.

634
00:28:18,500 --> 00:28:23,680
Is dat je een klein groepje krijgt die dat hele complexe cognitieve werk aankan.

635
00:28:23,960 --> 00:28:25,620
Want je zegt het hoog complexe blijft over.

636
00:28:26,180 --> 00:28:28,580
Daar moet die human echt wel goed controleren.

637
00:28:28,580 --> 00:28:30,080
Want anders zijn er misschien fouten.

638
00:28:30,350 --> 00:28:31,340
Die zijn niet meer zo evident.

639
00:28:32,860 --> 00:28:36,020
Maar dat betekent dat het wat minder inspannende cognitieve werk.

640
00:28:36,160 --> 00:28:39,360
En mensen die dat voornamelijk deden, die zijn hun baan kwijt.

641
00:28:40,220 --> 00:28:48,200
Dus eigenlijk zie je waarschijnlijk straks dat een kleinere groep mensen zwaar cognitief werk de hele dag eigenlijk moet doen.

642
00:28:48,280 --> 00:28:49,420
En dan had je weer burn-out.

643
00:28:50,240 --> 00:28:52,500
En een andere groep misschien werkloos is.

644
00:28:53,320 --> 00:28:55,060
Die werkloosheid ben ik niet zo bang voor.

645
00:28:55,240 --> 00:29:01,620
Want we hebben namelijk ook zwaar lichamelijk werk is bijvoorbeeld geautomatiseerd met de industriële revolutie.

646
00:29:02,080 --> 00:29:04,760
En dan popt er in eentje zomaar een andere sector op.

647
00:29:04,940 --> 00:29:06,060
En dat heet dan recreatie.

648
00:29:08,080 --> 00:29:10,620
Dus daar ben ik dan eerlijk gezegd niet zo bang voor.

649
00:29:11,420 --> 00:29:14,340
Nee, maar ik denk dus niet, als wij het nu al zo hebben,

650
00:29:14,380 --> 00:29:17,200
we hebben een soort optimalisatieslag al gehad.

651
00:29:17,280 --> 00:29:20,160
We willen productiviteit draaien met bedrijven, daar gaat het om.

652
00:29:20,760 --> 00:29:23,540
Nou, wat is het meest productief als jij doet waar je het beste in bent

653
00:29:23,620 --> 00:29:24,760
en dat je dat de hele dag doet?

654
00:29:25,180 --> 00:29:26,860
Maar jij zegt eigenlijk dat is onhoudbaar.

655
00:29:27,160 --> 00:29:28,280
En dat geloof ik ook.

656
00:29:29,139 --> 00:29:33,080
Maar moeten we daar dan niet gewoon ontspanning tegenover zetten?

657
00:29:33,460 --> 00:29:35,499
Want het blijkt ook weer uit onderzoeken dat

658
00:29:35,840 --> 00:29:38,920
dat als je een rustmoment hebt na cognitieve inspanning,

659
00:29:39,290 --> 00:29:40,920
dan beklijft het op de lange termijn.

660
00:29:41,460 --> 00:29:43,500
Misschien vergelijken met als je op een festival bent,

661
00:29:43,510 --> 00:29:45,000
of zo met allerlei leuke concerten.

662
00:29:45,060 --> 00:29:46,060
Dan ga je van het een naar het ander.

663
00:29:46,510 --> 00:29:48,980
En op het einde denk je, nou wat heb ik nou allemaal gehoord?

664
00:29:49,080 --> 00:29:51,300
En misschien als je één goed concert had gezien,

665
00:29:51,660 --> 00:29:52,840
en daarover hebt nagepraat,

666
00:29:53,260 --> 00:29:55,220
dan heb je misschien wel een veel rijkere ervaring,

667
00:29:55,400 --> 00:29:56,720
en een betere herinnering eraan.

668
00:29:57,300 --> 00:30:00,380
Of vakantie, dus van de ene naar de andere plek.

669
00:30:00,380 --> 00:30:01,280
Ja, drie steden per dag.

670
00:30:01,540 --> 00:30:03,240
Dan weet je niet meer wat je gedaan hebt.

671
00:30:03,940 --> 00:30:05,780
Ja, ik vergelijk dat al met sport inderdaad.

672
00:30:05,820 --> 00:30:08,180
Je moet ook rust hebben om eigenlijk weer beter en sterker te worden.

673
00:30:08,620 --> 00:30:10,300
Eigenlijk heeft je brein dus eigenlijk hetzelfde.

674
00:30:10,380 --> 00:30:11,860
Je moet zorgen dat je je rust inbouwt.

675
00:30:11,980 --> 00:30:13,780
En dan ga je toch nog na verwerken.

676
00:30:14,500 --> 00:30:15,520
En weer opnieuw opbouwen.

677
00:30:16,160 --> 00:30:18,000
Dus die rust denk ik zeker dat je nodig gaat hebben.

678
00:30:18,100 --> 00:30:20,620
En dat zal in het begin nog wel uitdagingen met zich mee gaan brengen inderdaad.

679
00:30:21,160 --> 00:30:23,100
Dat we allemaal met die complexe vraagstukken bezig zijn.

680
00:30:23,220 --> 00:30:25,980
Terwijl de AI alweer met het andere stukje codering bezig is.

681
00:30:26,020 --> 00:30:27,860
Alweer de volgende vraagstukken gaan behandelen.

682
00:30:29,420 --> 00:30:31,640
En er was net nog even een vraag die bij mij opkwam.

683
00:30:32,940 --> 00:30:38,140
In ons werk is het vaak dat je doet je ervaring op, je bent aan het leren en daarna ga je de junioren verder opleiden.

684
00:30:39,000 --> 00:30:41,880
Dus dan neem je eigenlijk de kennis die je opgedaan hebt, die geef je weer door.

685
00:30:43,200 --> 00:30:45,600
Hoe zie je die ontwikkeling met behulp van AI?

686
00:30:45,800 --> 00:30:52,200
Want dadelijk hebben we de AI, die gaat misschien dat stukje van het terugbrengen van de kennis die je hebt gedaan over de afgelopen jaren misschien even tijdelijk wegnemen.

687
00:30:52,280 --> 00:30:54,220
Want ja, die AI is 24-7 beschikbaar.

688
00:30:55,320 --> 00:31:02,960
Terwijl van alle twijde personen heb je waarde aan het toekennen van kennis van wat jij opgedaan hebt naar de volgende generatie.

689
00:31:03,320 --> 00:31:04,340
Namelijk je herleeft het weer.

690
00:31:04,990 --> 00:31:06,340
Dus je bent het weer even aan het verversen.

691
00:31:06,800 --> 00:31:10,780
En de andere heeft inderdaad jou als ervaringsdeskundige daarbij.

692
00:31:11,140 --> 00:31:14,880
Ja precies, want inderdaad mensen iets leren, daar leer je zelf eigenlijk ook heel veel van.

693
00:31:15,400 --> 00:31:18,040
Dus als je inderdaad zegt, goh die AI heeft toch al die antwoorden.

694
00:31:19,360 --> 00:31:21,360
Het is ook weer het dehumaniseren.

695
00:31:21,720 --> 00:31:25,220
Je zegt eigenlijk, junioren opleiden, dat is een kennistransactie.

696
00:31:25,300 --> 00:31:26,780
Stel, je zou dat helemaal aan de AI besteden.

697
00:31:26,820 --> 00:31:28,260
Het gaat alleen maar over kennis.

698
00:31:28,960 --> 00:31:30,280
En de AI kan je gewoon prima helpen.

699
00:31:30,420 --> 00:31:33,880
Terwijl jij ziet misschien ook, volgens mij zit hij er een beetje doorheen.

700
00:31:34,060 --> 00:31:35,680
Even doorvragen.

701
00:31:36,280 --> 00:31:38,380
Dus ik denk op zeker ook het gevoelsniveau.

702
00:31:38,540 --> 00:31:39,400
Wat zit erachter?

703
00:31:39,660 --> 00:31:40,620
Of onzekerheid?

704
00:31:40,700 --> 00:31:42,320
Of was iets bij de klant misgegaan?

705
00:31:42,380 --> 00:31:42,820
Weet ik wat.

706
00:31:42,940 --> 00:31:45,100
Dat speelt natuurlijk ook allemaal mee voor je gedrag.

707
00:31:45,960 --> 00:31:48,879
Ik denk ook wel, tegelijkertijd, dat je natuurlijk...

708
00:31:51,480 --> 00:31:54,620
hoe specialistisch je je kennis, vaak hoe meer gevraagd een gast je bent,

709
00:31:54,730 --> 00:31:56,160
hoe minder tijd je hebt om dit te doen.

710
00:31:56,660 --> 00:31:58,420
Hoe gaaf zou het dan zijn als jij bijvoorbeeld,

711
00:31:59,180 --> 00:32:00,740
dat kan ook met audio in de auto zijn,

712
00:32:01,300 --> 00:32:04,420
en allemaal data en notities een eigen AI traint.

713
00:32:04,760 --> 00:32:08,960
Een soort orakel, maar dat is dan gewoon je digitale versie van jou bijvoorbeeld.

714
00:32:09,720 --> 00:32:12,080
En dat collega's die dan kunnen raadplegen.

715
00:32:12,240 --> 00:32:15,960
En dat je die af en toe, als je tot inzichten komt, na een klus of iets.

716
00:32:16,580 --> 00:32:19,640
Of in ieder geval, stel je hebt een gesprek met een junior.

717
00:32:19,960 --> 00:32:21,800
Of dat je vraagt, mogen we dit opnemen?

718
00:32:22,320 --> 00:32:24,680
En dat je die gesprekken dan soort van laat.

719
00:32:24,800 --> 00:32:28,080
En daarmee jullie eigen...

720
00:32:28,200 --> 00:32:32,740
Ik zou in ieder geval waarschijnlijk eerder met een custom AI werken dan een generieke.

721
00:32:33,340 --> 00:32:39,040
En die kan misschien wel naast die medior of die senior fungeren.

722
00:32:39,180 --> 00:32:41,540
Maar ik zou het nooit als vervanging doen.

723
00:32:42,780 --> 00:32:44,260
Maar daarnaast is het natuurlijk wel fijn.

724
00:32:44,440 --> 00:32:47,140
Want soms word je de hele dag aan je jasje getrokken voor hele simpele dingen.

725
00:32:47,190 --> 00:32:49,540
En denk je, kom op joh, zoek het even zelf uit.

726
00:32:50,440 --> 00:32:52,180
Maar ja, dat moet je een beetje inschatten.

727
00:32:52,960 --> 00:32:55,860
Wanneer heeft iemand meer menselijk of meer AI-contact nodig?

728
00:32:55,900 --> 00:32:57,480
Zoek het even zelf uit, bot maken.

729
00:32:57,810 --> 00:32:59,540
Ja, die altijd dat afdwingt.

730
00:33:02,940 --> 00:33:04,640
Over verschillende perspectieven gesproken.

731
00:33:04,670 --> 00:33:07,120
We hebben een kaartspel ontwikkeld met stellingen daarin.

732
00:33:07,210 --> 00:33:10,880
Om juist perspectieven van elkaar te horen.

733
00:33:11,280 --> 00:33:12,940
En we willen ook zo'n stelling aan jou voorleggen.

734
00:33:13,480 --> 00:33:13,800
Leuk.

735
00:33:29,480 --> 00:33:31,800
Ja, en de stelling luidt deze keer.

736
00:33:32,420 --> 00:33:35,580
Eerst even de categorie toekomstvisies en speculaties.

737
00:33:36,440 --> 00:33:39,980
En de stelling is AI verhoogt de efficiëntie in bedrijven,

738
00:33:40,700 --> 00:33:44,380
Waardoor werknemers meer ruimte krijgen voor creativiteit en strategie.

739
00:33:45,900 --> 00:33:48,200
Oh, die sluit eigenlijk al aan waar we het over hadden.

740
00:33:49,920 --> 00:33:51,480
Het verhoogde efficiëntie.

741
00:33:52,330 --> 00:33:53,940
Als je blijft doen wat je deed, wel.

742
00:33:54,730 --> 00:33:54,880
Ja.

743
00:33:55,500 --> 00:33:59,080
Dus als je niet complexere taken of producten gaat leveren,

744
00:33:59,120 --> 00:34:01,040
je deed wat je al deed, dan word je efficiënter.

745
00:34:02,700 --> 00:34:03,460
Maar ik hoor hem maar.

746
00:34:04,020 --> 00:34:05,560
Nou, oké, dat is routine.

747
00:34:06,500 --> 00:34:10,120
Op dat moment is er op papier ruimte voor creativiteit,

748
00:34:10,500 --> 00:34:17,600
Maar dan moet de leidinggevende wel inzien dat dat van belang is voor innovatie en duur.

749
00:34:17,960 --> 00:34:21,199
Want je zou ook kunnen denken op korte termijn, ga maar extra productie draaien,

750
00:34:21,280 --> 00:34:22,940
want dan verdienen wij meer op dit moment.

751
00:34:23,270 --> 00:34:26,500
Maar je weet ook, als je in de toekomst nog relevant wil zijn, moet je die ruimte bieden.

752
00:34:27,080 --> 00:34:29,860
Dus het is wel de vraag, oké, die ruimte is er in theorie.

753
00:34:30,739 --> 00:34:33,639
Maar zoals jij net al zei Joop, als je dan de hele dag dat moet doen,

754
00:34:33,850 --> 00:34:37,060
dan ben je echt gesloopt en dan ben je waarschijnlijk na twee jaar denk je, nou ik ben ziek.

755
00:34:38,520 --> 00:34:43,560
Dus in die cultuur moet er dan ook ruimte voor zijn.

756
00:34:43,800 --> 00:34:47,199
Dan moet het ook oké zijn dat je even gaat pingpongen of iets anders doet.

757
00:34:47,360 --> 00:34:48,960
En misschien ook wel een uur overdag.

758
00:34:50,020 --> 00:34:54,060
Dus ik denk dat die ruimte er op papier is.

759
00:34:54,460 --> 00:34:59,080
Maar ik ben heel benieuwd bij welke bedrijven dat ook op die manier ingevuld gaat worden.

760
00:34:59,440 --> 00:35:01,879
Ik denk wel dat de bedrijven die dat gaan doen en zien,

761
00:35:02,800 --> 00:35:08,159
uiteindelijk op de lange termijn, je hebt de ruimte nodig om tot nieuwe ideeën te komen.

762
00:35:08,280 --> 00:35:14,060
Zou je dat voor je kunnen zien binnen de instelling waar je nu voor werkt?

763
00:35:15,040 --> 00:35:18,460
Ik werk natuurlijk in onderwijs en onderzoek.

764
00:35:19,680 --> 00:35:21,220
Ik vind het heel leuk om dingen te leren.

765
00:35:21,720 --> 00:35:25,340
Je zou bij onderzoek denken, je kunt nu meer papers produceren.

766
00:35:25,680 --> 00:35:29,980
Maar het is eigenlijk veel beter om één heel goed fundamenteel werk te maken...

767
00:35:29,980 --> 00:35:32,820
waar ze over tien jaar nog naar verwijzen, dan er zijn nu zoveel papers.

768
00:35:34,320 --> 00:35:36,000
Onderwijs is niet goed te automatiseren.

769
00:35:36,140 --> 00:35:38,180
Dus ik zie niet dat de contacturen minder gaan worden.

770
00:35:38,300 --> 00:35:42,360
Dus ik denk dat bij onderwijs dat wordt niet efficiënter.

771
00:35:43,060 --> 00:35:44,500
Maar die papers, ik zag het laatst.

772
00:35:44,900 --> 00:35:46,340
Die papers, dat zou kunnen.

773
00:35:46,390 --> 00:35:50,160
Maar eigenlijk vind ik, de kwaliteit moet dus hoger.

774
00:35:50,539 --> 00:35:52,140
Ik wil niet bij dezelfde lijn.

775
00:35:52,140 --> 00:35:57,920
Maar als mijn kwaliteit niet hoger wordt dan wat AI en een beetje lui prompten kan maken.

776
00:35:59,260 --> 00:36:01,780
Ik lees nu artikelen en dan zie ik gewoon woordgebruik.

777
00:36:01,780 --> 00:36:04,040
En dan denk ik, ja, ik neem jou al niet meer serieus.

778
00:36:05,140 --> 00:36:06,840
In het onderzoeksland gaat het ook over status.

779
00:36:07,280 --> 00:36:10,300
Ik zag een grafiekje.

780
00:36:11,880 --> 00:36:12,540
Hoeveel white papers?

781
00:36:13,080 --> 00:36:14,560
Vanaf november 2022.

782
00:36:16,300 --> 00:36:18,700
Dat was geloof ik 2023-2024.

783
00:36:19,180 --> 00:36:20,420
Zoveel liep hier was iets van.

784
00:36:21,180 --> 00:36:21,780
Pak een beet.

785
00:36:21,870 --> 00:36:24,060
10, 15 keer gewoon meer papers.

786
00:36:24,140 --> 00:36:25,440
Het is echt gestort.

787
00:36:25,660 --> 00:36:27,020
Dan al die jaren ervoor.

788
00:36:27,560 --> 00:36:28,660
Het is echt niet normaal.

789
00:36:29,100 --> 00:36:30,720
Als je reviews wil doen.

790
00:36:30,780 --> 00:36:32,800
Als je de literatuur systematisch door wil.

791
00:36:33,160 --> 00:36:34,260
Het wordt alleen maar erger.

792
00:36:34,540 --> 00:36:36,900
Hoe kan ik nog papers vinden?

793
00:36:38,040 --> 00:36:40,340
Ik had laatst bij een review 18.000 artikelen.

794
00:36:41,440 --> 00:36:41,740
Nou ja, goed.

795
00:36:41,920 --> 00:36:44,920
Er wordt dan ook wel weer een AI-oplossing voor bedacht.

796
00:36:45,160 --> 00:36:49,400
Dus AS Review bijvoorbeeld van de Universiteit Utrecht heeft dat ontwikkeld.

797
00:36:49,960 --> 00:36:53,660
Ja, dan train je eigenlijk je eigen active learning model.

798
00:36:54,320 --> 00:36:56,160
Die leert waar zoek jij naar.

799
00:36:56,600 --> 00:36:59,240
En ik heb uiteindelijk maar duizend artikelen hoeven zien.

800
00:36:59,940 --> 00:37:01,460
En dan leert hij van jou wat je zoekt.

801
00:37:01,840 --> 00:37:04,120
Dus er zijn dan ook wel weer oplossingen voor dat probleem.

802
00:37:04,720 --> 00:37:08,580
Maar ik denk wel, je krijgt dus waarschijnlijk dat bepaalde werken.

803
00:37:08,780 --> 00:37:09,780
Want je hebt gewoon geen tijd meer.

804
00:37:10,260 --> 00:37:11,260
Wanneer moet ik het allemaal lezen?

805
00:37:11,270 --> 00:37:13,220
En mensen gaan het dan weer met AI samenvatten.

806
00:37:13,660 --> 00:37:14,460
En zo komen we echt...

807
00:37:14,460 --> 00:37:15,740
En met AI reviewen?

808
00:37:16,440 --> 00:37:18,040
Ja, maar waar zijn we dan mee bezig?

809
00:37:18,040 --> 00:37:20,000
Er worden ook zoveel onzinnige papegaai.

810
00:37:20,100 --> 00:37:24,780
Dus dat MIT-paper over Cognitive Depth kwam natuurlijk uit.

811
00:37:24,830 --> 00:37:25,600
En dat is heel gaaf.

812
00:37:25,600 --> 00:37:27,140
Maar het was best wel een kleine sample.

813
00:37:27,540 --> 00:37:30,480
Kan je daar iets over vertellen voor de mensen die het niet gelezen hebben?

814
00:37:30,860 --> 00:37:41,720
Ja, dat ging dan over vier verschillende sessies waarin het meeste studenten moesten een essaywriting taak doen in twintig minuten.

815
00:37:42,420 --> 00:37:50,000
Eén groep was met alleen het brein, één groep met de zoekmachine, min AI, want tegenwoordig zit daar ook heel veel AI in, dus moest je min AI.

816
00:37:50,800 --> 00:37:51,740
En een LLM groep.

817
00:37:52,210 --> 00:37:53,940
En dan moesten ze vier keer een essay schrijven.

818
00:37:54,800 --> 00:37:55,940
En in de vierde sessie.

819
00:37:56,960 --> 00:37:58,960
De mensen die eerst brain only waren.

820
00:37:59,340 --> 00:38:00,280
Mochten toen LLM.

821
00:38:00,880 --> 00:38:02,680
En de LLM mensen gingen toen met hun brain.

822
00:38:03,120 --> 00:38:04,280
Maar dat stukje werd vaak niet.

823
00:38:04,520 --> 00:38:06,460
Mensen zeggen oké je wordt dom van AI.

824
00:38:06,720 --> 00:38:08,760
Dat is een soort van de conclusie die gepapegaaid werd.

825
00:38:10,380 --> 00:38:11,200
Dat is nu bewezen.

826
00:38:12,020 --> 00:38:14,100
En een cognitive depth werd dan genoemd.

827
00:38:14,100 --> 00:38:16,540
Dus je hebt een soort van schuld naar jezelf in de toekomst.

828
00:38:17,080 --> 00:38:18,300
Als ik nu niet oefen.

829
00:38:20,020 --> 00:38:21,340
Ik neem nu die hamburger.

830
00:38:21,440 --> 00:38:22,420
Die is lekker heb ik zin in.

831
00:38:23,680 --> 00:38:26,780
Als ik het elke dag doe, dan krijg ik waarschijnlijk last van mijn gezondheid.

832
00:38:26,990 --> 00:38:28,520
Maar één keertje moet kunnen, toch?

833
00:38:28,900 --> 00:38:30,240
Als je dat elke keer denkt.

834
00:38:30,630 --> 00:38:32,960
Dus hier ook, je hebt eigenlijk schuld naar je toekomstige zelf,

835
00:38:33,070 --> 00:38:35,780
omdat je het nu de bocht afsnijdt.

836
00:38:36,060 --> 00:38:38,680
Maar er worden dus allemaal conclusies daarvan gepappegaaid.

837
00:38:39,220 --> 00:38:42,200
Dat artikel, ik dacht, ik ga deze eens uitprinten.

838
00:38:43,319 --> 00:38:45,440
Collega's lachten me keihard uit bij die print.

839
00:38:45,640 --> 00:38:47,460
Het waren gewoon 150 pagina's.

840
00:38:47,490 --> 00:38:48,400
Ik had gewoon een heel boek.

841
00:38:48,870 --> 00:38:52,060
Ik dacht, oh mijn god, het was wel een pre-print, zo noemen ze dat.

842
00:38:52,140 --> 00:38:53,680
Dus dat is al een prepublicatie.

843
00:38:55,480 --> 00:38:58,660
Ik had liever gehoopt dat ze iets meer beter hun best hadden gedaan om iets korter te maken.

844
00:38:58,760 --> 00:39:02,720
Maar in ieder geval kwamen ze er zelf al op terug laten van jongens, het waren maar wel weinig mensen.

845
00:39:03,460 --> 00:39:07,440
En de belangrijkste uitkomst was eigenlijk, als je eerst met je brein hebt gedaan drie keer.

846
00:39:08,240 --> 00:39:11,240
En dan die LLM, die leerde het allermeest.

847
00:39:12,180 --> 00:39:13,400
Die leerde het aller, allermeest.

848
00:39:13,500 --> 00:39:15,400
Dus dat is voor mij de conclusie.

849
00:39:15,410 --> 00:39:17,180
Maar die zie ik niet gepappegaaid worden.

850
00:39:17,320 --> 00:39:18,440
Dus je moet eerst zelf.

851
00:39:19,280 --> 00:39:23,800
En als je dan de LLM erbij pakt, die leerde nog meer dan als je dan nog een keer het zelf zou doen.

852
00:39:24,160 --> 00:39:25,800
En dat is omdat je het zelf al hebt doorleefd.

853
00:39:25,800 --> 00:39:27,440
Dus je hebt eigenlijk al de connecties.

854
00:39:27,440 --> 00:39:29,740
Je hebt een soort mentaal model van hoe werkt dit.

855
00:39:29,920 --> 00:39:31,200
En dan kan je eigenlijk efficiënter worden.

856
00:39:31,340 --> 00:39:32,100
Dus eigenlijk is dat andere niet efficiënter.

857
00:39:32,100 --> 00:39:33,520
Dan vraag je ook de juiste dingen.

858
00:39:34,020 --> 00:39:35,960
En dan vraag je niet alleen maar doe het voor mij.

859
00:39:36,720 --> 00:39:38,920
En het is op dat moment nog een ander perspectief.

860
00:39:39,040 --> 00:39:42,820
Wat ze ook zagen, is dat die essays op elkaar leken van die groepen.

861
00:39:43,220 --> 00:39:44,820
De LLM groep essays leken op elkaar.

862
00:39:45,380 --> 00:39:46,200
Hoe interessant is dat?

863
00:39:46,280 --> 00:39:47,280
Dus het is niet uniek.

864
00:39:48,300 --> 00:39:49,400
Stel je bent een bedrijf.

865
00:39:49,880 --> 00:39:52,980
Je maakt iets en je leunt 90% op die LLM.

866
00:39:53,730 --> 00:39:55,440
Dan heb je geen concurrentievoordeel.

867
00:39:55,510 --> 00:39:56,360
Je bent niet uniek.

868
00:39:57,160 --> 00:39:58,600
Dat was ook zo bij de zoekmachine.

869
00:39:58,900 --> 00:40:01,000
Want je wordt ook beïnvloed door attenties en dingen.

870
00:40:01,380 --> 00:40:01,560
Ook.

871
00:40:02,190 --> 00:40:03,900
En in mindere mate ook bij de breingroep.

872
00:40:03,980 --> 00:40:06,020
Want als je bijvoorbeeld op dezelfde school hebt gezeten.

873
00:40:06,100 --> 00:40:07,340
Heb je misschien dezelfde boeken gelezen.

874
00:40:07,460 --> 00:40:08,500
Dan ben je ook beïnvloed.

875
00:40:08,920 --> 00:40:10,140
Dus er zit altijd een bias in.

876
00:40:10,780 --> 00:40:13,160
Maar die conclusies, die nuancen.

877
00:40:13,440 --> 00:40:15,840
Die heb ik dan persoonlijk uit dit artikel gehaald.

878
00:40:16,320 --> 00:40:17,580
Ik heb hem doorgeploeterd.

879
00:40:17,760 --> 00:40:20,420
Ik heb wel alle, ze hadden ook allemaal EEG-diagrammen.

880
00:40:20,720 --> 00:40:22,640
Die heb ik wel een beetje overgeslagen, moet ik zeggen.

881
00:40:23,560 --> 00:40:25,340
Nee, maar ik herken zeker...

882
00:40:25,400 --> 00:40:26,260
Als je niet het zelf...

883
00:40:26,360 --> 00:40:30,080
Dat is zo'n risico van het uitbesteden.

884
00:40:31,780 --> 00:40:34,420
Is dus, oké, je hebt geen tijd meer om dingen te lezen.

885
00:40:34,640 --> 00:40:35,740
Worden dingen gepapegaaid.

886
00:40:35,780 --> 00:40:36,660
Het klopt eigenlijk niet.

887
00:40:36,760 --> 00:40:38,500
Het wordt gerectificeerd door de auteurs.

888
00:40:38,640 --> 00:40:41,120
Maar ja, iedereen heeft het toch al verkeerd in zijn beeld.

889
00:40:42,100 --> 00:40:43,500
En we gaan weer verder naar het volgende.

890
00:40:44,320 --> 00:40:48,560
En vervolgens ga je dus eigenlijk misinformatie internaliseren.

891
00:40:50,000 --> 00:40:54,940
Dus als je heel erg vertrouwt op die AI, of in dit geval vaak AI-samenvatting van een artikel.

892
00:40:55,680 --> 00:40:58,500
Ja, je gaat gewoon de verkeerde kennis opbouwen eigenlijk.

893
00:40:58,760 --> 00:40:59,540
Wat helemaal niet waar is.

894
00:40:59,660 --> 00:41:02,660
Omdat je niet meer zelf de moeite hebt genomen om het goed te lezen.

895
00:41:03,940 --> 00:41:08,240
Ja, en dat in combinatie met dat er steeds meer komt, wordt het ook steeds lastiger om dat te lezen.

896
00:41:08,340 --> 00:41:09,640
Dus het probleem zal toenemen.

897
00:41:09,860 --> 00:41:11,880
Het gaat eigenlijk over prioriteit.

898
00:41:12,610 --> 00:41:13,860
Want er komt heel veel op je af.

899
00:41:14,020 --> 00:41:14,940
Maar heel veel is echt pulp.

900
00:41:15,240 --> 00:41:16,000
De grootste pulp.

901
00:41:17,019 --> 00:41:19,040
Dus ik probeer, nu het is heel moeilijk,

902
00:41:19,040 --> 00:41:20,180
ik probeer dus in januari,

903
00:41:20,310 --> 00:41:22,540
want elke maandagochtend ga ik gewoon weer lezen.

904
00:41:23,360 --> 00:41:24,040
Ik vind het leuk.

905
00:41:24,280 --> 00:41:25,320
Ik hou van studeren.

906
00:41:25,510 --> 00:41:26,320
Ik word daar rustig van.

907
00:41:26,470 --> 00:41:27,200
Ik vind dat heerlijk.

908
00:41:27,460 --> 00:41:28,220
Lekker ermee bezig zijn.

909
00:41:28,720 --> 00:41:32,460
En misschien is het wel beter om een aantal kwalitatieve stukken

910
00:41:32,590 --> 00:41:33,860
echt goed te lezen.

911
00:41:34,860 --> 00:41:37,100
En dan heb ik het liever dat een collega mij het tipt.

912
00:41:37,200 --> 00:41:38,620
En oké, ik heb niet alles gezien.

913
00:41:39,820 --> 00:41:40,700
Maar maakt dat uit?

914
00:41:40,990 --> 00:41:41,940
Kan ik alles zien?

915
00:41:43,760 --> 00:41:47,700
Nu wordt er zoveel AI en lege informatie rondgeslingerd.

916
00:41:48,020 --> 00:41:49,020
Ook op LinkedIn en dingen.

917
00:41:49,020 --> 00:41:52,580
En dan denk ik, ja, we doen er ook zelf aan mee met elkaar.

918
00:41:53,020 --> 00:41:54,060
Het is nu zo makkelijk.

919
00:41:54,320 --> 00:41:56,140
Iedereen wil roepen, iedereen wil gehoord worden.

920
00:41:56,640 --> 00:41:59,060
Maar moeten we, ja, liever een keer...

921
00:41:59,060 --> 00:42:01,560
Maar besteed je zelf wel aandacht dan, als consument ook.

922
00:42:02,080 --> 00:42:04,960
Gewoon goed iets lezen wat interessant is.

923
00:42:04,980 --> 00:42:07,600
Of als je niet van leest uit een film helemaal kijken.

924
00:42:08,140 --> 00:42:09,620
Alles is zoveel korter geworden.

925
00:42:10,940 --> 00:42:13,060
En ik denk voor echt expertiseontwikkeling.

926
00:42:13,320 --> 00:42:17,140
En dat maakt niet uit of je nou een onderzoeker bent of een programmeur of wat dan ook.

927
00:42:17,940 --> 00:42:23,400
Vergt toch dat je af en toe met een wat langere spanningsboog aan één taak zit.

928
00:42:23,470 --> 00:42:26,160
En soms ben je aan het creëren, ben je iets aan het maken zelf.

929
00:42:27,420 --> 00:42:29,560
Maar in mijn ervaring is dat alleen niet voldoende.

930
00:42:29,720 --> 00:42:31,760
Soms moet je ook met aandacht iets tot je nemen.

931
00:42:32,500 --> 00:42:35,100
Dat kan ook zijn een hele goede review voor de junior.

932
00:42:35,520 --> 00:42:37,180
Gewoon eens echt even heel goed naar kijken.

933
00:42:37,300 --> 00:42:40,780
Weet je, niet even oppervlakkig de dingen die opvallen, maar gewoon eens even heel goed doen.

934
00:42:41,420 --> 00:42:45,720
Dus dat gewoon af en toe is het maar één keer per week weer eens even iets goed tot je nemen.

935
00:42:45,840 --> 00:42:47,780
Wat een collega of wat op je afkomt.

936
00:42:48,300 --> 00:42:50,180
Dat betekent wel dat je iets kritisch moet selecteren.

937
00:42:50,340 --> 00:42:50,620
Wat dan?

938
00:42:51,080 --> 00:42:54,620
Net als je naar twee pagina's achterkomt van wat is dit nou voor flut en vind ik niks.

939
00:42:55,999 --> 00:42:57,480
Tuurlijk, daar zit wel iets in.

940
00:42:57,720 --> 00:43:00,940
Maar ik denk dat dat wel kan helpen.

941
00:43:01,020 --> 00:43:02,240
Want dan word je ook niet zo overspoeld.

942
00:43:02,360 --> 00:43:03,680
Want wanneer word je overspoeld?

943
00:43:03,740 --> 00:43:04,980
Als je de verbanden niet ziet.

944
00:43:06,200 --> 00:43:07,140
En wat blijkt nou?

945
00:43:07,320 --> 00:43:11,200
Als je dus wel geregeld, diepgaand informatie verwerkt.

946
00:43:11,360 --> 00:43:13,120
Dan maak je dus zo'n mentaal schema.

947
00:43:13,860 --> 00:43:14,960
Je verbindt alles aan elkaar.

948
00:43:15,519 --> 00:43:16,980
Vergelijken ook met een schaakspeler.

949
00:43:17,480 --> 00:43:18,780
Die ziet in één keer hele patronen.

950
00:43:18,780 --> 00:43:19,880
Die kan tien stappen vooruit.

951
00:43:20,600 --> 00:43:21,160
Ik kan dat niet.

952
00:43:23,299 --> 00:43:24,120
Ik kan dat niet.

953
00:43:24,190 --> 00:43:28,320
Maar voor die expert kost dat dus ook niet meer zoveel mentale lading.

954
00:43:28,840 --> 00:43:29,520
Mental load.

955
00:43:30,619 --> 00:43:33,620
Dus om het gevoel te hebben dat je overspoeld wordt.

956
00:43:33,760 --> 00:43:36,020
Moet je af en toe dus echt goed lezen.

957
00:43:36,260 --> 00:43:37,760
Of goed naar iets kijken.

958
00:43:38,340 --> 00:43:40,060
En dan ben je dus niet meer overspoeld daarna.

959
00:43:40,340 --> 00:43:41,500
Want je weet beter wat je zoekt.

960
00:43:41,570 --> 00:43:43,160
Je weet beter wat kwaliteit is.

961
00:43:43,190 --> 00:43:44,420
Je weet wat je nodig hebt.

962
00:43:44,910 --> 00:43:46,080
Dus af en toe dat stapje terug.

963
00:43:46,370 --> 00:43:48,000
En dat ging aan de hand van de stelling.

964
00:43:48,080 --> 00:43:48,680
Hadden we dit gesprek.

965
00:43:49,210 --> 00:43:51,700
Dus ik denk dat het heel waardevol en wenselijk is.

966
00:43:52,220 --> 00:43:54,380
Om meer rust en ruimte.

967
00:43:54,940 --> 00:43:55,980
Gewoon in de werkdag.

968
00:43:56,599 --> 00:43:57,320
Gewoon betaald.

969
00:43:58,280 --> 00:44:00,220
Hoezo ga ik heel hard werken op mijn werk.

970
00:44:00,460 --> 00:44:01,220
En dan moet ik thuis.

971
00:44:02,700 --> 00:44:02,960
Nou ja.

972
00:44:03,030 --> 00:44:04,440
Dan wil ik misschien nog sporten en hobby's doen.

973
00:44:04,700 --> 00:44:05,500
En ontspannen.

974
00:44:05,570 --> 00:44:05,680
Nee.

975
00:44:05,960 --> 00:44:08,980
Laten we gewoon een ontspannen werkdag.

976
00:44:09,180 --> 00:44:11,640
Dat is eigenlijk voor iedereen beter.

977
00:44:11,740 --> 00:44:14,580
Want je kan heel druk bezig zijn met de verkeerde dingen.

978
00:44:15,120 --> 00:44:16,520
En AI helpt ons daarbij.

979
00:44:17,540 --> 00:44:17,980
Helaas.

980
00:44:18,010 --> 00:44:19,900
Want je kan het heel snel maken, de oplossing.

981
00:44:20,500 --> 00:44:23,400
Maar soms is het beter om even bij het probleem nog stil te staan.

982
00:44:24,120 --> 00:44:25,380
Wat is het probleem?

983
00:44:25,520 --> 00:44:27,120
Wat vraagt die klant nou echt?

984
00:44:27,700 --> 00:44:28,880
En dan kun je wel naar een oplossing komen.

985
00:44:28,910 --> 00:44:31,640
Maar als dat eigenlijk helemaal niet is wat hun doel ermee was.

986
00:44:33,240 --> 00:44:35,360
Oké, dan zijn we heel druk geweest met het verkeerde.

987
00:44:35,540 --> 00:44:37,260
Heel efficiënt het verkeerde gemaakt.

988
00:44:37,450 --> 00:44:38,320
Maar niet effectief.

989
00:44:39,740 --> 00:44:42,720
Ja, ik denk dat dat een hele mooie afsluiting is.

990
00:44:42,840 --> 00:44:46,460
Want we zijn begonnen natuurlijk van, hoe leer je nou?

991
00:44:47,040 --> 00:44:50,300
En misschien hebben we zelf wel geleerd meer rust, toch?

992
00:44:50,640 --> 00:44:53,380
Ja, rust is onderdeel van leren.

993
00:44:53,420 --> 00:45:00,980
Ja, en zorgen dus dat je eerst eigenlijk het vak onder de knie krijgt voordat je je laat helpen met AI.

994
00:45:01,480 --> 00:45:05,080
Nou, je mag je dus wel AI inzetten om jou te helpen leren.

995
00:45:05,600 --> 00:45:12,100
Maar voordat je gaat uitbesteden aan AI, moet je wel dat taakje in ieder geval goed onder de knie hebben.

996
00:45:12,300 --> 00:45:14,740
En ook nog af en toe zonder blijven oefenen.

997
00:45:14,940 --> 00:45:17,300
Blijven herhalen inderdaad.

998
00:45:17,940 --> 00:45:18,140
Mooi.

999
00:45:18,580 --> 00:45:21,500
En prioriteit geven op hetgene waar je wil leren.

1000
00:45:22,440 --> 00:45:23,900
En daar de tijd voor pakken. De rust.

1001
00:45:24,600 --> 00:45:24,960
Duidelijk.

1002
00:45:25,480 --> 00:45:26,340
Dankjewel, Josien.

1003
00:45:26,580 --> 00:45:26,900
Graag gedaan.

1004
00:45:27,800 --> 00:45:30,340
Fijn dat je dit met ons wilde delen.

1005
00:45:30,580 --> 00:45:31,160
Dankjewel daarvoor.

1006
00:45:31,900 --> 00:45:34,240
En wil je zelf ook nou iets meer leren?

1007
00:45:34,360 --> 00:45:35,480
We hebben een hele leuke nieuwsbrief.

1008
00:45:35,680 --> 00:45:36,240
Eén keer in de maand.

1009
00:45:36,999 --> 00:45:37,960
Met exclusieve content.

1010
00:45:38,400 --> 00:45:40,080
Dus abonneer je daarop.

1011
00:45:40,520 --> 00:45:42,180
Een link staat in de show notes trouwens.

1012
00:45:42,440 --> 00:45:43,240
Tot de volgende keer.

1013
00:45:43,320 --> 00:45:43,980
Tot de volgende keer.


People on this episode