AIToday Live

S07E29 - Feedback geven 2.0: Hoe AI het onderwijs persoonlijker maakt

Aigency by Info Support Season 7 Episode 29

Pascal Mariany, oprichter Onderwijs Orakel en docent ICT bij de Hogeschool Utrecht, deelt zijn ervaringen met AI-tools in het onderwijs in de nieuwste aflevering van AIToday Live. Hij bespreekt de Feedback Companion, een AI-tool die docenten en studenten ondersteunt bij feedback.

Pascal licht toe hoe de tool is ontwikkeld en verfijnd, met aandacht voor privacy en databescherming. Daarnaast introduceert hij de AI Literacy Companion, een zelfscan voor AI-geletterdheid.

Hij benadrukt het belang van een geleidelijke implementatie van AI in het onderwijs en pleit voor open dialoog. Pascal ziet AI als ondersteuning, niet als vervanging van menselijke interactie in het onderwijs.

Onderwerpen

  • Ontwikkeling van de Feedback Companion
  • Privacy en databescherming in AI-tools
  • AI-geletterdheid in het onderwijs
  • Implementatie-uitdagingen van AI in het onderwijs
  • Toekomst van AI als ondersteunend hulpmiddel

Links

Genoemde entiteiten: Hogeschool Utrecht - Microsoft Azure

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:03,400
In deze aflevering hoor je Pascal Mariany.

2
00:00:03,400 --> 00:00:09,960
Hij is docent ICT bij Hogeschool Utrecht en vertelt over zijn innovatieve Feedback

3
00:00:09,960 --> 00:00:10,960
Companion Tool.

4
00:00:10,960 --> 00:00:16,400
Deze tool gebruikt AI en verbetert het geven van feedback in het onderwijs.

5
00:00:16,400 --> 00:00:22,320
Pascal deelt zijn ervaringen met het ontwikkelen van deze AI-toepassing en belicht daarbij

6
00:00:22,320 --> 00:00:27,840
hoe dit bijdraagt aan betere leeruitkomsten voor studenten en efficiëntere werkprocessen

7
00:00:27,840 --> 00:00:28,840
voor docenten.

8
00:00:28,840 --> 00:00:30,400
Dus blijf luisteren!

9
00:00:30,401 --> 00:00:32,400
[Muziek]

10
00:00:32,400 --> 00:00:35,400
Hoi, leuk dat je weer luistert naar een nieuwe aflevering

11
00:00:35,400 --> 00:00:36,400
van AIToday Live

12
00:00:36,400 --> 00:00:38,400
de podcast met praktijkverhalen

13
00:00:38,400 --> 00:00:41,240
En een praktijkverhaal gaan we vandaag zeker krijgen.

14
00:00:41,240 --> 00:00:41,760
Zeker.

15
00:00:41,760 --> 00:00:44,220
Mijn naam Joop Snijder, CTO bij Aigency.

16
00:00:44,220 --> 00:00:46,280
Mijn naam Niels Naglé, Area Lead Data & AI

17
00:00:46,280 --> 00:00:52,020
Ja, Pascal, dankjewel dat je bij ons in de studio bent.

18
00:00:52,020 --> 00:00:54,440
Zou je jezelf eerst even willen voorstellen aan de luisteraar?

19
00:00:54,440 --> 00:00:57,320
Ja, natuurlijk. De luisteraars zien het niet, maar ik zie jullie wel. Gezellig.

20
00:00:57,320 --> 00:01:02,020
Pascal Mariany, nu alweer 15 jaar in het onderwijs bezig.

21
00:01:02,020 --> 00:01:06,540
Begonnen als ICT-beheerder, maar toen gymleraar, heel gek.

22
00:01:06,540 --> 00:01:09,100
Het heeft me altijd heel veel goeds gebracht qua coaching.

23
00:01:09,100 --> 00:01:13,680
En fast forward, Rijn IJssel College heb ik gewerkt, mbo en ook het hbo.

24
00:01:13,680 --> 00:01:17,340
Dus ik heb eigenlijk het PO tot en met het hbo nu gediend en ik blijf het dienen.

25
00:01:17,340 --> 00:01:19,540
Ik werk bij de Hogeschool Utrecht bij Open ICT.

26
00:01:19,540 --> 00:01:24,820
Hele mooie opleiding, holistisch kijken naar de studenten en holistisch toetsen.

27
00:01:24,820 --> 00:01:25,680
Super gaaf.

28
00:01:25,680 --> 00:01:30,080
Hoe komt een gymleraar in een AI-podcast?

29
00:01:30,080 --> 00:01:31,800
Ja, dat is een goede vraag.

30
00:01:31,800 --> 00:01:34,240
Ik moet ook nog even vertellen dat ik mijn eigen onderneming heb op maandag.

31
00:01:34,240 --> 00:01:37,160
Dat is onderwijsorakel.nl. Die mag ik wel even noemen, denk ik.

32
00:01:37,160 --> 00:01:37,600
Zeker.

33
00:01:37,600 --> 00:01:38,860
Oh, vet. Oké.

34
00:01:38,860 --> 00:01:41,460
Ja, hoe komt de gymleraar daar?

35
00:01:41,460 --> 00:01:44,820
Het begon vanaf vroeger uit eigenlijk.

36
00:01:44,820 --> 00:01:47,260
Ik ben op mijn achtste begonnen met computers.

37
00:01:47,260 --> 00:01:49,560
Gewoon zo'n oude, grote, dikke monitor.

38
00:01:49,560 --> 00:01:52,540
Monogroom beeldscherm kreeg ik mee van mijn oom uit Luxemburg.

39
00:01:52,540 --> 00:01:53,340
Daar kom ik ook vandaan.

40
00:01:53,340 --> 00:01:57,020
Nou ja, zoals zovelen helaas gaan ouders ook wel eens scheiden.

41
00:01:57,520 --> 00:02:00,120
Mijn vader is Luxemburg en mijn moeder is Nederlandse.

42
00:02:00,120 --> 00:02:02,140
Mijn moeder verlangde weer terug naar Nederland.

43
00:02:02,140 --> 00:02:05,820
Dus met mijn moeder mee, met mijn zus en zusje naar Rotterdam-Zuid.

44
00:02:05,820 --> 00:02:08,740
Dus vanaf een dorpje in kleine Luxemburg.

45
00:02:08,740 --> 00:02:10,479
Dan kom je in Rotterdam-Zuid terecht.

46
00:02:10,479 --> 00:02:12,080
Fast forward.

47
00:02:12,080 --> 00:02:13,940
Ja, altijd met computers bezig geweest, maar ook met sport.

48
00:02:13,940 --> 00:02:17,760
Dus ik ben ook, mag ik trots vertellen, toch wel heel lang geleden.

49
00:02:17,760 --> 00:02:18,480
Ik ben er weer 41.

50
00:02:18,480 --> 00:02:19,500
Ik kreeg grijze haartjes.

51
00:02:19,740 --> 00:02:23,660
Maar toen ik twintig was, ben ik ook nog Nederlands taekwondo geweest met sparren.

52
00:02:23,660 --> 00:02:26,080
Dus die combinatie met sport en ICT.

53
00:02:26,080 --> 00:02:30,460
Ja, kortom, ik noem mezelf gewoon een ICT-sportnerd.

54
00:02:30,460 --> 00:02:33,820
En gymleraar leek me gewoon heel erg leuk.

55
00:02:33,820 --> 00:02:36,740
Dat was eigenlijk met een gesprek met de moeder van mijn vrouw, zeg maar.

56
00:02:36,740 --> 00:02:40,480
Ik heb nu al inmiddels een vrouw van twintig jaar lang en twee kindjes.

57
00:02:40,480 --> 00:02:43,300
Maar die moeder zei van, joh, je doet zoveel met sport.

58
00:02:43,300 --> 00:02:45,320
Misschien is de ALO wat voor je.

59
00:02:45,320 --> 00:02:46,820
De Academie Lichamelijke Opvoeding.

60
00:02:46,820 --> 00:02:48,840
Nou, daar ben ik dan terechtgekomen.

61
00:02:48,840 --> 00:02:50,360
En dat is ook een beetje typisch mij.

62
00:02:50,360 --> 00:02:51,600
Ik probeer dingen gewoon uit.

63
00:02:51,600 --> 00:02:53,540
Niet dat ik met alles impulsief ben.

64
00:02:53,540 --> 00:02:58,140
Als je naar mijn mancave kijkt, heb ik wel heel veel videokaarten gekocht.

65
00:02:58,140 --> 00:03:02,160
Ik kan het zeggen, die achtergrond is wel aardig gevuld met technische platen.

66
00:03:02,160 --> 00:03:02,920
Dat klopt, ja.

67
00:03:02,920 --> 00:03:09,140
Maar omdat ik op taekwondo ook wel instructies gaf, leek me de ALO wel een mooie stap.

68
00:03:09,140 --> 00:03:10,560
En dat heeft me echt heel veel geleerd.

69
00:03:10,560 --> 00:03:12,500
Ook qua coaching en differentiëren in de klas.

70
00:03:12,500 --> 00:03:15,280
En nu, ja, open ICT.

71
00:03:15,280 --> 00:03:17,700
Docent ICT en ontwikkelaar daar.

72
00:03:17,940 --> 00:03:19,540
Studentencoach, super gaaf.

73
00:03:19,540 --> 00:03:22,500
En wanneer ben je in aanraking met een stukje AI?

74
00:03:22,500 --> 00:03:25,200
Ja, eigenlijk al drie jaar geleden.

75
00:03:25,200 --> 00:03:27,260
Het begon met ChatGPT 3.5.

76
00:03:27,260 --> 00:03:32,300
Nou, ik natuurlijk zo impulsief als ik soms kan zijn en enthousiast gaan uitproberen.

77
00:03:32,300 --> 00:03:34,800
En sterker nog, toen werkte ik even kijken.

78
00:03:34,800 --> 00:03:36,680
Drie jaar geleden begon ik bij de Hogeschool Utrecht.

79
00:03:36,680 --> 00:03:39,480
Bij Digitale Techniek Media, een AD-opleiding.

80
00:03:39,920 --> 00:03:41,680
En Software Development, ook een AD-opleiding.

81
00:03:41,680 --> 00:03:46,240
Ja, en ik was denk ik de eerste die samen met studenten ChatGPT 3.5 gewoon uitproberen.

82
00:03:46,240 --> 00:03:47,080
Hé, wat doet dat nou?

83
00:03:47,080 --> 00:03:47,940
Wat is dat nou voor iets?

84
00:03:47,940 --> 00:03:48,980
De Gen AI.

85
00:03:48,980 --> 00:03:50,640
Oké.

86
00:03:50,640 --> 00:03:52,280
En wat gebeurde er toen?

87
00:03:52,280 --> 00:03:54,660
Ja, wat gebeurde er toen was eigenlijk wel heel mooi.

88
00:03:54,980 --> 00:04:01,460
De studenten die waren zo creatief om zeg maar hun beroepsproducten die ze aan het maken waren, gebaseerd op leerkomsten en criteria,

89
00:04:01,460 --> 00:04:07,520
die gooiden ze eigenlijk door de ChatGPT 3 heen om te vragen van nou, wat ik aan het doen ben, is dit goed genoeg?

90
00:04:07,520 --> 00:04:09,420
Kan ik dit al aan de docent laten zien?

91
00:04:09,420 --> 00:04:09,980
Oh ja.

92
00:04:09,980 --> 00:04:10,580
Ja.

93
00:04:10,580 --> 00:04:11,200
Slim.

94
00:04:11,200 --> 00:04:12,980
Ja, vond ik ook heel slim.

95
00:04:12,980 --> 00:04:20,800
En wij zijn elkaar tegengekomen op de Community of Practice van de Hogeschool Windesheim, Zwolle.

96
00:04:21,480 --> 00:04:25,840
En daar presenteerde jij een scan rondom AI-geletterdheid.

97
00:04:25,840 --> 00:04:28,500
Nou, nee, dat ging eerst om de Feedback Companion.

98
00:04:28,500 --> 00:04:29,040
Oh ja.

99
00:04:29,040 --> 00:04:29,560
Ja?

100
00:04:29,560 --> 00:04:29,980
Ja.

101
00:04:29,980 --> 00:04:31,600
De scan die komt zo meteen denk ik nog of niet.

102
00:04:31,600 --> 00:04:31,960
Ja.

103
00:04:31,960 --> 00:04:36,700
Even kijken, de Feedback Companion, daar begon het eigenlijk ook mee dat ik dacht van hey,

104
00:04:36,700 --> 00:04:40,720
ChitGP, die studenten die waren eigenlijk al bezig met feedback ophalen voor hun producten.

105
00:04:40,720 --> 00:04:45,020
Ik denk als we nou met slimme prompting, en dat leerde ik natuurlijk ook twee jaar geleden,

106
00:04:45,020 --> 00:04:46,180
wat is nou slimme promptingen?

107
00:04:46,180 --> 00:04:51,100
Je moet een context hebben, een doelgroep moet je aangeven in die prompting.

108
00:04:51,100 --> 00:04:55,380
Even kijken, een stukje voorbeelden erin, hoe kun je dan het beste feedback teruggeven?

109
00:04:55,380 --> 00:04:59,080
Dus ik ben gaan bouwen met het model van John Hattie.

110
00:04:59,080 --> 00:05:01,940
Ik weet niet of jullie dat kennen, met een top tip verbetersuggestie.

111
00:05:01,940 --> 00:05:02,640
Oké, ja.

112
00:05:02,640 --> 00:05:06,720
Ik denk heel veel onderwijsmensen die dit gaan horen, die weten dat wel denk ik.

113
00:05:06,720 --> 00:05:07,780
De tips zijn tops, ja.

114
00:05:07,780 --> 00:05:08,520
Jullie lekker nog niet.

115
00:05:08,520 --> 00:05:11,240
Nou ja, de naam zijn we niks inderdaad.

116
00:05:11,300 --> 00:05:11,660
Oké.

117
00:05:11,660 --> 00:05:16,760
Die heeft heel veel onderzoek gedaan naar het begrijpen van feedback.

118
00:05:16,760 --> 00:05:17,860
Wat is nou handig?

119
00:05:17,860 --> 00:05:21,420
Hij heeft eigenlijk een soort drietrapsraket verzonnen met de feedbackcyclus.

120
00:05:21,420 --> 00:05:22,940
En dan begint het met een feed-up.

121
00:05:22,940 --> 00:05:25,520
Wat moet ik eigenlijk leren en doen?

122
00:05:25,520 --> 00:05:26,180
Wat is mijn doel?

123
00:05:26,180 --> 00:05:27,140
Feedback.

124
00:05:27,140 --> 00:05:29,880
Nou, als ik dan bezig ben op werk, dan krijg ik feedback.

125
00:05:29,880 --> 00:05:30,900
Dan krijg ik een top en een tip.

126
00:05:30,900 --> 00:05:33,040
Maar ik krijg een feed-forward.

127
00:05:33,040 --> 00:05:34,880
Dus een verbetersuggestie op mijn werk.

128
00:05:35,040 --> 00:05:36,320
Dus nu is mijn werk zo.

129
00:05:36,320 --> 00:05:37,900
Ik mis nog een beetje dat.

130
00:05:37,900 --> 00:05:43,220
En mijn concrete verbetervraag of suggestie zou zijn om dit en dit daarin te verbeteren in jouw beroepsproduct.

131
00:05:43,220 --> 00:05:48,920
En dan kun je misschien in die vaardigheden of competenties die je hebt, een niveautje hoger scoren.

132
00:05:48,920 --> 00:05:49,840
Om het zo even te zeggen.

133
00:05:49,840 --> 00:05:50,480
Ja.

134
00:05:50,480 --> 00:05:52,800
En daar begon dus die reis van de Feedback Companion.

135
00:05:52,800 --> 00:05:53,320
Ja.

136
00:05:53,320 --> 00:05:56,800
En die heb ik toen op die community of practice ook in de Windesheim ook laten zien.

137
00:05:56,800 --> 00:05:58,880
En op andere congressen nog.

138
00:05:58,880 --> 00:06:01,120
En dat bevalt eigenlijk heel goed bij mensen.

139
00:06:01,120 --> 00:06:04,560
En vooral bij mensen, mensen uit onderwijs die zeg maar,

140
00:06:04,560 --> 00:06:07,100
meer richting dat holistisch beoordelen gaan.

141
00:06:07,100 --> 00:06:11,060
Dus niet alleen maar van, joh, je gaat nu tien weken JavaScript leren.

142
00:06:11,060 --> 00:06:12,880
En je hebt aan het einde van de rit een tentamen.

143
00:06:12,880 --> 00:06:13,720
Je krijgt een cijfertje.

144
00:06:13,720 --> 00:06:15,180
Gelukkig.

145
00:06:15,180 --> 00:06:17,140
Ja, realiseren mensen er ook.

146
00:06:17,140 --> 00:06:19,980
Ik denk ook door AI eigenlijk dat dat eigenlijk niet meer houdbaar is.

147
00:06:19,980 --> 00:06:20,440
Ja.

148
00:06:20,440 --> 00:06:21,460
Toewerken naar een cijfertje.

149
00:06:21,460 --> 00:06:23,080
Is wel leuk om je kennis te toetsen.

150
00:06:23,080 --> 00:06:26,040
Maar om echt stevig in schoenen te staan en samen te werken.

151
00:06:26,040 --> 00:06:27,180
Mooie producten te maken.

152
00:06:27,180 --> 00:06:29,580
En jou zeg maar in het leerproces te groeien.

153
00:06:29,580 --> 00:06:31,500
Is feedback natuurlijk heel erg belangrijk.

154
00:06:32,840 --> 00:06:40,100
En eigenlijk kwam dat ook doordat ik zag in praktijk dat feedback soms met hele lange verhalen wordt gegeven door docenten.

155
00:06:40,100 --> 00:06:43,020
Of juist heel erg goed gedaan.

156
00:06:43,020 --> 00:06:43,340
Punt.

157
00:06:43,340 --> 00:06:44,000
Ja.

158
00:06:44,000 --> 00:06:46,820
Vooral doorgaan.

159
00:06:46,820 --> 00:06:48,040
Het is wel leuk om te horen natuurlijk.

160
00:06:48,040 --> 00:06:49,920
Maar dat is zo weinig informatie.

161
00:06:49,920 --> 00:06:50,380
Dat is zonde.

162
00:06:50,380 --> 00:06:50,760
Ja.

163
00:06:50,760 --> 00:06:55,280
En hoe helpt dan de Feedback Companion de mensen erbij?

164
00:06:55,280 --> 00:06:56,720
Is dat het schrijven van feedback?

165
00:06:56,720 --> 00:06:58,300
Is dat het ontvangen van feedback?

166
00:06:58,300 --> 00:07:00,460
Ja, beiden eigenlijk.

167
00:07:00,460 --> 00:07:03,800
En we gaan het straks hebben over de AI-geletterdheid volgens mij.

168
00:07:03,800 --> 00:07:05,880
Maar hier heb ik het over de feedback-geletterdheid.

169
00:07:05,880 --> 00:07:08,960
En dan gaat het over het niet alleen het schriftelijke schrijven van feedback.

170
00:07:08,960 --> 00:07:09,920
Tuurlijk is dat ook belangrijk.

171
00:07:09,920 --> 00:07:13,580
Want vaak als een student wat inlevert dan geef je daar feedback op als je het gaat nakijken.

172
00:07:14,220 --> 00:07:16,080
Maar ook in dialoog.

173
00:07:16,080 --> 00:07:20,260
Als je dan door de Feedback Companion bijvoorbeeld de feedback terugkrijgt.

174
00:07:20,260 --> 00:07:22,320
Dan krijg je het altijd netjes in een drietrapsraket.

175
00:07:22,320 --> 00:07:23,120
Wat we net zeiden.

176
00:07:23,120 --> 00:07:24,580
Top, tip, verbetensuggestie.

177
00:07:24,580 --> 00:07:29,000
En als je daar competenties of vaardigheden inmikt van je eigen opleiding.

178
00:07:29,000 --> 00:07:33,240
En daarna dus feedback vraagt op bepaalde specifieke leeruitkomsten of vaardigheden.

179
00:07:33,240 --> 00:07:34,360
Van een beroepsproduct.

180
00:07:34,360 --> 00:07:35,400
Van een student bijvoorbeeld.

181
00:07:35,400 --> 00:07:39,300
Ja, dan komt dus iedere keer diezelfde soorten feedback terug.

182
00:07:39,300 --> 00:07:41,960
En dan kun je van allerlei dingen tweaken.

183
00:07:41,960 --> 00:07:43,880
Misschien voor de mensen die wat diep in de AI zitten.

184
00:07:43,980 --> 00:07:46,220
De temperature kun je wat lager instellen.

185
00:07:46,220 --> 00:07:51,940
En dat betekent dat de bot minder gaat hallucineren of minder creatief mag zijn.

186
00:07:51,940 --> 00:07:52,780
En meer to the point.

187
00:07:52,780 --> 00:07:55,800
En dat is wel iets wat in de Feedback Companion ook is ingesteld.

188
00:07:55,800 --> 00:07:57,740
Dat je niet van allerlei dingen gaat verzinnen iedere keer.

189
00:07:57,740 --> 00:08:04,820
Maar even dat vingerwerk voor de 90% wel consistent terugkomt met dezelfde feedback.

190
00:08:05,560 --> 00:08:14,300
Ja, dus je hebt een bot gemaakt die helemaal de feedback geeft op basis van de input die die krijgt.

191
00:08:14,740 --> 00:08:16,160
Dat is het verhaal.

192
00:08:16,160 --> 00:08:16,600
Ja.

193
00:08:16,600 --> 00:08:17,960
En dat begon bij ChatGPT.

194
00:08:17,960 --> 00:08:18,480
Ja.

195
00:08:18,480 --> 00:08:21,540
Maar OV sinds augustus.

196
00:08:21,540 --> 00:08:22,260
Nee, wat zeg ik?

197
00:08:22,260 --> 00:08:22,940
Ja, augustus.

198
00:08:22,940 --> 00:08:23,100
Ja.

199
00:08:23,260 --> 00:08:25,960
2024 is natuurlijk de AI act van kracht.

200
00:08:25,960 --> 00:08:26,340
Ja.

201
00:08:27,540 --> 00:08:29,920
Nou, toen was mijn kamer in één keer een rommeltje.

202
00:08:29,920 --> 00:08:33,059
Want toen moest je aan allerlei regels en kaders voldoen.

203
00:08:33,059 --> 00:08:35,340
Daar wordt steeds strenger op toegezien.

204
00:08:35,340 --> 00:08:41,299
Sterker nog, vanaf 2 februari afgelopen zondag wordt er ook op toegezien.

205
00:08:41,299 --> 00:08:43,659
Dan worden echt AI tools verboden.

206
00:08:43,900 --> 00:08:47,820
Die werken met emotieherkenning of beoordelingssystemen.

207
00:08:47,820 --> 00:08:50,260
En over dat laatste beoordelingssysteem.

208
00:08:50,260 --> 00:08:52,320
Kijk, de Feedback Companion is geen beoordelingssysteem.

209
00:08:52,320 --> 00:08:55,920
Dat is echt voor het, dat noemen we het onderwijsland, formatieve proces.

210
00:08:55,920 --> 00:08:59,420
Ja, dus je vormt jezelf, je hoort beter, je leert proces.

211
00:08:59,420 --> 00:09:00,680
Daar is het op gericht.

212
00:09:00,680 --> 00:09:01,020
Ja.

213
00:09:01,020 --> 00:09:04,240
En dan zegt de AI act ook nog van, nou, er zijn een aantal tools verboden.

214
00:09:04,240 --> 00:09:07,420
Maar dan zegt de AI act ook nog van, ja, er zijn ook een hoog risico.

215
00:09:07,420 --> 00:09:10,980
Mogelijkheid in applicaties van AI tools of laag risico.

216
00:09:11,760 --> 00:09:13,940
En gelukkig, de Rijksoverheid is ook wakker geworden.

217
00:09:13,940 --> 00:09:15,120
Die heeft een tool uitgebracht.

218
00:09:15,120 --> 00:09:18,460
Dat je heel eenvoudig met een paar stappen, zo'n soort wizard online,

219
00:09:18,460 --> 00:09:22,780
kan bepalen of jouw tool hoog risico is of laag risico.

220
00:09:22,780 --> 00:09:26,880
En natuurlijk heb ik gecheckt of de Feedback Companion hoog of laag is.

221
00:09:26,880 --> 00:09:28,160
En wat dachten jullie?

222
00:09:28,160 --> 00:09:33,400
Ja, ik zou zeggen hoog.

223
00:09:33,400 --> 00:09:38,280
Want dat beïnvloedt misschien wel de ontwikkelproces van mensen als dat foutief gaat.

224
00:09:38,280 --> 00:09:40,640
En jij? Wat denk jij?

225
00:09:40,640 --> 00:09:46,000
Nou, ik denk dat het nog niet eens laag...

226
00:09:46,000 --> 00:09:50,620
Eigenlijk is laag risico betekend dat de AI act eigenlijk helemaal niet van toepassing is.

227
00:09:50,620 --> 00:09:55,460
En daar zit nog, ik ben even de term kwijt die zij gebruiken.

228
00:09:55,460 --> 00:10:00,200
Maar daar zit je in, in de laagste risicoklasse voor de AI act.

229
00:10:00,200 --> 00:10:01,420
Ja, klopt.

230
00:10:01,420 --> 00:10:02,700
Dus laag risico, toch?

231
00:10:02,700 --> 00:10:03,760
Jij zei net hoog.

232
00:10:03,760 --> 00:10:04,980
En vanwaar dacht jij hoog?

233
00:10:04,980 --> 00:10:06,620
Nou, vooral de impact die het kan hebben.

234
00:10:07,620 --> 00:10:10,960
We hebben het vaker hierover gehad, dus ik zeg hem ook expres even hoog.

235
00:10:10,960 --> 00:10:13,720
Maar het is met name ook hoe je hem inzet.

236
00:10:13,720 --> 00:10:18,500
Want als hij in je primaire proces gaat komen en er niemand tussen gaat zitten, zou het naar hoog toe kunnen gaan.

237
00:10:18,500 --> 00:10:20,280
En daar ben ik wel benieuwd, hoe ga je dat voorkomen?

238
00:10:20,280 --> 00:10:21,660
Heel mooi gezegd.

239
00:10:21,660 --> 00:10:25,520
Kijk, de AI act zegt ook van ja, je moet transparant zijn in je gebruik.

240
00:10:25,920 --> 00:10:32,080
Dus als ik de Feedback Companion gebruik of ik heb feedbackteksten gemaakt met de Feedback Companion, dan zeg ik dat ook tegen de studenten.

241
00:10:32,080 --> 00:10:32,400
Ja.

242
00:10:32,400 --> 00:10:34,740
Andersom doen ze natuurlijk net zo hard.

243
00:10:34,740 --> 00:10:39,120
En dan zitten ze, bijvoorbeeld een jaar geleden zaten ze in ChatGPT bijvoorbeeld te mieren.

244
00:10:39,120 --> 00:10:44,520
Maar wij proberen ze nu bijvoorbeeld bij Open-ICT, waar ik werk als docent, bij de Hogeschool Utrecht.

245
00:10:44,520 --> 00:10:47,980
Daar proberen we het ook echt mee te experimenteren bij jaar twee studenten.

246
00:10:47,980 --> 00:10:51,760
Dat zij de veilige versie van de Feedback Companion gaan gebruiken.

247
00:10:51,760 --> 00:10:53,360
En wat is dan de veilige versie?

248
00:10:53,360 --> 00:10:57,520
Ja, je hebt natuurlijk Donald Trump, Amerika, OpenAI.

249
00:10:57,520 --> 00:11:05,320
Dus als studenten daar hun studentenwerk uploaden, dan hebben we het nog niet eens over AVG en persoonsgegevens.

250
00:11:05,320 --> 00:11:08,100
Want daar proberen ze ook natuurlijk over na te laten denken.

251
00:11:08,100 --> 00:11:11,320
Hé, let op, je bent wel 18 plus, maar je gooit wel je data ergens op straat.

252
00:11:11,320 --> 00:11:13,160
En dat gaat naar Amerika toe, die data.

253
00:11:13,160 --> 00:11:15,940
Maar wat hebben we nu gedaan met de Feedback Companion?

254
00:11:15,940 --> 00:11:20,920
Binnen de Hoogste Utrecht zijn we nu akkoord om de Feedback Companion te gebruiken.

255
00:11:22,020 --> 00:11:25,900
En dan is het GPT-VO-model, dat wordt een beetje technisch hoor.

256
00:11:25,900 --> 00:11:27,060
Ja, dat geeft niet.

257
00:11:27,060 --> 00:11:27,980
Ja, zeker.

258
00:11:27,980 --> 00:11:35,680
Het GPT-VO, het taalmodel wat eigenlijk ook op OpenAI draait, chatgpt.com, waar toch 85% of zo van de studenten hun hand omhoog hebben.

259
00:11:35,680 --> 00:11:36,920
Ze hebben ook ook helemaal betaald op het moment.

260
00:11:36,920 --> 00:11:38,120
Schrokken we ook van hè.

261
00:11:38,120 --> 00:11:41,020
Maar dan proberen we terug te gaan naar Microsoft Azure.

262
00:11:41,020 --> 00:11:43,880
En Microsoft Azure natuurlijk heeft een groot belang bij OpenAI.

263
00:11:43,880 --> 00:11:45,580
Ongeveer 49% dacht ik.

264
00:11:46,500 --> 00:11:47,960
Ja, in ieder geval, ze zitten er voorzien.

265
00:11:47,960 --> 00:11:49,400
Ze zitten er voorzien, zeker.

266
00:11:49,400 --> 00:11:50,920
Dat geeft hem wel de mogelijkheid.

267
00:11:50,920 --> 00:11:52,880
Dat is wel een beetje gemeen van OpenAI.

268
00:11:52,880 --> 00:12:00,840
Maar goed, om het GPT-VO-model een versie eerder, altijd, ze lopen altijd een versie achter, maar wel in de Microsoft Azure cloud omgeving te zetten.

269
00:12:00,840 --> 00:12:01,160
Ja.

270
00:12:01,540 --> 00:12:02,300
En wat heb ik gedaan?

271
00:12:02,300 --> 00:12:07,560
Ik heb in de Microsoft Azure, heb ik in de EU een server aangemaakt.

272
00:12:07,560 --> 00:12:08,700
Vond het wel grappig.

273
00:12:08,700 --> 00:12:10,740
Eén van mijn favoriete vakantielanden in Zweden.

274
00:12:10,740 --> 00:12:18,400
Daar draait dus het GPT-VO taalmodel, wat OpenAI ook gebruikt door hun op een Amerikaanse server.

275
00:12:18,400 --> 00:12:20,560
Maar daar krijg je dus daar toegang toe.

276
00:12:20,560 --> 00:12:26,560
En dan krijg je dus een API-sleutel, een endpoint en een deploymentnaam.

277
00:12:26,560 --> 00:12:31,740
Die drie dingen heb je nodig om je webapplicatie, die ik dan met Bolt.new heb gemaakt.

278
00:12:31,740 --> 00:12:33,440
Kijk het mensen, check het uit.

279
00:12:33,440 --> 00:12:36,080
Bolt.new kun je met simpele prompting websites maken.

280
00:12:36,080 --> 00:12:38,280
Maar die feedback op een heb ik daarmee gemaakt.

281
00:12:38,280 --> 00:12:46,700
En als je dan die drie gegevens van Azure hebt en je voert dat in, dan maak je dus verbinding via de Europese Unie server, dus in Zweden.

282
00:12:46,700 --> 00:12:55,980
Dat betekent dus voor de AVG, dat is ook belangrijk, als je dan data daar toch inzet, dan blijft het wel binnen de Europese Unie.

283
00:12:55,980 --> 00:12:57,540
Hoe vet is dat?

284
00:12:57,540 --> 00:12:58,120
Precies.

285
00:12:58,120 --> 00:12:59,600
En dat snap ik dus ook niet meer.

286
00:12:59,600 --> 00:13:04,740
Kijk, mensen zijn dan alsnog, ik zit bijvoorbeeld in de edu-ai.nl, WhatsApp community.

287
00:13:04,740 --> 00:13:08,920
Er zitten 1200 docenten, beleidsmakers en managers.

288
00:13:08,920 --> 00:13:13,500
En die krabben dan ook nog wel achter de oren, want die zijn dan super, super, super voorzichtig, kritisch.

289
00:13:13,500 --> 00:13:17,420
Dus ik zou ook niet weten, dat zeg ik ook in mijn kennisclips op onderwijsorakel.nl,

290
00:13:17,420 --> 00:13:20,060
hoe kun je het dan nog netter maken?

291
00:13:20,060 --> 00:13:25,900
Ik snap ook wel hun zorg, weet je, want dat is natuurlijk eng en ook niet zichtbaar wat er in de cloud gebeurt.

292
00:13:25,900 --> 00:13:28,760
En misschien dat we het onderwerp nog aansnijden.

293
00:13:28,760 --> 00:13:31,520
Lokale AI is natuurlijk ook eventueel een pad wat je kan bewandelen.

294
00:13:31,520 --> 00:13:39,400
Het gekke is, als we toch nog even hierbij blijven, is dat deze hele stap van je applicaties in de cloud zetten,

295
00:13:39,960 --> 00:13:42,180
hadden we eigenlijk al genomen.

296
00:13:42,180 --> 00:13:48,460
En het is niet heel veel anders dan dat waar je je data neerzet.

297
00:13:48,460 --> 00:13:49,020
Inderdaad.

298
00:13:49,020 --> 00:13:54,960
En of je dat nou zeg maar aanbiedt aan een taalmodel of dat je dat aanbiedt aan een database,

299
00:13:54,960 --> 00:13:57,520
is uiteindelijk niet zo heel veel anders.

300
00:13:58,300 --> 00:14:03,560
Mits inderdaad dat model wat jij zegt in Zweden draait.

301
00:14:03,560 --> 00:14:11,600
Dus er is in die zin zit daar niks anders, maar op de ene of andere manier als het dan om AI gaat,

302
00:14:11,600 --> 00:14:13,300
vinden we het in een keer heel eng.

303
00:14:13,300 --> 00:14:17,160
Ja, ik zeg het ook tijdens mijn workshop of training, of als ik ergens op een congres sta.

304
00:14:17,160 --> 00:14:21,480
Maar het is ook zo dat wij bijvoorbeeld je telefoon, Apple waarschijnlijk.

305
00:14:21,480 --> 00:14:22,080
Hebben jullie een Apple?

306
00:14:22,080 --> 00:14:22,540
Ja.

307
00:14:22,760 --> 00:14:22,900
Nee.

308
00:14:22,900 --> 00:14:23,340
Oh.

309
00:14:23,340 --> 00:14:25,760
Kan je nou ruzie maken?

310
00:14:25,760 --> 00:14:26,760
Nee hoor, zeker niet.

311
00:14:26,760 --> 00:14:27,060
Nee hoor.

312
00:14:27,060 --> 00:14:27,780
Oké.

313
00:14:27,780 --> 00:14:30,140
Kijk, Apple of Android, maakt niet uit.

314
00:14:30,140 --> 00:14:32,760
In ieder geval kun je Google foto's uploaden in de cloud.

315
00:14:32,760 --> 00:14:33,860
Ik ook.

316
00:14:33,860 --> 00:14:34,360
Ik doe niet anders.

317
00:14:34,360 --> 00:14:37,040
Ik doe al 15 jaar lang, zet ik alles in de iCloud.

318
00:14:37,040 --> 00:14:40,600
En dat is heel fijn, want dan kan mijn vrouw erbij, dan kan ik mensen uitnodigen.

319
00:14:40,600 --> 00:14:45,520
En straks, als mijn zoon en dochter oud genoeg zijn, kunnen ze ook hun foto's uploaden enzovoort.

320
00:14:45,520 --> 00:14:48,160
Dus ja, je hebt gelijk.

321
00:14:48,160 --> 00:14:51,080
Wij doen niet anders dan met cloud werken.

322
00:14:51,840 --> 00:15:03,680
Alleen door de AI en doordat er toch, ja, bijvoorbeeld twee jaar geleden, ChatGPT 3.5, gingen mensen artikelen ook schrijven en helemaal testen dat dat ding kan hallucineren.

323
00:15:03,680 --> 00:15:06,440
En dat het voor ongelijkheid kan zorgen.

324
00:15:06,440 --> 00:15:11,100
En dat het dingen kan zeggen dat hij met je mee lult, om het zo even te zeggen.

325
00:15:11,100 --> 00:15:12,560
Piep, misschien even, ja.

326
00:15:12,560 --> 00:15:13,460
Oké, maakt niet uit.

327
00:15:13,800 --> 00:15:18,580
Maar in ieder geval, daar zijn mensen toch wat kritisch over gaan denken.

328
00:15:18,580 --> 00:15:22,660
Van ja, maar wacht even, dat taalmodel kan een eigen willetje hebben of kan anders reageren.

329
00:15:22,660 --> 00:15:24,800
Dus ik denk dat daar toch een verschil zit.

330
00:15:24,800 --> 00:15:27,280
Dat daar meer zorg op is.

331
00:15:27,280 --> 00:15:28,360
Ja, een stukje consistentie.

332
00:15:28,360 --> 00:15:29,860
Maar Jop, er is wel eens wat je zegt.

333
00:15:29,860 --> 00:15:31,280
Het is ook dataprocessing.

334
00:15:31,280 --> 00:15:34,180
En dat vindt in een AI ook dataprocessing plaatsen.

335
00:15:34,200 --> 00:15:35,180
Ja, daar ging het me om.

336
00:15:35,180 --> 00:15:38,400
Van waar je data terechtkomt, dat is geen enkel probleem.

337
00:15:38,400 --> 00:15:44,400
Dat je te maken hebt met wat jij net allemaal aangeeft, zeg maar, de nadelen van het taalmodel.

338
00:15:44,400 --> 00:15:45,600
Dat je daarover na moet denken.

339
00:15:45,600 --> 00:15:51,720
Dat lijkt me logisch, maar dat heeft in principe niks te maken met waar je je data neerzet of waar je de data aanbiedt.

340
00:15:51,720 --> 00:15:58,400
Nee, maar het is wel belangrijk om, als je dat toch gaat invoeren, bijvoorbeeld in onderwijs of in je bedrijf.

341
00:15:58,400 --> 00:16:02,900
Dan is het wel belangrijk om toch een soort dialogische component in te bouwen.

342
00:16:03,560 --> 00:16:04,600
Als je dat al niet hebt.

343
00:16:04,600 --> 00:16:10,720
Kijk, en bij Open ICT hebben we het geluk dat wij om de week de student ook één op één spreken als coach.

344
00:16:10,720 --> 00:16:12,580
Dus we noemen ons niet zozeer docenten.

345
00:16:12,580 --> 00:16:14,160
Doseren betekent ook eigenlijk zenden.

346
00:16:14,160 --> 00:16:18,360
Maar we zijn vooral bezig met korte instructies en de student coachen.

347
00:16:18,360 --> 00:16:23,520
Terug naar dat dialogische component, dat dialogische onderwijs.

348
00:16:23,520 --> 00:16:24,500
Dat is wel belangrijk.

349
00:16:24,500 --> 00:16:29,180
Want als je met AI-tools gaat werken en de student gelooft alles wat eruit komt.

350
00:16:29,180 --> 00:16:32,780
En gaat daardoor, en er zijn ook steeds meer onderzoeken naar,

351
00:16:32,920 --> 00:16:35,320
misschien minder kritisch denken.

352
00:16:35,320 --> 00:16:38,460
Ja, en soms zegt onderzoek, ja dat klopt.

353
00:16:38,460 --> 00:16:39,400
Ze gaan minder kritisch denken.

354
00:16:39,400 --> 00:16:42,220
En andere onderzoeken zeggen weer van, ja dat is juist niet zo.

355
00:16:42,220 --> 00:16:45,420
Maar dat hangt dus af van de begeleiding die de student ook daarin krijgt.

356
00:16:46,340 --> 00:16:47,900
En wat maakt dan het verschil?

357
00:16:47,900 --> 00:16:51,980
Nou het verschil met als je wel dialogisch gaat werken.

358
00:16:51,980 --> 00:16:55,320
Dus dat betekent echt één op één gesprekken, in kleine groepjes coachen.

359
00:16:55,320 --> 00:16:58,480
Ook in het bedrijfsleven dat je wat vaker gewoon erover hebt.

360
00:16:58,480 --> 00:17:00,380
Hé, wat heb je vandaag met AI gedaan?

361
00:17:00,380 --> 00:17:01,640
Gewoon alleen dat gesprek al.

362
00:17:01,640 --> 00:17:04,740
En je hebt het over de output wat eruit komt.

363
00:17:05,540 --> 00:17:07,040
Kijk, dan ben je er zelf natuurlijk als mens ook bij.

364
00:17:07,040 --> 00:17:11,579
Dat je geen gekke Henkie bent of Ingrid en dat je alles gaat geloven wat eruit komt.

365
00:17:11,579 --> 00:17:13,560
Maar dat je zelf ook de kritische blik erop hebt.

366
00:17:14,940 --> 00:17:18,660
En in het dialoog zorg je ervoor dat je elkaar even challenged.

367
00:17:18,660 --> 00:17:22,760
Dat je toch niet in de valkuil stapt om het kritisch denken te skippen.

368
00:17:22,760 --> 00:17:24,380
Ja, precies dat.

369
00:17:24,380 --> 00:17:28,300
Kijk, en de Feedback Companion, om even daarnaar te refereren als voorbeeld.

370
00:17:28,300 --> 00:17:30,660
We hebben het in de gesprekken ook over.

371
00:17:30,660 --> 00:17:34,020
En dan gaan we ook met die experimenten nog meemaken met die jaar twee studenten.

372
00:17:34,020 --> 00:17:35,220
We hebben het over de output.

373
00:17:35,220 --> 00:17:37,260
Dus dan gaan we gewoon vragen.

374
00:17:37,260 --> 00:17:40,600
Hoe vaak heb je de afgelopen twee weken feedback gevraagd aan de Feedback Companion?

375
00:17:40,600 --> 00:17:42,400
Nou, zo en zo.

376
00:17:42,400 --> 00:17:43,740
Oh ja, geloof je wat daar staat?

377
00:17:43,960 --> 00:17:45,340
Oké, wat zijn je acties geweest?

378
00:17:45,340 --> 00:17:48,660
Kijk, als een student alleen maar feedback heeft gevraagd.

379
00:17:48,660 --> 00:17:50,060
Bijvoorbeeld aan een AI-assistent.

380
00:17:50,060 --> 00:17:51,160
Zoals de Feedback Companion.

381
00:17:51,160 --> 00:17:53,940
Maar de student heeft wel enorm goed gepresteerd.

382
00:17:53,940 --> 00:17:56,080
Ik zou dan zeggen, nou dat is ook goed.

383
00:17:56,080 --> 00:17:58,520
Maar ja, aan de andere kant.

384
00:17:58,520 --> 00:18:02,860
Als een student moeite heeft om bijvoorbeeld, bij ons heet dat een vaardigheid boodschap te leren.

385
00:18:02,860 --> 00:18:04,140
Met presenteren.

386
00:18:04,140 --> 00:18:07,420
En blijft een beetje hangen in dat AI-wereldje.

387
00:18:07,420 --> 00:18:09,540
Ja, dan is het misschien anders.

388
00:18:09,540 --> 00:18:11,640
Dan kun je misschien de student meer coachen.

389
00:18:11,780 --> 00:18:14,940
Dat die meer richting die menselijke interactie gaat.

390
00:18:14,940 --> 00:18:17,580
Dus dat is heel erg individueel.

391
00:18:17,580 --> 00:18:21,260
Maar ook heel erg, ja, je moet gewoon heel gevoelspriet ook een beetje hebben.

392
00:18:21,260 --> 00:18:23,640
En als je die logische component weghaalt.

393
00:18:23,640 --> 00:18:27,740
Ja, dan heb je daar toch minder sturing op, denk ik.

394
00:18:27,740 --> 00:18:28,060
Ja.

395
00:18:28,060 --> 00:18:28,580
Ja.

396
00:18:29,480 --> 00:18:36,380
Een vraag die bij mij nog wel leeft is, waren er niet al andere tools die die feedback ondersteunden?

397
00:18:36,380 --> 00:18:40,320
En wat is de enabler die AI daarin de verandering heeft gebracht?

398
00:18:40,320 --> 00:18:48,820
Ja, ik denk vooral, kijk bij ons, bij Open ICT heeft een collega ook een onderzoek gedaan naar de feedback consistentie.

399
00:18:49,380 --> 00:18:52,500
En dat was nog een beetje pre-tijdperk Gen AI.

400
00:18:52,500 --> 00:18:57,760
Maar het bleek ook dat er, de ene docent maakte wat langere teksten, de andere wat kleiner, wat ik aan het begin zei.

401
00:18:57,760 --> 00:19:00,840
En wat maakt een taalmodel daarin anders?

402
00:19:00,840 --> 00:19:02,240
Ja, ik zeg het eigenlijk al, een taalmodel.

403
00:19:02,240 --> 00:19:07,060
Een taalmodel kan heel goed eigenlijk slim taal teruggeven.

404
00:19:08,060 --> 00:19:13,200
Maar op de voorkant, voordat input wordt gegeven, moet die prompting ook goed zijn.

405
00:19:13,200 --> 00:19:14,160
Dus dat is wel een voorwaarde.

406
00:19:14,160 --> 00:19:16,540
Dus zo'n Feedback Companion is niet uit de lucht komen vallen.

407
00:19:16,540 --> 00:19:22,880
Er is ook twee jaar geleden al met wat slimme prompting is dat in elkaar gezet, veel getest en steeds beter geworden.

408
00:19:22,880 --> 00:19:31,040
Ik wist aan het begin ook niet dat het hielp om in zo'n prompt specifieke voorbeelden, goede voorbeelden en minder goede voorbeelden erin te zetten.

409
00:19:31,040 --> 00:19:34,260
Zodat dat taalmodel meer gericht kan reageren.

410
00:19:35,060 --> 00:19:39,420
Dus ik denk, doordat een taalmodel erbij is gekomen, heeft dat echt die verandering gebracht.

411
00:19:39,420 --> 00:19:43,460
Oké, en dat is dan de verandering in consistentie, als ik je dan hoor zeggen.

412
00:19:43,460 --> 00:19:50,900
Maar ook personalisatie voor, ik heb liever kortingen bondig, dan anderen hebben misschien lang en langdradigheid nodig.

413
00:19:50,900 --> 00:19:52,020
Ja, lang en langdradigheid.

414
00:19:52,020 --> 00:19:54,440
Als je lang en langdradig in je prompt hebt.

415
00:19:54,440 --> 00:19:57,340
Ja, maar dat kun je wel instellen.

416
00:19:57,340 --> 00:19:59,260
En dat heeft dan het kopje tone of voice.

417
00:19:59,260 --> 00:20:03,320
En dan kun je ook zeggen, je moet me lekker bij iedere zin motiveren.

418
00:20:03,700 --> 00:20:06,680
Ik wil graag een vee in de kont en ik wil verder.

419
00:20:06,680 --> 00:20:11,220
Of, ja, ik wil juist dat je heel kritisch bent en juist heel streng tegen mij.

420
00:20:11,220 --> 00:20:16,840
Dat is wel grappig, want als coach voel je ook een beetje aan of vraag je op een gegeven moment naar de student, welke stijl vind jij prettig?

421
00:20:16,840 --> 00:20:18,300
Wat kan ik bij jou het beste doen?

422
00:20:18,300 --> 00:20:22,840
Nou, de een wil inderdaad meer een schoppen in de kont en de ander wil meer toch het luisterende oor.

423
00:20:22,840 --> 00:20:23,760
Ja.

424
00:20:23,760 --> 00:20:33,320
En je had het over eigenlijk een soort van reizen van waar je begon tot die verfijning waar je nu bent gekomen.

425
00:20:33,320 --> 00:20:37,800
En daarin zei je net van, ik geef goede en slechte voorbeelden.

426
00:20:37,800 --> 00:20:39,560
Waar helpen de slechte voorbeelden bij?

427
00:20:39,560 --> 00:20:42,680
Nou, juist bij weer een betere output.

428
00:20:43,480 --> 00:20:48,600
Dus het taalmodel, de GPT-VO dan in dit geval, die checkt dan die voorbeelden.

429
00:20:48,600 --> 00:20:52,180
En die weet dan ook, zeg je letterlijk bij, nou dit zijn de minder goede voorbeelden.

430
00:20:52,180 --> 00:20:57,400
En dan probeert hij juist die voorbeelden die niet goed zijn niet aan te houden.

431
00:20:57,660 --> 00:20:59,660
En dan checkt hij juist ook de goede voorbeelden.

432
00:20:59,660 --> 00:21:02,900
Dus zo stuur je toch een beetje zo'n taalmodel met slimme prompting.

433
00:21:02,900 --> 00:21:04,640
Prompt engineering komt even heel mooi te zeggen.

434
00:21:04,640 --> 00:21:07,260
En hoe hebben jullie dit nou getest?

435
00:21:07,260 --> 00:21:08,680
Dus je begon ergens.

436
00:21:08,680 --> 00:21:09,220
Ja.

437
00:21:09,220 --> 00:21:13,000
Hoe wist je op een gegeven moment van, dit kunnen we gebruiken?

438
00:21:13,000 --> 00:21:14,000
Dit is bruikbaar.

439
00:21:14,000 --> 00:21:17,740
Ja, eigenlijk al twee jaar terug.

440
00:21:17,740 --> 00:21:20,700
En een jaar geleden ook met mijn collega Dan Geven.

441
00:21:20,700 --> 00:21:23,200
Die is er ook heel erg in verdiept met mij bij Open-ICT werkt.

442
00:21:23,200 --> 00:21:24,160
Die ook samen met mij.

443
00:21:24,160 --> 00:21:27,640
Hij heeft ook ergens een externe cursus gevolgd.

444
00:21:28,500 --> 00:21:30,020
Nou nee, moet ik zeggen, interne cursus.

445
00:21:30,020 --> 00:21:31,920
We hebben ook heel mooi bij de Hogeschool Utrecht.

446
00:21:31,920 --> 00:21:33,980
Dat mag ik ook even trots noemen, het AI Proeflokaal.

447
00:21:33,980 --> 00:21:36,160
Dat zijn twee enthousiaste mensen.

448
00:21:36,160 --> 00:21:37,660
Han Prüst en Wiemer Kuik.

449
00:21:37,660 --> 00:21:40,880
En ook mede opgericht door Gert van Harderveld.

450
00:21:40,880 --> 00:21:42,180
Dat is mijn leidinggevende bij OpenICT.

451
00:21:42,180 --> 00:21:45,380
Dat zijn allemaal van die koplopers binnen de Hogeschool Utrecht.

452
00:21:45,380 --> 00:21:47,000
Die een plekje gunden.

453
00:21:47,000 --> 00:21:49,620
Voor mensen die wat meer wilden experimenteren.

454
00:21:49,620 --> 00:21:50,980
Daar is Dan Geven langs geweest.

455
00:21:50,980 --> 00:21:52,680
En ik heb weer van mijn collega Dan geleerd.

456
00:21:52,680 --> 00:21:54,100
En we hebben die prompting verfijnd.

457
00:21:54,100 --> 00:21:56,540
En dat gebeurde ongeveer anderhalf jaar geleden, twee jaar geleden al.

458
00:21:57,020 --> 00:21:58,200
Maar in kleine experimenten.

459
00:21:58,200 --> 00:22:01,660
En ook met studenten samen experimenteren.

460
00:22:01,660 --> 00:22:04,880
Bij Open-ICT heb ik ook een werkgroep opgericht.

461
00:22:04,880 --> 00:22:06,420
Die heet ook Letterlijk Feedback Companion.

462
00:22:06,420 --> 00:22:10,060
En nou goed, we hebben wat subsidie toegekend gekregen.

463
00:22:10,060 --> 00:22:12,860
Van de instantie in de HU, samen digitaal.

464
00:22:12,860 --> 00:22:13,800
Dus dat kunnen we ook weer verder.

465
00:22:14,120 --> 00:22:17,280
En dan ga ik ook een AI e-learning ontwikkelen.

466
00:22:17,280 --> 00:22:19,280
Voor docenten bij de Hogeschool Utrecht.

467
00:22:19,280 --> 00:22:21,200
Om meer AI-geletterd te worden.

468
00:22:21,200 --> 00:22:21,680
Ja.

469
00:22:21,680 --> 00:22:23,860
Maar toch nog even terug over dat.

470
00:22:23,860 --> 00:22:28,200
Want weet je, het is nooit in het begin goed.

471
00:22:28,200 --> 00:22:28,640
Nee.

472
00:22:29,040 --> 00:22:33,680
De eerste keer heb je niet de resultaten die je hoopte.

473
00:22:33,680 --> 00:22:34,180
Nee.

474
00:22:35,120 --> 00:22:40,680
Hoe zijn jullie er, zeg maar, gekomen tot, zeg maar, het eerste soort van proof of concept.

475
00:22:40,680 --> 00:22:44,380
Totdat je zegt van, ja, maar nu is het ook wel rijp om in productie te nemen.

476
00:22:44,380 --> 00:22:45,440
Want wat is het dan uiteindelijk?

477
00:22:45,440 --> 00:22:45,900
Ja.

478
00:22:46,680 --> 00:22:51,260
Ja, wat ik zei, het begon dus die 2,5, 3 jaar geleden bij studenten, bij de associate's

479
00:22:51,260 --> 00:22:51,880
die ik eigenlijk al.

480
00:22:51,880 --> 00:22:56,860
Nou, toen ik naar Open ICT ging, dat was even kijken, 2 jaar terug ongeveer.

481
00:22:56,860 --> 00:22:59,240
Nou, dat pakketje meegenomen, die kennis.

482
00:22:59,240 --> 00:23:02,120
En op een gegeven moment raakte ik in gesprek bij koffieapparaat.

483
00:23:02,120 --> 00:23:02,560
Ja, maar niet.

484
00:23:02,560 --> 00:23:04,840
De beste ideeën ontstaan daar volgens mij.

485
00:23:04,840 --> 00:23:08,280
Bij mijn collega, dan Geve, dan die ik net noemde.

486
00:23:08,280 --> 00:23:11,080
Ja, toen zijn we eigenlijk gaan kijken.

487
00:23:11,080 --> 00:23:15,400
Ik had toen dan een MyGPT gemaakt, met het betaald abonnement van ChatGPT.

488
00:23:15,620 --> 00:23:19,040
Daar heb ik eigenlijk gewoon wat zinnen neergezet met prompting.

489
00:23:19,040 --> 00:23:21,280
Ik was toen helemaal nog niet van het promptengineering.

490
00:23:21,280 --> 00:23:25,680
Nou, Dan had het AI-proeflokaal in de smisse en dacht ik van, daar ga ik heen.

491
00:23:25,680 --> 00:23:27,740
En zo is dat ontstaan.

492
00:23:27,740 --> 00:23:31,800
Hij heeft zelf ook een Feedback Companion versie gemaakt als prototype.

493
00:23:31,800 --> 00:23:33,560
En we hebben dat samen getest.

494
00:23:33,560 --> 00:23:38,420
Dus we hebben daar de leeruitkomsten ingegooid, de vaardigheden en beroepstaken van OPST.

495
00:23:38,420 --> 00:23:42,360
En ook John had die onderzoek erin geknald.

496
00:23:42,360 --> 00:23:45,260
De voorbeelden van goed of niet goed.

497
00:23:45,560 --> 00:23:45,800
Ja.

498
00:23:45,800 --> 00:23:46,400
Qua feedback.

499
00:23:46,400 --> 00:23:50,500
En daarmee gingen we in een kleinere comité testen.

500
00:23:50,500 --> 00:23:56,820
En eigenlijk snel daarna, dus twee jaar geleden in mei, hebben we tijdens een meeting van OPST,

501
00:23:56,820 --> 00:24:03,620
waar alle docenten van OPST bij waren, heb ik een presentatie gemaakt en daarover gepitcht.

502
00:24:03,620 --> 00:24:04,520
Dit is te mogelijk.

503
00:24:04,520 --> 00:24:06,440
En nou, dit zit er aan te komen.

504
00:24:07,160 --> 00:24:09,920
Dus iedere keer in hele kleine stapjes is dat meer gaan groeien.

505
00:24:09,920 --> 00:24:14,680
En op een gegeven moment waren er zes docenten bij die werkgroep en gingen we steeds meer experimenteren.

506
00:24:14,680 --> 00:24:17,280
Ja, waar we het net over hadden, toen kwam die AI Act.

507
00:24:17,280 --> 00:24:19,920
En toen was het voor mij ook schakelen van Azure en alles.

508
00:24:19,920 --> 00:24:22,060
Dus ook het AI-proeflokaal gevraagd.

509
00:24:22,140 --> 00:24:24,420
Vierma Kuik is daar ook een koploper van.

510
00:24:24,420 --> 00:24:29,100
Dus ik heb constant zitten netwerken eigenlijk binnen de Hoogstel Utrecht en ook daarbuiten van,

511
00:24:29,100 --> 00:24:33,540
oké, hoe kan dat nou zo mooi mogelijk en zo goed mogelijk worden gemaakt?

512
00:24:33,540 --> 00:24:34,140
Hoi.

513
00:24:34,200 --> 00:24:34,880
Ja, dat is echt gaan groeien.

514
00:24:34,880 --> 00:24:35,280
Ja.

515
00:24:35,280 --> 00:24:36,080
Sorry.

516
00:24:36,080 --> 00:24:37,620
Dan hebben we observatie inderdaad.

517
00:24:37,620 --> 00:24:39,400
Dus techniek, die was er.

518
00:24:39,400 --> 00:24:39,780
Ja.

519
00:24:39,780 --> 00:24:43,760
Het is met name groeien, netwerken en zorgen dat het bekend wordt.

520
00:24:43,760 --> 00:24:46,880
En gaat landen binnen de organisatie en daarbuiten.

521
00:24:46,880 --> 00:24:47,280
Ja.

522
00:24:47,280 --> 00:24:51,880
Om het daadwerkelijk verder te kunnen brengen van experiment naar echt naar een productieversie.

523
00:24:51,880 --> 00:24:52,840
Absoluut.

524
00:24:52,840 --> 00:24:56,040
En daarnaast ook nog, even kijken, ongeveer een jaar geleden.

525
00:24:56,040 --> 00:24:57,780
Dat kan bijna feestje vieren trouwens.

526
00:24:57,780 --> 00:24:59,600
Heb ik onderwijs zo'n welke punten al opgericht.

527
00:24:59,600 --> 00:25:02,700
Dus ik ben door die externe contacten dacht van, ja, maar wacht even.

528
00:25:02,700 --> 00:25:04,120
Ik heb ook 15 jaar onderwijservaring.

529
00:25:04,560 --> 00:25:05,440
Ik ben lekker bezig met AI.

530
00:25:05,440 --> 00:25:09,760
Ik heb verschillende dingen die ik mee kan geven die ik in mijn rugzak heb voor andere instanties en scholen.

531
00:25:09,760 --> 00:25:12,080
En voornamelijk AI was natuurlijk een ding.

532
00:25:12,080 --> 00:25:15,580
En vandaar ook dat ik terecht ben gekomen bij Windersheim.

533
00:25:15,580 --> 00:25:16,260
Ja, precies.

534
00:25:16,260 --> 00:25:17,480
Met die community of practice.

535
00:25:17,480 --> 00:25:17,820
Ja.

536
00:25:17,820 --> 00:25:25,320
En als ik het goed begrijp, gaat het op basis van vrijwilligheid of docenten de Feedback Companion wel of niet gebruiken?

537
00:25:25,320 --> 00:25:26,560
Oh, daar zeg je iets heel moois.

538
00:25:26,560 --> 00:25:27,540
Ja, vrijwilligheid.

539
00:25:27,540 --> 00:25:29,080
Omdat mensen er enthousiast over raakten.

540
00:25:29,900 --> 00:25:31,580
Alleen het werd zo'n dermate hobby.

541
00:25:31,580 --> 00:25:35,240
Dat collega Dan en ik ook wel eens tot 's avonds later mee bezig waren.

542
00:25:35,240 --> 00:25:35,600
Oh ja.

543
00:25:35,600 --> 00:25:39,220
Dus op een gegeven moment was ook de alarmbel bij onze leidinggevende, Geert van Hardenveld.

544
00:25:39,220 --> 00:25:39,700
Ja, maar wacht even.

545
00:25:39,700 --> 00:25:42,580
Kunnen we hier iets meer mee doen?

546
00:25:43,060 --> 00:25:44,920
Dus op een gegeven moment, dan vind ik het mooie in de Open-ICT.

547
00:25:44,920 --> 00:25:48,120
Je hebt zeg maar de bezetting, je FTE's.

548
00:25:48,120 --> 00:25:52,160
Dan heb je ook nog een soort grijs gebiedje, innovatieuren.

549
00:25:52,160 --> 00:25:52,620
Ja.

550
00:25:52,620 --> 00:25:56,800
Dus wij kregen op een gegeven moment wel wat innovatieuren mee, om daar wat meer mee te doen.

551
00:25:56,800 --> 00:25:57,040
Ja.

552
00:25:57,040 --> 00:25:58,760
In overleg met onze leidinggevende.

553
00:25:58,760 --> 00:26:01,880
Nou, verder fast forward.

554
00:26:01,880 --> 00:26:06,680
Ongeveer twee maanden terug, al bezig geweest met de subsidieaanvraag.

555
00:26:07,200 --> 00:26:11,440
En daar komt Samen Digitaal weer voorbij, die interne organisatie van de Hogeschool Utrecht.

556
00:26:11,440 --> 00:26:13,960
En ik heb dan een foutje toegekend gekregen.

557
00:26:13,960 --> 00:26:20,680
Vanwege dat netwerken ook, vanwege dat aan de bel trekken, vanwege dat demonstreren ook van de praktijkvoorbeelden zoals een Feedback Companion.

558
00:26:20,680 --> 00:26:24,300
Is dat balletje best wel gaan rollen.

559
00:26:24,300 --> 00:26:25,360
Een soort sneeuwbal.

560
00:26:25,360 --> 00:26:26,640
Die grote wet.

561
00:26:26,640 --> 00:26:27,400
Ja, mooi.

562
00:26:27,400 --> 00:26:27,740
Ja.

563
00:26:27,740 --> 00:26:34,520
Maar hoe, want je zegt die docenten werden enthousiaster met het gebruik.

564
00:26:35,380 --> 00:26:38,260
Werden ze ambassadeur van je tool?

565
00:26:38,260 --> 00:26:41,320
Ja, nou, ambassadeur misschien groot woord.

566
00:26:41,320 --> 00:26:41,680
Ja.

567
00:26:41,680 --> 00:26:44,160
Maar wel echt ermee werken.

568
00:26:44,160 --> 00:26:44,540
Ja.

569
00:26:44,540 --> 00:26:46,500
En echt uitproberen.

570
00:26:46,500 --> 00:26:50,720
Zijn er docenten die zeggen van, nee, dat ga ik echt niet doen.

571
00:26:50,720 --> 00:26:51,600
Ja, zeker.

572
00:26:51,600 --> 00:26:53,680
En de baas van welke argumentatie?

573
00:26:53,680 --> 00:26:56,320
Ja, ik denk ook een stukje voorzichtigheid.

574
00:26:56,320 --> 00:27:00,720
En een stukje, ja, kijk ik werk nu vijftien in het onderwijsland.

575
00:27:00,720 --> 00:27:02,260
En ik denk overal geldt dat hoor.

576
00:27:02,360 --> 00:27:05,080
Dat je ook mensen hebt die even iets meer bedenktijd nodig hebben.

577
00:27:05,080 --> 00:27:11,460
Of even iets meer, ja, misschien een op een of kleine groepsverband mee moeten worden genomen.

578
00:27:11,460 --> 00:27:12,440
Even in het verhaal.

579
00:27:12,440 --> 00:27:15,080
Maar ook in de mogelijkheden, maar ook de kritische dingen.

580
00:27:15,080 --> 00:27:17,660
En kijk, ik ben zelf natuurlijk heel erg enthousiast.

581
00:27:17,660 --> 00:27:18,300
Wat ik zei.

582
00:27:18,300 --> 00:27:20,240
Dus een soort tot impulsitiveit aan toe.

583
00:27:20,240 --> 00:27:22,100
Maar aan de andere kant heb ik ook geleerd.

584
00:27:22,100 --> 00:27:25,280
Dat mag ook wel als ik 41 ben met hier een grijs haartje.

585
00:27:26,480 --> 00:27:28,320
Nou ja, gelukkig aan de overkant zit nog iemand een beetje dichter.

586
00:27:28,320 --> 00:27:28,640
Zeker.

587
00:27:28,640 --> 00:27:30,660
Nou, jij ook bijna hè?

588
00:27:30,660 --> 00:27:32,160
Ja, dat komt ook wel.

589
00:27:32,160 --> 00:27:32,740
Rustig maar.

590
00:27:32,740 --> 00:27:33,500
Rustig maar.

591
00:27:33,500 --> 00:27:34,000
Oké.

592
00:27:34,000 --> 00:27:38,300
Nee, maar ik heb ook geleerd om die mensen ook te bevragen.

593
00:27:38,300 --> 00:27:42,020
En ook de tijd te nemen om erbij stil te staan.

594
00:27:42,020 --> 00:27:45,800
En hun kritische mening ook mee te wegen.

595
00:27:45,800 --> 00:27:48,020
Want ja, je kunt van alles wel gaan organiseren.

596
00:27:48,680 --> 00:27:52,000
We laten het soort olievlekje groeien.

597
00:27:52,000 --> 00:27:55,200
En vandaar dat we ook een jaar twee team starten.

598
00:27:55,200 --> 00:27:56,940
Met dat experiment in het klein.

599
00:27:56,940 --> 00:27:58,880
En als dat dan succesvol is.

600
00:27:58,880 --> 00:28:01,920
En dan gaan we weer naar het hele team van Open-ICT toe.

601
00:28:01,920 --> 00:28:03,460
En misschien ook Huubreed.

602
00:28:03,460 --> 00:28:05,220
Kijk, dit is een mooie case geweest.

603
00:28:05,220 --> 00:28:07,480
De feedback-geletterdheid is misschien wel verbeterd.

604
00:28:07,480 --> 00:28:08,760
Dat is in ieder geval het doel.

605
00:28:08,760 --> 00:28:09,600
Ja, mooi.

606
00:28:09,600 --> 00:28:12,440
Mooi om te horen inderdaad hoe dat aangevlogen wordt.

607
00:28:12,440 --> 00:28:15,520
En ik ben het helemaal mee eens dat je juist ook die kritische blik nodig hebt.

608
00:28:15,520 --> 00:28:17,780
Om met elkaar in gesprek te gaan.

609
00:28:18,280 --> 00:28:19,160
En van elkaar te leren.

610
00:28:19,160 --> 00:28:20,880
Want het is altijd om kritisch te zijn.

611
00:28:20,880 --> 00:28:21,860
Maar ook om beter te worden.

612
00:28:21,860 --> 00:28:23,540
Dus je hebt alle tweede kanten nodig.

613
00:28:23,540 --> 00:28:25,040
En dat is denk ik een heel mooi brugje.

614
00:28:25,040 --> 00:28:25,760
Joop, ik zie je al.

615
00:28:25,760 --> 00:28:26,180
Zeker.

616
00:28:26,180 --> 00:28:28,860
Naar de AI Game Changer.

617
00:28:28,860 --> 00:28:32,380
Waar we graag een stelling vanuit ons stellingenspel ook aan jou willen voorleggen.

618
00:28:32,380 --> 00:28:34,380
Ja, want we hebben een kaartspel ontwikkeld.

619
00:28:34,380 --> 00:28:39,440
Juist om thema's rondom Gen AI met elkaar te bespreken.

620
00:28:39,440 --> 00:28:40,800
Oh, kijk.

621
00:28:40,800 --> 00:28:42,080
Nou, als die bevalt neem ik hem graag mee.

622
00:28:42,080 --> 00:28:44,240
Ja, je krijgt hem sowieso mee.

623
00:28:44,240 --> 00:28:47,420
En iedereen die luistert, die kan een berichtje sturen.

624
00:28:47,540 --> 00:28:48,540
Dan krijg je hem ook gratis.

625
00:28:48,540 --> 00:28:49,460
Dan krijg je hem opgestuurd.

626
00:28:49,460 --> 00:28:49,860
Awesome.

627
00:28:49,860 --> 00:28:50,220
Ja.

628
00:28:52,220 --> 00:28:54,440
AI Game Changer spelen mee.

629
00:28:54,440 --> 00:28:57,060
Leren voor elkaar en kom te vee.

630
00:28:57,060 --> 00:28:59,720
Je denkt het zal dit spel bepalen.

631
00:28:59,720 --> 00:29:02,380
Zal we AI verhalen.

632
00:29:09,220 --> 00:29:11,840
Ethiek en maatschappij is het thema.

633
00:29:11,840 --> 00:29:12,440
Oh jee.

634
00:29:12,440 --> 00:29:13,920
En de stelling luidt.

635
00:29:13,920 --> 00:29:18,640
Wij stellen interne data beschikbaar aan large language models.

636
00:29:18,640 --> 00:29:20,700
Oeh.

637
00:29:20,700 --> 00:29:23,220
Ja, dat is de stelling.

638
00:29:23,220 --> 00:29:25,700
Interne data.

639
00:29:25,700 --> 00:29:31,160
Zou jij specifieker kunnen zijn wat jij bedoelt met interne data als je onderwijscontext pakt?

640
00:29:31,400 --> 00:29:34,860
Data van de docenten, van de lessen, van de uitkomsten.

641
00:29:34,860 --> 00:29:35,380
Studenten.

642
00:29:35,380 --> 00:29:36,420
De studenten.

643
00:29:36,420 --> 00:29:38,140
Brede zin.

644
00:29:38,140 --> 00:29:39,500
Ja, ja, ja, ja.

645
00:29:39,500 --> 00:29:42,840
Nou, ik zou zeggen, kijk, we hebben de AI Act besproken.

646
00:29:42,840 --> 00:29:45,540
En drie stappen zijn belangrijk.

647
00:29:45,540 --> 00:29:47,620
Transparant, verantwoord zijn.

648
00:29:47,620 --> 00:29:50,240
Dus de derde ben ik even vergeten.

649
00:29:50,240 --> 00:29:52,460
AVG, ook belangrijk.

650
00:29:53,300 --> 00:30:01,400
En ik zou zeggen, als jij studentendata hebt en je hebt akkoord van de student dat diegene zelf de Feedback Companion kan gebruiken.

651
00:30:01,400 --> 00:30:02,680
Of jij als docent zelf ook.

652
00:30:02,680 --> 00:30:04,420
En dan heb je een consent.

653
00:30:04,420 --> 00:30:06,440
En dan zou ik zeggen, dan zou je dat kunnen afspreken.

654
00:30:06,440 --> 00:30:11,220
Dan zou je wel ergens langs de privacy office ook moeten doen.

655
00:30:11,220 --> 00:30:12,380
Heb ik ook gedaan.

656
00:30:12,380 --> 00:30:13,400
Sterker nog.

657
00:30:13,400 --> 00:30:14,880
Kijk, vandaag is woensdag hè.

658
00:30:14,880 --> 00:30:18,980
Morgen spreek ik ook met de privacy office van de Hogeschool Utrecht.

659
00:30:18,980 --> 00:30:20,380
Maar de stelling.

660
00:30:20,500 --> 00:30:25,300
Ja, ik zou zeggen, ja, zolang je consent hebt en daar duidelijke afspraken over hebt, zou dat kunnen.

661
00:30:25,300 --> 00:30:28,080
Maar ik zou het alsnog wel binnen de Europese Unie doen.

662
00:30:28,080 --> 00:30:33,120
Zoals ik beschreef met de Feedback Companion, dat die draait via de Azure omgeving in Zweden bijvoorbeeld.

663
00:30:33,120 --> 00:30:34,640
Ja, duidelijk.

664
00:30:34,640 --> 00:30:35,560
Ja, Alder.

665
00:30:35,560 --> 00:30:42,640
Hé, en de volgende stap is dat je een scan gemaakt hebt rond die AI-geletterdheid.

666
00:30:42,640 --> 00:30:47,400
De wet is er nu een paar keer te sprake gekomen.

667
00:30:48,360 --> 00:30:51,560
Zou je daar iets meer over kunnen vertellen, wat je gedaan hebt?

668
00:30:51,560 --> 00:30:52,760
Ja, graag zelfs.

669
00:30:52,760 --> 00:30:59,520
Ik heb dus ontdekt dat er op LinkedIn, daar ben ik ook natuurlijk best wel aan het netwerken, daar is het ook voor.

670
00:30:59,520 --> 00:31:03,240
Maar dat steeds vaak ook voorbij kwam, de AI-geletterdheid.

671
00:31:03,240 --> 00:31:05,060
En de AI literacy.

672
00:31:05,060 --> 00:31:06,900
Om het even in het Engels te doen.

673
00:31:07,720 --> 00:31:15,100
Dus ik ben een beetje gaan zoeken en ik kwam dus ook via de edu-ai.nl, ik doe me nog even, de WhatsApp community ook een onderzoek tegen.

674
00:31:15,100 --> 00:31:20,940
Dat heette Meta Literacy, AI literacy scan.

675
00:31:20,940 --> 00:31:22,600
Ik struikel erover.

676
00:31:22,600 --> 00:31:26,900
En die hebben dus onderzocht met wetenschappelijk onderbouw de vragenlijst opgesteld.

677
00:31:27,720 --> 00:31:31,680
Om te onderzoeken wat de AI geletterdheid is van de gemiddelde mens.

678
00:31:31,680 --> 00:31:34,940
Dus je hebt de korte versie, die is tien stellingen.

679
00:31:35,440 --> 00:31:37,120
En die gaat over vijf termijnen.

680
00:31:37,120 --> 00:31:40,280
Of je ethische AI-kennis hebt.

681
00:31:40,280 --> 00:31:42,340
Of je überhaupt AI kan toepassen.

682
00:31:42,340 --> 00:31:43,860
Nou, dat soort zaken.

683
00:31:43,860 --> 00:31:47,080
En je hebt ook de lange versie, die is 34 items.

684
00:31:47,080 --> 00:31:49,100
En dan kun je ook stellingen beantwoorden.

685
00:31:49,100 --> 00:31:50,700
En dan bijvoorbeeld van één tot vijf.

686
00:31:50,700 --> 00:31:53,400
Dus één is niet competent, helemaal niet competent.

687
00:31:53,400 --> 00:31:55,060
En vijf is, ik ben competent.

688
00:31:55,060 --> 00:31:58,360
Ik kan dit ook reproduceren.

689
00:31:58,360 --> 00:31:59,640
Ja, dat is een zelfscan.

690
00:31:59,640 --> 00:32:00,480
Dat is een zelfscan.

691
00:32:00,480 --> 00:32:01,780
Nou ja, waarom heb ik die gemaakt?

692
00:32:01,780 --> 00:32:03,080
Want die bestond nog niet.

693
00:32:03,280 --> 00:32:05,740
Wel dat onderzoek en dat ze die vragen hebben opgesteld.

694
00:32:05,740 --> 00:32:08,420
Dus ik dacht, hé, ik ben handig met Bold.new.

695
00:32:08,420 --> 00:32:11,820
Dat is die prompting webapp maken.

696
00:32:11,820 --> 00:32:13,180
Dat je zelf websites kan bouwen.

697
00:32:13,180 --> 00:32:16,860
En in een uurtje of twee heb ik een website gemaakt.

698
00:32:16,860 --> 00:32:20,320
AIliteracycompanion.eu

699
00:32:20,320 --> 00:32:22,140
Om het even over de companions te hebben.

700
00:32:22,140 --> 00:32:25,920
Ja, daarin kun je dus of de korte versie invullen.

701
00:32:25,920 --> 00:32:29,020
En ik krijg een heel mooi spinnenwebdiagram aan de onderkant.

702
00:32:29,020 --> 00:32:31,940
Die laat zien wat je van jezelf vindt.

703
00:32:32,540 --> 00:32:33,840
Of de lange versie.

704
00:32:33,840 --> 00:32:34,820
En hetzelfde eigenlijk.

705
00:32:34,820 --> 00:32:36,700
En dan op negen domeinen in plaats van vijf.

706
00:32:36,700 --> 00:32:39,620
En dat tof is, die heb ik dan ook met Microsoft Azure verbonden.

707
00:32:39,620 --> 00:32:44,120
Daaronder, als je dat hebt ingevuld, kun je dan chatten met de AI literacy mentor.

708
00:32:44,120 --> 00:32:46,140
Ja, die is vet hoor.

709
00:32:46,140 --> 00:32:46,660
Oké.

710
00:32:46,660 --> 00:32:48,100
Ik ben wel nieuwsgierig.

711
00:32:48,100 --> 00:32:49,180
Kan je dat even vertellen?

712
00:32:49,180 --> 00:32:49,680
Zeker.

713
00:32:49,680 --> 00:32:51,000
Die zit ook in mijn kennisclips.

714
00:32:51,000 --> 00:32:52,900
Dus als je dat hebt ingevuld, ga je lekker chatten.

715
00:32:52,900 --> 00:32:53,880
En dan ga je ook vragen.

716
00:32:53,880 --> 00:32:56,600
Nou, stel je bent docent en je werkt bij hbo-recht.

717
00:32:57,800 --> 00:33:02,780
Maar juist jouw kennis van AI, de ethische kant, is niet zo goed, vind jij zelf.

718
00:33:02,780 --> 00:33:05,660
En dan heb je een één of twee gescoord in plaats van een vier of vijf.

719
00:33:05,660 --> 00:33:07,760
Dan kun je dus chatten met de chatbots.

720
00:33:07,760 --> 00:33:09,080
Dan kun je maar tips over geven.

721
00:33:09,080 --> 00:33:10,100
Feedback geven.

722
00:33:10,540 --> 00:33:16,800
Heb jij voor mij bijvoorbeeld een leuke leeractiviteit of opdracht die ik met een groep studenten kan uitvoeren binnen een half uur tijd.

723
00:33:16,800 --> 00:33:18,720
Nou, ga je dat typen.

724
00:33:18,720 --> 00:33:20,320
Ga je natuurlijk nadenken.

725
00:33:20,320 --> 00:33:21,500
Nou ja, nadenken.

726
00:33:21,500 --> 00:33:24,880
Ga door GPT-4o heen, binnen Microsoft Azure natuurlijk, in de EU.

727
00:33:24,880 --> 00:33:26,540
Komt hij weer terug.

728
00:33:26,540 --> 00:33:29,360
En dan met output, met een hele mooie leeractiviteit bijvoorbeeld.

729
00:33:29,360 --> 00:33:32,360
Of een leuke opdracht die je dan kan uitvoeren met studenten.

730
00:33:32,360 --> 00:33:33,540
Over ethische kwesties.

731
00:33:33,540 --> 00:33:37,080
Zodat je zelf ook op dat vlak AI geletterder raakt.

732
00:33:37,580 --> 00:33:40,700
En de studenten ook meteen AI geletterder maakt.

733
00:33:40,700 --> 00:33:42,000
Dus je slaat twee vliegende klap.

734
00:33:42,000 --> 00:33:42,860
Mooi.

735
00:33:42,860 --> 00:33:43,340
Ja.

736
00:33:43,340 --> 00:33:44,160
Mooi.

737
00:33:44,160 --> 00:33:46,460
Ik heb ook even zitten kijken naar die zelfscan.

738
00:33:46,460 --> 00:33:47,900
Heb je hem ook gedaan of niet?

739
00:33:47,900 --> 00:33:49,180
Ik heb hem ook gedaan inderdaad.

740
00:33:49,180 --> 00:33:49,540
En en?

741
00:33:49,540 --> 00:33:51,480
Ik ben heel erg kritisch op mezelf.

742
00:33:51,480 --> 00:33:56,040
En dat is waar ik nog even bij zo'n zelfscan zelf even uitdagingen zie.

743
00:33:56,040 --> 00:33:57,300
Ondanks de onderbouwing.

744
00:33:57,300 --> 00:33:59,220
Is dat je jezelf een rating geeft.

745
00:33:59,220 --> 00:34:01,020
Inderdaad tussen de één en de vijf.

746
00:34:01,020 --> 00:34:05,680
Wat ik daarbij heb, is het gevoel van.

747
00:34:05,680 --> 00:34:07,900
Goh, maar als ik niet weet wat er nog meer is.

748
00:34:07,900 --> 00:34:09,260
Dan denk ik dat ik alles al weet.

749
00:34:09,260 --> 00:34:11,000
En hoe ga je dat stukje voorkomen?

750
00:34:11,000 --> 00:34:13,440
En dat is denk ik wel een belangrijk aspect.

751
00:34:13,440 --> 00:34:14,980
Dat ik zeg, nou voor sommige aspecten.

752
00:34:14,980 --> 00:34:16,100
Daar vind ik mezelf een twee.

753
00:34:16,100 --> 00:34:18,760
Omdat ik weet, ik weet nog veel meer dat er mogelijk is.

754
00:34:18,760 --> 00:34:19,540
Maar als je dat niet weet.

755
00:34:19,540 --> 00:34:20,960
Dan is het heel moeilijk om zelf in te vullen.

756
00:34:20,960 --> 00:34:22,159
Ja, snap ik heel goed.

757
00:34:22,159 --> 00:34:25,179
Ik gebruik me wel vaak als ijsbereken bij een training of workshop.

758
00:34:25,179 --> 00:34:27,080
Wat ik ook wel eens doe.

759
00:34:27,080 --> 00:34:28,300
En dat doe ik ook met studenten.

760
00:34:28,300 --> 00:34:30,699
Is dat, nou stel je kent elkaar een tijdje.

761
00:34:30,699 --> 00:34:32,980
Stel jullie twee zouden het voor elkaar invullen.

762
00:34:32,980 --> 00:34:34,540
Dat zou ook nog kunnen.

763
00:34:34,540 --> 00:34:35,520
Dat is wel leuk.

764
00:34:35,520 --> 00:34:36,540
Moeten we eigenlijk eens doen.

765
00:34:36,540 --> 00:34:37,420
Ja, dat gaan we doen.

766
00:34:37,420 --> 00:34:38,500
Ik zou dat aanraden.

767
00:34:38,500 --> 00:34:39,739
Dan ga je gewoon kijken.

768
00:34:39,739 --> 00:34:40,900
En dan ga je het gesprek aan.

769
00:34:40,900 --> 00:34:41,739
En dan komt er weer.

770
00:34:41,739 --> 00:34:42,460
Dialoog.

771
00:34:42,460 --> 00:34:43,820
Ja, heel belangrijk.

772
00:34:43,820 --> 00:34:45,139
Daar ben ik wel van.

773
00:34:45,139 --> 00:34:45,900
Eerst verbinden.

774
00:34:45,900 --> 00:34:47,360
Eerst relaties dan de prestatie.

775
00:34:47,360 --> 00:34:48,840
Heb ik nooit gezegd hoor.

776
00:34:48,840 --> 00:34:49,800
Maar dat ben ik helemaal mee eens.

777
00:34:49,800 --> 00:34:51,400
Dat komt vanuit Martine Delfos.

778
00:34:51,400 --> 00:34:52,020
Onderzoekster.

779
00:34:52,020 --> 00:34:53,440
Kunnen mensen googlen.

780
00:34:53,440 --> 00:34:54,199
Super gaaf.

781
00:34:54,199 --> 00:34:56,420
Op een studiedag een mooie sessie gaat.

782
00:34:56,420 --> 00:34:58,100
Maar ik zou het zo doen.

783
00:34:58,100 --> 00:34:59,100
Ik zou dan zeggen van oké.

784
00:34:59,100 --> 00:35:00,140
Want ik snap jou wel hoor.

785
00:35:00,140 --> 00:35:04,600
Ik hoorde ook binnen die Edu-AI groep hoor ik dat ook.

786
00:35:04,600 --> 00:35:07,560
Van ja, sommige mensen vinden het ook nutteloos.

787
00:35:07,560 --> 00:35:08,200
Dat mag.

788
00:35:08,200 --> 00:35:09,060
Weet je.

789
00:35:09,060 --> 00:35:10,740
En zelf vind ik het wel nuttig.

790
00:35:10,740 --> 00:35:12,240
Omdat het vaak begint bij jezelf.

791
00:35:12,240 --> 00:35:17,960
En als je een beetje met common sense probeert in te vullen wat jij van jezelf vindt.

792
00:35:17,960 --> 00:35:19,560
Dan hoeft het nog niet de waarheid te zijn.

793
00:35:19,560 --> 00:35:22,600
En dan hoeft het ook niet zo te zijn dat je bijzelf een twee scoort.

794
00:35:22,600 --> 00:35:24,480
En dat je over twee weken een vijf moet scoren.

795
00:35:24,760 --> 00:35:26,700
Maar het zet meer aan tot bewustwording.

796
00:35:26,700 --> 00:35:27,180
Zeker.

797
00:35:27,180 --> 00:35:28,380
En daar ben ik het helemaal mee eens.

798
00:35:28,380 --> 00:35:30,320
Maar voor mezelf wil ik dan graag een beetje toetsen.

799
00:35:30,320 --> 00:35:31,340
Of een toetsvraag hebben.

800
00:35:31,340 --> 00:35:33,060
Van goh, maar begrijp ik het dan wel goed.

801
00:35:33,060 --> 00:35:36,280
En ja, het is wel een paar jaar geleden dat ik op dit onderwerp misschien wat heb gedaan.

802
00:35:36,280 --> 00:35:36,820
Oh ja.

803
00:35:36,820 --> 00:35:40,020
En daar helpt het om mezelf te challengen.

804
00:35:40,020 --> 00:35:43,800
En zeker een goed startpunt om met elkaar het gesprek aan te gaan.

805
00:35:43,800 --> 00:35:44,860
Met elkaar het gesprek aan te gaan.

806
00:35:44,860 --> 00:35:45,380
Dat is één.

807
00:35:45,380 --> 00:35:49,140
Twee, dat zelfbewust zijn.

808
00:35:49,140 --> 00:35:50,400
Bewust zijn naar elkaar.

809
00:35:50,400 --> 00:35:53,000
Maar vul hem maar eens over een maandje of twee weer in.

810
00:35:54,380 --> 00:35:59,040
Dus een soort trigger zou het kunnen zijn als je op een bepaald punt jezelf laag scoort.

811
00:35:59,040 --> 00:36:00,560
Of iemand vindt jou daar laag in.

812
00:36:00,560 --> 00:36:02,860
In het gesprek kun je dan feedback vragen.

813
00:36:02,860 --> 00:36:03,420
Ja, waarom dan?

814
00:36:03,420 --> 00:36:07,080
En dan zou het jou moeten charmeren om te kijken van ja, maar wacht even.

815
00:36:07,080 --> 00:36:09,940
Ik ga jou een poepje laten ruiken over drie maanden.

816
00:36:09,940 --> 00:36:11,200
En ik ga me daar heel mooi in verdiepen.

817
00:36:11,200 --> 00:36:13,260
Kijk maar deze hele mooie prompt.

818
00:36:13,260 --> 00:36:14,180
Zoiets.

819
00:36:14,180 --> 00:36:15,380
Dus daar is het eigenlijk voor bedoeld.

820
00:36:15,380 --> 00:36:16,120
Ja, oké.

821
00:36:16,120 --> 00:36:18,760
Wat ik, ik heb uiteraard ook bekeken.

822
00:36:18,760 --> 00:36:19,800
Zo doen we dat.

823
00:36:20,940 --> 00:36:29,980
Wat ik mooi vind is dat je ook niet gelukkig zeg maar hebt van ja, maar als je hoog gescoord hebt, dat je een soort van certificaat van AI-geletterd krijgt.

824
00:36:29,980 --> 00:36:32,540
Want dat zien we natuurlijk heel veel nu voorbij komen.

825
00:36:33,160 --> 00:36:39,580
Alsof je met een training, met iets invullen, een vinkje kan halen van je bent AI geletterd.

826
00:36:39,580 --> 00:36:43,100
Zo zit het niet in elkaar ten opzichte van die wet.

827
00:36:43,100 --> 00:36:46,080
En ik vind dat heel mooi dat je dat in ieder geval niet gedaan hebt.

828
00:36:46,080 --> 00:36:52,340
Dat is dat je inderdaad stimuleert om jezelf uit te dagen om dingen te leren.

829
00:36:52,340 --> 00:36:56,020
En wel mooi inderdaad dat je dan kan chatten van ja, geef me eens tips.

830
00:36:56,020 --> 00:36:57,200
Dat zijn ook echt tips.

831
00:36:57,540 --> 00:37:02,980
Het is ook geen, als je dit doet, dan verbeter je je zomaar.

832
00:37:02,980 --> 00:37:04,380
Nee joh, het is ook geen heilige gaal.

833
00:37:04,380 --> 00:37:05,740
Daar is het ook helemaal niet voor bedoeld.

834
00:37:05,740 --> 00:37:07,480
Maar het is echt puur inspiratievol.

835
00:37:07,480 --> 00:37:07,920
Ja.

836
00:37:07,920 --> 00:37:09,600
En als je die wil gebruiken, ook goed.

837
00:37:09,600 --> 00:37:11,460
En als je het wel wil gebruiken, prachtig.

838
00:37:11,460 --> 00:37:14,980
Je had het over AI geletterdheid certificaat.

839
00:37:14,980 --> 00:37:16,900
Ik heb ze wel uitgedeeld.

840
00:37:16,900 --> 00:37:21,520
Al tijdens het vorige congres van toetsen in het VO.

841
00:37:22,280 --> 00:37:24,440
Dus ik heb ze wel een certificaat meegegeven.

842
00:37:24,440 --> 00:37:26,100
Je bent nu wat AI geletterder.

843
00:37:26,100 --> 00:37:26,740
Oké.

844
00:37:26,740 --> 00:37:28,240
Ik wil zeggen dat je helemaal klaar bent.

845
00:37:28,240 --> 00:37:31,020
Want ik denk, zelfs ik leer nog dagelijks bij.

846
00:37:31,020 --> 00:37:33,840
Nou, en kijk waar het verandert.

847
00:37:33,840 --> 00:37:43,340
Wat heel erg vergeten wordt rondom die wetgeving, is dat het gaat over de systemen die in jouw organisatie zijn.

848
00:37:43,840 --> 00:37:46,340
Dus je kan een soort van basis hebben.

849
00:37:46,340 --> 00:37:51,620
Maar je moet heel goed weten hoe, als jij een gebruiker bent van een bepaald systeem.

850
00:37:51,620 --> 00:37:53,220
Of je bent een ontwikkelaar van een bepaald systeem.

851
00:37:53,220 --> 00:37:56,660
Dan gaat het over de geletterdheid rondom dat systeem.

852
00:37:56,660 --> 00:37:58,900
En niet, zeg maar, in het algemeen.

853
00:37:58,900 --> 00:38:04,040
Dus je moet straks aantonen dat je geletterd genoeg bent.

854
00:38:04,040 --> 00:38:06,580
Stel je organisatie, je hebt gelijk hoor.

855
00:38:06,580 --> 00:38:08,340
Stel je organisatie die gebruikt Copilot.

856
00:38:08,340 --> 00:38:09,020
Ja.

857
00:38:09,520 --> 00:38:13,120
Nou, dan moet je eigenlijk wel een beetje het onderscheid ook weten tussen Copilot binnen office.

858
00:38:13,120 --> 00:38:14,660
Of copilot los.

859
00:38:14,660 --> 00:38:15,620
Dat is ook nog een uitdaging.

860
00:38:15,620 --> 00:38:16,240
Ja.

861
00:38:16,240 --> 00:38:18,200
En nog moeilijk te maken, je hebt ook nog copilot studio.

862
00:38:18,200 --> 00:38:18,880
Ja.

863
00:38:18,880 --> 00:38:20,340
Waar je dan vaak geen toegang voor hebt.

864
00:38:20,340 --> 00:38:21,780
Want dat kost 200 per maat, weet ik veel.

865
00:38:21,780 --> 00:38:23,220
Dan kun je allerlei bots ook bouwen.

866
00:38:23,220 --> 00:38:26,720
En dan heb je ook nog eens, waar we het de hele tijd over hadden, Azure.

867
00:38:26,720 --> 00:38:28,020
En GPTVO.

868
00:38:28,020 --> 00:38:30,160
Dus kijk, als je dat...

869
00:38:30,160 --> 00:38:31,680
Je hoeft niet alle ins en outs technisch te weten.

870
00:38:31,680 --> 00:38:32,200
Helemaal niet.

871
00:38:32,200 --> 00:38:32,920
Helemaal niet, hè.

872
00:38:32,920 --> 00:38:34,040
Maar wel de basis.

873
00:38:34,040 --> 00:38:36,960
En zodra je voor je eigen organisatie dat in ieder geval kan toelichten.

874
00:38:37,680 --> 00:38:45,180
Kijk, en zo'n AI-geletterdijdscan is ook misschien een aanmoediging voor teams om het met elkaar te delen.

875
00:38:45,180 --> 00:38:48,600
Niet alleen, maar ook misschien op te nemen in het functioneringsgesprek.

876
00:38:48,600 --> 00:38:51,000
Weet je, AI is straks echt niet meer weg te denken.

877
00:38:51,000 --> 00:38:52,580
En we hebben het niet eens nog over gehad, hè.

878
00:38:52,580 --> 00:38:53,120
AGI.

879
00:38:53,120 --> 00:38:54,140
Ja.

880
00:38:54,140 --> 00:38:56,320
Artificial General Intelligence.

881
00:38:56,320 --> 00:38:57,380
Ook weer een hele mond vol.

882
00:38:57,380 --> 00:38:59,820
Ja, wellicht 2030.

883
00:38:59,820 --> 00:39:02,400
Jullie waren voor dat we begonnen met de podcast kritisch, hè.

884
00:39:02,400 --> 00:39:03,600
Misschien 2050 voor jullie.

885
00:39:03,600 --> 00:39:06,640
Maar goed, er zit wel nog steeds heel veel beweging in.

886
00:39:07,380 --> 00:39:13,420
Ja, daarom is het belangrijk inderdaad om te weten dat algemene basiskennis van AI steeds belangrijker wordt.

887
00:39:13,420 --> 00:39:15,560
En ook wel steeds meer mogelijk wordt gemaakt voor je.

888
00:39:15,560 --> 00:39:18,920
Maar dat het binnen je organisatie wel belangrijk is van welk systeem hebben we daar.

889
00:39:18,920 --> 00:39:19,840
En weet ik daar genoeg van.

890
00:39:19,840 --> 00:39:23,940
En dat het zelfs per functie kan verschillen hoe AI geletterd voor kennis moet je ervan hebben.

891
00:39:23,940 --> 00:39:27,180
Mocht je de aflevering van Charlotte Meindersma nog gemist hebben.

892
00:39:27,180 --> 00:39:28,580
Die is hier vooruit gezonden.

893
00:39:29,340 --> 00:39:30,440
Luister die zeker even terug.

894
00:39:30,440 --> 00:39:34,960
Dan gaan we verder in op de AI act, AI-geletterdheid en wat daarbij komt kijken.

895
00:39:34,960 --> 00:39:35,560
Oh, nice.

896
00:39:35,560 --> 00:39:36,920
Wat dat tot de AI act verhoudt.

897
00:39:36,920 --> 00:39:38,080
Ja, zij was.

898
00:39:38,080 --> 00:39:38,900
Of zij was.

899
00:39:38,900 --> 00:39:40,000
Zij is juriste.

900
00:39:40,000 --> 00:39:42,940
Dus zeker, goede tip.

901
00:39:42,940 --> 00:39:43,180
Ja.

902
00:39:43,180 --> 00:39:46,080
Die scan.

903
00:39:46,080 --> 00:39:48,500
Waar kunnen de luisteraars de scan doen?

904
00:39:49,080 --> 00:39:52,140
Ja, dan ga je naar ailiteracycompanion.eu.

905
00:39:52,140 --> 00:39:52,640
Ja.

906
00:39:52,640 --> 00:39:53,820
En daar kun je hem gaan doen.

907
00:39:53,820 --> 00:39:57,460
En de data die daarin gaat, blijft op je eigen computer staan.

908
00:39:57,460 --> 00:39:58,980
Kijk, oh dat is ook goed om te weten.

909
00:39:58,980 --> 00:40:00,000
Ja, dat moet ik even bij vermelden.

910
00:40:00,000 --> 00:40:02,360
Want het is natuurlijk heel spannend met AI en AVG.

911
00:40:02,360 --> 00:40:05,780
Maar wat je invult qua score blijft daarin hangen.

912
00:40:05,780 --> 00:40:09,620
En als je met de chatbot chat, dan blijft het ook binnen de Europese Unie.

913
00:40:09,620 --> 00:40:11,240
Dus de tekst die heen en weer gaat.

914
00:40:11,240 --> 00:40:13,320
Ja, goed.

915
00:40:13,320 --> 00:40:18,660
Als je daar zelf geen medische gegevens of je eigen naam invoert, dan gebeurt er verder ook helemaal niks.

916
00:40:19,180 --> 00:40:21,940
En als je dat wel per ongeluk doet, dan weet je in ieder geval dat het binnen de EU is.

917
00:40:21,940 --> 00:40:26,820
Kun je op mijn bruine, half groene ogen, kun je daarvan op aan.

918
00:40:26,820 --> 00:40:27,940
Heel mooi.

919
00:40:27,940 --> 00:40:31,040
Ja, en inderdaad, weet je, bespreek de resultaten met elkaar.

920
00:40:31,040 --> 00:40:32,640
Ik vind dat een hele mooie.

921
00:40:32,640 --> 00:40:33,140
Zeker.

922
00:40:33,140 --> 00:40:41,840
Stel, buiten het onderwijs om, het mag ook binnen het onderwijs, maar als je een ultieme droom zou hebben.

923
00:40:41,840 --> 00:40:45,860
Misschien zelfs die AGI wat je net noemde.

924
00:40:46,480 --> 00:40:50,440
Wat zou voor jou het ultieme AI systeem zijn?

925
00:40:50,440 --> 00:40:52,880
Of wat je met AI zou kunnen doen?

926
00:40:52,880 --> 00:40:54,840
Daar zijn we eigenlijk wel benieuwd naar.

927
00:40:54,840 --> 00:40:57,100
En we geven je even wat bedenktijd.

928
00:40:57,100 --> 00:40:57,940
Oké.

929
00:40:57,940 --> 00:41:20,560
Nou, mooie muziek hoor.

930
00:41:22,500 --> 00:41:24,400
Ja, hoe zie ik het voor me?

931
00:41:24,400 --> 00:41:28,860
Kijk, als we toch een stapje naar de toekomst mogen doen met het AGI verhaal.

932
00:41:28,860 --> 00:41:31,600
Dan moet ik ook zelf denken eigenlijk.

933
00:41:31,600 --> 00:41:37,320
Het zou mooi zijn als wij AI toch inzetten voor toch ook een beetje de goede doelen.

934
00:41:37,320 --> 00:41:38,800
De maatschappelijke vraagstukken.

935
00:41:41,100 --> 00:41:43,360
De energiebehoefte van de mens wordt ook steeds groter.

936
00:41:43,360 --> 00:41:47,460
De wereldbol is natuurlijk ook al een beetje aan het niet barst hoor.

937
00:41:47,460 --> 00:41:48,460
Dat is gewoon heel dramatisch.

938
00:41:48,460 --> 00:41:50,680
Maar het heeft toch zijn uitdagingen.

939
00:41:50,680 --> 00:41:56,120
En als je kijkt naar de ontwikkeling van quantum computers en dat soort zaken.

940
00:41:56,120 --> 00:41:57,960
En het bereik van AGI.

941
00:41:57,960 --> 00:41:59,340
Zou dat heel mooi zijn.

942
00:41:59,340 --> 00:42:00,680
Alleen met alles.

943
00:42:00,680 --> 00:42:01,980
Zoals al die films ook laten zien.

944
00:42:02,160 --> 00:42:02,960
Zoals The Terminator.

945
00:42:02,960 --> 00:42:08,380
Of alle andere artificial intelligence films.

946
00:42:08,380 --> 00:42:09,480
Zoals iRobot.

947
00:42:09,480 --> 00:42:10,340
Ken je die vast ook nog wel.

948
00:42:10,340 --> 00:42:13,220
Ja, dan is er ook ergens een gevaar.

949
00:42:13,220 --> 00:42:14,980
Want als het dan niet in goede handen is.

950
00:42:14,980 --> 00:42:15,800
Wat doe je dan?

951
00:42:15,800 --> 00:42:18,840
Dus dan moet er een soort beschermingsmechanisme komen.

952
00:42:18,840 --> 00:42:20,740
Dus dat is toekomstgericht.

953
00:42:20,740 --> 00:42:23,740
Ik zie dan AI echt grote vraagstukken oplossen.

954
00:42:23,740 --> 00:42:24,880
Voor de mens.

955
00:42:24,880 --> 00:42:27,900
Ben je niet bang dat het...

956
00:42:27,900 --> 00:42:30,460
Voor mij klinkt het namelijk als een enorme paradox.

957
00:42:30,800 --> 00:42:32,740
Dat je het hebt over klimaat.

958
00:42:32,740 --> 00:42:36,140
En dat AI dat zou moeten oplossen.

959
00:42:36,140 --> 00:42:37,360
Terwijl op dit moment.

960
00:42:37,360 --> 00:42:40,800
En het ziet er naar uit dat dat nog voorlopig zo is.

961
00:42:40,800 --> 00:42:43,940
Het alleen maar bijdraagt aan.

962
00:42:43,940 --> 00:42:46,480
Negatieve bijdrage heeft aan het klimaat.

963
00:42:46,480 --> 00:42:48,180
Vanwege alle energieverbruik.

964
00:42:48,180 --> 00:42:49,840
Ja, daar heb je een goed punt.

965
00:42:49,840 --> 00:42:53,180
Kijk, er komen natuurlijk tig Data Centra erbij.

966
00:42:53,180 --> 00:42:59,680
Aan de andere kant is het heel belangrijk om dat te blijven evalueren.

967
00:42:59,940 --> 00:43:01,340
Het evolueert zich ook.

968
00:43:01,340 --> 00:43:03,280
Maar evalueren wat dat dan doet.

969
00:43:03,280 --> 00:43:05,280
Wat is nou de impact inderdaad op de energiesector...

970
00:43:05,280 --> 00:43:07,360
als je zo'n groot datacenter neerzet.

971
00:43:07,360 --> 00:43:09,540
Ten opzichte van wat het oplevert.

972
00:43:09,540 --> 00:43:12,820
En die cijfers die fluctueren nogal.

973
00:43:12,820 --> 00:43:16,680
Dus dat is nog niet heel duidelijk of het nou meer winst geeft op dat vlak of meer winst zus.

974
00:43:16,680 --> 00:43:20,620
Dus daar is het wel belangrijk om daar heel kritisch op te blijven zijn.

975
00:43:20,620 --> 00:43:23,000
Maar ook te blijven meten.

976
00:43:23,000 --> 00:43:23,740
Meten is weten.

977
00:43:25,620 --> 00:43:26,520
Ja, dus dat.

978
00:43:26,520 --> 00:43:31,040
Even naar de nabije toekomst.

979
00:43:31,040 --> 00:43:33,220
Kijk, ik noem het niet voor niks een companion.

980
00:43:33,220 --> 00:43:37,120
Zo heb ik ook bijvoorbeeld een transcribecompanion.eu.

981
00:43:37,120 --> 00:43:38,360
Dus ga daarheen.

982
00:43:38,360 --> 00:43:41,500
En je kunt je interview erin zetten binnen de Europese Unie.

983
00:43:41,500 --> 00:43:42,920
Wordt dat interview gescand.

984
00:43:42,920 --> 00:43:44,420
En dan krijg je met het Whisper model.

985
00:43:44,420 --> 00:43:45,480
Een GPT-VO mooie.

986
00:43:45,480 --> 00:43:47,400
Onderscheid in sprekers.

987
00:43:47,400 --> 00:43:49,460
En dan kun je zelfs op Analyze klikken.

988
00:43:49,460 --> 00:43:53,300
Dan gaat die timestamps en sprekers voorbij.

989
00:43:53,300 --> 00:43:56,520
En dan krijg je ook aanbevelingen vanuit zo'n interview of een kort gesprek.

990
00:43:56,520 --> 00:43:57,280
Oké.

991
00:43:57,280 --> 00:43:58,840
Dan kun je dan download als PDF no noem op.

992
00:43:58,840 --> 00:43:59,840
Dus check het uit.

993
00:43:59,840 --> 00:44:02,340
Er zijn nog meer companions die gaan komen.

994
00:44:02,340 --> 00:44:05,060
En ik zie het echt als een hulp.

995
00:44:05,060 --> 00:44:09,220
Dus een schoudermaatje die meekijkt, meedenkt, meewerkt.

996
00:44:09,220 --> 00:44:12,380
En AI agents zijn dus ook al.

997
00:44:12,380 --> 00:44:14,180
Die kun je bij elkaar klikken.

998
00:44:14,180 --> 00:44:18,500
Ga maar eens naar het n8n.ai geloof ik.

999
00:44:18,500 --> 00:44:19,020
Of .com.

1000
00:44:19,020 --> 00:44:20,500
En dan ga je naar websites.

1001
00:44:20,500 --> 00:44:21,140
Wel betaald.

1002
00:44:21,140 --> 00:44:26,700
Maar dan kun je dus allerlei geautomatiseerde AI agents aan elkaar knopen.

1003
00:44:26,700 --> 00:44:30,920
En die gaan bijvoorbeeld via WhatsApp stuur je een berichtje in.

1004
00:44:30,920 --> 00:44:34,320
Kun jij een mailtje sturen en een invite in mijn kalender zetten.

1005
00:44:34,320 --> 00:44:37,840
En dan die en die mensen uitnodigen met een leuke party tekst voor mijn verjaardag.

1006
00:44:38,840 --> 00:44:41,680
Nou, verbonden met Azure, GPT-VO.

1007
00:44:41,680 --> 00:44:42,980
Verbonden met je Gmail account.

1008
00:44:42,980 --> 00:44:43,900
Verbonden met sus.

1009
00:44:43,900 --> 00:44:45,060
Rats.

1010
00:44:45,060 --> 00:44:47,140
En dan heeft hij het mailtje klaar.

1011
00:44:47,140 --> 00:44:49,100
En dan staat alles automatisch in je agenda.

1012
00:44:49,100 --> 00:44:51,560
Dus daar gaan we in de nabije toekomst naar heen.

1013
00:44:51,560 --> 00:44:56,060
Dus ik zie het als een soort handige hulpjes.

1014
00:44:56,480 --> 00:44:58,360
die jouw werk ook kunnen verlichten.

1015
00:44:58,360 --> 00:45:00,380
Duidelijk.

1016
00:45:00,380 --> 00:45:00,700
Ja.

1017
00:45:00,940 --> 00:45:02,340
Nou, een mooie visie.

1018
00:45:02,340 --> 00:45:02,800
Ja.

1019
00:45:03,120 --> 00:45:07,760
Ik kan ook wel wat companions gebruiken voor sommige werkzaamheden waar ik zelf wat minder energie van krijg.

1020
00:45:07,980 --> 00:45:09,440
Ja, dan gaan we straks even een kopje drinken.

1021
00:45:09,440 --> 00:45:13,720
Wat zou jij geautomatiseerd willen hebben, Jan?

1022
00:45:13,720 --> 00:45:15,880
Agenda management hoor ik net al.

1023
00:45:15,880 --> 00:45:22,660
Dat is toch altijd een crux met heel veel verschillende mensen afspraken voor elkaar krijgen die eigenlijk toch op korte termijn gepland moeten worden.

1024
00:45:22,660 --> 00:45:24,920
Waarbij dus misschien zelfs afspraken verzet moeten worden.

1025
00:45:25,020 --> 00:45:26,980
Daar zit heel veel tijd in, afstemming in.

1026
00:45:26,980 --> 00:45:28,760
En daar word ik niet heel vrolijk van.

1027
00:45:28,760 --> 00:45:32,440
Ik wil wel dat het op korte termijn voor iedereen uitkomt.

1028
00:45:32,440 --> 00:45:35,880
Dat we bij elkaar komen om het dialoog aan te gaan wat zo belangrijk is.

1029
00:45:35,880 --> 00:45:37,440
Ja, kijk maar eens naar datumprikken.

1030
00:45:37,440 --> 00:45:38,860
Dat is nog heel veel werk.

1031
00:45:38,860 --> 00:45:41,900
Dan moet je allemaal handmatig al die data invoeren en tijdstippen.

1032
00:45:41,900 --> 00:45:44,400
Bij een half uur verder heb je eigenlijk het datumprikken klaar.

1033
00:45:44,400 --> 00:45:45,660
Dan moet je het ook nog eens een mailtje sturen.

1034
00:45:45,660 --> 00:45:48,480
En dan moet je ook nog eens wachten op reactie.

1035
00:45:48,480 --> 00:45:50,320
Dan moet je ook nog handmatig die afspraken inplannen.

1036
00:45:50,320 --> 00:45:50,860
Nou ja, goed.

1037
00:45:50,860 --> 00:45:52,060
Dat kan allemaal geautomatiseerd worden.

1038
00:45:52,060 --> 00:45:55,000
Ja, en dan hebben we dan wel weer ook aan de andere kant van de ontwikkeling.

1039
00:45:55,000 --> 00:45:57,240
De ontvangende partij heb je ook weer companions nodig.

1040
00:45:57,240 --> 00:46:00,440
Die eigenlijk ook keuzes kunnen maken voor mag dit verschoven worden.

1041
00:46:00,440 --> 00:46:01,460
Kan dat verschoven worden.

1042
00:46:01,460 --> 00:46:03,260
Dus de dependency en de boom.

1043
00:46:03,260 --> 00:46:04,460
Die maakt het interessant.

1044
00:46:04,460 --> 00:46:06,460
Maar dat zou ik echt heel vrolijk vonden.

1045
00:46:06,460 --> 00:46:08,060
En jij Joop?

1046
00:46:08,060 --> 00:46:13,640
Ja, ik zit toch meer richting de fysieke wereld.

1047
00:46:13,640 --> 00:46:16,080
Laatst kwamen er dingen voorbij.

1048
00:46:16,080 --> 00:46:20,480
Ik heb liever dat mijn vaatwasser wordt ingepakt en uitgeruimd.

1049
00:46:20,480 --> 00:46:23,640
Maar dat zie ik voorlopend nog niet gebeuren.

1050
00:46:23,640 --> 00:46:24,400
Nee, ik ook niet.

1051
00:46:24,400 --> 00:46:24,940
Nee.

1052
00:46:24,940 --> 00:46:27,660
En ja, de agenda management.

1053
00:46:27,660 --> 00:46:33,620
Zelfs als je nu iemand hebt die de agenda voor jou beheert, moet je nog heel veel daarmee

1054
00:46:33,620 --> 00:46:35,880
sparren en spreken.

1055
00:46:35,880 --> 00:46:37,860
Wat er allemaal weer verzet kan worden en dat soort dingen.

1056
00:46:37,860 --> 00:46:43,060
Daar zitten toch nog heel veel besluiten in, omdat je daar toch volgens mij een regie over wil hebben.

1057
00:46:43,060 --> 00:46:47,660
En zo ga je de regie over wil hebben, wordt het toch wel heel erg lastig om dat te automatiseren.

1058
00:46:47,860 --> 00:46:49,180
Ja, en dat gezegd hebben.

1059
00:46:49,180 --> 00:46:52,720
Kijk, ik ben zelf van de verbinding, dus het werkt natuurlijk altijd sneller om iemand even te bellen.

1060
00:46:52,720 --> 00:46:55,400
Bellen is sneller, de marktplaatsterm van vroeger.

1061
00:46:55,400 --> 00:46:56,720
Of zoek je iemand even op.

1062
00:46:56,720 --> 00:46:57,980
Dat werkt natuurlijk nog sneller.

1063
00:46:58,400 --> 00:46:59,840
Maar goed, de mogelijkheid is er wel.

1064
00:46:59,840 --> 00:47:00,820
Ja, zeker.

1065
00:47:00,820 --> 00:47:01,440
Zeker.

1066
00:47:01,440 --> 00:47:09,660
Pascal, hartstikke bedankt dat je je companions, zo mogen we het noemen, companions, kon uitleggen.

1067
00:47:09,660 --> 00:47:13,580
Vooral hoe je dat gemaakt hebt, waar je tegenaan bent gelopen.

1068
00:47:13,580 --> 00:47:16,200
Ik denk dat het een heel mooi verhaal is uit de praktijk.

1069
00:47:16,200 --> 00:47:18,120
Dus hartstikke bedankt dat je dat met ons wilde delen.

1070
00:47:19,080 --> 00:47:20,200
Ja, graag gedaan.

1071
00:47:20,200 --> 00:47:22,100
En bedankt voor jullie tijd en ruimte hier.

1072
00:47:22,100 --> 00:47:24,100
Ik vond het echt super gaaf om te doen.

1073
00:47:24,100 --> 00:47:25,500
Dus ik hoop tot ziens ergens.

1074
00:47:25,500 --> 00:47:26,480
Leuk om te horen.

1075
00:47:26,480 --> 00:47:32,400
Dankjewel weer voor het luisteren naar deze aflevering.

1076
00:47:32,400 --> 00:47:37,460
Vergeet je niet te abonneren met je nieuwsbrief.

1077
00:47:37,460 --> 00:47:38,820
Of welke wilde je deze keer?

1078
00:47:38,820 --> 00:47:41,000
Ja, ik dacht eigenlijk de podcast app.

1079
00:47:41,000 --> 00:47:45,060
Want dan krijg je automatisch een seintje als er een nieuwe aflevering beschikbaar is.

1080
00:47:45,060 --> 00:47:46,200
Tot de volgende keer.

1081
00:47:46,200 --> 00:47:47,040
Tot de volgende keer.

1082
00:47:47,040 --> 00:47:48,640
[Muziek]


People on this episode