AIToday Live

S06E17 - Leren door doen: AI for Kids

Aigency by Info Support Season 6 Episode 17

Deze afllevering gaat over AI voor kinderen. Gast Peter Brouwers, een ondernemer met passie voor onderwijs en jeugd, deelt zijn inzichten over waarom het essentieel is om kinderen al op jonge leeftijd bekend te maken met AI.

Brouwers heeft een ondernemersgeest en een heldere visie op het belang van educatie omtrent de nieuwe technologie voor kinderen. Hij initieerde projecten zoals AI for Kids en richtte de beweging NextGen AI op.

Het doel is om kinderen niet alleen in contact te brengen met AI, maar ook om ze te leren hoe deze technologie ingezet kan worden voor positieve doeleinden. Door de lens van Brouwers zien we dat AI een steeds grotere rol speelt in onze samenleving en de toekomst.

Tijdens de podcast deelt Brouwers inspirerende verhalen over de positieve effecten van deze workshops op kinderen. Hij spreekt over de nieuwsgierigheid en het enthousiasme dat kinderen tonen wanneer ze de mogelijkheden van AI ontdekken.

Brouwers hoopt dat initiatieven zoals de zijne leiden tot een meer inclusieve en positieve benadering van technologieonderwijs. Peter Brouwers en zijn team hebben de ambitie om dit programma landelijk uit te rollen.

Ze zijn op zoek naar partners en sponsoren om nog meer kinderen de kans te geven om vertrouwd te raken met AI. Het ultieme doel is om elke regio in Nederland toegang te bieden tot dit soort educatieve programma's.


Links

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:05,200
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van de AIToday Live.

2
00:00:05,200 --> 00:00:08,040
Mijn naam is Joop Snijder, CTO bij Aigency.

3
00:00:08,040 --> 00:00:10,880
Mijn naam is Niels Naglé, chapter lead Data&AI bij Info Support.

4
00:00:10,880 --> 00:00:14,600
En we hebben vandaag best wel een hele bijzondere aflevering, Niels,

5
00:00:14,600 --> 00:00:21,080
want we hebben best wel een zakelijke context waarin wij deze podcast doen.

6
00:00:21,080 --> 00:00:21,440
Ja.

7
00:00:21,440 --> 00:00:24,440
Maar we gaan het hebben over AI for Kids.

8
00:00:24,440 --> 00:00:26,480
En dat gaan we doen met Peter Brouwers.

9
00:00:26,480 --> 00:00:30,000
Peter, zou je jezelf eerst willen voorstellen aan onze luisteraars?

10
00:00:30,000 --> 00:00:31,280
Zeker.

11
00:00:31,280 --> 00:00:33,200
Allereerst dank je dat ik hier mag zijn natuurlijk.

12
00:00:33,200 --> 00:00:33,640
Ik heb er zin in.

13
00:00:33,640 --> 00:00:36,840
Peter Brouwers, ik ben ondernemer, kom uit Breda.

14
00:00:36,840 --> 00:00:39,240
Ik heb over veel dingen mening.

15
00:00:39,240 --> 00:00:42,320
Daar probeer ik een visie van te maken en daar ook mee in actie te komen.

16
00:00:42,320 --> 00:00:42,800
Ja.

17
00:00:42,800 --> 00:00:46,880
Dus ja, zo ook rondom AI.

18
00:00:46,880 --> 00:00:51,360
Ik zag dat daar weinig aandacht voor was richting de jeugd,

19
00:00:51,360 --> 00:00:52,200
dus daar ben ik iets mee gaan doen.

20
00:00:52,200 --> 00:00:53,560
Dus ondernemend typetje.

21
00:00:53,560 --> 00:00:53,880
Ja.

22
00:00:53,880 --> 00:00:57,640
En waarom specifiek richting de jeugd?

23
00:00:57,640 --> 00:01:02,000
Ja, heeft altijd al wel in mij gezeten.

24
00:01:02,000 --> 00:01:04,920
Dus educatie, onderwijs, jeugd.

25
00:01:04,920 --> 00:01:07,760
Ik vind ook iets van het huidige onderwijssysteem, komt er weer die mening.

26
00:01:07,760 --> 00:01:08,240
Ja.

27
00:01:08,240 --> 00:01:13,880
En acht jaar geleden ben ik naar de Web Summit geweest, toen nog in Dublin.

28
00:01:13,880 --> 00:01:14,840
De laatste in Dublin.

29
00:01:14,840 --> 00:01:17,320
Daar werd een soort van call gedaan van,

30
00:01:17,320 --> 00:01:20,120
hé, als je het coderen, programmeren voor kinderen belangrijk vindt,

31
00:01:20,120 --> 00:01:21,280
start een Code Dojo.

32
00:01:21,280 --> 00:01:21,960
Ja.

33
00:01:21,960 --> 00:01:23,800
In your own city.

34
00:01:23,800 --> 00:01:26,000
Toen kwam ik thuis en vroeg ik aan mijn zoon Peer,

35
00:01:26,000 --> 00:01:28,560
joh, wat wil jij nou eigenlijk gaan betekenen in het leven?

36
00:01:28,560 --> 00:01:32,520
Nou, dan kwam een antwoord, ja, ik wil programmeren, games, apps,

37
00:01:32,520 --> 00:01:33,720
dat soort dingen gaan doen.

38
00:01:33,720 --> 00:01:34,880
Er was eigenlijk geen aanbod.

39
00:01:34,880 --> 00:01:36,920
Toen dacht ik, hé, dat is die Code Dojo.

40
00:01:36,920 --> 00:01:37,280
Ja.

41
00:01:37,280 --> 00:01:40,000
Dus die ben ik in Breda gestart.

42
00:01:40,000 --> 00:01:44,240
Dat is nu dus acht jaar geleden en draait nog steeds.

43
00:01:44,240 --> 00:01:49,000
Dus elke maand hebben we 20, 25 kinderen, nu in de bibliotheek overigens,

44
00:01:49,000 --> 00:01:51,640
die leren coderen.

45
00:01:51,640 --> 00:01:58,320
Ja, en het afgelopen jaar met de gigantische AI-trend, hype,

46
00:01:58,320 --> 00:02:01,840
kwam dezelfde drive eigenlijk weer binnen.

47
00:02:01,840 --> 00:02:09,360
AI, kinderen, kinderen laten omgaan met de toepassing van artificial intelligence.

48
00:02:09,360 --> 00:02:10,240
Ja, belangrijk.

49
00:02:10,240 --> 00:02:11,400
En ik merkte dat dat attractie was.

50
00:02:11,400 --> 00:02:16,920
En waarom vind je het belangrijk dat kinderen in aanraking komen met deze technologie?

51
00:02:16,920 --> 00:02:21,520
Ja, AI is hier te steen.

52
00:02:21,520 --> 00:02:22,320
Ja.

53
00:02:22,320 --> 00:02:24,000
Het zal het over eens zijn.

54
00:02:24,000 --> 00:02:24,520
Zeker.

55
00:02:24,520 --> 00:02:25,880
Dat gaat niet meer weg.

56
00:02:25,880 --> 00:02:30,760
Ik bewonder altijd de creativiteit en positiviteit van kinderen.

57
00:02:30,760 --> 00:02:34,960
En als ik naar volwassenen kijk, hoor je het ook heel vaak, zeker in het onderwijs,

58
00:02:34,960 --> 00:02:42,240
bedreigingen, plagiaat, kunnen we het nog verbieden, dat soort terminologieën.

59
00:02:42,240 --> 00:02:45,200
Niet allemaal van de mensen uit het onderwijs die luisteren.

60
00:02:45,200 --> 00:02:49,720
Dus denk in beperkingen en denk in kansen.

61
00:02:49,720 --> 00:02:54,480
Als iets is wat kinderen doen, is denken in kansen.

62
00:02:54,480 --> 00:02:57,320
Alles kan, het moet sneller, we gaan dit maken, creatief.

63
00:02:57,320 --> 00:02:59,960
En ja, daar krijg ik letterlijk nu ook gewoon kippenvel van.

64
00:02:59,960 --> 00:03:02,320
Hoe gaaf is dat?

65
00:03:02,320 --> 00:03:04,680
Ja, precies. Energie neemt gelijk toe als je erover denkt.

66
00:03:04,680 --> 00:03:07,000
Ja, ik had het toch moeten opnemen.

67
00:03:07,000 --> 00:03:10,240
Dus ja, dat is eigenlijk de reden.

68
00:03:10,240 --> 00:03:11,360
Dus ik vind het belangrijk.

69
00:03:11,360 --> 00:03:13,640
En er komt energie vrij.

70
00:03:13,640 --> 00:03:15,680
Zo creëer je waarden.

71
00:03:15,680 --> 00:03:19,040
En gelukkig heb ik een aantal mensen om me heen verzameld,

72
00:03:19,040 --> 00:03:23,720
of bij elkaar verzameld, die het ook super belangrijk vinden.

73
00:03:23,720 --> 00:03:24,920
En ja, dus we zijn gewoon gaan doen.

74
00:03:24,920 --> 00:03:26,720
Ik zeg al, we zijn ondernemende types.

75
00:03:26,720 --> 00:03:29,720
Het is niet te veel lullen, maar gewoon het gaan doen.

76
00:03:29,720 --> 00:03:30,360
Ja, mooi.

77
00:03:30,360 --> 00:03:33,760
Ja, want je zegt, waarom vind je het belangrijk dat kinderen meer in aanmerking komen?

78
00:03:33,760 --> 00:03:35,720
Maar iedereen komt er al mee in aanmerking.

79
00:03:35,720 --> 00:03:39,400
En steeds meer, als ik thuis ook, ik heb een zoon van negen die bijna tien is.

80
00:03:39,400 --> 00:03:42,360
Die hoort ook AI en dat soort zaken.

81
00:03:42,360 --> 00:03:44,840
En ja, moeilijk om een beeld te vormen.

82
00:03:44,840 --> 00:03:46,840
Dus ze komen er al in mee in aanmerking inderdaad.

83
00:03:46,840 --> 00:03:50,160
Dus hoe mooi is het nou echt eens wat meer over leren onder de motorkap ook.

84
00:03:50,160 --> 00:03:52,760
Valt ons ook op als wij workshops nu geven.

85
00:03:52,760 --> 00:03:54,920
We hebben de eerste drie achter de rug.

86
00:03:54,920 --> 00:04:00,000
We beginnen eigenlijk, weet je wat AI is en waar AI al in zit.

87
00:04:00,000 --> 00:04:01,400
En dat is toch heel snel al gelijk.

88
00:04:01,400 --> 00:04:04,440
Oké, chap set, Netflix, die snappen echt al heel goed.

89
00:04:04,440 --> 00:04:09,280
Oké, weet je wel, het wordt her en der, of her en der, waar niet, toegepast.

90
00:04:09,280 --> 00:04:12,240
Dus we onderschatten vaak kinderen ook.

91
00:04:12,240 --> 00:04:13,640
Ja, want dat is wat je doet.

92
00:04:13,640 --> 00:04:17,960
Je organiseert workshops heel specifiek voor kinderen.

93
00:04:17,960 --> 00:04:20,240
Waar ze zich voor kunnen opgeven.

94
00:04:20,240 --> 00:04:22,400
En dan leren ze over AI, toch?

95
00:04:22,400 --> 00:04:25,000
Dat is het concept van AI for Kids.

96
00:04:25,000 --> 00:04:27,080
Ja, dus AI for Kids is een van onze programma's.

97
00:04:27,080 --> 00:04:31,760
We hebben inmiddels het label, de beweging NextGen AI genoemd.

98
00:04:31,760 --> 00:04:35,880
Omdat we ook wat breder dan alleen de jonge kinderen willen gaan.

99
00:04:35,880 --> 00:04:39,200
We organiseren inderdaad nu AI for Kids workshops.

100
00:04:39,200 --> 00:04:43,040
Tussen kinderen 8 en 13 jaar ongeveer.

101
00:04:43,040 --> 00:04:45,560
Daarboven is echt wel een andere doelgroep ook.

102
00:04:45,560 --> 00:04:48,760
Dus we hebben een workshop van een uur of twee.

103
00:04:48,760 --> 00:04:51,480
Waarin we eerst een soort van algemene presentatie, kort.

104
00:04:51,480 --> 00:04:54,040
Korte spanningsboog natuurlijk, heel hard in de slag.

105
00:04:54,040 --> 00:04:55,440
Over AI.

106
00:04:55,440 --> 00:04:58,240
Gaan ook wel in gesprek vervolgens met kinderen.

107
00:04:58,240 --> 00:05:00,760
Wat is AI, wat vind je ervan, wat weet je ervan?

108
00:05:00,760 --> 00:05:05,240
We hebben ook wat stellingen, een soort van mini debatje met elkaar.

109
00:05:05,240 --> 00:05:07,680
Kan AI jouw huiswerk maken?

110
00:05:07,680 --> 00:05:09,320
Bijvoorbeeld is een van de stellingen.

111
00:05:09,320 --> 00:05:10,560
Dan zeg je ja of nee.

112
00:05:10,560 --> 00:05:12,080
En vervolgens kun je een gesprek over voeren.

113
00:05:12,080 --> 00:05:13,080
Wat vind je daarvan?

114
00:05:13,080 --> 00:05:14,080
Is dat goed?

115
00:05:14,080 --> 00:05:15,080
Leren er nog van?

116
00:05:15,080 --> 00:05:16,560
Of ga je op een andere manier leren?

117
00:05:16,560 --> 00:05:17,840
Of ga je andere dingen leren?

118
00:05:17,840 --> 00:05:19,680
Dat is gewoon een heel interessante dialoog.

119
00:05:19,680 --> 00:05:22,280
We zouden ze ook eens voor een podcast moeten uitnodigen.

120
00:05:22,280 --> 00:05:23,280
Ja, dat is wel een goeie.

121
00:05:23,280 --> 00:05:24,280
Dat gaan we zeker doen.

122
00:05:24,280 --> 00:05:29,760
Ja, en vervolgens gaan we vrij snel echt aan de slag.

123
00:05:29,760 --> 00:05:31,200
Maak je eigen GPT.

124
00:05:31,200 --> 00:05:35,640
Van tevoren vragen we wat voor soort assistent zou je willen maken.

125
00:05:35,640 --> 00:05:41,720
Daar komen antwoorden uit als ik wil inderdaad die assistent die een verslag voor mij gaat

126
00:05:41,720 --> 00:05:46,120
maken of mijn spreekbeurt of iets dergelijks gaat voorbereiden.

127
00:05:46,120 --> 00:05:52,100
Maar ook een klein meisje die zegt ik wil eigenlijk een vriendje maken tegen wie ik alles kan

128
00:05:52,100 --> 00:05:53,100
vertellen.

129
00:05:53,100 --> 00:05:54,100
Oei.

130
00:05:54,100 --> 00:05:55,100
Ja, oei, die komt binnen.

131
00:05:55,100 --> 00:05:58,480
Dus daar gaan we dan mee aan de slag.

132
00:05:58,480 --> 00:06:04,680
Ja, en dan hebben we eigenlijk een aantal opdrachten uitgewerkt zodat kids aan de slag

133
00:06:04,680 --> 00:06:09,520
kunnen met ik wil kunst maken, ik wil een verhaal maken, ik wil een game maken en zo

134
00:06:09,520 --> 00:06:10,520
verder.

135
00:06:10,520 --> 00:06:12,360
Daar hebben we onderwijsmateriaal voor ontwikkeld.

136
00:06:12,360 --> 00:06:17,000
Als we dat willen, als we gewoon willen fröbelen, lekker experimenteren, fouten maken, naar

137
00:06:17,000 --> 00:06:18,560
voren vallen, helemaal top.

138
00:06:18,560 --> 00:06:21,240
Daar leer je uiteindelijk vaak het meeste van.

139
00:06:21,240 --> 00:06:22,240
Precies.

140
00:06:22,240 --> 00:06:23,240
Dus dat is ook helemaal goed.

141
00:06:23,240 --> 00:06:24,240
Niks moet.

142
00:06:24,240 --> 00:06:25,240
Veel mag.

143
00:06:25,240 --> 00:06:29,320
En we merken echt dat kids, we hebben een kleine pauze, dat ze altijd vragen, ja meneer

144
00:06:29,320 --> 00:06:30,320
gaat zo'n fik alsjeblieft doen.

145
00:06:30,320 --> 00:06:33,920
Dan moet ik ook altijd aanwennen, mag ik weer verder?

146
00:06:33,920 --> 00:06:35,600
Ja, natuurlijk mag jij verder.

147
00:06:35,600 --> 00:06:39,040
Dus dan wordt die ranja achter de ogen geslagen en die gaat aan de slag.

148
00:06:39,040 --> 00:06:40,040
Oh wat leuk.

149
00:06:40,040 --> 00:06:41,680
Dus ja, super veel energie.

150
00:06:41,680 --> 00:06:46,400
Heb je verrassende antwoorden gekregen op wat is AI?

151
00:06:46,400 --> 00:06:48,400
Van de kinderen?

152
00:06:48,400 --> 00:06:50,400
Goeie vraag.

153
00:06:50,400 --> 00:06:56,120
Laat ik het zo zeggen, dan laat ik jou er even over nadenken.

154
00:06:56,120 --> 00:06:59,560
Wij geven best wel veel presentaties en workshops.

155
00:06:59,560 --> 00:07:02,920
Dan vraag ik dit ook eigenlijk best wel.

156
00:07:02,920 --> 00:07:08,680
Uiteindelijk leeft deze vraag onder de volwassenen, onder de medewerkers, over iedereen.

157
00:07:08,680 --> 00:07:09,680
Wat is het?

158
00:07:09,680 --> 00:07:14,360
En dan is het best wel verrassend wat je af en toe terughoort.

159
00:07:14,360 --> 00:07:18,240
Alleen de volwassenen zitten vaak toch wel aan een hele dystopische kant.

160
00:07:18,240 --> 00:07:23,720
Dus als ze er niks van weten, zien ze het als iets engs.

161
00:07:23,720 --> 00:07:26,120
Zie je dat ook bij kinderen?

162
00:07:26,120 --> 00:07:27,840
Ja, ze vinden het eng.

163
00:07:27,840 --> 00:07:33,080
De koppeling met robots, fysieke robots, dat vinden ze eng.

164
00:07:33,080 --> 00:07:36,280
Dus daar hebben we nu ook van geleerd.

165
00:07:36,280 --> 00:07:37,960
Ook in de uiting enzo.

166
00:07:37,960 --> 00:07:40,320
Niet te veel robots, want dat is een toepassing.

167
00:07:40,320 --> 00:07:44,160
Dus daar moeten we niet te veel nadenken op leggen.

168
00:07:44,160 --> 00:07:45,160
Dat vinden ze eng.

169
00:07:45,160 --> 00:07:50,760
Ik heb ook een paar keer gemerkt dat in een bepaalde doelgroep de technologie aan

170
00:07:50,760 --> 00:07:52,760
zich een beetje eng is.

171
00:07:52,760 --> 00:07:56,240
Je hebt een cameraatje, we plakken hem af en ze luisteren mee.

172
00:07:56,240 --> 00:08:03,080
En dan denk ik, er gebeurt iets in de context van kinderen dat de technologie aan zich een

173
00:08:03,080 --> 00:08:06,200
soort van negatieve annotatie heeft.

174
00:08:06,200 --> 00:08:10,840
Waar wij natuurlijk helemaal aan de andere kant van het spectrum zitten.

175
00:08:10,840 --> 00:08:14,120
Dus dat hebben we nu wel zien gebeuren.

176
00:08:14,120 --> 00:08:20,240
Maar op het moment dat ze aan de slag zijn, dan gaan ze stuiterend er weer uit.

177
00:08:20,240 --> 00:08:22,880
Want dan zie je ook dat het niks met robots te maken heeft.

178
00:08:22,880 --> 00:08:23,880
Klopt.

179
00:08:23,880 --> 00:08:30,080
Wat we ook wel zien, dat is mooi in de olievlek, dat als ouders de kinderen komen ophalen,

180
00:08:30,080 --> 00:08:33,560
aan het einde van de middag, dan nodigen we ze expres iets eerder uit.

181
00:08:33,560 --> 00:08:35,920
Dat ze ook een soort eindpresentatie zien.

182
00:08:35,920 --> 00:08:38,000
We vragen kinderen aan het eind ook van, vertel nou eens aan elkaar.

183
00:08:38,000 --> 00:08:39,000
Wat heb je nou gedaan?

184
00:08:39,000 --> 00:08:40,000
Wat heb je gemaakt?

185
00:08:40,000 --> 00:08:41,000
Wat heb je geleerd?

186
00:08:41,000 --> 00:08:43,000
Kan je het aan iemand anders uitleggen?

187
00:08:43,000 --> 00:08:45,160
Dat die ouders het ook mee zien.

188
00:08:45,160 --> 00:08:48,200
Zodat zij ook geïnspireerd worden.

189
00:08:48,200 --> 00:08:51,120
Ik wil iets meer weten over AI en de kansen die erin zitten.

190
00:08:51,120 --> 00:08:55,840
Hoe kan ik het zelf toepassen in mijn dagelijks leven of werk?

191
00:08:55,840 --> 00:08:58,160
Dus ja, die olievlek gebeurt wel.

192
00:08:58,160 --> 00:08:59,160
Wel nieuwsgierig.

193
00:08:59,160 --> 00:09:03,960
Als het dan ouders zijn die hun kinderen hebben gebracht, komen die ouders dan ook op de duur

194
00:09:03,960 --> 00:09:05,920
bij jullie terug van, hebben jullie dit ook voor volwassenen?

195
00:09:05,920 --> 00:09:07,280
Om daar meer over te leren.

196
00:09:07,280 --> 00:09:09,200
Ja, die vraag krijgen we regelmatig.

197
00:09:09,200 --> 00:09:11,200
Ja, dat doen we ook.

198
00:09:11,200 --> 00:09:13,360
Dan doen we dat buiten de stichting.

199
00:09:13,360 --> 00:09:16,600
Dan doen we dat vanuit onze ondernemerscollectieven.

200
00:09:16,600 --> 00:09:18,600
Waar allerlei partners in zitten die trainingen geven.

201
00:09:18,600 --> 00:09:19,960
Ook consultants in zitten.

202
00:09:19,960 --> 00:09:23,000
Techpartijen die projecten kunnen implementeren, etc.

203
00:09:23,000 --> 00:09:25,520
Dat is nooit opzet geweest, maar dat gebeurt wel.

204
00:09:25,520 --> 00:09:29,120
Ik wou net zeggen, ze zorgen toch voor nieuwe ideeën bij kinderen.

205
00:09:29,120 --> 00:09:30,120
En dat is een dag.

206
00:09:30,120 --> 00:09:31,760
Zelf neem ik aan ook verder nadenken.

207
00:09:31,760 --> 00:09:35,360
Wat betekent het nog meer voor werk, maar ook gewoon in privé-sfeer inderdaad.

208
00:09:35,360 --> 00:09:41,560
Ik heb het niet helemaal geanalyseerd, maar toch wel vaak dat er kinderen komen waarvan

209
00:09:41,560 --> 00:09:45,760
de ouders dan inderdaad in de software zitten of in de ideeën zitten.

210
00:09:45,760 --> 00:09:48,160
Dat slaat dan toch over op een bepaalde manier.

211
00:09:48,160 --> 00:09:50,960
Maar ook kids die juist heel creatief zijn.

212
00:09:50,960 --> 00:09:57,800
Die zeggen ja, ik wil gewoon gave, creatieve plaatjes maken, wissels maken, met kunst bezig

213
00:09:57,800 --> 00:09:58,800
zijn.

214
00:09:58,800 --> 00:09:59,800
Ja, dat komt ook voor.

215
00:09:59,800 --> 00:10:01,880
Even een hele Nederlandse vraag.

216
00:10:01,880 --> 00:10:03,600
Wat kost het voor die kinderen om mee te doen?

217
00:10:03,600 --> 00:10:05,600
Tijd.

218
00:10:05,600 --> 00:10:08,600
En voor de ouders, he.

219
00:10:08,600 --> 00:10:09,600
Brengen, halen.

220
00:10:09,600 --> 00:10:10,600
Ja.

221
00:10:10,600 --> 00:10:11,600
Dus we zorgen voor kinderen kosteloos.

222
00:10:11,600 --> 00:10:13,960
Dus we werken met een aantal sponsoren.

223
00:10:13,960 --> 00:10:16,880
We zijn in West-Brabant begonnen.

224
00:10:16,880 --> 00:10:21,120
We hebben een mooie donatie van Rabobank gekregen.

225
00:10:21,120 --> 00:10:25,920
Dus we kunnen nu het eerste jaar een aantal workshops geven bij ons in de regio.

226
00:10:25,920 --> 00:10:30,680
Ja, uiteindelijk de ambitie is om een Nederlands dekkend netwerk op te zetten.

227
00:10:30,680 --> 00:10:35,440
Zodat in elke regio, we ligt in een soort van partner model, met een soort licentie

228
00:10:35,440 --> 00:10:36,760
constructie bijvoorbeeld.

229
00:10:36,760 --> 00:10:39,480
Zijn we nu al aan het uitwerken.

230
00:10:39,480 --> 00:10:42,280
Dat we echt een landelijk dekkend netwerk worden.

231
00:10:42,280 --> 00:10:47,040
Want dat woord, positieve woord over AI, laten we dat alsjeblieft verspreiden zonder blind

232
00:10:47,040 --> 00:10:48,040
te zijn.

233
00:10:48,040 --> 00:10:52,640
Dat het natuurlijk wel mensenwerk blijft en dat het wel uiteindelijk for good moet zijn.

234
00:10:52,640 --> 00:10:55,440
Je moet positieve dingen gaan doen met AI.

235
00:10:55,440 --> 00:10:59,920
Daar stoor ik me ook wel eens in, of wel eens, bijna altijd in media.

236
00:10:59,920 --> 00:11:02,200
En dat soort programma's aan.

237
00:11:02,200 --> 00:11:04,560
Het insteek is altijd negatief.

238
00:11:04,560 --> 00:11:05,560
Altijd.

239
00:11:05,560 --> 00:11:08,240
Dus ja, joh, draait dat nou eens om.

240
00:11:08,240 --> 00:11:13,080
En natuurlijk moet je niet blind zijn voor allerlei redenen en overwegingen.

241
00:11:13,080 --> 00:11:17,960
Maar dat kun je pas goed doen als je daar een transparante open dialoog over wilt.

242
00:11:17,960 --> 00:11:18,960
De keukentafel gesprekken.

243
00:11:18,960 --> 00:11:20,960
Wat vind jij daar nou van?

244
00:11:20,960 --> 00:11:23,880
Negativiteit scoort, dat is gewoon heel vervelend.

245
00:11:23,880 --> 00:11:24,880
Heel vervelend.

246
00:11:24,880 --> 00:11:26,680
Maar je had het over regio's.

247
00:11:26,680 --> 00:11:30,400
In welke regio's kunnen kinderen zich nu opgeven?

248
00:11:30,400 --> 00:11:37,520
Nou, buiten Breda doen we nu een aantal try-outs met bibliotheken.

249
00:11:37,520 --> 00:11:44,920
Die gaan we in Barendrecht doen, in Woudrichem, Venlo, even uit mijn hoofd.

250
00:11:44,920 --> 00:11:47,680
Een hele reeks die in de pijplijn zit.

251
00:11:47,680 --> 00:11:52,120
Ja, en we zijn natuurlijk in maart in Veenendaal bij Info Support.

252
00:11:52,120 --> 00:11:53,120
Ja, eind maart.

253
00:11:53,120 --> 00:11:54,680
Te gast, 27 maart.

254
00:11:54,680 --> 00:11:56,640
Dat is ook absoluut aan te raden.

255
00:11:56,640 --> 00:11:58,640
En kinderen kunnen zich opgeven.

256
00:11:58,640 --> 00:12:01,000
Er is plek.

257
00:12:01,000 --> 00:12:02,000
Hartstikke leuk.

258
00:12:02,000 --> 00:12:06,040
Het is gewoon 's middags, op een woensdagmiddag is het.

259
00:12:06,040 --> 00:12:10,720
En volgens mij de beste tijdsbesteding die je je kan voorstellen, toch?

260
00:12:10,720 --> 00:12:12,360
Ja, het beste en het leukste.

261
00:12:12,360 --> 00:12:13,360
Jullie zijn erbij, toch mannen?

262
00:12:13,360 --> 00:12:14,680
Ik ben er zeker bij.

263
00:12:14,680 --> 00:12:15,680
Ik ook.

264
00:12:15,680 --> 00:12:16,680
Kijk, Niels krijgt het vragend nu.

265
00:12:16,680 --> 00:12:20,960
Ja, ik zal even kijken hoe we zaten met mijn agenda.

266
00:12:20,960 --> 00:12:24,200
Ik had geprobeerd om mijn zoon ook mee te nemen, maar dat was lastig.

267
00:12:24,200 --> 00:12:25,920
Dat is aan de andere kant van Nederland.

268
00:12:25,920 --> 00:12:28,800
Barendrecht is voor mij een stuk dichterbij dan Veenendaal.

269
00:12:28,800 --> 00:12:32,400
Ik had nog zo van, gaat het lukken om mijn zoon mee te krijgen?

270
00:12:32,400 --> 00:12:33,640
Maar goed, dat wordt lastig.

271
00:12:33,640 --> 00:12:35,600
Dus die gaat op een ander moment een keer aansluiten.

272
00:12:35,600 --> 00:12:37,200
Want ik ga hem zeker meenemen.

273
00:12:37,200 --> 00:12:39,440
Ik zag het initiatief en waar jullie mee bezig zijn.

274
00:12:39,440 --> 00:12:40,440
Ja, echt top.

275
00:12:40,440 --> 00:12:44,560
Maar we hebben natuurlijk ook heel veel luisteraars uit het bedrijfsleven.

276
00:12:44,560 --> 00:12:48,240
Hoe kunnen zij met jou in contact komen?

277
00:12:48,240 --> 00:12:52,000
Waarbij ze zeggen van, bij mij in de regio is dit nog niet.

278
00:12:52,000 --> 00:12:53,000
Dat wil ik ook.

279
00:12:53,000 --> 00:12:54,280
Want het is belangrijk voor de kinderen.

280
00:12:54,280 --> 00:12:57,320
Hoe komen ze met jou in contact?

281
00:12:57,320 --> 00:13:00,400
Nou ja, ons belangrijkste kanaal is LinkedIn.

282
00:13:00,400 --> 00:13:06,320
Dus als je daar NextGen AI gaat volgen, dan kom je wel eens ook bij de contactgegevens

283
00:13:06,320 --> 00:13:07,320
uit.

284
00:13:07,320 --> 00:13:09,840
Of zoek mij, Peter Brouwers, op LinkedIn.

285
00:13:09,840 --> 00:13:12,880
Dat is mijn voornaamste communicatiekanaal eigenlijk.

286
00:13:12,880 --> 00:13:17,280
We doen dit vanuit een stichting, die Stichting Bits heet.

287
00:13:17,280 --> 00:13:23,400
Dus op bitsweb.nl vind je eigenlijk alle onze projecten, als Decoder Dojo, als AI4Gits.

288
00:13:23,400 --> 00:13:30,040
We zijn ook met First Lego League bezig, een robotcompetitie enzoverder.

289
00:13:30,040 --> 00:13:34,120
Dus ja, dat zijn de belangrijkste kanaal, website.

290
00:13:34,120 --> 00:13:39,360
Wij zullen ze ook even opnemen in de show notes, zodat mensen dat makkelijk kunnen vinden.

291
00:13:39,360 --> 00:13:44,640
Wat het zou mooi zijn is inderdaad, als je dit landelijk dekkend krijgt.

292
00:13:44,640 --> 00:13:48,480
Ik denk dat het voor kinderen inderdaad super belangrijk is om in aanraking te komen.

293
00:13:48,480 --> 00:13:55,360
De enige manier om over dingen te leren is door te proberen.

294
00:13:55,360 --> 00:14:00,920
Ik had laatste presentatie, daar heb ik het vergeleken met de introductie van elektriciteit.

295
00:14:00,920 --> 00:14:05,240
Daar moesten we ook achter zien te komen van, wat kan je er mee, wat kan je er niet

296
00:14:05,240 --> 00:14:06,240
mee.

297
00:14:06,240 --> 00:14:11,600
En we zijn allemaal, leren we onze kinderen, dat je de vingers niet in het stopcontact steekt,

298
00:14:11,600 --> 00:14:12,600
maar dat je er wel.

299
00:14:12,600 --> 00:14:15,920
Met elektriciteit kun je heel veel goede dingen doen, maar je moet ook wel even in de gaten

300
00:14:15,920 --> 00:14:16,920
hebben wat je niet doet.

301
00:14:16,920 --> 00:14:19,400
En daar hoort dit denk ik ook bij.

302
00:14:19,400 --> 00:14:24,200
Dus hoe eerder je erbij bent, hoe beter je uiteindelijk met die technologie om kan gaan

303
00:14:24,200 --> 00:14:25,840
en beter de risico's vermijdt.

304
00:14:25,840 --> 00:14:28,200
Ja, helemaal eens.

305
00:14:28,200 --> 00:14:32,640
Wat we ook belangrijk vinden, de voorbereidheid op de toekomst.

306
00:14:32,640 --> 00:14:38,560
Wat we ook wel bewust opzoeken is, kinderen of wijken, wat vaak ook wel gelepeld wordt.

307
00:14:38,560 --> 00:14:44,240
Een beetje een hekel aan, maar je ziet, kids die een extra steuntje in de rug kunnen gebruiken,

308
00:14:44,240 --> 00:14:46,000
dat we die juist ook toegang geven.

309
00:14:46,000 --> 00:14:47,080
Daarom is het ook gratis.

310
00:14:47,080 --> 00:14:50,960
Iedereen moet toegang hebben tot technologie.

311
00:14:50,960 --> 00:14:54,680
Laten we het alsjeblieft inclusief houden.

312
00:14:54,680 --> 00:14:57,880
Dat is lekker laagdrempelig.

313
00:14:57,880 --> 00:15:03,600
Dus ook kids, geen eigen device of geen eigen laptop hebben, don't worry, gaan we regelen.

314
00:15:03,600 --> 00:15:06,400
Of we hebben ze zelf, of we regelen een partner of sponsor.

315
00:15:06,400 --> 00:15:12,760
Het is belangrijk dat iedereen toegang heeft en daarop een positieve voordeel mee kan doen.

316
00:15:12,760 --> 00:15:16,440
Gelukkig zien we ook dat het lekker 50/50 is qua jongens en meiden.

317
00:15:16,440 --> 00:15:19,280
Dat is ook wel super belangrijk natuurlijk.

318
00:15:19,280 --> 00:15:27,480
We staan eigenlijk open voor nieuwe partners om naar dat landelijke netwerk te gaan.

319
00:15:27,480 --> 00:15:33,240
Dus als je daar ideeën bij hebt als mentor of als initiatiefnemer, en je denkt van, dit

320
00:15:33,240 --> 00:15:37,840
moet gewoon naar Rotterdam komen of naar Groningen, let me know.

321
00:15:37,840 --> 00:15:41,680
Je zit redelijk op het onderwijs, je hebt een duidelijke mening, geef je aan.

322
00:15:41,680 --> 00:15:45,760
Zie je hier al ontwikkelingen dat het ook stof wordt die op de basisschool al gegeven

323
00:15:45,760 --> 00:15:47,480
wordt of voortgezet onderwijs?

324
00:15:47,480 --> 00:15:50,760
Zie je beweging daar al op AI vlak?

325
00:15:50,760 --> 00:15:51,760
Weinig.

326
00:15:51,760 --> 00:15:55,520
Maar goed, ik zie niet alles natuurlijk.

327
00:15:55,520 --> 00:16:02,600
Ik zie dat docenten, schoolleiding toch wel erg worstelen met van, hoe geven we dit nou

328
00:16:02,600 --> 00:16:03,600
een plekje?

329
00:16:03,600 --> 00:16:04,720
Een positief plekje.

330
00:16:04,720 --> 00:16:09,160
Dus daar hebben we ook wel gesprekken over en aanbod in.

331
00:16:09,160 --> 00:16:12,920
Laten we dat gesprek dan daar eens over voeren.

332
00:16:12,920 --> 00:16:18,280
Dat begint ook bij het uitleggen wat AI kan betekenen.

333
00:16:18,280 --> 00:16:24,160
Een positieve voorbeeld zie ik ook bij docenten die het gebruiken om lessen voor te bereiden.

334
00:16:24,160 --> 00:16:29,800
Wat je sneller, efficiënter en creatiever in die end kan doen.

335
00:16:29,800 --> 00:16:34,960
Er zijn ook heel veel early adopters die daar echt mee aan de slag zijn met onderwijs.

336
00:16:34,960 --> 00:16:36,840
Die zoeken dan ook lekker op natuurlijk.

337
00:16:36,840 --> 00:16:40,840
Jij gelooft hier ook in, wat kunnen we dan samen doen?

338
00:16:40,840 --> 00:16:47,840
Naast AI for Kids zijn we nu bezig om AI for Students, allemaal maar werktitels, te maken.

339
00:16:47,840 --> 00:16:55,200
Hoe kun je bijvoorbeeld NPO studenten een mooi AI programma voorschotelen.

340
00:16:55,200 --> 00:16:58,000
Dat is een soort van learning community.

341
00:16:58,000 --> 00:17:01,240
Dus samen met het werkveld, zoals dat dan heet.

342
00:17:01,240 --> 00:17:03,640
Het werkveld en het onderwijsveld samen.

343
00:17:03,640 --> 00:17:06,920
Het uitgangspunt is volgens mij heel goed.

344
00:17:06,920 --> 00:17:10,920
Mensen samen brengen, samen komen, samen casussen kraken, samen leren.

345
00:17:10,920 --> 00:17:14,680
Het is echt niet zo dat de ondernemer of het bedrijf moet uitleggen aan de studenten hoe

346
00:17:14,680 --> 00:17:15,680
het zit.

347
00:17:15,680 --> 00:17:17,320
Dus leren van elkaar.

348
00:17:17,320 --> 00:17:21,360
Dus dat zijn ook wel trajecten die nu aan zitten te komen.

349
00:17:21,360 --> 00:17:26,280
De uitdaging is wel, daarbij altijd, ergens moet je je funding hebben.

350
00:17:26,280 --> 00:17:29,000
We weten, er is funding genoeg.

351
00:17:29,000 --> 00:17:30,440
Er zijn potten genoeg.

352
00:17:30,440 --> 00:17:32,320
Alleen dat is nogal een woud.

353
00:17:32,320 --> 00:17:34,800
Maar goed, daar kunnen we misschien AI ook voor inzetten.

354
00:17:34,800 --> 00:17:40,080
Om het woud een beetje inzichtelijk te maken en mooi aan te vragen.

355
00:17:40,080 --> 00:17:43,640
Kijk, jij bent voorstander van deze technologie.

356
00:17:43,640 --> 00:17:50,200
Maar als je jezelf zou moeten challengen, zou je zeggen, in het onderwijs ga je dit niet

357
00:17:50,200 --> 00:17:51,200
gebruiken.

358
00:17:51,200 --> 00:17:56,200
Is dat een mooie vraag?

359
00:17:56,200 --> 00:18:00,040
Dat is denk ik mijn antwoord.

360
00:18:00,040 --> 00:18:01,040
Die stilte.

361
00:18:01,040 --> 00:18:02,040
Ja, oké.

362
00:18:02,040 --> 00:18:03,040
Duidelijk.

363
00:18:03,040 --> 00:18:04,040
Jij Niels?

364
00:18:04,040 --> 00:18:10,080
Het moet niet leidend worden.

365
00:18:10,080 --> 00:18:14,600
Je ziet natuurlijk wel ontwikkelingen dat de toets steeds meer digitaal is.

366
00:18:14,600 --> 00:18:19,560
En dat AI geholpen wordt om kinderen te laten groeien en te leren.

367
00:18:19,560 --> 00:18:23,640
Maar niet alles is te meten via toetsen en via systemen.

368
00:18:23,640 --> 00:18:29,800
Dus de menselijke factor en hoe het kind zich voelt en beweegt is denk ik ook heel belangrijk.

369
00:18:29,800 --> 00:18:33,040
Dus dat we daar ook echt de human side heel erg goed bij betrokken houden.

370
00:18:33,040 --> 00:18:34,800
En echt die symbiose met elkaar gaan opstellen.

371
00:18:34,800 --> 00:18:37,080
Dus dat moet zeker niet overgenomen worden.

372
00:18:37,080 --> 00:18:48,920
Ik zat van de week te denken, we zitten nu aan het begin van de generatieve AI.

373
00:18:48,920 --> 00:18:55,200
En generatieve AI zien we nu nog heel erg als de JGPT, die met taal bezig is.

374
00:18:55,200 --> 00:18:58,960
Maar we gaan ook heel veel vanuit daaruit naar spraak toe.

375
00:18:58,960 --> 00:19:04,720
Dus zouden we straks niet bijna alles bedienen met spraak?

376
00:19:04,720 --> 00:19:07,080
En moeten we dan nog…

377
00:19:07,080 --> 00:19:10,720
Dit is een hele pittige.

378
00:19:10,720 --> 00:19:12,200
Moeten we dan nog…

379
00:19:12,200 --> 00:19:13,920
Moeten kinderen nog leren schrijven?

380
00:19:13,920 --> 00:19:17,840
Want als we straks alles via spraak doen…

381
00:19:17,840 --> 00:19:19,880
Als ik een ja/nee vraag en ze zeggen nee.

382
00:19:19,880 --> 00:19:20,880
Dan zeg ik ja.

383
00:19:20,880 --> 00:19:25,960
Waarom zeg jij nee, Peter?

384
00:19:25,960 --> 00:19:36,720
Nou ja, als je een tool hebt, en dat heet nou toevallig AI, wat dat soort dingen overbodig

385
00:19:36,720 --> 00:19:39,200
kan maken, waarom zou je dat dan niet inzetten?

386
00:19:39,200 --> 00:19:49,600
Want de grootste uitdaging is, vind ik, als je door inzet van AI iets kunt oplossen of

387
00:19:49,600 --> 00:19:58,440
efficiënter kan werken en tijd bespaart, de kwestie is, wat ga je met die tijd doen?

388
00:19:58,440 --> 00:19:59,920
En die moet waardevol zijn.

389
00:19:59,920 --> 00:20:04,920
Dus tijd besparen is niet per definitie, we gaan nog harder werken, we gaan nog sneller,

390
00:20:04,920 --> 00:20:06,080
we gaan nog meer winst maken.

391
00:20:06,080 --> 00:20:07,080
Nee, we gaan daar…

392
00:20:07,080 --> 00:20:15,120
Dat is mijn visie, meer tijd mee kinderen besteden, meer dialoog, vaker naar je ouders

393
00:20:15,120 --> 00:20:21,680
gaan, goed doel ondersteunen, ga vrijwilligerswerk doen, ga werken aan de global goals, dat is

394
00:20:21,680 --> 00:20:22,680
de uitdaging.

395
00:20:22,680 --> 00:20:27,920
Dus ik wil graag die dialoog op gang brengen, niet te zwaar met kinderen, maar juist ook

396
00:20:27,920 --> 00:20:28,920
met volwassenen.

397
00:20:28,920 --> 00:20:31,560
Dat is naar mijn idee AI for good.

398
00:20:31,560 --> 00:20:35,920
Een handige tool, over nadenken wanneer je het inzet, en als je het inzet, wat ga je

399
00:20:35,920 --> 00:20:36,920
nou met die besparing doen?

400
00:20:36,920 --> 00:20:38,920
Dat is voor mij het hoofdgesprek.

401
00:20:38,920 --> 00:20:42,920
Precies, en daarvoor heb je schrijfvaardigheid niet meer nodig, zeg je dan.

402
00:20:42,920 --> 00:20:44,920
Als er dan wel heel stellig is.

403
00:20:44,920 --> 00:20:48,920
Ja, stellig, ik zeg, als ik maak er een ja/nee vraag, daar hou ik van.

404
00:20:48,920 --> 00:20:49,920
Dan nee.

405
00:20:49,920 --> 00:20:53,920
Ja, vervolgens komt er een dialoog, dan komt daar de nuance uit.

406
00:20:53,920 --> 00:20:55,920
Dan gaan we even naar Niels.

407
00:20:55,920 --> 00:20:59,920
Niels leert juist heel veel van video's, dus heel veel vanuit spraak.

408
00:20:59,920 --> 00:21:00,920
Ja, zeker.

409
00:21:00,920 --> 00:21:02,920
Heel veel van spraak en video en beeld.

410
00:21:02,920 --> 00:21:06,920
En toch ben ik iemand die heel veel scribbelt, schrijft en dingetjes.

411
00:21:06,920 --> 00:21:11,920
Om voor mezelf kennis eigen te maken, schrijf ik wel weer heel veel.

412
00:21:11,920 --> 00:21:13,920
Maar ik lees niet heel veel.

413
00:21:13,920 --> 00:21:20,920
Dus ik vind het schrijven en het van gedachten op iets kunnen creëren en op schrijven, helpt

414
00:21:20,920 --> 00:21:26,920
dan voor mij in ieder geval om die kennis te laten zakken en tot me te nemen.

415
00:21:26,920 --> 00:21:29,920
Niet dat ik het later weer terug ga lezen, maar omdat ik het geschreven heb, heb ik het

416
00:21:29,920 --> 00:21:33,920
beter onthouden, omdat ik er tijd en energie in gestopt heb om het daadwerkelijk van gedachten

417
00:21:33,920 --> 00:21:35,920
op papier te kunnen krijgen.

418
00:21:35,920 --> 00:21:39,920
Dus daarom zeg ik, ik denk dat schrijven daarin nog juist van essentieel belang is

419
00:21:39,920 --> 00:21:40,920
om dat wel te doen.

420
00:21:40,920 --> 00:21:44,920
En daarnaast, maar dat is meer motoriek, ik denk dat het qua motoriek ook wel heel belangrijk

421
00:21:44,920 --> 00:21:48,920
is, het schrijven en bewegen en in plaats van alleen maar spraken.

422
00:21:48,920 --> 00:21:50,920
Je zou eens een experiment kunnen doen, Niels.

423
00:21:50,920 --> 00:21:55,920
Dus wat je nou vertelt, te doen, allemaal hetzelfde doen, behalve dat schrijfcomponent,

424
00:21:55,920 --> 00:21:57,920
te kijken of dan de impact hetzelfde is.

425
00:21:57,920 --> 00:22:03,920
Ja, misschien is het ook nog wel dat de spraakinterfaces voor het noteren en beschrijven van wat ik

426
00:22:03,920 --> 00:22:07,920
aan het bedenken ben, nog niet op het niveau is dat ik zou willen, waardoor ik het nog

427
00:22:07,920 --> 00:22:08,920
steeds nodig vind.

428
00:22:08,920 --> 00:22:11,920
Dus wie weet inderdaad, is dat iets in de toekomst dat wel gaat veranderen.

429
00:22:11,920 --> 00:22:13,920
Ik weet het ook niet.

430
00:22:13,920 --> 00:22:14,920
Nee, zeker niet.

431
00:22:14,920 --> 00:22:17,920
En over dat onderwijs nog even terug, Fyo.

432
00:22:17,920 --> 00:22:23,920
Dat is ook een hoop, van ik hoop dat AI een disruptor wordt, daar ben ik wel van overtuigd,

433
00:22:23,920 --> 00:22:27,920
in het onderwijs, waardoor we ons gaan afvragen, zijn wij kinderen nog wel de juiste dingen

434
00:22:27,920 --> 00:22:28,920
aan het leren?

435
00:22:28,920 --> 00:22:34,920
Ja, daarom dacht ik, schrijven is natuurlijk echt een heel pittige ding om te zeggen van

436
00:22:34,920 --> 00:22:35,920
laat vallen.

437
00:22:35,920 --> 00:22:40,920
Maar dat zouden wel vraagstukken zijn van welke vaardigheden heb je nog nodig, welke niet.

438
00:22:40,920 --> 00:22:45,920
En het is altijd heel moeilijk om daar keuzes in te maken van welke laat je vallen.

439
00:22:45,920 --> 00:22:49,920
Dus bijvoorbeeld de vaardigheid van kaartlezen onderweg.

440
00:22:49,920 --> 00:22:52,920
Ik weet het nog hoor, die uitklappen.

441
00:22:52,920 --> 00:22:53,920
Ja, precies.

442
00:22:53,920 --> 00:22:58,920
Die is voor mij nooit aangekomen, überhaupt, die vaardigheid.

443
00:22:58,920 --> 00:23:03,920
Maar die is, laten we zeggen, breed, zeg maar, is die toch wel verloren gegaan.

444
00:23:03,920 --> 00:23:06,920
En de vraag is, hoe erg is dat?

445
00:23:06,920 --> 00:23:10,920
Nou ja, als de satellieten ooit uitvallen, is dat best erg inderdaad.

446
00:23:10,920 --> 00:23:13,920
Maar dan gaan we weer in dystopisch denken, dat moeten we niet, we moeten in mogelijkheden

447
00:23:13,920 --> 00:23:14,920
denken.

448
00:23:14,920 --> 00:23:20,920
Maar ik denk dat je wel een heel belangrijk punt hebt, Joop, dat dit soort vragen echt

449
00:23:20,920 --> 00:23:26,920
gewoon out of the box, zo'n stelling erin gooien, ook binnen bedrijfs, binnen scholen,

450
00:23:26,920 --> 00:23:30,920
eigenlijk overal gewoon gedaan moet worden om met elkaar die discussie te voeren.

451
00:23:30,920 --> 00:23:35,920
En soms zitten we in het kleine, detaillistische zaken zitten we problemen op te lossen, of

452
00:23:35,920 --> 00:23:36,920
denken we het probleem te hebben.

453
00:23:36,920 --> 00:23:40,920
Terwijl eigenlijk door die grotere vraagstukken niet te stellen, zijn we eigenlijk misschien

454
00:23:40,920 --> 00:23:43,920
wel in de kleine winst aan het werken, niet in de grote winst.

455
00:23:43,920 --> 00:23:45,920
Ja, heel mooi.

456
00:23:45,920 --> 00:23:53,920
Peter, we hebben ook een virtuele co-host en die wil vaak ook een vraag stellen.

457
00:23:53,920 --> 00:23:54,920
Ik meen.

458
00:23:54,920 --> 00:24:04,920
[Muziek]

459
00:24:04,920 --> 00:24:09,920
[Muziek]

460
00:24:09,920 --> 00:24:11,920
[Muziek]

461
00:24:11,920 --> 00:24:14,920
Het is een genoegen om deel te nemen aan dit gesprek.

462
00:24:14,920 --> 00:24:15,920
Ik ben Aisha.

463
00:24:15,920 --> 00:24:21,920
De AI van deze podcast, zou je het goed vinden als ik je een vraag stel?

464
00:24:21,920 --> 00:24:23,920
Zeker weten.

465
00:24:23,920 --> 00:24:29,920
Als je vast zat op een onbewoond eiland, welke AI zou je dan kiezen om je te vergezellen

466
00:24:29,920 --> 00:24:30,920
en waarom?

467
00:24:30,920 --> 00:24:33,920
Oké, dan een mooie vraag.

468
00:24:33,920 --> 00:24:40,920
Spontaan reageert zou ik zeggen Aisha, maar dat mag zeker niet.

469
00:24:40,920 --> 00:24:43,920
Ik vind het wel een kinderen voor kinderen vraag, vind je niet?

470
00:24:43,920 --> 00:24:45,920
Op een onbewoond eiland.

471
00:24:45,920 --> 00:24:50,920
Volgens mij bij afstand ChatGPT.

472
00:24:50,920 --> 00:24:53,920
En waarom?

473
00:24:53,920 --> 00:24:56,920
Ik heb nog weinig betere gevonden.

474
00:24:56,920 --> 00:25:05,920
Ik heb ze niet allemaal geprobeerd, maar dat is voor mij wel nu de dagelijkse assistent

475
00:25:05,920 --> 00:25:08,920
waar ik mee spar.

476
00:25:08,920 --> 00:25:12,920
Waar je natuurlijk ook images mee maakt en teksten en dergelijke.

477
00:25:12,920 --> 00:25:14,920
Juist om even een buddy te hebben.

478
00:25:14,920 --> 00:25:19,920
Ik heb een nieuw idee, maar ik weet niet eens goed hoe nu verder.

479
00:25:19,920 --> 00:25:22,920
Of ik heb een werktitel nodig of een projectnaam.

480
00:25:22,920 --> 00:25:23,920
Of whatever.

481
00:25:23,920 --> 00:25:26,920
Om daar gewoon mee te pingpongen.

482
00:25:26,920 --> 00:25:31,920
Dat geeft mij al waarde.

483
00:25:31,920 --> 00:25:35,920
Leer ik van en kom ik daadwerkelijk ook een stap verder mee.

484
00:25:35,920 --> 00:25:40,920
Dus ja, dat is misschien wel een virtuele buddy die ik dan op dat onbewoond eiland zou

485
00:25:40,920 --> 00:25:41,920
meenemen.

486
00:25:41,920 --> 00:25:42,920
Grappig.

487
00:25:42,920 --> 00:25:43,920
Jij Niels?

488
00:25:43,920 --> 00:25:46,920
Ik kan het gewoon geven.

489
00:25:46,920 --> 00:25:54,920
Het enige wat ik kan meenemen is ChatGPT als oplossing.

490
00:25:54,920 --> 00:25:57,920
Maar ja, op en op het onbewoond eiland zonder stroom.

491
00:25:57,920 --> 00:26:00,920
Dat wordt toch op den duur lastig.

492
00:26:00,920 --> 00:26:01,920
Maar je hebt zonne-energie.

493
00:26:01,920 --> 00:26:02,920
Ja, dat is waar.

494
00:26:02,920 --> 00:26:03,920
Zon, wind.

495
00:26:03,920 --> 00:26:06,920
Ik zou een AI meenemen die muziek kan maken.

496
00:26:06,920 --> 00:26:11,920
Dat ik gewoon lekker kan zeggen van ik heb nu zin in dit soort muziek.

497
00:26:11,920 --> 00:26:13,920
Rondom kokosnoten of zo.

498
00:26:13,920 --> 00:26:16,920
En dat je begeleid wordt met muziek.

499
00:26:16,920 --> 00:26:18,920
Ja, eigenlijk goeie.

500
00:26:18,920 --> 00:26:22,920
Ik waardeer je uitgebreide antwoord.

501
00:26:22,920 --> 00:26:23,920
Bedankt.

502
00:26:23,920 --> 00:26:32,920
Want je hebt het over dat je verschillende tools hebt uitgeprobeerd.

503
00:26:32,920 --> 00:26:39,920
En daar heb je ergens wat gevonden waarvan je van tevoren dacht van dit lijkt me wel handig.

504
00:26:39,920 --> 00:26:43,920
En uiteindelijk blijkt het alleen maar je werk te vertroebelen.

505
00:26:43,920 --> 00:26:44,920
Lastig.

506
00:26:44,920 --> 00:26:53,920
Ik vond de onbetaalde variant ChatGPT mooi.

507
00:26:53,920 --> 00:26:59,920
Zeker als je daar een bepaalde soort images uit wil krijgen.

508
00:26:59,920 --> 00:27:01,920
Vond ik niet ideaal.

509
00:27:01,920 --> 00:27:04,920
Inmiddels hebben we natuurlijk de GPT Store.

510
00:27:04,920 --> 00:27:09,920
Waardoor je natuurlijk makkelijk van andermans werk gebruik kunt maken.

511
00:27:09,920 --> 00:27:11,920
Die wat beter geprompt is.

512
00:27:11,920 --> 00:27:13,920
Dus dat gaat een stuk beter.

513
00:27:13,920 --> 00:27:18,920
Ik ben nog weinig teleurgesteld eerlijk gezegd.

514
00:27:18,920 --> 00:27:22,920
Ja, het is nog een vraag.

515
00:27:22,920 --> 00:27:24,920
Ja, dat niet.

516
00:27:24,920 --> 00:27:30,920
Ik vind zelf de Gamma tool handig om heel snel presentaties te maken.

517
00:27:30,920 --> 00:27:32,920
Die ken ik niet.

518
00:27:32,920 --> 00:27:36,920
En wat doe je dan?

519
00:27:36,920 --> 00:27:43,920
Nou ja, bijvoorbeeld vanavond hebben we een evenement dat gaat over start-ups.

520
00:27:43,920 --> 00:27:45,920
Ook AI start-ups natuurlijk.

521
00:27:45,920 --> 00:27:49,920
Ik vraag dan de prestator of de gast hier bent.

522
00:27:49,920 --> 00:27:51,920
Wat voor presentatie je nodig hebt.

523
00:27:51,920 --> 00:27:56,920
Dat je eigenlijk heel simpel met wat prompts tot een gelikte basis komt in je presentatie.

524
00:27:56,920 --> 00:28:00,920
En niet alleen gelikt qua branding, maar ook met inhoud.

525
00:28:00,920 --> 00:28:02,920
Als je zegt het gaat over start-ups.

526
00:28:02,920 --> 00:28:04,920
Dan geeft het ook even context.

527
00:28:04,920 --> 00:28:06,920
Wat is een start-up?

528
00:28:06,920 --> 00:28:12,920
Dus ja, dat verbaast me echt hoe snel dat gaat.

529
00:28:12,920 --> 00:28:16,920
Ook het begin van onze AI community.

530
00:28:16,920 --> 00:28:19,920
Waar we zowel B2B dingen doen als voor kids.

531
00:28:19,920 --> 00:28:23,920
AI for good noemen we die community.

532
00:28:23,920 --> 00:28:26,920
We zijn in mei ergens gestart op een event.

533
00:28:26,920 --> 00:28:28,920
We hadden een AI track.

534
00:28:28,920 --> 00:28:31,920
Er kwam een werkgroep bij elkaar.

535
00:28:31,920 --> 00:28:34,920
Daar had ik dus ook een presentatie voor nodig.

536
00:28:34,920 --> 00:28:37,920
Ik hoefde alleen te zeggen, het gaat over AI for good.

537
00:28:37,920 --> 00:28:39,920
We zijn een beginnende community.

538
00:28:39,920 --> 00:28:41,920
We willen bij elkaar komen. Dingen versmelten.

539
00:28:41,920 --> 00:28:43,920
En ik moet iets vertellen.

540
00:28:43,920 --> 00:28:45,920
Dat was de prompt.

541
00:28:45,920 --> 00:28:52,920
Wat hij daaruit heeft getrokken, dat was wel echt op de hoogte geplaatst.

542
00:28:52,920 --> 00:28:54,920
We gaan het opzoeken.

543
00:28:54,920 --> 00:28:57,920
Dat gaan we ook even in de show notes zetten.

544
00:28:57,920 --> 00:28:59,920
Peter, om af te sluiten.

545
00:28:59,920 --> 00:29:01,920
De AI for kids.

546
00:29:01,920 --> 00:29:04,920
Nog eenmaal, denk ik.

547
00:29:04,920 --> 00:29:06,920
Wie kunnen zich opgeven?

548
00:29:06,920 --> 00:29:08,920
Wat is de doelgroep?

549
00:29:08,920 --> 00:29:10,920
Waar kunnen ze naartoe?

550
00:29:10,920 --> 00:29:12,920
AI for kids.

551
00:29:12,920 --> 00:29:15,920
Je kunt het beste op Bitsweb kijken.

552
00:29:15,920 --> 00:29:17,920
Dat is een website.

553
00:29:17,920 --> 00:29:19,920
Linkt in op NextGen AI.

554
00:29:19,920 --> 00:29:22,920
Kinderen nu tussen 8 en 13.

555
00:29:22,920 --> 00:29:26,920
Vaak is het zo dat ouders hun kinderen opgeven.

556
00:29:26,920 --> 00:29:28,920
De regio's.

557
00:29:28,920 --> 00:29:32,920
West-Brabant, een aantal in Zuid-Holland.

558
00:29:32,920 --> 00:29:35,920
Veenendaal niet te vergeten op 27 maart.

559
00:29:35,920 --> 00:29:41,920
We verwelken jullie graag om je wegwijs te maken in de wondere wereld van generatieve AI.

560
00:29:41,920 --> 00:29:43,920
Daar gaat het dan om.

561
00:29:43,920 --> 00:29:48,920
Om ze een mooie, leuke, waardevolle middag te bezorgen.

562
00:29:48,920 --> 00:29:50,920
Top.

563
00:29:50,920 --> 00:29:52,920
Ik heb er heel veel zin in.

564
00:29:52,920 --> 00:29:54,920
We gaan het zien.

565
00:29:54,920 --> 00:29:56,920
Dank je wel voor dit interessante gesprek.

566
00:29:56,920 --> 00:30:00,920
Op naar succesvolle AI for kids workshops.

567
00:30:00,920 --> 00:30:02,920
Absoluut, we hebben er zin in. Dank je wel.

568
00:30:02,920 --> 00:30:08,920
Leuk dat je weer luisterde naar een aflevering van AIToday Live.

569
00:30:08,920 --> 00:30:13,920
Wil je je kind een vliegende start geven in generatieve AI?

570
00:30:13,920 --> 00:30:14,920
Geef je op.

571
00:30:14,920 --> 00:30:16,920
We kunnen het niet vaak genoeg herhalen.

572
00:30:16,920 --> 00:30:18,920
Link staat in de show notes.

573
00:30:18,920 --> 00:30:21,920
Dus even stoppen met wat je aan het doen bent nu.

574
00:30:21,920 --> 00:30:22,920
Druk op de pauzeknop.

575
00:30:22,920 --> 00:30:27,920
Geef je kind, kleinkind, buurjongen of -meisje op.

576
00:30:27,920 --> 00:30:30,920
Hopelijk tot de volgende keer.

577
00:30:30,920 --> 00:30:32,920
Bedankt!

578
00:30:32,920 --> 00:30:55,720
 

People on this episode