AIToday Live

S06E94 - AI en de schatkamer van Nederlands media-erfgoed met John Leek

Aigency by Info Support Season 6 Episode 94

John Leek, strategisch adviseur bij Beeld & Geluid, bespreekt de inzet van AI voor het ontsluiten van Nederlands media-erfgoed. Hij belicht kansen zoals verbeterde zoekfuncties en een eigen taalmodel voor het archief.

Leek benadrukt het belang van autonomie en vertrouwen bij het gebruik van AI-systemen. Hij deelt ervaringen over de toepassing van AI in het kunstvakonderwijs en de culturele sector.

Onderwerpen

  • Inzet van AI in media-erfgoed
  • Doorzoekbaarheid en toegankelijkheid van archieven
  • Uitdagingen van AI in de culturele sector
  • AI in kunstvakonderwijs
  • Maatschappelijke impact van AI

Links

Genoemde entiteiten: Beeld & Geluid

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,001 --> 00:00:05,980
In deze aflevering hoor je John Leek, strategisch adviseur bij Beeld & Geluid,

2
00:00:05,980 --> 00:00:13,720
over hoe AI een schatkamer aan Nederlands media-erfgoed kan ontsluiten voor het grote publiek.

3
00:00:13,720 --> 00:00:21,840
Vanuit zijn passie voor mens en technologie deelt hij een verrassend perspectief op hoe we AI kunnen inzetten

4
00:00:21,840 --> 00:00:24,880
om juist de verbinding tussen mensen te versterken.

5
00:00:24,880 --> 00:00:26,640
Dus blijf luisteren!

6
00:00:28,820 --> 00:00:32,520
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

7
00:00:32,520 --> 00:00:35,340
En vandaag van een prachtige locatie hier Niels.

8
00:00:35,340 --> 00:00:36,340
Ja, een speciaaltje.

9
00:00:36,340 --> 00:00:38,880
We zitten in het Museum voor Beeld & Geluid.

10
00:00:38,880 --> 00:00:40,740
Zijn we uitgenodigd door John Leek.

11
00:00:40,740 --> 00:00:43,360
John, dankjewel dat je ons hier hebt uitgenodigd.

12
00:00:43,360 --> 00:00:47,380
We hadden net eventjes, heel kort hadden we een gesprek.

13
00:00:47,380 --> 00:00:51,700
Eigenlijk zitten we hier op een schatkamer, zoals we zeiden, aan content.

14
00:00:51,700 --> 00:00:57,260
En daar willen we het vandaag over hebben, over kunstmatige intelligentie, media, cultuur.

15
00:00:57,640 --> 00:00:59,100
Wat zei je?

16
00:00:59,100 --> 00:01:01,640
Publieke organisaties, private organisaties.

17
00:01:01,640 --> 00:01:04,320
En daar zitten jullie als een soort van hub middenin.

18
00:01:04,320 --> 00:01:06,840
Daar willen we straks van alles over weten.

19
00:01:06,840 --> 00:01:10,060
Maar misschien wil je jezelf eerst even voorstellen.

20
00:01:10,060 --> 00:01:13,300
Nou Joop, misschien voor het nieuwe luisteraar is het ook leuk om even te vertellen wie wij zijn.

21
00:01:13,380 --> 00:01:15,340
Oh ja, mijn naam is Joop Snijder, CTO bij Aigency.

22
00:01:15,340 --> 00:01:16,120
Even heel kort.

23
00:01:16,120 --> 00:01:18,680
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support.

24
00:01:18,680 --> 00:01:18,980
Ja.

25
00:01:18,980 --> 00:01:20,420
John, aan jou de eer.

26
00:01:20,420 --> 00:01:20,860
Ja.

27
00:01:20,860 --> 00:01:22,540
Nou, mijn naam is John Leek.

28
00:01:22,540 --> 00:01:24,120
Ik werk bij Beeld & Geluid.

29
00:01:24,120 --> 00:01:26,200
Althans, ik heb eigenlijk al afscheid genomen.

30
00:01:26,480 --> 00:01:30,400
Maar dat is grappig, want ik ben opnieuw weer begonnen.

31
00:01:30,400 --> 00:01:36,560
Dus ik doe nog een dag, anderhalve dag in de week voor Beeld & Geluid, doe ik nog bepaalde klussen.

32
00:01:36,560 --> 00:01:36,940
Ja.

33
00:01:37,360 --> 00:01:42,620
En ja, dat is eigenlijk op verzoek ook van de organisatie.

34
00:01:42,620 --> 00:01:45,700
En ook omdat het dossiers zijn die niet zo heel makkelijk waren over te dagen.

35
00:01:45,700 --> 00:01:49,400
En bovendien vind ik ze ook erg leuk om er nog bij betrokken te zijn.

36
00:01:49,400 --> 00:01:51,680
En wat is de functie nu dan?

37
00:01:51,680 --> 00:02:00,500
Ja, nou, formeel staat in mijn handtekening op, in de e-mail staat nog steeds strategische adviseur.

38
00:02:00,500 --> 00:02:02,340
Dus laten we dat maar bijhouden.

39
00:02:02,340 --> 00:02:02,640
Ja, mooi.

40
00:02:02,640 --> 00:02:02,940
Ja.

41
00:02:02,940 --> 00:02:05,700
Nou, ik ben dus John Leek.

42
00:02:05,900 --> 00:02:09,940
Ik werk bij Beeld & Geluid eigenlijk al vanaf het prille begin, toen het gebouw er nog niet stond.

43
00:02:09,940 --> 00:02:14,640
Ik ben, ik kwam vanuit NEMO, het Science Center, wat ik heb helpen ontwikkelen in Amsterdam.

44
00:02:14,640 --> 00:02:22,640
Ik ben met name gekomen voor het deel van de experience, om de experience te ontwikkelen, wat nu het museum heet eigenlijk.

45
00:02:22,640 --> 00:02:22,980
Ja.

46
00:02:22,980 --> 00:02:25,180
Beeld & Geluid, jij noemde Beeld & Geluid het museum.

47
00:02:25,180 --> 00:02:30,880
We zijn in een museum, maar we zijn feitelijk in een organisatie, in een gebouw wat meerdere functies heeft.

48
00:02:30,880 --> 00:02:32,840
De primaire functie is eigenlijk het archief.

49
00:02:33,920 --> 00:02:36,900
En het museum is zeg maar de etalage van het archief.

50
00:02:36,900 --> 00:02:37,380
Ja, precies.

51
00:02:37,380 --> 00:02:38,240
Zo zou je het een beetje kunnen zien.

52
00:02:38,240 --> 00:02:38,660
Oh ja.

53
00:02:38,960 --> 00:02:40,840
En daarnaast zijn we ook nog een kennisinstelling.

54
00:02:40,840 --> 00:02:42,660
Dus we hebben eigenlijk drie functies, zou je kunnen zeggen.

55
00:02:42,660 --> 00:02:45,660
En daar werk ik dus sinds 2000.

56
00:02:45,660 --> 00:02:48,240
Maar ik heb mezelf al een paar keer opnieuw uitgevonden hier.

57
00:02:48,240 --> 00:02:51,800
Dus ik ben eigenlijk gekomen om die experience te ontwikkelen.

58
00:02:51,800 --> 00:02:53,720
Dat was in 2007 klaar.

59
00:02:53,720 --> 00:02:56,860
Want toen ging het open hier, dit gebouw, met de koningin erbij, et cetera.

60
00:02:58,060 --> 00:03:01,100
Toen was het moment van, zo'n turning point, wat ga je dan doen?

61
00:03:01,100 --> 00:03:06,600
Nou, toen diende zich een vraagstuk aan, wat misschien zo over gaan hebben.

62
00:03:06,600 --> 00:03:12,020
Vanuit de Raad van Cultuur, namelijk de opkomst van de platforms in de samenleving.

63
00:03:13,080 --> 00:03:17,860
Die noopten de overheid om een antwoord te vinden op die ontwikkeling, op digitalisering.

64
00:03:17,860 --> 00:03:19,880
En die kwamen met de term mediawijsheid.

65
00:03:19,880 --> 00:03:22,580
Alleen ze wisten niet zo goed wat ze ermee moesten.

66
00:03:22,580 --> 00:03:25,340
En toen kwamen ze bij Beeld en Geluid onder andere.

67
00:03:25,340 --> 00:03:30,880
En toen werd ik mede kwartiermaker om dat onderwerp, zeg maar, om te bouwen naar een heel nationaal programma.

68
00:03:30,880 --> 00:03:34,420
Niet alleen gedaan, maar ik was wel een van de kwartiermakers daarvoor.

69
00:03:34,420 --> 00:03:39,340
Dus dat werd een nieuwe rol, zou je kunnen zeggen, naast mijn rol als hoofd hier van een afdeling.

70
00:03:39,960 --> 00:03:43,960
En datzelfde heb ik nog een keer later ook gedaan vanaf 2014, 2015.

71
00:03:43,960 --> 00:03:47,160
Toen ik met campusontwikkeling begon hier op het park.

72
00:03:47,160 --> 00:03:52,660
Omdat je veel meer, in plaats van vanuit een individuele organisatie te denken,

73
00:03:52,660 --> 00:03:55,460
veel meer vanuit een ecosysteemgedachte moet gaan werken.

74
00:03:55,460 --> 00:03:59,780
Omdat je, ja, als je de antwoorden op de grote vragen wil kunnen geven als organisatie,

75
00:03:59,780 --> 00:04:01,760
dan moet je veel meer in samenwerkingsverbanden gaan werken.

76
00:04:01,760 --> 00:04:05,700
En dat is eigenlijk in 2014, 2015 ben ik daarmee begonnen.

77
00:04:05,700 --> 00:04:07,040
En dat loopt eigenlijk nog steeds door.

78
00:04:07,380 --> 00:04:12,060
Zijn daar ook dan grote vraagstukken rond het thema kunstmatige intelligentie?

79
00:04:12,060 --> 00:04:17,860
Nou, in wezen wel, want die lopen feitelijk in het verlengde van het hele thema mediawijsheid.

80
00:04:17,860 --> 00:04:19,580
Dat kwam natuurlijk op in 2005.

81
00:04:19,580 --> 00:04:21,520
Toen kwam dat rapport van de Raad voor Cultuur.

82
00:04:21,520 --> 00:04:24,380
Op weg naar nieuw burgerschap heette dat.

83
00:04:24,380 --> 00:04:30,340
Die zagen de opkomst van de Googles en YouTube en LinkedIn al een beetje eerder.

84
00:04:31,100 --> 00:04:35,300
En die zagen voor zagen natuurlijk al dat het een groot impact ging hebben in de samenleving.

85
00:04:35,300 --> 00:04:42,320
En die term mediawijsheid, dat moet je een beetje zien als een soort, ja, het is eigenlijk een soort,

86
00:04:42,320 --> 00:04:50,100
een begrip wat staat voor het empoweren van Nederlanders om zich goed te kunnen handhaven,

87
00:04:50,100 --> 00:04:52,760
volwaardig mee te kunnen doen in de samenleving die digitaliseert.

88
00:04:53,620 --> 00:04:55,400
En zijn jullie ook betrokken bij de basisschool?

89
00:04:55,400 --> 00:04:57,300
Die hebben nu een week van de mediawijsheid gehad.

90
00:04:57,300 --> 00:05:00,260
Die wordt vanuit dit gebouw georganiseerd, ja.

91
00:05:00,260 --> 00:05:02,420
Dat netwerk mediawijsheid, dat zit in dit gebouw.

92
00:05:02,420 --> 00:05:06,340
Dat is dus voortgekomen uit die kwartiermakingsrol waar je het net over had.

93
00:05:06,340 --> 00:05:09,220
Dus dat is een nationaal programma geworden in 2008.

94
00:05:09,220 --> 00:05:09,880
Mooi.

95
00:05:10,140 --> 00:05:15,000
Maar om op jouw vraag terug te komen, want jouw vraag ging natuurlijk over kunstmatigheid.

96
00:05:15,000 --> 00:05:15,660
Precies, ja.

97
00:05:15,660 --> 00:05:23,200
Maar in wezen is dat die hele beweging van het versterken van mediawijsheid in de samenleving,

98
00:05:23,200 --> 00:05:26,380
is nauw verbonden natuurlijk met de ontwikkeling van de technologie.

99
00:05:26,380 --> 00:05:29,380
Wij gingen er toen vanuit dat het programma vier jaar zou bestaan.

100
00:05:29,380 --> 00:05:31,840
Zoals het vaak met gefinanciërde programma's vanuit de overheid gaat.

101
00:05:31,840 --> 00:05:36,160
Je doet dat vier jaar, ja, als je het oneindig gaat doen, dan wordt het een instituut.

102
00:05:36,160 --> 00:05:38,020
Dat was niet in voorzien.

103
00:05:38,340 --> 00:05:44,380
Maar gaandeweg naar dit merkten we al, ja, maar jeetje, het is een soort fast moving targets verhaal.

104
00:05:44,380 --> 00:05:49,580
Dus je bent bezig met de ontwikkeling van zo'n programma rondom het verbeteren van mediawijsheid in basisscholen,

105
00:05:49,580 --> 00:05:53,260
überhaupt in het onderwijs, maar ook in de samenleving.

106
00:05:53,260 --> 00:05:55,860
Maar ja, in de tussentijd ontwikkelde technologie zich.

107
00:05:55,860 --> 00:05:59,360
En nu hebben we het over kunstmatige intelligentie en algoritmes enzovoorts.

108
00:05:59,360 --> 00:06:00,900
En de impact daarvan op het dagelijks leven.

109
00:06:00,900 --> 00:06:05,480
Dat is nu inmiddels ook een onderwerp van dat programma Mediawijsheid.

110
00:06:05,480 --> 00:06:06,840
Dus dat gaat gewoon verder.

111
00:06:06,840 --> 00:06:08,000
Mooi.

112
00:06:08,000 --> 00:06:12,820
En ik had gezien, jullie hebben ook de Week van de Media gehad.

113
00:06:12,820 --> 00:06:13,780
Zeg ik dat goed zo, hè?

114
00:06:13,780 --> 00:06:14,680
De Dutch Media Week.

115
00:06:14,680 --> 00:06:15,800
De Dutch Media Week, ja.

116
00:06:15,800 --> 00:06:22,020
En een van de dingen die mij daarin opviel, dat het ook ging over deepfakes.

117
00:06:22,020 --> 00:06:27,040
En vaak als we het over deepfakes hebben, hebben we het over misinformatie, desinformatie.

118
00:06:27,200 --> 00:06:31,440
Maar wat me eigenlijk opviel, is dat er namelijk ook een andere kant belegd werd.

119
00:06:31,440 --> 00:06:36,260
Hoe zou je deepfakes in kunnen zetten op een positieve manier?

120
00:06:36,260 --> 00:06:38,500
Daar was ik eigenlijk wel benieuwd naar.

121
00:06:38,500 --> 00:06:44,280
Maar misschien zou jij voor de luisteraar eerst even kunnen aangeven, weet je, wat zijn misschien deepfakes volgens jou?

122
00:06:44,280 --> 00:06:46,340
En hoe spelen die een rol in de media?

123
00:06:46,340 --> 00:06:48,880
Nou ja, kijk, deepfakes.

124
00:06:48,880 --> 00:07:00,140
Het is in wezen het creëren van mediaboodschappen die gebaseerd zijn op informatie die uit een onbetrouwbare bron komt.

125
00:07:00,300 --> 00:07:03,020
Dus die je in feite niet kunt herleiden tot een betrouwbare bron.

126
00:07:03,020 --> 00:07:08,760
En op die manier, en dat is voor veel mensen ook al zodanig moeilijk te herkennen.

127
00:07:08,760 --> 00:07:10,440
Zeker als dat in een video gebeurt.

128
00:07:10,440 --> 00:07:20,200
Dus een video die gecreëerd wordt op basis van een boodschap waar een intentie achter zit met een heel ander doel dan dat herleiden is tot een betrouwbare bron.

129
00:07:20,200 --> 00:07:23,720
Dan is dat natuurlijk, dan is het best heel kwalijk.

130
00:07:23,720 --> 00:07:25,700
En dat is natuurlijk wat heel veel aan de hand is nu.

131
00:07:25,700 --> 00:07:27,920
En daar wordt natuurlijk naar gezocht.

132
00:07:27,920 --> 00:07:29,560
Van hoe kun je dat dan bestrijden, et cetera.

133
00:07:30,000 --> 00:07:31,660
Je merkt en je kent die discussie misschien niet.

134
00:07:31,660 --> 00:07:31,940
Zeker.

135
00:07:31,940 --> 00:07:33,260
Die kennen jullie natuurlijk wel.

136
00:07:33,260 --> 00:07:35,460
Ik heb in eerdere podcasts ook iets over gehoord.

137
00:07:35,460 --> 00:07:42,440
Maar goed, en dan is jouw vraag van hoe kun je dat aanwenden ten goede.

138
00:07:42,440 --> 00:07:47,580
Het is er net als met propaganda, dat kun je ten goede en ten kwade aanwenden natuurlijk.

139
00:07:47,580 --> 00:07:53,440
Ja, maar de grap is dat daar natuurlijk een hele negatieve sfeer omheen hangt.

140
00:07:53,440 --> 00:07:54,740
Je noemt propaganda.

141
00:07:54,740 --> 00:07:57,100
Ik denk dat mensen meteen zoiets negatiefs voelen.

142
00:07:57,100 --> 00:07:58,000
Deepfakes ook.

143
00:07:58,100 --> 00:08:02,540
Maar hoe zou het dan, als je dat concreet maakt, tot iets positiefs kunnen leiden?

144
00:08:02,540 --> 00:08:06,000
Het is framing.

145
00:08:06,000 --> 00:08:07,040
Het is vooral framing.

146
00:08:07,040 --> 00:08:14,660
Ik denk dat heel veel dingen voortkomen uit het feit dat mensen niet exact weten hoe dingen in elkaar zitten, hoe het werkt.

147
00:08:14,660 --> 00:08:19,040
Op het moment dat je het in een context plaatst, en dat is natuurlijk met Deepfakes aan de hand.

148
00:08:19,140 --> 00:08:25,640
Waarom? Omdat het zoveel ingezet wordt met een specifiek doel, namelijk om politiek te dereguleren.

149
00:08:25,640 --> 00:08:26,980
Of de samenleving te ontwrichten.

150
00:08:26,980 --> 00:08:30,020
Of met dat soort doelstellingen.

151
00:08:30,020 --> 00:08:32,240
Dan is het nog vrij logisch dat het in een...

152
00:08:32,240 --> 00:08:32,540
Zeker.

153
00:08:32,540 --> 00:08:38,000
Maar dezelfde technologie kun je natuurlijk ook inzetten voor andere doelstellingen.

154
00:08:38,000 --> 00:08:40,340
Voor nobele doelstellingen.

155
00:08:40,340 --> 00:08:43,840
Als je dat zegt, het punt is alleen, je moet transparant zijn over waar je mee bezig bent.

156
00:08:43,840 --> 00:08:45,300
Dat is natuurlijk waar het vaak al ontbreekt.

157
00:08:45,300 --> 00:08:48,520
En heb je voorbeelden in de praktijk waar aan gewerkt wordt?

158
00:08:48,520 --> 00:08:51,620
Of waar mensen nu naar kijken voor die positieve zin van die Deepfakes?

159
00:08:51,880 --> 00:08:53,680
Antwoord is eigenlijk heel simpel. Nee.

160
00:08:53,680 --> 00:08:55,480
Daar heb ik geen voorbeeld van.

161
00:08:55,480 --> 00:08:55,820
Nee.

162
00:08:55,820 --> 00:09:01,000
In die week, want jij refereerde aan die Dutch Media Week, ging het met name om die ene dag.

163
00:09:01,000 --> 00:09:02,340
Dan heb ik het over 3 oktober.

164
00:09:02,340 --> 00:09:11,920
Die middag stond vooral in het teken van hoe herbouwen we vertrouwen in de samenleving.

165
00:09:11,920 --> 00:09:14,920
In journalistiek en in nieuwsvoorziening.

166
00:09:14,920 --> 00:09:15,620
In het algemeen.

167
00:09:15,620 --> 00:09:20,260
Omdat het algemeen publiek en het publiek, maar in brede zin geldt dat voor heel veel mensen.

168
00:09:20,480 --> 00:09:22,580
Ook zelfs hoger opgeleiden.

169
00:09:22,580 --> 00:09:26,880
Is het vertrouwen in instanties, staat natuurlijk heel erg onder druk.

170
00:09:26,880 --> 00:09:27,340
Absoluut.

171
00:09:27,340 --> 00:09:28,580
Of is soms helemaal verdwenen.

172
00:09:28,580 --> 00:09:31,540
Het heeft wel alles te maken met de huidige politieke omstandigheden natuurlijk.

173
00:09:31,540 --> 00:09:39,560
Maar hoe kun je nou zorgen dat dat vertrouwen weer, zeg maar, herwonnen is misschien wel heel ambitieus.

174
00:09:39,560 --> 00:09:41,380
Maar in ieder geval dat je het kan verbeteren.

175
00:09:41,380 --> 00:09:45,020
En dat geldt natuurlijk voor vertrouwen ook van burgers op straat.

176
00:09:45,020 --> 00:09:47,820
In de directe lokale journalistiek bijvoorbeeld.

177
00:09:48,020 --> 00:09:50,580
Maar ook in de lokale besturen.

178
00:09:50,580 --> 00:09:52,060
Maar ook in instanties.

179
00:09:52,060 --> 00:09:53,360
In scholen, dokters.

180
00:09:53,360 --> 00:09:56,340
We hebben bijvoorbeeld inentingscampagnes mis zien gaan.

181
00:09:56,340 --> 00:10:02,700
Omdat kinderen denken dat het, versterkt door social media, dat het averechts werkt of ongezond is.

182
00:10:02,900 --> 00:10:05,620
Hoe kan je dan als overheid nog een goede campagne voeren?

183
00:10:05,620 --> 00:10:07,140
Dat zijn allemaal hele kwalijke zaken.

184
00:10:07,140 --> 00:10:10,300
Hoe kun je dat nou verbeteren?

185
00:10:10,300 --> 00:10:14,420
En met name richten we ons in eerste instantie dan even op de journalistiek.

186
00:10:14,420 --> 00:10:17,340
Dus dat is in het belang ook van private partijen.

187
00:10:17,340 --> 00:10:19,060
Dus ook de nieuwsorganisaties.

188
00:10:19,060 --> 00:10:20,500
De grote nieuwsorganisaties.

189
00:10:20,500 --> 00:10:22,480
Commercieel, maar ook publiek.

190
00:10:23,040 --> 00:10:25,140
Die merken natuurlijk in hun businessmodel.

191
00:10:25,140 --> 00:10:27,220
In de relatie met hun klanten.

192
00:10:27,220 --> 00:10:28,720
Dat dat heel kwalijk is.

193
00:10:28,720 --> 00:10:30,280
Dat dat heel slecht werkt.

194
00:10:30,280 --> 00:10:31,640
Als zij niet meer vertrouwd worden.

195
00:10:31,640 --> 00:10:35,640
Dan doen ze er niet meer toe eigenlijk.

196
00:10:35,640 --> 00:10:37,940
Dus zij hebben er ook iets bij te winnen.

197
00:10:37,940 --> 00:10:39,680
Dus zij zijn ook betrokken bij dat initiatief.

198
00:10:40,180 --> 00:10:45,620
En ik kan me voorstellen, want dan heb je de kracht van de technologie.

199
00:10:45,620 --> 00:10:49,620
Die van buitenaf eigenlijk misschien een bedreiging is voor wat jij nu noemt.

200
00:10:49,620 --> 00:10:54,880
Zou je het ook om kunnen draaien van waar de technologie je zou kunnen helpen?

201
00:10:54,880 --> 00:10:59,580
Nou ja, het is net als met elke technologie.

202
00:10:59,580 --> 00:11:02,660
Het is Marshall McLuhan, beroemde media wetenschapper.

203
00:11:02,660 --> 00:11:05,440
Die zei ook media are the extensions of man.

204
00:11:05,440 --> 00:11:07,940
Dat geldt feitelijk voor technologie in het algemeen natuurlijk.

205
00:11:08,360 --> 00:11:11,760
Dus op het moment dat je het zo ziet, dan kom ik bij wat ik net al zei.

206
00:11:11,760 --> 00:11:13,700
Dan kun je het ten goede en ten kwade aanwenden.

207
00:11:13,700 --> 00:11:16,620
En algoritmes.

208
00:11:16,620 --> 00:11:19,660
Wij hebben bijvoorbeeld zelf, daar was ik zelf nou bij betrokken twee jaar geleden.

209
00:11:19,660 --> 00:11:21,120
Een project gedaan.

210
00:11:21,120 --> 00:11:22,460
Dat heette Tel mee met taal.

211
00:11:22,460 --> 00:11:24,560
En hoe kun je binnen dat Tel mee met taal.

212
00:11:24,560 --> 00:11:27,060
Hoe konden we, dat was onze vraag.

213
00:11:27,060 --> 00:11:30,240
Om dus algoritmes en AI ten goede aan te wenden.

214
00:11:30,240 --> 00:11:33,760
Hoe kun je dat gebruiken om op websites te kijken.

215
00:11:33,760 --> 00:11:36,440
Of je gedrag van mensen zodanig kan herkennen.

216
00:11:36,540 --> 00:11:39,300
Dat ze digitaal laaggeletterd zijn.

217
00:11:39,300 --> 00:11:40,260
Oh zo ja.

218
00:11:40,260 --> 00:11:43,160
En op die manier, als je dat meer zou kunnen herkennen.

219
00:11:43,160 --> 00:11:47,380
Zodat overheids websites veel betere passende dienstverlening konden leveren.

220
00:11:47,380 --> 00:11:49,200
Dat is namelijk een groot vraagstuk.

221
00:11:49,200 --> 00:11:51,940
Dat hebben we in een onderzoeksproject gedaan.

222
00:11:51,940 --> 00:11:53,880
Dat is super interessant.

223
00:11:53,880 --> 00:11:57,180
En dat was een poging om het ten goede aan te wenden.

224
00:11:57,180 --> 00:11:58,580
Antwoord op jouw vraag.

225
00:11:59,040 --> 00:12:01,820
Maar tegelijkertijd in dat proces om dat uit te zoeken.

226
00:12:01,820 --> 00:12:04,300
Kom je dan allerlei vraagstukken tegen.

227
00:12:04,300 --> 00:12:05,940
On the fly.

228
00:12:05,940 --> 00:12:08,380
Onder andere het gebrek aan kennis.

229
00:12:08,380 --> 00:12:09,880
Bij mensen, bij overheden.

230
00:12:09,880 --> 00:12:11,520
Maar bij heel veel mensen.

231
00:12:11,520 --> 00:12:13,540
Over wat is een algoritme precies.

232
00:12:13,540 --> 00:12:16,140
Dus voor ze überhaupt mee wilden doen in het project.

233
00:12:16,140 --> 00:12:17,800
Ja, oh algoritmes.

234
00:12:17,800 --> 00:12:19,620
Daar ga je al.

235
00:12:19,760 --> 00:12:23,820
En was dat binnen de overheid of de mensen die er dan aan bloot worden gesteld?

236
00:12:23,820 --> 00:12:26,360
Dit was met gemeentelijke overheden.

237
00:12:26,360 --> 00:12:28,940
Dus een aantal gemeentelijke overheden hebben uiteindelijk meegedaan.

238
00:12:28,940 --> 00:12:29,820
Maar wat krijg je dan?

239
00:12:29,820 --> 00:12:32,580
Dan uiteindelijk kom je terecht bij de mensen.

240
00:12:32,580 --> 00:12:34,440
Die wat meer de frontrunners zeg maar.

241
00:12:34,440 --> 00:12:36,620
Want die iets durft.

242
00:12:36,620 --> 00:12:40,100
Of in ieder geval die voldoende kennis heeft van de technologie.

243
00:12:40,100 --> 00:12:43,300
En ook snapt dat als je dat binnen bepaalde context doet.

244
00:12:43,300 --> 00:12:45,680
Met binnen bepaalde parameters.

245
00:12:45,680 --> 00:12:49,320
En met bepaalde protocollen die je eraan verbindt.

246
00:12:49,400 --> 00:12:50,420
Onder andere over ethiek.

247
00:12:50,420 --> 00:12:51,980
Daar kan ik zo nog wel iets over zeggen.

248
00:12:51,980 --> 00:12:55,500
Ja, dan gingen ze er wel in mee.

249
00:12:55,500 --> 00:12:56,300
Ja, nou.

250
00:12:56,300 --> 00:12:57,740
Ik moest even lachen naar Jop.

251
00:12:57,740 --> 00:12:58,580
Jop, je kijkt ook naar mij.

252
00:12:58,580 --> 00:13:01,020
Dit is precies waar we het over hadden in de auto hier naartoe.

253
00:13:01,020 --> 00:13:02,100
Naar de mooie locatie.

254
00:13:02,100 --> 00:13:05,840
Van hoe bereiken we de mensen die wat minder affiniteit hebben.

255
00:13:05,840 --> 00:13:07,460
Of al met die kennis bezig zijn.

256
00:13:07,460 --> 00:13:09,720
Die aan dit soort initiatieven ook mee gaan doen.

257
00:13:09,720 --> 00:13:10,200
Ja.

258
00:13:10,200 --> 00:13:13,980
En hoe zorgen we dat die groep van mensen niet achterblijven.

259
00:13:13,980 --> 00:13:15,740
Omdat ze niet in het begin aanhaken.

260
00:13:15,740 --> 00:13:18,320
Nou ja, dan kom ik weer bij dat begrip mediawijsheid.

261
00:13:19,040 --> 00:13:21,500
In dit geval zou je kunnen zeggen datawijsheid.

262
00:13:21,500 --> 00:13:22,620
Of algoritmewijsheid.

263
00:13:22,620 --> 00:13:26,260
Of terwijl, hoe ga je mensen nu eens uitleggen.

264
00:13:26,260 --> 00:13:29,000
Op een manier die, het mag wel in jip-en-janneke taal.

265
00:13:29,000 --> 00:13:32,560
Maar het moet uiteindelijk toch wel voldoende niveau en diepte hebben.

266
00:13:32,560 --> 00:13:33,060
Zeker.

267
00:13:33,060 --> 00:13:35,220
Van waar hebben we het nou eigenlijk over?

268
00:13:35,220 --> 00:13:36,380
Wat is zo'n algoritme nou?

269
00:13:36,380 --> 00:13:37,780
Wat kan het en wat kan het niet?

270
00:13:37,780 --> 00:13:39,980
En wat zou je erover moeten weten?

271
00:13:39,980 --> 00:13:41,480
Om het voldoende te kunnen begrijpen.

272
00:13:41,480 --> 00:13:44,660
Zonder dat je net zo goed bij een auto weet je ook natuurlijk niet precies hoe het allemaal werkt.

273
00:13:44,660 --> 00:13:46,100
Ik niet in ieder geval.

274
00:13:46,100 --> 00:13:47,640
Nee, de meeste mensen niet.

275
00:13:47,640 --> 00:13:48,960
En dat hoeft ook helemaal niet.

276
00:13:48,960 --> 00:13:54,120
Maar je wilt in ieder geval voldoende weten om te begrijpen dat het mogelijk kwaad kan.

277
00:13:54,120 --> 00:13:54,480
Ja.

278
00:13:54,600 --> 00:13:56,020
Maar dat het heel veel goed kan ook.

279
00:13:56,020 --> 00:14:03,960
Als je mits goed ingezet en mits voldoende aan de criteria om te komen tot een biasvrij stukje algoritme.

280
00:14:03,960 --> 00:14:04,320
Ja.

281
00:14:04,320 --> 00:14:06,880
Ik vind de analogie met de auto eigenlijk wel een mooie.

282
00:14:06,880 --> 00:14:11,080
Want wat je eigenlijk wilt doen met de auto is namelijk risico's kunnen inschatten.

283
00:14:11,080 --> 00:14:13,400
Ga ik iets wel doen?

284
00:14:13,400 --> 00:14:14,160
Ga ik iets niet doen?

285
00:14:14,160 --> 00:14:19,100
Dat is ongeveer het niveau wat je ook moet weten rondom kunstmatige intelligentie.

286
00:14:19,100 --> 00:14:20,720
Dat je je kansen kan zien.

287
00:14:20,720 --> 00:14:22,160
Dat je het kan besturen.

288
00:14:22,160 --> 00:14:23,260
Letterlijk en figuurlijk.

289
00:14:23,540 --> 00:14:30,600
Wij vergelijken het wel eens met je verkeersdiploma halen.

290
00:14:30,600 --> 00:14:30,820
Oh ja.

291
00:14:30,820 --> 00:14:31,940
Op lagere schal.

292
00:14:31,940 --> 00:14:36,400
Dan heb je natuurlijk de bandbreedte van je moet weten wat je op de weg wel en niet kan.

293
00:14:36,400 --> 00:14:38,560
De verkeerslichten, de borden, et cetera.

294
00:14:38,560 --> 00:14:41,580
Maar verder blijft het altijd een beetje risicovol natuurlijk.

295
00:14:41,580 --> 00:14:41,780
Ja.

296
00:14:41,780 --> 00:14:43,860
Dat hoort erbij.

297
00:14:43,860 --> 00:14:44,360
Precies.

298
00:14:44,360 --> 00:14:48,360
En de kinderen gaan ook de straat op, begeleid, om geholpen te worden, om het te leren.

299
00:14:48,360 --> 00:14:49,560
En ik denk dat dat ook belangrijk is.

300
00:14:49,560 --> 00:14:52,920
Dat je het in de praktijk gaat toepassen en dat je dan nog wel geholpen wordt daarbij.

301
00:14:53,480 --> 00:14:54,400
Het gebruikt.

302
00:14:54,400 --> 00:14:56,860
Ja, maar dat ik denk dat dat nu raak je denk ik iets heel moois.

303
00:14:56,860 --> 00:15:02,720
In hoeverre zijn mensen nog in staat te tolereren dat er iets mis kan gaan.

304
00:15:02,720 --> 00:15:02,940
Ja.

305
00:15:02,940 --> 00:15:04,860
Want dan wordt het meteen toegeschreven aan.

306
00:15:04,860 --> 00:15:09,180
Komt het bijvoorbeeld heel snel in de discussie over de invloed van big tech partijen.

307
00:15:09,180 --> 00:15:09,400
Ja.

308
00:15:09,400 --> 00:15:10,580
Er zal wel iets zijn van.

309
00:15:11,080 --> 00:15:13,700
Dus dat is natuurlijk wel een tricky iets.

310
00:15:13,700 --> 00:15:20,540
Dus je moet een soort speelveld creëren voor mensen dat ze een beetje kunnen experimenteren met algoritmes waar dingen ook misschien wel mis kunnen gaan.

311
00:15:20,540 --> 00:15:22,560
Maar dat je het daardoor wel beter gaat begrijpen.

312
00:15:22,560 --> 00:15:24,540
Het is ook onbekend maakt, onbemind natuurlijk.

313
00:15:24,540 --> 00:15:25,540
Absoluut.

314
00:15:26,180 --> 00:15:30,220
Als we terug gaan naar dat traject van die digitale geletterdheid.

315
00:15:30,220 --> 00:15:32,520
Heeft dat uiteindelijk, is het gelukt?

316
00:15:32,520 --> 00:15:33,860
Laten we daar eens mee beginnen.

317
00:15:35,040 --> 00:15:37,360
Nou, kijk, zo'n experiment lukt altijd.

318
00:15:37,360 --> 00:15:38,280
Want je...

319
00:15:38,280 --> 00:15:43,620
Nou, we hadden natuurlijk wel van tevoren, dat was ook wat we met het ministerie hebben afgesproken.

320
00:15:43,620 --> 00:15:45,940
Stel je bepaalde doelen natuurlijk.

321
00:15:45,940 --> 00:15:54,060
Het doel was met name om te onderzoeken of we met kunstmatige intelligentie in staat zouden zijn om dat gedrag te herkennen.

322
00:15:54,060 --> 00:16:00,780
En mogelijk ook om aanbevelingen te kunnen doen voor de verbetering van die dienst.

323
00:16:00,780 --> 00:16:02,080
De digitale dienstverlening.

324
00:16:02,080 --> 00:16:04,240
Nou, vraag één.

325
00:16:04,640 --> 00:16:06,440
Dus het kunnen herkennen van...

326
00:16:06,440 --> 00:16:09,620
Het antwoord was eigenlijk, ja, je kunt zeker wel dingen herkennen.

327
00:16:09,620 --> 00:16:12,040
Mits je natuurlijk de goede parameters hebt.

328
00:16:12,040 --> 00:16:16,640
Dus wat we ook gedaan hebben, is toen eerst kwalitatief onderzoek onder een doelgroep van ouderen.

329
00:16:16,640 --> 00:16:19,800
Want dat was de hoofddoelgroep, zou ik maar zeggen.

330
00:16:19,800 --> 00:16:24,920
Om te kunnen komen tot een aantal parameters die vanuit observaties kwamen.

331
00:16:24,920 --> 00:16:30,940
Vanuit mensen die bezig waren met beeldschermen van de overheid, zeg maar.

332
00:16:30,940 --> 00:16:33,300
Er kwamen uiteindelijk bepaalde parameters uit.

333
00:16:33,740 --> 00:16:39,740
En daarmee voerden we zeg maar het ontwikkelen van een aantal trackers die op websites werden geplaatst.

334
00:16:39,740 --> 00:16:41,140
Om het gedrag te kunnen volgen.

335
00:16:41,140 --> 00:16:43,680
Dat specifieke gedrag wat dan uit die observaties kwam.

336
00:16:43,680 --> 00:16:49,860
En vervolgens werd daarmee, met die activiteit van die trackers, werd uiteindelijk een stukje algoritme getraind.

337
00:16:50,600 --> 00:16:52,140
Dus zo is dat eigenlijk ontwikkeld.

338
00:16:52,140 --> 00:16:56,520
En op die manier kwamen we erachter dat, er is ook een heel mooi rapport van overigens, hoor.

339
00:16:56,520 --> 00:17:00,620
We kwamen erachter dat het inderdaad wel dingen te herkennen zijn.

340
00:17:00,620 --> 00:17:02,300
Maar daar zit natuurlijk altijd het arbitraire.

341
00:17:02,300 --> 00:17:07,620
Want wat beschouw jij dan, wat definieer jij dan als zijnde digitaal niet geletterd of ongeletterd?

342
00:17:08,000 --> 00:17:10,300
Dat bepalen wij eigenlijk, die drempel toch?

343
00:17:10,300 --> 00:17:11,400
Als mens.

344
00:17:11,400 --> 00:17:13,480
Uiteindelijk bepaal je dat als mens.

345
00:17:13,480 --> 00:17:17,080
Dus je wilt ook niet komen in de situatie dat op het moment dat jij bij zijn website zit.

346
00:17:17,080 --> 00:17:23,340
En blijkbaar heeft dat stukje algoritme herkend dat jij zogenaamd digitaal niet ongeletterd bent.

347
00:17:23,340 --> 00:17:24,760
Of niet voldoende geletterd.

348
00:17:24,760 --> 00:17:27,700
Dat je dan niet wilt gaan stigmatiseren uiteraard.

349
00:17:27,840 --> 00:17:35,040
Je wilt personaliseren op een manier die past bij een soort menselijke benadering, een ethische benadering.

350
00:17:35,040 --> 00:17:38,720
En ook die vooral eigenlijk voorziet in waar mensen behoefte aan hebben.

351
00:17:38,720 --> 00:17:40,160
Dat is natuurlijk de essentie.

352
00:17:40,160 --> 00:17:40,740
Absoluut.

353
00:17:40,740 --> 00:17:42,980
Lijkt me heel lastig.

354
00:17:42,980 --> 00:17:44,620
Ja, is ook lastig.

355
00:17:44,620 --> 00:17:47,820
Maar dat was natuurlijk ook precies waar heel vaak nog vragen over bestaan.

356
00:17:47,820 --> 00:17:52,460
Dus dat moet je toch een keer gaan uitproberen om te kijken of dat mogelijk lukt.

357
00:17:52,460 --> 00:17:52,840
Ja.

358
00:17:54,480 --> 00:17:59,820
En welke rol speelt AI nu in je huidige rol?

359
00:17:59,820 --> 00:18:01,840
In mijn huidige rol?

360
00:18:01,840 --> 00:18:04,460
Nou, ik heb een paar petten op.

361
00:18:04,460 --> 00:18:07,900
Wat ik al zei, ik doe nog strategisch advies voor beeld en geluid.

362
00:18:07,900 --> 00:18:11,180
Maar daarnaast doe ik ook onderzoek aan de Vrije Universiteit.

363
00:18:11,180 --> 00:18:13,520
Publieke Platform Ecosystemen.

364
00:18:13,520 --> 00:18:18,980
En in mijn onderzoek merk je natuurlijk ook, sinds de introductie van ChatGPT,

365
00:18:18,980 --> 00:18:23,180
zie je natuurlijk dat dat op allerlei manieren een rol gaat spelen.

366
00:18:23,280 --> 00:18:24,460
Althans, kan gaan spelen.

367
00:18:24,460 --> 00:18:31,160
In zowel het doen zelf van onderzoek, door tools te gebruiken.

368
00:18:31,160 --> 00:18:37,440
Maar ook in dat je dus content, oftewel publicaties vindt,

369
00:18:37,440 --> 00:18:41,280
waar wel of niet met AI gewerkt is.

370
00:18:41,280 --> 00:18:43,480
En hoe herken je dat dan?

371
00:18:43,480 --> 00:18:44,420
Dus daar speelt het ook.

372
00:18:45,420 --> 00:18:49,380
En ik heb zelf nog maar net kennis gemaakt met NotebookLM, zeg maar,

373
00:18:49,380 --> 00:18:51,180
om te kijken of ik dat wil gebruiken.

374
00:18:51,180 --> 00:18:53,540
Maar ik merk toch nog wel een soort terughoudendheid.

375
00:18:53,540 --> 00:18:57,000
Wat ik heel interessant vind, is dat mijn promotor,

376
00:18:57,000 --> 00:19:00,200
die postte laatst op LinkedIn een heel mooi voorbeeld,

377
00:19:00,200 --> 00:19:11,920
van hoe hij met masterstudenten, studenten, konden hun artikelen enzovoorts allemaal invoeren in een taalmodel.

378
00:19:11,920 --> 00:19:14,420
Ik dacht het in ChatGPT, maar dat weet ik niet zeker.

379
00:19:14,500 --> 00:19:15,440
Maakt niet uit, in een taalmodel.

380
00:19:15,440 --> 00:19:16,180
In een taalmodel.

381
00:19:16,180 --> 00:19:20,140
En vervolgens vragen stellen over, ja, zeg maar,

382
00:19:20,140 --> 00:19:23,700
na aanleiding van die cursus, die modulen die ze volgden,

383
00:19:23,700 --> 00:19:26,640
maar vervolgens de reactie die dan daaruit kwam,

384
00:19:26,640 --> 00:19:28,400
daar moesten zij op reflecteren.

385
00:19:28,400 --> 00:19:30,380
Dus ze gebruikten het op die manier als een instrument.

386
00:19:30,380 --> 00:19:34,180
Dus niet zozeer van, ja, wat is het antwoord op vraag A?

387
00:19:34,180 --> 00:19:36,040
En daar ga je dan vervolgens niet mee doen.

388
00:19:36,040 --> 00:19:38,180
Nee, daar moesten ze zelf wel hun eigen reflectie doen,

389
00:19:38,440 --> 00:19:40,660
op basis van die analyse die uit het taalmodel kwam.

390
00:19:40,660 --> 00:19:43,000
Kan je die misschien iets concreter maken?

391
00:19:43,000 --> 00:19:45,820
Nou ja, concreter maken.

392
00:19:45,820 --> 00:19:48,300
Ik kan het nu zo concreet vertellen als ik het ook.

393
00:19:48,300 --> 00:19:51,140
LinkedIn post heb gelezen.

394
00:19:51,140 --> 00:19:52,300
Ik was er nog niet in.

395
00:19:52,300 --> 00:19:55,260
Ik heb hem al even niet gesproken, dus ik moet hem weer even spreken.

396
00:19:55,260 --> 00:19:58,080
Ik zal maar, ik beloof je dat ik er via LinkedIn op terug.

397
00:19:58,080 --> 00:19:58,880
Ja, heel graag.

398
00:19:58,880 --> 00:20:02,420
Maar ja, ik heb een bepaald beeld,

399
00:20:02,420 --> 00:20:05,160
want uiteindelijk, zeg maar,

400
00:20:05,500 --> 00:20:10,060
begeleid ik ook vanuit ons bedrijf heel veel masterstudenten.

401
00:20:10,060 --> 00:20:12,260
Dus ik kijk inderdaad ook, weet je,

402
00:20:12,260 --> 00:20:15,560
van hoe kan ik dit inzetten op een zodanige manier

403
00:20:15,560 --> 00:20:17,300
dat het niet alleen maar is van,

404
00:20:17,300 --> 00:20:20,680
ja, weet je, zijn de zinnen goed geschreven, ja of nee?

405
00:20:20,680 --> 00:20:23,740
Dus je wil iets inhoudelijks met het taalmodel.

406
00:20:23,740 --> 00:20:25,840
Nee, het ging dus inderdaad wel ook om het,

407
00:20:25,840 --> 00:20:28,280
zeg maar, het anticiperen op onderzoeksvragen.

408
00:20:28,280 --> 00:20:31,800
En als het ChatGPT of het andere taalmodel wat gebruikt is,

409
00:20:31,800 --> 00:20:32,240
dat weet ik niet,

410
00:20:32,800 --> 00:20:35,900
of de andere, de bot of het model wat daarvoor gebruikt werd,

411
00:20:35,900 --> 00:20:37,780
dat weet ik even niet, dat zal ik even navragen.

412
00:20:37,780 --> 00:20:41,800
Maar als die dan met antwoorden of reacties kwam,

413
00:20:41,800 --> 00:20:44,440
daar moest je dan als student wel op reflecteren.

414
00:20:44,440 --> 00:20:46,940
Dus dan was het niet zo dat je dacht van,

415
00:20:46,940 --> 00:20:49,920
nou weet je, ik heb al die artikelen die ik had moeten lezen,

416
00:20:49,920 --> 00:20:50,780
heb ik mooi ingevoerd,

417
00:20:50,780 --> 00:20:52,080
die hoef ik dan alvast niet meer te leggen.

418
00:20:52,080 --> 00:20:52,600
Ja, precies.

419
00:20:53,280 --> 00:20:55,560
Nou ja, dat zou je misschien kunnen besluiten,

420
00:20:55,560 --> 00:20:57,460
maar om er goed op te kunnen reflecteren,

421
00:20:57,460 --> 00:20:58,440
moet je wel die kennis hebben.

422
00:20:58,440 --> 00:21:01,460
Dus dat is dan door de vraag hoe je dan aan die kennis komt.

423
00:21:01,460 --> 00:21:04,000
Dus het stelt nog steeds wel die eisen aan,

424
00:21:04,000 --> 00:21:05,260
die cognitieve kennis.

425
00:21:05,260 --> 00:21:06,740
En weet je, dat is de essentie,

426
00:21:06,740 --> 00:21:07,840
want jij vroeg net aan het begin,

427
00:21:07,840 --> 00:21:09,620
wil je het specifiek ergens over hebben?

428
00:21:10,360 --> 00:21:12,680
En in de aanloop naar deze podcast zat ik,

429
00:21:12,680 --> 00:21:14,260
wat ik nog even aan het denken,

430
00:21:14,260 --> 00:21:17,280
wat vind ik nou eigenlijk zelf het belangrijkste van dit hele verschijnsel,

431
00:21:17,280 --> 00:21:18,340
en hoe ik het in mijn werk,

432
00:21:18,340 --> 00:21:19,540
zowel bij beeld en geluid,

433
00:21:19,540 --> 00:21:20,700
als in mijn onderzoek tegenkom.

434
00:21:20,700 --> 00:21:21,140
En dat is,

435
00:21:21,140 --> 00:21:25,360
dat pendelen tussen de kansen en de gevaren,

436
00:21:25,360 --> 00:21:26,460
het gaat vooral om,

437
00:21:26,460 --> 00:21:27,880
ik zie het meer van,

438
00:21:27,880 --> 00:21:31,120
de essentie van je ontwikkelen als mens,

439
00:21:31,120 --> 00:21:36,360
is dat je je creativiteit en je brein gebruikt,

440
00:21:36,360 --> 00:21:40,040
in een proces om te komen tot kennisontwikkeling.

441
00:21:40,160 --> 00:21:42,700
Dus wat dan sense making heet,

442
00:21:42,700 --> 00:21:44,360
die sense making,

443
00:21:44,360 --> 00:21:46,300
dat moet je eigenlijk overeind zien te houden.

444
00:21:46,300 --> 00:21:47,660
En daar kan prima,

445
00:21:47,660 --> 00:21:49,460
algoritmes kunnen daar prima een rol in spelen.

446
00:21:49,460 --> 00:21:51,280
Alleen dan moet je op een nieuwe manier gaan denken,

447
00:21:51,280 --> 00:21:53,580
hoe ga ik dan op met, om met,

448
00:21:53,580 --> 00:21:54,780
dan wel opdrachten,

449
00:21:54,780 --> 00:21:55,540
of dan wel,

450
00:21:55,540 --> 00:21:57,500
dus dan ga je naar een niveau hoger,

451
00:21:57,500 --> 00:21:59,860
want algoritmes kunnen al heel veel voor je doen,

452
00:21:59,860 --> 00:22:02,040
maar dan moet je dus zelf een stap hoger gaan zitten.

453
00:22:02,040 --> 00:22:05,660
En dat is wat Emily Bender ook beschrijft,

454
00:22:05,660 --> 00:22:07,940
als level up met je skills, weet je wel.

455
00:22:07,940 --> 00:22:08,960
Je moet naar een ander niveau,

456
00:22:08,960 --> 00:22:11,720
van vaardigheidsontwikkeling toegaan,

457
00:22:11,720 --> 00:22:13,520
zodat je die algoritmes kan inzetten,

458
00:22:13,520 --> 00:22:15,660
zodat je niet algoritmes gebruikt van,

459
00:22:15,660 --> 00:22:17,120
geef mij antwoord op vraag A,

460
00:22:17,120 --> 00:22:19,760
dan neem ik antwoord op die vraag,

461
00:22:19,760 --> 00:22:21,320
en dan pen ik dat over,

462
00:22:21,320 --> 00:22:22,460
of dan dien ik dat zelf in.

463
00:22:22,500 --> 00:22:24,860
Je moet gewoon next level,

464
00:22:24,860 --> 00:22:27,640
je moet dan ook gaan reflecteren op wat er uitkomt.

465
00:22:27,640 --> 00:22:29,960
Dus dat is een ander cognitief niveau eigenlijk.

466
00:22:29,960 --> 00:22:30,620
Ja.

467
00:22:30,620 --> 00:22:30,720
Ja.

468
00:22:30,720 --> 00:22:31,640
Als ik voor mezelf vertaal,

469
00:22:31,640 --> 00:22:33,700
het is meer gebruik maken van co-creatie,

470
00:22:33,700 --> 00:22:35,720
in plaats van een hulpmiddel als antwoordgever.

471
00:22:35,720 --> 00:22:37,880
Ja, co-creatie inderdaad.

472
00:22:38,380 --> 00:22:41,500
Zij doelt dan ook nog wel echt op een andere cognitieve vaardigheid.

473
00:22:41,500 --> 00:22:44,320
Dus dat is nog wel een stap extra naast co-creatie.

474
00:22:44,320 --> 00:22:44,600
Ja.

475
00:22:44,600 --> 00:22:44,980
Ja.

476
00:22:45,980 --> 00:22:49,100
En hoe heb je zelf die stap ervaren,

477
00:22:49,100 --> 00:22:50,960
met meer gebruik maken van AI-modellen?

478
00:22:50,960 --> 00:22:54,940
Ja, het gaat eigenlijk spelende wijs, zou je kunnen zeggen.

479
00:22:54,940 --> 00:22:56,960
Ik heb zelf, ik vertel wel,

480
00:22:56,960 --> 00:22:58,680
ik heb bij NEMO gewerkt,

481
00:22:58,680 --> 00:22:59,180
Science,

482
00:22:59,180 --> 00:23:01,560
en dat gaat feitelijk ook over wetenschapscommunicatie.

483
00:23:01,560 --> 00:23:02,560
Dus ik ben altijd wel met,

484
00:23:02,560 --> 00:23:06,680
en mijn achtergrond is ook in leraaropleiding,

485
00:23:06,680 --> 00:23:07,960
pedagogiek, onderwijskunde.

486
00:23:07,960 --> 00:23:10,200
Ik ben altijd bezig geweest met ontwikkeling,

487
00:23:10,200 --> 00:23:13,840
kennisontwikkeling, onderzoek, creativiteit.

488
00:23:13,840 --> 00:23:15,640
Dus ik ben altijd nieuwsgierig naar ontwikkeling.

489
00:23:15,720 --> 00:23:16,840
Dus het gaat spelende wijs.

490
00:23:16,840 --> 00:23:18,120
Dus die nieuwe technologie,

491
00:23:18,120 --> 00:23:20,220
dus ik was er wel een van de eerste,

492
00:23:20,220 --> 00:23:24,340
die met Mac'jes werkt in de jaren tachtig, weet je wel.

493
00:23:24,340 --> 00:23:27,520
Dus altijd wel spelende wijs mee aan de gang gegaan.

494
00:23:27,520 --> 00:23:30,220
En nu, via je smartphone gebruik je sowieso

495
00:23:30,220 --> 00:23:34,580
natuurlijk heel veel impliciete toepassingen van AI.

496
00:23:34,580 --> 00:23:37,060
Maar ik ben ook wel nieuwsgierig naar.

497
00:23:37,060 --> 00:23:38,800
Tegelijkertijd ook wel, als het gaat,

498
00:23:38,800 --> 00:23:41,680
dat vind ik een interessante vraag die jij stelt.

499
00:23:41,680 --> 00:23:45,620
Ik merkte gisteren, was ik ook even bezig met het verkenning,

500
00:23:45,680 --> 00:23:47,740
naar dat NotebookLM bijvoorbeeld.

501
00:23:47,740 --> 00:23:50,680
En merkte ik van een soort aarzeling.

502
00:23:50,680 --> 00:23:52,360
Ik dacht bij mij zo,

503
00:23:52,360 --> 00:23:55,980
een gevoel, ik wil niet dat AI iets voor mij doet,

504
00:23:55,980 --> 00:23:58,040
waar ik eigenlijk zelf eerst over wil nadenken.

505
00:23:58,040 --> 00:24:01,620
Kan je heel kort uitleggen wat NotebookLM is,

506
00:24:01,620 --> 00:24:02,640
en wat je ermee gedaan hebt?

507
00:24:02,640 --> 00:24:04,980
Nou, ik ben het nog aan het verkennen, vertelde ik net.

508
00:24:04,980 --> 00:24:06,460
Geef niet.

509
00:24:06,460 --> 00:24:07,620
Verwacht nou niet teveel van.

510
00:24:07,620 --> 00:24:09,480
Nee, maar dan vul ik je aan waar nodig.

511
00:24:09,480 --> 00:24:12,600
Nee, ik begrijp dat NotebookLM is,

512
00:24:12,600 --> 00:24:15,900
daar kun je uiteindelijk een soort project in aanmaken,

513
00:24:15,900 --> 00:24:19,020
waarin je content kan toevoegen.

514
00:24:19,020 --> 00:24:20,760
Daar kun je vragen over stellen,

515
00:24:20,760 --> 00:24:22,500
daar kun je samenvattingen mee maken,

516
00:24:22,500 --> 00:24:24,620
daar kun je onderzoeksvragen intoetsen.

517
00:24:25,420 --> 00:24:29,060
Ja, zo ver was ik eigenlijk gekomen nu.

518
00:24:29,060 --> 00:24:29,380
Ja.

519
00:24:29,380 --> 00:24:31,640
Dus jij gaat me nu vertellen wat ik er nog meer mee kan doen.

520
00:24:31,640 --> 00:24:32,820
Dat is heel handig voor mij.

521
00:24:32,820 --> 00:24:34,400
Je kan er ook een podcast mee maken.

522
00:24:34,400 --> 00:24:36,360
Je kan er ook een podcast mee laten genereren.

523
00:24:36,680 --> 00:24:37,540
Ja, dat heb ik gelezen.

524
00:24:37,540 --> 00:24:41,880
Ja, maar zover is mijn kennis dit niet.

525
00:24:41,880 --> 00:24:43,800
Ja, maar wat, want je zegt van,

526
00:24:43,800 --> 00:24:45,420
ergens hield je iets tegen?

527
00:24:45,420 --> 00:24:49,380
Ja, ik voelde, maar dat heb ik ook wel sowieso een beetje met,

528
00:24:49,380 --> 00:24:51,840
ik hecht heel veel belang aan het,

529
00:24:51,840 --> 00:24:56,520
kijk wat Daniel Kahneman, ik weet niet of je hem kent,

530
00:24:56,520 --> 00:24:59,520
maar slow thinking en fast thinking.

531
00:24:59,520 --> 00:25:04,680
Of deep thinking is eigenlijk wat hij slow thinking noemt.

532
00:25:05,160 --> 00:25:08,040
Dus dat je dieper leert na te denken over dingen.

533
00:25:08,040 --> 00:25:11,700
Maar op het moment dat je te snel met tools gaat werken,

534
00:25:11,700 --> 00:25:14,100
die eigenlijk dat stukje eigenlijk al voor jou overnemen,

535
00:25:14,100 --> 00:25:16,500
dan kom je niet aan dat diepere niveau toe.

536
00:25:16,500 --> 00:25:21,120
Dus ik merk bij mezelf, dat ik behoefte heb om dat stukje ook zelf wel.

537
00:25:21,120 --> 00:25:22,800
Oh, dat vind ik wel een mooie,

538
00:25:22,800 --> 00:25:24,840
want wat Notebook LM doet,

539
00:25:24,840 --> 00:25:29,860
is dat hij namelijk ook een aantal vragen voor jou genereert,

540
00:25:29,860 --> 00:25:34,580
die je zou kunnen stellen over de content die je ingelaten hebt.

541
00:25:34,580 --> 00:25:35,700
Dat zag ik gisteren.

542
00:25:35,700 --> 00:25:38,000
En ik denk dat je daar misschien ook aan refereert,

543
00:25:38,000 --> 00:25:42,060
want dat betekent dat je dus al niet eens meer hoeft na te denken over de vraag die je gaat stellen,

544
00:25:42,060 --> 00:25:43,740
laat staan, het antwoord dat je krijgt.

545
00:25:43,740 --> 00:25:44,580
Dat is precies wat ik bedoel.

546
00:25:44,580 --> 00:25:47,940
Want het was ik eigenlijk vergeten, dat had ik gisteren gezien inderdaad,

547
00:25:47,940 --> 00:25:51,760
dat hij mij drie voorbeeldvragen gaf, die ik zou kunnen stellen.

548
00:25:51,760 --> 00:25:55,140
En toen dacht ik, ja, eigenlijk is die eerste best een goede vraag, dacht ik.

549
00:25:55,140 --> 00:25:56,520
Die heb ik ook meteen maar gesteld.

550
00:25:56,520 --> 00:25:59,120
Maar ik dacht, ja, maar dat is precies waarom ik ging denken van 8.

551
00:25:59,120 --> 00:26:02,400
Ja, maar dat had ik zelf misschien ook wel even willen bedenken.

552
00:26:02,400 --> 00:26:02,720
Ja.

553
00:26:02,720 --> 00:26:03,220
Snap je?

554
00:26:03,220 --> 00:26:06,960
En als je dat aan het bedenken bent, denk je misschien ook weer aan de vervolgvraag,

555
00:26:06,960 --> 00:26:08,440
of aan een hele andere vraag,

556
00:26:08,440 --> 00:26:11,680
waar misschien het antwoord ook helemaal in die content niet zit,

557
00:26:12,400 --> 00:26:14,600
en wat het dan misschien extra interessant maakt.

558
00:26:14,600 --> 00:26:16,940
Ja, dat is sowieso een heel punt natuurlijk,

559
00:26:16,940 --> 00:26:18,920
van of die content wel, of tenminste,

560
00:26:18,920 --> 00:26:23,440
of die vraag wel uit, of het antwoord wel daaruit komt.

561
00:26:23,440 --> 00:26:23,740
Ja.

562
00:26:23,740 --> 00:26:27,660
Ja, daar moet je wel dus inderdaad langer over nagedacht hebben

563
00:26:27,660 --> 00:26:31,340
en het niet makkelijk snel willen invullen met de eerste paar hapklare vragen

564
00:26:31,340 --> 00:26:32,920
die voor je klaar liggen en daarop doorgaan.

565
00:26:32,920 --> 00:26:34,220
En dan mis je dus het stukje,

566
00:26:34,220 --> 00:26:36,500
als ik er voor mezelf vertaal naar automatiseren,

567
00:26:36,500 --> 00:26:38,220
als ik een stukje wil automatiseren,

568
00:26:38,220 --> 00:26:40,720
wil ik het eerst ook met het handje of in ieder geval zelf geprobeerd hebben,

569
00:26:40,720 --> 00:26:41,740
wat kom ik dan tegen?

570
00:26:42,220 --> 00:26:43,400
En daarna automatiseren,

571
00:26:43,400 --> 00:26:46,300
want dan begrijp je wat je qua output gaat krijgen.

572
00:26:46,300 --> 00:26:47,280
En de vraag is natuurlijk,

573
00:26:47,280 --> 00:26:49,140
is dat gewoon een generatie dingetje,

574
00:26:49,140 --> 00:26:53,340
van jij bent nog opgegroeid waarschijnlijk met handmatig software schrijven enzovoort,

575
00:26:53,340 --> 00:26:56,100
maar straks een nieuwe generatie van mij, die doen het anders.

576
00:26:56,100 --> 00:26:58,200
Die zullen dit misschien helemaal niet zijn punt vinden,

577
00:26:58,200 --> 00:26:59,180
maar dat weet ik niet, hè?

578
00:26:59,180 --> 00:26:59,780
Nee, geen idee.

579
00:26:59,780 --> 00:27:02,740
Je hebt net zoveel behoefte aan wat ik dan deep thinking noem.

580
00:27:02,740 --> 00:27:05,040
Dus ja.

581
00:27:05,040 --> 00:27:08,160
Ja, nou als we het net over generaties hebben,

582
00:27:08,160 --> 00:27:10,660
we hebben ook vragen van luisteraars,

583
00:27:10,660 --> 00:27:13,880
en in dit geval, Niels die gaat naar een basisschool,

584
00:27:13,880 --> 00:27:16,320
en de kinderen hebben al vragen,

585
00:27:16,320 --> 00:27:18,120
hebben zij ingediend bij Niels.

586
00:27:18,120 --> 00:27:18,480
Wat goed.

587
00:27:18,840 --> 00:27:22,620
En dus daar wilden we je daar in ieder geval ook eentje van voorleggen.

588
00:27:22,620 --> 00:27:25,540
Ja.

589
00:27:25,540 --> 00:27:26,500
Ben het jingeltje toch?

590
00:27:26,500 --> 00:27:28,860
Ja, dat kan.

591
00:27:28,860 --> 00:27:30,780
Ik heb een beetje reflectie hier,

592
00:27:30,780 --> 00:27:33,680
dus het is een beetje lastig te vinden.

593
00:27:33,680 --> 00:27:37,720
Komt die aan?

594
00:27:37,720 --> 00:27:41,000
De vraag van de leek is deze week,

595
00:27:42,000 --> 00:27:44,900
gaat AI iets met ons levensstijl doen?

596
00:27:44,900 --> 00:27:47,040
En zo ja, wat is dat dan?

597
00:27:47,040 --> 00:27:48,680
Oh, van een kind?

598
00:27:48,680 --> 00:27:49,540
Ja.

599
00:27:49,540 --> 00:27:49,920
Zo.

600
00:27:49,920 --> 00:27:50,840
Oké.

601
00:27:50,840 --> 00:27:51,720
Nou, John.

602
00:27:51,720 --> 00:27:55,560
Jezus, is dat niet een ingefluisterde vraag?

603
00:27:55,560 --> 00:27:58,080
Dat is door een AI-gegenereerde vraag, denk ik.

604
00:27:58,080 --> 00:28:01,720
Wel iemand die gevoed wordt met informatie omtrent AI.

605
00:28:01,720 --> 00:28:03,620
Dat dacht ik al.

606
00:28:03,620 --> 00:28:07,040
Nou ja, ik denk dat het niet zozeer gaat doen,

607
00:28:07,040 --> 00:28:08,240
maar al doet, denk ik.

608
00:28:08,240 --> 00:28:12,400
Dus AI kijkt naar hoe überhaupt, zeg maar,

609
00:28:12,400 --> 00:28:18,240
de filterbubbling werkt via de algoritmes van de grote platformen,

610
00:28:18,240 --> 00:28:20,380
die ook deze kinderen ongetwijfeld zelf gebruiken.

611
00:28:20,380 --> 00:28:24,360
Dat genereert feitelijk al,

612
00:28:24,360 --> 00:28:25,580
het stimuleert ook,

613
00:28:25,580 --> 00:28:27,080
en genereert, zeg maar,

614
00:28:27,080 --> 00:28:30,800
een soort community denken,

615
00:28:30,800 --> 00:28:33,620
maar tegelijkertijd ook sluit het je af van...

616
00:28:33,620 --> 00:28:35,620
Ja, de echte bubbels inderdaad, ja.

617
00:28:35,620 --> 00:28:37,120
Sluit het je af van andere bubbels,

618
00:28:37,120 --> 00:28:40,400
dus daarmee kan al heel makkelijk jouw ideeën weer rolt,

619
00:28:40,400 --> 00:28:42,840
en daarmee dus ook je stijl van leven beïnvloed,

620
00:28:42,840 --> 00:28:44,000
die wordt gewoon beïnvloed.

621
00:28:44,000 --> 00:28:49,900
Dat is dus tevens een van de punten die speelt in dat netwerk,

622
00:28:49,900 --> 00:28:50,840
met je wijsheid onder andere,

623
00:28:50,840 --> 00:28:52,860
van hoe kun je weer naar die verbinding toe,

624
00:28:52,860 --> 00:28:54,040
tussen die bubbels.

625
00:28:54,040 --> 00:28:56,800
Dus het bepaalt wel degelijk de stijl van je leven inderdaad.

626
00:28:56,800 --> 00:28:58,520
Zo, zo.

627
00:28:58,520 --> 00:29:00,100
Ik ben getriggerd door die vraag.

628
00:29:00,100 --> 00:29:01,400
Zou je daar iets meer op in kunnen gaan?

629
00:29:01,400 --> 00:29:02,300
Over hoe...

630
00:29:02,300 --> 00:29:03,140
Hebben we een beeld erbij?

631
00:29:03,140 --> 00:29:04,100
Hoe gaan we die bubbels?

632
00:29:04,100 --> 00:29:04,960
Hoe gaan we het verbinden?

633
00:29:04,960 --> 00:29:06,680
Nou ja, een voorbeeld.

634
00:29:06,680 --> 00:29:08,640
Ik vertelde net over die 3 oktober,

635
00:29:08,640 --> 00:29:10,360
die dag in de Dutch Media Week.

636
00:29:10,360 --> 00:29:11,600
Die ging dus helemaal over,

637
00:29:11,600 --> 00:29:15,300
hoe kunnen we het vertrouwen in de samenleving weer proberen te herstellen?

638
00:29:15,300 --> 00:29:18,340
En wat kan de journalistiek daarvoor rol in spelen?

639
00:29:18,920 --> 00:29:23,440
In het licht daarvan draaien we ook een project vanuit Beeld en Geluid

640
00:29:23,440 --> 00:29:24,780
en vanuit Netwerk Media Wijsheid,

641
00:29:24,780 --> 00:29:25,820
dat hij dichter bij nieuws,

642
00:29:25,820 --> 00:29:27,540
waarbij we op lokaal niveau

643
00:29:27,540 --> 00:29:30,700
gesprekken gevoerd worden tussen burgers,

644
00:29:30,700 --> 00:29:32,000
lokale journalisten,

645
00:29:32,000 --> 00:29:32,940
gewoon fysiek.

646
00:29:32,940 --> 00:29:33,280
Ja.

647
00:29:33,500 --> 00:29:35,640
Dus echt de dialoog weer opnieuw aangaan.

648
00:29:35,640 --> 00:29:38,540
En dat is dus super interessant,

649
00:29:38,540 --> 00:29:39,860
want technologie heeft,

650
00:29:39,860 --> 00:29:40,940
en zeker AI,

651
00:29:40,940 --> 00:29:42,420
heeft een enorme power,

652
00:29:42,420 --> 00:29:46,160
maar ook de power om ons een soort van uit elkaar te drijven.

653
00:29:46,160 --> 00:29:48,260
Het is een discriminerende technologie,

654
00:29:48,380 --> 00:29:50,560
maar dat betekent ook ons,

655
00:29:50,560 --> 00:29:53,060
onze stijl van leven gediscrimineerd,

656
00:29:53,060 --> 00:29:54,480
of uit elkaar gedreven wordt.

657
00:29:54,480 --> 00:29:57,740
En discriminatie niet in de zin van mensen,

658
00:29:57,740 --> 00:29:59,940
maar van onderscheid maken.

659
00:29:59,940 --> 00:30:00,660
Onderscheid maken,

660
00:30:00,660 --> 00:30:01,700
zo bedoel ik het.

661
00:30:01,700 --> 00:30:03,400
En zonder waarde of norm,

662
00:30:03,400 --> 00:30:04,260
gewoon onderscheid maken.

663
00:30:04,260 --> 00:30:05,540
Dus A of B, zeg maar.

664
00:30:05,540 --> 00:30:05,900
Precies.

665
00:30:05,900 --> 00:30:08,860
Maar tegelijkertijd,

666
00:30:08,860 --> 00:30:12,560
zul je dus daarvan rekenschap moeten geven,

667
00:30:12,560 --> 00:30:14,000
en dus begrijpen hoe dat werkt,

668
00:30:14,000 --> 00:30:17,480
en dus weer naar die soort van herstelmodus moeten gaan.

669
00:30:17,480 --> 00:30:18,580
Hoe ga je dat dan weer herstellen?

670
00:30:18,580 --> 00:30:20,300
Dat zie je ook op scholen,

671
00:30:20,300 --> 00:30:21,040
bij kinderen al,

672
00:30:21,040 --> 00:30:23,980
die een bepaalde gedachtenwereld met elkaar hebben,

673
00:30:23,980 --> 00:30:24,840
en delen op TikTok.

674
00:30:24,840 --> 00:30:27,600
Maar één kind verderop,

675
00:30:27,600 --> 00:30:29,280
zit in een hele andere ding.

676
00:30:29,280 --> 00:30:31,900
Maar hoe krijgen die nog contact met elkaar,

677
00:30:31,900 --> 00:30:34,560
en hoe delen die hun denkbeelden nog?

678
00:30:34,560 --> 00:30:36,040
Is die leerkracht in staat,

679
00:30:36,040 --> 00:30:38,640
om dat gemeenschappelijke gesprek nog te voeren?

680
00:30:38,640 --> 00:30:40,100
Snapt die leerkracht überhaupt wel,

681
00:30:40,100 --> 00:30:41,660
hoe zo'n social medium dan werkt?

682
00:30:41,660 --> 00:30:43,540
Dat is een heel groot vraagstuk.

683
00:30:43,540 --> 00:30:44,740
Er breken soms in klassen,

684
00:30:44,740 --> 00:30:46,540
spontaan vechtpartijen uit,

685
00:30:46,540 --> 00:30:48,560
omdat kinderen via social media,

686
00:30:48,560 --> 00:30:50,560
uiteindelijk zo ver uit elkaar zijn gedreven,

687
00:30:50,560 --> 00:30:53,600
of elkaar op andere manieren natuurlijk het leven zuur maken.

688
00:30:53,600 --> 00:30:53,900
En dan,

689
00:30:53,900 --> 00:30:55,500
dat zijn,

690
00:30:55,500 --> 00:30:57,040
snap je,

691
00:30:57,040 --> 00:30:59,680
dus dat is weer waar we het aan het begin over hadden.

692
00:30:59,680 --> 00:31:02,600
De mogelijkheden van social media,

693
00:31:02,600 --> 00:31:04,220
in dit geval dus van algoritmes ook.

694
00:31:04,220 --> 00:31:05,340
Maar ook van,

695
00:31:05,340 --> 00:31:06,100
ja,

696
00:31:06,100 --> 00:31:09,200
wat kan het voor risico opleveren?

697
00:31:09,400 --> 00:31:09,480
Ja,

698
00:31:09,480 --> 00:31:09,800
ja.

699
00:31:09,800 --> 00:31:15,240
Ik begon de uitzending met van,

700
00:31:15,240 --> 00:31:18,340
we zitten hier op een schatkamer aan archief.

701
00:31:18,340 --> 00:31:20,020
Je gaf al aan,

702
00:31:20,020 --> 00:31:21,780
als je in de jaren negentig had gezegd van,

703
00:31:21,780 --> 00:31:23,000
we hebben een archief,

704
00:31:23,000 --> 00:31:25,840
dan werd je anders geassocieerd dan nu.

705
00:31:25,840 --> 00:31:32,440
Wat zou dit archief in combinatie met AI kunnen opleveren,

706
00:31:32,640 --> 00:31:35,240
en welke meerwaarden zou dat kunnen leveren?

707
00:31:35,240 --> 00:31:36,520
En voordat we erin duiken,

708
00:31:36,520 --> 00:31:37,560
wat is het archief?

709
00:31:37,560 --> 00:31:39,040
Even kort toelichten voor de illustratie.

710
00:31:39,040 --> 00:31:39,680
Wat zit erin,

711
00:31:39,680 --> 00:31:40,580
een beetje in het archief,

712
00:31:40,580 --> 00:31:41,500
om een beeld bij te krijgen?

713
00:31:41,500 --> 00:31:41,640
Ja,

714
00:31:41,640 --> 00:31:42,760
dat is een goede vraag.

715
00:31:42,760 --> 00:31:45,660
We zitten hier nu in een gebouw,

716
00:31:45,660 --> 00:31:48,140
waar in de kelders een van de grootste,

717
00:31:48,140 --> 00:31:51,440
een van de grootste media-archief van Europa zit.

718
00:31:51,440 --> 00:31:52,900
En dan vragen veel mensen,

719
00:31:52,900 --> 00:31:54,180
waarom moet dat hier fysiek zitten?

720
00:31:54,180 --> 00:31:55,380
Want je hebt het toch digitaal?

721
00:31:55,380 --> 00:31:58,460
Maar wij moeten de oorspronkelijke dragers,

722
00:31:58,460 --> 00:31:59,860
de originele dragers ook bewaren.

723
00:31:59,860 --> 00:32:01,240
Het is een erfgoedinstelling.

724
00:32:01,240 --> 00:32:04,040
Maar dat archief,

725
00:32:04,040 --> 00:32:05,660
dat behelst van oorsprong,

726
00:32:05,660 --> 00:32:06,100
zeg maar,

727
00:32:06,100 --> 00:32:07,540
radiotelevisie.

728
00:32:07,540 --> 00:32:11,040
Maar inmiddels ook podcasts.

729
00:32:11,320 --> 00:32:11,460
Ja.

730
00:32:11,460 --> 00:32:12,140
Games.

731
00:32:12,140 --> 00:32:13,840
Social media.

732
00:32:13,840 --> 00:32:15,080
Websites,

733
00:32:15,080 --> 00:32:15,220
niet,

734
00:32:15,220 --> 00:32:17,360
dat doet de Koninklijke Bibliotheek.

735
00:32:17,360 --> 00:32:19,800
Maar ook,

736
00:32:19,800 --> 00:32:21,540
wij hebben een jaar of zeven,

737
00:32:21,540 --> 00:32:23,480
acht geleden het persmuseum overgenomen.

738
00:32:23,480 --> 00:32:25,380
Dus ook een heel groot papierenarchief.

739
00:32:25,380 --> 00:32:27,040
Dat ligt niet fysiek hier,

740
00:32:27,040 --> 00:32:27,840
dat ligt in Amsterdam.

741
00:32:27,840 --> 00:32:29,700
Maar dat is wel onder ons beheer.

742
00:32:29,700 --> 00:32:30,640
Dus dat archief,

743
00:32:30,640 --> 00:32:31,980
dat duidt verder uit.

744
00:32:31,980 --> 00:32:34,480
En verder worden er constant schenkingen gedaan,

745
00:32:34,480 --> 00:32:35,620
want steeds meer mensen,

746
00:32:35,620 --> 00:32:38,040
en dat heeft ook te maken met mensen

747
00:32:38,040 --> 00:32:39,960
die hun legacy veilig willen stellen natuurlijk,

748
00:32:40,820 --> 00:32:44,400
die vinden ons blijkbaar een betrouwbare organisatie.

749
00:32:44,400 --> 00:32:46,220
Dus die willen graag hun archief onderbrengen.

750
00:32:46,220 --> 00:32:48,040
Dan wordt het onderdeel van de Nationale Collectie.

751
00:32:48,040 --> 00:32:48,880
Dus dat is het archief.

752
00:32:48,880 --> 00:32:49,660
Oké.

753
00:32:49,660 --> 00:32:50,880
En dat bestaat dus uit,

754
00:32:50,880 --> 00:32:51,980
nou wat ik al zeg,

755
00:32:51,980 --> 00:32:52,780
fysieke dragers,

756
00:32:52,780 --> 00:32:53,500
filmbanden,

757
00:32:53,500 --> 00:32:54,360
LP's,

758
00:32:54,360 --> 00:32:54,800
et cetera.

759
00:32:54,800 --> 00:32:58,360
Maar ook een soort kloppend hart in de organisatie,

760
00:32:58,360 --> 00:32:59,340
beneden in de kelders.

761
00:32:59,340 --> 00:33:01,080
En daar zit het digitale archief,

762
00:33:01,080 --> 00:33:01,420
zeg maar.

763
00:33:01,420 --> 00:33:01,740
Ja.

764
00:33:01,740 --> 00:33:03,100
En dan,

765
00:33:03,100 --> 00:33:04,520
en dan naar jouw vraag?

766
00:33:04,520 --> 00:33:04,760
Ja,

767
00:33:04,760 --> 00:33:06,600
van wat zou AI,

768
00:33:06,600 --> 00:33:08,360
in combinatie met dat archief,

769
00:33:08,360 --> 00:33:09,860
waar zou dat naartoe kunnen leiden?

770
00:33:09,860 --> 00:33:10,160
Nou,

771
00:33:10,160 --> 00:33:10,620
de grote,

772
00:33:10,620 --> 00:33:13,080
de grote opdracht voor een archief is natuurlijk altijd,

773
00:33:13,080 --> 00:33:13,300
ja,

774
00:33:13,300 --> 00:33:14,500
enerzijds opslaan natuurlijk,

775
00:33:14,500 --> 00:33:15,340
en conserveren,

776
00:33:15,440 --> 00:33:17,560
maar vooral uiteindelijk ook beschikbaar staan.

777
00:33:17,560 --> 00:33:18,020
Ja.

778
00:33:18,020 --> 00:33:18,020
Ja,

779
00:33:18,020 --> 00:33:19,060
wat heb je er anders aan?

780
00:33:19,060 --> 00:33:20,360
En dat was,

781
00:33:20,360 --> 00:33:23,180
vroeger was het toverwoord altijd metadata natuurlijk.

782
00:33:23,180 --> 00:33:25,140
Het is goed beschrijven,

783
00:33:25,140 --> 00:33:26,460
het goed doorzoekbaar maken,

784
00:33:26,460 --> 00:33:28,280
met booleans zoeken,

785
00:33:28,280 --> 00:33:30,220
of later kreeg je de Aqua Browser,

786
00:33:30,220 --> 00:33:31,660
dat was een hele interessante browser,

787
00:33:31,660 --> 00:33:34,640
die cross door het archief kon zoeken.

788
00:33:34,640 --> 00:33:37,800
Maar AI biedt natuurlijk hele andere mogelijkheden.

789
00:33:37,800 --> 00:33:39,040
Toen wij,

790
00:33:39,040 --> 00:33:40,280
toen ik hier,

791
00:33:40,280 --> 00:33:40,640
even kijken,

792
00:33:40,640 --> 00:33:41,480
vijf jaar geleden,

793
00:33:41,480 --> 00:33:42,520
zes jaar geleden,

794
00:33:42,520 --> 00:33:44,140
werkte met,

795
00:33:44,140 --> 00:33:44,980
onder andere,

796
00:33:45,180 --> 00:33:45,720
Microsoft,

797
00:33:45,720 --> 00:33:47,560
en Amazon,

798
00:33:47,560 --> 00:33:48,800
die kwamen hier allemaal langs.

799
00:33:48,800 --> 00:33:49,120
Oh ja.

800
00:33:49,120 --> 00:33:51,320
Kunnen we dat archief van jullie niet,

801
00:33:51,320 --> 00:33:53,340
in onze sweater gooien?

802
00:33:53,340 --> 00:33:54,420
Toch die schatkamer,

803
00:33:54,420 --> 00:33:54,640
hè?

804
00:33:54,640 --> 00:33:55,020
Ja,

805
00:33:55,020 --> 00:33:55,280
ja,

806
00:33:55,280 --> 00:33:57,100
die zagen die content hier natuurlijk wel zitten.

807
00:33:57,100 --> 00:34:00,440
Maar dat hebben we allemaal vriendelijk toch dringend afgeslagen.

808
00:34:00,440 --> 00:34:00,860
Ja.

809
00:34:00,860 --> 00:34:01,500
Maar,

810
00:34:01,500 --> 00:34:05,000
uiteindelijk is de logica daar achter wel duidelijk.

811
00:34:05,000 --> 00:34:05,540
Kijk,

812
00:34:05,540 --> 00:34:06,520
met AI kun je natuurlijk,

813
00:34:06,520 --> 00:34:09,300
kun je op heel interessante manieren,

814
00:34:09,300 --> 00:34:09,980
door het,

815
00:34:09,980 --> 00:34:11,440
spraaktechnologie,

816
00:34:11,440 --> 00:34:11,940
et cetera,

817
00:34:11,940 --> 00:34:14,560
beeldherkenningstechnologie,

818
00:34:14,660 --> 00:34:16,240
kun je natuurlijk door het archief zoeken.

819
00:34:16,240 --> 00:34:19,100
En daar worden allerlei experimenten mee gedaan.

820
00:34:19,100 --> 00:34:20,520
En we hebben ook een heel,

821
00:34:20,520 --> 00:34:21,400
ik vertel al aan het begin,

822
00:34:21,400 --> 00:34:22,700
we zijn ook een kennisinstelling,

823
00:34:22,700 --> 00:34:24,100
naast een archief in een museum,

824
00:34:24,100 --> 00:34:25,040
ook een kennisinstelling.

825
00:34:25,040 --> 00:34:25,240
Ja.

826
00:34:25,240 --> 00:34:26,380
Er wordt veel onderzoek gedaan.

827
00:34:26,380 --> 00:34:28,380
En dat onderzoek richt zich onder andere op,

828
00:34:28,380 --> 00:34:30,640
hoe kun je dat archief beter doorzoekbaar maken,

829
00:34:30,640 --> 00:34:31,880
beter beschikbaar krijgen,

830
00:34:31,880 --> 00:34:32,940
ook naar de wetenschap,

831
00:34:32,940 --> 00:34:33,880
maar ook naar het publiek.

832
00:34:35,080 --> 00:34:38,320
En daar is AI natuurlijk een belangrijk ding in.

833
00:34:38,320 --> 00:34:39,100
Een van de dingen,

834
00:34:39,100 --> 00:34:40,700
een van de projecten daar is bijvoorbeeld,

835
00:34:40,700 --> 00:34:43,700
dat er wordt gewerkt aan een eigen taalmodel,

836
00:34:43,700 --> 00:34:48,000
samen met een aantal maatschappelijke organisaties in Nederland.

837
00:34:48,000 --> 00:34:52,000
Enerzins ook om te zorgen dat we willen proberen,

838
00:34:52,000 --> 00:34:52,340
althans,

839
00:34:52,340 --> 00:34:55,340
om een minder biased taalmodel te krijgen,

840
00:34:55,460 --> 00:34:57,200
dat je uiteindelijk bij zoekresultaten,

841
00:34:57,200 --> 00:34:59,640
een representatieve beeld gaat krijgen.

842
00:34:59,640 --> 00:35:03,520
En niet als je daar iemand die blind is intypt,

843
00:35:03,520 --> 00:35:04,920
als prompt zeg maar,

844
00:35:04,920 --> 00:35:07,060
dat je daar altijd stereotype beelden uit krijgt.

845
00:35:07,060 --> 00:35:07,260
Ja.

846
00:35:07,260 --> 00:35:08,900
Dat is natuurlijk nu wel het geval.

847
00:35:08,900 --> 00:35:09,280
Zeker.

848
00:35:09,280 --> 00:35:10,520
Dus dat moet heel anders.

849
00:35:10,520 --> 00:35:11,440
Dus het is,

850
00:35:11,440 --> 00:35:13,280
die biases die erin zitten,

851
00:35:13,280 --> 00:35:16,000
en die vertekende informatie die eruit komt,

852
00:35:16,000 --> 00:35:17,460
daar wil je natuurlijk uiteindelijk vanaf.

853
00:35:17,460 --> 00:35:19,080
Zeker als erfgoedinstelling is dat belangrijk.

854
00:35:19,080 --> 00:35:19,420
Ja.

855
00:35:19,420 --> 00:35:21,940
En dan zijn jullie dat zelf aan het ontwikkelen,

856
00:35:21,940 --> 00:35:22,520
dat taalmodel?

857
00:35:22,520 --> 00:35:23,440
Dat doen we,

858
00:35:23,440 --> 00:35:24,140
wat ik al zei,

859
00:35:24,220 --> 00:35:26,100
met een heel aantal andere organisaties.

860
00:35:26,100 --> 00:35:27,560
Ja, culturele organisaties,

861
00:35:27,560 --> 00:35:28,740
overheidsorganisaties.

862
00:35:28,740 --> 00:35:30,520
Dus dat is echt wel een breed iets.

863
00:35:30,520 --> 00:35:31,100
Oh.

864
00:35:31,100 --> 00:35:33,680
En kan je daar iets over zeggen van,

865
00:35:33,680 --> 00:35:36,220
wanneer kunnen wij daar als publiek iets van gaan merken?

866
00:35:36,220 --> 00:35:38,620
Eerlijk gezegd,

867
00:35:38,620 --> 00:35:40,140
kan ik daar nog niet zoveel over zeggen.

868
00:35:40,140 --> 00:35:40,660
Nee.

869
00:35:40,660 --> 00:35:41,120
Duidelijk.

870
00:35:41,120 --> 00:35:41,840
Dat is goed geprobeerd.

871
00:35:41,840 --> 00:35:47,700
Heeft het een relatie met GPT-NL van TNO?

872
00:35:47,700 --> 00:35:49,940
Die proberen een Nederlands taalmodel te maken?

873
00:35:49,940 --> 00:35:51,920
Nee, ik weet dat TNO er ook mee bezig is inderdaad.

874
00:35:53,560 --> 00:35:57,840
Dit initiatief komt uit een andere hoek, zeg maar.

875
00:35:57,840 --> 00:36:00,380
Maar met TNO hebben we natuurlijk ook allerlei relaties.

876
00:36:00,380 --> 00:36:00,920
Ja, precies.

877
00:36:00,920 --> 00:36:03,420
Dit is een initiatief van een aantal andere organisaties.

878
00:36:03,420 --> 00:36:05,120
Ja, het bestaat naast elkaar.

879
00:36:05,120 --> 00:36:05,520
Ja.

880
00:36:05,520 --> 00:36:06,740
Ja, oké, duidelijk.

881
00:36:07,420 --> 00:36:11,140
En het doorzoekbaar maken met AI,

882
00:36:11,140 --> 00:36:14,540
is dat wel iets waar we in de toekomst kunnen,

883
00:36:14,540 --> 00:36:16,740
kunnen Niels en ik dat ergens gaan merken?

884
00:36:16,740 --> 00:36:19,440
Nou ja, dat is de hele bedoeling.

885
00:36:19,440 --> 00:36:22,280
Kijk, we zijn nu bijvoorbeeld bezig met een heel groot project.

886
00:36:22,280 --> 00:36:26,240
En dan moet ik even iets zeggen over dat archief en de beschikbaarheid.

887
00:36:26,300 --> 00:36:30,680
Technologisch kunnen wij dat archief al lang al aan het publiek beschikbaar stellen.

888
00:36:30,680 --> 00:36:34,420
En hadden we bij wijze van spreken allerlei zoektechnologie nog aan toe kunnen voegen.

889
00:36:34,420 --> 00:36:37,020
Maar vanuit rechtenoverwegingen mogen we dat niet.

890
00:36:37,020 --> 00:36:38,200
Oh zo ja, natuurlijk.

891
00:36:38,460 --> 00:36:43,820
Maar eindelijk, sinds een jaar of drie zeg maar,

892
00:36:43,820 --> 00:36:45,700
heeft de overheid aangegeven,

893
00:36:45,700 --> 00:36:49,360
wij vinden het inderdaad ook belangrijk dat dit toch moet kunnen.

894
00:36:49,360 --> 00:36:53,700
Dus met een stukje afkoop van rechten en het maken van nieuwe afspraken,

895
00:36:53,700 --> 00:36:56,480
wordt nu gewerkt aan een project dat heet Schatkamer.

896
00:36:56,480 --> 00:36:59,760
En dat betekent eigenlijk dat binnen, ik denk twee jaar,

897
00:36:59,760 --> 00:37:00,500
anderhalf, twee jaar,

898
00:37:00,500 --> 00:37:03,360
een heel groot deel van dat archief wel beschikbaar kunnen gaan stellen.

899
00:37:03,360 --> 00:37:04,320
Wow, cool.

900
00:37:04,320 --> 00:37:06,740
En ja, dan gaan we natuurlijk meteen kijken,

901
00:37:06,840 --> 00:37:08,920
wat voor interface gaan we daarbij gebruiken?

902
00:37:08,920 --> 00:37:10,320
Hoe kan AI daar een rol in spelen?

903
00:37:10,320 --> 00:37:12,160
Dat kan ik nu nog niet zeggen hoor.

904
00:37:12,160 --> 00:37:15,560
Dat project is op volle stoom, zou ik maar zeggen.

905
00:37:15,560 --> 00:37:16,200
Dat snap ik.

906
00:37:16,200 --> 00:37:21,100
Maar natuurlijk zullen we ook gaan kijken naar technologie die daar heel goed bij bruikbaar is.

907
00:37:21,100 --> 00:37:22,000
Ja, mooi.

908
00:37:22,000 --> 00:37:25,560
Niels en ik hebben een kaartspel ontworpen,

909
00:37:25,560 --> 00:37:32,300
die ervoor zorgt dat je discussie aangaat over bepaalde stellingen.

910
00:37:32,300 --> 00:37:33,900
Dus er zit geen goede fout in.

911
00:37:33,900 --> 00:37:36,020
Het is eigenlijk van hoe wordt erover gedenkt?

912
00:37:36,280 --> 00:37:37,460
Gedenkt, gedacht.

913
00:37:37,460 --> 00:37:38,200
Zo dan.

914
00:37:38,200 --> 00:37:42,860
En met het hele idee dat je met elkaar een discussie voert,

915
00:37:42,860 --> 00:37:49,060
nou ja, over best wel fundamentele vraagstukken die kunnen leven met deze technologie.

916
00:37:49,060 --> 00:37:51,980
En dan willen we er aan jou ook eentje voorleggen.

917
00:37:51,980 --> 00:37:52,640
Ja, super.

918
00:37:52,640 --> 00:37:53,860
Ik ben reizen benieuwd.

919
00:37:53,860 --> 00:37:56,280
Ik zit binnenkort weer op Schiermonnikoog.

920
00:37:56,280 --> 00:37:56,960
Lekker toepen.

921
00:37:56,960 --> 00:37:59,940
Dus ik ben benieuwd wat voor kaart hieruit komt.

922
00:37:59,940 --> 00:38:11,840
Nou, jullie zagen ik heb geschud en ik heb er gewoon eentje willekeurig uitgetrokken.

923
00:38:11,840 --> 00:38:13,680
Maar ja, hij ligt wel een beetje in de lijn.

924
00:38:13,680 --> 00:38:17,080
Het gaat over toekomstvisies en speculaties.

925
00:38:17,540 --> 00:38:19,180
En de stelling luidt als volgt.

926
00:38:19,180 --> 00:38:26,300
Binnen een decennium zal elke beslissing in het bedrijfsleven ondersteund of genomen worden door generatieve AI.

927
00:38:30,300 --> 00:38:34,120
Ja, nou, ik kan me wel vinden in een deel van de stelling.

928
00:38:34,120 --> 00:38:42,440
Ik denk zeker dat, kijk, uiteindelijk beslissingen zullen in the end altijd genomen blijven worden.

929
00:38:42,440 --> 00:38:44,500
Tenzij je het helemaal uit de handen geeft.

930
00:38:44,500 --> 00:38:46,060
Maar dat zou een hele foute beslissing zijn.

931
00:38:46,060 --> 00:38:47,140
Door mensen.

932
00:38:47,140 --> 00:38:51,060
Maar dat je je laat ondersteunen door AI.

933
00:38:51,060 --> 00:38:53,600
Dat je daarover open staat, laat ik het zo zeggen.

934
00:38:53,600 --> 00:38:56,320
Dat vind ik wel best logisch eigenlijk.

935
00:38:56,760 --> 00:38:58,880
Maar dat je niet dat je het over laat nemen.

936
00:38:58,880 --> 00:39:01,340
Dat zou je niet moeten willen.

937
00:39:01,340 --> 00:39:07,920
Dat openstaan, dat doet me ook een beetje denken van, je had wrijving, zeg maar, met NotebookLM.

938
00:39:07,920 --> 00:39:12,440
Uiteindelijk heb je jezelf daar wel weer voor open gezet.

939
00:39:12,440 --> 00:39:22,860
Er zijn, denk ik, echt wel luisteraars die wat meer moeite misschien hebben met, van, ja, hoe kom je dan open te staan om dan toch over die drempel heen te gaan?

940
00:39:22,860 --> 00:39:24,300
Kan je daar iets over vertellen?

941
00:39:24,600 --> 00:39:28,220
Nou ja, hoe het voor mij werkt, maar dat geldt eigenlijk ook voor andere technologie.

942
00:39:28,220 --> 00:39:31,120
Ik wil dan eerst begrijpen wat het doet.

943
00:39:31,120 --> 00:39:38,760
Voordat ik dingetjes los kan laten, of, wij spreken, kan overgeven, in dit geval aan NotebookLM.

944
00:39:38,760 --> 00:39:42,640
Dat ik begrijp dat ik mijn autonomie voldoende hou.

945
00:39:42,640 --> 00:39:43,560
Snap je?

946
00:39:43,560 --> 00:39:44,680
Ik wil autonoom blijven.

947
00:39:44,680 --> 00:39:45,740
Dat is het toverwoord.

948
00:39:45,860 --> 00:39:47,100
Ja, ik wil in de lead blijven.

949
00:39:47,100 --> 00:39:56,320
En op het moment dat ik te snel dingen, dat merk ik al als je heel makkelijk gaat zoeken, iets willekeurigs hoor, op Google of wat dan ook, of via Google.

950
00:39:56,320 --> 00:40:01,260
En te weinig over na, dat kan soms wel grappig zijn, dan kom je op onverwachte dingen.

951
00:40:01,260 --> 00:40:03,080
Dat is een ander soort functie.

952
00:40:03,420 --> 00:40:10,780
Als het gaat over de dingen die je ertoe doet, en dat je toch al steeds meer door technologie als waar omringd wordt, die heel veel mensen ook helemaal niet begrijpen.

953
00:40:10,780 --> 00:40:18,860
Dan denk ik dat het juist belangrijk is om je voldoende open voor te stellen, om voldoende begrip te hebben van wat dingen doen.

954
00:40:19,600 --> 00:40:27,080
En je hoeft misschien niet alles, ik bedoel, je wordt ook getrackt in supermarkten waar RIFD chips in de koffiepakken zitten enzovoorts.

955
00:40:27,080 --> 00:40:29,080
En gedrag wordt ook uitgelezen.

956
00:40:29,080 --> 00:40:31,680
Kijk, dat weten veel mensen ook niet altijd.

957
00:40:31,680 --> 00:40:37,320
En misschien zou het wel goed zijn dat ze het wel weten, maar hoeven die misschien het helemaal te begrijpen.

958
00:40:37,320 --> 00:40:44,000
Maar er gebeurt nu al zoveel om mensen heen, dat het best logisch is dat mensen daardoor weerstand opbouwen.

959
00:40:44,000 --> 00:40:46,920
Niet iedereen, want jullie zitten ook in het vak enzovoort.

960
00:40:47,440 --> 00:40:50,640
Dus dan kom je er wel uiteindelijk doorheen of uit.

961
00:40:50,640 --> 00:40:53,320
Maar ik denk dat daar een heel grote taak ligt.

962
00:40:53,320 --> 00:40:57,460
En daar gebeurt op dit vlak nog heel weinig in Nederland.

963
00:40:57,460 --> 00:41:01,760
Ja, maar dat kan me best wel heel, dus als we naar die stelling kijken, dat het best wel heel lastig kan zijn.

964
00:41:01,760 --> 00:41:06,200
Je zegt van ja, maar ik wil ondersteund worden in beslissingen, maar die beslissingen zijn zo belangrijk.

965
00:41:06,200 --> 00:41:10,580
Dan moet ik aan de ene kant voor openstaan en aan de andere kant wil ik mijn autonomie bewaren.

966
00:41:10,580 --> 00:41:15,680
En dat zorgt voor een soort van paradoxaal verhaal.

967
00:41:16,320 --> 00:41:19,680
Ja, en dan door de draad van de podcast zag je het ook over vertrouwen.

968
00:41:19,680 --> 00:41:20,960
Het is ook misschien een stukje vertrouwen.

969
00:41:20,960 --> 00:41:22,060
Wat doet het wel, wat doet het niet?

970
00:41:22,060 --> 00:41:23,360
Wat kan het wel, wat kan het niet?

971
00:41:23,360 --> 00:41:24,200
Dus het is een combinatie.

972
00:41:24,200 --> 00:41:29,180
Als ik al weet bijvoorbeeld, met de lekenkennis die ik heb van de AI.

973
00:41:29,180 --> 00:41:31,240
Ik lees er wel veel over.

974
00:41:31,240 --> 00:41:32,600
Ik probeer het te begrijpen.

975
00:41:32,600 --> 00:41:39,020
Dus met mijn relatieve kennis ervan kan ik bijvoorbeeld al begrijpen dat een bepaalde taalmodel,

976
00:41:39,020 --> 00:41:44,320
dat daar nog heel veel werk aan de winkel is om te zorgen dat die daadwerkelijk betrouwbare content,

977
00:41:44,320 --> 00:41:46,420
actuele content aan de hand van vraagstukken.

978
00:41:46,780 --> 00:41:52,020
Als ik dat al kan bedenken, dan kunnen in principe bestuurders in organisaties dat ook bedenken.

979
00:41:52,020 --> 00:41:59,240
Dus zolang die zien dat dat het geval is, hoe moeten die dan het vertrouwen hebben dat het hun voldoende kan helpen?

980
00:41:59,240 --> 00:42:01,140
Daar moet je antwoorden op zien te vinden.

981
00:42:01,140 --> 00:42:08,040
Als dat antwoord te geven is, zodat zij weten van nou, ik kan wel antwoorden krijgen vanuit AI,

982
00:42:08,040 --> 00:42:11,820
die mij misschien helpen, maar dan moet ik tegelijkertijd weten dat die antwoorden,

983
00:42:11,820 --> 00:42:14,100
dat ik die wel op de een of andere manier moet duiden.

984
00:42:14,100 --> 00:42:15,700
Dan moet ik die antwoorden dan duiden.

985
00:42:15,700 --> 00:42:20,920
En uiteindelijk ben ik dan weer in de lead van ik bepaal zelf wel of ik daar dan iets mee doe of niet.

986
00:42:20,920 --> 00:42:23,100
Dus uiteindelijk kom ik toch weer bij mij zelf uit.

987
00:42:23,100 --> 00:42:25,180
Zo zie ik het, hè?

988
00:42:25,180 --> 00:42:26,680
Ja, dat is heel duidelijk.

989
00:42:26,680 --> 00:42:27,100
Mooi.

990
00:42:27,880 --> 00:42:31,400
Maar die openheid moet er altijd zijn, want die taalmodel ontwikkelt zich natuurlijk ook.

991
00:42:31,400 --> 00:42:33,140
Dus het zal geleidelijk aan uit.

992
00:42:33,140 --> 00:42:34,760
Dat gaat met stappen natuurlijk.

993
00:42:34,760 --> 00:42:35,760
Verbeter dat.

994
00:42:35,760 --> 00:42:37,640
En wat kan het dan?

995
00:42:37,640 --> 00:42:40,720
Maar je moet steeds die vinger aan die pols blijven houden.

996
00:42:40,720 --> 00:42:45,520
Daarom heb je ook die methodiek, dit heet begeleidingsethiek.

997
00:42:45,520 --> 00:42:47,880
Ik weet niet of je Peter Paul Verbeek of die naam je wat zegt.

998
00:42:47,880 --> 00:42:49,720
Eerlijk gezegd niet.

999
00:42:49,720 --> 00:42:53,560
Hij is wetenschapsfilosoof, Universiteit van Twente.

1000
00:42:53,560 --> 00:42:58,080
En inmiddels is hij ook de rector van de Universiteit van Amsterdam.

1001
00:42:58,080 --> 00:42:58,560
Ja.

1002
00:42:58,560 --> 00:43:00,940
Heel interessante man.

1003
00:43:00,940 --> 00:43:02,780
Die zou je ook eens in je podcast moeten vragen.

1004
00:43:02,780 --> 00:43:03,500
Goeie tip.

1005
00:43:03,500 --> 00:43:09,060
Nee, maar hij heeft het onder andere over begeleidingsethiek.

1006
00:43:09,060 --> 00:43:18,120
En dat is een specifiek protocol waarbij bij de introductie van een nieuwe technologie doorloop je een aantal stappen om uiteindelijk te bepalen wat doe ik ermee.

1007
00:43:18,120 --> 00:43:21,540
En er zit altijd een menskant aan, een technologie kant, een systeem kant aan.

1008
00:43:21,540 --> 00:43:24,860
Maar er zit ook altijd dialoog met gebruikers als stap vooraf.

1009
00:43:24,860 --> 00:43:35,100
En als je die stappen doorloopt, dan wordt je ook duidelijker wellicht hoe je dan zo'n stuk technologie kan gebruiken bij ondersteuning bij jouw besluitvorming.

1010
00:43:35,100 --> 00:43:39,520
Ja, die dialoog met de gebruikers, dat is natuurlijk het deel wat heel vaak wordt overgeslagen.

1011
00:43:39,760 --> 00:43:41,300
Dat is de achilleshiel.

1012
00:43:41,300 --> 00:43:45,120
Dat is ja, het wordt wel over user-centered design enzovoorts.

1013
00:43:45,120 --> 00:43:49,440
Weet je wel, dan wordt iets ontwikkeld en dat leg je dan voor een groepje mensen voor.

1014
00:43:49,440 --> 00:43:51,880
Maar dit gaat veel dieper.

1015
00:43:51,880 --> 00:43:57,740
Dus je moet hierbij, dat noemen we binnen die Alliantie Digitaal Samenleven, waar ik het nog niet genoemd geloof ik.

1016
00:43:57,740 --> 00:44:01,640
Dat is een nationaal programma wat wij ook draaien vanuit beeld en geluid.

1017
00:44:01,640 --> 00:44:04,960
Om te zorgen dat iedereen mee kan blijven doen in de digitale wereld.

1018
00:44:05,320 --> 00:44:08,020
Maar daarbinnen hebben we het ook heel vaak over inclusive design.

1019
00:44:08,020 --> 00:44:10,700
Dus dat is ook een internationale term.

1020
00:44:10,700 --> 00:44:13,340
Hoe heet het?

1021
00:44:13,340 --> 00:44:20,600
Die gaat dan echt over hoe ga je iteratief in co-creatie met gebruikers vanaf het begin af aan.

1022
00:44:20,600 --> 00:44:23,200
Dus niet eerst eens wat ontwikkelen en dan eens voorleggen.

1023
00:44:23,200 --> 00:44:25,640
Nee, echt on the fly, continu.

1024
00:44:25,640 --> 00:44:27,360
En dat is een doorlopend proces.

1025
00:44:27,360 --> 00:44:34,080
Dus je zet dan echt de gebruikerservaring en ervaringsdeskundigheid centraal in het proces.

1026
00:44:34,820 --> 00:44:36,760
En dat zou je met AI ook kunnen doen natuurlijk.

1027
00:44:36,760 --> 00:44:39,880
Dan mensen veel meer vertrouwd raken met een stuk ontwikkeling.

1028
00:44:39,880 --> 00:44:41,880
Niet alleen met een eindproduct, maar met de ontwikkeling.

1029
00:44:41,880 --> 00:44:44,960
Dan worden ze ook een beetje deelgenoot van die reis.

1030
00:44:44,960 --> 00:44:45,760
Het is een soort reis.

1031
00:44:45,760 --> 00:44:47,680
AI is eigenlijk meer een reis dan een product.

1032
00:44:47,680 --> 00:44:48,820
Ja, mooi.

1033
00:44:48,820 --> 00:44:51,460
Dan bedenk het nu ter plekke.

1034
00:44:51,460 --> 00:44:54,340
Ja, dat is een hele mooie.

1035
00:44:54,340 --> 00:44:58,980
Want daar zit natuurlijk ook heel veel in van dat je mee moet.

1036
00:44:58,980 --> 00:45:03,200
Dat je het avontuur misschien ook een klein beetje wil aangaan.

1037
00:45:03,200 --> 00:45:05,640
Wel een mooie vergelijking, denk ik.

1038
00:45:05,640 --> 00:45:09,520
Ja, en ook met je achtergrond met het opzetten van het tastbaar maken van technologieën.

1039
00:45:09,520 --> 00:45:11,340
Zoals Nemo en ook nu beeld en geluid.

1040
00:45:11,680 --> 00:45:17,300
Zie jij nog iets wat ontbreekt nu in de maatschappij waar we dit soort zaken ook tastbaar kunnen maken voor de maatschappij?

1041
00:45:17,300 --> 00:45:18,440
Heb je daar ideeën bij?

1042
00:45:18,440 --> 00:45:19,620
Ik ben wel nieuwsgierig daarnaar.

1043
00:45:20,840 --> 00:45:35,620
Nou ja, kijk, ik denk dat als je nou wil dat je zou kunnen laten zien wat de kracht en de waarde van AI is, waar de potentie zit, dan zou je het natuurlijk direct moeten verbinden aan waar de grote vraagstukken in de samenleving zitten.

1044
00:45:35,620 --> 00:45:37,700
De grote vraagstukken.

1045
00:45:37,700 --> 00:45:41,200
De samenleving klinkt heel erg groot, maar ik bedoel, laten we het over Nederland hebben.

1046
00:45:41,200 --> 00:45:45,320
Ook de huidige politieke situatie heeft al veel dingen duidelijk gemaakt.

1047
00:45:45,320 --> 00:45:49,480
Er zijn heel veel mensen die onvoldoende het gevoel hebben dat ze gehoord worden.

1048
00:45:49,640 --> 00:45:52,380
Kun je AI inzetten voor dit soort vraagstukken?

1049
00:45:52,380 --> 00:45:53,840
Kun je mensen meer betrekken bij?

1050
00:45:53,840 --> 00:45:55,760
En kan AI daar een rol in spelen?

1051
00:45:55,760 --> 00:46:04,380
Het zou heel interessant zijn om een aantal van dit soort vraagstukken, ik had het al over die digitale inclusie, een heel groot de digital divide wordt dat dan genoemd.

1052
00:46:04,380 --> 00:46:14,180
Een heel groot deel van de samenleving doet onvoldoende mee, omdat ze of digitaal niet geletterd zijn of ongeletterd of om andere redenen geen geld hebben bijvoorbeeld om dingen te komen.

1053
00:46:14,180 --> 00:46:17,660
Dus kun je AI inzetten om mensen meer te betrekken?

1054
00:46:17,660 --> 00:46:21,100
Dus het zijn eigenlijk een soort van sociaal-maatschappelijke vraagstukken.

1055
00:46:21,100 --> 00:46:24,140
Kun je dat als een design-vraagstuk omzetten?

1056
00:46:24,140 --> 00:46:25,740
Dus dan heb je het over social design.

1057
00:46:25,740 --> 00:46:29,680
En ga daar dan eens vanuit een AI-lens naar kijken.

1058
00:46:29,680 --> 00:46:30,900
Met gebruikers.

1059
00:46:30,900 --> 00:46:33,620
Dat zou ik nou super interessant vinden.

1060
00:46:33,820 --> 00:46:41,980
En dan zal voor heel veel mensen duidelijk worden, die zullen dan alleen maar denken, wat fijn, er is een instrument wat ook hierbij een rol kan spelen.

1061
00:46:41,980 --> 00:46:47,520
Mits wel natuurlijk gekeken blijft worden naar, je moet het wel op zijn waarde blijven schatten natuurlijk.

1062
00:46:47,520 --> 00:46:47,820
Precies.

1063
00:46:47,820 --> 00:46:53,780
En ook niet als zijnde een makkelijke, snelle oplossing van een zeer groot probleem.

1064
00:46:53,780 --> 00:46:55,840
Nee, dat is dus weer een valkuil.

1065
00:46:56,380 --> 00:46:58,200
Ja, dan sla je de plank net mis.

1066
00:46:58,200 --> 00:47:06,180
Ja, sowieso van we gaan de administratie en de zorg, daar plakken we even AI tegenaan en dan kunnen we weer door.

1067
00:47:06,180 --> 00:47:07,020
Precies.

1068
00:47:07,020 --> 00:47:09,980
Dat is natuurlijk wat veel managers misschien wel graag zouden willen.

1069
00:47:10,140 --> 00:47:12,020
Ik denk van het probleem af.

1070
00:47:12,020 --> 00:47:17,660
Maar zo moet je natuurlijk niet omgaan met dit soort technologie.

1071
00:47:17,660 --> 00:47:17,920
Ja.

1072
00:47:17,920 --> 00:47:22,940
Ik denk dat we best wel heel veel gebieden behandeld hebben, van waar we mee begonnen.

1073
00:47:22,940 --> 00:47:29,560
Dat je vanuit hier dit instituut eigenlijk, hoe zeg je dat, bediend.

1074
00:47:29,560 --> 00:47:30,940
Ik denk dat dat het goede woord is.

1075
00:47:30,940 --> 00:47:35,940
Hebben we wat gemist aan, zitten er nog vlekken in het plan?

1076
00:47:35,940 --> 00:47:41,960
Ik moest nog denken, ik heb vorig jaar op verzoek van het blad Kunstzone, dat is een blad voor het kunstvakonderwijs,

1077
00:47:41,960 --> 00:47:51,180
heb ik in het verleden wel artikel voor geschreven, die vroegen of ik iets zou willen schrijven over AI in het kunstvakonderwijs,

1078
00:47:51,180 --> 00:47:52,240
wat dat zou kunnen betekenen.

1079
00:47:52,240 --> 00:47:54,960
Dus toen heb ik een aantal docenten geïnterviewd.

1080
00:47:54,960 --> 00:48:00,540
En een aantal mensen die bij culturele instellingen, die werken voor scholen, zeg maar.

1081
00:48:00,540 --> 00:48:05,320
In hoeverre zij te maken hebben met de inzet van kunstmatige intelligentie en wat dat dan doet.

1082
00:48:05,840 --> 00:48:10,520
En dat was heel interessant, want daar zie je dus ook dezelfde angst waar we het net over hadden.

1083
00:48:10,520 --> 00:48:14,760
Aanvankelijk bij een aantal van die mensen zag je de angst voor, ja maar wacht even.

1084
00:48:14,760 --> 00:48:19,280
Aan die kinderen die, zij merkte namelijk dat opeens kinderen die hadden opdrachten voor beeldende vormen.

1085
00:48:19,280 --> 00:48:24,520
En die gingen dat natuurlijk met journey maken of zo, of met weet ik veel welke tool.

1086
00:48:24,520 --> 00:48:27,700
En dan wisten ze begonnen hoe ze ermee om moesten gaan.

1087
00:48:27,700 --> 00:48:33,060
Gaandeweg merkte je bij een aantal dat ze zoeken van hoe kan ik dat nou inzetten.

1088
00:48:34,160 --> 00:48:36,600
Sommigen sluiten zich af, dat is precies waar we het net over hadden.

1089
00:48:36,600 --> 00:48:39,500
Ja, aan mijn lijf geen polonaise, ik hou het gewoon bij.

1090
00:48:39,500 --> 00:48:42,660
En sommigen dachten, ja maar dit is een instrument, hoe kan ik het inzetten?

1091
00:48:42,660 --> 00:48:47,820
Dus die gebruiken het in een voorfase van een formuleren van een nieuwe opdracht voor die kinderen.

1092
00:48:47,820 --> 00:48:49,840
Dus als een soort verkenning gebruiken ze AI.

1093
00:48:49,840 --> 00:48:54,380
En dan heeft AI zijn functie gehad, namelijk het scherp krijgen van de vraag.

1094
00:48:54,380 --> 00:48:55,940
En dan moeten ze het zelf doen.

1095
00:48:56,740 --> 00:48:58,140
Nou, dat vond ik wel een hele mooie, weet je.

1096
00:48:58,140 --> 00:48:58,460
Zeker.

1097
00:48:58,460 --> 00:49:05,440
Dus dat vind ik ook weer een beetje te horen bij dat begrip algoritmewijsheid, zeg maar.

1098
00:49:05,440 --> 00:49:10,200
Hoe ga je nou zo'n nieuwe technologie op een manier inzetten dat je wel je autonomie blijft behouden?

1099
00:49:10,200 --> 00:49:12,180
Dus het woord autonomie is voor mij wel een kern.

1100
00:49:12,180 --> 00:49:12,560
Ja.

1101
00:49:12,560 --> 00:49:14,280
En dat merkte ik dus ook bij die docenten.

1102
00:49:14,280 --> 00:49:15,060
Dat vond ik heel mooi.

1103
00:49:15,060 --> 00:49:17,920
Autonomie heb ik gehoord.

1104
00:49:17,920 --> 00:49:19,600
Een reis, AI is een reis.

1105
00:49:19,600 --> 00:49:20,360
Vertrouwen.

1106
00:49:20,360 --> 00:49:21,280
Vertrouwen.

1107
00:49:21,480 --> 00:49:27,080
Ik denk dat we een heel mooi plaatje hebben gekregen van wat je doet, wat de technologie betekent.

1108
00:49:27,080 --> 00:49:28,700
Ook voor beeld en geluid.

1109
00:49:28,700 --> 00:49:32,840
Dus ja, we willen je ontzettend bedanken voor al deze inzichten.

1110
00:49:32,840 --> 00:49:36,960
En fijn dat we ook hier op locatie dit mochten gaan opnemen.

1111
00:49:36,960 --> 00:49:39,600
Nou, ik vond het een hele eer, jongens.

1112
00:49:39,600 --> 00:49:43,520
Om te gast te zijn in jullie prachtige programma.

1113
00:49:43,520 --> 00:49:43,920
Dank je wel.

1114
00:49:43,920 --> 00:49:45,600
Jij ook bedankt.

1115
00:49:45,600 --> 00:49:48,980
Leuk dat je er weer luisterde.

1116
00:49:49,880 --> 00:49:52,980
Wil je het kaartspel, wil je die thuis gestuurd krijgen?

1117
00:49:52,980 --> 00:49:53,420
Dat kan.

1118
00:49:53,420 --> 00:49:55,140
Het linkje staat in de show notes.

1119
00:49:55,140 --> 00:49:57,120
Eventjes wat gegevens invullen.

1120
00:49:57,120 --> 00:49:59,100
En dan krijg je het gratis thuis gestuurd.

1121
00:49:59,100 --> 00:50:02,780
En vergeet niet je te abonneren via je favoriete podcast app.

1122
00:50:02,780 --> 00:50:04,920
Dan krijg je een seintje bij iedere nieuwe aflevering.

1123
00:50:04,920 --> 00:50:05,920
Tot de volgende keer.

1124
00:50:05,920 --> 00:50:06,760
Tot de volgende keer.

1125
00:50:06,760 --> 00:50:09,460
[Muziek]


People on this episode