AIToday Live

S07E27 - Een mediakluis met AI: het digitale erfgoed van de toekomst met Eppo van Nispen

Aigency by Info Support Season 7 Episode 27

Eppo van Nispen tot Sevenaer, directeur van het Nederlands Instituut voor Beeld en Geluid, deelt zijn visie op AI in het archiveren van cultureel erfgoed. Het instituut gebruikt al decennia AI-technologie voor beeldherkenning en metadata-automatisering, terwijl het dagelijks terabytes aan nieuwe data verwerkt.

Van Nispen benadrukt het belang van Nederlandse taalmodellen en werkt samen aan projecten als NINE en HOZAN. Hij streeft naar minimale bias in AI-systemen door diverse bronnen te archiveren en heeft plannen voor persoonlijke 'datakluisjes' voor alle Nederlanders.

Hoewel Van Nispen kansen ziet voor AI in de mediasector, waarschuwt hij voor overmati

Onderwerpen

  • Rol van AI in archivering van cultureel erfgoed
  • Ontwikkeling van taalmodellen voor het Nederlands
  • Minimaliseren van bias in AI-systemen
  • Toekomstvisie met persoonlijke datakluisjes
  • Kansen en uitdagingen van AI in de mediasector
Links

Genoemde entiteiten: Nederlands Instituut voor Beeld en Geluid - Eppo van Nispen tot Sevenaer - NINE - HOZAN

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:06,120
De grootste uitdaging met AI is niet de technologie, maar juist het menselijke perspectief op,

2
00:00:06,120 --> 00:00:10,640
stelt Eppo van Nispen tot Zevenaar, directeur van het Nederlands Instituut voor Beeld en

3
00:00:10,640 --> 00:00:11,640
Geluid.

4
00:00:11,640 --> 00:00:17,040
Je gaat in een boeiend gesprek de visie van Eppo horen over hoe AI onze maatschappij verandert

5
00:00:17,040 --> 00:00:20,680
en welke rol het speelt bij het bewaren van ons cultureel erfgoed.

6
00:00:20,680 --> 00:00:27,040
Van historische data tot persoonlijke herinneringen, het instituut staat voor de uitdaging om niet

7
00:00:27,040 --> 00:00:30,959
alleen het verleden, maar ook het heden toekomstbestendig te archiveren.

8
00:00:30,960 --> 00:00:31,959
[Muziek]

9
00:00:31,959 --> 00:00:32,959
[Muziek]

10
00:00:32,959 --> 00:00:33,959
Hoi, leuk dat je weer luistert

11
00:00:33,959 --> 00:00:34,959
naar een nieuwe aflevering van

12
00:00:34,959 --> 00:00:35,959
AIToday Live

13
00:00:35,959 --> 00:00:36,959
***…

14
00:00:36,959 --> 00:00:40,119
Vandaag op locatie, Beeld en Geluid.

15
00:00:40,119 --> 00:00:42,899
In denk ik wel het mooiste kantoor wat we ooit gezien hebben.

16
00:00:42,899 --> 00:00:44,059
Bij Eppo van Nispen.

17
00:00:44,059 --> 00:00:47,819
Mijn naam Joop Snijder, CTO bij Aigency.

18
00:00:47,819 --> 00:00:50,039
Ik word er zenuwachtig op.

19
00:00:50,039 --> 00:00:50,479
Ja, ik wou dat zeggen.

20
00:00:50,479 --> 00:00:53,619
Er zit zoveel ambiance en sfeer in deze kamer.

21
00:00:53,619 --> 00:00:56,139
Je kan hier volgens mij gewoon een dag vermaken met alles wat je ziet.

22
00:00:56,139 --> 00:00:59,319
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support.

23
00:00:59,319 --> 00:01:02,339
Ja, Eppo, dankjewel dat je bij ons in de...

24
00:01:02,339 --> 00:01:04,679
Normaal gesproken zeg ik in de studio wil zijn.

25
00:01:04,679 --> 00:01:06,459
Maar we hebben het omgedraaid, dus we zijn bij jou.

26
00:01:06,459 --> 00:01:11,479
Ja, sorry dat ik ze wat hoest, maar ik ben oprecht een brok in de keel bij deze intro.

27
00:01:11,479 --> 00:01:16,399
Voor mij is het natuurlijk gewoon mijn dagelijks plekje waar ik gewoon zit.

28
00:01:16,399 --> 00:01:19,099
En ik denk al dat het fijn is om in een plekje te zitten waar je je thuis voelt.

29
00:01:19,099 --> 00:01:20,519
En ik doe dat hier wel heel erg hier.

30
00:01:20,519 --> 00:01:24,839
Ik ben wat hoesterig, maar dat komt wel goed.

31
00:01:24,839 --> 00:01:25,599
Ja toch?

32
00:01:25,599 --> 00:01:25,879
Zeker.

33
00:01:25,879 --> 00:01:27,219
Jullie knippen er niet in.

34
00:01:27,219 --> 00:01:32,339
Dus nu kunnen de luisteraars van de podcast echt horen dat jullie er niet in knippen.

35
00:01:32,339 --> 00:01:34,499
Precies, ja.

36
00:01:34,899 --> 00:01:36,979
Mensen zullen dat niet heel fijn vinden in hun oor.

37
00:01:36,979 --> 00:01:37,759
Nee, dat weet ik zeker.

38
00:01:37,759 --> 00:01:40,519
Kijk.

39
00:01:40,519 --> 00:01:44,779
Het kan AI er allemaal uithalen, maar de lol is dat dit gewoon een menselijke podcast is.

40
00:01:44,779 --> 00:01:45,439
Precies, dat.

41
00:01:45,439 --> 00:01:45,899
Ja.

42
00:01:45,899 --> 00:01:49,399
Eppo, voor de mensen die jou niet kennen.

43
00:01:49,399 --> 00:01:51,179
Zou je jezelf willen voorstellen?

44
00:01:51,179 --> 00:01:51,899
Ja, met heel veel plezier.

45
00:01:51,899 --> 00:01:53,779
Mijn naam is Eppo van Nispen tot Sevenaer.

46
00:01:53,779 --> 00:01:54,659
Ja, keurig Nederlands.

47
00:01:54,659 --> 00:01:55,959
Oude adel zeg ik altijd maar weer.

48
00:01:55,959 --> 00:01:57,379
Wel het laagst van het laagst.

49
00:01:57,379 --> 00:01:58,139
De jonkheer, maar goed.

50
00:01:58,219 --> 00:02:02,799
En ik mag in mijn dagelijks leven leiding geven aan het mooiste instituut van Nederland.

51
00:02:02,799 --> 00:02:05,139
Dat is namelijk het Nederlands instituut voor Beeld en Geluid.

52
00:02:05,139 --> 00:02:09,658
En mensen kennen dat vaak als museum, maar dat is maar 6% van wat wij doen.

53
00:02:09,658 --> 00:02:17,559
Eigenlijk de rest, ja, 13% van wat je ziet en hoort elke dag komt uit ons huis in Nederland.

54
00:02:18,419 --> 00:02:22,659
Dus of het nou via het journaal of beeld, je kan het allemaal zo gek niet bedenken.

55
00:02:22,659 --> 00:02:26,839
Zelfs veel podcasts maken gebruik van ons grote archief.

56
00:02:26,839 --> 00:02:29,519
En het is het ene grootste mediaarchief ter wereld.

57
00:02:29,519 --> 00:02:30,379
Ter wereld ook?

58
00:02:30,379 --> 00:02:30,659
Ja.

59
00:02:30,659 --> 00:02:31,139
Oh, wauw.

60
00:02:31,139 --> 00:02:32,079
Wat is de grootste?

61
00:02:32,079 --> 00:02:35,059
Dat is INA, dat zit in Frankrijk.

62
00:02:35,059 --> 00:02:37,419
Dat is eigenlijk onze grote broer, zus, hoe je maar naar kijkt.

63
00:02:37,419 --> 00:02:43,339
En dat komt omdat wij zijn wettelijk verplicht dat wat de publieke omroep uitspeelt,

64
00:02:43,339 --> 00:02:45,419
iedere dag te archiveren.

65
00:02:46,059 --> 00:02:50,159
Zij zijn verplicht alles wat in Frankrijk uitspeelt te archiveren.

66
00:02:50,159 --> 00:02:51,799
Dat is echt heel veel, dus die groeien.

67
00:02:51,799 --> 00:02:56,339
Maar goed, we hebben ook een aardige, wat is het, 80 petabyte in de opslag zitten.

68
00:02:56,339 --> 00:02:56,599
Zo.

69
00:02:56,599 --> 00:03:00,239
Ja, dus dat groeit en dat groeit en dat groeit.

70
00:03:00,239 --> 00:03:01,899
En bij hen is het alleen nog een stukje meer.

71
00:03:01,899 --> 00:03:03,719
Ja, en je zegt dat groeit.

72
00:03:03,719 --> 00:03:05,299
Hoeveel groeit dat zo per dag?

73
00:03:05,299 --> 00:03:08,779
Ja, dan moet je altijd, voor de data liefhebbers gaat natuurlijk al,

74
00:03:08,779 --> 00:03:10,839
in dit geval gaat het echt over terabytes, zeg maar.

75
00:03:10,839 --> 00:03:15,299
En het hangt natuurlijk heel erg af van het formaat waarin wij opslaan.

76
00:03:15,299 --> 00:03:15,539
Ja.

77
00:03:15,539 --> 00:03:19,619
De ene keer is dat 4K, maar meestal is dat UAD, zeg maar, voor beeld dan.

78
00:03:19,619 --> 00:03:23,359
En dan spreek je over, dat is het een paar terabyte per dag.

79
00:03:23,359 --> 00:03:24,299
Maar dat is goed wel.

80
00:03:24,299 --> 00:03:24,919
Bij dag.

81
00:03:24,919 --> 00:03:26,079
Ja, geweldig.

82
00:03:26,739 --> 00:03:32,399
En hoe komt een directeur van zo'n mooi instituut in aanraking met AI?

83
00:03:32,399 --> 00:03:35,859
Nou, eigenlijk als kind al, dat is heel grappig.

84
00:03:35,859 --> 00:03:38,059
Ja, kijk, van het instituut kan ik het zeker uitleggen.

85
00:03:38,059 --> 00:03:40,879
Maar je eigen achtergrond is ook wel heel interessant.

86
00:03:40,879 --> 00:03:43,499
Nou, wat ik allemaal heb gedaan, ik heb van alles gedaan, zeg ik altijd.

87
00:03:43,499 --> 00:03:47,119
Maar ik zat al zeven jaar al achter de computer en ik ben in 1964.

88
00:03:47,839 --> 00:03:49,259
Dus reken maar uit 1971.

89
00:03:49,259 --> 00:03:54,479
En AI is natuurlijk letterlijk ouder dan de weg naar Rome.

90
00:03:54,479 --> 00:03:59,659
Dat is voor mensen soms heel moeilijk te begrijpen, maar ik geef er nogal veel lezingen en college ook over.

91
00:03:59,659 --> 00:04:06,499
AI, kunstmatige intelligentie, is niet zozeer computers of nulletjes en eentjes, maar is vooral meer een concept.

92
00:04:07,379 --> 00:04:13,259
En een van de mooie mythen is die Jason en de Argonaut voor de liefhebbers.

93
00:04:13,259 --> 00:04:15,879
De podcast man, ik denk, waar gaat die naartoe?

94
00:04:15,879 --> 00:04:17,899
Maar we gaan echt duizenden jaren terug.

95
00:04:17,899 --> 00:04:21,519
En daar had je de Thalos, T-H-A-L-O -S.

96
00:04:21,519 --> 00:04:25,819
En dat was eigenlijk een soort van robot die verdedigde de haven van Kreta.

97
00:04:25,819 --> 00:04:26,279
Oh ja.

98
00:04:26,279 --> 00:04:32,699
En die was eigenlijk alleen maar uit te schakelen als je onderaan bij zijn hiel een soort van, ik zeg maar zeggen, een olievulknopje openmaakt.

99
00:04:32,699 --> 00:04:35,179
En dan ging de levenssappen eruit.

100
00:04:35,299 --> 00:04:39,519
Waar het om gaat is kunstmatige intelligentie is echt iets wat al eeuwenlang speelt.

101
00:04:39,519 --> 00:04:41,059
Met name vanuit de filosofie.

102
00:04:41,059 --> 00:04:43,419
Nogmaals, niet zijnde mensen.

103
00:04:43,419 --> 00:04:52,799
Als je Mary Shelley's Frankenstein leest, het monster van Frankenstein, het monster zelf, is kunstmatige intelligentie.

104
00:04:52,799 --> 00:04:55,979
Als kind was ik enorm gefascineerd door een paar dingen.

105
00:04:55,979 --> 00:04:57,759
En een daarvan was Star Trek.

106
00:04:57,759 --> 00:05:01,459
Met natuurlijk Mr. Spock en alles wat daar speelde.

107
00:05:02,759 --> 00:05:06,859
En mijn vader die was altijd wel into the computer zeg maar.

108
00:05:06,859 --> 00:05:11,679
Die heeft een heleboel dingetjes gedaan die met name over persoonsregistratie gingen.

109
00:05:11,679 --> 00:05:15,139
Dus we hadden alle spulletjes eigenlijk al thuis.

110
00:05:15,139 --> 00:05:20,299
En als kind kon je, ik woon in Den Haag, woon er nog steeds, kon je naar het Museum van Onderwijs.

111
00:05:20,299 --> 00:05:24,619
En die hadden daar een aansluiting met de centrale computer in Utrecht.

112
00:05:24,619 --> 00:05:25,619
Een universiteitscomputer.

113
00:05:26,479 --> 00:05:32,619
En dat was toen nog, ja ik vond dat heel mooi, zo'n oude IBR met zo'n bolletje en kettingpapier.

114
00:05:32,619 --> 00:05:34,239
Ja dat zeg je helemaal niks.

115
00:05:34,239 --> 00:05:36,379
Maar wat het unieke daarvan was.

116
00:05:36,379 --> 00:05:41,919
Kijk nu, als een chat iets doet of waar je ook werkt en je vraagt dan een chatbot.

117
00:05:41,919 --> 00:05:42,899
Er gebeurt eigenlijk niks.

118
00:05:42,899 --> 00:05:44,519
Je hebt geen geluid, er wordt niet gesproken.

119
00:05:45,219 --> 00:05:48,519
Maar daar was dat bolletje, dat moest altijd even denken.

120
00:05:48,519 --> 00:05:51,679
En dan ging het trrrt, trrrt, trrrt, trrrt, trrrt.

121
00:05:51,679 --> 00:05:52,679
Dus dan had je het gevoel.

122
00:05:52,679 --> 00:05:55,939
Dit was een heel simpel programma wat erachter zat.

123
00:05:55,939 --> 00:05:57,259
Maar dan was dan, wat is je naam nou?

124
00:05:57,259 --> 00:05:57,599
Eppo.

125
00:05:57,599 --> 00:06:00,779
Hallo Eppo, wil je een speeltje met me spelen?

126
00:06:00,779 --> 00:06:01,239
Weet je wel?

127
00:06:01,239 --> 00:06:02,379
Maar dat leefde echt.

128
00:06:02,379 --> 00:06:03,499
En dit was dan Boter, Kaas en Eieren.

129
00:06:03,499 --> 00:06:07,619
Nee, en ik zelf had als kind het idee, hoe kan dat daar?

130
00:06:07,619 --> 00:06:14,539
Nou, dus zo ben ik eigenlijk mijn leven lang als een soort van alfabet aan een nerd met me daarmee bezig gehouden.

131
00:06:15,219 --> 00:06:18,659
En dan niet zozeer specifiek met de kunstmatige intelligentie in eerste instantie.

132
00:06:18,659 --> 00:06:19,659
Maar dat wilde ik wel.

133
00:06:19,659 --> 00:06:21,479
Je ziet hier ook in mijn kamer een robotje staan.

134
00:06:21,479 --> 00:06:23,119
Overal.

135
00:06:23,119 --> 00:06:25,279
Dus die heb ik wel verzameld.

136
00:06:25,279 --> 00:06:29,639
Vaak was het helemaal geen kunstmatige intelligentie in de vorm zoals we dat nu kennen.

137
00:06:29,639 --> 00:06:32,199
Maar gewoon een heel mooi mechanisch gebouwd iets.

138
00:06:32,199 --> 00:06:33,479
Ja, precies.

139
00:06:33,479 --> 00:06:35,979
En dan is het een vraag.

140
00:06:35,979 --> 00:06:39,039
Je zei, wat heeft beeld en geluid ermee te maken?

141
00:06:39,039 --> 00:06:44,239
Eigenlijk vanaf het allereerste begin om het proces van beeldherkenning.

142
00:06:44,459 --> 00:06:46,579
Dat is een enorm werk.

143
00:06:46,579 --> 00:06:52,739
En daar had je veel mensen voor nodig om, wat nu iedereen normaal woord vindt, metadata.

144
00:06:52,739 --> 00:07:00,439
Maar in de jaren 2000 en daarvoor eigenlijk al, 1990, was metadata echt archivarische werken.

145
00:07:00,439 --> 00:07:02,019
Archivarische deden dat.

146
00:07:02,019 --> 00:07:03,959
Die hadden de thesaurus.

147
00:07:03,959 --> 00:07:08,439
En dan moest je opschrijven wie wat war, hoe laat, waar, wanneer.

148
00:07:08,439 --> 00:07:09,339
Nou, dat soort dingetjes.

149
00:07:09,979 --> 00:07:15,159
Nou, dat proces hebben we eigenlijk vrij snel al geprobeerd te automatiseren.

150
00:07:15,159 --> 00:07:19,399
Ja, en daarvoor heb je in feite kunstmatige intelligente systemen nodig.

151
00:07:19,399 --> 00:07:22,199
Dus het beeld en geluid werkt er echt al meer dan 30 jaar mee.

152
00:07:22,199 --> 00:07:22,879
Ja, geweldig.

153
00:07:23,139 --> 00:07:30,839
En je hebt ook een rol binnen de NLAIC, de Nederlandse AI-coalitie.

154
00:07:30,839 --> 00:07:31,139
Ja.

155
00:07:31,139 --> 00:07:32,579
Kan je daar ook iets over vertellen?

156
00:07:32,639 --> 00:07:33,099
Ja, zeker.

157
00:07:33,099 --> 00:07:35,239
Want dat is natuurlijk een heel belangrijke plek.

158
00:07:35,239 --> 00:07:42,639
Het is nu een Nederlandse AI-coalitie voor Nederland.

159
00:07:42,639 --> 00:07:44,059
Dat is wat veranderd.

160
00:07:44,059 --> 00:07:54,939
Maar hoe dan ook, het is heel belangrijk, zeker in Nederland, dat je met elkaar die enorme uitdaging die kunstmatige intelligentie, AI, met zich meebrengt.

161
00:07:54,939 --> 00:08:01,099
Hoe kunnen we daar nou voor alle sectoren ervoor zorgen dat we daar met de schouders onder zetten?

162
00:08:01,099 --> 00:08:06,079
En specifiek was dit vooral voor de groeifondsaanvraag in de eerste instantie.

163
00:08:06,079 --> 00:08:11,739
Maar ik ben, wij waren de werkgroep Cultuur en Media.

164
00:08:12,539 --> 00:08:14,719
En ik ben daar heel lang de voorzitter van geweest.

165
00:08:14,719 --> 00:08:22,979
En ja, Cultuur en Media zijn heel belangrijk, omdat die, ja, daar hebben de mensen eigenlijk het meeste te maken met AI.

166
00:08:22,979 --> 00:08:29,159
Alle generatieve AI's een beetje, die een beetje leuk is, dat het allemaal media gericht is.

167
00:08:29,159 --> 00:08:32,399
Gekke foto maken, deepfake, geluidjes.

168
00:08:32,399 --> 00:08:33,599
Dat is allemaal media.

169
00:08:34,279 --> 00:08:44,759
Dus als je wil dat je AI accepteert, daar moet je allerlei ethiek over afspreken, maar moet je die media daar ook goed in meenemen.

170
00:08:44,759 --> 00:08:45,739
Dat vergeet ze soms heel veel.

171
00:08:45,739 --> 00:08:52,899
Vaak heb je natuurlijk, nou je noemde het zelf, volgens mij eerder, heb je wel eens gezegd over agri, dus bijvoorbeeld landbouw.

172
00:08:52,899 --> 00:08:56,619
Ja, hoe kun je nou slim je akkertje bewerken?

173
00:08:56,619 --> 00:08:57,419
Ja.

174
00:08:57,419 --> 00:09:00,299
Ja, daar heb je, AI kan daar echt heel goed in helpen.

175
00:09:00,939 --> 00:09:14,359
Alleen dat is niet zo tastbaar voor mensen thuis, terwijl die, nou ja, nogmaals een gekke foto of noem maar op, al die gimmicks die erin zitten, noem maar alle muziekjes die je kan maken, dan is het veel meer tastbaar.

176
00:09:14,359 --> 00:09:21,639
Nou, daar hebben we een heel belangrijke rol in gespeeld, om ervoor te zorgen dat er een bepaalde dingen belangrijk zijn in Nederland.

177
00:09:21,639 --> 00:09:27,959
En persoonlijk staat AI niet zoveel voor mij voor Artificial Intelligence, maar all inclusive.

178
00:09:29,099 --> 00:09:42,679
Dat iedereen, als je, ja, zonder nou, ik ben een enorme positivo, zeker over AI ook, maar dat kan alleen maar als je er goede afspraken met elkaar over maakt, hoe je dat gaat toepassen.

179
00:09:42,679 --> 00:09:44,039
En voor wie je het gaat toepassen.

180
00:09:44,039 --> 00:09:58,319
En je weet nu al, dat ik bijvoorbeeld in staat ben, ik heb een aardig salaris, ik kan een duurdere AI toepassing kopen, die een betere uitslag geeft dan degene die de goedkopere versie heeft.

181
00:09:58,319 --> 00:10:04,599
Nou, trek dat nou eens door naar bijvoorbeeld een hulp bij gezondheid.

182
00:10:04,599 --> 00:10:04,999
Ja.

183
00:10:04,999 --> 00:10:12,039
Ja, je wilt toch niet dat ik toegang tot betere AI heb, waardoor mijn leven beter is dan iemand die dat geld niet heeft.

184
00:10:12,039 --> 00:10:14,159
Dus daar is waar wij heel erg op hebben gezeten.

185
00:10:14,159 --> 00:10:23,219
Nou, er is nu een transformatie gegaan en ik zit daar, als het goed is, binnenkort in de strategieadviesraad rondom AI.

186
00:10:23,219 --> 00:10:24,259
En dat is ook heel leuk.

187
00:10:24,639 --> 00:10:24,939
Mooi.

188
00:10:24,939 --> 00:10:25,439
Mooi.

189
00:10:25,439 --> 00:10:29,239
Ja, en je noemde de uitdagingen die in dit gebied zitten.

190
00:10:29,239 --> 00:10:31,239
Wat zijn dan die uitdagingen als we het daarover hebben?

191
00:10:31,519 --> 00:10:34,219
Nou, jullie praten er vaak over.

192
00:10:34,219 --> 00:10:36,579
Daar hebben jullie echt, vind ik, een hele geweldige podcast.

193
00:10:36,579 --> 00:10:37,359
Dankjewel.

194
00:10:37,359 --> 00:10:40,959
Dus mensen die hier naar luisteren, vertel dat het echt een geweldige podcast is.

195
00:10:40,959 --> 00:10:42,619
Ik luister daar ook naar.

196
00:10:43,619 --> 00:10:48,679
Een van de dingen waar we het ook wel over hebben is dat de uitdaging is dat veel mensen AI zien als een tool.

197
00:10:48,679 --> 00:10:50,859
Als een dingetje wat je er maar even bij doet.

198
00:10:50,859 --> 00:10:51,959
Een gimmick.

199
00:10:51,959 --> 00:10:54,119
Maar AI is veel meer dan dat.

200
00:10:54,119 --> 00:10:59,479
Dus je moet heel goed nadenken hoe je dat integreert in je bedrijfsfilosofie.

201
00:10:59,479 --> 00:11:01,659
Wat wil je er nou mee?

202
00:11:01,659 --> 00:11:04,299
Aan welke verwachtingen kun je voldoen?

203
00:11:05,099 --> 00:11:08,019
En dat alleen al vind ik de grootste uitdaging.

204
00:11:08,019 --> 00:11:12,939
En ook de andere is, hoe zorgen we nou voor dat iedereen ervan profiteert?

205
00:11:12,939 --> 00:11:15,279
En dan letterlijk iedereen ervan profiteert.

206
00:11:15,279 --> 00:11:17,639
En dat is echt wel heel erg lastig.

207
00:11:17,639 --> 00:11:23,259
Dus we hebben natuurlijk te maken met vooral hier met de stromingen die er in Amerika zijn.

208
00:11:23,259 --> 00:11:27,879
Want ik neem aan dat je bijvoorbeeld doelt met verschil in duurdere AI.

209
00:11:27,879 --> 00:11:31,339
Bij OpenAI kun je zo'n 200 dollar per maand abonnement nemen.

210
00:11:31,339 --> 00:11:34,139
En heel veel mensen zullen het gratis abonnement hebben.

211
00:11:34,259 --> 00:11:36,519
En daar zit gewoon een enorm gat in.

212
00:11:36,519 --> 00:11:36,619
Exact.

213
00:11:36,619 --> 00:11:37,599
Exact.

214
00:11:37,599 --> 00:11:38,219
Wat kan.

215
00:11:38,219 --> 00:11:42,279
En als je dat dan inderdaad doortrekt naar misschien straks rijkere bedrijven.

216
00:11:42,279 --> 00:11:44,119
Rijkere mensen.

217
00:11:44,119 --> 00:11:47,939
Dan ben je grotere verschillen eigenlijk aan het creëren.

218
00:11:47,939 --> 00:11:48,199
Ja.

219
00:11:48,199 --> 00:11:50,859
En dat is, althans, dat is wat ik niet zou willen.

220
00:11:50,859 --> 00:11:54,259
Kijk, ik denk dat het heel goed is dat je moet bedrijven laten ontwikkelen.

221
00:11:54,259 --> 00:11:56,159
Die investeren daar ook heel erg veel in.

222
00:11:56,159 --> 00:11:59,439
Maar OpenAI is een mooi voorbeeld daarvan.

223
00:11:59,439 --> 00:12:01,499
Op zich leek dat natuurlijk OpenAI.

224
00:12:01,499 --> 00:12:02,079
Alles is open.

225
00:12:02,079 --> 00:12:02,679
Ja, open.

226
00:12:02,679 --> 00:12:04,079
Ja, niks zo gesloten.

227
00:12:04,139 --> 00:12:08,979
Nee, dus daar zit dan 'de piep' the fuck up.

228
00:12:08,979 --> 00:12:12,539
Dat je denkt, daar moet je wat mee.

229
00:12:12,539 --> 00:12:13,979
Daar moeten we gezamenlijk ook wat mee.

230
00:12:13,979 --> 00:12:19,159
En in Europa is het natuurlijk heel belangrijk dat we nadenken over wat kunnen wij nu.

231
00:12:19,159 --> 00:12:22,759
Want het is een industrie waar we allemaal goed aan zouden kunnen verdienen.

232
00:12:22,759 --> 00:12:26,559
Waarbij we grensverleggend echt de wereld beter zouden kunnen maken.

233
00:12:26,779 --> 00:12:29,659
Maar goed, dat zijn echt om wat uitdagingen daarin te gaan.

234
00:12:29,659 --> 00:12:35,179
Hoe kijk je vanuit je rol naar...

235
00:12:35,179 --> 00:12:37,939
Je zei van, er is nu van alles te maken met generatieve AI.

236
00:12:37,939 --> 00:12:42,099
Er zijn nu in één keer heel veel meer mediamakers erbij gekomen, denk ik.

237
00:12:42,099 --> 00:12:43,819
Hoe kijk je daar tegenaan?

238
00:12:44,639 --> 00:12:46,199
Nou, ik vind dat alleen maar fijn.

239
00:12:46,199 --> 00:12:47,399
En voor de...

240
00:12:47,399 --> 00:12:48,779
Ook lieve luisteraars hier.

241
00:12:48,779 --> 00:12:51,139
Ik gebruik 37 tools om dingen te doen.

242
00:12:51,139 --> 00:12:52,419
Gewoon om te experimenteren.

243
00:12:52,419 --> 00:12:53,839
En dat groeit en dat groeit.

244
00:12:54,579 --> 00:12:57,139
Ik heb er ongelooflijk veel plezier in.

245
00:12:57,139 --> 00:12:58,939
Want ik denk, wauw, dat is toch ongelooflijk.

246
00:12:58,939 --> 00:13:01,779
Binnen, binnen, minder dan...

247
00:13:01,779 --> 00:13:02,079
Wat is het?

248
00:13:02,079 --> 00:13:03,599
Een seconde is er iets gecreëerd.

249
00:13:03,599 --> 00:13:06,779
Ook om te kijken hoe dat is.

250
00:13:06,779 --> 00:13:08,639
Ik ben daar een enorme fan van.

251
00:13:08,639 --> 00:13:12,919
Belangrijk is wel dat je goed nadenkt over ook hier weer.

252
00:13:12,919 --> 00:13:14,859
Welke ethiek pas je toe?

253
00:13:14,859 --> 00:13:18,479
Wij weten als geen ander bij beeld en geluid.

254
00:13:18,479 --> 00:13:20,619
Omdat wij zo'n enorme databank zijn.

255
00:13:20,619 --> 00:13:24,299
Wordt er heel veel op onze systemen getraind.

256
00:13:24,499 --> 00:13:24,959
Moet ook wel.

257
00:13:24,959 --> 00:13:27,719
Nou, een van de dingen is dat...

258
00:13:27,719 --> 00:13:28,419
Leg ik altijd uit.

259
00:13:28,419 --> 00:13:31,099
Trainen van AI.

260
00:13:31,099 --> 00:13:32,459
Die kunstmatige.

261
00:13:32,459 --> 00:13:34,479
Dat is altijd op historische data.

262
00:13:34,479 --> 00:13:35,259
Altijd.

263
00:13:35,259 --> 00:13:36,559
Er is geen toekomstdata.

264
00:13:36,559 --> 00:13:36,759
Nee.

265
00:13:36,759 --> 00:13:37,479
Die bestaan niet.

266
00:13:37,479 --> 00:13:38,899
Althans, ik zou niet weten hoe.

267
00:13:38,899 --> 00:13:41,179
Als je die hebt, kan je heel rijk worden.

268
00:13:41,179 --> 00:13:44,519
Ja, maar dat is meteen ook het perfecte antwoord.

269
00:13:44,519 --> 00:13:45,819
Ja, AI, man.

270
00:13:45,819 --> 00:13:46,919
Die gaat de wereld veranderen.

271
00:13:46,919 --> 00:13:47,419
Zeker.

272
00:13:47,419 --> 00:13:48,259
Dat gaat helpen.

273
00:13:48,259 --> 00:13:49,499
Maar nogmaals.

274
00:13:49,499 --> 00:13:51,779
Het is niet in die zin slimmer.

275
00:13:51,779 --> 00:13:53,819
Mensen hebben een heel mensbeeld bij.

276
00:13:54,419 --> 00:13:56,019
AI is...

277
00:13:56,019 --> 00:13:57,539
Dat is het helemaal niet.

278
00:13:57,539 --> 00:13:58,319
Het is geen mens.

279
00:13:58,319 --> 00:13:59,379
Het is een systeem.

280
00:13:59,379 --> 00:14:00,319
Daar denk je over na.

281
00:14:00,319 --> 00:14:01,599
Hou het relaxed.

282
00:14:01,599 --> 00:14:03,939
Voor mij mag je best romantiseren.

283
00:14:03,939 --> 00:14:04,919
Dat vind ik ook leuk aan.

284
00:14:04,919 --> 00:14:07,479
Maar uiteindelijk op die historische data.

285
00:14:07,479 --> 00:14:09,419
Ja, daar valt heel veel op af te dingen.

286
00:14:09,419 --> 00:14:10,259
Dat geldt bij ons ook.

287
00:14:10,819 --> 00:14:14,339
We doen 51 wetenschappelijke projecten op dit gebied.

288
00:14:14,339 --> 00:14:16,919
En belangrijk gaat het veel over desinformatie.

289
00:14:16,919 --> 00:14:19,199
En over hoe dat te detecteren.

290
00:14:19,199 --> 00:14:20,359
Proof of provenance.

291
00:14:20,359 --> 00:14:21,919
Ben je wel echt?

292
00:14:21,919 --> 00:14:23,599
Nou, ik ga ervan uit dat jullie echt zijn.

293
00:14:23,599 --> 00:14:24,739
Ik heb dat geverifieerd.

294
00:14:24,739 --> 00:14:26,099
Het lijntje klopt.

295
00:14:26,099 --> 00:14:27,519
Je vond de kok over hem.

296
00:14:27,519 --> 00:14:28,119
Wat ik zag.

297
00:14:28,119 --> 00:14:29,119
Nou, die van Niels ook.

298
00:14:29,119 --> 00:14:30,719
Ik herkende glimlachen.

299
00:14:30,719 --> 00:14:32,279
Ik herkende stemmen.

300
00:14:32,279 --> 00:14:33,099
Dat helpt.

301
00:14:33,099 --> 00:14:33,739
Dat helpt zeker.

302
00:14:33,959 --> 00:14:37,119
Maar hoeveel is daar al niet in te manipuleren?

303
00:14:37,119 --> 00:14:42,459
Nou, als je dan terugkijkt naar die met name het stuk van die historische data waarop die systemen trainen.

304
00:14:42,459 --> 00:14:45,179
Is dat er natuurlijk een enorme bias in zit.

305
00:14:45,179 --> 00:14:46,039
Echt een bias.

306
00:14:46,039 --> 00:14:47,739
Gewoon oude termen.

307
00:14:47,739 --> 00:14:49,559
Oude denkbeelden.

308
00:14:49,559 --> 00:14:50,199
Ja.

309
00:14:50,199 --> 00:14:53,219
En daar moet je gewoon wat mee.

310
00:14:53,219 --> 00:14:56,799
Want ja, daar moet je wat mee.

311
00:14:56,799 --> 00:14:57,999
Als je dat niet oplost.

312
00:14:57,999 --> 00:15:00,359
Of mensen daar niet helder maakt.

313
00:15:00,559 --> 00:15:04,199
Dat de generatieve AI zien als iets.

314
00:15:04,199 --> 00:15:06,499
Ja, dat is ook maar een som der delen.

315
00:15:06,499 --> 00:15:07,339
Laat ik het zo zeggen.

316
00:15:07,339 --> 00:15:10,439
Moet je heel goed beseffen waar die som vandaan komt.

317
00:15:10,439 --> 00:15:14,499
En dat is wat wij denk ik met z'n allen schatplichtig zijn om te doen.

318
00:15:14,499 --> 00:15:15,659
Ja.

319
00:15:15,659 --> 00:15:17,659
Blijf een vraag.

320
00:15:17,659 --> 00:15:18,499
Blijf in mijn hoofd hangen.

321
00:15:18,499 --> 00:15:19,419
Dus die willen toch gesteld hebben.

322
00:15:19,419 --> 00:15:20,639
Je zegt 37 tools.

323
00:15:20,639 --> 00:15:23,299
Welke van de tools heb je de laatste tijd het meest verrast?

324
00:15:23,299 --> 00:15:24,779
Wat je niet had verwacht dat het zou kunnen.

325
00:15:24,779 --> 00:15:27,659
Oh, wat het niet zou kunnen.

326
00:15:27,659 --> 00:15:29,419
Wat het wel zou kunnen.

327
00:15:29,419 --> 00:15:30,399
Wat je dacht.

328
00:15:30,399 --> 00:15:31,959
Nou, dat had ik niet verwacht.

329
00:15:31,959 --> 00:15:32,699
Oh.

330
00:15:32,699 --> 00:15:37,359
Wat een goede vraag Niels.

331
00:15:37,359 --> 00:15:40,239
Nou, wat mij een beetje tegenviel.

332
00:15:40,239 --> 00:15:42,579
Iedereen was helemaal wauw over DeepSeek.

333
00:15:42,579 --> 00:15:43,459
En ik dacht nou.

334
00:15:43,459 --> 00:15:48,079
Ik had niet dat feestgevoel.

335
00:15:48,079 --> 00:15:49,379
Even de andere kant hè.

336
00:15:49,379 --> 00:15:55,039
Ja, want het legt uit hoe het redeneert.

337
00:15:55,259 --> 00:15:55,979
Ja, ik denk altijd.

338
00:15:55,979 --> 00:15:56,619
Ja, nou ja.

339
00:15:56,619 --> 00:15:59,259
Het was alles behalve flawless.

340
00:15:59,259 --> 00:16:01,299
In de vragen die ik stelde in ieder geval.

341
00:16:01,299 --> 00:16:01,659
Ja.

342
00:16:01,659 --> 00:16:04,819
Iets wat me heeft verrast.

343
00:16:04,819 --> 00:16:05,099
Waar ik dacht.

344
00:16:05,099 --> 00:16:05,899
Jeetje, wauw.

345
00:16:05,899 --> 00:16:09,119
Nou, dat zit er vooral meer in de snelheid van.

346
00:16:09,119 --> 00:16:12,679
Je hebt bijvoorbeeld de sommige HeyGen.

347
00:16:12,679 --> 00:16:13,499
Dat is al een tijdje.

348
00:16:14,559 --> 00:16:15,699
Voor videogeneraties.

349
00:16:15,699 --> 00:16:15,979
Ja.

350
00:16:15,979 --> 00:16:24,839
En ook de eerste versies van de text-to-video prompting.

351
00:16:24,839 --> 00:16:25,939
Ja man, dat is echt.

352
00:16:25,939 --> 00:16:27,139
Daar is een schoen.

353
00:16:27,139 --> 00:16:27,659
Dat is echt.

354
00:16:27,659 --> 00:16:30,259
Ja, daar sta je natuurlijk als maker heel erg te kijken.

355
00:16:30,259 --> 00:16:30,919
Even voor.

356
00:16:30,919 --> 00:16:32,019
Dat heb ik niet zo uitgelegd.

357
00:16:32,119 --> 00:16:36,459
Ik ben op mijn 23ste begonnen met het maken van televisie en radioprogramma's.

358
00:16:36,459 --> 00:16:40,419
Ik ben bijvoorbeeld begonnen met Peter Erden Vries.

359
00:16:40,419 --> 00:16:41,999
De eerste Crime Time Deadline.

360
00:16:41,999 --> 00:16:42,879
Al dat soort programma's.

361
00:16:42,879 --> 00:16:44,119
Veel al bij de Trostelevisie.

362
00:16:44,119 --> 00:16:45,659
Ik heb echt alles in het vak gedaan.

363
00:16:45,659 --> 00:16:48,279
Dus ik ben opgevoed met het maken van dingen.

364
00:16:48,279 --> 00:16:53,419
En als je dan even een goede prompt uitgeeft.

365
00:16:53,419 --> 00:16:56,539
En daar komt vier seconden materiaal uit.

366
00:16:56,539 --> 00:16:57,859
Dan denk je van oké, wauw.

367
00:16:57,859 --> 00:16:59,179
Dat is ook wauw.

368
00:16:59,179 --> 00:17:01,219
Dus dat heeft me soms wel enorm verbaasd.

369
00:17:01,579 --> 00:17:06,799
Zouden de reconstructies die je vroeger zag bij Peter Erden Vries nu gemaakt kunnen worden met AI?

370
00:17:06,799 --> 00:17:09,259
Die vraag wordt, ik denk dat dat zou kunnen.

371
00:17:09,259 --> 00:17:11,638
Alleen die vraag wordt natuurlijk heel vaak gesteld.

372
00:17:11,638 --> 00:17:13,719
Ik ben in LA geweest.

373
00:17:13,719 --> 00:17:17,579
Twee jaar geleden, drie jaar geleden eigenlijk al.

374
00:17:17,579 --> 00:17:19,839
En toen was dit al een hele vraag.

375
00:17:19,839 --> 00:17:20,819
Waarover het gaat.

376
00:17:20,819 --> 00:17:22,279
Waar trainen.

377
00:17:22,279 --> 00:17:25,339
Als je traint, train je op auteursrechtelijk beschermde dingen.

378
00:17:25,339 --> 00:17:26,159
Nou, dat soort dingetjes.

379
00:17:26,159 --> 00:17:31,419
Maar ook kunnen we niet hele soaps, hele scripts schrijven die worden gemaakt.

380
00:17:31,419 --> 00:17:33,499
Daar heb je geen decor nodig.

381
00:17:33,499 --> 00:17:34,899
Geen acteurs.

382
00:17:34,899 --> 00:17:37,319
En ja, hoe lekker goedkoop zou dat zijn?

383
00:17:37,319 --> 00:17:40,259
Ten eerste betwijfel ik of dat heel erg goedkoop is.

384
00:17:40,259 --> 00:17:43,799
En ik denk de reconstructie zou je misschien nog echt al goed kunnen maken.

385
00:17:43,799 --> 00:17:46,159
Ik denk in serie ook wel eigenlijk.

386
00:17:46,159 --> 00:17:47,899
Dat zou moeten kunnen.

387
00:17:48,859 --> 00:17:55,319
Wat speelt bijvoorbeeld is als je een comedy opneemt.

388
00:17:55,319 --> 00:17:56,439
Om hem wat aan te geven.

389
00:17:56,439 --> 00:17:58,719
Dat is helemaal gescript.

390
00:17:58,719 --> 00:18:02,059
Ja, dan moet je de AI wel zo trainen.

391
00:18:02,059 --> 00:18:03,419
Maar er zit ook een...

392
00:18:03,419 --> 00:18:04,259
Ja, ik kan niet uitleggen.

393
00:18:04,259 --> 00:18:05,699
Net zoals wij hier bij elkaar zitten.

394
00:18:05,699 --> 00:18:09,179
We zouden dit gesprek ook door AI kunnen laten voeren.

395
00:18:09,179 --> 00:18:11,919
Als zij trainen op mijn historische data.

396
00:18:12,039 --> 00:18:12,599
Op die Viori.

397
00:18:12,599 --> 00:18:14,419
En dan zetten er wat stemmen in.

398
00:18:14,419 --> 00:18:15,919
Zou op zich best interessant zijn, toch?

399
00:18:15,919 --> 00:18:16,979
Dat kan zeker.

400
00:18:16,979 --> 00:18:18,779
Het zou een mooi experiment zijn.

401
00:18:18,779 --> 00:18:21,779
Dat we een keer een interview doen.

402
00:18:21,779 --> 00:18:24,179
En dat je zelf er niet bij bent.

403
00:18:24,179 --> 00:18:25,619
Maar dat je het wel doet.

404
00:18:25,619 --> 00:18:25,999
Oh ja.

405
00:18:25,999 --> 00:18:26,599
Begrijp je dat?

406
00:18:26,599 --> 00:18:27,659
Ja, dat begrijp ik zeker.

407
00:18:27,899 --> 00:18:31,599
En ik geloof echt dat dit gesprek...

408
00:18:31,599 --> 00:18:33,859
Ja, daar is AI onnavolgbaar.

409
00:18:33,859 --> 00:18:36,479
Tenminste zijn wij onnavolgbaar voor aan AI.

410
00:18:36,479 --> 00:18:40,339
De dynamiek en de van links naar rechts is er gewoon niet.

411
00:18:40,339 --> 00:18:44,679
Dus dat gevoel is er niet voor die creativiteit op dat vlak, denk ik.

412
00:18:44,679 --> 00:18:45,519
Nee, dat denk ik.

413
00:18:45,519 --> 00:18:47,479
Ik vind dat...

414
00:18:47,479 --> 00:18:49,599
Nee, ik geloof dat nog niet.

415
00:18:49,599 --> 00:18:50,579
En het is maar goed ook.

416
00:18:50,579 --> 00:18:54,859
En zie je ook een bepaalde beweging bij andere content creators?

417
00:18:54,859 --> 00:18:55,899
Tuurlijk.

418
00:18:56,039 --> 00:19:00,099
Er wordt natuurlijk ontzettend veel gebruik gemaakt van AI al heel lang.

419
00:19:00,099 --> 00:19:02,319
Maar ook bijvoorbeeld voor het maken van trailers.

420
00:19:02,319 --> 00:19:02,919
Weet je wel.

421
00:19:02,919 --> 00:19:04,579
Ja, dat hangt helemaal...

422
00:19:04,579 --> 00:19:08,539
Een aantal dingen zijn echt volledig geautomatiseerd inmiddels in dat opzicht.

423
00:19:08,539 --> 00:19:10,739
Het is vaak als automatisering.

424
00:19:10,739 --> 00:19:14,379
De eerste volgens mij AI film...

425
00:19:14,379 --> 00:19:15,479
Er zijn er wel een paar.

426
00:19:15,479 --> 00:19:18,199
Maar eentje die heet volgens mij Poetin of zo'n dergelijke.

427
00:19:18,199 --> 00:19:19,519
Die kan ik op YouTube kijken.

428
00:19:19,519 --> 00:19:20,419
Ja, die kan ik niet.

429
00:19:20,419 --> 00:19:24,139
Nee, maar gewoon die is dan een groot deel door AI al gemaakt.

430
00:19:24,139 --> 00:19:26,199
En we hebben er bij de ITVA...

431
00:19:26,199 --> 00:19:28,579
Dat is de grote documentairefestival in Amsterdam.

432
00:19:28,579 --> 00:19:31,839
Het afgelopen najaar was er ook eentje helemaal gecreëerd door AI.

433
00:19:31,839 --> 00:19:35,299
Niet de acteurs, want dat lukte niet.

434
00:19:35,299 --> 00:19:36,139
Maar wel het script.

435
00:19:36,139 --> 00:19:39,499
En dat was toch een beetje bevreemd.

436
00:19:39,499 --> 00:19:39,959
Zeg maar.

437
00:19:39,959 --> 00:19:43,079
Ja, daar kan ik me iets bij voorstellen.

438
00:19:43,119 --> 00:19:43,959
Dat was heel boeiend hoor.

439
00:19:43,959 --> 00:19:49,279
Om te kijken hoe zo'n AI dan een script maakt en dat je dat dan volgt.

440
00:19:49,279 --> 00:19:57,039
Maar nee, ik geloof dat er voldoende ruimte is voor de mensen.

441
00:19:57,039 --> 00:19:59,459
En ook altijd zal blijven om dingetjes te maken.

442
00:19:59,459 --> 00:20:03,519
Nou, en we hebben natuurlijk ook de techniek nodig.

443
00:20:03,519 --> 00:20:05,739
En die verandert ons.

444
00:20:05,859 --> 00:20:08,139
Volgens mij veranderen wij mee.

445
00:20:08,139 --> 00:20:10,859
Waardoor het altijd een soort van...

446
00:20:10,859 --> 00:20:12,979
Ja, hoe moet ik het zeggen?

447
00:20:12,979 --> 00:20:14,299
Traplopen misschien is.

448
00:20:14,299 --> 00:20:18,439
Wij worden denk ik ook naar een ander niveau getild.

449
00:20:18,439 --> 00:20:18,879
Zeker.

450
00:20:18,879 --> 00:20:21,319
Waardoor je weer andere mogelijkheden ziet.

451
00:20:21,319 --> 00:20:22,179
Waardoor je weer...

452
00:20:22,179 --> 00:20:22,559
Zeker.

453
00:20:22,559 --> 00:20:23,019
Toch?

454
00:20:23,259 --> 00:20:24,779
Ja, nee, maar dat is dat mensen...

455
00:20:24,779 --> 00:20:26,719
Ook hier, dat is soms heel flauw hè.

456
00:20:26,719 --> 00:20:30,079
Om vanuit historische besef het over te hebben.

457
00:20:30,079 --> 00:20:35,159
Maar ik ben altijd heel blij als er een trendwatcher voor mij op het podium staat.

458
00:20:35,159 --> 00:20:37,859
En die gaat dan vertellen dat het nog nooit zo snel gaat gaan.

459
00:20:37,859 --> 00:20:39,139
En nu is het nog nooit zo snel.

460
00:20:39,139 --> 00:20:40,179
Alles is fantastisch.

461
00:20:40,179 --> 00:20:41,839
Sommige dingen zijn ook echt fantastisch.

462
00:20:41,839 --> 00:20:42,139
Zeker.

463
00:20:42,139 --> 00:20:44,579
Maar er zijn een heleboel dingen die eigenlijk...

464
00:20:44,579 --> 00:20:47,159
Eerlijk gezegd, het gaat helemaal niet zo snel.

465
00:20:47,159 --> 00:20:47,539
Nee.

466
00:20:47,539 --> 00:20:48,439
Het gaat eigenlijk...

467
00:20:48,439 --> 00:20:50,179
Ik bedoel, jullie zitten ook al lang in die AI.

468
00:20:50,179 --> 00:20:52,799
Nou ja, dat is wel door OP.

469
00:20:52,959 --> 00:20:54,719
Ja, maar het is een specifiek soort AI.

470
00:20:54,719 --> 00:20:56,499
Nou ja, noem maar op.

471
00:20:56,499 --> 00:20:57,919
En dat doet allemaal hele leuke dingen.

472
00:20:57,919 --> 00:21:00,819
Maar eigenlijk gaat het helemaal niet zo snel.

473
00:21:00,819 --> 00:21:03,619
Maar ja, het is een beetje raar als je op het podium staat.

474
00:21:03,619 --> 00:21:05,179
En dan zegt...

475
00:21:05,179 --> 00:21:06,079
Ja, dames en heren.

476
00:21:06,079 --> 00:21:07,159
Ja, ik weet niet hoe...

477
00:21:07,159 --> 00:21:08,859
Het gaat eigenlijk helemaal niet zo snel.

478
00:21:08,859 --> 00:21:12,439
Niemand wil leven in een tijdperk waarin geen dingen gaan.

479
00:21:12,439 --> 00:21:15,679
En dat is wel mooi.

480
00:21:15,679 --> 00:21:17,439
Veel mensen zeggen, maar wanneer ging het dan echt snel?

481
00:21:17,439 --> 00:21:20,419
Het snelste overgang is eigenlijk gaan van de postkoets.

482
00:21:20,419 --> 00:21:21,739
Nou, dat zal hier hebben gereden.

483
00:21:21,739 --> 00:21:22,899
Twintig kilometer per uur.

484
00:21:22,919 --> 00:21:24,059
Als het een beetje doorkachelde.

485
00:21:24,059 --> 00:21:25,939
Naar die zingende draad.

486
00:21:25,939 --> 00:21:26,639
De telegraaf.

487
00:21:26,639 --> 00:21:28,759
Want dat was opeens een communicatie.

488
00:21:28,759 --> 00:21:30,359
Een enorme communicatie versneller.

489
00:21:30,359 --> 00:21:30,579
Ja.

490
00:21:30,579 --> 00:21:31,399
Ja.

491
00:21:31,399 --> 00:21:34,359
En dat ten opzichte van inderdaad twintig kilometer per uur.

492
00:21:34,359 --> 00:21:34,579
Ja.

493
00:21:34,579 --> 00:21:37,279
En de snelheid van het geluid was het toen.

494
00:21:37,399 --> 00:21:38,039
Ja.

495
00:21:38,039 --> 00:21:38,199
Ja.

496
00:21:38,199 --> 00:21:38,359
Ja.

497
00:21:38,359 --> 00:21:38,479
Ja.

498
00:21:38,479 --> 00:21:38,619
Ja.

499
00:21:38,619 --> 00:21:39,019
Ja.

500
00:21:39,019 --> 00:21:39,999
Nee, wel door een kabeltje.

501
00:21:39,999 --> 00:21:40,659
Dat gaat iets sneller.

502
00:21:40,659 --> 00:21:41,539
Ja.

503
00:21:41,539 --> 00:21:41,979
Maar hoe dan ook

504
00:21:41,979 --> 00:21:44,659
Dat was natuurlijk een enorm verschil.

505
00:21:44,659 --> 00:21:45,099
En tot op de dag van vandaag hebben we die versnelling

506
00:21:45,099 --> 00:21:48,779
nog niet gehad.

507
00:21:48,779 --> 00:21:52,679
Nee, en je ziet, het is net wat je zegt, we zitten al langer in deze technologie.

508
00:21:52,679 --> 00:21:53,599
Ja, jullie weten dat.

509
00:21:53,599 --> 00:21:55,179
Daar is jullie podcast ook zo leuk.

510
00:21:55,179 --> 00:21:55,939
Dank je.

511
00:21:55,939 --> 00:21:59,519
Er zitten maar een paar echte wezenlijke doorbraken.

512
00:21:59,519 --> 00:22:04,539
Dus we hebben bijvoorbeeld ergens in 2012 de back propagation gehaald.

513
00:22:04,539 --> 00:22:06,019
Heel moeilijke term.

514
00:22:06,019 --> 00:22:11,599
Maar dat ging er eigenlijk om dat je neurale netwerken gewoon veel beter, sneller kon trainen.

515
00:22:11,599 --> 00:22:16,319
En ik denk dat nu de generatieve AI ook wel weer een doorbraak is.

516
00:22:16,479 --> 00:22:19,279
Maar dan hebben we het wel over een periode van tien jaar.

517
00:22:19,279 --> 00:22:26,379
We weten nu eigenlijk nog niet eens heel goed wat we met deze technologie allemaal kunnen en waar het eindigt.

518
00:22:26,379 --> 00:22:29,379
Maar alles wat er tussen...

519
00:22:29,379 --> 00:22:32,979
De paper die uitkwam is zelfs van 2017.

520
00:22:32,979 --> 00:22:34,759
Attention is all you need.

521
00:22:34,759 --> 00:22:40,599
Daar hebben we waarschijnlijk wel weer tien, vijftien jaar nodig voor een echte doorbraak.

522
00:22:40,599 --> 00:22:42,859
En niet de social media doorbraken.

523
00:22:44,179 --> 00:22:45,599
Ja, maar het is prachtig dat je dat zegt.

524
00:22:45,599 --> 00:22:47,579
Maar er zijn natuurlijk heel veel...

525
00:22:47,579 --> 00:22:49,059
Nogmaals, ik hou van jullie.

526
00:22:49,059 --> 00:22:50,979
Omdat dat geluid nu...

527
00:22:50,979 --> 00:22:51,999
Dat hoor je natuurlijk helemaal niet.

528
00:22:51,999 --> 00:22:54,299
Veel zijn de verkopers die zeggen...

529
00:22:54,299 --> 00:22:56,619
De mogelijkheden zijn grenzenloos.

530
00:22:56,619 --> 00:23:00,979
Als er wordt geroepen door de Nederlandse politiek...

531
00:23:00,979 --> 00:23:04,499
Weet je, onze problemen de zorg gaan we oplossen met AI.

532
00:23:05,179 --> 00:23:06,599
Ik denk dan, hoe dan?

533
00:23:06,599 --> 00:23:09,139
Ik zie het niet gebeuren.

534
00:23:09,139 --> 00:23:12,719
En ik denk dat realisme eigenlijk wel heel oké is.

535
00:23:12,719 --> 00:23:15,139
En dat het heel goed is om positief te denken over.

536
00:23:15,139 --> 00:23:17,479
Het kan wel degelijk een heel verschil maken.

537
00:23:17,479 --> 00:23:19,959
Je kunt veel beter je patronen...

538
00:23:19,959 --> 00:23:21,419
Nou, dat hoeft het allemaal niet uit te leggen.

539
00:23:21,419 --> 00:23:23,039
We kunnen echt daar stappen in maken.

540
00:23:23,039 --> 00:23:28,779
Maar uiteindelijk is het heel goed om te beseffen dat het ook weer even gaat duren.

541
00:23:30,699 --> 00:23:34,859
Onze vriend van Nvidia, de baas, die zei laatst voor het eerst...

542
00:23:34,859 --> 00:23:38,759
En dat weet ook, je hebt de supercomputer en je hebt de quantum computer.

543
00:23:38,759 --> 00:23:42,579
Daar is ook heel veel discussie over wanneer dat ding nou daadwerkelijk zal zijn.

544
00:23:42,579 --> 00:23:48,739
En hij zei, nou, dat duurt nog wel even 20 jaar, wat zei hij geloof ik.

545
00:23:48,739 --> 00:23:51,939
En in één keer zakte zijn aandeel op de beurs.

546
00:23:51,939 --> 00:23:54,999
En dat is niet de bedoeling van waar we nu in zitten.

547
00:23:54,999 --> 00:23:55,859
Nee, nee, nee.

548
00:23:55,859 --> 00:23:59,659
Alle CEO's van Big Tech zeggen ook...

549
00:23:59,659 --> 00:24:04,419
Tussen nu en vijf jaar bereiken we Artificial General Intelligence.

550
00:24:04,419 --> 00:24:07,739
Het moment dat de techniek ons voorbij gaat.

551
00:24:07,739 --> 00:24:10,439
Maar dat is natuurlijk regelrecht marketing.

552
00:24:10,439 --> 00:24:11,979
Dat denk ik ook.

553
00:24:11,979 --> 00:24:14,319
Als ik de wetenschappers daarover hoor.

554
00:24:14,319 --> 00:24:15,399
Iedereen is een beetje onzeker.

555
00:24:15,399 --> 00:24:17,239
Maar de meeste wetenschappers zeggen, nou, dat is echt onzin.

556
00:24:17,239 --> 00:24:18,099
Dat is gewoon niet waar.

557
00:24:18,099 --> 00:24:19,419
Ik zie het niet gebeuren.

558
00:24:19,419 --> 00:24:19,799
Maar goed.

559
00:24:19,799 --> 00:24:23,979
Het mooie is dat...

560
00:24:23,979 --> 00:24:26,259
Van het concert des levens heeft niemand erop geval.

561
00:24:26,259 --> 00:24:27,899
Ze weten het gewoon niet.

562
00:24:27,999 --> 00:24:28,679
Dat is waar.

563
00:24:28,679 --> 00:24:30,719
We hadden het erover toekomstvoorspellen.

564
00:24:30,719 --> 00:24:32,299
Dan zeggen mensen al, Google is geweldig.

565
00:24:32,299 --> 00:24:34,879
Ik zeg, ja, maar als Google zo geweldig is, dan waren we allemaal miljardair.

566
00:24:34,879 --> 00:24:36,519
Want dan stelde je de vraag, hoe word ik miljardair?

567
00:24:36,519 --> 00:24:37,219
En dan krijg je een antwoord.

568
00:24:37,219 --> 00:24:37,939
Dan ben je miljardair.

569
00:24:37,939 --> 00:24:38,659
Zo werkt het niet.

570
00:24:38,659 --> 00:24:39,999
Nee, zo werkt het niet.

571
00:24:39,999 --> 00:24:41,879
En dat vind ik aan één kant heel fijn.

572
00:24:41,879 --> 00:24:44,439
Want veel mensen zijn ook bang.

573
00:24:44,439 --> 00:24:45,399
Ze zijn bang dat dat...

574
00:24:45,399 --> 00:24:46,879
Ja, je neemt de wereld over.

575
00:24:46,879 --> 00:24:49,979
Ja, dat kan.

576
00:24:49,979 --> 00:24:52,519
Je zou er zomaar over kunnen denken dat dat zo is.

577
00:24:52,519 --> 00:24:57,279
Maar ik zeg altijd maar zo.

578
00:24:57,279 --> 00:24:59,459
Laatst had je Alexander Klubbingen.

579
00:24:59,459 --> 00:25:01,459
Ik ben overigens een geweldig leuk fan.

580
00:25:01,459 --> 00:25:02,859
En vertelde ik daar mooi over.

581
00:25:02,859 --> 00:25:05,739
Maar die komt dan met zo'n humanoid en een paar van...

582
00:25:05,739 --> 00:25:06,499
Even Jinek.

583
00:25:06,839 --> 00:25:09,799
En dan denk je, ach, ja.

584
00:25:09,799 --> 00:25:11,859
Die dingen kunnen niks.

585
00:25:11,859 --> 00:25:15,839
Sterker nog, mijn kleinkind van één jaar en twee maanden...

586
00:25:15,839 --> 00:25:18,739
Is in een heleboel dingen veel slimmer.

587
00:25:18,739 --> 00:25:22,279
En terwijl hij al nog niks kan lopen, kan niet eens.

588
00:25:22,279 --> 00:25:24,199
Dan welk systeem dan ook.

589
00:25:24,199 --> 00:25:26,019
Maar dat is wel natuurlijk...

590
00:25:26,019 --> 00:25:27,879
Zeker.

591
00:25:27,879 --> 00:25:33,899
Maar wat ik altijd wel lastig vind, is bij dit soort items...

592
00:25:33,899 --> 00:25:37,139
Dat mensen die hier niet zo diep in zitten...

593
00:25:37,139 --> 00:25:39,859
Wel dit, zeg maar, constant tot zich krijgen.

594
00:25:39,859 --> 00:25:42,199
En dan snap ik ook dat je dan denkt...

595
00:25:42,199 --> 00:25:43,879
Van, de wereld gaat heel snel.

596
00:25:43,879 --> 00:25:49,299
Want je ziet steeds meer dingen waarvan je het bestaan niet wist.

597
00:25:49,299 --> 00:25:50,499
Het komt allemaal op je af.

598
00:25:50,499 --> 00:25:56,499
Dan is het heel moeilijk om realiteit te scheiden...

599
00:25:56,499 --> 00:25:58,959
Van de fantasie die daar door het beeldscherm heen komt.

600
00:25:58,959 --> 00:26:02,719
Maar dat is het leuke van archivaris zijn.

601
00:26:02,719 --> 00:26:03,959
Als je...

602
00:26:03,959 --> 00:26:09,959
Op een gegeven moment hebben ze in het begin van de 20e eeuw, 1900...

603
00:26:09,959 --> 00:26:14,959
Hebben ze een serie gemaakt, iets daarvoor, 1898, in Frankrijk...

604
00:26:14,959 --> 00:26:18,639
Met beelden getekend het jaar 2000.

605
00:26:18,639 --> 00:26:20,799
En dan zie je eigenlijk alles voorbij komen.

606
00:26:20,799 --> 00:26:21,899
Met een beetje fantasie.

607
00:26:21,899 --> 00:26:22,939
Maar dat is drones.

608
00:26:22,939 --> 00:26:24,959
Je ziet gewoon veel telebellen.

609
00:26:24,959 --> 00:26:27,179
Alle dingen die we gewoon nu al hebben.

610
00:26:27,179 --> 00:26:29,019
Maar toch heel mooi bedacht.

611
00:26:29,019 --> 00:26:29,759
Honderd jaar verder.

612
00:26:29,759 --> 00:26:31,279
Nou, dat heeft er honderd jaar over gedaan.

613
00:26:31,959 --> 00:26:33,879
En ik geloof ook, het is goed om het te hebben.

614
00:26:33,879 --> 00:26:38,199
En het realisme is natuurlijk op het moment dat je er staat...

615
00:26:38,199 --> 00:26:41,299
En je denkt, nu moet het gaan werken.

616
00:26:41,299 --> 00:26:44,119
Dat dat vaak een veel complexer iets is.

617
00:26:44,119 --> 00:26:45,199
En dat dus...

618
00:26:45,199 --> 00:26:47,999
Je zit er dik in.

619
00:26:47,999 --> 00:26:49,419
Je zit echt dik in deze shit.

620
00:26:50,279 --> 00:26:54,159
Dus je weet er wat van.

621
00:26:54,159 --> 00:26:56,879
En mensen zitten niet te wachten op realisme.

622
00:26:56,879 --> 00:26:58,559
Dat is niet wat je wil horen.

623
00:26:58,559 --> 00:26:59,619
Je wil horen dat de wereld...

624
00:26:59,619 --> 00:27:00,559
Wauw, man.

625
00:27:00,559 --> 00:27:02,719
Alles gaat vanzelf.

626
00:27:03,099 --> 00:27:03,959
Ja, nogmaals.

627
00:27:03,959 --> 00:27:05,419
Het mooiste was natuurlijk de trendwatchers.

628
00:27:05,419 --> 00:27:06,059
Wat is het nu?

629
00:27:06,059 --> 00:27:08,159
Ik sta veel op het podium.

630
00:27:08,159 --> 00:27:11,339
Niet om die trendwatchers er niet te doen.

631
00:27:11,339 --> 00:27:12,159
Echt helemaal niet.

632
00:27:12,159 --> 00:27:14,339
Ik vind het echt nogmaals echt heel leuk.

633
00:27:14,339 --> 00:27:16,339
En het is goed om awareness te hebben over dingen.

634
00:27:16,339 --> 00:27:17,539
Mensen bij te brengen.

635
00:27:17,539 --> 00:27:19,779
Maar het feit dat we allemaal...

636
00:27:19,779 --> 00:27:21,279
Het is nu 2025.

637
00:27:21,279 --> 00:27:24,219
Nou, dit was echt het jaar dat niemand meer zelf zou rijden.

638
00:27:24,219 --> 00:27:24,639
Weet je wel?

639
00:27:24,639 --> 00:27:26,259
Level 5.

640
00:27:26,259 --> 00:27:27,839
Autonoom rijden.

641
00:27:27,839 --> 00:27:29,119
Kansloos in Amsterdam.

642
00:27:29,119 --> 00:27:30,499
Het zal wel kunnen.

643
00:27:30,499 --> 00:27:31,599
Maar dan komt die auto niet vooruit.

644
00:27:31,599 --> 00:27:33,719
Nou, dan hoeft hij niet eens voor in Amsterdam te rijden.

645
00:27:33,719 --> 00:27:34,259
Nee, nee.

646
00:27:34,259 --> 00:27:35,759
Op de snelweg zijn er nog problemen.

647
00:27:35,759 --> 00:27:39,419
Maar het is wel zo dat ik inmiddels wel rijondersteunende systemen heb.

648
00:27:39,419 --> 00:27:40,259
En ik zit veel in de auto.

649
00:27:40,259 --> 00:27:41,599
En die helpen me ook echt.

650
00:27:41,599 --> 00:27:42,859
Dus daar ben ik echt heel blij om.

651
00:27:42,859 --> 00:27:45,939
Nou, en dat is eigenlijk ook het niveau waar we naar op zoek zijn.

652
00:27:45,939 --> 00:27:50,419
De technologie wordt dan...

653
00:27:50,419 --> 00:27:51,639
De fantasie wordt zo groot.

654
00:27:51,639 --> 00:27:53,579
Dat we het hebben over zelfrijdende auto's.

655
00:27:53,579 --> 00:27:54,299
Vliegende auto's.

656
00:27:54,339 --> 00:27:54,939
Weet ik wat allemaal.

657
00:27:54,939 --> 00:27:56,859
Terwijl, waar zijn we eigenlijk naar op zoek?

658
00:27:56,859 --> 00:27:57,779
Is die ondersteuning.

659
00:27:57,779 --> 00:28:00,479
En dat doet die technologie echt heel goed.

660
00:28:00,479 --> 00:28:01,319
Heel goed, absoluut.

661
00:28:01,319 --> 00:28:03,159
Inparkeren doe ik eigenlijk niet meer zelf.

662
00:28:03,159 --> 00:28:03,479
Ja.

663
00:28:03,479 --> 00:28:06,839
Dat is ook wel, vond ik, een heel ding.

664
00:28:06,839 --> 00:28:07,419
Ja.

665
00:28:07,419 --> 00:28:09,859
Ik dacht dat ik echt de beste inparkeerder van de wereld was.

666
00:28:09,859 --> 00:28:11,559
Maar dat is niet zo.

667
00:28:11,559 --> 00:28:12,359
Ja.

668
00:28:12,359 --> 00:28:14,519
En toch nog eventjes inderdaad.

669
00:28:14,519 --> 00:28:15,439
Wel voor die trendwatchers.

670
00:28:15,439 --> 00:28:17,219
En voor die vooruitblik inderdaad.

671
00:28:17,219 --> 00:28:17,919
Honderd jaar vooruit.

672
00:28:17,919 --> 00:28:21,699
Ik denk dat dat ook wel de creativiteit van mensheid met zich meebrengt.

673
00:28:21,699 --> 00:28:23,619
Waardoor we ook wel die ontwikkelingen gaan krijgen.

674
00:28:24,039 --> 00:28:25,939
Moet er wel de realisme zien van waar zijn we nu?

675
00:28:25,939 --> 00:28:27,399
En wat zijn de droombeelden vooruit?

676
00:28:27,399 --> 00:28:28,779
Waar we heen zouden willen?

677
00:28:28,779 --> 00:28:30,399
Of juist niet naartoe willen?

678
00:28:30,399 --> 00:28:32,099
Ja, dat is heel leuk.

679
00:28:32,099 --> 00:28:34,819
Nee, mijn stelling is, je moet ook blijven dromen.

680
00:28:34,819 --> 00:28:35,699
Ja, tuurlijk.

681
00:28:35,779 --> 00:28:37,359
Ze hebben beeld en geluid ook gegroeid.

682
00:28:37,359 --> 00:28:38,559
En dat doen we ook.

683
00:28:38,559 --> 00:28:40,959
En dat doen we ook omdat we gewoon onze dromen daarin hebben.

684
00:28:40,959 --> 00:28:42,619
En van ja, hoe zou dat dan moeten werken?

685
00:28:42,619 --> 00:28:43,559
Waarom werkt het niet zo?

686
00:28:43,559 --> 00:28:44,379
Waarom kan het niet zo?

687
00:28:44,379 --> 00:28:44,759
Weet je dat?

688
00:28:44,759 --> 00:28:45,039
Ja.

689
00:28:45,039 --> 00:28:47,719
Als ik alleen maar zeg, nee, dat kan niet, dat kan niet, dat kan niet.

690
00:28:47,719 --> 00:28:48,259
Dat moeten we niet doen.

691
00:28:48,259 --> 00:28:48,939
Dat wordt helemaal niks.

692
00:28:48,939 --> 00:28:49,499
Dat wordt helemaal niks.

693
00:28:49,499 --> 00:28:50,639
Ja, dat wordt ook niks.

694
00:28:50,639 --> 00:28:51,959
Nee, dan ga je nooit verder komen.

695
00:28:51,959 --> 00:28:53,819
Maar in het kader van een droom.

696
00:28:53,819 --> 00:28:54,179
Ja.

697
00:28:54,319 --> 00:28:57,619
Wij willen wel weten wat jouw ultieme AI-droom zou zijn.

698
00:28:57,619 --> 00:29:01,199
En daar geven we je ook even wat bedenktijd voor.

699
00:29:01,199 --> 00:29:01,959
Goed zo.

700
00:29:01,959 --> 00:29:05,599
Een droom, een leven vol gemak.

701
00:29:05,599 --> 00:29:10,259
Technologie die alles doet waar we van dromen.

702
00:29:10,259 --> 00:29:14,659
Geen grenzen meer, niets houdt ons nog tegen.

703
00:29:14,659 --> 00:29:18,719
Het leven zoals wij altijd zullen beleven.

704
00:29:18,719 --> 00:29:19,719
Ja, ja.

705
00:29:19,719 --> 00:29:20,399
Welk.

706
00:29:20,399 --> 00:29:24,059
Dat is toch te gek.

707
00:29:24,059 --> 00:29:25,099
Jongens, dit is wacht eens.

708
00:29:25,099 --> 00:29:25,279
Ja.

709
00:29:25,279 --> 00:29:29,319
Nou, mijn droom heeft eigenlijk te maken met mijn moeder.

710
00:29:29,319 --> 00:29:32,219
Ik woonde daar tot voor kort naast.

711
00:29:32,219 --> 00:29:35,059
Zij demonteerde.

712
00:29:35,059 --> 00:29:37,199
En eigenlijk op een hele vrolijke manier.

713
00:29:37,199 --> 00:29:40,259
Want je kunt, maar goed, dat vraagt veel zorg.

714
00:29:40,259 --> 00:29:40,499
Ja.

715
00:29:40,499 --> 00:29:41,099
Of mantelzorg.

716
00:29:41,099 --> 00:29:46,119
En we hebben het er net over gehad.

717
00:29:46,119 --> 00:29:48,719
AI gaat niet de zorgproblemen oplossen.

718
00:29:48,719 --> 00:29:50,079
Je hebt gewoon handen aan het bed nodig.

719
00:29:50,079 --> 00:29:53,419
En dan moet je wel hele geavanceerde robotjes hebben en alles.

720
00:29:53,419 --> 00:30:00,159
Maar mijn droom zou zijn als die mensen op de een of andere manier toch een soort van volwaardig iets krijgen.

721
00:30:00,159 --> 00:30:07,239
Of dat de AI ons gaat helpen om een oplossing te vinden om dementie, Parkinson, dat soort en eigenlijk allerlei ziekten gaat bestrijden.

722
00:30:07,239 --> 00:30:09,939
Dat zou ik daar, dat soort dromen heb ik eigenlijk wel.

723
00:30:09,939 --> 00:30:11,599
Ja, dat zou geweldig toch zijn.

724
00:30:11,599 --> 00:30:12,619
Dat zou ik geweldig vinden.

725
00:30:12,619 --> 00:30:16,459
Omdat, zoals ik nu zie, mijn moeder is heel vrolijk.

726
00:30:16,459 --> 00:30:18,019
En dat gaat eigenlijk heel waardig.

727
00:30:18,019 --> 00:30:22,099
Maar uiteindelijk is het natuurlijk heel onwaardig wat veel van dit soort ziekten met mensen doen.

728
00:30:22,099 --> 00:30:23,639
Ja, een schrikkelijk ziektebeeld.

729
00:30:23,639 --> 00:30:24,279
Ja.

730
00:30:24,279 --> 00:30:24,959
Ja, ja.

731
00:30:25,199 --> 00:30:35,219
En dus als we daarvoor dat, die levens een stuk aangenamer kunnen maken, dan zou me heel fijn lijken.

732
00:30:35,219 --> 00:30:37,159
Er komt een vraag op en waarom krijg ik zo moeilijk.

733
00:30:37,159 --> 00:30:37,799
Ja.

734
00:30:37,799 --> 00:30:38,939
Dan zien de luisteraars niet.

735
00:30:38,939 --> 00:30:40,839
Maar ik ben, hoe oud is uw moeder?

736
00:30:40,839 --> 00:30:42,499
Ja, die is 89.

737
00:30:42,499 --> 00:30:43,239
89.

738
00:30:43,559 --> 00:30:47,479
Hoe beleeft die IT en AI?

739
00:30:47,479 --> 00:30:50,199
Ja, die beleeft dat eigenlijk helemaal niet.

740
00:30:50,199 --> 00:30:54,779
Want die heeft daar nooit echt hele grote interesse voor gehad.

741
00:30:54,779 --> 00:30:57,759
Waar haar liefhebbende echtgenoot dat wel had.

742
00:30:57,759 --> 00:30:59,599
En ik en wij als kinderen ook wel.

743
00:30:59,599 --> 00:31:01,119
Mijn moeder totaal niet.

744
00:31:01,119 --> 00:31:03,239
En zij is kunstenares.

745
00:31:03,239 --> 00:31:05,399
Ze kan prachtig tekenen nog steeds.

746
00:31:05,399 --> 00:31:05,719
Ja.

747
00:31:05,719 --> 00:31:11,919
En ze denkt over soms nog dat ze lesgeeft.

748
00:31:11,919 --> 00:31:12,319
Oh ja.

749
00:31:12,499 --> 00:31:15,379
Dat is prachtig.

750
00:31:15,379 --> 00:31:16,659
Dat is ook helemaal oké.

751
00:31:16,659 --> 00:31:19,439
Maar die heeft nooit die interesse gehad.

752
00:31:19,439 --> 00:31:23,139
Die heeft ook echt een hele simpele mobiele telefoon altijd gehad.

753
00:31:23,139 --> 00:31:24,919
Geen smartphone, geen iPad.

754
00:31:24,919 --> 00:31:28,159
We hebben wel gegeven, maar ze pakte dat gewoon niet op.

755
00:31:28,159 --> 00:31:29,239
Ja, aangeslagen inderdaad.

756
00:31:29,239 --> 00:31:30,679
Dat ben ik dus benieuwd inderdaad.

757
00:31:30,679 --> 00:31:34,959
Als we de oudere zorg willen helpen, hoe gaan we ook de mensen daarin meenemen?

758
00:31:34,959 --> 00:31:36,879
Nou, dat is een hele mooie vraag hier.

759
00:31:36,879 --> 00:31:39,019
Je beeld en geluid, dat weten niet veel mensen.

760
00:31:39,019 --> 00:31:41,359
Maar onze missie is iedereen mee in media.

761
00:31:41,359 --> 00:31:44,479
Ja, dus het belangrijkste is dat we iedereen digitaal geletterd willen maken.

762
00:31:44,479 --> 00:31:47,759
Dus daar hebben we twee grote netwerken voor.

763
00:31:47,759 --> 00:31:48,299
Netwerk Mediawijsheid.

764
00:31:49,039 --> 00:31:51,679
280.000 leerlingen in één week.

765
00:31:51,679 --> 00:31:55,339
In het najaar hebben daar Media Masters gedaan.

766
00:31:55,339 --> 00:31:58,059
En dat geldt ook voor volwassenen.

767
00:31:58,059 --> 00:31:59,539
Alliancie Digitaal Samenleven.

768
00:31:59,539 --> 00:32:03,319
We hebben die hulplijn samen met de bibliotheken, de IDO's.

769
00:32:03,319 --> 00:32:06,459
Dat zijn de informatie, de digitale overheid.

770
00:32:06,459 --> 00:32:07,359
Dat zijn loketten.

771
00:32:07,359 --> 00:32:09,179
Daar kan je komen met je belastingaangifte.

772
00:32:11,179 --> 00:32:16,459
Maar de grap is, kijk, ik ben, dankjewel, maar ik ben ook boven de zestig.

773
00:32:16,459 --> 00:32:19,879
En ik ben redelijk digitaal aangelegd, denk ik.

774
00:32:19,879 --> 00:32:20,959
Dan zeg ik het netjes.

775
00:32:20,959 --> 00:32:26,559
En die generatie, die wordt steeds groter van mensen die daar gewoon mee zijn opgegroeid.

776
00:32:27,239 --> 00:32:30,579
Het enige wat je wel ziet is, ik denk dat ik daar nog wel goed in meega.

777
00:32:30,579 --> 00:32:35,499
Maar er zijn natuurlijk mensen van mijn leeftijd die bijvoorbeeld al die AI-tools al niet meer meenemen.

778
00:32:35,499 --> 00:32:37,919
Omdat ze er gewoon niet onbekend mee zijn.

779
00:32:37,919 --> 00:32:40,359
Dus dat blijft een constante.

780
00:32:40,359 --> 00:32:46,059
4,5 miljoen Nederlanders zijn niet in staat om goed mee te gaan in de digitale wereld op dit moment.

781
00:32:46,059 --> 00:32:47,859
4,5 miljoen.

782
00:32:47,859 --> 00:32:48,599
Dat is echt veel.

783
00:32:48,599 --> 00:32:49,579
Dat is heel veel, ja.

784
00:32:49,579 --> 00:32:53,519
En je bent schatplichtig als overheid om daar echt iets mee te doen.

785
00:32:54,959 --> 00:33:00,559
Je gaf er straks aan van het dromen waar we naartoe gaan.

786
00:33:00,559 --> 00:33:03,959
Die trendwatchers.

787
00:33:03,959 --> 00:33:09,739
Die hoeven zich niet bezig te houden met de complexiteit van de praktijk.

788
00:33:09,739 --> 00:33:14,739
Je gebruikt hier intern ook AI.

789
00:33:14,739 --> 00:33:18,939
Wat zijn nou bijvoorbeeld bepaalde complexiteiten waar jullie tegenaan lopen?

790
00:33:18,939 --> 00:33:21,919
Oh man, dat zijn er heel veel.

791
00:33:21,919 --> 00:33:24,219
Maar een ervan, ik had het al over die bias.

792
00:33:24,219 --> 00:33:24,719
Ja.

793
00:33:24,719 --> 00:33:28,719
Dus op zich zijn we al gezichtsherkenningen zo.

794
00:33:28,719 --> 00:33:29,639
Dat doen we al heel lang.

795
00:33:29,639 --> 00:33:32,679
Maar af en toe gaat dat gewoon goed missen ook.

796
00:33:32,679 --> 00:33:34,179
Dus we moeten de...

797
00:33:34,179 --> 00:33:38,419
En wat je niet wil is dat dat doorwerkt in je hele systeem.

798
00:33:38,419 --> 00:33:41,559
Dus dat zijn echt wel uitdagingen waar we nog steeds op de dag van vandaag mee werken.

799
00:33:41,559 --> 00:33:43,359
Een tweede is heel belangrijk.

800
00:33:43,359 --> 00:33:44,519
Dat is het LLM.

801
00:33:46,199 --> 00:33:50,799
Zowel OpenAI en bijna alle werken met één oud-Nederlands LLM.

802
00:33:50,799 --> 00:33:51,939
Large Language Model.

803
00:33:51,939 --> 00:33:55,939
Het taal, het taalgeheugen, de woordenschat.

804
00:33:55,939 --> 00:33:58,919
Ik weet niet hoe je het een beetje simpel vertaalt.

805
00:33:58,919 --> 00:34:04,439
En dat geldt ook voor dingen als speech-to-text, text-to-speech.

806
00:34:04,439 --> 00:34:09,799
Wij zijn er allemaal afhankelijk van, voornamelijk Amerikaanse, buitenlandse.

807
00:34:10,359 --> 00:34:12,938
Ja, en die zijn gewoon niet goed getraind op de Nederlandse taal.

808
00:34:12,938 --> 00:34:15,139
Dus met veel partijen.

809
00:34:15,139 --> 00:34:16,958
Er is één heel mooi project.

810
00:34:16,958 --> 00:34:17,579
Dat heet Nine.

811
00:34:17,579 --> 00:34:21,079
Een nieuw AI-model voor het Nederlands.

812
00:34:21,079 --> 00:34:22,219
Oké, die ken ik niet.

813
00:34:22,219 --> 00:34:24,739
Met een heleboel partijen.

814
00:34:24,739 --> 00:34:27,059
En daar doen we mee.

815
00:34:27,059 --> 00:34:28,579
En we doen ook mee met Hozan.

816
00:34:28,579 --> 00:34:32,079
Dat is een hoogwaardige spraakanalyse van Nederlands.

817
00:34:32,079 --> 00:34:35,819
En dat vraagt echt het herontwikkelen.

818
00:34:35,819 --> 00:34:39,759
Want je kunt wel Whisper voor de liefhebbers, maar dat wordt veelal gebruikt.

819
00:34:39,759 --> 00:34:46,918
En dat is allemaal hartstikke oké en heel goed voor vrij letterlijk algemene toepassingen.

820
00:34:46,918 --> 00:34:48,659
En het komt best aardig uit.

821
00:34:48,659 --> 00:34:55,379
Maar voor de toepassing die wij nodig hebben, moet het slagingspercentage bijna nagenoeg 100% zijn.

822
00:34:55,379 --> 00:34:58,219
Ja, want er is echt een groot verschil tussen best aardig.

823
00:34:58,219 --> 00:34:59,799
Of heel aardig zelfs.

824
00:34:59,799 --> 00:35:00,459
Nou, je zegt het.

825
00:35:00,459 --> 00:35:04,359
Ten opzichte inderdaad, als je dit in grote volumes wil.

826
00:35:04,359 --> 00:35:09,359
Wij gebruiken namelijk ook, zo direct voor de transcriptie van deze aflevering,

827
00:35:09,619 --> 00:35:11,019
gaat hij ook door Whisper heen.

828
00:35:11,019 --> 00:35:13,039
Weet je, dat soort dingen.

829
00:35:13,039 --> 00:35:17,019
Maar het aantal fouten is fors nog wel.

830
00:35:17,019 --> 00:35:18,179
Heel fors.

831
00:35:18,179 --> 00:35:23,439
En je moet het voorstellen dat ook het large language model is gewoon niet getraind op dialecten.

832
00:35:23,439 --> 00:35:26,319
Dus ja, dat wil je.

833
00:35:26,319 --> 00:35:28,859
En dat gaan ze in Amerika of waar dan ook niet doen.

834
00:35:30,859 --> 00:35:36,259
Dat taalgebied van ons is, als je je namen erbij trekt, hooguit 25 miljoen mensen.

835
00:35:36,259 --> 00:35:41,959
Waarom zou je daarvoor tijd en moeite, terwijl het voor ons van cruciaal belang is dat we dat wel doen.

836
00:35:41,959 --> 00:35:42,479
Ja, precies.

837
00:35:42,479 --> 00:35:44,919
Dus de trendwatcher heeft het over.

838
00:35:44,919 --> 00:35:45,919
Die vindt dat allemaal geweldig.

839
00:35:46,599 --> 00:35:51,839
En wij kijken echt naar de bovenkant van dit soort systemen.

840
00:35:51,839 --> 00:35:53,739
En die kijken ook naar de benchmarks.

841
00:35:53,739 --> 00:35:55,759
En die benchmarks zijn allemaal op de Engelse taal.

842
00:35:55,759 --> 00:36:02,439
Die kijken echt naar eigenlijk de soort van miss-verkiezing.

843
00:36:03,219 --> 00:36:07,759
Maar ja, in het dagelijks leven kom je die niet heel veel tegen.

844
00:36:07,759 --> 00:36:09,199
Goed man, je zegt precies dat.

845
00:36:09,199 --> 00:36:12,699
En dus wil je dat gewoon heel goed kunnen doen.

846
00:36:12,699 --> 00:36:14,239
Daar zitten we nu heel veel effort.

847
00:36:14,239 --> 00:36:18,799
Dat kost ook veel letterlijk geld, maar ook tijd en moeite om dat met elkaar te doen.

848
00:36:18,799 --> 00:36:22,799
En dat is ontzettend leuk om daar als beeld en geluid ook gewoon enorme betrokkenheid in te hebben.

849
00:36:22,799 --> 00:36:26,239
En leveren jullie dan ook data aan voor het trainen van die modellen?

850
00:36:26,239 --> 00:36:28,479
Ja, zeker.

851
00:36:28,479 --> 00:36:35,339
En soms doe je dat samen met bijvoorbeeld de nationale politie, justitie veiligheid.

852
00:36:35,339 --> 00:36:38,819
Omdat veel van de bijvoorbeeld gesprekken afgeluisterd worden.

853
00:36:38,819 --> 00:36:41,539
Nou, die transcripties zijn natuurlijk ook van ongelooflijk veel belang.

854
00:36:41,539 --> 00:36:44,979
Omdat je daarmee een aanslag kan voorkomen.

855
00:36:44,979 --> 00:36:47,299
Maar gewoon ook voor dagen.

856
00:36:47,299 --> 00:36:52,559
Kijk, de missie bijvoorbeeld van Nine is echt het beste taalmodel voor het Nederlands te ontwikkelen.

857
00:36:52,959 --> 00:36:59,039
Zodat iedereen die niet geletterd is, ook goed meegenomen kan worden.

858
00:36:59,039 --> 00:37:07,559
En dus dat is echt een hele mooie maatschappelijke kant van allerlei partijen die daarin zitten om dat op te pakken.

859
00:37:07,559 --> 00:37:08,499
Wauw, mooi.

860
00:37:08,499 --> 00:37:10,279
En is het een commerciële partij die dat doet?

861
00:37:10,279 --> 00:37:12,139
Nee, TNO is de lead daarin.

862
00:37:12,139 --> 00:37:14,219
En het is echt allemaal onderzoeks.

863
00:37:14,219 --> 00:37:17,699
En ja, ik heb het staatje hier wel.

864
00:37:17,699 --> 00:37:21,499
Weet je hoe het zich dan ook verhoudt ten opzette van GPT-NL?

865
00:37:21,959 --> 00:37:23,279
Dat is ongeveer hetzelfde.

866
00:37:23,279 --> 00:37:26,259
GPT-NL wordt zo genoemd.

867
00:37:26,259 --> 00:37:26,939
Maar het is Nine.

868
00:37:26,939 --> 00:37:28,479
Dat is eigenlijk de bovenliggende kant.

869
00:37:28,479 --> 00:37:29,439
Ja, precies.

870
00:37:29,439 --> 00:37:30,879
Volg je dat?

871
00:37:30,879 --> 00:37:31,839
Ja, zeker.

872
00:37:31,839 --> 00:37:34,279
Oké, dat zijn een paar stokpaardjes.

873
00:37:34,279 --> 00:37:38,439
Ook voor mij persoonlijk is dat je moet dat veel meer multidisciplinair bekijken.

874
00:37:38,439 --> 00:37:42,999
Je kunt dat niet vanuit één systeem of één database.

875
00:37:42,999 --> 00:37:49,399
Dus daar werken we van alles aan mee.

876
00:37:49,399 --> 00:37:52,819
En dan heb je ook echt de grote databases.

877
00:37:52,819 --> 00:37:55,279
De KB bijvoorbeeld, de Koninklijke Bibliotheek bijvoorbeeld.

878
00:37:55,279 --> 00:37:56,919
Die hebben gewoon ongelooflijk veel tekstdata.

879
00:37:56,919 --> 00:37:57,199
Ja.

880
00:37:57,199 --> 00:37:59,639
Nou, dat zou geweldig zijn.

881
00:37:59,639 --> 00:38:05,799
En zijn er ook dit soort initiatieven rondom het genereren van plaatjes?

882
00:38:05,799 --> 00:38:12,539
Want nu moet je ontzettend veel moeite doen om al het Amerikaanse gelikte eruit te halen.

883
00:38:12,659 --> 00:38:17,259
Dat je niet standaard overal blauwe gebiedjes en dat soort dingen.

884
00:38:17,259 --> 00:38:18,179
Nee, maar het is prachtig.

885
00:38:18,179 --> 00:38:20,439
Ik vind dat heel leuk.

886
00:38:20,439 --> 00:38:25,079
Ik zeg tegen mensen ook welke je ook gebruikt van de generatieve stel.

887
00:38:25,079 --> 00:38:25,899
Prompt iets.

888
00:38:25,899 --> 00:38:28,899
En hou bij wat eruit komt.

889
00:38:28,899 --> 00:38:34,999
Dus dat zijn vaak alles wat wit en alles wat fout is komt er best wel uit.

890
00:38:35,239 --> 00:38:41,359
Dus dat is waar wij natuurlijk in Nederland een bijdrage leveren aan.

891
00:38:41,359 --> 00:38:42,539
Is dat te debunken.

892
00:38:42,539 --> 00:38:45,279
Overigens zijn er bedrijven zoals DAF.

893
00:38:45,279 --> 00:38:47,059
Dat is heel grappig.

894
00:38:47,059 --> 00:38:49,159
Die hebben al eigenlijk vanaf het eerste begin dat zeiden.

895
00:38:49,159 --> 00:38:52,059
Die maakt natuurlijk ook gebruik van generatieve AI om plaatjes te maken.

896
00:38:52,059 --> 00:38:55,199
Maar die hebben echt een prompt boek.

897
00:38:55,199 --> 00:38:57,859
Waarin staat dat je juist moet zoeken naar de bias.

898
00:38:58,099 --> 00:39:04,919
Dus letterlijk wat in de DAF reclame is dat daar de gewone mens met alle afwijkingen die ze hebben.

899
00:39:04,919 --> 00:39:06,539
Of opwijkingen.

900
00:39:06,539 --> 00:39:07,459
Het is mooi waar je naar kijkt.

901
00:39:07,459 --> 00:39:10,579
Ik kijk er als het laatste naar opwijkingen.

902
00:39:10,579 --> 00:39:12,099
Iets anders dan normaal is.

903
00:39:12,099 --> 00:39:13,899
En dat hebben ze helemaal verwerkt.

904
00:39:13,899 --> 00:39:16,659
Dat als je er gebruik van maakt dan moet je je daar en daar aan houden.

905
00:39:16,659 --> 00:39:18,099
Zodat je inderdaad niet die...

906
00:39:18,099 --> 00:39:21,439
Ik weet niet of je reclame mag maken hier.

907
00:39:21,439 --> 00:39:23,739
Maar je van die tandpasta reclames krijgt uit de...

908
00:39:23,739 --> 00:39:24,219
Ja, precies.

909
00:39:24,219 --> 00:39:24,939
Ja, dat.

910
00:39:24,939 --> 00:39:26,879
Daar zitten we allemaal niet op te wachten.

911
00:39:27,279 --> 00:39:30,359
En de technologie maakt het ook mogelijk om die bias meer naar boven te halen.

912
00:39:30,359 --> 00:39:32,939
Iets wat bij de mens onbewust naar boven komt.

913
00:39:32,939 --> 00:39:35,799
Dan kan je hier bewust gaan opzoeken wat zit erin en wat zit er niet in.

914
00:39:35,799 --> 00:39:36,819
Dus je kan het bloot leggen.

915
00:39:36,819 --> 00:39:39,899
Dus de technologie maakt het ook nog eens mogelijk om het transparant te gaan maken.

916
00:39:39,899 --> 00:39:40,959
Dat is geweldig gezegd.

917
00:39:40,959 --> 00:39:41,659
Want zo is het.

918
00:39:41,659 --> 00:39:43,279
Want hier heb je eigenlijk...

919
00:39:43,279 --> 00:39:46,539
Waar mijn brein net zo goed de jat van anderen.

920
00:39:46,539 --> 00:39:47,779
Alleen dat minder benoemd.

921
00:39:47,779 --> 00:39:50,719
Want ik ben geïnspireerd door.

922
00:39:50,719 --> 00:39:54,159
Traint AI zich daar het werk op.

923
00:39:54,159 --> 00:39:57,039
Maar waar je in mijn brein moeilijk kunt zeggen...

924
00:39:57,039 --> 00:39:58,879
Nou ja, je kan wel zeggen dat moet je niet meer gebruiken.

925
00:39:58,879 --> 00:39:59,699
Maar ja, denk je...

926
00:39:59,699 --> 00:39:59,879
Ja, god.

927
00:39:59,879 --> 00:40:03,339
In die AI kun je dat eigenlijk...

928
00:40:03,339 --> 00:40:04,799
In die programma's kun je dat heel goed verwerken.

929
00:40:04,799 --> 00:40:05,539
Ja.

930
00:40:05,539 --> 00:40:06,099
Ja, prachtig.

931
00:40:06,099 --> 00:40:08,179
Nee, maar dat is vaak wat we vergeten.

932
00:40:08,179 --> 00:40:10,839
Dus die transparantie van die algoritmes.

933
00:40:10,839 --> 00:40:11,639
Dat klopt allemaal.

934
00:40:11,639 --> 00:40:12,199
Dat moeten we gewoon...

935
00:40:12,199 --> 00:40:14,759
En daardoor wordt het ook beter.

936
00:40:14,759 --> 00:40:18,199
En daardoor wordt het ook voor mensen makkelijker te begrijpen.

937
00:40:18,199 --> 00:40:20,119
En kun je het omarmen.

938
00:40:20,199 --> 00:40:21,859
Omdat je het gevoel hebt dat je niet ergens...

939
00:40:21,859 --> 00:40:24,859
In een valse hoek wordt gelokt.

940
00:40:24,859 --> 00:40:26,779
Ja, dat vooral.

941
00:40:26,779 --> 00:40:27,079
Ja.

942
00:40:27,079 --> 00:40:32,099
Ik weet niet of de podcast luistert.

943
00:40:32,099 --> 00:40:32,879
Maar ik hoop het wel.

944
00:40:32,879 --> 00:40:36,159
Ik heb altijd ongelooflijk lol om die chatbots allemaal uit te proberen.

945
00:40:36,159 --> 00:40:37,919
Welk bedrijf je ook zit.

946
00:40:37,919 --> 00:40:40,599
Wanneer geven ze het op?

947
00:40:40,599 --> 00:40:43,359
En kan je een voorbeeld geven wat je dan doet?

948
00:40:43,359 --> 00:40:46,459
Nou ja, het mooiste is natuurlijk altijd track and trace van je pakketje.

949
00:40:46,459 --> 00:40:48,139
Want uiteindelijk blijf je gewoon in die loops komen.

950
00:40:48,139 --> 00:40:48,599
Ja, precies.

951
00:40:48,599 --> 00:40:50,599
En de vraag is hoe snel...

952
00:40:50,599 --> 00:40:52,739
Er is altijd op een gegeven moment een loop.

953
00:40:52,739 --> 00:40:53,159
Ja.

954
00:40:53,159 --> 00:40:56,299
Of je nou bij alle online bedrijven...

955
00:40:56,299 --> 00:40:58,179
Want die denken, oké, dan heb ik mijn eerste helpdesk.

956
00:40:58,179 --> 00:40:59,499
Is de chatbot.

957
00:40:59,499 --> 00:41:01,699
En soms helpt dat ook echt.

958
00:41:01,699 --> 00:41:05,239
Want dat hebben ze natuurlijk helemaal aan de hand van allerlei data.

959
00:41:05,739 --> 00:41:08,059
Hebben ze vastgesteld wat de meest gestelde vragen zijn.

960
00:41:08,059 --> 00:41:10,559
Maar het is gewoon mooi om daarin te gaan.

961
00:41:10,559 --> 00:41:12,819
Dan zitten freaking een andere vraag te stellen.

962
00:41:12,819 --> 00:41:13,459
En te kijken.

963
00:41:13,459 --> 00:41:14,459
Nogmaals.

964
00:41:14,459 --> 00:41:17,379
Soms geeft de ene het al op bij vraag drie.

965
00:41:17,379 --> 00:41:19,839
En dan neemt contact op met een medewerker.

966
00:41:19,839 --> 00:41:20,439
En dan denk ik, oké.

967
00:41:20,439 --> 00:41:21,379
Got you.

968
00:41:21,379 --> 00:41:22,059
Ja.

969
00:41:22,059 --> 00:41:24,839
Heb je dat niet?

970
00:41:24,839 --> 00:41:26,019
Het is toch leuk om te meenemen?

971
00:41:26,019 --> 00:41:27,719
Ik vind dat enig.

972
00:41:27,719 --> 00:41:28,119
Oh ja.

973
00:41:28,119 --> 00:41:30,179
Ik probeer het zelfs telefonisch met mensen ook.

974
00:41:30,179 --> 00:41:32,239
Dan ga ik naar het menuutje, nummer twee.

975
00:41:32,239 --> 00:41:32,899
En dan ga ik zeggen.

976
00:41:32,899 --> 00:41:35,479
Oh ja, maar ik moest eigenlijk deze vraag beantwoord zien te krijgen.

977
00:41:35,579 --> 00:41:36,519
Oh, maar dan zal ik weer verdorven.

978
00:41:36,519 --> 00:41:37,259
Ik denk, dankjewel.

979
00:41:37,259 --> 00:41:39,739
Dat is ook een goeie.

980
00:41:39,739 --> 00:41:40,179
Ja.

981
00:41:40,179 --> 00:41:40,919
Ja, te gek.

982
00:41:40,919 --> 00:41:41,679
Ja.

983
00:41:41,679 --> 00:41:42,159
Kijk Niels.

984
00:41:42,159 --> 00:41:43,319
Altijd een verkoopafdeling.

985
00:41:43,319 --> 00:41:45,019
Die neemt altijd een snelstop.

986
00:41:45,019 --> 00:41:45,879
Dat is altijd.

987
00:41:45,879 --> 00:41:46,639
Dat is waar.

988
00:41:46,639 --> 00:41:47,559
Maar die moet je verknopen.

989
00:41:47,559 --> 00:41:48,339
Dat moest ik helemaal niet.

990
00:41:48,339 --> 00:41:48,619
Sorry.

991
00:41:48,619 --> 00:41:50,419
Ik heb geen probleem met mijn huidig product.

992
00:41:50,419 --> 00:41:50,979
Kan ik even.

993
00:41:50,979 --> 00:41:51,899
Nee, maar het is mooi.

994
00:41:52,059 --> 00:41:52,759
Want het is nieuws.

995
00:41:52,759 --> 00:41:54,979
Kijk, daar even een bord waar ik iedere dag naar kijk.

996
00:41:54,979 --> 00:41:56,259
Dat zit achter die grote microfoon.

997
00:41:56,259 --> 00:41:57,139
Dat is fuck the system.

998
00:41:57,139 --> 00:41:58,359
Ja, inderdaad.

999
00:41:58,619 --> 00:42:04,279
En dat is de enige manier om er naar, ook met AI, gewoon goed te leren trainen.

1000
00:42:04,279 --> 00:42:05,219
Gewoon goed testen.

1001
00:42:05,219 --> 00:42:06,359
Gewoon goed testen is het eigenlijk.

1002
00:42:06,359 --> 00:42:09,719
Als het goed zijn, we allemaal testen en proberen we het allemaal in dat fuck the system

1003
00:42:09,719 --> 00:42:10,339
aan te pakken.

1004
00:42:10,339 --> 00:42:10,499
Ja.

1005
00:42:11,499 --> 00:42:12,819
Ik was nog wel nieuwsgierig Eppo.

1006
00:42:12,819 --> 00:42:15,259
Er komt elke keer nieuwe data bij.

1007
00:42:15,259 --> 00:42:15,639
Ja.

1008
00:42:15,639 --> 00:42:17,079
In het archief.

1009
00:42:17,079 --> 00:42:17,319
Ja.

1010
00:42:17,319 --> 00:42:19,699
Wat voor type data gaat er zoal in?

1011
00:42:19,699 --> 00:42:21,459
Een beeld, podcast had je het over.

1012
00:42:21,459 --> 00:42:23,119
Maar is dat ook nog een bepaalde categorie?

1013
00:42:23,119 --> 00:42:25,779
Nee, het is wel goed om dat te zeggen.

1014
00:42:25,779 --> 00:42:28,519
Wij harvesten ook gewoon van het web bijvoorbeeld dingen.

1015
00:42:28,519 --> 00:42:31,499
Maar het is altijd wel letterlijk bewegend beeld en geluid.

1016
00:42:31,499 --> 00:42:31,899
Oké.

1017
00:42:31,899 --> 00:42:37,039
En dat zijn dingen die bijvoorbeeld relevant zijn voor de Nederlandse geschiedenis.

1018
00:42:37,039 --> 00:42:41,079
Zoals ik zeg, we doen de publieke omroep, maar niet de commerciële omroepen.

1019
00:42:41,199 --> 00:42:41,979
Maar toch doen we dat.

1020
00:42:41,979 --> 00:42:42,719
Oké.

1021
00:42:42,719 --> 00:42:47,179
Omdat we gewoon a, iemands erfgoed in lijn willen houden.

1022
00:42:47,179 --> 00:42:51,499
Maar ook omdat er andere programma's worden gemaakt die wel degelijk een stuk van invloed

1023
00:42:51,499 --> 00:42:53,559
zijn op hoe je je systemen traint.

1024
00:42:53,559 --> 00:42:56,999
En de grap is dat we eigenlijk er nooit zo over hebben nagedacht.

1025
00:42:56,999 --> 00:43:00,219
Maar nu wel veel meer nadenken.

1026
00:43:00,219 --> 00:43:07,439
Wat heb je nodig om je bias zo min mogelijk eigenlijk te laten zijn?

1027
00:43:07,439 --> 00:43:09,879
Dat is wel een hele interessante discussie, want dat is heel ingewikkeld.

1028
00:43:10,899 --> 00:43:17,259
Dus als we alleen maar zeg maar weet ik veel wat, in de coronatijd was het natuurlijk

1029
00:43:17,259 --> 00:43:20,279
een hele boeiende tijd om te kijken op onderzoeksgebied.

1030
00:43:20,279 --> 00:43:22,139
Wat wordt er nu gemaakt door mensen?

1031
00:43:22,139 --> 00:43:24,919
Nou, dan had je natuurlijk mensen die tegen corona waren.

1032
00:43:24,919 --> 00:43:27,819
Nou, de neiging is dat je die meer was gaan inladen.

1033
00:43:28,679 --> 00:43:33,339
Omdat je dacht, ja dat is een unieke geluid, dat hoort niet zo vaak, dus laten we dat nu maar vullen.

1034
00:43:33,339 --> 00:43:38,059
Terwijl daardoor de balans in wat je dan doet in je systemen misschien verstoort.

1035
00:43:38,139 --> 00:43:41,459
Dus dat is heel interessant om met elkaar nu over te hebben.

1036
00:43:41,459 --> 00:43:42,339
Ja, dat is lastig.

1037
00:43:42,339 --> 00:43:43,179
Het is ook lastig.

1038
00:43:43,179 --> 00:43:46,679
Om een balans van de maatschappij eigenlijk te vatten in datapunten.

1039
00:43:46,679 --> 00:43:48,539
En in feite doet een archief dat niet.

1040
00:43:48,539 --> 00:43:54,759
Een archief heeft geen waardeoordeel over wat wij, zeg maar, opslaan.

1041
00:43:54,919 --> 00:43:57,419
In die zin, natuurlijk is het altijd een keuze.

1042
00:43:57,419 --> 00:44:01,599
Zeker als je niet het hele interweb, zeg maar...

1043
00:44:01,599 --> 00:44:03,439
En met de keuze breng je bias in.

1044
00:44:03,439 --> 00:44:04,539
Ja, dat is het ding.

1045
00:44:04,539 --> 00:44:08,859
Maar we kunnen bijvoorbeeld vanuit de wettelijke taak,

1046
00:44:08,859 --> 00:44:12,139
zijn we als mensen zeggen, ja maar die omroepen die slijt toch niet op.

1047
00:44:12,139 --> 00:44:14,879
Veel op het Ongehoord Nederland hadden we dat dan altijd.

1048
00:44:14,879 --> 00:44:17,619
En dan zeggen, dat doen we wel, want daar gaan wij niet over.

1049
00:44:17,619 --> 00:44:20,799
En het is ook belangrijk dat dat geluid er ook is, zeg maar.

1050
00:44:20,799 --> 00:44:22,779
Want het is een geluid wat wordt uitgesproken.

1051
00:44:24,239 --> 00:44:28,479
Nou ja, en als je de taak hebt om gewoon de publieke omroep te archiveren,

1052
00:44:28,479 --> 00:44:29,519
daar zitten ze in, toch?

1053
00:44:29,519 --> 00:44:32,519
Zeker, er is helemaal geen enkele...

1054
00:44:32,519 --> 00:44:34,099
Je hoeft er geen seconde over na te denken.

1055
00:44:34,099 --> 00:44:34,639
Nee, precies.

1056
00:44:34,639 --> 00:44:39,459
Waar we je wel over gaan laten nadenken is...

1057
00:44:39,459 --> 00:44:45,039
Want er zijn natuurlijk heel veel onderwerpen waar je het over kan hebben met AI.

1058
00:44:45,039 --> 00:44:49,459
En vooral generatieve AI, omdat dat is op dit moment natuurlijk helemaal hip en happening.

1059
00:44:49,459 --> 00:44:50,519
Hot, hot, hot, hot, hot, hot.

1060
00:44:50,519 --> 00:44:53,019
Dus we hebben een kaartspel met allerlei stellingen.

1061
00:44:53,019 --> 00:44:53,219
Ja, daar is wel bang voor.

1062
00:44:53,219 --> 00:44:53,539
Ja.

1063
00:44:53,559 --> 00:44:56,839
Dus wij willen ook een stelling aan jou voorleggen.

1064
00:44:56,839 --> 00:44:57,119
Ja, kom op.

1065
00:44:57,119 --> 00:44:58,119
Ja, dat is heel goed.

1066
00:44:58,119 --> 00:44:58,999
Dat vind ik alleen maar leuk hoor.

1067
00:44:58,999 --> 00:45:00,799
Kijk.

1068
00:45:00,799 --> 00:45:03,819
Het is echt leuk.

1069
00:45:12,719 --> 00:45:14,279
De stelling luidt.

1070
00:45:14,279 --> 00:45:16,599
Hij valt in de categorie gebruik en toepassingen.

1071
00:45:16,599 --> 00:45:18,159
generatieve AI zal...

1072
00:45:18,159 --> 00:45:22,599
AI zal essentieel zijn voor het ontwikkelen van innovatieve oplossingen in onze sector.

1073
00:45:24,599 --> 00:45:26,159
Als je het over de media sector.

1074
00:45:26,159 --> 00:45:28,439
Ja, ik denk dat daar...

1075
00:45:28,439 --> 00:45:28,999
de vraag is even...

1076
00:45:28,999 --> 00:45:29,559
de vraag is even...

1077
00:45:29,559 --> 00:45:29,559
de vraag is even...

1078
00:45:29,559 --> 00:45:30,559
de vraag is even welke problemen.

1079
00:45:30,559 --> 00:45:32,639
Als je het hebt over oplossingen, moet er een probleem zijn?

1080
00:45:32,639 --> 00:45:32,879
Ja.

1081
00:45:32,879 --> 00:45:41,279
Het zou bijvoorbeeld van Joop van den Ende sprak er vandaag nog over, een grote advertentie

1082
00:45:41,279 --> 00:45:42,939
in de krant over desinformatie.

1083
00:45:43,559 --> 00:45:50,879
Daar kan generatieve AI op de manier om te debunken en een enorme rol nog in spelen.

1084
00:45:50,879 --> 00:45:51,399
Nee, zeker.

1085
00:45:51,399 --> 00:45:55,019
En ook in de creatiekant zal het ook gewoon een rol gaan spelen.

1086
00:45:55,019 --> 00:45:55,999
Daar hoef ik...

1087
00:45:55,999 --> 00:45:56,159
Ja.

1088
00:45:56,159 --> 00:46:00,119
Nogmaals, deze sector is gebouwd voor die generatieve AI.

1089
00:46:00,119 --> 00:46:00,459
Ja.

1090
00:46:00,459 --> 00:46:01,439
Ik denk...

1091
00:46:01,439 --> 00:46:05,579
Ik had het laatst over meer dan welke andere sector dan bijna ook.

1092
00:46:05,579 --> 00:46:07,919
Ik zou niet weten, maar dit is alles is...

1093
00:46:07,919 --> 00:46:09,999
Ja, is de reclame schijnt al volledig met...

1094
00:46:09,999 --> 00:46:10,659
Ja, man en man.

1095
00:46:10,659 --> 00:46:13,459
En ook de ophef die dat natuurlijk levert van...

1096
00:46:13,459 --> 00:46:16,479
Nou ja, ik geloof dat Aldi is nu de...

1097
00:46:16,479 --> 00:46:16,639
Ja?

1098
00:46:16,639 --> 00:46:18,259
Was het Aldi of Lidl?

1099
00:46:18,259 --> 00:46:19,179
Ja, nou even niet.

1100
00:46:19,179 --> 00:46:20,259
Twee, maar die...

1101
00:46:20,259 --> 00:46:21,119
Ja, wat...

1102
00:46:21,119 --> 00:46:23,659
Het is ook heel raar als je dat dan hoort en denk je...

1103
00:46:23,659 --> 00:46:24,159
Ja, wow, man.

1104
00:46:24,159 --> 00:46:26,879
Het is gewoon een nagemaakte stem.

1105
00:46:26,879 --> 00:46:27,139
Ja.

1106
00:46:27,139 --> 00:46:27,999
Oh, Lidl was dat.

1107
00:46:27,999 --> 00:46:28,539
Ja, Lidl.

1108
00:46:28,539 --> 00:46:28,939
Lidl.

1109
00:46:28,939 --> 00:46:29,539
Zeker.

1110
00:46:29,539 --> 00:46:31,759
Moet je even helpen welke reclame dat dan is?

1111
00:46:31,759 --> 00:46:32,699
Ik kijk niet heel vaak reclame.

1112
00:46:32,699 --> 00:46:34,319
Nee, wat zij gedaan hebben is...

1113
00:46:34,319 --> 00:46:37,559
Zij hadden Diederik Ebbingen als vaste stemacteur.

1114
00:46:37,559 --> 00:46:40,299
En die is vervangen door een...

1115
00:46:40,299 --> 00:46:43,359
En ze hebben niet zijn stem gekloond, maar ze hebben een eigen stem.

1116
00:46:43,359 --> 00:46:45,379
Stem ontwikkeld uit meerdere stemmen.

1117
00:46:45,379 --> 00:46:45,759
Ja.

1118
00:46:45,759 --> 00:46:47,339
En die wordt nu gebruikt in de reclames.

1119
00:46:47,339 --> 00:46:49,239
Dus ze gebruiken geen stemacteur meer.

1120
00:46:49,239 --> 00:46:51,779
Maar dus een AI stemacteur.

1121
00:46:51,779 --> 00:46:53,459
Dus de Lidl acteur eigenlijk.

1122
00:46:53,459 --> 00:46:54,799
Ja.

1123
00:46:54,799 --> 00:46:55,119
Ja.

1124
00:46:55,119 --> 00:46:55,539
Ja.

1125
00:46:55,539 --> 00:46:57,059
Ze hebben hun eigen...

1126
00:46:57,059 --> 00:46:57,619
Eigen stem.

1127
00:46:57,619 --> 00:46:57,999
Eigen stem.

1128
00:46:57,999 --> 00:46:58,119
Ja.

1129
00:46:58,119 --> 00:46:59,479
Ze hoeven ze niemand meer voor in te huren.

1130
00:46:59,499 --> 00:47:00,499
Ja.

1131
00:47:00,499 --> 00:47:01,499
Ze hebben aan de hand van de beste stemklank

1132
00:47:01,499 --> 00:47:02,499
Wat

1133
00:47:02,499 --> 00:47:03,619
valt bij de groep goed.

1134
00:47:03,619 --> 00:47:04,259
Oh, oké.

1135
00:47:04,259 --> 00:47:05,019
Dus ja.

1136
00:47:05,019 --> 00:47:07,059
Nee, maar dat gaf natuurlijk heel veel...

1137
00:47:07,059 --> 00:47:08,019
Commotie waarschijnlijk.

1138
00:47:08,019 --> 00:47:08,879
Commotie.

1139
00:47:08,879 --> 00:47:11,279
Het kost ook geld en tijd.

1140
00:47:11,279 --> 00:47:13,839
Maar ja, die stem is nooit ziek.

1141
00:47:13,839 --> 00:47:14,619
Doet wat je zegt.

1142
00:47:14,619 --> 00:47:15,239
Ja.

1143
00:47:15,239 --> 00:47:16,019
Ik denk altijd hetzelfde.

1144
00:47:16,019 --> 00:47:16,519
Ja.

1145
00:47:16,739 --> 00:47:19,759
Ik ben wel benieuwd hoeveel zij nog moeten tweaken in dat proces.

1146
00:47:19,759 --> 00:47:22,279
Maar ik denk dat ja.

1147
00:47:22,279 --> 00:47:31,819
Nou, ik heb toevallig een aantal weken geleden, omdat mijn stem verdwenen was, heb ik er eentje opgenomen met een gekloonde stem.

1148
00:47:31,819 --> 00:47:32,219
Ja, nee.

1149
00:47:32,219 --> 00:47:34,159
Man, ik ben een luisteraar.

1150
00:47:34,159 --> 00:47:37,159
Ja, maar niet iedereen luistert alle afleveringen.

1151
00:47:37,159 --> 00:47:44,259
Maar anderhalf uur over tien minuten was ik bezig om de juiste stukjes te selecteren.

1152
00:47:44,259 --> 00:47:45,699
Waar is de intonatie goed?

1153
00:47:45,699 --> 00:47:50,639
En toen zat hij nog vol met dingetjes waarvan ik dacht, nou ja, weet je, laat ik erin zitten.

1154
00:47:50,639 --> 00:47:57,179
Maar ik neem aan, weet je, als dat nationale televisie reclame zou zijn die zo groot, dan kan je die foutjes er niet in laten zitten.

1155
00:47:57,179 --> 00:47:57,899
Nee, nee, nee.

1156
00:47:57,899 --> 00:47:59,519
Dus dan kost dat nog veel meer.

1157
00:47:59,519 --> 00:48:03,119
Ja, maar je moet bedenken even, je hebt een stemacteur, die moet je inhuren, moet je afkopen.

1158
00:48:03,119 --> 00:48:08,119
En ja, dan moet je het nog steeds afmixen en bijsnijden.

1159
00:48:08,119 --> 00:48:08,499
Zeker.

1160
00:48:08,499 --> 00:48:11,359
Dus ik denk dat dat model wel echt...

1161
00:48:11,359 --> 00:48:11,919
Dat kan wel uit.

1162
00:48:11,919 --> 00:48:13,279
Ja, dat denk ik wel, ja.

1163
00:48:14,459 --> 00:48:17,799
Ik wil even terugpakken op iets wat ik net hoorde zeggen, was erfgoed.

1164
00:48:17,799 --> 00:48:18,259
Ja.

1165
00:48:18,259 --> 00:48:19,099
En dat triggerde mij.

1166
00:48:19,099 --> 00:48:22,659
Dat was een interview die ik even terug had gekeken van je had ongeveer drie jaar geleden met,

1167
00:48:22,659 --> 00:48:23,619
wat is dat zo'n naam?

1168
00:48:23,619 --> 00:48:25,999
Heel erg lullig, sorry Charles, als ik je verkeerd uitspreek.

1169
00:48:25,999 --> 00:48:26,999
Charles Groenhuizen.

1170
00:48:26,999 --> 00:48:27,619
Ja, ja, ja.

1171
00:48:28,239 --> 00:48:29,619
Over future-proof IT.

1172
00:48:29,619 --> 00:48:30,019
Ja.

1173
00:48:30,019 --> 00:48:38,439
En daar had je het over dat ook bij de burger of bij de consument de ambitie is om daar het erfgoed van een persoon qua foto's,

1174
00:48:38,439 --> 00:48:40,699
Google foto's vast te leggen.

1175
00:48:40,699 --> 00:48:44,179
Ja, mijn punt is, je hebt goed je werk gedaan Niels.

1176
00:48:44,879 --> 00:48:54,599
De vraag daarvan is dat, wij vangen nu alles af wat eruit komt, maar een van de meest interessante dingen is natuurlijk wat je zelf persoonlijk doet.

1177
00:48:54,599 --> 00:48:56,319
En vroeger was het eigenlijk heel overzichtelijk.

1178
00:48:56,319 --> 00:49:00,899
Je had, weet ik wat, 24 fotootjes op een rolletje en dan plakte je een plakboek.

1179
00:49:00,899 --> 00:49:04,759
En dan, nou, van je leven had je misschien dertig plakboeken, bewijzen van.

1180
00:49:04,759 --> 00:49:05,799
En dat was het.

1181
00:49:05,799 --> 00:49:07,779
En die lagen allemaal in een kast en iedereen was overzichtig.

1182
00:49:07,779 --> 00:49:10,259
En als je overleed, dan is dat, nou ja, god, plakboek van opa.

1183
00:49:10,259 --> 00:49:11,019
Wie mag hem?

1184
00:49:11,019 --> 00:49:11,819
Ja, wie mag hem?

1185
00:49:11,819 --> 00:49:12,579
Wie wil hem of wat?

1186
00:49:12,579 --> 00:49:14,579
En zo schrijft hij door wie?

1187
00:49:14,579 --> 00:49:17,679
Hier, ik wil even kijken wat vandaag mijn stand is.

1188
00:49:17,679 --> 00:49:22,739
Mijn, eh, eh, heb ik even mijn bril erbij op?

1189
00:49:22,739 --> 00:49:24,919
Want dat is dan, dat heeft hij hier nog niet opgelost voor mij.

1190
00:49:24,919 --> 00:49:26,459
Het zal vastkomen.

1191
00:49:26,459 --> 00:49:30,339
130.937 foto's zitten hierin.

1192
00:49:30,339 --> 00:49:30,479
Ja.

1193
00:49:30,479 --> 00:49:33,219
Dat is over, denk ik, tien jaar of zoiets dergelijks.

1194
00:49:33,219 --> 00:49:37,699
Dat hele Born Digital heeft als gevolg een paar dingen.

1195
00:49:37,779 --> 00:49:41,479
Mijn archief is, ik ben een archivaris, maar mijn archief is veel slechter geworden eigenlijk.

1196
00:49:41,479 --> 00:49:44,559
Ik heb moeite om dingen gewoon terug te vinden.

1197
00:49:44,559 --> 00:49:44,979
Ja.

1198
00:49:44,979 --> 00:49:48,319
Zeker in de hoeveelheden zoals hier zijn opgeslagen.

1199
00:49:48,319 --> 00:49:50,359
En je telefoon, en je pakt je telefoon erbij.

1200
00:49:50,359 --> 00:49:51,759
Ja, ja, zo, je pakt mijn telefoon erbij.

1201
00:49:51,759 --> 00:49:55,379
En dat zit hem in dat ik denk dat iedereen dat heeft.

1202
00:49:55,379 --> 00:49:59,119
Zeker als je bijvoorbeeld, zoals ik ben begonnen in, nou, wat ik zei, hè.

1203
00:49:59,119 --> 00:50:00,859
Ik heb zeven jaar geleden met alle computers.

1204
00:50:00,859 --> 00:50:03,699
Het is van tape naar, ik kan allemaal zeggen, floppies naar.

1205
00:50:04,519 --> 00:50:10,779
En ja, ik heb niet alles meteen gebackupt en weer doorgebackupt en weer opnieuw geformateerd en weer naar nieuw.

1206
00:50:10,779 --> 00:50:13,339
Dus ik ben veel van mijn geschiedenis kwijt.

1207
00:50:13,919 --> 00:50:20,719
En ik zou het heel mooi vinden als wij hier bij Beeld en Geluid het erfgoed kunnen vastleggen van mensen.

1208
00:50:20,719 --> 00:50:22,579
Dat ze een eigen datakluisje hebben.

1209
00:50:22,579 --> 00:50:28,919
En dat je, om een paar redenen, dan zouden we veel beter onze systemen kunnen trainen.

1210
00:50:28,919 --> 00:50:30,819
Dan hebben we veel betere data binnen.

1211
00:50:30,819 --> 00:50:32,739
Meer diverse data in ieder geval.

1212
00:50:33,439 --> 00:50:40,439
En we kunnen garanderen dat wat je achterlaat, dat dat ook echt voor jezelf is.

1213
00:50:40,439 --> 00:50:41,499
Dat je niet bang hoeft te zijn.

1214
00:50:41,499 --> 00:50:44,399
Dat je denkt, potverdomme, waar heb ik mijn fotoboeken gehaald?

1215
00:50:44,399 --> 00:50:46,099
En dan kan je toegang tot je familie geven.

1216
00:50:46,099 --> 00:50:46,679
Ja, dat ja.

1217
00:50:46,679 --> 00:50:47,939
Ja, en zo.

1218
00:50:47,939 --> 00:50:50,299
Dat is eigenlijk wat ik nog steeds hier nastreef.

1219
00:50:50,299 --> 00:50:50,959
Oké.

1220
00:50:50,959 --> 00:50:52,699
En zijn er al stappen in die richting?

1221
00:50:52,699 --> 00:50:54,019
Nou, wat mij betreft wel.

1222
00:50:54,099 --> 00:50:58,839
Maar het eerste wat we hebben gedaan was toen ik hier kwam, was de, ja, je kunt ons systeem,

1223
00:50:58,839 --> 00:51:02,799
het heet DAAN, Digitaal Audiovisueel Archief Nederland, kun je niet zonder meer in.

1224
00:51:02,799 --> 00:51:03,599
Jullie kunnen dat niet.

1225
00:51:03,599 --> 00:51:05,099
Dan moet je media professional zijn.

1226
00:51:05,099 --> 00:51:05,639
Oké.

1227
00:51:05,639 --> 00:51:07,039
Ja, en ik dacht, dat is onzinnig.

1228
00:51:07,039 --> 00:51:07,739
Dat is jammer.

1229
00:51:07,739 --> 00:51:09,219
Er is veel met belastinggeld betaald.

1230
00:51:09,219 --> 00:51:14,639
En het genot wat ik heb, om daarin te kunnen, dat systeem, en dingen terug te kunnen zien van ooit.

1231
00:51:14,639 --> 00:51:16,139
Ja, dat is gewoon prachtig.

1232
00:51:16,139 --> 00:51:23,739
En twee jaar geleden, het Formatel kabinet met Rutte toen nog, hebben we besloten om daar geld voor vrij te maken.

1233
00:51:24,299 --> 00:51:30,739
Zodat iedere Nederlander, het heet hier nu intern de Schatkamer, toegang heeft tot dat hele Rijk Archief wat we hebben.

1234
00:51:30,739 --> 00:51:32,519
En dat is echt wel heel leuk.

1235
00:51:32,519 --> 00:51:34,739
En dat is wel stap één.

1236
00:51:34,739 --> 00:51:38,179
En stap twee zou zijn, ja, ik weet niet of ik dat zelf nog ga meemaken.

1237
00:51:38,179 --> 00:51:39,519
Ik zou zeggen, ik ben zestig plus.

1238
00:51:39,519 --> 00:51:42,339
Maar ik zou het wel heel mooi vinden als we daar een baas van leggen.

1239
00:51:42,339 --> 00:51:46,419
Dat iedere Nederlander gewoon gegarandeerd ruimte hier heeft.

1240
00:51:46,419 --> 00:51:48,159
We bewaren hier alles voor de eeuwigheid.

1241
00:51:48,159 --> 00:51:48,419
Ja.

1242
00:51:48,419 --> 00:51:49,139
Mogen?

1243
00:51:49,139 --> 00:51:50,319
Voor de eeuwigheid.

1244
00:51:50,319 --> 00:51:50,799
Ja.

1245
00:51:50,799 --> 00:51:51,819
Dus het is niet vol de week weg.

1246
00:51:51,819 --> 00:51:52,359
Doe niet zomaar.

1247
00:51:52,359 --> 00:51:53,159
De eeuwigheid.

1248
00:51:53,159 --> 00:51:55,459
En wij kijken zelfs naar opslag op DNA.

1249
00:51:55,459 --> 00:51:58,439
Omdat je dan veel meer in, maar goed, dat is nog hartstikke duur nog.

1250
00:51:58,439 --> 00:52:01,139
Maar goed, het is wel voor de eeuwigheid.

1251
00:52:01,139 --> 00:52:04,559
Ja, maar ik denk dat iedereen die luistert wel de frustratie kent.

1252
00:52:04,559 --> 00:52:07,179
Van, god, met die nieuwe telefoon, ik ga naar de volgende telefoon.

1253
00:52:07,179 --> 00:52:08,539
Heb ik wel mijn foto's gebackup?

1254
00:52:08,539 --> 00:52:10,019
Moet ik dat niet weer ergens anders gaan doen?

1255
00:52:10,579 --> 00:52:13,019
En dat is iets wel wat ik mijn kinderen zou willen nalaten.

1256
00:52:13,019 --> 00:52:17,379
Is inderdaad die oude filmpjes van zichzelf, maar ook van mij en van het gezin.

1257
00:52:17,379 --> 00:52:19,279
Om dat gewoon veilig te kunnen stellen.

1258
00:52:19,279 --> 00:52:22,199
Ja, dat blijft toch wel een flinke kluif altijd.

1259
00:52:22,199 --> 00:52:24,219
Nou, ik heb er één medestander tenminste.

1260
00:52:24,219 --> 00:52:24,539
Kijk.

1261
00:52:25,959 --> 00:52:33,899
En de andere vraag is, zijn er nog bepaalde vlekken op dit moment in de media die nog niet in het archief zitten?

1262
00:52:33,899 --> 00:52:34,599
Waar je van weet.

1263
00:52:34,599 --> 00:52:37,039
Ja, nou, heel simpel.

1264
00:52:37,039 --> 00:52:38,799
De commerciële omroepen zitten er niet in.

1265
00:52:38,799 --> 00:52:39,759
Dat is jammer eigenlijk.

1266
00:52:39,759 --> 00:52:43,899
Want het RTL nieuws is natuurlijk net zo belangrijk als het NWS-journal.

1267
00:52:43,899 --> 00:52:45,179
Maar daar praat ik echt puur over.

1268
00:52:46,639 --> 00:52:50,759
Wat wel lineair uitgespuugd wordt in Nederland.

1269
00:52:50,759 --> 00:52:53,279
Maar er zijn nog heel veel vlekken die er zijn.

1270
00:52:53,279 --> 00:52:56,579
Waarvan ik denk, dat zouden we ook echt allemaal wel willen.

1271
00:52:56,579 --> 00:52:58,339
We zijn nu wel heel erg goed bezig, denk ik.

1272
00:52:58,339 --> 00:53:03,319
De regionalen gaan hier instromen, zoals dat heet.

1273
00:53:03,319 --> 00:53:04,399
Dus dat is heel belangrijk.

1274
00:53:04,399 --> 00:53:05,939
Lokalen willen we ook.

1275
00:53:05,939 --> 00:53:08,339
En in ieder geval dat stuk allemaal.

1276
00:53:08,339 --> 00:53:10,419
Daar maar mee beginnen.

1277
00:53:10,419 --> 00:53:13,659
En wordt het dan aangemeld dat het opgenomen moet worden?

1278
00:53:13,659 --> 00:53:14,839
Even hypothetisch in.

1279
00:53:14,839 --> 00:53:16,099
Stel, AIToday Live.

1280
00:53:16,579 --> 00:53:18,199
We zouden het in het archief willen hebben.

1281
00:53:18,199 --> 00:53:19,539
Kan je dat zo aanvragen?

1282
00:53:19,539 --> 00:53:21,519
Kan je dat als organisatie aanvragen?

1283
00:53:21,519 --> 00:53:22,299
Ja, nou kijk.

1284
00:53:22,299 --> 00:53:26,599
Het liefste zou je alles willen vastpakken wat het nogmaals beeld en geluid maakt.

1285
00:53:26,599 --> 00:53:28,919
Dat vraagt wel wat van de infrastructuur.

1286
00:53:28,919 --> 00:53:29,219
Zeker.

1287
00:53:29,219 --> 00:53:30,779
Zoals het nu werkt.

1288
00:53:30,779 --> 00:53:34,239
Met de partijen die we het hebben gedaan.

1289
00:53:34,239 --> 00:53:37,359
Dat zit hem ook bijvoorbeeld met ISPN.

1290
00:53:37,359 --> 00:53:38,519
Dat is voetbal.

1291
00:53:38,519 --> 00:53:42,659
Dat stroomt letterlijk automatisch binnen.

1292
00:53:42,659 --> 00:53:43,639
Daar doen we eigenlijk niks aan.

1293
00:53:43,639 --> 00:53:45,279
Dat wordt helemaal automatisch gemetadateerd.

1294
00:53:45,279 --> 00:53:46,219
Daar hoeven we niks aan te doen.

1295
00:53:46,339 --> 00:53:47,499
Terwijl het knopjes open zetten.

1296
00:53:47,499 --> 00:53:50,659
Er zitten hier honderd mannen die dat allemaal doen.

1297
00:53:50,659 --> 00:53:53,239
Maar goed, dat gebeurt.

1298
00:53:53,239 --> 00:53:55,099
En daar kan ik rustig slapen.

1299
00:53:55,099 --> 00:53:57,339
Wij moeten 24 uur per dag, 7 dagen de week dat kunnen doen.

1300
00:53:57,339 --> 00:53:59,819
Dus dat knopje zou je dan open moeten zetten.

1301
00:53:59,819 --> 00:54:01,239
Daar kun je alles over afspreken.

1302
00:54:02,599 --> 00:54:09,099
Maar bijvoorbeeld voor nu dan gaan de conservatoren en de mensen die denken dit moeten we ook hebben.

1303
00:54:09,099 --> 00:54:11,099
Dus stel deze geweldige podcast.

1304
00:54:11,099 --> 00:54:13,879
Dan kan je zeggen of je levert dat aan.

1305
00:54:13,879 --> 00:54:15,999
We willen dat graag hebben omdat het belangrijk vinden.

1306
00:54:15,999 --> 00:54:21,339
Later zal iedereen een honderd jaar later denken aan deze podcast.

1307
00:54:22,499 --> 00:54:24,759
Die twee mannen die hebben de wereld verbeterd.

1308
00:54:24,759 --> 00:54:26,239
Maar dat hopen.

1309
00:54:26,239 --> 00:54:28,219
Wat ze dat dan denken als ze terugluisteren.

1310
00:54:28,219 --> 00:54:30,179
Ik wil de cirkel rondmaken.

1311
00:54:30,179 --> 00:54:32,559
Want we begonnen over het geweldige kantoor van je.

1312
00:54:32,559 --> 00:54:34,919
En ik zie een heel aantal boeken.

1313
00:54:34,919 --> 00:54:35,939
Dus je bent een belezen man.

1314
00:54:35,939 --> 00:54:36,419
Zeker.

1315
00:54:36,879 --> 00:54:42,139
Wat zou je de mensen, de luisteraars willen meegeven?

1316
00:54:42,139 --> 00:54:43,639
Van welk boek rondom AI?

1317
00:54:43,639 --> 00:54:47,119
Maar er mag ook een documentaire, er mag een film.

1318
00:54:47,119 --> 00:54:48,819
Wat zou je ze willen aanbevelen?

1319
00:54:48,819 --> 00:54:50,839
Nou, nee.

1320
00:54:50,839 --> 00:54:52,579
Even kijken of ik hem hier zie liggen.

1321
00:54:52,579 --> 00:54:56,119
Nee, dat is grappig eigenlijk.

1322
00:54:56,119 --> 00:54:56,719
Het kan zijn.

1323
00:54:56,719 --> 00:54:59,519
Je ziet daar het boekje.

1324
00:54:59,519 --> 00:55:00,859
Het is een beetje vergeeld.

1325
00:55:00,859 --> 00:55:02,359
Oranje boven.

1326
00:55:02,359 --> 00:55:04,419
Ik wijs nu voor de luisteraars naar een stapeltje boekje.

1327
00:55:04,419 --> 00:55:05,739
En daar staat 70's.

1328
00:55:05,739 --> 00:55:06,619
70 zie je.

1329
00:55:06,799 --> 00:55:09,119
En daarboven zie je het boekje, de Singularity is near.

1330
00:55:09,119 --> 00:55:14,059
En dat is een boek dat werd ooit geschreven door Ray Kurzweil.

1331
00:55:14,059 --> 00:55:15,559
Dat is inmiddels een nieuwe versie van.

1332
00:55:15,559 --> 00:55:19,139
Je ziet hoeveel gele briefjes ik daartussen heb gestopt.

1333
00:55:19,139 --> 00:55:21,979
Want dat boek is volgens mij 2006, denk ik.

1334
00:55:21,979 --> 00:55:27,119
En dat ging echt over de vraag, singularity in dit geval.

1335
00:55:27,119 --> 00:55:28,539
Singulariteit rondom computers.

1336
00:55:28,539 --> 00:55:29,859
Zet de computer slimmer dan de mens?

1337
00:55:29,859 --> 00:55:33,739
En dan zouden we gaan leven in de world of abundance.

1338
00:55:33,739 --> 00:55:35,359
Zoals het heet, de wereld van overvloed.

1339
00:55:35,359 --> 00:55:38,459
Waar in alles geweldig één grote roze suikertaart zou zijn.

1340
00:55:38,459 --> 00:55:41,499
Nou, Ray Kurzweil leeft nog steeds.

1341
00:55:41,499 --> 00:55:44,939
Volgens mij slikt nog steeds nog 400 tabletten per dag.

1342
00:55:44,939 --> 00:55:45,559
Als je iets vindt.

1343
00:55:45,559 --> 00:55:46,959
Nee, gewoon dat soort dingetje.

1344
00:55:46,959 --> 00:55:50,779
Hij heeft toen ook de Singularity Universiteit opgericht.

1345
00:55:51,479 --> 00:55:53,379
Ik vond dat een heel mooi boek om te lezen.

1346
00:55:53,379 --> 00:55:54,599
En ik zou iedereen weer eens aanraden.

1347
00:55:54,599 --> 00:55:56,319
Het gaat niet zo specifiek over AI.

1348
00:55:56,319 --> 00:55:57,739
Maar wel over...

1349
00:55:57,739 --> 00:56:00,779
Want AI is maar een onderdeel van een heel groot systeem.

1350
00:56:00,779 --> 00:56:04,799
En het belangrijkste onderdeel van dat systeem is de mens zelf.

1351
00:56:04,799 --> 00:56:07,439
Hoe gaan zij daarmee om?

1352
00:56:10,159 --> 00:56:13,159
En ik vond dat voor mij toen een boek waarvan...

1353
00:56:13,159 --> 00:56:16,739
Oké, dat gaat eigenlijk over dat hele grote systeem waar die mens een onderdeel van is.

1354
00:56:16,739 --> 00:56:19,419
En niet zozeer over toepassinkjes of...

1355
00:56:19,419 --> 00:56:21,859
Nou ja, waar we nu over spreken.

1356
00:56:21,859 --> 00:56:24,619
Kijk, AI is, was...

1357
00:56:24,619 --> 00:56:27,379
Daarom vind ik hecht ik waarom je zei, we maken het rond.

1358
00:56:27,379 --> 00:56:31,999
Waarde aan dat het er al is zo oud als de mensen komen.

1359
00:56:32,499 --> 00:56:33,859
Er is eindeloos veel.

1360
00:56:33,859 --> 00:56:35,759
Het is namelijk iets wat er is...

1361
00:56:35,759 --> 00:56:38,519
Dat niet menselijk is, maar wel menselijk reageert.

1362
00:56:38,519 --> 00:56:41,379
Mensen vragen me wel eens Apple...

1363
00:56:41,379 --> 00:56:42,819
Maar hoe kun je dan een robot hechten?

1364
00:56:42,819 --> 00:56:44,619
Nou, ik kijk naar mijn kleinkind.

1365
00:56:44,619 --> 00:56:45,779
En dat is misschien n=1.

1366
00:56:45,779 --> 00:56:47,099
Maar het god voor mij zelf ook.

1367
00:56:47,099 --> 00:56:48,679
Ik kon me hechten aan een knuffel.

1368
00:56:48,679 --> 00:56:49,679
Die is helemaal niet levend.

1369
00:56:49,679 --> 00:56:50,199
Precies.

1370
00:56:50,199 --> 00:56:52,279
Maar in mijn gedachten was dat een...

1371
00:56:52,279 --> 00:56:53,779
Een houvast letterlijk.

1372
00:56:53,779 --> 00:56:55,399
Dus dat kan heel makkelijk.

1373
00:56:55,399 --> 00:56:58,759
Een AI is al een onderdeel.

1374
00:56:58,759 --> 00:57:02,299
Ik vind het ook heel blij dat je het hebt gehad hier in deze uitzending over de...

1375
00:57:02,299 --> 00:57:03,059
AI winter.

1376
00:57:03,059 --> 00:57:10,139
Veel mensen die niet mee zijn, die hebben helemaal geen idee over die winters.

1377
00:57:10,139 --> 00:57:14,999
Want het komt in golven en het zal ook wel weer een dalletje kennen, denk ik, ergens.

1378
00:57:14,999 --> 00:57:22,899
Maar er zit nu wel een zekere versnelling in waardoor het interessant is om het vooral te hebben over het systeem boven de AI alleen.

1379
00:57:22,899 --> 00:57:24,359
Dat lijkt mij moeilijk

1380
00:57:24,359 --> 00:57:25,819
Wat is de plek van de mens?

1381
00:57:25,819 --> 00:57:28,999
Dan leg je gewoon de oude filosoof weer een beetje aan.

1382
00:57:28,999 --> 00:57:29,139
Ja.

1383
00:57:29,139 --> 00:57:31,639
Dus Ray Kurzweil.

1384
00:57:32,099 --> 00:57:33,319
Similarity is near.

1385
00:57:33,319 --> 00:57:33,879
Vind ik hem mooi.

1386
00:57:33,879 --> 00:57:35,119
Lees hem dan in de oude versie.

1387
00:57:35,119 --> 00:57:35,379
Ja.

1388
00:57:35,379 --> 00:57:38,799
Wij zullen de link opnemen in de show notes.

1389
00:57:38,799 --> 00:57:42,259
Eppo, hartstikke bedankt dat wij bij je langs mochten komen.

1390
00:57:42,259 --> 00:57:46,359
En ja, eventjes wel je brein plukken.

1391
00:57:46,359 --> 00:57:48,439
Dus we hebben even wat inzicht gehad.

1392
00:57:48,939 --> 00:57:52,279
Nogmaals, de eer en het genoegen was geheel aan mijn zijde.

1393
00:57:52,279 --> 00:57:55,059
Dus keep up this good work, zou ik maar zeggen.

1394
00:57:55,059 --> 00:57:55,559
Dankjewel.

1395
00:57:55,559 --> 00:58:00,839
Dit was weer de aflevering van AIToday Live.

1396
00:58:00,839 --> 00:58:02,419
Leuk dat je luisterde.

1397
00:58:02,419 --> 00:58:05,299
Zorg dat je je even abonneert via je favoriete podcast app.

1398
00:58:05,299 --> 00:58:06,499
Dan mis je geen aflevering.

1399
00:58:06,499 --> 00:58:07,499
En tot de volgende keer.

1400
00:58:07,499 --> 00:58:08,419
Tot de volgende keer.

1401
00:58:08,419 --> 00:58:11,539
[Muziek]


People on this episode