AIToday Live

S05E77 - De invloed van AI op radio en DJ's

Aigency by Info Support Season 5 Episode 77

Deze aflevering van AIToday Live staat in het teken van de persoonlijke kijk op kunstmatige intelligentie van radio DJ Angelique Houtveen en haar broer, sportschooleigenaar Robin Houtveen. Beiden hebben vanuit hun eigen vakgebied te maken met AI en bespreken de invloed ervan op media en fitness.

Ze vertellen over hun eerste kennismaking met AI tijdens de World Summit AI en hoe dit hun perspectieven heeft veranderd. Angelique en Robin delen bovendien hun zorgen en enthousiasme over de toekomstige rol van AI in hun werkzaamheden.

De luisteraar krijgt hiermee een compleet beeld van de diverse toepassingen van AI in verschillende sectoren.

Links

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:06,760
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van de AIToday Live.

2
00:00:06,760 --> 00:00:08,960
Vandaag best wel een speciale aflevering.

3
00:00:08,960 --> 00:00:14,840
We hebben al eens een keer twee gasten gehad in de studio, maar nog nooit broer en zus.

4
00:00:14,840 --> 00:00:18,560
Dus wij vinden het altijd leuk als er iets nieuws is.

5
00:00:18,560 --> 00:00:24,800
En we hebben de gast Angelique Houtveen en Robin Houtveen.

6
00:00:24,800 --> 00:00:28,600
Angelique, zou jij je als eerste eens even willen voorstellen?

7
00:00:28,600 --> 00:00:31,600
Jazeker, ik ben radio DJ.

8
00:00:31,600 --> 00:00:35,600
Ik werk nu bij Sublime, voorheen bij 3FM, van niks.

9
00:00:35,600 --> 00:00:38,080
13 jaar al maak ik radio.

10
00:00:38,080 --> 00:00:43,440
Marketing afgestudeerd, vond ik toch ietsjes minder leuk en zo mijn weg in de radio gevonden.

11
00:00:43,440 --> 00:00:46,480
Daarnaast doe ik heel veel voice-overwerk, podcasts.

12
00:00:46,480 --> 00:00:49,320
Ik schrijf voor Linda Magazine de muziek en podcast rubriek.

13
00:00:49,320 --> 00:00:51,000
Dus misschien jullie ook even tippen.

14
00:00:51,000 --> 00:00:52,800
Ja, heel graag.

15
00:00:52,800 --> 00:00:57,200
En de laatste tijd heel veel bezig met tech, eigenlijk al sinds kind.

16
00:00:57,200 --> 00:00:59,800
En AI de laatste tijd.

17
00:00:59,800 --> 00:01:02,400
Ja, daar gaan we zo direct even verder over praten.

18
00:01:02,400 --> 00:01:03,800
En Robin?

19
00:01:03,800 --> 00:01:06,240
Ja, ik ben Robin, dus broertje.

20
00:01:06,240 --> 00:01:07,240
Ja, zoals ik zeg.

21
00:01:07,240 --> 00:01:08,880
Van Angelique.

22
00:01:08,880 --> 00:01:10,600
Ik zit in een hele andere branche.

23
00:01:10,600 --> 00:01:12,080
Ik heb eigen sportschool.

24
00:01:12,080 --> 00:01:15,880
Ik begon in de fitness zo'n 12 jaar geleden als instructeur.

25
00:01:15,880 --> 00:01:21,080
En zo opgewerkt, persoonlijk trainer en sinds vijf jaar dus eigen sportschool samen met de compagnon van mij.

26
00:01:21,080 --> 00:01:26,280
En eigenlijk de laatste jaar erg geïnteresseerd geraakt ook in AI.

27
00:01:26,280 --> 00:01:31,880
Eigenlijk door een klant van mij die programmeur is en in de digitale wereld zit.

28
00:01:31,880 --> 00:01:32,880
Ja.

29
00:01:32,880 --> 00:01:36,760
Ja, die zei in één keer, kijk, dit is nieuws, je kan een hele trainingsgames maken.

30
00:01:36,760 --> 00:01:38,600
Toen dacht ik, ja, zal wel.

31
00:01:38,600 --> 00:01:40,760
En twee maanden later liet hij het nog een keer zien.

32
00:01:40,760 --> 00:01:42,240
Toen dacht ik, oh, dit is wel heel leuk.

33
00:01:42,240 --> 00:01:43,240
Ja, dat is wel cool.

34
00:01:43,240 --> 00:01:47,400
En toen ben ik ingaan verdiepen en zo ben ik eigenlijk meer geïnteresseerd geraakt in AI.

35
00:01:47,400 --> 00:01:52,240
En mijn zus vond ik ook iemand die geïnteresseerd was, dus wij sparren en praten heel vaak erover.

36
00:01:52,240 --> 00:01:53,240
Ja.

37
00:01:53,240 --> 00:01:54,240
En ja, dat ben ik.

38
00:01:54,240 --> 00:01:56,840
En verder ben ik vader en twee dochters.

39
00:01:56,840 --> 00:01:57,840
Leuk.

40
00:01:57,840 --> 00:01:59,840
En ik de stante van twee dochters.

41
00:01:59,840 --> 00:02:02,160
Ja, nou, hoe mooi is dat toch?

42
00:02:02,160 --> 00:02:03,160
Ja.

43
00:02:03,160 --> 00:02:05,920
En we hebben net afgesproken, we maken twee delen.

44
00:02:05,920 --> 00:02:11,000
Angelique, zeg maar eerst even kijken naar AI en radio, komen ze direct erop.

45
00:02:11,000 --> 00:02:12,760
En ze direct in de tweede deel, Robin.

46
00:02:12,760 --> 00:02:14,240
En jij praat nu lekker mee.

47
00:02:14,240 --> 00:02:17,280
Gaan we kijken van AI, sportschool.

48
00:02:17,280 --> 00:02:19,280
Ja, weet je, hoe is die combinatie?

49
00:02:19,280 --> 00:02:21,400
Voor mij is dat al heel erg interessant.

50
00:02:21,400 --> 00:02:22,840
Maar daar komt dus een deel 2 op.

51
00:02:22,840 --> 00:02:23,840
Blijf luisteren.

52
00:02:23,840 --> 00:02:28,680
Maar het leuke is, ik ben jullie tegengekomen bij de World Summit AI.

53
00:02:28,680 --> 00:02:29,680
Ja.

54
00:02:29,680 --> 00:02:32,680
Een van de grootste conferenties op het gebied van AI.

55
00:02:32,680 --> 00:02:34,760
En Angelique, jou herkende ik.

56
00:02:34,760 --> 00:02:40,240
En toen heb ik jullie aangesproken van, wat doe je nou eigenlijk als radio DJ?

57
00:02:40,240 --> 00:02:42,520
Daar was ik zo benieuwd naar.

58
00:02:42,520 --> 00:02:47,160
Wat doe je als radio DJ op een behoorlijk technische conferentie?

59
00:02:47,160 --> 00:02:49,120
Ja, dat was het zeker inderdaad.

60
00:02:49,120 --> 00:02:51,960
Ja, Robin, volgens mij stuurde jij het door.

61
00:02:51,960 --> 00:02:54,120
Ik weet niet meer zeker of ik het was, maar ik zag het.

62
00:02:54,120 --> 00:02:55,120
Oh ja, ik stuurde het naar jou.

63
00:02:55,120 --> 00:02:56,120
Ja, ik zag het.

64
00:02:56,120 --> 00:03:00,200
En sowieso was ik al de laatste tijd veel meer bezig met, oké, AI gaat echt de wereld

65
00:03:00,200 --> 00:03:01,200
veranderen.

66
00:03:01,200 --> 00:03:03,520
Ik weet nog niet precies hoe, maar ik wil me erin verdiepen.

67
00:03:03,520 --> 00:03:06,600
Veel vrienden van mij zeiden, ja, het is eng.

68
00:03:06,600 --> 00:03:08,360
Ik ben er bang voor.

69
00:03:08,360 --> 00:03:10,360
Toen dacht ik, nee, je moet niet bang zijn voor technologieën.

70
00:03:10,360 --> 00:03:11,800
Je moet je gaan verdiepen.

71
00:03:11,800 --> 00:03:13,400
Dan snap je het tenminste.

72
00:03:13,400 --> 00:03:16,800
Dus toen zag ik de World AI Summit.

73
00:03:16,800 --> 00:03:19,640
Toen dacht ik, nou ja, ik heb de ...

74
00:03:19,640 --> 00:03:20,760
Zullen we daar naartoe gaan?

75
00:03:20,760 --> 00:03:24,160
Want ja, we laten ons gewoon bijpraten over wat er allemaal gaande is.

76
00:03:24,160 --> 00:03:26,400
Dus ook zonder heel weinig verwachtingen.

77
00:03:26,400 --> 00:03:29,680
We hadden het programmaboekje een beetje doorgebladerd, maar ook niet soort van, oh, we moeten dit

78
00:03:29,680 --> 00:03:30,680
en dit zien.

79
00:03:30,680 --> 00:03:34,080
We dachten, we laten ons gewoon bijpraten door experts die hier wel mee bezig zijn.

80
00:03:34,080 --> 00:03:39,960
En kijken of het voor onze business, zowel media, radio als voor sport, iets kan betekenen.

81
00:03:39,960 --> 00:03:41,720
Maar ook gewoon in het algemeen.

82
00:03:41,720 --> 00:03:45,360
Ja, en was je altijd al geïnteresseerd in techniek?

83
00:03:45,360 --> 00:03:47,760
Of is dat gekomen door de kunstmatige intelligentie?

84
00:03:47,760 --> 00:03:50,960
Nou, voor mij was ik wel als kind al heel erg geïnteresseerd.

85
00:03:50,960 --> 00:03:54,560
Ik was als kind, kreeg ik een, niet gelijk heel zwaar te worden, maar ik kreeg een bloedziekte

86
00:03:54,560 --> 00:03:55,920
op negenjarige leeftijd.

87
00:03:55,920 --> 00:03:57,600
Dus daarvoor zat ik op Jazz Ballet, op Turnham.

88
00:03:57,600 --> 00:04:00,640
En opeens kreeg ik een bloedziekte, waardoor ik niet heel veel meer mocht doen.

89
00:04:00,640 --> 00:04:01,640
Dus niet wild mocht zijn.

90
00:04:01,640 --> 00:04:03,000
Dus ik zat heel veel thuis.

91
00:04:03,000 --> 00:04:05,160
En ik was eigenlijk twee dingen aan het doen.

92
00:04:05,160 --> 00:04:06,160
Drie, gamen.

93
00:04:06,160 --> 00:04:08,600
Met muziek was ik bezig.

94
00:04:08,600 --> 00:04:10,040
Elke song tekst uitpluizen.

95
00:04:10,040 --> 00:04:12,560
Maar ook met de computer die we thuis hadden staan.

96
00:04:12,560 --> 00:04:15,120
Echt, ik kende alle ins en outs van de hele computer.

97
00:04:15,120 --> 00:04:18,960
Op mijn elfde maakte ik mijn eerste website al, met het boekje 'Website bouwen voor kinderen'.

98
00:04:18,960 --> 00:04:21,160
Dus ik was daar heel erg mee bezig.

99
00:04:21,160 --> 00:04:24,880
En eigenlijk, ik heb toen een gegeven moment minor game design gevolgd.

100
00:04:24,880 --> 00:04:27,480
Het was altijd een beetje schipperen tussen die twee.

101
00:04:27,480 --> 00:04:29,360
Ik wil iets met tech of iets met muziek.

102
00:04:29,360 --> 00:04:31,600
En uiteindelijk is muziek leidend geworden.

103
00:04:31,600 --> 00:04:37,080
Maar voor mij is tech altijd een interesseveld geweest.

104
00:04:37,080 --> 00:04:40,360
En ik merk dat ik daar nu weer meer naartoe trek.

105
00:04:40,360 --> 00:04:41,360
Ja, precies.

106
00:04:41,360 --> 00:04:42,360
Wat gaaf.

107
00:04:42,360 --> 00:04:43,360
En jij Robin?

108
00:04:43,360 --> 00:04:45,000
Voor mij eigenlijk helemaal niet.

109
00:04:45,000 --> 00:04:49,120
Ze staat altijd thuis, ik was altijd buiten.

110
00:04:49,120 --> 00:04:52,480
Ja, voor mij is het meer gekomen door…

111
00:04:52,480 --> 00:04:56,480
Ik merk dat AI best wel een grote ontwikkeling gaat maken in de wereld.

112
00:04:56,480 --> 00:05:00,600
En ook als ondernemer ben je wel al kijken van, ja, hoe kan je jouw leven makkelijker maken?

113
00:05:00,600 --> 00:05:04,360
En eigenlijk toen ik zag wat AI kon, eigenlijk vanaf mijn ChatGPT,

114
00:05:04,360 --> 00:05:05,360
en later aan heel andere dingen ontdekken,

115
00:05:05,360 --> 00:05:08,800
maar toen dacht ik wel van, wow, dit kan je leven al heel stuk makkelijker maken.

116
00:05:08,800 --> 00:05:09,800
En goedkoper.

117
00:05:09,800 --> 00:05:12,440
En toen ben ik eigenlijk daar meer gedoken.

118
00:05:12,440 --> 00:05:16,240
Maar ik ben niet zoals haar jong website.

119
00:05:16,240 --> 00:05:17,720
Ik heb later wel websites gebouwd.

120
00:05:17,720 --> 00:05:20,320
Eén website van mezelf, toen ik personal trainer was.

121
00:05:20,320 --> 00:05:23,640
Maar verder niet heel erg in de technische kanten.

122
00:05:23,640 --> 00:05:24,640
Nee, precies.

123
00:05:24,640 --> 00:05:27,360
Wel grappig dat het dan toch zo bij elkaar is gekomen.

124
00:05:27,360 --> 00:05:28,360
Ja, vind ik mooi.

125
00:05:28,360 --> 00:05:32,560
En nu dat je een iets beter beeld hebt van de technologie,

126
00:05:32,560 --> 00:05:35,760
misschien ben je geïnspireerd geraakt door de World Summit AI.

127
00:05:35,760 --> 00:05:38,280
Zijn er een aantal dingen waarvan je denkt van,

128
00:05:38,280 --> 00:05:41,600
hé, maar dit gaat ook daadwerkelijk radio of media veranderen?

129
00:05:41,600 --> 00:05:45,400
Ja, ik denk best wel veel dingen.

130
00:05:45,400 --> 00:05:48,480
Sowieso qua wat er met stem allemaal mogelijk is.

131
00:05:48,480 --> 00:05:50,960
Een paar jaar geleden, als je een synthetische stem hoorde,

132
00:05:50,960 --> 00:05:55,160
bijvoorbeeld op mijn navigatie, denk je nog, ja, oké, dat is hem niet helemaal.

133
00:05:55,160 --> 00:05:59,040
Maar de laatste paar jaar kijk ik wel eens op websites die dat doen.

134
00:05:59,040 --> 00:06:01,880
En dan denk ik, dit klinkt echt al heel goed.

135
00:06:01,880 --> 00:06:03,960
En dit gaat steeds beter worden.

136
00:06:03,960 --> 00:06:06,520
En ook als je kijkt naar de radio-industrie nu,

137
00:06:06,520 --> 00:06:09,080
dat moet gewoon steeds meer bezuinigd worden.

138
00:06:09,080 --> 00:06:11,800
We hebben net een radiofrequentieveiling gehad in Nederland.

139
00:06:11,800 --> 00:06:13,920
Daar zijn hele grote bedragen voor neergeteld.

140
00:06:13,920 --> 00:06:15,680
En die moeten ook worden terugverdiend.

141
00:06:15,680 --> 00:06:20,480
En de dagen van DJ's die miljoenen verdienen, die zijn ook voorbij.

142
00:06:20,480 --> 00:06:22,880
Dus zeker voor de wat kleinere stations,

143
00:06:22,880 --> 00:06:26,160
ik geloof echt dat we altijd wel radiodj's zullen behouden.

144
00:06:26,160 --> 00:06:29,480
Althans altijd. De komende zoveel jaren dan.

145
00:06:29,480 --> 00:06:31,240
Maar radio is al zo vaak doodverklaard, hè?

146
00:06:31,240 --> 00:06:32,960
Ja, dat precies. Dat geloof ik ook niet.

147
00:06:32,960 --> 00:06:35,680
Maar ik denk wel dat uiteindelijk het een stuk minder zou worden.

148
00:06:35,680 --> 00:06:38,520
Maar je hebt ook zoveel stations, inclusief het station waar ik werk,

149
00:06:38,520 --> 00:06:40,920
die het gewoon met weinig middelen moeten doen.

150
00:06:40,920 --> 00:06:44,880
En die het wel fijn zouden vinden om een stem te laten horen.

151
00:06:44,880 --> 00:06:48,320
Bijvoorbeeld die af en toe een nieuwtje vertelt over het weer.

152
00:06:48,320 --> 00:06:52,560
En zo zijn er nog veel kleinere stations, heel veel webstations,

153
00:06:52,560 --> 00:06:58,160
die AI met gemak kunnen inzetten om hun station meer inhoud te geven.

154
00:06:58,160 --> 00:07:00,160
En daarvoor zie ik wel echt dat ik denk,

155
00:07:00,160 --> 00:07:02,720
oh, dat zou zomaar kunnen gebeuren.

156
00:07:02,720 --> 00:07:05,880
Los van het feit dat je je eigen stem misschien wel ooit gaat verkopen.

157
00:07:05,880 --> 00:07:08,080
Ja, precies. -Dat denk ik ook nog wel eens.

158
00:07:08,080 --> 00:07:13,040
Zeg je hier eigenlijk mee van...

159
00:07:13,040 --> 00:07:17,800
Waar je als DJ echt meerwaarde houdt, dat bewaar je ook.

160
00:07:17,800 --> 00:07:19,960
Maar je hebt het over nieuwtjes, weerberichten,

161
00:07:19,960 --> 00:07:23,000
dat soort dingen, dat is natuurlijk een constant herhalend verhaal.

162
00:07:23,000 --> 00:07:26,000
Ja, en ook, radio werkt een beetje zo, je hebt drive-time radio,

163
00:07:26,000 --> 00:07:27,200
de ochtendshow, de middagshow.

164
00:07:27,200 --> 00:07:29,920
Nou, ik denk die zullen niet zo snel door AI worden vervangen.

165
00:07:29,920 --> 00:07:32,960
Maar alles daartussen wordt oneerbiedig.

166
00:07:32,960 --> 00:07:34,240
Ik heb ook op die positie gezeten,

167
00:07:34,240 --> 00:07:38,640
maar het wordt toch een beetje office hours, ja, opvulling genoemd.

168
00:07:38,640 --> 00:07:42,400
Dus stel dat je gewoon een goede ochtendshow, goede middagshow hebt

169
00:07:42,400 --> 00:07:44,880
en daartussen gewoon wat stemmen,

170
00:07:44,880 --> 00:07:48,320
die wat feitjes over de nieuwe John Legend, nou, dat...

171
00:07:48,320 --> 00:07:50,880
Die het bij elkaar praten, op dat soort dingen.

172
00:07:50,880 --> 00:07:53,880
Een vraag die mij wel getriggerd was, het stukje,

173
00:07:53,880 --> 00:07:57,520
die bepaling van songs die gespeeld gaan worden.

174
00:07:57,520 --> 00:08:00,520
Hoe wordt dat nu gedaan? Is dat al met AI of niet?

175
00:08:00,520 --> 00:08:05,200
Nog niet. Ik ben naast radiodj's sinds september ook muziek samensteller.

176
00:08:05,200 --> 00:08:10,000
Dus daar hebben ze nog software voor die eigenlijk best wel ouderwets is.

177
00:08:10,000 --> 00:08:12,520
Die de muziek samensteller dus zelf kiest.

178
00:08:12,520 --> 00:08:16,880
Dus je programmeert het helemaal van, nou, dit liedje heeft de energy code 2

179
00:08:16,880 --> 00:08:21,720
en tempo dit en het is niet zo bekend, dus het krijgt een 2'tje.

180
00:08:21,720 --> 00:08:25,280
En dan maak je zelf een soort format van, nou, eerst nieuw,

181
00:08:25,280 --> 00:08:30,120
dan 80's, dan zero's en zo komt er dan iets uitgerold

182
00:08:30,120 --> 00:08:32,600
en dat ga je zelf dan zitten tweaken.

183
00:08:32,600 --> 00:08:36,600
Maar daar zit weinig echt AI achter. Ook daarvoor denk ik,

184
00:08:36,600 --> 00:08:39,400
als je een systeem hebt, als het nu mooi weer is,

185
00:08:39,400 --> 00:08:41,680
dan komt iemand, ja, het is mooi weer, we moeten meer zomerliedjes.

186
00:08:41,680 --> 00:08:44,320
En dan moet ik snel, want die lijst hebben we al van tevoren gemaakt,

187
00:08:44,320 --> 00:08:47,600
gaan oké, snel wat zomerliedjes last minute inproppen.

188
00:08:47,600 --> 00:08:52,280
Stel je hebt een systeem die dat gewoon ziet en die programmeert dat er gewoon in.

189
00:08:52,280 --> 00:08:56,880
Of stel, er overlijdt een grote artiest die direct on the spot kan zeggen,

190
00:08:56,880 --> 00:09:00,160
als er twee uur in de nacht gebeurt, ik ben niet wakker, mij heb je niet te bellen.

191
00:09:00,160 --> 00:09:04,000
Maar die zegt, oké, Stevie Wonder, sorry, nee, ik hou van Stevie Wonder.

192
00:09:04,000 --> 00:09:04,960
Ik hoop niet dat hij doodgaat.

193
00:09:04,960 --> 00:09:08,080
Maar stel, die kan je dan, ja, dat kan je dan gemakkelijk doen.

194
00:09:08,080 --> 00:09:12,240
Dus het is nu nog heel ouderwets, maar ook daarvoor zie ik echt heel veel.

195
00:09:12,240 --> 00:09:16,160
- Grappig. Ik heb zelf al wel eens Spotify lijsten samengesteld.

196
00:09:16,160 --> 00:09:21,520
En dan zeg ik van, ah ja, ik hou hier van, doe maar eens even een aanbeveling.

197
00:09:21,520 --> 00:09:24,600
En dan kreeg ik best wel een hele goede lijst eigenlijk.

198
00:09:24,600 --> 00:09:29,240
- Ja, toch? En dat vind ik tegelijkertijd het mooie, maar ook het tricky,

199
00:09:29,240 --> 00:09:32,640
aan AI en Spotify algoritme bijvoorbeeld.

200
00:09:32,640 --> 00:09:36,040
Want toen ik opgroeide en jij ook, Robin, en ik denk jullie ook,

201
00:09:36,040 --> 00:09:39,800
ik keek de hele dag naar TMF. Ik keek, ik ken daar alles van elk genre.

202
00:09:39,800 --> 00:09:44,960
Of het nou Korn was of Aliyah. Ik was niet zo, ik ken alleen maar R&B,

203
00:09:44,960 --> 00:09:47,840
of ik ken alleen maar rock. Ik kende alles wat hot was op dat moment.

204
00:09:47,840 --> 00:09:53,760
Nu, als je van R&B houdt en jij zet dat in je lijstje, krijg je alleen maar R&B.

205
00:09:53,760 --> 00:09:57,760
En dat hele rock, dat is voor jou een soort vreemde wereld geworden.

206
00:09:57,760 --> 00:10:01,440
En dat vind ik enigszins wel zonde, dat we zo in onze bubbel gaan zitten.

207
00:10:01,440 --> 00:10:03,360
- Ja, daar ben ik het helemaal met je eens.

208
00:10:03,360 --> 00:10:08,960
En ik zie dat eigenlijk ook wel gebeuren. Ik zit minder in de auto.

209
00:10:08,960 --> 00:10:10,960
Dus ik luister dus ook minder radio.

210
00:10:10,960 --> 00:10:16,560
En als ik nu radio luister, vind ik dat ik best wel veel reclame hoor.

211
00:10:16,560 --> 00:10:18,960
En dan schakel ik al vrij snel over naar...

212
00:10:18,960 --> 00:10:22,160
- Antwoord op een scenario. - Nee, maar ik vertel mijn ervaring.

213
00:10:22,160 --> 00:10:25,760
En dus dan schakel ik heel snel over naar Spotify.

214
00:10:25,760 --> 00:10:28,960
En dan krijg ik inderdaad, ja, mijn muziek.

215
00:10:28,960 --> 00:10:32,160
Misschien af en toe kinderliedjes ertussen.

216
00:10:32,160 --> 00:10:37,160
Omdat die er dan zeg maar in het algoritme bij zijn geleerd.

217
00:10:37,160 --> 00:10:40,160
Maar dat is inderdaad wel een probleem.

218
00:10:40,160 --> 00:10:44,160
- Ja, als een slimme technicus ergens...

219
00:10:44,160 --> 00:10:47,160
Ik zou daar nog misschien wel een tool voor verzinnen.

220
00:10:47,160 --> 00:10:49,160
Een soort van uit de bubbel functie.

221
00:10:49,160 --> 00:10:53,160
Dat je eens denkt van, nou, ik wil even buiten mijn geld.

222
00:10:53,160 --> 00:10:58,160
- Ja, je hebt wel zo'n playlist. Ik ben even kwijt hoe die heet.

223
00:10:58,160 --> 00:11:00,160
- We hebben het er vaker over gehad inderdaad.

224
00:11:00,160 --> 00:11:02,160
- Die is er wel, maar die is ook heel moeilijk te vinden.

225
00:11:02,160 --> 00:11:05,160
Spotify maakt het ook niet makkelijk.

226
00:11:05,160 --> 00:11:10,160
- Ja, ik ken dat wel. Ik zit nog wel heel vaak in de auto inderdaad.

227
00:11:10,160 --> 00:11:14,160
Dan is bij mij of podcast, of explicit radio.

228
00:11:14,160 --> 00:11:16,160
En tegenwoordig ook 100% NL.

229
00:11:16,160 --> 00:11:18,160
Ik weet ook niet waarom, waarschijnlijk omdat de kinderen hem aan hebben gezet.

230
00:11:18,160 --> 00:11:21,160
Maar om gewoon een andere genre te horen dan de standaard.

231
00:11:21,160 --> 00:11:24,160
Dus bewust geen Spotify of YouTube inderdaad.

232
00:11:24,160 --> 00:11:27,160
Om gewoon andere muziekstijlen te horen.

233
00:11:27,160 --> 00:11:30,160
Ik heb er nooit wat mee gehad.

234
00:11:30,160 --> 00:11:33,160
Maar Nederlandse muziek heeft toch best wel hele mooie nummers.

235
00:11:33,160 --> 00:11:36,160
Daar ben ik achter gekomen. Dus daar dank ik mijn kinderen ook voor.

236
00:11:36,160 --> 00:11:39,160
- Maar dat is toch leuk. En jij gaat dat bewust opzoeken.

237
00:11:39,160 --> 00:11:42,160
Maar heel veel mensen denken, joh ik...

238
00:11:42,160 --> 00:11:45,160
- Ja, al die recommendations.

239
00:11:45,160 --> 00:11:48,160
Die blijven zeg maar. Dat is heel moeilijk om daaruit te komen.

240
00:11:48,160 --> 00:11:50,160
- Ja, en ook het voordeel. Ik heb heel veel artiesten ontdekt.

241
00:11:50,160 --> 00:11:53,160
Vroeger voor Spotify had ik Last.fm.

242
00:11:53,160 --> 00:11:56,160
Eigenlijk een soort statistiek website met wat je luistert.

243
00:11:56,160 --> 00:12:00,160
En daar ontdekte ik zoveel dingen door recommendation.

244
00:12:00,160 --> 00:12:02,160
Echt heel veel artiesten.

245
00:12:02,160 --> 00:12:05,160
- Ja, ik dacht eigenlijk ook wel via Spotify.

246
00:12:05,160 --> 00:12:09,160
Omdat als er dan weer samenwerkingen zijn van artiesten.

247
00:12:09,160 --> 00:12:12,160
Dus ik luister bijvoorbeeld...

248
00:12:12,160 --> 00:12:15,160
Een van de artiesten die ik graag luister is Gary Clark Jr.

249
00:12:15,160 --> 00:12:17,160
- Oh ja, I love him.

250
00:12:17,160 --> 00:12:20,160
- En die heeft best wel heel veel samenwerkingen.

251
00:12:20,160 --> 00:12:23,160
En zo kwam ik op, nou moet ik het goed zeggen, Trombone Shorty.

252
00:12:23,160 --> 00:12:25,160
- Trombone Shorty, ja! Hij is te gek.

253
00:12:25,160 --> 00:12:28,160
- Ik heb er nooit van gehoord. Maar ik hoorde dat nummer samen.

254
00:12:28,160 --> 00:12:33,160
En dat heeft ervoor gezorgd dat het nu een van mijn favoriete albums is.

255
00:12:33,160 --> 00:12:36,160
Dus aan de ene kant...

256
00:12:36,160 --> 00:12:39,160
Maar je blijft wel in het genre.

257
00:12:39,160 --> 00:12:43,160
Dus ik word niet zo snel... Wat luister ik? Weinig.

258
00:12:43,160 --> 00:12:45,160
- Nederlandse muziek.

259
00:12:45,160 --> 00:12:48,160
- Daar word ik dan weinig mee verrast.

260
00:12:48,160 --> 00:12:51,160
Jij noemde ook podcast.

261
00:12:51,160 --> 00:12:53,160
En je maakt een podcast.

262
00:12:53,160 --> 00:12:56,160
Ik kan me nog... Ik ben iets ouder dan jullie.

263
00:12:56,160 --> 00:12:59,160
Ik kan me heel goed herinneren... Adam Curry.

264
00:12:59,160 --> 00:13:03,160
Dat is natuurlijk een legend op het gebied van radio.

265
00:13:03,160 --> 00:13:05,160
En van podcast en nu.

266
00:13:05,160 --> 00:13:08,160
Die ergens zo rond 20 jaar geleden...

267
00:13:08,160 --> 00:13:13,160
Ik weet eigenlijk niet meer... Ik heb geprobeerd als voorbereiding op vandaag...

268
00:13:13,160 --> 00:13:16,160
om het stukje op te zoeken. Ik kon het nergens vinden.

269
00:13:16,160 --> 00:13:18,160
Maar het staat mij heel levendig voor de geest.

270
00:13:18,160 --> 00:13:24,160
Hij zit in een bus, in zo'n touringcar.

271
00:13:24,160 --> 00:13:26,160
Daar wordt hij op de een of andere manier ondervraagd.

272
00:13:26,160 --> 00:13:28,160
En hij zegt daar...

273
00:13:28,160 --> 00:13:30,160
Door de nieuwe technologie...

274
00:13:30,160 --> 00:13:32,160
En dan had hij het over internet en dat soort zaken.

275
00:13:32,160 --> 00:13:36,160
Hij zegt hij krijgt zo direct iedereen een eigen radiozender.

276
00:13:36,160 --> 00:13:38,160
Ik dacht toen... Die man...

277
00:13:38,160 --> 00:13:40,160
Die spoort niet.

278
00:13:40,160 --> 00:13:41,160
Daar geloof ik hem niks van.

279
00:13:41,160 --> 00:13:43,160
Nu zitten we hier.

280
00:13:43,160 --> 00:13:46,160
Eigen radiozender. Jij hebt je eigen radiozender.

281
00:13:46,160 --> 00:13:52,160
Zie jij nu met deze nieuwe technologie...

282
00:13:52,160 --> 00:13:55,160
Zie jij ook iets van een hele grote verandering?

283
00:13:55,160 --> 00:13:59,160
Die collega's van jou nog niet zien aankomen.

284
00:13:59,160 --> 00:14:01,160
Bedoel je met AI dan?

285
00:14:01,160 --> 00:14:04,160
Ja, met AI in media, podcast, radio.

286
00:14:04,160 --> 00:14:08,160
Zie jij iets aankomen waarvan je zegt...

287
00:14:08,160 --> 00:14:12,160
Een groot deel van mijn collega's ziet helemaal niet dat dit gaat gebeuren.

288
00:14:12,160 --> 00:14:13,160
Wat een goeie.

289
00:14:13,160 --> 00:14:16,160
Ik zie sowieso dat...

290
00:14:16,160 --> 00:14:19,160
Je niet meer bepaalde specifieke...

291
00:14:19,160 --> 00:14:23,160
Eigenschappen moet hebben...

292
00:14:23,160 --> 00:14:25,160
Om mee te doen in dit veld.

293
00:14:25,160 --> 00:14:29,160
Vroeger moest je wel een goede stem hebben.

294
00:14:29,160 --> 00:14:31,160
Je moest weten waar je over spreekt.

295
00:14:31,160 --> 00:14:33,160
Al dat soort dingen. Dat is nu...

296
00:14:33,160 --> 00:14:36,160
Ik kijk even naar jou Robin ook.

297
00:14:36,160 --> 00:14:39,160
Jij zei altijd ik ben niet de beste copywriter.

298
00:14:39,160 --> 00:14:40,160
Ik ben niet de beste schrijver.

299
00:14:40,160 --> 00:14:42,160
Vroeger stuurde je stukjes naar mij toe.

300
00:14:42,160 --> 00:14:43,160
Om te controleren.

301
00:14:43,160 --> 00:14:45,160
Nu stuur je nooit meer wat toe.

302
00:14:45,160 --> 00:14:47,160
Want Chachi Petit doet dat gewoon voor je.

303
00:14:47,160 --> 00:14:49,160
Je hoeft niet meer een perfecte schrijver te zijn.

304
00:14:49,160 --> 00:14:52,160
Ik denk dat het geldt ook voor radio en voor podcast.

305
00:14:52,160 --> 00:14:57,160
Je content kan je laten maken op een simpele manier.

306
00:14:57,160 --> 00:14:58,160
Je stem kan je laten tweaken.

307
00:14:58,160 --> 00:15:02,160
Als je helemaal geen slechte stem hebt, dan huur je wel een stem in.

308
00:15:02,160 --> 00:15:05,160
Of creëer je wel een stem met AI.

309
00:15:05,160 --> 00:15:09,160
Ik denk dat de instapeisen minder hoog zijn.

310
00:15:09,160 --> 00:15:11,160
De drempel neemt af inderdaad.

311
00:15:11,160 --> 00:15:14,160
Om mee te kunnen doen met de grotere...

312
00:15:14,160 --> 00:15:18,160
Maar als ik kijk naar wat nog meer dingen zijn waar mijn collega's...

313
00:15:18,160 --> 00:15:20,160
Ik heb een aantal collega's die heel bang zijn.

314
00:15:20,160 --> 00:15:22,160
En een aantal collega's die zien het als van...

315
00:15:22,160 --> 00:15:26,160
Wow, we kunnen de stem van Prince gebruiken om het verkeer voor te lezen.

316
00:15:26,160 --> 00:15:29,160
Misschien is dat niet helemaal ethisch lekker.

317
00:15:29,160 --> 00:15:32,160
Dus je hebt verschillen daarin.

318
00:15:32,160 --> 00:15:34,160
En de angst, waar zit de angst?

319
00:15:34,160 --> 00:15:36,160
Dat banen worden overgenomen.

320
00:15:36,160 --> 00:15:39,160
En dat vak waar wij het over hebben.

321
00:15:39,160 --> 00:15:41,160
Ik kijk soms ook wel eens naar...

322
00:15:41,160 --> 00:15:43,160
Je hebt ook een trend binnen radio.

323
00:15:43,160 --> 00:15:46,160
Influencers die op Instagram en anders heel groot zijn.

324
00:15:46,160 --> 00:15:49,160
Die krijgen zomaar een radioprogramma in de schoot geworpen.

325
00:15:49,160 --> 00:15:52,160
Terwijl ik jarenlang heb zitten bikkelen in de nacht.

326
00:15:52,160 --> 00:15:54,160
Vier uur 's ochtends zat ik daar in zo'n studio.

327
00:15:54,160 --> 00:15:56,160
Voor bijna niemand radio te maken.

328
00:15:56,160 --> 00:15:58,160
En ik kijk daar soms ook wel eens naar.

329
00:15:58,160 --> 00:16:00,160
Jeetje, je hoeft er ook nog niks meer voor te kunnen.

330
00:16:00,160 --> 00:16:03,160
En dat wordt alleen maar erger.

331
00:16:03,160 --> 00:16:06,160
Of niet erger, want het is ook wel weer leuk en toegankelijk.

332
00:16:06,160 --> 00:16:09,160
Maar ik denk dat die collega's die bang zijn ook zoiets hebben van...

333
00:16:09,160 --> 00:16:12,160
Dat vak neemt wel heel erg af.

334
00:16:12,160 --> 00:16:14,160
En ook gewoon...

335
00:16:14,160 --> 00:16:16,160
Ik denk wel dat het gaat veranderen, toch?

336
00:16:16,160 --> 00:16:21,160
Ja. Of je gaat mee, of je sterft uit.

337
00:16:21,160 --> 00:16:23,160
En ik ga liever mee.

338
00:16:23,160 --> 00:16:27,160
En daarom ben ik er zo in aan het verdiepen.

339
00:16:27,160 --> 00:16:31,160
Wat kan dit allemaal betekenen voor radio?

340
00:16:31,160 --> 00:16:33,160
Voor media in het algemeen?

341
00:16:33,160 --> 00:16:35,160
En voor de wereld in het algemeen ook.

342
00:16:35,160 --> 00:16:37,160
En ik ben nu een boek aan het lezen.

343
00:16:37,160 --> 00:16:39,160
'Unmasking AI'.

344
00:16:39,160 --> 00:16:42,160
Van een vrouw van kleur die zich heel erg verdiept heeft...

345
00:16:42,160 --> 00:16:45,160
in de biases die er ook bestaan.

346
00:16:45,160 --> 00:16:47,160
Dat ook belangrijk is.

347
00:16:47,160 --> 00:16:50,160
Facial recognition, dat dan zwarte mensen niet herkent.

348
00:16:50,160 --> 00:16:52,160
En dat is nogal gevaarlijk in zelfrijdende auto's.

349
00:16:52,160 --> 00:16:54,160
Maar zelfs in Nederland was er al een case van.

350
00:16:54,160 --> 00:16:56,160
Van een vrouw die... -Robin Pocornie.

351
00:16:56,160 --> 00:16:58,160
Precies, Pocornie inderdaad.

352
00:16:58,160 --> 00:17:01,160
Die gewoon niet herkend werd en daardoor...

353
00:17:01,160 --> 00:17:03,160
in de problemen kwam met haar studie.

354
00:17:03,160 --> 00:17:08,160
En dan denk ik, er zijn wel echt gevaren en dingen om serieus naar te kijken.

355
00:17:08,160 --> 00:17:10,160
Maar ook beide.

356
00:17:10,160 --> 00:17:12,160
Dat is ook een ontwikkeling natuurlijk.

357
00:17:12,160 --> 00:17:14,160
Ze had nog redelijk z'n kinderschoenen.

358
00:17:14,160 --> 00:17:16,160
Dus dat moet ook allemaal glad gestreken worden.

359
00:17:16,160 --> 00:17:18,160
Om het eigenlijk wel goed te maken.

360
00:17:18,160 --> 00:17:21,160
Precies, je hebt en die kritische nood nodig.

361
00:17:21,160 --> 00:17:24,160
En het optimisme van 'Oké, let's go!'

362
00:17:24,160 --> 00:17:27,160
De kansen zien, de risico's spotten.

363
00:17:27,160 --> 00:17:32,160
Maar goed, zo gauw het op je levenssfeer echt inbreuk doet.

364
00:17:32,160 --> 00:17:35,160
Robin hebben wij in de podcast ook gehad.

365
00:17:35,160 --> 00:17:37,160
Zij heeft haar een verhaal gedaan.

366
00:17:37,160 --> 00:17:39,160
Daar denk je echt, hoe is dit mogelijk?

367
00:17:39,160 --> 00:17:42,160
Hoe dacht je dat een universiteit er mee omgaat?

368
00:17:42,160 --> 00:17:49,160
Het ging erom dat zij in coronatijd examen, toetsen, dat soort dingen moest doen.

369
00:17:49,160 --> 00:17:51,160
En je gezicht moest herkennen om in te loggen.

370
00:17:51,160 --> 00:17:54,160
En vanwege...

371
00:17:54,160 --> 00:17:56,160
Zij is een zwarte vrouw.

372
00:17:56,160 --> 00:17:59,160
En die gezichtsherkenning werkt gewoon slechter.

373
00:17:59,160 --> 00:18:03,160
Dat heeft haar in zekere zin in de problemen gebracht.

374
00:18:03,160 --> 00:18:08,160
En in plaats van dat dat werd opgepikt en zou worden opgelost,

375
00:18:08,160 --> 00:18:11,160
zei de universiteit, wij vinden dat geen enkel probleem.

376
00:18:11,160 --> 00:18:13,160
Dus even kort door de bocht.

377
00:18:13,160 --> 00:18:16,160
En zo gauw dat soort dingen, als je daarmee in aanraking komt,

378
00:18:16,160 --> 00:18:19,160
kan het natuurlijk wel tot hele vervelende consequenties leiden.

379
00:18:19,160 --> 00:18:20,160
Zeker.

380
00:18:20,160 --> 00:18:23,160
Je vertrouwen in AI hebben schade.

381
00:18:23,160 --> 00:18:24,160
Ja, precies.

382
00:18:24,160 --> 00:18:26,160
Dat vond ik wel het mooie van Robin.

383
00:18:26,160 --> 00:18:30,160
Dat het niet terug te zien was, maar meer ook in de mogelijkheden,

384
00:18:30,160 --> 00:18:33,160
het verschil ermee kunnen maken, het op tafel kunnen leggen.

385
00:18:33,160 --> 00:18:36,160
Maar ook juist kansen zien en blijven zien in de technologie.

386
00:18:36,160 --> 00:18:39,160
Dat vond ik wel heel mooi in de opname.

387
00:18:39,160 --> 00:18:43,160
Je zag de energie nog steeds op, die mooie technologie, wat het ook kan brengen.

388
00:18:43,160 --> 00:18:45,160
Maar dat het ook kantpunten ervan heeft.

389
00:18:45,160 --> 00:18:46,160
Dat is gewoon heel mooi.

390
00:18:46,160 --> 00:18:50,160
Maar ik ga toch nog even terug naar die collega's van jou.

391
00:18:50,160 --> 00:18:52,160
Die bang zijn om te komen.

392
00:18:52,160 --> 00:18:57,160
We hebben net gezegd dat weer kan uitgesproken worden.

393
00:18:57,160 --> 00:18:59,160
Dat het nieuws kan uitgesproken worden.

394
00:18:59,160 --> 00:19:01,160
Daar hebben we nu mensen voor.

395
00:19:01,160 --> 00:19:04,160
Ik kijk graag studio sport.

396
00:19:04,160 --> 00:19:08,160
Je moet niet zeggen Tom Egbert, die is al vervangen.

397
00:19:08,160 --> 00:19:13,160
Maar zijn vervanger praat eigenlijk ook alleen maar de samenvattingen aan elkaar.

398
00:19:13,160 --> 00:19:15,160
Vol met clichés.

399
00:19:15,160 --> 00:19:19,160
Ik zeg wel ja, maar ik kijk het nooit verder.

400
00:19:19,160 --> 00:19:22,160
Jij zegt ja, dat is een clone.

401
00:19:22,160 --> 00:19:24,160
Dat zit vol met clichés.

402
00:19:24,160 --> 00:19:30,160
Waarom zou daar niet gewoon een avatar dat kunnen inspreken?

403
00:19:30,160 --> 00:19:33,160
En dan hebben we het wel over vervangen van mensen.

404
00:19:33,160 --> 00:19:37,160
En jij zei ook van, ik ga nog een klein stapje verder.

405
00:19:37,160 --> 00:19:40,160
Je zei ook van, ik heb het in de nacht geleerd.

406
00:19:40,160 --> 00:19:42,160
Je bent eigenlijk opgeklommen.

407
00:19:42,160 --> 00:19:44,160
Je hebt steeds meer ervaring opgedaan.

408
00:19:44,160 --> 00:19:49,160
Waardoor je uiteindelijk ook op stukken mag zitten in de programmering.

409
00:19:49,160 --> 00:19:51,160
Waar je ervaren moet zijn.

410
00:19:51,160 --> 00:19:57,160
Maar als je dat weghaalt, het deel kunnen leren omdat je dat vervangt door de AI.

411
00:19:57,160 --> 00:19:59,160
Hoe ga je dan nog het vak leren?

412
00:19:59,160 --> 00:20:02,160
Ja, dat vind ik interessant inderdaad.

413
00:20:02,160 --> 00:20:07,160
Want kijk, nu stel we zouden alle office hours, dus niet de middag of de ochtend.

414
00:20:07,160 --> 00:20:09,160
Maar alles daartussen door AI laten doen.

415
00:20:09,160 --> 00:20:11,160
Dan heb je nu nog wel die grote namen.

416
00:20:11,160 --> 00:20:13,160
Maar die worden ook steeds ouder.

417
00:20:13,160 --> 00:20:17,160
Dus je hebt niemand nieuws meer die het vak uiteindelijk leert.

418
00:20:17,160 --> 00:20:20,160
Dus zo kreeg je eigenlijk je eigen dood van radio.

419
00:20:20,160 --> 00:20:25,160
Of we nemen gewoon, dat zie je ook op bepaalde vakken, we nemen gewoon genoegen met minder.

420
00:20:25,160 --> 00:20:28,160
Dat we gewoon zo gewend zijn geraakt aan, ja dit is nou eenmaal de standaard.

421
00:20:28,160 --> 00:20:32,160
Ik hoef geen dj meer die vertelt over zijn persoonlijke verhalen.

422
00:20:32,160 --> 00:20:34,160
En zijn eigen blik daarop geeft.

423
00:20:34,160 --> 00:20:38,160
Dat kan ook de kans zijn waar het op gaat.

424
00:20:38,160 --> 00:20:40,160
Eigenlijk hoop ik persoonlijk gezegd niet.

425
00:20:40,160 --> 00:20:42,160
Ik vind het juist wel lekker als ik in de auto zit.

426
00:20:42,160 --> 00:20:45,160
Gewoon aan praten met mensen die hun eigen perspectieven delen.

427
00:20:45,160 --> 00:20:49,160
Onder dat ze denken over bepaalde thema's waar je het helemaal niet mee eens bent.

428
00:20:49,160 --> 00:20:51,160
Ik hoop toch dat dat wel blijft.

429
00:20:51,160 --> 00:20:53,160
Ja dat hoop ik ook.

430
00:20:53,160 --> 00:20:55,160
En tegelijkertijd, het scheelt.

431
00:20:55,160 --> 00:20:57,160
Bellers, mensen die ingebeld worden.

432
00:20:57,160 --> 00:20:58,160
Dat stukje items is ook altijd leuk.

433
00:20:58,160 --> 00:21:00,160
Nou je hebt volgens mij Radio GPT.

434
00:21:00,160 --> 00:21:03,160
En ik hoorde een AI met een luisteraar bellen.

435
00:21:03,160 --> 00:21:05,160
Gewoon reageren op vragen.

436
00:21:05,160 --> 00:21:07,160
Toen dacht ik, dat klonk niet slecht.

437
00:21:07,160 --> 00:21:09,160
En het was een heel basisgesprek.

438
00:21:09,160 --> 00:21:11,160
Dit concert, gefeliciteerd je hebt gewonnen.

439
00:21:11,160 --> 00:21:14,160
Dus als het inhoudelijk zou worden, zou dat programma een probleem krijgen.

440
00:21:14,160 --> 00:21:20,160
Maar ik zou geen Radio GPT aan de telefoon willen hebben als ik naar de radio bel.

441
00:21:20,160 --> 00:21:23,160
Maar ik zie ook heel veel opties.

442
00:21:23,160 --> 00:21:27,160
Wat ik al zei, om de basisdingen en zo'n studiosport wat jij net uitlegt.

443
00:21:27,160 --> 00:21:29,160
Is dat echt nodig?

444
00:21:29,160 --> 00:21:31,160
Dat iemand daar, hoeveel zal het zijn?

445
00:21:31,160 --> 00:21:33,160
80k per jaar verdient.

446
00:21:33,160 --> 00:21:35,160
Omdat aan elkaar, het zijn wel belastingcenten.

447
00:21:35,160 --> 00:21:38,160
En op een gegeven moment hebben ze ook de omroepers weggehaald.

448
00:21:38,160 --> 00:21:42,160
Eerst werden ook nog televisieprogramma's aan elkaar gepraat.

449
00:21:42,160 --> 00:21:47,160
Iemand achter zijn kastje, die zei van, we gaan nu kijken naar talenten in de lucht.

450
00:21:47,160 --> 00:21:49,160
Nou, dat bedoel ik.

451
00:21:49,160 --> 00:21:51,160
Dat zag je, heb ik misschien gemist.

452
00:21:51,160 --> 00:21:53,160
Ik weet dat bestond, ik heb het niet meegemaakt.

453
00:21:53,160 --> 00:21:55,160
GELACH

454
00:21:55,160 --> 00:21:57,160
Maar dat soort dingen bedoel ik.

455
00:21:57,160 --> 00:21:59,160
En dat zijn inderdaad banen van mensen.

456
00:21:59,160 --> 00:22:04,160
Maar ik denk dan ook, er zijn zoveel banen de afgelopen tijd vervangen.

457
00:22:04,160 --> 00:22:06,160
Bijgekomen ook.

458
00:22:06,160 --> 00:22:10,160
Dus voor alles wat weggaat, denk ik dat er ook weer genoeg bij komt.

459
00:22:10,160 --> 00:22:13,160
En dan kom je in het cliché, je moet een growth mindset hebben.

460
00:22:13,160 --> 00:22:15,160
Zodat je kan meekomen. Maar het is wel een beetje zo.

461
00:22:15,160 --> 00:22:21,160
En wanneer gaan we de eerste tophit krijgen die volledig gemaakt is door AI?

462
00:22:21,160 --> 00:22:23,160
Die was er al hè?

463
00:22:23,160 --> 00:22:24,160
Ja?

464
00:22:24,160 --> 00:22:26,160
Ja, er was een hit van Drake & The Weeknd.

465
00:22:26,160 --> 00:22:29,160
Maar die was eigenlijk niet van Drake & The Weeknd.

466
00:22:29,160 --> 00:22:33,160
Maar was er ook de muziek met AI gemaakt?

467
00:22:33,160 --> 00:22:35,160
Nee, volgens mij was het alleen de stemmen.

468
00:22:35,160 --> 00:22:37,160
Maar ik heb wel eens aangerommeld.

469
00:22:37,160 --> 00:22:40,160
Ik heb een podcast Affirmaties met Beats.

470
00:22:40,160 --> 00:22:42,160
En de beats worden gemaakt door beatmakers.

471
00:22:42,160 --> 00:22:45,160
Maar ik dacht, wat als ik zelf zo'n beat kan maken met beeld van AI?

472
00:22:45,160 --> 00:22:49,160
Nog niet heel erg goed, maar dat zal ongetwijfeld snel heel erg goed gaan worden.

473
00:22:49,160 --> 00:22:52,160
En je ziet het wel steeds meer gebeuren dat er een aantal artiesten,

474
00:22:52,160 --> 00:22:56,160
waaronder John Legend, heeft een deal gesloten met YouTube.

475
00:22:56,160 --> 00:23:01,160
Dat andere content creators zijn stem mogen gebruiken voor hun producties.

476
00:23:01,160 --> 00:23:03,160
Dat is echt vorige week of zo.

477
00:23:03,160 --> 00:23:05,160
Echt waar? O, dat heb ik gemist.

478
00:23:05,160 --> 00:23:09,160
Dus je ziet dat er langzaam al artiesten zijn die zijn er heel erg tegen.

479
00:23:09,160 --> 00:23:12,160
En artiesten van, nou ja, is goed, laten we maar kijken.

480
00:23:12,160 --> 00:23:15,160
Ik weet nog niet wie het was, een andere vrouwelijke artiest die zei van,

481
00:23:15,160 --> 00:23:18,160
ja, ik vind het leuk als fans met mijn stem aan de slag gaan

482
00:23:18,160 --> 00:23:20,160
en kijken wat ze daarvan kunnen maken.

483
00:23:20,160 --> 00:23:22,160
O, wow. Wat open.

484
00:23:22,160 --> 00:23:26,160
Ja. En aan de andere kant, de rechten wise is dat natuurlijk,

485
00:23:26,160 --> 00:23:29,160
ik zat laatst bij een, het ging over muziek en AI,

486
00:23:29,160 --> 00:23:34,160
en dat de AI's worden getraind met muziek van artiesten.

487
00:23:34,160 --> 00:23:36,160
En dan kon je opzoeken of jouw liedje getraind werd.

488
00:23:36,160 --> 00:23:38,160
En een liedje van Maan zat daarin.

489
00:23:38,160 --> 00:23:40,160
En Maan kan daar niet zoveel aan doen.

490
00:23:40,160 --> 00:23:42,160
Je kan hoogstens mailen, haal me uit het algoritme.

491
00:23:42,160 --> 00:23:46,160
Maar haar muziek wordt al gebruikt om dat te trainen,

492
00:23:46,160 --> 00:23:49,160
waardoor ik straks zei, ik maak een Maan liedje.

493
00:23:49,160 --> 00:23:52,160
En dat kan, en Maan kan dan niks doen.

494
00:23:52,160 --> 00:23:54,160
Als het eenmaal in dat systeem zit.

495
00:23:54,160 --> 00:23:59,160
Dus daar is een hele interessante ontwikkeling voor muzikanten

496
00:23:59,160 --> 00:24:01,160
en rechten wise.

497
00:24:01,160 --> 00:24:05,160
De Grammy's hebben al gezegd dat ze geen AI liedjes toelaten.

498
00:24:05,160 --> 00:24:07,160
Maar ja. -Tot hoe lang?

499
00:24:07,160 --> 00:24:09,160
Dat zeggen ze nu. -Tot een bepaald punt moeten ze wel.

500
00:24:09,160 --> 00:24:11,160
Dat denk ik ook.

501
00:24:11,160 --> 00:24:14,160
Zeker als er straks hele grote artiesten komen die het...

502
00:24:14,160 --> 00:24:16,160
Samenwerken met. -Ja, samenwerken met.

503
00:24:16,160 --> 00:24:20,160
Of dat toch. Dan ben ik wel benieuwd hoe stellig ze daarin blijven.

504
00:24:20,160 --> 00:24:22,160
Ik ook. -Ja.

505
00:24:22,160 --> 00:24:24,160
Dat vind ik wel spannend.

506
00:24:24,160 --> 00:24:28,160
Ik hou wel echt ook van muziek, van live muziek, van instrumenten.

507
00:24:28,160 --> 00:24:30,160
Misschien nog een beetje oldschool.

508
00:24:30,160 --> 00:24:32,160
Maar ik ga graag naar het North Sea Jazz Festival.

509
00:24:32,160 --> 00:24:36,160
En ja, ik zou het ook vinden als ik daar een hologram zie.

510
00:24:36,160 --> 00:24:38,160
En alles is computergestuurd.

511
00:24:38,160 --> 00:24:40,160
Maar ik denk dat het altijd wel zo blijft worden.

512
00:24:40,160 --> 00:24:42,160
Echt artiesten, echt instrumenten.

513
00:24:42,160 --> 00:24:46,160
Maar ik denk dat er wel een stroming gaat komen met echt AI gedreven muziek.

514
00:24:46,160 --> 00:24:48,160
En de hulp van AI is niet erg.

515
00:24:48,160 --> 00:24:50,160
Net zoals autotune en synthesizers.

516
00:24:50,160 --> 00:24:52,160
Dat is ook allemaal hulptools.

517
00:24:52,160 --> 00:24:54,160
Maar als je het echt alleen maar...

518
00:24:54,160 --> 00:24:58,160
Als ik nu, ik ben geen muzikant, maar in mijn kamertje zit en ik kan een hit schrijven...

519
00:24:58,160 --> 00:25:00,160
dan maak ik me wel een beetje zorgen.

520
00:25:00,160 --> 00:25:02,160
Maar is het creatief?

521
00:25:02,160 --> 00:25:04,160
Ja, op een manier.

522
00:25:04,160 --> 00:25:06,160
Dat is het ook met ChatGPT.

523
00:25:06,160 --> 00:25:08,160
Je moet wel de juiste input geven.

524
00:25:08,160 --> 00:25:10,160
Ik heb veel mensen die zeggen, het werkt niet.

525
00:25:10,160 --> 00:25:13,160
Het is heel basic. Ja, maar je geeft het niet de juiste input.

526
00:25:13,160 --> 00:25:15,160
Ik ben groot fan van Kendrick Lamar.

527
00:25:15,160 --> 00:25:18,160
Als ik nu al zijn lyrics erin gooi en zeg, schrijf zo'n tekst.

528
00:25:18,160 --> 00:25:20,160
En het is goed.

529
00:25:20,160 --> 00:25:27,160
Dan ben ik op een soort manier creatief-achtig bezig.

530
00:25:27,160 --> 00:25:29,160
Ik denk hardop.

531
00:25:29,160 --> 00:25:31,160
Wat vind je zelf?

532
00:25:31,160 --> 00:25:34,160
Ik denk zelf, dat je het net heel goed verwoordt.

533
00:25:34,160 --> 00:25:37,160
Jij bent creatief bezig.

534
00:25:37,160 --> 00:25:41,160
Dus je gebruikt middelen om creatief bezig te zijn.

535
00:25:41,160 --> 00:25:42,160
Ja.

536
00:25:42,160 --> 00:25:44,160
Snap je?

537
00:25:44,160 --> 00:25:46,160
Ik zet even te kijken welke nuancen je nu precies schrijft.

538
00:25:46,160 --> 00:25:48,160
Ik ben bezig, maar niet creatief.

539
00:25:48,160 --> 00:25:50,160
Het AI is niet creatief.

540
00:25:50,160 --> 00:25:58,160
Ik bedoel eigenlijk, het AI is niet echt creatief, maar je bent creatief met de dingen die je aangereikt krijgt.

541
00:25:58,160 --> 00:26:01,160
Ja, net zoals als ik een rijm zou schrijven.

542
00:26:01,160 --> 00:26:04,160
Ik ga naar een rijmwoordenboek. Wat rijmt er op Go Pro?

543
00:26:04,160 --> 00:26:07,160
Is dat creatief? Nee.

544
00:26:07,160 --> 00:26:09,160
Want je hebt een heel tool.

545
00:26:09,160 --> 00:26:11,160
Dus het is een tool.

546
00:26:11,160 --> 00:26:14,160
Je moet nu voorzichtig zijn met wat ik zeg, want ik ken heel veel muzikanten.

547
00:26:14,160 --> 00:26:16,160
Dus ik wil ze niet in de vingers rijden.

548
00:26:16,160 --> 00:26:19,160
Maar het is wel gewoon een tool uiteindelijk.

549
00:26:19,160 --> 00:26:20,160
Zeker.

550
00:26:20,160 --> 00:26:22,160
Maar we moeten ook voorzichtig mee zijn.

551
00:26:22,160 --> 00:26:23,160
Ja, absoluut.

552
00:26:23,160 --> 00:26:26,160
We hebben nu vooral over radio gehad.

553
00:26:26,160 --> 00:26:30,160
Zie je in media nog andere ontwikkelingen met behulp van AI?

554
00:26:30,160 --> 00:26:34,160
Sublime valt onder media huis.

555
00:26:34,160 --> 00:26:38,160
En daar zit ook heel veel kranten, NRC, Telegraaf, Dumpert, van alles onder.

556
00:26:38,160 --> 00:26:43,160
Je merkt dat ook daar in ons intranet zie ik continu staan.

557
00:26:43,160 --> 00:26:46,160
Volg deze AI workshop vooral voor de geprinte media.

558
00:26:46,160 --> 00:26:49,160
Hoe zij samenvattingen kunnen maken.

559
00:26:49,160 --> 00:26:52,160
Dus daar merk ik ook wel veranderingen.

560
00:26:52,160 --> 00:26:55,160
Ik was zelf een tijd geleden door de Volkskrant gevraagd om iets te testen.

561
00:26:55,160 --> 00:26:57,160
Te kijken of ik een artikeltje kon schrijven.

562
00:26:57,160 --> 00:26:59,160
Ik was naar een concert geweest van Lauren Hill.

563
00:26:59,160 --> 00:27:01,160
Was niet zo heel goed helaas.

564
00:27:01,160 --> 00:27:04,160
Maar ik heb toen gewoon de basis geschreven.

565
00:27:04,160 --> 00:27:05,160
Eigenlijk zoals ik het zou schrijven.

566
00:27:05,160 --> 00:27:09,160
En toen ook door ChatGPT gehaald en gezegd van maak het in de stijl van de Volkskrant.

567
00:27:09,160 --> 00:27:13,160
En ook gewoon eerlijk gezegd van ja, dit is er al aangepast.

568
00:27:13,160 --> 00:27:17,160
En ik denk dat die tools ook wel gebruikt kunnen worden voor samenvattingen.

569
00:27:17,160 --> 00:27:20,160
Als het alleen maar makkelijk voort.

570
00:27:20,160 --> 00:27:24,160
Net zo goed als dat we een rekenmachine gebruiken om de moeilijke rekensommen te doen.

571
00:27:24,160 --> 00:27:29,160
Waarom zou je niet dat laatste moeilijke taalstukje even door de taalmachine laten doen?

572
00:27:29,160 --> 00:27:30,160
Precies, dat denk ik ook.

573
00:27:30,160 --> 00:27:33,160
En tegelijkertijd een vriendin van mij die heel erg taalpurist is.

574
00:27:33,160 --> 00:27:35,160
Schrijfpurist. Die vond het niet kunnen.

575
00:27:35,160 --> 00:27:39,160
Want die zegt ja, ik hou van schrijven en ik zit hier vijf uur aan een stuk te schrijven.

576
00:27:39,160 --> 00:27:41,160
Ja, dan ben je een beetje stom bezig.

577
00:27:41,160 --> 00:27:45,160
Maar ja, ik snap haar ook wel.

578
00:27:45,160 --> 00:27:48,160
Want het is ook die angst weer voor mijn vak.

579
00:27:48,160 --> 00:27:52,160
Dat vak waar ik jarenlang journalistiek voor heb gestudeerd gaat weg.

580
00:27:52,160 --> 00:27:54,160
Maar je kan wel een grotere doelgroep aanspreken.

581
00:27:54,160 --> 00:27:57,160
Dus als jij altijd een bepaalde manier schrijft.

582
00:27:57,160 --> 00:27:59,160
Een bepaalde doelgroep leest op jouw stijl.

583
00:27:59,160 --> 00:28:04,160
Dan kan je wel zeggen, ja dan schrijf ik voor de 18-jarige jongen die op straat hangt.

584
00:28:04,160 --> 00:28:06,160
Of dan schrijf ik voor een bejaarde man in een bejaardentehuis.

585
00:28:06,160 --> 00:28:09,160
Ja, maar ook voor laaggeletterden.

586
00:28:09,160 --> 00:28:13,160
Dat is geweldig dat je kan zeggen van, weet je, je hebt gewoon van die taalniveaus.

587
00:28:13,160 --> 00:28:16,160
Dus als je zegt, ja schrijf dit voor B1 niveau.

588
00:28:16,160 --> 00:28:18,160
Dat is echt zo fijn is dat.

589
00:28:18,160 --> 00:28:24,160
Ik vraag me ook inderdaad om bepaalde technische termen uit te leggen.

590
00:28:24,160 --> 00:28:25,160
En dat vraag ik heel vaak.

591
00:28:25,160 --> 00:28:28,160
Leg het eens uit aan een kind van acht à negen jaar.

592
00:28:28,160 --> 00:28:30,160
Dan komen de analogieën naar boven.

593
00:28:30,160 --> 00:28:31,160
Die kom je zelf niet direct op.

594
00:28:31,160 --> 00:28:34,160
Maar die analogie, dat is hetgene wat je er dan uitpakt.

595
00:28:34,160 --> 00:28:36,160
En daar kan je met een slag de rest van de tekst laag meestal zitten.

596
00:28:36,160 --> 00:28:38,160
Maar die analogie kom je niet altijd op.

597
00:28:38,160 --> 00:28:42,160
En daar helpt hij je zijn, in het creatief zijn helpt hij je daarbij inderdaad.

598
00:28:42,160 --> 00:28:43,160
Ja, dat geloof ik.

599
00:28:43,160 --> 00:28:45,160
En inderdaad, het is echt toegankelijk ook voor de rest van de wereld.

600
00:28:45,160 --> 00:28:49,160
Je hebt nu al volgens mij Spotify Podcast is daar mee aan het experimenteren.

601
00:28:49,160 --> 00:28:50,160
Maar dat kan ook voor radio.

602
00:28:50,160 --> 00:28:55,160
Dat als ik mijn show maak, dat het in alle talen van de wereld beschikbaar kan worden.

603
00:28:55,160 --> 00:29:00,160
Dus dat je wereldwijd, mijn eigen podcast had ik vaak te denken, ik wil hem ook in het Engels doen.

604
00:29:00,160 --> 00:29:02,160
En mijn Engels is op zich best wel goed.

605
00:29:02,160 --> 00:29:05,160
Maar nu kan ik, hoef ik dat niet eens opnieuw in te spreken.

606
00:29:05,160 --> 00:29:09,160
Kan je gewoon met je eigen stem, volgens mij hoorde ik jullie daar ook in een episode over praten.

607
00:29:09,160 --> 00:29:12,160
Met je eigen stem gewoon in elke taal beschikbaar.

608
00:29:12,160 --> 00:29:15,160
En ik denk dat dat echt een grote verandering wordt.

609
00:29:15,160 --> 00:29:21,160
Dat we zeg maar zo makkelijk in onze eigen moedertaal dit gesprek hebben.

610
00:29:21,160 --> 00:29:26,160
En dat je dat dan wereldwijd zo direct kan uitzenden.

611
00:29:26,160 --> 00:29:28,160
Ja, een grote doelgroep dan.

612
00:29:28,160 --> 00:29:32,160
Dat vind ik echt een hele interessante.

613
00:29:32,160 --> 00:29:35,160
Wel meer concurrenten.

614
00:29:35,160 --> 00:29:37,160
Meer concurrenten, zeker weten.

615
00:29:37,160 --> 00:29:39,160
Dat is ook waarom wij het in het Nederlands nu doen.

616
00:29:39,160 --> 00:29:42,160
Omdat er zijn zoveel Engelstalige AI podcast.

617
00:29:42,160 --> 00:29:48,160
En ik denk dat het heel interessant is om dat ook gewoon te projecteren op Nederlands.

618
00:29:48,160 --> 00:29:50,160
Maar ook in het Nederlands erover te praten.

619
00:29:50,160 --> 00:29:55,160
En het praat ook makkelijker als je gewoon in je eigen taal bent.

620
00:29:55,160 --> 00:29:59,160
Maar als dit zo flawless met onze eigen stemmen naar het Chinees kan worden vertaald.

621
00:29:59,160 --> 00:30:00,160
Ja, toch?

622
00:30:00,160 --> 00:30:02,160
Spaanse.

623
00:30:02,160 --> 00:30:05,160
Moet je kijken als je het in het Spaans zou kunnen, wat je in de bereik zou hebben.

624
00:30:05,160 --> 00:30:07,160
Je had het ook over synthetische stemmen.

625
00:30:07,160 --> 00:30:11,160
Wij hebben ook een synthetische stem die wij in de podcast hebben.

626
00:30:11,160 --> 00:30:15,160
Dat is Aisha, onze virtuele co-host.

627
00:30:15,160 --> 00:30:20,160
Waar wij trouwens voor gekozen hebben om die ook zo te laten klinken.

628
00:30:20,160 --> 00:30:23,160
Dat het ook duidelijk is dat het synthetisch is.

629
00:30:23,160 --> 00:30:26,160
Ik zou betere stemmen kunnen gebruiken.

630
00:30:26,160 --> 00:30:28,160
Ik heb heel specifiek gekozen.

631
00:30:28,160 --> 00:30:30,160
We hebben getest inderdaad.

632
00:30:30,160 --> 00:30:33,160
Je hebt nu de nieuwe stemmen van OpenAI.

633
00:30:33,160 --> 00:30:35,160
En die zijn geweldig in het Engels.

634
00:30:35,160 --> 00:30:37,160
Oh ja, Nederlands.

635
00:30:37,160 --> 00:30:40,160
En ze zeggen we ondersteunen Nederlands.

636
00:30:40,160 --> 00:30:44,160
Maar als je die dan Nederlands laat praten, krijg je er echt een heel vet Amerikaans accent erover.

637
00:30:44,160 --> 00:30:47,160
Maar er zijn ook nog andere betere stemmen.

638
00:30:47,160 --> 00:30:49,160
Ik had een veel betere Nederlandse stem kunnen kiezen.

639
00:30:49,160 --> 00:30:52,160
Maar ik denk dat het belangrijk is om nog onderscheid te maken.

640
00:30:52,160 --> 00:30:54,160
Wat is mens, wat is machine?

641
00:30:54,160 --> 00:30:59,160
Dus we hebben een machine stem die jou een vraag gaat stellen.

642
00:30:59,160 --> 00:31:01,160
Ik ben heel benieuwd naar Aisha.

643
00:31:01,160 --> 00:31:05,160
We hebben namelijk een jingle gemaakt voor Oranje.

644
00:31:05,160 --> 00:31:07,160
Zelf gemaakt?

645
00:31:07,160 --> 00:31:09,160
Ja.

646
00:31:09,160 --> 00:31:13,160
Deze jingle is voor een gedeelte met AI gemaakt.

647
00:31:13,160 --> 00:31:16,160
De stem is sowieso helemaal met AI.

648
00:31:16,160 --> 00:31:20,160
En muziek niet.

649
00:31:20,160 --> 00:31:22,160
Zelf ingespeeld?

650
00:31:22,160 --> 00:31:25,160
Nee, gevonden op het internet.

651
00:31:25,160 --> 00:31:28,160
Goed dat je hier bent.

652
00:31:28,160 --> 00:31:31,160
Ik ben Aisha, de AI hier.

653
00:31:31,160 --> 00:31:34,160
Zou je het goed vinden als ik je een vraag stel?

654
00:31:34,160 --> 00:31:36,160
Ja, dat mag.

655
00:31:36,160 --> 00:31:40,160
Wat zou je doen als je AI met je in discussie zou gaan over je muzieksmaak?

656
00:31:40,160 --> 00:31:43,160
Oeh.

657
00:31:43,160 --> 00:31:45,160
Dit is bijzonder, Joop.

658
00:31:45,160 --> 00:31:47,160
Voor de luisteraars.

659
00:31:47,160 --> 00:31:49,160
Wauw, waar komt die vraag vandaan?

660
00:31:49,160 --> 00:31:51,160
Die hebben jullie niet bedacht?

661
00:31:51,160 --> 00:31:53,160
Nee.

662
00:31:53,160 --> 00:31:55,160
Ze luisteren het gewoon mee?

663
00:31:55,160 --> 00:31:57,160
Nee, dit is echt puur toeval.

664
00:31:57,160 --> 00:31:59,160
Ze hebben iets van 100 of 150 vragen.

665
00:31:59,160 --> 00:32:01,160
En dat hij juist iets stelt over muziek?

666
00:32:01,160 --> 00:32:03,160
Ja.

667
00:32:03,160 --> 00:32:05,160
Slimmer dan we denken.

668
00:32:05,160 --> 00:32:09,160
Ik wil graag een discussie met AI over muzieksmaak.

669
00:32:09,160 --> 00:32:12,160
En hoe zou je dat voor je zien?

670
00:32:12,160 --> 00:32:15,160
Een discussie over muzieksmaak met AI?

671
00:32:15,160 --> 00:32:17,160
Ja.

672
00:32:17,160 --> 00:32:22,160
Ik ben benieuwd of AI me kan overtuigen of ik een goede of slechte muzieksmaak heb.

673
00:32:22,160 --> 00:32:24,160
Of dat ik iets anders moet gaan luisteren.

674
00:32:24,160 --> 00:32:26,160
Oh ja, grappig.

675
00:32:26,160 --> 00:32:30,160
Of dat ze misschien nog tips heeft gebaseerd op wat ik kan luisteren.

676
00:32:30,160 --> 00:32:32,160
Dat zou ook een leuke zijn.

677
00:32:32,160 --> 00:32:34,160
Ja.

678
00:32:34,160 --> 00:32:36,160
En bij jou Robin?

679
00:32:36,160 --> 00:32:40,160
Stel dat een AI met jou in discussie gaat over je muzieksmaak.

680
00:32:40,160 --> 00:32:42,160
Dan zou ik lekker een discussie voeren.

681
00:32:42,160 --> 00:32:44,160
Haha.

682
00:32:44,160 --> 00:32:46,160
Ja, uiteindelijk, ik heb een smaak en zij hebben een smaak.

683
00:32:46,160 --> 00:32:50,160
Dus ja, ik ben benieuwd waar zij mee komen.

684
00:32:50,160 --> 00:32:53,160
Ik hou wel van goede muziek discussies met vrienden.

685
00:32:53,160 --> 00:32:55,160
Dus benieuwd wat AI dan...

686
00:32:55,160 --> 00:33:00,160
Als AI zegt van Kendrick Lamar is de slechtste rapper, dan gaan we een pittige discussie hebben.

687
00:33:00,160 --> 00:33:02,160
Haha.

688
00:33:02,160 --> 00:33:04,160
Ja, dat is een goede vraag.

689
00:33:04,160 --> 00:33:06,160
Ja, ik denk dat het een goede vraag is.

690
00:33:06,160 --> 00:33:08,160
Ik denk dat het een goede vraag is.

691
00:37:14,160 --> 00:37:16,160
Dit vind ik wel heel tricky.

692
00:37:16,160 --> 00:37:18,160
De tarieven waren heel erg laag, vond ik.

693
00:37:18,160 --> 00:37:20,160
Je weet niet wat er gebeurt met je stem.

694
00:37:22,160 --> 00:37:24,160
Iedereen kan daarmee aan de haal.

695
00:37:24,160 --> 00:37:26,160
In één keer is hij niet meer van jou.

696
00:37:28,160 --> 00:37:30,160
Dat is in mijn geval een uniek kenmerk aan wie ik ben,

697
00:37:30,160 --> 00:37:32,160
hoe je mij herkent, waar ik voor sta.

698
00:37:32,160 --> 00:37:34,160
Mijn stem is heel belangrijk.

699
00:37:34,160 --> 00:37:36,160
Als ik dat aan iedereen verkoop,

700
00:37:36,160 --> 00:37:38,160
je hoort het me overal.

701
00:37:38,160 --> 00:37:40,160
Wat is dan nog de waarde als ik straks op een podium sta

702
00:37:40,160 --> 00:37:42,160
en iets sta te vertellen.

703
00:37:42,160 --> 00:37:44,160
Ik zou daar wel zeggenschap over willen hebben.

704
00:37:46,160 --> 00:37:48,160
Misschien dat ik zelf een model ga trainen.

705
00:37:48,160 --> 00:37:50,160
Misschien dat ik denk, voor deze commercial hier gebruik maar.

706
00:37:52,160 --> 00:37:54,160
Maar dat ik wel altijd zelf zeggenschap blijf hebben.

707
00:37:54,160 --> 00:37:56,160
Maar als ze gewoon een contract maken,

708
00:37:56,160 --> 00:37:58,160
voordat ze een opdracht krijgen,

709
00:37:58,160 --> 00:38:00,160
stuurt het naar jou door,

710
00:38:00,160 --> 00:38:02,160
mogen we je stem hiervoor gebruiken.

711
00:38:02,160 --> 00:38:04,160
Als ze een commercial hebben gemaakt,

712
00:38:04,160 --> 00:38:06,160
stuurt het naar je op,

713
00:38:06,160 --> 00:38:08,160
dat zou wel makkelijk zijn.

714
00:38:08,160 --> 00:38:10,160
Dan zou ik liever dat ik de stem heb getraind,

715
00:38:10,160 --> 00:38:12,160
en dat die niet ergens in een database van een bedrijf staat,

716
00:38:12,160 --> 00:38:14,160
dat gehakt kan worden,

717
00:38:14,160 --> 00:38:16,160
of dat ik opeens slechte intenties kan hebben,

718
00:38:16,160 --> 00:38:18,160
dat het gewoon in mijn beheer is.

719
00:38:18,160 --> 00:38:20,160
Ja, het bedrijf wordt verkocht en de stem is weg.

720
00:38:20,160 --> 00:38:22,160
Ja, jouw stem is jouw stem.

721
00:38:22,160 --> 00:38:24,160
Ja.

722
00:38:24,160 --> 00:38:26,160
Ja, en toch, wat mij dan komt is,

723
00:38:26,160 --> 00:38:28,160
technisch gezien, als we puur technisch kijken,

724
00:38:28,160 --> 00:38:30,160
is het dan mogelijk.

725
00:38:30,160 --> 00:38:32,160
Met alle radio die je maakt, iedereen die heeft genoeg content,

726
00:38:32,160 --> 00:38:34,160
en dat soort zaken.

727
00:38:34,160 --> 00:38:36,160
Alleen dan stem je er niet mee in.

728
00:38:36,160 --> 00:38:38,160
Nee, maar er is een verschil tussen kunnen en mogen.

729
00:38:38,160 --> 00:38:40,160
Ja, ja, ja.

730
00:38:40,160 --> 00:38:42,160
En als je hem zo op deze manier contractueel weggeeft,

731
00:38:42,160 --> 00:38:44,160
dan weet je echt niet meer.

732
00:38:44,160 --> 00:38:46,160
Straks zit je in een of andere reclame,

733
00:38:46,160 --> 00:38:48,160
waar iedereen zich kapot en erg haart,

734
00:38:48,160 --> 00:38:50,160
en waar je misschien helemaal niet achter staat.

735
00:38:50,160 --> 00:38:52,160
Maar ik vind, wat jij zei, vind ik ook wel spannend hoor.

736
00:38:52,160 --> 00:38:54,160
Want in principe, inderdaad,

737
00:38:54,160 --> 00:38:56,160
ik heb 13 jaar aan materiaal op radio.

738
00:38:56,160 --> 00:38:58,160
Als je dat ript, dan heb je echt een hele goede voice over.

739
00:38:58,160 --> 00:39:00,160
En dat kan.

740
00:39:00,160 --> 00:39:02,160
En er zijn geen rechten voor nog in Nederland,

741
00:39:02,160 --> 00:39:04,160
om mij te beschermen.

742
00:39:04,160 --> 00:39:06,160
Je hebt portretrecht, dat soort dingen,

743
00:39:06,160 --> 00:39:08,160
maar dat is niet bestaand.

744
00:39:08,160 --> 00:39:10,160
Ja, je ziet het af en toe op TikTok.

745
00:39:10,160 --> 00:39:12,160
Ik luister ook wel eens naar Joe Rogan's podcast.

746
00:39:12,160 --> 00:39:14,160
Zijn content ook wel eens.

747
00:39:14,160 --> 00:39:16,160
En je ziet echt veel video's.

748
00:39:16,160 --> 00:39:18,160
Bij het begin dacht ik echt dat hij het was.

749
00:39:18,160 --> 00:39:20,160
Dan ga je beter luisteren aan de verhalen.

750
00:39:20,160 --> 00:39:22,160
Vaak hele gekke verhalen.

751
00:39:22,160 --> 00:39:24,160
En heel veel, wat bijna niet waar kan zijn.

752
00:39:24,160 --> 00:39:26,160
Maar het lijkt wel of hij het echt vertelt in zijn podcast.

753
00:39:26,160 --> 00:39:28,160
En hij vertelt ook best wel vaak verhalen,

754
00:39:28,160 --> 00:39:30,160
over iets wat je niet weet, zeg maar.

755
00:39:30,160 --> 00:39:32,160
Dus dan ga je wel luisteren, denk ik.

756
00:39:32,160 --> 00:39:34,160
En aan het einde denk je van,

757
00:39:34,160 --> 00:39:36,160
nee, dat zal toch niet.

758
00:39:36,160 --> 00:39:38,160
Dan zie je het vaak en dan denk je, ja, dat is nep.

759
00:39:38,160 --> 00:39:40,160
En jij bent nog kritisch van, dat zal toch niet.

760
00:39:40,160 --> 00:39:42,160
Maar heel veel mensen denken, nou, dit ben je.

761
00:39:42,160 --> 00:39:46,160
En Joe Wogan is nog groot genoeg om daar een hele grote rechtszaak van te maken.

762
00:39:46,160 --> 00:39:50,160
Ik, het geldt niet voor die advocaat om daar zoiets groots van te maken.

763
00:39:50,160 --> 00:39:53,160
Dus zeker voor de wat kleinere stemmen,

764
00:39:53,160 --> 00:39:55,160
daar heb je wel echt een probleem.

765
00:39:55,160 --> 00:39:58,160
Ja, zeker nu zitten we, vandaag kunnen we stemmen dan.

766
00:39:58,160 --> 00:40:00,160
Misschien uitzonder niet, maar...

767
00:40:00,160 --> 00:40:02,160
Maar dan kun je ook bijvoorbeeld jouw stem,

768
00:40:02,160 --> 00:40:05,160
als een politieke partij, dat koppelt met een campagne van,

769
00:40:05,160 --> 00:40:07,160
ik sta achter puntje, puntje partij.

770
00:40:07,160 --> 00:40:12,160
Dan kan je wel een soort van heel veel mensen op jouw partij laten stemmen, zeg maar.

771
00:40:12,160 --> 00:40:14,160
Wat groot invloed heeft op andere dingen natuurlijk.

772
00:40:14,160 --> 00:40:18,160
Je moet het maar doorhebben. Ik zit ook niet de hele dag op TikTok te kijken of iemand een stem echt gebruikt.

773
00:40:18,160 --> 00:40:20,160
Dan kom je erachter.

774
00:40:20,160 --> 00:40:22,160
Zullen we op een vrolijke noot eindigen?

775
00:40:22,160 --> 00:40:24,160
Ja!

776
00:40:24,160 --> 00:40:28,160
Wat zou jouw droom zijn voor de aankomende periode,

777
00:40:28,160 --> 00:40:30,160
als je kijkt naar deze technologie?

778
00:40:30,160 --> 00:40:35,160
Mijn persoonlijke droom zou zijn om er ook echt mee te werken.

779
00:40:35,160 --> 00:40:38,160
En dan komt toch een beetje dat kleine meisje mij naar boven.

780
00:40:38,160 --> 00:40:41,160
Ik zou echt wel willen leren dat kunnen programmeren.

781
00:40:41,160 --> 00:40:44,160
Ik zou zelf zo'n stemmodel willen kunnen maken.

782
00:40:44,160 --> 00:40:47,160
Ik zou daar veel meer in the business.

783
00:40:47,160 --> 00:40:52,160
Ik kijk ook naar, we hadden voor de uitzending start een gesprek eventjes met wat jullie doen.

784
00:40:52,160 --> 00:40:58,160
En ik luisterde ernaar. Ik dacht, ah wat tof om gewoon daar zo op de voorgrond van die technologie te zitten.

785
00:40:58,160 --> 00:41:05,160
Dus ik zou daar gecombineerd met mijn liefde voor muziek wel echt wel veel meer echt in willen zitten.

786
00:41:05,160 --> 00:41:08,160
Het kunnen programmeren, het kunnen adviseren.

787
00:41:08,160 --> 00:41:10,160
Leuk!

788
00:41:10,160 --> 00:41:12,160
Ik ga je straks achter de schermen nog tips geven.

789
00:41:12,160 --> 00:41:15,160
Heel leuk! Gaan we doen! Super bedankt!

790
00:41:15,160 --> 00:41:20,160
Leuk dat je weer luisterde naar een aflevering van AIToday Live.

791
00:41:20,160 --> 00:41:23,160
Angelique en Robin, hartstikke bedankt dat jullie hier wilden zijn.

792
00:41:25,160 --> 00:41:29,160
Zorg dat je je abonneert via je favoriete podcast app.

793
00:41:29,160 --> 00:41:34,160
We gaan namelijk met Robin ook nog spreken en dan komt die aflevering vanzelf voorbij.

794
00:41:34,160 --> 00:41:35,160
Dankjewel!

795
00:41:35,160 --> 00:41:37,160
 

People on this episode