AIToday Live

S07E41 - Digitale weerbaarheid: Remmen om harder te kunnen gaan met Dave Maasland

Aigency by Info Support Season 7 Episode 41

Dave Maasland, CEO van ESET Nederland, deelt zijn visie op digitale weerbaarheid en AI in de podcast AIToday Live. Hij benadrukt het belang van aanpassingsvermogen in een snel veranderende digitale wereld en ziet kansen voor ondernemers die hun digitale weerbaarheid op orde hebben.

Maasland beschouwt AI als een hulpmiddel dat bestaande processen kan versnellen en verbeteren, zonder noodzakelijkerwijs nieuwe bedreigingen te creëren. Hij gebruikt AI zelf voor communicatiewerk en waardeert de mogelijkheid om eerlijke feedback te krijgen.

Dave pleit voor een centraal punt waar overheid, bedrijfsleven en cybersecurity-specialisten kunnen samenwerken aan digitale weerbaarheid. Hij is optimistisch over de technologische capaciteiten van Nederland en moedigt bedrijven aan om te beginnen met inspiratie als ze nog niet bezig zijn met AI en cybersecurity.

Onderwerpen

  • Digitale weerbaarheid en de reactie op cyberdreigingen
  • Kansen van AI voor bedrijven en innovatie
  • AI als hulpmiddel voor communicatie en feedback
  • Risico's van AI-implementatie in cybersecurity
  • Regulering van AI en de impact op innovatie
Links

Stuur ons een bericht

Doe mee met de 4e Community of Practice voor Generatieve AI op Hogeschool Windesheim! Mis het niet en schrijf je gratis in.

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:05,000
Vandaag hebben we een boeiend gesprek met Dave Maasland, CEO van ESET Nederland.

2
00:00:05,120 --> 00:00:10,880
Als cybersecurity-expert en bekend gezicht van tv-programma's zoals Vandaag Inside...

3
00:00:11,000 --> 00:00:15,480
deelt Dave zijn visie op digitale weerbaarheid en de kansen die AI biedt.

4
00:00:15,600 --> 00:00:17,639
Van cybermannetje tot visionair...

5
00:00:17,760 --> 00:00:21,160
hij laat zien hoe organisaties veiliger en innovatiever kunnen worden...

6
00:00:21,280 --> 00:00:23,879
in een snel veranderende digitale wereld.

7
00:00:24,000 --> 00:00:26,639
Een gesprek vol inspiratie, praktische tips...

8
00:00:26,639 --> 00:00:29,799
en een verfrissende kijk op technologie die je niet wilt missen.

9
00:00:33,379 --> 00:00:59,779
Joop Snijder: Hoi, leuk dat je luistert naar AIToday Live. We zitten nog steeds in de kleedkamer bij Beeld & Geluid. Een hele aparte omgeving. Onze gast kan zichzelf zien in de spiegel, kan 'ie kijken of hij goed is opgemaakt. Precies. Mijn naam Joop Snijder, CTO bij Aigency. 

10
00:00:59,819 --> 00:01:03,099
Joop Snijder: Als gast, Dave, geweldig dat je dit met ons wilt doen.

11
00:01:03,359 --> 00:01:04,419
Dave Maasland: Wil je jezelf

12
00:01:04,419 --> 00:01:05,639
Joop Snijder: eerst even voorstellen?

13
00:01:05,739 --> 00:01:09,339
Dave Maasland: Ja, natuurlijk. Dave Maasland, CEO voor ESET in Nederland.

14
00:01:09,459 --> 00:01:13,019
Dave Maasland: En we houden ons natuurlijk vooral bezig met die digitale veiligheid, digitale weerbaarheidskant.

15
00:01:13,459 --> 00:01:17,739
Dave Maasland: En ook van die hoedanigheid geven wij veel duiding bij nieuwsonderwerpen.

16
00:01:17,739 --> 00:01:20,819
Dave Maasland: Of als er iets gebeurt en proberen we ook echt buiten de technologie die wij maken.

17
00:01:21,339 --> 00:01:27,399
Dave Maasland: Ja, ook gewoon proberen een beeld te schetsen hoe wij kijken naar hoe we een iets veiligere toekomst kunnen creëren.

18
00:01:27,699 --> 00:01:29,879
Joop Snijder: En daar word je ook vaak in de media voor gevraagd.

19
00:01:30,539 --> 00:01:32,639
Dave Maasland: Ja, ik doe duiding bij een aantal programma's.

20
00:01:32,759 --> 00:01:34,899
Dave Maasland: Misschien waar mensen me wellicht wel eens gezien hebben.

21
00:01:35,219 --> 00:01:36,459
Dave Maasland: Is onder andere Vandaag Inside.

22
00:01:36,979 --> 00:01:38,499
Dave Maasland: En wat ik daar gewoon heel bijzonder aan vind.

23
00:01:38,619 --> 00:01:40,319
Dave Maasland: Dat programma You Hate It or You Love It.

24
00:01:40,439 --> 00:01:43,279
Dave Maasland: Maar het bereikt zo'n waanzinnig breed publiek.

25
00:01:44,399 --> 00:01:46,699
Dave Maasland: En het is ook een gedeelte van het publiek.

26
00:01:46,799 --> 00:01:49,559
Dave Maasland: Wat niet vaak is bezig geweest met dit soort thema's.

27
00:01:50,059 --> 00:01:51,899
Dave Maasland: Ja, en dan is het ook leuk als je wel eens bij een tankstation komt.

28
00:01:51,999 --> 00:01:54,939
Dave Maasland: En dan ben je, hey Dave, ik heb mijn tweeën va aangezet hoor.

29
00:01:55,379 --> 00:01:55,899
Dave Maasland: Nou ja, en

30
00:01:55,899 --> 00:01:57,339
Dave Maasland: dat is, ik kom daar van mijn onderwerp.

31
00:01:57,439 --> 00:01:58,419
Dave Maasland: En ik krijg die ruimte ook.

32
00:01:58,419 --> 00:01:59,199
Dave Maasland: Dat vind ik hartstikke leuk.

33
00:01:59,579 --> 00:02:01,739
Dave Maasland: En gekscherend of liefkozend, hoe je het wil noemen,

34
00:02:02,099 --> 00:02:03,459
Dave Maasland: hebben ze daar het cybermannetje van gemaakt.

35
00:02:03,579 --> 00:02:04,319
Dave Maasland: Dat vind ik eigenlijk prima.

36
00:02:04,619 --> 00:02:05,019
Joop Snijder: Het gaat

37
00:02:05,019 --> 00:02:05,659
Dave Maasland: ook om cyber.

38
00:02:06,319 --> 00:02:07,859
Dave Maasland: En niet om Dave Maasland of wat dan ook.

39
00:02:07,979 --> 00:02:09,219
Dave Maasland: Dus dat is hartstikke leuk.

40
00:02:09,609 --> 00:02:10,279
Joop Snijder: Ja, geweldig.

41
00:02:10,499 --> 00:02:12,639
Joop Snijder: En dan willen we eigenlijk meteen beginnen met...

42
00:02:12,839 --> 00:02:16,759
Joop Snijder: Want we zitten hier in het kader van Unlock Digitale Weerbaarheid en AI.

43
00:02:18,479 --> 00:02:20,459
Joop Snijder: Maar wat is eigenlijk digitale weerbaarheid?

44
00:02:21,559 --> 00:02:22,579
Dave Maasland: Nou, ik denk eigenlijk twee dingen.

45
00:02:22,609 --> 00:02:26,039
Dave Maasland: Ik denk dat weerbaarheid vooral gaat over als je op je gezicht wordt geslagen.

46
00:02:26,199 --> 00:02:27,739
Dave Maasland: Hoe snel je weer opstaat.

47
00:02:28,259 --> 00:02:30,959
Dave Maasland: En hoe snel je gezicht weer in orde is.

48
00:02:31,419 --> 00:02:32,279
Dave Maasland: Ik vind weerbaarheid.

49
00:02:32,319 --> 00:02:33,299
Dave Maasland: Ten opzichte van veiligheid.

50
00:02:33,379 --> 00:02:34,219
Dave Maasland: Veiligheid kan je zeggen.

51
00:02:34,239 --> 00:02:35,239
Dave Maasland: Dat heb je eigenlijk niet zelf in de hand.

52
00:02:35,879 --> 00:02:36,399
Dave Maasland: In de zin van.

53
00:02:36,579 --> 00:02:38,379
Dave Maasland: Een situatie kan opeens onveilig worden.

54
00:02:38,399 --> 00:02:39,338
Dave Maasland: Als je op de snelweg rijdt.

55
00:02:39,599 --> 00:02:39,918
Dave Maasland: 120.

56
00:02:40,198 --> 00:02:41,279
Dave Maasland: En er begint heel hard te sneeuwen.

57
00:02:41,679 --> 00:02:42,979
Dave Maasland: Dan moet je je aanpassen.

58
00:02:43,239 --> 00:02:44,599
Dave Maasland: Aan de veiligheidssituatie.

59
00:02:44,699 --> 00:02:45,539
Dave Maasland: Dat heb je zelf in de hand.

60
00:02:45,619 --> 00:02:46,059
Dave Maasland: Dus

61
00:02:46,059 --> 00:02:47,659
Dave Maasland: weerbaarheid is voor mij ook heel erg.

62
00:02:47,679 --> 00:02:48,699
Dave Maasland: Hoe reageer je.

63
00:02:49,718 --> 00:02:51,139
Dave Maasland: Op datgene wat er gebeurt.

64
00:02:51,739 --> 00:02:53,679
Dave Maasland: Ga je je gas inhouden.

65
00:02:53,779 --> 00:02:54,219
Dave Maasland: Loslaten.

66
00:02:54,539 --> 00:02:55,259
Dave Maasland: Ga je zeggen.

67
00:02:55,399 --> 00:02:57,539
Dave Maasland: Ik ga mijn ruitenwissers aanzetten of wat dan ook.

68
00:02:57,959 --> 00:02:59,819
Dave Maasland: En daar gaat weerbaarheid volgens mij heel erg over.

69
00:03:00,279 --> 00:03:01,459
Dave Maasland: Dat je niet altijd in de hand.

70
00:03:01,659 --> 00:03:03,659
Dave Maasland: We zitten nu in een AI tijdperk.

71
00:03:03,659 --> 00:03:05,099
Dave Maasland: We zitten in geopolitieke spanningen.

72
00:03:05,279 --> 00:03:07,199
Dave Maasland: De georganiseerde misdaad heeft cybercrime ontdekt.

73
00:03:07,539 --> 00:03:09,419
Dave Maasland: Dan kan je met alle ellende nog wel even doorgaan.

74
00:03:10,498 --> 00:03:12,419
Dave Maasland: En hoe je daarop reageert.

75
00:03:12,799 --> 00:03:13,619
Dave Maasland: Volgens mij gaat daar.

76
00:03:14,279 --> 00:03:16,079
Dave Maasland: Daar zit de kern van weerbaarheid volgens mij.

77
00:03:16,979 --> 00:03:17,699
Joop Snijder: En het leuke is.

78
00:03:18,359 --> 00:03:19,259
Joop Snijder: Ik heb jou ook horen zeggen.

79
00:03:19,439 --> 00:03:22,659
Joop Snijder: Er wordt natuurlijk heel erg naar de risico's gekeken.

80
00:03:22,799 --> 00:03:23,239
Dave Maasland: Maar jij ziet

81
00:03:23,239 --> 00:03:24,219
Joop Snijder: eigenlijk ook kansen.

82
00:03:24,359 --> 00:03:25,279
Joop Snijder: Voor ondernemers.

83
00:03:25,319 --> 00:03:29,579
Joop Snijder: en de zakelijke wereld voor bedrijven, juist rondom de digitale weerbaarheid.

84
00:03:30,159 --> 00:03:32,399
Dave Maasland: Ja, ik denk dat er enorm veel kansen zijn.

85
00:03:32,499 --> 00:03:37,699
Dave Maasland: En ik heb uiteindelijk die inspiratie ook mede uit een uitspraak van Mario Andretti,

86
00:03:37,839 --> 00:03:40,659
Dave Maasland: oud Formule 1-coureur geloof ik, voor mijn tijd niet zo'n Formule 1-fan.

87
00:03:41,139 --> 00:03:44,259
Dave Maasland: Maar die heeft een waanzinnige quote en die zegt ook veel Formule 1-coureurs denken

88
00:03:44,779 --> 00:03:46,879
Dave Maasland: dat er remmen in je auto zitten om je af te remmen.

89
00:03:47,309 --> 00:03:49,159
Dave Maasland: Maar het is zo dat je met vertrouwen hard kunt rijden.

90
00:03:50,099 --> 00:03:52,998
Dave Maasland: En volgens mij is het, niemand durft 300 kilometer per uur te rijden

91
00:03:53,019 --> 00:03:56,639
Dave Maasland: Dus je niet weet dat je vlak voor die bocht tot stilstand kan komen.

92
00:03:56,759 --> 00:03:59,639
Dave Maasland: Ik denk dat als je een gaaf nieuw idee hebt voor een mooi e-commerce platform.

93
00:03:59,849 --> 00:04:02,539
Dave Maasland: Of je kan een mooi product voor kinderen ontwikkelen, et cetera.

94
00:04:03,199 --> 00:04:06,859
Dave Maasland: Je moet zorgen dat je dat met vertrouwen kunt doen als je digitale weerbaarheid op orde is.

95
00:04:06,869 --> 00:04:09,059
Dave Maasland: Je gaat zien dat er steeds meer wetgeving komt.

96
00:04:09,159 --> 00:04:13,299
Dave Maasland: Dus grote organisaties gaan eisen van hun leveranciers dat ze hun spullen een beetje op orde hebben.

97
00:04:13,459 --> 00:04:15,039
Dave Maasland: Daarin kan je zelfvertrouwen laten zien.

98
00:04:15,439 --> 00:04:20,319
Dave Maasland: Ik denk dat als je met digitale weerbaarheid in orde is, dat je bedrijf er ook letterlijk duurzamer van wordt.

99
00:04:20,319 --> 00:04:22,399
Dave Maasland: Je kan tegen een stootje, je kan tegen een schokje.

100
00:04:22,899 --> 00:04:25,119
Dave Maasland: Je gaat beter kunnen innoveren.

101
00:04:25,199 --> 00:04:26,359
Dave Maasland: Je hebt je spullen beter voor elkaar.

102
00:04:26,479 --> 00:04:29,179
Dave Maasland: Je gaat, denk ik, die tender waar je je voor inschrijft...

103
00:04:29,179 --> 00:04:30,259
Dave Maasland: met meer vertrouwen kunnen doen.

104
00:04:30,759 --> 00:04:32,439
Dave Maasland: Dat maakt je bedrijf gewoon professioneler.

105
00:04:32,519 --> 00:04:34,019
Dave Maasland: En omdat het digitale weerbaarheid...

106
00:04:34,399 --> 00:04:36,959
Dave Maasland: zou je altijd moeten aanpassen op jouw risicoprofiel.

107
00:04:37,619 --> 00:04:38,999
Dave Maasland: Dus als jij Formule 1-coureur bent...

108
00:04:38,999 --> 00:04:40,099
Dave Maasland: dan moet je in de sportschool staan.

109
00:04:40,139 --> 00:04:40,999
Dave Maasland: Dan moet je allerlei dingen doen.

110
00:04:40,999 --> 00:04:43,419
Dave Maasland: Maar als jij gewoon af en toe naar de supermarkt rijdt...

111
00:04:43,419 --> 00:04:45,179
Dave Maasland: dan kan je misschien best in de Kia Picanto rijden.

112
00:04:45,179 --> 00:04:48,059
Dave Maasland: Dan hoef je niet een of andere gepantserd voertuig te hebben.

113
00:04:48,119 --> 00:04:49,559
Dave Maasland: En dat is het mooie van digitale weerbaarheid.

114
00:04:49,639 --> 00:04:51,059
Dave Maasland: Iedereen kan voor zichzelf nadenken.

115
00:04:51,239 --> 00:04:53,539
Dave Maasland: En hoe ver wil ik en kan ik daarin gaan?

116
00:04:53,589 --> 00:04:54,839
Dave Maasland: En elke organisatie kan dat ook.

117
00:04:55,189 --> 00:04:56,739
Joop Snijder: En welke rol speelt AI hierin?

118
00:04:57,849 --> 00:04:57,979
Joop Snijder: Nou,

119
00:04:58,009 --> 00:05:01,159
Dave Maasland: wat ik enorm interessant vind aan AI,

120
00:05:01,789 --> 00:05:03,439
Dave Maasland: en dat is in ieder geval de visie die ik nu heb,

121
00:05:03,469 --> 00:05:05,059
Dave Maasland: ook als je kijkt naar de cybersecurity kant.

122
00:05:05,779 --> 00:05:09,579
Dave Maasland: We zitten denk ik in een tijdperk dat het vooral superkrachten kan geven

123
00:05:09,629 --> 00:05:11,039
Dave Maasland: aan de dingen die je wellicht al doet.

124
00:05:11,839 --> 00:05:14,959
Dave Maasland: En dat vind ik zo gaaf, dat het misschien nog niet in de tijd,

125
00:05:15,049 --> 00:05:16,239
Dave Maasland: ook als je aan de dreigingen kant kijkt,

126
00:05:16,239 --> 00:05:17,939
Dave Maasland: dat AI hele nieuwe dingen creëert,

127
00:05:18,419 --> 00:05:20,539
Dave Maasland: maar iets wat voorheen misschien heel veel tijd kostte.

128
00:05:21,179 --> 00:05:22,659
Dave Maasland: Ik noem het voorbeeld in een organisatie.

129
00:05:22,919 --> 00:05:24,519
Dave Maasland: Iedereen heeft een informatiebeveiligingsbeleid.

130
00:05:25,039 --> 00:05:29,079
Dave Maasland: Maar ja, een HR-iemand leest dat misschien weer anders dan een salesmedewerker of een techneut.

131
00:05:29,539 --> 00:05:32,759
Dave Maasland: Nou ja, schrijft dit HR-beleid in drie verschillende doelgroepen op.

132
00:05:32,759 --> 00:05:34,219
Dave Maasland: Het is een hele simpele.

133
00:05:34,219 --> 00:05:37,599
Dave Maasland: Maar ik denk dat de schaalbaarheid van dingen die we willen doen,

134
00:05:37,799 --> 00:05:39,399
Dave Maasland: het idee tussen ideeën en uitvoering,

135
00:05:39,879 --> 00:05:42,659
Dave Maasland: AI kan dat gat zo enorm veel kleiner maken.

136
00:05:43,999 --> 00:05:49,019
Dave Maasland: Dus het hele interessante, die creatieve geesten die ondernemers zijn,

137
00:05:49,179 --> 00:05:53,579
Dave Maasland: Nieuwe ideeën uitproberen, sparren, het democratiseren van bepaalde kennis.

138
00:05:54,159 --> 00:05:55,679
Dave Maasland: Dat iedereen een eigen coach kan krijgen.

139
00:05:56,079 --> 00:06:00,459
Dave Maasland: Volgens mij zit er gewoon voor ondernemingen, om je onderneming sterker en beter te maken.

140
00:06:01,079 --> 00:06:05,159
Dave Maasland: Volgens mij zit er daar juist in deze termijn, waar we misschien vooral in het type van large language models,

141
00:06:05,639 --> 00:06:06,999
Dave Maasland: zitten we daar heel erg in.

142
00:06:07,359 --> 00:06:11,159
Niels Naglé: Dus eigenlijk hoor ik je net een mooie analogiemaker met de remming kunnen drukken.

143
00:06:11,199 --> 00:06:14,539
Niels Naglé: Maar dat kan ook het gaspedaal zijn om te kunnen versnellen binnen je organisatie.

144
00:06:15,159 --> 00:06:15,939
Dave Maasland: Ik denk dat je dat...

145
00:06:16,159 --> 00:06:17,419
Dave Maasland: Ja, mooi dat je die terugpakt.

146
00:06:17,599 --> 00:06:19,139
Dave Maasland: Ja, dat versnellen.

147
00:06:19,719 --> 00:06:21,919
Dave Maasland: Er zijn gewoon dingen die je met AI simpelweg,

148
00:06:22,049 --> 00:06:23,479
Dave Maasland: zeker als je weet wat je doet, of je nou een

149
00:06:23,479 --> 00:06:23,679
Joop Snijder: goede

150
00:06:23,679 --> 00:06:24,339
Dave Maasland: programmeur bent.

151
00:06:24,419 --> 00:06:26,759
Dave Maasland: Ik geloof niet dat programmeurs volledig vervangen.

152
00:06:26,859 --> 00:06:30,039
Dave Maasland: Ik denk als je nu een rockstar programmeur bent en AI gebruikt,

153
00:06:30,479 --> 00:06:31,839
Dave Maasland: dan ga je echt gave dingen doen.

154
00:06:32,199 --> 00:06:36,059
Dave Maasland: Als je een cyberscurity-analist bent, die al weet wat hij doet en AI gebruikt,

155
00:06:36,219 --> 00:06:36,999
Dave Maasland: dan ga je gave dingen.

156
00:06:37,079 --> 00:06:38,479
Dave Maasland: Als je een schrijver bent, die

157
00:06:38,479 --> 00:06:38,719
Dave Maasland: heel

158
00:06:38,719 --> 00:06:39,899
Dave Maasland: goed weet het publiek te pakken,

159
00:06:40,299 --> 00:06:42,779
Dave Maasland: maar ook nog is AI gebruikt, ga je nog beter worden.

160
00:06:42,779 --> 00:06:46,798
Dave Maasland: En volgens mij, ik vind het vooral ook, het is een mooie tool voor nieuwkomers,

161
00:06:47,379 --> 00:06:48,419
Dave Maasland: die gewoon willen experimenteren.

162
00:06:48,789 --> 00:06:51,579
Dave Maasland: Maar AI is ook een prachtige tool voor professionals.

163
00:06:52,759 --> 00:06:54,379
Dave Maasland: Om echt die buitencategorie te bereiken.

164
00:06:54,379 --> 00:06:55,759
Dave Maasland: En daar ben ik eigenlijk wel enthousiast.

165
00:06:55,819 --> 00:06:58,799
Dave Maasland: Mensen die echt weten wat ze doen, die AI gaan gebruiken.

166
00:06:58,839 --> 00:06:59,199
Dave Maasland: Red Bull.

167
00:06:59,749 --> 00:07:02,439
Dave Maasland: Die AI gebruikt om die analyse of die data nog beter te

168
00:07:02,439 --> 00:07:02,559
Joop Snijder: doen.

169
00:07:03,139 --> 00:07:06,039
Dave Maasland: Dan ga je naar een hele mooie wereld toe, denk ik.

170
00:07:06,299 --> 00:07:08,659
Joop Snijder: En waar heeft AI jouw vleugels gegeven dan?

171
00:07:09,599 --> 00:07:12,619
Dave Maasland: Nou, heel veel van mijn werk is communiceren.

172
00:07:13,279 --> 00:07:16,838
Dave Maasland: Dus jullie mogen best weten dat voor vrijwel alle Vandaag Inside optredens

173
00:07:16,879 --> 00:07:18,759
Dave Maasland: of ergens anders. AI, mijn

174
00:07:18,909 --> 00:07:19,199
Dave Maasland: PR en

175
00:07:19,199 --> 00:07:20,219
Dave Maasland: communicatiespecialist is.

176
00:07:21,199 --> 00:07:22,199
Dave Maasland: Met name omdat je zo

177
00:07:22,499 --> 00:07:24,779
Dave Maasland: een voorbeeld voor de mensen die het misschien wel eens gezien

178
00:07:24,789 --> 00:07:26,719
Dave Maasland: hebben of niet. V.I. een talkshow wat vrij

179
00:07:27,479 --> 00:07:28,739
Dave Maasland: informeel is. Dat kan nog wel eens alle

180
00:07:28,899 --> 00:07:30,879
Dave Maasland: kanten opschieten. De mannen aan tafel.

181
00:07:31,059 --> 00:07:32,179
Dave Maasland: Johan Derkse, René van der Grijp.

182
00:07:32,529 --> 00:07:34,599
Dave Maasland: Er is wel een draaiboek, maar dat is meer

183
00:07:34,939 --> 00:07:37,039
Dave Maasland: een wens dan dat het een script is.

184
00:07:37,639 --> 00:07:38,699
Dave Maasland: Dus als je een punt

185
00:07:38,859 --> 00:07:40,559
Dave Maasland: moet maken, dan moet die

186
00:07:40,959 --> 00:07:42,059
Dave Maasland: heel kort to the point zijn.

187
00:07:42,659 --> 00:07:43,759
Dave Maasland: En het maken van een goede

188
00:07:44,919 --> 00:07:46,319
Dave Maasland: hoofdboodschap. Eén die blijft hangen,

189
00:07:46,479 --> 00:07:47,679
Dave Maasland: Eén die je kan herhalen.

190
00:07:48,519 --> 00:07:49,539
Dave Maasland: En daar heb ik talloze van.

191
00:07:49,639 --> 00:07:50,359
Dave Maasland: Ja, daar is AI.

192
00:07:50,839 --> 00:07:53,619
Dave Maasland: Dus om op acht borden gelijk te schaken.

193
00:07:53,699 --> 00:07:55,019
Dave Maasland: Ik moet misschien daar een interview geven.

194
00:07:55,139 --> 00:07:56,379
Dave Maasland: Ik moet een interne e-mail schrijven.

195
00:07:56,379 --> 00:07:57,319
Dave Maasland: Een presentatie maken.

196
00:07:58,018 --> 00:08:01,299
Dave Maasland: Mij helpen beter en duidelijker te communiceren.

197
00:08:01,459 --> 00:08:03,379
Dave Maasland: Want heel veel is in mijn werkding communiceren.

198
00:08:03,439 --> 00:08:05,399
Dave Maasland: Mensen proberen van A naar B te bewegen.

199
00:08:06,238 --> 00:08:09,539
Dave Maasland: Ik kan haast wel zeggen dat het voor mij een beetje onmisbaar is geworden.

200
00:08:10,139 --> 00:08:11,099
Dave Maasland: Als ik gewoon eerlijk ben.

201
00:08:11,279 --> 00:08:12,919
Joop Snijder: Ja, ik kan me heel

202
00:08:12,919 --> 00:08:13,419
Dave Maasland: goed in

203
00:08:13,419 --> 00:08:13,739
Joop Snijder: vinden.

204
00:08:13,939 --> 00:08:15,239
Joop Snijder: Want uiteindelijk geldt dat voor ons

205
00:08:15,239 --> 00:08:15,479
Dave Maasland: ook.

206
00:08:16,199 --> 00:08:16,739
Dave Maasland: Wij bereiden

207
00:08:16,739 --> 00:08:17,459
Joop Snijder: dit ook voor.

208
00:08:18,579 --> 00:08:19,719
Joop Snijder: Ik zou dat ook niet meer...

209
00:08:20,779 --> 00:08:22,259
Joop Snijder: Ja, natuurlijk kan het wel.

210
00:08:22,559 --> 00:08:23,139
Joop Snijder: Dat vooral.

211
00:08:24,259 --> 00:08:29,139
Niels Naglé: En de tijd hebben om de hoekjes waar je eigenlijk in wil duiken, die kunnen vinden.

212
00:08:29,199 --> 00:08:30,479
Niels Naglé: Daar heb je echt de tijd voor nodig.

213
00:08:30,719 --> 00:08:34,839
Niels Naglé: En eigenlijk gaat de eerste grote bulk van tijd in het begin nog zitten.

214
00:08:35,438 --> 00:08:38,618
Niels Naglé: En eigenlijk wil je dat sneller kunnen doen om eigenlijk de niche vragen,

215
00:08:39,259 --> 00:08:41,159
Niels Naglé: de niche onderwerpen te kunnen behandelen.

216
00:08:41,239 --> 00:08:42,599
Niels Naglé: En daar heb je weer tijd voor inderdaad.

217
00:08:42,719 --> 00:08:43,078
Niels Naglé: Weet je wat ik

218
00:08:43,078 --> 00:08:44,259
Dave Maasland: ook heerlijk vind aan AI?

219
00:08:44,619 --> 00:08:47,579
Dave Maasland: dat op het moment dat ik in een soort flow zit,

220
00:08:47,649 --> 00:08:49,539
Dave Maasland: of ik een idee uitwerk, of ik wil een mailschrijven,

221
00:08:49,539 --> 00:08:50,459
Dave Maasland: ik ben er erg enthousiast over.

222
00:08:51,099 --> 00:08:53,819
Dave Maasland: Het probleem is natuurlijk vaak dat het of er niet gestructureerd uitkomt,

223
00:08:53,899 --> 00:08:55,439
Dave Maasland: of ik heb spelfouten of andere dingen.

224
00:08:55,579 --> 00:08:57,379
Dave Maasland: Dus je bent eigenlijk heel veel als je een e-mail aan het schrijven bent,

225
00:08:57,379 --> 00:08:59,819
Dave Maasland: tenminste dat had ik, dat ik ondertussen aan het verbeteren ben.

226
00:08:59,919 --> 00:09:01,099
Dave Maasland: En dan haal ik eigenlijk mijn...

227
00:09:01,459 --> 00:09:03,458
Dave Maasland: Bij AI, ik gooi het er gewoon in. Hij snapt me toch wel.

228
00:09:04,239 --> 00:09:07,518
Dave Maasland: En ik gooi het eruit, spelfout of niet, of ik vergeten word.

229
00:09:07,689 --> 00:09:11,799
Dave Maasland: Maar ik heb het gevoel dat AI, dat ik daar gewoon een nieuwe manier op vond.

230
00:09:11,838 --> 00:09:13,018
Dave Maasland: Ik kan daar leeglopen.

231
00:09:13,679 --> 00:09:13,919
Dave Maasland: En

232
00:09:13,919 --> 00:09:17,419
Dave Maasland: dan vragen aan hem van, joh, maar help me nou eens om dat idee verder uit te werken.

233
00:09:17,449 --> 00:09:18,519
Dave Maasland: Of hoe zou je daar naar kijken?

234
00:09:19,019 --> 00:09:23,199
Dave Maasland: En dat idee dat je gewoon iets, zonder dat iemand daar een oordeel van heeft,

235
00:09:23,199 --> 00:09:23,879
Dave Maasland: ik kan daar iets

236
00:09:23,879 --> 00:09:24,759
Dave Maasland: kwijt.

237
00:09:24,889 --> 00:09:26,719
Dave Maasland: Ja, dat vind ik heel fijn werken.

238
00:09:26,869 --> 00:09:30,359
Joop Snijder: Ja, en wat ik ook wel fijn vind, is dat je soms verrast wordt wat er dan in staat.

239
00:09:30,559 --> 00:09:32,679
Joop Snijder: Waardoor je dus weer eigenlijk geprikkeld wordt.

240
00:09:33,059 --> 00:09:36,359
Joop Snijder: Ik denk van, oh, maar als we daar het over gaan hebben,

241
00:09:36,559 --> 00:09:40,079
Joop Snijder: dan kan ik, nou ja, net wat zeg maar de inspiratie geeft.

242
00:09:40,659 --> 00:09:41,839
Dave Maasland: Was dat Steve Jobs ooit?

243
00:09:41,929 --> 00:09:46,019
Dave Maasland: Die zei dat computers een soort fiets voor je hersenen waren, geloof ik.

244
00:09:47,959 --> 00:09:50,399
Dave Maasland: Nou ja, volgens mij zei hij iets in die richting.

245
00:09:50,499 --> 00:09:51,299
Niels Naglé: Volgens mij is dat...

246
00:09:51,299 --> 00:09:52,359
Niels Naglé: Verwegen blijven, ja.

247
00:09:52,819 --> 00:09:52,999
Niels Naglé: Ja, dat

248
00:09:52,999 --> 00:09:55,159
Dave Maasland: hij zei van, joh, dit brengt je...

249
00:09:55,419 --> 00:09:57,019
Dave Maasland: Het geeft je bepaalde superkrachten.

250
00:09:57,139 --> 00:09:58,319
Dave Maasland: Ik denk dat dat inderdaad...

251
00:09:59,299 --> 00:10:02,419
Dave Maasland: Soms zorgt hij ervoor dat ik, denk ik, nieuwe deuren ga verkennen.

252
00:10:03,099 --> 00:10:04,859
Dave Maasland: Dankzij AI mij een inzicht gaf.

253
00:10:04,959 --> 00:10:06,519
Dave Maasland: Oké, maar volgens mij moet je hierop letten.

254
00:10:06,589 --> 00:10:08,059
Dave Maasland: Of hij geeft me een uitspraak.

255
00:10:08,059 --> 00:10:09,099
Dave Maasland: Want ik denk, oh, maar als dat zo

256
00:10:09,099 --> 00:10:10,058
Niels Naglé: is...

257
00:10:10,079 --> 00:10:14,559
Niels Naglé: Ja, voor mijn gevoel sta je dan, je stapt even terug van je eigen denkproces

258
00:10:14,669 --> 00:10:17,499
Niels Naglé: en je gaat even op een groter niveau kijken naar waar was je mee bezig.

259
00:10:17,509 --> 00:10:21,699
Niels Naglé: En door die tijd daaraan te kunnen spenderen, wordt het uiteindelijke resultaat beter.

260
00:10:22,199 --> 00:10:23,479
Niels Naglé: Dat is mijn beeld ervan.

261
00:10:24,019 --> 00:10:24,959
Niels Naglé: Ja, en zeker als je AI,

262
00:10:25,129 --> 00:10:30,039
Dave Maasland: dus ik snap dat jullie maken veel, misschien ook ingewikkelde dingen.

263
00:10:30,459 --> 00:10:32,459
Dave Maasland: We hebben natuurlijk heel veel nu over chatbots en misschien NLM's.

264
00:10:32,479 --> 00:10:36,439
Dave Maasland: Wat ik aan NLM's heel gaaf vind, is ik denk de kracht van een goede coach,

265
00:10:36,619 --> 00:10:38,199
Dave Maasland: Of als je als CEO of wie dan ook.

266
00:10:38,759 --> 00:10:41,359
Dave Maasland: Is iemand die de moeilijke vragen aan je stelt.

267
00:10:41,879 --> 00:10:43,399
Dave Maasland: Als een taalmodel ergens goed in is.

268
00:10:43,459 --> 00:10:44,439
Dave Maasland: Hem een rol toebedelen.

269
00:10:44,959 --> 00:10:46,279
Dave Maasland: En zeg joh jij bent nu mijn coach.

270
00:10:46,359 --> 00:10:49,199
Dave Maasland: Of kijk nou eens kritisch naar mijn stuk tekst.

271
00:10:49,339 --> 00:10:51,079
Dave Maasland: En wees nou eens een medewerker.

272
00:10:51,179 --> 00:10:52,439
Dave Maasland: Of een collega die al ontevreden is.

273
00:10:52,499 --> 00:10:53,699
Dave Maasland: Hoe zou je dit kunnen interpreteren?

274
00:10:54,259 --> 00:10:55,419
Dave Maasland: En dan komt daar soms toch.

275
00:10:56,799 --> 00:10:57,639
Dave Maasland: Soms ook wel na hoor.

276
00:10:57,759 --> 00:10:57,839
Dave Maasland: Dan

277
00:10:57,839 --> 00:10:58,739
Dave Maasland: lees ik en dan denk ik.

278
00:10:59,699 --> 00:10:59,839
Joop Snijder: Wat

279
00:10:59,839 --> 00:11:00,359
Dave Maasland: heb je hier.

280
00:11:00,659 --> 00:11:01,939
Dave Maasland: Dit schuurt.

281
00:11:02,479 --> 00:11:04,539
Dave Maasland: Maar dat is die rollen die je hem kan toebedelen.

282
00:11:05,859 --> 00:11:07,659
Joop Snijder: En die wil natuurlijk ook niet pleasen.

283
00:11:07,869 --> 00:11:10,699
Joop Snijder: Dus je krijgt hem gewoon in die zin recht op je kaak.

284
00:11:11,699 --> 00:11:12,779
Dave Maasland: In het kader van weerbaarheid.

285
00:11:12,829 --> 00:11:13,059
Dave Maasland: Ja, toch?

286
00:11:14,439 --> 00:11:16,659
Joop Snijder: En hoe snel herstel je daar dan van?

287
00:11:18,339 --> 00:11:23,599
Dave Maasland: Nou, ik moet wel zeggen sinds de ChatGPT's van deze wereld dat je meer met AI bezig bent.

288
00:11:24,359 --> 00:11:25,859
Dave Maasland: Ik ben er wel veel mee bezig, merk ik.

289
00:11:25,859 --> 00:11:31,099
Dave Maasland: En ik merk wel dat ik nog meer dan ooit continu aan het malen ben en dingen aan het vragen ben.

290
00:11:31,259 --> 00:11:34,879
Dave Maasland: En nog meer dus, de negatieve kant is ook dat het zoveel mogelijkheden heeft...

291
00:11:34,879 --> 00:11:36,599
Dave Maasland: dat het me ook een soort van verslaafd heeft gemaakt...

292
00:11:36,599 --> 00:11:36,639
Dave Maasland: om

293
00:11:36,639 --> 00:11:37,899
Dave Maasland: continu iets

294
00:11:37,899 --> 00:11:40,059
Dave Maasland: te vragen, iets uit te vinden, iets te doen.

295
00:11:40,778 --> 00:11:42,439
Dave Maasland: Maar hoe vaak herstel je ervan?

296
00:11:42,509 --> 00:11:45,099
Dave Maasland: Ja, ik kan soms wel echt een middagje even balen...

297
00:11:45,099 --> 00:11:46,939
Dave Maasland: als ik dan weer iets waar ik denk trots op ben.

298
00:11:46,969 --> 00:11:49,639
Dave Maasland: En dat ik denk, oh wacht even, maar dit moet toch totaal anders.

299
00:11:49,779 --> 00:11:52,239
Dave Maasland: Maar ja, nogmaals, het is soms ook van dat een AI dat doet...

300
00:11:52,239 --> 00:11:55,199
Dave Maasland: en misschien niet twee, drie collega's...

301
00:11:55,199 --> 00:11:55,999
Dave Maasland: dat ik daar nog beter

302
00:11:55,999 --> 00:11:56,959
Dave Maasland: opslagend

303
00:11:56,959 --> 00:11:57,719
Dave Maasland: in ijs kom.

304
00:11:58,539 --> 00:12:00,319
Niels Naglé: Ja, en het is ook om vanzelf beter te worden.

305
00:12:00,519 --> 00:12:03,059
Niels Naglé: Want de intentie is wat mij betreft altijd belangrijk.

306
00:12:03,179 --> 00:12:05,999
Niels Naglé: Je intentie is ook van zo'n personage die je geeft aan het LLM.

307
00:12:06,419 --> 00:12:07,839
Niels Naglé: Om inderdaad beter te worden.

308
00:12:07,959 --> 00:12:10,439
Niels Naglé: Dus die feedback heeft ze ook met het doel om beter te worden.

309
00:12:10,519 --> 00:12:11,699
Niels Naglé: Dus als je dat in mindset hebt.

310
00:12:11,739 --> 00:12:13,359
Niels Naglé: Dat helpt mij in mijn weerbaarheid.

311
00:12:13,719 --> 00:12:15,439
Niels Naglé: Om inderdaad die zware kritiek die er soms

312
00:12:15,439 --> 00:12:15,759
Dave Maasland: lekker uit

313
00:12:15,759 --> 00:12:16,219
Dave Maasland: kan komen.

314
00:12:16,599 --> 00:12:17,399
Niels Naglé: Is om weer beter te

315
00:12:17,399 --> 00:12:17,559
Dave Maasland: worden.

316
00:12:17,639 --> 00:12:17,819
Dave Maasland: Ik

317
00:12:17,819 --> 00:12:21,099
Dave Maasland: ben ook heel erg gefocust op LLMs en chatbots.

318
00:12:21,219 --> 00:12:23,919
Dave Maasland: Want ik ben nog wat minder bezig met andere bredere toepassingen.

319
00:12:25,399 --> 00:12:27,179
Dave Maasland: Nu ik toch bij jullie aan tafel zit.

320
00:12:28,699 --> 00:12:30,959
Dave Maasland: Zijn alle bedrijven gewoon bezig om iets met een chatbot te doen?

321
00:12:31,239 --> 00:12:32,559
Dave Maasland: Of gaat het echt al wel verder?

322
00:12:32,669 --> 00:12:35,139
Dave Maasland: Of is het eerlijk antwoord gewoon, nee, het is iets met een chatbot?

323
00:12:35,759 --> 00:12:38,859
Joop Snijder: Nou, ja, weet je, het is echt zo'n IT-antwoord.

324
00:12:39,189 --> 00:12:39,519
Joop Snijder: Dat ligt

325
00:12:39,519 --> 00:12:39,859
Dave Maasland: eraan.

326
00:12:40,539 --> 00:12:40,899
Dave Maasland: Maar

327
00:12:40,899 --> 00:12:45,579
Joop Snijder: wat je ziet is dat heel veel in ieder geval de oplossing zien als een chatbot.

328
00:12:45,719 --> 00:12:47,159
Joop Snijder: Dus iemand heeft een bepaald probleem.

329
00:12:48,159 --> 00:12:50,179
Joop Snijder: En er wordt nu, er is eigenlijk nog maar één oplossing.

330
00:12:50,309 --> 00:12:51,819
Joop Snijder: En dat is ChatGPT of Copilot.

331
00:12:53,019 --> 00:12:54,019
Joop Snijder: Daarmee komen ze bij ons.

332
00:12:54,309 --> 00:12:58,119
Joop Snijder: En wij hebben dan het geluk dat we door kunnen vragen, door kunnen praten.

333
00:12:58,599 --> 00:13:00,299
Joop Snijder: en dan kunnen kijken van ja, maar welke technologie

334
00:13:00,599 --> 00:13:02,499
Joop Snijder: past nou eigenlijk echt bij jouw probleem?

335
00:13:03,599 --> 00:13:04,359
Dave Maasland: Ja, want is het probleem

336
00:13:04,519 --> 00:13:05,939
Dave Maasland: überhaupt waarschijnlijk? Ja, precies.

337
00:13:06,319 --> 00:13:07,379
Joop Snijder: En is het probleem

338
00:13:07,379 --> 00:13:08,059
Dave Maasland: überhaupt, zeg maar,

339
00:13:08,339 --> 00:13:09,559
Joop Snijder: moet je dat wel oplossen met AI?

340
00:13:09,819 --> 00:13:09,899
Joop Snijder: Dus

341
00:13:09,899 --> 00:13:10,779
Dave Maasland: is

342
00:13:10,779 --> 00:13:12,359
Joop Snijder: het een technologisch probleem, is het dan

343
00:13:12,399 --> 00:13:13,119
Joop Snijder: een AI probleem?

344
00:13:13,199 --> 00:13:13,679
Dave Maasland: Heb je een keer,

345
00:13:14,319 --> 00:13:16,259
Dave Maasland: en je mag het eruit knippen als het niet interessant is, maar heb je een keer echt

346
00:13:16,339 --> 00:13:18,139
Dave Maasland: een probleem gehad waarvan je dacht, ja,

347
00:13:18,239 --> 00:13:20,419
Dave Maasland: dit gaat AI niet voor je oplossen? Maar wat wel

348
00:13:20,519 --> 00:13:21,739
Dave Maasland: de vraag van de klant was.

349
00:13:22,859 --> 00:13:23,979
Joop Snijder: Ja, wel meerdere.

350
00:13:24,979 --> 00:13:25,599
Joop Snijder: Maar die moet ik wel

351
00:13:25,599 --> 00:13:26,758
Dave Maasland: even zo...

352
00:13:26,779 --> 00:13:26,919
Dave Maasland: Ja,

353
00:13:27,779 --> 00:13:29,999
Joop Snijder: uiteindelijk lopen we hier eigenlijk best wel heel vaak tegenaan.

354
00:13:30,559 --> 00:13:35,919
Joop Snijder: Het is dat je zeker in het hele idee van productiviteit,

355
00:13:36,439 --> 00:13:39,799
Joop Snijder: dat je dan zegt, ja, maar dit kan je wel met de technologie gaan oplossen.

356
00:13:39,819 --> 00:13:42,259
Joop Snijder: Maar als je het gewoon organisatorisch even anders aanpakt,

357
00:13:43,938 --> 00:13:46,319
Joop Snijder: dan wordt het misschien gewoon veel makkelijker.

358
00:13:47,139 --> 00:13:49,999
Niels Naglé: Of dingen automatiseren die eigenlijk gewoon niet eens plaats moeten vinden,

359
00:13:50,219 --> 00:13:52,319
Niels Naglé: uit het bon van operationaliseren.

360
00:13:52,459 --> 00:13:56,199
Niels Naglé: Terwijl, niet doen is nog steeds goedkoper dan iets automatiseren.

361
00:13:56,659 --> 00:13:59,979
Niels Naglé: Ja, en voor ChatGPT hebben we ook wel gehad dat er al het idee

362
00:13:59,979 --> 00:14:00,639
Joop Snijder: leefde van

363
00:14:00,689 --> 00:14:05,099
Joop Snijder: we moeten alle meetings gaan opnemen en dan krijgen we automatisch die notulen eruit.

364
00:14:05,719 --> 00:14:08,599
Joop Snijder: Wat je daar ziet is dat er wel een verschuiving heeft plaatsgevonden.

365
00:14:08,779 --> 00:14:13,899
Joop Snijder: Toen was het zo van, toen we vroegen van, ben je dan nog wel open in al die meetings?

366
00:14:14,419 --> 00:14:16,479
Joop Snijder: Want wil je alles wel eigenlijk in die notulen?

367
00:14:18,019 --> 00:14:19,379
Joop Snijder: Er wordt natuurlijk bij meetings

368
00:14:19,379 --> 00:14:21,179
Dave Maasland: ook best wel heel veel informeel gesproken, toch?

369
00:14:23,199 --> 00:14:29,159
Joop Snijder: Maar ik zie daar een verschuiving van wat eerst in dit geval was ook daadwerkelijk deze use case afgewezen.

370
00:14:29,579 --> 00:14:34,319
Joop Snijder: Hadden we gezegd, zet nou gewoon eens een rode knop op tafel en zeg van,

371
00:14:34,719 --> 00:14:38,799
Joop Snijder: dit gesprek wordt nu vanaf begin tot eind opgenomen en dan komt letterlijk,

372
00:14:39,569 --> 00:14:40,099
Joop Snijder: alles komt in een

373
00:14:40,099 --> 00:14:41,299
Dave Maasland: gespreksverslag,

374
00:14:41,359 --> 00:14:41,779
Joop Snijder: wil je dat?

375
00:14:42,239 --> 00:14:44,139
Joop Snijder: Er werden allemaal de antwoorden, nee, nee.

376
00:14:45,639 --> 00:14:46,299
Joop Snijder: Maar ik denk dat

377
00:14:46,299 --> 00:14:47,459
Dave Maasland: we aan het verschuiven zijn.

378
00:14:48,159 --> 00:14:48,599
Dave Maasland: We

379
00:14:48,599 --> 00:14:53,499
Joop Snijder: krijgen nu in een keer dat in teamsmeetings zitten daar in een keer de fireflies, de otters,

380
00:14:53,659 --> 00:14:54,499
Niels Naglé: de

381
00:14:54,499 --> 00:14:55,919
Joop Snijder: AI zitten mee te luisteren.

382
00:14:56,409 --> 00:15:01,419
Niels Naglé: Ja, en ook nog even van mijn kant de vraag, zien we andere oplossingen?

383
00:15:01,569 --> 00:15:07,039
Niels Naglé: Ja, maar we zien vaak dat nu de user interface is, omdat ChatGPT zo'n brede marktnaam heeft

384
00:15:07,039 --> 00:15:07,499
Dave Maasland: gekregen,

385
00:15:07,969 --> 00:15:11,859
Niels Naglé: dat hoe gebruikers er tegen gaan praten vaak een LLM is.

386
00:15:11,979 --> 00:15:20,939
Niels Naglé: Maar dat er achter nog een hele mooie toverdoos, nou toverdoos is het niet, maar een hele technische laag op de grondslag ligt en het schilletje de LLM is.

387
00:15:21,839 --> 00:15:31,039
Niels Naglé: Dus daar zitten veel meer vraagstukken in. Machine learning, data science, data verhuishouding, data governance, processen die eigenlijk aangepakt worden.

388
00:15:31,179 --> 00:15:34,859
Niels Naglé: En daar zit maar een klein schaaltje van LLM op, maar dat is wel waar

389
00:15:34,859 --> 00:15:36,239
Dave Maasland: iedereen het met name over heeft.

390
00:15:36,449 --> 00:15:38,279
Dave Maasland: Ja precies, misschien wel de makkelijkste manier om mee te experimenteren.

391
00:15:38,399 --> 00:15:39,019
Dave Maasland: Zeker, zeker.

392
00:15:39,039 --> 00:15:40,479
Dave Maasland: Dat is een laagdrempelige manier.

393
00:15:40,499 --> 00:15:40,699
Dave Maasland: Laag

394
00:15:40,699 --> 00:15:42,359
Niels Naglé: laagdrempeligrempig. Iedereen kan er een klein stukje

395
00:15:42,359 --> 00:15:43,099
Dave Maasland: al gelijk

396
00:15:43,099 --> 00:15:43,619
Niels Naglé: mee aan de slag.

397
00:15:43,649 --> 00:15:46,419
Niels Naglé: En ook direct voor hunzelf kijken wat voor waarde erin zit.

398
00:15:47,719 --> 00:15:51,139
Joop Snijder: Ik wil hem toch nog heel even terugpakken naar die digitale weerbaarheid.

399
00:15:51,459 --> 00:15:56,659
Joop Snijder: Is er een moment geweest waarbij jouw eigen digitale veiligheid gecompromitteerd was?

400
00:15:57,219 --> 00:15:58,759
Joop Snijder: En wat heb je daarvan geleerd?

401
00:16:00,519 --> 00:16:03,979
Dave Maasland: Nou ja, ik denk wat wij natuurlijk dagelijks zien,

402
00:16:04,089 --> 00:16:09,599
Dave Maasland: is je ziet natuurlijk dat wij sowieso als cybersecurityorganisatie een interessant doelwit zijn.

403
00:16:10,819 --> 00:16:11,819
Dave Maasland: en ik merk gewoon aan mezelf

404
00:16:11,919 --> 00:16:13,739
Dave Maasland: dat in de snelheid waarmee ik soms dingen

405
00:16:13,939 --> 00:16:15,319
Dave Maasland: wil doen, dat

406
00:16:16,479 --> 00:16:17,299
Dave Maasland: ik ook niet

407
00:16:18,539 --> 00:16:19,839
Dave Maasland: immuun ben voor het

408
00:16:19,919 --> 00:16:21,639
Dave Maasland: niet kunnen klikken of iets doen wat niet

409
00:16:21,729 --> 00:16:23,679
Dave Maasland: per se handig is. En wat ik aan mezelf

410
00:16:23,939 --> 00:16:25,679
Dave Maasland: merkte, en dat is iets, dat

411
00:16:25,939 --> 00:16:27,499
Dave Maasland: durf ik hier wat te zeggen, bijvoorbeeld digitale weerbaarheid,

412
00:16:27,919 --> 00:16:29,759
Dave Maasland: is het ook gewoon te veel informatie geven

413
00:16:30,539 --> 00:16:31,139
Dave Maasland: aan een

414
00:16:31,139 --> 00:16:31,799
Dave Maasland: LLM.

415
00:16:32,339 --> 00:16:33,799
Dave Maasland: Dus toen ik op een gegeven moment vroeg aan

416
00:16:33,799 --> 00:16:35,699
Dave Maasland: hem van, wat weet je eigenlijk allemaal over mij?

417
00:16:36,479 --> 00:16:37,359
Dave Maasland: Met geheugen aan.

418
00:16:38,919 --> 00:16:43,239
Dave Maasland: Echt een besefmoment van oké, daar staan geen dingen in die ik met overheid of andere dingen.

419
00:16:43,399 --> 00:16:47,359
Dave Maasland: Maar ook een besefmoment van dit is eigenlijk al, dit is niet goed.

420
00:16:47,409 --> 00:16:48,219
Dave Maasland: Ik ben die balans verloren.

421
00:16:48,579 --> 00:16:51,099
Dave Maasland: Ik geef alles terwijl die context niet hoeft.

422
00:16:51,529 --> 00:17:02,339
Dave Maasland: Dus wat ik daar ook weer heel erg van leer is dat je, ik denk dat niemand, en dat wil je ook niet, moet leven in het term van veiligheid is, mijn nummer één is alles.

423
00:17:02,429 --> 00:17:04,519
Dave Maasland: Want dan ga je denk ik heel veel kansen missen.

424
00:17:04,638 --> 00:17:05,878
Dave Maasland: Maar het vinden van die balans.

425
00:17:06,559 --> 00:17:08,319
Dave Maasland: En het altijd jezelf ook weer even afvragen.

426
00:17:08,539 --> 00:17:09,319
Dave Maasland: Waarom doe ik dit?

427
00:17:09,439 --> 00:17:11,598
Dave Maasland: Want mijn natuur is nu wel geworden.

428
00:17:11,618 --> 00:17:12,759
Dave Maasland: Oh even met ChatGPT bespreken.

429
00:17:12,799 --> 00:17:13,618
Dave Maasland: Oh even daar aan vragen.

430
00:17:13,759 --> 00:17:13,999
Dave Maasland: Etcetera.

431
00:17:14,539 --> 00:17:16,059
Dave Maasland: En daar zal echt wel dat je.

432
00:17:16,219 --> 00:17:17,219
Dave Maasland: Dus wat heb ik daarvan geleerd?

433
00:17:17,559 --> 00:17:18,979
Dave Maasland: Vaker bij jezelf de vraag stellen.

434
00:17:19,039 --> 00:17:19,699
Dave Maasland: Eigenlijk wat je net ook doet.

435
00:17:20,758 --> 00:17:22,579
Dave Maasland: Is daarop AI het antwoord?

436
00:17:22,699 --> 00:17:24,159
Dave Maasland: Of moet je het op een andere manier doen?

437
00:17:24,239 --> 00:17:25,219
Dave Maasland: En vooral dus wat.

438
00:17:25,699 --> 00:17:26,659
Dave Maasland: Dit die digitale weerbaarheid.

439
00:17:26,739 --> 00:17:27,479
Dave Maasland: Wat die van me weet.

440
00:17:27,539 --> 00:17:28,259
Dave Maasland: Ik zag dat.

441
00:17:28,919 --> 00:17:29,479
Dave Maasland: Dat lijstje.

442
00:17:30,319 --> 00:17:31,299
Dave Maasland: En toen dacht ik wel echt even.

443
00:17:31,299 --> 00:17:31,839
Dave Maasland: Ja wacht even.

444
00:17:32,139 --> 00:17:32,579
Dave Maasland: Dit is misschien.

445
00:17:33,119 --> 00:17:35,118
Joop Snijder: En daar zaten dan ook persoonlijke dingen tussen?

446
00:17:35,339 --> 00:17:36,599
Dave Maasland: Ja, ook persoonlijke dingen.

447
00:17:36,699 --> 00:17:40,959
Dave Maasland: Want er zijn ook wel eens algemene situaties of grappige dingen...

448
00:17:40,959 --> 00:17:42,559
Dave Maasland: die ik google op een verjaardag of wat dan ook.

449
00:17:42,599 --> 00:17:46,319
Dave Maasland: Maar ja, de patronen die hij daar natuurlijk doorheen kan leggen...

450
00:17:47,378 --> 00:17:49,339
Dave Maasland: en ik ben een gesprek van twintig dagen alweer vergeten.

451
00:17:49,399 --> 00:17:52,039
Dave Maasland: Maar ja, naadloos kan hij dat nog erbij halen.

452
00:17:52,479 --> 00:17:54,998
Dave Maasland: Dus ook het profiel wat hij van me schetst en daarbij...

453
00:17:55,279 --> 00:17:57,519
Dave Maasland: en natuurlijk, het is een taalmodel, dus die wil ook af en toe je please...

454
00:17:57,519 --> 00:17:58,099
Dave Maasland: als je het wel vraagt.

455
00:17:58,099 --> 00:17:59,459
Dave Maasland: Maar op een gegeven moment heb ik ook die vraag gehad van...

456
00:17:59,459 --> 00:18:02,059
Dave Maasland: joh, omschrijf nou eens wat zijn mijn diepste verlangens?

457
00:18:02,099 --> 00:18:02,579
Dave Maasland: Wie ben ik?

458
00:18:02,999 --> 00:18:07,359
Dave Maasland: Als je dan ziet wat hij stiekem al allemaal een beetje bij elkaar, ook over mijn psyche bij elkaar weet.

459
00:18:07,899 --> 00:18:09,319
Dave Maasland: Dat ik ja, misschien...

460
00:18:10,079 --> 00:18:10,399
Dave Maasland: Iets minder.

461
00:18:10,499 --> 00:18:11,779
Dave Maasland: Gewoon even iets minder.

462
00:18:11,829 --> 00:18:12,799
Dave Maasland: Niet alles hoeft in chat

463
00:18:12,799 --> 00:18:13,419
Niels Naglé: GPT's.

464
00:18:13,679 --> 00:18:14,419
Niels Naglé: Er zijn niet alles

465
00:18:14,419 --> 00:18:15,759
Dave Maasland: hoeft daarin.

466
00:18:16,259 --> 00:18:22,659
Niels Naglé: Ik was nog nieuwsgierig dat je pleit voor een centrale loket voor overheden, wetenschappers, security specialisten samenwerken.

467
00:18:22,859 --> 00:18:24,939
Niels Naglé: Om het samen het probleem te gaan tackelen.

468
00:18:26,679 --> 00:18:28,579
Niels Naglé: Hoe zie je dat voor je in de toekomst?

469
00:18:28,659 --> 00:18:35,499
Niels Naglé: Hoe gaat dat de digitale weerbaarheid, maar ook de digitale weerbaarheid van organisaties helpen door die groep bij elkaar te stappen?

470
00:18:36,939 --> 00:18:41,559
Dave Maasland: Ik zie heel veel stappen die worden gemaakt om Nederland daadwerkelijk veiliger te maken.

471
00:18:42,159 --> 00:18:44,539
Dave Maasland: Gebeuren heel veel via het informele netwerk.

472
00:18:45,379 --> 00:18:48,719
Dave Maasland: Dus iemand van de politie belt ons en zegt, joh, hebben jullie informatie daarover?

473
00:18:49,179 --> 00:18:51,319
Dave Maasland: Ja, misschien hebben we wel, gaan we regelen, delen we uit.

474
00:18:51,779 --> 00:18:53,419
Dave Maasland: En dan staat een paar maanden later een politieonderzoek.

475
00:18:53,879 --> 00:18:57,039
Dave Maasland: Dat is dus niet omdat er een contract is of dat we een beleid hebben.

476
00:18:57,099 --> 00:19:02,339
Dave Maasland: Dat is omdat één techneut bij de politie een keer een biertje heeft gedronken met een techneut

477
00:19:02,339 --> 00:19:03,019
Dave Maasland: van cybersecurity.

478
00:19:04,279 --> 00:19:04,959
Dave Maasland: En ik geloof

479
00:19:04,959 --> 00:19:07,899
Dave Maasland: heilig in die kracht van informele netwerken.

480
00:19:07,929 --> 00:19:14,079
Dave Maasland: Op het moment dat je, en ik denk dat het Nationaal Cybersecurity Centrum die rol in de toekomst steeds meer zal spelen.

481
00:19:14,179 --> 00:19:16,219
Dave Maasland: Als centraal punt waar mensen samen komen.

482
00:19:16,279 --> 00:19:21,739
Dave Maasland: Maar we zullen, en dat gebeurt, we moeten dat wantrouw, dus publiek, privaat, de defensie, die moet weg.

483
00:19:22,259 --> 00:19:22,399
Dave Maasland: Je

484
00:19:22,399 --> 00:19:24,519
Dave Maasland: ziet nu steeds meer de roep ook voor cyberreservisten.

485
00:19:24,639 --> 00:19:26,019
Dave Maasland: Dat mensen bij cybersecuritybedrijven ook voor

486
00:19:26,019 --> 00:19:26,759
Dave Maasland: defensie wat gaan

487
00:19:26,759 --> 00:19:26,939
Dave Maasland: doen.

488
00:19:27,399 --> 00:19:29,019
Dave Maasland: dat zijn allemaal signalen

489
00:19:29,099 --> 00:19:30,579
Dave Maasland: waarvan ik denk dat is waar we naartoe moeten

490
00:19:30,679 --> 00:19:32,739
Dave Maasland: en of dat dan echt een fysieke campus of plek is

491
00:19:33,319 --> 00:19:34,819
Dave Maasland: dat weet ik niet zo goed, maar ik denk dat er

492
00:19:34,999 --> 00:19:36,739
Dave Maasland: er moet veel harder gewerkt worden

493
00:19:37,039 --> 00:19:38,239
Dave Maasland: ik pleit gewoon voor meer borrels eigenlijk

494
00:19:39,319 --> 00:19:40,639
Dave Maasland: dat klinkt een beetje stom, maar we

495
00:19:40,639 --> 00:19:40,879
Dave Maasland: zullen

496
00:19:41,159 --> 00:19:43,019
Dave Maasland: veel meer, en dan hoeven we staat schijnbaar

497
00:19:43,099 --> 00:19:44,659
Dave Maasland: dingen te hebben, maar je moet die werelden nu van

498
00:19:45,539 --> 00:19:46,999
Dave Maasland: defensie, overheid, cybersecurity

499
00:19:47,479 --> 00:19:49,039
Dave Maasland: want die techneuten, die geven

500
00:19:49,179 --> 00:19:51,099
Dave Maasland: niet om management, die geven niet om management, die willen gewoon met elkaar

501
00:19:51,339 --> 00:19:53,059
Dave Maasland: kletsen, en volgens mij gaat dat

502
00:19:53,579 --> 00:19:54,999
Dave Maasland: daadwerkelijk helpen om meer onderzoeken

503
00:19:55,019 --> 00:19:56,999
Dave Maasland: te draaien, meer uit te wisselen, jongens

504
00:19:57,019 --> 00:19:58,919
Dave Maasland: je banken. Je moet even die en die maatregelen

505
00:19:58,939 --> 00:20:00,919
Dave Maasland: gaan treffen, want we zien dat daar de aanvallen

506
00:20:01,019 --> 00:20:01,959
Dave Maasland: via die en die manier gaan.

507
00:20:03,239 --> 00:20:04,679
Dave Maasland: Volgens mij moeten we dat veel meer stimuleren.

508
00:20:04,919 --> 00:20:06,939
Niels Naglé: Het informele digitale

509
00:20:07,159 --> 00:20:09,099
Niels Naglé: netwerk verder ondersteunen door meer borrels

510
00:20:09,239 --> 00:20:09,499
Niels Naglé: te houden.

511
00:20:09,839 --> 00:20:10,879
Dave Maasland: Meer feestjes, meer

512
00:20:11,019 --> 00:20:12,799
Dave Maasland: borrels. En ja, maar

513
00:20:12,919 --> 00:20:14,879
Dave Maasland: ik denk ook gewoon dat dat, en daar

514
00:20:15,139 --> 00:20:16,839
Dave Maasland: zullen we met z'n allen aan moeten trekken, maar ik denk ook

515
00:20:16,859 --> 00:20:18,879
Dave Maasland: dat de overheid zal moeten zorgen dat dat

516
00:20:19,039 --> 00:20:21,079
Dave Maasland: wantrouwen, dat moeten zeggen, die techcapaciteit

517
00:20:21,139 --> 00:20:22,859
Dave Maasland: die we hier hebben. Kijk naar landen

518
00:20:23,079 --> 00:20:24,859
Dave Maasland: als Israël bijvoorbeeld, volgens mij minder dan

519
00:20:24,979 --> 00:20:26,979
Dave Maasland: 10 miljoen mensen. Als je ziet hoe krank

520
00:20:26,999 --> 00:20:28,559
Dave Maasland: Goed design op digitale site.

521
00:20:28,699 --> 00:20:30,879
Dave Maasland: Natuurlijk zitten er een hele andere culturele aspecten in elkaar.

522
00:20:31,019 --> 00:20:31,519
Dave Maasland: Maar je ziet dus dat het

523
00:20:31,519 --> 00:20:31,839
Joop Snijder: kan.

524
00:20:32,279 --> 00:20:34,999
Dave Maasland: Ik denk dat we in Nederland waanzinnig veel kennis en opleidingen hebben.

525
00:20:35,079 --> 00:20:38,359
Dave Maasland: En ik denk dat we die tech community nog meer bij elkaar moeten brengen.

526
00:20:38,459 --> 00:20:38,539
Joop Snijder: Precies.

527
00:20:38,749 --> 00:20:39,459
Joop Snijder: We hebben geweldige

528
00:20:39,459 --> 00:20:41,379
Dave Maasland: universiteiten met geweldige opleidingen.

529
00:20:41,509 --> 00:20:42,099
Dave Maasland: Ja, zeker.

530
00:20:42,659 --> 00:20:43,139
Joop Snijder: Als je volgens

531
00:20:43,139 --> 00:20:45,299
Dave Maasland: mij kijkt naar Nederland als ecosysteem.

532
00:20:45,379 --> 00:20:46,539
Dave Maasland: En de rol die we zouden kunnen spelen.

533
00:20:46,619 --> 00:20:48,359
Dave Maasland: Dat is ook echt een van mijn stokpaardjes.

534
00:20:48,479 --> 00:20:50,959
Dave Maasland: Sorry als mensen deze al eens eerder voorbij hebben horen komen.

535
00:20:51,059 --> 00:20:53,119
Dave Maasland: Maar dat boek van Mark Heijink over ASML.

536
00:20:53,479 --> 00:20:54,359
Dave Maasland: NRC-journalist.

537
00:20:54,699 --> 00:20:55,719
Dave Maasland: de hele titel van het boek is

538
00:20:55,739 --> 00:20:57,539
Dave Maasland: de meest complexe machine op aarde

539
00:20:58,039 --> 00:20:58,159
Dave Maasland: gaat

540
00:20:58,159 --> 00:20:59,459
Dave Maasland: over machines die ASML maakt

541
00:20:59,879 --> 00:21:01,619
Dave Maasland: en daar beschrijft hij dat ook, dat zijn machines

542
00:21:01,819 --> 00:21:03,799
Dave Maasland: die kunnen ze in China en de Verenigde Staten

543
00:21:04,199 --> 00:21:05,159
Dave Maasland: nog steeds niet namaken

544
00:21:05,679 --> 00:21:07,879
Dave Maasland: als wij nou toch in Nederland de meest complexe

545
00:21:07,939 --> 00:21:08,959
Dave Maasland: machine op aarde kunnen maken

546
00:21:09,679 --> 00:21:11,999
Dave Maasland: en de delta werken, ik heb laatst een congres in Las Vegas

547
00:21:12,559 --> 00:21:13,959
Dave Maasland: daar was een Amerikanen die vertelde

548
00:21:14,019 --> 00:21:15,859
Dave Maasland: dat cybersecurity, dat kan je niet

549
00:21:16,019 --> 00:21:17,879
Dave Maasland: aanvliegen als een little Dutch boy

550
00:21:17,999 --> 00:21:19,259
Dave Maasland: die zijn vinger in de dijk stopt

551
00:21:19,978 --> 00:21:21,839
Dave Maasland: jullie raden wel hoe ik het podium op woon

552
00:21:21,959 --> 00:21:22,119
Dave Maasland: daarna,

553
00:21:22,399 --> 00:21:24,359
Dave Maasland: ik zei nou, hier is die dan

554
00:21:24,639 --> 00:21:25,919
Dave Maasland: De kleine little Dutch boy.

555
00:21:26,439 --> 00:21:28,319
Dave Maasland: En toevallig wilde ik dit al voorbereiden.

556
00:21:28,319 --> 00:21:29,219
Dave Maasland: Ik zeg maar, wij in Nederland.

557
00:21:29,859 --> 00:21:31,299
Dave Maasland: Wij hebben niet onze vinger in de dijk gestopt.

558
00:21:31,499 --> 00:21:32,459
Dave Maasland: Toen ben ik gaan vertellen over de

559
00:21:32,459 --> 00:21:33,039
Dave Maasland: deltawerken.

560
00:21:33,499 --> 00:21:35,559
Dave Maasland: En over de Maaslandkering.

561
00:21:35,739 --> 00:21:37,399
Dave Maasland: Letterlijk met net zulke grote.

562
00:21:37,579 --> 00:21:39,399
Dave Maasland: Als twee Eiffeltorens kunnen bewegen.

563
00:21:39,499 --> 00:21:39,679
Dave Maasland: En dat

564
00:21:39,679 --> 00:21:40,039
Dave Maasland: het een volledig

565
00:21:40,039 --> 00:21:40,939
Dave Maasland: autonoom systeem is.

566
00:21:41,369 --> 00:21:43,239
Dave Maasland: Dat gebouwd is om een storm te weerstaan.

567
00:21:43,249 --> 00:21:44,659
Dave Maasland: Van eens in een tienduizend jaar.

568
00:21:45,199 --> 00:21:46,199
Dave Maasland: En dan zie je die zaal ook.

569
00:21:47,559 --> 00:21:49,159
Dave Maasland: Wat we verdorie allemaal niet kunnen.

570
00:21:49,319 --> 00:21:50,919
Dave Maasland: Volgens mij zullen we dat.

571
00:21:50,999 --> 00:21:51,799
Dave Maasland: Dat tech talent.

572
00:21:52,029 --> 00:21:52,639
Dave Maasland: Het cyber talent.

573
00:21:52,669 --> 00:21:53,219
Dave Maasland: Het AI talent.

574
00:21:53,559 --> 00:21:55,899
Dave Maasland: Wat in Nederland niet zo groot als in Silicon Valley.

575
00:21:56,459 --> 00:21:58,399
Dave Maasland: Maar dat moeten we volgens mij meer bij elkaar brengen.

576
00:21:58,439 --> 00:21:58,819
Dave Maasland: Meer fc.

577
00:21:58,859 --> 00:22:01,259
Joop Snijder: Ja, want we hebben daar ook wel een klein beetje Calimero gedrag, toch?

578
00:22:01,599 --> 00:22:01,679
Joop Snijder: Ja,

579
00:22:01,779 --> 00:22:02,239
Dave Maasland: honderd procent.

580
00:22:03,019 --> 00:22:05,459
Dave Maasland: Ik denk, nou nog wat over de meest complexe machine op aarde.

581
00:22:05,539 --> 00:22:06,559
Dave Maasland: En oh, in Amerika hebben ze dit.

582
00:22:06,679 --> 00:22:08,099
Dave Maasland: Ja, we liepen achter.

583
00:22:08,439 --> 00:22:10,679
Dave Maasland: Ja, we hebben nu over die handelstarieven van Trump.

584
00:22:11,219 --> 00:22:14,479
Dave Maasland: Maar ja, een cijfer die ik heel vaak voorbij hoor komen afgelopen weken.

585
00:22:14,479 --> 00:22:15,739
Dave Maasland: Die bij mij heel erg is blijven hangen.

586
00:22:16,199 --> 00:22:17,639
Dave Maasland: Onderzoek van het IMF.

587
00:22:18,439 --> 00:22:19,079
Dave Maasland: Afgelopen november.

588
00:22:19,419 --> 00:22:20,599
Dave Maasland: Als je het over handelstarieven hebt.

589
00:22:21,159 --> 00:22:25,239
Dave Maasland: In Europa, door de interne regelgeving die zo verschilt per lidstaat,

590
00:22:25,379 --> 00:22:28,399
Dave Maasland: niet het probleem dat de regelgeving is, maar dat overal andere zaken doen is,

591
00:22:28,839 --> 00:22:32,299
Dave Maasland: leggen we onszelf een handelstarief op van 44%.

592
00:22:32,459 --> 00:22:32,819
Dave Maasland: Bizar.

593
00:22:33,119 --> 00:22:34,959
Dave Maasland: Op digitale diensten gaat

594
00:22:34,959 --> 00:22:36,659
Dave Maasland: dat zelfs over de 110%

595
00:22:36,659 --> 00:22:37,359
Joop Snijder: tarief,

596
00:22:37,539 --> 00:22:37,599
Joop Snijder: omdat

597
00:22:37,599 --> 00:22:39,139
Dave Maasland: we zo inefficiënt georganiseerd zijn.

598
00:22:39,799 --> 00:22:41,879
Dave Maasland: Als we nou eens tijd in die interne markt gaan besteden,

599
00:22:42,779 --> 00:22:45,579
Dave Maasland: Europees talent, als we nou eens gaan geloven in onszelf,

600
00:22:46,059 --> 00:22:48,999
Dave Maasland: en volgens mij in Europa zien we dus nu met ASML wat we allemaal kunnen,

601
00:22:49,459 --> 00:22:50,599
Dave Maasland: ja, dan moeten we echt eens af.

602
00:22:50,739 --> 00:22:53,259
Dave Maasland: Ik vind ook niet dat we een anti-VS geluid moeten laten horen.

603
00:22:53,339 --> 00:22:55,339
Dave Maasland: Want ik denk niet dat we daar ver mee komen in de tech-wereld.

604
00:22:55,939 --> 00:22:57,959
Dave Maasland: De politie moet net zelf weten wat ze met Trump doen.

605
00:22:58,379 --> 00:22:59,899
Dave Maasland: Maar volgens mij moeten wij dit zien als signaal.

606
00:22:59,919 --> 00:23:01,859
Dave Maasland: We moeten nu in een pro-EU-verhaal komen.

607
00:23:01,919 --> 00:23:03,499
Dave Maasland: Wat kunnen wij? Wat kunnen we in Nederland?

608
00:23:03,659 --> 00:23:06,679
Dave Maasland: Volgens mij in Nederland een hele goede digitale knooppunt.

609
00:23:06,779 --> 00:23:08,119
Dave Maasland: We hebben hele goede universiteiten.

610
00:23:08,519 --> 00:23:11,839
Dave Maasland: Wij kunnen echt een rol spelen als specialist, denk ik, op het gebied van inlichtingen.

611
00:23:12,239 --> 00:23:13,879
Dave Maasland: Op het gebied van slimme AI-toepassingen.

612
00:23:13,919 --> 00:23:15,839
Dave Maasland: Maar ook op het gebied van lithografie.

613
00:23:15,859 --> 00:23:17,619
Dave Maasland: Dus we zullen als Nederland een paar keuzes moeten maken.

614
00:23:18,539 --> 00:23:19,259
Dave Maasland: Waar zijn we van?

615
00:23:19,459 --> 00:23:20,659
Dave Maasland: Waar zijn we echt heel goed in?

616
00:23:20,759 --> 00:23:20,999
Dave Maasland: En waar

617
00:23:20,999 --> 00:23:22,219
Dave Maasland: zijn we voor? We steunen ook.

618
00:23:22,509 --> 00:23:24,639
Dave Maasland: Maar misschien moet je wel zeggen, Mistral in Frankrijk.

619
00:23:25,219 --> 00:23:27,239
Dave Maasland: Ja, misschien moeten we die, daar hebben jullie meer verstand van.

620
00:23:27,339 --> 00:23:30,279
Dave Maasland: Misschien moeten we als Nederland zeggen, die gaan we meer stimuleren.

621
00:23:30,569 --> 00:23:33,219
Dave Maasland: Maar wij gaan in Nederland andere dingen doen binnen term.

622
00:23:33,279 --> 00:23:36,299
Dave Maasland: Maar misschien moeten wij niet per se de nieuwe Mistral willen zijn.

623
00:23:37,239 --> 00:23:41,339
Niels Naglé: Laten we daar ook niet weer al die verschillende lidstaten en eigen oplossingen en

624
00:23:41,339 --> 00:23:41,679
Dave Maasland: andere

625
00:23:41,679 --> 00:23:42,419
Dave Maasland: onderdelen gaan doen.

626
00:23:42,429 --> 00:23:45,359
Niels Naglé: Maar laten we met elkaar kijken waar ligt welke expertise en welke noodzaak.

627
00:23:45,369 --> 00:23:48,439
Niels Naglé: En laten we die mensen bij elkaar brengen om dan met de goede oplossingen te komen.

628
00:23:49,079 --> 00:23:56,619
Joop Snijder: Hoe kijk je dan rondom de regulering van AI, zoals die nu met de EU AI Act vastlegt?

629
00:23:59,239 --> 00:24:02,319
Dave Maasland: Goed, dan zullen jullie misschien als AI ondernemers wel iets anders in staan.

630
00:24:02,499 --> 00:24:04,959
Dave Maasland: Maar dat komt ook omdat ik niet per se 100% onderneem in AI.

631
00:24:05,139 --> 00:24:06,759
Dave Maasland: Dus vergeef me de naïviteit.

632
00:24:07,779 --> 00:24:12,519
Dave Maasland: Maar ik denk in de basis zijn wij als Europa best wel goed in goede wetten maken.

633
00:24:12,619 --> 00:24:13,759
Dave Maasland: Om daar goed over na te denken.

634
00:24:14,299 --> 00:24:17,319
Dave Maasland: Je kan heel veel vinden van de uitvoering van die wet.

635
00:24:17,619 --> 00:24:19,159
Dave Maasland: Dat welke regeldruk op legt.

636
00:24:19,159 --> 00:24:20,299
Dave Maasland: Dat het verschilt per lidstaat.

637
00:24:20,319 --> 00:24:21,819
Dave Maasland: Daar kan je denk ik heel veel van vinden.

638
00:24:22,299 --> 00:24:24,979
Dave Maasland: Maar dat wij zwaar in willen zetten op ethisch verantwoorden.

639
00:24:25,139 --> 00:24:26,599
Dave Maasland: Wat in die AI ik denk dat het heel goed is.

640
00:24:27,079 --> 00:24:28,399
Dave Maasland: Die categorisering aanbrengen.

641
00:24:28,719 --> 00:24:30,299
Dave Maasland: Het hele profileren, biometrie.

642
00:24:30,699 --> 00:24:31,699
Dave Maasland: Daar wachten we nog even mee.

643
00:24:31,799 --> 00:24:32,499
Dave Maasland: Dit gaan we wel doen.

644
00:24:33,559 --> 00:24:35,819
Dave Maasland: Volgens mij is dat best een goed basisprincipe.

645
00:24:35,919 --> 00:24:37,479
Dave Maasland: Ik denk alleen in de uitvoering daarin.

646
00:24:37,899 --> 00:24:39,719
Dave Maasland: Hoe moeilijk je het maakt om innovatie.

647
00:24:39,779 --> 00:24:40,899
Dave Maasland: Of hoe hard je erin zit.

648
00:24:40,899 --> 00:24:43,279
Dave Maasland: En in plaats van mensen een rode kaart te geven.

649
00:24:43,679 --> 00:24:44,759
Dave Maasland: Mee te helpen en te denken.

650
00:24:44,879 --> 00:24:46,559
Dave Maasland: Hoe kan je het op een ethische manier doen.

651
00:24:46,779 --> 00:24:49,079
Dave Maasland: Volgens mij zit het veel meer in de uitvoering van die wetten.

652
00:24:50,619 --> 00:24:52,159
Dave Maasland: En hoe het nageleefd wordt.

653
00:24:52,299 --> 00:24:52,339
Dave Maasland: Hoe

654
00:24:52,339 --> 00:24:53,059
Dave Maasland: het geembeed

655
00:24:53,059 --> 00:24:53,219
Dave Maasland: wordt.

656
00:24:53,319 --> 00:24:54,439
Dave Maasland: Dat hebben we ook bij de AVG gezien.

657
00:24:54,759 --> 00:24:56,519
Dave Maasland: De Algemene Verordening Gegevensbescherming.

658
00:24:56,919 --> 00:24:58,699
Dave Maasland: Dat er eigenlijk best heel veel kan met privacy.

659
00:24:58,749 --> 00:24:59,679
Dave Maasland: Je moet even goed vastleggen.

660
00:24:59,779 --> 00:25:00,819
Dave Maasland: Alleen in Nederland zijn we wel...

661
00:25:01,219 --> 00:25:02,779
Dave Maasland: Het wordt op een gegeven moment te bureaucratisch.

662
00:25:02,899 --> 00:25:04,439
Dave Maasland: Terwijl ik denk dat de basisprincipes wel goed zijn.

663
00:25:04,439 --> 00:25:06,619
Dave Maasland: Ik denk dat de AI act in wat het wil bereiken.

664
00:25:07,009 --> 00:25:08,559
Dave Maasland: Maar goed, jullie zullen er wellicht meer...

665
00:25:08,858 --> 00:25:10,679
Dave Maasland: Denk ik dat het hele zinnige dingen zegt.

666
00:25:11,519 --> 00:25:13,079
Joop Snijder: Wij kijken daar niet heel veel anders naar.

667
00:25:13,399 --> 00:25:16,519
Joop Snijder: Want uiteindelijk gaat het natuurlijk ook over het professionaliseren van je vak.

668
00:25:16,899 --> 00:25:17,679
Dave Maasland: Dus in jouw

669
00:25:17,679 --> 00:25:17,879
Joop Snijder: vak is

670
00:25:17,879 --> 00:25:18,839
Dave Maasland: cybersecurity.

671
00:25:19,179 --> 00:25:22,839
Joop Snijder: Dan wil je ook dat dat zo goed en zo professioneel mogelijk gebeurt.

672
00:25:23,319 --> 00:25:26,459
Joop Snijder: En eigenlijk zegt deze wet zoiets als van...

673
00:25:26,479 --> 00:25:28,899
Dave Maasland: Als je dingen gaat bouwen, doe het dan goed.

674
00:25:30,019 --> 00:25:31,519
Dave Maasland: Zo heel raar is het niet, toch?

675
00:25:32,359 --> 00:25:34,959
Dave Maasland: Waar zijn jullie minder positief over als je naar die AI Act kijkt?

676
00:25:37,319 --> 00:25:43,719
Joop Snijder: Nou, waar ik zelf wat minder positief over ben...

677
00:25:43,599 --> 00:25:44,799
Joop Snijder: ben, is de

678
00:25:45,999 --> 00:25:47,339
Joop Snijder: hoe er eigenlijk over die

679
00:25:47,519 --> 00:25:49,299
Joop Snijder: wet gesproken wordt. Dus dat wordt

680
00:25:49,419 --> 00:25:50,939
Joop Snijder: gezegd, ja, maar dit remt innovatie.

681
00:25:51,179 --> 00:25:53,339
Joop Snijder: Dit, zeg maar, eigenlijk de perceptie op de wet,

682
00:25:53,979 --> 00:25:55,139
Joop Snijder: daar heb ik eigenlijk nog

683
00:25:55,539 --> 00:25:57,379
Joop Snijder: de meeste moeite mee. En dat

684
00:25:57,559 --> 00:25:59,219
Joop Snijder: dingen misschien vaag zijn, of dat soort dingen, ja,

685
00:25:59,229 --> 00:26:00,039
Joop Snijder: dat ze allemaal wel, weet je,

686
00:26:01,079 --> 00:26:02,919
Joop Snijder: juristen zoeken dat allemaal wel uit.

687
00:26:03,539 --> 00:26:05,279
Joop Snijder: Maar ja, ik heb er niet zo heel veel

688
00:26:05,439 --> 00:26:06,079
Joop Snijder: moeite mee eigenlijk.

689
00:26:06,519 --> 00:26:07,159
Dave Maasland: Ja, ik ben

690
00:26:07,269 --> 00:26:09,139
Dave Maasland: heel blij dat je die perceptie, ik vind het altijd

691
00:26:09,299 --> 00:26:11,179
Dave Maasland: zo, maar natuurlijk moeten we altijd kritisch zijn.

692
00:26:11,659 --> 00:26:13,559
Dave Maasland: Dus helpt het ons? Wat is de regeldruk

693
00:26:14,199 --> 00:26:16,559
Dave Maasland: zijn we nog wel aan het doen wat het oorspronkelijke doel was.

694
00:26:16,759 --> 00:26:18,799
Dave Maasland: Dat zie je nu met de cyberbeveiligingswet.

695
00:26:18,939 --> 00:26:19,459
Dave Maasland: De NIS II.

696
00:26:19,739 --> 00:26:21,459
Dave Maasland: Misschien luisteren ze wel bekend gaat over...

697
00:26:21,459 --> 00:26:23,279
Dave Maasland: hoe we onze kritieken infrastructuur beveiligen.

698
00:26:23,699 --> 00:26:25,659
Dave Maasland: Wat je natuurlijk wil, is in de praktijk...

699
00:26:25,659 --> 00:26:26,699
Dave Maasland: dat ze daadwerkelijk maatregelen

700
00:26:26,699 --> 00:26:27,259
Dave Maasland: doorvoeren.

701
00:26:27,859 --> 00:26:29,679
Dave Maasland: En die papierwinkel is misschien wel nodig...

702
00:26:29,679 --> 00:26:30,679
Dave Maasland: om aan te doen dat dat zo is.

703
00:26:30,759 --> 00:26:32,279
Dave Maasland: Maar die papierwinkel mag niet leidend zijn.

704
00:26:32,379 --> 00:26:34,919
Dave Maasland: En daar wil Europa misschien nog wel eens in doorslaan.

705
00:26:34,939 --> 00:26:35,939
Dave Maasland: Maar in de basis...

706
00:26:36,659 --> 00:26:38,479
Dave Maasland: Het is naar mijn neer helemaal niet zo...

707
00:26:38,959 --> 00:26:40,479
Dave Maasland: dat we niet meer kunnen innoveren.

708
00:26:40,619 --> 00:26:41,879
Dave Maasland: Dat nu we Apple missen.

709
00:26:41,959 --> 00:26:42,459
Dave Maasland: Soms moeten ze

710
00:26:42,459 --> 00:26:43,379
Dave Maasland: ook gewoon een beetje normaal doen.

711
00:26:43,439 --> 00:26:43,919
Dave Maasland: met

712
00:26:43,919 --> 00:26:44,539
Dave Maasland: wat ze dingen doen.

713
00:26:44,569 --> 00:26:44,899
Dave Maasland: En volgens

714
00:26:44,899 --> 00:26:46,259
Dave Maasland: mij moeten we dat ook vaker laten horen

715
00:26:46,339 --> 00:26:48,799
Dave Maasland: dat er kan heel veel, er kan ook geïnnoveerd worden.

716
00:26:49,379 --> 00:26:51,919
Dave Maasland: En in plaats van te denken, ja, maar er moet gewoon helemaal geen regulering zijn.

717
00:26:52,019 --> 00:26:54,179
Dave Maasland: Nee, volgens mij moet je, moet we als Europa ook durven

718
00:26:54,249 --> 00:26:55,539
Dave Maasland: daar in onze eigen koers te varen.

719
00:26:55,959 --> 00:26:56,639
Niels Naglé: Ja, helemaal mee eens.

720
00:26:57,289 --> 00:26:59,979
Niels Naglé: Waar ik nog de uitdaging zie, is de navolging.

721
00:27:00,999 --> 00:27:03,239
Niels Naglé: Dus het valideren van of we ons daaraan houden.

722
00:27:03,479 --> 00:27:03,539
Niels Naglé: En

723
00:27:03,539 --> 00:27:03,939
Dave Maasland: ik denk dat

724
00:27:03,939 --> 00:27:05,159
Niels Naglé: daar een grote uitdaging ligt.

725
00:27:05,239 --> 00:27:06,339
Niels Naglé: En dat duurt natuurlijk ook nog eventjes.

726
00:27:06,479 --> 00:27:07,959
Niels Naglé: In 2026 gaan er dingen in.

727
00:27:08,759 --> 00:27:10,599
Niels Naglé: Maar hoe gaan we dat met elkaar naleven?

728
00:27:10,679 --> 00:27:12,639
Niels Naglé: Dat we inderdaad met het goede doen,

729
00:27:13,079 --> 00:27:15,859
Niels Naglé: Maar dat ook hetgeen wat niet goed gedaan wordt, dat het wel ook naar gekeken wordt.

730
00:27:16,219 --> 00:27:19,519
Dave Maasland: Jullie gaan natuurlijk gewoon AI-compliance software maken voor allerlei nog wat dingen.

731
00:27:20,399 --> 00:27:20,719
Dave Maasland: Ja, zeker.

732
00:27:20,959 --> 00:27:22,979
Dave Maasland: Maar eigenlijk is dat het uitgangspunt.

733
00:27:23,079 --> 00:27:23,659
Dave Maasland: Maar dat wil je toch

734
00:27:23,659 --> 00:27:23,879
Dave Maasland: ook?

735
00:27:23,979 --> 00:27:29,179
Dave Maasland: Je wil, als je iets maakt, dat het ook goed is en robuust, bestendig.

736
00:27:32,359 --> 00:27:33,639
Dave Maasland: We waren op die conferenties.

737
00:27:34,019 --> 00:27:35,099
Dave Maasland: Ik moet even uit mijn hoofd.

738
00:27:35,139 --> 00:27:36,419
Dave Maasland: Ik zat op de conferentie in Las Vegas.

739
00:27:36,639 --> 00:27:39,339
Dave Maasland: En daar was een van onze executives die daar presenteerde.

740
00:27:39,439 --> 00:27:42,219
Dave Maasland: En die kwam met een niet polariserend verhaal over de VS.

741
00:27:42,519 --> 00:27:42,959
Dave Maasland: En die zei gewoon,

742
00:27:43,039 --> 00:27:46,479
Dave Maasland: luister, wij in Europa zijn altijd uitvinders geweest.

743
00:27:47,119 --> 00:27:48,159
Dave Maasland: Wij hebben dingen uitgevonden.

744
00:27:48,299 --> 00:27:51,599
Dave Maasland: En of het nou de auto was die wij hebben uitgevonden of robuust hebben gemaakt.

745
00:27:52,039 --> 00:27:53,719
Dave Maasland: En Amerika met Ford ging ze schalen.

746
00:27:54,099 --> 00:27:56,099
Dave Maasland: Amerika is waanzinnig goed in schalen.

747
00:27:56,489 --> 00:27:56,739
Dave Maasland: Wij zijn

748
00:27:56,739 --> 00:27:57,339
Dave Maasland: heel goed in bouwen.

749
00:27:57,339 --> 00:27:59,519
Dave Maasland: En exact wat jij zegt, wij staan gewoon voor degelijkheid.

750
00:27:59,579 --> 00:27:59,879
Dave Maasland: Goeie,

751
00:27:59,959 --> 00:28:01,719
Dave Maasland: mooie, duidelijke spullen maken.

752
00:28:02,199 --> 00:28:05,739
Dave Maasland: Dat wij soms wat meer van die schaalbaarheid van de VS mogen hebben, 100%

753
00:28:05,739 --> 00:28:06,039
Dave Maasland: eens.

754
00:28:06,619 --> 00:28:10,579
Dave Maasland: Maar volgens mij, waar we als Europa goed in zijn, verdomme goede spullen bouwen.

755
00:28:11,279 --> 00:28:11,819
Dave Maasland: Die kwaliteit.

756
00:28:11,999 --> 00:28:15,519
Dave Maasland: En dat zeggen mensen, ja Trump, er rijden geen Amerikaanse auto's in Europa.

757
00:28:16,059 --> 00:28:18,059
Dave Maasland: En naar mijn idee, de mensen die daar verstand van hebben in Amerika,

758
00:28:18,199 --> 00:28:19,219
Dave Maasland: zeggen ook heel duidelijk, dat komt,

759
00:28:19,679 --> 00:28:19,999
Dave Maasland: dat Europa

760
00:28:19,999 --> 00:28:21,139
Dave Maasland: gewoon in principe betere auto's heeft.

761
00:28:21,379 --> 00:28:24,259
Dave Maasland: Energie efficiënter, passen kleiner, betere bouwkwaliteit.

762
00:28:24,519 --> 00:28:26,419
Dave Maasland: De software van Tesla trouwens vind ik echt waanzinnig.

763
00:28:26,479 --> 00:28:28,139
Dave Maasland: Die zijn wel licht jaren vooruit.

764
00:28:28,579 --> 00:28:30,039
Dave Maasland: Maar volgens mij moeten we dat nooit verloochenen.

765
00:28:30,579 --> 00:28:31,419
Dave Maasland: Goede producten bouwen.

766
00:28:31,499 --> 00:28:34,499
Dave Maasland: En ook met R.I.I. zullen we volgens mij datzelfde moeten doen.

767
00:28:34,759 --> 00:28:38,399
Niels Naglé: En mijn beeld is, omdat we die regulering en omdat we die wetgeving hebben,

768
00:28:38,619 --> 00:28:41,399
Niels Naglé: zorgen we dat die kaders te staan om daar binnen te innoveren.

769
00:28:41,499 --> 00:28:44,139
Niels Naglé: En eigenlijk ligt daar een innovatiekracht door die wetgeving.

770
00:28:44,339 --> 00:28:46,059
Niels Naglé: Dat is in ieder geval mijn perspectief erop.

771
00:28:46,439 --> 00:28:49,699
Dave Maasland: Nou, ik vind in ieder geval fijn als we hem zo zouden blijven uitleggen.

772
00:28:49,759 --> 00:28:50,219
Dave Maasland: Dan nog steeds.

773
00:28:50,479 --> 00:28:53,899
Dave Maasland: Misschien zijn er slimme mensen die zeggen, nou maar, als je naar de wet kijkt, jullie hebben helemaal geen wet.

774
00:28:53,999 --> 00:28:56,099
Dave Maasland: Wij praten misschien nu een beetje hoog over erover, dat is prima.

775
00:28:56,579 --> 00:28:59,839
Dave Maasland: Maar ik vind dat de perceptie, ik vind dat er meer mensen moeten komen, meer ondernemers.

776
00:29:00,339 --> 00:29:02,399
Dave Maasland: Want je hoort natuurlijk nu eens een beweging van ondernemers aan de gang.

777
00:29:02,429 --> 00:29:04,539
Dave Maasland: Die zeggen, ja, ik ga weg uit Nederland, weg uit Europa.

778
00:29:05,119 --> 00:29:06,319
Dave Maasland: Moeten ze allemaal lekker zelf weten.

779
00:29:06,479 --> 00:29:08,759
Dave Maasland: Ik zag een fantastische opmerking van Prins Constantijn eronder.

780
00:29:09,179 --> 00:29:11,819
Dave Maasland: Wat erop neerkwam van oké, maar waar denk je dan dat het in het buitenland allemaal beter

781
00:29:11,819 --> 00:29:12,419
Dave Maasland: geregeld is?

782
00:29:13,419 --> 00:29:16,139
Dave Maasland: En waarom help je niet mee om hier dan dingen te regelen?

783
00:29:16,209 --> 00:29:17,619
Dave Maasland: Ik ben van ook dat tweede kamp.

784
00:29:18,659 --> 00:29:22,239
Dave Maasland: Volgens mij moeten we met elkaar innoveren en moeten we wat positiever zijn daarover.

785
00:29:22,499 --> 00:29:22,779
Joop Snijder: Precies.

786
00:29:24,079 --> 00:29:24,719
Dave Maasland: En we

787
00:29:24,719 --> 00:29:27,159
Joop Snijder: moeten denk ik ook heel veel praten over dit soort

788
00:29:27,159 --> 00:29:28,099
Dave Maasland: onderwerpen.

789
00:29:28,559 --> 00:29:30,739
Joop Snijder: En laten wij daar nou een kaartspel voor hebben.

790
00:29:31,019 --> 00:29:33,359
Dave Maasland: Ik probeer een slecht bruggetje te maken.

791
00:29:34,239 --> 00:29:35,079
Dave Maasland: Hij komt goed aan.

792
00:29:35,289 --> 00:29:35,559
Dave Maasland: Ja toch?

793
00:29:36,219 --> 00:29:38,319
Joop Snijder: En wij willen een stelling uit het kaartspel ook

794
00:29:38,319 --> 00:29:39,039
Dave Maasland: aan je voorleggen.

795
00:29:39,159 --> 00:29:40,479
Joop Snijder: Het gaat over generatieve AI.

796
00:29:41,819 --> 00:29:42,339
Dave Maasland: Je ziet

797
00:29:42,339 --> 00:29:43,239
Joop Snijder: Niels Schudden.

798
00:29:43,479 --> 00:29:44,919
Dave Maasland: Het is een beetje VI dit, niet gescript.

799
00:29:44,979 --> 00:29:46,099
Dave Maasland: Ik heb geen draaiboek gezien, niks.

800
00:29:46,199 --> 00:29:46,679
Joop Snijder: Mooi hè?

801
00:29:47,079 --> 00:29:47,659
Joop Snijder: En dat hebben we ook.

802
00:29:47,719 --> 00:29:48,679
Dave Maasland: En echt authentiek.

803
00:29:48,899 --> 00:29:49,119
Dave Maasland: Ja toch?

804
00:29:49,339 --> 00:29:49,439
Dave Maasland: Ja.

805
00:30:00,319 --> 00:30:01,999
Joop Snijder: Ben jij dan de Johan Derksen, Niels?

806
00:30:02,439 --> 00:30:02,559
Joop Snijder: Ja.

807
00:30:05,599 --> 00:30:08,579
Joop Snijder: Ik durf deze leeftijd niet te schatten, maar volgens mij.

808
00:30:10,319 --> 00:30:10,759
Dave Maasland: Mag wel eens.

809
00:30:10,759 --> 00:30:12,239
Dave Maasland: Ik denk dat jij eerder dan komt Joop.

810
00:30:14,599 --> 00:30:14,919
Dave Maasland: Oké.

811
00:30:15,859 --> 00:30:16,599
Dave Maasland: Doe maar gewoon Wilfried toch.

812
00:30:18,699 --> 00:30:20,319
Niels Naglé: Technologie en innovatie, dat is het thema.

813
00:30:20,319 --> 00:30:21,219
Niels Naglé: We hebben meerdere thema's.

814
00:30:21,559 --> 00:30:23,479
Niels Naglé: Dus in dit geval technologie en innovatie.

815
00:30:23,479 --> 00:30:24,439
Niels Naglé: En de stelling leidt als volgt.

816
00:30:24,879 --> 00:30:30,359
Niels Naglé: Het succesvol implementeren van generatieve AI in productie vereist gespecialiseerde expertise.

817
00:30:32,839 --> 00:30:33,319
Joop Snijder: Dat is een mond vol.

818
00:30:33,779 --> 00:30:34,079
Joop Snijder: Dat is een

819
00:30:34,079 --> 00:30:34,439
Dave Maasland: mond vol.

820
00:30:35,079 --> 00:30:36,459
Dave Maasland: En dan ga ik hem gewoon teruggooien naar jullie.

821
00:30:36,819 --> 00:30:37,699
Dave Maasland: Dat hangt er vanaf.

822
00:30:39,659 --> 00:30:40,939
Dave Maasland: hoe meer boeken ik lees,

823
00:30:41,579 --> 00:30:44,099
Dave Maasland: vind ik een interessante stroming die daarvan zegt,

824
00:30:44,978 --> 00:30:48,939
Dave Maasland: eigenlijk AI innovatie zou ook gewoon moeten komen van de onderkant.

825
00:30:49,039 --> 00:30:51,339
Dave Maasland: De mensen die er gewoon mee gaan experimenteren, die gaan doen.

826
00:30:51,739 --> 00:30:54,619
Dave Maasland: De individuele medewerker die zichzelf superkrachten geeft.

827
00:30:55,199 --> 00:30:58,839
Dave Maasland: Daar begint eigenlijk die innovatie voordat je een heel groot proces of bedrijf maakt.

828
00:30:58,899 --> 00:31:02,879
Dave Maasland: Dus als je het hebt over implementatie, dat je mensen wil superpoweren,

829
00:31:03,439 --> 00:31:05,759
Dave Maasland: ik weet niet of daar zou je misschien juist moeten zeggen,

830
00:31:05,919 --> 00:31:08,199
Dave Maasland: jongens, moeten stimuleren dat het omarmd wordt.

831
00:31:08,679 --> 00:31:09,719
Dave Maasland: en dan hoeft het helemaal, misschien nog niet

832
00:31:09,959 --> 00:31:11,819
Dave Maasland: specialistische kennis, je moet de mensen gewoon

833
00:31:12,179 --> 00:31:13,999
Dave Maasland: aanmoedigen dat zelf te doen. Ik denk

834
00:31:14,029 --> 00:31:15,659
Dave Maasland: waar de stelling natuurlijk wel over haalt, op het moment

835
00:31:15,789 --> 00:31:18,039
Dave Maasland: dat jij zegt, ik wil mijn bedrijf echt sterker,

836
00:31:18,199 --> 00:31:20,259
Dave Maasland: slimmer, innovatief maken en ik wil in mijn waardeketen.

837
00:31:20,739 --> 00:31:21,359
Dave Maasland: Dus je gaat gewoon denken,

838
00:31:21,899 --> 00:31:23,819
Dave Maasland: het simpele model van Porter is dat geloof ik.

839
00:31:23,879 --> 00:31:25,799
Dave Maasland: Hoe voeg ik waarde toe? En je bent

840
00:31:25,979 --> 00:31:27,779
Dave Maasland: strategisch aan het nadenken, ik zie daar een kans

841
00:31:27,879 --> 00:31:29,139
Dave Maasland: om een bedrijf om waarde toe te voegen.

842
00:31:30,239 --> 00:31:31,399
Dave Maasland: Ik geloof altijd in

843
00:31:33,359 --> 00:31:33,719
Dave Maasland: business

844
00:31:34,039 --> 00:31:34,579
Dave Maasland: en dan

845
00:31:36,259 --> 00:31:37,439
Dave Maasland: risico en dan pas technologie.

846
00:31:37,859 --> 00:31:38,099
Dave Maasland: Technologie

847
00:31:38,099 --> 00:31:39,199
Dave Maasland: is pas het laatste stapje.

848
00:31:39,709 --> 00:31:39,799
Dave Maasland: Dat

849
00:31:39,799 --> 00:31:41,399
Dave Maasland: je eerst kijkt naar die businesskant.

850
00:31:41,779 --> 00:31:42,659
Dave Maasland: Wat willen we bereiken?

851
00:31:42,959 --> 00:31:43,619
Dave Maasland: Waar willen we naartoe?

852
00:31:43,799 --> 00:31:44,619
Dave Maasland: Wat voor kansen liggen daar?

853
00:31:44,619 --> 00:31:47,919
Dave Maasland: En als je dat op dat niveau waarde wil toevoegen met generatieve AI,

854
00:31:48,419 --> 00:31:52,359
Dave Maasland: dan denk ik dat het heel verstandig is,

855
00:31:52,739 --> 00:31:55,539
Dave Maasland: tenzij je heel veel leergeld wil betalen om daar een specialist in te doen.

856
00:31:55,919 --> 00:31:57,119
Dave Maasland: Maar ik denk, als je snel wil starten,

857
00:31:57,489 --> 00:32:00,399
Dave Maasland: en juist in die onderkant die medewerkers gewoon het wil gaan laten doen,

858
00:32:00,919 --> 00:32:03,839
Dave Maasland: volgens mij kan dat meer...

859
00:32:04,299 --> 00:32:04,599
Joop Snijder: Zeker,

860
00:32:04,659 --> 00:32:05,579
Dave Maasland: en innovatie.

861
00:32:05,839 --> 00:32:06,159
Dave Maasland: Vibend.

862
00:32:06,199 --> 00:32:06,439
Dave Maasland: Het

863
00:32:06,439 --> 00:32:07,799
Joop Snijder: is toch een hip

864
00:32:07,799 --> 00:32:08,459
Dave Maasland: AI-word, toch?

865
00:32:09,099 --> 00:32:11,639
Dave Maasland: Vibe-coding, dat je gewoon op je gemakje een beetje dingen zet.

866
00:32:11,759 --> 00:32:12,219
Joop Snijder: Oh, zo ja.

867
00:32:13,059 --> 00:32:13,679
Joop Snijder: Ik kende hem

868
00:32:13,679 --> 00:32:13,939
Dave Maasland: niet.

869
00:32:15,139 --> 00:32:19,159
Joop Snijder: Maar jij hebt gelijk, want innovatie hoeft helemaal niet op technologie te zijn.

870
00:32:19,339 --> 00:32:23,359
Joop Snijder: Het is vaak veel interessanter om te zien wat innovatie in jouw bedrijf is.

871
00:32:23,679 --> 00:32:25,719
Joop Snijder: Dat hoeft niet hypervernieuwend te zijn,

872
00:32:26,529 --> 00:32:29,899
Joop Snijder: maar voor jouw bedrijf kan dat wel heel vernieuwend zijn.

873
00:32:30,739 --> 00:32:31,259
Dave Maasland: Ja, exact.

874
00:32:31,499 --> 00:32:32,739
Dave Maasland: Ik geloof ook heel leuk dat je zegt,

875
00:32:33,779 --> 00:32:37,059
Dave Maasland: Misschien is de echte innovatie van deze tijd...

876
00:32:38,099 --> 00:32:40,619
Dave Maasland: juist ook wel heel waardevol in die kleine stapjes.

877
00:32:41,979 --> 00:32:44,459
Dave Maasland: Het even kunnen omtoveren van een klantinteractiemoment.

878
00:32:44,759 --> 00:32:45,439
Dave Maasland: Wat daardoor

879
00:32:45,439 --> 00:32:47,219
Dave Maasland: persoonlijker wordt of wat dan ook.

880
00:32:47,339 --> 00:32:49,899
Dave Maasland: Of net even dat proces van een offerte maken...

881
00:32:49,899 --> 00:32:51,519
Dave Maasland: wat hypergepersonaliseerd wordt of wat dan ook.

882
00:32:52,399 --> 00:32:54,439
Dave Maasland: Ik denk, wij hebben intern in onze organisatie...

883
00:32:54,439 --> 00:32:56,419
Dave Maasland: werken we met het zevensterrenframework.

884
00:32:56,899 --> 00:32:58,279
Dave Maasland: Dat is een mindset waarvan je zegt...

885
00:32:58,279 --> 00:32:59,699
Dave Maasland: we gaan niet voor een vijfsterrenhotel...

886
00:32:59,699 --> 00:33:00,319
Dave Maasland: maar we gaan voor die

887
00:33:00,319 --> 00:33:01,639
Dave Maasland: waanzinnige ervaring.

888
00:33:01,819 --> 00:33:02,079
Dave Maasland: Hoe kan je

889
00:33:02,079 --> 00:33:03,419
Joop Snijder: echt naar die ervaring daarboven?

890
00:33:03,939 --> 00:33:05,439
Dave Maasland: Dan halen ze een aantal voorbeelden aan.

891
00:33:05,759 --> 00:33:06,639
Dave Maasland: Een hotel in Dubai natuurlijk.

892
00:33:06,739 --> 00:33:07,859
Dave Maasland: Het enige zevensterrenhotel.

893
00:33:08,459 --> 00:33:09,579
Dave Maasland: Hoe doe je dat nou?

894
00:33:10,079 --> 00:33:14,079
Dave Maasland: Nou, en ik denk dat AI, als je het hebt over klanttevredenheid en klantwaarde creëren.

895
00:33:14,439 --> 00:33:17,719
Dave Maasland: Dat AI, zeker voor die laatste twee sterren, dat schepje.

896
00:33:18,359 --> 00:33:18,459
Dave Maasland: Daar

897
00:33:18,459 --> 00:33:19,039
Dave Maasland: kan het heel

898
00:33:19,039 --> 00:33:19,899
Dave Maasland: interessant voor zijn.

899
00:33:19,939 --> 00:33:24,739
Dave Maasland: Om die mooie verbeteringen waar het net even dat extra.

900
00:33:24,879 --> 00:33:26,919
Dave Maasland: En ik vind die grote innovaties ook gaaf.

901
00:33:27,239 --> 00:33:27,359
Joop Snijder: Als

902
00:33:27,359 --> 00:33:28,799
Dave Maasland: je kijkt naar onze cybersecurityproducten.

903
00:33:28,919 --> 00:33:31,819
Dave Maasland: Als ik zie wat onze technische onderzoekers aan het bouwen zijn.

904
00:33:32,379 --> 00:33:34,279
Dave Maasland: Aan middelen om sneller aan te vallen op de sporen.

905
00:33:34,359 --> 00:33:38,399
Dave Maasland: En echt die detectielagen op basis van de machine learning modellen.

906
00:33:38,399 --> 00:33:39,139
Dave Maasland: Die ze al veel eerder hebben.

907
00:33:40,159 --> 00:33:41,699
Dave Maasland: Dat vind ik echt krankzinnig mooi.

908
00:33:42,239 --> 00:33:44,199
Dave Maasland: Alleen dat gaat mijn pet ver te boven eigenlijk.

909
00:33:44,939 --> 00:33:46,939
Dave Maasland: Dus in mijn rol als CEO bestuurder.

910
00:33:47,279 --> 00:33:48,939
Dave Maasland: Zie ik veel meer ook die praktische kant.

911
00:33:49,019 --> 00:33:50,959
Dave Maasland: Die je met AI kan doen.

912
00:33:52,239 --> 00:33:53,999
Dave Maasland: Dus ik ben eigenlijk ook wel eens over die incrementele.

913
00:33:54,059 --> 00:33:55,439
Dave Maasland: Die kleine verbeteringen.

914
00:33:55,619 --> 00:33:56,259
Joop Snijder: Ja, mooi.

915
00:33:57,519 --> 00:33:59,719
Dave Maasland: Ik was wel nieuwsgierig als CEO.

916
00:34:00,519 --> 00:34:02,899
Niels Naglé: Ik neem aan denk ik ook veel bedrijven waar je gesprek over gaat.

917
00:34:03,039 --> 00:34:06,699
Niels Naglé: Zie je daar ook diezelfde vraagstukken om AI en de verandering?

918
00:34:07,439 --> 00:34:08,879
Niels Naglé: Zie je die daar ook gevoerd worden?

919
00:34:09,478 --> 00:34:14,839
Dave Maasland: Ja, en ik denk ook zelfs een beetje aan de hype kant waar we een klein beetje doorslaan.

920
00:34:14,958 --> 00:34:20,559
Dave Maasland: Ik heb echt aan boardroomtafels gezeten waar er gerapporteerd moet worden aan aandeelhouders of andere stakeholders.

921
00:34:21,438 --> 00:34:23,799
Dave Maasland: Hoeveel R&D budget er nu al gaat naar AI.

922
00:34:24,079 --> 00:34:24,458
Dave Maasland: Want dan kan je

923
00:34:24,458 --> 00:34:25,879
Dave Maasland: natuurlijk zeggen dat heeft een bepaalde waarde.

924
00:34:26,458 --> 00:34:28,239
Dave Maasland: Dat hoef ik jullie niet uit te leggen.

925
00:34:28,319 --> 00:34:31,199
Dave Maasland: Dus sommige projecten zie ik intern gelabeld worden als

926
00:34:31,199 --> 00:34:31,478
Dave Maasland: AI.

927
00:34:31,759 --> 00:34:32,599
Dave Maasland: Met letterlijk de argument.

928
00:34:33,139 --> 00:34:35,539
Dave Maasland: Ja, maar dan kunnen we zeggen dat we zoveel R&D

929
00:34:35,539 --> 00:34:36,379
Dave Maasland: aan AI uitgeven.

930
00:34:37,099 --> 00:34:38,319
Dave Maasland: Omdat AI is tegenwoordig.

931
00:34:38,418 --> 00:34:40,438
Dave Maasland: We zien het op het moment dat we een product aan het uitleggen zijn.

932
00:34:40,619 --> 00:34:41,539
Dave Maasland: En er zit AI in.

933
00:34:41,678 --> 00:34:42,717
Dave Maasland: Dan gaan de ogen twinkelen.

934
00:34:43,639 --> 00:34:45,139
Dave Maasland: We vinden het ook allemaal zo mooi.

935
00:34:45,239 --> 00:34:47,619
Dave Maasland: Dat we misschien daar een klein beetje in doorslaan.

936
00:34:48,697 --> 00:34:49,018
Dave Maasland: Tegelijkertijd.

937
00:34:50,559 --> 00:34:51,579
Dave Maasland: Het gaat er dus wel over.

938
00:34:52,178 --> 00:34:52,279
Dave Maasland: Het

939
00:34:52,279 --> 00:34:53,438
Dave Maasland: gaat aan die bestuurstafels.

940
00:34:53,518 --> 00:34:55,319
Dave Maasland: Die hebben allemaal ergens wel doorheen wachten.

941
00:34:55,579 --> 00:34:59,779
Dave Maasland: AI kan ons op het gebied van schaalbaarheid, maar ook kwaliteit, consistentie,

942
00:35:00,159 --> 00:35:03,379
Dave Maasland: het democratiseren van heel veel dingen, slimme sales coaches, andere dingen.

943
00:35:03,899 --> 00:35:05,519
Dave Maasland: Ik denk dat het daar echt wel leeft.

944
00:35:05,579 --> 00:35:09,739
Dave Maasland: Ik denk alleen ook dat het voor die gemiddelde bestuurskamer allemaal te snel gaat.

945
00:35:11,099 --> 00:35:12,178
Dave Maasland: En die ontwikkelen voor elkaar zo.

946
00:35:12,259 --> 00:35:15,379
Dave Maasland: En daarom, het verhaal wat jullie vertellen, het begint altijd bij je eigen business.

947
00:35:16,319 --> 00:35:17,739
Dave Maasland: Vraag nog gewoon eens door wat je echt wil.

948
00:35:18,899 --> 00:35:22,259
Dave Maasland: AI ontwikkelt zich wel door, maar uiteindelijk moet het passen bij een...

949
00:35:23,159 --> 00:35:23,819
Dave Maasland: Bij het vraagstuk.

950
00:35:23,859 --> 00:35:23,999
Joop Snijder: Ja,

951
00:35:24,839 --> 00:35:26,499
Dave Maasland: en blijf gewoon in je eigen...

952
00:35:27,819 --> 00:35:29,739
Dave Maasland: Durf groter te dromen, dat mag denk ik wel met AI.

953
00:35:29,859 --> 00:35:32,799
Dave Maasland: Maar blijf wel bij je eigen visie die je als bedrijf...

954
00:35:32,799 --> 00:35:34,219
Dave Maasland: Dus ja, ik zie dat zeker terugkomen.

955
00:35:34,259 --> 00:35:36,679
Dave Maasland: Maar nogmaals, ik zie dus ook op dat niveau van...

956
00:35:36,679 --> 00:35:37,719
Dave Maasland: Oh ja, we moeten in AI investeren.

957
00:35:37,819 --> 00:35:40,679
Dave Maasland: Want dan kunnen we zeggen dat we zoveel procent van ons R&D in AI investeren.

958
00:35:41,079 --> 00:35:42,539
Dave Maasland: En daar worden onze aandeelhouders vrolijker van.

959
00:35:43,219 --> 00:35:44,779
Dave Maasland: En dat drijft ook weer de prijs op.

960
00:35:45,559 --> 00:35:45,839
Joop Snijder: Precies.

961
00:35:47,358 --> 00:35:47,679
Joop Snijder: Waar...

962
00:35:48,858 --> 00:35:52,818
Joop Snijder: Als bedrijven in een bedrijfskritische applicaties AI gaan inzetten...

963
00:35:53,659 --> 00:36:01,599
Joop Snijder: Lopen ze dan ergens ook een risico om extra kwetsbaar te worden voor cybersecurity aanvallen?

964
00:36:03,139 --> 00:36:05,639
Dave Maasland: Nou ja, ook daarvan zijn ze, dat hangt er vanaf.

965
00:36:05,639 --> 00:36:08,959
Dave Maasland: Maar over het algemeen is het kort antwoord ja, maar het hoeft niet erg

966
00:36:08,959 --> 00:36:09,219
Dave Maasland: te zijn.

967
00:36:09,739 --> 00:36:14,839
Dave Maasland: Ik denk in alle systemen die we toe gaan passen, wat wij natuurlijk in de cybersecurity heel mooi zeggen,

968
00:36:14,899 --> 00:36:21,139
Dave Maasland: je aanvalsoppervlakte, wat kan je allemaal eigenlijk proberen aan te vallen om binnen te komen,

969
00:36:21,279 --> 00:36:23,399
Dave Maasland: of als je eenmaal binnen bent om verder te komen.

970
00:36:23,819 --> 00:36:27,119
Dave Maasland: op het moment dat je bepaalde processen of deep learning applicaties dit inbouwt,

971
00:36:27,719 --> 00:36:31,739
Dave Maasland: dan kan dat eventueel misbruikt worden op een simpele manier om de AI te misleiden,

972
00:36:31,739 --> 00:36:33,879
Dave Maasland: om informatie vrij te geven die misschien niet kan.

973
00:36:33,969 --> 00:36:38,659
Dave Maasland: Of als het een chatbot is aan de websitekant en iedereen kan er dingen aan vragen

974
00:36:38,709 --> 00:36:40,039
Dave Maasland: om daar te kijken of omheen te gaan.

975
00:36:40,519 --> 00:36:43,619
Dave Maasland: Of als je eenmaal binnen bent om juist die processen te gebruiken

976
00:36:43,739 --> 00:36:45,499
Dave Maasland: om op een andere plek in het netwerk te komen.

977
00:36:45,609 --> 00:36:47,919
Dave Maasland: Of als er kwetsbaarheden in die applicatie zelf zit.

978
00:36:48,399 --> 00:36:51,479
Dave Maasland: Dus ja, het vergroot je aanvalsoppervlakte, want je krijgt er een systeem bij,

979
00:36:51,479 --> 00:36:52,379
Dave Maasland: je krijgt er een tool bij.

980
00:36:52,919 --> 00:36:55,179
Dave Maasland: Misschien niet altijd iedereen die weet hoe dat precies werkt.

981
00:36:55,319 --> 00:36:56,319
Dave Maasland: Het wordt niet gemonitord.

982
00:36:56,879 --> 00:36:56,979
Dave Maasland: Of

983
00:36:56,979 --> 00:36:57,579
Joop Snijder: in heel geval

984
00:36:57,579 --> 00:36:59,779
Dave Maasland: zien we dat digitale camera toezicht.

985
00:37:00,099 --> 00:37:01,619
Dave Maasland: Kijken, gebeurt er iets vreemds?

986
00:37:02,019 --> 00:37:03,659
Dave Maasland: Daar gaan organisaties nu pas echt naartoe.

987
00:37:04,059 --> 00:37:04,299
Dave Maasland: Dat noemen

988
00:37:04,299 --> 00:37:05,459
Dave Maasland: we een managed detection and response.

989
00:37:05,739 --> 00:37:07,999
Dave Maasland: Of een digitale monitoringsdienst.

990
00:37:08,079 --> 00:37:08,499
Dave Maasland: Dat je gewoon kijkt.

991
00:37:09,159 --> 00:37:10,199
Dave Maasland: Daar moeten bedrijven nog.

992
00:37:10,639 --> 00:37:11,279
Dave Maasland: En dat zie je natuurlijk wel.

993
00:37:11,279 --> 00:37:13,539
Dave Maasland: Dat innovatie soms harder gaat dan het

994
00:37:13,539 --> 00:37:14,039
Dave Maasland: investeren

995
00:37:14,039 --> 00:37:15,639
Dave Maasland: in dingen als digitale camera toezicht.

996
00:37:15,719 --> 00:37:18,239
Dave Maasland: En volgens mij zijn we nu wel steeds langzamer aan het gaan naar.

997
00:37:18,659 --> 00:37:19,779
Dave Maasland: Ook door partijen zoals jullie.

998
00:37:19,839 --> 00:37:21,599
Dave Maasland: Die zeggen als we dit gaan implementeren.

999
00:37:22,199 --> 00:37:24,119
Dave Maasland: Secure by design. Wie kan er allemaal bij?

1000
00:37:24,249 --> 00:37:24,479
Dave Maasland: Hoe zit

1001
00:37:24,479 --> 00:37:25,819
Dave Maasland: het met rechten? Hebben

1002
00:37:25,819 --> 00:37:26,339
Dave Maasland: we het

1003
00:37:26,419 --> 00:37:28,379
Dave Maasland: laten testen? Als het ook in productie

1004
00:37:28,519 --> 00:37:30,019
Dave Maasland: staat, laten we het regelmatig testen.

1005
00:37:30,999 --> 00:37:31,899
Dave Maasland: En dat het gewoon past.

1006
00:37:32,699 --> 00:37:34,239
Dave Maasland: Het hoeft niet erg, want je moet gewoon risico nemen.

1007
00:37:34,799 --> 00:37:36,259
Dave Maasland: Ondernemers risico nemen. Dus zeg

1008
00:37:36,339 --> 00:37:38,279
Dave Maasland: ik ga geen AI-systeem implementeren, want dat

1009
00:37:38,379 --> 00:37:40,299
Dave Maasland: brengt risico's mee. Dat brengt E-mail ook.

1010
00:37:41,279 --> 00:37:41,579
Dave Maasland: Als je dat

1011
00:37:41,579 --> 00:37:42,239
Dave Maasland: verkeerd gebruikt.

1012
00:37:42,829 --> 00:37:43,739
Dave Maasland: Dus daar zit denk ik wel,

1013
00:37:44,389 --> 00:37:45,819
Dave Maasland: wie ben ik om jullie een tip te geven, maar

1014
00:37:46,479 --> 00:37:48,319
Dave Maasland: change management, adoptie, andere dingen.

1015
00:37:48,419 --> 00:37:49,579
Dave Maasland: Daar zit je natuurlijk gewoon een gouden

1016
00:37:50,299 --> 00:37:52,159
Dave Maasland: business in. Los van dat je een AI-model of een nieuw

1017
00:37:52,179 --> 00:37:54,019
Dave Maasland: maakt, maar dat ook leren hoe dat te gebruiken

1018
00:37:54,479 --> 00:37:56,079
Dave Maasland: en hoe de fundamentele principes

1019
00:37:56,159 --> 00:37:58,139
Dave Maasland: erachter werken en hoe je dat veilig kan

1020
00:37:58,219 --> 00:38:00,099
Dave Maasland: doen en ook dat je de IT'ers meeneemt op de

1021
00:38:00,219 --> 00:38:01,979
Dave Maasland: security mensen en hoe ze die applicatie

1022
00:38:02,139 --> 00:38:04,079
Dave Maasland: goed kunnen beheren, daar zit volgens mij

1023
00:38:04,079 --> 00:38:06,119
Dave Maasland: een fantastische propositie.

1024
00:38:06,139 --> 00:38:07,679
Dave Maasland: Die hebben jullie misschien waarschijnlijk al. Zeker.

1025
00:38:08,319 --> 00:38:10,259
Dave Maasland: Dus dat is het om niet te verzinnen.

1026
00:38:12,139 --> 00:38:12,239
Niels Naglé: Nee,

1027
00:38:12,559 --> 00:38:13,199
Niels Naglé: zei je, nee, Tumijn?

1028
00:38:14,079 --> 00:38:16,079
Niels Naglé: Ik was nog wel nieuwsgierig, eigenlijk

1029
00:38:16,259 --> 00:38:17,899
Niels Naglé: was dat een stukje dromen waar ik naartoe wilde,

1030
00:38:17,959 --> 00:38:18,899
Niels Naglé: de vraag over de dromen.

1031
00:38:19,319 --> 00:38:19,659
Dave Maasland: We hebben ook

1032
00:38:19,659 --> 00:38:20,119
Niels Naglé: altijd de vraag

1033
00:38:20,239 --> 00:38:22,139
Niels Naglé: aan onze gast, van

1034
00:38:22,159 --> 00:38:24,079
Niels Naglé: je oneindig zou mogen bedenken wat AI

1035
00:38:24,559 --> 00:38:25,399
Niels Naglé: voor verandering zou

1036
00:38:26,299 --> 00:38:28,339
Niels Naglé: kunnen bedenken voor oplossing. Mag in privé,

1037
00:38:28,499 --> 00:38:28,639
Niels Naglé: mag in

1038
00:38:28,639 --> 00:38:29,259
Dave Maasland: werkzaam zijn.

1039
00:38:29,419 --> 00:38:30,019
Niels Naglé: Wat zou AI

1040
00:38:30,519 --> 00:38:31,939
Niels Naglé: kunnen brengen als jij zou mogen dromen?

1041
00:38:31,949 --> 00:38:33,059
Niels Naglé: Daar geef je ook wel bedenktijd voor.

1042
00:38:34,439 --> 00:38:35,779
Niels Naglé: Hoe zou zo'n systeem eruit zien?

1043
00:38:38,359 --> 00:38:39,659
Niels Naglé: Ik hoef pas het antwoord na de zekerheden.

1044
00:38:58,199 --> 00:39:01,679
Dave Maasland: Nou, een droom die ik wel heb, is iets waar ik me echt zorgen om maak.

1045
00:39:01,799 --> 00:39:03,459
Dave Maasland: Ook in ons bedrijf, maar ook in de maatschappij.

1046
00:39:03,599 --> 00:39:09,139
Dave Maasland: Je ziet natuurlijk dat het erop lijkt dat we elkaar allemaal niet aardig vinden.

1047
00:39:09,319 --> 00:39:10,619
Dave Maasland: Dat we zo gepolariseerd zijn.

1048
00:39:11,239 --> 00:39:13,119
Dave Maasland: Rechts, links, migratie, andere dingen.

1049
00:39:13,259 --> 00:39:15,179
Dave Maasland: Terwijl als ik dan met veel mensen praat.

1050
00:39:15,279 --> 00:39:16,659
Dave Maasland: Dan valt dat in die zin eigenlijk wel mee.

1051
00:39:17,159 --> 00:39:18,859
Dave Maasland: Plus dat ik digitale weerbaarheid.

1052
00:39:19,119 --> 00:39:20,519
Dave Maasland: Dat vind ik nou echt een thema.

1053
00:39:21,439 --> 00:39:23,319
Dave Maasland: Dat waar iedereen het over eens is.

1054
00:39:23,699 --> 00:39:25,059
Dave Maasland: Waar iedereen links en rechts.

1055
00:39:25,279 --> 00:39:27,199
Dave Maasland: PVV, GroenLinks, Volt werken samen.

1056
00:39:27,299 --> 00:39:27,579
Dave Maasland: Om te zeggen.

1057
00:39:27,699 --> 00:39:28,599
Dave Maasland: Volgens mij moeten we dit doen.

1058
00:39:28,959 --> 00:39:30,199
Dave Maasland: Het is ook een enorme kans.

1059
00:39:30,319 --> 00:39:31,279
Dave Maasland: En als ik één ding hoop.

1060
00:39:33,059 --> 00:39:34,739
Dave Maasland: Wat AI echt zou kunnen gaan doen.

1061
00:39:34,819 --> 00:39:35,939
Dave Maasland: Dus ik geloof dat er heel veel.

1062
00:39:36,079 --> 00:39:36,959
Dave Maasland: Of het nou onvrede is.

1063
00:39:37,039 --> 00:39:37,759
Dave Maasland: Terecht of onterecht.

1064
00:39:38,259 --> 00:39:40,739
Dave Maasland: is omdat er gewoon ongelijkheid is in de wereld.

1065
00:39:41,399 --> 00:39:43,439
Dave Maasland: Er zijn mensen die krijgen meer kansen dan anderen.

1066
00:39:43,679 --> 00:39:45,519
Dave Maasland: Er zijn mensen die hebben het goed voor elkaar en die denken,

1067
00:39:45,679 --> 00:39:47,939
Dave Maasland: het zal met tijd allemaal wel duren, al die problemen.

1068
00:39:47,959 --> 00:39:50,219
Dave Maasland: En voor degene die nu in een moeilijke situatie zit,

1069
00:39:50,659 --> 00:39:53,819
Dave Maasland: daar is wel dat de buurt super verdwijnt, het grote probleem.

1070
00:39:53,819 --> 00:39:57,179
Dave Maasland: Of dat de overheid weer de prijzen verhoogt of wat dan ook.

1071
00:39:57,199 --> 00:40:00,079
Dave Maasland: En volgens mij wat ons allemaal verder gaat helpen,

1072
00:40:00,779 --> 00:40:03,679
Dave Maasland: is als AI echt gaat zorgen op de grieft van digitale inclusie,

1073
00:40:04,299 --> 00:40:08,199
Dave Maasland: Dat die toegang tot onderwijs, maar ook gewoon de toegang tot AI zelf.

1074
00:40:09,399 --> 00:40:11,319
Dave Maasland: Ik kan niet in het middel denken hoe AI dat op gaat lossen.

1075
00:40:11,409 --> 00:40:17,879
Dave Maasland: Maar stel dat AI ervoor zorgt dat we allemaal met elkaar een soort basisniveau van kennis hebben.

1076
00:40:18,379 --> 00:40:19,899
Dave Maasland: Dat we uiteindelijk allemaal kunnen zorgen.

1077
00:40:20,029 --> 00:40:23,839
Dave Maasland: Ik geloof gewoon heel erg in educatie en opleiding is voor mij de basis van alles.

1078
00:40:23,979 --> 00:40:26,559
Dave Maasland: We moeten meer kan, iedereen verdient meer kansen.

1079
00:40:27,059 --> 00:40:31,119
Dave Maasland: En ik denk als AI, dat gaat voor, en dat maakt niet of je in Den Haag in de Schilderswijk geboren bent of in het Gooi.

1080
00:40:31,539 --> 00:40:34,499
Dave Maasland: In Den Haag heb je ook dankzij AI dat je kan dromen,

1081
00:40:34,619 --> 00:40:36,639
Dave Maasland: dat je wordt opgeleid, op jouw niveau kan worden geholpen.

1082
00:40:36,719 --> 00:40:40,759
Dave Maasland: En volgens mij zit daar heel erg de kern van heel veel problemen in.

1083
00:40:40,759 --> 00:40:41,879
Dave Maasland: Dus dat zou kunnen dan.

1084
00:40:42,379 --> 00:40:42,919
Dave Maasland: Mooie droom.

1085
00:40:43,639 --> 00:40:43,899
Dave Maasland: Ja toch?

1086
00:40:44,239 --> 00:40:45,639
Dave Maasland: Ja, zeker.

1087
00:40:45,959 --> 00:40:47,259
Dave Maasland: Laten we hopen dat dat...

1088
00:40:48,039 --> 00:40:50,919
Niels Naglé: Een vervolgvraag erop is, is het ook belangrijk, educatie, vind je

1089
00:40:50,919 --> 00:40:51,239
Dave Maasland: ook belangrijk.

1090
00:40:51,439 --> 00:40:55,259
Niels Naglé: Wat als bedrijven nu nog niet bezig zijn met AI en cybersecurity,

1091
00:40:55,799 --> 00:41:00,099
Niels Naglé: wat zou de eerste stap zijn die ze kunnen zetten om de educatie op te gaan pakken?

1092
00:41:01,059 --> 00:41:03,139
Dave Maasland: Nou, ik ben heel erg fan van...

1093
00:41:03,499 --> 00:41:05,539
Dave Maasland: Daar worden ze gek van bij mij al in het bedrijf.

1094
00:41:06,279 --> 00:41:07,439
Dave Maasland: Ik ben helemaal wild van quotes.

1095
00:41:07,719 --> 00:41:10,379
Dave Maasland: En op het simpele feit dat een quote die ik ochtends lees...

1096
00:41:10,379 --> 00:41:12,319
Dave Maasland: kan soms gewoon letterlijk de loop van mijn dag bepalen.

1097
00:41:12,779 --> 00:41:12,879
Dave Maasland: Dat

1098
00:41:12,879 --> 00:41:13,959
Dave Maasland: ik haal daar zoiets uit.

1099
00:41:14,059 --> 00:41:16,099
Dave Maasland: Dus dan ga ik een bepaald gesprek anders in.

1100
00:41:16,139 --> 00:41:18,019
Dave Maasland: Of ik kom met een ander gezicht op kantoor.

1101
00:41:18,099 --> 00:41:19,759
Dave Maasland: Dus ik geloof heel erg in dat stukje inspiratie.

1102
00:41:20,439 --> 00:41:22,699
Dave Maasland: En ik denk, als je gewoon even niet weet waar je moet beginnen...

1103
00:41:22,699 --> 00:41:24,619
Dave Maasland: wat ook helemaal niet hoeft...

1104
00:41:24,619 --> 00:41:26,559
Dave Maasland: is inspiratie is altijd een goed idee.

1105
00:41:27,459 --> 00:41:28,539
Dave Maasland: Dat is af en toe lekker uit eten gaan.

1106
00:41:28,878 --> 00:41:29,839
Dave Maasland: Inspiratie is altijd een goed idee.

1107
00:41:30,539 --> 00:41:32,439
Dave Maasland: nodig, en ik ben niet betaald,

1108
00:41:32,479 --> 00:41:33,739
Dave Maasland: maar bijvoorbeeld partijen zoals jullie uit,

1109
00:41:34,079 --> 00:41:36,439
Dave Maasland: om gewoon eens een algemene presentatie te komen

1110
00:41:36,599 --> 00:41:37,939
Dave Maasland: geven met kansen.

1111
00:41:38,599 --> 00:41:39,899
Dave Maasland: En dat kan je met cybersecurity ook doen,

1112
00:41:39,979 --> 00:41:42,199
Dave Maasland: en dat niet helemaal aan de dreigingen kan, maar gewoon

1113
00:41:42,379 --> 00:41:44,459
Dave Maasland: joh, wat heel veel mensen heel leuk

1114
00:41:44,579 --> 00:41:45,659
Dave Maasland: vinden, hoe werkt een hacker nou?

1115
00:41:46,279 --> 00:41:48,319
Dave Maasland: Zou ik dat zelf ook kunnen? Hoe zou je inbreken?

1116
00:41:48,619 --> 00:41:50,259
Dave Maasland: Het hoeft helemaal niet een doom verhaal te zijn, we gaan

1117
00:41:50,279 --> 00:41:52,279
Dave Maasland: er allemaal aan, maar als je mensen leert hoe een

1118
00:41:52,359 --> 00:41:54,299
Dave Maasland: hacker te werk gaat, waar die zijn wachtwoorden vandaan

1119
00:41:54,379 --> 00:41:55,839
Dave Maasland: haalt, hoe je inzit kunt, mensen vinden,

1120
00:41:56,039 --> 00:41:58,099
Dave Maasland: als ik één ding heb geleerd in deze tijd, dat was tien jaar geleden

1121
00:41:58,099 --> 00:42:00,199
Dave Maasland: echt anders, mensen vinden technologie cool.

1122
00:42:00,559 --> 00:42:00,959
Dave Maasland: cyber

1123
00:42:00,959 --> 00:42:02,459
Dave Maasland: is spannend, inbreken

1124
00:42:02,569 --> 00:42:03,859
Dave Maasland: andere dingen, AI is spannend

1125
00:42:04,539 --> 00:42:06,879
Dave Maasland: zorg ervoor dat je die inspiratiesessies

1126
00:42:07,239 --> 00:42:08,299
Dave Maasland: dat je, we hebben de interne

1127
00:42:08,539 --> 00:42:10,479
Dave Maasland: employee academy, we hebben elke

1128
00:42:11,019 --> 00:42:12,619
Dave Maasland: week, we hebben de cursusbeleggen

1129
00:42:12,659 --> 00:42:14,579
Dave Maasland: gehad en daar nemen we dit thema ook regelmatig

1130
00:42:14,589 --> 00:42:16,439
Dave Maasland: in mee, zorg ervoor dat je

1131
00:42:16,819 --> 00:42:18,419
Dave Maasland: in je onderneming, want je kan uiteindelijk

1132
00:42:18,499 --> 00:42:20,399
Dave Maasland: als onderneming, ja je kan heel veel dingen

1133
00:42:21,059 --> 00:42:22,479
Dave Maasland: structureren, maar uiteindelijk

1134
00:42:23,459 --> 00:42:24,499
Dave Maasland: investeer in die inspiratie

1135
00:42:24,509 --> 00:42:26,959
Dave Maasland: aan de onderkant en durf ook een beetje te zien wat er dan

1136
00:42:27,079 --> 00:42:28,578
Dave Maasland: mee gebeurt, ik denk dat daar

1137
00:42:29,039 --> 00:42:30,599
Dave Maasland: Maar dat je daar al heel snel stappen kan maken.

1138
00:42:31,239 --> 00:42:31,859
Niels Naglé: Helemaal mee eens.

1139
00:42:31,949 --> 00:42:32,299
Joop Snijder: Ja toch?

1140
00:42:32,669 --> 00:42:33,619
Joop Snijder: Dus eigenlijk is het...

1141
00:42:33,799 --> 00:42:35,579
Joop Snijder: Want we begonnen met kansen en we eindigen met

1142
00:42:35,579 --> 00:42:35,939
Dave Maasland: kansen.

1143
00:42:35,949 --> 00:42:36,579
Dave Maasland: Dat vind ik eigenlijk wel

1144
00:42:36,579 --> 00:42:36,939
Joop Snijder: heel mooi.

1145
00:42:37,049 --> 00:42:38,079
Joop Snijder: Daar zijn we ook lekker rond.

1146
00:42:38,259 --> 00:42:38,619
Dave Maasland: Je zegt

1147
00:42:38,619 --> 00:42:41,079
Joop Snijder: van, zie het als een kans om beter te worden.

1148
00:42:41,699 --> 00:42:44,059
Joop Snijder: Zie het als een kans om te groeien.

1149
00:42:44,959 --> 00:42:45,879
Joop Snijder: Concurrerend te zijn.

1150
00:42:46,699 --> 00:42:48,619
Joop Snijder: Zowel in de cybersecurity als de AI.

1151
00:42:49,599 --> 00:42:50,899
Joop Snijder: Natuurlijk heb je je risico's.

1152
00:42:52,118 --> 00:42:53,259
Joop Snijder: Maar draai het eens om.

1153
00:42:53,399 --> 00:42:57,019
Joop Snijder: Dat is eigenlijk wat je gedurende deze aflevering zegt.

1154
00:42:57,159 --> 00:42:58,359
Joop Snijder: Vat ik het zo samen?

1155
00:42:58,479 --> 00:42:59,899
Joop Snijder: Ja, dat mag je samenvatten als afsluitende

1156
00:42:59,899 --> 00:43:00,819
Dave Maasland: pleidooi zou ik willen zeggen.

1157
00:43:00,919 --> 00:43:03,039
Dave Maasland: Het mooie in cybersecurity is waarom ik daar graag in werk.

1158
00:43:03,199 --> 00:43:05,859
Dave Maasland: Wij beseffen denk ik veel van ons dat het niet om ons gaat.

1159
00:43:06,059 --> 00:43:06,959
Dave Maasland: Cybersecurity is nooit een doel.

1160
00:43:07,679 --> 00:43:08,979
Dave Maasland: Veiligheid op zich is geen doel.

1161
00:43:09,059 --> 00:43:10,319
Dave Maasland: Een mooi prachtig leven met elkaar.

1162
00:43:10,519 --> 00:43:12,799
Dave Maasland: En dat vind ik ook al de polarisatie terug te komen.

1163
00:43:12,839 --> 00:43:15,539
Dave Maasland: Er is niemand, of je nou in de islam gelooft.

1164
00:43:15,639 --> 00:43:17,459
Dave Maasland: Of als je uit Rusland komt of wat dan ook.

1165
00:43:17,839 --> 00:43:21,759
Dave Maasland: Uiteindelijk wil iedereen gewoon eigenlijk een fijn leven hebben.

1166
00:43:21,799 --> 00:43:28,739
Dave Maasland: Ik denk dat dat AI op heel veel vlakken de mogelijkheid heeft om ons leven

1167
00:43:28,739 --> 00:43:29,839
Dave Maasland: echt beter

1168
00:43:29,839 --> 00:43:30,079
Dave Maasland: te maken.

1169
00:43:30,359 --> 00:43:32,899
Dave Maasland: Dingen die nu te duur zijn, goedkoper bij elkaar te halen.

1170
00:43:33,519 --> 00:43:36,079
Dave Maasland: Dingen voor kanker, of het nou andere medicijnen dingen is.

1171
00:43:36,119 --> 00:43:41,119
Dave Maasland: Uiteindelijk is de potentie van AI groter denk ik dan de dreiging en dat het leven beter maken.

1172
00:43:41,479 --> 00:43:44,839
Dave Maasland: Kijk en ik ben niet zo'n, ik ben ook wel een realist, dat gaan we allemaal niet oplossen.

1173
00:43:45,019 --> 00:43:49,439
Dave Maasland: En die oorlog is verschrikkelijk en waarschijnlijk gaan we de relatie met Rusland de komende tientallen jaren niet normaliseren.

1174
00:43:49,519 --> 00:43:52,319
Dave Maasland: maar het zorgen dat mensen meer gelijke kansen krijgen.

1175
00:43:52,779 --> 00:43:54,419
Dave Maasland: Waardoor uiteindelijk die polarisatie...

1176
00:43:54,759 --> 00:43:56,239
Dave Maasland: dat we er allemaal wat gelukkiger van gaan worden.

1177
00:43:57,039 --> 00:43:57,919
Dave Maasland: Volgens mij moeten we daarvan gaan.

1178
00:43:58,439 --> 00:43:58,919
Dave Maasland: Denk in

1179
00:43:58,919 --> 00:44:00,159
Joop Snijder: kansen en daarmee risico's

1180
00:44:00,159 --> 00:44:00,619
Niels Naglé: afdekken.

1181
00:44:01,099 --> 00:44:01,879
Dave Maasland: Ja, kansen eerst.

1182
00:44:02,359 --> 00:44:02,859
Niels Naglé: Risico's twee.

1183
00:44:03,019 --> 00:44:04,419
Niels Naglé: Gas, maar weten dat je kan rennen.

1184
00:44:05,079 --> 00:44:05,459
Niels Naglé: Ook tien

1185
00:44:05,459 --> 00:44:05,659
Joop Snijder: jaar.

1186
00:44:05,659 --> 00:44:05,759
Joop Snijder: Ja, toch?

1187
00:44:06,019 --> 00:44:07,519
Dave Maasland: En dan kan je de bocht

1188
00:44:07,519 --> 00:44:07,659
Dave Maasland: uit.

1189
00:44:08,539 --> 00:44:08,819
Dave Maasland: Heel mooi.

1190
00:44:10,839 --> 00:44:14,059
Joop Snijder: Dave, hartstikke bedankt dat je dit allemaal met ons wilde delen hier.

1191
00:44:15,159 --> 00:44:17,539
Joop Snijder: Zorg dat je je abonneert via je favoriete podcast-app.

1192
00:44:17,699 --> 00:44:19,899
Joop Snijder: En dan mis je geen aflevering en krijg je vanzelf het seintje.

1193
00:44:20,359 --> 00:44:20,879
Dave Maasland: Tot de volgende keer.

1194
00:44:20,979 --> 00:44:21,119
Dave Maasland: Tot de

1195
00:44:21,119 --> 00:44:21,579
Joop Snijder: volgende keer.


People on this episode