AIToday Live

S07E49 - AI-criminaliteit raakt ons allemaal: wat moet je weten?

Aigency by Info Support Season 7 Episode 49

Frederiek Burlage en Barend Frans van de politie Amsterdam bespreken in deze aflevering van AIToday Live de toenemende dreiging van AI-gestuurde criminaliteit. Ze delen voorbeelden van voice cloning en deepfakes die gebruikt worden voor fraude, en benadrukken hoe moeilijk het is geworden om echt van nep te onderscheiden.

De agenten geven praktische tips om jezelf te beschermen tegen cybercriminaliteit en benadrukken dat niet alleen ouderen, maar ook jongeren kwetsbaar zijn. Ze moedigen slachtoffers aan om aangifte te doen en zich niet te schamen.

Naast de gevaren zien Burlage en Frans ook kansen voor AI in politiewerk, zoals administratieve ondersteuning en het analyseren van grote datasets. Ze benadrukken het belang van digitale weerbaarheid en open gesprekken over online ervaringen.

Onderwerpen

  • AI-gestuurde criminaliteit
  • Voice cloning en WhatsApp-fraude
  • Digitale weerbaarheid en bescherming
  • Kwetsbaarheid van jongeren voor cybercriminaliteit
  • Toepassingen van AI in criminaliteitsbestrijding

Links

Genoemde entiteiten: Politie Amsterdam - Frederiek Burlage - Barend Frans - PostNL - Hexhield

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:04,760
In deze aflevering hoor je Frederiek Burlage en Barend Frans van de politie Amsterdam.

2
00:00:04,760 --> 00:00:09,160
Zij geven inzicht in de groeiende dreiging van AI-gestuurde criminaliteit.

3
00:00:09,160 --> 00:00:11,560
Denk aan voicecloning en deepfakes.

4
00:00:11,560 --> 00:00:15,360
De leden van het Cybercrime Team delen praktische beveiligingstips

5
00:00:15,360 --> 00:00:20,120
en benadrukken het belang van open gesprekken met kinderen over hun online ervaringen.

6
00:00:20,120 --> 00:00:22,120
Dus blijf luisteren.

7
00:00:32,000 --> 00:00:33,400
We hebben de Politie weten te strikken. Letterlijk. Jullie zaten te lunchen.

8
00:00:52,400 --> 00:00:52,920
Ja, dat is goed.

9
00:00:54,000 --> 00:00:55,140
Joop Snijder, CTO bij Aigency.

10
00:00:55,420 --> 00:00:57,480
Niels Naglé, ik ben Area Lead Data & AI bij Info Support.

11
00:00:57,660 --> 00:00:59,780
Ja, zouden jullie zelf eerst willen voorstellen...

12
00:00:59,860 --> 00:01:00,980
Frederiek, zou jij willen beginnen?

13
00:01:01,380 --> 00:01:02,880
Ja, hi. Ik ben Frederiek Burlage.

14
00:01:03,210 --> 00:01:06,220
En ik werk bij Politie Amsterdam, bij het Cybercrime Team...

15
00:01:06,980 --> 00:01:09,360
om publiek-pivate samenwerkingen aan te gaan.

16
00:01:09,580 --> 00:01:10,860
Om Cybercrime te bestrijden.

17
00:01:11,400 --> 00:01:11,580
Ja.

18
00:01:12,760 --> 00:01:13,860
En mijn naam is Barend Frans.

19
00:01:14,050 --> 00:01:16,200
Ook werkzaam bij de Eenheid Amsterdam, bij de politie.

20
00:01:16,820 --> 00:01:18,480
En ik heb er nog een klein rolletje erbij.

21
00:01:18,600 --> 00:01:21,520
Ik probeer ook nog de doorontwikkeling van digitale opsporing...

22
00:01:21,540 --> 00:01:24,400
te nemen in mijn publiek-private samenwerking.

23
00:01:24,440 --> 00:01:25,000
Oh, interessant.

24
00:01:26,260 --> 00:01:30,120
En het evenement hier gaat vandaag over digitale weerbaarheid.

25
00:01:31,200 --> 00:01:32,640
Wij zijn een AI-podcast.

26
00:01:32,820 --> 00:01:35,240
Wat komen jullie tegen op dit gebied?

27
00:01:37,100 --> 00:01:38,280
Ja, eigenlijk best wel een boel.

28
00:01:39,260 --> 00:01:45,240
We zien echt de afgelopen jaren dat er meer gebruik wordt gemaakt van AI.

29
00:01:46,140 --> 00:01:49,020
En ook in de criminaliteit.

30
00:01:49,900 --> 00:01:53,120
En daar hebben we uiteraard al een aantal zaken van gezien.

31
00:01:53,780 --> 00:01:55,800
En wat je bijvoorbeeld ziet is voice cloning.

32
00:01:56,300 --> 00:02:04,800
Je hebt volgens mij nog maar 15 seconden een stem nodig die ergens op het internet staat om in ieder geval een voice te kunnen klonen.

33
00:02:05,260 --> 00:02:06,280
Daar kan je van alles mee doen.

34
00:02:06,390 --> 00:02:10,220
Daar kan je WhatsApp-fraude mee doen, want tegenwoordig bel je natuurlijk met WhatsApp-fraude.

35
00:02:10,680 --> 00:02:13,760
Maar je kan ook gewoon bedrijven gaan bellen als CEO.

36
00:02:14,240 --> 00:02:16,740
En er moet even wat geld over gemaakt worden.

37
00:02:16,860 --> 00:02:16,980
Dus

38
00:02:16,980 --> 00:02:17,400
we

39
00:02:17,400 --> 00:02:18,160
zien genoeg.

40
00:02:18,880 --> 00:02:19,120
Jij had

41
00:02:19,120 --> 00:02:24,500
ook nog een leuk voorbeeld van die vergadering in China.

42
00:02:26,060 --> 00:02:27,100
Of ben ik nou...

43
00:02:27,500 --> 00:02:31,180
In ieder geval via Teams was er een dame geweest...

44
00:02:31,180 --> 00:02:32,620
die dacht

45
00:02:32,620 --> 00:02:34,800
dat zij met drie van haar baas

46
00:02:34,800 --> 00:02:35,320
aan

47
00:02:35,320 --> 00:02:36,400
het overleggen was.

48
00:02:36,540 --> 00:02:36,880
Oké.

49
00:02:37,160 --> 00:02:41,280
En dat bleek dus allemaal deepfakes te zijn.

50
00:02:41,300 --> 00:02:41,460
Nee.

51
00:02:41,840 --> 00:02:42,440
En die heeft

52
00:02:42,440 --> 00:02:47,960
er heel veel geld over gemaakt naar de crimineel toe.

53
00:02:48,160 --> 00:02:49,760
Oh ja, dat voorbeeld kende ik nog niet.

54
00:02:51,620 --> 00:02:57,500
En ik denk ook dat wij als politie ons echt zorgen maken over wat er allemaal gaat gebeuren nog.

55
00:02:58,960 --> 00:03:05,820
We zien dus inderdaad met de moderne babbeltrucs wordt al veel AI ingezet.

56
00:03:06,420 --> 00:03:13,760
Dus inderdaad voice cloning of het manipuleren van foto's en dergelijke.

57
00:03:14,460 --> 00:03:20,460
En als dat allemaal gecombineerd wordt, dan is het heel lastig om te zien wanneer iets nou echt is of nep.

58
00:03:21,620 --> 00:03:22,180
Terwijl heel veel

59
00:03:22,180 --> 00:03:28,700
mensen die zeggen nu, ik kan prima zien wat het verschil is tussen een AI-gegenereerde foto en een echte foto.

60
00:03:29,140 --> 00:03:29,680
Nog wel.

61
00:03:30,620 --> 00:03:35,440
Want er wordt heel vaak het voorbeeldje gebruikt van de persoon met zes vingers.

62
00:03:36,460 --> 00:03:40,780
Alleen volgens mij was het eergisteren dat er in het las ik ergens op het internet,

63
00:03:40,850 --> 00:03:47,420
dat er nu weer een applicatie is die ervoor zorgt dat die zes vingers gewoon vijf vingers zijn

64
00:03:47,540 --> 00:03:50,120
en dat het er echt ontzettend echt

65
00:03:50,120 --> 00:03:50,600
uitziet.

66
00:03:51,340 --> 00:03:52,600
De ontwikkelingen gaan zo snel.

67
00:03:52,940 --> 00:03:55,700
Iets wat vorige week nog niet werkte, zou deze week wel kunnen werken.

68
00:03:55,840 --> 00:04:01,780
En inderdaad, de AI-gegenereerde vijfvingerige mensen, die zijn al al om te vinden op het internet.

69
00:04:02,380 --> 00:04:04,400
Wij komen ook best wel vaak op conferenties.

70
00:04:04,640 --> 00:04:07,920
En dan zijn er ook wel sprekers die die twee beelden laten zien.

71
00:04:08,260 --> 00:04:09,060
En de grappige is,

72
00:04:09,200 --> 00:04:09,740
de

73
00:04:09,740 --> 00:04:13,720
helft steekt ook gewoon de hand op bij de gegenereerde van die is echt.

74
00:04:13,960 --> 00:04:16,560
Dus dat betekent eigenlijk dat je het niet meer kan zien, toch?

75
00:04:17,100 --> 00:04:18,200
Volgens mij zie je het ook niet meer.

76
00:04:18,300 --> 00:04:18,380
Nee.

77
00:04:19,040 --> 00:04:21,500
En hoe kon je je daar nou aan voor weren?

78
00:04:21,860 --> 00:04:21,920
Ja.

79
00:04:22,600 --> 00:04:27,380
Dat is echt wel een hele grote uitdaging waar we denk ik met z'n allen mee van doen krijgen.

80
00:04:27,680 --> 00:04:28,940
Heb je daar een idee voor?

81
00:04:30,420 --> 00:04:32,560
Nou, wat ik hoop is...

82
00:04:33,620 --> 00:04:36,600
er ligt nu heel veel verantwoordelijkheid bij de eindgebruiker.

83
00:04:37,000 --> 00:04:38,199
Dus bij de burger zelf.

84
00:04:39,160 --> 00:04:40,600
En wij hopen dat...

85
00:04:40,600 --> 00:04:43,720
daarom doen wij ook die publiek-private samenwerking met bedrijven.

86
00:04:44,240 --> 00:04:47,380
Dat bedrijven echt meer ook gaan zelf doen...

87
00:04:47,440 --> 00:04:51,120
om te kunnen garanderen dat zij of de instelling zelf zijn...

88
00:04:51,120 --> 00:04:53,860
die contact opneemt of dat er minder misbruik wordt gemaakt...

89
00:04:53,860 --> 00:04:55,600
van hun naam of iets.

90
00:04:56,400 --> 00:04:59,619
En dat zij proberen te helpen om ook...

91
00:04:59,640 --> 00:05:01,080
Dit soort fraude of criminaliteit.

92
00:05:01,150 --> 00:05:02,400
Ook samen tegen te gaan.

93
00:05:03,280 --> 00:05:04,720
Maar dat is ook heel lastig.

94
00:05:05,360 --> 00:05:06,280
Maar we hopen dus vooral.

95
00:05:06,410 --> 00:05:06,960
Om te kijken van.

96
00:05:07,640 --> 00:05:08,800
Hoe kan je echt weten.

97
00:05:08,830 --> 00:05:10,160
Dat je met iemand van doen hebt.

98
00:05:10,800 --> 00:05:12,440
En hoe we dat willen.

99
00:05:14,660 --> 00:05:14,980
Ik denk.

100
00:05:15,560 --> 00:05:16,820
Dat we ook als overheid.

101
00:05:16,940 --> 00:05:17,560
Moeten kijken van.

102
00:05:17,610 --> 00:05:19,640
Hoe kunnen we dat goed gaan.

103
00:05:21,660 --> 00:05:22,300
Hoe heet het?

104
00:05:23,600 --> 00:05:24,040
Reguleren.

105
00:05:24,200 --> 00:05:24,900
Reguleren ook.

106
00:05:25,140 --> 00:05:27,800
Kijken wat we daar allemaal mee kunnen doen.

107
00:05:29,280 --> 00:05:30,020
En

108
00:05:30,020 --> 00:05:36,600
iedereen, denk ik, wat Frederiek eigenlijk ook wel zegt, is vertrouw niet alles.

109
00:05:36,760 --> 00:05:37,280
We leren natuurlijk

110
00:05:37,280 --> 00:05:38,340
van je

111
00:05:38,340 --> 00:05:41,820
moet het volste vertrouwen hebben in mensen en ga zo maar door.

112
00:05:42,440 --> 00:05:48,660
Alleen op het digitaal vlak wordt het gewoon steeds moeilijker om eigenlijk te zien of het echt is of niet echt is.

113
00:05:49,759 --> 00:05:57,280
En in het verleden trapte mensen al in eigenlijk oplichtingen waarvan je zegt van dit had je

114
00:05:57,280 --> 00:05:57,780
kunnen zien.

115
00:05:58,740 --> 00:06:01,000
Aanwoonwoordig is het gewoon een heel stuk moeilijker.

116
00:06:01,120 --> 00:06:04,380
Als je bijvoorbeeld naar de phishing-mails kijkt, die met AI gegenereerd zijn,

117
00:06:04,920 --> 00:06:06,440
zijn niet van echt te onderscheiden.

118
00:06:07,260 --> 00:06:10,600
En ben jij dan degene die dat allemaal weet? Ik vraag me af.

119
00:06:10,780 --> 00:06:14,140
Nou, ik schaam me toch onder dat ik redelijk wat van de technologie weet,

120
00:06:14,220 --> 00:06:15,220
omdat we het ook zelf bouwen.

121
00:06:15,340 --> 00:06:20,120
En ik betrapte me erbij gewoon op dat ik de mail niet durfde te openen van PostNL,

122
00:06:20,200 --> 00:06:21,140
waarin er een pakketje stond.

123
00:06:21,220 --> 00:06:24,020
Terwijl ik wist dat er een pakketje was, maar toch even naar de app ben gegaan

124
00:06:24,020 --> 00:06:26,000
om te kijken in de app in plaats van in de mail.

125
00:06:26,200 --> 00:06:30,960
Want die mails zijn inderdaad zo lijkend op de mailtjes die je verwacht.

126
00:06:31,340 --> 00:06:34,620
En ergens is je dan een pakketje verwacht dat je dus toch gewoon eerst naar de app gaat.

127
00:06:34,620 --> 00:06:36,680
En dat denk ik ook goed is om dat te voorkomen.

128
00:06:37,100 --> 00:06:41,040
En het voorbeeld wat je net noemde vind ik ook wel mooi van de reclame die nu op televisie is.

129
00:06:42,240 --> 00:06:45,420
Voor de jeugd luistert reclames op televisie, die worden niet vaak gekeken meer natuurlijk.

130
00:06:46,000 --> 00:06:50,820
Maar het stukje dat de bank, de oudere vrouwtje inderdaad, gebeld wordt door de bank.

131
00:06:50,930 --> 00:06:52,460
En even in de app gewoon kan checken.

132
00:06:52,920 --> 00:06:56,000
Is dit nu echt de bank die mij op dit moment nu aan het bellen is?

133
00:06:56,140 --> 00:06:57,500
Wat gewoon een praktisch hulpmiddel is.

134
00:06:58,400 --> 00:07:01,260
Om ouderen, maar eigenlijk ook mij en iedereen te helpen.

135
00:07:01,880 --> 00:07:03,680
Ben ik echt in gesprek met de bank, ja of nee?

136
00:07:04,140 --> 00:07:06,040
Dat zijn van die mooie praktische voorbeelden inderdaad.

137
00:07:06,820 --> 00:07:11,460
En hoe krijgen we daar die informatie bij de mensen die nog geen kennis van deze technologie hebben?

138
00:07:11,520 --> 00:07:12,420
Hoe bereiken we die mensen?

139
00:07:14,620 --> 00:07:22,240
Volgens mij blijft dat gewoon met het overladen van informatie in reclames, in de app zelf.

140
00:07:23,460 --> 00:07:25,960
En daar zijn we natuurlijk als publiek-privaat te samenwerkingen.

141
00:07:26,120 --> 00:07:31,060
ook heel erg mee bezig van wat voor oplossingen zijn er allemaal...

142
00:07:31,060 --> 00:07:33,900
om ervoor te zorgen dat iemand geen slachtoffer kan worden.

143
00:07:35,480 --> 00:07:38,280
En dus ook misschien deze cursus van digitale weerbaarheid.

144
00:07:38,460 --> 00:07:38,880
Dat

145
00:07:38,880 --> 00:07:40,260
zal een hele goede start ook zijn.

146
00:07:41,140 --> 00:07:43,580
Kan je iets kort vertellen, Barend?

147
00:07:43,760 --> 00:07:45,980
Jij misschien, want jij straks straks op het podium...

148
00:07:45,980 --> 00:07:50,540
over deze aankondiging van de cursus die jullie vandaag lanceren.

149
00:07:50,620 --> 00:07:52,860
Ik moet je heel eerlijk zeggen, ik ken de cursus zelf niet.

150
00:07:54,100 --> 00:07:57,140
Ik doe wel mee, tenminste mijn hoofd doet mee.

151
00:07:57,250 --> 00:07:58,520
En ik heb ook wel meegedacht

152
00:07:58,520 --> 00:07:59,260
met dit

153
00:07:59,260 --> 00:07:59,500
project.

154
00:08:00,220 --> 00:08:02,360
Over AI, de cursussen ken ik zelf niet.

155
00:08:02,980 --> 00:08:07,940
Ik weet wel dat de cursussen die worden aangeboden echt up to date zijn.

156
00:08:08,820 --> 00:08:10,820
Ik geloof dat elke maand er nieuwe

157
00:08:10,820 --> 00:08:11,420
cursussen

158
00:08:11,420 --> 00:08:11,540
komen.

159
00:08:11,660 --> 00:08:13,480
Dus ja, dat is gewoon ontzettend goed.

160
00:08:14,080 --> 00:08:15,560
En ga die cursussen gewoon doen.

161
00:08:16,220 --> 00:08:16,540
En dat wil

162
00:08:16,540 --> 00:08:17,200
dan ook niet...

163
00:08:17,840 --> 00:08:22,380
Kijk, als je die cursussen doet, dan denk ik dat je redelijk voorbereid bent.

164
00:08:23,240 --> 00:08:27,800
Maar het hoeft nog niet te betekenen dat je dan gelijk alles weer moet geloven.

165
00:08:28,320 --> 00:08:29,240
Want zoals jij net

166
00:08:29,240 --> 00:08:29,660
al zei,

167
00:08:30,060 --> 00:08:31,820
die wereld gaat ook gewoon maar door.

168
00:08:31,890 --> 00:08:34,059
Wat vandaag nieuws is, morgen oud.

169
00:08:34,799 --> 00:08:37,840
Dus hou je gewoon altijd goed up-to-date.

170
00:08:38,820 --> 00:08:42,140
En er zijn natuurlijk ook gewoon momenten dat je kwetsbaarder bent.

171
00:08:42,559 --> 00:08:46,740
Je gaf net het voorbeeld van, wat nou als je baas, je directeur belt?

172
00:08:47,280 --> 00:08:51,180
Dan kom je misschien in een andere staat terecht dan als je denkt van,

173
00:08:51,280 --> 00:08:53,960
Het is de collega van een andere afdeling.

174
00:08:54,460 --> 00:08:57,279
Dan heb je misschien even meer tijd en ruimte om erover na te denken.

175
00:08:59,480 --> 00:09:02,539
Criminelen spelen heel erg in op de menselijke eigenschappen

176
00:09:02,539 --> 00:09:03,120
die iedereen

177
00:09:03,120 --> 00:09:03,580
heeft.

178
00:09:04,099 --> 00:09:05,480
Dus vaak moet het snel, snel, snel.

179
00:09:06,180 --> 00:09:10,520
Vaak is het op het laatste moment of op vrijdagavond of iets dat je net het weekend in wilde.

180
00:09:11,060 --> 00:09:12,860
Of er wordt op je

181
00:09:12,860 --> 00:09:13,140
goede

182
00:09:13,140 --> 00:09:14,120
wil ingepraat.

183
00:09:14,360 --> 00:09:15,220
Dan kan je helpen.

184
00:09:15,680 --> 00:09:17,380
Mensen die helpen graag.

185
00:09:18,120 --> 00:09:21,800
Of er wordt gezegd, er wordt nu geld van je afhandig gemaakt.

186
00:09:21,800 --> 00:09:22,840
Er wordt nu geld gestolen.

187
00:09:23,160 --> 00:09:25,480
Je moet nu ingrijpen, anders is je rekening leeg.

188
00:09:26,040 --> 00:09:26,880
Ja, dan krijg je stress.

189
00:09:28,559 --> 00:09:34,000
De criminelen willen dit soort situaties creëren om je dus te kunnen oplichten.

190
00:09:35,199 --> 00:09:38,400
Ik had gisteren nog een mail gekregen van, ik zal niet het bedrijf noemen.

191
00:09:39,100 --> 00:09:40,420
Want het was niet het echte bedrijf.

192
00:09:40,840 --> 00:09:46,100
Maar er stond wel in dat mijn crypto wallet momenteel ingelogd werd vanuit Rusland.

193
00:09:46,400 --> 00:09:51,200
En dat er heel snel actie ondernomen moest worden, want anders zou het verkeerd aflopen.

194
00:09:51,860 --> 00:09:53,940
Nou heb ik bij dat bedrijf geen crypto wallet.

195
00:09:54,720 --> 00:09:55,000
Maar goed,

196
00:09:55,240 --> 00:09:57,200
als je die wel zou hebben en

197
00:09:57,200 --> 00:09:57,880
je denkt van oh,

198
00:09:58,220 --> 00:09:58,780
daar gaan we.

199
00:09:59,700 --> 00:10:03,540
En dan klinkt het inderdaad, Rusland, dan wordt het wel stressen.

200
00:10:03,840 --> 00:10:10,700
Nou, een van de dingen die je misschien wel minimaal moet doen is, als de mogelijkheid er is,

201
00:10:11,380 --> 00:10:13,620
zet minimaal twee staps verificatie aan.

202
00:10:15,320 --> 00:10:17,580
Het klinkt heel erg flauw, maar doe het alsjeblieft.

203
00:10:17,680 --> 00:10:21,300
Want daardoor merk je ook, of word je erop geattenteerd,

204
00:10:21,800 --> 00:10:25,620
dat er mogelijk een keer echt iets aan de hand is met je wallet.

205
00:10:26,040 --> 00:10:26,340
Of

206
00:10:26,340 --> 00:10:28,300
met welk account je ook hebt.

207
00:10:28,560 --> 00:10:28,880
Precies.

208
00:10:29,620 --> 00:10:33,780
En naast die voice cloning komen jullie ook nog andere dingen tegen

209
00:10:33,920 --> 00:10:39,000
waar AI als technologie wordt gebruikt om te proberen om mensen op te lichten?

210
00:10:41,320 --> 00:10:44,960
Tegenkomen is een groot woord, maar wat we wel inmiddels zien is dat

211
00:10:46,300 --> 00:10:50,140
Die LLMs, die kan je downloaden op je eigen pc.

212
00:10:50,400 --> 00:10:52,860
En als je een krachtig pc hebt, kan je daar van alles mee doen.

213
00:10:53,400 --> 00:10:58,020
Ik kan via ChatGPT bijvoorbeeld vragen, maak van mij een phishingmail.

214
00:10:58,600 --> 00:10:58,940
Dan zal

215
00:10:58,940 --> 00:10:59,940
hij zeggen, dat ga ik niet doen.

216
00:11:00,860 --> 00:11:05,840
Maar als je een hele mooie mail wil maken voor een bepaald bedrijf, dan geeft hij het wel weer aan.

217
00:11:06,340 --> 00:11:12,840
Maar als je zelf zo'n LLM hebt op je pc draaien, dan kan je er natuurlijk van alles mee doen wat je zelf wil.

218
00:11:13,420 --> 00:11:13,740
En

219
00:11:13,740 --> 00:11:19,540
dat is best wel eng, want dan manipuleer je eigenlijk gewoon zo'n LLM.

220
00:11:20,499 --> 00:11:22,560
En krijg je de mooiste resultaten.

221
00:11:22,980 --> 00:11:28,300
In plaats van de code die bijvoorbeeld geschreven wordt om de boel te beveiligen,

222
00:11:28,520 --> 00:11:32,180
kan je natuurlijk ook zeggen van ja, schrijf code waardoor ik ergens kan inbreken.

223
00:11:32,360 --> 00:11:35,500
Ja, dat zijn zeker wel gevaren die er zijn.

224
00:11:35,940 --> 00:11:39,280
En het wordt natuurlijk steeds makkelijker om dit soort technologie toe te passen.

225
00:11:39,820 --> 00:11:43,300
Ja, en dat is inderdaad een probleempje.

226
00:11:43,820 --> 00:11:45,860
en daar moeten we echt voor waken.

227
00:11:46,020 --> 00:11:46,100
Dus

228
00:11:46,100 --> 00:11:47,040
dan komt

229
00:11:47,040 --> 00:11:48,760
hij weer, let gewoon ontzettend goed op.

230
00:11:49,600 --> 00:11:50,400
Daarom het programma.

231
00:11:50,410 --> 00:11:51,900
Het is een heel breed programma inderdaad,

232
00:11:51,900 --> 00:11:53,980
dat echt ingaat over de technologie, waaronder AI,

233
00:11:54,840 --> 00:11:57,140
maar ook gewoon algemeen inderdaad phishing

234
00:11:57,270 --> 00:11:59,120
en al de termen die uitgelegd worden,

235
00:11:59,240 --> 00:12:01,260
waar je op kan letten, two-factor-authentication er ook in.

236
00:12:01,360 --> 00:12:03,640
En het mooie is, iedere keer komen er nieuwe modules bij,

237
00:12:03,780 --> 00:12:05,940
want het houdt eigenlijk niet op, want de technologie gaat verder

238
00:12:05,970 --> 00:12:07,900
en het programma, inderdaad, digitale weerbaarheid,

239
00:12:08,420 --> 00:12:09,780
komt dus ook iedere keer met nieuwe modules.

240
00:12:09,870 --> 00:12:11,920
Dus dat is mooi om het top of mind te houden.

241
00:12:12,540 --> 00:12:17,260
Een vraag die bij mij opspeelt is dat er ook schijnt veel angst te zijn om eigenlijk te

242
00:12:17,260 --> 00:12:17,560
zeggen dat

243
00:12:17,560 --> 00:12:18,460
je slachtoffer bent.

244
00:12:20,000 --> 00:12:21,400
Kunnen jullie daar wat over zeggen inderdaad?

245
00:12:21,790 --> 00:12:23,560
Wat moeten mensen doen als ze slachtoffer zijn?

246
00:12:23,780 --> 00:12:24,100
En hoe

247
00:12:24,100 --> 00:12:26,940
krijgen we die schaamte eigenlijk weg om dit in de toekomst te gaan voorkomen?

248
00:12:27,340 --> 00:12:31,620
Dat is ook echt heel erg spijtig dat er zoveel schaamte zit.

249
00:12:31,710 --> 00:12:31,920
En ook

250
00:12:31,920 --> 00:12:32,200
heel veel

251
00:12:32,200 --> 00:12:34,140
mensen durven ook niet naar de politie te stappen.

252
00:12:35,300 --> 00:12:36,440
Dat heeft meerdere redenen.

253
00:12:39,120 --> 00:12:42,280
Vaak denken mensen, oh ik had het misschien moeten zien.

254
00:12:43,140 --> 00:12:44,560
of wat stom van me.

255
00:12:44,590 --> 00:12:47,420
Maar dat is het niet, want het is zo vernuftig tegenwoordig.

256
00:12:47,430 --> 00:12:47,960
En ook sowieso

257
00:12:47,960 --> 00:12:48,880
überhaupt...

258
00:12:49,860 --> 00:12:51,100
Dat zijn criminelen die

259
00:12:51,100 --> 00:12:51,860
je aandoen.

260
00:12:52,040 --> 00:12:53,080
Daar mag je aangifte van doen.

261
00:12:53,220 --> 00:12:55,660
Dus dat hopen we echt dat iedereen dat blijft doen of gaat doen.

262
00:12:56,200 --> 00:12:56,880
Meer gaat doen.

263
00:12:57,860 --> 00:13:02,700
En wat het ook is, is wij als politie zijn misschien ook nog niet helemaal goed ingericht

264
00:13:02,930 --> 00:13:04,400
op deze problematiek.

265
00:13:05,000 --> 00:13:08,600
Dus we horen wel eens van slachtoffers dat ze dan bij een willekeurig bureau

266
00:13:09,130 --> 00:13:12,160
naar binnen lopen om aangifte te doen en dat ze dan niet goed begrepen worden.

267
00:13:12,340 --> 00:13:14,640
Dus daar wordt ook hard aan gewerkt binnen de politie.

268
00:13:15,240 --> 00:13:19,080
Zodat ook dat van allerlei strafbare feiten aangifte kan worden gedaan.

269
00:13:19,660 --> 00:13:19,940
Dus

270
00:13:19,940 --> 00:13:21,740
we zouden vooral zeggen, schaam je niet.

271
00:13:22,440 --> 00:13:23,900
Iedereen kan dit overkomen.

272
00:13:24,340 --> 00:13:24,880
Echt iedereen.

273
00:13:25,260 --> 00:13:26,980
Het maakt niet uit wie, wat, hoe je bent.

274
00:13:29,740 --> 00:13:35,300
Dit zijn mensen die erop zitten om jou op te lichten.

275
00:13:36,320 --> 00:13:39,440
Dus we hopen echt dat die schaamte eraf gaat.

276
00:13:39,530 --> 00:13:40,820
Die victim blaming eraf gaat.

277
00:13:41,080 --> 00:13:42,420
Het is niet jouw eigen schuld.

278
00:13:42,940 --> 00:13:45,060
Kom vooral melden of aangifte doen.

279
00:13:45,300 --> 00:13:48,040
Als je portemonnee wordt gestolen, ga je ook naar de politie om

280
00:13:48,040 --> 00:13:48,600
aangifte te

281
00:13:48,600 --> 00:13:48,620
doen.

282
00:13:48,760 --> 00:13:48,820
En

283
00:13:48,820 --> 00:13:51,840
eigenlijk is dit ook gewoon je digitale portemonnee die gestolen

284
00:13:51,840 --> 00:13:52,080
is.

285
00:13:52,400 --> 00:13:57,180
Ik denk dat we nog best wel heel veel zien dat we denken dat dit vooral te maken heeft met ouderen.

286
00:13:57,800 --> 00:13:59,520
Dat is wel grappig. Ik wilde daar net op

287
00:13:59,520 --> 00:13:59,980
inbreken.

288
00:14:00,020 --> 00:14:00,440
Nou, doe maar.

289
00:14:02,700 --> 00:14:05,520
Wij, zoals we hier zitten, hebben de fysieke wereld nog meegemaakt.

290
00:14:06,860 --> 00:14:11,840
Kinderen, jeugd, jeugdigen, alles is gewoon digitaal.

291
00:14:12,540 --> 00:14:14,860
Fysiek opgelicht worden ze bijna niet meer.

292
00:14:14,950 --> 00:14:19,480
Wij kennen denk ik nog wel de voorbeelden van de zettertjes in de Telegraaf.

293
00:14:19,640 --> 00:14:22,360
Dat je wordt opgelicht en goed, van alles.

294
00:14:23,600 --> 00:14:26,040
Digitaal is het gewoon een stuk moeilijker.

295
00:14:26,280 --> 00:14:26,740
Daar

296
00:14:26,740 --> 00:14:28,580
kan je gewoon niks aan doen.

297
00:14:28,610 --> 00:14:36,620
En als dat je referentiekader is, dan wordt het ontzettend moeilijk om geen slachtoffer te worden.

298
00:14:36,780 --> 00:14:38,220
Dus je moet zo ontzettend goed opletten.

299
00:14:38,490 --> 00:14:41,080
Ja, en ik denk dat er ook nog een soort van discrepantie zit.

300
00:14:41,340 --> 00:14:44,640
We denken van de jeugd, die is namelijk heel digitaal vaardig.

301
00:14:45,060 --> 00:14:46,920
Maar die zijn heel vaardig in Snapchat,

302
00:14:47,320 --> 00:14:47,720
TikTok,

303
00:14:47,960 --> 00:14:49,040
dat soort dingen.

304
00:14:49,600 --> 00:14:53,160
Maar vanuit onderwijs weten we dat ze eigenlijk helemaal niet zo digitaal vaardig zijn.

305
00:14:53,400 --> 00:14:54,940
Kinderen kunnen klikken en klakken.

306
00:14:56,660 --> 00:14:57,380
Klikken is wel leuk.

307
00:14:59,160 --> 00:15:00,940
Die klikken en klakken overal op.

308
00:15:01,680 --> 00:15:03,880
Maar die weten totaal niet wat er onder het schermpje gebeurt.

309
00:15:04,700 --> 00:15:05,620
En die geloven van alles.

310
00:15:05,800 --> 00:15:10,780
En dan kom je ook weer van, hun referentiekader is de digitale wereld.

311
00:15:12,120 --> 00:15:13,200
Dus ja, het zal wel goed zijn.

312
00:15:14,040 --> 00:15:14,300
En ik denk,

313
00:15:14,440 --> 00:15:16,940
voor ondernemers moet je denk ik ook heel goed nadenken.

314
00:15:17,220 --> 00:15:20,900
Je krijgt ook een steeds jonger werknemersbestand.

315
00:15:21,660 --> 00:15:24,940
Dat je er niet vanuit mag gaan dat die allemaal maar zo digivaardig zijn.

316
00:15:25,700 --> 00:15:29,340
Nee, we hadden, nou gaat opa vertellen.

317
00:15:29,680 --> 00:15:34,980
We hadden vroeger het idee dat de jeugd, nou goed, het zou een generatie, twee misschien,

318
00:15:35,160 --> 00:15:38,080
Twee generaties duren dat we deze problematiek hadden.

319
00:15:38,180 --> 00:15:41,340
Maar we zien dus nu echt dat niet alleen oudere slachtoffers worden,

320
00:15:41,460 --> 00:15:45,140
maar ook juist jongere slachtoffers worden van cybercriminaliteit.

321
00:15:45,500 --> 00:15:47,580
Ja, ik kan me heel wat bij voorstellen.

322
00:15:49,320 --> 00:15:51,240
En als individu doe je aangifte?

323
00:15:51,240 --> 00:15:54,300
Hoe zit dat als organisatie, als bedrijf, als je daar last van hebt?

324
00:15:54,400 --> 00:15:55,300
Heb je dan hetzelfde?

325
00:15:56,540 --> 00:15:57,480
Het is eigenlijk precies hetzelfde.

326
00:15:57,640 --> 00:15:59,300
Alleen je doet namens het bedrijf aangifte.

327
00:16:00,300 --> 00:16:02,200
Er zal wel een persoon aangifte moeten doen.

328
00:16:03,040 --> 00:16:03,420
Kan je

329
00:16:03,420 --> 00:16:05,700
niet door een AI-botje...

330
00:16:05,700 --> 00:16:05,740
Nee,

331
00:16:06,000 --> 00:16:06,820
nog niet.

332
00:16:08,340 --> 00:16:10,880
Nee, en als bedrijven daar ook hulp nodig bij hebben...

333
00:16:10,880 --> 00:16:13,460
of iets, of met complexe cybercrime-zaken zitten...

334
00:16:13,460 --> 00:16:14,940
dan kunnen ze ons ook altijd benaderen.

335
00:16:15,900 --> 00:16:16,880
Onze LinkedIn is open.

336
00:16:17,820 --> 00:16:19,640
Dus kom vooral op de lijn.

337
00:16:19,840 --> 00:16:21,820
We zullen het ook wel hier aan jullie doorgeven.

338
00:16:22,100 --> 00:16:22,500
Ja, precies.

339
00:16:22,640 --> 00:16:23,900
We kunnen dingen ook in de show notes

340
00:16:23,900 --> 00:16:25,540
even opnemen.

341
00:16:26,400 --> 00:16:30,320
Wat zouden nou de top drie tips zijn...

342
00:16:30,320 --> 00:16:32,940
die je mee zou willen geven aan luisteraars...

343
00:16:33,440 --> 00:16:34,840
die hiermee te maken hebben.

344
00:16:35,560 --> 00:16:37,460
Laten we eens kijken richting juist die kinderen.

345
00:16:38,060 --> 00:16:40,820
Daar wordt misschien iets minder aandacht aan besteed.

346
00:16:42,280 --> 00:16:45,300
Wat ik sowieso zou willen adviseren,

347
00:16:45,600 --> 00:16:47,540
als het inderdaad kinderen zijn tussen de acht en twaalf,

348
00:16:48,200 --> 00:16:50,560
daar heb je een heel mooi programma Hexhield voor.

349
00:16:51,379 --> 00:16:54,580
Dan word je eigenlijk als kind opgeleid tot cyberagent.

350
00:16:54,700 --> 00:16:56,480
Dan word je als het ware collega van mij.

351
00:16:56,700 --> 00:16:57,160
Oh, wat leuk.

352
00:16:57,460 --> 00:16:57,800
Van Frederiek.

353
00:16:58,699 --> 00:17:01,560
En daar heb je dus allemaal lessen waarin je wordt geleerd

354
00:17:01,680 --> 00:17:04,420
van hoe je je op het internet kunt gedragen.

355
00:17:04,520 --> 00:17:10,079
Dat is al een hele mooie basis, denk ik, om het internet op te gaan.

356
00:17:11,339 --> 00:17:14,500
Daarnaast denk ik, als je 2FA kan gebruiken,

357
00:17:14,619 --> 00:17:18,680
oftewel tweestapsverificatie of MFA, gebruik het.

358
00:17:21,419 --> 00:17:22,680
En controleer alles goed.

359
00:17:24,358 --> 00:17:25,680
En cyberschaamte bestaat niet.

360
00:17:26,319 --> 00:17:27,420
Ja, dat is een hele goede.

361
00:17:27,780 --> 00:17:31,380
En ook nog, wij met kinderen ook van, praat ermee ook over met je ouders.

362
00:17:31,420 --> 00:17:32,100
Want

363
00:17:32,100 --> 00:17:36,780
wij spreken ook met jonge organisaties en alles.

364
00:17:39,760 --> 00:17:41,420
Je hoort vaak van hoe was het op school?

365
00:17:41,610 --> 00:17:42,340
Hoe was je dag vandaag?

366
00:17:42,699 --> 00:17:43,040
Vraag

367
00:17:43,040 --> 00:17:45,640
ook als ouder, hoe was je dag online vandaag?

368
00:17:45,860 --> 00:17:47,020
Oh ja, dat is een goede vraag.

369
00:17:48,260 --> 00:17:49,400
En nemen is mee.

370
00:17:49,640 --> 00:17:51,600
Vertel is, laat eens even zien wat je dan allemaal doet.

371
00:17:51,770 --> 00:17:52,580
En met wie praat je?

372
00:17:52,800 --> 00:17:53,720
En weet je wel wie dat is?

373
00:17:55,180 --> 00:17:58,580
En als dat niet zo is, spelen jullie dan onschuldig?

374
00:17:58,740 --> 00:17:58,820
Een

375
00:17:58,820 --> 00:17:59,400
spelletje

376
00:17:59,400 --> 00:17:59,920
of is het?

377
00:18:00,400 --> 00:18:01,280
Waar hebben jullie het dan over?

378
00:18:02,200 --> 00:18:06,660
Dus dat zijn ook wel dingen waarvan we echt denken, het zijn kleine dingetjes, kleine zinnetjes,

379
00:18:06,780 --> 00:18:09,460
maar die je ook als ouder kan meenemen in je opvoeding naar je kind toe.

380
00:18:09,520 --> 00:18:12,460
En ook als kind dat je kan zeggen, ik kan hier ook wel met mijn ouders over praten,

381
00:18:12,520 --> 00:18:13,880
of met mijn zus, of met mijn broer, of met

382
00:18:13,880 --> 00:18:15,200
iedereen.

383
00:18:15,460 --> 00:18:18,340
Als dat al bij kinderen gebeurt, hopelijk neem je dat mee in je ontwikkeling,

384
00:18:18,460 --> 00:18:22,120
dat je eigenlijk continu daar de conversatie over houdt, om het gesprek gaan te houden.

385
00:18:22,200 --> 00:18:24,540
Want ook daar zal de technologie over jaren weer veranderen.

386
00:18:24,940 --> 00:18:27,560
De criminelen zullen zich ook weer aanpassen aan wat er op dat moment is.

387
00:18:28,500 --> 00:18:28,920
En

388
00:18:28,920 --> 00:18:33,100
word niet direct boos of ga straffen uitdelen en dat soort dingen.

389
00:18:33,960 --> 00:18:35,740
Het zijn ook kinderen die ontdekken ook.

390
00:18:35,790 --> 00:18:37,880
Dat hebben wij ook in de echte wereld gedaan.

391
00:18:37,910 --> 00:18:39,120
Dat doen zij ook in de echte wereld.

392
00:18:39,130 --> 00:18:41,600
Maar ze doen dat ook momenteel in de digitale wereld.

393
00:18:41,680 --> 00:18:43,800
Dus daar kunnen inderdaad dingen gebeuren.

394
00:18:43,920 --> 00:18:48,180
Dus hou het gesprek open en blijf gewoon eerlijk tegen elkaar.

395
00:18:48,660 --> 00:18:50,960
Daar heb je veel meer aan dan het vingertje.

396
00:18:51,020 --> 00:18:51,420
Dat mag niet.

397
00:18:53,020 --> 00:18:54,120
En dan gaan ze het juist doen.

398
00:18:54,120 --> 00:18:54,320
Dat zien wij als politie.

399
00:18:54,590 --> 00:18:57,140
Ja, ik vind het echt een hele goede tip.

400
00:18:57,240 --> 00:19:00,520
Want ik kijk wel eens over de schouder mee, welk spelletje ze spelen.

401
00:19:00,570 --> 00:19:04,220
Maar eigenlijk de vraag, hoe was je dag in de online wereld?

402
00:19:04,910 --> 00:19:06,820
Ik denk eigenlijk wel, ja, het is heel eenvoudig.

403
00:19:07,620 --> 00:19:07,680
Ja,

404
00:19:07,840 --> 00:19:08,260
en

405
00:19:08,260 --> 00:19:10,460
het verbaas je ook hoeveel kinderen vertellen.

406
00:19:10,900 --> 00:19:11,140
Die

407
00:19:11,140 --> 00:19:13,100
vinden het alleen maar hartstikke leuk om daarover te praten.

408
00:19:13,300 --> 00:19:13,380
Snap

409
00:19:13,380 --> 00:19:13,640
ik.

410
00:19:14,100 --> 00:19:17,580
Dus wij zien het allemaal nog een beetje als gescheiden.

411
00:19:17,930 --> 00:19:22,540
Voor hun, wat Baand ook zei, het is helemaal in hun hele leven, in hun hele bestaan geïntegreerd.

412
00:19:23,320 --> 00:19:28,660
Dus dan is dat ook doodnormaal hoe er gepraat wordt via de app of via het snap of via TikTok.

413
00:19:29,000 --> 00:19:30,880
Dan ook met in real life.

414
00:19:31,020 --> 00:19:31,140
En

415
00:19:31,140 --> 00:19:31,480
je hoort ook

416
00:19:31,480 --> 00:19:34,900
bijvoorbeeld dat we steeds meer mensen belschaamte hebben.

417
00:19:35,040 --> 00:19:36,380
Omdat ze het lastig vinden om te bellen.

418
00:19:37,400 --> 00:19:41,320
En dan merk je ook van, wow, dat is natuurlijk een hele andere generatie die eigenlijk niet meer belt.

419
00:19:42,040 --> 00:19:42,840
En dat

420
00:19:42,840 --> 00:19:44,220
vinden wij dan ook weer doodnormaal.

421
00:19:44,380 --> 00:19:48,180
Dus dan is het weer van, oké, dat vinden zij dan weer spannender.

422
00:19:48,420 --> 00:19:50,640
En dan kan je ze misschien meenemen met bellen.

423
00:19:52,120 --> 00:19:52,920
Kloven dicht is het

424
00:19:52,920 --> 00:19:53,160
eigenlijk.

425
00:19:56,880 --> 00:19:58,120
En ik zie jou...

426
00:19:58,160 --> 00:20:00,200
We hebben daar ook een stellingenspel voor.

427
00:20:00,250 --> 00:20:01,680
Maar die liggen nu net even wat achter jou.

428
00:20:01,770 --> 00:20:02,640
Zou jij die kunnen pakken?

429
00:20:02,650 --> 00:20:03,080
Ja, zeker.

430
00:20:05,260 --> 00:20:08,120
Dan stel ik in de tussentijd nog een vraag.

431
00:20:09,780 --> 00:20:14,800
Want dan ga ik toch nog even weer naar de ondernemers en bedrijven.

432
00:20:15,440 --> 00:20:19,740
Wat ik de laatste tijd zag, is omdat de beeldgeneratie wordt nu zo goed.

433
00:20:20,180 --> 00:20:23,200
Dus we hebben het niet alleen over het zien of het iets van mensen is,

434
00:20:23,580 --> 00:20:27,580
maar dat je nu ook heel makkelijk in het Nederlands bijvoorbeeld bonnetjes kan genereren.

435
00:20:28,140 --> 00:20:34,740
Dat je schade aan je auto eigenlijk kan laten, nep erop kan laten zetten.

436
00:20:36,000 --> 00:20:39,300
Dus er zal denk ik ook heel veel verzekeringsfraude gaan plaatsvinden.

437
00:20:40,320 --> 00:20:41,080
Hoe zien jullie dat?

438
00:20:42,820 --> 00:20:45,760
Ik moet je heel eerlijk zeggen, ik ben het nog niet tegengekomen,

439
00:20:46,440 --> 00:20:48,880
maar ik kan me het levendig voorstellen dat het gaat gebeuren.

440
00:20:49,380 --> 00:20:54,480
Het enige wat ik kan zeggen is, het doen van een valse aangifte is nog steeds strafbaar.

441
00:20:56,040 --> 00:20:59,080
Niet alleen bij de verzekeringsmaatschappij, want daar word je gewoon uitgekickt.

442
00:20:59,150 --> 00:21:03,440
Je komt op een zwarte lijst terecht en je kan je gewoon nergens meer verzekeren.

443
00:21:03,510 --> 00:21:05,660
Of tegen een ongelooflijk hoog bedrag.

444
00:21:06,840 --> 00:21:11,880
Maar ook als je valse aangifte doet bij de politie, kan je ook nog eens vervolgd worden door het Openbaar Ministerie.

445
00:21:12,700 --> 00:21:14,020
Voor het doen van een valse aangifte.

446
00:21:14,130 --> 00:21:16,060
En dan kan je ook pittige boetes voor krijgen.

447
00:21:16,800 --> 00:21:18,140
En is dat dan een misdrijf?

448
00:21:18,580 --> 00:21:19,860
Ja, het is een misdrijf.

449
00:21:20,620 --> 00:21:22,380
Dus dat is wel heel serieus.

450
00:21:22,520 --> 00:21:22,640
Ja.

451
00:21:24,080 --> 00:21:28,220
Nu zie je veel grapjes online gaan, maar heb dit besef alsjeblieft met z'n allen inderdaad.

452
00:21:31,700 --> 00:21:32,100
Ja,

453
00:21:32,100 --> 00:21:33,360
we hebben ook stellingen.

454
00:21:35,220 --> 00:21:38,320
Kijk, uiteindelijk gaat het over, jij zei het al met je kinderen,

455
00:21:38,880 --> 00:21:43,100
maar dat geldt eigenlijk overal, dat het heel handig is om over deze technologie te praten.

456
00:21:43,920 --> 00:21:44,480
Wat hebben wij?

457
00:21:44,480 --> 00:21:47,380
We hebben een kaartspel, die kunnen de mensen ook gewoon gratis bestellen.

458
00:21:47,460 --> 00:21:48,860
Dan hoeven ze alleen maar even een mailtje te sturen.

459
00:21:48,900 --> 00:21:49,940
Dan krijg je het gewoon opgestuurd.

460
00:21:50,920 --> 00:21:54,280
En het idee is dat je die stelling met elkaar bespreekt.

461
00:21:54,440 --> 00:21:55,920
Je kan het er mee eens zijn en oneens zijn.

462
00:21:55,940 --> 00:22:00,660
Maar het gaat er dan juist om hoe je dan de kennis met elkaar uitwisselt.

463
00:22:00,940 --> 00:22:03,180
Dus wij willen eigenlijk zo'n stelling ook aan jullie voorleggen.

464
00:22:04,180 --> 00:22:04,780
Oké, benieuwd.

465
00:22:19,900 --> 00:22:20,960
wetgeving en beleid

466
00:22:20,960 --> 00:22:21,660
is het thema

467
00:22:22,600 --> 00:22:23,360
en hij heeft geschud

468
00:22:24,220 --> 00:22:25,420
random cards

469
00:22:26,900 --> 00:22:27,980
AI gegenereerd

470
00:22:28,980 --> 00:22:29,280
nee

471
00:22:30,480 --> 00:22:31,760
en de stelling lijkt als volgt

472
00:22:32,260 --> 00:22:34,080
strengere regulering is nodig

473
00:22:34,100 --> 00:22:37,140
om datamisbruik door generatieve AI tegen te gaan?

474
00:22:41,340 --> 00:22:42,080
Ja, ik denk het wel.

475
00:22:42,480 --> 00:22:43,720
Alleen ik heb ook niet het antwoord.

476
00:22:44,380 --> 00:22:47,220
Maar ja, ik denk zeker dat dat beter gereguleerd moet worden.

477
00:22:48,260 --> 00:22:49,560
Op bepaalde vlakken zeker.

478
00:22:50,560 --> 00:22:52,000
Alleen we moeten niet voor gaan zorgen

479
00:22:52,100 --> 00:22:55,160
dat je daardoor ontwikkeling tegen gaat.

480
00:22:56,860 --> 00:22:58,800
Dus de digitale ontwikkeling,

481
00:22:59,160 --> 00:23:00,480
dat moet wel door kunnen blijven gaan.

482
00:23:00,540 --> 00:23:06,140
Maar dat er op bepaalde vlakken een regulering moet komen, daar ben ik het ook wel mee eens.

483
00:23:06,300 --> 00:23:14,120
Ja, ik denk dat als we ook kijken naar alle grote techbedrijven, hoe zij eigenlijk zonder regulering zo groot konden worden.

484
00:23:14,700 --> 00:23:18,840
En dat we daar nu ook wel echt heel veel nadeel van zien.

485
00:23:19,900 --> 00:23:24,320
Dat we nu dan, en volgens mij is de Europese Commissie hier ook wel echt mee bezig.

486
00:23:24,440 --> 00:23:27,580
Om te kijken in wat voor kaders dit gereguleerd kan worden.

487
00:23:28,200 --> 00:23:29,720
Maar ja, dan is het alleen Europa.

488
00:23:30,400 --> 00:23:34,240
En dan heb je nog wel de afhankelijkheid van andere grootmachten.

489
00:23:35,620 --> 00:23:40,180
Maar ik denk dat het wel goed zou zijn als er echt goede checks en balances in place zijn.

490
00:23:40,680 --> 00:23:46,060
Voor dit enorme monster wat eigenlijk al uit de fles is.

491
00:23:46,740 --> 00:23:49,180
Of ja, monster. Het is ook iets geweldigs, want het geeft ook heel veel.

492
00:23:49,380 --> 00:23:51,200
Maar de geest

493
00:23:51,200 --> 00:23:52,220
is al uit de fles.

494
00:23:53,020 --> 00:23:57,600
Dus nu kijken van waar en hoe en wat kan je nog doen.

495
00:23:58,080 --> 00:24:04,700
Om het een beetje te reguleren ook voor de toekomst, voor de jeugd, voor iedereen, voor minderheden, voor alles.

496
00:24:05,820 --> 00:24:07,400
Ik denk dat dat heel belangrijk is.

497
00:24:08,840 --> 00:24:12,300
Zelf hoe ik er naar kijk, ik vind het eigenlijk best wel apart.

498
00:24:12,520 --> 00:24:17,040
Wij zitten hier vandaag ook rondom digitale weerbaarheid.

499
00:24:17,460 --> 00:24:21,299
Maar dat gaat eigenlijk ook naar een soort van weerbaarheid ten opzichte van die big tech bedrijven.

500
00:24:21,960 --> 00:24:23,120
Want daar hebben we het ook over.

501
00:24:23,760 --> 00:24:26,940
Dat heel gek is dat we eigenlijk iedereen individueel moeten opleiden.

502
00:24:27,820 --> 00:24:32,220
om weerstand te bieden tegen dit soort enorm grote ondernemingen.

503
00:24:32,380 --> 00:24:35,540
Terwijl, ja, ik zou het logischer vinden om te zeggen van,

504
00:24:35,550 --> 00:24:36,820
ja, maar dit mag eigenlijk gewoon

505
00:24:36,820 --> 00:24:37,040
niet.

506
00:24:37,040 --> 00:24:38,860
Dat is dus ook wat ik net in het begin zei,

507
00:24:39,430 --> 00:24:41,440
dat er zoveel verantwoordelijkheid ligt bij de eigen

508
00:24:41,440 --> 00:24:41,660
werk.

509
00:24:41,810 --> 00:24:42,160
Je moet aan

510
00:24:42,160 --> 00:24:42,980
zoveel dingen denken.

511
00:24:43,010 --> 00:24:43,100
En

512
00:24:43,100 --> 00:24:43,400
ik denk ook

513
00:24:43,400 --> 00:24:46,680
dat dat als overheid daar veel meer op ingespeeld moet worden.

514
00:24:47,320 --> 00:24:50,800
Ik heb het antwoord niet hoe en wat, alleen, ja...

515
00:24:51,500 --> 00:24:52,280
Barend gaat hem geven.

516
00:24:54,760 --> 00:24:55,160
Ik zit er

517
00:24:55,160 --> 00:24:55,400
wel over

518
00:24:55,400 --> 00:24:55,700
naartoe.

519
00:24:56,800 --> 00:25:00,140
Kijk, we hebben natuurlijk heel veel wetboeken in Nederland.

520
00:25:00,500 --> 00:25:02,580
En we mogen heel veel dingen wel, we mogen heel veel dingen niet.

521
00:25:03,500 --> 00:25:05,220
En van de dingen die we niet mogen, gebeuren toch.

522
00:25:06,440 --> 00:25:10,400
Dus het wil niet zeggen dat als je het heel erg goed gaat reguleren, dat het niet gebeurt.

523
00:25:12,020 --> 00:25:14,340
En je moet het denk ik niet doodslaan,

524
00:25:14,380 --> 00:25:14,900
om

525
00:25:14,900 --> 00:25:15,620
het zo maar te zeggen.

526
00:25:15,750 --> 00:25:17,720
Want het biedt ook kansen.

527
00:25:18,500 --> 00:25:19,340
Oh ja, en welke kansen

528
00:25:19,340 --> 00:25:19,600
zie jij?

529
00:25:19,880 --> 00:25:22,220
Ja goed, met data kan je natuurlijk ook heel veel dingen doen.

530
00:25:22,320 --> 00:25:24,920
Met AI kan je heel veel positieve dingen doen.

531
00:25:25,520 --> 00:25:30,480
We hebben nog wel eens de neiging om ons alleen maar te focussen op de negatieve dingen.

532
00:25:31,150 --> 00:25:34,860
Maar goed, medische onderzoeken met AI gaan stukken sneller.

533
00:25:35,120 --> 00:25:39,240
Dus medicatie wordt veel sneller gevonden door AI.

534
00:25:39,410 --> 00:25:40,100
Dat soort zaken.

535
00:25:40,240 --> 00:25:42,040
Dus pak ook de positieve kant.

536
00:25:42,100 --> 00:25:43,340
Kijk niet alleen naar het negatieve.

537
00:25:43,940 --> 00:25:48,440
Heb je voorbeelden in de praktijk waar AI wordt ingezet om eigenlijk te voorkomen?

538
00:25:48,860 --> 00:25:51,440
Diefstal of cybercrime.

539
00:25:51,940 --> 00:25:53,840
Helpt AI daar op dit moment al bij?

540
00:25:54,140 --> 00:26:01,400
Ik weet dat sommige cybersecuritybedrijven AI inzetten juist om te controleren de logs.

541
00:26:03,580 --> 00:26:06,520
Wat komt er binnen? Wat gebeurt er allemaal op mijn systemen?

542
00:26:07,060 --> 00:26:10,160
Die herkennen dat gewoon vele malen sneller

543
00:26:10,160 --> 00:26:10,800
dan

544
00:26:10,800 --> 00:26:12,760
op de oude manier zoals ze het deden.

545
00:26:12,840 --> 00:26:14,460
Dus die gebruiken het zeker.

546
00:26:16,180 --> 00:26:16,620
Interessant.

547
00:26:18,760 --> 00:26:19,920
Ik ben eigenlijk ook wel benieuwd.

548
00:26:20,320 --> 00:26:23,640
Even misschien zelfs wel gewoon buiten jullie werk van de politie.

549
00:26:23,760 --> 00:26:27,360
Dus als je naar deze technologie kijkt, we worden er allemaal door geraakt.

550
00:26:28,539 --> 00:26:30,160
Negatief, maar zeker ook positief.

551
00:26:30,340 --> 00:26:31,560
Goed dat je dat aanhaalt.

552
00:26:32,580 --> 00:26:39,400
Hoe zou een soort van AI-systeem er, als je helemaal vrij zou denken, eruit zien?

553
00:26:39,760 --> 00:26:42,300
Die dan misschien een maatschappelijke bijdrage levert.

554
00:26:42,880 --> 00:26:44,480
Maar ik geef jullie daar even bedenktijd voor.

555
00:26:45,440 --> 00:26:49,300
Die me droomt een leven vol gemak.

556
00:26:50,519 --> 00:26:53,880
Technologie die alles doet waar we van dromen.

557
00:26:55,140 --> 00:26:58,220
Geen grenzen meer, niets houdt ons nog tegen.

558
00:26:59,560 --> 00:27:04,260
Het leven zoals wij het altijd wilden beleven.

559
00:27:09,080 --> 00:27:10,500
Hebben jullie twee een idee?

560
00:27:10,680 --> 00:27:13,240
Nou, ik heb wel een idee wat eigenlijk nu al gebeurt.

561
00:27:13,320 --> 00:27:14,860
dat is bij mijn oma.

562
00:27:15,160 --> 00:27:16,580
Die zit in zo'n verzorgingshuis.

563
00:27:16,720 --> 00:27:18,740
En die heeft zo'n chat, zo'n robot.

564
00:27:19,560 --> 00:27:21,520
En die vraagt elke dag hoe het gaat.

565
00:27:21,860 --> 00:27:25,240
Het is niet een robot, maar het is een soort van iPad waar

566
00:27:25,240 --> 00:27:26,120
ze dan tegen praat.

567
00:27:27,000 --> 00:27:30,940
En die wordt op haar ingespeeld en alles.

568
00:27:31,760 --> 00:27:34,960
En dat geeft haar al zoveel minder gevoel van eenzaamheid.

569
00:27:35,500 --> 00:27:40,400
Dus ik denk dat daarin AI ook wel echt een rol in kan spelen.

570
00:27:40,440 --> 00:27:43,960
Ja, het is een beetje dystopisch als je die film Heur weer hebt gezien.

571
00:27:45,340 --> 00:27:51,080
Maar dat je wel denkt van de persoonlijke aandacht van een computer.

572
00:27:51,420 --> 00:27:51,960
Het klinkt heel

573
00:27:51,960 --> 00:27:54,600
gek, maar het klinkt helemaal gek, want het gebeurt gewoon al.

574
00:27:56,380 --> 00:28:00,640
Dat werkt dus wel bij haar dan, bij die oudjes daar in dat huis.

575
00:28:00,820 --> 00:28:02,400
Ze vinden het allemaal zalig

576
00:28:02,400 --> 00:28:02,880
en

577
00:28:02,880 --> 00:28:03,600
gezellig

578
00:28:03,600 --> 00:28:04,560
en leuk.

579
00:28:04,840 --> 00:28:06,700
En dan denk ik toch wat mooi dat dat er is.

580
00:28:07,100 --> 00:28:08,340
Praten met een man of met een vrouw?

581
00:28:08,640 --> 00:28:10,040
Ze praten met een vrouw.

582
00:28:10,360 --> 00:28:10,780
Oh, wat leuk.

583
00:28:11,240 --> 00:28:11,340
Ja,

584
00:28:11,460 --> 00:28:12,160
ja, ja.

585
00:28:13,360 --> 00:28:18,700
Ja, volgens mij heb je zelfs ook al AI bots waar je een relatie mee kan beginnen.

586
00:28:20,340 --> 00:28:21,560
Ja, wat vind je daarvan?

587
00:28:22,540 --> 00:28:23,640
Het zou niets voor mij zijn,

588
00:28:23,750 --> 00:28:28,100
maar als daar de markt is voor mensen die zich eenzaam voelen,

589
00:28:29,300 --> 00:28:29,920
ja, waarom niet?

590
00:28:30,140 --> 00:28:30,460
Ja, misschien

591
00:28:30,460 --> 00:28:31,380
maakt het alles ook

592
00:28:31,380 --> 00:28:32,560
wel weer nog eenzamer.

593
00:28:32,820 --> 00:28:33,300
Dat

594
00:28:33,300 --> 00:28:33,740
kan natuurlijk

595
00:28:33,740 --> 00:28:34,020
ook.

596
00:28:34,230 --> 00:28:35,460
Ja, het kan alle kanten op.

597
00:28:36,440 --> 00:28:41,620
Maar ja, ik denk, AI, ik heb ook zelf persoonlijk heel veel zin in de zelfrijdende auto.

598
00:28:41,820 --> 00:28:43,160
Want ik kan heel slecht auto

599
00:28:43,160 --> 00:28:43,420
rijden.

600
00:28:43,530 --> 00:28:45,180
Als politie is dat echt ook...

601
00:28:45,620 --> 00:28:46,860
Dat mag ik eigenlijk niet te hard doen.

602
00:28:47,620 --> 00:28:48,820
Maar ik ben er gewoon echt niet goed in.

603
00:28:49,180 --> 00:28:50,420
Die dingen liggen je of niet.

604
00:28:50,920 --> 00:28:52,880
Ik dacht dat ze er al lang zouden zijn.

605
00:28:53,100 --> 00:28:54,800
Maar daar kijk ik naar uit.

606
00:28:54,800 --> 00:28:56,020
En ook dat je geen files meer hebt.

607
00:28:56,020 --> 00:28:57,880
Dat er veel alles beter voor het milieu.

608
00:28:58,380 --> 00:28:58,920
Dat zou lekker zijn.

609
00:28:59,360 --> 00:28:59,420
Dat

610
00:28:59,420 --> 00:29:00,580
je gewoon kan instappen.

611
00:29:00,770 --> 00:29:01,100
Je gaat

612
00:29:01,100 --> 00:29:01,420
ergens

613
00:29:01,420 --> 00:29:01,780
naartoe.

614
00:29:01,890 --> 00:29:03,420
Dus dat lijkt me zalig.

615
00:29:03,420 --> 00:29:05,020
Het is niet echt een maatschappelijk probleem dit.

616
00:29:05,680 --> 00:29:10,120
Ik denk dat we heel veel tijd voor andere dingen krijgen als dat wordt geregeld inderdaad.

617
00:29:10,380 --> 00:29:12,960
Ik zelf zou graag de was, de vaatwas.

618
00:29:13,480 --> 00:29:14,260
Tijdens het auto rijden?

619
00:29:14,600 --> 00:29:16,220
Nee, dat is ook voor me gebeurd

620
00:29:16,220 --> 00:29:16,740
inderdaad.

621
00:29:17,080 --> 00:29:18,420
Dat is de automatisering van die

622
00:29:18,420 --> 00:29:19,160
stap inderdaad.

623
00:29:19,820 --> 00:29:20,160
Tijdens het

624
00:29:20,160 --> 00:29:20,700
auto rijden, prima.

625
00:29:21,080 --> 00:29:21,480
Ook goed.

626
00:29:22,800 --> 00:29:27,500
Mijn huis zit vol met allemaal snufjes en dat soort dingen.

627
00:29:27,620 --> 00:29:30,740
Dus als ik al in de buurt van mijn huis kom, dan gebeurt er van alles.

628
00:29:31,280 --> 00:29:32,320
Komt het huis dat leven?

629
00:29:33,140 --> 00:29:33,200
Nou,

630
00:29:33,400 --> 00:29:33,740
inderdaad.

631
00:29:34,000 --> 00:29:34,320
Of

632
00:29:34,320 --> 00:29:36,960
als ik juist weg ga en het is 's avonds, dan komt hij ook tot leven.

633
00:29:37,200 --> 00:29:37,400
En dan

634
00:29:37,400 --> 00:29:37,680
gebeuren

635
00:29:37,680 --> 00:29:38,420
er een aantal zaken.

636
00:29:39,240 --> 00:29:40,400
Dat maakt het wel een stuk makkelijker.

637
00:29:40,430 --> 00:29:42,300
Maar je stelde net de vraag.

638
00:29:42,430 --> 00:29:45,780
Toen zat ik echt te denken van, wil ik nou nog verder doorgaan?

639
00:29:45,860 --> 00:29:48,080
Dat het nog allemaal makkelijker wordt?

640
00:29:49,520 --> 00:29:50,000
Weet ik niet.

641
00:29:51,220 --> 00:29:53,420
Dan zit je straks alleen nog maar ergens op een bank.

642
00:29:53,660 --> 00:29:55,580
En met je telefoon doe je niks meer.

643
00:29:56,080 --> 00:29:57,840
En alles om je heen gebeurt maar.

644
00:29:58,040 --> 00:29:59,540
En dan heb je inderdaad misschien wel meer tijd.

645
00:30:00,620 --> 00:30:00,800
Voor

646
00:30:00,800 --> 00:30:01,020
wat?

647
00:30:01,390 --> 00:30:02,060
Ja, nou ja goed.

648
00:30:02,600 --> 00:30:03,540
Ik zou lekker gaan sporten.

649
00:30:05,120 --> 00:30:07,840
Het is weer hardloop dit seizoen.

650
00:30:09,580 --> 00:30:10,740
Die film Wall-E,

651
00:30:10,980 --> 00:30:13,300
die is zo goed

652
00:30:13,300 --> 00:30:13,900
als je erover

653
00:30:13,900 --> 00:30:14,440
nadenkt.

654
00:30:14,720 --> 00:30:16,020
Dat ze zo vroeg over...

655
00:30:16,020 --> 00:30:17,300
Het is een best wel oude film alweer

656
00:30:17,300 --> 00:30:17,440
nu.

657
00:30:18,160 --> 00:30:21,020
En dan is al die loge mensen die zo zitten...

658
00:30:21,560 --> 00:30:25,140
En dan maar alles zit eigenlijk alleen maar op all-inclusive vakantie...

659
00:30:25,140 --> 00:30:25,780
En denken niet meer na.

660
00:30:27,140 --> 00:30:28,640
Ik hoop niet dat het die kant op gaat.

661
00:30:28,900 --> 00:30:29,260
Vast niet.

662
00:30:29,310 --> 00:30:29,880
Het mooie is,

663
00:30:29,920 --> 00:30:31,160
wij zijn er met z'n allen bij.

664
00:30:31,480 --> 00:30:32,260
Of we die kant op gaan.

665
00:30:32,570 --> 00:30:32,660
Dat

666
00:30:32,660 --> 00:30:33,680
vind ik het mooie van de film.

667
00:30:34,280 --> 00:30:36,580
Die ons beelden schetsen of we dat willen of niet willen.

668
00:30:36,670 --> 00:30:38,240
Maar laten we met elkaar in gesprek blijven.

669
00:30:38,240 --> 00:30:39,480
Een beetje een thema nu ook.

670
00:30:40,680 --> 00:30:42,040
Willen we die kant op? Ja of nee?

671
00:30:42,260 --> 00:30:43,220
En wat kunnen we eraan doen?

672
00:30:44,780 --> 00:30:45,140
Gelukkig

673
00:30:45,140 --> 00:30:46,620
zijn we er nog inderdaad.

674
00:30:47,280 --> 00:30:49,020
En met het maatschappelijke probleem wat je zei.

675
00:30:49,180 --> 00:30:50,380
Dat op te lossen.

676
00:30:50,920 --> 00:30:52,480
Dat is dan los van eenzaamheid.

677
00:30:52,580 --> 00:30:54,900
Maar als we kijken naar criminaliteitsbestrijding.

678
00:30:55,160 --> 00:30:57,580
Er zijn nu heel veel zedenzaken.

679
00:30:57,860 --> 00:30:58,580
Eigenlijk veel grote.

680
00:30:59,270 --> 00:31:00,620
Dat is echt een heel groot probleem.

681
00:31:00,720 --> 00:31:01,620
En dat blijft maar groeien.

682
00:31:02,600 --> 00:31:05,760
Ik zou ook willen nadenken van dan met...

683
00:31:06,170 --> 00:31:07,480
Dat doet Off Limits heel goed.

684
00:31:07,550 --> 00:31:14,680
Dat is een partij die werkt met allerlei manieren tegen online seksueel geweld.

685
00:31:15,460 --> 00:31:19,640
En dan kijken van wat zij nog meer met AI kunnen doen om het in te zetten om dat tegen te gaan.

686
00:31:19,920 --> 00:31:21,120
En natuurlijk ook met de politie.

687
00:31:21,170 --> 00:31:22,680
Maar er zijn allerlei goede initiatieven.

688
00:31:23,380 --> 00:31:26,760
En ik ben benieuwd van hoe we dat kunnen inzetten.

689
00:31:27,400 --> 00:31:30,880
Met seksueel geweld, zeg maar fysiek, maar ook online seksueel

690
00:31:30,880 --> 00:31:31,160
geweld.

691
00:31:31,580 --> 00:31:32,540
Ik denk dat

692
00:31:32,540 --> 00:31:35,620
daarin nog veel te vinden is.

693
00:31:36,460 --> 00:31:37,420
Mooie toepassing lijkt me.

694
00:31:42,499 --> 00:31:45,160
Wat is eigenlijk een vraag die we niet gesteld hebben?

695
00:31:47,500 --> 00:31:47,760
Eet

696
00:31:47,760 --> 00:31:48,120
je mikkers.

697
00:31:50,520 --> 00:31:51,500
Ik zet jullie even aan het werk.

698
00:31:54,480 --> 00:31:55,520
Dan ben je ambtenaar.

699
00:31:58,399 --> 00:32:00,300
Je kan je niet rustig naar buiten kijken.

700
00:32:01,340 --> 00:32:03,020
Ik zal even de ruimte schetsen.

701
00:32:03,060 --> 00:32:04,120
We zitten in een kleedkamer

702
00:32:04,120 --> 00:32:06,320
met allemaal mooie lampjes

703
00:32:06,320 --> 00:32:07,040
voor make-up

704
00:32:07,040 --> 00:32:07,740
spiegels.

705
00:32:08,120 --> 00:32:09,180
Jullie zitten fijn op de bank.

706
00:32:09,980 --> 00:32:14,000
Ik ben wel benieuwd, wat zouden jullie zien als voor de politie?

707
00:32:14,240 --> 00:32:17,500
Waar zij AI moeten inzetten of beter moeten inzetten?

708
00:32:17,980 --> 00:32:19,180
Waar hebben jullie ideeën over?

709
00:32:19,620 --> 00:32:21,360
Oh ja, dat vind ik wel een hele goeie.

710
00:32:27,020 --> 00:32:29,340
Ja, je denkt heel snel aan preventie.

711
00:32:29,860 --> 00:32:30,340
Maar dan

712
00:32:30,340 --> 00:32:35,060
kom je ook wel heel snel in allerlei ethische vraagstukken uit.

713
00:32:35,480 --> 00:32:39,120
Maar als die twee gecombineerd zouden kunnen worden...

714
00:32:41,200 --> 00:32:43,320
dat zou ik wel heel erg mooi vinden.

715
00:32:44,640 --> 00:32:47,440
Maar ik heb niet even zo concreet...

716
00:32:48,680 --> 00:32:52,100
Nee, want komen jullie ook al in je werkveld voorbeelden tegen?

717
00:32:52,340 --> 00:32:58,280
Bijvoorbeeld uit andere landen waarin AI veel meer door de politie wordt toegepast of iets?

718
00:32:59,120 --> 00:33:03,480
Ja, maar dan vind ik dan wat minder fijn.

719
00:33:03,620 --> 00:33:10,920
Bijvoorbeeld in Engeland hebben ze voorspelmodellen van waar de grootste kans

720
00:33:10,920 --> 00:33:13,100
is dat er criminaliteit gaat plaatsvinden.

721
00:33:13,740 --> 00:33:21,620
Dan gaan ze bepalen waar de politie in Londen, in welke wijken, ze meer of minder politie naartoe sturen.

722
00:33:23,140 --> 00:33:24,220
Aan de ene kant

723
00:33:24,220 --> 00:33:27,540
zou het preventief

724
00:33:27,540 --> 00:33:28,080
kunnen werken.

725
00:33:28,320 --> 00:33:31,620
En aan de andere kant kan het ook een heel erg zelfversterkend effect krijgen.

726
00:33:33,679 --> 00:33:36,620
Want als je ergens naar op zoek gaat, dat weten jullie denk ik,

727
00:33:36,980 --> 00:33:37,400
dan vind

728
00:33:37,400 --> 00:33:38,540
je ook makkelijker iets.

729
00:33:39,660 --> 00:33:43,300
En als je dat weer gaat invoeren, dan krijg je een zelfversterkend effect.

730
00:33:43,660 --> 00:33:44,080
Ik

731
00:33:44,080 --> 00:33:45,800
vind dat persoonlijk ook lastig.

732
00:33:46,540 --> 00:33:47,220
Dat is ook heel moeilijk.

733
00:33:47,640 --> 00:33:51,660
Ideen die bij mij op komen poppen, maar goed, dat is een beetje breed denken zonder even limitaties,

734
00:33:51,880 --> 00:33:56,180
is eigenlijk een co-collega die eigenlijk met je meegaat.

735
00:33:56,340 --> 00:33:58,460
Ik zie heel vaak nu een camera's hier bij de politie.

736
00:33:58,580 --> 00:33:59,840
Die je dus kunnen ondersteunen.

737
00:34:00,220 --> 00:34:02,620
Bij het zien en niet zien van bepaalde situaties.

738
00:34:02,780 --> 00:34:05,120
Omdat je heel erg gefocust vaak denk ik rondgaat.

739
00:34:05,620 --> 00:34:07,680
Dat je daar eigenlijk een extra collega hebt om mee te sparren.

740
00:34:08,159 --> 00:34:10,760
Dus dat je niet met z'n tweeën, met z'n drieën of met z'n vieren eigenlijk.

741
00:34:11,199 --> 00:34:12,480
Naar de situatie kijkt.

742
00:34:13,020 --> 00:34:14,540
En elkaar kan challenge ook.

743
00:34:14,639 --> 00:34:16,540
Van goh, in deze situatie heb je dit gedaan.

744
00:34:17,100 --> 00:34:17,980
Waarom is het hier anders?

745
00:34:18,199 --> 00:34:19,940
Dus dat je eigenlijk een soort van sparringpartner hebt.

746
00:34:20,400 --> 00:34:21,580
Om de ondersteuning te bieden.

747
00:34:21,840 --> 00:34:22,659
Echt een heel goed idee.

748
00:34:24,120 --> 00:34:25,340
En ook met bepaalde weerstanden.

749
00:34:25,500 --> 00:34:28,280
Als je ermee te maken krijgt en je weet even niet hoe te reageren.

750
00:34:28,290 --> 00:34:29,320
Dat je bijvoorbeeld even kan vragen.

751
00:34:29,600 --> 00:34:31,580
Wat voor antwoord kan ik nu geven?

752
00:34:31,690 --> 00:34:32,860
Wat voor reactie kan ik nu geven?

753
00:34:35,420 --> 00:34:38,739
Maar reset je hem dan ook iedere keer als je hem weer mee op straat neemt?

754
00:34:39,380 --> 00:34:40,360
Ja, kijk, dat is even de vraag.

755
00:34:40,529 --> 00:34:41,980
Hoe gaat

756
00:34:41,980 --> 00:34:42,779
de bias in

757
00:34:42,779 --> 00:34:43,860
en dat soort zaken?

758
00:34:44,139 --> 00:34:45,120
Daar zullen we over

759
00:34:45,120 --> 00:34:45,219
na

760
00:34:45,219 --> 00:34:45,480
moeten

761
00:34:45,480 --> 00:34:45,759
denken.

762
00:34:45,960 --> 00:34:48,639
Maar dat zeg ik, ik zit nog niet in de limitaties.

763
00:34:49,480 --> 00:34:52,039
Dat soort zaken zullen dan wel uitgedacht moeten worden.

764
00:34:53,320 --> 00:34:56,400
En een andere variant dat ik dacht van, jullie hebben ook volgens mij best wel veel verslaglegging.

765
00:34:57,240 --> 00:34:58,799
Dus hoe zouden we daarbij kunnen helpen?

766
00:34:59,479 --> 00:35:00,120
Met beeld,

767
00:35:00,220 --> 00:35:01,480
interviews

768
00:35:01,480 --> 00:35:03,720
van wat heeft er vandaag plaatsgevonden?

769
00:35:03,860 --> 00:35:05,960
En dat transcriberen en dat weer valideren.

770
00:35:06,740 --> 00:35:08,100
Dat zie ik een beetje hetzelfde in de zorg.

771
00:35:08,180 --> 00:35:10,080
Er zit ook heel veel administratielast.

772
00:35:10,560 --> 00:35:12,180
Als we dat makkelijker zouden kunnen maken.

773
00:35:12,480 --> 00:35:15,660
Maar nog wel de toetsing kunnen hebben van de persoon die de ervaring heeft gehad.

774
00:35:16,340 --> 00:35:21,720
Je hebt natuurlijk heel veel applicaties die ontzettend goed samenvattingen kunnen maken.

775
00:35:22,720 --> 00:35:28,980
Wij gebruiken ze nog niet, maar dat zou wel een ontzettend mooie tool zijn om die hele grote dossiers,

776
00:35:29,330 --> 00:35:33,000
die je eventueel opmaakt met duizenden processen voor balen,

777
00:35:33,570 --> 00:35:34,600
dat daar

778
00:35:34,600 --> 00:35:37,580
een goede samenvatting voor wordt gemaakt.

779
00:35:37,650 --> 00:35:41,060
Ik denk dat het inderdaad een mooie tool

780
00:35:41,060 --> 00:35:41,560
zou

781
00:35:41,560 --> 00:35:41,840
zijn.

782
00:35:42,220 --> 00:35:45,640
Ik ben namelijk groot fan van de politieafleveringen van Maastricht en dergelijke

783
00:35:45,640 --> 00:35:46,180
tv's.

784
00:35:46,280 --> 00:35:46,860
En dan zie je inderdaad

785
00:35:46,860 --> 00:35:48,980
dat een klein incident best wel lang

786
00:35:48,980 --> 00:35:50,140
op kantoor terecht kan

787
00:35:50,140 --> 00:35:50,420
komen.

788
00:35:50,600 --> 00:35:53,920
En als we daar inderdaad dus efficiënter en makkelijker mee kunnen werken,

789
00:35:54,520 --> 00:35:55,860
kan je weer eerder op straat, zeg maar.

790
00:35:56,260 --> 00:35:56,920
Dus dat zou heel mooi

791
00:35:56,920 --> 00:35:57,120
zijn.

792
00:35:58,460 --> 00:36:02,340
Als we alles wat we besproken hebben, zouden moeten samenvatten,

793
00:36:02,340 --> 00:36:04,720
dan beginnen we volgens mij eerst bij die digitale weerbaarheid,

794
00:36:04,980 --> 00:36:07,400
wat je zegt van, let goed op.

795
00:36:09,460 --> 00:36:10,140
Help me even mee.

796
00:36:11,160 --> 00:36:11,960
We hebben een gezonde

797
00:36:11,960 --> 00:36:13,180
digitale achterdocht,

798
00:36:13,560 --> 00:36:13,680
eigenlijk.

799
00:36:14,000 --> 00:36:14,600
Hoe je dat ook

800
00:36:14,600 --> 00:36:16,300
in het fysieke wereld hebt.

801
00:36:18,500 --> 00:36:23,020
Probeer altijd degene met wie je praat online of met wie je van doen hebt te verifiëren.

802
00:36:23,980 --> 00:36:26,200
Praat ik wel met degene waarvan ik denk

803
00:36:26,200 --> 00:36:27,180
dat ik

804
00:36:27,180 --> 00:36:27,580
mee praat.

805
00:36:28,680 --> 00:36:29,100
Nou ja, wij

806
00:36:29,100 --> 00:36:30,000
zeggen altijd...

807
00:36:30,000 --> 00:36:34,820
En daar hoorde ik laatst gewoon een heel eenvoudige spreek, gewoon een woord met elkaar

808
00:36:34,820 --> 00:36:35,220
af.

809
00:36:35,560 --> 00:36:35,760
Precies.

810
00:36:36,480 --> 00:36:37,180
Die je alleen...

811
00:36:37,540 --> 00:36:38,920
Dat is een geheim woord.

812
00:36:39,220 --> 00:36:39,700
En

813
00:36:39,700 --> 00:36:41,740
dat kan iets heel eenvoudig zijn die je alleen...

814
00:36:42,460 --> 00:36:44,540
Ja, die je alleen elkaar dan weet.

815
00:36:45,020 --> 00:36:45,540
Dan kan

816
00:36:45,540 --> 00:36:46,420
dat dan zo helpen.

817
00:36:46,500 --> 00:36:46,760
Precies.

818
00:36:47,540 --> 00:36:47,620
Het

819
00:36:47,620 --> 00:36:49,280
is gekken dat we dit moeten doen.

820
00:36:50,720 --> 00:36:52,100
Dan direct op tafel leggen.

821
00:36:52,600 --> 00:36:53,060
Hebben jullie dat?

822
00:36:53,800 --> 00:36:54,020
Met iemand?

823
00:36:54,400 --> 00:36:55,620
Zo'n code woord afgesproken?

824
00:36:56,360 --> 00:36:57,380
Ik heb het niet met mijn zoon.

825
00:36:57,560 --> 00:36:58,900
Nee, eigenlijk met niemand heb ik het.

826
00:37:00,120 --> 00:37:01,980
Maar ik weet ook honderd procent zeker.

827
00:37:02,040 --> 00:37:07,500
Als mijn zoon mij bijvoorbeeld via WhatsApp iets zou vragen om geld.

828
00:37:08,180 --> 00:37:08,820
Dan ga ik hem bellen.

829
00:37:10,460 --> 00:37:11,920
Maar dan ga ik hem toch even door.

830
00:37:12,140 --> 00:37:13,080
Dan heb je hem de voice clone.

831
00:37:13,200 --> 00:37:13,360
En

832
00:37:13,360 --> 00:37:13,740
hij zegt,

833
00:37:15,050 --> 00:37:17,560
pa, ik sta hier en ik sta langs de snelweg.

834
00:37:18,700 --> 00:37:20,540
Het is een groot probleem, de auto is kapot.

835
00:37:21,920 --> 00:37:23,640
Dan stel ik hem op dat moment een vraag.

836
00:37:25,000 --> 00:37:26,080
De ambulance komt er zo aan.

837
00:37:27,040 --> 00:37:28,360
Heel mooi, ik kom naar je toe.

838
00:37:28,830 --> 00:37:33,860
Nee, maar dan stel ik op dat moment een vraag die hij alleen maar moet kunnen weten.

839
00:37:34,940 --> 00:37:36,000
Dus dat wel.

840
00:37:38,020 --> 00:37:39,580
Dat is nog een goede tip, even kijken.

841
00:37:40,540 --> 00:37:41,980
Code word, controle vraag.

842
00:37:43,120 --> 00:37:43,560
Tweestapsverificatie.

843
00:37:43,780 --> 00:37:44,360
Ja,

844
00:37:44,620 --> 00:37:44,880
zeker.

845
00:37:46,940 --> 00:37:47,120
En...

846
00:37:47,480 --> 00:37:47,880
Conversatie.

847
00:37:48,850 --> 00:37:50,820
Dus met elkaar praten, met je kinderen praten.

848
00:37:51,010 --> 00:37:54,060
Ook niet denken dat het alleen maar rondom ouderen gaat.

849
00:37:55,120 --> 00:37:57,400
Nou, super bedankt dat jullie dit wilden doen.

850
00:37:58,040 --> 00:37:59,460
Heel erg inzichtelijk.

851
00:38:00,060 --> 00:38:00,440
Ik

852
00:38:00,440 --> 00:38:00,560
heb

853
00:38:00,560 --> 00:38:02,580
er in ieder geval zelf ook weer wat van geleerd.

854
00:38:02,680 --> 00:38:02,820
Dus

855
00:38:02,820 --> 00:38:03,100
dank

856
00:38:03,100 --> 00:38:03,500
jullie wel.

857
00:38:04,340 --> 00:38:04,860
Helemaal top.

858
00:38:05,210 --> 00:38:05,580
Dank jullie wel.

859
00:38:05,580 --> 00:38:06,980
Ga gedaan, bedankt voor het respect.

860
00:38:07,720 --> 00:38:08,160
Wederzijds.

861
00:38:09,140 --> 00:38:11,600
Leuk dat je weer luisterde naar een aflevering van AIToday Live.

862
00:38:12,980 --> 00:38:14,140
Kijk eventjes in de show notes.

863
00:38:14,300 --> 00:38:15,280
Want alles wat gezegd

864
00:38:15,280 --> 00:38:17,400
is, daar nemen wij linkjes voor op.

865
00:38:17,960 --> 00:38:19,820
En ik zou zeggen, stay safe.

866
00:38:20,040 --> 00:38:21,340
Of in het Nederlands, blijf veilig.

867
00:38:22,100 --> 00:38:22,780
Tot de volgende keer.

868
00:38:51,920 --> 00:38:51,940
[Muziek]


People on this episode