AIToday Live

S07E01 - De rol van AI in de publieke sector: een praktijkverhaal met Maranke Wieringa

Aigency by Info Support Season 7 Episode 1

Maranke Wieringa, adviseur datagedreven bij Parell en onderzoeker aan de Universiteit Utrecht, deelt diens inzichten over verantwoord AI-gebruik bij gemeenten. Hen onderscheidt vier types gemeenten in hun omgang met algoritmische systemen en benadrukt dat verantwoord AI-gebruik verder gaat dan alleen techniek.

Wieringa bespreekt de rol van algoritmeregisters en het belang van politieke keuzes bij de inzet van AI in gemeenten. Hen adviseert organisaties om niet volledig op AI te vertrouwen en pleit ervoor dat bestuurders AI als strategisch thema oppakken.

Diens belangrijkste tip is om direct te beginnen met het in kaart brengen van AI-systemen, zonder te wachten op volledige regelgeving.

Onderwerpen

  • Types gemeenten in gebruik van algoritmes
  • Ethische aspecten van verantwoord AI-gebruik
  • Transparantie en algoritmeregisters
  • Politieke keuzes en beleidsimpact op AI
  • Adviezen voor organisaties omtrent AI-implementatie
Links

Genoemde entiteiten: Parell - Universiteit Utrecht

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:06,960
In deze aflevering hoor je Maranke Wieringa, adviseur datagedreven werken bij Parell, over

2
00:00:06,960 --> 00:00:10,840
de uitdagingen van verantwoord AI-gebruik bij gemeenten.

3
00:00:10,840 --> 00:00:17,320
Met Marankes unieke combinatie van wetenschappelijk onderzoek en praktijkervaring als algoritme-expert

4
00:00:17,320 --> 00:00:23,240
bij gemeentes onthult Maranke de valkuilen én kansen van verantwoord AI in de publieke

5
00:00:23,240 --> 00:00:24,240
sector.

6
00:00:24,240 --> 00:00:25,120
Dus blijf luisteren!

7
00:00:25,121 --> 00:00:26,120
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live

8
00:00:26,120 --> 00:00:27,120
Ja, Niels een nieuw seizoen.

9
00:00:33,680 --> 00:00:36,740
Het klinkt misschien raar, hè, want...

10
00:00:36,740 --> 00:00:37,520
Het is nog geen december.

11
00:00:37,520 --> 00:00:38,620
Het is nog geen nieuw jaar.

12
00:00:38,620 --> 00:00:41,120
Nou ja, wanneer dit wordt uitgezonden is het december.

13
00:00:41,120 --> 00:00:44,560
Maar ik zal het ook even voor de gasten uitleggen.

14
00:00:44,560 --> 00:00:48,400
Wij hebben zoveel afleveringen gemaakt, meer dan honderd dit jaar,

15
00:00:48,400 --> 00:00:50,040
dat we niet uitkomen qua nummering.

16
00:00:50,040 --> 00:00:55,020
Dus we zijn begonnen in seizoen zeven, zonder dat het jaarwisseling gekomen is.

17
00:00:55,020 --> 00:00:57,380
Maar we hebben een...

18
00:00:57,380 --> 00:01:00,700
Ja, ik heb een gast, daar heb ik echt al een hele tijd naar uitgekeken,

19
00:01:00,700 --> 00:01:01,620
Maranke Wieringa.

20
00:01:01,620 --> 00:01:05,920
Maranke, dank je wel dat je in onze studio wil zijn.

21
00:01:05,920 --> 00:01:06,700
Ja, heel graag gedaan.

22
00:01:06,700 --> 00:01:11,320
Oh ja, mijn naam Niels Naglé, Area Lead, Data & AI bij Info Support

23
00:01:11,320 --> 00:01:13,620
En Joop Snijder, CTO bij Aigency.

24
00:01:13,620 --> 00:01:16,900
Maranke, zou je jezelf willen voorstellen aan de luisteraars?

25
00:01:16,900 --> 00:01:18,760
Jazeker, ik ben Maranke Wieringa.

26
00:01:18,760 --> 00:01:20,800
Mijn voornaam worden zijn hen, hun en die dienst.

27
00:01:20,800 --> 00:01:22,980
Ik ben adviseur datagedreven werken bij Parell.

28
00:01:22,980 --> 00:01:25,640
En daarnaast ben ik buiten promovendus bij de Universiteit Utrecht,

29
00:01:25,640 --> 00:01:30,140
waar ik sinds 2018 onderzoek doe naar rekenschap rondom algoritmes in de Nederlandse gemeente.

30
00:01:30,420 --> 00:01:33,360
Ja, dat is een hele mond vol en daar gaan we het vandaag over hebben.

31
00:01:33,360 --> 00:01:35,040
Zou je nog iets kunnen vertellen over Parell?

32
00:01:35,040 --> 00:01:39,940
Ja, we zijn een consultancybedrijf en wij adviseren overheid, onderwijs, zorg,

33
00:01:39,940 --> 00:01:44,140
kritieke infrastructuur met verantwoord data en algoritmegebruik.

34
00:01:44,140 --> 00:01:47,640
En dat vooral naar overheidsinstanties, onderwijs?

35
00:01:47,640 --> 00:01:51,520
Ja, dus wij specialiseren ons in de publieke en semi-publieke sector.

36
00:01:52,700 --> 00:01:56,080
Dus ja, we zeggen altijd we willen maatschappelijke waarden toevoegen,

37
00:01:56,080 --> 00:01:57,680
dus publieke waarden creëren.

38
00:01:57,680 --> 00:01:59,820
En daarom richten wij ons daarop.

39
00:01:59,820 --> 00:02:02,680
Dus we zijn er niet om de banken nog een klein stukje rijker te maken,

40
00:02:02,680 --> 00:02:05,820
maar we proberen wel gewoon Nederlands een stukje verder vooruit te helpen.

41
00:02:05,820 --> 00:02:10,960
Ja, en kan je voorbeelden geven van gemeentes of overheidsinstanties die je al geholpen hebt?

42
00:02:11,820 --> 00:02:15,900
Ja, dus ik heb in het verleden bij gemeente Rotterdam bijvoorbeeld gewerkt.

43
00:02:15,900 --> 00:02:21,500
Maar ja, op verschillende onderzoeken en ook projecten meegeholpen

44
00:02:21,500 --> 00:02:24,880
bij verschillende grotere en kleinere gemeentes vooral.

45
00:02:24,880 --> 00:02:28,560
En dat gaat dan van een stukje WPG-implementatie.

46
00:02:28,560 --> 00:02:31,600
Dus hoe gaan we goed met politiegegevens om bij de BOA's?

47
00:02:31,600 --> 00:02:33,000
Maar het gaat ook tot...

48
00:02:33,000 --> 00:02:34,760
Wil je WPG even...

49
00:02:34,760 --> 00:02:37,320
Voor mij is dat een onbekende afkorting.

50
00:02:37,320 --> 00:02:39,300
Ja, dit is ook een beetje een niche.

51
00:02:39,940 --> 00:02:44,760
Maar dat gaat over hoe gaan we goed om met de privacy-problematiek

52
00:02:44,760 --> 00:02:47,280
rondom de gegevens die BOA's verzamelen.

53
00:02:47,280 --> 00:02:48,940
En dat gaat...

54
00:02:48,940 --> 00:02:52,760
BOA's hebben enerzijds een toezicht en anderzijds een handhavingspet op.

55
00:02:52,760 --> 00:02:55,600
En in de ene pet werken ze onder de AVG,

56
00:02:55,600 --> 00:02:57,680
dus de Algemene Verordening Gegevensbescherming,

57
00:02:57,680 --> 00:03:00,320
dus onze standaard privacy-net als het ware.

58
00:03:00,320 --> 00:03:04,680
En de WPG gaat dan over de opsporingsgegevens die zij ook verzamelen.

59
00:03:04,680 --> 00:03:09,500
Oh, ik kan me voorstellen dat daar nog wat extra bij zit ten opzichte van die AVG.

60
00:03:09,500 --> 00:03:10,080
Ja, precies.

61
00:03:10,080 --> 00:03:13,800
Dus er zit veel overlap in, maar er moeten ook wel weer andere dingen over geregeld worden.

62
00:03:13,800 --> 00:03:15,580
En dat typeert me ook wel.

63
00:03:15,580 --> 00:03:19,340
Ik ben iemand die het heel erg leuk vindt om met mijn specialisme bezig te zijn.

64
00:03:19,340 --> 00:03:21,380
Dus algoritmes en verantwoord en gebruik daarvan.

65
00:03:21,380 --> 00:03:24,540
Maar ik ben ook iemand die het gewoon heel erg leuk vindt om nieuwe dingen te doen.

66
00:03:24,780 --> 00:03:31,140
Dus of dat nou een privacy-vraagstuk is of ik ben op dit moment bezig met een CISO-opleiding.

67
00:03:31,140 --> 00:03:35,700
Gewoon omdat ik het leuk vind om met deze mensen ook beter te kunnen sparren.

68
00:03:35,700 --> 00:03:39,620
Ik ben veel bezig bij gemeentes, vooral gemeentes dan,

69
00:03:39,620 --> 00:03:44,420
om eigenlijk een nieuwe compliancy-tak zoals dat vaak gezien wordt op te zetten.

70
00:03:44,580 --> 00:03:49,240
Dus ik heb veel te maken met ook privacy-officers, met CISOs en ISO's.

71
00:03:49,240 --> 00:03:52,180
Dus informatiebeveiligingsprofessionals.

72
00:03:52,180 --> 00:03:55,700
En dan is het heel handig om ook die talen van die mensen goed te kunnen spreken.

73
00:03:55,700 --> 00:03:56,880
Zeker, zeker.

74
00:03:57,780 --> 00:04:00,160
Maar dat klinkt heel erg als beleid, klopt dat?

75
00:04:00,160 --> 00:04:02,780
Ja, ik ben echt zo'n saai beleids...

76
00:04:02,780 --> 00:04:08,900
We mogen niet veel Engelse termen gebruiken in deze podcast, maar governance-persoon.

77
00:04:08,900 --> 00:04:14,600
Dus dat is veel met sturing en hoe gaan we beleid en processen inrichten,

78
00:04:14,600 --> 00:04:17,140
de strategieën daaromheen, dat soort vraagstukken.

79
00:04:17,140 --> 00:04:21,120
Een persoonlijke vraag hoor, maar als je governance noemt binnen de organisaties,

80
00:04:21,120 --> 00:04:24,040
wat is dan de eerste associatie die mensen hebben?

81
00:04:24,840 --> 00:04:29,160
Ja, vaak een stukje papieren tijger, ben ik bang.

82
00:04:29,160 --> 00:04:35,420
Voor mij gaat het heel veel om processen en goed nadenken over hoe gaan we dit inrichten met elkaar.

83
00:04:35,420 --> 00:04:43,840
En ook borgen in onze processen en in onze werkwijzen dat de dingen goed gedaan worden zoals ze gedaan moeten worden.

84
00:04:43,840 --> 00:04:48,840
Maar het heeft toch wel vaak nog wel iets van een negatieve bijklank.

85
00:04:48,840 --> 00:04:50,480
Dus ja, daar loop je wel tegenaan.

86
00:04:50,480 --> 00:04:56,040
Hoe draai je dat om? Hoe maak je dit voor mensen praktisch en dat ze hier aan mee willen werken?

87
00:04:56,040 --> 00:04:59,900
Ja, ik denk heel veel handelingsperspectief bieden.

88
00:04:59,900 --> 00:05:03,960
Dus voor mij zit de lol er niet in om een papieren tijger op te leveren,

89
00:05:03,960 --> 00:05:06,440
maar juist die goed laten aansluiten op de werkpraktijk.

90
00:05:06,940 --> 00:05:09,140
En vooral de mensen daarin meenemen.

91
00:05:09,140 --> 00:05:11,500
Dus ook echt met de mensen om tafel.

92
00:05:11,500 --> 00:05:13,560
God, wat hebben jullie nou nodig? Hoe doen jullie dit nu?

93
00:05:13,560 --> 00:05:15,360
Hoe kunnen we dit met elkaar beter aanvliegen?

94
00:05:15,360 --> 00:05:18,600
Zodat de problemen waar jullie soms wel later tegenaan lopen,

95
00:05:18,600 --> 00:05:21,320
eigenlijk van vooraf al opgevangen worden.

96
00:05:21,320 --> 00:05:23,240
Ja, lijkt me een mooie.

97
00:05:23,240 --> 00:05:23,720
Zeker.

98
00:05:24,160 --> 00:05:28,000
Ik zag staan dat je algoritme-expert bent.

99
00:05:28,000 --> 00:05:28,500
Ja.

100
00:05:28,500 --> 00:05:32,740
Zo staan je functies op LinkedIn.

101
00:05:32,740 --> 00:05:34,340
Wat is een algoritme-expert?

102
00:05:34,340 --> 00:05:36,680
Het is...

103
00:05:36,680 --> 00:05:40,680
Deze titel kwam eigenlijk voor mij ook een beetje uit de lucht vallen.

104
00:05:40,680 --> 00:05:44,040
Bij een van de gemeenten waar ik aan de slag ben geweest,

105
00:05:44,040 --> 00:05:46,180
daar hebben ze een tweedelijnsfunctie,

106
00:05:46,180 --> 00:05:47,860
zoals dit in goede governance-termen.

107
00:05:47,860 --> 00:05:52,720
En dan moet je eigenlijk denken dat dat een soort privacy officer is,

108
00:05:52,720 --> 00:05:54,500
maar dan voor algoritmes.

109
00:05:54,500 --> 00:05:58,300
Dus eigenlijk, die helpt de operatie,

110
00:05:58,300 --> 00:06:01,000
dus de mensen die hier daadwerkelijk de dingen doen

111
00:06:01,000 --> 00:06:02,840
die we zouden moeten doen als bijvoorbeeld overheid,

112
00:06:02,840 --> 00:06:06,000
om het goed om te gaan met algoritmes.

113
00:06:06,000 --> 00:06:09,060
En dat is de term die zij daaraan hebben gekoppeld.

114
00:06:09,180 --> 00:06:13,180
En dat is dus eigenlijk een soort vraagbaak,

115
00:06:13,180 --> 00:06:14,960
maar ook een soort waar komt met,

116
00:06:14,960 --> 00:06:18,120
hebben we alle stappen die we met elkaar hebben afgesproken

117
00:06:18,120 --> 00:06:19,180
voor verantwoord gebruik?

118
00:06:19,180 --> 00:06:20,180
Hebben we dat goed doorlopen?

119
00:06:20,180 --> 00:06:21,400
Waar moeten we nog aan denken?

120
00:06:21,400 --> 00:06:23,000
Al dat soort dingen.

121
00:06:23,000 --> 00:06:25,040
Dus dan kun je ook denken aan risicoclassificaties

122
00:06:25,040 --> 00:06:26,660
van algoritmische systemen,

123
00:06:26,660 --> 00:06:30,660
aan het expertise inbrengen bij bijvoorbeeld

124
00:06:30,660 --> 00:06:32,860
een impact assessment, mensenrechten en algoritmes.

125
00:06:32,860 --> 00:06:34,500
Allemaal dat soort dingen.

126
00:06:34,500 --> 00:06:34,940
Oh ja.

127
00:06:34,940 --> 00:06:38,420
Dus het gaat echt tijdens de ontwikkeling van het algoritme,

128
00:06:38,960 --> 00:06:41,400
dan ben jij de vraagbaak, expert.

129
00:06:41,400 --> 00:06:42,500
Ja.

130
00:06:42,500 --> 00:06:44,760
Ja, dus dat is een rol die ik soms vervul.

131
00:06:44,760 --> 00:06:46,280
Dus dat is meer de operationele kant.

132
00:06:46,280 --> 00:06:47,600
En ik zit soms ook,

133
00:06:47,600 --> 00:06:49,720
en daar zit ik nu vaak veel,

134
00:06:49,720 --> 00:06:52,280
meer aan de beleid- en strategiekant.

135
00:06:52,280 --> 00:06:55,220
Er komt van alles op ons af,

136
00:06:55,220 --> 00:06:56,860
op algoritme- en AI-gebied.

137
00:06:56,860 --> 00:06:58,100
Hoe gaan we daarmee om?

138
00:06:58,100 --> 00:07:01,260
Hoe richten we onze organisatie zo in?

139
00:07:01,340 --> 00:07:03,060
Dat dat allemaal goed ingeregeld wordt,

140
00:07:03,060 --> 00:07:03,940
dat soort vraagstukken.

141
00:07:03,940 --> 00:07:11,700
Wat zie je daar ergens een rode lijn in die strategische vraagstukken die ze hebben?

142
00:07:11,700 --> 00:07:13,300
Zit daar daar?

143
00:07:13,300 --> 00:07:15,200
Bij gemeentespecifiek bedoel je?

144
00:07:15,200 --> 00:07:15,400
Ja.

145
00:07:17,000 --> 00:07:18,720
Ik denk dat er...

146
00:07:18,720 --> 00:07:20,560
Oh, dat is...

147
00:07:20,560 --> 00:07:22,300
Ik zie verschillende rode draden.

148
00:07:22,300 --> 00:07:24,160
Daar wordt die ingewikkeld, denk ik.

149
00:07:24,160 --> 00:07:31,960
Dus in mijn onderzoek beschrijf ik hoe gemeentes hier verschillend mee om kunnen gaan.

150
00:07:31,960 --> 00:07:35,400
En ik zie eigenlijk vier type gedrag,

151
00:07:35,640 --> 00:07:38,920
of omgang met algoritmische systemen.

152
00:07:38,920 --> 00:07:42,080
De eerste is een soort koploper,

153
00:07:42,080 --> 00:07:45,100
die heel snel hiermee aan de slag gaat,

154
00:07:45,100 --> 00:07:46,400
die heel veel kansen ziet,

155
00:07:46,400 --> 00:07:47,960
en tegelijkertijd,

156
00:07:47,960 --> 00:07:49,240
terwijl ze bezig zijn,

157
00:07:49,240 --> 00:07:50,100
de vangrails, zeg maar,

158
00:07:50,100 --> 00:07:51,920
naast de weg aan het team zijn.

159
00:07:51,920 --> 00:07:53,380
Terwijl je rijdt.

160
00:07:53,380 --> 00:07:53,720
Precies.

161
00:07:53,720 --> 00:07:55,860
Dus ook meteen beheersmaatregelen.

162
00:07:55,860 --> 00:07:58,600
Denk aan zo'n soort Loony Tunes poppetje,

163
00:07:58,600 --> 00:08:00,840
die nog het spoor aan het leggen is,

164
00:08:00,840 --> 00:08:01,580
terwijl die erop zit.

165
00:08:01,580 --> 00:08:02,780
Dat idee, zeg maar.

166
00:08:02,780 --> 00:08:05,040
Je hebt een groep,

167
00:08:05,200 --> 00:08:06,980
die noem ik fast fashionista's,

168
00:08:06,980 --> 00:08:08,960
die heel snel op de bandwagon springen,

169
00:08:08,960 --> 00:08:10,700
en vooral zoiets hebben van,

170
00:08:10,700 --> 00:08:11,960
oh ja, nee, dit is hip,

171
00:08:11,960 --> 00:08:13,620
en we willen hiermee aan de slag,

172
00:08:13,620 --> 00:08:16,020
en heel enthousiast zijn.

173
00:08:16,020 --> 00:08:20,780
Maar misschien wat minder die rails aan het leggen zijn,

174
00:08:20,780 --> 00:08:21,720
terwijl ze bezig zijn.

175
00:08:21,720 --> 00:08:24,100
En dan heb je een groep,

176
00:08:24,100 --> 00:08:26,240
die ik de kat uit de boom kijkers noem,

177
00:08:26,240 --> 00:08:28,260
die heel erg bewust zeggen,

178
00:08:28,260 --> 00:08:29,820
nee, wij zijn ietsje langzamer,

179
00:08:29,820 --> 00:08:33,980
en we leren heel goed van wat andere organisaties doen,

180
00:08:34,280 --> 00:08:35,760
waar dingen goed gaan,

181
00:08:35,760 --> 00:08:37,120
en waar dingen verbeterd kunnen worden.

182
00:08:37,120 --> 00:08:38,799
En dan is er nog een groep,

183
00:08:38,799 --> 00:08:40,380
en dat is denk ik de grootste groep,

184
00:08:40,380 --> 00:08:41,140
die eigenlijk zegt,

185
00:08:41,140 --> 00:08:41,480
ja,

186
00:08:41,480 --> 00:08:43,980
na ons de zondvloed,

187
00:08:43,980 --> 00:08:46,680
wij zijn hier nog bezig met data op de agenda zetten,

188
00:08:46,680 --> 00:08:48,520
ons niet bellen.

189
00:08:48,520 --> 00:08:49,180
Ja, precies.

190
00:08:49,400 --> 00:08:52,060
Ja, dat zijn een beetje de vier smaakjes die ik zie,

191
00:08:52,060 --> 00:08:54,360
en dat zijn, ja, het zijn altijd archetypes,

192
00:08:54,360 --> 00:08:56,600
dus het is nooit een absoluut gegeven,

193
00:08:56,600 --> 00:08:58,040
die zit altijd ergens op een schaal,

194
00:08:58,040 --> 00:09:01,360
maar dat zijn wel de vier types die je veel ziet.

195
00:09:01,360 --> 00:09:04,820
En ik denk dat het voor jezelf en als organisatie ook belangrijk is om te weten,

196
00:09:04,820 --> 00:09:07,700
welke archetype ben ik dan?

197
00:09:07,700 --> 00:09:09,740
Hoe kan een organisatie erachter komen,

198
00:09:09,740 --> 00:09:11,460
als ze dat nog zelf niet doorhebben,

199
00:09:11,460 --> 00:09:12,780
welke archetypes er zijn?

200
00:09:13,060 --> 00:09:16,700
Het grappige is dat heel veel organisaties er zelf echt al wel een gevoel bij hebben,

201
00:09:16,700 --> 00:09:19,260
dus ik doe deze oefening ook wel eens met organisaties,

202
00:09:19,260 --> 00:09:21,720
en dan laat ik een zeg maar matrix zien met,

203
00:09:21,720 --> 00:09:23,460
nou ja, dit is het een type, dat is het andere type,

204
00:09:23,460 --> 00:09:25,500
en dan zeg ik, nou, ga maar in de ruimte staan,

205
00:09:25,500 --> 00:09:26,360
waar sta jij?

206
00:09:26,360 --> 00:09:30,020
En dan zie je wel dat ze echt al daar zelf een gevoel bij hebben,

207
00:09:30,020 --> 00:09:32,180
dus dat is schijnbaar heel herkenbaar.

208
00:09:32,180 --> 00:09:33,120
Ja, mooi.

209
00:09:33,120 --> 00:09:34,560
Leuk, ook in de ruimte.

210
00:09:34,560 --> 00:09:36,840
Ja, dus je moet positie kiezen.

211
00:09:36,840 --> 00:09:37,580
Precies, ja.

212
00:09:37,580 --> 00:09:41,800
Hé, en ik probeer toch nog even naar die strategische vraagstuk,

213
00:09:41,800 --> 00:09:43,500
want stel, je bent die Looney Tunes,

214
00:09:43,500 --> 00:09:45,300
je bent die Fangrail aan het maken,

215
00:09:45,300 --> 00:09:48,520
wat zijn nou echt zeg maar letterlijke vragen,

216
00:09:48,520 --> 00:09:49,640
die ze zichzelf stellen,

217
00:09:49,640 --> 00:09:52,060
dat ze zeggen, hier moeten we antwoorden op zien te krijgen?

218
00:09:52,060 --> 00:09:55,120
Ja, dat kan echt van dingen gaan tot,

219
00:09:55,120 --> 00:09:59,360
het algoritmeregister is deels door gemeentes zelf ontwikkeld,

220
00:09:59,360 --> 00:10:02,680
en later verder uitgebreid tot wat het nu is.

221
00:10:02,680 --> 00:10:05,840
Dus Amsterdam heeft dat heel erg, lopen piloten,

222
00:10:05,840 --> 00:10:07,940
dus dat is een voorbeeld ervan.

223
00:10:07,940 --> 00:10:10,960
Inkoopvoorwaarden, die opgesteld moeten worden,

224
00:10:10,960 --> 00:10:12,780
voor algoritmische systemen,

225
00:10:12,780 --> 00:10:16,080
omdat heel veel gemeentes natuurlijk ook inkopen,

226
00:10:16,080 --> 00:10:18,320
en de meeste ontwikkelen zelf niet in huis.

227
00:10:18,320 --> 00:10:21,380
Het kan ook dingen zijn,

228
00:10:21,380 --> 00:10:24,140
zoals nadenken over bezwaarprocedures,

229
00:10:24,140 --> 00:10:27,400
bij beslissingen waar algoritmische systemen een rol spelen,

230
00:10:27,400 --> 00:10:29,780
of een governance,

231
00:10:29,780 --> 00:10:32,000
hoe ga je dit überhaupt inrichten met elkaar.

232
00:10:32,000 --> 00:10:34,900
Dus al dat soort vraagstukken passeren dan wel erin.

233
00:10:34,900 --> 00:10:37,760
Ja, zij hebben natuurlijk inderdaad heel veel te maken met inkopen.

234
00:10:37,760 --> 00:10:39,920
Ja, daar sta je dan wat minder bij stil.

235
00:10:39,920 --> 00:10:43,540
Ja, en wie er allemaal geraakt kunnen worden, waar het gebruikt wordt,

236
00:10:43,540 --> 00:10:44,800
is ook heel divers natuurlijk.

237
00:10:44,800 --> 00:10:46,720
Ja, het is heel contextueel.

238
00:10:47,720 --> 00:10:49,080
Want heb je bepaalde onder...

239
00:10:49,080 --> 00:10:50,360
En gemeente is natuurlijk al heel breed,

240
00:10:50,360 --> 00:10:55,580
maar zijn er bepaalde aspecten waar al meer AI wordt ingezet dan op andere plekken?

241
00:10:55,580 --> 00:10:58,640
Het is lastig.

242
00:10:58,640 --> 00:11:01,620
En even een soort van disclaimer,

243
00:11:01,620 --> 00:11:04,500
ik richt me in mijn onderzoek vooral op algoritmische systemen,

244
00:11:04,500 --> 00:11:06,540
dus dat is eigenlijk breder dan AI alleen.

245
00:11:07,100 --> 00:11:11,340
En wat ik zie is, die AI hebben ze meestal wel redelijk in de smiezen,

246
00:11:11,340 --> 00:11:16,360
maar de rest, zeg maar, dus ook de beslisbomen die ook automatische besluitvorming kunnen doen,

247
00:11:16,360 --> 00:11:18,500
dat is vaak veel lastiger om op te sporen.

248
00:11:18,500 --> 00:11:25,120
En traditioneel gezien wordt er meer gedaan in wat we het ruimtelijke domein noemen,

249
00:11:25,120 --> 00:11:28,280
dus de verkeersregelinstallaties, de stoplichten.

250
00:11:28,280 --> 00:11:33,000
Daar zitten vaak ook beslissystemen of zelfs AI in verwerkt.

251
00:11:34,000 --> 00:11:37,920
En in het sociaal domein zie je dat dat veel meer in opkomst is.

252
00:11:37,920 --> 00:11:45,080
Rondom, naar het sociaal domein doet bijvoorbeeld werk en inkomen gerelateerde vraagstukken,

253
00:11:45,080 --> 00:11:46,100
tackelen.

254
00:11:46,100 --> 00:11:54,920
En je merkt dat er in dat sociale domein veel meer angst en onbekendheid ook is.

255
00:11:54,920 --> 00:11:58,740
Ook omdat ze meer voelen van ja, we zitten hier directer op de burger.

256
00:11:58,740 --> 00:12:00,400
En dat is wel spannend.

257
00:12:00,400 --> 00:12:02,920
Ja, spannend inderdaad.

258
00:12:02,920 --> 00:12:08,020
Maar ik denk ook goed dat dat gevoeld wordt, want de impact is waarschijnlijk ook veel sneller voelbaar.

259
00:12:08,020 --> 00:12:10,500
Dus ik denk goed dat er kritisch naar gekeken wordt.

260
00:12:10,500 --> 00:12:11,460
Ja, absoluut.

261
00:12:11,460 --> 00:12:14,160
Komen er ook vanuit, ik weet niet of jij dat weet hoor,

262
00:12:14,160 --> 00:12:17,840
komen er ook vanuit burgers dan ook rechtstreeks naar gemeenten bezwaren,

263
00:12:17,840 --> 00:12:23,020
of mensen die dit spannend vinden, die dit soort dingen aangeven?

264
00:12:24,020 --> 00:12:28,740
Ja, ik denk niet altijd in de vorm waar je in eerste instantie aan denkt.

265
00:12:29,700 --> 00:12:37,700
Als je bijvoorbeeld kijkt naar WOZ-waardes, die worden ook heel veel gerekend door middel van algoritmische en soms ook AI-systemen.

266
00:12:39,220 --> 00:12:41,220
En daar worden er natuurlijk heel veel bezwaren in.

267
00:12:41,220 --> 00:12:43,700
Dus het kan al zo fundamenteel zijn als zoiets.

268
00:12:44,420 --> 00:12:49,420
We weten ook dat er veel vragen zijn vanuit de samenleving.

269
00:12:49,420 --> 00:12:52,480
En we zien ook dat gemeentes daar op verschillende manieren mee omgaan.

270
00:12:52,480 --> 00:12:56,120
Er zijn gemeentes die nu ethische commissies oprichten,

271
00:12:56,120 --> 00:12:58,480
waar bijvoorbeeld burgers in plaats kunnen nemen,

272
00:12:58,480 --> 00:13:00,500
of adviescommissies, of een burgerberaad.

273
00:13:00,500 --> 00:13:01,840
Nou ja, geef het een beetje een naam.

274
00:13:02,440 --> 00:13:08,880
Maar je ziet dat ze wel vaak op de een of andere manier proberen om zo'n outsider perspectief weer terug te brengen in de organisatie.

275
00:13:08,880 --> 00:13:09,820
Mooi.

276
00:13:09,820 --> 00:13:15,220
Heb je ook een voorbeeld van een algoritme of een AI-systeem waarvan je denkt van,

277
00:13:15,220 --> 00:13:18,980
ja, maar dit helpt zeg maar, dit helpt in de publieke ruimte.

278
00:13:18,980 --> 00:13:22,840
Dit is echt, het wordt heel snel, zeg maar, als we het over gemeenteoverheid hebben,

279
00:13:22,840 --> 00:13:25,100
gaan we het hebben over wat er niet goed gaat.

280
00:13:25,100 --> 00:13:27,860
Maar ik denk dat er meer goed gaat dan dat er niet goed gaat.

281
00:13:28,400 --> 00:13:32,900
Heb je een voorbeeld van een mooi systeem waarvan je zegt van, ja, dit hebben ze echt mooi aangepakt?

282
00:13:32,900 --> 00:13:36,600
Ja, sowieso. Ik ben een groot fan van stoplichten.

283
00:13:36,600 --> 00:13:41,140
Ik doe het heel goed. Ze zorgen voor heel weinig verkeersproblematiek.

284
00:13:41,140 --> 00:13:43,460
Dus dat soort dingen word ik al heel blij van.

285
00:13:43,460 --> 00:13:49,300
Ik denk ook dat er dingen zoals doorstroom voor fietsers,

286
00:13:49,300 --> 00:13:54,480
als het regent, gemeentes die aan het experimenteren zijn met systemen,

287
00:13:54,480 --> 00:13:57,840
die zorgen dat stoplichten voor fietsers op groen gaan als het slechter weer is.

288
00:13:57,840 --> 00:14:01,960
Dat je meer door kan vinden, dat je niet zeikersnat op je werk aankomt.

289
00:14:01,960 --> 00:14:03,940
Dat soort dingen vind ik ook wel heel charmant.

290
00:14:03,940 --> 00:14:08,600
Dus ja, ik denk dat er best wel goede kansen zijn op dit vlak.

291
00:14:08,600 --> 00:14:17,440
Mooi. En wat is volgens jou, want je bent bezig zeg maar met hoe deze systemen zo betrouwbaar mogelijk zijn, toch?

292
00:14:17,440 --> 00:14:18,280
Zeg ik dat goed?

293
00:14:18,280 --> 00:14:20,100
Ja, verantwoord en verantwoordelijk.

294
00:14:20,100 --> 00:14:23,040
En daar valt betrouwbaarheid natuurlijk ook deels onder.

295
00:14:23,040 --> 00:14:26,400
Maar wat is voor jou dan verantwoord en verantwoordelijk?

296
00:14:27,280 --> 00:14:30,020
Ja, het gaat eigenlijk om het hele pakket.

297
00:14:30,020 --> 00:14:35,280
Dus het gaat over wat gebruiken we, waarom gebruiken we dat, op wie heeft dat effect?

298
00:14:36,080 --> 00:14:38,800
Waarom vinden we dat proportioneel met een duur woord?

299
00:14:38,800 --> 00:14:43,360
Dus waarom vinden we dat dit een goed idee is, gegeven alle kansen en risico's?

300
00:14:43,360 --> 00:14:50,280
En hoe gaan we dan vervolgens dan ook nog goed vormgeven?

301
00:14:50,280 --> 00:14:54,540
Daar hoort die betrouwbaarheid bij, daar hoort een stukje fairness bij, daar hoort een stuk ethiek bij.

302
00:14:55,600 --> 00:14:58,700
Dus al dat soort vraagstukken zitten daar eigenlijk in verpakt.

303
00:14:58,700 --> 00:15:00,520
Wat het dus ook heel breed maakt.

304
00:15:00,520 --> 00:15:11,060
Ik zeg wel eens van, het is een beetje alsof je op, hoe heet dat, zo'n bedevaartstocht naar Rome gaat.

305
00:15:11,060 --> 00:15:14,260
Je weet dat je op een gegeven moment blaren gaat krijgen.

306
00:15:15,420 --> 00:15:18,120
Alle wegen leiden naar Rome, maar welke route kies je?

307
00:15:18,120 --> 00:15:19,780
Waarom en neem je blarenpleisteren mee!

308
00:15:19,780 --> 00:15:24,660
Dat is eigenlijk een beetje wat ik veel loop te toeteren bij organisaties.

309
00:15:24,980 --> 00:15:26,080
Het gaat ergens pijn doen.

310
00:15:26,080 --> 00:15:31,420
Ja, ergens gaat het pijn doen en dat wil je minimaliseren en daar wil je van tevoren eigenlijk zo goed mogelijk bij zijn.

311
00:15:31,420 --> 00:15:32,540
Ja, duidelijk.

312
00:15:32,540 --> 00:15:42,880
En als jij nou zelf invulling zou mogen geven aan AI-beleid voor een gemeente, we doen even een fictieve gemeente.

313
00:15:42,880 --> 00:15:48,080
Welke drie kernwaardes zou jij dan kiezen in het AI-beleid?

314
00:15:48,080 --> 00:15:50,260
Oh, dat is altijd heel lastig.

315
00:15:50,260 --> 00:15:54,260
En ik denk dat dat voor mij lastig is omdat het een politieke keuze is.

316
00:15:54,260 --> 00:15:57,960
We hebben met gemeentes te maken met een politiek-bestuurlijke organisatie.

317
00:15:57,960 --> 00:16:02,560
Dus we kiezen een gemeenteraad, die kiest vervolgens een college.

318
00:16:02,560 --> 00:16:06,240
Daar wordt een college uit gevormd en die heeft een politieke kleur.

319
00:16:06,240 --> 00:16:12,260
En dat maakt het in dit soort organisaties ook best wel ingewikkeld om daar zelf iets over te vinden.

320
00:16:12,260 --> 00:16:17,560
Ik word daar vaak ingevlogen in het ambtenarenapparaat natuurlijk.

321
00:16:17,560 --> 00:16:21,260
En dan heb je dat beleid gewoon uitgevoerd.

322
00:16:21,740 --> 00:16:27,660
En daar zitten gewoon bepaalde nadrukken die in zo'n beleid worden gegeven.

323
00:16:28,100 --> 00:16:29,240
Dus dat is er één.

324
00:16:29,240 --> 00:16:30,520
Dat duidelijk maken.

325
00:16:30,520 --> 00:16:32,900
Dat dit ook politieke keuzes zijn.

326
00:16:32,900 --> 00:16:38,720
Ik denk dat het heel erg belangrijk is om lerend vermogen in te richten in zo'n organisatie.

327
00:16:38,720 --> 00:16:42,660
Het zijn nog allemaal redelijk nieuwe kwesties waar we tegenaan lopen.

328
00:16:42,660 --> 00:16:45,500
En daar wil je ook gewoon op voor moeten sorteren.

329
00:16:46,800 --> 00:16:54,280
En ik denk dat de laatste een brede blik op deze systemen is.

330
00:16:54,280 --> 00:16:56,140
Dus niet alleen focussen op de techniek.

331
00:16:56,140 --> 00:16:59,780
Maar ik noem het altijd sociotechnische systemen met een duur woord.

332
00:16:59,780 --> 00:17:03,500
En dat betekent eigenlijk het stukje techniek en de werkpraktijken bekijken.

333
00:17:03,500 --> 00:17:07,099
En inderdaad de enorme waardekeuzes die je daarin maakt.

334
00:17:07,099 --> 00:17:09,920
En ook dat stukje politiek wat daarin zit zichtbaar maken.

335
00:17:09,920 --> 00:17:11,859
Dus het echt over de hele brede as benaderen.

336
00:17:15,140 --> 00:17:19,260
Want onze luisteraars zijn breder dan uit de publieke sector.

337
00:17:19,260 --> 00:17:24,119
Dit zou vertalen naar meer de zakelijke wereld.

338
00:17:24,119 --> 00:17:25,740
Dus dat je dit in je organisatie.

339
00:17:25,740 --> 00:17:27,880
Dan heb je denk ik ook dezelfde dingen te maken.

340
00:17:27,880 --> 00:17:29,600
Dan is het misschien niet de politieke keuze.

341
00:17:29,600 --> 00:17:32,000
Maar is het een beleidskeuze.

342
00:17:32,000 --> 00:17:35,420
Of een agenda, strategische keuze.

343
00:17:35,420 --> 00:17:38,080
Nou ben ik even kwijt wat je als tweede zei.

344
00:17:38,080 --> 00:17:40,540
Lerend.

345
00:17:40,540 --> 00:17:41,280
Lerend, ja.

346
00:17:41,280 --> 00:17:43,260
Lerend, dat triggerde mij.

347
00:17:43,480 --> 00:17:47,800
Want hoe zou je dat lerend vermogen.

348
00:17:47,800 --> 00:17:51,560
Hoe krijg je dat eigenlijk dus dan in een gemeente, in een organisatie.

349
00:17:51,560 --> 00:17:54,040
Hoe krijg je dit als luisteraar als je dit hoort.

350
00:17:54,040 --> 00:17:56,840
Waar zou je beginnen met lerend vermogen?

351
00:17:56,840 --> 00:18:04,260
Ik denk dat het voor een gedeelte heeft te maken met hoe je je HR processen aanvliegt.

352
00:18:04,600 --> 00:18:08,100
Dus daar voorziet in een stuk leren van medewerkers.

353
00:18:08,100 --> 00:18:09,220
Zo simpel kan het al zijn.

354
00:18:09,220 --> 00:18:18,000
Maar ook een soort feedback loop in je management van algoritmes en AI implementeert.

355
00:18:18,000 --> 00:18:22,360
Dus dat je regelmatig gaat nadenken over.

356
00:18:22,360 --> 00:18:23,800
Goh, zijn we nog op de goede berg?

357
00:18:23,800 --> 00:18:24,540
Wat hebben we nodig?

358
00:18:24,540 --> 00:18:25,920
Hebben we misschien klachten gekregen?

359
00:18:25,920 --> 00:18:26,840
Moeten we daar wat mee?

360
00:18:27,180 --> 00:18:30,920
Dat je dat soort structuren eigenlijk gaat aanbrengen in je organisatie.

361
00:18:30,920 --> 00:18:31,640
Ja.

362
00:18:31,640 --> 00:18:33,240
Dus weer een stukje governance.

363
00:18:33,240 --> 00:18:34,080
Een stukje proces.

364
00:18:34,080 --> 00:18:36,160
Een stukje common sense erin.

365
00:18:36,160 --> 00:18:38,320
Ik ben echt heel erg die saaie persoon.

366
00:18:40,060 --> 00:18:41,760
Ik denk dat het ook namelijk heel belangrijk is.

367
00:18:41,760 --> 00:18:43,140
Alleen het wordt al saai ervaren.

368
00:18:43,140 --> 00:18:45,000
En dat hoeft voor mij niet.

369
00:18:45,000 --> 00:18:49,720
Het is volgens mij juist een strategische enabler om het mogelijk te maken.

370
00:18:49,720 --> 00:18:52,360
Omdat je gaat bepalen wat wil je bereiken.

371
00:18:52,360 --> 00:18:53,980
Wat is het proces dat we nodig is.

372
00:18:53,980 --> 00:18:55,160
Maar wat zien we dan in de praktijk?

373
00:18:55,160 --> 00:18:58,300
En is dat in samenspraak met het proces wat we voor ogen hebben?

374
00:18:58,300 --> 00:19:00,800
Of moeten we daar aanpassingen aan gaan doen?

375
00:19:00,800 --> 00:19:02,560
Dus ik gun het.

376
00:19:02,560 --> 00:19:06,740
De strategische impact van governance.

377
00:19:07,640 --> 00:19:09,440
Nou ja, je zegt saai.

378
00:19:09,440 --> 00:19:12,160
Maar je had straks eigenlijk al een hele leuke werkvorm.

379
00:19:12,160 --> 00:19:15,260
Door gewoon positie te kiezen in een matrix in een ruimte.

380
00:19:15,260 --> 00:19:19,320
Zonder al je trucs en dat soort dingen weg te geven.

381
00:19:19,320 --> 00:19:20,340
Maar heb je nog zoiets leuks?

382
00:19:20,340 --> 00:19:24,800
Weet je waar mensen gewoon zelf heel laagdrempelig mee kunnen beginnen.

383
00:19:24,800 --> 00:19:27,080
Wat niet papier is.

384
00:19:27,080 --> 00:19:28,780
Maar dat je dat met elkaar aan het doen bent.

385
00:19:28,780 --> 00:19:32,920
Ja, wat ik vaak doe als demonstratie.

386
00:19:32,920 --> 00:19:35,680
En als soort van openbreken van deze discussie.

387
00:19:36,260 --> 00:19:42,160
Want algoritmes en AI wordt toch zeker in gemeente land vaak nog wel eens als een soort van magisch, moeilijk iets of zo ervaren.

388
00:19:42,160 --> 00:19:57,900
Mijn werkvorm die ik daarvoor vaak kies is dat ik de deelnemers een computer, en dat zijn zij zelf dan, laat programmeren om netjes een tompoes op te eten.

389
00:19:57,900 --> 00:19:58,780
Oh ja.

390
00:19:58,780 --> 00:20:04,720
En dat is één hilarisch, want we weten allemaal hoe, we hebben er hier allemaal beelden bij hoe dit gaat lopen.

391
00:20:04,720 --> 00:20:06,420
En dan heb je ook echt tompoes bij je?

392
00:20:06,420 --> 00:20:07,540
Oh, wat leuk.

393
00:20:07,540 --> 00:20:08,040
Wat leuk.

394
00:20:08,040 --> 00:20:10,420
Ik kom altijd met tompoes langs met mensen.

395
00:20:10,420 --> 00:20:13,000
Dus dat hebben we zeker mee.

396
00:20:13,000 --> 00:20:21,140
En je ziet dan dat mensen toch vaak heel veel aannames hebben met, oh ja, maar we weten toch wel hoe we bestek vasthouden.

397
00:20:21,140 --> 00:20:22,600
Nee, dat weten we dus niet.

398
00:20:22,600 --> 00:20:23,860
Nee, dat weet zo'n computer niet.

399
00:20:23,860 --> 00:20:30,680
Of gewoon dingen waar ze gewoon niet bij stil hebben gestaan die wel heel handig zijn om te implementeren.

400
00:20:30,680 --> 00:20:36,120
Dan heb je nagedacht over dat de computer misschien moet checken of deze tompoes niet overdatum is.

401
00:20:36,120 --> 00:20:42,380
Dat soort kwaliteitsdatacontroles die daar ook mee te maken hebben.

402
00:20:42,380 --> 00:20:44,360
Ik neem aan dat je ook de servetjes mee hebt, of niet?

403
00:20:44,360 --> 00:20:45,360
Zeker, ja, ja, ja.

404
00:20:45,360 --> 00:20:48,400
Het is ook netjes eten, hè.

405
00:20:48,400 --> 00:20:49,160
Netjes eten.

406
00:20:49,160 --> 00:20:50,900
Wat goed.

407
00:20:50,900 --> 00:20:57,080
Wij hebben, want wij zitten natuurlijk ook met dit soort vraagstukken, wij hebben een kaartspel ontwikkeld.

408
00:20:58,120 --> 00:21:09,380
Waarbij ook allerlei vragen rondom eventueel strategie, beleid, maar ook hele praktische zaken rondom generatieve AI gaat.

409
00:21:09,380 --> 00:21:14,160
En dan willen wij een kaart in jou voorleggen met een stelling erop, als dat mag.

410
00:21:14,160 --> 00:21:14,880
All right.

411
00:21:14,880 --> 00:21:14,940
All right.

412
00:21:18,940 --> 00:21:31,900
Je zag het, ik heb net geschud.

413
00:21:31,900 --> 00:21:33,800
En er is een mooie naar boven gekomen.

414
00:21:33,800 --> 00:21:36,700
Het valt in de categorie wetgeving en beleid.

415
00:21:36,700 --> 00:21:37,360
Wow.

416
00:21:37,360 --> 00:21:38,740
Daar zou ik iets van moeten vinden.

417
00:21:38,740 --> 00:21:40,000
Daarom.

418
00:21:40,000 --> 00:21:41,260
Ik denk dat het wel mooi passend is.

419
00:21:41,260 --> 00:21:48,260
En de stelling is, organisaties moeten aansprakelijk zijn voor de maatschappelijke gevolgen van hun AI gebruik.

420
00:21:48,260 --> 00:21:51,820
Nou, dat is helemaal in mijn straatje.

421
00:21:51,820 --> 00:21:54,060
Het antwoord is ja, wat mij betreft.

422
00:21:54,060 --> 00:21:54,700
Om?

423
00:21:54,700 --> 00:22:02,740
Nou ja, omdat een van de prachtige uitspraken die ik laatst tegenkwam is, you can outsource everything except accountability.

424
00:22:03,520 --> 00:22:11,000
En in het Nederlands, echt goed vertaald, je kan alles delegeren aan iemand en laten uitvoeren door een leverancier.

425
00:22:11,000 --> 00:22:12,680
Behalve de verantwoordelijkheid.

426
00:22:12,680 --> 00:22:15,800
En ik denk dat dat heel erg zo is.

427
00:22:15,800 --> 00:22:21,320
En als je ook kijkt naar hoe de AI-verordening hier nu tegenaan kijkt, ja, die zit er eigenlijk hetzelfde in.

428
00:22:21,320 --> 00:22:29,280
Je bent nog steeds als deployer, als uitroller van dit soort AI-systemen, ben jij verantwoordelijk voor dat gebruik.

429
00:22:29,280 --> 00:22:32,020
Ja. Hoe kijk jij naar die wetgeving?

430
00:22:33,400 --> 00:22:40,340
Ik was persoonlijk erg teleurgesteld met de vernauwing van de definitie van AI-systemen die daarin zit.

431
00:22:40,340 --> 00:22:44,940
Dus het was in eerste instantie, de ideeën die daarin zaten waren veel breder.

432
00:22:44,940 --> 00:22:47,700
Dus het ging veel meer over algoritmes in de brede zin.

433
00:22:47,700 --> 00:22:54,040
En je ziet dat dat nu versmalt is naar echt meer de klassieke AI-systemen.

434
00:22:54,040 --> 00:23:00,140
En enerzijds snap ik dat, gegeven waar ze vandaan komen met die wet.

435
00:23:00,140 --> 00:23:15,520
En anderzijds zie je wel dat er nu een soort wetgevend vacuüm ontstaat op die algoritmes, dus niet per se AI, die best wel grote impact kunnen hebben, maar niet per se gereguleerd worden.

436
00:23:15,780 --> 00:23:15,960
Ja.

437
00:23:15,960 --> 00:23:19,160
Dat is zeker een gat.

438
00:23:19,160 --> 00:23:23,720
Aan de andere kant hebben we volgens mij andere wetgeving die ook wel...

439
00:23:24,320 --> 00:23:31,220
Je mag niet zomaar automatische besluiten nemen als bedrijf zonder dat je daar uitleg bij hebt.

440
00:23:31,220 --> 00:23:31,680
Toch?

441
00:23:31,680 --> 00:23:32,440
Ja, klopt.

442
00:23:32,440 --> 00:23:37,400
En tegelijkertijd blijft dat toch nog best wel onder de radar.

443
00:23:37,400 --> 00:23:37,880
Ja.

444
00:23:38,840 --> 00:23:48,560
En voor jouw beeld dan, waar zit dat dan eigenlijk, heb ik het gevoel, dat is het gevoel dat ik krijg, dat we nu een klein stukje gekaderd hebben, maar wat is dat grote gebied wat dan ontbreekt volgens jou?

445
00:23:48,560 --> 00:23:50,540
Ja, ik kan wel even een voorbeeld schetsen.

446
00:23:50,540 --> 00:24:04,440
Dus een van de gemeentes die ik onderzocht heb in mijn onderzoek, die had een systeem wat automatisch controleerde of mensen voldeden aan hun, hier komt een heel groot  scrabblewoord, hun gemeentelijke belastingsschuldsbetalingsregeling.

447
00:24:04,520 --> 00:24:04,860
Zo dan.

448
00:24:04,860 --> 00:24:05,200
Ja.

449
00:24:05,200 --> 00:24:11,560
Dus mensen die een gemeentelijke belastingsschuld hadden, konden daarvoor een betalingsregeling treffen als ze het niet in één keer konden betalen.

450
00:24:11,560 --> 00:24:21,500
En dit systeem controleerde, en het stond allemaal heel netjes uitgelegd op de website, of het bedrag wat jij had overgemaakt naar de gemeente exact overeenkomt met wat je hebt afgesproken.

451
00:24:21,500 --> 00:24:29,820
En als dat linksom of rechtsom afwijkt, of je nou meer hebt betaald, of één cent te weinig, of je hebt cijfers omgeleid, dan wordt je betalingsregeling automatisch stopgezet.

452
00:24:29,820 --> 00:24:30,020
Zo.

453
00:24:30,020 --> 00:24:34,320
Ja, dat is dus automatische besluitvorming in enige vorm.

454
00:24:34,320 --> 00:24:36,480
Met ook best wel grote consequenties.

455
00:24:36,480 --> 00:24:40,900
Op het moment dat je zo'n betalingsregeling nodig hebt, dan zit je financieel al niet heel lekker, zullen we zeggen.

456
00:24:40,900 --> 00:24:43,500
Dus dat kan best wel consequenties hebben.

457
00:24:43,500 --> 00:24:48,640
Maar ik heb nog geen enkele van dit soort systemen in een algoritmeregister gezien.

458
00:24:48,640 --> 00:24:49,140
Oh ja.

459
00:24:49,300 --> 00:24:51,420
En daar maak ik me toch wel zorgen over.

460
00:24:51,420 --> 00:24:51,540
Ja.

461
00:24:51,540 --> 00:24:54,080
Kan ik me wat bij voorstellen.

462
00:24:54,080 --> 00:25:00,360
Zou je misschien toch nog, want ik denk dat voor heel veel mensen algoritme en AI, dat is één geworden.

463
00:25:00,360 --> 00:25:01,800
Dat is één grote blur.

464
00:25:01,800 --> 00:25:02,240
Ja.

465
00:25:02,240 --> 00:25:02,520
Ja.

466
00:25:02,520 --> 00:25:08,740
Zou je net nog iets voor de luisteraar uit elkaar kunnen pulleken van waar dat verschil in zit?

467
00:25:08,740 --> 00:25:09,280
Ja, zeker.

468
00:25:09,280 --> 00:25:15,740
Dus algoritmes zijn stappenplannen die je volgt om van een gegeven uitgangspositie naar een beoogd doel te komen.

469
00:25:15,740 --> 00:25:19,700
En die worden uitgevoerd, zo begrijpen we dat tegenwoordig meestal, door computers.

470
00:25:19,700 --> 00:25:20,640
Ja, een recept eigenlijk.

471
00:25:20,640 --> 00:25:21,520
Een recept eigenlijk.

472
00:25:21,520 --> 00:25:21,820
Ja.

473
00:25:21,980 --> 00:25:23,920
Dus als dit, dan doe ik dat.

474
00:25:23,920 --> 00:25:25,940
Is al een algoritme als het ware.

475
00:25:25,940 --> 00:25:30,520
En AI gaat dan veel meer over het kunnen acteren op bepaalde inputs.

476
00:25:30,520 --> 00:25:34,100
En daaruit destilleren wat er dan als output uit moet komen.

477
00:25:34,100 --> 00:25:34,400
Ja.

478
00:25:34,400 --> 00:25:39,280
Daar zit eigenlijk meer een lerend deel in van patroonherkenning.

479
00:25:39,280 --> 00:25:39,520
Ja.

480
00:25:39,520 --> 00:25:40,460
Of dat soort zaken.

481
00:25:40,460 --> 00:25:40,780
Ja.

482
00:25:40,780 --> 00:25:43,420
Want ik denk dat dat wel, want dat is belangrijk.

483
00:25:43,420 --> 00:25:50,380
Daarom zeg jij ook van de AI Act gaat dan net over dat stukje AI met dat lerende deel.

484
00:25:50,880 --> 00:25:53,240
En niet over die stappenplannen, de recepten.

485
00:25:53,240 --> 00:25:59,280
Wat best wel hele complexe bomen, structuren kunnen zijn aan stappenplannen.

486
00:25:59,280 --> 00:26:02,340
Die ook lastig uitlegbaar kunnen zijn.

487
00:26:02,340 --> 00:26:02,920
Ja, absoluut.

488
00:26:02,920 --> 00:26:05,040
Ons hele DUO-systeem bijvoorbeeld.

489
00:26:05,040 --> 00:26:07,700
De studiefinanciering of het belastingssysteem.

490
00:26:07,700 --> 00:26:09,340
Zijn hele grote beslisbomen.

491
00:26:09,340 --> 00:26:14,400
En als je maar genoeg beslisbomen in elkaar propt, wordt het op een gegeven moment alsnog niemand die weet waar je uit gaat komen.

492
00:26:14,400 --> 00:26:14,600
Precies.

493
00:26:14,600 --> 00:26:14,940
Ja.

494
00:26:14,940 --> 00:26:18,340
En hoe kijk je er dan tegenaan?

495
00:26:19,420 --> 00:26:23,340
Dat dit soort algoritmes nog niet in het algoritmeregister zitten.

496
00:26:23,340 --> 00:26:24,600
Laat staan.

497
00:26:24,600 --> 00:26:27,280
Want ik kom toch nog heel even terug op wat jij daar straks zei.

498
00:26:27,280 --> 00:26:29,420
Dingen als politieke kleur.

499
00:26:29,420 --> 00:26:34,920
Dus eigenlijk de richting en misschien politieke doel die eraan zat.

500
00:26:34,920 --> 00:26:36,940
Die zit niet beschreven in dat algoritmeregister.

501
00:26:36,940 --> 00:26:39,840
Nee ja, tussen de regels door misschien een heel klein beetje.

502
00:26:39,840 --> 00:26:42,160
Maar er is niet een veldje met politieke kleur.

503
00:26:42,160 --> 00:26:42,600
Nee toch?

504
00:26:42,600 --> 00:26:44,280
Zo makkelijk is het natuurlijk ook niet.

505
00:26:44,280 --> 00:26:49,460
Dus ik ga eerst even in op de algoritmeregister.

506
00:26:49,460 --> 00:26:50,940
Hoe komt dat?

507
00:26:50,940 --> 00:26:53,860
Nou, ik denk dat het gewoon heel erg moeilijk is om alles in beeld te krijgen.

508
00:26:53,860 --> 00:26:57,600
En ik doe deze exercitie ook wel eens bij gemeentes.

509
00:26:57,600 --> 00:27:00,960
Dan begin je bijvoorbeeld bij het register van verwerkingen.

510
00:27:00,960 --> 00:27:02,860
Dus een AVG-register.

511
00:27:02,860 --> 00:27:05,740
Bij applicatieportfolio's.

512
00:27:06,100 --> 00:27:10,360
Maar je moet echt best wel diep in de applicatie zelf gaan graven soms.

513
00:27:10,360 --> 00:27:12,480
Om echt te zien wat gebeurt hier nou.

514
00:27:12,480 --> 00:27:13,700
En welke impact heeft dat.

515
00:27:13,700 --> 00:27:18,360
Dus het is niet zo makkelijk om dat allemaal boven tafel te krijgen.

516
00:27:18,360 --> 00:27:19,140
Dus dat is één.

517
00:27:19,140 --> 00:27:21,200
En voor wat betreft die politieke kleur.

518
00:27:21,200 --> 00:27:25,820
Bij gemeentes heeft het gewoon heel veel te maken met beleidsuitvoering.

519
00:27:25,820 --> 00:27:28,600
En we hebben wet en regelgeving.

520
00:27:28,600 --> 00:27:30,540
Dit is wat een gemeente moet doen.

521
00:27:30,540 --> 00:27:32,940
En dat wordt vertaald naar beleid.

522
00:27:32,940 --> 00:27:34,500
En dit is de richting die we willen geven.

523
00:27:34,500 --> 00:27:35,760
Daar wordt beleidsuitvoering.

524
00:27:35,760 --> 00:27:37,600
En dit is hoe we het concreet gaan aanpakken.

525
00:27:37,600 --> 00:27:41,240
En vervolgens wordt daar nog weer algoritmes onder gegooid.

526
00:27:41,240 --> 00:27:43,900
We gaan dit doen middels algoritmes.

527
00:27:43,900 --> 00:27:46,160
En je moet je voorstellen dat bij elke stap.

528
00:27:46,160 --> 00:27:49,760
Daar in die lagen heb je vertaalslagen die gemaakt worden.

529
00:27:49,760 --> 00:27:52,160
Keuzes die gemaakt worden om een bepaalde richting in te gaan.

530
00:27:52,160 --> 00:27:53,580
En een andere richting dus ook niet.

531
00:27:53,580 --> 00:27:57,500
En dat betekent dat je...

532
00:27:57,500 --> 00:27:59,180
Soms gebeurt dit gewoon.

533
00:27:59,180 --> 00:28:00,940
Of wordt er niet zoveel over nagedacht.

534
00:28:00,940 --> 00:28:05,680
Of wordt er van tevoren niet zo bij stilgestaan.

535
00:28:05,680 --> 00:28:10,560
Dat het later op een ander moment in een andere context misschien een hele andere keuze gemaakt kan worden.

536
00:28:10,560 --> 00:28:12,360
Dus daar moet je van tevoren goed bij zijn.

537
00:28:12,360 --> 00:28:20,180
En soms is het ook echt iets wat in een tijdsgewricht gewoon heel natuurlijk als het ware overkomt.

538
00:28:20,440 --> 00:28:24,720
We hebben een rechtszaak gehad over Syri een paar jaar geleden.

539
00:28:24,720 --> 00:28:26,340
Systeem risico indicatie.

540
00:28:26,340 --> 00:28:28,980
Niet de Syri op je telefoon.

541
00:28:28,980 --> 00:28:33,680
Nee, dat was een systeem wat gebruikt werd door samenwerkingsorganisaties.

542
00:28:33,680 --> 00:28:35,500
Dus de politie zat erbij, de gemeente zat erbij.

543
00:28:35,500 --> 00:28:47,240
Om wijken door te lichten waarin een hoger risico op fraude met bijstandsuitkeringen voorkwam.

544
00:28:48,240 --> 00:28:52,900
En de rechter heeft gezegd, ja de wet die hieronder ligt, die is onverbindend verklaard.

545
00:28:52,900 --> 00:28:58,260
Na een rechtszaak waarin NGO's ook zeiden, dus belangenorganisaties zeiden van.

546
00:28:58,260 --> 00:29:03,460
Nee, we moeten hier goed met elkaar nadenken over het privacy vraagstuk wat hierin zit.

547
00:29:03,460 --> 00:29:07,680
En dat je eigenlijk bij voorbaat verdacht verklaard wordt.

548
00:29:07,680 --> 00:29:09,860
Door je al door zo'n systeem heen te halen.

549
00:29:11,500 --> 00:29:20,540
En mijn punt was, ja, dat de mensen die hier destijds mee bezig waren met dit soort systemen.

550
00:29:20,540 --> 00:29:25,080
En in de maatschappij breder, zeg maar, de jaren voor die rechtszaak.

551
00:29:25,080 --> 00:29:32,840
Was het natuurlijk en de tendens dat fraude moest gewoon heel hard bestreden worden.

552
00:29:33,400 --> 00:29:35,960
Dat was het tijdsgewricht waarin we leefden.

553
00:29:35,960 --> 00:29:38,340
Dus dat was heel erg de bedoeling.

554
00:29:38,340 --> 00:29:44,980
En dat maakt soms lastig om, ja, achteraf denk je, hoe hadden we dat nou kunnen doen?

555
00:29:44,980 --> 00:29:48,340
Maar het was toen gewoon heel normaal, als het ware.

556
00:29:48,340 --> 00:29:50,420
Ja, ik snap helemaal wat je bedoelt.

557
00:29:51,140 --> 00:29:55,620
En als er nu, want nu moeten we denk ik vooruitkijken.

558
00:29:55,620 --> 00:29:57,880
Dat er zijn een aantal vraagstukken.

559
00:29:57,880 --> 00:30:00,420
Die liggen ook weer vanuit de politiek op tafel.

560
00:30:00,420 --> 00:30:02,760
Waarbij wordt gezegd, oh, daar gaan we AI voor inzetten.

561
00:30:02,760 --> 00:30:07,240
En een van de dingen die mij triggerde om jou hier ook uit te nodigen was.

562
00:30:07,240 --> 00:30:11,160
Dat vanuit de politiek werd gezegd, oh ja, we hebben met het UEV.

563
00:30:11,160 --> 00:30:14,300
We hebben nu mogelijk een heel groot probleem rond uitkeringen.

564
00:30:14,300 --> 00:30:15,900
Het blijkt niet alleen maar de waaien om te zijn.

565
00:30:15,900 --> 00:30:18,300
Maar misschien ook wel de WIA uitkeringen.

566
00:30:18,300 --> 00:30:20,080
Dat daar verkeerde uitkeringen zijn geweest.

567
00:30:20,560 --> 00:30:22,580
En dan wordt gezegd, dat gaan we met AI oplossen.

568
00:30:22,580 --> 00:30:30,820
Wat zou jij het UEV willen meegeven vanuit jouw expertise voordat ze hieraan beginnen?

569
00:30:30,820 --> 00:30:35,400
Volgens mij was het het UE zelf die in eerste instantie aankwam.

570
00:30:35,400 --> 00:30:36,940
Oh, laten we AI gebruiken.

571
00:30:36,940 --> 00:30:43,360
Of in elk geval, dat is in volgens een van de haag geloof ik in een van hun interne bijeenkomsten zo benoemd.

572
00:30:43,360 --> 00:30:46,620
En mijn advies is, doe het niet.

573
00:30:46,620 --> 00:30:49,140
En dat heeft met meerdere dingen te maken.

574
00:30:49,260 --> 00:30:58,900
Ten eerste, wat daar naar buiten gekomen is, was dat er geen alternatief proces was om de mensen die dus niet geselecteerd worden,

575
00:30:58,900 --> 00:31:06,060
door onterecht niet geselecteerd worden, door zo'n AI systeem, alsnog op de een of andere manier tegen het licht te houden.

576
00:31:06,480 --> 00:31:10,800
Dus je wil eigenlijk altijd een soort backup proces hebben, als het ware.

577
00:31:10,800 --> 00:31:14,620
Want een AI systeem werkt nooit 100% nauwkeurig.

578
00:31:14,620 --> 00:31:15,240
Dat kan niet.

579
00:31:15,240 --> 00:31:17,380
Dus dat.

580
00:31:18,640 --> 00:31:20,440
Dat is wel heel essentieel wat je nu zegt.

581
00:31:20,440 --> 00:31:26,920
Want ze zeggen van, hé, maar we hebben niet nauwkeurig uitkeringen, misschien toegekend, CQ uitgekeerd.

582
00:31:26,920 --> 00:31:31,720
En we gaan daar mogelijk een systeem tegenover zetten die ook niet nauwkeurig is.

583
00:31:31,720 --> 00:31:32,300
Ja, precies.

584
00:31:32,300 --> 00:31:36,460
En je moet dit soort systemen dus altijd testen op, ja, trainen met data.

585
00:31:36,460 --> 00:31:42,340
Die data, nou ja, ik zit als leidend voorwerp bij het UWV ergens in een database.

586
00:31:43,540 --> 00:31:45,580
Ik weet wat voor data ik daarheen stuur.

587
00:31:45,580 --> 00:31:48,100
Ik weet ook dat ik die formulieren echt van kan nog wel snap.

588
00:31:48,100 --> 00:31:53,620
Dus ik heb mijn vraagtekens bij de datakwaliteit, die daar in elk geval over mij in zit.

589
00:31:53,620 --> 00:31:55,540
Dus ik word er wel nerveus van.

590
00:31:55,540 --> 00:32:00,540
En behalve dan, doe het niet.

591
00:32:00,540 --> 00:32:02,860
Zouden er nog andere tips zijn voor ze?

592
00:32:02,860 --> 00:32:07,540
Ik denk dat je het heel goed in kan zetten als een hulpmiddel.

593
00:32:07,540 --> 00:32:12,440
Maar het mag zeker, wat mij betreft, niet de enige manier zijn waarop je deze mensen gaat selecteren.

594
00:32:12,560 --> 00:32:13,600
Gaat er echt iets mis.

595
00:32:13,600 --> 00:32:18,100
Dus je wil altijd een backupproces hebben.

596
00:32:18,100 --> 00:32:21,780
Een analoog proces of een random steekproef.

597
00:32:21,780 --> 00:32:30,120
Of iets waarin je zorgt dat je het risico van het werk nooit 100% nauwkeurig verder afdicht.

598
00:32:30,120 --> 00:32:30,480
Ja.

599
00:32:30,480 --> 00:32:36,400
En denk ik ook weer het hele bestuurlijke proces eromheen waar we het al over hebben gehad.

600
00:32:36,400 --> 00:32:41,160
Van wat nou als je je bezwaar weer wil tegen indienen.

601
00:32:41,160 --> 00:32:41,700
Precies.

602
00:32:41,700 --> 00:32:42,020
Ja.

603
00:32:42,020 --> 00:32:46,760
En dan moet je ook kunnen uitleggen van nou, u bent wel of niet geselecteerd door dit AI-systeem.

604
00:32:46,760 --> 00:32:49,600
Want we vonden 95% nauwkeurig helemaal top.

605
00:32:49,600 --> 00:32:54,380
Dus we hebben 2,5% die onterecht niet geselecteerd wordt, maar voor lief genomen.

606
00:32:54,380 --> 00:32:54,640
Ja.

607
00:32:54,640 --> 00:32:58,100
Dat is wel het gesprek wat je dan als organisatie zou moeten voeren, denk ik.

608
00:32:58,540 --> 00:33:03,460
En denk ik belangrijk het besef hebben dat het onnauwkeurig is en daar ook naar gaan acteren.

609
00:33:04,500 --> 00:33:09,820
Is denk ik belangrijk voor organisaties, maar ook voor bedrijven om te weten van hé, ga er niet volledig op vertrouwen.

610
00:33:09,820 --> 00:33:12,980
Maar regel die organisatie wat je zelf zegt en de backup daarop.

611
00:33:12,980 --> 00:33:17,140
Of de andere palen die nodig zijn om de kwaliteit te kunnen waarborgen.

612
00:33:17,360 --> 00:33:17,820
Ja, precies.

613
00:33:17,820 --> 00:33:21,840
Ja, ik heb ook wel rondom anonimiseringssoftware zie je dit bijvoorbeeld ook gebeuren.

614
00:33:21,840 --> 00:33:24,340
Dan wordt er gezegd, nou hij is 95% nauwkeurig.

615
00:33:24,340 --> 00:33:25,660
We halen de mensen tussenuit.

616
00:33:25,660 --> 00:33:27,820
En dan is het zo van, oké.

617
00:33:27,820 --> 00:33:36,860
Dat kan, maar dan weet je dat niet een of, maar een wanneer er op een gegeven moment in 2,5% van de gevallen in meer of mindere mate persoonsgegevens op straat liggen.

618
00:33:36,860 --> 00:33:37,040
Ja.

619
00:33:37,040 --> 00:33:38,140
Kunnen we wat van vinden.

620
00:33:38,140 --> 00:33:45,320
En dan moet je de discussie gaan voeren over wat is dan onze risicobereidheid als organisatie.

621
00:33:45,320 --> 00:33:49,940
Wat vinden we daarin verantwoord en welk risico willen we daarin lopen.

622
00:33:49,940 --> 00:33:52,260
Ik was nog wel nieuwsgierig.

623
00:33:52,260 --> 00:33:54,320
Je hebt veel te maken met algoritmen gisteren.

624
00:33:54,320 --> 00:33:55,040
Die is er.

625
00:33:55,040 --> 00:33:56,700
Daar ben ik heel blij mee.

626
00:33:57,340 --> 00:34:02,800
Wat zie jij van grote waarden van het algoritmeregister wat het teweeg heeft gebracht?

627
00:34:02,800 --> 00:34:14,060
Ik vind het heel fijn dat het gesprek hierover en het belang van verantwoord algoritmegebruik meer inzichtelijk gemaakt wordt.

628
00:34:14,060 --> 00:34:16,199
En dat dat gesprek breder gevoerd wordt.

629
00:34:16,199 --> 00:34:17,540
Dus daar ben ik heel erg blij mee.

630
00:34:17,540 --> 00:34:20,960
Dus dat is het positieve nieuws.

631
00:34:20,960 --> 00:34:22,920
Ik weet niet of je het negatieve nieuws ook wil horen.

632
00:34:22,920 --> 00:34:24,300
Nou, dat kom erop.

633
00:34:24,300 --> 00:34:24,900
Graag, ja.

634
00:34:25,900 --> 00:34:29,080
Waar ik een beetje bang voor ben is dat...

635
00:34:29,080 --> 00:34:31,000
Dat zijn twee dingen.

636
00:34:31,000 --> 00:34:33,080
Dus enerzijds een soort schijntransparantie.

637
00:34:33,080 --> 00:34:36,460
En dat heeft te maken met waar we het net ook over gehad hebben.

638
00:34:36,460 --> 00:34:40,199
Dat het heel erg moeilijk is om alle algoritmes in zo'n organisatie echt boven tafel te krijgen.

639
00:34:40,199 --> 00:34:46,179
Dus het geeft misschien voor mensen van buiten een beeld wat niet klopt.

640
00:34:46,179 --> 00:34:47,260
We zijn niet compleet.

641
00:34:47,360 --> 00:34:51,000
Het is gewoon altijd het topje van de ijsberg, als het ware.

642
00:34:53,480 --> 00:34:59,660
En anderzijds dat wat ik ook zie gebeuren is dat veel gemeenten kijken naar wat hebben de buren.

643
00:34:59,660 --> 00:35:01,660
En we copy-pasten het hele ding.

644
00:35:01,660 --> 00:35:07,520
En dan denk ik nou voor technische stukje als je daar exact hetzelfde settings in hebt, kan dat misschien nog wel.

645
00:35:07,520 --> 00:35:11,820
Maar ik had het al even laten vallen met dat sociotechnische systeem.

646
00:35:11,960 --> 00:35:14,080
Je gebruikt het altijd net in een andere context.

647
00:35:14,080 --> 00:35:16,320
Met net misschien wat andere maatregelen.

648
00:35:16,320 --> 00:35:19,580
En je zal daar in elk geval op dat stuk toch echt wel iets mee moeten.

649
00:35:19,580 --> 00:35:23,120
En als we die vertaling naar het bedrijfsleven doen.

650
00:35:23,120 --> 00:35:27,040
Ik ben voor het positieve gedeelte van wat je net ook noemt.

651
00:35:27,040 --> 00:35:28,680
Inderdaad, de nadelige kanten zijn er ook.

652
00:35:28,680 --> 00:35:35,180
Wat zou je bedrijven adviseren die niet verplicht zijn om zaken in AI-algoritmes op dit moment vast te leggen?

653
00:35:35,540 --> 00:35:38,820
Wel of niet met deze kanttekeningen van allebei de kanten?

654
00:35:38,820 --> 00:35:43,280
Nou, dat ligt een beetje aan de context van het bedrijf.

655
00:35:43,280 --> 00:35:44,320
Ik ben altijd van de nuances.

656
00:35:44,320 --> 00:35:48,360
Maar als je kijkt naar de AI-verordening.

657
00:35:48,360 --> 00:35:56,080
Als je hoog risico AI-toepassingen in jouw bedrijfscontext gebruikt.

658
00:35:56,080 --> 00:35:58,220
Dan zal je daar ook gaan moeten registreren.

659
00:35:58,220 --> 00:36:00,020
Dus dan ontkom je er niet aan.

660
00:36:00,020 --> 00:36:03,580
Nee, en voor degene die dus niet in die categorie vallen.

661
00:36:03,580 --> 00:36:05,120
Wel toevoegen?

662
00:36:05,400 --> 00:36:08,340
Ik denk dat het je zeker kan helpen.

663
00:36:08,340 --> 00:36:11,900
Ook uit een stukje strategie.

664
00:36:11,900 --> 00:36:14,740
Omdat je gewoon beter kan gaan anticiperen.

665
00:36:14,740 --> 00:36:18,320
Dan is het in een bedrijfscontext geen politieke keuze, maar wel een beleidskeuze.

666
00:36:18,320 --> 00:36:22,040
En je kan je voorstellen dat als jouw beleid op een gegeven moment gaat veranderen.

667
00:36:22,040 --> 00:36:25,540
Dat het veel makkelijker is om de spullen tegen het licht aan te houden.

668
00:36:25,540 --> 00:36:27,580
Als je daar al een register van hebt.

669
00:36:27,580 --> 00:36:29,600
Of in elk geval inzichtelijk met dit is waar ze allemaal zitten.

670
00:36:29,600 --> 00:36:32,280
Dan als je dan nog moet gaan lopen graven.

671
00:36:32,280 --> 00:36:34,700
Met inderdaad de kanttekening die je eerder maakte.

672
00:36:35,260 --> 00:36:36,300
Geen schijnzekerheid.

673
00:36:36,300 --> 00:36:38,200
Er zijn altijd nog zaken die niet in het systeem staan.

674
00:36:38,200 --> 00:36:40,260
Maar wat er wel in staat, daar kan je al rekening mee houden.

675
00:36:40,260 --> 00:36:41,160
En daarmee aan de slag te gaan.

676
00:36:42,340 --> 00:36:46,920
We hebben nog een vraag, specifieke onderdeel voor je.

677
00:36:46,920 --> 00:36:49,640
En dat is namelijk, als je zou mogen dromen.

678
00:36:49,640 --> 00:36:54,540
Welk AI systeem zou jij zelf willen maken of willen laten maken?

679
00:36:54,540 --> 00:36:58,160
En ik geef je heel even de tijd om daarover na te denken.

680
00:36:58,160 --> 00:37:03,260
Ik denk dat het voor mij heel erg neerkomt op het vermoe.

681
00:37:03,260 --> 00:37:07,240
De technologie die alles doet waar we van dromen.

682
00:37:08,240 --> 00:37:11,600
Geen grenzen meer, niets houdt ons nog tegen.

683
00:37:11,600 --> 00:37:17,580
Het leven zoals wij het altijd wilden beleven.

684
00:37:24,180 --> 00:37:31,020
Ik denk dat het voor mij heel erg neerkomt op het vermakkelijken van wat ik de handicap bureaucratie noem.

685
00:37:31,020 --> 00:37:34,920
Dus voor de lezer thuis, ik heb een zichtbare beperking en ik zit in een rolstel.

686
00:37:34,920 --> 00:37:38,320
En dat betekent in het dagelijks leven nogal veel regelwerk.

687
00:37:38,320 --> 00:37:43,180
Dus ik zou dromen van een AI systeem wat dat soort dingen voor mij wegneemt.

688
00:37:43,180 --> 00:37:49,360
Dus het regelen van, is iets toegankelijk, het navragen van al dat soort dingen.

689
00:37:49,360 --> 00:37:51,620
Dus dat ik dat niet zelf hoef te doen.

690
00:37:51,620 --> 00:37:53,280
Daar kan ik me alles bij voorstellen.

691
00:37:53,280 --> 00:37:56,980
Je zal tegen heel veel letterlijke drempels aanlopen.

692
00:37:56,980 --> 00:38:01,040
En hoe fijn zou het zijn als AI letterlijk drempels wegneemt.

693
00:38:01,040 --> 00:38:01,680
Ja, precies.

694
00:38:01,680 --> 00:38:02,700
Ja, prachtig.

695
00:38:02,700 --> 00:38:06,520
Ik had ook nog een vraag van tevoren meegenomen.

696
00:38:06,520 --> 00:38:08,520
En die wil ik je graag voorleggen.

697
00:38:09,020 --> 00:38:13,680
Stel, je mag één dag alle algoritmes in Nederland uitzetten.

698
00:38:13,680 --> 00:38:20,320
En dan welke maatschappelijke effecten zou je het meest benieuwd naar zijn en willen observeren?

699
00:38:20,320 --> 00:38:21,840
Oeh.

700
00:38:21,840 --> 00:38:24,520
Dat is over nagedacht.

701
00:38:24,520 --> 00:38:28,940
Oeh, die vind ik heel ingewikkeld.

702
00:38:28,940 --> 00:38:33,180
Ik denk namelijk dat ik vooral bezig ben met de totale chaos.

703
00:38:33,180 --> 00:38:36,220
Dus ik weet niet of ik aan onderzoek zou toekomen.

704
00:38:36,920 --> 00:38:42,400
Maar in theorie zou ik dan heel graag willen kijken naar...

705
00:38:42,400 --> 00:38:45,400
Ja, hoe...

706
00:38:45,400 --> 00:38:49,600
De waterbed-effecten waar we meestal niet zo bij stilstaan.

707
00:38:49,600 --> 00:38:51,400
En dan bedoel ik bijvoorbeeld...

708
00:38:51,400 --> 00:38:54,160
Deze is echt heel erg left field, kan ik me voorstellen.

709
00:38:54,160 --> 00:38:56,400
Dan bedoel ik bijvoorbeeld...

710
00:38:56,400 --> 00:38:58,400
Nou, ik heb een gehandicapte parkeerkaart.

711
00:38:58,400 --> 00:39:03,200
En mijn leven wordt een stuk ingewikkelder gemaakt door de scanauto's die overal zijn.

712
00:39:03,300 --> 00:39:04,100
En...

713
00:39:04,100 --> 00:39:07,000
Want dan moet ik extra parkeervergunningen aan gaan vragen.

714
00:39:07,000 --> 00:39:08,780
Omdat mijn gehandicapte parkeerkaart is persoonsgebonden.

715
00:39:08,780 --> 00:39:11,980
En tegen scanauto, kijkt naar kentekens.

716
00:39:11,980 --> 00:39:14,780
Dus dat zijn van die administratieve gaten die dan ontstaan.

717
00:39:15,780 --> 00:39:20,940
Doordat AI-systemen ergens ingevoerd worden en er misschien wat minder nagedacht wordt over andere mensen.

718
00:39:20,940 --> 00:39:25,080
Dus ik zou naar dat soort dingen benieuwd zijn.

719
00:39:25,080 --> 00:39:29,160
Voor wie wordt het nou makkelijker en voor wie wordt het nou moeilijker gemaakt?

720
00:39:29,160 --> 00:39:30,660
Oh, dat is een mooie ja.

721
00:39:30,660 --> 00:39:33,680
Ja, want er zullen inderdaad ook groepen zijn waarbij het makkelijker wordt.

722
00:39:33,680 --> 00:39:35,100
Ja, dat denk ik wel.

723
00:39:35,660 --> 00:39:36,240
Oh, wat goed.

724
00:39:36,240 --> 00:39:38,240
Was het jezelf aan te denken, Joop?

725
00:39:38,240 --> 00:39:39,280
Wat ben ik ook nieuwsgierig naar?

726
00:39:39,280 --> 00:39:41,820
Oh, ik zat zo te luisteren.

727
00:39:41,820 --> 00:39:47,060
Nou ja, ik denk dat inderdaad de chaos zal verschrikkelijk zijn.

728
00:39:47,060 --> 00:39:49,860
Ja, ik zou wel benieuwd zijn na gewoon op de werkvloer.

729
00:39:49,860 --> 00:39:53,420
Ik denk zeg maar dat de helft eigenlijk niet meer weet wat hij moet doen.

730
00:39:53,420 --> 00:39:54,740
Waar hij wezen moet.

731
00:39:54,740 --> 00:39:58,960
En misschien zeg maar bij de lunch wordt het weer geen meer gelegd.

732
00:39:58,960 --> 00:40:01,840
Gaan mensen naar huis en staan ze vast op kruising.

733
00:40:01,840 --> 00:40:07,260
Want je had het er al over dat sommige stoplichten al met algoritmes worden bestuurd.

734
00:40:07,260 --> 00:40:12,500
Dus ja, daar zou ik naar willen kijken van maar wel maar één dag hoor.

735
00:40:12,500 --> 00:40:14,300
Want ik denk dat de chaos wel heel groot wordt.

736
00:40:14,300 --> 00:40:16,960
Ik weet niet of ik één dag zou willen inderdaad.

737
00:40:16,960 --> 00:40:20,740
Want ik zat ook in dezelfde hoek van goh, eigenlijk zou ik dan willen weten waar gaat het nog soepel.

738
00:40:21,420 --> 00:40:25,740
Om te weten van hé, maar waarom gaat het daar soepel en waarom op andere vlakken gaat het minder soepel.

739
00:40:25,740 --> 00:40:30,340
Is dat omdat we de processen helder hebben of andere redenen om dat boventafel te krijgen?

740
00:40:30,340 --> 00:40:31,260
Dat zou ik heel mooi vinden.

741
00:40:31,260 --> 00:40:36,820
Zou je zelf last al hebben in je dagelijks werk als algoritmes zouden worden uitgezet?

742
00:40:36,820 --> 00:40:39,200
Oh ja, ik ben heel slecht met d's en t's.

743
00:40:39,200 --> 00:40:41,980
Dus mijn spellingschecker love it.

744
00:40:41,980 --> 00:40:44,800
Nee, dat soort dingen heb ik echt altijd nodig.

745
00:40:44,800 --> 00:40:50,000
En ik ben groot fan van navigatie en al dat soort dingen.

746
00:40:50,180 --> 00:40:52,460
Ik heb echt het navigatievermogen van een gemiddelde cavia.

747
00:40:52,460 --> 00:40:54,580
Dus voor de cavia liefhebbers, dan heb je een idee.

748
00:40:54,580 --> 00:41:00,320
Dus ik zou redelijk verloren zijn, denk ik, zonder AI toepassingen.

749
00:41:00,320 --> 00:41:05,580
Hé, en je doet ook nog onderzoek voor de Universiteit Utrecht.

750
00:41:05,580 --> 00:41:07,380
Utrecht Data School.

751
00:41:07,380 --> 00:41:09,640
Kan je daar nog wat over vertellen?

752
00:41:09,640 --> 00:41:10,620
Wat je daar doet?

753
00:41:10,620 --> 00:41:12,540
Ja, ik ben geaffileerd onderzoeker bij de data school.

754
00:41:12,540 --> 00:41:13,520
Wat betekent dat?

755
00:41:13,520 --> 00:41:16,460
Ja, dat betekent dat het een fancy term is.

756
00:41:16,780 --> 00:41:19,760
We houden contact en we publiceren af en toe wat samen.

757
00:41:19,760 --> 00:41:22,860
Maar het is gewoon een hele leuke groep mensen.

758
00:41:22,860 --> 00:41:25,680
Ik heb daar in het verleden ook echt als onderzoeker in dienst gewerkt.

759
00:41:25,680 --> 00:41:27,420
En onderzoek gedaan.

760
00:41:27,420 --> 00:41:30,560
En bijvoorbeeld, ja, hoe ziet Twitter eruit?

761
00:41:30,560 --> 00:41:32,220
En een week op Twitter in Nederland.

762
00:41:32,220 --> 00:41:33,240
Toen hadden we Twitter nog.

763
00:41:33,240 --> 00:41:34,640
Dat was de good times.

764
00:41:35,380 --> 00:41:38,460
Dus dat kun je wel bij voorstellen hoe lang dat geleden is ondertussen.

765
00:41:38,460 --> 00:41:42,860
En dan keken we bijvoorbeeld naar welke deelpublieken zien we daar.

766
00:41:42,860 --> 00:41:44,620
Nou, daar zie je echt van alles langskomen.

767
00:41:44,620 --> 00:41:47,140
Van Efteling-fans tot journalisten.

768
00:41:47,140 --> 00:41:49,840
Journalisten zijn helemaal hot op Twitter.

769
00:41:49,840 --> 00:41:52,800
Dus ja, dat soort onderzoeken.

770
00:41:52,800 --> 00:41:59,280
Ja, en hoe vertaalt zich dat naar mogelijk maatschappelijk impact?

771
00:41:59,700 --> 00:42:04,080
Ja, dus ik heb ook onderzoek gedaan voor hoofdredacteuren.

772
00:42:04,080 --> 00:42:14,500
En dan gingen we kijken naar hoe worden zij, hoe worden de traditionele media gelezen door en gebruikt door kandidaten voor de Tweede Kamerverkiezingen.

773
00:42:14,900 --> 00:42:17,260
En je kan je voorstellen dat dat voor hun best wel interessant is.

774
00:42:17,260 --> 00:42:18,780
Zeker in tijden van social media.

775
00:42:18,780 --> 00:42:23,380
Omdat ze ook een beetje zaten te zoeken van ja, wat is onze rol nog?

776
00:42:23,380 --> 00:42:26,960
Hoe verschuift dit naar andere media vormen?

777
00:42:26,960 --> 00:42:32,200
En daaruit volgen dan ook vervolgens weer aanbevelingen van nou ja, dit is hoe je daarmee om kan gaan.

778
00:42:32,200 --> 00:42:33,400
Dit is hoe je nu gebruikt wordt.

779
00:42:33,400 --> 00:42:36,340
Dit zou je kunnen overwegen om daarmee te doen.

780
00:42:36,340 --> 00:42:39,520
Dus we proberen dat ook wat te koppelen aan handelingsperspectief.

781
00:42:39,520 --> 00:42:41,000
Ja, mooi.

782
00:42:42,740 --> 00:42:52,300
Als je nou vooruit zou mogen kijken, wat zou jouw toekomstperspectief zijn voor verantwoordelijke AI in de publieke sector?

783
00:42:53,360 --> 00:43:00,020
Ik zou heel graag willen dat dit een thema wordt waar bestuurders zich meer tegenaan gaan bemoeien.

784
00:43:00,020 --> 00:43:03,980
Dus dat dit met een duur Duits woord chefsache wordt.

785
00:43:03,980 --> 00:43:13,840
Omdat ze eigenlijk zien dat dit gaat over het hele fundament van hoe we besturen en hoe wij onze organisaties inrichten.

786
00:43:14,420 --> 00:43:21,740
Dus mijn collega's zeggen wel eens van ja, met datengedreven werken, dat noemen we nu nog datengedreven werken, maar dat wordt straks gewoon werken.

787
00:43:21,740 --> 00:43:26,840
En dat is met algoritmes natuurlijk niet anders, want die zijn onderdeel van datengedreven werken.

788
00:43:26,840 --> 00:43:30,460
Dus je zal daar gewoon op voor moeten gaan sorteren.

789
00:43:30,460 --> 00:43:30,880
Ja.

790
00:43:32,100 --> 00:43:41,120
Ik heb nog een hele praktische vraag, want wij 2 december, dan is deze uitzending trouwens al geweest.

791
00:43:41,120 --> 00:43:49,140
Nee, ik haal nu alles door elkaar, dus net zoiets als wintertijd en zomertijd.

792
00:43:49,140 --> 00:43:52,840
Nee, 2 december is geweest als deze live komt.

793
00:43:52,840 --> 00:43:56,840
Maar 2 december hebben wij een live podcast bij Windersheim.

794
00:43:57,360 --> 00:44:01,680
Maar daar hebben wij dus ook de burgemeester van Zwolle in de podcast.

795
00:44:01,680 --> 00:44:14,560
Wat ga ik nou als een slimme vraag stellen aan hem over AI, over AI-beleid, besturen, governance, die ik van jou mag stelen?

796
00:44:14,560 --> 00:44:15,200
Oeh.

797
00:44:20,600 --> 00:44:27,020
Ik denk dat het al heel fundamenteel begint met, goh, waar gebruikt u algoritmes in uw organisatie?

798
00:44:27,020 --> 00:44:30,000
En ik denk dat er dan al een hele hoop met de mond vol tanden staan is.

799
00:44:30,000 --> 00:44:30,240
O ja.

800
00:44:30,240 --> 00:44:35,880
Een van de hoofdstukken in mijn proefschrift heet, maar we hebben hier toch helemaal geen algoritmes.

801
00:44:35,880 --> 00:44:37,880
Dus dat geeft al een beetje een beeld.

802
00:44:37,880 --> 00:44:44,100
O ja, is dat echt, als jij bij gemeentes komt, dat dat een veelgegeven antwoord is?

803
00:44:44,640 --> 00:44:50,700
Ja, in 2018, toen ik begon met dit onderzoek, moest ik echt nog gaan uitleggen wat zo'n algoritme was.

804
00:44:50,700 --> 00:44:53,420
Ja, nee, gebruikt het ook in uw organisatie.

805
00:44:53,420 --> 00:44:58,620
En je ziet dat dat nu door de tijd heen eigenlijk wat veranderd is.

806
00:44:58,620 --> 00:45:01,120
En tegelijkertijd een beetje hetzelfde is gebleven.

807
00:45:01,320 --> 00:45:10,880
Dus nu zit hij meer in een, oh, maar we hebben hier geen grote AI-systemen, moeilijke Netflix of Google Deep Learning, Blackbox, moeilijk, moeilijk.

808
00:45:10,880 --> 00:45:12,500
Dat hebben wij hier allemaal niet.

809
00:45:12,500 --> 00:45:18,720
Of het wordt meteen met een soort negatieve bijsmaak die de algoritmes de laatste tijd ook wel hebben gekregen.

810
00:45:18,720 --> 00:45:23,360
Naast Siri, de toeslagenaffaire, Duo, noem ze maar allemaal op, zeg maar.

811
00:45:23,360 --> 00:45:25,300
Ja, dat doen wij hier helemaal niet.

812
00:45:25,300 --> 00:45:27,200
Wij gaan gewoon netjes met de boel om, zeg maar.

813
00:45:27,200 --> 00:45:30,600
Dus het is nu vaak ook een beetje uit angst.

814
00:45:30,600 --> 00:45:31,920
Ja, een beetje defensief.

815
00:45:31,920 --> 00:45:34,160
Ja, cognitieve dissonantie.

816
00:45:34,160 --> 00:45:35,220
Ja, precies.

817
00:45:35,220 --> 00:45:37,720
Sorry, die moest even binnenkomen.

818
00:45:37,720 --> 00:45:38,300
Ja.

819
00:45:38,300 --> 00:45:38,820
Dank je.

820
00:45:38,820 --> 00:45:45,300
En wat zou je onze luisteraars als tip mee willen geven?

821
00:45:45,300 --> 00:45:53,160
Want die willen nu, zeg maar, natuurlijk aan de slag met wat jij ze allemaal verteld hebt over verantwoordelijk inzetten.

822
00:45:53,160 --> 00:45:55,980
Zowel publiek als in het bedrijfsleven.

823
00:45:56,500 --> 00:45:59,540
Wat zou een tip kunnen zijn om mee te beginnen?

824
00:45:59,540 --> 00:46:01,680
Ik denk vandaag starten.

825
00:46:01,680 --> 00:46:05,140
Nee, het is gewoon een enorme klus om hiermee aan de slag te gaan.

826
00:46:05,140 --> 00:46:07,580
En om alles inzichtelijk te krijgen.

827
00:46:07,580 --> 00:46:10,040
Het is gewoon niet te lang wachten.

828
00:46:10,040 --> 00:46:21,460
En ik denk, zeker in de publieke sector, hebben we wel eens discussie van, ja, moeten we dan gaan wachten totdat we alles weten vanuit de AI Act?

829
00:46:21,580 --> 00:46:23,480
Worden er nu bijvoorbeeld normen ontwikkeld?

830
00:46:23,480 --> 00:46:25,100
Die zijn er nog niet.

831
00:46:25,100 --> 00:46:26,760
Moeten we daar dan op gaan wachten?

832
00:46:26,760 --> 00:46:28,240
Nou ja, mijn antwoord zou zijn nee.

833
00:46:28,240 --> 00:46:33,880
Want het is beter om de bus schuin de goede kant op te nemen dan zeg maar te wachten tot de bus te laat is.

834
00:46:34,100 --> 00:46:35,800
En dan de goede bus te pakken.

835
00:46:35,800 --> 00:46:41,660
Het is veel makkelijker om straks bij te sturen als je al begonnen bent dan als je nog helemaal moet gaan beginnen.

836
00:46:41,660 --> 00:46:42,860
Want het is gewoon een enorme kluif.

837
00:46:42,860 --> 00:46:46,300
Nou, dat lijkt me een hele mooie concrete tip om mee af te sluiten.

838
00:46:46,620 --> 00:46:47,180
Dank je wel.

839
00:46:47,180 --> 00:46:48,500
Dank je wel dat je hier wilde zijn.

840
00:46:48,500 --> 00:46:49,820
Dank je wel voor je inzichten.

841
00:46:49,820 --> 00:46:50,400
Heel graag.

842
00:46:50,400 --> 00:46:52,460
We hebben weer een hoop geleerd, Niels.

843
00:46:52,460 --> 00:46:53,200
Ja, zeker weten.

844
00:46:53,200 --> 00:46:56,080
Dank je wel weer voor het luisteren.

845
00:46:56,080 --> 00:46:58,720
En wil je ook het kaartspel spelen?

846
00:46:58,720 --> 00:47:02,300
Dan kan dat dan in de link in de show notes.

847
00:47:02,300 --> 00:47:05,160
Daar kan je op klikken.

848
00:47:05,160 --> 00:47:06,360
Zo simpel is het.

849
00:47:06,360 --> 00:47:10,300
Geef je even adressen op en dan krijg je gratis het kaartspel thuisgestuurd.

850
00:47:10,760 --> 00:47:15,380
Want uiteindelijk gaat het om discussie voeren, praten met elkaar over beleid, strategie.

851
00:47:15,380 --> 00:47:20,520
Ik denk dat je, Maranke, dat je dat heel duidelijk hebt weergegeven vandaag.

852
00:47:20,520 --> 00:47:21,220
Dank je wel.

853
00:47:21,220 --> 00:47:21,880
Graag gedaan.

854
00:47:21,880 --> 00:47:22,720
En vandaag beginnen.


People on this episode