AIToday Live

S05E16 - Het Algoritmeregister begrijpelijk maken voor iedereen

Info Support AIToday Season 5 Episode 16

Stuur ons een bericht

In deze aflevering  van AIToday Live duiken Joop Snijder en Niels Naglé in de wereld van het Nederlandse Algoritmeregister, samen met hun gast Roos Labberton-Groeneveld, een expert op het gebied van User Experience (UX). Ze bespreken het belang van een goede UX bij het ontwikkelen van een Algoritmeregister dat informatie op een begrijpelijke en toegankelijke manier presenteert voor verschillende doelgroepen.

Roos deelt haar inzichten over het analyseren van bestaande registers, het aansluiten bij standaarden en het luisteren naar de doelgroep om een gebruiksvriendelijk register te ontwerpen. Verder benadrukt ze het belang van kritisch denken en het verdiepen in de leefwereld van de doelgroep om een succesvol Algoritmeregister te realiseren.

Mis deze boeiende aflevering niet en abonneer je op AIToday Live voor meer interessante gesprekken over de nieuwste ontwikkelingen in de wereld van Artificial Intelligence.

Links


Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:04,880
[Muziek]

2
00:00:04,880 --> 00:00:08,640
Hoi welkom bij een nieuwe aflevering van de AIToday Live. Leuk dat je luistert.

3
00:00:08,640 --> 00:00:11,600
We zitten vandaag met Roos Labberton-Groeneveld.

4
00:00:11,600 --> 00:00:15,000
Mijn naam is Joop Snijder, CTO bij Aigency.

5
00:00:15,000 --> 00:00:18,600
En mijn naam Niels Naglé, Chapter Lead Data & AI bij Info Support.

6
00:00:18,600 --> 00:00:24,800
Het leuke is dat wij vandaag een UX expert hebben als gast, deel 2.

7
00:00:24,800 --> 00:00:31,300
We hebben al een eerderdeel besproken met Roos, dus als je die nog niet geluisterd hebt, doe dat absoluut.

8
00:00:31,300 --> 00:00:35,600
Dan heb je een goede inleiding voor deze aflevering.

9
00:00:35,600 --> 00:00:40,700
We hebben Roos uitgenodigd, omdat zij werkt aan het algoritmeregister.

10
00:00:40,700 --> 00:00:44,900
Dat is natuurlijk in ons vakgebied hartstikke belangrijk.

11
00:00:44,900 --> 00:00:49,500
Het is niet alleen dat wij hier zakelijk door worden getroffen, maar ook persoonlijk.

12
00:00:49,500 --> 00:00:51,500
Dus dat is hartstikke mooi.

13
00:00:51,500 --> 00:00:57,100
Roos, zou jij je even kort willen voorstellen wie je bent, wat je doet?

14
00:00:57,100 --> 00:01:04,380
Jazeker, hoi. Ik ben Roos, ik ben UX-onderzoeker, gebruiksvriendelijkheidsspecialist.

15
00:01:04,380 --> 00:01:09,740
Daar ben ik al een jaar of 15 mee bezig, vanuit allerlei rollen.

16
00:01:09,740 --> 00:01:14,540
Daar komt informatieanalyse bij kijken, maar ook onderzoek en ook ontwerpen.

17
00:01:14,540 --> 00:01:16,940
En ja, dat is het eigenlijk wel.

18
00:01:16,940 --> 00:01:20,940
En het algoritmeregister, wat is dat? Even in het kort.

19
00:01:20,940 --> 00:01:25,940
Het algoritmeregister is een landelijk door de overheid georganiseerd nieuw register.

20
00:01:25,940 --> 00:01:32,940
Het is 21 januari 2022 live gegaan, gelanceerd door de staatssecretaris.

21
00:01:32,940 --> 00:01:38,940
En in dit register komen alle registers die relevant zijn voor burgers...

22
00:01:38,940 --> 00:01:45,940
Sorry, zei ik registers? Alle algoritmes die relevant zijn voor burgers, komen daarin te staan.

23
00:01:45,940 --> 00:01:53,940
En dan gaat het om de algoritmes die de overheid of de semi-overheid inzet rondom besluitvorming en andere zaken.

24
00:01:53,940 --> 00:01:58,940
Oh ja. En is het verplicht voor de overheid?

25
00:01:58,940 --> 00:02:13,940
Ja, het gaat verplicht zijn. Dus ik zit niet heel erg op dit onderwerp, maar wat ik begrijp is dat er in de loop van 2023 de overheidsorganisaties voor een groot deel dat verplicht moeten gaan aanleveren.

26
00:02:13,940 --> 00:02:23,940
Ja, zeker. Dat is ook goed nieuws, want we hebben natuurlijk een register, dus dat betekent dat het een soort grote database is met algoritmes.

27
00:02:23,940 --> 00:02:33,940
Hoe meer erin staat, hoe meer je kan gaan vergelijken en hoe meer je kan kijken van wat zijn nou kwalitatief goede algoritmeomschrijvingen en waar kan nog wat beter.

28
00:02:33,940 --> 00:02:37,940
Hoe meer erin staat, hoe meer waarde dat hele register gaat bieden.

29
00:02:37,940 --> 00:02:38,940
Snap ik.

30
00:02:38,940 --> 00:02:45,940
Nu hoor ik je zeggen overheid, maar als organisaties, wij bouwen algoritmes, wij helpen organisaties algoritmes bouwen.

31
00:02:45,940 --> 00:02:53,940
Daar is het ook heel erg belangrijk om te laten weten wat voor algoritmes je maakt en die begrijpbaar uit te kunnen leggen aan diverse doelgroepen.

32
00:02:53,940 --> 00:02:57,940
Kunnen die ook data kwijt bij het algoritme registeren?

33
00:02:57,940 --> 00:03:03,940
Ik zou verwachten op termijn wel, maar eerlijk gezegd, nee, ik ben geen beleidsmedewerker, dus ik weet niet wat daar de scope van is.

34
00:03:03,940 --> 00:03:08,940
maar op dit moment is het een scope heel duidelijk, het is voor overheidsorganisaties en semi-overheid.

35
00:03:08,940 --> 00:03:18,940
Die moeten en die gaan en die willen ook hun eigen algoritmes expliciet maken door te gaan nadenken over alle velden waaruit zo'n algoritme is opgebouwd.

36
00:03:18,940 --> 00:03:26,940
Dus dat zijn op dit moment een veld op 35 en die geven eigenlijk heel goed weer van wat is het doel van dit algoritme,

37
00:03:26,940 --> 00:03:33,020
waarom is dit nodig om het te gebruiken, hoe is de menselijke maat in zo'n algoritme,

38
00:03:33,020 --> 00:03:38,500
worden er toetsen gedaan op de inhoud, welke juridische grondslagen liggen eronder,

39
00:03:38,500 --> 00:03:41,620
dus al dat soort eigenschappen worden hierdoor expliciet gemaakt.

40
00:03:41,620 --> 00:03:46,620
Ja, hele belangrijke eigenschappen en allemaal goede vragen die je dan eigenlijk weer even opnieuw gaat stellen.

41
00:03:46,620 --> 00:03:54,500
En voor elke organisatie raad ik aan ook die vragen aan zichzelf te stellen en eigenlijk deze informatie ook zorgen dat je die beschikbaar hebt.

42
00:03:54,500 --> 00:03:58,500
Als het goed is heb je de meeste van deze informatie al beschikbaar, omdat je dat al verplicht bent...

43
00:03:58,500 --> 00:04:02,500
omdat je zelf voor bepaalde algoritmes al onderzoek moet doen, assessments moet doen.

44
00:04:02,500 --> 00:04:08,000
Dus een hele mooie om ook als organisatie naar te kijken welke informatie je zelf zou toe kunnen voegen...

45
00:04:08,000 --> 00:04:10,500
aan de informatie die je nu gebruikt voor de luisteraars.

46
00:04:10,500 --> 00:04:14,500
Ja, zeker. En we hebben ook heel erg een open ontwikkelen houding.

47
00:04:14,500 --> 00:04:20,500
Dus ook de metadata standaard, zo heeten die velden zeg maar, die zijn ook allemaal op Playo te vinden.

48
00:04:20,500 --> 00:04:24,780
een openbare site. Daar kan je heel makkelijk eigenlijk alles wat je nodig hebt vinden.

49
00:04:24,780 --> 00:04:29,100
Zoals ook die omschrijvingen. - Oh wat goed, die gaan we opnemen in de show notes.

50
00:04:29,100 --> 00:04:34,420
- Ja, dat is algorithmes.playo.nl. - Oké, super, dank je wel.

51
00:04:34,420 --> 00:04:41,220
En Roos, heb je misschien iets, want je bent een UX-expert, heb je iets wat je met ons zou kunnen

52
00:04:41,220 --> 00:04:45,660
delen van hoe je dit onderzoek hebt aangepakt en misschien een leuke case daaruit?

53
00:04:45,660 --> 00:04:52,660
Ik zat eigenlijk te denken op het wegje hierheen, van hoe leg je nou eigenlijk uit wat UX is.

54
00:04:52,660 --> 00:04:59,260
En toen dacht ik van, als je bijvoorbeeld met het vliegtuig gaat,

55
00:04:59,260 --> 00:05:07,660
en je bent met je gezin, dus je hebt thuis met z'n vieren koffers moeten pakken en een planning gemaakt van hoe kom ik op Schiphol aan.

56
00:05:07,660 --> 00:05:13,660
En vervolgens ga je met de goede papieren door de douane heen en door de controles.

57
00:05:13,660 --> 00:05:18,660
Dat is best wel een hectische paar uren, zeg maar.

58
00:05:18,660 --> 00:05:19,660
- Zelfs zeker.

59
00:05:19,660 --> 00:05:20,660
- Om dat allemaal in het goede moment te doen.

60
00:05:20,660 --> 00:05:23,660
En waar check je in en waar laat je je bagage en wat mag er mee.

61
00:05:23,660 --> 00:05:25,660
En heb je eigenlijk nog een flesje water in je tas.

62
00:05:25,660 --> 00:05:27,660
Dat hele scenario, zeg maar.

63
00:05:27,660 --> 00:05:29,660
En vervolgens op een gegeven moment stap je dat vliegtuig in.

64
00:05:29,660 --> 00:05:35,660
En kijk je links en rechts, zie je drie rijen met drie stoelen, zeg maar.

65
00:05:35,660 --> 00:05:37,660
Zo'n soort vliegtuig.

66
00:05:37,660 --> 00:05:39,660
Je zoekt je stoelnummer.

67
00:05:39,660 --> 00:05:44,380
En waar ik me heel erg aan stoorde de afgelopen keer in september,

68
00:05:44,380 --> 00:05:48,460
dat ik aan het vliegen was, is dan staat links boven de rij FED.

69
00:05:48,460 --> 00:05:53,060
Ik dacht echt, FED? Oké, dit herken ik, maar waarvan zeg maar?

70
00:05:53,060 --> 00:05:56,260
Maar ja, in je handen heb je nog je paspoort en je boarding pas,

71
00:05:56,260 --> 00:05:59,460
en soms heb je nog een kind bij je ofzo. Dus het is gewoon heel hectisch.

72
00:05:59,460 --> 00:06:02,060
En dan denk ik, dat is echt een voorbeeld van slechte UX,

73
00:06:02,060 --> 00:06:05,860
want FED staat voor, oh het alfabet, aan de ene kant heb je ABC,

74
00:06:05,860 --> 00:06:07,860
maar er staat dan in het vliegtuig CBA.

75
00:06:07,860 --> 00:06:13,040
En aan de andere kant staat de FVD. Dus als je alleen naar die FVD kijkt, dan denk je, ik herken het maar help, weet je wel.

76
00:06:13,040 --> 00:06:15,040
Ik ben in een stressvolle situatie.

77
00:06:15,040 --> 00:06:17,640
- Dan zitten mensen achter je te druk, want die willen ook door.

78
00:06:17,640 --> 00:06:19,640
- Precies. - De kinderen die krijgen ze nog.

79
00:06:19,640 --> 00:06:25,920
- Ja, dus ik denk dat het doel van UX is echt van, zorg dat ik niet aan het denken word gezet.

80
00:06:25,920 --> 00:06:37,760
En die vraag is eigenlijk mijn dagelijkse motto, is hoe kunnen we dit stukje proces in een situatie die soms gewoon al stressvol genoeg is voor bijvoorbeeld een burger die een besluit krijgt,

81
00:06:37,760 --> 00:06:40,400
over iets wat negatief uitpakt. Ik zeg maar iets.

82
00:06:40,400 --> 00:06:45,720
Hoe kun je ook dat proces nog simpeler en eenvoudiger neerzetten?

83
00:06:45,720 --> 00:06:48,660
Dus als ze in zo'n vliegtuig zetten ABCDEF,

84
00:06:48,660 --> 00:06:50,900
dan herken je het wel. Maar nu staat er...

85
00:06:50,900 --> 00:06:55,900
Draai het om, want er is gewoon geen goede reden of functie...

86
00:06:55,900 --> 00:06:57,460
van dat je het zo gaat tonen.

87
00:06:57,460 --> 00:07:01,980
Behalve dat het waarschijnlijk in de computer van dat systeem zo stond.

88
00:07:01,980 --> 00:07:05,300
Ja, omdat het handig is eigenlijk voor degene die het in moet plannen...

89
00:07:05,320 --> 00:07:08,400
en niet voor degene die er uiteindelijk gebruik van maakt.

90
00:07:08,400 --> 00:07:11,980
Ja, je moet gewoon altijd heel erg kritisch zijn.

91
00:07:11,980 --> 00:07:14,860
Zorg dat je je gebruikers niet aan het denken zet.

92
00:07:14,860 --> 00:07:16,820
En dat is wat we ook bij het algoritmeregister...

93
00:07:16,820 --> 00:07:18,720
eigenlijk aan alle kanten proberen te doen.

94
00:07:18,720 --> 00:07:21,920
Dingen zo makkelijk mogelijk maken, maar ook zo logisch mogelijk.

95
00:07:21,920 --> 00:07:25,560
Waar verwacht je het? Hoe ben je het al gewend in andere applicaties?

96
00:07:25,560 --> 00:07:29,260
En dan vooral binnen de overheid wil je ook gewoon consistent zijn...

97
00:07:29,260 --> 00:07:30,900
met de andere websites die je al hebt.

98
00:07:30,900 --> 00:07:35,100
Ik moet gelijk weer denken aan een quote waar we het vandaag nog over hadden.

99
00:07:35,120 --> 00:07:40,200
die ook los van de opname is, technologie moet ondersteunend zijn aan de mens.

100
00:07:40,200 --> 00:07:42,440
De mens niet aan de technologie.

101
00:07:42,440 --> 00:07:45,360
Daar moest ik in denken toen je het voorbeeld van het vliegtuig noemde.

102
00:07:45,360 --> 00:07:49,160
Eigenlijk is dat het werk wat je doet, als ik het voor mezelf weer vertaal.

103
00:07:49,160 --> 00:07:54,520
Ja, de hele tijd weer met een frisse blik kijken van, is dit eigenlijk wel logisch?

104
00:07:54,520 --> 00:07:57,000
Er klopt hier iets niet, maar wat dan niet?

105
00:07:57,000 --> 00:08:01,760
En als je dit vertaalt naar wat je gedaan hebt voor het algoritmeregister,

106
00:08:01,760 --> 00:08:03,600
waar ben je daar tegen aangelopen?

107
00:08:03,600 --> 00:08:09,040
Nou, wat een hele leuke is dat er een van de mensen die ik in de bibliotheek aansprak,

108
00:08:09,040 --> 00:08:12,000
we hebben twee dagen in de bibliotheek mensen aangesproken en gevraagd van

109
00:08:12,000 --> 00:08:15,080
"Hey, wil je even meedenken? Wil je me vertellen wat is eigenlijk een algoritme?

110
00:08:15,080 --> 00:08:18,200
Als ik het aan jou vraag, weet je dat? Heb je daar een beeld bij?"

111
00:08:18,200 --> 00:08:22,640
En dan liet ik het scherm zien met de startpagina van het algoritmeregister.

112
00:08:22,640 --> 00:08:28,240
En er was iemand en die las voor "Zoek op organisatie of op titel."

113
00:08:28,240 --> 00:08:30,800
Titel, bedoel je dan titel van de koning?

114
00:08:30,800 --> 00:08:40,220
En zo'n soort opmerking maakt wel dat je denkt van, oh ja zie, verdikkie, ik ben zelf weer ingestonken met mijn eigen jargon,

115
00:08:40,220 --> 00:08:42,720
wat ik met mijn team hier zit te doen.

116
00:08:42,720 --> 00:08:46,840
Ja, er is een veld in de metadata-standaard die TITOL heet.

117
00:08:46,840 --> 00:08:50,520
Dus dan ga je zeggen, zoek op TITOL, want ja, TITOL is natuurlijk ook gewoon de naam.

118
00:08:50,520 --> 00:08:53,280
Maar het sluit gewoon niet voldoende aan bij allen.

119
00:08:53,280 --> 00:08:57,660
Je kan nooit bij allen, maar ja, dit is wel een makkelijke winst die je kan aanpassen.

120
00:08:57,660 --> 00:08:59,660
Dan heb je een betere applicatie.

121
00:08:59,660 --> 00:09:03,660
Is het ook aangepast? - Bijna.

122
00:09:03,660 --> 00:09:05,660
Hoe gaat het heten? Mag je dat al verklappen?

123
00:09:05,660 --> 00:09:10,660
Volgens mij hebben we gezegd zoeken op omschrijving of term of thema.

124
00:09:10,660 --> 00:09:17,660
Het zijn dus simpele dingen soms, maar die zijn ook nog steeds of misschien wel juist extra moeilijk.

125
00:09:17,660 --> 00:09:20,660
Zeker omdat je zegt, je wil er niet over nadenken.

126
00:09:20,660 --> 00:09:24,660
Dus moet het zo eenvoudig zijn dat je er ook niet over na hoeft te denken.

127
00:09:24,660 --> 00:09:28,660
Toch? - Ja.

128
00:09:28,660 --> 00:09:32,300
Tenminste, als gebruiker. Dit is jouw vak.

129
00:09:32,300 --> 00:09:36,500
Als het goed is, dan levert jou de hoofdbrekers op.

130
00:09:36,500 --> 00:09:42,700
Nou precies, je wilt zoveel zeggen in een kort zinnetje. Hoe vlieg je dat aan?

131
00:09:42,700 --> 00:09:47,060
Je kan ook denken, die zoekbalk die spreekt voor zich.

132
00:09:47,060 --> 00:09:50,060
Maar ja, je moet er toch wel iets mee.

133
00:09:50,060 --> 00:09:54,100
We hebben het nu even met name over burgers, maar burgers als doelgroep...

134
00:09:54,100 --> 00:09:59,100
is op zichzelfzijnde al een hele grote diverse doelgroep die je daar hebt.

135
00:09:59,100 --> 00:10:05,300
Gaat daar nog onderscheid in gemaakt worden over hoe mensen binnenkomen,

136
00:10:05,300 --> 00:10:08,100
of vragen kunnen stellen dat daar een verschil in is?

137
00:10:08,100 --> 00:10:10,380
Goeie vraag wel.

138
00:10:10,380 --> 00:10:13,700
Wij maken eigenlijk onderscheid zodra het een functie heeft.

139
00:10:13,700 --> 00:10:18,500
Dus als de informatiebehoefte van verschillende mensen echt verschillend is,

140
00:10:18,500 --> 00:10:23,700
dan proberen we die verschillende informatiebehoeftes daarin te voorzien, zeg maar.

141
00:10:23,700 --> 00:10:27,700
Op dit moment bleek eigenlijk dat we van al die...

142
00:10:27,700 --> 00:10:34,300
Ja, hebben we de wensen en de vragen van die 15 mensen die we hebben gesproken op een rij gezet.

143
00:10:34,300 --> 00:10:39,900
En proberen we gewoon aan al die vragen daarnaar te luisteren en daar iets mee te doen.

144
00:10:39,900 --> 00:10:45,100
Wat heeft geregistreerd in dat we nieuwe pagina's gaan toevoegen met overalgoritmes.

145
00:10:45,100 --> 00:10:51,300
Waarin we de koppeling maken naar, nou ja, de meeste mensen kennen algoritmes van het gebruiken op YouTube en Facebook.

146
00:10:51,300 --> 00:10:54,740
en hoe de overheid inzet is, zus en zoon.

147
00:10:54,740 --> 00:10:59,260
Dus dan sluit je heel erg aan bij de leefwereld, want eigenlijk iedereen kende...

148
00:10:59,260 --> 00:11:02,900
het gebruik, de inzet van algoritmes in social media.

149
00:11:02,900 --> 00:11:06,740
En de toeslagenafwerking kwam ook bijna bij iedereen terug.

150
00:11:06,740 --> 00:11:09,500
Maar verder kwamen mensen haast niet, met het concreet maken.

151
00:11:09,500 --> 00:11:13,900
Maar zulke termen ga je dan dus wel zorgen dat je die in je website terug laat komen.

152
00:11:13,900 --> 00:11:22,220
Ja. Jij komt niet per se uit de machine learning AI hoek, met je expertise.

153
00:11:22,220 --> 00:11:27,620
Ben je zelf anders tegen algoritmes aan gaan kijken, kan positief, negatief zijn,

154
00:11:27,620 --> 00:11:32,060
dan het beeld wat je hiervoor had?

155
00:11:32,060 --> 00:11:34,060
Ja, dat is een hele leuke vraag.

156
00:11:34,060 --> 00:11:43,260
Nou, ik haalde eerst ook algoritme wel eens door de war met, hoe heet het nou, dat wiskundige...

157
00:11:43,260 --> 00:11:47,260
Ik weet het al niet meer. Zo snel leer je al.

158
00:11:47,260 --> 00:11:56,260
Ik denk dat ik vooral positief verrast ben, want eigenlijk algoritmes...

159
00:11:56,260 --> 00:11:59,260
We hebben dus met het project ook best wel wat heartbeats,

160
00:11:59,260 --> 00:12:02,260
dus dan komen er specialisten van al die overheidsorganisaties bij elkaar.

161
00:12:02,260 --> 00:12:06,260
En daar hoor je heel erg de discussies die er spelen.

162
00:12:06,260 --> 00:12:12,260
Is het nou goed of niet dat er een algoritme besluiten neemt over jou en niet een mens, een ambtenaar ergens.

163
00:12:12,260 --> 00:12:16,260
ergens. Nou, bijna iedereen zal zeggen ik heb liever een ambtenaar, want een algoritme,

164
00:12:16,260 --> 00:12:23,020
nou dat is kil en eng en black box eigenlijk. Maar wat daar dan in zo'n discussie wel wordt

165
00:12:23,020 --> 00:12:27,260
benoemd is van ja, een algoritme is heel consistent. Dus de kwaliteit van de besluiten,

166
00:12:27,260 --> 00:12:35,380
die is veel hoger dan wat er uit een ambtenaar, ja die kan gewoon niet continu hele hoge, ja hoe

167
00:12:35,380 --> 00:12:41,860
zeg je dat nou? - Nou heel consequent misschien zou je, dus de mens is van zichzelf inconsequent.

168
00:12:41,860 --> 00:12:45,340
Misschien bedoel je dat? - Nou, dat bedoel ik ook niet per se.

169
00:12:45,340 --> 00:12:53,340
Maar een algoritme is gewoon veel efficiënter en altijd consistent met een besluit nemen, zeg maar.

170
00:12:53,340 --> 00:12:57,340
Wat natuurlijk ook een zwakte is wellicht.

171
00:12:57,340 --> 00:13:08,340
Dus ja, maar door algoritmes kun je wel op grote schaal heel veel besluiten maken...

172
00:13:08,340 --> 00:13:10,340
waarbij mensen wel gelijk worden behandeld.

173
00:13:10,340 --> 00:13:14,340
Ja. - Ja, ook dit is discutabel.

174
00:13:14,340 --> 00:13:17,340
Nee, nee, nee, maar het gaat ook over jouw beeld hè.

175
00:13:17,340 --> 00:13:26,340
Kijk, wat wij in een vorige podcast hebben gezien bijvoorbeeld gaat over het beoordelen van bedrijfskredieten.

176
00:13:26,340 --> 00:13:34,340
Wat we daar bijvoorbeeld hebben gedaan is de machine ingezet om het menselijke besluit eigenlijk te betwisten.

177
00:13:34,340 --> 00:13:39,340
Waarbij gezegd is van, hey, misschien keur je hier iets goed of af.

178
00:13:39,340 --> 00:13:44,500
Terwijl je in gelijksoortige gevallen een ander besluit hebt genomen.

179
00:13:44,500 --> 00:13:49,740
Kijk nog eens, of iemand anders, met een vier oogprincipe, kijk er nog eens een keer naar.

180
00:13:49,740 --> 00:13:52,060
Daar is het natuurlijk ook heel mooi voor in te zetten.

181
00:13:52,060 --> 00:13:53,060
Absoluut, ja.

182
00:13:53,060 --> 00:13:55,060
We denken heel snel in...

183
00:13:55,060 --> 00:13:56,060
Ik alles.

184
00:13:56,060 --> 00:13:59,340
Ja, en ook in de negatieve kant.

185
00:13:59,340 --> 00:14:07,340
Maar inderdaad, wat jij zegt, als je er goed over nadenkt, goede besluiten neemt, waar positioneer je de mens?

186
00:14:07,340 --> 00:14:10,100
waar positioneer je de machine.

187
00:14:10,100 --> 00:14:13,100
Die discussie is natuurlijk heel belangrijk.

188
00:14:13,100 --> 00:14:17,460
En wat ik me voor kan stellen is met zo'n algoritme-register,

189
00:14:17,460 --> 00:14:20,540
als je dat allemaal moet gaan beschrijven als organisatie,

190
00:14:20,540 --> 00:14:23,700
dat je driedubbel nadenkt over van,

191
00:14:23,700 --> 00:14:27,460
ja, wat doen we, wat hebben we gedaan, wat betekenis heeft dit?

192
00:14:27,460 --> 00:14:29,900
Zeker, ja. Ja, helemaal mee eens.

193
00:14:29,900 --> 00:14:32,380
Ja, oké. - Ja, nee, dat klopt.

194
00:14:32,380 --> 00:14:36,500
Heb je ook een ander beeld van, überhaupt van, een algoritme gekregen?

195
00:14:36,540 --> 00:14:41,940
Je zei net al iets, hiervoor dacht je het is alleen iets wiskundigs.

196
00:14:41,940 --> 00:14:47,860
Hoe meer je erover weet, hoe interessanter en hoe veelzijdiger het eigenlijk wordt.

197
00:14:47,860 --> 00:14:52,260
Dus ja, ik heb er zeker een ander beeld van gekregen.

198
00:14:52,260 --> 00:14:59,420
En ook aan hoeveel aspecten er dus aan zitten en waar je dus kritisch moet zijn of niet.

199
00:14:59,420 --> 00:15:05,220
Het blijft natuurlijk een koude computer, zeg maar, die bepaalde conclusies trekt...

200
00:15:05,260 --> 00:15:06,740
of een kant op stuurt.

201
00:15:06,740 --> 00:15:14,620
Ja, dus waar het zinvol is, is het fijn om daar natuurlijk wel een ambtenaar naar te laten kijken.

202
00:15:14,620 --> 00:15:15,620
Precies.

203
00:15:15,620 --> 00:15:21,260
Ja, wat sommigen in veel van de gevallen ook nog de wettelijke verplicht is natuurlijk,

204
00:15:21,260 --> 00:15:25,020
om die human in de loop te hebben en het als een ondersteuning te gebruiken,

205
00:15:25,020 --> 00:15:27,500
en niet geautomatiseerd tot de beslissingen te komen.

206
00:15:27,500 --> 00:15:28,020
Ja.

207
00:15:28,020 --> 00:15:31,740
Ik denk hoe meer we leren van de risico's ook, hoe meer je dingen gaat inbedden,

208
00:15:31,740 --> 00:15:34,340
en dan waar het kan, wil je dat aan de voorkant van het proces.

209
00:15:34,340 --> 00:15:39,580
Dus als je dat algoritme gaat bouwen, dat je dan al nadenkt over, is dit eigenlijk wel profilerend of niet?

210
00:15:39,580 --> 00:15:41,740
Willen we dit wel of niet?

211
00:15:41,740 --> 00:15:46,340
Nou ja, goed. Dus dat je aan de voorkant al je beleid daarop inzet.

212
00:15:46,340 --> 00:15:47,620
Zeker, zeker.

213
00:15:47,620 --> 00:15:52,420
En ik denk ook dat eigenlijk vanuit de burgers kwamen ook wel vaak de reacties van,

214
00:15:52,420 --> 00:15:58,740
ja, ik wil ook gewoon weten waar ik terecht kan als een algoritme slecht over mij heeft geredeneerd in mijn ogen.

215
00:15:58,740 --> 00:16:01,820
Dus waar kan ik terecht? Dat is een hele belangrijke geweest ook.

216
00:16:01,860 --> 00:16:09,860
Stel dat nou, want Nielsen die vroeg aan het begin van kan ik als commerciële partij ook aanmelden,

217
00:16:09,860 --> 00:16:12,860
daarvan zeg je van nou voorlopig nog even niet.

218
00:16:12,860 --> 00:16:16,860
Stel dat je zelf zo'n register wil gaan aanleggen, dus een luisteraar is die luisteren nu,

219
00:16:16,860 --> 00:16:20,860
die denken van ja maar dat is zo belangrijk, dat wil ik ook.

220
00:16:20,860 --> 00:16:25,860
Wat zou je als tip willen meegeven als ze zelf zo'n register voor zichzelf gaan aanleggen?

221
00:16:25,860 --> 00:16:29,860
Vanuit jouw UX perspectief en alles wat je hier gezien hebt.

222
00:16:29,860 --> 00:16:34,420
Ja, ik denk hoe ik zelf ben begonnen de eerste weken bij dit project,

223
00:16:34,420 --> 00:16:36,900
is ook kijken naar de registers die er al zijn.

224
00:16:36,900 --> 00:16:40,900
Dus SPIEK bij de gemeente Amsterdam bijvoorbeeld,

225
00:16:40,900 --> 00:16:42,740
of bij een van de andere registers.

226
00:16:42,740 --> 00:16:45,740
En kijk dus welke...

227
00:16:45,740 --> 00:16:50,180
Ja, sommige schrijven dus veel meer echt rechtstreeks tegen de burger aan.

228
00:16:50,180 --> 00:16:53,540
En sommige zijn echt wat meer technisch van aard.

229
00:16:53,540 --> 00:16:56,260
Dus ik denk als je een eigen register gaat starten,

230
00:16:56,260 --> 00:16:58,940
denk na over voor wie ga ik dit publiceren.

231
00:16:58,940 --> 00:17:06,500
En waar mogelijk sluit aan bij een standaard, want dan weet je ook, hoe zeg je dat,

232
00:17:06,500 --> 00:17:10,660
dan sluit je beter aan bij de kritische partijen zoals de maatschappelijke organisaties,

233
00:17:10,660 --> 00:17:12,380
die weten wel waar ze naar moeten kijken.

234
00:17:12,380 --> 00:17:14,940
Burgers weten welke informatie ze kunnen vinden.

235
00:17:14,940 --> 00:17:19,620
Mooi, ik denk dat dat een hele goede tip is. Zeker toch?

236
00:17:19,620 --> 00:17:24,420
Ja, altijd kijken wat er al is, want zelf het wil uitvinden is natuurlijk zonde van je energie,

237
00:17:24,420 --> 00:17:28,820
en je mist waarschijnlijk een heleboel kennis, want er is al heel veel over nagedacht de laatste jaren.

238
00:17:28,820 --> 00:17:31,820
per register van wat gaan we hoe doen.

239
00:17:31,820 --> 00:17:38,100
Worden degenen die het willen aanleveren, de gemeentes, worden die geholpen, weet je dat?

240
00:17:38,100 --> 00:17:41,100
Voor de invulling van het register?

241
00:17:41,100 --> 00:17:47,100
Want je zei in de vorige aflevering, er zijn iets van 35 items die je beschrijft.

242
00:17:47,100 --> 00:17:53,100
Ik kan me zo voorstellen dat dat best wel hulp behoeft om juist het goede te beschrijven.

243
00:17:53,100 --> 00:17:57,600
Ja, we zijn heel erg bezig met de aanleverende partijen, noemen we dat dan.

244
00:17:57,600 --> 00:18:03,600
de overheid, de organisatie die mee willen doen om die te onborden aan het hele proces.

245
00:18:03,600 --> 00:18:09,200
Wat we zien is dat een aantal partijen al behoorlijk veel hebben gedaan en een aantal zijn inderdaad al aan het opstarten.

246
00:18:09,200 --> 00:18:14,600
We hebben daar echt iemand in het team voor die nieuwe partijen begleid van welke vraag spelen er,

247
00:18:14,600 --> 00:18:20,800
hoe zorg je dat de verschillende mensen, verschillende rollen binnen één organisatie samenwerken aan één omschrijving.

248
00:18:20,800 --> 00:18:25,600
Want je hebt natuurlijk en de juristen en de technici en de mensen die het doel begrijpen.

249
00:18:25,600 --> 00:18:29,000
Er komen best wel vaak verschillende rollen bij samen.

250
00:18:29,000 --> 00:18:36,600
Wij hebben daar als project heel vaak heartbeats voor en andere meetups,

251
00:18:36,600 --> 00:18:39,840
zodat iedereen die geïnteresseerd is kan meeluisteren en kan kijken van

252
00:18:39,840 --> 00:18:41,840
"hé, waar sta ik en kan ik al aansluiten?"

253
00:18:41,840 --> 00:18:43,840
"Hoe krijg ik mijn organisatie mee?"

254
00:18:43,840 --> 00:18:45,840
Ik kijk heel graag naar heartbeats.

255
00:18:45,840 --> 00:18:48,440
Ja, dat is goed dat je het zegt.

256
00:18:48,440 --> 00:18:50,640
Dat is ook een stukje, daar ben ik dan alweer aan gewend.

257
00:18:50,640 --> 00:18:54,640
Toen ik hier net begon was het ook voor mij een nieuw term.

258
00:18:54,640 --> 00:18:59,900
Maar een heartbeat is een moment online, omdat dan gewoon de meeste mensen kunnen aansluiten.

259
00:18:59,900 --> 00:19:01,640
Maar soms zijn ze ook fysiek.

260
00:19:01,640 --> 00:19:07,640
Waarbij eigenlijk iedereen die interesse heeft in, is uitgenodigd.

261
00:19:07,640 --> 00:19:10,640
Dus ja, gewoon iedereen is welkom. Eigenlijk jij ook als je wilt.

262
00:19:10,640 --> 00:19:15,140
En waarbij een thema centraal staat, zoals dat aansluiten.

263
00:19:15,140 --> 00:19:16,640
- Oké.

264
00:19:16,640 --> 00:19:18,640
- Ja, dus we zijn ook nu...

265
00:19:18,640 --> 00:19:23,140
We hebben nu een webformulier gebouwd, waarmee kleine organisaties,

266
00:19:23,140 --> 00:19:25,140
die geen eigen register hebben bijvoorbeeld,

267
00:19:25,140 --> 00:19:31,680
dat ze wel makkelijk hun eigen algoritmes kunnen gaan invoeren en kunnen delen met het register, zeg maar.

268
00:19:31,680 --> 00:19:39,780
En daarnaast is er ook een API, zodat de partijen die een wat groter eigen algoritme-register hebben of een beheertool,

269
00:19:39,780 --> 00:19:42,820
dat die dat ook makkelijk kunnen toevoegen aan het register.

270
00:19:42,820 --> 00:19:49,220
En zo te horen zijnde, dus al wel overheidspartijen die dus een eigen algoritme database hebben,

271
00:19:49,220 --> 00:19:54,820
die met een apilaag tegen het algemene algoritmeregister praten.

272
00:19:54,820 --> 00:20:00,020
Zijn er verschillen tussen die registers en het algemene register wat nu neergezet is?

273
00:20:00,020 --> 00:20:06,020
Het is niet helemaal mijn vakgebied, maar ik zit er natuurlijk wel geregeld bij.

274
00:20:06,020 --> 00:20:11,020
Ik denk dat er vooral velden nog niet waren,

275
00:20:11,020 --> 00:20:14,420
dus dat mensen voor het algoritmeregister wat er landelijk is,

276
00:20:14,420 --> 00:20:18,420
het algoritmes.overheid.nl register, waar ik voor werk,

277
00:20:18,420 --> 00:20:21,860
Daar heb je best wel uitgebreide velden voor.

278
00:20:21,860 --> 00:20:25,700
Dus die velden zou je dan moeten nadenken van welke vul ik hoe in, zeg maar.

279
00:20:25,700 --> 00:20:29,500
Zijn er verder grote verschillen?

280
00:20:29,500 --> 00:20:31,220
Ja, de doelgroep is dus soms anders.

281
00:20:31,220 --> 00:20:34,500
Dus mensen omschrijven het echt heel erg gericht op hun eigen burgers bijvoorbeeld.

282
00:20:34,500 --> 00:20:37,900
Van een gemeente of een waterschap.

283
00:20:37,900 --> 00:20:42,300
Ja, zo gauw kan ik niet specifiek anders.

284
00:20:42,300 --> 00:20:46,780
Ik ben al blij om te horen dat er al overheden deze eigenlijk al hebben.

285
00:20:46,780 --> 00:20:50,280
en dus nu via een API inderdaad gaan aanbieden voor bredere beschikbaarheid.

286
00:20:50,280 --> 00:20:53,280
Dus goed dat er al over nagedacht is dat die er al zijn.

287
00:20:53,280 --> 00:20:58,280
Ik wist namelijk niet direct van het bestaan van zo'n eentje vanuit bij mij in de buurt.

288
00:20:58,280 --> 00:21:01,780
Jij Joop? Algoritme registraren?

289
00:21:01,780 --> 00:21:03,280
Ik heb niet gekeken.

290
00:21:03,280 --> 00:21:04,280
Nee, ik ook niet.

291
00:21:04,280 --> 00:21:05,280
Dat is eigenlijk ook wel een...

292
00:21:05,280 --> 00:21:06,280
Ik ben er ook niet bekend mee.

293
00:21:06,280 --> 00:21:09,780
Nou ja, ik heb wel naar het algoritme registraren gekeken,

294
00:21:09,780 --> 00:21:12,780
maar ik heb niet gekeken voor mijn eigen gemeente.

295
00:21:12,780 --> 00:21:14,780
Dat is eigenlijk wel bijzonder.

296
00:21:14,780 --> 00:21:16,780
Ja, of er wel een partregister van is.

297
00:21:16,780 --> 00:21:20,260
De tip is dan om te kijken bij de lijst met algoritmes.

298
00:21:20,260 --> 00:21:23,060
Dat is het tweede tabblad in het hoofdmenu, zeg maar.

299
00:21:23,060 --> 00:21:25,060
Algoritmes heet dat.

300
00:21:25,060 --> 00:21:28,060
En daar zie je dus de lijst met alle algoritmes.

301
00:21:28,060 --> 00:21:30,060
En daar links van zie je een filter van.

302
00:21:30,060 --> 00:21:33,340
Daar kan je zoeken, kan je filteren eigenlijk op de organisatie.

303
00:21:33,340 --> 00:21:34,700
Ja, oké.

304
00:21:34,700 --> 00:21:36,860
En stel, je gemeente staat er nog niet bij.

305
00:21:36,860 --> 00:21:39,860
Dan zou je altijd nog even kunnen kijken of er dus ergens anders een...

306
00:21:39,860 --> 00:21:41,860
...register is waar je ook al bij kan...

307
00:21:41,860 --> 00:21:47,860
Ja, zeker. Als je dat intypt in DuckDuckGo, dan vind je het wel.

308
00:21:47,860 --> 00:21:50,860
Ga ik zeker even.

309
00:21:50,860 --> 00:21:57,360
Wat ik zo gaaf vind, is wat we net zeiden, het is niet alleen treft in ons zakelijk.

310
00:21:57,360 --> 00:22:02,860
Wij werken natuurlijk ook voor overheidsinstanties en dat soort zaken, maar ook persoonlijk.

311
00:22:02,860 --> 00:22:10,860
Heel erg interessant om te zien, want dit zit eigenlijk in een soort van omveld rondom AI machine learning.

312
00:22:10,860 --> 00:22:16,380
Roos ontzettend bedankt dat je je inzichten met ons hebt gedeeld. Heel erg leuk.

313
00:22:16,380 --> 00:22:21,420
Ja, mooi om te zien dat ook dit soort perspectieven moeten we niet vergeten.

314
00:22:21,420 --> 00:22:26,340
Maar ook hoe belangrijk dit stukje werk van UX, maar ook begrijperheid waar dit gewoon een

315
00:22:26,340 --> 00:22:32,140
onderdeel van is, ook mee te nemen. Dus de diversiteit in personen, maar ook rollen en

316
00:22:32,140 --> 00:22:35,500
perspectieven is hierbij eigenlijk weer bevestigd bij mij.

317
00:22:35,500 --> 00:22:36,500
Hartstikke mooi.

318
00:22:36,500 --> 00:22:40,620
Wij zeggen echt, als je niet weet wat het probleem is, dan kan je ook niet een oplossing bouwen die

319
00:22:40,620 --> 00:22:47,100
iets meer waarde biedt. Dus dat is ons motto. Heel mooi. Dank je wel Roos dat je bij ons te gast was.

320
00:22:47,100 --> 00:22:55,420
Dank je wel. Ik vond het heel erg leuk. Hartstikke mooi. Ja dat was het ook weer. Bedankt voor het

321
00:22:55,420 --> 00:23:00,060
luisteren en vergeet niet te abonneren op je favoriete podcastkanaal. Duimpje omhoog bij

322
00:23:00,060 --> 00:23:01,660
Spotify en tot de volgende.

323
00:23:01,660 --> 00:23:04,660
[Muziek]


People on this episode