AIToday Live

S08E41 - Non-discriminatie in overheidsalgoritmes: jij hebt invloed op de nieuwe standaard

Aigency by Info Support Season 8 Episode 41

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 46:41

Marianne Witte Schaaphok van TNO ontwikkelt de eerste Nederlandse technische afspraak voor profileringsalgoritmes die bepalen welke burgers gecontroleerd worden op fraude of uitkeringen. Het probleem: algoritmes discrimineren onbedoeld door bepaalde groepen systematisch vaker te selecteren, zonder dat organisaties dit doorhebben. Ze creëerde een systematische aanpak van probleemstelling tot toetsing, met concrete metrieken om bias te meten.

Als 80% van je algoritme-output bestaat uit ouderen terwijl zij geen 80% vormen van de doelgroep, dan meet je direct de scheve verdeling. Morgen kun je haar drie kernvragen toepassen: wat is het echte probleem, welke groepen worden geraakt, en hoe meet je of je algoritme eerlijk behandelt.

Onderwerpen

  • Nederlandse technische afspraak (NTA) voor profileringsalgoritmes bij de overheid
  • Bias detecteren en meten in algoritmes, inclusief representativiteit en foutmarges
  • Het verschil tussen correlatie en causaliteit in algoritme-beslissingen
  • Menselijke tussenkomst en werkprocessen bij algoritme-output
Links

Genoemde entiteiten: TNO - NEN

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:04,759
Er komt een Nederlandse technische afspraak voor profileringsalgoritmes van de overheid.

2
00:00:05,559 --> 00:00:12,480
Het doel is om organisaties te helpen bij het verantwoord ontwikkelen en inzetten van profileringsalgoritmes.

31
00:00:00,000 --> 00:00:04,759
Er komt een Nederlandse technische afspraak voor profileringsalgoritmes van de overheid.

2
00:00:05,559 --> 00:00:12,480
Het doel is om organisaties te helpen bij het verantwoord ontwikkelen en inzetten van profileringsalgoritmes.

3
00:00:13,359 --> 00:00:17,440
Hiervoor bestaan momenteel nog geen nationale of Europese normen.

4
00:00:18,760 --> 00:00:21,480
Je gaat luisteren naar Marianne Witte Schaaphok.

5
00:00:22,039 --> 00:00:26,679
Zij is vanuit TNO betrokken bij het opstellen van deze technische afspraak

6
00:00:27,000 --> 00:00:29,000
en vertelt hoe jij mee kunt helpen.

7
00:00:30,600 --> 00:00:34,120
Joop: Leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

8
00:00:34,120 --> 00:00:35,560
Joop: Vandaag met mij alleen.

9
00:00:35,640 --> 00:00:38,120
Joop: Niels, die heeft helaas andere verplichtingen.

00:00:38,120 --> 00:00:41,240
Joop: Mijn naam is Joop Snijder, CTO van jou bij Info Support.
 10
00:00:38,120 --> 00:00:41,240
Joop: En vandaag in de studio zijn we heel blij mee.
 11
00:00:41,240 --> 00:00:44,920
Joop: Marianne Witte Schaaphok.
 12
00:00:44,920 --> 00:00:46,839
Joop: Dankjewel dat je hier wilde komen.
 13
00:00:46,839 --> 00:00:48,999
Joop: Zou je je voor de luisteraar eerst even willen voorstellen?
 14
00:00:49,880 --> 00:00:52,679
Marianne: Ja, natuurlijk.
 15
00:00:52,679 --> 00:00:53,800
Marianne: Ik ben Marianne.
 16
00:00:53,879 --> 00:00:55,080
Marianne: Ik werk bij TNO, onderzoeksinstituut.
 17
00:00:55,080 --> 00:00:58,119
Marianne: En ik werk er als Consultant Responsible AI.
 18
00:00:58,119 --> 00:01:01,079
Joop: Ja, en voordat we het zo direct hebben over de NTA, de Nederlandse technische afspraak.
 19
00:01:01,480 --> 00:01:07,960
Marianne: Afspraak.
 20
00:01:07,960 --> 00:01:08,599
Joop: Afspraak.
 21
00:01:08,600 --> 00:01:09,000
Joop: Ik heb het je net gevraagd, dan zeg ik het nog verkeerd.
 22
00:01:10,120 --> 00:01:12,920
Joop: Maar voordat we beginnen, je hebt het over Responsible AI.
 23
00:01:13,560 --> 00:01:17,000
Joop: Wat is dat eigenlijk?
 24
00:01:17,000 --> 00:01:18,280
Marianne: Dat is een hele goede vraag.
 25
00:01:18,439 --> 00:01:19,960
Marianne: Responsible AI, zoals ik het zie, is eigenlijk een combinatie tussen zowel een goede techniek hebben die verantwoord omgaat met de data, die goede uitkomsten geeft, robuust is en veilig.
 26
00:01:19,960 --> 00:01:30,759
Marianne: Als wel een goede aanpak om als mens ermee om te gaan.
 27
00:01:30,920 --> 00:01:34,519
Marianne: Dat we ook op de juiste manier gebruik maken van een technologie.
 28
00:01:34,679 --> 00:01:37,640
Marianne: Een technologie kan wel veilig zijn, maar ja, heel vaak gaat het toch bij de mens ook wel fout.
 29
00:01:37,799 --> 00:01:43,159
Joop: En kan je vertellen wat die Nederlandse technische afspraak is?
 30
00:01:43,719 --> 00:01:48,759
Marianne: Ja, dus een Nederlandse technische afspraak is eigenlijk een vorm van een standaard.
 31
00:01:48,760 --> 00:01:52,519
Marianne: Een standaard is iets wat we uitgeven, dat kan bijvoorbeeld zijn voor hoe een auto eruit ziet, hoe een veiligheidssysteem moet zijn, de aansluiting van je USB-C kabel.
 32
00:01:52,680 --> 00:02:01,799
Marianne: En dat doen we nu eigenlijk in een lichte vorm voor profileringsalgoritmes bij de overheid.
 33
00:02:01,799 --> 00:02:07,159
Marianne: Juist daar richtlijnen op te stellen en eisen en requirements, als we dat noemen, om alle organisaties hulp te geven.
 34
00:02:07,560 --> 00:02:15,479
Marianne: Wat moet je nou doen wanneer je zo'n systeem gaat ontwikkelen?
 35
00:02:15,799 --> 00:02:18,280
Marianne: En wat kun je testen eraan?
 36
00:02:18,280 --> 00:02:19,719
Joop: Ja, en jij bent betrokken bij het opstellen van deze afspraak.
 37
00:02:19,719 --> 00:02:22,840
Marianne: Ja, inderdaad.
 38
00:02:22,840 --> 00:02:23,799
Marianne: In eerste instantie als expert en ook de laatste tweede helft als projectleider.
 39
00:02:23,879 --> 00:02:28,039
Joop: En welke overheidsorganisatie brengt dit zo direct uit.
 40
00:02:28,039 --> 00:02:32,279
Marianne: Dus het wordt uitgebracht vanuit de NEN.
 41
00:02:32,439 --> 00:02:34,439
Marianne: Dat is ons normalisatieinstituut binnen Nederland.
 42
00:02:34,439 --> 00:02:37,159
Marianne: Die beheert eigenlijk alle standaarden en alle normen.
 43
00:02:37,159 --> 00:02:40,519
Marianne: De standaard is afgekocht door de ministeries.
 44
00:02:41,000 --> 00:02:44,199
Marianne: Waardoor die ook vrij beschikbaar wordt voor iedereen.
 45
00:02:44,199 --> 00:02:47,319
Joop: Dus dan kan iedereen gewoon gebruik van maken.
 46
00:02:48,120 --> 00:02:50,359
Marianne: Normaal moet je dat betalen voor een standaard om die te kunnen gebruiken en dat hoeft in dit geval niet.
 47
00:02:51,639 --> 00:02:55,880
Marianne: Dat is al betaald.
 48
00:02:55,879 --> 00:02:56,759
Joop: En wat is de reden daarvoor dan?
 49
00:02:57,000 --> 00:02:59,000
Marianne: De reden daarvoor, en dat is ook de aanpak waarom we het eigenlijk doen.
 50
00:02:59,000 --> 00:03:01,479
Marianne: De standaard ontwikkelen, is de grote vraag en de grote noodzaak die we zien bij de overheid, binnen partijen zelf, om op een verantwoorde manier aan de slag te gaan met deze algoritmes.
 51
00:03:01,479 --> 00:03:11,239
Marianne: En vanuit daar is ook gezegd dat we willen dat alle organisaties binnen Nederland, alle overhidspartijen, aan de slag kunnen met deze standaard.
 52
00:03:11,240 --> 00:03:18,520
Marianne: En niet eerst zelf intern hoeven te gaan zorgen dat ze geld vrijmaken om hiervoor te betalen.
 53
00:03:18,520 --> 00:03:23,640
Joop: Wat zijn de huidige standaarden dekken dan niet af?
 54
00:03:24,439 --> 00:03:28,039
Joop: Wat jullie nu van plan zijn.
 55
00:03:28,039 --> 00:03:29,639
Marianne: Dus qua standaarden is er eigenlijk nog weinig op dit moment.
 56
00:03:29,879 --> 00:03:33,000
Marianne: Je ziet vanuit het bekende is de AI Act.
 57
00:03:33,000 --> 00:03:36,120
Marianne: Die gaat echt over AI.
 58
00:03:36,120 --> 00:03:37,640
Marianne: En daar worden standaarden nu voor ontwikkeld.
 59
00:03:37,640 --> 00:03:40,119
Marianne: Maar op dit niveau zijn eigenlijk nog geen standaarden afgesproken.
 60
00:03:40,759 --> 00:03:44,519
Marianne: Voor hoe we dit ontwikkelen, wat we gaan doen.
 61
00:03:44,759 --> 00:03:46,680
Marianne: Dus je ziet een heleboel richtlijnen, kaders, handreikingen.
 62
00:03:46,680 --> 00:03:50,680
Marianne: Die vliegen je om de oren, zowel vanuit de organisatie zelf als vanuit de wetenschap, de onderzoek.
 63
00:03:50,680 --> 00:03:56,200
Marianne: Maar juist echt een afspraak, daarom heet het ook een Nederlands technisch afspraak, die we proberen te maken onderling van hoe gaan wij dit nou allemaal doen.
 64
00:03:56,199 --> 00:04:03,640
Marianne: En daar moet ik zeggen, een technische afspraak is niet verplicht, een standaard überhaupt niet.
 65
00:04:03,800 --> 00:04:08,520
Marianne: Dus we kunnen niet van tevoren verplichten dat iedereen deze volgt.
 66
00:04:08,520 --> 00:04:12,360
Marianne: Maar het idee is wel dat het in ieder geval als het goed werkt in de praktijk.
 67
00:04:12,359 --> 00:04:15,960
Marianne: Een maatschappelijke of morele verplichting wordt om een dergelijke standaard te gaan volgen.
 68
00:04:15,960 --> 00:04:21,800
Joop: En is die dan die morele afspraken.
 69
00:04:21,800 --> 00:04:24,599
Joop: Is dat vooral de Rijksoverheid of vind je dat dat voor alle bedrijven dan zou moeten gelden?
 70
00:04:24,599 --> 00:04:29,639
Marianne: In eerste instantie is natuurlijk voor Rijksoverheid, maar ook uitvoeringsorganisaties, gemeentes, dus iedereen die voor publieke sector met dit soort systemen aan de slag gaat.
 71
00:04:29,879 --> 00:04:38,440
Marianne: Natuurlijk, kijk, de inzichten die erin zitten, wanneer het gaat over Responsible AI ontwikkelen.
 72
00:04:38,439 --> 00:04:43,239
Marianne: Die beperken zich natuurlijk niet tot alleen de overheid.
 73
00:04:43,240 --> 00:04:46,040
Marianne: Dus ook andere partijen die zich bezighouden met profilering.
 74
00:04:46,280 --> 00:04:49,319
Marianne: Want daar gaat het over profilering en met name ook hoe hou je daarin goed rekening met non-discriminatie.
 75
00:04:49,319 --> 00:04:54,839
Marianne: We pakken ook niet alle breedte van Responsible AI.
 76
00:04:55,079 --> 00:04:58,920
Marianne: Ja, die is ook relevant voor partijen die niet zich kwalificeren als overheid.
 77
00:04:58,920 --> 00:05:04,360
Joop: Kan je een voorbeeld geven van zo'n profileringsalgoritme?
 78
00:05:04,360 --> 00:05:07,800
Marianne: Dus de bekendste voorbeelden eigenlijk die we zien in de praktijk, zijn die voor fraudebestrijding.
 79
00:05:08,200 --> 00:05:13,800
Marianne: Het gaat over het selecteren van welke personen ga ik inspecteren om te kijken of zij zich netjes aan de regels houden.
 80
00:05:14,040 --> 00:05:20,519
Marianne: Dat kan zijn voor personen onderling.
 81
00:05:20,840 --> 00:05:22,920
Marianne: De bekendste voorbeelden, die kennen we allemaal wel.
 82
00:05:23,080 --> 00:05:24,999
Marianne: De toeslagenaffaire.
 83
00:05:25,000 --> 00:05:26,839
Marianne: Dingen voor uitkeringen controleren.
85
00:05:29,920 --> 00:05:32,240
Marianne: Maar dat kan ook juist zijn voor bedrijven.

84
00:05:27,480 --> 00:05:29,920
Marianne: Houden bedrijven zich aan de regels, bijvoorbeeld door de arbeidsinspectie.

85
00:05:28,920 --> 00:05:36,079
Marianne: Onderwijs.

86
00:05:36,560 --> 00:05:37,680
Marianne: En het kan ook op een positieve manier.

87
00:05:37,680 --> 00:05:39,519
Joop Snijder: Ja, daar was ik vooral benieuwd naar.

88
00:05:39,519 --> 00:05:41,280
Marianne: Oké, stel, hoe kunnen we mensen helpen?

89
00:05:41,759 --> 00:05:43,760
Marianne: Hoe kunnen we de mensen bereiken die misschien recht hebben op een uitkering?

90
00:05:43,759 --> 00:05:47,200
Marianne: Of hoe kunnen we mensen helpen die recht hebben op een andere voorziening, die we nu nog niet in zicht hebben?

91
00:05:47,199 --> 00:05:52,640
Marianne: Dus ook daar kun je die profilering juist op een positieve manier gebruiken om bepaalde groepen die nu niet goed in kaart zijn, om die beter te kunnen benaderen.

92
00:05:52,879 --> 00:06:01,599
Joop Snijder: Welke afspraken komen daar dan nu in die nu nog niet zijn of nu niet zijn geformaliseerd?

93
00:06:01,680 --> 00:06:08,000
Marianne: We kijken vooral heel erg dus naar de opbouw in deze NTA van het begin tot het einde.

94
00:06:08,319 --> 00:06:14,000
Marianne: Dus we beginnen eigenlijk echt met wat is nou het probleem wat je probeert op te lossen.

95
00:06:14,000 --> 00:06:18,160
Marianne: Waar zit het knelpunt?

96
00:06:19,279 --> 00:06:20,639
Marianne: Is dat een tekort aan middelen?

97
00:06:20,639 --> 00:06:21,920
Marianne: Dus misschien te weinig mensen om te controleren.

98
00:06:21,920 --> 00:06:24,800
Marianne: Wat zijn de effecten van dat probleem?

99
00:06:26,319 --> 00:06:28,079
Marianne: En wat zijn de mogelijkheden om dat op te lossen?

100
00:06:28,079 --> 00:06:30,240
Marianne: Is een algoritme één onderwerp, een mogelijkheid die je daarin wil gaan onderzoeken.

101
00:06:30,480 --> 00:06:35,839
Marianne: Want dat is eigenlijk de eerste vraag die met elkaar beantwoord.

102
00:06:36,079 --> 00:06:38,239
Marianne: Waarom wil ik eigenlijk een algoritme?

103
00:06:38,480 --> 00:06:40,320
Marianne: Waarom ga ik daar naar kijken?

104
00:06:40,319 --> 00:06:41,600
Marianne: Is er niet iets wat misschien veel makkelijker is, of wat ik op een andere manier kan oplossen.

105
00:06:41,840 --> 00:06:46,480
Marianne: En vanaf daar eigenlijk gestructureerd naar hoe bouw ik dat op?

106
00:06:46,480 --> 00:06:49,760
Marianne: Hoe ga ik kijken naar mijn data?

107
00:06:49,759 --> 00:06:51,520
Marianne: Hoe kijk ik of daar mogelijk al bepaalde groepen veel vaker in voorkomen.

108
00:06:51,519 --> 00:06:56,480
Marianne: Wat misschien eigenlijk helemaal niet representatief is voor onze samenleving.

109
00:06:56,480 --> 00:07:00,160
Marianne: Dat kan bijvoorbeeld zijn door hoe het eerder al is verzameld.

110
00:07:00,560 --> 00:07:04,160
Joop Snijder: Als we die positieve variant nemen.

111
00:07:04,800 --> 00:07:08,639
Joop Snijder: Hoe zou je daar dan naar kijken met deze gedachten?

112
00:07:08,639 --> 00:07:13,040
Marianne: Het probleem is daar misschien dat je bepaalde groepen niet kan bereiken.

113
00:07:14,319 --> 00:07:18,319
Marianne: En dan wil je eens kijken, hoe kunnen we die gaan bereiken.

114
00:07:18,399 --> 00:07:21,439
Marianne: Als dat het probleem is dat je oplossen.

115
00:07:21,840 --> 00:07:23,199
Marianne: Kun je kijken, oké, hebben we genoeg data, genoeg gegevens waarop we een algoritme kunnen bouwen.

116
00:07:23,279 --> 00:07:27,520
Marianne: Of genoeg menselijke kennis.

117
00:07:27,519 --> 00:07:29,280
Marianne: Want deze gaat ook juist over algoritmes die door mensen worden opgesteld.

118
00:07:29,279 --> 00:07:33,759
Marianne: Dan moet je daarna dus ook gaan kijken naar data.

119
00:07:34,560 --> 00:07:36,640
Marianne: In dit geval gaat het misschien om een groep die nog niet zo goed kan bereiken.

120
00:07:36,639 --> 00:07:39,680
Marianne: Dus heb ik daar wel genoeg kennis over, weet ik daar genoeg over om een algoritme over op te stellen.

121
00:07:39,680 --> 00:07:44,800
Marianne: En wat voor kenmerken ga ik dan gebruiken?

122
00:07:44,800 --> 00:07:48,239
Marianne: Dat bepaalt of iemand recht heeft op bijvoorbeeld zijn uitkering.

123
00:07:48,240 --> 00:07:52,000
Joop Snijder: Nou, op zich, ik denk dat die wel vast liggen, neem ik aan, wettelijk, toch?

124
00:07:52,319 --> 00:07:56,879
Joop Snijder: Of je wel of geen recht hebben, maar ik kan me dan voorstellen dat, want je hebt het over bias.

125
00:07:56,879 --> 00:08:02,159
Joop Snijder: Hoe zou biases dan in zo'n geval erin kunnen sluiten?

126
00:08:02,159 --> 00:08:06,160
Marianne: In dit geval bijvoorbeeld doordat je bepaalde groepen helemaal niet in kaart hebt.

127
00:08:06,480 --> 00:08:10,800
Marianne: Stel, ik ga dan, ik heb een algoritme wat ik baseer op kennis die ik heb, op basis van misschien wat inzichten uit de data die ik heb.

128
00:08:10,960 --> 00:08:17,759
Marianne: En dan zie ik oké, deze groep bijvoorbeeld ouderen.

129
00:08:17,759 --> 00:08:22,239
Marianne: Vragen het vaak niet aan, omdat ze er wel recht op hebben.

130
00:08:24,159 --> 00:08:27,199
Marianne: Dan kan ze een algoritme heel erg gaan sturen op die groep.

131
00:08:27,439 --> 00:08:30,080
Marianne: Misschien is er ook wel een bepaalde groep van jongeren.

132
00:08:30,399 --> 00:08:33,039
Marianne: Die ook heel erg veel recht heeft op die uitkering, maar die je mist.

133
00:08:33,360 --> 00:08:37,198
Marianne: Omdat je daar ofwel de kennis niet over hebt dat ze het niet aanvragen, ofwel niet in je data zit.

134
00:08:37,198 --> 00:08:42,078
Marianne: Dan zal je dus zien dat ze een algoritme heel erg gaat richten op die groep ouderen en die heel veel hulpprofilering gaan bieden.

135
00:08:42,240 --> 00:08:47,760
Marianne: Wel goed is, want ze hebben daar waarschijnlijk recht op.

136
00:08:47,759 --> 00:08:50,320
Marianne: Maar die andere groep die misschien net zoveel recht daarop heeft, die hou je dan buiten beschouwing.

137
00:08:50,560 --> 00:08:55,439
Marianne: Dus die breng je eigenlijk niet die hulp die je aan andere groepen wel brengt.

138
00:08:55,519 --> 00:08:59,680
Joop Snijder: En hoe kom je erachter dat je dat je baas in je data hebt zitten?

139
00:09:00,639 --> 00:09:05,680
Marianne: Dat is inderdaad een van de dingen die we dus ook in deze Nederlands tegen afspraken uitleggen.

140
00:09:06,000 --> 00:09:10,480
Marianne: Hoe kun je dit meten?

141
00:09:10,480 --> 00:09:11,920
Marianne: Dus dan gaan we echt heel erg aan de slag van oké, welke, je hebt informatie nodig over die groepen.

142
00:09:12,079 --> 00:09:16,400
Marianne: Dus in eerste instantie moet je al gaan nadenken over welke groepen zit een mogelijke bias op.

143
00:09:16,399 --> 00:09:22,159
Marianne: Is dat misschien inderdaad op basis van leeftijd?

144
00:09:22,159 --> 00:09:24,559
Marianne: Is dat op basis van geslacht?

145
00:09:24,559 --> 00:09:26,239
Marianne: Is dat op basis van misschien ras?

146
00:09:26,240 --> 00:09:28,480
Marianne: Wat we vaak niet willen.

147
00:09:28,480 --> 00:09:30,080
Marianne: Dus welke wil je echt niet.

148
00:09:30,319 --> 00:09:31,680
Joop Snijder: En dan begin je vanuit jezelf in eerst instantie te bedenken.

149
00:09:31,839 --> 00:09:35,920
Joop Snijder: Of begin je meteen bij de data?

150
00:09:35,920 --> 00:09:38,080
Marianne: Nee, je begint vaak echt met het kijken welke groepen zijn relevant.

151
00:09:38,080 --> 00:09:41,279
Marianne: En dat kan je dus ook wel doen aan het kijken wat is de impact van het algoritme.

152
00:09:41,279 --> 00:09:44,879
Marianne: Welke groepen kennen we daar?

153
00:09:44,879 --> 00:09:46,720
Marianne: En ook met die groepen zelf in gesprek gaan.

154
00:09:46,720 --> 00:09:48,960
Marianne: Van wat zijn dingen die mogelijk onderscheid kunnen opleveren?

155
00:09:48,960 --> 00:09:52,000
Marianne: Dus een mogelijke bias.

156
00:09:52,000 --> 00:09:53,519
Marianne: Die we niet willen.

157
00:09:53,519 --> 00:09:54,639
Marianne: Dus dat is niet iets wat je zelf moet doen.

158
00:09:54,639 --> 00:09:56,240
Marianne: Want ja, het beeld van mensen is ook heel erg beeld.

159
00:09:56,240 --> 00:09:58,320
Joop Snijder: Ja, toch?

160
00:09:58,319 --> 00:09:58,879
Marianne: Het is juist heel erg de vraag hier om met andere mensen te gaan kijken.

161
00:09:59,039 --> 00:10:03,439
Marianne: Groepen die geraakt worden door een dergelijk systeem.

162
00:10:03,440 --> 00:10:06,480
Marianne: Wat zijn mogelijke voorkeuren of vaak ongewenste voorkeuren die in zo'n systeem naar boven zouden kunnen komen?
165
00:10:12,960 --> 00:10:15,240
Marianne: Misschien nu in het huidige proces ook al.

163
00:10:06,720 --> 00:10:12,959
Marianne: En dan ga je uiteindelijk een selectie maken.

164
00:10:15,240 --> 00:10:17,079
Marianne: Ik bedoel, we kunnen niet alles meten.

165
00:10:13,920 --> 00:10:19,399
Marianne: We kunnen niet alles en iedereen en alle opties uitsluiten.

166
00:10:19,559 --> 00:10:22,759
Marianne: Dus dan moet je gaan kijken, oké, wat is de grootste kans?

167
00:10:22,759 --> 00:10:25,240
Marianne: Wat zijn de groepen waar we echt willen dat er geen onderscheid?

168
00:10:25,240 --> 00:10:28,519
Marianne: En dan kan je het gaan meten.

169
00:10:28,600 --> 00:10:29,799
Marianne: Dan kun je puur gaan kijken, oké, ik ga mijn algoritme het werk laten doen.

170
00:10:29,799 --> 00:10:34,040
Marianne: Er komen uitkomsten uit.

171
00:10:34,039 --> 00:10:35,720
Marianne: En als ik nou kennis heb over alles wat hij weet, of die personen bijvoorbeeld een man of een vrouw zijn, of in dit geval ouderen en jongeren.

172
00:10:35,720 --> 00:10:42,840
Marianne: Dan kan ik kijken, oké, geeft mijn algoritme bijvoorbeeld alleen maar ouderen.

173
00:10:42,840 --> 00:10:47,399
Marianne: Is 80% van wat hij voorspelt die we moeten gaan helpen, zijn dat ouderen.

174
00:10:47,559 --> 00:10:51,400
Marianne: Ja, in dat geval in de samenleving is op dit moment nog niet 80% ouderen.

175
00:10:51,639 --> 00:10:55,639
Marianne: Of in ieder geval van de groep die recht heeft dan op de uitkering.

176
00:10:56,200 --> 00:10:58,680
Marianne: Dus dan kan je zien, oké, dat scheef verdeeld.

177
00:10:58,679 --> 00:11:00,520
Marianne: Het algoritme heeft een andere verdeling in zijn uitkomst dan wat we eigenlijk zouden verwachten gezien de populatie.

178
00:11:00,519 --> 00:11:07,320
Marianne: Of je kan ook bijvoorbeeld zien, heeft hij het vaker fout voor ouderen dan voor jongeren.

179
00:11:07,639 --> 00:11:13,159
Marianne: Dus geeft hij vaker onterecht dat hij aangeeft, oh, deze ouderen moet je wel helpen, terwijl ze misschien eigenlijk geen recht erop hebben, of juist bij jongeren dat hij het vaker niet aangeeft.

180
00:11:13,159 --> 00:11:22,440
Marianne: Dus dat zijn ook een vorm van bias en ongelijkheid die je daarin naar boven kan halen.

181
00:11:22,919 --> 00:11:28,519
Marianne: En als je informatie hebt over of iemand in het geval bijvoorbeeld 65 plus is of de 20.

182
00:11:28,519 --> 00:11:34,920
Marianne: Dan kun je dat relatief eenvoudig meten.

183
00:11:34,919 --> 00:11:37,560
Joop Snijder: En staan dat soort metingen dan ook in die in die afspraken?

184
00:11:38,360 --> 00:11:41,879
Joop Snijder: In welke vorm weet je, ik krijg straks die set van afspraken, hoe ziet dat daaruit?

185
00:11:42,200 --> 00:11:47,480
Marianne: Ja, net zei echt een opbouw die zich die zich meet aan de algoritme wordt ontwikkeld.

186
00:11:47,480 --> 00:11:53,800
Marianne: Dus probleemvraag, het ontwikkelen ervan en dan ook toetsen.

187
00:11:53,799 --> 00:11:57,399
Marianne: En ook hierin noemen we dus de verschillende metrieken die er zijn.

188
00:11:57,559 --> 00:12:01,400
Marianne: Dus naar hetgene wat ik zei van is de uitkomst vergelijkbaar?

189
00:12:01,399 --> 00:12:04,440
Marianne: Of zijn je de foutmarges vergelijkbaar?

190
00:12:04,759 --> 00:12:07,559
Marianne: En daar zeggen we van op deze manier kan je dit meten, op deze manier kan je dit meten.

191
00:12:07,559 --> 00:12:12,680
Marianne: Daarvan zeggen we van gelijk dat het representievers bij populatie moet je doen.

192
00:12:12,680 --> 00:12:17,000
Marianne: Dat is echt het uitgangspunt ook van non-discriminatie daarin.

193
00:12:17,000 --> 00:12:20,440
Marianne: En daarnaast kun je dus nog veel meer testen doen die eigenlijk ook wil doen op zijn de foutmarges gelijk, of in ieder geval binnen de perken.

194
00:12:20,680 --> 00:12:27,399
Marianne: Dus dat zijn eigenlijk de stappen die we zeggen, hoe moet je het meten?

195
00:12:27,960 --> 00:12:30,919
Marianne: Hoe kan je dit meten?

196
00:12:30,920 --> 00:12:32,040
Marianne: En ook hoe moet je het documenteren.

197
00:12:32,039 --> 00:12:34,040
Marianne: Hoe je het opschrijven.

198
00:12:34,039 --> 00:12:35,639
Marianne: En uiteindelijk de vraag, want dan is het acceptabel om het algoritme te gebruiken.

199
00:12:35,639 --> 00:12:41,799
Marianne: Dat is een vraag die wij niet kunnen beantwoorden.

200
00:12:42,039 --> 00:12:44,039
Marianne: Want dat is ontzettend contextafhankelijk.

201
00:12:44,039 --> 00:12:46,600
Marianne: In ene keer is misschien een verschil van 1% tussen mannen en vrouwen prima acceptabel.

202
00:12:46,600 --> 00:12:52,360
Marianne: In sommige gevallen is het zelfs gewenst en toegestaan.

203
00:12:52,679 --> 00:12:55,800
Marianne: Op de medische sector zie je dat mannen en vrouwen verschillen nou helemaal.

204
00:12:55,960 --> 00:12:59,719
Marianne: Dus dan is er een hele goede reden om dat wel te doen.

205
00:12:59,720 --> 00:13:02,519
Marianne: En in andere gevallen wil je misschien zo min mogelijk.

206
00:13:02,840 --> 00:13:05,719
Marianne: Maar er zit altijd die uitkomsten die verschillen van misschien 5 of 1 of 0%.

207
00:13:05,720 --> 00:13:11,240
Marianne: Dus daar moet je uiteindelijk een keuze keuze over maken.

208
00:13:13,080 --> 00:13:16,439
Marianne: Kijken wat is acceptabel, wat is toegestaan, wat is wenselijk.

209
00:13:16,440 --> 00:13:20,840
Marianne: Dus dan kom je op de vraag, mag het ethisch?

210
00:13:20,840 --> 00:13:23,560
Marianne: Mag het juridisch, willen we het, ethisch.

211
00:13:23,879 --> 00:13:26,680
Marianne: En dan moet je daarover een keuze gaan maken.

212
00:13:27,319 --> 00:13:29,080
Marianne: En die doen we dus niet binnen de binnen de NTA.

213
00:13:29,079 --> 00:13:32,040
Marianne: Dus juist heel erg op welke stappen moet je nemen.

214
00:13:32,200 --> 00:13:35,640
Marianne: Wat kan je meten?

215
00:13:35,639 --> 00:13:37,000
Marianne: Hoe ga je dat opschrijven?

216
00:13:37,000 --> 00:13:38,840
Marianne: Om te zorgen dat hij uiteindelijk keuze mogelijk aan.

217
00:13:38,840 --> 00:13:42,040
Joop Snijder: Ethische keuzes kan je natuurlijk niet in een standaard.

218
00:13:42,279 --> 00:13:44,680
Marianne: Nee, nee, zeker niet.

219
00:13:45,399 --> 00:13:47,320
Joop Snijder: Oké.

220
00:13:48,279 --> 00:13:49,000
Joop Snijder: Maar hoe zorg je nou zo direct voor dat dit soort dingen geen papieren tijger worden?

221
00:13:49,559 --> 00:13:54,760
Marianne: Ja dat is de grootste uitdaging.

222
00:13:55,080 --> 00:13:57,080
Marianne: En ik denk dat dat ook heel erg interessant is.

223
00:13:57,240 --> 00:13:58,840
Marianne: Dat we gaan nu in publieke consultatie.

224
00:13:58,840 --> 00:14:00,759
Marianne: Dat betekent dat iedereen er feedback op mag geven.

225
00:14:00,759 --> 00:14:03,800
Marianne: Dus daar hebben heel erg geprobeerd om het zo dicht mogelijk bij de praktijk vorm te houden.

226
00:14:04,360 --> 00:14:08,919
Marianne: Dus daarom ook die echt die opbouw van probleemstelling op toetsing.

227
00:14:08,920 --> 00:14:14,200
Marianne: Om zo dicht mogelijk bij de praktijk van de mensen in de organisaties te houden om het daarmee makkelijker te maken.

228
00:14:14,200 --> 00:14:19,719
Marianne: Documentatie is altijd natuurlijk een hoop werk, maar wel ontzettend belangrijk.

229
00:14:20,360 --> 00:14:24,759
Joop Snijder: Zeker.

230
00:14:24,759 --> 00:14:25,559
Marianne: En we hopen door zowel publieke consultatie als ook daarna het in de praktijk te gaan gebruiken.

231
00:14:25,559 --> 00:14:30,520
Marianne: Te leren oké, wat werkt wel goed in de praktijk, wat werkt niet goed in de praktijk.

232
00:14:30,519 --> 00:14:35,240
Marianne: En ook ja, hoe sluit dat aan bij het doel wat we natuurlijk uiteindelijk willen bereiken met deze NTA, dat iedereen veel gestructureerder en veel meer aandacht voor non-discriminatie aan de slag gaat met algoritmes.

233
00:14:35,879 --> 00:14:47,399
Marianne: En dat we veel duidelijker beeld hebben van wat zit er onderscheid in deze algoritmes.

234
00:14:47,399 --> 00:14:51,639
Marianne: En zo ja, wat is het effect daarvan?

235
00:14:51,639 --> 00:14:53,480
Marianne: En wat betekent dat voor het gebruik?

236
00:14:53,559 --> 00:14:56,200
Joop Snijder: Ja, en de vraag was om om hier ook te komen vertellen erover, juist vanwege die consultatie.

237
00:14:56,279 --> 00:15:01,920
Joop Snijder: Wie mag er allemaal feedback geven, hoe ziet feedback eruit.

238
00:15:02,480 --> 00:15:06,960
Joop Snijder: Waar beginnen ze?

239
00:15:07,919 --> 00:15:09,280
Marianne: Ja, iedereen kan in principe feedback geven, dat gaat via de NAN.
243
00:15:15,200 --> 00:15:21,440
Marianne: Dus de NEN heeft een portaal, daar moet je je wel even voor aanmelden, maar dat wordt alleen gebruikt voor het inleveren van feedback.

240
00:15:09,279 --> 00:15:14,960
Marianne: En daar zie je eigenlijk de hele NTA.

241
00:15:21,600 --> 00:15:24,399
Marianne: En daar kun je dan commentaar op leveren.

242
00:15:24,399 --> 00:15:26,159
Joop: Dus wij kunnen zo direct wel een link in de show notes opnemen, neem ik aan.

243
00:15:26,480 --> 00:15:29,920
Marianne: Dat kan zeker.

244
00:15:30,319 --> 00:15:31,600
Marianne: En vanuit daar krijgen wij dan straks al die commentaren binnen.

245
00:15:31,600 --> 00:15:34,480
Marianne: En dan gaan we die proberen.

246
00:15:34,480 --> 00:15:36,399
Marianne: Dat zal ongetwijfeld nog een uitdaging worden.

247
00:15:37,360 --> 00:15:39,760
Marianne: We weten hoeveel discussie dit onderwerp ook altijd opwekt, zowel vanuit de complexiteit natuurlijk, wanneer je het hebt over non-discriminatie.

248
00:15:40,080 --> 00:15:47,519
Marianne: Als ook inderdaad, de haalbaarheid in de praktijk.

249
00:15:47,840 --> 00:15:50,399
Marianne: En de uitvoerbaarheid, als ik gewoon echt het grote interesse wat we erin zien.

250
00:15:50,399 --> 00:15:54,800
Joop: En tot wanneer kunnen mensen feedback geven.

251
00:15:55,120 --> 00:15:57,760
Marianne: Donderdag 19 april.

252
00:15:58,080 --> 00:16:00,960
Joop: Dat heb ik niet zoiets.

253
00:16:01,840 --> 00:16:04,799
Joop: Onderbij.

254
00:16:04,799 --> 00:16:05,360
Joop: Dat is nog een aantal weken om in ieder geval die feedback te geven.

255
00:16:07,759 --> 00:16:11,520
Joop: Dus even aanmelden bij de NEN, kan je hem downloaden, kun je feedback geven.

256
00:16:12,799 --> 00:16:17,040
Joop: Wat is voor jou nou het belangrijkste punt, wat het voor jou zelf zo interessant maakt om hier aan mee te werken.

257
00:16:20,240 --> 00:16:26,800
Marianne: Voor mij, ik werk dus nu al een aantal jaar in dit veld, wanneer het gaat over Responsible AI.

258
00:16:27,120 --> 00:16:32,480
Marianne: En je blijft in de praktijk en in het nieuws.

259
00:16:32,480 --> 00:16:35,759
Marianne: Je blijven de gevallen tegenkomen waarbij het fout gaat.

260
00:16:35,759 --> 00:16:39,039
Marianne: En heel vaak niet eens het onwel.

261
00:16:39,039 --> 00:16:40,960
Marianne: Maar toch omdat dingen fout gaan, omdat ze niet wisten hoe het gemeten moest worden.

262
00:16:40,960 --> 00:16:45,360
Marianne: Ja, is het heel erg ook over het verantwoorde keuzes maken over AI, het onderbouwen daarvan.

263
00:16:45,679 --> 00:16:50,720
Marianne: En dat maakt het voor mij heel erg interessant om hier aan mee te werken.

264
00:16:50,720 --> 00:16:53,680
Marianne: Ik zie gewoon hoe belangrijk het is dat we duidelijkheid gaan krijgen en dat we mensen handvatten gaan geven.

265
00:16:53,680 --> 00:16:59,360
Marianne: Ook vaak mensen spreken die zeggen, ja, hoe doe ik dit?

266
00:16:59,360 --> 00:17:02,399
Marianne: Hoe doe ik dit nou op een goede manier?

267
00:17:02,399 --> 00:17:04,559
Marianne: Want ik wil helemaal niet dat mijn algoritme discrimineert of onderscheid maakt.

268
00:17:04,559 --> 00:17:09,359
Marianne: Dus help ons daarmee.

269
00:17:09,359 --> 00:17:10,719
Marianne: Want tegelijkertijd is de noodzaak ook bij de overheid ontzettend groot om te digitaliseren.

270
00:17:10,720 --> 00:17:16,079
Marianne: Iedereen vraagt het.

271
00:17:16,319 --> 00:17:17,839
Marianne: De digitalisering in de wereld gaat ontzettend hard en ook de overheid heeft steeds minder middelen om hetzelfde te doen.

272
00:17:17,839 --> 00:17:23,040
Marianne: Dus de digitaliseringsslag die gaat door.

273
00:17:23,279 --> 00:17:26,079
Marianne: En daar heel erg de vraag over oké, hoe doen we dat dan verantwoord?

274
00:17:26,079 --> 00:17:29,440
Marianne: En hoe doen we dat nou goed en kunnen we daar wat afspraak op hebben?

275
00:17:29,440 --> 00:17:32,799
Marianne: En dat vind ik heel erg waardevol eraan.

276
00:17:32,799 --> 00:17:34,639
Marianne: Kun we mensen daarmee helpen?

277
00:17:35,119 --> 00:17:37,599
Marianne: En het tweede wat ik heel erg mooi vind aan dit proces, is dat het echt een samenwerking is.

278
00:17:37,599 --> 00:17:42,720
Marianne: Dus een breed palet aan organisaties.

279
00:17:42,720 --> 00:17:45,359
Marianne: Dus het is overheidsorganisaties, het is wetenschappelijke organisaties, het is de echte maatschappij die vertegenwoordigd is, ook via mensenrechtenorganisaties.

280
00:17:45,359 --> 00:17:55,680
Marianne: En daarin gaan we het gesprek met elkaar aan.

281
00:17:55,680 --> 00:17:57,839
Marianne: En dat is niet altijd makkelijk.

282
00:17:57,920 --> 00:17:59,680
Marianne: Maar ik denk dat dat echt ontzettend waardevol is, dat we proberen met elkaar een stap verder hierop te zetten.

283
00:18:00,000 --> 00:18:05,920
Marianne: En meer duidelijkheid te scheppen van wat bedoelen we eigenlijk hiermee, wat voor impact heeft het en kunnen we daar iets aan aan structuur aan geven.

284
00:18:05,920 --> 00:18:13,919
Joop: Kun je een tipje van de sluier oplichten zonder de organisatie te noemen.

285
00:18:14,079 --> 00:18:19,680
Joop: Maar waar zitten dan die discussie?

286
00:18:20,000 --> 00:18:21,919
Joop: Wat maakte het niet makkelijk om op één lijn te komen.

287
00:18:21,920 --> 00:18:25,039
Marianne: Een deel van de discussie, die gaat ook over juist de link tussen juridisch en technisch.

288
00:18:25,680 --> 00:18:31,839
Marianne: Die link hebben we ook echt wel geweerd te maken.

289
00:18:31,920 --> 00:18:33,759
Marianne: Dus we hebben aan tafel ook echt juridische mensen gehad, technische mensen, filosofen.

290
00:18:33,759 --> 00:18:38,079
Marianne: Ja, daar zie je gewoon een al een best een lastig punt.

291
00:18:38,240 --> 00:18:40,480
Joop: Zeker.

292
00:18:40,480 --> 00:18:40,960
Marianne: Dat non-discriminatiewetgeving is natuurlijk vrij juridisch.

293
00:18:41,119 --> 00:18:45,440
Marianne: En dat vertalen, wat betekent dat dan technisch onderling.

294
00:18:45,440 --> 00:18:48,240
Marianne: Ja, dat is best een hele interessante vraag.

295
00:18:48,319 --> 00:18:50,240
Joop: En ik neem aan ook dat je wil gaan denken in.

296
00:18:50,240 --> 00:18:53,440
Joop: omdraaien naar een ja.

297
00:18:54,720 --> 00:18:56,399
Joop: Tenminste, ik zie dat.

298
00:18:56,720 --> 00:18:58,720
Joop: Ik word wel gevraagd om mee te kijken naar beleid en beleid en dat soort zaken.

299
00:18:58,960 --> 00:19:03,839
Joop: En voordat je het weet zit je in de modus, zeg maar dat het van alles niet mag.

300
00:19:03,840 --> 00:19:08,480
Joop: Terwijl je wil natuurlijk het zorgen dat dingen wel mogen, maar wel verantwoord en volgens bepaalde spelregels.

301
00:19:08,720 --> 00:19:16,480
Joop: Is dat diezelfde frictie?

302
00:19:16,880 --> 00:19:18,799
Marianne: Onder andere, dus enerzijds echt een frictie van taal.

303
00:19:19,599 --> 00:19:22,479
Marianne: Heb je dezelfde.

304
00:19:23,039 --> 00:19:24,000
Marianne: Interpreteer je de term op dezelfde manier.

305
00:19:25,119 --> 00:19:27,599
Marianne: En anderzijds, inderdaad, dat is denk ik een frictie die in de praktijk ook wel veel is.

306
00:19:28,000 --> 00:19:31,519
Marianne: Ga je voor de nee.

307
00:19:31,839 --> 00:19:33,839
Marianne: En moet je echt of gaan we toch proberen, gaan we kijken.

308
00:19:33,840 --> 00:19:37,919
Marianne: Dat is natuurlijk een onderwerp als non-discriminatie is dat natuurlijk echt net wat anders dan voor een normaal kleine algoritme.

309
00:19:38,559 --> 00:19:44,759
Marianne: Dus daar wil je daar echt heel goed over nagedacht hebben en heel goed weten wat jouw algoritme doet.

310
00:19:43,920 --> 00:19:49,879
Marianne: Maar daar zit ja non-discriminatie, zeker bij de overheid.

311
00:19:50,359 --> 00:19:53,800
Marianne: Iedereen heeft gewoon een aantal schandalen toch wel scherp in het geheugen staan.

312
00:19:54,119 --> 00:19:59,240
Marianne: Het is een ontzettend gevoelig onderwerp.

313
00:19:59,240 --> 00:20:01,319
Joop: En terecht, want je zal maar door geraakt worden.

314
00:20:01,319 --> 00:20:05,319
Joop: Staan er dan nu in de hierin dingen waarvan gezegd wordt dat moet je gewoon niet doen.

315
00:20:05,799 --> 00:20:12,039
Marianne: Dus we zeggen een aantal dingen.

316
00:20:12,680 --> 00:20:14,600
Marianne: Het meeste houden we contextafhankelijk, op de context zo ontzettend verschilt dat we zeggen, wij maken daar geen uitspraken over.

317
00:20:15,079 --> 00:20:21,639
Marianne: We hebben het wel dat directe onderscheid mag niet.

318
00:20:21,640 --> 00:20:25,240
Marianne: Dus je mag niet in principe dingen als geslacht of ras direct opnemen in je algoritme.

319
00:20:25,240 --> 00:20:33,480
Marianne: En hetzelfde zeggen we ook voor het gebruik van ras bij dan echt risicoprofilering.
324
00:20:38,759 --> 00:20:43,240
Marianne: Dus bij vrouwen, gebruik daar die profielkermerken gewoon sowieso niet.
 320
00:20:33,960 --> 00:20:38,759
Marianne: Doe dat niet.
 321
00:20:43,480 --> 00:20:44,359
Marianne: Dus daar verder rest ik een aantal aanbevelingen over wanneer kan je het beter dingen niet gebruiken.
 322
00:20:44,599 --> 00:20:50,279
Marianne: Als je al heel duidelijk ziet dat een bepaald kenmerk een verband kan hebben met bijvoorbeeld geslacht of ras wanneer je dat niet wil, gebruik het dan niet, want dan maak je jezelf.
 323
00:20:50,279 --> 00:21:00,679
Joop: Ik wil even wegblijven bij de toeslagen, want dat is zo vaak besproken.
 324
00:21:02,200 --> 00:21:06,920
Joop: Maar laatst in het nieuws was het natuurlijk wel over.
 325
00:21:06,920 --> 00:21:10,440
Joop: Was ook profilering, ging over als ik recidieve voorspelling.
 326
00:21:10,599 --> 00:21:16,599
Joop: Reclassering.
 327
00:21:16,680 --> 00:21:17,640
Joop: En die hadden wat omgedraaid.
 328
00:21:17,880 --> 00:21:20,840
Joop: Dus daar staat gewoon echt gewoon kwijt een grote fout in.
 329
00:21:20,920 --> 00:21:25,240
Joop: Dus in plaats van misschien kan jij het uitleggen, waar heb je hem scherp of niet?
 330
00:21:25,880 --> 00:21:30,759
Marianne: Ik weet niet de details van deze casus.
 331
00:21:30,759 --> 00:21:32,679
Marianne: Dus je legt alleen op de hoogte van wat er in het nieuws en dergelijke is verschenen.
 332
00:21:32,680 --> 00:21:36,279
Marianne: En daar zie je net eigenlijk een combinatie.
 333
00:21:36,599 --> 00:21:38,440
Marianne: En er dus fouten zijn gemaakt in het omwisselen van bepaalde datastromen.
 334
00:21:38,519 --> 00:21:42,440
Joop: Van de uitkomsten eigenlijk van de uitkomsten.
 335
00:21:42,680 --> 00:21:45,559
Marianne: Dus ja, dat is eigenlijk een ding waarvan ik ook zie.
 336
00:21:46,039 --> 00:21:49,480
Marianne: waarom is het zo belangrijk om deze regels en deze handleidingen gewoon echt gestructureerd te krijgen, zodat we het gewoon goed ontwikkelen.
 337
00:21:49,960 --> 00:21:56,199
Marianne: Want dit zijn eigenlijk fouten die zouden niet mogen voorkomen.
 338
00:21:56,200 --> 00:21:59,320
Marianne: Als jij goed je algoritme hebt doorgemeten en getest.
 339
00:21:59,319 --> 00:22:02,519
Marianne: Dan zou je dit moeten zien, dan zou je dit moeten tegenkomen.
 340
00:22:02,519 --> 00:22:05,480
Joop: Heb je heb je deze casus gehouden tegen de afspraken die nu hebben liggen, waarvan je denkt van hé, maar dan hadden ze het misschien opgemerkt.
 341
00:22:05,480 --> 00:22:13,559
Marianne: Dat hebben we nog niet expliciet gedaan.
 342
00:22:13,559 --> 00:22:16,039
Marianne: Maar ik denk dat zeker veel voorbeelden wanneer je het hebt over ook onderscheid, wat gemaakt wordt, dus dat bepaalde groepen vaker of onterecht in dit geval eerder als recidivisten zouden worden aangemerkt.
 343
00:22:16,039 --> 00:22:26,759
Marianne: Dat kan je meten met methodes die we noemen.
 344
00:22:27,000 --> 00:22:29,560
Joop: Ja, precies.
 345
00:22:29,559 --> 00:22:30,200
Marianne: En ik denk dat dat wel hetzelfde gehad wordt voor de DUO casus.
 346
00:22:30,200 --> 00:22:33,400
Joop: Dus dat had gewoon met deze set van afspraken, was de kans groter geweest dat je de fout had gevonden.
 347
00:22:33,559 --> 00:22:39,799
Marianne: Dan had je hem van tevoren al kunnen vinden.
 348
00:22:39,799 --> 00:22:41,319
Marianne: Die kans was groter geweest, ja, zeker.
 349
00:22:41,319 --> 00:22:43,240
Joop: Kijk, daar willen we naartoe, toch?
 350
00:22:43,240 --> 00:22:45,000
Marianne: Dat is ook precies echt het belang.
 351
00:22:45,400 --> 00:22:47,000
Marianne: Kijk, we kunnen niet met zo'n standaard voorkomen, 100% dat iets niet of het niet discrimineert.
 352
00:22:47,000 --> 00:22:53,720
Marianne: Want discriminatie is gewoon iets dat is veel groter dan alleen een algoritme.
 353
00:22:53,799 --> 00:22:57,800
Joop: Zeker.
 354
00:22:57,799 --> 00:22:58,680
Marianne: En ook fouten, je kan het niet 100% voorkomen.
 355
00:22:58,920 --> 00:23:02,120
Marianne: Het idee hiervan is echt dat we wel proberen zoveel mogelijk van tevoren eruit te halen.
 356
00:23:02,119 --> 00:23:07,559
Marianne: Te zorgen dat we zo goed mogelijk inzicht hebben in wat zo'n algoritme doet.
 357
00:23:07,559 --> 00:23:11,000
Marianne: En dus echt onderbouwde keuze kunnen maken om het in te zetten.
 358
00:23:11,000 --> 00:23:14,839
Marianne: In plaats van dat het wordt ingezet en achteraf achter komen oh, het heeft eigenlijk toch een ongewenste voorkeur die je van tevoren had kunnen weten.
 359
00:23:14,839 --> 00:23:23,480
Marianne: Want dan kom je op iets en dan had je dan had je dat aspect in ieder geval kunnen voorkomen.
 360
00:23:23,799 --> 00:23:29,399
Marianne: En daar gaat het uiteindelijk dan ook combinatie daarvan met monitoren.
 361
00:23:29,400 --> 00:23:34,039
Marianne: Net bijhouden achteraf, zorg dat je goede processen hebt, want je kunt niet alles uitsluiten.
 362
00:23:34,039 --> 00:23:39,160
Marianne: Dus zorg als er iets onverwachts gebeurt of je toch ineens een klacht krijgt of er verandert iets in de omgeving waardoor je algoritme anders werken.
 363
00:23:39,799 --> 00:23:47,960
Marianne: Dat je dat ziet, en dat je dan op een goede menselijke manier mee omgaan.
 364
00:23:47,960 --> 00:23:52,039
Joop: Ja, dat laatst dus ook nog wel een dingen.
 365
00:23:52,119 --> 00:23:53,639
Marianne: En dat is wat we eerder ook al over hadden, maar jij hebt de techniek en je hebt de mens.
 366
00:23:53,880 --> 00:23:57,959
Marianne: En dit is altijd een combinatie van twee.
 367
00:23:58,200 --> 00:24:00,600
Marianne: Dus je moet ze wel verwijden, moet je goed nadenken over hoe geef je dat vorm.
 368
00:24:00,599 --> 00:24:05,079
Joop: Wat zou je organisaties mee willen geven wat dan de mens moet veranderen op dit gebied?
 369
00:24:05,799 --> 00:24:12,519
Marianne: Ik denk dat het in eerste instantie is, moeten de mensen opleiden.
 370
00:24:12,599 --> 00:24:16,040
Marianne: Dat is iets wat natuurlijk al heel vaak wordt genoemd.
 371
00:24:16,039 --> 00:24:18,439
Joop: Maar ja, als je noem maar wat, je krijgt je krijgt een paar dagen opleiding.
 372
00:24:18,920 --> 00:24:23,559
Joop: Drie maanden later, krijg je zo'n algoritme voor je neus.
 373
00:24:23,559 --> 00:24:27,000
Joop: Bij het grotendeels beet kwijt.
 374
00:24:27,240 --> 00:24:29,120
Marianne: Ja, ik denk dat daar voor mensen zelf het belangrijkste blijft, sowieso menselijke maat.
 375
00:24:28,840 --> 00:24:34,880
Marianne: Een algoritme is, is recht toe recht aan.
 376
00:24:35,279 --> 00:24:38,799
Marianne: Dus blijf daarin ook echt het oog voor de mensen wat er achter het systeem zit en over wie je beslissingen maakt.
 377
00:24:39,440 --> 00:24:45,359
Marianne: Dat dat een heel belangrijke aspect is om je altijd te blijven realiseren.
 378
00:24:45,759 --> 00:24:49,039
Marianne: Ja, over wie of wat maak ik nu een beslissing.
 379
00:24:49,039 --> 00:24:51,679
Marianne: En met welke informatie doe ik dat ook.
 380
00:24:51,839 --> 00:24:54,480
Marianne: Dat je daar altijd jezelf scherp op blijft houden.
 381
00:24:54,799 --> 00:24:57,120
Joop: Ja, wat de consequenties zou kunnen zijn voor iemand.
 382
00:24:57,119 --> 00:24:59,279
Marianne: Wat kunnen de consequenties zijn?
 383
00:24:59,599 --> 00:25:00,879
Marianne: Welke informatie heb ik?
 384
00:25:00,880 --> 00:25:02,000
Marianne: Wat geeft het algoritme mij?
 385
00:25:02,000 --> 00:25:03,759
Marianne: En het besef blijven houden.
 386
00:25:03,759 --> 00:25:05,119
Marianne: Dat daar kan iets of wel fout in zitten, of er kan toch iets anders zijn in de situatie die zorgt dat het de uitkomst van het algoritme niet geschikt is op dat moment of niet toepasbaar.
 387
00:25:05,119 --> 00:25:15,759
Marianne: Dus zeker heel erg waken voor het computer says syndroom.
 388
00:25:16,000 --> 00:25:20,559
Marianne: En dat maar gewoon te volgen.
 389
00:25:20,720 --> 00:25:22,320
Marianne: En ik denk dat dat echt het kritisch blijven zelf.
 390
00:25:22,319 --> 00:25:25,439
Marianne: En jezelf de vraag aan stellen van wat ben ik aan het doen en wat heeft dat voor impact.
 391
00:25:25,440 --> 00:25:29,439
Marianne: Dat is denk ik ontzettend belangrijk.
 392
00:25:29,440 --> 00:25:30,880
Joop: Denk je niet dat dat in die zin steeds lastiger wordt.
 393
00:25:30,880 --> 00:25:34,160
Joop: Dus mensen zijn steeds meer gewend om uit ChatGPT te praten of met een ander taalmodel.
399
00:25:39,599 --> 00:25:46,879
Joop: Waarbij je steeds meer erop vertrouwt dat wat daar terugkomt, dat dat een soort van waarheid is.

394
00:25:34,160 --> 00:25:39,599
Joop: Dus dat dat soort systemen, technologieën je bij niet helpen.

395
00:25:46,880 --> 00:25:52,879
Marianne: Ook dat ligt eraan hoe je het gebruikt, maar ik denk inderdaad wel dat daar een risico zit.

396
00:25:53,759 --> 00:25:58,159
Marianne: Als we daar te afhankelijk van worden.

397
00:25:58,160 --> 00:26:00,639
Marianne: En je denkt je zelf niet om af en daar kritisch op te blijven en daar goed over na te denken.

398
00:26:00,640 --> 00:26:06,000
Marianne: Dan wordt het wel steeds moeilijker.

399
00:26:06,240 --> 00:26:07,679
Marianne: Hoe vaker je het vertrouwt, en hoe vaker het goed gaat, hoe makkelijker je daar natuurlijk in meegaat.

400
00:26:07,839 --> 00:26:12,320
Joop: Ja, want kijk, we maken heel veel uitzendingen en dan gaat het er heel veel over.

401
00:26:12,319 --> 00:26:16,320
Joop: Ja, je moet opletten wat je ChatGPT teruggeeft, maar dat gaat over, hoe moet ik het zeggen?

402
00:26:16,319 --> 00:26:23,600
Joop: Laten we zeggen, dat zijn geen dingen die zoveel impact hebben als de algoritmes waar je het nu over hebt.

403
00:26:23,599 --> 00:26:31,039
Joop: En daar hebben we het al, zeg maar moeilijk om daar kritisch over te zijn en daar goed over na te denken.

404
00:26:31,039 --> 00:26:36,640
Joop: En dan vraag ik me af, weet je, hoe groot is dan de stap als het dan zo direct gaat over profileringsalgoritmes.

405
00:26:36,639 --> 00:26:42,000
Joop: Zijn we er, zijn we daar dan ook echt bij dat we daar heel kritisch op zijn.

406
00:26:42,160 --> 00:26:48,960
Marianne: Ja, dat is denk ik een hele grote vraag.

407
00:26:48,960 --> 00:26:51,199
Marianne: Hoe meer gebruikelijk het wordt in je normale leven, hoe lastiger dat ook wordt in je werkende leven.

408
00:26:51,519 --> 00:26:57,840
Marianne: Dus ik denk dat daar ook heel erg de taak ligt in bijvoorbeeld werkprocessen.

409
00:26:57,839 --> 00:27:01,440
Marianne: Kijk, dat we ook daar duidelijke structuur geven aan de medewerkers, wat doe je met de uitkomst van zo'n algoritme.

410
00:27:01,680 --> 00:27:07,199
Marianne: Nou hebben we daar ook een stukje over opgenomen in de NTA.

411
00:27:07,359 --> 00:27:10,720
Marianne: Om dat inderdaad duidelijk te beschrijven.

412
00:27:10,720 --> 00:27:12,480
Marianne: Sowieso mag de uitkomst van een algoritme niet in één keer direct het resultaat opleveren.

413
00:27:12,480 --> 00:27:17,680
Marianne: Dus daar moet altijd de mens tussendoor zitten.

414
00:27:17,680 --> 00:27:19,759
Marianne: Maar dat je daar ook heel goed duidelijk opschrijft voor jouw medewerkers en daar een duidelijk proces in hebt.

415
00:27:19,759 --> 00:27:24,399
Marianne: Van oké, je krijgt de uitkomst van een algoritme.

416
00:27:24,400 --> 00:27:26,879
Marianne: Wat betekent dat dan?

417
00:27:26,880 --> 00:27:28,000
Marianne: Wat zijn de stappen die je gaan doen?

418
00:27:28,000 --> 00:27:29,359
Marianne: Wat moet je dan zelf nog gaan checken?

419
00:27:29,360 --> 00:27:31,040
Marianne: Welke informatie heb jij nog nodig om die uiteindelijke keuze te maken.

420
00:27:31,039 --> 00:27:36,079
Marianne: Dus dat we ook daar in dat proces eigenlijk de medewerkers stimuleren en op een duidelijke manier mee omgaan.

421
00:27:36,079 --> 00:27:42,880
Marianne: Dat dat natuurlijk is in je proces.

422
00:27:42,880 --> 00:27:44,879
Joop: Ja, precies.

423
00:27:44,880 --> 00:27:45,359
Marianne: Hoje wanneer het hebt over een generatieve AI of je kan je ook gebruiken om vragen aan jou te laten stellen.

424
00:27:46,079 --> 00:27:52,240
Marianne: Dus ik denk dat we daar veel meer toe moeten naar dat het natuurlijk wordt voor mensen wanneer je werkt met zo'n systeem om toch die kritische vragen te blijven stellen en een duidelijk werkproces te hebben.

425
00:27:52,240 --> 00:28:02,400
Marianne: Dat het niet alleen maar afhankelijk is van jou, dat jij zelf denkt, oh, ik moet nu kritisch blijven.

426
00:28:02,400 --> 00:28:07,599
Marianne: Maar dat dat door de manier waarop we ermee omgaan, de manier waarop we dat werk hebben vastgelegd, dat het gewoon natuurlijk is om die vraag te stellen.

427
00:28:07,839 --> 00:28:14,000
Joop: Ja, dan denk ik eigenlijk meteen aan een financiële wereld, waar er bijvoorbeeld heel vaak vierogenprincipe is.

428
00:28:14,000 --> 00:28:20,159
Joop: Dus dan mag je als één ding eigenlijk niet gewoon beslissen over een belangrijk onderwerp.

429
00:28:20,319 --> 00:28:26,480
Joop: Zou je dat ook hier in passen?

430
00:28:26,639 --> 00:28:28,720
Marianne: Ik denk dat zou zeker een oplossing kunnen zijn.

431
00:28:28,799 --> 00:28:31,359
Marianne: Als één deel.

432
00:28:31,360 --> 00:28:32,000
Marianne: Maar dan moet je natuurlijk nog steeds nog steeds afhankelijk van twee mensen.

433
00:28:32,000 --> 00:28:34,079
Marianne: En je hebt in ieder geval minder de kans dat één iemand misschien toevallig moe van slechte dag heeft gehad.

434
00:28:36,000 --> 00:28:40,799
Marianne: En denk ik nou het is allemaal goed vandaag.

435
00:28:40,799 --> 00:28:43,439
Marianne: Dus ik denk dat het inderdaad een combinatie en daar zullen we nog heel erg onze weg ook in moeten gaan zoeken.

436
00:28:44,240 --> 00:28:47,839
Marianne: Hoe kunnen we nou toch op natuurlijke manieren dat het niet te nacht bij één persoon terechtkomt om zichzelf kritisch te houden.

437
00:28:48,000 --> 00:28:54,479
Marianne: Maar dat we dat eigenlijk inbedden in het hele proces eromheen.

438
00:28:54,480 --> 00:28:57,359
Marianne: In onze manier van omgaan met deze systemen.

439
00:28:57,360 --> 00:28:59,919
Marianne: Wellicht dat ze ook vragen kunnen stellen.

440
00:28:59,920 --> 00:29:02,720
Marianne: Dan zal dat bij deze profileringsalgoritmes niet het geval zijn.

441
00:29:02,720 --> 00:29:05,440
Marianne: Dit zijn vaak of gewoon simpele regelgebaseerde of simpele, simpele data, gebaseerde systemen.

442
00:29:05,599 --> 00:29:12,159
Marianne: Dus daar gaat het juist heel erg in het werkproces echt omheen.

443
00:29:12,159 --> 00:29:14,519
Joop: Welke vragen zou je jezelf kunnen stellen om na te denken over dat werkproces?

444
00:29:15,400 --> 00:29:21,639
Marianne: Dat is een leuke vraag eigenlijk.

445
00:29:23,160 --> 00:29:25,240
Marianne: Ik denk vooral.

446
00:29:28,039 --> 00:29:29,480
Marianne: Wat heb ik nodig?

447
00:29:30,119 --> 00:29:32,200
Marianne: Wanneer ik de uitkomst van zo'n systeem heb, wat kan ik daarmee doen, omdat eigenlijk als eerste vraag is gaan stellen wanneer zo'n werkproces vormgeeft, wat zou ik er allemaal mee kunnen?

448
00:29:32,200 --> 00:29:41,480
Marianne: Zou ik direct dit kunnen?

449
00:29:41,640 --> 00:29:42,840
Marianne: Wat is het doel ervan?

450
00:29:42,839 --> 00:29:44,120
Marianne: En wat wil ik uiteindelijk aan het einde van dit proces bereiken?

451
00:29:44,119 --> 00:29:48,359
Joop: Een soort van verandering eigenlijk.

452
00:29:48,359 --> 00:29:50,039
Marianne: Dus dat je dat eigenlijk al in kaart brengt.

453
00:29:51,000 --> 00:29:53,639
Marianne: En oké, welke beslissing moet ik maken aan het einde van dit proces.

454
00:29:53,720 --> 00:29:57,480
Marianne: En welke informatie heb ik daarvoor nodig?

455
00:29:57,480 --> 00:29:59,720
Marianne: Dan kan bijvoorbeeld de uitput van het algoritme kan daar één onderdeel van zijn die iets bepaalt, waar heb je natuurlijk nog veel meer voor nodig.

456
00:29:59,720 --> 00:30:07,160
Marianne: En dan misschien ook te denken, oké, wat zijn de risico's als ik het geautomatiseerd doe.

457
00:30:07,160 --> 00:30:11,799
Marianne: Als ik het gewoon overneem, wat gebeurt er dan?

458
00:30:11,799 --> 00:30:14,039
Marianne: En hoe kunnen ik dat voorkomen?

459
00:30:14,039 --> 00:30:15,960
Marianne: Wat heb ik daarvoor nodig om zo'n zo'n uitkomst kritisch te bekijken.

460
00:30:15,960 --> 00:30:21,240
Marianne: En op die manier eigenlijk heel goed vast te leggen wat die verschillende stappen zijn, welke informatie heb je in ieder geval nodig naast dat algoritme.

461
00:30:21,240 --> 00:30:29,160
Joop: Ja, precies.
468
00:30:30,839 --> 00:30:36,120
Joop: Ik denk als je daar de antwoord op heeft dat je dat je in ieder geval kan beginnen, toch?

462
00:30:29,400 --> 00:30:30,519
Marianne: Dan denk ik en ook hier denk ik het inderdaad al over nadenken, het opschrijven, het gestructureerd mee aanpakken en dat blijven op blijven reflecteren, dat dat echt de belangrijke stappen blijven.

463
00:30:36,119 --> 00:30:46,920
Marianne: Want ja, we kunnen niet alles dichttimmeren van tevoren, dat geldt voor alles, we gaan dingen veranderen.

464
00:30:47,079 --> 00:30:52,439
Marianne: Dus juist als je weet waarom je bepaalde keuzes in eerste instantie hebt gemaakt.

465
00:30:52,759 --> 00:30:56,840
Marianne: En je houdt bij wat er verandert en wat er gebeurt, dan kun je elke keer terugkijken op het proces en aanpassen waar nodig.

466
00:30:56,839 --> 00:31:02,839
Marianne: Ik denk dat dat ook een hele belangrijke stap is dat we ons veel meer aanleggen om dat gewoon heel consequent te gaan doen.

467
00:31:03,000 --> 00:31:08,519
Joop: Je gaf in het voorgesprek aan dat je op een HAVO ga je ook wat lesgeven.

468
00:31:10,759 --> 00:31:17,400
Joop: Als je nou zo'n HAVO 2 zou moeten uitleggen welke risico's er nog zijn naast biases bij profilering, hoe zou je dat zou je dat verwoorden?

469
00:31:17,640 --> 00:31:29,319
Marianne: Ja, dat is een goede vraag.

470
00:31:30,599 --> 00:31:32,839
Marianne: Zeker bij profilering denk ik dat de grootste risico's wel echt op het bias zitten, en op gewoon überhaupt fouten die het gemaakt die het maakt, dus dat het gewoon bepaalde dingen aangeeft dat het wel naar gekeken moet worden terwijl het niet zo is en andersom.

471
00:31:32,839 --> 00:31:46,439
Marianne: Ik denk bij de HAVO 2 richt ik me vooral nu op het ChatGPT.

472
00:31:47,240 --> 00:31:51,799
Marianne: En de generatieve AI-systeem, omdat dat het meeste is waar zij natuurlijk in aanraking mee komen.

473
00:31:52,440 --> 00:31:57,000
Joop: Moeten ze daar ook weten dat er bias in zit.

474
00:31:57,319 --> 00:32:00,359
Marianne: Zeker.

475
00:32:00,359 --> 00:32:01,079
Marianne: Ik denk dat dat ook wel echt belangrijk is.

476
00:32:01,400 --> 00:32:03,320
Marianne: Ik denk dat daar in eerste instantie is natuurlijk hetgene van misinformatie heel erg belangrijk.

477
00:32:03,319 --> 00:32:07,319
Marianne: En weten hoe ga ik er nou mee om, laat ik het elke keer gewoon alles voor mij doen.

478
00:32:07,319 --> 00:32:10,759
Marianne: Of ga ik het op een slimmere manier, wat we net ook hadden over kritisch denken.

479
00:32:10,920 --> 00:32:14,279
Marianne: Laat ik aan mij vragen stellen of laat ik hem begeleiden.

480
00:32:14,279 --> 00:32:17,480
Marianne: Maar ook voor hun weten dat als jij een vraag van plaatjes te maken, dat daar een grote bias in zit, zeker voor misschien ook kinderen die juist zelf vanuit de minderheidsgroep komen, om dat heel goed te weten.

481
00:32:17,480 --> 00:32:28,119
Marianne: Dat is belangrijk dat systeem hebben dat nou eenmaal omdat ze een representatie zijn van wat wij allemaal op het internet zitten te doen.

482
00:32:28,840 --> 00:32:35,240
Marianne: Is denk ik wel heel belangrijk.

483
00:32:35,880 --> 00:32:37,799
Joop: En zou je ze ook iets moeten uitleggen over als ze het toch terugbrengen naar die naar die profileringsalgoritmes, het verschil tussen correlatie en causaliteit.

484
00:32:38,599 --> 00:32:49,879
Joop: En hoe zou je dat dan doen?

485
00:32:49,960 --> 00:32:51,799
Marianne: Ja, dat is inderdaad een hele belangrijke, die goed om duidelijk te hebben.

486
00:32:51,799 --> 00:32:56,119
Marianne: Dus heel veel mensen denken, oké, als het algoritme dit zegt en dat dit erin zit, dan is dat zo, dan komt dat daardoor, terwijl al die algoritmes zijn gebaseerd op correlatie, dat betekent dat het verband houdt met elkaar.

487
00:32:56,119 --> 00:33:08,519
Marianne: Vaak voorbeelden die we gebruiken, zijn de hele duidelijke, zoals als er meer ijsjes worden verkocht in de zomer.

488
00:33:09,159 --> 00:33:16,039
Marianne: En er worden meer mensen aangevallen door haaien.

489
00:33:16,039 --> 00:33:19,000
Marianne: Als je dat zou willen voorspellen, dan zou je dat kunnen gebruiken, dat is een correlatie, namelijk meer ijsjes en meer haai-aanvallen.

490
00:33:19,159 --> 00:33:25,960
Marianne: Er zijn meer mensen op het strand.

491
00:33:25,960 --> 00:33:27,479
Marianne: Maar dat is geen causaliteit.

492
00:33:27,720 --> 00:33:29,319
Marianne: Het feit dat er meer ijsjes worden verkocht, betekent natuurlijk niet dat er meer mensen worden aangevallen door haaien.

493
00:33:29,480 --> 00:33:34,039
Joop: We all moeten stoppen met ijsje eten, want ik krijg een haai-aanval.

494
00:33:34,119 --> 00:33:36,919
Marianne: Dus meeste inderdaad, is het is inderdaad dit soort voorbeelden die heel duidelijk zijn, waarbij je heel goed kan uitleggen.

495
00:33:37,639 --> 00:33:43,079
Marianne: Oké, er is een correlatie, waarschijnlijk vanwege het feit dat het zomaar is, of dat het maar weer is, of iets dergelijks.

496
00:33:43,079 --> 00:33:47,799
Joop: Maar het wordt lastig als het heel dichtbij komt en wij daar wel causaliteit in zien, een oorzakelijk verband.

497
00:33:47,960 --> 00:33:57,400
Marianne: En daar zit ook inderdaad het grootste, maar daar zit inderdaad een gevaar.

498
00:33:57,400 --> 00:34:01,519
Marianne: Wanneer wij gaan denken van oké, maar deze groepen, daar gebeurt nou eenmaal vaak iets.

499
00:33:58,840 --> 00:34:05,519
Marianne: Dus dat is ook een oorzaak.

500
00:34:05,759 --> 00:34:07,919
Marianne: Dat jij in zo'n van zo'n groep onderdeel bent, betekent dat jij een grotere kans hebt, dan gaat het natuurlijk fout.

501
00:34:08,000 --> 00:34:13,920
Marianne: Het feit dat jij in een bepaalde groep zit, zegt niks over jouw gedrag.

502
00:34:14,239 --> 00:34:18,000
Joop: Heb je een goed voorbeeld van wel een oorzakelijk verband?

503
00:34:18,639 --> 00:34:22,000
Marianne: Kijken, het is altijd oorzaken zijn altijd heel lastig te refereren.

504
00:34:24,639 --> 00:34:28,559
Marianne: Zeker in het geval van profilering moet ik hier echt even over nadenken.

505
00:34:28,719 --> 00:34:32,079
Joop: Ja, maar het hoeft niet per se profilering te zijn.

506
00:34:32,639 --> 00:34:34,719
Joop: Ik zit zelf te denken om in het voorbeeld van jou te blijven.

507
00:34:34,719 --> 00:34:39,360
Joop: Dat er veel meer mensen.

508
00:34:39,920 --> 00:34:43,199
Joop: Dat ze verbrand zijn, ernstig verbrand zijn.

509
00:34:44,800 --> 00:34:48,000
Joop: En de zon.

510
00:34:49,518 --> 00:34:50,639
Joop: Daar zit een oorzakelijk verband in.

511
00:34:50,639 --> 00:34:52,559
Joop: Dus zonnig weer zorgt ervoor dat mensen sneller verbranden.

512
00:34:53,119 --> 00:34:57,440
Joop: En als je in een medische wereld zit of zo, dan zou je dan weet je van, oh ja, als het UV boven een bepaalde niveau komt, dan kunnen we de oorzaak en het verband kunnen we met elkaar verbinden.

513
00:34:58,000 --> 00:35:11,919
Marianne: Inderdaad, daar en wanneer ik nu terugdenken naar het voorbeeld over de ijsjes en de haai-aanvallen, als je de haai-aanvallen zou willen voorspellen, en dan kan je in ieder geval kijken naar hoeveel mensen zijn er in het water.

514
00:35:11,920 --> 00:35:22,400
Marianne: Hoeveel mensen gaan er zwemmen, of zien we dat de haaien die trekken te grond.

515
00:35:22,480 --> 00:35:27,440
Marianne: Hoeveel haaien er in het gebied?

516
00:35:27,679 --> 00:35:29,680
Marianne: Dat zijn factoren die echt direct relateren aan het feit dat er haai-aanvallen zijn, als er veel mensen in het water zijn en er zijn veel haaien, dan is dat redelijk kan je altijd weer over discussiëren, maar ook oorzakelijk voor mij dat haai-aanvallen zijn.
524
00:35:48,559 --> 00:35:55,279
Joop: Het is natuurlijk ook goed om te weten dat het best wel heel erg lastig is om maar data dan die oorzakelijk verband te halen.

517
00:35:30,800 --> 00:35:47,280
Marianne: Wanneer je vanuit data iets gaat leren, kom je altijd op correlatie.

518
00:35:57,440 --> 00:36:01,200
Marianne: Data is volledig correlatie gebaseerd.

519
00:36:01,280 --> 00:36:04,080
Marianne: Je hebt een aantal natuurlijk i't die echt causale modellen waar je met mooie grafieken kan aangeven.

520
00:36:04,079 --> 00:36:10,320
Marianne: Wat daadwerkelijk echt volgens de mens oorzakelijk verband heeft, maar het meest wat geleerd is op data, is daarin is echt correlatie gebaseerd.

521
00:36:10,320 --> 00:36:19,119
Marianne: We zien hetzelfde tegelijk voorkomen.

522
00:36:19,119 --> 00:36:21,359
Joop: Ik zat er te zoeken, ik had al gezegd van ik had dat kaartjes gemaakt omdat we zo één op één zitten met deze aflevering.

523
00:36:23,920 --> 00:36:31,039
Joop: Ik zat te zoeken, want in het vooronderzoek had ik gezien dat je ook gewerkt hebt aan een app, maar ik kan de app niet vinden.

524
00:36:31,039 --> 00:36:38,720
Joop: Klopt dat.

525
00:36:39,519 --> 00:36:41,440
Joop: Voordat je hiermee aan de slag ging.

526
00:36:42,719 --> 00:36:44,319
Marianne: Ik heb aan verschillende dingen gewerkt, dus ik zit even te zoeken waar je naar probeert te refereren.

527
00:36:44,480 --> 00:36:50,400
Marianne: Ik doe vooral veel onderzoeken naar type algoritmes.

528
00:36:50,800 --> 00:36:54,080
Marianne: Met name ook in het inspectiedomein, dat is een andere waar ik een lab op heb waar je echt daar naar zoeken, dan zitten we echt op AI.

529
00:36:54,960 --> 00:37:03,600
Joop: Nou, ik zat eigenlijk te zoeken van wat je misschien in een heel ander gebied hebt geleerd, wat je hier meeneemt in deze opdracht rondom deze afspraken.

530
00:37:03,599 --> 00:37:15,039
Marianne: Het is een beetje suf dat ik het nou niet kan vinden, even niet precies waar je daar voor te refereren, dat is natuurlijk lastig zo ontzettend veel onderzoek.

531
00:37:22,320 --> 00:37:31,039
Joop: Een wiskundig model voor brandwondherstel.

532
00:37:32,960 --> 00:37:36,160
Marianne: Daar was ik naar op zoek.

533
00:37:36,480 --> 00:37:37,680
Marianne: Dat is al een tijd geleden, vanuit mijn onderzoek in mijn studie.

534
00:37:39,039 --> 00:37:46,080
Marianne: Dat we gingen kijken, oké, wiskundige modellen kunnen iets echt natuurkundig beschrijven.

535
00:37:46,079 --> 00:37:50,639
Marianne: Daar proberen zo dicht mogelijk bij het oorzaak gevolg te blijven, het nadeel daarvan is dat die modellen ontzettend langzaam zijn, en eigenlijk is in de praktijk daarmee niet haalbaar.

536
00:37:50,639 --> 00:38:00,159
Marianne: En op die manier heb ik daarin gebeurd dat te vervangen door een AI-model, wat eigenlijk is geleerd op basis van het model van de wiskunde en of de data van de wiskunde.

537
00:38:00,159 --> 00:38:11,199
Marianne: Maar die eigenlijk probeert die oorzakelijk verbanden om te zetten naar correlatie, veel sneller kan.

538
00:38:11,199 --> 00:38:16,239
Marianne: Want de AI kan het in no-time kan die dat correlatie gebaseerd hebben doorgerekend.

539
00:38:16,480 --> 00:38:21,119
Marianne: Dat werkt echt hartstikke goed.

540
00:38:21,519 --> 00:38:23,199
Marianne: En daar zit eigenlijk die vertaling van heel erg oorzakelijk kost in dit geval heel veel tijd om te berekenen, dan moet je echt aan op een gegeven moment dagen denken, terwijl de behandeling van brandwonden, vraagt echt om heel veel heel snel handelen.

541
00:38:23,199 --> 00:38:36,959
Marianne: En dat kan met dus een AI die heel erg correlatie gebaseerd is op basis van die data kon hij dat heel erg snel, eigenlijk met bijna dezelfde nauwkeurigheid dat kon voorspellen.

542
00:38:37,279 --> 00:38:46,439
Marianne: Daar zit een mooie waardevolle stap in.

543
00:38:47,000 --> 00:38:49,959
Joop: En heb je iets van van wat je daar toen geleerd hebt, nu meegenomen in zeggen van ja, maar die afspraken.

544
00:38:49,960 --> 00:38:57,320
Joop: Die zijn eigenlijk daar wel naartoe terug te herleiden.

545
00:38:57,960 --> 00:39:00,760
Marianne: Ik denk deels heb je daar natuurlijk heel erg de stap van wat wil je bereiken, die uiteindelijk daar ook wel mee kan.

546
00:39:01,320 --> 00:39:07,159
Marianne: Waarvoor gebruik je die AI.

547
00:39:07,239 --> 00:39:09,240
Marianne: En ik denk dat daar juist heel erg die waardevolle stap is.

548
00:39:09,559 --> 00:39:12,440
Marianne: tussen wat is de oorzakelijk aan de hand.

549
00:39:12,440 --> 00:39:15,079
Marianne: En wat we proberen zo nauwkeurig mogelijk te beschrijven.

550
00:39:15,079 --> 00:39:17,319
Marianne: En heel goed begrip hebben van hoe zit dat proces eruit in de praktijk.

551
00:39:17,320 --> 00:39:21,559
Marianne: En dan kijken naar wat kan AI hier voor een rol spelen.

552
00:39:21,559 --> 00:39:24,839
Marianne: En ik denk dat dat ook een vraag is die we onszelf continu in het ontwikkelen van algoritmes bij de overheid moeten stellen, is wat willen we bereiken?

553
00:39:25,480 --> 00:39:32,839
Marianne: Hoe goed begrijpen we dit proces zelf?

554
00:39:32,840 --> 00:39:35,079
Marianne: Wat we proberen te modelleren en welke rol kan AI hier in spelen.

555
00:39:35,559 --> 00:39:40,039
Marianne: Het hoeft niet altijd alles over te nemen.

556
00:39:40,039 --> 00:39:41,879
Joop: Helemaal niet.

557
00:39:41,880 --> 00:39:42,519
Marianne: Juist wil je graag een goede samenwerking, een goede combinatie hebben.

558
00:39:43,000 --> 00:39:46,279
Marianne: Dus ik denk dat die vraag daarin ook heel erg belangrijk is om jezelf te blijven stellen, welke rol geven we AI of een algoritme.

559
00:39:46,280 --> 00:39:53,239
Marianne: Want die NTA is juist ook erg bedoelt voor algoritmes die niet AI zijn.

560
00:39:53,239 --> 00:39:58,119
Marianne: Dat wel goed om even te benadrukken.

561
00:39:58,360 --> 00:40:00,039
Marianne: Wanneer we het veel over AI hebben dat juist heel veel simpele door mensen opgestelde regels.

562
00:40:00,039 --> 00:40:05,320
Marianne: Dat ook daar heel erg dat risico in zit en dat we daar ook echt proberen op in te zetten, dus echt als aanvulling op de AI-actelijke.

563
00:40:05,320 --> 00:40:14,280
Marianne: Dat dat daar ontzettend belangrijk is.

564
00:40:14,679 --> 00:40:16,199
Marianne: Die vraag welke rol geef je het hoe ga je daarmee om.

565
00:40:16,199 --> 00:40:19,160
Joop: Is er iets waar jij rondom deze technologie, even persoonlijk even los van deze NTA.

566
00:40:20,760 --> 00:40:27,719
Joop: Is er iets waar je van wakker ligt rondom AI?

567
00:40:27,719 --> 00:40:31,320
Marianne: Ja, ik bedoel, het is een hele goede ontwikkeling.

568
00:40:32,599 --> 00:40:35,400
Marianne: Hetgeen waar ik het meeste van wakker ligt, eigenlijk is hoe gaan wij er als mensen mee om.

569
00:40:35,480 --> 00:40:40,039
Marianne: Dat je daar die vraag van hoe zorgen we dat iedereen eigenlijk weet wat deze technologie is, hoe je er op een goede manier mee omgaat, zorgen dat we daar goede duidelijke regels over krijgen.

570
00:40:40,360 --> 00:40:49,960
Marianne: De duidelijke voorbeelden vind ik nu bijvoorbeeld al wanneer je naar agents gaat en iedereen dat maar toegang geeft tot zijn bankgegevens en dergelijke.

571
00:40:50,039 --> 00:40:56,519
Marianne: Dan denk ik, ja, of hoe vaak je toch ziet dat iemand nou ja, rectoren quotes van Einstein erop zetten die niet waar zijn, advocaten die.

572
00:40:56,599 --> 00:41:05,639
Marianne: Dus ik denk dat daar heel erg het risico zitten, natuurlijk wat veel meer dingen in onze maatschappij gehad, auto's en dingen.

573
00:41:09,159 --> 00:41:16,680
Marianne: De technologie op zich is één ding.

574
00:41:16,679 --> 00:41:18,920
Marianne: Maar die kunnen het steeds meer verbeteren, steeds veiliger maken.
583
00:41:21,960 --> 00:41:28,039
Marianne: Dat hebben we ook met auto's gedaan, veiligheidsgordels, airbags, antislipsystemen en dergelijke.
 575
00:41:18,920 --> 00:41:21,959
Marianne: Dus dat gaan we met AI natuurlijk en het algoritmes ook aan het doen, proberen we steeds veiliger te maken.
 576
00:41:28,039 --> 00:41:32,759
Marianne: De technologie ontwikkelen we door.
 577
00:41:32,760 --> 00:41:34,680
Marianne: Ja, de mens, dat is eigenlijk de onzekere factor.
 578
00:41:34,679 --> 00:41:37,719
Marianne: Daar heb je minder invloed op.
 579
00:41:37,719 --> 00:41:38,920
Marianne: En juist zorgen dat die er op een goede manier mee om kan gaan.
 580
00:41:38,920 --> 00:41:41,960
Marianne: Als het ware een AI-rijbewijs, om weten voor maar even door te trekken.
 581
00:41:42,679 --> 00:41:47,320
Marianne: Ja, ik zie dat daar nu het meeste fout in, eigenlijk dat mensen technologie gebruiken, die veel verder is dan zij eigenlijk begrijpen, niet weten hoe ze er goed mee om moeten gaan, wat de risico's ervan zijn.
 582
00:41:47,639 --> 00:42:01,559
Marianne: Ja, daar gebeuren dan denk ik het snelste de grootste ongelukken.
 583
00:42:02,039 --> 00:42:05,720
Joop Snijder: En hopelijk gaat dan die NTA daar straks bij helpen.
 584
00:42:06,519 --> 00:42:10,199
Marianne: Ik ga in ieder geval een aantal organisaties hopelijk helpen om daar wel meer structuur in hebben.
 585
00:42:10,199 --> 00:42:14,279
Joop Snijder: Ja toch?
 586
00:42:14,279 --> 00:42:14,919
Joop Snijder: En als laatste vragen, want vaak worden dit soort dingen gezien.
 587
00:42:15,159 --> 00:42:18,039
Joop Snijder: Je noemde ook de AI-act, maar zeker ook raamwerken of dat soort zaken als rem op innovatie.
 588
00:42:18,199 --> 00:42:25,159
Joop Snijder: Waarom gaat de NTA innovatie zo direct juist ondersteunen of stimuleren?
 589
00:42:25,480 --> 00:42:31,640
Marianne: Ik vind inderdaad regels en richtlijnen zijn niet per se een rem voor innovatie.
 590
00:42:31,880 --> 00:42:36,840
Marianne: Ten eerste, je wil dat innovatie waardevol is.
 591
00:42:37,159 --> 00:42:39,879
Marianne: En je wil dat innovatie veilig is, kan heel veel innoveren, maar als het vervolgens onze maatschappij alleen maar pijn doet, is het dan echt daadwerkelijk innovatie.
 592
00:42:39,880 --> 00:42:48,440
Marianne: Dus dat is een term die je daarover kan richten.
 593
00:42:48,440 --> 00:42:50,279
Marianne: En ook denk ik, je wordt gedwongen, ook om deels creatiever te zijn door regel.
 594
00:42:50,360 --> 00:42:54,519
Marianne: Je wil iets verantwoorden, en zitten randen aan en we hebben als mensen ook randen nodig om creatief te kunnen zijn.
 595
00:42:54,760 --> 00:43:00,439
Marianne: Dus ik denk dat je daar ook al de fouten gaat door te zeggen dat regels innovatie stoppen.
 596
00:43:00,760 --> 00:43:05,160
Marianne: Ik bedoel, juist als je een keer zegt van het kan niet zwaarder dan dit, dan ga je innovatieve oplossingen bedenken.
 597
00:43:05,320 --> 00:43:10,599
Marianne: Dat zie je ook in de algoritmes, wanneer je bijvoorbeeld kijkt naar het kleiner maken van modellen.
 598
00:43:10,920 --> 00:43:15,239
Marianne: Dat kan alles maar groter en groter en groter en groter.
 599
00:43:15,400 --> 00:43:17,719
Marianne: Maar juist wanneer je zegt, hey, wacht eens even, we willen niet alleen maar groter.
 600
00:43:17,720 --> 00:43:21,880
Marianne: Wat dat is te veel energie, of hebben we de data niet.
 601
00:43:21,880 --> 00:43:24,519
Marianne: Laten we nou eens gaan nadenken hoe we dit klein kunnen.
 602
00:43:24,679 --> 00:43:27,159
Marianne: Dan komen de nieuwe innovaties in de technologie die dat mogelijk maken.
 603
00:43:27,159 --> 00:43:31,120
Marianne: En voor de rest denk ik echt: we hebben gewoon regels nodig.
 604
00:43:28,920 --> 00:43:34,799
Marianne: Want innovatie moet ook de goede kant op gaan.
 605
00:43:34,880 --> 00:43:37,360
Marianne: En dat kun je juist heel erg stimuleren door de juiste regels en daar zit dan natuurlijk de vraag.
 606
00:43:37,360 --> 00:43:44,480
Marianne: Het is niet zozeer dat alle regels zijn ook genoeg regels die innovatie wel kunnen stoppen.
 607
00:43:45,360 --> 00:43:49,119
Marianne: Het gaat om de juiste kader stellen die zorgen dat innovatie die we willen hebben, dat die waardevol is, dat hij echt iets bijdraagt en iets voor ons doet.
 608
00:43:49,280 --> 00:43:57,280
Marianne: En de regels die niet in de hand werken.
 609
00:43:57,840 --> 00:44:01,280
Marianne: Daar wil je dan vanaf.
 610
00:44:01,519 --> 00:44:03,120
Marianne: Maar het feit dat regels aanwezig zijn iets wat goed is, denk ik en ook wat gewoon heel erg belangrijk is voor onze maatschappij.
 611
00:44:03,199 --> 00:44:08,639
Joop Snijder: En het leuke is de luisteraars kunnen nu gewoon meewerken aan de afspraken in ieder geval.
 612
00:44:08,800 --> 00:44:13,679
Joop Snijder: Het zijn dan geen regels, maar afspraken.
 613
00:44:13,760 --> 00:44:16,240
Joop Snijder: Dus wil je nog één keer herhalen waar ze terecht kunnen, waar jullie nou op zoek zijn.
 614
00:44:16,239 --> 00:44:22,000
Marianne: Ja, dus bij de NEN, dat is ons Nederlandse normalisatieinstituut.
 615
00:44:22,000 --> 00:44:26,320
Marianne: Daar staat de NTA rondom profilering algoritmes bij de overheid.
 616
00:44:26,320 --> 00:44:31,360
Marianne: Daar kun je inloggen.
 617
00:44:31,360 --> 00:44:32,719
Marianne: En dan kun je op de tekst zelf je commentaar geven, eigenlijk op alle aspecten ervan.
 618
00:44:32,719 --> 00:44:37,599
Marianne: Er zijn er dingen die je niet duidelijk vindt.
 619
00:44:37,599 --> 00:44:39,440
Marianne: Denk je nou, dit vind ik dit in de praktijk ontzettend moeilijk voor mij om uit te voeren of ik ben het hier niet mee eens.
 620
00:44:39,440 --> 00:44:45,679
Marianne: En dan graag altijd met een suggestie.
 621
00:44:45,679 --> 00:44:47,680
Marianne: Wanneer we alleen commentaar krijgen als ik ben het hier niet mee eens.
 622
00:44:48,159 --> 00:44:50,880
Marianne: Ja, dat is voor ons heel erg moeilijk.
 623
00:44:50,880 --> 00:44:52,960
Marianne: Dus het liefst altijd zo concreet mogelijk.
 624
00:44:52,960 --> 00:44:54,799
Marianne: Wat vind je niet duidelijk?
 625
00:44:54,800 --> 00:44:56,559
Marianne: Wat zou je graag anders zien?
 626
00:44:56,559 --> 00:44:58,960
Joop Snijder: Je hebt de invloed op, toch?
 627
00:44:59,440 --> 00:45:00,719
Joop Snijder: Er wordt heel snel altijd geklaagd.
 628
00:45:01,519 --> 00:45:03,840
Joop Snijder: Je wil niet weten hoeveel er geklaagd wordt op de AI-act.
 629
00:45:04,079 --> 00:45:06,799
Joop Snijder: Op deze set afspraken, heb je gewoon invloed als luisteraar.
 630
00:45:06,800 --> 00:45:11,200
Marianne: Zeker, dus dat is heel mooi eraan.
 631
00:45:11,199 --> 00:45:12,799
Marianne: Ik denk wel het hele proces draait echt al om verschillende organisaties bij elkaar hebben, verschillende mensen van verschillende achtergronden bij elkaar hebben.
 632
00:45:12,800 --> 00:45:21,359
Marianne: En gezamenlijk toewerken naar een begrip.
 633
00:45:21,360 --> 00:45:24,159
Marianne: Wat betekent non-discriminatie bij algoritmes.
 634
00:45:24,159 --> 00:45:27,119
Marianne: En hoe kunnen we dat structureren.
 635
00:45:27,119 --> 00:45:29,119
Marianne: Ja, nu gaan we ook echt naar iedereen toe.
 636
00:45:29,119 --> 00:45:31,279
Marianne: En zeggen oké, help ons, wij hebben een start gemaakt, wij hebben de eerste basis neergezet.
 637
00:45:31,280 --> 00:45:36,000
Marianne: Help ons nu met het verder aanscherpen, dit in de praktijk gaan brengen.
 638
00:45:36,320 --> 00:45:40,319
Marianne: We hopen op termijn ook, er is interesse ook vanuit meer Europees en internationaal niveau, wat we hier in Nederland aan het doen zijn.
 639
00:45:40,639 --> 00:45:46,799
Marianne: Dus ja, mocht dat hier goed gaan uitpakken in de praktijk, moeten we het nog gaan zien, dan hoop ik ook echt dat we hiermee bredere impact kunnen maken naast alleen in Nederland.
 640
00:45:46,800 --> 00:45:55,199
Joop Snijder: Heel mooi.
 641
00:45:55,199 --> 00:45:55,839
Joop Snijder: Het is eigenlijk de oproep is, je zet hem ze direct uit deze podcast en dan download je meteen deze set van afspraken.
 642
00:45:55,840 --> 00:46:02,880
Marianne: En dan vooral denk ik daarna.
 643
00:46:03,760 --> 00:46:05,600
Marianne: Blijf goed nadenken wanneer je met AI aan de slag gaat, zowel wanneer je het ontwikkelt als wanneer je het gebruikt.
 644
00:46:06,079 --> 00:46:11,440
Marianne: Wat doe ik met deze uitkomsten?
654
00:46:13,599 --> 00:46:17,120
Marianne: Wat stop ik in en welke informatie heb ik nodig om een goede keuze te maken.

645
00:46:11,920 --> 00:46:13,599
Joop Snijder: Superfijn dat je dit wilde komen vertellen.

646
00:46:17,280 --> 00:46:19,759
Joop Snijder: Dankjewel daarvoor.

647
00:46:20,239 --> 00:46:21,440
Marianne: Ja, leuk om hier te zijn.

648
00:46:21,440 --> 00:46:23,200
Joop Snijder: Leuk dat jullie weer luisterden naar deze aflevering, zoals gezegd, je hebt invloed, dus oefen die uit, zou ik zeggen.

649
00:46:24,559 --> 00:46:32,719
Joop Snijder: En vergeet je ook niet te abonneren via je favoriete podcast app, dan mis je geen aflevering tot de volgende keer.

650
00:46:32,719 --> 00:46:38,720
Joop Snijder: En vergeet je ook niet te abonneren via je favoriete podcast app, dan mis je geen aflevering tot de volgende keer.

 



00:00:13,359 --> 00:00:17,440
Hiervoor bestaan momenteel nog geen nationale of Europese normen.

4
00:00:18,760 --> 00:00:21,480
Je gaat luisteren naar Marianne Witte Schaaphok.

5
00:00:22,039 --> 00:00:26,679
Zij is vanuit TNO betrokken bij het opstellen van deze technische afspraak

6
00:00:27,000 --> 00:00:29,000
en vertelt hoe jij mee kunt helpen.

7
00:00:30,600 --> 00:00:34,120
Joop: Leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

8
00:00:34,120 --> 00:00:35,560
Joop: Vandaag met mij alleen.

9
00:00:35,640 --> 00:00:38,120
Joop: Niels, die heeft helaas andere verplichtingen.

00:00:38,120 --> 00:00:41,240
Joop: Mijn naam is Joop Snijder, CTO van jou bij Info Support.
 10
00:00:38,120 --> 00:00:41,240
Joop: En vandaag in de studio zijn we heel blij mee.
 11
00:00:41,240 --> 00:00:44,920
Joop: Marianne Witte Schaaphok.
 12
00:00:44,920 --> 00:00:46,839
Joop: Dankjewel dat je hier wilde komen.
 13
00:00:46,839 --> 00:00:48,999
Joop: Zou je je voor de luisteraar eerst even willen voorstellen?
 14
00:00:49,880 --> 00:00:52,679
Marianne: Ja, natuurlijk.
 15
00:00:52,679 --> 00:00:53,800
Marianne: Ik ben Marianne.
 16
00:00:53,879 --> 00:00:55,080
Marianne: Ik werk bij TNO, onderzoeksinstituut.
 17
00:00:55,080 --> 00:00:58,119
Marianne: En ik werk er als Consultant Responsible AI.
 18
00:00:58,119 --> 00:01:01,079
Joop: Ja, en voordat we het zo direct hebben over de NTA, de Nederlandse technische afspraak.
 19
00:01:01,480 --> 00:01:07,960
Marianne: Afspraak.
 20
00:01:07,960 --> 00:01:08,599
Joop: Afspraak.
 21
00:01:08,600 --> 00:01:09,000
Joop: Ik heb het je net gevraagd, dan zeg ik het nog verkeerd.
 22
00:01:10,120 --> 00:01:12,920
Joop: Maar voordat we beginnen, je hebt het over Responsible AI.
 23
00:01:13,560 --> 00:01:17,000
Joop: Wat is dat eigenlijk?
 24
00:01:17,000 --> 00:01:18,280
Marianne: Dat is een hele goede vraag.
 25
00:01:18,439 --> 00:01:19,960
Marianne: Responsible AI, zoals ik het zie, is eigenlijk een combinatie tussen zowel een goede techniek hebben die verantwoord omgaat met de data, die goede uitkomsten geeft, robuust is en veilig.
 26
00:01:19,960 --> 00:01:30,759
Marianne: Als wel een goede aanpak om als mens ermee om te gaan.
 27
00:01:30,920 --> 00:01:34,519
Marianne: Dat we ook op de juiste manier gebruik maken van een technologie.
 28
00:01:34,679 --> 00:01:37,640
Marianne: Een technologie kan wel veilig zijn, maar ja, heel vaak gaat het toch bij de mens ook wel fout.
 29
00:01:37,799 --> 00:01:43,159
Joop: En kan je vertellen wat die Nederlandse technische afspraak is?
 30
00:01:43,719 --> 00:01:48,759
Marianne: Ja, dus een Nederlandse technische afspraak is eigenlijk een vorm van een standaard.
 31
00:01:48,760 --> 00:01:52,519
Marianne: Een standaard is iets wat we uitgeven, dat kan bijvoorbeeld zijn voor hoe een auto eruit ziet, hoe een veiligheidssysteem moet zijn, de aansluiting van je USB-C kabel.
 32
00:01:52,680 --> 00:02:01,799
Marianne: En dat doen we nu eigenlijk in een lichte vorm voor profileringsalgoritmes bij de overheid.
 33
00:02:01,799 --> 00:02:07,159
Marianne: Juist daar richtlijnen op te stellen en eisen en requirements, als we dat noemen, om alle organisaties hulp te geven.
 34
00:02:07,560 --> 00:02:15,479
Marianne: Wat moet je nou doen wanneer je zo'n systeem gaat ontwikkelen?
 35
00:02:15,799 --> 00:02:18,280
Marianne: En wat kun je testen eraan?
 36
00:02:18,280 --> 00:02:19,719
Joop: Ja, en jij bent betrokken bij het opstellen van deze afspraak.
 37
00:02:19,719 --> 00:02:22,840
Marianne: Ja, inderdaad.
 38
00:02:22,840 --> 00:02:23,799
Marianne: In eerste instantie als expert en ook de laatste tweede helft als projectleider.
 39
00:02:23,879 --> 00:02:28,039
Joop: En welke overheidsorganisatie brengt dit zo direct uit.
 40
00:02:28,039 --> 00:02:32,279
Marianne: Dus het wordt uitgebracht vanuit de NEN.
 41
00:02:32,439 --> 00:02:34,439
Marianne: Dat is ons normalisatieinstituut binnen Nederland.
 42
00:02:34,439 --> 00:02:37,159
Marianne: Die beheert eigenlijk alle standaarden en alle normen.
 43
00:02:37,159 --> 00:02:40,519
Marianne: De standaard is afgekocht door de ministeries.
 44
00:02:41,000 --> 00:02:44,199
Marianne: Waardoor die ook vrij beschikbaar wordt voor iedereen.
 45
00:02:44,199 --> 00:02:47,319
Joop: Dus dan kan iedereen gewoon gebruik van maken.
 46
00:02:48,120 --> 00:02:50,359
Marianne: Normaal moet je dat betalen voor een standaard om die te kunnen gebruiken en dat hoeft in dit geval niet.
 47
00:02:51,639 --> 00:02:55,880
Marianne: Dat is al betaald.
 48
00:02:55,879 --> 00:02:56,759
Joop: En wat is de reden daarvoor dan?
 49
00:02:57,000 --> 00:02:59,000
Marianne: De reden daarvoor, en dat is ook de aanpak waarom we het eigenlijk doen.
 50
00:02:59,000 --> 00:03:01,479
Marianne: De standaard ontwikkelen, is de grote vraag en de grote noodzaak die we zien bij de overheid, binnen partijen zelf, om op een verantwoorde manier aan de slag te gaan met deze algoritmes.
 51
00:03:01,479 --> 00:03:11,239
Marianne: En vanuit daar is ook gezegd dat we willen dat alle organisaties binnen Nederland, alle overhidspartijen, aan de slag kunnen met deze standaard.
 52
00:03:11,240 --> 00:03:18,520
Marianne: En niet eerst zelf intern hoeven te gaan zorgen dat ze geld vrijmaken om hiervoor te betalen.
 53
00:03:18,520 --> 00:03:23,640
Joop: Wat zijn de huidige standaarden dekken dan niet af?
 54
00:03:24,439 --> 00:03:28,039
Joop: Wat jullie nu van plan zijn.
 55
00:03:28,039 --> 00:03:29,639
Marianne: Dus qua standaarden is er eigenlijk nog weinig op dit moment.
 56
00:03:29,879 --> 00:03:33,000
Marianne: Je ziet vanuit het bekende is de AI Act.
 57
00:03:33,000 --> 00:03:36,120
Marianne: Die gaat echt over AI.
 58
00:03:36,120 --> 00:03:37,640
Marianne: En daar worden standaarden nu voor ontwikkeld.
 59
00:03:37,640 --> 00:03:40,119
Marianne: Maar op dit niveau zijn eigenlijk nog geen standaarden afgesproken.
 60
00:03:40,759 --> 00:03:44,519
Marianne: Voor hoe we dit ontwikkelen, wat we gaan doen.
 61
00:03:44,759 --> 00:03:46,680
Marianne: Dus je ziet een heleboel richtlijnen, kaders, handreikingen.
 62
00:03:46,680 --> 00:03:50,680
Marianne: Die vliegen je om de oren, zowel vanuit de organisatie zelf als vanuit de wetenschap, de onderzoek.
 63
00:03:50,680 --> 00:03:56,200
Marianne: Maar juist echt een afspraak, daarom heet het ook een Nederlands technisch afspraak, die we proberen te maken onderling van hoe gaan wij dit nou allemaal doen.
 64
00:03:56,199 --> 00:04:03,640
Marianne: En daar moet ik zeggen, een technische afspraak is niet verplicht, een standaard überhaupt niet.
 65
00:04:03,800 --> 00:04:08,520
Marianne: Dus we kunnen niet van tevoren verplichten dat iedereen deze volgt.
 66
00:04:08,520 --> 00:04:12,360
Marianne: Maar het idee is wel dat het in ieder geval als het goed werkt in de praktijk.
 67
00:04:12,359 --> 00:04:15,960
Marianne: Een maatschappelijke of morele verplichting wordt om een dergelijke standaard te gaan volgen.
 68
00:04:15,960 --> 00:04:21,800
Joop: En is die dan die morele afspraken.
 69
00:04:21,800 --> 00:04:24,599
Joop: Is dat vooral de Rijksoverheid of vind je dat dat voor alle bedrijven dan zou moeten gelden?
 70
00:04:24,599 --> 00:04:29,639
Marianne: In eerste instantie is natuurlijk voor Rijksoverheid, maar ook uitvoeringsorganisaties, gemeentes, dus iedereen die voor publieke sector met dit soort systemen aan de slag gaat.
 71
00:04:29,879 --> 00:04:38,440
Marianne: Natuurlijk, kijk, de inzichten die erin zitten, wanneer het gaat over Responsible AI ontwikkelen.
 72
00:04:38,439 --> 00:04:43,239
Marianne: Die beperken zich natuurlijk niet tot alleen de overheid.
 73
00:04:43,240 --> 00:04:46,040
Marianne: Dus ook andere partijen die zich bezighouden met profilering.
 74
00:04:46,280 --> 00:04:49,319
Marianne: Want daar gaat het over profilering en met name ook hoe hou je daarin goed rekening met non-discriminatie.
 75
00:04:49,319 --> 00:04:54,839
Marianne: We pakken ook niet alle breedte van Responsible AI.
 76
00:04:55,079 --> 00:04:58,920
Marianne: Ja, die is ook relevant voor partijen die niet zich kwalificeren als overheid.
 77
00:04:58,920 --> 00:05:04,360
Joop: Kan je een voorbeeld geven van zo'n profileringsalgoritme?
 78
00:05:04,360 --> 00:05:07,800
Marianne: Dus de bekendste voorbeelden eigenlijk die we zien in de praktijk, zijn die voor fraudebestrijding.
 79
00:05:08,200 --> 00:05:13,800
Marianne: Het gaat over het selecteren van welke personen ga ik inspecteren om te kijken of zij zich netjes aan de regels houden.
 80
00:05:14,040 --> 00:05:20,519
Marianne: Dat kan zijn voor personen onderling.
 81
00:05:20,840 --> 00:05:22,920
Marianne: De bekendste voorbeelden, die kennen we allemaal wel.
 82
00:05:23,080 --> 00:05:24,999
Marianne: De toeslagenaffaire.
 83
00:05:25,000 --> 00:05:26,839
Marianne: Dingen voor uitkeringen controleren.
85
00:05:29,920 --> 00:05:32,240
Marianne: Maar dat kan ook juist zijn voor bedrijven.

84
00:05:27,480 --> 00:05:29,920
Marianne: Houden bedrijven zich aan de regels, bijvoorbeeld door de arbeidsinspectie.

85
00:05:28,920 --> 00:05:36,079
Marianne: Onderwijs.

86
00:05:36,560 --> 00:05:37,680
Marianne: En het kan ook op een positieve manier.

87
00:05:37,680 --> 00:05:39,519
Joop Snijder: Ja, daar was ik vooral benieuwd naar.

88
00:05:39,519 --> 00:05:41,280
Marianne: Oké, stel, hoe kunnen we mensen helpen?

89
00:05:41,759 --> 00:05:43,760
Marianne: Hoe kunnen we de mensen bereiken die misschien recht hebben op een uitkering?

90
00:05:43,759 --> 00:05:47,200
Marianne: Of hoe kunnen we mensen helpen die recht hebben op een andere voorziening, die we nu nog niet in zicht hebben?

91
00:05:47,199 --> 00:05:52,640
Marianne: Dus ook daar kun je die profilering juist op een positieve manier gebruiken om bepaalde groepen die nu niet goed in kaart zijn, om die beter te kunnen benaderen.

92
00:05:52,879 --> 00:06:01,599
Joop Snijder: Welke afspraken komen daar dan nu in die nu nog niet zijn of nu niet zijn geformaliseerd?

93
00:06:01,680 --> 00:06:08,000
Marianne: We kijken vooral heel erg dus naar de opbouw in deze NTA van het begin tot het einde.

94
00:06:08,319 --> 00:06:14,000
Marianne: Dus we beginnen eigenlijk echt met wat is nou het probleem wat je probeert op te lossen.

95
00:06:14,000 --> 00:06:18,160
Marianne: Waar zit het knelpunt?

96
00:06:19,279 --> 00:06:20,639
Marianne: Is dat een tekort aan middelen?

97
00:06:20,639 --> 00:06:21,920
Marianne: Dus misschien te weinig mensen om te controleren.

98
00:06:21,920 --> 00:06:24,800
Marianne: Wat zijn de effecten van dat probleem?

99
00:06:26,319 --> 00:06:28,079
Marianne: En wat zijn de mogelijkheden om dat op te lossen?

100
00:06:28,079 --> 00:06:30,240
Marianne: Is een algoritme één onderwerp, een mogelijkheid die je daarin wil gaan onderzoeken.

101
00:06:30,480 --> 00:06:35,839
Marianne: Want dat is eigenlijk de eerste vraag die met elkaar beantwoord.

102
00:06:36,079 --> 00:06:38,239
Marianne: Waarom wil ik eigenlijk een algoritme?

103
00:06:38,480 --> 00:06:40,320
Marianne: Waarom ga ik daar naar kijken?

104
00:06:40,319 --> 00:06:41,600
Marianne: Is er niet iets wat misschien veel makkelijker is, of wat ik op een andere manier kan oplossen.

105
00:06:41,840 --> 00:06:46,480
Marianne: En vanaf daar eigenlijk gestructureerd naar hoe bouw ik dat op?

106
00:06:46,480 --> 00:06:49,760
Marianne: Hoe ga ik kijken naar mijn data?

107
00:06:49,759 --> 00:06:51,520
Marianne: Hoe kijk ik of daar mogelijk al bepaalde groepen veel vaker in voorkomen.

108
00:06:51,519 --> 00:06:56,480
Marianne: Wat misschien eigenlijk helemaal niet representatief is voor onze samenleving.

109
00:06:56,480 --> 00:07:00,160
Marianne: Dat kan bijvoorbeeld zijn door hoe het eerder al is verzameld.

110
00:07:00,560 --> 00:07:04,160
Joop Snijder: Als we die positieve variant nemen.

111
00:07:04,800 --> 00:07:08,639
Joop Snijder: Hoe zou je daar dan naar kijken met deze gedachten?

112
00:07:08,639 --> 00:07:13,040
Marianne: Het probleem is daar misschien dat je bepaalde groepen niet kan bereiken.

113
00:07:14,319 --> 00:07:18,319
Marianne: En dan wil je eens kijken, hoe kunnen we die gaan bereiken.

114
00:07:18,399 --> 00:07:21,439
Marianne: Als dat het probleem is dat je oplossen.

115
00:07:21,840 --> 00:07:23,199
Marianne: Kun je kijken, oké, hebben we genoeg data, genoeg gegevens waarop we een algoritme kunnen bouwen.

116
00:07:23,279 --> 00:07:27,520
Marianne: Of genoeg menselijke kennis.

117
00:07:27,519 --> 00:07:29,280
Marianne: Want deze gaat ook juist over algoritmes die door mensen worden opgesteld.

118
00:07:29,279 --> 00:07:33,759
Marianne: Dan moet je daarna dus ook gaan kijken naar data.

119
00:07:34,560 --> 00:07:36,640
Marianne: In dit geval gaat het misschien om een groep die nog niet zo goed kan bereiken.

120
00:07:36,639 --> 00:07:39,680
Marianne: Dus heb ik daar wel genoeg kennis over, weet ik daar genoeg over om een algoritme over op te stellen.

121
00:07:39,680 --> 00:07:44,800
Marianne: En wat voor kenmerken ga ik dan gebruiken?

122
00:07:44,800 --> 00:07:48,239
Marianne: Dat bepaalt of iemand recht heeft op bijvoorbeeld zijn uitkering.

123
00:07:48,240 --> 00:07:52,000
Joop Snijder: Nou, op zich, ik denk dat die wel vast liggen, neem ik aan, wettelijk, toch?

124
00:07:52,319 --> 00:07:56,879
Joop Snijder: Of je wel of geen recht hebben, maar ik kan me dan voorstellen dat, want je hebt het over bias.

125
00:07:56,879 --> 00:08:02,159
Joop Snijder: Hoe zou biases dan in zo'n geval erin kunnen sluiten?

126
00:08:02,159 --> 00:08:06,160
Marianne: In dit geval bijvoorbeeld doordat je bepaalde groepen helemaal niet in kaart hebt.

127
00:08:06,480 --> 00:08:10,800
Marianne: Stel, ik ga dan, ik heb een algoritme wat ik baseer op kennis die ik heb, op basis van misschien wat inzichten uit de data die ik heb.

128
00:08:10,960 --> 00:08:17,759
Marianne: En dan zie ik oké, deze groep bijvoorbeeld ouderen.

129
00:08:17,759 --> 00:08:22,239
Marianne: Vragen het vaak niet aan, omdat ze er wel recht op hebben.

130
00:08:24,159 --> 00:08:27,199
Marianne: Dan kan ze een algoritme heel erg gaan sturen op die groep.

131
00:08:27,439 --> 00:08:30,080
Marianne: Misschien is er ook wel een bepaalde groep van jongeren.

132
00:08:30,399 --> 00:08:33,039
Marianne: Die ook heel erg veel recht heeft op die uitkering, maar die je mist.

133
00:08:33,360 --> 00:08:37,198
Marianne: Omdat je daar ofwel de kennis niet over hebt dat ze het niet aanvragen, ofwel niet in je data zit.

134
00:08:37,198 --> 00:08:42,078
Marianne: Dan zal je dus zien dat ze een algoritme heel erg gaat richten op die groep ouderen en die heel veel hulpprofilering gaan bieden.

135
00:08:42,240 --> 00:08:47,760
Marianne: Wel goed is, want ze hebben daar waarschijnlijk recht op.

136
00:08:47,759 --> 00:08:50,320
Marianne: Maar die andere groep die misschien net zoveel recht daarop heeft, die hou je dan buiten beschouwing.

137
00:08:50,560 --> 00:08:55,439
Marianne: Dus die breng je eigenlijk niet die hulp die je aan andere groepen wel brengt.

138
00:08:55,519 --> 00:08:59,680
Joop Snijder: En hoe kom je erachter dat je dat je baas in je data hebt zitten?

139
00:09:00,639 --> 00:09:05,680
Marianne: Dat is inderdaad een van de dingen die we dus ook in deze Nederlands tegen afspraken uitleggen.

140
00:09:06,000 --> 00:09:10,480
Marianne: Hoe kun je dit meten?

141
00:09:10,480 --> 00:09:11,920
Marianne: Dus dan gaan we echt heel erg aan de slag van oké, welke, je hebt informatie nodig over die groepen.

142
00:09:12,079 --> 00:09:16,400
Marianne: Dus in eerste instantie moet je al gaan nadenken over welke groepen zit een mogelijke bias op.

143
00:09:16,399 --> 00:09:22,159
Marianne: Is dat misschien inderdaad op basis van leeftijd?

144
00:09:22,159 --> 00:09:24,559
Marianne: Is dat op basis van geslacht?

145
00:09:24,559 --> 00:09:26,239
Marianne: Is dat op basis van misschien ras?

146
00:09:26,240 --> 00:09:28,480
Marianne: Wat we vaak niet willen.

147
00:09:28,480 --> 00:09:30,080
Marianne: Dus welke wil je echt niet.

148
00:09:30,319 --> 00:09:31,680
Joop Snijder: En dan begin je vanuit jezelf in eerst instantie te bedenken.

149
00:09:31,839 --> 00:09:35,920
Joop Snijder: Of begin je meteen bij de data?

150
00:09:35,920 --> 00:09:38,080
Marianne: Nee, je begint vaak echt met het kijken welke groepen zijn relevant.

151
00:09:38,080 --> 00:09:41,279
Marianne: En dat kan je dus ook wel doen aan het kijken wat is de impact van het algoritme.

152
00:09:41,279 --> 00:09:44,879
Marianne: Welke groepen kennen we daar?

153
00:09:44,879 --> 00:09:46,720
Marianne: En ook met die groepen zelf in gesprek gaan.

154
00:09:46,720 --> 00:09:48,960
Marianne: Van wat zijn dingen die mogelijk onderscheid kunnen opleveren?

155
00:09:48,960 --> 00:09:52,000
Marianne: Dus een mogelijke bias.

156
00:09:52,000 --> 00:09:53,519
Marianne: Die we niet willen.

157
00:09:53,519 --> 00:09:54,639
Marianne: Dus dat is niet iets wat je zelf moet doen.

158
00:09:54,639 --> 00:09:56,240
Marianne: Want ja, het beeld van mensen is ook heel erg beeld.

159
00:09:56,240 --> 00:09:58,320
Joop Snijder: Ja, toch?

160
00:09:58,319 --> 00:09:58,879
Marianne: Het is juist heel erg de vraag hier om met andere mensen te gaan kijken.

161
00:09:59,039 --> 00:10:03,439
Marianne: Groepen die geraakt worden door een dergelijk systeem.

162
00:10:03,440 --> 00:10:06,480
Marianne: Wat zijn mogelijke voorkeuren of vaak ongewenste voorkeuren die in zo'n systeem naar boven zouden kunnen komen?
165
00:10:12,960 --> 00:10:15,240
Marianne: Misschien nu in het huidige proces ook al.

163
00:10:06,720 --> 00:10:12,959
Marianne: En dan ga je uiteindelijk een selectie maken.

164
00:10:15,240 --> 00:10:17,079
Marianne: Ik bedoel, we kunnen niet alles meten.

165
00:10:13,920 --> 00:10:19,399
Marianne: We kunnen niet alles en iedereen en alle opties uitsluiten.

166
00:10:19,559 --> 00:10:22,759
Marianne: Dus dan moet je gaan kijken, oké, wat is de grootste kans?

167
00:10:22,759 --> 00:10:25,240
Marianne: Wat zijn de groepen waar we echt willen dat er geen onderscheid?

168
00:10:25,240 --> 00:10:28,519
Marianne: En dan kan je het gaan meten.

169
00:10:28,600 --> 00:10:29,799
Marianne: Dan kun je puur gaan kijken, oké, ik ga mijn algoritme het werk laten doen.

170
00:10:29,799 --> 00:10:34,040
Marianne: Er komen uitkomsten uit.

171
00:10:34,039 --> 00:10:35,720
Marianne: En als ik nou kennis heb over alles wat hij weet, of die personen bijvoorbeeld een man of een vrouw zijn, of in dit geval ouderen en jongeren.

172
00:10:35,720 --> 00:10:42,840
Marianne: Dan kan ik kijken, oké, geeft mijn algoritme bijvoorbeeld alleen maar ouderen.

173
00:10:42,840 --> 00:10:47,399
Marianne: Is 80% van wat hij voorspelt die we moeten gaan helpen, zijn dat ouderen.

174
00:10:47,559 --> 00:10:51,400
Marianne: Ja, in dat geval in de samenleving is op dit moment nog niet 80% ouderen.

175
00:10:51,639 --> 00:10:55,639
Marianne: Of in ieder geval van de groep die recht heeft dan op de uitkering.

176
00:10:56,200 --> 00:10:58,680
Marianne: Dus dan kan je zien, oké, dat scheef verdeeld.

177
00:10:58,679 --> 00:11:00,520
Marianne: Het algoritme heeft een andere verdeling in zijn uitkomst dan wat we eigenlijk zouden verwachten gezien de populatie.

178
00:11:00,519 --> 00:11:07,320
Marianne: Of je kan ook bijvoorbeeld zien, heeft hij het vaker fout voor ouderen dan voor jongeren.

179
00:11:07,639 --> 00:11:13,159
Marianne: Dus geeft hij vaker onterecht dat hij aangeeft, oh, deze ouderen moet je wel helpen, terwijl ze misschien eigenlijk geen recht erop hebben, of juist bij jongeren dat hij het vaker niet aangeeft.

180
00:11:13,159 --> 00:11:22,440
Marianne: Dus dat zijn ook een vorm van bias en ongelijkheid die je daarin naar boven kan halen.

181
00:11:22,919 --> 00:11:28,519
Marianne: En als je informatie hebt over of iemand in het geval bijvoorbeeld 65 plus is of de 20.

182
00:11:28,519 --> 00:11:34,920
Marianne: Dan kun je dat relatief eenvoudig meten.

183
00:11:34,919 --> 00:11:37,560
Joop Snijder: En staan dat soort metingen dan ook in die in die afspraken?

184
00:11:38,360 --> 00:11:41,879
Joop Snijder: In welke vorm weet je, ik krijg straks die set van afspraken, hoe ziet dat daaruit?

185
00:11:42,200 --> 00:11:47,480
Marianne: Ja, net zei echt een opbouw die zich die zich meet aan de algoritme wordt ontwikkeld.

186
00:11:47,480 --> 00:11:53,800
Marianne: Dus probleemvraag, het ontwikkelen ervan en dan ook toetsen.

187
00:11:53,799 --> 00:11:57,399
Marianne: En ook hierin noemen we dus de verschillende metrieken die er zijn.

188
00:11:57,559 --> 00:12:01,400
Marianne: Dus naar hetgene wat ik zei van is de uitkomst vergelijkbaar?

189
00:12:01,399 --> 00:12:04,440
Marianne: Of zijn je de foutmarges vergelijkbaar?

190
00:12:04,759 --> 00:12:07,559
Marianne: En daar zeggen we van op deze manier kan je dit meten, op deze manier kan je dit meten.

191
00:12:07,559 --> 00:12:12,680
Marianne: Daarvan zeggen we van gelijk dat het representievers bij populatie moet je doen.

192
00:12:12,680 --> 00:12:17,000
Marianne: Dat is echt het uitgangspunt ook van non-discriminatie daarin.

193
00:12:17,000 --> 00:12:20,440
Marianne: En daarnaast kun je dus nog veel meer testen doen die eigenlijk ook wil doen op zijn de foutmarges gelijk, of in ieder geval binnen de perken.

194
00:12:20,680 --> 00:12:27,399
Marianne: Dus dat zijn eigenlijk de stappen die we zeggen, hoe moet je het meten?

195
00:12:27,960 --> 00:12:30,919
Marianne: Hoe kan je dit meten?

196
00:12:30,920 --> 00:12:32,040
Marianne: En ook hoe moet je het documenteren.

197
00:12:32,039 --> 00:12:34,040
Marianne: Hoe je het opschrijven.

198
00:12:34,039 --> 00:12:35,639
Marianne: En uiteindelijk de vraag, want dan is het acceptabel om het algoritme te gebruiken.

199
00:12:35,639 --> 00:12:41,799
Marianne: Dat is een vraag die wij niet kunnen beantwoorden.

200
00:12:42,039 --> 00:12:44,039
Marianne: Want dat is ontzettend contextafhankelijk.

201
00:12:44,039 --> 00:12:46,600
Marianne: In ene keer is misschien een verschil van 1% tussen mannen en vrouwen prima acceptabel.

202
00:12:46,600 --> 00:12:52,360
Marianne: In sommige gevallen is het zelfs gewenst en toegestaan.

203
00:12:52,679 --> 00:12:55,800
Marianne: Op de medische sector zie je dat mannen en vrouwen verschillen nou helemaal.

204
00:12:55,960 --> 00:12:59,719
Marianne: Dus dan is er een hele goede reden om dat wel te doen.

205
00:12:59,720 --> 00:13:02,519
Marianne: En in andere gevallen wil je misschien zo min mogelijk.

206
00:13:02,840 --> 00:13:05,719
Marianne: Maar er zit altijd die uitkomsten die verschillen van misschien 5 of 1 of 0%.

207
00:13:05,720 --> 00:13:11,240
Marianne: Dus daar moet je uiteindelijk een keuze keuze over maken.

208
00:13:13,080 --> 00:13:16,439
Marianne: Kijken wat is acceptabel, wat is toegestaan, wat is wenselijk.

209
00:13:16,440 --> 00:13:20,840
Marianne: Dus dan kom je op de vraag, mag het ethisch?

210
00:13:20,840 --> 00:13:23,560
Marianne: Mag het juridisch, willen we het, ethisch.

211
00:13:23,879 --> 00:13:26,680
Marianne: En dan moet je daarover een keuze gaan maken.

212
00:13:27,319 --> 00:13:29,080
Marianne: En die doen we dus niet binnen de binnen de NTA.

213
00:13:29,079 --> 00:13:32,040
Marianne: Dus juist heel erg op welke stappen moet je nemen.

214
00:13:32,200 --> 00:13:35,640
Marianne: Wat kan je meten?

215
00:13:35,639 --> 00:13:37,000
Marianne: Hoe ga je dat opschrijven?

216
00:13:37,000 --> 00:13:38,840
Marianne: Om te zorgen dat hij uiteindelijk keuze mogelijk aan.

217
00:13:38,840 --> 00:13:42,040
Joop Snijder: Ethische keuzes kan je natuurlijk niet in een standaard.

218
00:13:42,279 --> 00:13:44,680
Marianne: Nee, nee, zeker niet.

219
00:13:45,399 --> 00:13:47,320
Joop Snijder: Oké.

220
00:13:48,279 --> 00:13:49,000
Joop Snijder: Maar hoe zorg je nou zo direct voor dat dit soort dingen geen papieren tijger worden?

221
00:13:49,559 --> 00:13:54,760
Marianne: Ja dat is de grootste uitdaging.

222
00:13:55,080 --> 00:13:57,080
Marianne: En ik denk dat dat ook heel erg interessant is.

223
00:13:57,240 --> 00:13:58,840
Marianne: Dat we gaan nu in publieke consultatie.

224
00:13:58,840 --> 00:14:00,759
Marianne: Dat betekent dat iedereen er feedback op mag geven.

225
00:14:00,759 --> 00:14:03,800
Marianne: Dus daar hebben heel erg geprobeerd om het zo dicht mogelijk bij de praktijk vorm te houden.

226
00:14:04,360 --> 00:14:08,919
Marianne: Dus daarom ook die echt die opbouw van probleemstelling op toetsing.

227
00:14:08,920 --> 00:14:14,200
Marianne: Om zo dicht mogelijk bij de praktijk van de mensen in de organisaties te houden om het daarmee makkelijker te maken.

228
00:14:14,200 --> 00:14:19,719
Marianne: Documentatie is altijd natuurlijk een hoop werk, maar wel ontzettend belangrijk.

229
00:14:20,360 --> 00:14:24,759
Joop Snijder: Zeker.

230
00:14:24,759 --> 00:14:25,559
Marianne: En we hopen door zowel publieke consultatie als ook daarna het in de praktijk te gaan gebruiken.

231
00:14:25,559 --> 00:14:30,520
Marianne: Te leren oké, wat werkt wel goed in de praktijk, wat werkt niet goed in de praktijk.

232
00:14:30,519 --> 00:14:35,240
Marianne: En ook ja, hoe sluit dat aan bij het doel wat we natuurlijk uiteindelijk willen bereiken met deze NTA, dat iedereen veel gestructureerder en veel meer aandacht voor non-discriminatie aan de slag gaat met algoritmes.

233
00:14:35,879 --> 00:14:47,399
Marianne: En dat we veel duidelijker beeld hebben van wat zit er onderscheid in deze algoritmes.

234
00:14:47,399 --> 00:14:51,639
Marianne: En zo ja, wat is het effect daarvan?

235
00:14:51,639 --> 00:14:53,480
Marianne: En wat betekent dat voor het gebruik?

236
00:14:53,559 --> 00:14:56,200
Joop Snijder: Ja, en de vraag was om om hier ook te komen vertellen erover, juist vanwege die consultatie.

237
00:14:56,279 --> 00:15:01,920
Joop Snijder: Wie mag er allemaal feedback geven, hoe ziet feedback eruit.

238
00:15:02,480 --> 00:15:06,960
Joop Snijder: Waar beginnen ze?

239
00:15:07,919 --> 00:15:09,280
Marianne: Ja, iedereen kan in principe feedback geven, dat gaat via de NAN.
243
00:15:15,200 --> 00:15:21,440
Marianne: Dus de NEN heeft een portaal, daar moet je je wel even voor aanmelden, maar dat wordt alleen gebruikt voor het inleveren van feedback.

240
00:15:09,279 --> 00:15:14,960
Marianne: En daar zie je eigenlijk de hele NTA.

241
00:15:21,600 --> 00:15:24,399
Marianne: En daar kun je dan commentaar op leveren.

242
00:15:24,399 --> 00:15:26,159
Joop: Dus wij kunnen zo direct wel een link in de show notes opnemen, neem ik aan.

243
00:15:26,480 --> 00:15:29,920
Marianne: Dat kan zeker.

244
00:15:30,319 --> 00:15:31,600
Marianne: En vanuit daar krijgen wij dan straks al die commentaren binnen.

245
00:15:31,600 --> 00:15:34,480
Marianne: En dan gaan we die proberen.

246
00:15:34,480 --> 00:15:36,399
Marianne: Dat zal ongetwijfeld nog een uitdaging worden.

247
00:15:37,360 --> 00:15:39,760
Marianne: We weten hoeveel discussie dit onderwerp ook altijd opwekt, zowel vanuit de complexiteit natuurlijk, wanneer je het hebt over non-discriminatie.

248
00:15:40,080 --> 00:15:47,519
Marianne: Als ook inderdaad, de haalbaarheid in de praktijk.

249
00:15:47,840 --> 00:15:50,399
Marianne: En de uitvoerbaarheid, als ik gewoon echt het grote interesse wat we erin zien.

250
00:15:50,399 --> 00:15:54,800
Joop: En tot wanneer kunnen mensen feedback geven.

251
00:15:55,120 --> 00:15:57,760
Marianne: Donderdag 19 april.

252
00:15:58,080 --> 00:16:00,960
Joop: Dat heb ik niet zoiets.

253
00:16:01,840 --> 00:16:04,799
Joop: Onderbij.

254
00:16:04,799 --> 00:16:05,360
Joop: Dat is nog een aantal weken om in ieder geval die feedback te geven.

255
00:16:07,759 --> 00:16:11,520
Joop: Dus even aanmelden bij de NEN, kan je hem downloaden, kun je feedback geven.

256
00:16:12,799 --> 00:16:17,040
Joop: Wat is voor jou nou het belangrijkste punt, wat het voor jou zelf zo interessant maakt om hier aan mee te werken.

257
00:16:20,240 --> 00:16:26,800
Marianne: Voor mij, ik werk dus nu al een aantal jaar in dit veld, wanneer het gaat over Responsible AI.

258
00:16:27,120 --> 00:16:32,480
Marianne: En je blijft in de praktijk en in het nieuws.

259
00:16:32,480 --> 00:16:35,759
Marianne: Je blijven de gevallen tegenkomen waarbij het fout gaat.

260
00:16:35,759 --> 00:16:39,039
Marianne: En heel vaak niet eens het onwel.

261
00:16:39,039 --> 00:16:40,960
Marianne: Maar toch omdat dingen fout gaan, omdat ze niet wisten hoe het gemeten moest worden.

262
00:16:40,960 --> 00:16:45,360
Marianne: Ja, is het heel erg ook over het verantwoorde keuzes maken over AI, het onderbouwen daarvan.

263
00:16:45,679 --> 00:16:50,720
Marianne: En dat maakt het voor mij heel erg interessant om hier aan mee te werken.

264
00:16:50,720 --> 00:16:53,680
Marianne: Ik zie gewoon hoe belangrijk het is dat we duidelijkheid gaan krijgen en dat we mensen handvatten gaan geven.

265
00:16:53,680 --> 00:16:59,360
Marianne: Ook vaak mensen spreken die zeggen, ja, hoe doe ik dit?

266
00:16:59,360 --> 00:17:02,399
Marianne: Hoe doe ik dit nou op een goede manier?

267
00:17:02,399 --> 00:17:04,559
Marianne: Want ik wil helemaal niet dat mijn algoritme discrimineert of onderscheid maakt.

268
00:17:04,559 --> 00:17:09,359
Marianne: Dus help ons daarmee.

269
00:17:09,359 --> 00:17:10,719
Marianne: Want tegelijkertijd is de noodzaak ook bij de overheid ontzettend groot om te digitaliseren.

270
00:17:10,720 --> 00:17:16,079
Marianne: Iedereen vraagt het.

271
00:17:16,319 --> 00:17:17,839
Marianne: De digitalisering in de wereld gaat ontzettend hard en ook de overheid heeft steeds minder middelen om hetzelfde te doen.

272
00:17:17,839 --> 00:17:23,040
Marianne: Dus de digitaliseringsslag die gaat door.

273
00:17:23,279 --> 00:17:26,079
Marianne: En daar heel erg de vraag over oké, hoe doen we dat dan verantwoord?

274
00:17:26,079 --> 00:17:29,440
Marianne: En hoe doen we dat nou goed en kunnen we daar wat afspraak op hebben?

275
00:17:29,440 --> 00:17:32,799
Marianne: En dat vind ik heel erg waardevol eraan.

276
00:17:32,799 --> 00:17:34,639
Marianne: Kun we mensen daarmee helpen?

277
00:17:35,119 --> 00:17:37,599
Marianne: En het tweede wat ik heel erg mooi vind aan dit proces, is dat het echt een samenwerking is.

278
00:17:37,599 --> 00:17:42,720
Marianne: Dus een breed palet aan organisaties.

279
00:17:42,720 --> 00:17:45,359
Marianne: Dus het is overheidsorganisaties, het is wetenschappelijke organisaties, het is de echte maatschappij die vertegenwoordigd is, ook via mensenrechtenorganisaties.

280
00:17:45,359 --> 00:17:55,680
Marianne: En daarin gaan we het gesprek met elkaar aan.

281
00:17:55,680 --> 00:17:57,839
Marianne: En dat is niet altijd makkelijk.

282
00:17:57,920 --> 00:17:59,680
Marianne: Maar ik denk dat dat echt ontzettend waardevol is, dat we proberen met elkaar een stap verder hierop te zetten.

283
00:18:00,000 --> 00:18:05,920
Marianne: En meer duidelijkheid te scheppen van wat bedoelen we eigenlijk hiermee, wat voor impact heeft het en kunnen we daar iets aan aan structuur aan geven.

284
00:18:05,920 --> 00:18:13,919
Joop: Kun je een tipje van de sluier oplichten zonder de organisatie te noemen.

285
00:18:14,079 --> 00:18:19,680
Joop: Maar waar zitten dan die discussie?

286
00:18:20,000 --> 00:18:21,919
Joop: Wat maakte het niet makkelijk om op één lijn te komen.

287
00:18:21,920 --> 00:18:25,039
Marianne: Een deel van de discussie, die gaat ook over juist de link tussen juridisch en technisch.

288
00:18:25,680 --> 00:18:31,839
Marianne: Die link hebben we ook echt wel geweerd te maken.

289
00:18:31,920 --> 00:18:33,759
Marianne: Dus we hebben aan tafel ook echt juridische mensen gehad, technische mensen, filosofen.

290
00:18:33,759 --> 00:18:38,079
Marianne: Ja, daar zie je gewoon een al een best een lastig punt.

291
00:18:38,240 --> 00:18:40,480
Joop: Zeker.

292
00:18:40,480 --> 00:18:40,960
Marianne: Dat non-discriminatiewetgeving is natuurlijk vrij juridisch.

293
00:18:41,119 --> 00:18:45,440
Marianne: En dat vertalen, wat betekent dat dan technisch onderling.

294
00:18:45,440 --> 00:18:48,240
Marianne: Ja, dat is best een hele interessante vraag.

295
00:18:48,319 --> 00:18:50,240
Joop: En ik neem aan ook dat je wil gaan denken in.

296
00:18:50,240 --> 00:18:53,440
Joop: omdraaien naar een ja.

297
00:18:54,720 --> 00:18:56,399
Joop: Tenminste, ik zie dat.

298
00:18:56,720 --> 00:18:58,720
Joop: Ik word wel gevraagd om mee te kijken naar beleid en beleid en dat soort zaken.

299
00:18:58,960 --> 00:19:03,839
Joop: En voordat je het weet zit je in de modus, zeg maar dat het van alles niet mag.

300
00:19:03,840 --> 00:19:08,480
Joop: Terwijl je wil natuurlijk het zorgen dat dingen wel mogen, maar wel verantwoord en volgens bepaalde spelregels.

301
00:19:08,720 --> 00:19:16,480
Joop: Is dat diezelfde frictie?

302
00:19:16,880 --> 00:19:18,799
Marianne: Onder andere, dus enerzijds echt een frictie van taal.

303
00:19:19,599 --> 00:19:22,479
Marianne: Heb je dezelfde.

304
00:19:23,039 --> 00:19:24,000
Marianne: Interpreteer je de term op dezelfde manier.

305
00:19:25,119 --> 00:19:27,599
Marianne: En anderzijds, inderdaad, dat is denk ik een frictie die in de praktijk ook wel veel is.

306
00:19:28,000 --> 00:19:31,519
Marianne: Ga je voor de nee.

307
00:19:31,839 --> 00:19:33,839
Marianne: En moet je echt of gaan we toch proberen, gaan we kijken.

308
00:19:33,840 --> 00:19:37,919
Marianne: Dat is natuurlijk een onderwerp als non-discriminatie is dat natuurlijk echt net wat anders dan voor een normaal kleine algoritme.

309
00:19:38,559 --> 00:19:44,759
Marianne: Dus daar wil je daar echt heel goed over nagedacht hebben en heel goed weten wat jouw algoritme doet.

310
00:19:43,920 --> 00:19:49,879
Marianne: Maar daar zit ja non-discriminatie, zeker bij de overheid.

311
00:19:50,359 --> 00:19:53,800
Marianne: Iedereen heeft gewoon een aantal schandalen toch wel scherp in het geheugen staan.

312
00:19:54,119 --> 00:19:59,240
Marianne: Het is een ontzettend gevoelig onderwerp.

313
00:19:59,240 --> 00:20:01,319
Joop: En terecht, want je zal maar door geraakt worden.

314
00:20:01,319 --> 00:20:05,319
Joop: Staan er dan nu in de hierin dingen waarvan gezegd wordt dat moet je gewoon niet doen.

315
00:20:05,799 --> 00:20:12,039
Marianne: Dus we zeggen een aantal dingen.

316
00:20:12,680 --> 00:20:14,600
Marianne: Het meeste houden we contextafhankelijk, op de context zo ontzettend verschilt dat we zeggen, wij maken daar geen uitspraken over.

317
00:20:15,079 --> 00:20:21,639
Marianne: We hebben het wel dat directe onderscheid mag niet.

318
00:20:21,640 --> 00:20:25,240
Marianne: Dus je mag niet in principe dingen als geslacht of ras direct opnemen in je algoritme.

319
00:20:25,240 --> 00:20:33,480
Marianne: En hetzelfde zeggen we ook voor het gebruik van ras bij dan echt risicoprofilering.
324
00:20:38,759 --> 00:20:43,240
Marianne: Dus bij vrouwen, gebruik daar die profielkermerken gewoon sowieso niet.
 320
00:20:33,960 --> 00:20:38,759
Marianne: Doe dat niet.
 321
00:20:43,480 --> 00:20:44,359
Marianne: Dus daar verder rest ik een aantal aanbevelingen over wanneer kan je het beter dingen niet gebruiken.
 322
00:20:44,599 --> 00:20:50,279
Marianne: Als je al heel duidelijk ziet dat een bepaald kenmerk een verband kan hebben met bijvoorbeeld geslacht of ras wanneer je dat niet wil, gebruik het dan niet, want dan maak je jezelf.
 323
00:20:50,279 --> 00:21:00,679
Joop: Ik wil even wegblijven bij de toeslagen, want dat is zo vaak besproken.
 324
00:21:02,200 --> 00:21:06,920
Joop: Maar laatst in het nieuws was het natuurlijk wel over.
 325
00:21:06,920 --> 00:21:10,440
Joop: Was ook profilering, ging over als ik recidieve voorspelling.
 326
00:21:10,599 --> 00:21:16,599
Joop: Reclassering.
 327
00:21:16,680 --> 00:21:17,640
Joop: En die hadden wat omgedraaid.
 328
00:21:17,880 --> 00:21:20,840
Joop: Dus daar staat gewoon echt gewoon kwijt een grote fout in.
 329
00:21:20,920 --> 00:21:25,240
Joop: Dus in plaats van misschien kan jij het uitleggen, waar heb je hem scherp of niet?
 330
00:21:25,880 --> 00:21:30,759
Marianne: Ik weet niet de details van deze casus.
 331
00:21:30,759 --> 00:21:32,679
Marianne: Dus je legt alleen op de hoogte van wat er in het nieuws en dergelijke is verschenen.
 332
00:21:32,680 --> 00:21:36,279
Marianne: En daar zie je net eigenlijk een combinatie.
 333
00:21:36,599 --> 00:21:38,440
Marianne: En er dus fouten zijn gemaakt in het omwisselen van bepaalde datastromen.
 334
00:21:38,519 --> 00:21:42,440
Joop: Van de uitkomsten eigenlijk van de uitkomsten.
 335
00:21:42,680 --> 00:21:45,559
Marianne: Dus ja, dat is eigenlijk een ding waarvan ik ook zie.
 336
00:21:46,039 --> 00:21:49,480
Marianne: waarom is het zo belangrijk om deze regels en deze handleidingen gewoon echt gestructureerd te krijgen, zodat we het gewoon goed ontwikkelen.
 337
00:21:49,960 --> 00:21:56,199
Marianne: Want dit zijn eigenlijk fouten die zouden niet mogen voorkomen.
 338
00:21:56,200 --> 00:21:59,320
Marianne: Als jij goed je algoritme hebt doorgemeten en getest.
 339
00:21:59,319 --> 00:22:02,519
Marianne: Dan zou je dit moeten zien, dan zou je dit moeten tegenkomen.
 340
00:22:02,519 --> 00:22:05,480
Joop: Heb je heb je deze casus gehouden tegen de afspraken die nu hebben liggen, waarvan je denkt van hé, maar dan hadden ze het misschien opgemerkt.
 341
00:22:05,480 --> 00:22:13,559
Marianne: Dat hebben we nog niet expliciet gedaan.
 342
00:22:13,559 --> 00:22:16,039
Marianne: Maar ik denk dat zeker veel voorbeelden wanneer je het hebt over ook onderscheid, wat gemaakt wordt, dus dat bepaalde groepen vaker of onterecht in dit geval eerder als recidivisten zouden worden aangemerkt.
 343
00:22:16,039 --> 00:22:26,759
Marianne: Dat kan je meten met methodes die we noemen.
 344
00:22:27,000 --> 00:22:29,560
Joop: Ja, precies.
 345
00:22:29,559 --> 00:22:30,200
Marianne: En ik denk dat dat wel hetzelfde gehad wordt voor de DUO casus.
 346
00:22:30,200 --> 00:22:33,400
Joop: Dus dat had gewoon met deze set van afspraken, was de kans groter geweest dat je de fout had gevonden.
 347
00:22:33,559 --> 00:22:39,799
Marianne: Dan had je hem van tevoren al kunnen vinden.
 348
00:22:39,799 --> 00:22:41,319
Marianne: Die kans was groter geweest, ja, zeker.
 349
00:22:41,319 --> 00:22:43,240
Joop: Kijk, daar willen we naartoe, toch?
 350
00:22:43,240 --> 00:22:45,000
Marianne: Dat is ook precies echt het belang.
 351
00:22:45,400 --> 00:22:47,000
Marianne: Kijk, we kunnen niet met zo'n standaard voorkomen, 100% dat iets niet of het niet discrimineert.
 352
00:22:47,000 --> 00:22:53,720
Marianne: Want discriminatie is gewoon iets dat is veel groter dan alleen een algoritme.
 353
00:22:53,799 --> 00:22:57,800
Joop: Zeker.
 354
00:22:57,799 --> 00:22:58,680
Marianne: En ook fouten, je kan het niet 100% voorkomen.
 355
00:22:58,920 --> 00:23:02,120
Marianne: Het idee hiervan is echt dat we wel proberen zoveel mogelijk van tevoren eruit te halen.
 356
00:23:02,119 --> 00:23:07,559
Marianne: Te zorgen dat we zo goed mogelijk inzicht hebben in wat zo'n algoritme doet.
 357
00:23:07,559 --> 00:23:11,000
Marianne: En dus echt onderbouwde keuze kunnen maken om het in te zetten.
 358
00:23:11,000 --> 00:23:14,839
Marianne: In plaats van dat het wordt ingezet en achteraf achter komen oh, het heeft eigenlijk toch een ongewenste voorkeur die je van tevoren had kunnen weten.
 359
00:23:14,839 --> 00:23:23,480
Marianne: Want dan kom je op iets en dan had je dan had je dat aspect in ieder geval kunnen voorkomen.
 360
00:23:23,799 --> 00:23:29,399
Marianne: En daar gaat het uiteindelijk dan ook combinatie daarvan met monitoren.
 361
00:23:29,400 --> 00:23:34,039
Marianne: Net bijhouden achteraf, zorg dat je goede processen hebt, want je kunt niet alles uitsluiten.
 362
00:23:34,039 --> 00:23:39,160
Marianne: Dus zorg als er iets onverwachts gebeurt of je toch ineens een klacht krijgt of er verandert iets in de omgeving waardoor je algoritme anders werken.
 363
00:23:39,799 --> 00:23:47,960
Marianne: Dat je dat ziet, en dat je dan op een goede menselijke manier mee omgaan.
 364
00:23:47,960 --> 00:23:52,039
Joop: Ja, dat laatst dus ook nog wel een dingen.
 365
00:23:52,119 --> 00:23:53,639
Marianne: En dat is wat we eerder ook al over hadden, maar jij hebt de techniek en je hebt de mens.
 366
00:23:53,880 --> 00:23:57,959
Marianne: En dit is altijd een combinatie van twee.
 367
00:23:58,200 --> 00:24:00,600
Marianne: Dus je moet ze wel verwijden, moet je goed nadenken over hoe geef je dat vorm.
 368
00:24:00,599 --> 00:24:05,079
Joop: Wat zou je organisaties mee willen geven wat dan de mens moet veranderen op dit gebied?
 369
00:24:05,799 --> 00:24:12,519
Marianne: Ik denk dat het in eerste instantie is, moeten de mensen opleiden.
 370
00:24:12,599 --> 00:24:16,040
Marianne: Dat is iets wat natuurlijk al heel vaak wordt genoemd.
 371
00:24:16,039 --> 00:24:18,439
Joop: Maar ja, als je noem maar wat, je krijgt je krijgt een paar dagen opleiding.
 372
00:24:18,920 --> 00:24:23,559
Joop: Drie maanden later, krijg je zo'n algoritme voor je neus.
 373
00:24:23,559 --> 00:24:27,000
Joop: Bij het grotendeels beet kwijt.
 374
00:24:27,240 --> 00:24:29,120
Marianne: Ja, ik denk dat daar voor mensen zelf het belangrijkste blijft, sowieso menselijke maat.
 375
00:24:28,840 --> 00:24:34,880
Marianne: Een algoritme is, is recht toe recht aan.
 376
00:24:35,279 --> 00:24:38,799
Marianne: Dus blijf daarin ook echt het oog voor de mensen wat er achter het systeem zit en over wie je beslissingen maakt.
 377
00:24:39,440 --> 00:24:45,359
Marianne: Dat dat een heel belangrijke aspect is om je altijd te blijven realiseren.
 378
00:24:45,759 --> 00:24:49,039
Marianne: Ja, over wie of wat maak ik nu een beslissing.
 379
00:24:49,039 --> 00:24:51,679
Marianne: En met welke informatie doe ik dat ook.
 380
00:24:51,839 --> 00:24:54,480
Marianne: Dat je daar altijd jezelf scherp op blijft houden.
 381
00:24:54,799 --> 00:24:57,120
Joop: Ja, wat de consequenties zou kunnen zijn voor iemand.
 382
00:24:57,119 --> 00:24:59,279
Marianne: Wat kunnen de consequenties zijn?
 383
00:24:59,599 --> 00:25:00,879
Marianne: Welke informatie heb ik?
 384
00:25:00,880 --> 00:25:02,000
Marianne: Wat geeft het algoritme mij?
 385
00:25:02,000 --> 00:25:03,759
Marianne: En het besef blijven houden.
 386
00:25:03,759 --> 00:25:05,119
Marianne: Dat daar kan iets of wel fout in zitten, of er kan toch iets anders zijn in de situatie die zorgt dat het de uitkomst van het algoritme niet geschikt is op dat moment of niet toepasbaar.
 387
00:25:05,119 --> 00:25:15,759
Marianne: Dus zeker heel erg waken voor het computer says syndroom.
 388
00:25:16,000 --> 00:25:20,559
Marianne: En dat maar gewoon te volgen.
 389
00:25:20,720 --> 00:25:22,320
Marianne: En ik denk dat dat echt het kritisch blijven zelf.
 390
00:25:22,319 --> 00:25:25,439
Marianne: En jezelf de vraag aan stellen van wat ben ik aan het doen en wat heeft dat voor impact.
 391
00:25:25,440 --> 00:25:29,439
Marianne: Dat is denk ik ontzettend belangrijk.
 392
00:25:29,440 --> 00:25:30,880
Joop: Denk je niet dat dat in die zin steeds lastiger wordt.
 393
00:25:30,880 --> 00:25:34,160
Joop: Dus mensen zijn steeds meer gewend om uit ChatGPT te praten of met een ander taalmodel.
399
00:25:39,599 --> 00:25:46,879
Joop: Waarbij je steeds meer erop vertrouwt dat wat daar terugkomt, dat dat een soort van waarheid is.

394
00:25:34,160 --> 00:25:39,599
Joop: Dus dat dat soort systemen, technologieën je bij niet helpen.

395
00:25:46,880 --> 00:25:52,879
Marianne: Ook dat ligt eraan hoe je het gebruikt, maar ik denk inderdaad wel dat daar een risico zit.

396
00:25:53,759 --> 00:25:58,159
Marianne: Als we daar te afhankelijk van worden.

397
00:25:58,160 --> 00:26:00,639
Marianne: En je denkt je zelf niet om af en daar kritisch op te blijven en daar goed over na te denken.

398
00:26:00,640 --> 00:26:06,000
Marianne: Dan wordt het wel steeds moeilijker.

399
00:26:06,240 --> 00:26:07,679
Marianne: Hoe vaker je het vertrouwt, en hoe vaker het goed gaat, hoe makkelijker je daar natuurlijk in meegaat.

400
00:26:07,839 --> 00:26:12,320
Joop: Ja, want kijk, we maken heel veel uitzendingen en dan gaat het er heel veel over.

401
00:26:12,319 --> 00:26:16,320
Joop: Ja, je moet opletten wat je ChatGPT teruggeeft, maar dat gaat over, hoe moet ik het zeggen?

402
00:26:16,319 --> 00:26:23,600
Joop: Laten we zeggen, dat zijn geen dingen die zoveel impact hebben als de algoritmes waar je het nu over hebt.

403
00:26:23,599 --> 00:26:31,039
Joop: En daar hebben we het al, zeg maar moeilijk om daar kritisch over te zijn en daar goed over na te denken.

404
00:26:31,039 --> 00:26:36,640
Joop: En dan vraag ik me af, weet je, hoe groot is dan de stap als het dan zo direct gaat over profileringsalgoritmes.

405
00:26:36,639 --> 00:26:42,000
Joop: Zijn we er, zijn we daar dan ook echt bij dat we daar heel kritisch op zijn.

406
00:26:42,160 --> 00:26:48,960
Marianne: Ja, dat is denk ik een hele grote vraag.

407
00:26:48,960 --> 00:26:51,199
Marianne: Hoe meer gebruikelijk het wordt in je normale leven, hoe lastiger dat ook wordt in je werkende leven.

408
00:26:51,519 --> 00:26:57,840
Marianne: Dus ik denk dat daar ook heel erg de taak ligt in bijvoorbeeld werkprocessen.

409
00:26:57,839 --> 00:27:01,440
Marianne: Kijk, dat we ook daar duidelijke structuur geven aan de medewerkers, wat doe je met de uitkomst van zo'n algoritme.

410
00:27:01,680 --> 00:27:07,199
Marianne: Nou hebben we daar ook een stukje over opgenomen in de NTA.

411
00:27:07,359 --> 00:27:10,720
Marianne: Om dat inderdaad duidelijk te beschrijven.

412
00:27:10,720 --> 00:27:12,480
Marianne: Sowieso mag de uitkomst van een algoritme niet in één keer direct het resultaat opleveren.

413
00:27:12,480 --> 00:27:17,680
Marianne: Dus daar moet altijd de mens tussendoor zitten.

414
00:27:17,680 --> 00:27:19,759
Marianne: Maar dat je daar ook heel goed duidelijk opschrijft voor jouw medewerkers en daar een duidelijk proces in hebt.

415
00:27:19,759 --> 00:27:24,399
Marianne: Van oké, je krijgt de uitkomst van een algoritme.

416
00:27:24,400 --> 00:27:26,879
Marianne: Wat betekent dat dan?

417
00:27:26,880 --> 00:27:28,000
Marianne: Wat zijn de stappen die je gaan doen?

418
00:27:28,000 --> 00:27:29,359
Marianne: Wat moet je dan zelf nog gaan checken?

419
00:27:29,360 --> 00:27:31,040
Marianne: Welke informatie heb jij nog nodig om die uiteindelijke keuze te maken.

420
00:27:31,039 --> 00:27:36,079
Marianne: Dus dat we ook daar in dat proces eigenlijk de medewerkers stimuleren en op een duidelijke manier mee omgaan.

421
00:27:36,079 --> 00:27:42,880
Marianne: Dat dat natuurlijk is in je proces.

422
00:27:42,880 --> 00:27:44,879
Joop: Ja, precies.

423
00:27:44,880 --> 00:27:45,359
Marianne: Hoje wanneer het hebt over een generatieve AI of je kan je ook gebruiken om vragen aan jou te laten stellen.

424
00:27:46,079 --> 00:27:52,240
Marianne: Dus ik denk dat we daar veel meer toe moeten naar dat het natuurlijk wordt voor mensen wanneer je werkt met zo'n systeem om toch die kritische vragen te blijven stellen en een duidelijk werkproces te hebben.

425
00:27:52,240 --> 00:28:02,400
Marianne: Dat het niet alleen maar afhankelijk is van jou, dat jij zelf denkt, oh, ik moet nu kritisch blijven.

426
00:28:02,400 --> 00:28:07,599
Marianne: Maar dat dat door de manier waarop we ermee omgaan, de manier waarop we dat werk hebben vastgelegd, dat het gewoon natuurlijk is om die vraag te stellen.

427
00:28:07,839 --> 00:28:14,000
Joop: Ja, dan denk ik eigenlijk meteen aan een financiële wereld, waar er bijvoorbeeld heel vaak vierogenprincipe is.

428
00:28:14,000 --> 00:28:20,159
Joop: Dus dan mag je als één ding eigenlijk niet gewoon beslissen over een belangrijk onderwerp.

429
00:28:20,319 --> 00:28:26,480
Joop: Zou je dat ook hier in passen?

430
00:28:26,639 --> 00:28:28,720
Marianne: Ik denk dat zou zeker een oplossing kunnen zijn.

431
00:28:28,799 --> 00:28:31,359
Marianne: Als één deel.

432
00:28:31,360 --> 00:28:32,000
Marianne: Maar dan moet je natuurlijk nog steeds nog steeds afhankelijk van twee mensen.

433
00:28:32,000 --> 00:28:34,079
Marianne: En je hebt in ieder geval minder de kans dat één iemand misschien toevallig moe van slechte dag heeft gehad.

434
00:28:36,000 --> 00:28:40,799
Marianne: En denk ik nou het is allemaal goed vandaag.

435
00:28:40,799 --> 00:28:43,439
Marianne: Dus ik denk dat het inderdaad een combinatie en daar zullen we nog heel erg onze weg ook in moeten gaan zoeken.

436
00:28:44,240 --> 00:28:47,839
Marianne: Hoe kunnen we nou toch op natuurlijke manieren dat het niet te nacht bij één persoon terechtkomt om zichzelf kritisch te houden.

437
00:28:48,000 --> 00:28:54,479
Marianne: Maar dat we dat eigenlijk inbedden in het hele proces eromheen.

438
00:28:54,480 --> 00:28:57,359
Marianne: In onze manier van omgaan met deze systemen.

439
00:28:57,360 --> 00:28:59,919
Marianne: Wellicht dat ze ook vragen kunnen stellen.

440
00:28:59,920 --> 00:29:02,720
Marianne: Dan zal dat bij deze profileringsalgoritmes niet het geval zijn.

441
00:29:02,720 --> 00:29:05,440
Marianne: Dit zijn vaak of gewoon simpele regelgebaseerde of simpele, simpele data, gebaseerde systemen.

442
00:29:05,599 --> 00:29:12,159
Marianne: Dus daar gaat het juist heel erg in het werkproces echt omheen.

443
00:29:12,159 --> 00:29:14,519
Joop: Welke vragen zou je jezelf kunnen stellen om na te denken over dat werkproces?

444
00:29:15,400 --> 00:29:21,639
Marianne: Dat is een leuke vraag eigenlijk.

445
00:29:23,160 --> 00:29:25,240
Marianne: Ik denk vooral.

446
00:29:28,039 --> 00:29:29,480
Marianne: Wat heb ik nodig?

447
00:29:30,119 --> 00:29:32,200
Marianne: Wanneer ik de uitkomst van zo'n systeem heb, wat kan ik daarmee doen, omdat eigenlijk als eerste vraag is gaan stellen wanneer zo'n werkproces vormgeeft, wat zou ik er allemaal mee kunnen?

448
00:29:32,200 --> 00:29:41,480
Marianne: Zou ik direct dit kunnen?

449
00:29:41,640 --> 00:29:42,840
Marianne: Wat is het doel ervan?

450
00:29:42,839 --> 00:29:44,120
Marianne: En wat wil ik uiteindelijk aan het einde van dit proces bereiken?

451
00:29:44,119 --> 00:29:48,359
Joop: Een soort van verandering eigenlijk.

452
00:29:48,359 --> 00:29:50,039
Marianne: Dus dat je dat eigenlijk al in kaart brengt.

453
00:29:51,000 --> 00:29:53,639
Marianne: En oké, welke beslissing moet ik maken aan het einde van dit proces.

454
00:29:53,720 --> 00:29:57,480
Marianne: En welke informatie heb ik daarvoor nodig?

455
00:29:57,480 --> 00:29:59,720
Marianne: Dan kan bijvoorbeeld de uitput van het algoritme kan daar één onderdeel van zijn die iets bepaalt, waar heb je natuurlijk nog veel meer voor nodig.

456
00:29:59,720 --> 00:30:07,160
Marianne: En dan misschien ook te denken, oké, wat zijn de risico's als ik het geautomatiseerd doe.

457
00:30:07,160 --> 00:30:11,799
Marianne: Als ik het gewoon overneem, wat gebeurt er dan?

458
00:30:11,799 --> 00:30:14,039
Marianne: En hoe kunnen ik dat voorkomen?

459
00:30:14,039 --> 00:30:15,960
Marianne: Wat heb ik daarvoor nodig om zo'n zo'n uitkomst kritisch te bekijken.

460
00:30:15,960 --> 00:30:21,240
Marianne: En op die manier eigenlijk heel goed vast te leggen wat die verschillende stappen zijn, welke informatie heb je in ieder geval nodig naast dat algoritme.

461
00:30:21,240 --> 00:30:29,160
Joop: Ja, precies.
468
00:30:30,839 --> 00:30:36,120
Joop: Ik denk als je daar de antwoord op heeft dat je dat je in ieder geval kan beginnen, toch?

462
00:30:29,400 --> 00:30:30,519
Marianne: Dan denk ik en ook hier denk ik het inderdaad al over nadenken, het opschrijven, het gestructureerd mee aanpakken en dat blijven op blijven reflecteren, dat dat echt de belangrijke stappen blijven.

463
00:30:36,119 --> 00:30:46,920
Marianne: Want ja, we kunnen niet alles dichttimmeren van tevoren, dat geldt voor alles, we gaan dingen veranderen.

464
00:30:47,079 --> 00:30:52,439
Marianne: Dus juist als je weet waarom je bepaalde keuzes in eerste instantie hebt gemaakt.

465
00:30:52,759 --> 00:30:56,840
Marianne: En je houdt bij wat er verandert en wat er gebeurt, dan kun je elke keer terugkijken op het proces en aanpassen waar nodig.

466
00:30:56,839 --> 00:31:02,839
Marianne: Ik denk dat dat ook een hele belangrijke stap is dat we ons veel meer aanleggen om dat gewoon heel consequent te gaan doen.

467
00:31:03,000 --> 00:31:08,519
Joop: Je gaf in het voorgesprek aan dat je op een HAVO ga je ook wat lesgeven.

468
00:31:10,759 --> 00:31:17,400
Joop: Als je nou zo'n HAVO 2 zou moeten uitleggen welke risico's er nog zijn naast biases bij profilering, hoe zou je dat zou je dat verwoorden?

469
00:31:17,640 --> 00:31:29,319
Marianne: Ja, dat is een goede vraag.

470
00:31:30,599 --> 00:31:32,839
Marianne: Zeker bij profilering denk ik dat de grootste risico's wel echt op het bias zitten, en op gewoon überhaupt fouten die het gemaakt die het maakt, dus dat het gewoon bepaalde dingen aangeeft dat het wel naar gekeken moet worden terwijl het niet zo is en andersom.

471
00:31:32,839 --> 00:31:46,439
Marianne: Ik denk bij de HAVO 2 richt ik me vooral nu op het ChatGPT.

472
00:31:47,240 --> 00:31:51,799
Marianne: En de generatieve AI-systeem, omdat dat het meeste is waar zij natuurlijk in aanraking mee komen.

473
00:31:52,440 --> 00:31:57,000
Joop: Moeten ze daar ook weten dat er bias in zit.

474
00:31:57,319 --> 00:32:00,359
Marianne: Zeker.

475
00:32:00,359 --> 00:32:01,079
Marianne: Ik denk dat dat ook wel echt belangrijk is.

476
00:32:01,400 --> 00:32:03,320
Marianne: Ik denk dat daar in eerste instantie is natuurlijk hetgene van misinformatie heel erg belangrijk.

477
00:32:03,319 --> 00:32:07,319
Marianne: En weten hoe ga ik er nou mee om, laat ik het elke keer gewoon alles voor mij doen.

478
00:32:07,319 --> 00:32:10,759
Marianne: Of ga ik het op een slimmere manier, wat we net ook hadden over kritisch denken.

479
00:32:10,920 --> 00:32:14,279
Marianne: Laat ik aan mij vragen stellen of laat ik hem begeleiden.

480
00:32:14,279 --> 00:32:17,480
Marianne: Maar ook voor hun weten dat als jij een vraag van plaatjes te maken, dat daar een grote bias in zit, zeker voor misschien ook kinderen die juist zelf vanuit de minderheidsgroep komen, om dat heel goed te weten.

481
00:32:17,480 --> 00:32:28,119
Marianne: Dat is belangrijk dat systeem hebben dat nou eenmaal omdat ze een representatie zijn van wat wij allemaal op het internet zitten te doen.

482
00:32:28,840 --> 00:32:35,240
Marianne: Is denk ik wel heel belangrijk.

483
00:32:35,880 --> 00:32:37,799
Joop: En zou je ze ook iets moeten uitleggen over als ze het toch terugbrengen naar die naar die profileringsalgoritmes, het verschil tussen correlatie en causaliteit.

484
00:32:38,599 --> 00:32:49,879
Joop: En hoe zou je dat dan doen?

485
00:32:49,960 --> 00:32:51,799
Marianne: Ja, dat is inderdaad een hele belangrijke, die goed om duidelijk te hebben.

486
00:32:51,799 --> 00:32:56,119
Marianne: Dus heel veel mensen denken, oké, als het algoritme dit zegt en dat dit erin zit, dan is dat zo, dan komt dat daardoor, terwijl al die algoritmes zijn gebaseerd op correlatie, dat betekent dat het verband houdt met elkaar.

487
00:32:56,119 --> 00:33:08,519
Marianne: Vaak voorbeelden die we gebruiken, zijn de hele duidelijke, zoals als er meer ijsjes worden verkocht in de zomer.

488
00:33:09,159 --> 00:33:16,039
Marianne: En er worden meer mensen aangevallen door haaien.

489
00:33:16,039 --> 00:33:19,000
Marianne: Als je dat zou willen voorspellen, dan zou je dat kunnen gebruiken, dat is een correlatie, namelijk meer ijsjes en meer haai-aanvallen.

490
00:33:19,159 --> 00:33:25,960
Marianne: Er zijn meer mensen op het strand.

491
00:33:25,960 --> 00:33:27,479
Marianne: Maar dat is geen causaliteit.

492
00:33:27,720 --> 00:33:29,319
Marianne: Het feit dat er meer ijsjes worden verkocht, betekent natuurlijk niet dat er meer mensen worden aangevallen door haaien.

493
00:33:29,480 --> 00:33:34,039
Joop: We all moeten stoppen met ijsje eten, want ik krijg een haai-aanval.

494
00:33:34,119 --> 00:33:36,919
Marianne: Dus meeste inderdaad, is het is inderdaad dit soort voorbeelden die heel duidelijk zijn, waarbij je heel goed kan uitleggen.

495
00:33:37,639 --> 00:33:43,079
Marianne: Oké, er is een correlatie, waarschijnlijk vanwege het feit dat het zomaar is, of dat het maar weer is, of iets dergelijks.

496
00:33:43,079 --> 00:33:47,799
Joop: Maar het wordt lastig als het heel dichtbij komt en wij daar wel causaliteit in zien, een oorzakelijk verband.

497
00:33:47,960 --> 00:33:57,400
Marianne: En daar zit ook inderdaad het grootste, maar daar zit inderdaad een gevaar.

498
00:33:57,400 --> 00:34:01,519
Marianne: Wanneer wij gaan denken van oké, maar deze groepen, daar gebeurt nou eenmaal vaak iets.

499
00:33:58,840 --> 00:34:05,519
Marianne: Dus dat is ook een oorzaak.

500
00:34:05,759 --> 00:34:07,919
Marianne: Dat jij in zo'n van zo'n groep onderdeel bent, betekent dat jij een grotere kans hebt, dan gaat het natuurlijk fout.

501
00:34:08,000 --> 00:34:13,920
Marianne: Het feit dat jij in een bepaalde groep zit, zegt niks over jouw gedrag.

502
00:34:14,239 --> 00:34:18,000
Joop: Heb je een goed voorbeeld van wel een oorzakelijk verband?

503
00:34:18,639 --> 00:34:22,000
Marianne: Kijken, het is altijd oorzaken zijn altijd heel lastig te refereren.

504
00:34:24,639 --> 00:34:28,559
Marianne: Zeker in het geval van profilering moet ik hier echt even over nadenken.

505
00:34:28,719 --> 00:34:32,079
Joop: Ja, maar het hoeft niet per se profilering te zijn.

506
00:34:32,639 --> 00:34:34,719
Joop: Ik zit zelf te denken om in het voorbeeld van jou te blijven.

507
00:34:34,719 --> 00:34:39,360
Joop: Dat er veel meer mensen.

508
00:34:39,920 --> 00:34:43,199
Joop: Dat ze verbrand zijn, ernstig verbrand zijn.

509
00:34:44,800 --> 00:34:48,000
Joop: En de zon.

510
00:34:49,518 --> 00:34:50,639
Joop: Daar zit een oorzakelijk verband in.

511
00:34:50,639 --> 00:34:52,559
Joop: Dus zonnig weer zorgt ervoor dat mensen sneller verbranden.

512
00:34:53,119 --> 00:34:57,440
Joop: En als je in een medische wereld zit of zo, dan zou je dan weet je van, oh ja, als het UV boven een bepaalde niveau komt, dan kunnen we de oorzaak en het verband kunnen we met elkaar verbinden.

513
00:34:58,000 --> 00:35:11,919
Marianne: Inderdaad, daar en wanneer ik nu terugdenken naar het voorbeeld over de ijsjes en de haai-aanvallen, als je de haai-aanvallen zou willen voorspellen, en dan kan je in ieder geval kijken naar hoeveel mensen zijn er in het water.

514
00:35:11,920 --> 00:35:22,400
Marianne: Hoeveel mensen gaan er zwemmen, of zien we dat de haaien die trekken te grond.

515
00:35:22,480 --> 00:35:27,440
Marianne: Hoeveel haaien er in het gebied?

516
00:35:27,679 --> 00:35:29,680
Marianne: Dat zijn factoren die echt direct relateren aan het feit dat er haai-aanvallen zijn, als er veel mensen in het water zijn en er zijn veel haaien, dan is dat redelijk kan je altijd weer over discussiëren, maar ook oorzakelijk voor mij dat haai-aanvallen zijn.
524
00:35:48,559 --> 00:35:55,279
Joop: Het is natuurlijk ook goed om te weten dat het best wel heel erg lastig is om maar data dan die oorzakelijk verband te halen.

517
00:35:30,800 --> 00:35:47,280
Marianne: Wanneer je vanuit data iets gaat leren, kom je altijd op correlatie.

518
00:35:57,440 --> 00:36:01,200
Marianne: Data is volledig correlatie gebaseerd.

519
00:36:01,280 --> 00:36:04,080
Marianne: Je hebt een aantal natuurlijk i't die echt causale modellen waar je met mooie grafieken kan aangeven.

520
00:36:04,079 --> 00:36:10,320
Marianne: Wat daadwerkelijk echt volgens de mens oorzakelijk verband heeft, maar het meest wat geleerd is op data, is daarin is echt correlatie gebaseerd.

521
00:36:10,320 --> 00:36:19,119
Marianne: We zien hetzelfde tegelijk voorkomen.

522
00:36:19,119 --> 00:36:21,359
Joop: Ik zat er te zoeken, ik had al gezegd van ik had dat kaartjes gemaakt omdat we zo één op één zitten met deze aflevering.

523
00:36:23,920 --> 00:36:31,039
Joop: Ik zat te zoeken, want in het vooronderzoek had ik gezien dat je ook gewerkt hebt aan een app, maar ik kan de app niet vinden.

524
00:36:31,039 --> 00:36:38,720
Joop: Klopt dat.

525
00:36:39,519 --> 00:36:41,440
Joop: Voordat je hiermee aan de slag ging.

526
00:36:42,719 --> 00:36:44,319
Marianne: Ik heb aan verschillende dingen gewerkt, dus ik zit even te zoeken waar je naar probeert te refereren.

527
00:36:44,480 --> 00:36:50,400
Marianne: Ik doe vooral veel onderzoeken naar type algoritmes.

528
00:36:50,800 --> 00:36:54,080
Marianne: Met name ook in het inspectiedomein, dat is een andere waar ik een lab op heb waar je echt daar naar zoeken, dan zitten we echt op AI.

529
00:36:54,960 --> 00:37:03,600
Joop: Nou, ik zat eigenlijk te zoeken van wat je misschien in een heel ander gebied hebt geleerd, wat je hier meeneemt in deze opdracht rondom deze afspraken.

530
00:37:03,599 --> 00:37:15,039
Marianne: Het is een beetje suf dat ik het nou niet kan vinden, even niet precies waar je daar voor te refereren, dat is natuurlijk lastig zo ontzettend veel onderzoek.

531
00:37:22,320 --> 00:37:31,039
Joop: Een wiskundig model voor brandwondherstel.

532
00:37:32,960 --> 00:37:36,160
Marianne: Daar was ik naar op zoek.

533
00:37:36,480 --> 00:37:37,680
Marianne: Dat is al een tijd geleden, vanuit mijn onderzoek in mijn studie.

534
00:37:39,039 --> 00:37:46,080
Marianne: Dat we gingen kijken, oké, wiskundige modellen kunnen iets echt natuurkundig beschrijven.

535
00:37:46,079 --> 00:37:50,639
Marianne: Daar proberen zo dicht mogelijk bij het oorzaak gevolg te blijven, het nadeel daarvan is dat die modellen ontzettend langzaam zijn, en eigenlijk is in de praktijk daarmee niet haalbaar.

536
00:37:50,639 --> 00:38:00,159
Marianne: En op die manier heb ik daarin gebeurd dat te vervangen door een AI-model, wat eigenlijk is geleerd op basis van het model van de wiskunde en of de data van de wiskunde.

537
00:38:00,159 --> 00:38:11,199
Marianne: Maar die eigenlijk probeert die oorzakelijk verbanden om te zetten naar correlatie, veel sneller kan.

538
00:38:11,199 --> 00:38:16,239
Marianne: Want de AI kan het in no-time kan die dat correlatie gebaseerd hebben doorgerekend.

539
00:38:16,480 --> 00:38:21,119
Marianne: Dat werkt echt hartstikke goed.

540
00:38:21,519 --> 00:38:23,199
Marianne: En daar zit eigenlijk die vertaling van heel erg oorzakelijk kost in dit geval heel veel tijd om te berekenen, dan moet je echt aan op een gegeven moment dagen denken, terwijl de behandeling van brandwonden, vraagt echt om heel veel heel snel handelen.

541
00:38:23,199 --> 00:38:36,959
Marianne: En dat kan met dus een AI die heel erg correlatie gebaseerd is op basis van die data kon hij dat heel erg snel, eigenlijk met bijna dezelfde nauwkeurigheid dat kon voorspellen.

542
00:38:37,279 --> 00:38:46,439
Marianne: Daar zit een mooie waardevolle stap in.

543
00:38:47,000 --> 00:38:49,959
Joop: En heb je iets van van wat je daar toen geleerd hebt, nu meegenomen in zeggen van ja, maar die afspraken.

544
00:38:49,960 --> 00:38:57,320
Joop: Die zijn eigenlijk daar wel naartoe terug te herleiden.

545
00:38:57,960 --> 00:39:00,760
Marianne: Ik denk deels heb je daar natuurlijk heel erg de stap van wat wil je bereiken, die uiteindelijk daar ook wel mee kan.

546
00:39:01,320 --> 00:39:07,159
Marianne: Waarvoor gebruik je die AI.

547
00:39:07,239 --> 00:39:09,240
Marianne: En ik denk dat daar juist heel erg die waardevolle stap is.

548
00:39:09,559 --> 00:39:12,440
Marianne: tussen wat is de oorzakelijk aan de hand.

549
00:39:12,440 --> 00:39:15,079
Marianne: En wat we proberen zo nauwkeurig mogelijk te beschrijven.

550
00:39:15,079 --> 00:39:17,319
Marianne: En heel goed begrip hebben van hoe zit dat proces eruit in de praktijk.

551
00:39:17,320 --> 00:39:21,559
Marianne: En dan kijken naar wat kan AI hier voor een rol spelen.

552
00:39:21,559 --> 00:39:24,839
Marianne: En ik denk dat dat ook een vraag is die we onszelf continu in het ontwikkelen van algoritmes bij de overheid moeten stellen, is wat willen we bereiken?

553
00:39:25,480 --> 00:39:32,839
Marianne: Hoe goed begrijpen we dit proces zelf?

554
00:39:32,840 --> 00:39:35,079
Marianne: Wat we proberen te modelleren en welke rol kan AI hier in spelen.

555
00:39:35,559 --> 00:39:40,039
Marianne: Het hoeft niet altijd alles over te nemen.

556
00:39:40,039 --> 00:39:41,879
Joop: Helemaal niet.

557
00:39:41,880 --> 00:39:42,519
Marianne: Juist wil je graag een goede samenwerking, een goede combinatie hebben.

558
00:39:43,000 --> 00:39:46,279
Marianne: Dus ik denk dat die vraag daarin ook heel erg belangrijk is om jezelf te blijven stellen, welke rol geven we AI of een algoritme.

559
00:39:46,280 --> 00:39:53,239
Marianne: Want die NTA is juist ook erg bedoelt voor algoritmes die niet AI zijn.

560
00:39:53,239 --> 00:39:58,119
Marianne: Dat wel goed om even te benadrukken.

561
00:39:58,360 --> 00:40:00,039
Marianne: Wanneer we het veel over AI hebben dat juist heel veel simpele door mensen opgestelde regels.

562
00:40:00,039 --> 00:40:05,320
Marianne: Dat ook daar heel erg dat risico in zit en dat we daar ook echt proberen op in te zetten, dus echt als aanvulling op de AI-actelijke.

563
00:40:05,320 --> 00:40:14,280
Marianne: Dat dat daar ontzettend belangrijk is.

564
00:40:14,679 --> 00:40:16,199
Marianne: Die vraag welke rol geef je het hoe ga je daarmee om.

565
00:40:16,199 --> 00:40:19,160
Joop: Is er iets waar jij rondom deze technologie, even persoonlijk even los van deze NTA.

566
00:40:20,760 --> 00:40:27,719
Joop: Is er iets waar je van wakker ligt rondom AI?

567
00:40:27,719 --> 00:40:31,320
Marianne: Ja, ik bedoel, het is een hele goede ontwikkeling.

568
00:40:32,599 --> 00:40:35,400
Marianne: Hetgeen waar ik het meeste van wakker ligt, eigenlijk is hoe gaan wij er als mensen mee om.

569
00:40:35,480 --> 00:40:40,039
Marianne: Dat je daar die vraag van hoe zorgen we dat iedereen eigenlijk weet wat deze technologie is, hoe je er op een goede manier mee omgaat, zorgen dat we daar goede duidelijke regels over krijgen.

570
00:40:40,360 --> 00:40:49,960
Marianne: De duidelijke voorbeelden vind ik nu bijvoorbeeld al wanneer je naar agents gaat en iedereen dat maar toegang geeft tot zijn bankgegevens en dergelijke.

571
00:40:50,039 --> 00:40:56,519
Marianne: Dan denk ik, ja, of hoe vaak je toch ziet dat iemand nou ja, rectoren quotes van Einstein erop zetten die niet waar zijn, advocaten die.

572
00:40:56,599 --> 00:41:05,639
Marianne: Dus ik denk dat daar heel erg het risico zitten, natuurlijk wat veel meer dingen in onze maatschappij gehad, auto's en dingen.

573
00:41:09,159 --> 00:41:16,680
Marianne: De technologie op zich is één ding.

574
00:41:16,679 --> 00:41:18,920
Marianne: Maar die kunnen het steeds meer verbeteren, steeds veiliger maken.
583
00:41:21,960 --> 00:41:28,039
Marianne: Dat hebben we ook met auto's gedaan, veiligheidsgordels, airbags, antislipsystemen en dergelijke.
 575
00:41:18,920 --> 00:41:21,959
Marianne: Dus dat gaan we met AI natuurlijk en het algoritmes ook aan het doen, proberen we steeds veiliger te maken.
 576
00:41:28,039 --> 00:41:32,759
Marianne: De technologie ontwikkelen we door.
 577
00:41:32,760 --> 00:41:34,680
Marianne: Ja, de mens, dat is eigenlijk de onzekere factor.
 578
00:41:34,679 --> 00:41:37,719
Marianne: Daar heb je minder invloed op.
 579
00:41:37,719 --> 00:41:38,920
Marianne: En juist zorgen dat die er op een goede manier mee om kan gaan.
 580
00:41:38,920 --> 00:41:41,960
Marianne: Als het ware een AI-rijbewijs, om weten voor maar even door te trekken.
 581
00:41:42,679 --> 00:41:47,320
Marianne: Ja, ik zie dat daar nu het meeste fout in, eigenlijk dat mensen technologie gebruiken, die veel verder is dan zij eigenlijk begrijpen, niet weten hoe ze er goed mee om moeten gaan, wat de risico's ervan zijn.
 582
00:41:47,639 --> 00:42:01,559
Marianne: Ja, daar gebeuren dan denk ik het snelste de grootste ongelukken.
 583
00:42:02,039 --> 00:42:05,720
Joop Snijder: En hopelijk gaat dan die NTA daar straks bij helpen.
 584
00:42:06,519 --> 00:42:10,199
Marianne: Ik ga in ieder geval een aantal organisaties hopelijk helpen om daar wel meer structuur in hebben.
 585
00:42:10,199 --> 00:42:14,279
Joop Snijder: Ja toch?
 586
00:42:14,279 --> 00:42:14,919
Joop Snijder: En als laatste vragen, want vaak worden dit soort dingen gezien.
 587
00:42:15,159 --> 00:42:18,039
Joop Snijder: Je noemde ook de AI-act, maar zeker ook raamwerken of dat soort zaken als rem op innovatie.
 588
00:42:18,199 --> 00:42:25,159
Joop Snijder: Waarom gaat de NTA innovatie zo direct juist ondersteunen of stimuleren?
 589
00:42:25,480 --> 00:42:31,640
Marianne: Ik vind inderdaad regels en richtlijnen zijn niet per se een rem voor innovatie.
 590
00:42:31,880 --> 00:42:36,840
Marianne: Ten eerste, je wil dat innovatie waardevol is.
 591
00:42:37,159 --> 00:42:39,879
Marianne: En je wil dat innovatie veilig is, kan heel veel innoveren, maar als het vervolgens onze maatschappij alleen maar pijn doet, is het dan echt daadwerkelijk innovatie.
 592
00:42:39,880 --> 00:42:48,440
Marianne: Dus dat is een term die je daarover kan richten.
 593
00:42:48,440 --> 00:42:50,279
Marianne: En ook denk ik, je wordt gedwongen, ook om deels creatiever te zijn door regel.
 594
00:42:50,360 --> 00:42:54,519
Marianne: Je wil iets verantwoorden, en zitten randen aan en we hebben als mensen ook randen nodig om creatief te kunnen zijn.
 595
00:42:54,760 --> 00:43:00,439
Marianne: Dus ik denk dat je daar ook al de fouten gaat door te zeggen dat regels innovatie stoppen.
 596
00:43:00,760 --> 00:43:05,160
Marianne: Ik bedoel, juist als je een keer zegt van het kan niet zwaarder dan dit, dan ga je innovatieve oplossingen bedenken.
 597
00:43:05,320 --> 00:43:10,599
Marianne: Dat zie je ook in de algoritmes, wanneer je bijvoorbeeld kijkt naar het kleiner maken van modellen.
 598
00:43:10,920 --> 00:43:15,239
Marianne: Dat kan alles maar groter en groter en groter en groter.
 599
00:43:15,400 --> 00:43:17,719
Marianne: Maar juist wanneer je zegt, hey, wacht eens even, we willen niet alleen maar groter.
 600
00:43:17,720 --> 00:43:21,880
Marianne: Wat dat is te veel energie, of hebben we de data niet.
 601
00:43:21,880 --> 00:43:24,519
Marianne: Laten we nou eens gaan nadenken hoe we dit klein kunnen.
 602
00:43:24,679 --> 00:43:27,159
Marianne: Dan komen de nieuwe innovaties in de technologie die dat mogelijk maken.
 603
00:43:27,159 --> 00:43:31,120
Marianne: En voor de rest denk ik echt: we hebben gewoon regels nodig.
 604
00:43:28,920 --> 00:43:34,799
Marianne: Want innovatie moet ook de goede kant op gaan.
 605
00:43:34,880 --> 00:43:37,360
Marianne: En dat kun je juist heel erg stimuleren door de juiste regels en daar zit dan natuurlijk de vraag.
 606
00:43:37,360 --> 00:43:44,480
Marianne: Het is niet zozeer dat alle regels zijn ook genoeg regels die innovatie wel kunnen stoppen.
 607
00:43:45,360 --> 00:43:49,119
Marianne: Het gaat om de juiste kader stellen die zorgen dat innovatie die we willen hebben, dat die waardevol is, dat hij echt iets bijdraagt en iets voor ons doet.
 608
00:43:49,280 --> 00:43:57,280
Marianne: En de regels die niet in de hand werken.
 609
00:43:57,840 --> 00:44:01,280
Marianne: Daar wil je dan vanaf.
 610
00:44:01,519 --> 00:44:03,120
Marianne: Maar het feit dat regels aanwezig zijn iets wat goed is, denk ik en ook wat gewoon heel erg belangrijk is voor onze maatschappij.
 611
00:44:03,199 --> 00:44:08,639
Joop Snijder: En het leuke is de luisteraars kunnen nu gewoon meewerken aan de afspraken in ieder geval.
 612
00:44:08,800 --> 00:44:13,679
Joop Snijder: Het zijn dan geen regels, maar afspraken.
 613
00:44:13,760 --> 00:44:16,240
Joop Snijder: Dus wil je nog één keer herhalen waar ze terecht kunnen, waar jullie nou op zoek zijn.
 614
00:44:16,239 --> 00:44:22,000
Marianne: Ja, dus bij de NEN, dat is ons Nederlandse normalisatieinstituut.
 615
00:44:22,000 --> 00:44:26,320
Marianne: Daar staat de NTA rondom profilering algoritmes bij de overheid.
 616
00:44:26,320 --> 00:44:31,360
Marianne: Daar kun je inloggen.
 617
00:44:31,360 --> 00:44:32,719
Marianne: En dan kun je op de tekst zelf je commentaar geven, eigenlijk op alle aspecten ervan.
 618
00:44:32,719 --> 00:44:37,599
Marianne: Er zijn er dingen die je niet duidelijk vindt.
 619
00:44:37,599 --> 00:44:39,440
Marianne: Denk je nou, dit vind ik dit in de praktijk ontzettend moeilijk voor mij om uit te voeren of ik ben het hier niet mee eens.
 620
00:44:39,440 --> 00:44:45,679
Marianne: En dan graag altijd met een suggestie.
 621
00:44:45,679 --> 00:44:47,680
Marianne: Wanneer we alleen commentaar krijgen als ik ben het hier niet mee eens.
 622
00:44:48,159 --> 00:44:50,880
Marianne: Ja, dat is voor ons heel erg moeilijk.
 623
00:44:50,880 --> 00:44:52,960
Marianne: Dus het liefst altijd zo concreet mogelijk.
 624
00:44:52,960 --> 00:44:54,799
Marianne: Wat vind je niet duidelijk?
 625
00:44:54,800 --> 00:44:56,559
Marianne: Wat zou je graag anders zien?
 626
00:44:56,559 --> 00:44:58,960
Joop Snijder: Je hebt de invloed op, toch?
 627
00:44:59,440 --> 00:45:00,719
Joop Snijder: Er wordt heel snel altijd geklaagd.
 628
00:45:01,519 --> 00:45:03,840
Joop Snijder: Je wil niet weten hoeveel er geklaagd wordt op de AI-act.
 629
00:45:04,079 --> 00:45:06,799
Joop Snijder: Op deze set afspraken, heb je gewoon invloed als luisteraar.
 630
00:45:06,800 --> 00:45:11,200
Marianne: Zeker, dus dat is heel mooi eraan.
 631
00:45:11,199 --> 00:45:12,799
Marianne: Ik denk wel het hele proces draait echt al om verschillende organisaties bij elkaar hebben, verschillende mensen van verschillende achtergronden bij elkaar hebben.
 632
00:45:12,800 --> 00:45:21,359
Marianne: En gezamenlijk toewerken naar een begrip.
 633
00:45:21,360 --> 00:45:24,159
Marianne: Wat betekent non-discriminatie bij algoritmes.
 634
00:45:24,159 --> 00:45:27,119
Marianne: En hoe kunnen we dat structureren.
 635
00:45:27,119 --> 00:45:29,119
Marianne: Ja, nu gaan we ook echt naar iedereen toe.
 636
00:45:29,119 --> 00:45:31,279
Marianne: En zeggen oké, help ons, wij hebben een start gemaakt, wij hebben de eerste basis neergezet.
 637
00:45:31,280 --> 00:45:36,000
Marianne: Help ons nu met het verder aanscherpen, dit in de praktijk gaan brengen.
 638
00:45:36,320 --> 00:45:40,319
Marianne: We hopen op termijn ook, er is interesse ook vanuit meer Europees en internationaal niveau, wat we hier in Nederland aan het doen zijn.
 639
00:45:40,639 --> 00:45:46,799
Marianne: Dus ja, mocht dat hier goed gaan uitpakken in de praktijk, moeten we het nog gaan zien, dan hoop ik ook echt dat we hiermee bredere impact kunnen maken naast alleen in Nederland.
 640
00:45:46,800 --> 00:45:55,199
Joop Snijder: Heel mooi.
 641
00:45:55,199 --> 00:45:55,839
Joop Snijder: Het is eigenlijk de oproep is, je zet hem ze direct uit deze podcast en dan download je meteen deze set van afspraken.
 642
00:45:55,840 --> 00:46:02,880
Marianne: En dan vooral denk ik daarna.
 643
00:46:03,760 --> 00:46:05,600
Marianne: Blijf goed nadenken wanneer je met AI aan de slag gaat, zowel wanneer je het ontwikkelt als wanneer je het gebruikt.
 644
00:46:06,079 --> 00:46:11,440
Marianne: Wat doe ik met deze uitkomsten?
654
00:46:13,599 --> 00:46:17,120
Marianne: Wat stop ik in en welke informatie heb ik nodig om een goede keuze te maken.

645
00:46:11,920 --> 00:46:13,599
Joop Snijder: Superfijn dat je dit wilde komen vertellen.

646
00:46:17,280 --> 00:46:19,759
Joop Snijder: Dankjewel daarvoor.

647
00:46:20,239 --> 00:46:21,440
Marianne: Ja, leuk om hier te zijn.

648
00:46:21,440 --> 00:46:23,200
Joop Snijder: Leuk dat jullie weer luisterden naar deze aflevering, zoals gezegd, je hebt invloed, dus oefen die uit, zou ik zeggen.

649
00:46:24,559 --> 00:46:32,719
Joop Snijder: En vergeet je ook niet te abonneren via je favoriete podcast app, dan mis je geen aflevering tot de volgende keer.

650
00:46:32,719 --> 00:46:38,720
Joop Snijder: En vergeet je ook niet te abonneren via je favoriete podcast app, dan mis je geen aflevering tot de volgende keer.