AIToday Live

S07E11 - De Volksbank als pionier in ethische AI - met Joris Krijger

Aigency by Info Support Season 7 Episode 11

Joris Krijger, Ethics & AI Officer bij de Volksbank, vertelt over de implementatie van verantwoorde AI binnen de bank. Hij beschrijft hoe ethische overwegingen worden geïntegreerd in AI-ontwikkeling en -implementatie.

De Volksbank heeft een systematische aanpak ontwikkeld voor het beoordelen van AI-toepassingen, waarbij vijf kernwaarden centraal staan. Deze methode helpt de bank verbeteringen te herkennen, zelfs als een systeem niet perfect is.

Om ethiek te verankeren in de organisatie, heeft de Volksbank verschillende structuren opgezet, waaronder een ethics office en een ethische commissie. Het werk van Krijger en zijn team reikt inmiddels verder dan alleen AI en wordt ook toegepast op andere bedrijfsprocessen.

Onderwerpen

  • Ethische principes in AI-ontwikkeling
  • Governance-structuur voor verantwoorde AI
  • Verschil tussen AI en traditionele automatisering
  • Systematische aanpak van ethische dilemma's
  • Organisatorische structuren voor ethiek

Links

Genoemde entiteiten: Volksbank - Joris Krijger

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:06,720
In deze aflevering hoor je Joris Krijger, AI & Ethics Officer bij de Volksbank.

2
00:00:06,720 --> 00:00:13,080
Hij vertelt hoe een initiatief van ontwikkelaars uitgroeide tot een organisatiebreed ethisch

3
00:00:13,080 --> 00:00:14,560
kompas voor AI.

4
00:00:14,560 --> 00:00:20,280
Hij deelt deze concrete inzichten over hoe je ethische principes vertaalt naar de praktijk

5
00:00:20,280 --> 00:00:24,440
zonder innovatie te remmen of in abstracte kaders te verzanden.

6
00:00:24,441 --> 00:00:26,440
[Muziek]

7
00:00:26,440 --> 00:00:30,020
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday live.

8
00:00:30,020 --> 00:00:32,880
Met vandaag de gast Joris Krijger van De Volksbank.

9
00:00:32,880 --> 00:00:35,640
En we gaan het over ethiek hebben.

10
00:00:35,640 --> 00:00:41,040
En dan vooral eigenlijk denk ik in het algemeen, maar hopelijk ook specifiek over de bank.

11
00:00:41,040 --> 00:00:43,260
Mijn naam Joop Snijder, CTO bij Aigency.

12
00:00:43,260 --> 00:00:46,140
Mijn naam Niels Naglé, Area Lead, Data & AI bij Info Support.

13
00:00:46,140 --> 00:00:49,280
Joris, dankjewel dat je naar de studio wilde komen.

14
00:00:49,280 --> 00:00:51,520
Zou je je wel even voorstellen aan de luisteraars?

15
00:00:51,520 --> 00:00:53,400
Ja, zeker. Dank voor de uitnodiging.

16
00:00:53,560 --> 00:00:57,940
Mijn naam is Joris Krijger, ik ben Ethics & AI Officer bij de Volksbank sinds 2019.

17
00:00:57,940 --> 00:01:03,640
En daarnaast ben ik PhD-kandidaat aan de Erasmus Universiteit, ook sinds 2019 op het onderwerp ethiek en AI.

18
00:01:03,640 --> 00:01:07,500
Dus ik onderzoek de praktische en de theoretische kant van verantwoorde AI.

19
00:01:07,500 --> 00:01:14,560
Mooi. En sinds 2019, dat betekent dat je er vroeg bij bent op het vakgebied van AI, toch?

20
00:01:14,560 --> 00:01:18,980
Ja, dat klopt. Ik zeg wel eens, in 2019 was ik echt een soort nerd kwadraat.

21
00:01:18,980 --> 00:01:22,820
Want niet alleen kunstmatige intelligentie, maar ook nog ethiek in kunstmatige intelligentie.

22
00:01:23,320 --> 00:01:26,960
Inmiddels merk je dat het onderwerp gewoon heel erg leeft. Dus dat is ontzettend gaaf om te merken.

23
00:01:26,960 --> 00:01:33,240
Ja. Kan je ons meenemen aan het begin, zeg maar, van de reis die je hebt gemaakt binnen de bank?

24
00:01:33,240 --> 00:01:37,740
Want ik neem aan dat er niet al een ethische commissie was toen je daar begon.

25
00:01:37,740 --> 00:01:42,620
Nee, nee, nee. De vraag was eigenlijk, mensen wilden wat gaan doen met eerlijke algoritme, heette dat toen.

26
00:01:42,620 --> 00:01:47,500
Dat was dan, zeg maar, een beetje de knullige variant van Responsible AI, eerlijke algoritme.

27
00:01:49,000 --> 00:01:52,220
En ik was daar gekomen omdat ik heb een achtergrond in filosofie.

28
00:01:52,920 --> 00:01:54,860
Ethiek en technologie heeft mij altijd geïnteresseerd.

29
00:01:54,860 --> 00:01:57,360
En ik ben afgestudeerd op de bankcrisis van 2008.

30
00:01:57,360 --> 00:02:01,840
De rol van technologie en het gebrek aan ethiek, zou je kunnen zeggen.

31
00:02:01,840 --> 00:02:07,000
En op basis daarvan had de bank mij benaderd van, hé, wij willen nu iets gaan doen met eerlijke algoritme.

32
00:02:07,000 --> 00:02:11,820
Dat kwam voort uit het feit dat ontwikkelaars allerlei dilemma's zagen waarvan ze dachten,

33
00:02:11,820 --> 00:02:13,860
ja, daar zouden wij niet verantwoordelijk voor moeten zijn.

34
00:02:13,980 --> 00:02:16,720
Wat is een eerlijke verdeling mannen en vrouwen in je kredietverstrekking?

35
00:02:16,720 --> 00:02:18,960
Wanneer is een model uitlegbaar genoeg?

36
00:02:18,960 --> 00:02:22,560
Allemaal vragen waarvan ze zeiden, ja, er wordt nu verondersteld dat wij dat kunnen oplossen.

37
00:02:22,560 --> 00:02:24,660
Maar dit is eigenlijk een organisatie vraagstuk.

38
00:02:24,660 --> 00:02:27,460
Dus toen hebben ze daar een werkgroep voor opgetuigd.

39
00:02:27,460 --> 00:02:29,760
Maar dat kwam ook echt uit de ontwikkelaars?

40
00:02:29,760 --> 00:02:30,120
Ja.

41
00:02:30,120 --> 00:02:30,960
Oh, wat goed.

42
00:02:30,960 --> 00:02:31,620
Ja, ja.

43
00:02:31,620 --> 00:02:32,880
Dat hoor je niet vaak?

44
00:02:32,880 --> 00:02:33,680
Nee.

45
00:02:33,680 --> 00:02:37,180
Nou ja, in die zin, ik denk dat als je net ontwikkelaars vraagt,

46
00:02:37,180 --> 00:02:43,260
zeker nu er zoveel waardekaders zijn, dat ze best aangeven van, ja, wij weten soms ook niet wat we met deze kaders moeten.

47
00:02:43,260 --> 00:02:46,240
Zowel bij publieke als bij private organisaties.

48
00:02:46,240 --> 00:02:50,940
Alleen hier hadden ze dus echt de stap genomen om met een team aan de slag te gaan,

49
00:02:50,940 --> 00:02:54,180
om daar invulling aan te geven van wat zijn dan onze principes?

50
00:02:54,180 --> 00:02:57,340
En hoe zorgen we vooral dat we dat naar de praktijk vertalen?

51
00:02:57,340 --> 00:02:59,560
Daar hadden ze mij bij gevraagd.

52
00:02:59,560 --> 00:03:02,380
En ja, in het begin ben je dus vooral kaders aan het lezen.

53
00:03:02,380 --> 00:03:05,080
Maar al vrij snel, en daar gaat ook mijn onderzoek over,

54
00:03:05,160 --> 00:03:08,700
kom je erachter dat met alleen een mooi manifest je er nog lang niet bent.

55
00:03:08,700 --> 00:03:10,640
De ingewikkelde zit er natuurlijk in.

56
00:03:10,640 --> 00:03:12,000
Hoe breng je dat naar de praktijk?

57
00:03:12,000 --> 00:03:14,620
Hoe breng je dat tot aan het bureau van de data scientists?

58
00:03:14,620 --> 00:03:17,340
En dat is waar de afgelopen jaren voor mij ook over gegaan zijn.

59
00:03:17,340 --> 00:03:20,620
Van ja, we zijn het eens dat eerlijke algoritmen belangrijk zijn,

60
00:03:20,620 --> 00:03:23,120
dat ze uitlegbaar moeten zijn, dat we privacy moeten respecteren,

61
00:03:23,120 --> 00:03:25,020
dat er een vorm van accountability moet zijn.

62
00:03:25,020 --> 00:03:27,200
Al die principes die je in alle frameworks terug ziet komen.

63
00:03:27,200 --> 00:03:32,440
Alleen hoe regelen we dat concreet in voor de verschillende toepassingen die we hebben binnen de bank?

64
00:03:32,440 --> 00:03:33,700
En dat is een stuk ingewikkelder.

65
00:03:34,220 --> 00:03:36,940
En daar hebben we governance voor opgezet,

66
00:03:36,940 --> 00:03:40,180
om te zorgen dat we grip houden op die ethische aspecten van AI.

67
00:03:40,180 --> 00:03:40,620
Ja.

68
00:03:40,620 --> 00:03:43,880
En hoe hou je grip op die aspecten?

69
00:03:43,880 --> 00:03:45,560
Ja, dat is een hele goede vraag.

70
00:03:45,740 --> 00:03:54,920
Het startpunt voor mij was in ieder geval het inzicht dat we heel snel geneigd zijn te kijken naar de technische kanten van verantwoorden AI.

71
00:03:54,920 --> 00:04:00,580
Maar dat we heel erg over het hoofd zien wat voor bepalende rol de organisatie waarin die systemen ontwikkeld worden.

72
00:04:00,580 --> 00:04:04,100
Wat voor belangrijke rol die spelen in hoe uiteindelijk AI gebruikt wordt.

73
00:04:04,200 --> 00:04:06,740
Kan je ook nog iets vertellen?

74
00:04:06,740 --> 00:04:10,740
Want kijk, de automatisering hebben we al decennia.

75
00:04:10,740 --> 00:04:19,279
En de vraagstukken zijn in mijn beleving zeg maar niet heel veel anders bij AI als bij die automatisering.

76
00:04:19,380 --> 00:04:23,200
Want je grijpt in op bedrijfsprocessen, op het werk van mensen.

77
00:04:23,200 --> 00:04:26,480
En je neemt besluiten op basis van gegevens.

78
00:04:28,040 --> 00:04:33,780
Waarom is er zeg maar met AI nu zoveel aandacht rondom ethiek?

79
00:04:33,780 --> 00:04:39,920
En waarom is bij de bank ook dat gevoel gekomen?

80
00:04:39,920 --> 00:04:47,780
Ik denk omdat we met AI, en dat is natuurlijk het feit dat zo'n systeem zelf kan leren.

81
00:04:47,780 --> 00:04:52,420
Dat we een bepaalde mate van autonomie geven aan systemen.

82
00:04:52,500 --> 00:05:01,180
We delegeren taken aan systemen waar we misschien niet altijd comfortabel zijn met ook het delegeren van de verantwoordelijkheid voor de uitvoering van die taken aan systemen.

83
00:05:01,180 --> 00:05:01,460
Oh ja.

84
00:05:01,460 --> 00:05:03,860
En dat merk je natuurlijk steeds meer.

85
00:05:03,860 --> 00:05:10,380
Dat als het gewoon puur een soort descriptief algoritme is wat je laat zien dit gebeurt er.

86
00:05:10,380 --> 00:05:13,740
Dan voelt het minder spannend dan als het wat prescriptiever begint te worden.

87
00:05:13,740 --> 00:05:16,960
En met AI zie je natuurlijk de snelheid, de schaal.

88
00:05:16,960 --> 00:05:23,880
Maar ook het feit dat er gewoon meer incidenten zijn geweest in de afgelopen jaren met AI en algoritmes die uit de bocht zijn gevlogen.

89
00:05:23,880 --> 00:05:26,640
Waarvoor ook het bewustzijn groter is.

90
00:05:26,640 --> 00:05:32,620
En zelf probeer ik altijd wat gaat AI betekenen te duiden aan de hand van drie vragen.

91
00:05:32,620 --> 00:05:34,300
Van welke problemen gaat het voor ons oplossen?

92
00:05:34,300 --> 00:05:36,340
Welke problemen gaat het niet oplossen?

93
00:05:36,340 --> 00:05:41,860
En daar komen ook inderdaad jouw aspecten van nou er zijn een heleboel maatschappelijke vraagstukken die er al heel lang spelen.

94
00:05:41,860 --> 00:05:45,340
En die met AI en met algoritmes gewoon in een nieuwe vorm terugkomen.

95
00:05:45,340 --> 00:05:49,720
En de derde is welke nieuwe problemen creëert het als we AI gaan inzetten.

96
00:05:49,720 --> 00:05:51,200
En daar zit natuurlijk ook een heleboel interessant.

97
00:05:51,200 --> 00:05:52,140
Absoluut.

98
00:05:52,140 --> 00:05:54,640
Welke nieuwe problemen heeft het gecreëerd voor de Volksbank?

99
00:05:54,640 --> 00:05:59,300
Nou voor de Volksbank denk ik niet direct nieuwe problemen.

100
00:05:59,300 --> 00:06:03,020
Maar in het algemeen denk ik dat je kunt zeggen dat als je met AI aan de slag gaat.

101
00:06:03,020 --> 00:06:07,900
En ik zei het al die autonomie is ontzettend bepalend in de nieuwe problemen die AI creëert.

102
00:06:07,900 --> 00:06:11,720
Want je hebt het blackbox fenomeen, dat hoef ik jullie niet uit te leggen.

103
00:06:11,720 --> 00:06:16,580
Maar die systemen kunnen zo complex worden dat je niet meer precies weet hoe ze nou tot een beslissing komen.

104
00:06:16,580 --> 00:06:22,720
En je hebt natuurlijk het feit dat het dus een soort semi-autonome actoren worden in je beslissingsproces.

105
00:06:22,720 --> 00:06:28,800
Waarvan het makkelijk kan worden om allerlei verantwoordelijkheden eraan te delegeren.

106
00:06:28,800 --> 00:06:32,280
Zonder dat het een betekenisvolle vorm van verantwoordelijkheid is.

107
00:06:32,280 --> 00:06:36,480
Want als je uiteindelijk moet zeggen computer says no, dan voelt dat heel onrechtvaardig.

108
00:06:37,500 --> 00:06:39,320
Dus de bank kwam bij jou uit.

109
00:06:39,320 --> 00:06:42,860
Hoe ziet het er nu uit?

110
00:06:42,860 --> 00:06:48,240
Wat is het verschil tussen 2019 en we zitten nog in het staartje van 2024.

111
00:06:48,240 --> 00:06:51,300
Als mensen dit luisteren is denk ik alweer 2025.

112
00:06:51,300 --> 00:06:54,200
Wat is er in die periode gebeurd?

113
00:06:56,200 --> 00:07:01,780
We hebben eigenlijk een hele reis afgelegd van met elkaar vaststellen wat zijn de belangrijkste principes.

114
00:07:01,780 --> 00:07:10,680
Naar hoe zorgen we dat we daar proactief en structureel grip op houden in zowel de inkoop als het ontwikkelen van modellen binnen de bank.

115
00:07:11,480 --> 00:07:16,580
En we hebben eigenlijk op een aantal aspecten zou je kunnen zeggen geschakeld.

116
00:07:16,580 --> 00:07:20,240
Later heb ik daar ook met andere organisaties nog over van gedachten gewisseld.

117
00:07:20,240 --> 00:07:22,420
En hebben we daar een volwassenheidsmodel van gemaakt.

118
00:07:22,420 --> 00:07:25,120
Daar hebben jullie het geloof ik met Tamara Thuis ook over gehad.

119
00:07:26,300 --> 00:07:33,160
Maar de dingen waar we aanpassing op hebben gemaakt is op het niveau van het bewustzijn bij mensen.

120
00:07:33,160 --> 00:07:35,720
Over bijvoorbeeld bij ontwikkelaars.

121
00:07:35,720 --> 00:07:39,500
Dat de keuzes die ze maken niet alleen gaan over cijfertjes en over wiskunde.

122
00:07:39,500 --> 00:07:43,440
Maar dat het impact heeft op de mensen die blootgesteld worden aan dit soort systemen.

123
00:07:44,380 --> 00:07:50,460
Het gaat over het vrijmaken van tijd en middelen voor een gesprek over ethiek.

124
00:07:50,460 --> 00:07:53,440
Het gaat over een goed beleidskader.

125
00:07:53,440 --> 00:07:55,400
Zo gaan we er wel mee om, zo gaan we er niet mee om.

126
00:07:55,400 --> 00:07:56,080
Goede governance.

127
00:07:56,080 --> 00:08:00,360
Deze partijen mogen er iets van vinden in deze fase van de lifecycle of van het inkoopproces.

128
00:08:00,360 --> 00:08:02,420
Dit zijn de criteria waar we op toetsen.

129
00:08:02,420 --> 00:08:04,080
Goede assessments.

130
00:08:04,080 --> 00:08:13,060
Je hebt eigenlijk allerlei lagen waar je aan moet denken om te zorgen dat die ethiek verankerd wordt in de structuren en processen van een organisatie.

131
00:08:13,060 --> 00:08:18,520
Om te voorkomen dat het een soort ad hoc gesprek wordt van nu moeten we het een keer over ethiek hebben.

132
00:08:18,520 --> 00:08:21,720
Dan hebben we het erover en dan kom je twee maanden later terug bij die ontwikkelaars.

133
00:08:21,720 --> 00:08:23,440
Dan zeg je wat heb je daar nou precies mee gedaan?

134
00:08:23,440 --> 00:08:25,140
Dan zeggen ze oh ja dat hadden we ook nog.

135
00:08:25,140 --> 00:08:26,400
Ja niet echt veel meer mee gedaan.

136
00:08:26,400 --> 00:08:28,860
Dus je moet zorgen dat het in elke stap verankerd is.

137
00:08:28,860 --> 00:08:31,060
En dat je voor het systeem wat je uiteindelijk gebruikt.

138
00:08:31,060 --> 00:08:34,159
En dat is ook een beetje mijn opvatting voor ethiek.

139
00:08:34,159 --> 00:08:39,480
Dat je kunt verantwoorden van dit zijn de keuzes die we gemaakt hebben rond de maatschappelijke aspecten van dit model.

140
00:08:39,700 --> 00:08:45,420
Eigenlijk net als dat je andere keuzes vastlegt rondom bouwen van systemen.

141
00:08:45,420 --> 00:08:50,240
Je documenteert ook de keuzes rondom de ethische vraagstukken.

142
00:08:50,240 --> 00:08:51,020
Ja exact.

143
00:08:51,360 --> 00:08:56,500
En wij komen natuurlijk ook wel bij andere bedrijven.

144
00:08:56,500 --> 00:08:58,400
En die hebben dan een ethische commissie.

145
00:08:58,400 --> 00:09:02,020
Hoe zit dat bij jullie?

146
00:09:02,020 --> 00:09:04,840
Ja daar was ik natuurlijk nog niet op ingegaan.

147
00:09:04,840 --> 00:09:08,500
Wij hebben als je het dan hebt over wat we veranderd hebben in de structuren en processen.

148
00:09:08,500 --> 00:09:10,480
Is dat we eigenlijk gezegd hebben een speciaal team.

149
00:09:10,480 --> 00:09:11,340
Een ethics office.

150
00:09:11,340 --> 00:09:15,160
Wat bij de uitvoering bij de ontwikkelaars betrokken is en meekijkt.

151
00:09:15,860 --> 00:09:17,620
In welke fase zitten de projecten?

152
00:09:17,620 --> 00:09:19,960
Welke modellen zijn relevant?

153
00:09:19,960 --> 00:09:22,560
Nu met de AI act heb je natuurlijk gewoon de hoog risicocategorie.

154
00:09:22,560 --> 00:09:27,780
Maar ook daarbuiten wil je jezelf de vraag stellen van misschien staat het niet precies in de definitie van een hoog risico.

155
00:09:27,780 --> 00:09:31,120
Maar denken we wel dat we er even goed over na moeten denken voor we het gaan gebruiken.

156
00:09:31,120 --> 00:09:37,320
Dus we hebben een team dat meekijkt met die ethische aspecten op AI ontwikkeling.

157
00:09:37,960 --> 00:09:39,920
We hebben inderdaad ook een commissie ethiek.

158
00:09:39,920 --> 00:09:42,400
En in de structuur die we hadden.

159
00:09:42,400 --> 00:09:44,080
We zitten momenteel in een reorganisatie.

160
00:09:44,080 --> 00:09:45,580
Dus alles is aan het schuiven.

161
00:09:45,580 --> 00:09:48,820
Maar in de structuur die we hadden hadden we daar ook een klankbordgroep bij.

162
00:09:48,820 --> 00:09:50,760
Waar we één keer per maand bijeenkwamen.

163
00:09:50,760 --> 00:09:54,640
Om een soort voor meer hands-on evaluatie van de inzichten en reviews.

164
00:09:54,640 --> 00:09:56,040
Die de ethics office.

165
00:09:56,040 --> 00:09:58,380
Die dat team wat bij de ontwikkeling betrokken is.

166
00:09:58,380 --> 00:09:59,680
Heeft opgesteld.

167
00:09:59,680 --> 00:10:01,220
Dus op die manier zorg je dat je.

168
00:10:01,220 --> 00:10:03,560
Voordat je bijvoorbeeld een pilot gaat starten.

169
00:10:03,560 --> 00:10:05,100
Dat je al in beeld hebt gebracht van.

170
00:10:05,100 --> 00:10:07,000
Hé hier zien we mogelijk ethische risico's.

171
00:10:07,060 --> 00:10:08,180
Dit zijn de handelingsopties.

172
00:10:08,180 --> 00:10:12,300
Je hebt een soort vertegenwoordiging van de organisatie in de klankbordgroep.

173
00:10:12,300 --> 00:10:13,840
Die zegt ja wij kunnen ons hierin vinden.

174
00:10:13,840 --> 00:10:15,140
En als we dit en dit aanpassen.

175
00:10:15,140 --> 00:10:16,020
In het model.

176
00:10:16,020 --> 00:10:17,340
Maar soms ook gewoon in het proces.

177
00:10:17,340 --> 00:10:19,560
Zorg dat je medewerkers goed instrueert bijvoorbeeld.

178
00:10:19,560 --> 00:10:22,540
Dan vinden we het veilig genoeg om mee verder te gaan.

179
00:10:22,540 --> 00:10:26,620
En op die manier proberen we dat vraagstuk van ethische en verantwoorde AI.

180
00:10:26,620 --> 00:10:28,200
Niet een soort technisch vraagstuk te maken.

181
00:10:28,200 --> 00:10:29,940
Maar echt een organisatie vraagstuk.

182
00:10:29,940 --> 00:10:31,620
Dat klinkt als best wel wat werkzaamheden.

183
00:10:31,620 --> 00:10:33,420
Hoe groot is het team?

184
00:10:33,420 --> 00:10:36,480
Wat voor type mensen zitten erin met capabilities?

185
00:10:36,660 --> 00:10:36,900
Wat doen?

186
00:10:36,900 --> 00:10:38,800
Ja ook dat is aan het schuiven.

187
00:10:38,800 --> 00:10:42,680
Ik hoop heel erg dat we een groter team kunnen krijgen.

188
00:10:42,680 --> 00:10:44,380
Wat niet alleen over verantwoorde AI gaat.

189
00:10:44,380 --> 00:10:45,200
Maar gewoon over.

190
00:10:45,200 --> 00:10:48,180
Ja ik heb het sociale integriteit genoemd.

191
00:10:48,180 --> 00:10:50,440
Hoe we ons verhouden tot de maatschappij.

192
00:10:50,440 --> 00:10:51,920
En welke keuzes we daar naartoe maken.

193
00:10:51,920 --> 00:10:54,040
Dus daar zou je ook duurzaamheid onder kunnen scharen.

194
00:10:55,340 --> 00:10:57,460
Maar de samenstelling van het team wisselt.

195
00:10:57,460 --> 00:10:58,840
Omdat je merkt dat.

196
00:10:58,840 --> 00:11:01,200
Wat ik heb gemerkt is dat als je, je zei het al.

197
00:11:01,200 --> 00:11:03,780
Als je met ethiek en AI aan de slag gaat.

198
00:11:03,780 --> 00:11:05,580
Komen er allerlei vraagstukken naar boven.

199
00:11:05,580 --> 00:11:08,440
Waarvan je denkt dat gaat eigenlijk verder dan alleen het systeem zelf.

200
00:11:08,440 --> 00:11:10,500
Het gaat over de werkpraktijk waarin het is ingezet.

201
00:11:10,500 --> 00:11:14,540
En dan gaat het over de doelen waardoor die werkpraktijk is ontstaan.

202
00:11:14,540 --> 00:11:15,940
En dan gaat het over de strategie.

203
00:11:16,340 --> 00:11:17,260
En eigenlijk wat ik gemerkt heb.

204
00:11:17,260 --> 00:11:18,900
Het voelt soms als een paard van Troje zeg maar.

205
00:11:18,900 --> 00:11:21,620
Dat ik eerst binnenkwam om iets over ethiek en AI te doen.

206
00:11:21,620 --> 00:11:24,100
En inmiddels hebben we dus een ethische commissie.

207
00:11:24,100 --> 00:11:26,740
Die zich uitspreekt over allerlei ethische vraagstukken.

208
00:11:26,740 --> 00:11:29,000
En is ook gevraagd.

209
00:11:29,000 --> 00:11:31,860
Kunnen jullie de werkwijze die je hebt voor AI modellen.

210
00:11:31,860 --> 00:11:35,440
Ook voor niet data gerelateerde processen inzetten.

211
00:11:35,440 --> 00:11:37,320
Om ons te helpen met bijvoorbeeld het HR beleid.

212
00:11:37,320 --> 00:11:37,860
En dat soort dingen.

213
00:11:37,860 --> 00:11:38,660
Oh zo ja.

214
00:11:38,660 --> 00:11:42,660
Dus dat gaat een beetje over de teams.

215
00:11:42,660 --> 00:11:44,760
En over de afdelingen heen.

216
00:11:44,980 --> 00:11:46,920
Omdat je dus op allerlei nieuwe plekken komt.

217
00:11:46,920 --> 00:11:49,120
Waar je wel met die thematiek van ethiek aan de slag wilt.

218
00:11:49,120 --> 00:11:52,160
Maar eigenlijk klopt dat dan wel bij wat je zegt.

219
00:11:52,160 --> 00:11:54,580
Want het gaat natuurlijk niet om de technologie.

220
00:11:54,580 --> 00:11:55,580
Maar het gaat om de impact.

221
00:11:55,580 --> 00:11:56,200
Ja.

222
00:11:56,200 --> 00:11:59,860
En daarmee heb je eigenlijk iets gecreëerd.

223
00:11:59,860 --> 00:12:04,620
Wat misschien groter is dan de ethiek gericht op die technologie.

224
00:12:04,620 --> 00:12:05,020
Ja.

225
00:12:05,020 --> 00:12:07,480
Ja dat denk ik wel.

226
00:12:07,480 --> 00:12:08,220
Daar zit iets in.

227
00:12:08,220 --> 00:12:09,580
En in ieder geval het inzicht voor mijzelf.

228
00:12:09,580 --> 00:12:11,080
Want mijn eigen onderzoek gaat over.

229
00:12:11,080 --> 00:12:13,620
Hoe brengen we nou verantwoorde AI in de praktijk.

230
00:12:14,100 --> 00:12:14,920
Was dat er.

231
00:12:14,920 --> 00:12:17,120
Uiteindelijk draait dat om de vraag.

232
00:12:17,120 --> 00:12:18,340
Wie of wat bepaalt.

233
00:12:18,340 --> 00:12:21,040
Hoe en of AI wordt ingezet.

234
00:12:21,040 --> 00:12:21,220
Ja.

235
00:12:21,220 --> 00:12:24,580
En wat ik heel erg merkte de afgelopen jaren.

236
00:12:24,580 --> 00:12:26,380
Is dat in de methodieken die we hebben.

237
00:12:26,380 --> 00:12:27,800
De technische tools die we hebben.

238
00:12:27,800 --> 00:12:29,740
Dat daar de veronderstelling.

239
00:12:29,740 --> 00:12:31,180
Dat daar het antwoord op die vraag is.

240
00:12:31,180 --> 00:12:32,060
De ontwikkelaar.

241
00:12:32,060 --> 00:12:33,960
We gaan de ontwikkelaar een kader geven.

242
00:12:33,960 --> 00:12:35,960
We gaan een gesprek hebben.

243
00:12:35,960 --> 00:12:38,140
We gaan ethics by design doen.

244
00:12:38,140 --> 00:12:39,100
Met de ontwikkelaar.

245
00:12:39,560 --> 00:12:40,540
En in mijn ervaring.

246
00:12:40,540 --> 00:12:42,900
Was de organisatie daaromheen.

247
00:12:42,900 --> 00:12:43,780
En de KPIs.

248
00:12:43,780 --> 00:12:45,160
En de doelen van die organisatie.

249
00:12:45,160 --> 00:12:45,940
De waarde.

250
00:12:45,940 --> 00:12:47,420
De cultuur in die organisatie.

251
00:12:47,420 --> 00:12:49,860
Minstens zo bepalend.

252
00:12:49,860 --> 00:12:51,500
Voor hoe AI wordt ingezet.

253
00:12:51,500 --> 00:12:52,620
En daar weer omheen.

254
00:12:52,620 --> 00:12:54,040
Zit het hele veld.

255
00:12:54,040 --> 00:12:54,900
Van ja als bank.

256
00:12:55,340 --> 00:12:56,260
Ook de Volksbank.

257
00:12:56,260 --> 00:12:58,720
Zit je in een concurrerende omgeving.

258
00:12:58,720 --> 00:13:01,000
Je wil niet dat iemand anders iets sneller heeft dan jij.

259
00:13:01,000 --> 00:13:01,600
Enzovoort.

260
00:13:01,600 --> 00:13:03,940
En dat zie je bij een heleboel organisaties.

261
00:13:03,940 --> 00:13:05,380
Er zit een soort logica.

262
00:13:05,380 --> 00:13:08,140
Die door zo'n organisatiestructuur heen loopt.

263
00:13:08,140 --> 00:13:09,600
Van ja we moeten efficiënter worden.

264
00:13:09,600 --> 00:13:11,240
Zelfs bij publieke organisaties.

265
00:13:11,240 --> 00:13:13,520
Die misschien wel nog bepalender is.

266
00:13:13,520 --> 00:13:14,680
Dan wat de ontwikkelaar kan doen.

267
00:13:14,680 --> 00:13:17,800
Want dat beperkt heel erg de keuzemogelijkheden.

268
00:13:17,800 --> 00:13:19,260
Die een ontwikkelaar heeft.

269
00:13:19,260 --> 00:13:20,500
Om ook daadwerkelijk te zeggen.

270
00:13:20,500 --> 00:13:22,840
Ik ga dit model nu eerlijker maken.

271
00:13:22,960 --> 00:13:25,600
Als je het eerlijker maakt gaat de accuracy omlaag.

272
00:13:25,600 --> 00:13:27,220
Gaat het voorspellend vermogen omlaag.

273
00:13:27,220 --> 00:13:29,980
Want je gaat een beetje sleutelen aan de optimale verdeling.

274
00:13:29,980 --> 00:13:33,320
En dan vervolgens heeft dat dus een prijskaartje.

275
00:13:33,320 --> 00:13:34,780
In de vorm van het voorspelt iets minder goed.

276
00:13:34,780 --> 00:13:36,620
Als bank neem je bijvoorbeeld meer risico.

277
00:13:36,620 --> 00:13:38,900
Als je zegt we gaan onze kredietverstrekking eerlijker maken.

278
00:13:38,900 --> 00:13:40,180
En dan is de vraag.

279
00:13:40,180 --> 00:13:42,240
Wie gaat die keuze maken.

280
00:13:42,240 --> 00:13:43,320
En vooral ga je dat doen.

281
00:13:43,320 --> 00:13:46,440
Als je weet dat je inlevert op je profitability.

282
00:13:46,440 --> 00:13:47,620
Op je winstgevendheid.

283
00:13:47,620 --> 00:13:49,140
En als het risico omhoog gaat.

284
00:13:49,140 --> 00:13:51,180
Een bank is risico gedreven.

285
00:13:51,340 --> 00:13:53,620
Dus hoe reageert zo'n risk officer dan bijvoorbeeld.

286
00:13:53,620 --> 00:13:54,860
Nou ja.

287
00:13:54,860 --> 00:13:57,560
Het gaat om de beheersmaatregelen die je hebt.

288
00:13:57,560 --> 00:13:59,020
Rond dat soort risico's.

289
00:13:59,020 --> 00:14:01,260
En ook voor die ethische risico's hebben we gezegd.

290
00:14:01,260 --> 00:14:01,900
Die moet je dus.

291
00:14:01,900 --> 00:14:05,380
Dat vind ik het mooie aan het hele risk management jargon.

292
00:14:05,380 --> 00:14:06,160
Die moet je managen.

293
00:14:06,160 --> 00:14:07,280
Die moet je mitigeren.

294
00:14:07,280 --> 00:14:09,700
En de restrisico's moet je accepteren.

295
00:14:10,340 --> 00:14:12,920
En dat zijn allemaal hele interessante processen.

296
00:14:12,920 --> 00:14:14,480
Als je naar ethiek en AI gaat kijken.

297
00:14:14,480 --> 00:14:16,500
En voor mij als ethicus is vooral interessant.

298
00:14:16,500 --> 00:14:18,880
Waar baseren we die afweging op.

299
00:14:18,880 --> 00:14:20,620
En hoe verantwoorden we die afweging.

300
00:14:20,620 --> 00:14:22,920
Want heel vaak is dat een soort blinde vlek.

301
00:14:22,920 --> 00:14:26,140
Want ja natuurlijk gaan we niet aan het model sleutelen.

302
00:14:26,140 --> 00:14:27,220
Als het minder efficiënt wordt.

303
00:14:27,220 --> 00:14:30,620
Terwijl daar hele wezenlijke keuzes gemaakt worden.

304
00:14:31,660 --> 00:14:34,560
Waarvan ik denk dat je er ook maatschappelijk iets van kunt vinden.

305
00:14:34,560 --> 00:14:37,820
En het interessante voorbeeld wat ik daarbij gebruik vaak.

306
00:14:37,820 --> 00:14:40,820
Is bijvoorbeeld gepersonaliseerde premies bij verzekeraars.

307
00:14:40,820 --> 00:14:46,600
En ik geef vaak het dilemma van gepersonaliseerde zorgpremieberekening.

308
00:14:46,600 --> 00:14:49,380
En dat zou voor een heel groot deel van de mensen goed uitpakken.

309
00:14:49,380 --> 00:14:52,200
Het zou alleen voor de mensen met de grootste zorgrisico's.

310
00:14:52,200 --> 00:14:55,020
En vaak ook de mensen met een lagere sociaal-economische status.

311
00:14:55,020 --> 00:14:56,280
Heel slecht uitpakken.

312
00:14:56,280 --> 00:14:57,160
En dan vraag ik.

313
00:14:57,160 --> 00:14:58,900
Zouden we dit systeem moeten willen?

314
00:14:58,900 --> 00:14:59,900
En eigenlijk zeggen een heleboel mensen.

315
00:14:59,900 --> 00:15:00,240
Nee.

316
00:15:00,240 --> 00:15:01,620
Verzekeren gaat over solidariteit.

317
00:15:01,620 --> 00:15:03,120
Dan ga je niet de meest kwetsbare.

318
00:15:03,120 --> 00:15:05,140
Nog eens een extra prijskaartje daaraan hangen.

319
00:15:05,140 --> 00:15:06,800
En dan vraag ik.

320
00:15:06,800 --> 00:15:08,760
Denk je dat verzekeraars het gaan gebruiken?

321
00:15:08,760 --> 00:15:09,600
En dan zeggen ze.

322
00:15:09,600 --> 00:15:10,900
Ja, waarschijnlijk wel.

323
00:15:10,900 --> 00:15:11,720
Als het dan gebruiken ze.

324
00:15:11,720 --> 00:15:13,580
En er zit dus een soort discrepantie tussen.

325
00:15:13,580 --> 00:15:15,520
Wat wij wenselijk vinden.

326
00:15:15,520 --> 00:15:16,400
En wat we verwachten.

327
00:15:16,400 --> 00:15:19,760
Dat zo'n organisatie in de marktomgeving waar het in zit gaat doen.

328
00:15:19,760 --> 00:15:21,980
Want anders gaat een concurrent dat doen.

329
00:15:21,980 --> 00:15:23,500
En dan blijven ze met de slechte risico's zitten.

330
00:15:23,500 --> 00:15:24,720
Prijzen zichzelf uit de markt.

331
00:15:24,720 --> 00:15:25,840
Die dynamieken.

332
00:15:25,840 --> 00:15:27,840
Die zijn denk ik veel bepalender.

333
00:15:27,840 --> 00:15:29,980
Voor of en hoe we AI gebruiken.

334
00:15:30,400 --> 00:15:34,220
Dan of we aan zo'n ontwikkelaar in die verzekeringsmaatschappij in dit geval zeggen.

335
00:15:34,220 --> 00:15:35,920
Zorg wel dat het eerlijk gebeurt.

336
00:15:35,920 --> 00:15:36,320
Ja.

337
00:15:36,320 --> 00:15:38,400
Dat is een beetje waar die keuzes over gaan.

338
00:15:38,400 --> 00:15:40,000
Nu trigger je maar even.

339
00:15:40,000 --> 00:15:41,820
Je begon met de ontwikkelaar die had vragen.

340
00:15:41,820 --> 00:15:43,640
Waardoor je ook bent gestart ermee.

341
00:15:43,640 --> 00:15:44,980
En nu kwam je terug bij de ontwikkelaar.

342
00:15:44,980 --> 00:15:45,720
Dus ik was even nieuwsgierig.

343
00:15:45,800 --> 00:15:48,580
Wat heeft het met de ontwikkelaar gedaan die met deze vraag leefde.

344
00:15:48,580 --> 00:15:51,180
Tussen nu en daarvoor.

345
00:15:51,180 --> 00:15:55,240
Nou wat ik hoop dat het gedaan heeft.

346
00:15:55,240 --> 00:15:59,320
Is dat het de...

347
00:15:59,320 --> 00:16:00,900
Niet per se de garantie.

348
00:16:00,900 --> 00:16:06,700
Maar dat het het mechanisme heeft geboden om de ethische zorgen die ze hebben te agenderen.

349
00:16:07,320 --> 00:16:12,800
Maar ook dat ze weten dat er de afweging die gemaakt wordt in het ontwikkelproces.

350
00:16:12,800 --> 00:16:14,260
Dat dat een organisatie afweging is.

351
00:16:14,260 --> 00:16:16,680
Dat dat niet alleen op hun conto komt.

352
00:16:16,680 --> 00:16:18,580
Maar dat we als organisatie gezegd hebben.

353
00:16:18,580 --> 00:16:23,040
Dit vinden we de beste manier om dit model in te zetten binnen onze organisatie.

354
00:16:23,900 --> 00:16:29,200
En daarmee hebben we geprobeerd zo pragmatisch mogelijk om zo min mogelijk extra hoepels op te gooien.

355
00:16:29,200 --> 00:16:30,860
Waar een ontwikkelaar weer doorheen moet springen.

356
00:16:30,860 --> 00:16:34,120
Dus we hebben gezegd we sluiten aan bij de bestaande model documentatie.

357
00:16:34,120 --> 00:16:38,020
We sluiten aan bij de bestaande data protection impact assessments.

358
00:16:38,020 --> 00:16:41,640
Al die informatie recyclen we voor ons ethische assessment.

359
00:16:41,640 --> 00:16:44,960
Waar nodig schakelen we nog een keer met jullie voor wat aanvullende vragen.

360
00:16:44,960 --> 00:16:47,700
Maar we willen het zo min mogelijk belastend maken.

361
00:16:47,700 --> 00:16:50,220
Zodat ontwikkelaars kunnen doen waar zij goed in zijn.

362
00:16:50,220 --> 00:16:51,120
Waar ze plezier in hebben.

363
00:16:51,120 --> 00:16:54,900
En zodat wij als De Volksbank kunnen zeggen we weten wat daar gebeurt.

364
00:16:54,900 --> 00:16:57,360
En ook voor de dingen die misschien niet zo spannend zijn.

365
00:16:57,360 --> 00:17:01,340
Hebben we een bewuste afweging gemaakt van dit vinden we verantwoord om mee verder te gaan.

366
00:17:01,340 --> 00:17:03,320
Je noemde ethische assessment.

367
00:17:03,320 --> 00:17:06,720
Wat komt er zo op bekijken bij zo'n assessment dan?

368
00:17:06,720 --> 00:17:09,579
Ja dat klinkt misschien spannender dan wat het is.

369
00:17:09,579 --> 00:17:15,780
Maar wat we in feite doen is dat we kijken naar de sleutelwaarde rond verantwoorden AI.

370
00:17:15,780 --> 00:17:19,440
Dus dan heb je het over zijn er eerlijkheidsrisico's, uitlegbaarheidsrisico's.

371
00:17:19,440 --> 00:17:21,819
Is er een menselijke escalatielijn?

372
00:17:21,819 --> 00:17:25,020
Communiceren we duidelijk over hoe we het model gebruiken?

373
00:17:25,020 --> 00:17:27,460
En hoe gaan we om met bepaalde data?

374
00:17:27,460 --> 00:17:32,600
En op die aspecten toetsen we wat gaat dit model doen?

375
00:17:32,600 --> 00:17:40,500
En naast die vijf waarden kijken we ook naar wat gaat het model veranderen in het proces waar het wordt ingezet.

376
00:17:40,740 --> 00:17:43,940
En dat wordt ook best vaak vergeten als je het over ethiek hebt.

377
00:17:43,940 --> 00:17:45,560
Hoe ziet de baseline eruit?

378
00:17:45,560 --> 00:17:51,020
Want misschien is het geen perfect model, maar is het een heel stuk beter dan hoe we het op dit moment aan het doen zijn?

379
00:17:51,020 --> 00:17:59,400
En dan kun je alsnog zeggen we hebben nog een weg te gaan, maar we zien dit wel als een substantiële verbetering in hoe we op dit moment aan het werk zijn.

380
00:17:59,560 --> 00:18:02,800
En dat nemen we dus naast die vijf ethische waarden ook mee.

381
00:18:02,800 --> 00:18:03,760
Van wat gaat het veranderen?

382
00:18:03,760 --> 00:18:04,640
Hoe ziet het er nu uit?

383
00:18:04,640 --> 00:18:06,640
En wat missen we als we dit niet gaan doen?

384
00:18:06,640 --> 00:18:08,260
Klinkt heel praktisch.

385
00:18:08,260 --> 00:18:09,260
Heel concreet ook.

386
00:18:09,260 --> 00:18:10,580
Gewoon heel toepasbaar.

387
00:18:10,580 --> 00:18:12,480
En dat wordt dan ook vastgelegd.

388
00:18:12,480 --> 00:18:13,480
En daar kan je weer op terugkijken.

389
00:18:13,480 --> 00:18:15,500
Want dat wordt vaak ook in mijn optiek vergeten.

390
00:18:15,500 --> 00:18:16,540
Dat we dat ook even vastleggen.

391
00:18:16,540 --> 00:18:17,180
Dat we het erover hebben.

392
00:18:17,180 --> 00:18:18,060
Maar dat het vastgelegd wordt.

393
00:18:18,060 --> 00:18:20,300
Die governance daarvan is daarmee ook al geborgd.

394
00:18:20,500 --> 00:18:21,960
Ja, dat is wat ik zelf ook.

395
00:18:21,960 --> 00:18:24,680
Ik zei al, ik ben afgestudeerd op de financiële crisis.

396
00:18:24,680 --> 00:18:27,620
En daar miste dat hele stuk van ter verantwoording kunnen roepen.

397
00:18:27,620 --> 00:18:31,680
En technologie is daar een heel dankbare zondebok voor.

398
00:18:31,680 --> 00:18:33,140
Omdat je daar alles op kan afschuiven.

399
00:18:33,140 --> 00:18:35,000
En het verdwijnt in een soort zwart gat.

400
00:18:35,000 --> 00:18:36,400
Van ja, we weten het ook niet precies.

401
00:18:36,400 --> 00:18:39,300
En ja, don't blame the messenger.

402
00:18:39,300 --> 00:18:43,260
En wat ik in ieder geval wil doen met deze vorm van governance.

403
00:18:43,260 --> 00:18:45,660
Is dat we al die waardeafwegingen expliciet maken.

404
00:18:45,660 --> 00:18:47,300
En dat we ze documenteren.

405
00:18:47,300 --> 00:18:50,480
En dat, kijk, ethiek doe je nooit helemaal goed.

406
00:18:50,620 --> 00:18:52,240
En ethiek verandert door de tijd heen.

407
00:18:52,240 --> 00:18:54,540
Dus je moet soms teruggaan op je eerdere beslissing.

408
00:18:54,540 --> 00:18:57,360
En zeggen, we moeten hier toch een andere afweging maken.

409
00:18:57,360 --> 00:18:59,280
Of er speelt in de maatschappij een discussie.

410
00:18:59,280 --> 00:19:01,960
Waardoor je zegt, laten we nog eens kijken naar dit soort systemen.

411
00:19:01,960 --> 00:19:05,280
En dan wil je weten, waar hebben we dat in het verleden op gebaseerd.

412
00:19:05,280 --> 00:19:07,280
En wat zouden we nu anders willen doen.

413
00:19:07,280 --> 00:19:08,880
En daar helpt het allemaal bij.

414
00:19:08,880 --> 00:19:12,020
Je gaf aan, er zit een heel krachtenveld omheen.

415
00:19:12,020 --> 00:19:13,520
Rond die besluiten.

416
00:19:13,520 --> 00:19:17,300
Ik kan me zo voorstellen dat in het begin, toen je hiermee kwam.

417
00:19:17,300 --> 00:19:18,660
Dat er best wel wat weerstand was.

418
00:19:18,800 --> 00:19:20,900
Dat zie je misschien een schouderduw gaven.

419
00:19:20,900 --> 00:19:23,460
Zeg je, ja Joris, nu even niet.

420
00:19:23,460 --> 00:19:25,680
We moeten nu vooruit.

421
00:19:25,680 --> 00:19:27,960
Dit remt innovatie.

422
00:19:27,960 --> 00:19:29,640
Dat is zo'n gevleugelde term.

423
00:19:29,640 --> 00:19:32,020
Ben je dat tegengekomen?

424
00:19:33,440 --> 00:19:35,660
Ik kan niet zeggen dat ik het niet ben tegengekomen.

425
00:19:35,660 --> 00:19:38,440
Maar ik moet zeggen dat het binnen de bank heel erg meeviel.

426
00:19:38,440 --> 00:19:41,460
En dat is denk ik het voordeel van een bank als de Volksbank.

427
00:19:41,460 --> 00:19:44,940
Die in staatshanden is, maar wel wil privatiseren.

428
00:19:44,940 --> 00:19:48,740
Dat er tegelijkertijd de ruimte is voor maatschappelijke initiatieven.

429
00:19:48,740 --> 00:19:50,120
En om hierover na te denken.

430
00:19:50,120 --> 00:19:52,340
En ook echt dus vanuit de ontwikkelaars.

431
00:19:52,340 --> 00:19:53,700
Maar ook vanuit de risk managers.

432
00:19:54,100 --> 00:19:56,180
Vanuit heel breed in de organisatie.

433
00:19:56,180 --> 00:20:00,020
Het besef van we willen dit op een goede manier gaan inrichten.

434
00:20:00,020 --> 00:20:03,420
En tegelijkertijd speelt ook dat commerciële krachtenveld er doorheen.

435
00:20:03,420 --> 00:20:07,840
Van we kunnen niet eindeloos blijven debatteren over wat nou een verantwoord algoritme is.

436
00:20:07,840 --> 00:20:08,980
We moeten op een gegeven moment door.

437
00:20:10,900 --> 00:20:14,980
En dan kom je tegen dat mensen zeggen van nou ja, moeten we dit echt allemaal invullen.

438
00:20:14,980 --> 00:20:20,700
Zeker als je nog aan het proberen bent van wat is nou de beste methodiek voor wat wij willen bereiken.

439
00:20:20,700 --> 00:20:25,960
Want dit is een model, maar de Volksbank heeft natuurlijk een eigen inrichting voor data science en AI.

440
00:20:25,960 --> 00:20:27,600
Waar dit model goed op aansluit.

441
00:20:27,600 --> 00:20:30,680
Ik kan me voorstellen, organisaties die groter zijn of kleiner zijn.

442
00:20:30,680 --> 00:20:34,320
Heb je een andere invulling nodig voor hoe die governance eruit moet zien.

443
00:20:34,320 --> 00:20:36,680
Maar dit werkt goed.

444
00:20:37,000 --> 00:20:41,360
En we hebben ook heel expliciet altijd de aansluiting gezocht bij ontwikkelaars.

445
00:20:41,360 --> 00:20:43,060
Van wat werkt nou voor jullie goed.

446
00:20:43,060 --> 00:20:44,800
Dus niet een nieuwe vragenlijst.

447
00:20:44,800 --> 00:20:47,740
En ook niet te pas en te onpas met bijvoorbeeld.

448
00:20:47,740 --> 00:20:51,560
Een van de dingen waar we mee gestart zijn was een mensenrechten impact assessment.

449
00:20:51,560 --> 00:20:54,740
Dat zijn gewoon, wat is het, 40, 50 bladzijden.

450
00:20:54,740 --> 00:20:57,300
Ja, de IAMA impact assessment.

451
00:20:57,300 --> 00:20:58,360
Die was er toen nog niet.

452
00:20:58,360 --> 00:21:04,800
Maar je had vanuit, naast dat er in 2018 meen ik de guiding principles vanuit Europa waren gepubliceerd.

453
00:21:04,800 --> 00:21:07,600
Ook een soort eerste AI impact assessment.

454
00:21:07,600 --> 00:21:08,860
Daar zijn we toen mee begonnen.

455
00:21:08,860 --> 00:21:10,980
En daar staat dan ook een deel in over mensenrechten.

456
00:21:10,980 --> 00:21:13,340
En ik weet dat we dat toen geprobeerd hebben op een marketingmodel.

457
00:21:13,340 --> 00:21:16,440
En dat die ontwikkelaars me echt aankijken van, ben je serieus?

458
00:21:16,440 --> 00:21:19,900
Dat ging over of we mensen per brief of digitaal gingen benaderen.

459
00:21:19,900 --> 00:21:24,320
En die keken echt van, did you perform a human rights impact assessment?

460
00:21:24,320 --> 00:21:26,780
Hoe kan dit misgaan precies?

461
00:21:26,780 --> 00:21:29,780
Dus, nou ja, dingen als proportionaliteit.

462
00:21:29,780 --> 00:21:30,480
Hoe zet je dat goed in?

463
00:21:30,540 --> 00:21:32,540
Dat hebben we daar allemaal in geprobeerd mee te nemen.

464
00:21:32,540 --> 00:21:35,720
Van hoe zorgen we nou dat de kuur niet erger wordt dan de kwaal?

465
00:21:35,720 --> 00:21:36,420
Ja, precies.

466
00:21:36,420 --> 00:21:38,740
Dat we daar een beetje een goed midden in vinden.

467
00:21:38,740 --> 00:21:43,460
En een manier vinden die aansluit bij hoe het voor ontwikkelaars zo prettig mogelijk werken is.

468
00:21:43,460 --> 00:21:45,400
Zonder dat, want je moet soms lastig zijn.

469
00:21:45,400 --> 00:21:46,700
En dat is ook de rol van ethiek.

470
00:21:46,700 --> 00:21:50,560
Zonder dat we te veel schikken naar, oh, als het maar jullie niet te moeilijk maken.

471
00:21:50,560 --> 00:21:52,880
Soms heb je gewoon dingen waar je van mening over verschilt.

472
00:21:53,280 --> 00:21:56,000
Waarvan je zegt, ja, we zouden dit echt volgens mij niet moeten doen.

473
00:21:56,000 --> 00:21:57,600
Waarvan ze zeggen, dit heeft meer waarde.

474
00:21:57,600 --> 00:22:00,400
En die punten moet je ook gewoon absoluut op tafel krijgen.

475
00:22:00,400 --> 00:22:05,640
Wel mooi dat je zegt van, want uiteindelijk zeg je van, we zetten de ontwikkeling, laten we het zo noemen.

476
00:22:05,640 --> 00:22:07,300
De ontwikkeling zetten we centraal.

477
00:22:07,300 --> 00:22:11,800
En daar kijken we naar hoe je dat zo goed mogelijk ondersteunt.

478
00:22:11,800 --> 00:22:12,700
Hoor ik dat goed?

479
00:22:12,960 --> 00:22:14,680
Ja, dat is wel het uitgangspunt.

480
00:22:14,680 --> 00:22:22,000
En dat is ook, nou ja, soms hebben mensen het idee dat als het over ethiek gaat, dat het inderdaad, wat je ook al zei, het remt innovatie.

481
00:22:22,000 --> 00:22:24,360
Dat het vooral is om je te vertellen wat niet mag.

482
00:22:24,360 --> 00:22:27,840
En ik denk, en dat zei ik net ook al toen ik refereerde aan die baseline.

483
00:22:27,840 --> 00:22:30,520
In sommige gevallen zou je willen dat het wel gebeurt.

484
00:22:30,520 --> 00:22:33,960
En is het, zou je kunnen zeggen, onethisch om AI niet in te zetten.

485
00:22:33,960 --> 00:22:37,880
Als je weet dat het leven van mensen op bepaalde aspecten beter kan maken bijvoorbeeld.

486
00:22:37,880 --> 00:22:40,740
En die balans wil je vinden.

487
00:22:40,880 --> 00:22:47,300
Je wilt zorgen dat je vooruit kunt gaan, maar wel in de richting waarvan we kunnen zeggen, dit vinden we allemaal acceptabel.

488
00:22:47,300 --> 00:22:51,940
En dit sluit aan bij de waarde van de organisatie en bij de maatschappelijke waarde die we nastreven.

489
00:22:51,940 --> 00:22:52,580
Mooi.

490
00:22:52,580 --> 00:22:57,820
We hebben een vast onderdeel dat we een stelling willen voorleggen aan je.

491
00:22:57,820 --> 00:23:01,480
En dat gaat ook heel vaak over AI, strategie, beleid.

492
00:23:01,480 --> 00:23:04,860
Er zit zelfs een categorie ethiek in.

493
00:23:04,860 --> 00:23:05,940
Fingers crossed.

494
00:23:05,940 --> 00:23:06,920
Fingers crossed.

495
00:23:06,920 --> 00:23:10,820
Maar Niels schudt de kaarten, dus we weten niet wat eruit gaat.

496
00:23:10,820 --> 00:23:12,140
komen, dus laten we eens even kijken.

497
00:23:12,140 --> 00:23:27,480
Ja, de categorie.

498
00:23:27,480 --> 00:23:28,080
Ja.

499
00:23:28,080 --> 00:23:29,500
Gebruik en toepassing.

500
00:23:29,500 --> 00:23:29,960
Oh, kijk.

501
00:23:30,800 --> 00:23:37,420
En de stelling luidt, generatieve AI is een dagelijks onderdeel van mijn werkprocessen.

502
00:23:38,640 --> 00:23:41,320
Ja, dat is in mijn geval waar.

503
00:23:41,320 --> 00:23:43,740
Ik zou ook niet meer zonder kunnen.

504
00:23:43,740 --> 00:23:47,760
Ik ben op dit moment bezig met het schrijven van een boek, met het afronden van mijn proefschrift.

505
00:23:48,480 --> 00:23:59,000
En het is enorm waardevol om die lege pagina vast met een structuurtje te kunnen vullen, met kritisch je teksten te laten tegenlezen.

506
00:23:59,000 --> 00:24:00,800
Dat vind ik zelf de mooiste functie.

507
00:24:00,800 --> 00:24:03,980
Als je zegt, geef me de beste argumenten tegen wat ik hier geschreven heb.

508
00:24:03,980 --> 00:24:06,940
Dat maakt de kwaliteit van mijn eigen werk ook beter.

509
00:24:06,940 --> 00:24:09,860
Dus ja, nee, in mijn werk gebruik ik het.

510
00:24:10,940 --> 00:24:13,680
Voor het werk binnen de Volksbank is het lastiger.

511
00:24:13,680 --> 00:24:15,680
Dus voor mijn academisch werk gebruik ik het.

512
00:24:15,680 --> 00:24:18,060
Voor het werk binnen De Volksbank is het lastiger.

513
00:24:18,060 --> 00:24:19,600
Daar hebben we een Volksbank GPT.

514
00:24:19,600 --> 00:24:21,520
Dus we hebben een eigen generatieve AI model.

515
00:24:21,520 --> 00:24:23,920
Wat we nu aan het uitrollen zijn.

516
00:24:23,920 --> 00:24:27,020
Maar daar is het uiteraard met alle vertrouwelijkheid enzovoort.

517
00:24:27,020 --> 00:24:33,600
Niet de bedoeling dat je gewoon een ChatGPT pakt en zegt, schrijf deze klantmail even voor me.

518
00:24:33,600 --> 00:24:36,840
Waarom de hypotheekaanvraag is afgewezen.

519
00:24:36,840 --> 00:24:37,440
Bij wijze van.

520
00:24:37,440 --> 00:24:39,600
Dat zijn dingen die je er liever niet inzet.

521
00:24:39,680 --> 00:24:44,280
Dus daar hebben we een wat langer traject gehad van, oké, het is er ineens.

522
00:24:44,280 --> 00:24:45,860
Je moet er iets mee.

523
00:24:45,860 --> 00:24:50,580
Ik zei al, ik ben zelf veel bezig geweest met ethische volwassenheid.

524
00:24:50,580 --> 00:24:54,500
En wat je merkt is dat omdat we al best veel hadden ingericht rond verantwoord gebruik van AI.

525
00:24:54,500 --> 00:24:58,420
Je zo'n nieuwe game changer wat makkelijker absorbeert.

526
00:24:58,420 --> 00:25:01,460
Omdat je zegt, oké, we hebben de mensen al bij elkaar die je iets van vinden.

527
00:25:01,460 --> 00:25:02,460
We gaan aan de slag hiermee.

528
00:25:02,460 --> 00:25:06,440
Dus toen hebben we eerst, hebben we dat heel gefaseerd eigenlijk uitgerold.

529
00:25:06,440 --> 00:25:07,400
Van hoe willen we het dan hebben?

530
00:25:07,400 --> 00:25:08,040
Welk model?

531
00:25:08,040 --> 00:25:09,040
Hoe gaan we dat inzetten?

532
00:25:09,620 --> 00:25:10,780
Hoe nemen we dat op?

533
00:25:10,780 --> 00:25:13,840
Bijvoorbeeld in de gedragscode voor medewerkers waar ze zich aan moeten houden.

534
00:25:13,840 --> 00:25:16,180
Allemaal dat soort aspecten die je dan eerst in place wil.

535
00:25:16,180 --> 00:25:19,640
Maar als het goed is, wordt het daar dus ook onderdeel van mijn dagelijks werk.

536
00:25:19,640 --> 00:25:20,320
Mooi.

537
00:25:20,320 --> 00:25:20,800
Mooi.

538
00:25:21,020 --> 00:25:32,460
En ik ben benieuwd van welke verrassingen ben je nou tegengekomen in die reis die je nu gemaakt hebt van het begin tot waar jullie nu staan als Volksbank.

539
00:25:32,460 --> 00:25:36,540
Wat had je misschien niet van tevoren verwacht wat wel gebeurd is?

540
00:25:37,800 --> 00:25:41,220
Het is eigenlijk een soort aanschakeling aan verrassingen.

541
00:25:41,220 --> 00:25:44,180
Al is het maar dat AI nu zo'n groot onderwerp is.

542
00:25:44,180 --> 00:25:44,360
Oh ja.

543
00:25:44,360 --> 00:25:44,840
Ja.

544
00:25:44,840 --> 00:25:44,980
Ja.

545
00:25:44,980 --> 00:25:45,300
Ja.

546
00:25:45,300 --> 00:25:45,740
Ja.

547
00:25:45,740 --> 00:25:46,180
Eind 2022.

548
00:25:46,180 --> 00:25:47,100
Eind 2022.

549
00:25:47,900 --> 00:25:49,420
Dat had ik al niet verwacht.

550
00:25:49,420 --> 00:25:51,320
Dat was toch altijd een beetje in de marge.

551
00:25:51,320 --> 00:25:53,220
Zeker ten opzichte van thema's als duurzaamheid.

552
00:25:53,220 --> 00:25:53,680
Ja.

553
00:25:53,680 --> 00:25:56,740
Waar alle congressen en symposia over gingen.

554
00:25:56,740 --> 00:26:00,220
Dus dat het zo groot is geworden vind ik heel interessant.

555
00:26:00,480 --> 00:26:07,400
Dat AI zo snel zo'n wezenlijk onderdeel is geworden van de bedrijfsvoering van heel veel organisaties.

556
00:26:07,400 --> 00:26:13,320
Had ik niet verwacht dat daarmee dus ook de urgentie om die ethiek goed te krijgen zo is toegenomen.

557
00:26:13,320 --> 00:26:19,700
Had ik niet verwacht dat ik met een ethiek achtergrond überhaupt hier in podcast kan aanschrijven.

558
00:26:19,700 --> 00:26:26,320
Dat mijn toekomst er zo uit zou zien dat ik bij allerlei organisaties langs kan om te praten over ethiek en de verantwoorde inzet van technologie.

559
00:26:26,320 --> 00:26:28,920
Had ik überhaupt nooit verwacht.

560
00:26:29,600 --> 00:26:39,420
En wat ik zelf mooi vind om te merken is dat de onderzoekservaringen die we aan het opdoen zijn met bijvoorbeeld dat volwassenheidsmodel.

561
00:26:39,420 --> 00:26:45,740
Dat dat ook echt iets toevoegt aan hoe we omgaan met AI binnen organisaties.

562
00:26:45,740 --> 00:26:49,020
En dat had ik ook niet verwacht toen ik aan mijn proefschrift begon.

563
00:26:49,020 --> 00:26:53,600
Want je begint ergens en je hoopt maar dat het een goede kant op gaat en dat het ergens op slaat.

564
00:26:53,600 --> 00:26:57,460
En dat misschien een of twee vakgenoten enigszins instemmend knikken als ze het lezen.

565
00:26:57,460 --> 00:26:58,900
Dat is het maximaal haalbare.

566
00:26:59,200 --> 00:27:00,320
Op dat moment.

567
00:27:00,320 --> 00:27:02,660
En inmiddels om te merken dat het dus ook zijn weg vindt naar de praktijk.

568
00:27:02,660 --> 00:27:04,940
Dat is voor mij de meest positieve verrassing.

569
00:27:04,940 --> 00:27:05,380
Mooi.

570
00:27:05,380 --> 00:27:09,280
En zou je iets kunnen vertellen over dat volwassenheidsmodel?

571
00:27:09,280 --> 00:27:10,400
Hoe dat eruit ziet?

572
00:27:10,400 --> 00:27:12,640
En hoe kunnen anderen dat gebruiken?

573
00:27:12,640 --> 00:27:13,560
Ja, nee zeker.

574
00:27:13,560 --> 00:27:16,220
Dat staat gewoon open access online.

575
00:27:16,220 --> 00:27:21,240
Dat hebben we gepubliceerd eigenlijk vanuit de gedachte dat anderen ermee aan de slag kunnen gaan.

576
00:27:21,480 --> 00:27:26,740
En dat volwassenheidsmodel gaat niet per se over welke waarde je in je organisatie moet hebben.

577
00:27:26,740 --> 00:27:31,800
Maar het gaat over de organisatorische randvoorwaarden om met verantwoorden AI aan de slag te kunnen.

578
00:27:32,200 --> 00:27:38,620
Dus het gaat over wat moet je nou als organisatie ingeregeld hebben om te zorgen dat je op een betekenisvolle manier met die ethiek aan de slag kunt.

579
00:27:38,620 --> 00:27:46,060
En we hebben daar een aantal sessies voor gehouden met organisaties over concrete ethische dilemma's die ze zijn tegengekomen.

580
00:27:47,480 --> 00:27:58,340
En eigenlijk hebben we op basis van die sessies, volgens mij tien, vijftien van dat soort sessies met publieke en private organisaties bij elkaar, hebben we een soort uitgezoomd en gezegd wat zien we nou terug bij organisaties die er hier al heel goed mee omgaan.

581
00:27:58,340 --> 00:28:01,340
En wat mist er nou bij organisaties die nog heel erg aan het borstelen zijn.

582
00:28:01,340 --> 00:28:09,440
En toen kwamen we eigenlijk op zes dimensies uit waarvan we zeiden van nou hier zijn sommige partijen gewoon veel verder op en daardoor kunnen ze het beter oppakken.

583
00:28:09,440 --> 00:28:11,400
Of hier hebben organisaties nog veel werk te doen.

584
00:28:11,400 --> 00:28:16,920
En als ze dat in gang zetten op alle zestien aspecten, dan komen ze daar ook in vooruit.

585
00:28:17,040 --> 00:28:27,780
En dat gaat dus over culture and awareness, governance, beleid, inbedding in de ontwikkelprocessen, communicatie en training en het type assessments wat je hebt.

586
00:28:27,780 --> 00:28:29,660
Dat zijn zes dingen die je moet hebben.

587
00:28:29,660 --> 00:28:34,140
En wat ik heel vaak tegenkom is dat organisaties op twee of drie heel veel gas geven.

588
00:28:34,140 --> 00:28:36,960
Dus die zeggen nou we hebben een super gaaf waardekader of een manifest.

589
00:28:36,960 --> 00:28:40,220
We hebben allerlei assessments klaar liggen om aan de slag te gaan.

590
00:28:40,220 --> 00:28:42,400
Wij zijn er wel wat de ethiek betreft.

591
00:28:42,400 --> 00:28:45,800
Dan zeg ik altijd van we hebben nog vier andere dimensies wat ik qua governance.

592
00:28:46,600 --> 00:28:50,620
Bijvoorbeeld zo'n impact assessment doet en er komt uit dat er bias in je systemen zit.

593
00:28:50,620 --> 00:28:51,760
Wat gebeurt er dan?

594
00:28:51,760 --> 00:28:52,980
Wie mag er dan iets van vinden?

595
00:28:52,980 --> 00:28:55,120
Wie maakt de keuze of je dat gaat mitigeren of niet?

596
00:28:55,120 --> 00:28:57,200
Is daar beleid voor?

597
00:28:57,200 --> 00:28:58,400
Heb je daar iets voor ingeregeld?

598
00:28:58,400 --> 00:29:00,260
Heel vaak is dat er nog niet.

599
00:29:00,260 --> 00:29:05,740
En dat zijn dus allemaal dingen die je nodig hebt als je op een gegeven moment zegt we willen echt volwassener worden in het verantwoord gebruik van AI.

600
00:29:05,740 --> 00:29:06,460
Mooi.

601
00:29:06,460 --> 00:29:10,820
En in een volwassenheidsmodel zitten er dan niveaus in?

602
00:29:10,820 --> 00:29:12,260
Kan je daarin groeien?

603
00:29:12,260 --> 00:29:15,960
Ja, we hebben daar vijf levels van volwassenheid op onderscheiden.

604
00:29:15,960 --> 00:29:20,500
Waar één eigenlijk is gefragmenteerd of non-existent zou je kunnen zeggen.

605
00:29:20,500 --> 00:29:23,000
Dus geen beleidskader, geen specifieke governance.

606
00:29:23,000 --> 00:29:25,760
En vijf is business as usual.

607
00:29:25,760 --> 00:29:29,900
Maar het is gewoon helemaal geïntegreerd in hoe je met AI omgaat en werkt.

608
00:29:29,900 --> 00:29:33,200
Zoals je dat voor andere werktaken misschien ook hebt.

609
00:29:34,360 --> 00:29:39,080
Heb je voorbeelden gezien van waar het ook daadwerkelijk business as usual is?

610
00:29:39,080 --> 00:29:42,860
Nou ja, het hoogste volwassenheidslevel ben ik nog niet tegengekomen.

611
00:29:42,860 --> 00:29:51,520
Maar er zijn best veel organisaties die zeker op een aantal van die dimensies echt heel goed bezig zijn en ook vernieuwende dingen doen.

612
00:29:51,520 --> 00:29:53,860
Dus het is wel inspirerend.

613
00:29:53,980 --> 00:29:57,660
En voor mijzelf helpt het om ook als een soort kapstok te hebben.

614
00:29:57,660 --> 00:30:00,720
Waar moet je nou aan denken als je het over verantwoorde AI hebt?

615
00:30:00,720 --> 00:30:09,080
Want heel vaak is het een soort wervelwind die op je afkomt van mensenrechtenassessments, van AI Act, van normenkader, standaard.

616
00:30:09,080 --> 00:30:10,880
Waar moet je beginnen?

617
00:30:10,880 --> 00:30:16,220
Om dat even te kunnen ontleden in zes dingen waar elke organisatie eigenlijk al iets voor heeft.

618
00:30:16,220 --> 00:30:17,180
Want dat is ook de gedachte.

619
00:30:17,180 --> 00:30:18,560
Je hoeft niet het wiel opnieuw uit te vinden.

620
00:30:18,560 --> 00:30:19,760
Je hoeft niet vanaf nul te starten.

621
00:30:19,760 --> 00:30:22,360
Prik in bij dingen die al in jouw organisatie zijn.

622
00:30:22,360 --> 00:30:24,440
Je hebt al privacy impact assessments.

623
00:30:24,440 --> 00:30:27,780
Je bent al bezig met bepaalde toetsingen op systemen.

624
00:30:27,780 --> 00:30:29,940
Je neemt al een besluit of je iets wel of niet gaat gebruiken.

625
00:30:29,940 --> 00:30:32,400
Zorg dat je daar die ethiek in bent.

626
00:30:32,400 --> 00:30:35,620
En dan kun je veel sneller groeien in die volwassenheid.

627
00:30:35,620 --> 00:30:40,300
Ik ben benieuwd, heb je een voorbeeld van wat jou geïnspireerd heeft vanuit de organisatie?

628
00:30:40,300 --> 00:30:41,600
Zonder misschien de organisatie te noemen.

629
00:30:44,320 --> 00:30:46,680
Ja, op verschillende aspecten.

630
00:30:46,680 --> 00:30:52,240
Je merkt dat sommige organisaties heel erg ingezet hebben op het stuk tooling.

631
00:30:52,240 --> 00:30:57,740
En ook echt bijvoorbeeld het inzichtelijk maken van bias in hun processen.

632
00:30:57,740 --> 00:30:59,240
Dat ze dat heel ver gevoerd hebben.

633
00:30:59,240 --> 00:31:05,480
Of de uitlegbaarheid van modellen die ze kunnen garanderen met allerlei tooling die ze daaromheen hebben ingezet.

634
00:31:06,040 --> 00:31:15,960
Maar ook bijvoorbeeld de keuzes die sommige organisaties maken om bijvoorbeeld een bepaalde mate van randomness bij fraudecontroles te introduceren.

635
00:31:15,960 --> 00:31:22,640
Om te zorgen dat voor ingenomenheden bij degene die gaan controleren wat meer weggenomen worden.

636
00:31:22,640 --> 00:31:29,280
Want als je een model hebt dat heel goed werkt, dan ga je er eigenlijk al vanuit dat als je zo'n lijstje krijgt, dat er ook wel iets aan de hand is.

637
00:31:29,720 --> 00:31:33,520
En dat betekent dat je dus inlevert op je efficiency als je daar randomness aan toevoegt.

638
00:31:33,520 --> 00:31:40,800
Maar dat het psychologische effect misschien wel is dat je ook minder mensen gaat vinden waar je niet terecht je controle hebt gedaan.

639
00:31:40,800 --> 00:31:44,840
En dat dat ook de mindset van misschien degene die die controle eens uitvoert wat verandert.

640
00:31:44,840 --> 00:31:47,040
Van hé, daar kan hier ook niet iets aan de hand zijn.

641
00:31:47,040 --> 00:31:49,100
En dat vind ik wel heel inspirerende voor.

642
00:31:49,100 --> 00:31:55,120
Ik wil zeggen dat is wel heel mooi, want het zorgt ervoor dat je kritisch moet blijven denken in plaats van maar aanneemt en daarop gaat acteren.

643
00:31:55,120 --> 00:31:56,000
Ja, dat is een mooie.

644
00:31:56,000 --> 00:31:56,800
Cool.

645
00:31:56,800 --> 00:31:57,700
Ja.

646
00:31:57,700 --> 00:31:58,820
Ja.

647
00:31:58,820 --> 00:32:06,500
Maar ik vind het echt zo'n mooi voorbeeld omdat we het heel vaak hebben over wat de fout gaat.

648
00:32:06,500 --> 00:32:08,920
Maar hiermee draai je hem eigenlijk om.

649
00:32:08,920 --> 00:32:17,220
Dat je zegt van ja, maar we zorgen er eigenlijk voor dat het doel wat je wil bereiken eigenlijk beter wordt en dat het ook eerlijker wordt.

650
00:32:17,880 --> 00:32:20,260
Ja, en dat moet ook het uitgangspunt zijn.

651
00:32:20,260 --> 00:32:26,320
Van hoe zorgen we nou dat we die hele AI transitie, dat we dat een menswaardige transitie maken.

652
00:32:26,320 --> 00:32:30,600
En als we alleen sturen op efficiëntie waar AI absoluut in uitblinkt.

653
00:32:30,600 --> 00:32:34,880
Dan ga je allerlei van dit soort aspecten missen die uiteindelijk wel voor ons heel bepalend zijn.

654
00:32:34,880 --> 00:32:38,840
Van wat is nou een toekomst waar wij in willen leven en waar onze kinderen in gaan leven.

655
00:32:38,840 --> 00:32:41,200
Dus dan wil je inderdaad dat dit soort dingen geborgd zijn.

656
00:32:41,200 --> 00:32:44,420
Dus het gaat niet per se over het voorkomen van alleen maar ellende.

657
00:32:44,520 --> 00:32:48,080
Maar het gaat erom hoe doen we dit zo goed en zo verantwoord mogelijk.

658
00:32:48,080 --> 00:32:52,720
Heb je ook andere inzichten gekregen in de jaren over de technologie zelf?

659
00:32:52,720 --> 00:32:57,380
Ja, al is het maar dat ik het beter ben gaan begrijpen.

660
00:32:57,380 --> 00:33:00,040
Want als je net begint met wat is AI?

661
00:33:00,040 --> 00:33:04,480
Dan kom je in een soort rabbit hole van supervised en unsupervised.

662
00:33:04,480 --> 00:33:06,340
En noem maar op alle technieken die eronder zitten.

663
00:33:06,340 --> 00:33:08,620
Dus ook over de technologie zelf.

664
00:33:08,620 --> 00:33:12,560
Maar vooral de beperkingen van de technologie.

665
00:33:12,560 --> 00:33:16,080
Want ik merk dat nog steeds in heel veel discussies.

666
00:33:16,080 --> 00:33:20,400
Dat wat AI niet kan is eigenlijk misschien wel belangrijker dan wat het wel kan.

667
00:33:20,400 --> 00:33:27,320
En het belangrijkste inzicht rond AI voor mij was dat AI uiteindelijk een voorspelmachine is.

668
00:33:27,320 --> 00:33:30,100
Dat het alleen maar werkt op basis van waarschijnlijkheden.

669
00:33:30,100 --> 00:33:36,000
En dat wat we geleerd hebben de afgelopen jaren is niet dat AI steeds intelligenter is geworden.

670
00:33:36,000 --> 00:33:38,900
Maar dat steeds meer problemen, voorspelproblemen blijken te zijn.

671
00:33:38,900 --> 00:33:42,080
Iets als autorijden, daarvan dachten we dat moet je als mens kunnen.

672
00:33:42,080 --> 00:33:44,880
Je kunt nooit al die verkeersregels en situaties inprogrammeren.

673
00:33:44,880 --> 00:33:48,340
Maar als je AI voldoende data geeft en het leert de patronen uit die data.

674
00:33:48,340 --> 00:33:52,340
Dan kan het met een waarschijnlijkheidsvoorspelling beslissen wat de beste keuze is.

675
00:33:52,340 --> 00:33:53,920
En dat het moet stoppen voor een rood licht.

676
00:33:54,880 --> 00:33:58,020
Taal leren. We dachten als je al die grammatica, zoals wij het ook op de middelbare school,

677
00:33:58,020 --> 00:33:59,880
moet je die grammatica aan de woorden stampen.

678
00:33:59,880 --> 00:34:01,360
En dan moet het goede zinnen maken.

679
00:34:01,360 --> 00:34:08,620
Als je AI gewoon heel veel data geeft van taal, dan kan het met een goede waarschijnlijkheid dat gaan voorspellen.

680
00:34:08,620 --> 00:34:10,540
En dat is super krachtig.

681
00:34:10,540 --> 00:34:13,699
Maar dat betekent dus ook dat er een heleboel aspecten missen.

682
00:34:13,699 --> 00:34:16,199
Omdat het maar steeds waarschijnlijkheidsberekeningen zijn.

683
00:34:16,400 --> 00:34:22,280
Dat was voor mij wel het belangrijkste inzicht om ook bijvoorbeeld het belang van ethiek goed neer te zetten.

684
00:34:22,280 --> 00:34:26,520
Van ja, het kan op basis van de keuzes uit het verleden allerlei waarschijnlijkheden berekenen.

685
00:34:26,520 --> 00:34:29,860
Maar zoals ik het zelf zeg, het kan ons niet vertellen hoe de wereld zou moeten zijn.

686
00:34:29,860 --> 00:34:33,340
Het kan ons vertellen hoe de wereld was, misschien hoe de wereld is, maar niet zoals het zou moeten zijn.

687
00:34:33,340 --> 00:34:34,639
Dat is een ethisch vraagstuk.

688
00:34:34,760 --> 00:34:36,699
We hebben van die reclames altijd gehad.

689
00:34:36,699 --> 00:34:39,540
Resultaten uit het verleden bieden geen garantie voor de toekomst.

690
00:34:39,540 --> 00:34:43,820
En dat moet je wel blijven onthouden bij deze technologie eigenlijk.

691
00:34:43,820 --> 00:34:47,280
Eigenlijk zouden we dat onder de podcast ook steeds moeten zetten.

692
00:34:47,280 --> 00:34:50,000
Als een soort van waarschuwing.

693
00:34:50,000 --> 00:34:51,900
Ja, grappig.

694
00:34:51,900 --> 00:34:56,420
Ik haal mezelf even uit de concentratie.

695
00:34:56,420 --> 00:34:59,460
Ik denk dat het wel eentje is wat je nu geleerd hebt.

696
00:34:59,460 --> 00:35:00,820
Het is een thema voor de droom.

697
00:35:00,820 --> 00:35:01,960
Ja.

698
00:35:01,960 --> 00:35:03,920
Zeker.

699
00:35:03,920 --> 00:35:09,420
We willen je even voorleggen van even zeg maar uit de ethiek.

700
00:35:09,420 --> 00:35:17,360
Gewoon, je mag vrijdenken van wat zou nou een droomsysteem voor jou zijn waar AI als technologie onder zit.

701
00:35:17,360 --> 00:35:18,740
En dat mag van alles zijn.

702
00:35:18,740 --> 00:35:21,420
En we geven je even wat nadenktijd.

703
00:35:33,080 --> 00:35:46,340
Heb je iets bedacht?

704
00:35:46,340 --> 00:35:47,720
Ik denk het wel.

705
00:35:47,720 --> 00:35:52,200
En dat is misschien niet zoals ik het uit de jingle opmaakte.

706
00:35:52,200 --> 00:35:55,240
Wat mijn leven heel veel beter of makkelijker gaat maken.

707
00:35:55,240 --> 00:35:58,280
Maar een droomsysteem voor mij, en dat is er al.

708
00:35:58,280 --> 00:36:03,420
Dat is door, volgens mij is Stanford ontwikkeld en in Zwitserland is dat getest.

709
00:36:03,840 --> 00:36:10,580
Dat is een systeem dat immigranten helpt bij de plaatsing binnen Zwitserland op basis van arbeidskansen.

710
00:36:11,220 --> 00:36:13,840
Ik vind dat een waanzinnig verhaal.

711
00:36:13,840 --> 00:36:14,160
Ja.

712
00:36:14,160 --> 00:36:20,180
Maar dat AI systeem helpt om te bepalen waar bepaalde capaciteiten of skills nodig zijn.

713
00:36:20,180 --> 00:36:23,620
En daar worden immigranten dan geplaatst.

714
00:36:23,620 --> 00:36:31,260
En je ziet dat de baankansen en dus ook de integratie gigantisch omhoog gaat op het moment dat ze op een plek komen waar ze meteen aan het werk kunnen.

715
00:36:31,460 --> 00:36:35,220
En waar het werk wat er is aansluit bij hun vaardigheden.

716
00:36:35,220 --> 00:36:39,620
En ik denk als we op die manier over AI gaan nadenken.

717
00:36:39,620 --> 00:36:42,440
Dus niet van wie gaan we wel en niet binnen laten.

718
00:36:42,440 --> 00:36:43,760
Maar hoe zorgen dat we dat slim doen.

719
00:36:43,760 --> 00:36:46,640
Slim laten aansluiten op de maatschappelijke vraagstukken die er zijn.

720
00:36:46,640 --> 00:36:49,180
Dat zijn droomsystemen.

721
00:36:49,180 --> 00:36:54,500
Dat je vanuit de maatschappelijke waarde geredeneerd kijkt naar hoe kunnen we hier win-win eigenlijk behalen.

722
00:36:54,500 --> 00:36:56,100
En zorgen dat we echt vooruitgang boeken.

723
00:36:56,100 --> 00:36:57,120
Welzijn verhogend.

724
00:36:57,120 --> 00:36:57,460
Ja.

725
00:36:57,460 --> 00:36:58,080
Wow.

726
00:36:58,080 --> 00:36:58,600
Ja.

727
00:36:58,600 --> 00:37:01,180
Dat klinkt als een droomsysteem inderdaad.

728
00:37:01,180 --> 00:37:01,480
Inderdaad.

729
00:37:01,480 --> 00:37:03,420
En dromen we de werkelijkheid.

730
00:37:03,420 --> 00:37:04,760
Want dan wordt er zo getest inderdaad.

731
00:37:04,760 --> 00:37:05,000
Ja.

732
00:37:05,000 --> 00:37:05,240
Nee.

733
00:37:05,240 --> 00:37:06,660
De resultaten zijn al binnen.

734
00:37:06,660 --> 00:37:09,380
Volgens mij is dit al een paar jaar een project wat draait.

735
00:37:09,380 --> 00:37:09,580
Ja.

736
00:37:09,580 --> 00:37:11,940
Je noemt het woord resultaten.

737
00:37:11,940 --> 00:37:14,560
Je zit in een commercieel bedrijf.

738
00:37:14,560 --> 00:37:14,720
Ja.

739
00:37:14,720 --> 00:37:17,000
Is er op de een of andere manier...

740
00:37:17,000 --> 00:37:20,720
Zijn er meetbare resultaten als je bezig gaat met ethiek?

741
00:37:20,720 --> 00:37:23,200
Die vraag krijg ik vaker.

742
00:37:23,200 --> 00:37:25,820
En ik begrijp de vraag.

743
00:37:25,820 --> 00:37:30,200
En ik denk dat ethiek...

744
00:37:30,780 --> 00:37:30,960
Ja.

745
00:37:30,960 --> 00:37:31,740
Hoe zeg ik dit?

746
00:37:31,740 --> 00:37:32,720
Ik denk dat ethiek...

747
00:37:32,720 --> 00:37:37,740
Je zult misschien als je wat metingen doet van zijn medewerkers trots op het bedrijf.

748
00:37:37,740 --> 00:37:39,740
Als ze weten dat we met ethiek bezig zijn.

749
00:37:39,740 --> 00:37:42,400
Je zult het daar ongetwijfeld in kunnen terugzien.

750
00:37:42,920 --> 00:37:46,680
Ik denk dat het meest wezenlijke resultaten zijn niet direct de meest meetbare.

751
00:37:46,680 --> 00:37:52,540
Maar dat ga je zien op het moment dat er bepaalde ethische dilemma's gaan spelen.

752
00:37:52,540 --> 00:37:53,660
Maatschappelijk bijvoorbeeld.

753
00:37:53,660 --> 00:37:57,080
En we gewoon veel beter in staat zijn om uit te leggen.

754
00:37:57,080 --> 00:37:59,160
Dit zijn de vraagstukken waar we voor staan.

755
00:37:59,160 --> 00:38:00,100
Dit is wat er speelt.

756
00:38:00,100 --> 00:38:01,880
Want uiteindelijk ethiek...

757
00:38:02,440 --> 00:38:04,720
De inzet van AI bij overheden, bij banken.

758
00:38:04,720 --> 00:38:07,200
Banken hebben vaak het idee dat het gaat over geld.

759
00:38:07,200 --> 00:38:08,160
Maar het gaat over vertrouwen.

760
00:38:08,160 --> 00:38:13,600
En vertrouwen win je denk ik door heel transparant te zijn over de vraagstukken waar je tegen aanloopt.

761
00:38:13,600 --> 00:38:15,340
De moeilijke keuzes die je soms moet maken.

762
00:38:16,040 --> 00:38:19,060
En de toelichting op waarom je bepaalde moeilijke keuzes maakt.

763
00:38:19,060 --> 00:38:21,220
En ik denk dat dat voor een overheid niet anders is.

764
00:38:21,220 --> 00:38:24,320
Dus je kunt dat misschien meten in een soort vertrouwencijfers.

765
00:38:24,320 --> 00:38:28,300
Maar ik denk dat je dat pas echt gaat zien op het moment dat er dit soort dilemmas gaan spelen.

766
00:38:28,300 --> 00:38:31,580
En je vanuit een soort kracht kunt zeggen van wij zijn hier al mee bezig.

767
00:38:31,580 --> 00:38:32,500
We hebben hier over nagedacht.

768
00:38:32,500 --> 00:38:35,060
Als we het anders moeten doen, dan stellen we het bij.

769
00:38:35,060 --> 00:38:38,240
Maar dit zijn onze overwegingen geweest om het op deze manier te doen.

770
00:38:38,240 --> 00:38:42,460
En ik denk dat dan heb je het meer over rechtvaardigheid dan ethiek.

771
00:38:42,460 --> 00:38:45,540
Ethiek gaat over hoe zorgen we dat we de goede keuze maken.

772
00:38:45,960 --> 00:38:47,320
Rechtvaardigheid vind ik veel belangrijker.

773
00:38:47,320 --> 00:38:50,980
Hoe zorgen we dat we mechanismes hebben om verkeerde keuzes te corrigeren.

774
00:38:50,980 --> 00:38:59,020
En daar zit denk ik de kracht van hoe we deze manier van ethiek operationaliseren hebben opgezet.

775
00:38:59,020 --> 00:39:02,520
Ja, het voelt als een soort van stille kracht.

776
00:39:02,520 --> 00:39:06,940
Die als er een dilemma plaatsvindt, echt pas de kracht naar boven komt.

777
00:39:06,940 --> 00:39:09,520
Ja, zo zie ik het zelf wel.

778
00:39:09,520 --> 00:39:10,040
Heel lang.

779
00:39:10,040 --> 00:39:15,520
Je kunt je het leven van een ethics officer voorstellen als vol met ingewikkelde.

780
00:39:15,880 --> 00:39:17,340
Verkeerde puzzels waar je mee aan de slag moet.

781
00:39:17,340 --> 00:39:22,800
Maar heel vaak is het saai en tedious werk waar je zorgt dat we snappen wat we aan het doen zijn.

782
00:39:22,800 --> 00:39:23,740
Dat we dat vastleggen.

783
00:39:23,740 --> 00:39:26,860
En het is lang niet allemaal spectaculair en spannend.

784
00:39:26,860 --> 00:39:31,540
Maar ik denk heel belangrijk dat we tot in detail hebben nagedacht over waar gaat het hier om.

785
00:39:31,540 --> 00:39:34,420
En hoe past dat bij onze waarde en de maatschappelijke waarde.

786
00:39:35,420 --> 00:39:41,060
Wat zou een tip zijn voor een luisteraar die nu denkt van ja, ik wil hiermee aan de slag.

787
00:39:41,060 --> 00:39:43,940
Ik wil bij mijn bedrijf wil ik ook beginnen.

788
00:39:43,940 --> 00:39:45,540
Wij zitten op level 1.

789
00:39:45,540 --> 00:39:49,240
Wat zou een tip zijn om mee te beginnen?

790
00:39:50,880 --> 00:39:52,960
Een aantal dingen die je zou kunnen doen.

791
00:39:52,960 --> 00:39:56,820
En dat is allereerst vindt gelijkgestemden in je organisatie.

792
00:39:56,820 --> 00:39:59,040
Heel vaak zien we dat het best wel gefragmenteerd is.

793
00:39:59,040 --> 00:39:59,380
Ja.

794
00:39:59,480 --> 00:40:03,140
En dat de meeste initiatieven bottom-up zijn.

795
00:40:03,140 --> 00:40:05,720
Dus dat mensen zeggen, jij vindt dit ook interessant.

796
00:40:05,720 --> 00:40:07,800
Laten we eens een keer een werkgroepje ervan maken.

797
00:40:07,800 --> 00:40:09,560
Of laten we een gezamenlijke boek lezen of weet ik veel.

798
00:40:09,560 --> 00:40:12,640
Zorg dat je die mensen vindt.

799
00:40:12,640 --> 00:40:15,260
En mijn advies is eigenlijk altijd, zet het op de agenda.

800
00:40:15,260 --> 00:40:20,080
Het gaat bijna dagelijks over innovatie, automatisering, AI.

801
00:40:20,080 --> 00:40:20,940
Kijk wat we nu doen.

802
00:40:20,940 --> 00:40:24,320
Neem daar een keer die ethische aspecten in mee.

803
00:40:24,320 --> 00:40:26,800
En dat kan gewoon zo simpel zijn als hebben we ook naar de ethiek gekeken.

804
00:40:27,300 --> 00:40:30,260
En wat ik merk is dat als het terugkomt, als het inslijt.

805
00:40:30,260 --> 00:40:34,180
Dat je op die manier eigenlijk een plekje gaat maken voor ethiek.

806
00:40:34,180 --> 00:40:36,460
En voor bewustzijn rond ethiek.

807
00:40:36,460 --> 00:40:39,380
En dat is ook een beetje de boodschap van het boek, van mijn onderzoek.

808
00:40:39,380 --> 00:40:43,360
Dit is niet iets wat we alleen bij ontwikkelaars moeten laten.

809
00:40:43,360 --> 00:40:46,020
Eigenlijk iedereen heeft een rol in het op de agenda zetten.

810
00:40:46,020 --> 00:40:48,560
Want iedereen speelt een rol in een organisatie.

811
00:40:48,560 --> 00:40:51,060
Is consument van een organisatie.

812
00:40:51,060 --> 00:40:51,600
Is burger.

813
00:40:51,600 --> 00:40:52,680
Absoluut.

814
00:40:52,680 --> 00:40:53,380
Bij de overheid.

815
00:40:53,380 --> 00:40:57,200
En op die manier, via al die routes, kun je dit onderwerp op de agenda krijgen.

816
00:40:57,200 --> 00:41:01,800
En kun je zorgen dat organisaties zich ook bewust zijn van het belang van verantwoorden AI.

817
00:41:01,800 --> 00:41:03,940
Ga je dat ook in je boek beschrijven?

818
00:41:03,940 --> 00:41:05,200
Wordt het een hulpmiddelboek?

819
00:41:05,200 --> 00:41:08,120
Hoe het boek in elkaar zit is drie delen.

820
00:41:08,120 --> 00:41:09,940
Het eerste deel gaat over wat is AI.

821
00:41:09,940 --> 00:41:10,960
Dat heb ik hier ook een beetje gezet.

822
00:41:10,960 --> 00:41:15,320
Het tweede deel gaat over de belangrijke ethische vragen die onder AI liggen.

823
00:41:15,320 --> 00:41:17,920
Dus hoe willen we invulling geven aan gelijkheid.

824
00:41:17,920 --> 00:41:20,440
En hoe willen we invulling geven aan onze vrijheden.

825
00:41:20,440 --> 00:41:22,120
Hoe beschermen we onze rechten.

826
00:41:22,200 --> 00:41:24,220
En het derde deel gaat helemaal over wat kunnen we doen.

827
00:41:24,220 --> 00:41:26,400
En dat zit op het niveau van de techniek.

828
00:41:26,400 --> 00:41:27,540
Dus wat kunnen ontwikkelaars doen.

829
00:41:27,540 --> 00:41:29,100
Dat zit op het niveau van de organisatie.

830
00:41:29,100 --> 00:41:31,020
En dat zit op het niveau van de samenleving.

831
00:41:31,020 --> 00:41:36,260
Wat zou je daar binnen kunnen doen om te zorgen dat de wortels waar al die organisaties achteraan rennen.

832
00:41:36,260 --> 00:41:39,740
Aan blijven sluiten bij wat we ook als maatschappij nodig hebben en belangrijk vinden.

833
00:41:39,740 --> 00:41:40,520
Mooi.

834
00:41:40,520 --> 00:41:42,120
Weet je al wanneer je boek uitkomt?

835
00:41:42,120 --> 00:41:43,520
In maart staat het gepland.

836
00:41:43,520 --> 00:41:45,460
En titel heb je die ook al?

837
00:41:45,460 --> 00:41:45,640
Ja.

838
00:41:45,640 --> 00:41:47,280
Onze kunstmatige toekomst.

839
00:41:47,280 --> 00:41:50,400
En de ondertitel is wat wij willen met AI en AI met ons.

840
00:41:50,400 --> 00:41:51,540
Oh kijk mooi.

841
00:41:51,540 --> 00:41:56,240
Als het boek uit is dan willen we je eigenlijk misschien wel weer terug uitnodigen.

842
00:41:56,240 --> 00:41:59,540
Om eens even wat dieper in te gaan op wat je daar dan geschreven hebt.

843
00:41:59,540 --> 00:42:01,460
Dat zou ik hartstikke leuk vinden.

844
00:42:01,460 --> 00:42:03,540
Ja dat spreken we sowieso af.

845
00:42:03,540 --> 00:42:05,440
Hartstikke bedankt.

846
00:42:05,440 --> 00:42:09,240
Allemaal nieuwe inzichten toch?

847
00:42:09,240 --> 00:42:09,800
Ja.

848
00:42:09,800 --> 00:42:20,080
En vooral weet je wat ik heel erg mooi vind aan het verhaal is toch dat jullie hebben gezegd weet je we zetten de ontwikkeling zetten we centraal.

849
00:42:20,080 --> 00:42:23,340
En daaromheen kijken we wat mogelijk is in plaats van onmogelijk.

850
00:42:23,340 --> 00:42:23,840
Ja.

851
00:42:23,840 --> 00:42:27,880
En wat ik meeneem is het begon bij ontwikkelaars, het eindig bij ontwikkelaars.

852
00:42:27,880 --> 00:42:37,480
Maar eigenlijk ieder binnen de organisatie kan hier voor opstaan en voor uitspreken en het belangen van kenbaar maken binnen zijn of haar werk binnen de organisatie.

853
00:42:37,480 --> 00:42:38,200
Ja.

854
00:42:39,000 --> 00:42:42,700
Mooi. Dank je wel Joris voor je deelname weer.

855
00:42:42,700 --> 00:42:44,340
Dank. Ja voor de uitnodiging.

856
00:42:44,340 --> 00:42:44,720
Ja.

857
00:42:44,720 --> 00:42:48,800
Nou leuk dat je weer luisterde naar deze aflevering.

858
00:42:48,800 --> 00:42:50,180
Nou je hebt gehoord hè.

859
00:42:50,180 --> 00:42:52,300
Het is ethiek belangrijk onderdeel.

860
00:42:52,300 --> 00:42:55,520
In ons kaartspel is dat een aparte categorie.

861
00:42:55,520 --> 00:42:59,400
En dan kan je met stellingen kan je met elkaar in ieder geval ook beginnen met discussiëren.

862
00:42:59,400 --> 00:43:02,100
En dan word je in ieder geval wijzer.

863
00:43:02,100 --> 00:43:04,560
En je kan heel makkelijk kan je hem bestellen.

864
00:43:04,560 --> 00:43:06,220
De link zit in de show notes.

865
00:43:06,840 --> 00:43:09,360
Dus klik er even op en tot de volgende keer.

866
00:43:09,360 --> 00:43:10,300
Tot de volgende keer.

867
00:43:10,300 --> 00:43:10,320
Tot de volgende keer.

868
00:43:10,320 --> 00:43:13,380
[Muziek]


People on this episode