AIToday Live

S05E43: AI is niet neutraal - Over ethiek in Al van start-ups tot grote bedrijven

Info Support AIToday Season 5 Episode 43

In deze podcastaflevering bespreken we het belang van ethiek bij de ontwikkeling en implementatie van AI. We hebben een interview met Kolja Verhage, manager van het Digital Ethics Team bij Deloitte. Hij deelt zijn betrokkenheid bij diverse instanties op het gebied van AI-ethiek en benadrukt het belang van ethiek bij AI-implementatie. Daarnaast bespreken we de rol van de OECD, een internationale denktank die ethische principes voor AI heeft gepubliceerd en wereldwijd worden gedragen.

We gaan ook in op de uitdagingen waar bedrijven mee te maken krijgen bij het integreren van ethiek in AI-implementatie. Het is van essentieel belang dat bedrijven duidelijke principes definiëren en weten hoe ze deze principes kunnen toepassen. Het is ook belangrijk om te bepalen wie er binnen de organisatie verantwoordelijkheid draagt voor de ethische aspecten van AI en hoe dit wordt geïmplementeerd. Bij start-ups en scale-ups is dit vaak de oprichter, maar ook externe investeerders kunnen de druk opvoeren om ethiek serieus te nemen.

Links

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:09,600
Hoi, welkom bij een nieuwe aflevering van AIToday Live. Met vandaag in de studio Kolja Verhage.

2
00:00:09,600 --> 00:00:15,840
Kolja, welkom. Mijn naam is Joop Snijder, CTO van Aigency. Mijn naam Niels Naglé,

3
00:00:15,840 --> 00:00:22,040
Chapter Lead Data & AI bij Info Support. Ja Kolja, zou jij je willen voorstellen aan de luisteraar?

4
00:00:22,040 --> 00:00:27,320
Zeker, zeker weten. Ik ben Kolja Verhage, ik ben manager in het Digital Ethics Team van Deloitte.

5
00:00:27,320 --> 00:00:34,120
Daar werken we om verschillende klanten te helpen met het operationaliseren van ethiek

6
00:00:34,120 --> 00:00:40,680
rondom de ontwikkeling en uitrol van AI. Daarnaast vertegenwoordig ik Deloitte bij

7
00:00:40,680 --> 00:00:48,320
het OECD in de Working Party on AI Governance. Ik zit ook in de normcommissie AI en Big Data

8
00:00:48,320 --> 00:00:55,120
van NEN. Dat is het Nederlandse instituut dat werkt aan de technische standaard rondom de AI Act.

9
00:00:55,120 --> 00:01:05,120
En daarnaast zit ik ook in de werkgroep ethiek van domein mensgerichte AI van de Nederlands AI coalitie.

10
00:01:05,120 --> 00:01:07,120
Dus ik ben druk bezig.

11
00:01:07,120 --> 00:01:10,120
Ja, wel goed.

12
00:01:10,120 --> 00:01:14,120
Laten we eens bij die OECD beginnen. Wat is het? Waar staat het voor?

13
00:01:14,120 --> 00:01:21,120
OECD is eigenlijk een, ja, het wordt vanuit de kritische lens,

14
00:01:21,120 --> 00:01:26,820
lens wordt het wel een beetje de een soort rich country think tank genoemd. Het is een intergovernmental

15
00:01:26,820 --> 00:01:34,940
denktank eigenlijk waar voornamelijk rijke landen aan zijn aangesloten en op het gebied van

16
00:01:34,940 --> 00:01:45,060
governance, beleid, onderzoek, ja grootschalige onderzoeken, soort van een hele grote versie van

17
00:01:45,060 --> 00:01:51,460
CBS, om het maar even zo te noemen. Maar ze zijn heel erg gericht op voorstellen maken en

18
00:01:51,460 --> 00:01:59,880
beleidsontwikkeling op de cutting edge vraagstukken. Dus of het nou gaat over belasting zijn ze heel

19
00:01:59,880 --> 00:02:06,780
erg bekend mee. Of het gaat over nucleair beleid, daar zijn ze ook mee bezig. En AI, daar zijn ze

20
00:02:06,780 --> 00:02:12,540
ontzettend goed in. Zij zijn een van de eerste die ook value-based principles, ethische principles,

21
00:02:12,540 --> 00:02:19,220
hebben gepubliceerd rondom AI. En die zijn eigenlijk samen met die van de EU wel internationaal

22
00:02:19,220 --> 00:02:24,180
de meest erkende, meest breedgedragen principes rondom AI.

23
00:02:24,180 --> 00:02:31,100
Oké, en jij zegt het is vooral een set van rijke landen. Is dat specifiek zo of is dat

24
00:02:31,100 --> 00:02:35,540
zo gegroeid? De exacte achtergrond van het OECD weet ik

25
00:02:35,540 --> 00:02:43,300
niet. Het is gevormd ergens in de jaren 50 na de Tweede Wereldoorlog met echt als doel om

26
00:02:43,300 --> 00:02:50,420
kennis te delen en om een soort kennisinstituut op te zetten wat landen helpt met grote beleids

27
00:02:50,420 --> 00:02:59,780
vraagstukken. En ja, een van de kritische notes die je er ook wel bij kan zetten is dus dat zeker

28
00:02:59,780 --> 00:03:05,380
Als het gaat om grote vraagstukken zoals AI-beleid en AI-bestuur.

29
00:03:05,380 --> 00:03:11,540
Dat het werk wat de OECD doet zeer invloedrijk is.

30
00:03:11,540 --> 00:03:18,060
En tegelijkertijd hebben heel veel landen waar dat beleid impact op zal hebben...

31
00:03:18,060 --> 00:03:22,980
geen stem in die gesprekken en in dat proces.

32
00:03:22,980 --> 00:03:27,740
Dus ja, dat is iets wat ze erkennen.

33
00:03:28,260 --> 00:03:31,260
En wat ze op verschillende manieren wel aandacht proberen te geven.

34
00:03:31,260 --> 00:03:33,260
Mensen uit te nodigen van andere landen enzo.

35
00:03:33,260 --> 00:03:35,260
Dus ze proberen er wel wat van.

36
00:03:35,260 --> 00:03:38,260
Maar ja, er zijn ook wel kritische noodzetten te zetten bij het OECD.

37
00:03:38,260 --> 00:03:42,260
Hé, jij hebt een artikel geschreven voor de OECD.

38
00:03:42,260 --> 00:03:43,260
Ja.

39
00:03:43,260 --> 00:03:44,260
Die heb ik gelezen.

40
00:03:44,260 --> 00:03:47,260
Zou je daar wat over kunnen vertellen?

41
00:03:47,260 --> 00:03:49,260
Want dat was wel een heel interessant artikel.

42
00:03:49,260 --> 00:03:50,260
Ja.

43
00:03:50,260 --> 00:03:53,260
Nou, in de basis, misschien goed om even te vertellen.

44
00:03:53,260 --> 00:03:58,740
We begonnen met het Digital Ethics Team zo'n twee jaar geleden.

45
00:03:58,740 --> 00:04:02,300
Toen ben ik bij Deloitte gaan werken.

46
00:04:02,300 --> 00:04:07,140
Daarvoor was de oprichtster van het team, Hillary, al ongeveer een jaar bezig...

47
00:04:07,140 --> 00:04:10,540
om het team op te zetten en na te denken...

48
00:04:10,540 --> 00:04:14,540
wat we eigenlijk gaan doen met het team voor verschillende klanten.

49
00:04:14,540 --> 00:04:19,940
Dus toen ik begon te werken bij Deloitte, zijn we echt gaan nadenken...

50
00:04:20,060 --> 00:04:24,660
Wat is de, in start-up-termen, de product market fit?

51
00:04:24,660 --> 00:04:27,660
Waar ligt de behoefte in de markt?

52
00:04:27,660 --> 00:04:31,740
En wat kunnen wij bieden om die behoefte in te vullen?

53
00:04:31,740 --> 00:04:34,940
Maar ook, hoe kunnen wij daar een beetje sturing aan geven?

54
00:04:34,940 --> 00:04:39,860
Door presentaties te doen, door spreading the gospel, zoals ik het noem.

55
00:04:39,860 --> 00:04:43,340
Echt vertellen aan organisaties waarom het belangrijk is...

56
00:04:43,460 --> 00:04:50,460
om na te denken over ethiek operationaliseren binnen de organisatie rondom AI.

57
00:04:50,460 --> 00:04:57,660
Daar zijn we druk mee bezig geweest en heel veel presentaties gedaan, met heel veel bedrijven gesproken.

58
00:04:57,660 --> 00:05:10,460
Ook heel veel knikkende hoofden gezien, maar nog niet heel veel bedrijven die echt de stap wilden zetten om het te gaan operationaliseren.

59
00:05:10,460 --> 00:05:14,820
Ook al zagen ze wel in dat het belangrijk was, is of gaat worden.

60
00:05:14,820 --> 00:05:15,320
Ja.

61
00:05:15,320 --> 00:05:17,620
Veel hing aan de AI-Act.

62
00:05:17,620 --> 00:05:21,260
De AI-Act zal daar ongetwijfeld een push ook aan geven.

63
00:05:21,260 --> 00:05:24,300
Maar er was eigenlijk maar een kleine selectie bedrijven,

64
00:05:24,300 --> 00:05:26,780
die er eigenlijk al zelf mee bezig waren,

65
00:05:26,780 --> 00:05:33,380
die de budget beschikbaar maakten en echt de tweede stap wilden nemen,

66
00:05:33,380 --> 00:05:37,380
om het echt in te bedden in de organisatie, in organisatieprocessen,

67
00:05:37,380 --> 00:05:43,740
om die ethische reflectie erin te krijgen in de ontwikkeling en deployment van AI.

68
00:05:43,740 --> 00:05:50,020
En over de afgelopen twee jaar verschillende ervaringen die we bij klanten hebben gehad,

69
00:05:50,020 --> 00:05:53,140
een aantal dingen vielen mij op.

70
00:05:53,140 --> 00:05:57,260
En die heb ik eigenlijk geprobeerd te destilleren in dat artikel.

71
00:05:57,260 --> 00:06:03,820
Eigenlijk neer te zetten, op te schrijven wat ik als een soort van algemeen verhaal zie,

72
00:06:04,460 --> 00:06:08,300
wat de grote uitdagingen zijn bij klanten op dit onderwerp.

73
00:06:08,300 --> 00:06:12,220
Ja, en is daar nog onderscheid te maken in type klanten?

74
00:06:12,220 --> 00:06:17,140
Dat sommige klanten andere uitdagingen hebben dan andere klanten?

75
00:06:17,140 --> 00:06:19,140
Dat valt eigenlijk wel mee.

76
00:06:19,140 --> 00:06:22,780
Je hebt wel een verschil tussen de publieke en private sector.

77
00:06:22,780 --> 00:06:25,180
Daar zie je wel iets van verschil...

78
00:06:25,180 --> 00:06:30,220
met de manier waarop budget beschikbaar wordt gemaakt.

79
00:06:30,220 --> 00:06:32,980
Bij de overheid zie je dat als het vanuit de politiek...

80
00:06:33,100 --> 00:06:39,820
en vanuit de toplaag van de ambtenarij erkend wordt als een uitdaging,

81
00:06:39,820 --> 00:06:45,540
iets waarop geacteerd moet worden, dat er budget beschikbaar komt.

82
00:06:45,540 --> 00:06:48,180
Bij bedrijven ligt dat meer in de business case.

83
00:06:48,180 --> 00:06:50,100
Waar zit die business case in?

84
00:06:50,100 --> 00:06:55,340
Maar dat gezegdhebbende zie je toch dat over het algemeen

85
00:06:55,340 --> 00:06:59,020
dezelfde soort vragen naar boven komen,

86
00:06:59,020 --> 00:07:02,860
namelijk wie of welk onderdeel van de organisatie

87
00:07:02,980 --> 00:07:05,620
neemt op dit nieuwe onderwerp eigenaarschap.

88
00:07:05,620 --> 00:07:06,840
Waar ligt het?

89
00:07:06,840 --> 00:07:10,760
Ligt het bij de privacy-afdeling, bij de security-afdeling?

90
00:07:10,760 --> 00:07:12,260
Is het een soort nieuwe afdeling?

91
00:07:12,260 --> 00:07:15,520
Maar wie gaat die dan opzetten en wie gaat daarvoor betalen?

92
00:07:15,520 --> 00:07:20,120
Dat soort vragen zijn eigenlijk algemeen ongeacht publiek of privaat.

93
00:07:20,120 --> 00:07:23,720
Wat mij opviel, we hebben samen in de training gezeten...

94
00:07:23,720 --> 00:07:28,180
van de Universiteit van Utrecht over de IAMA, Impact Assessment...

95
00:07:28,180 --> 00:07:31,120
Mensenrechten en Algorithmes, hele mond vol.

96
00:07:31,140 --> 00:07:35,300
Dat daar vooral heel veel functionarische gegevensbeschermers zaten.

97
00:07:35,300 --> 00:07:42,380
En ik vroeg me af, vind jij dat de meest logische plek...

98
00:07:42,380 --> 00:07:46,220
waar dit soort ethische vraagstukken zouden moeten beginnen?

99
00:07:46,220 --> 00:07:54,700
Het viel me inderdaad op dat het veel vanuit de FG-kant...

100
00:07:54,700 --> 00:07:57,020
interesse is voor die impact assessments.

101
00:07:57,140 --> 00:08:01,820
en dat heeft waarschijnlijk voornamelijk te maken met de link met datagebruik.

102
00:08:01,820 --> 00:08:03,660
En...

103
00:08:03,660 --> 00:08:08,460
Ik zou ook wel erkennen dat veel van de vragen rondom AI

104
00:08:08,460 --> 00:08:10,860
eigenlijk beginnen met datagebruik.

105
00:08:10,860 --> 00:08:14,340
Met wat voor data gebruik je?

106
00:08:14,340 --> 00:08:16,660
Waar komt die data vandaan?

107
00:08:16,660 --> 00:08:19,860
Heb je zicht op de transparantie van de datasets?

108
00:08:19,860 --> 00:08:22,220
Kan je dan zien hoe een model getraind wordt?

109
00:08:22,220 --> 00:08:24,180
Dus die data-vraagstukken begrijp ik,

110
00:08:24,260 --> 00:08:27,260
en daarmee zie ik ook wel de link met de FG.

111
00:08:27,260 --> 00:08:31,860
Maar als ik kijk naar organisaties die zelf modellen ontwikkelen,

112
00:08:31,860 --> 00:08:40,020
dan ligt de impact van ethiek en ethische operationalisering

113
00:08:40,020 --> 00:08:43,540
veel meer in de data analytics hoek.

114
00:08:43,540 --> 00:08:47,820
Dus veel meer in de head of data, head of data analytics, die kant.

115
00:08:47,820 --> 00:08:52,500
En de FG is natuurlijk een onafhankelijke positie binnen een bedrijf

116
00:08:52,860 --> 00:08:59,060
die een toetsing eigenlijk doet en niet in de ontwikkeling zelf van toepassingen,

117
00:08:59,060 --> 00:09:03,560
van modellen betrokken is. Dus als je het echt hebt over hoe operationaliseer je het,

118
00:09:03,560 --> 00:09:08,340
dan is de FG eigenlijk een verkeerde plek. Dan moet je meer bij de CDO zijn,

119
00:09:08,340 --> 00:09:11,440
de Chief Data Officer. -Ik denk wel weer logisch dat die als eerste

120
00:09:11,440 --> 00:09:14,940
in aanraking komen, want die zien het aankomen. Het is hun vakgebied van data

121
00:09:14,940 --> 00:09:17,620
en die zien het dus al aankomen. Dus ik denk dat het wel logisch is dat die ook

122
00:09:17,620 --> 00:09:19,700
naar dat soort trainingen gaan. Maar inderdaad, wat je zegt,

123
00:09:19,800 --> 00:09:24,000
bij operationaliseren zullen andere facetten eerder van belang zijn. Inderdaad de business case,

124
00:09:24,000 --> 00:09:29,160
de strategie die je als organisatie hebt. Ja precies en daar zit dan veel meer de druk van

125
00:09:29,160 --> 00:09:34,400
uit die posities op. Dat er een goede business case moet zijn en dat die eerst aangetoond moet

126
00:09:34,400 --> 00:09:40,960
worden voordat er wordt gekeken naar andere aspecten. En dat bij hele grote complexe

127
00:09:40,960 --> 00:09:49,480
bedrijven zie je vaak dat er twee vragen gesteld worden. Is it legal and is it profitable? En

128
00:09:49,480 --> 00:09:52,480
En als daar alle twee gewoon een check op is,

129
00:09:52,480 --> 00:09:55,880
soms wordt er dan een soort van ethische check nog gedaan,

130
00:09:55,880 --> 00:10:00,380
maar de uitkomsten daarvan worden eigenlijk altijd gezien

131
00:10:00,380 --> 00:10:03,580
meer als een soort van onderhandeling

132
00:10:03,580 --> 00:10:05,280
of een soort punt van discussie van ja,

133
00:10:05,280 --> 00:10:08,280
we kunnen het wel doen onder die en die voorwaarden,

134
00:10:08,280 --> 00:10:09,580
in plaats van dat wordt gezegd,

135
00:10:09,580 --> 00:10:12,180
nee, dit valt niet in lijn met wat wij willen als bedrijf.

136
00:10:12,180 --> 00:10:14,580
We stoppen de ontwikkeling, ook al is het legaal

137
00:10:14,580 --> 00:10:16,480
en ook al is het winstgevend.

138
00:10:16,480 --> 00:10:19,280
Dat zie je eigenlijk heel weinig.

139
00:10:19,380 --> 00:10:22,880
Er zijn wel één of twee bedrijven waar ik dat heb gezien, maar dat is de uitzondering.

140
00:10:22,880 --> 00:10:25,880
Toen ik je artikel las, werd ik daardoor geprikkeld.

141
00:10:25,880 --> 00:10:31,380
Ik zet even mijn water weg hoor, want ik heb af en toe een kribbel in mijn keel.

142
00:10:31,380 --> 00:10:35,380
Ik ben een licht verkouder, dus als je af en toe wat hoort, dan ligt dat daaraan.

143
00:10:35,380 --> 00:10:41,380
Dat triggered mij dat deel van...

144
00:10:41,380 --> 00:10:44,880
waarbij je eigenlijk aangeeft...

145
00:10:44,880 --> 00:10:47,380
Hoe zeg je dat?

146
00:10:47,880 --> 00:10:51,520
Bedrijven zijn eerder geneigd om eigenlijk over die over die etiek heen te stappen.

147
00:10:51,520 --> 00:10:53,880
Nu zijn wij dat wel wel gewend.

148
00:10:53,880 --> 00:10:58,000
Zeg maar ik heb gewoon een aantal maanden, nou zal het volgend jaar geweest zijn,

149
00:10:58,000 --> 00:11:02,760
ook gewoon echt een opdracht geweigerd omdat wij zelf vonden,

150
00:11:02,760 --> 00:11:04,360
dat is nog niet eens het management of dat soort,

151
00:11:04,360 --> 00:11:07,880
dat wij gewoon vonden van ja, maar dit is gewoon ethisch niet verantwoord.

152
00:11:07,880 --> 00:11:13,680
Dat ging over hoe er omgegaan werd met medische gegevens van mensen.

153
00:11:13,680 --> 00:11:25,280
En ook, weet je, misschien zeg maar, wat jij zegt, ja de check, het was legal, het was wettelijk mocht het.

154
00:11:25,280 --> 00:11:28,880
Er zat een business case achter, maar wij hadden ook nog zoiets als een beroepsethiek.

155
00:11:28,880 --> 00:11:35,280
Want hoe dingen gemaakt waren en wat ermee gedaan moest worden, daarvan zeiden we, ja, maar daar kunnen wij ons helemaal niet in vinden.

156
00:11:35,280 --> 00:11:37,880
Maar dat kom je dus heel weinig tegen, zeg je.

157
00:11:37,880 --> 00:11:45,880
Nou, ik kom het weinig tegen in de zin van dat het proces stopt...

158
00:11:45,880 --> 00:11:47,880
en er gevraagd wordt aan de ontwikkelaars...

159
00:11:47,880 --> 00:11:50,880
'Ga terug naar de tekentafel en vind een oplossing...

160
00:11:50,880 --> 00:11:55,880
waar wel alle groene vinkjes op ethiek verschijnen.'

161
00:11:55,880 --> 00:11:59,880
Ik laat het zo zijn dat er een paar rode zijn die we met de koop toenemen.

162
00:11:59,880 --> 00:12:04,880
Want het is winstgevend en het is legaal, dus niemand zal ons echt tegenhouden.

163
00:12:04,880 --> 00:12:11,540
Het zijn bedrijven die echt veel, die echt gebouwd zijn op bepaalde waarden.

164
00:12:11,540 --> 00:12:19,800
Familiebedrijven zie je dat vaak, die heel erg value-driven zijn en heel erg geloven in een bepaalde manier van in de wereld staan.

165
00:12:19,800 --> 00:12:23,760
Die echt gaan kijken van nee, is dit wel in lijn met waar wij voor staan?

166
00:12:23,760 --> 00:12:26,360
En als dat het niet is, dan moeten we het ook niet doen.

167
00:12:26,360 --> 00:12:33,080
Maar ja, dan komt altijd weer de vraag, als het economisch wat slechter gaat en de druk komt er echt op,

168
00:12:33,080 --> 00:12:35,720
Hou je je dan vast aan je waarde of niet?

169
00:12:35,720 --> 00:12:38,380
En dat zijn dus de enkeling die dan zeggen...

170
00:12:38,380 --> 00:12:40,400
nee, we moeten ons vasthouden aan onze waarde,

171
00:12:40,400 --> 00:12:42,420
want uiteindelijk komen we er sterker uit.

172
00:12:42,420 --> 00:12:44,600
Duidelijk.

173
00:12:44,600 --> 00:12:49,580
En je schrijft in dat artikel eigenlijk ook van het moet van zo hoog mogelijk...

174
00:12:49,580 --> 00:12:54,520
in ieder geval die waarden komen en gepropageerd worden in het bedrijf,

175
00:12:54,520 --> 00:12:57,040
als ik het goed gelezen had, waarbij je zegt...

176
00:12:57,040 --> 00:13:01,940
want dat maakt het, dat het echt beleefd wordt in een organisatie...

177
00:13:01,960 --> 00:13:04,600
waardoor die keuzes ook worden gemaakt.

178
00:13:04,600 --> 00:13:09,860
Ik wist ook bijvoorbeeld dat ik die opdracht gewoon moest weigeren en wilde weigeren,

179
00:13:09,860 --> 00:13:14,560
omdat dat hoort binnen de cultuur van onze organisatie.

180
00:13:14,560 --> 00:13:16,160
Sterker nog, als ik dat had aangenomen...

181
00:13:16,160 --> 00:13:18,560
Had je vraagtekens gehad.

182
00:13:18,560 --> 00:13:19,480
Ja, zeker.

183
00:13:19,480 --> 00:13:21,960
En dat is ook goed, dat die vraagtekens er dan ook zijn.

184
00:13:21,960 --> 00:13:24,280
Dat je ook niet bij één persoon dit belegt,

185
00:13:24,280 --> 00:13:27,640
maar dat het echt de cultuur van de organisatie is dat je elkaar erop aan kan spreken.

186
00:13:27,640 --> 00:13:30,760
Ik denk dat dat ook wel een ontwikkeling is die nog echt gaande moet worden.

187
00:13:30,760 --> 00:13:35,600
Het kan van twee kanten komen. Het kan van bottom-up en top-down.

188
00:13:35,600 --> 00:13:42,560
Maar over het algemeen, en dat zie je vanuit de verandermanagement literatuur,

189
00:13:42,560 --> 00:13:46,120
ik ben er geen expert in, maar de mensen die ik daarover heb gesproken,

190
00:13:46,120 --> 00:13:48,200
hebben een heel groot bekeken van hoe het gaat.

191
00:13:48,200 --> 00:13:50,120
En dat is een heel groot bekeken van hoe het gaat.

192
00:13:50,120 --> 00:13:52,120
En dat is een heel groot bekeken van hoe het gaat.

193
00:13:52,120 --> 00:13:54,120
En dat is een heel groot bekeken van hoe het gaat.

194
00:13:54,120 --> 00:13:56,120
En dat is een heel groot bekeken van hoe het gaat.

195
00:13:56,120 --> 00:13:58,120
En dat is een heel groot bekeken van hoe het gaat.

196
00:13:58,120 --> 00:14:01,920
Het moet wel vanuit het leiderschap gedragen zijn.

197
00:14:01,920 --> 00:14:05,600
Als het leiderschap van een bedrijf niet zegt 'dit vinden wij belangrijk',

198
00:14:05,600 --> 00:14:11,400
dan is het heel erg moeilijk om vanuit de onderkant van de organisatie

199
00:14:11,400 --> 00:14:14,120
daar verandering in te brengen.

200
00:14:14,120 --> 00:14:19,640
Dus ik had daarover, dat zeg ik ook in dat artikel,

201
00:14:19,640 --> 00:14:24,440
een tijd geleden de chiefs van de bedrijven in de OVD-organisatie.

202
00:14:24,560 --> 00:14:30,680
Ik heb ook in dat artikel een tijd geleden de Chief Science Officer van Microsoft gesproken.

203
00:14:30,680 --> 00:14:32,960
En die zei eigenlijk precies hetzelfde.

204
00:14:32,960 --> 00:14:40,120
Het moet vanuit de leiderschap komen, maar er zijn wel wegen om druk te zetten op de leiderschap,

205
00:14:40,120 --> 00:14:41,360
om hun koers te veranderen.

206
00:14:41,360 --> 00:14:44,000
En hij noemde een voorbeeld dat ik wel interessant vond.

207
00:14:44,000 --> 00:14:46,320
Dat was namelijk de Internal Audit afdeling.

208
00:14:46,320 --> 00:14:52,200
Hoe zij die hadden ingericht, was dat de Internal Audit afdeling rapporteert aan de Board of Directors.

209
00:14:52,640 --> 00:14:56,640
Dus niet aan de CEO en de CFO, maar direct naar de Board of Directors.

210
00:14:56,640 --> 00:14:59,400
En als de Internal Audit afdeling concludeert...

211
00:14:59,400 --> 00:15:02,640
er wordt hier niet gehandeld in lijn met onze ethische waardes...

212
00:15:02,640 --> 00:15:05,760
dan kan die Board of Directors volgens de CEO zeggen...

213
00:15:05,760 --> 00:15:07,160
je moet koers veranderen.

214
00:15:07,160 --> 00:15:09,280
En die hebben dat dus op zo'n manier ingericht...

215
00:15:09,280 --> 00:15:11,600
wat ik een heel slimme, interessante manier vond...

216
00:15:11,600 --> 00:15:15,880
om dat eigenlijk bottom-up erin te krijgen.

217
00:15:15,880 --> 00:15:20,320
Dan heb je hele andere checks en balances op dit gebied.

218
00:15:20,320 --> 00:15:22,080
Dat vind ik zeker wel een mooie.

219
00:15:22,080 --> 00:15:23,080
Ja.

220
00:15:23,080 --> 00:15:26,520
En Microsoft is geen kleine organisatie.

221
00:15:26,520 --> 00:15:28,680
Hoe zie je dit bij kleine organisaties?

222
00:15:28,680 --> 00:15:31,800
Ja, daar is het een grotere uitdaging.

223
00:15:31,800 --> 00:15:34,600
Kijk, bij hele kleine organisaties,

224
00:15:34,600 --> 00:15:39,200
bij start-ups en beginnende scale-ups, om het maar zo te noemen,

225
00:15:39,200 --> 00:15:43,720
zie je dat de drive here om responsible AI,

226
00:15:43,720 --> 00:15:46,160
om het maar even zo te noemen, of digital ethics,

227
00:15:46,160 --> 00:15:48,080
een beetje hetzelfde noemer, zeg maar,

228
00:15:48,080 --> 00:15:50,800
om daar iets mee te gaan doen,

229
00:15:50,840 --> 00:15:56,760
dat die druk alleen maar of inherent vanuit een founder die dat echt belangrijk vindt

230
00:15:56,760 --> 00:16:02,180
en daar iets mee wil doen en geen compromis wil sluiten met een funder

231
00:16:02,180 --> 00:16:04,600
die zegt van nou, zet dat maar even opzij.

232
00:16:04,600 --> 00:16:09,620
Maar dat is heel moeilijk, want de meeste founders willen gewoon verder en groeien

233
00:16:09,620 --> 00:16:11,920
en die willen wel die budgetten binnenkrijgen.

234
00:16:11,920 --> 00:16:15,680
Dus de enige manier om het dan alsnog te bewerkstelligen

235
00:16:15,680 --> 00:16:19,800
is eigenlijk vanuit de venture capitalists, vanuit de VC's, vanuit de funders,

236
00:16:20,120 --> 00:16:24,940
Dat die zeggen, wij vinden dat belangrijk en wij stoppen alleen geld in jouw startup,

237
00:16:24,940 --> 00:16:26,560
als je hier ook over nadenkt.

238
00:16:26,560 --> 00:16:30,200
En die heb je. Die komen er steeds meer.

239
00:16:30,200 --> 00:16:32,640
Ook in Nederland hebben we er een aantal.

240
00:16:32,640 --> 00:16:35,660
Dus dat is een hele mooie ontwikkeling.

241
00:16:35,660 --> 00:16:42,640
En hoe die dat dan intern operationaliseren in de kleine organisatie,

242
00:16:42,640 --> 00:16:49,040
is vaak meer gericht op de technische aspecten van ethiek.

243
00:16:49,080 --> 00:16:53,080
Dus kijken we naar bias en fairness in de dataset.

244
00:16:53,080 --> 00:16:58,520
Kijken we naar waar we de data vandaan halen, data sourcing.

245
00:16:58,520 --> 00:17:03,280
De uitwerking van de modellen, of er geen discriminatie in plaatsvindt.

246
00:17:03,280 --> 00:17:06,280
Dat soort vraagstukken, de meer technische vraagstukken.

247
00:17:06,280 --> 00:17:09,640
En pas als de organisatie wat groter, wat volwassener is,

248
00:17:09,640 --> 00:17:14,560
dan komen wat meer die organisatorische vraagstukken te pas.

249
00:17:14,560 --> 00:17:17,640
Met dingen zoals wanneer doen we een impact assessment?

250
00:17:17,760 --> 00:17:23,560
Moeten we een ethics board hebben die advies geeft over de ontwikkeling en uitdruk van een model?

251
00:17:23,560 --> 00:17:27,440
Moeten we ambassadeurs in de organisatie hebben rondom dit onderwerp?

252
00:17:27,440 --> 00:17:30,240
Dat soort vragen en cultuurvraagstukken.

253
00:17:30,240 --> 00:17:33,360
Ja, het wordt inderdaad belangrijker hoe groter je wordt.

254
00:17:33,360 --> 00:17:33,880
Precies.

255
00:17:33,880 --> 00:17:37,040
Want het is steeds moeilijker om dat goed in de hand te houden.

256
00:17:37,040 --> 00:17:37,560
Precies.

257
00:17:37,560 --> 00:17:38,080
Ja.

258
00:17:38,080 --> 00:17:42,760
Hé, en wat...

259
00:17:43,520 --> 00:17:47,020
Die Defend Your Capitalist, dat klinkt een beetje als dezelfde constructie...

260
00:17:47,020 --> 00:17:49,520
als dat eigenlijk bij Microsoft.

261
00:17:49,520 --> 00:17:53,840
Dus je gaat eigenlijk naar een hogere instantie...

262
00:17:53,840 --> 00:17:57,400
die in ieder geval degene die de dagelijkse leiding heeft...

263
00:17:57,400 --> 00:17:59,160
om die in ieder geval te controleren.

264
00:17:59,160 --> 00:18:01,600
Dat vind ik wel een mooie constructie.

265
00:18:01,600 --> 00:18:05,240
Omdat, ja, zo had ik hem nog nooit gezien of gehoord.

266
00:18:05,240 --> 00:18:07,560
Dus dat is wel een hele mooie.

267
00:18:08,800 --> 00:18:16,080
En als je nu als startup of scale-up wel zou willen beginnen hiermee,

268
00:18:16,080 --> 00:18:19,560
wat zou je mensen aanraden, luisteraar?

269
00:18:19,560 --> 00:18:24,960
Ja, ik zou zeggen als startup, scale-up, als je ermee wil beginnen en je denkt,

270
00:18:24,960 --> 00:18:28,960
nou, het is wel belangrijk dat we hier iets mee doen,

271
00:18:28,960 --> 00:18:35,320
dan is de eerste stap eigenlijk, definieer voor jezelf binnen de context en de use case,

272
00:18:36,040 --> 00:18:40,640
Wat jouw principes zijn als organisatie, definieer die.

273
00:18:40,640 --> 00:18:44,640
Dus wil je nondiscriminatie, sta je daarvoor.

274
00:18:44,640 --> 00:18:47,240
Sta je voor autonomie.

275
00:18:47,240 --> 00:18:53,340
Om tot specifieke principes te komen, moeten we een specifieke use case hebben.

276
00:18:53,340 --> 00:18:57,340
Of een specifiek bedrijf in een bepaalde industrie.

277
00:18:57,340 --> 00:19:01,840
Maar in de medische sector bijvoorbeeld is patiëntbelang...

278
00:19:01,940 --> 00:19:06,420
Dat zou een heel veelvoorkomend principe zijn.

279
00:19:06,420 --> 00:19:10,840
Als je die voor jezelf opstelt als organisatie, als start-up,

280
00:19:10,840 --> 00:19:13,140
dan is dat de eerste stap.

281
00:19:13,140 --> 00:19:16,320
Dan is de tweede stap, wat zijn die definities?

282
00:19:16,320 --> 00:19:18,020
Wat betekent het voor jou?

283
00:19:18,020 --> 00:19:21,240
En om die gewoon op te schrijven en dat gewoon uit te schrijven,

284
00:19:21,240 --> 00:19:24,620
dat is een dag werk met een groepje mensen, brainstormen,

285
00:19:24,620 --> 00:19:28,020
wat vinden wij belangrijk, dan het definiëren,

286
00:19:28,040 --> 00:19:32,680
Wat betekent dit voor ons? Wat betekent dit voor onze industrie?

287
00:19:32,680 --> 00:19:36,280
En dan bij de ontwikkeling van...

288
00:19:36,280 --> 00:19:38,400
En zit dat, sorry dat ik je onderbreek, Toer.

289
00:19:38,400 --> 00:19:44,280
Maar is dat in dezelfde grootte als dat je bijvoorbeeld je missie en visie bepaalt?

290
00:19:44,280 --> 00:19:49,360
Ja, en het is echt iets anders dan bedrijfsethiek.

291
00:19:49,360 --> 00:19:54,480
Want bedrijfsethiek, dat kan je op eenzelfde manier wel aanvliegen.

292
00:19:54,480 --> 00:19:57,280
Wat vinden wij belangrijk? Dat we collegiaal zijn?

293
00:19:57,320 --> 00:20:00,720
Het zijn allemaal bedrijfsethische principes die je kan bedenken,

294
00:20:00,720 --> 00:20:06,160
maar dat is fundamenteel echt iets anders dan de digitale ethiek, de AI-ethiek.

295
00:20:06,160 --> 00:20:11,140
Want dat gaat veel meer over de impact van technologie op de maatschappij

296
00:20:11,140 --> 00:20:16,120
en ook het erkennen dat technologie niet neutraal is.

297
00:20:16,120 --> 00:20:21,840
Technologie heeft invloed op ons handelen, het verandert ons handelen.

298
00:20:22,000 --> 00:20:31,120
En dat erkennen en dat beseffen hoe jouw product jouw klanten kan beïnvloeden,

299
00:20:31,120 --> 00:20:33,600
hun handelen kan beïnvloeden, dat is heel belangrijk.

300
00:20:33,600 --> 00:20:35,820
En daarvoor kunnen die ethische principes leidend zijn,

301
00:20:35,820 --> 00:20:39,220
om dat goed te begrijpen en uiteindelijk een beter product te maken,

302
00:20:39,220 --> 00:20:41,640
als je dat goed op de radar hebt.

303
00:20:41,640 --> 00:20:47,120
Heb je een voorbeeld over waarom technologie niet neutraal is?

304
00:20:47,120 --> 00:20:51,000
Want ik denk dat best wel een hele hoop mensen denken dat technologie wel neutraal is.

305
00:20:51,020 --> 00:20:59,420
Een bekend voorbeeld, dat wordt veel gebruikt door de grote technologie-ethiek professor Peter Paul Verbeek,

306
00:20:59,420 --> 00:21:03,820
die is nu rechterop magnificus aan de UvA, zat eerst in Tilburg.

307
00:21:03,820 --> 00:21:08,420
Die gebruikt het voorbeeld van drempels, van verkeersdrempels.

308
00:21:08,420 --> 00:21:14,220
En dat vind ik altijd een hele mooie, want we kunnen denken, nou ja, verkeersdrempels,

309
00:21:14,220 --> 00:21:19,620
dat zijn gewoon stukken steen die neer worden gezet, heel neutraal, heeft verder geen waarde.

310
00:21:19,620 --> 00:21:23,380
Maar wat er in feite wordt bewerkstelligd met verkeersdrempels,

311
00:21:23,380 --> 00:21:25,380
is dat wij onze snelheid inhouden,

312
00:21:25,380 --> 00:21:29,740
omdat wij een waarde hebben, namelijk het beschermen van kinderen bijvoorbeeld.

313
00:21:29,740 --> 00:21:32,740
Dat is een ethisch principe, veiligheid.

314
00:21:32,740 --> 00:21:37,060
Wij willen veiligheid oprationaliseren als ethisch principe,

315
00:21:37,060 --> 00:21:40,940
dus wij bouwen drempels om ons gedrag aan te laten passen,

316
00:21:40,940 --> 00:21:42,940
en wij minder snel gaan rijden.

317
00:21:42,940 --> 00:21:47,180
Als die drempels er niet waren, waarschijnlijk zouden we ons gedrag niet direct aanpassen.

318
00:21:47,180 --> 00:21:52,780
Dus het is een waardeoordeel, een waarde implementatie dat wij verkeersdrempels bouwen...

319
00:21:52,780 --> 00:21:56,700
omdat wij veiligheid als ethisch principe belangrijk vinden op straat.

320
00:21:56,700 --> 00:22:01,180
Ja, ik vond de training die wij hadden gehad ook wel een mooi voorbeeld.

321
00:22:01,180 --> 00:22:04,020
Nu vertel ik dan even naar Niels.

322
00:22:04,020 --> 00:22:08,700
Wat daar werd gezegd is de bankjes in de openbare ruimte.

323
00:22:08,700 --> 00:22:14,380
Daarvan zou je ook kunnen denken van ja, het is bankjes zitten, dat is voor iedereen.

324
00:22:14,380 --> 00:22:19,300
Maar die zijn zo gemaakt dat de zitting waarop je zit schuin af loopt.

325
00:22:19,300 --> 00:22:22,700
Daar zit een opening en dan heb je een leuning.

326
00:22:22,700 --> 00:22:28,940
Maar dat schuin aflopen zorgt er dus voor dat mensen daar niet op kunnen slapen dakloos.

327
00:22:28,940 --> 00:22:36,020
Dus daarom is ook zo'n product, zo'n heel eenvoudig product, niet neutraal.

328
00:22:36,020 --> 00:22:40,100
Dat is ontworpen met een bepaalde doel binnen een bepaalde norm.

329
00:22:40,100 --> 00:22:42,100
Ja, wordt alleen niet hard uitgedragen.

330
00:22:42,100 --> 00:22:44,100
Ik denk dat dat bij onze oplossingen ook vaak het probleem is,

331
00:22:44,100 --> 00:22:46,100
dat er misschien wel iets in de technologie zit, maar dat we het niet uitleggen.

332
00:22:46,100 --> 00:22:48,100
Want ik wist het namelijk niet.

333
00:22:48,100 --> 00:22:51,100
Dat is eigenlijk ook wel een allergie naar ons werk, inderdaad.

334
00:22:51,100 --> 00:22:55,100
Hoe zorgen we ervoor dat we het ook uitleggen, dat het zo gedesignd is om onze principen te ondersteunen.

335
00:22:55,100 --> 00:22:58,100
Want dat bankje wist ik niet. Van die drempels, daar kan ik enigszins in komen.

336
00:22:58,100 --> 00:23:03,100
Maar eigenlijk daar ook het belang van transparantie en toelichting is, denk ik, daar ook van belang.

337
00:23:03,100 --> 00:23:07,100
En als ook een van de luisteraars daar meer over wil weten, is het zeker interessant om...

338
00:23:07,100 --> 00:23:13,180
is het werk van Peter Palverbeek op het gebied van handelingsethiek,

339
00:23:13,180 --> 00:23:16,780
mediating technology, zoals hij dat noemt,

340
00:23:16,780 --> 00:23:19,100
om daar eens in te gaan duiken.

341
00:23:19,100 --> 00:23:22,860
Want dan begrijp je ook wel meer dat een hamer,

342
00:23:22,860 --> 00:23:24,820
kan je natuurlijk zien als gewoon een object,

343
00:23:24,820 --> 00:23:30,060
maar een hamer beïnvloedt ons handelen.

344
00:23:30,060 --> 00:23:32,380
Het maakt bepaalde acties mogelijk.

345
00:23:32,380 --> 00:23:36,300
En hij zegt dus, wat de meeste mensen zouden zeggen is,

346
00:23:36,620 --> 00:23:41,120
Een hamer heeft niet een bepaalde ethische waarde.

347
00:23:41,120 --> 00:23:45,720
Het is de mens, want of je slaat een ander mens zijn hoofd in of je gaat een huis bouwen.

348
00:23:45,720 --> 00:23:47,720
Dat is de menselijke beslissing.

349
00:23:47,720 --> 00:23:51,720
Maar zonder die hamer kon die keuze ook niet gemaakt worden.

350
00:23:51,720 --> 00:23:58,120
Dus die hamer maakt het handelen mogelijk voor het een of het ander.

351
00:23:58,120 --> 00:24:01,120
Het geeft ons eigenlijk verantwoordelijkheid.

352
00:24:01,120 --> 00:24:02,120
Ja, precies.

353
00:24:02,120 --> 00:24:06,760
Dat is ook wel wat we vaak zeggen over EI natuurlijk.

354
00:24:06,760 --> 00:24:08,920
Impact die je ermee kan maken.

355
00:24:08,920 --> 00:24:12,040
En dan is het net als vuur, daar kan je je handen mee warmen...

356
00:24:12,040 --> 00:24:15,160
of je huis mee verwarmen, maar je kan hem ook afbranden.

357
00:24:15,160 --> 00:24:16,680
Precies.

358
00:24:16,680 --> 00:24:20,480
Dus het gaat uiteindelijk weer om de mens die de keuze moet maken...

359
00:24:20,480 --> 00:24:21,500
wat doen we ermee?

360
00:24:21,500 --> 00:24:25,000
Maar ook om het beseffen van hoe je zoiets ontwerpt.

361
00:24:25,000 --> 00:24:26,020
En daar gaat het dus om.

362
00:24:26,020 --> 00:24:27,480
Hoe ontwerp je zo'n hamer?

363
00:24:27,480 --> 00:24:31,640
Heb je dan bepaalde veiligheid die je erin ontwerpt?

364
00:24:31,640 --> 00:24:34,320
waarmee je mensen hun gedrag kan sturen.

365
00:24:34,320 --> 00:24:37,360
Dat je het moeilijker maakt om iemand hoofd in te slaan op een of andere manier.

366
00:24:37,360 --> 00:24:38,680
Of niet.

367
00:24:38,680 --> 00:24:40,140
En dat kan je dus ook bij AI doen.

368
00:24:40,140 --> 00:24:43,560
Dat je dus die ideeën van wat wil je ermee bereiken,

369
00:24:43,560 --> 00:24:46,280
hoe wil je dat mensen handelen met deze technologie,

370
00:24:46,280 --> 00:24:48,340
dat je die in het ontwerp laat terugkomen.

371
00:24:48,340 --> 00:24:52,140
Ik vind het een hele mooie dat je net zegt van AI gaat eigenlijk weer om de mens.

372
00:24:52,140 --> 00:24:53,540
En wat wij ermee doen.

373
00:24:53,540 --> 00:24:56,380
Dus ik denk dat het een mooie is om ermee af te sluiten.

374
00:24:56,380 --> 00:24:58,100
Dank je wel. - Dank je wel.

375
00:25:01,060 --> 00:25:03,860
Leuk dat je weer luistert naar een aflevering van de AIToday Live.

376
00:25:03,860 --> 00:25:08,460
Vergeet je niet te abonneren via je favoriete podcast app en mis geen eindklaarverlevering.

377
00:25:08,460 --> 00:25:11,460
[Muziek]


People on this episode