AIToday Live

S05E45 - Het snijvlak van ethiek en technologie: navigeren door de uitdagingen

Info Support AIToday Season 5 Episode 45

In deze podcastaflevering spreken we met Kolja Verhage, manager bij het Digital Ethics Team van Deloitte. Hij richt zich op ethische kwesties met betrekking tot kunstmatige intelligentie (AI). Verhage legt uit dat de aandacht voor ethiek in AI de afgelopen jaren zowel lokaal als internationaal is toegenomen.

Hij deelt zijn ervaring met verschillende commissies en werkgroepen die werken aan het implementeren van ethiek in AI. Verhage benadrukt de uitdagingen van het op een gestructureerde manier integreren van ethiek in technische standaarden, omdat ethiek veranderlijk is en niet eenduidig kan worden vastgelegd.

Verschillende manieren om ethiek technisch te implementeren worden besproken, zoals het uitvoeren van een impact assessment en het oprichten van een ethische commissie.

Verhage benadrukt dat bedrijven bewust moeten nadenken over ethische kwesties en hierop moeten anticiperen. Organisaties moeten de adviezen van ethische commissies serieus nemen en implementeren in hun besluitvorming. Daarnaast moeten er groeiende ethische bewustzijn binnen organisaties zijn, zodat er meer begrip ontstaat voor ethische kwesties en hoe hiermee om te gaan.

Links

  • Deloitte (https://www2.deloitte.com)
  • OECD (https://oecd.ai)
  • NEN (https://www.nen.nl)
  • NLAIC (Nederlandse AI Coalitie) (www.nlaic.nl)
  • TU Delft (https://www.tudelft.nl)
  • CENELEC (https://nl.wikipedia.org/wiki/CENELEC)

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:06,500
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AI Today Live.

2
00:00:06,500 --> 00:00:09,820
Vandaag deel 2 met onze gast Kolja Verhage.

3
00:00:09,820 --> 00:00:12,820
Mijn naam is Joop Snijder, CTO bij Aigency.

4
00:00:12,820 --> 00:00:16,020
Mijn naam Niels Naglé, chapter lead data AI bij Info Support.

5
00:00:16,020 --> 00:00:18,520
Kolja, wederom welkom.

6
00:00:18,520 --> 00:00:21,220
Leuk dat je in onze podcast te gast wil zijn.

7
00:00:21,220 --> 00:00:23,520
Zou je je willen voorstellen aan onze luisteraars?

8
00:00:23,520 --> 00:00:25,720
Jazeker, ik ben Kolja Verhage.

9
00:00:25,720 --> 00:00:28,720
Ik ben manager in het Digital Ethics Team van Deloitte.

10
00:00:28,720 --> 00:00:34,220
Daarnaast vertegenwoordig ik Deloitte bij het OECD Working Party on AI Governance.

11
00:00:34,220 --> 00:00:37,720
Ik zit ook in de normcommissie AI en Big Data van NEN.

12
00:00:37,720 --> 00:00:43,720
Die werkt aan de technische standaard die uit de AI Act vanuit de Europese Unie komt.

13
00:00:43,720 --> 00:00:50,220
En daarnaast ben ik onderdeel van de werkgroep Ethique bij domein mensgerichte AI.

14
00:00:50,220 --> 00:00:53,220
Als onderdeel van de Nederlandse AI coalitie.

15
00:00:53,220 --> 00:01:00,420
Ja, dat is een vrij breed palet aan werkzaamheden die je doet, allemaal gerelateerd aan ethiek.

16
00:01:00,420 --> 00:01:06,220
Wat ik zo mooi vind, ik zit nu zo'n 10 jaar in dit vakgebied van kunstmatige intelligentie.

17
00:01:06,220 --> 00:01:12,900
Toen ik begon waren ethische vraagstukken niet het eerste wat bovenaan stond.

18
00:01:12,900 --> 00:01:18,820
A) was de technologie nog helemaal niet zo bekend, dus mensen interesseerden zich helemaal niet.

19
00:01:18,820 --> 00:01:25,880
Dus ik denk dat je ziet hoe breed, niet alleen de verschillende organisaties,

20
00:01:25,880 --> 00:01:29,440
maar volgens mij doe je het zowel lokaal, en met lokaal noem ik even Nederland,

21
00:01:29,440 --> 00:01:33,640
en internationaal, dat je ziet dat er steeds meer aandacht komt voor dit onderwerp.

22
00:01:33,640 --> 00:01:42,840
Ja, zeker. Ik ben ooit begonnen met kunstmatige intelligentie studeren aan de UvA in 2005 of 2006.

23
00:01:42,840 --> 00:01:50,680
En toen was het ook ethiek niet echt een vast onderdeel van de opleiding.

24
00:01:50,680 --> 00:01:54,440
Maar ik vond het zo interessant die maatschappelijke aspecten daarvan,

25
00:01:54,440 --> 00:01:59,240
dat ik daarom ben doorgaan studeren op politicologie.

26
00:01:59,240 --> 00:02:02,840
Om daar juist wat meer in te gaan duiken, van wat is die impact nou?

27
00:02:02,840 --> 00:02:08,440
En in de tussentijd tot een jaar of 2018,

28
00:02:08,440 --> 00:02:14,520
Toen zag je eigenlijk met de Asilomar-principes, die als eerste werden gepubliceerd,

29
00:02:14,520 --> 00:02:18,720
en daarna kwamen Google en OECD en Microsoft met hun ethische principes,

30
00:02:18,720 --> 00:02:22,720
dat toen eigenlijk pas het besef kwam van,

31
00:02:22,720 --> 00:02:25,920
"Goh, de technologie gaat zo hard,

32
00:02:25,920 --> 00:02:30,520
dat de wet eigenlijk niet meer een goede, hoe zeg je dat,

33
00:02:30,520 --> 00:02:35,320
guidance biedt om negatieve externalities te voorkomen.

34
00:02:35,320 --> 00:02:37,320
Dus we moeten verder gaan dan de wet.

35
00:02:37,320 --> 00:02:39,800
En hoe doen we dat? Hoe gaan we verder dan de wet?

36
00:02:39,800 --> 00:02:41,300
En wat betekent dat?

37
00:02:41,300 --> 00:02:44,800
Hoe kunnen we dat op een gestructureerde manier doen?

38
00:02:44,800 --> 00:02:49,100
Want ja, ethiek, voor heel veel mensen is het nog steeds vluf.

39
00:02:49,100 --> 00:02:50,620
Ja. - Meningen.

40
00:02:50,620 --> 00:02:52,640
Jouw ethiek is niet mijn ethiek.

41
00:02:52,640 --> 00:02:58,040
En dat soort misvattingen leiden ertoe...

42
00:02:58,040 --> 00:03:02,800
dat het te weinig nog echt hard wordt geoperationaliseerd in bedrijven.

43
00:03:02,800 --> 00:03:05,820
Maar zie je wel, steeds meer gebeuren...

44
00:03:05,840 --> 00:03:13,340
Het is een hele goede vraag, want de NEN is bezig met de technische standaard

45
00:03:13,340 --> 00:03:18,840
die vanuit CEN CENELEC, dat is een technische standaard,

46
00:03:18,840 --> 00:03:22,840
die uit de technische standaard van de NEN,

47
00:03:22,840 --> 00:03:28,840
die is een technische standaard die uit de technische standaard van de NEN

48
00:03:28,840 --> 00:03:35,840
De NEN is bezig met de technische standaard die vanuit CEN CENELEC,

49
00:03:35,840 --> 00:03:40,540
dat is het Europese Standardisatieinstituut, gecreëerd gaat worden,

50
00:03:40,540 --> 00:03:47,040
waarmee bedrijven hun compliance met de nieuwe AI-Act die eraan gaat komen,

51
00:03:47,040 --> 00:03:48,240
kunnen aantonen.

52
00:03:48,240 --> 00:03:51,040
En daar is dan een soort conformity assessment,

53
00:03:51,040 --> 00:03:54,040
daar gaat er vanuit dat, of presumed conformity,

54
00:03:54,040 --> 00:03:56,040
dat als je je aan die standaard houdt,

55
00:03:56,140 --> 00:03:59,140
dat je dan ook check bent met de AI-act.

56
00:03:59,140 --> 00:04:05,220
Het lastige is alleen dat er een soort van spanning is

57
00:04:05,220 --> 00:04:09,740
tussen een technisch standaard, wat gewoon een harde eis is,

58
00:04:09,740 --> 00:04:15,340
en ethiek, die veranderlijk is en niet eigenlijk hard gecodeerd kan worden.

59
00:04:15,340 --> 00:04:18,860
Dus er leeft... - Je kan er geen checklist voor maken.

60
00:04:18,860 --> 00:04:22,540
Precies. Dus er leeft eigenlijk een grote uitdaging nu,

61
00:04:22,560 --> 00:04:27,040
waar er binnen ScenCenelec, maar ook binnen NEN, veel over gesproken wordt.

62
00:04:27,040 --> 00:04:31,140
Namelijk, hoe kan je ethiek op een technische manier operationaliseren?

63
00:04:31,140 --> 00:04:34,340
Meer, nog wat specifieker gezegd,

64
00:04:34,340 --> 00:04:39,740
hoe kom je tot de objective function, of de goal function,

65
00:04:39,740 --> 00:04:42,080
waarop je een AI-systeem optimaliseert,

66
00:04:42,080 --> 00:04:44,540
die in lijn is met bepaalde ethische waarden?

67
00:04:44,540 --> 00:04:46,940
En wat voor proces is daarvoor nodig?

68
00:04:46,940 --> 00:04:49,100
En dat proces kan je wel standaardiseren.

69
00:04:49,380 --> 00:04:55,860
Dus als je daar tot een bepaald mooi proces komt waarmee je de ethiek beïnvloedt,

70
00:04:55,860 --> 00:04:59,460
wat de uiteindelijke goalfunction is waarop je het systeem optimaliseert,

71
00:04:59,460 --> 00:05:03,060
is het misschien wel mogelijk, maar hoe doe je dat?

72
00:05:03,060 --> 00:05:05,540
Ja, even voor mezelf, of ik het goed begrijp.

73
00:05:05,540 --> 00:05:12,380
Dus door het proces wel te standardiseren en te toetsen of dat proces dan gevolgd wordt,

74
00:05:12,380 --> 00:05:17,180
weet je in ieder geval dat er over nagedacht is en dat de ethiek onderdeel is geweest van het beslissingsproces,

75
00:05:17,200 --> 00:05:20,560
Maar het zegt nog niks over de ethische waarden van de ene organisatie,

76
00:05:20,560 --> 00:05:23,160
en heel anders dan de ethische waarden van de andere organisatie.

77
00:05:23,160 --> 00:05:25,840
Wat het effect is op de oplossing.

78
00:05:25,840 --> 00:05:26,880
Ja, klopt.

79
00:05:26,880 --> 00:05:29,320
Maar er zijn... Nee, dat klopt.

80
00:05:29,320 --> 00:05:32,680
Maar binnen de AI-Act zijn er ook ethische waardes.

81
00:05:32,680 --> 00:05:36,280
Dus daar, die zijn dan in die gevallen de leidraad.

82
00:05:36,280 --> 00:05:37,300
Oké.

83
00:05:37,300 --> 00:05:39,100
Maar dat gaat dan...

84
00:05:39,100 --> 00:05:43,760
Kijk, een leuk voorbeeld dat ik vaak gebruik.

85
00:05:43,760 --> 00:05:46,780
Dat is een beetje een grappig voorbeeld.

86
00:05:46,780 --> 00:05:51,780
Dat is een grote supermarkt in Nederland die we allemaal wel kennen.

87
00:05:51,780 --> 00:05:55,780
Die begon met een app die ze hadden ontwikkeld.

88
00:05:55,780 --> 00:06:00,780
Dat was een pilot voor een aantal vestigingen voor werknemers,

89
00:06:00,780 --> 00:06:06,780
om een foto van zichzelf te maken waarmee ze de perfecte maat uniform zouden krijgen.

90
00:06:06,780 --> 00:06:11,780
Dat hebben ze toen uitgerold en vanuit de gedachte,

91
00:06:11,780 --> 00:06:16,020
Vanuit die optimalisatie gedachte gingen ze toen vragen aan werknemers

92
00:06:16,020 --> 00:06:21,500
om een foto van zichzelf te maken in hun ondergoed of in hele strakke kleding.

93
00:06:21,500 --> 00:06:25,780
Allemaal was dat qua AVG en cyberwetgeving,

94
00:06:25,780 --> 00:06:30,220
was dat allemaal perfect compliant en juridisch helemaal check.

95
00:06:30,220 --> 00:06:33,980
Maar toen dat in de media kwam, dat er een server was ergens

96
00:06:33,980 --> 00:06:36,220
waar die de mensen in de media konden opnemen,

97
00:06:36,220 --> 00:06:38,220
die ze dan ook in de media konden opnemen,

98
00:06:38,220 --> 00:06:44,220
Als je wil optimaliseren op de laagste possible error rate en dat jouw enige objective is,

99
00:06:44,220 --> 00:06:48,220
dan ga je niet op de laagste possible error rate gaan.

100
00:06:48,220 --> 00:06:51,220
Je moet het op de laagste possible error rate gaan.

101
00:06:51,220 --> 00:06:53,220
Je moet het op de laagste possible error rate gaan.

102
00:06:53,220 --> 00:06:55,220
Je moet het op de laagste possible error rate gaan.

103
00:06:55,220 --> 00:06:57,220
Je moet het op de laagste possible error rate gaan.

104
00:06:57,220 --> 00:06:59,220
Je moet het op de laagste possible error rate gaan.

105
00:06:59,220 --> 00:07:01,220
Je moet het op de laagste possible error rate gaan.

106
00:07:01,220 --> 00:07:03,220
Je moet het op de laagste possible error rate gaan.

107
00:07:03,220 --> 00:07:05,220
Je moet het op de laagste possible error rate gaan.

108
00:07:05,220 --> 00:07:09,220
Als we het heel concreet maken op dit voorbeeld.

109
00:07:09,220 --> 00:07:13,220
Hoe zou dan zo'n proces, zo direct gedefiniëerd door de NEN,

110
00:07:13,220 --> 00:07:16,220
hier verandering op hebben uitgevoerd?

111
00:07:16,220 --> 00:07:19,220
Stel dat dit bedrijf altijd wel toegepast had.

112
00:07:19,220 --> 00:07:22,220
Waar in het proces waren ze erachter gekomen van,

113
00:07:22,220 --> 00:07:25,220
misschien moeten we dit niet doen of anders.

114
00:07:25,220 --> 00:07:28,220
En dan zou je dan een heel ander perspectief zien.

115
00:07:28,220 --> 00:07:31,220
En dan zou je dan een heel ander perspectief zien.

116
00:07:31,220 --> 00:07:37,340
waar ze erachter gekomen van misschien moeten we dit niet doen of anders doen of wel doen,

117
00:07:37,340 --> 00:07:43,140
maar we kiezen ervoor. - Nou ja, hoe dat uiteindelijk echt technisch eruit komt te zien,

118
00:07:43,140 --> 00:07:48,380
dat kan op verschillende manieren, maar het faciliteren van bijvoorbeeld een impact assessment,

119
00:07:48,380 --> 00:07:52,980
waarin je een ethical impact assessment, waarin je juist allemaal van die verschillende perspectieven

120
00:07:52,980 --> 00:07:59,980
meeneemt in de ontwikkeling van je product, dan krijg je zicht op dat soort dingen. Een voorbeeld

121
00:07:59,980 --> 00:08:04,380
Wat ik ook in dat artikel noem, wat ik voor het OECD heb geschreven,

122
00:08:04,380 --> 00:08:08,420
is de toeslagenaffaire die heel vaak wordt genoemd.

123
00:08:08,420 --> 00:08:12,460
Er zijn heel veel aspecten van de toeslagenaffaire,

124
00:08:12,460 --> 00:08:19,700
maar één belangrijk onderdeel is dat het systeem, het bredere systeem,

125
00:08:19,700 --> 00:08:24,220
dus niet alleen maar het AI-model, maar het hele systeem van fraudesignalering,

126
00:08:24,220 --> 00:08:29,820
eigenlijk puur en alleen is geoptimaliseerd op fraudedetectie en fraude tegengaan.

127
00:08:29,940 --> 00:08:35,180
En daar werd enorm veel op gepusht.

128
00:08:35,180 --> 00:08:40,220
En heel veel mensen werden echt aangejaagd en geapplaudisseerd...

129
00:08:40,220 --> 00:08:47,340
om meer die fraudedetectie in de voorgrond te laten houden.

130
00:08:47,340 --> 00:08:52,420
Maar als daar in de tussentijd wat meer was gekeken naar zaken zoals eerlijkheid en discriminatie...

131
00:08:52,420 --> 00:08:56,460
en die mee waren genomen in de ontwikkeling van het hele systeem...

132
00:08:56,460 --> 00:09:05,460
Dan was de kans dat de keerzijden ervan eerder op de radar kwamen, veel groter geweest.

133
00:09:05,460 --> 00:09:09,460
Ja, dus tijdens design, als ik het even voor mezelf vertaal, naar de processen.

134
00:09:09,460 --> 00:09:12,460
Dan zou je in de designfase dat soort vragen gaan stellen.

135
00:09:12,460 --> 00:09:15,460
De andere perspectieven daarin meenemen en niet alleen optimaliseren op het één,

136
00:09:15,460 --> 00:09:17,460
maar wat als we optimaliseren op andere zaken?

137
00:09:17,460 --> 00:09:19,460
Of hebben we daarover nagedacht om dat mee te nemen?

138
00:09:19,460 --> 00:09:22,460
Ja, en dan inderdaad vooraf, maar ook achteraf.

139
00:09:22,460 --> 00:09:30,360
want er zijn genoeg voorbeelden van bepaalde toepassingen die in het begin een heel goed idee leken,

140
00:09:30,360 --> 00:09:35,460
maar gaandeweg, omdat aanpassingen, zo gaat het in de ontwikkeling van een product,

141
00:09:35,460 --> 00:09:39,860
dan verschuift de focus en dan kom je uiteindelijk op met een heel ander product

142
00:09:39,860 --> 00:09:42,660
dan in eerste instantie in de pilot fase is bedacht.

143
00:09:42,660 --> 00:09:46,860
Of het gebruik van het product is anders dan dat.

144
00:09:46,860 --> 00:09:48,860
Intenties, Hamer bijvoorbeeld.

145
00:09:48,860 --> 00:09:51,760
Ja, interessant.

146
00:09:51,760 --> 00:09:56,740
Wat we nog wel vaak zien is dat vaak nog, daar hebben we het al heel vaak over in een eerdere podcast opgeleverd,

147
00:09:56,740 --> 00:10:01,180
dat het vaak nog een technische oplossing is, omdat het technisch nou eenmaal mogelijk is dat we die oplossing maken,

148
00:10:01,180 --> 00:10:03,880
waardoor we ook vaak dit soort vraagstukken niet tacklen.

149
00:10:03,880 --> 00:10:05,880
Hoe kunnen we dat in zo'n proces voorkomen?

150
00:10:05,880 --> 00:10:11,180
Dat het niet een technisch feestje is, wat het in het begin soms vaak wel is, omdat de techniek maakt het nou eenmaal mogelijk.

151
00:10:11,180 --> 00:10:18,460
Ja, nou wat ik veel zie is dat, dat is een beetje een algemene uitdaging op dit moment,

152
00:10:18,460 --> 00:10:23,460
dat vanuit beleidsmakers, vanuit juristen,

153
00:10:23,460 --> 00:10:29,660
wordt de verantwoordelijkheid om ethiek, in brede zin,

154
00:10:29,660 --> 00:10:35,660
in de ontwikkeling van een model, van een technische oplossing,

155
00:10:35,660 --> 00:10:38,960
de verantwoordelijkheid om dat toe te passen,

156
00:10:38,960 --> 00:10:41,460
of om dat te operationaliseren,

157
00:10:41,460 --> 00:10:43,460
wordt heel erg bij de techneuten neergelegd.

158
00:10:43,460 --> 00:10:46,460
Van nou, eerlijkheid is belangrijk.

159
00:10:46,460 --> 00:10:50,260
Hier, techneut, ga het maar oplossen. Ga het maar bedenken hoe dat moet.

160
00:10:50,260 --> 00:10:54,580
Maar die antwoorden hebben die techneuten ook niet.

161
00:10:54,580 --> 00:10:58,060
Die zijn ook maar mensen, zeg maar.

162
00:10:58,060 --> 00:11:00,500
Die hebben ook niet alle antwoorden hoe het dan wel goed moet.

163
00:11:00,500 --> 00:11:08,180
Dus de discretionaire macht van de technische afdeling van de techneuten...

164
00:11:08,180 --> 00:11:10,260
is eigenlijk iets te groot.

165
00:11:10,260 --> 00:11:15,140
In de zin dat er ook teveel verantwoordelijkheid van hun wordt verwacht...

166
00:11:15,180 --> 00:11:17,180
om dit soort vraagstukken op te lossen.

167
00:11:17,180 --> 00:11:23,820
En mijn kijk daarop is dat beleidsmakers en juristen...

168
00:11:23,820 --> 00:11:26,520
meer zelf de verantwoordelijkheid moeten nemen...

169
00:11:26,520 --> 00:11:28,720
om ook wat over de techniek te gaan begrijpen...

170
00:11:28,720 --> 00:11:31,720
en dan te kunnen helpen en ermee te praten...

171
00:11:31,720 --> 00:11:35,720
hoe dat soort oplossingen eruit zouden komen te zien.

172
00:11:35,720 --> 00:11:39,320
Want we kunnen niet de volledige verantwoordelijkheid bij de techneuten laten.

173
00:11:39,320 --> 00:11:41,920
Dat is niet de manier waarop we dat kunnen oplossen.

174
00:11:41,920 --> 00:11:43,280
Hele mooi inderdaad.

175
00:11:43,320 --> 00:11:45,320
Ik denk dat we wel meet in the middle doen.

176
00:11:45,320 --> 00:11:47,320
Dat we ook zeggen tegen de techneuten,

177
00:11:47,320 --> 00:11:49,320
jongens als jullie nu luisteren als techneuten,

178
00:11:49,320 --> 00:11:51,320
wees ook van jezelf bewust, stel die vraag,

179
00:11:51,320 --> 00:11:53,320
is hier ook over nagedacht, is ethiek meegenomen?

180
00:11:53,320 --> 00:11:55,320
En hebben we dat gecoverd met elkaar?

181
00:11:55,320 --> 00:11:57,320
Dus dat dat ook vanuit de andere kant van de juristen komt,

182
00:11:57,320 --> 00:11:59,320
en ook product owners en dat soort zaken.

183
00:11:59,320 --> 00:12:01,320
Maar ook de techneuten, laten we elkaar daarop

184
00:12:01,320 --> 00:12:03,320
challengen en het gesprek met elkaar voeren.

185
00:12:03,320 --> 00:12:05,320
Ja, en ik zie bij bedrijven, eigenlijk

186
00:12:05,320 --> 00:12:07,320
een beetje zwart-wit, maar je hebt

187
00:12:07,320 --> 00:12:09,320
de move fast and break things

188
00:12:09,320 --> 00:12:11,320
organisaties,

189
00:12:11,320 --> 00:12:16,420
die dus heel erg gericht zijn, gewoon innoveren, laten we eerst een product maken en daarna kijken wat er gebeurt.

190
00:12:16,420 --> 00:12:20,500
Dat zie je toch wel over het algemeen wat meer bij kleinere organisaties.

191
00:12:20,500 --> 00:12:29,220
En de organisaties waar juist de techneuten zich wat oncomfortabel voelen met die verantwoordelijkheid,

192
00:12:29,220 --> 00:12:33,720
dat ze zoiets hebben van, ja, er wordt van ons verwacht dat wij gaan oplossen wat eerlijkheid is,

193
00:12:33,720 --> 00:12:36,400
voor een systeem wat super grote impact op mensen heeft.

194
00:12:36,660 --> 00:12:41,340
En dan aan de bel trekken, we willen hier wat guidance bij hoe we dit moeten doen,

195
00:12:41,340 --> 00:12:43,340
want wij gaan dit zelf niet in ons eentje oplossen.

196
00:12:43,340 --> 00:12:46,940
En eerlijkheid, als term is het al ontzettend moeilijk toch?

197
00:12:46,940 --> 00:12:48,940
Wat is eerlijk? Wat is eerlijk in de context?

198
00:12:48,940 --> 00:12:50,100
Voor wie?

199
00:12:50,100 --> 00:12:53,580
Er zijn 21 mathematische definities van eerlijkheid.

200
00:12:53,580 --> 00:12:56,500
Dus welke moet ik dan in deze context toepassen?

201
00:12:56,500 --> 00:13:03,540
En om een voorbeeld te geven, in sommige gevallen wil je dat een model mannen en vrouwen gelijk behandelt,

202
00:13:03,540 --> 00:13:06,460
terwijl in de gezondheidszorg wil je dat absoluut juist niet.

203
00:13:06,460 --> 00:13:09,460
Want dan zijn we ook verschillend.

204
00:13:09,460 --> 00:13:11,460
Dus wat is dan eerlijkheid?

205
00:13:11,460 --> 00:13:15,460
Je kan niet één metriek erop zetten en zeggen van dit model is eerlijk.

206
00:13:15,460 --> 00:13:17,460
Nee, precies.

207
00:13:17,460 --> 00:13:24,960
Ik las een paar dagen geleden nog in het Parool wat ik een mooi voorbeeld van de eerlijkheidsdiscussie vond.

208
00:13:24,960 --> 00:13:28,960
Daar stond als je meer geld verdient moet je dan ook hogere boetes betalen.

209
00:13:28,960 --> 00:13:31,460
Dat is echt zo'n mooi voorbeeld van eerlijkheid.

210
00:13:31,460 --> 00:13:33,460
Is dat eerlijk of is dat minder eerlijk?

211
00:13:33,460 --> 00:13:37,740
Dat soort vragen zijn natuurlijk politieke en maatschappelijke vragen.

212
00:13:37,740 --> 00:13:40,540
Daar zullen mensen heel anders op antwoorden.

213
00:13:40,540 --> 00:13:46,780
Heb je ergens een voorbeeld, en je hoeft het bedrijf niet te noemen,

214
00:13:46,780 --> 00:13:55,740
waar dit heel goed is gegaan, de implementatie van de assessments over de ethische waardes,

215
00:13:55,740 --> 00:14:00,300
of misschien zelfs wel de bijstelling van een project dat er liep.

216
00:14:00,300 --> 00:14:04,300
Maar ik heb wel een bedrijf, een groot bedrijf uit Zweden,

217
00:14:04,300 --> 00:14:07,300
en die zijn er wel echt heel erg ver mee.

218
00:14:07,300 --> 00:14:10,300
En die zijn ook wel echt op het punt dat ze het niet kunnen doen.

219
00:14:10,300 --> 00:14:13,300
Dus ik denk dat het een beetje een verhaal is.

220
00:14:13,300 --> 00:14:15,300
Maar ik denk dat het een beetje een verhaal is.

221
00:14:15,300 --> 00:14:17,300
Ik denk dat het een beetje een verhaal is.

222
00:14:17,300 --> 00:14:19,300
Ik denk dat het een beetje een verhaal is.

223
00:14:19,300 --> 00:14:21,300
Ik denk dat het een beetje een verhaal is.

224
00:14:21,300 --> 00:14:23,300
Ik denk dat het een beetje een verhaal is.

225
00:14:23,300 --> 00:14:25,300
Ik denk dat het een beetje een verhaal is.

226
00:14:25,300 --> 00:14:27,300
Ik denk dat het een beetje een verhaal is.

227
00:14:27,300 --> 00:14:55,700
ergen ver mee en die zijn ook wel echt op het punt dat ze goede principes hebben, definities, operationalisering rondom impact, impact assessments, een ethische comité die nadenkt over verschillende algoritmes en ontwikkeling ervan en de manier waarop data wordt gebruikt en al die aspecten in meeneemt. Dus ja, nee, die zijn er zeker, dat soort bedrijven.

228
00:14:55,700 --> 00:14:59,100
Dat is fijn om te horen. - Die hebben we ook wel nodig.

229
00:14:59,100 --> 00:15:02,600
Nou ja, als je vaak over dit soort onderwerpen praat,

230
00:15:02,600 --> 00:15:05,020
dan halen we natuurlijk heel snel de schandalen aan.

231
00:15:05,020 --> 00:15:09,900
En dan vergeten we misschien soms waar het ook goed gaat en hoe je het goed doet.

232
00:15:09,900 --> 00:15:13,200
Maar het zijn echt de bedrijven die echt achter hun waarde staan.

233
00:15:13,200 --> 00:15:24,300
De meeste bedrijven die oprecht en ook wel naar buiten treden met een boodschap.

234
00:15:24,380 --> 00:15:28,180
Wij vinden onze werknemers belangrijk, wij staan achter onze waarden.

235
00:15:28,180 --> 00:15:32,140
We vinden sustainability belangrijk als voorbeeld.

236
00:15:32,140 --> 00:15:36,340
En daar al jarenlang ook een track record op hebben dat ze er iets mee doen.

237
00:15:36,340 --> 00:15:40,740
Bij dat soort bedrijven zie je toch wel vaak dat er iemand binnen organisatie is geweest...

238
00:15:40,740 --> 00:15:43,260
die aan de bel heeft getrokken en die heeft gezegd...

239
00:15:43,260 --> 00:15:46,740
wij moeten hier met dat digitale aspect ook iets doen.

240
00:15:46,740 --> 00:15:49,860
Om het in lijn te brengen met onze waarden.

241
00:15:49,860 --> 00:15:52,860
Wat ik me dan afvraag is, wat voor discipline zit er dan om tafel?

242
00:15:52,900 --> 00:15:56,260
dan zie je dat het vaak een mix is van intern en extern.

243
00:15:56,260 --> 00:16:02,900
Dus een project manager of project owner, een technisch persoon, iemand die het

244
00:16:02,900 --> 00:16:07,260
heel goed kan doen, iemand die het heel goed kan doen, iemand die het heel goed kan doen.

245
00:16:07,260 --> 00:16:10,900
En dan zie je dat het vaak een mix is van intern en extern.

246
00:16:10,900 --> 00:16:17,900
Dus een project manager of project owner, een technisch persoon, iemand die het heel goed kan doen.

247
00:16:17,900 --> 00:16:25,420
project manager of project owner, een technisch persoon, iemand vanuit de legal hoek, een

248
00:16:25,420 --> 00:16:30,740
academicus, een professor van TU Delft ofzo.

249
00:16:30,740 --> 00:16:35,140
Ja, echt een mix, echt multidisciplinair.

250
00:16:35,140 --> 00:16:41,060
Want dat is de manier om ook juist die verschillende perspectieven wederom mee te krijgen in de

251
00:16:41,060 --> 00:16:42,060
uiteindelijke beslissing.

252
00:16:42,060 --> 00:16:44,180
- Mooi om te horen.

253
00:16:44,180 --> 00:16:53,700
En misschien wel goed om te noemen wat tussenverwaard is vaak bij dat soort implementaties van ethische comités.

254
00:16:53,700 --> 00:16:58,220
Waar het vaak vringt is wat wordt er gedaan met de adviezen?

255
00:16:58,220 --> 00:17:06,140
Dus dan komen er tien mensen, of misschien zijn het er maar vijf, bij elkaar en zeggen dit model kan wel, maar onder deze en deze voorwaarden.

256
00:17:06,140 --> 00:17:08,340
Wat gebeurt er dan vervolgens daarmee?

257
00:17:08,340 --> 00:17:11,540
Er moet dus iemand binnen een organisatie zijn die het mandaat heeft...

258
00:17:11,540 --> 00:17:15,520
om daadwerkelijk die adviezen te gaan doorvoeren.

259
00:17:15,520 --> 00:17:18,800
Of in ieder geval ook te zeggen, dit advies wel, dit advies niet.

260
00:17:18,800 --> 00:17:21,820
Op basis waarvan gebeurt die beoordeling.

261
00:17:21,820 --> 00:17:25,840
En is er vervolgens ook een budget en een mandaat...

262
00:17:25,840 --> 00:17:28,800
dat die persoon het ook echt kan gaan doorvoeren.

263
00:17:28,800 --> 00:17:32,300
En daar zie je dat veel bedrijven nog struikelen.

264
00:17:32,300 --> 00:17:35,280
Want het opzetten van een praatgroepje is niet zo moeilijk.

265
00:17:35,300 --> 00:17:39,620
Maar 'meaningful impact on ultimate decision making', zeg maar.

266
00:17:39,620 --> 00:17:44,020
Dat is wel lastig, want er gaan grote belangen in om.

267
00:17:44,020 --> 00:17:47,780
Ja, vooral dat het ook een enorme impact kan hebben op de organisatie...

268
00:17:47,780 --> 00:17:50,220
en op wie het van toepassing is.

269
00:17:50,220 --> 00:17:52,420
Dat het ook grote belangen is die meespelen.

270
00:17:52,420 --> 00:17:57,300
Ja, precies. En als je consistent als organisatie niet die adviezen opvolgt...

271
00:17:57,300 --> 00:18:00,380
waarvoor heb je dan zo'n praatgroepje?

272
00:18:00,620 --> 00:18:05,380
Dus wat we ook wel eens zien, dat vind ik zelf wel een interessante,

273
00:18:05,380 --> 00:18:08,260
is dat noemen ze comply or reply.

274
00:18:08,260 --> 00:18:12,220
Dus stel je er komt een advies vanuit een ethisch comité,

275
00:18:12,220 --> 00:18:16,260
en dat wordt dan bij Techneut, waarbij een product owner neergelegd,

276
00:18:16,260 --> 00:18:21,940
dan moet hij of zij of comply, dus of met die adviezen opvolgen,

277
00:18:21,940 --> 00:18:26,500
of reply, dus een antwoord geven waarom die niet worden opgevoegd.

278
00:18:26,500 --> 00:18:29,460
En op die manier, wat je daarmee bewerkstelt,

279
00:18:29,460 --> 00:18:34,100
is dat er toch een soort van meer ethisch bewustzijn in de organisatie komt.

280
00:18:34,100 --> 00:18:38,260
En een begrip over waar het dan schuurt.

281
00:18:38,260 --> 00:18:43,420
En wat je dan krijgt, dan krijg je ook een beetje een soort van die culturele verandering die je wil.

282
00:18:43,420 --> 00:18:46,420
We noemen dat wel eens 'training the ethics muscle'.

283
00:18:46,420 --> 00:18:53,060
Dus dat er gewoon een beetje een soort van bewustzijn over waar zitten die ethische issues en waar schuurt het eigenlijk.

284
00:18:53,060 --> 00:18:58,220
En als je dat steeds beter, steeds vaker hoort, dan op een gegeven moment internaliseer je dat.

285
00:18:58,220 --> 00:19:02,980
en is zo'n ethisch comité niet eens vaak meer nodig op de lange termijn.

286
00:19:02,980 --> 00:19:05,500
Ja, wel een mooie aanpak. Comply or reply.

287
00:19:05,500 --> 00:19:10,720
Het is eigenlijk een soort van verplichte feedbackloop op de keuzes die je maakt om de discussie gaande te houden

288
00:19:10,720 --> 00:19:14,220
en niet de één keer een advies te krijgen en dan zeggen we ja prima, we gaan weer verder.

289
00:19:14,220 --> 00:19:21,160
Precies, of zo'n ethisch comité zo machtig maken dat alles wat zij beslissen uitgevoerd moet worden,

290
00:19:21,160 --> 00:19:24,500
dan valt een organisatie uit elkaar, dat gaat ook niet.

291
00:19:25,640 --> 00:19:30,640
Ik ben onderdeel van kernteam ethiek van de werkgroep Mens Gerichte AI.

292
00:19:30,640 --> 00:19:33,640
Het is een redelijk complexe organisatie.

293
00:19:33,640 --> 00:19:34,640
Heel pompig.

294
00:19:34,640 --> 00:19:36,640
Het is een heel complexe organisatie.

295
00:19:36,640 --> 00:19:38,640
Het is een heel complexe organisatie.

296
00:19:38,640 --> 00:19:40,640
Het is een heel complexe organisatie.

297
00:19:40,640 --> 00:19:42,640
Het is een heel complexe organisatie.

298
00:19:42,640 --> 00:19:44,640
Het is een heel complexe organisatie.

299
00:19:44,640 --> 00:19:46,640
Het is een heel complexe organisatie.

300
00:19:46,640 --> 00:19:48,640
Het is een heel complexe organisatie.

301
00:19:48,640 --> 00:19:50,640
Het is een heel complexe organisatie.

302
00:19:50,640 --> 00:19:52,640
Het is een heel complexe organisatie.

303
00:19:52,640 --> 00:19:55,040
Het is een redelijk complexe organisatie.

304
00:19:55,040 --> 00:19:57,040
- Heel boompje ziek voor me.

305
00:19:57,040 --> 00:19:59,040
- Het is groot geworden.

306
00:19:59,040 --> 00:20:00,040
- Ja, zeker.

307
00:20:00,040 --> 00:20:01,040
Ze doen zoveel.

308
00:20:01,040 --> 00:20:06,040
Er zijn zoveel verschillende onderwerpen waar ze groepjes over hebben.

309
00:20:06,040 --> 00:20:10,040
Maar mensgerichte AI is natuurlijk een hele algemene.

310
00:20:10,040 --> 00:20:12,040
Die snijdt eigenlijk door alle onderwerpen heen.

311
00:20:12,040 --> 00:20:16,040
En daar zit ik in werkgroep Ethiek.

312
00:20:16,040 --> 00:20:21,040
Met Jeroen van der Hoven van TU Delft en Sofie Kuyt van IBM.

313
00:20:21,040 --> 00:20:29,840
En de voorzitter van de werkgroep Mensgerichte AI is Irvette Tempelman van VNO-NCW.

314
00:20:29,840 --> 00:20:38,040
En gezamenlijk denken we na over de positie wat wij denken dat,

315
00:20:38,040 --> 00:20:42,440
wat wij zien ook bij de deelnemers van het NALJC waar ze behoefte aan hebben,

316
00:20:42,440 --> 00:20:47,640
vaak grote organisaties, op het gebied van ethiek door organisatie inbrengen.

317
00:20:47,640 --> 00:20:56,880
Hoe wij denken dat organisaties in Nederland ethiek moeten operationaliseren, implementeren en de organisatie in kunnen brengen.

318
00:20:56,880 --> 00:21:03,080
Interessant. Hoe verhoudt zich dat dan zo direct tot de dingen die je bezig bent met NEN?

319
00:21:03,080 --> 00:21:13,080
NEN is echt gericht op het onderzoek naar de realiteit van de organisatie. En daarmee gaan we ook gaan kijken naar de realiteit van de organisatie.

320
00:21:13,080 --> 00:21:19,440
Dat is echt gericht op de technische standaard van de AI-Act.

321
00:21:19,440 --> 00:21:26,640
Dus daar is ethiek een onderwerp, maar dat is veel en veel groter.

322
00:21:26,640 --> 00:21:28,760
Dat gaat echt over zoveel onderwerpen.

323
00:21:28,760 --> 00:21:33,720
Dat technische standaard van de AI-Act en alle onderdelen van de AI-Act.

324
00:21:33,720 --> 00:21:40,760
Daar gaat ook mijn kennis en de technische kennis vaak te boven.

325
00:21:40,760 --> 00:21:44,040
want dat zijn echt hele grote complexe problemen.

326
00:21:44,040 --> 00:21:48,840
Maar dat is wel super interessant om mee te maken en te horen wat er allemaal gebeurt.

327
00:21:48,840 --> 00:21:54,240
Dus daar probeer ik een heel klein stukje aan bij te dragen.

328
00:21:54,240 --> 00:22:00,760
Maar ja, dat is heel groot en gaat over heel veel.

329
00:22:00,760 --> 00:22:04,000
Ja, en die NL AIC die komt dan zo direct met...

330
00:22:04,000 --> 00:22:06,120
Dat is dan veel praktischer dan.

331
00:22:06,120 --> 00:22:07,720
Nee, dat is eigenlijk wat...

332
00:22:07,720 --> 00:22:10,040
Ja, dat is een beetje hoe je het bekijkt.

333
00:22:10,080 --> 00:22:12,440
Het is eigenlijk over het algemeen wat meer hoog over.

334
00:22:12,440 --> 00:22:16,080
Dus dat is juist wat meer sturing te geven over wat is belangrijk.

335
00:22:16,080 --> 00:22:18,120
Waar moet je als organisatie aan denken?

336
00:22:18,120 --> 00:22:23,160
En waarom is ethiek belangrijk rondom AI binnen de organisatie?

337
00:22:23,160 --> 00:22:24,560
Wat kan je daarmee doen?

338
00:22:24,560 --> 00:22:27,200
Wat kan je ervoor doen om daar stappen in te nemen?

339
00:22:27,200 --> 00:22:33,160
Om een beetje te prikkelen voor de organisaties die er nog niet zo veel van weten

340
00:22:33,160 --> 00:22:35,560
of die zich afvragen, goh, hoe verder?

341
00:22:36,160 --> 00:22:41,480
Dus een beetje guidance, richtlijnen en niet zozeer een standaard, maar echt visie, guidance, richtlijnen.

342
00:22:41,480 --> 00:22:43,000
Waar moet je aan denken, dit niet vergeten.

343
00:22:43,000 --> 00:22:44,200
Ja, precies.

344
00:22:44,200 --> 00:22:47,720
En NEN is dus echt een technisch, werken aan een technisch standaard.

345
00:22:47,720 --> 00:22:50,440
Hoe ben je straks compliant met de AI-Act als die er komt?

346
00:22:50,440 --> 00:22:52,240
En dat is, ja.

347
00:22:52,240 --> 00:22:53,240
En gewoon verschillen.

348
00:22:53,240 --> 00:22:54,240
Ja, en gewoon verschillen.

349
00:22:54,240 --> 00:22:57,240
Leuk.

350
00:22:57,240 --> 00:22:59,240
Ja, we hebben een primeur.

351
00:22:59,240 --> 00:23:00,640
Ja, we hebben een primeur.

352
00:23:00,640 --> 00:23:03,640
We hebben een nieuwe co-host.

353
00:23:04,640 --> 00:23:09,320
Dus jij bent de eerste die daar, ja, die met haar kennis mag maken.

354
00:23:09,320 --> 00:23:11,680
Want het is een haar, Aisha.

355
00:23:11,680 --> 00:23:16,040
En nou ja, ik laat haar zelf eventjes introduceren.

356
00:23:16,040 --> 00:23:18,040
Fijn dat je bij ons bent.

357
00:23:18,040 --> 00:23:20,040
Mijn naam is Aisha.

358
00:23:20,040 --> 00:23:24,600
De AI van deze podcast, zou je het goed vinden als ik je een vraag stel?

359
00:23:24,600 --> 00:23:26,600
Ja, zeker weten.

360
00:23:26,600 --> 00:23:31,480
Wanneer heb je voor het laatst gekozen om iets juist niet met AI uit te voeren?

361
00:23:31,480 --> 00:23:37,480
Dat dat een perfect voorbeeld is van technosolutionism.

362
00:23:37,480 --> 00:23:44,480
Er wordt een oplossing bedacht voor iets wat op een hele analoge manier ook prima opgelost kan worden.

363
00:23:44,480 --> 00:23:52,480
Dus ja, wij werken natuurlijk met klanten die allemaal juist technische oplossingen willen beheren.

364
00:23:52,480 --> 00:23:54,480
En dat is ook een van de grote dingen.

365
00:23:54,480 --> 00:24:02,180
Dus ja, wij werken natuurlijk met klanten die allemaal juist technische oplossingen willen bedenken.

366
00:24:02,180 --> 00:24:09,880
En Deloitte werkt over het algemeen met hele grote concerns, de overheid of hele grote multinationals.

367
00:24:09,880 --> 00:24:17,480
Maar ook als zij komen met bepaalde tools of solutions die ze bedenken,

368
00:24:17,480 --> 00:24:24,080
dan stellen we toch wel altijd de vraag, kan het ook met een niet AI oplossing?

369
00:24:24,080 --> 00:24:28,080
of met een technische, of wat is het, een analoog technische oplossing.

370
00:24:28,080 --> 00:24:29,080
Ja, een proces.

371
00:24:29,080 --> 00:24:30,080
Ja, een proces.

372
00:24:30,080 --> 00:24:31,080
Ja, precies.

373
00:24:31,080 --> 00:24:32,080
Iets in die hoedanigheid.

374
00:24:32,080 --> 00:24:33,080
Mooi.

375
00:24:33,080 --> 00:24:36,640
Dat was een indrukwekkend antwoord, dank je wel.

376
00:24:36,640 --> 00:24:37,640
Zo dan.

377
00:24:37,640 --> 00:24:38,640
Wel gedaan.

378
00:24:38,640 --> 00:24:44,080
Maar dit is denk ik ook wel een mooie, dat je zegt van, laten we beginnen met na te denken,

379
00:24:44,080 --> 00:24:48,080
kunnen we het, moeten we het met AI oplossen?

380
00:24:48,080 --> 00:24:52,080
Dat is denk ik sowieso een eerste vraag, niet alleen...

381
00:24:52,080 --> 00:24:59,080
Dat wordt natuurlijk heel snel nagekeken van, we kunnen een technologische oplossing, dus we gaan het ook technisch oplossen.

382
00:24:59,080 --> 00:25:03,080
Dus ik denk dat het een heel belangrijk punt is om te zeggen,

383
00:25:03,080 --> 00:25:06,080
dat we het ook technisch kunnen oplossen.

384
00:25:06,080 --> 00:25:08,080
En dat is ook een heel belangrijk punt.

385
00:25:08,080 --> 00:25:10,080
En dat is ook een heel belangrijk punt.

386
00:25:10,080 --> 00:25:12,080
En dat is ook een heel belangrijk punt.

387
00:25:12,080 --> 00:25:14,080
En dat is ook een heel belangrijk punt.

388
00:25:14,080 --> 00:25:16,080
En dat is ook een heel belangrijk punt.

389
00:25:16,080 --> 00:25:18,080
En dat is ook een heel belangrijk punt.

390
00:25:18,080 --> 00:25:20,080
Dus we gaan het ook technisch oplossen.

391
00:25:20,080 --> 00:25:20,580
Ja.

392
00:25:20,580 --> 00:25:23,580
Dus ik denk dat het een mooie afsluiter is.

393
00:25:23,580 --> 00:25:26,080
Moeten we AI gebruiken?

394
00:25:26,080 --> 00:25:27,580
Vraagteken, toch?

395
00:25:27,580 --> 00:25:29,080
Ik denk een hele goede vraag.

396
00:25:29,080 --> 00:25:29,580
Hartstikke mooi.

397
00:25:29,580 --> 00:25:34,080
Super bedankt dat je onze gast wilde zijn in twee podcast afleveringen, Kolja.

398
00:25:34,080 --> 00:25:35,080
Dank je wel.

399
00:25:35,080 --> 00:25:41,580
Fijn dat je weer luisterde naar een aflevering van AI Today Live.

400
00:25:41,580 --> 00:25:44,580
Vergeet je niet te abonneren via je favoriete podcast app.

401
00:25:44,580 --> 00:25:46,080
En tot de volgende keer.

402
00:25:46,080 --> 00:26:08,880
(C) TV GELDERLAND 2021


People on this episode