AIToday Live

S06E23 - Theorie naar Praktijk: Het AI Ethics Maturity Model

Aigency by Info Support Season 6 Episode 23

In deze aflevering van de AIToday Live podcast deelt Tamara Thuis, promovenda aan de Erasmus Universiteit en medeoprichter van de Ethische Data Science Associatie, haar inzichten over de ethische aspecten en uitdagingen van kunstmatige intelligentie binnen organisaties. Ze belicht het spanningsveld tussen technologische vooruitgang en ethische principes, zoals privacy en eerlijkheid.

Tamara legt uit hoe het concept van 'mutual learning' kan bijdragen aan een dieper begrip van deze kwesties en introduceert een 'maturity model' voor organisaties om ethiek efficiënt te integreren in hun AI-strategieën.


Links

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:06,240
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

2
00:00:06,240 --> 00:00:09,120
Met vandaag de gast Tamara Thuis.

3
00:00:09,120 --> 00:00:16,640
Tamara gaat ons van alles vertellen over ethiek, maar vooral eigenlijk ook over een maturity model.

4
00:00:16,640 --> 00:00:20,040
En dat klinkt wel heel praktisch en dat is altijd heel erg leuk.

5
00:00:20,040 --> 00:00:22,600
Mijn naam Joop Snijder, CTO bij Aigency.

6
00:00:22,600 --> 00:00:25,760
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support.

7
00:00:25,760 --> 00:00:28,560
Tamara, dank je wel dat je hier wilde komen.

8
00:00:28,560 --> 00:00:30,040
Ja, leuker om hier te zijn.

9
00:00:30,040 --> 00:00:32,400
Ja, zou je je willen voorstellen aan onze luisteraars?

10
00:00:32,400 --> 00:00:34,440
Ja, ik ben Tamara Thuis.

11
00:00:34,440 --> 00:00:37,080
Ik ben een promovendus aan de Erasmus Universiteit.

12
00:00:37,080 --> 00:00:40,600
Binnen de Erasmus Universiteit zit ik bij de Business School,

13
00:00:40,600 --> 00:00:42,240
dat is de Rotterdam School of Management.

14
00:00:42,240 --> 00:00:46,680
En daar doe ik onderzoek naar de ethische aspecten van AI.

15
00:00:46,680 --> 00:00:47,560
Ja.

16
00:00:47,560 --> 00:00:49,080
Misschien wel algoritmes in het algemeen.

17
00:00:49,080 --> 00:00:49,640
Ja.

18
00:00:49,640 --> 00:00:50,720
Dat is goed om erbij te zitten.

19
00:00:50,720 --> 00:00:53,680
En dan geef ik ook les over aan studenten.

20
00:00:53,680 --> 00:00:56,560
Voornamelijk vanuit een organisatorisch perspectief.

21
00:00:56,560 --> 00:01:00,000
Dus hoe kunnen organisaties dat nou toepassen in de praktijk?

22
00:01:00,000 --> 00:01:01,240
En wat komt er nou bij kijken?

23
00:01:01,240 --> 00:01:02,720
En waar lopen ze nou tegen aan?

24
00:01:02,720 --> 00:01:03,320
Ja.

25
00:01:03,320 --> 00:01:07,840
En daarnaast ben ik ook medeoprichter van de Ethische Data Science Associatie,

26
00:01:07,840 --> 00:01:12,880
samen met Joris Krijger, ook een PhD aan de Erasmus Universiteit.

27
00:01:12,880 --> 00:01:17,040
En wat we eigenlijk daar doen is kennisdeling faciliteren rondom dit onderwerp.

28
00:01:17,040 --> 00:01:21,840
En ervoor zorgen dat bedrijven van elkaar kunnen leren op dit aspect.

29
00:01:21,840 --> 00:01:25,320
En daardoor eigenlijk het hele veld verder kunnen brengen.

30
00:01:25,320 --> 00:01:27,960
En de implementatie van de ethiek kunnen vergroten.

31
00:01:27,960 --> 00:01:28,960
Dus nou.

32
00:01:28,960 --> 00:01:29,560
Goed initiatief.

33
00:01:29,560 --> 00:01:31,120
Leuk. Ja, heel goed initiatief.

34
00:01:31,120 --> 00:01:35,120
Misschien toch nog even over dat laatste even doorvragen.

35
00:01:35,120 --> 00:01:38,480
Want hoe ziet dat leren van elkaar eruit?

36
00:01:38,480 --> 00:01:40,480
Ja, dat noemen wij mutual learning.

37
00:01:40,480 --> 00:01:43,880
Ik moet eerlijk zeggen dat is niet iets wat wij zelf hebben bedacht.

38
00:01:43,880 --> 00:01:49,040
Maar dat is iets wat Huub Zwart, dat is de decaan van de Filosofiefaculteit,

39
00:01:49,040 --> 00:01:52,040
al een jaar heeft toegepast in nanoethiek.

40
00:01:52,040 --> 00:02:01,040
En dat gaat eigenlijk over dat mensen bloot worden gesteld aan meningen, zorgen,

41
00:02:01,040 --> 00:02:04,040
implicaties vanuit verschillende perspectieven.

42
00:02:04,040 --> 00:02:08,040
En dat hebben we eigenlijk proberen toe te passen op die AI en ethiek context.

43
00:02:08,040 --> 00:02:13,040
Dus we zijn begonnen met een pilot eigenlijk in corona.

44
00:02:13,040 --> 00:02:14,040
Ja.

45
00:02:14,040 --> 00:02:19,040
En zijn eigenlijk bedrijven gaan uitnodigen die hiermee aan de slag gaan.

46
00:02:19,040 --> 00:02:25,040
Want wat wij zagen is dat er heel veel forums waren, plekken om ethiek te bespreken.

47
00:02:25,040 --> 00:02:31,040
Maar er zijn heel weinig plekken waar je ook echt ziet wat er daadwerkelijk in de praktijk gebeurt om dat aan te pakken.

48
00:02:31,040 --> 00:02:36,040
Dus waarmee wij zijn begonnen is om één bedrijf te vragen van

49
00:02:36,040 --> 00:02:40,040
"Kan jij eens presenteren hoe jij dat nou in de praktijk hebt opgezet?

50
00:02:40,040 --> 00:02:42,040
Waar ben je nou begonnen?

51
00:02:42,040 --> 00:02:48,040
Wat voor problematiek liep je tegenaan in de praktijk wanneer je een algoritme ging toepassen?

52
00:02:48,040 --> 00:02:51,040
Kan je die aanpak nou eens laten zien?"

53
00:02:51,040 --> 00:02:55,040
En dan hebben we ook experts van andere organisaties uitgenodigd.

54
00:02:55,040 --> 00:02:58,040
Dat doen we altijd op een hele kleine schaal.

55
00:02:58,040 --> 00:03:01,040
Dus max 12, 15 mensen in één sessie.

56
00:03:01,040 --> 00:03:05,040
Want dan krijg je namelijk ook die mutual learning.

57
00:03:05,040 --> 00:03:10,040
Als je 100 mensen in een call zet, dan is het vaak zenden en luisteren.

58
00:03:10,040 --> 00:03:13,040
Want je zegt de call, dus het was ook in covid, dus het was allemaal digitaal.

59
00:03:13,040 --> 00:03:16,040
Ja, het was allemaal digitaal. Het was nog die pilot.

60
00:03:16,040 --> 00:03:19,040
Dus je wilt dat mutual hebben.

61
00:03:19,040 --> 00:03:22,040
Je wilt dat iedereen iets kan bijdragen aan die sessie.

62
00:03:22,040 --> 00:03:28,040
Betekent dat dan dat iedereen tussen aanhalingstekens ook een andere expertise-achtergrond heeft?

63
00:03:28,040 --> 00:03:31,040
Ja, precies. Dus wij nodigen een diverse groep stakeholders uit.

64
00:03:31,040 --> 00:03:36,040
Dus dat hoeven niet alleen maar technici te zijn, maar dat kunnen ook beleidsmakers, onderzoekers,

65
00:03:36,040 --> 00:03:40,040
mensen met een legal achtergrond.

66
00:03:40,040 --> 00:03:45,040
Eigenlijk zo divers mogelijk als dat kan binnen die 12, 15 man die je uitnodigt.

67
00:03:45,040 --> 00:03:52,040
Heb je daar een voorbeeld van, misschien zonder het bedrijf te noemen, maar een bepaalde casus als voorbeeld?

68
00:03:52,040 --> 00:03:57,040
Ja, ik denk dat wij in die twee, drie jaar waar we die sessies hebben georganiseerd,

69
00:03:57,040 --> 00:04:01,040
verschillende typen onderwerpen hadden die we bespraken.

70
00:04:01,040 --> 00:04:07,040
Dus soms zie je dat er een afweging is tussen twee principes, die heel moeilijk op te lossen is in de praktijk.

71
00:04:07,040 --> 00:04:12,040
Denk bijvoorbeeld aan een afweging tussen privacy en fairness.

72
00:04:12,040 --> 00:04:18,040
Hoe ga je daar nou mee om? Dat is een voorbeeld dat je vaak ziet bij verzekeringsbedrijven.

73
00:04:18,040 --> 00:04:23,040
Kan je voor de luisteraar uitleggen waar dat elkaar bijt?

74
00:04:23,040 --> 00:04:32,040
Ja, vaak kunnen er bepaalde biases of ethische implicaties ontstaan op het moment dat je een algoritme gebruikt.

75
00:04:32,040 --> 00:04:38,040
Dat betekent eigenlijk dat misschien bepaalde bevolkingsgroepen of mensen met bepaalde karakteristieken

76
00:04:38,040 --> 00:04:40,040
eigenlijk benadeeld worden door dat algoritme.

77
00:04:40,040 --> 00:04:44,040
Dat kan ook verschillende oorzaken hebben. Dat kan komen door de data,

78
00:04:44,040 --> 00:04:50,040
dat kan komen door misschien bepaalde percepties dat ontwikkelaars hebben bij het maken van dat algoritme.

79
00:04:50,040 --> 00:04:54,040
Dat kan ook liggen aan het type organisatie of de context.

80
00:04:54,040 --> 00:04:58,040
Altijd heel erg contextueel wat voor problemen er ontstaan bij algoritmes.

81
00:04:58,040 --> 00:05:07,040
En op het moment dat je zo'n bias wil oplossen, wil je eigenlijk weten wie wordt er nou benadeeld.

82
00:05:07,040 --> 00:05:11,040
Je wil inzicht krijgen in wie nou diegenen zijn die worden benadeeld.

83
00:05:11,040 --> 00:05:16,040
En om die mensen te kunnen identificeren moet je dus ook gegevens over die mensen verzamelen.

84
00:05:16,040 --> 00:05:18,040
Mogelijk privacygevoelige gegevens.

85
00:05:18,040 --> 00:05:21,040
Precies. Dus hoe ga je daar nou mee om?

86
00:05:21,040 --> 00:05:27,040
En hoe zorg je er ook voor dat de mensen die juist wil helpen, dat dat niet degenen zijn die daar de dupe van worden.

87
00:05:27,040 --> 00:05:39,040
En dat niet de mensen zijn die dan juist heel veel privégegevens moeten delen met het soort bedrijven om zo'n probleem op te lossen.

88
00:05:39,040 --> 00:05:41,040
En dat is natuurlijk vrij ingewikkeld.

89
00:05:41,040 --> 00:05:44,040
Dat is zeker vrij ingewikkeld, ja.

90
00:05:44,040 --> 00:05:50,040
Dat is één voorbeeld. En het andere is dat het dus echt een afweging tussen twee principes is.

91
00:05:50,040 --> 00:05:52,040
Dat zie je natuurlijk ook vaker.

92
00:05:52,040 --> 00:05:56,040
Dat als we het hebben over ethiek, dat er altijd een afweging is tussen twee aspecten.

93
00:05:56,040 --> 00:06:01,040
En die moet je in balans houden. En daarom is er ook vaak nooit één juiste antwoord.

94
00:06:01,040 --> 00:06:11,040
Maar je zit net het perspectief dat je aanneemt, of vanuit het perspectief dat je het bekijkt, hoe je dat probleem of die afweging aanvliegt.

95
00:06:11,040 --> 00:06:18,040
Mag ik daar nog iets over doorvragen? Want hoe weeg je dan de perspectieven af?

96
00:06:18,040 --> 00:06:26,040
Dat is dus ook wat we hebben geprobeerd in die sessies. Je gaat echt een dialoog met elkaar aan.

97
00:06:26,040 --> 00:06:31,040
Het is een dialectic proces. Ethiek gaat niet alleen maar over de uitkomst.

98
00:06:31,040 --> 00:06:36,040
Ethiek gaat niet over 'wat beslissen we nou met elkaar?' en 'wat is nou het juiste?'

99
00:06:36,040 --> 00:06:45,040
Maar het gaat juist om het proces dat je leert hoe andere mensen over bepaalde aspecten, afwegingen en problematiek denken.

100
00:06:45,040 --> 00:06:52,040
Dus er zit een intrinsieke waarde in het proces ethiek en een instrumentele waarde.

101
00:06:52,040 --> 00:06:56,040
Dus die instrumentele waarde gaat over de keuze die je daadwerkelijk maakt.

102
00:06:56,040 --> 00:07:02,040
En de intrinsieke waarde gaat veel meer over 'oké, maar hoe kijken andere mensen er nou naar?'

103
00:07:02,040 --> 00:07:07,040
En dat zie je natuurlijk vaker in filosofie. Ik heb ook filosofie gestudeerd.

104
00:07:07,040 --> 00:07:11,040
En dat vond ik heel leuk om dat naast iets zoals bedrijfskunde te doen.

105
00:07:11,040 --> 00:07:16,040
Want bij bedrijfskunde krijg je vaak één perspectief, één model, een framework.

106
00:07:16,040 --> 00:07:23,040
En wat ik in mijn filosofie-studie heel erg leerde, is dat er meerdere perspectieven zijn om naar één aspect te kijken.

107
00:07:23,040 --> 00:07:27,040
En dat is precies ook wat je in die ethische afweging doet.

108
00:07:27,040 --> 00:07:31,040
En betekent dat dat je daardoor ook, door die verschillende perspectieven te horen,

109
00:07:31,040 --> 00:07:38,040
dat je je eigen blinde vlekken, zeg maar, in ieder geval een beetje opgevuld ziet worden?

110
00:07:38,040 --> 00:07:41,040
Bijvoorbeeld, ja.

111
00:07:41,040 --> 00:07:43,040
Daar is een diverse groep dan ook wel noodzakelijk voor.

112
00:07:43,040 --> 00:07:49,040
Een vraag die bij mij dan komt op is, leuk dat je het gesprek daarover hebt, maar hoe ga je dat ook borgen en weer uitdragen?

113
00:07:49,040 --> 00:07:56,040
Dus ik denk dat je dan al veel meer naar de organisatorische, dat noemen wij dan operationalisatie, gaat.

114
00:07:56,040 --> 00:08:01,040
En dat is denk ik ook precies het probleem, maar de uitdaging die we denk ik op dit moment hebben,

115
00:08:01,040 --> 00:08:11,040
is dat er heel veel principes zijn, er zijn heel veel tooling, methode, denk aan alles rondom fairness, metrics, explainability methodes.

116
00:08:11,040 --> 00:08:16,040
Maar hoe borg je dat nou op een systematische manier in een organisatie?

117
00:08:16,040 --> 00:08:19,040
En dat is onder andere waar ik ook zelf onderzoek naar doe.

118
00:08:19,040 --> 00:08:25,040
Maar dat zijn denk ik ook vragen, dus we willen met die sessies, met die mutual learning sessies,

119
00:08:25,040 --> 00:08:29,040
niet alleen maar aantonen wat zijn nou die problemen en die uitdagingen,

120
00:08:29,040 --> 00:08:32,040
maar ook hoe heb je dat nou geborgd?

121
00:08:32,040 --> 00:08:36,040
En daarom is het zo belangrijk dat het een kleine groep mensen is,

122
00:08:36,040 --> 00:08:42,040
waarin een bedrijf of een organisatie daadwerkelijk de aanpak toont.

123
00:08:42,040 --> 00:08:47,040
Want dan kun je namelijk ook concreet feedback geven op hoe dat is aangepakt,

124
00:08:47,040 --> 00:08:50,040
en hoe jij dat misschien vanuit jouw perspectief anders zou hebben gedaan.

125
00:08:50,040 --> 00:08:54,040
Dus in onze sessies staat de gebruikerscontext altijd centraal.

126
00:08:54,040 --> 00:08:58,040
Dus we hebben het niet over fairness en privacy in het algemeen,

127
00:08:58,040 --> 00:09:04,040
maar altijd in die specifieke context waarin de organisatie er tegenaan is gelopen.

128
00:09:04,040 --> 00:09:12,040
Dat is dan de why, maar ook dat je echt de how, dus de hoe, ook met elkaar bespreekt,

129
00:09:12,040 --> 00:09:16,040
zodat je ook de hoe kan bepalen, want wie weet is de uitkomst heel erg valide of niet valide.

130
00:09:16,040 --> 00:09:21,040
Maar hoe ben je daartoe gekomen en hoe heb je dat aangepakt om dat echt te bespreken met elkaar?

131
00:09:21,040 --> 00:09:25,040
En dat is ook denk ik mooi aan het organisatorische perspectief,

132
00:09:25,040 --> 00:09:29,040
want je ziet dat ethiek wordt heel vaak vanuit een filosofisch perspectief bekeken,

133
00:09:29,040 --> 00:09:31,040
dus dan heb je juist die verschillende perspectieven,

134
00:09:31,040 --> 00:09:34,040
verschillende ethische theorieën die je daarop kan toepassen.

135
00:09:34,040 --> 00:09:38,040
Het wordt vaak vanuit een technisch perspectief bekeken,

136
00:09:38,040 --> 00:09:41,040
hoe kun je nou technisch een algoritme uitlegbaar maken.

137
00:09:41,040 --> 00:09:44,040
Maar om het structureel en systematisch te bekijken,

138
00:09:44,040 --> 00:09:48,040
is het ook nodig om daar een organisatorisch perspectief aan toe te voegen,

139
00:09:48,040 --> 00:09:52,040
en ervoor te zorgen dat die oplossingen, die filosofische methode,

140
00:09:52,040 --> 00:09:58,040
maar ook die technische methode in de structuren, processen en praktijken van organisaties worden,

141
00:09:58,040 --> 00:10:02,040
nou ja, 'embedded' in het Engels.

142
00:10:02,040 --> 00:10:03,040
-Opgenomen. -Opgenomen.

143
00:10:03,040 --> 00:10:09,040
-Omarmd. -Nou ja, en in misschien wel de bestaande structuren van een organisatie worden geïntegreerd.

144
00:10:09,040 --> 00:10:14,040
Want vaak is er al heel veel, vaak zijn er al bepaalde processen,

145
00:10:14,040 --> 00:10:18,040
en is dat stukje algoritme nog iets wat daar ontbreekt.

146
00:10:18,040 --> 00:10:24,040
-Ik ben wel benieuwd zo direct van hoe dat dan gaat, maar ik heb dan nog een vraag daartussenin.

147
00:10:24,040 --> 00:10:31,040
Vinden organisaties dit niet moeilijk om zo ontleed te worden?

148
00:10:31,040 --> 00:10:34,040
-Ja, dat is niet altijd makkelijk.

149
00:10:34,040 --> 00:10:39,040
Maar die kwetsbaarheid, want ik noem het een bepaalde kwetsbaarheid, denk ik,

150
00:10:39,040 --> 00:10:43,040
want je moet heel eerlijk zijn over hoe je dingen hebt aangepakt,

151
00:10:43,040 --> 00:10:47,040
en ik denk dat elke organisatie daar ook zijn eigen balans in wint.

152
00:10:47,040 --> 00:10:51,040
Dus we hebben bijvoorbeeld voorbeelden gezien waar ze wel heel open zijn over de aanpak,

153
00:10:51,040 --> 00:10:53,040
maar bijvoorbeeld details over het algoritme.

154
00:10:53,040 --> 00:10:59,040
Dus bijvoorbeeld gezegd, er worden zoveel features gebruikt, maar niet precies welke features.

155
00:10:59,040 --> 00:11:03,040
Dat maakt de discussie soms ook wel lastiger.

156
00:11:03,040 --> 00:11:06,040
-Want het aantal zegt eigenlijk niks.

157
00:11:06,040 --> 00:11:08,040
Dat ze nou tien zijn of duizend.

158
00:11:08,040 --> 00:11:09,040
-Precies, ja.

159
00:11:09,040 --> 00:11:16,040
Maar dat is ook aan de organisatie zelf in hoeverre ze daar open in de leng kunnen zijn soms.

160
00:11:17,040 --> 00:11:23,040
Maar wat we hebben ervaren, en ik denk ook, we hebben daarna ook een fysiek event georganiseerd,

161
00:11:23,040 --> 00:11:30,040
en daar zie je ook, de kwetsbaarheid levert ook iets moois op en versterkt eigenlijk dat mutual learning effect.

162
00:11:30,040 --> 00:11:36,040
Dat maakt het eigenlijk effectiever, want waarschijnlijk zijn er organisaties die precies dezelfde vraagstukken hebben.

163
00:11:36,040 --> 00:11:42,040
En dat is ook altijd ons doel geweest, dat het heel zonde zou zijn als op zo'n maatschappelijk onderwerp

164
00:11:42,040 --> 00:11:45,040
eigenlijk iedereen het wiel opnieuw gaat uitvinden.

165
00:11:45,040 --> 00:11:47,040
-Dat is zeker een belangrijke.

166
00:11:47,040 --> 00:11:57,040
En het integreren in de organisatie, zeg jij, hoe moet ik dat voor me zien?

167
00:11:57,040 --> 00:12:07,040
-Als je kijkt naar dat organisatieperspectief, het gaat altijd meer over relationele en procedurele aspecten.

168
00:12:07,040 --> 00:12:10,040
Dus wat zijn de relaties tussen verschillende rollen in een organisatie,

169
00:12:10,040 --> 00:12:15,040
hoe zien de verantwoordelijkheidsstructuren eruit, wat voor processen ga je in.

170
00:12:15,040 --> 00:12:23,040
Dus om wat meer voorbeelden daar aan te geven, bijvoorbeeld stel je voor je implementeert een fairness metric.

171
00:12:23,040 --> 00:12:30,040
En daar komt een bepaalde uitkomst uit. En dan? Is dat dan goed? Is dat dan slecht? Wat betekent dat nou?

172
00:12:30,040 --> 00:12:36,040
Dus je wilt een bepaalde structuur of proces inrichten, dus bijvoorbeeld een structuur waarvan je zegt van

173
00:12:36,040 --> 00:12:42,040
"hé, we hebben deze uitkomst, willen graag dat deze en deze personen of deze en deze rollen daarna gaan kijken."

174
00:12:42,040 --> 00:12:48,040
En die geven daar of een advies over of die bepalen wat daarmee gedaan moet worden.

175
00:12:48,040 --> 00:12:50,040
Dus dat is meer een voorbeeld van een structuur.

176
00:12:50,040 --> 00:12:58,040
Een voorbeeld van een proces kan ook zijn van "hé, we gaan eerst uitrekenen wat die metric is,

177
00:12:58,040 --> 00:13:02,040
dan de volgende stap in het proces is dat we dat gaan evalueren

178
00:13:02,040 --> 00:13:06,040
en daarna gaan we het algoritme weer aanpassen op de manier hoe we daar besloten hebben."

179
00:13:06,040 --> 00:13:12,040
Dus het implementeren van zo'n technische oplossing is één, maar wat doe je er dan mee?

180
00:13:12,040 --> 00:13:14,040
En daarvoor heb je dat organisatorische...

181
00:13:14,040 --> 00:13:18,040
Ja, die begrijp ik helemaal. En zeker want, net wat je zegt, je kan het wel meten,

182
00:13:18,040 --> 00:13:25,040
maar wat nou als er inderdaad iets uitkomt wat ongewenst is, wat doe je er dan mee?

183
00:13:25,040 --> 00:13:30,040
Ja, en hetzelfde, mijn eigen onderzoek gaat onder andere over uitlegbaarheid.

184
00:13:30,040 --> 00:13:33,040
Daar kan ik dadelijk wat meer over vertellen.

185
00:13:33,040 --> 00:13:34,040
Heel graag.

186
00:13:34,040 --> 00:13:41,040
Maar daar heb je eigenlijk hetzelfde bij, dat een explainable AI of een algoritme uitlegbaar maken is één,

187
00:13:41,040 --> 00:13:43,040
maar wat gebeurt er eigenlijk daarna met die uitleg?

188
00:13:43,040 --> 00:13:46,040
Ja, wil je daar iets meer over vertellen?

189
00:13:46,040 --> 00:13:49,040
Ik bedoel, explainable AI is ook een deel van...

190
00:13:49,040 --> 00:13:51,040
Ik wou zeggen, je opent hem aan jongens.

191
00:13:51,040 --> 00:13:54,040
Misschien vertel ik eerst nog wat over dat maturity model.

192
00:13:54,040 --> 00:13:56,040
Ja, die gaan we ook doen.

193
00:13:56,040 --> 00:13:58,040
Ja, die gaan we zeker doen.

194
00:13:58,040 --> 00:14:04,040
Misschien is het, want dat is eigenlijk de uitkomst geweest van veel van die sessies.

195
00:14:04,040 --> 00:14:11,040
Is dat wij door die sessies, en wat we dus zagen, is dat we hadden oplossingen en verschillende type aanpakken,

196
00:14:11,040 --> 00:14:14,040
verschillende type context, we hadden die afwegingen tussen principes,

197
00:14:14,040 --> 00:14:16,040
we hadden manieren hoe je dat kan operationaliseren,

198
00:14:16,040 --> 00:14:19,040
en we zagen eigenlijk constant dezelfde patronen terugkomen.

199
00:14:19,040 --> 00:14:26,040
En dezelfde, we noemen dat organisatorische dimensies, die bijdragen om dat nou op een goede manier aan te pakken.

200
00:14:26,040 --> 00:14:28,040
Dus dat zijn we gaan vastleggen.

201
00:14:28,040 --> 00:14:29,040
Kijk.

202
00:14:29,040 --> 00:14:38,040
En dan zijn we er kijk van, nou oké, als je nou vanuit het organisatorische perspectief ervoor wil zorgen dat je dit op een goede manier,

203
00:14:38,040 --> 00:14:40,040
en langzaam naar die volwassenheid ook gaat,

204
00:14:40,040 --> 00:14:44,040
zodat je een organisatorische infrastructuur kan creëren,

205
00:14:44,040 --> 00:14:54,040
maar door wat er ook op je pad komt, dus wat voor morele dilemma's er waarschijnlijk gaan komen door het implementeren van een algoritme,

206
00:14:54,040 --> 00:14:56,040
want vaak weten we dat nog niet.

207
00:14:56,040 --> 00:14:59,040
Dat noemen ze ook al het Cogginbridge dilemma.

208
00:14:59,040 --> 00:15:04,040
Vroeg in het proces weet je nog niet wat de impact is,

209
00:15:04,040 --> 00:15:09,040
en later in het proces weet je wat de impact is, maar kan je er niks meer aan doen.

210
00:15:09,040 --> 00:15:10,040
Precies, een oeps moment.

211
00:15:10,040 --> 00:15:11,040
Precies.

212
00:15:11,040 --> 00:15:13,040
Een leermoment.

213
00:15:13,040 --> 00:15:15,040
Kan allebei.

214
00:15:15,040 --> 00:15:22,040
Maar we willen die infrastructuur creëren dat wat er ook op je pad komt, dat je daarmee om kan gaan.

215
00:15:22,040 --> 00:15:24,040
Opnieuw die processen, praktijken.

216
00:15:24,040 --> 00:15:27,040
Dus wij hebben toen zes dimensies geïdentificeerd.

217
00:15:27,040 --> 00:15:34,040
Dat gaat heel erg over cultuur en bewustzijn van een organisatie.

218
00:15:34,040 --> 00:15:36,040
Het gaat over een stukje beleid.

219
00:15:36,040 --> 00:15:38,040
Een stukje governance.

220
00:15:38,040 --> 00:15:43,040
Om dat beleid ook te verwerken in structuren en processen.

221
00:15:43,040 --> 00:15:45,040
Communicatie en training.

222
00:15:45,040 --> 00:15:49,040
Niet alleen maar intern, maar ook buiten de organisatie.

223
00:15:49,040 --> 00:15:54,040
Development processes, dus alle development praktijken.

224
00:15:54,040 --> 00:15:56,040
Waar moet je alle rekening mee houden.

225
00:15:56,040 --> 00:16:02,040
En ook bijvoorbeeld de omgeving waarin je je ontwikkelt en wat voor standaarden je daar rondomheen hebt ontwikkeld als organisatie.

226
00:16:02,040 --> 00:16:06,040
Waar moet ik dan aan denken als je het hebt over die standaarden/omgeving?

227
00:16:06,040 --> 00:16:10,040
Omgeving bijvoorbeeld ontwikkel je lokaal.

228
00:16:10,040 --> 00:16:14,040
Of in een cloud of heb je een bepaalde ontwikkelomgeving.

229
00:16:14,040 --> 00:16:17,040
Die heeft ook bepaalde structuren waar je aan moet houden.

230
00:16:17,040 --> 00:16:19,040
Of bepaalde manieren om van te werken.

231
00:16:19,040 --> 00:16:24,040
Die je meer of minder inzicht kunnen geven in hoe het algoritme werkt.

232
00:16:24,040 --> 00:16:30,040
Dus echt die context zo helder mogelijk te krijgen, is dit ook een belangrijk aspect.

233
00:16:30,040 --> 00:16:31,040
Ja.

234
00:16:31,040 --> 00:16:34,040
En de laatste is een stukje tooling.

235
00:16:34,040 --> 00:16:37,040
Dus denk aan meer procedurele tooling.

236
00:16:37,040 --> 00:16:43,040
Er zijn bijvoorbeeld heel veel spellen of methodiek ontwikkeld om het gesprek op gang te krijgen.

237
00:16:43,040 --> 00:16:46,040
Maar er zijn ook heel veel technische tooling.

238
00:16:46,040 --> 00:16:49,040
Fairness metrics, waar we het net ook al over hadden.

239
00:16:49,040 --> 00:16:54,040
En er zijn ook meer fundamentele methodiek en framework ontwikkeld.

240
00:16:54,040 --> 00:16:56,040
Dus denk bijvoorbeeld aan een IAMA.

241
00:16:56,040 --> 00:17:03,040
Dus na elke dimensie, en dat hebben we ook in een artikel opgeschreven, die zes dimensies.

242
00:17:03,040 --> 00:17:07,040
Nu zijn we bezig, hoe kun je die dimensies nou weer onderverdelen in sub-dimensies.

243
00:17:07,040 --> 00:17:11,040
Dus het wordt nog groter. Ik zal je de sub-dimensies voor nu besparen.

244
00:17:11,040 --> 00:17:16,040
Maar op al die dimensies moet je groeien?

245
00:17:16,040 --> 00:17:17,040
Ja.

246
00:17:17,040 --> 00:17:18,040
Neem ik aan.

247
00:17:18,040 --> 00:17:22,040
Dus het idee is dat het een holistische aanpak is.

248
00:17:22,040 --> 00:17:24,040
Dat is heel erg belangrijk.

249
00:17:24,040 --> 00:17:29,040
Dus waar dit maturity model bij helpt, is een kaart brengen van waar sta je nu eigenlijk.

250
00:17:29,040 --> 00:17:31,040
Waar zou je naartoe willen?

251
00:17:31,040 --> 00:17:34,040
In de komende jaar, drie jaar, vijf jaar.

252
00:17:34,040 --> 00:17:37,040
En wat is dan dat pad dat je zou moeten belopen?

253
00:17:37,040 --> 00:17:39,040
Dus in ieder geval hou vast.

254
00:17:39,040 --> 00:17:42,040
Dat is ook het leuke en het mooie daaraan.

255
00:17:42,040 --> 00:17:44,040
Dat je dus kan zien waar sta je.

256
00:17:44,040 --> 00:17:48,040
Wat het ook nog biedt, is dat je ook nog een soort van vergelijking kan gaan doen.

257
00:17:48,040 --> 00:17:50,040
Vergelijking is misschien het verkeerde woord,

258
00:17:50,040 --> 00:17:54,040
maar je kan eigenlijk identificeren van wie kan je nou eigenlijk leren.

259
00:17:54,040 --> 00:17:58,040
Dus die is, een is sterker in het een en de andere sterker in het ander.

260
00:17:58,040 --> 00:18:01,040
En ga elkaar opzoeken om van elkaar te kunnen leren.

261
00:18:01,040 --> 00:18:06,040
Wat ik heel mooi vind, is dat je kan meten waar je staat.

262
00:18:06,040 --> 00:18:09,040
Want ik denk dat dat voor veel bedrijven nog onbekend is.

263
00:18:09,040 --> 00:18:12,040
Waar sta ik eigenlijk, voordat ik ergens naartoe wil groeien?

264
00:18:12,040 --> 00:18:17,040
Wat ik me afvroeg bij het lezen van het artikel, is hoe bepaal je waar je nu staat?

265
00:18:17,040 --> 00:18:20,040
Is dat een vraag? Hoe kom je daar toe?

266
00:18:20,040 --> 00:18:24,040
Daar zijn we precies nu mee bezig, want we zijn het model aan het uittesten in de praktijk.

267
00:18:24,040 --> 00:18:27,040
Dus dat is voor ons ook een heel leuk leertraject.

268
00:18:27,040 --> 00:18:31,040
Dat doen we nu onder andere met onderwijsinstellingen.

269
00:18:31,040 --> 00:18:36,040
Dan zie je al dat het bepaald soort type organisaties zijn,

270
00:18:36,040 --> 00:18:38,040
waar er weer een andere soort vragen komen.

271
00:18:38,040 --> 00:18:40,040
Dus een van de vragen die bijvoorbeeld opkomen is,

272
00:18:40,040 --> 00:18:43,040
moet je dat maturity model nou zo generiek mogelijk houden?

273
00:18:43,040 --> 00:18:47,040
Of moet je dat misschien wel op de sector of industrie gaan specificeren

274
00:18:47,040 --> 00:18:49,040
en bepaalde bewoordingen gebruiken?

275
00:18:49,040 --> 00:18:50,040
Of misschien zijn er wel andere dimensies?

276
00:18:50,040 --> 00:18:53,040
Dat zijn een van de vragen die nu opkomen.

277
00:18:53,040 --> 00:18:56,040
Maar ook, wat is nou de organisatie die je meet?

278
00:18:56,040 --> 00:18:59,040
Dus een onderwijsinstelling, bijvoorbeeld bij een universiteit,

279
00:18:59,040 --> 00:19:02,040
heb je de universiteit als geheel, maar ook de faculteiten daaronder.

280
00:19:02,040 --> 00:19:05,040
En waar meet je dan de volwassenheid van?

281
00:19:05,040 --> 00:19:10,040
Dus dat zijn aspecten. Maar ook, hoe vraag je het uit in de organisatie?

282
00:19:10,040 --> 00:19:15,040
Is het misschien de nieuwe AI ethics officer of digital ethics officer

283
00:19:15,040 --> 00:19:17,040
die dit zelf gaat invullen?

284
00:19:17,040 --> 00:19:20,040
Of ga je dat doen met een team?

285
00:19:20,040 --> 00:19:23,040
Of zet je dat uit breder in de organisatie?

286
00:19:23,040 --> 00:19:25,040
Dus dat zijn precies de dingen die wij nu aan het uittesten zijn.

287
00:19:25,040 --> 00:19:29,040
Wat zijn nou de implicaties als je het op manier A of manier B doet?

288
00:19:29,040 --> 00:19:32,040
Heb je ze alle drie al geprobeerd?

289
00:19:32,040 --> 00:19:33,040
Of ben je er maar bezig?

290
00:19:33,040 --> 00:19:36,040
Ja, we hebben ze wel alle drie al gezien.

291
00:19:36,040 --> 00:19:44,040
En het ligt er ook heel erg aan wat de status of het momentum is in die organisatie.

292
00:19:44,040 --> 00:19:46,040
Want het moment dat je het breder gaat uitvragen,

293
00:19:46,040 --> 00:19:49,040
moet je ook andere methodes toepassen om die uitvraag te doen.

294
00:19:49,040 --> 00:19:51,040
Dus dan ga je veel meer naar surveys.

295
00:19:51,040 --> 00:19:55,040
En daar zitten ook weer implicaties aan.

296
00:19:55,040 --> 00:19:58,040
Dus zo kan je eigenlijk door blijven gaan.

297
00:19:58,040 --> 00:20:02,040
Ja, gevoelsmatig zou ik gelijk zeggen, dat moet een breder publiek zijn.

298
00:20:02,040 --> 00:20:05,040
Want als één iemand het gaat invullen, dan doet hij het vanuit de perspectief van die persoon

299
00:20:05,040 --> 00:20:08,040
die is misschien dagelijks op basis daarmee bezig.

300
00:20:08,040 --> 00:20:10,040
En die zal automatisch hoger gaan invullen.

301
00:20:10,040 --> 00:20:13,040
Want op dagbasis is die bezig met die onderwerpen.

302
00:20:13,040 --> 00:20:16,040
Terwijl organisatie breed, waar meestal vaak de challenge ligt,

303
00:20:16,040 --> 00:20:18,040
hoe krijgen we die vooruit met elkaar?

304
00:20:18,040 --> 00:20:23,040
En dat zou je misschien een heel ander antwoord krijgen als je die vraag stelt.

305
00:20:23,040 --> 00:20:26,040
Ja, en ik denk dat het leuke van het model,

306
00:20:26,040 --> 00:20:28,040
dat vind ik ook weer de toegevoegde waarde,

307
00:20:28,040 --> 00:20:30,040
dat het ook weer die discussie op gang brengt.

308
00:20:30,040 --> 00:20:33,040
En dan heb je weer die intrinsieke waarde van ethiek.

309
00:20:33,040 --> 00:20:38,040
We hebben ook wel eens een werksessie gehad met meerdere organisaties,

310
00:20:38,040 --> 00:20:42,040
waar er meerdere afgevaardigden waren per organisatie,

311
00:20:42,040 --> 00:20:44,040
en dat ze samen dat model moesten invullen.

312
00:20:44,040 --> 00:20:48,040
Maar ze moesten ook individueel een eigen vragenlijst invullen.

313
00:20:48,040 --> 00:20:50,040
En dan zie je dus dat er al verschil tussen zat.

314
00:20:50,040 --> 00:20:54,040
En dan krijg je die discussie op gang van, maar waar staan we nou?

315
00:20:54,040 --> 00:20:56,040
Ja, precies.

316
00:20:56,040 --> 00:20:59,040
Dus eigenlijk ga ik me even tegen spreken inderdaad.

317
00:20:59,040 --> 00:21:03,040
Ik denk meerdere keren invullen met de CONS, met een team,

318
00:21:03,040 --> 00:21:07,040
voor de afdeling en vervolgens ook met andere afdelingen en als organisatie,

319
00:21:07,040 --> 00:21:10,040
met verschillende perspectieven kijken naar waar staan we.

320
00:21:10,040 --> 00:21:11,040
Ik denk dat dan echt de conversatie,

321
00:21:11,040 --> 00:21:14,040
want daar gaat het wat mij betreft om in zo'n maturity model,

322
00:21:14,040 --> 00:21:17,040
is dat je weet welke conversaties moeten we hebben

323
00:21:17,040 --> 00:21:20,040
om de beweging te gaan waar we heen willen.

324
00:21:20,040 --> 00:21:21,040
Ja, precies.

325
00:21:21,040 --> 00:21:25,040
Dat is precies hetgeen wat denk ik mogelijk gemaakt wordt door...

326
00:21:25,040 --> 00:21:29,040
Het is eigenlijk een tool in je gereedschapskist.

327
00:21:29,040 --> 00:21:31,040
En hetzelfde met...

328
00:21:31,040 --> 00:21:32,040
Dat zie je natuurlijk ook vaker.

329
00:21:32,040 --> 00:21:34,040
We hadden het net over die ethische afwegingen.

330
00:21:34,040 --> 00:21:38,040
Organisaties ontwikkelen nu bepaalde boards of committees.

331
00:21:38,040 --> 00:21:41,040
Het gaat er niet om dat het één keer wordt bekeken,

332
00:21:41,040 --> 00:21:45,040
maar het gaat erom dat het continu onderdeel blijft van het gesprek,

333
00:21:45,040 --> 00:21:50,040
zeker als het algoritme ook constant gebruikt wordt.

334
00:21:50,040 --> 00:21:52,040
Ja, wat in principe de bedoeling is.

335
00:21:52,040 --> 00:21:53,040
Toch? - Precies.

336
00:21:53,040 --> 00:21:54,040
Dat hopen we wel.

337
00:21:54,040 --> 00:21:56,040
Nog een vraag die bij mij opkomt is dan...

338
00:21:56,040 --> 00:21:58,040
Je hebt het één keer gemeten.

339
00:21:58,040 --> 00:21:59,040
Dat hebben we met een bepaalde groep gedaan.

340
00:21:59,040 --> 00:22:02,040
Maar wat je zelf ook net al aangeeft, dat wil je vaker gaan doen.

341
00:22:02,040 --> 00:22:04,040
Kijk je ook naar van hoe ga je dat repeatable doen?

342
00:22:04,040 --> 00:22:06,040
Ga je dan elke keer dezelfde groep uitnodigingen?

343
00:22:06,040 --> 00:22:11,040
Hoe ga je daarmee om te kijken of je die voortgang hebt gemaakt die je wil maken?

344
00:22:11,040 --> 00:22:15,040
Ja, dus we gaan nu een pilot met die onderwijsinstellingen doen.

345
00:22:15,040 --> 00:22:20,040
Dat zijn precies de vragen die we daar ook onszelf gaan stellen.

346
00:22:20,040 --> 00:22:23,040
En niet om...

347
00:22:23,040 --> 00:22:25,040
De tool is nooit de oplossing.

348
00:22:25,040 --> 00:22:28,040
Maar je wil misschien wel het ergens kunnen borgen.

349
00:22:28,040 --> 00:22:30,040
Dat kwam je net ook al aan.

350
00:22:30,040 --> 00:22:34,040
Je wil het ergens vastleggen en niet dat het ergens verdwijnt in een folder.

351
00:22:34,040 --> 00:22:36,040
En dat is het.

352
00:22:36,040 --> 00:22:41,040
Dus daarvoor zijn ook die mutual learning sessies die wij organiseren met verschillende typen organisaties.

353
00:22:41,040 --> 00:22:43,040
Kan je ook natuurlijk intern organiseren.

354
00:22:43,040 --> 00:22:45,040
Misschien juist ook.

355
00:22:45,040 --> 00:22:47,040
Want dat is makkelijk herhaalbaar.

356
00:22:47,040 --> 00:22:49,040
Precies.

357
00:22:49,040 --> 00:22:52,040
Elke derde donderdag van...

358
00:22:52,040 --> 00:22:54,040
Ja, inderdaad.

359
00:22:54,040 --> 00:22:57,040
Dus dat is ook zeker iets wat je intern kan doen.

360
00:22:57,040 --> 00:23:00,040
En zo'n maturity model helpt daar alleen maar mee.

361
00:23:00,040 --> 00:23:02,040
Is het maturity model open?

362
00:23:02,040 --> 00:23:04,040
Kunnen we het ergens vinden? Lezen?

363
00:23:04,040 --> 00:23:06,040
Zullen we opnemen in de show notes?

364
00:23:06,040 --> 00:23:08,040
Kan iedereen dat gaan lezen?

365
00:23:08,040 --> 00:23:09,040
Dat is een aanrader inderdaad.

366
00:23:09,040 --> 00:23:11,040
De aanrader van mij is gelijk die tabel.

367
00:23:11,040 --> 00:23:13,040
Met al die verschillende stappen erin.

368
00:23:13,040 --> 00:23:15,040
En de volwassenheidsniveaus inderdaad.

369
00:23:15,040 --> 00:23:18,040
Zou je een aantal volwassenheidsniveaus kunnen noemen?

370
00:23:18,040 --> 00:23:20,040
We hebben net dementies gehad.

371
00:23:20,040 --> 00:23:25,040
Ja, dus we hebben vijf volwassenheidsniveaus geïdentificeerd.

372
00:23:25,040 --> 00:23:28,040
In ieder geval gebruikt in onze eerste mapping.

373
00:23:28,040 --> 00:23:33,040
En level 1 gaat eigenlijk over het feit dat er eerst...

374
00:23:33,040 --> 00:23:36,040
Nou ja, er is eigenlijk nog niet heel veel.

375
00:23:36,040 --> 00:23:40,040
Maar je ziet, daar doen we het misschien te kort mee,

376
00:23:40,040 --> 00:23:42,040
om te zeggen, er is nog niet zo veel.

377
00:23:42,040 --> 00:23:46,040
Want vaak zijn er wel individuen of bepaalde teams in de organisatie

378
00:23:46,040 --> 00:23:48,040
die er wel over aan het nadenken zijn.

379
00:23:48,040 --> 00:23:52,040
Maar het is niet iets wat structureel breed gedragen wordt.

380
00:23:52,040 --> 00:23:54,040
Maar het is afhankelijk.

381
00:23:54,040 --> 00:23:57,040
Dus stel je voor, die persoon zou de organisatie verlaten.

382
00:23:57,040 --> 00:23:59,040
Dan is ook de aandacht voor dat onderwerp weg.

383
00:23:59,040 --> 00:24:00,040
Ja, precies.

384
00:24:00,040 --> 00:24:04,040
Dus dat is voor ons op niveau 1, of nog helemaal niks.

385
00:24:04,040 --> 00:24:06,040
Er wordt nog helemaal niet aan gedacht.

386
00:24:06,040 --> 00:24:10,040
Dus op al die dimensies kan je dat eigenlijk gaan evalueren.

387
00:24:10,040 --> 00:24:15,040
Level 2 gaat veel meer over dat er juist initiatieven worden opgestart.

388
00:24:15,040 --> 00:24:17,040
Vaak op teamniveau.

389
00:24:17,040 --> 00:24:19,040
Of er wordt een eerste projectgroep gestart.

390
00:24:19,040 --> 00:24:22,040
Of een werkgroep van, we moeten iets mee doen.

391
00:24:22,040 --> 00:24:23,040
We gaan nu iets opzetten.

392
00:24:23,040 --> 00:24:27,040
Maar dat kan ook een groepje data scientists zijn die denken van,

393
00:24:27,040 --> 00:24:30,040
we willen eens gaan duiken in die technische methodes.

394
00:24:30,040 --> 00:24:32,040
Hoe kunnen we dit nou optimaliseren?

395
00:24:32,040 --> 00:24:36,040
En dan zie je eigenlijk op level 3 dat je dat steeds meer gaat

396
00:24:36,040 --> 00:24:40,040
van het informele naar het formele gaat brengen.

397
00:24:40,040 --> 00:24:45,040
Dus je gaat het vastleggen in bepaalde checks, procedures, manieren.

398
00:24:45,040 --> 00:24:48,040
Het wordt meer regulier.

399
00:24:48,040 --> 00:24:51,040
Dat je het terug laat komen. Het wordt meer structureel.

400
00:24:51,040 --> 00:24:54,040
En in level 4 bal je dat eigenlijk uit.

401
00:24:54,040 --> 00:25:00,040
En dan gaat het ook om dat je wilt die integratie in de organisatie.

402
00:25:00,040 --> 00:25:03,040
Dus waar bij level 3 misschien nog iets meer ad hoc is,

403
00:25:03,040 --> 00:25:07,040
wordt het bij 4 al echt iets ingebouwd in bestaande processen.

404
00:25:07,040 --> 00:25:10,040
Dus processen, functieprofielen, staat het misschien omschreven.

405
00:25:10,040 --> 00:25:12,040
Dat het onderdeel van je werk is.

406
00:25:12,040 --> 00:25:14,040
Dat je er trainingen voor moet volgen.

407
00:25:14,040 --> 00:25:17,040
Precies, dus op het moment dat je ergens gaat werken.

408
00:25:17,040 --> 00:25:20,040
Als je onboarding, zit het al verwerkt.

409
00:25:20,040 --> 00:25:27,040
De ontwikkelomgeving is vrij robuust opgezet.

410
00:25:27,040 --> 00:25:31,040
En die zorgt er ook voor dat je die ethische aspecten kan involveren.

411
00:25:31,040 --> 00:25:36,040
Het beleid is volledig uitgewerkt, maar ook volledig geïmplementeerd.

412
00:25:36,040 --> 00:25:40,040
Want dat is ook nog wel iets dat we vaak zien dat er wel beleid is.

413
00:25:40,040 --> 00:25:43,040
Dan zie je toch meer rond level 2, 3.

414
00:25:43,040 --> 00:25:48,040
Maar het is nog niet volledig geïmplementeerd of het leeft nog niet binnen de organisatie.

415
00:25:48,040 --> 00:25:53,040
Dat is een van de sub-dimensies bij beleid.

416
00:25:53,040 --> 00:25:55,040
Dat je beleid evalueert.

417
00:25:55,040 --> 00:26:05,040
En dat je kijkt, komt het nou nog overeen met de standaarden en de wetgeving die zich ook ontwikkelt.

418
00:26:05,040 --> 00:26:09,040
Dus dat is ook een stukje monitoring dat daarin zit.

419
00:26:09,040 --> 00:26:16,040
En richting level 5 ga je echt veel meer richting monitoren, evalueren.

420
00:26:16,040 --> 00:26:20,040
Zorgen dat je up to date blijft.

421
00:26:20,040 --> 00:26:23,040
Het is niet zo van ik ben bij level 5 en dan ben ik klaar.

422
00:26:23,040 --> 00:26:25,040
Helaas.

423
00:26:25,040 --> 00:26:28,040
Dan begint het eigenlijk per zegt.

424
00:26:28,040 --> 00:26:31,040
En ethische normen en waarden verschuiven natuurlijk ook.

425
00:26:31,040 --> 00:26:34,040
Ja, dat is iets heel belangrijks.

426
00:26:34,040 --> 00:26:37,040
En dat maakt ethiek ook super ingewikkeld.

427
00:26:37,040 --> 00:26:43,040
Dat het gebruik van de technologie verandert onze normen en waarden ook weer.

428
00:26:43,040 --> 00:26:50,040
Soms kan je ook niet bepaalde ethische aspecten vangen in formules, definities.

429
00:26:50,040 --> 00:26:56,040
Omdat het juist constant verschuift en ook verschilt per groep, perspectief, wat het dan betekent.

430
00:26:56,040 --> 00:27:01,040
Je hebt het per definitie, tenminste in mijn definitie, per definitie over een grijs gebied.

431
00:27:01,040 --> 00:27:02,040
Ja.

432
00:27:02,040 --> 00:27:05,040
Het is heel moeilijk sowieso af te kaderen.

433
00:27:05,040 --> 00:27:08,040
Dus je bent het op een gegeven moment ergens met elkaar eens ofzo.

434
00:27:08,040 --> 00:27:16,040
Maar er is geen hele harde scheidslijn die zegt van ja, als we hier zijn is het fout en als we daar zijn is het goed.

435
00:27:16,040 --> 00:27:20,040
Ja, en daarom is die continue reflectie zo belangrijk.

436
00:27:20,040 --> 00:27:25,040
Omdat je dus niet weet wanneer het gaat veranderen en hoe het gaat veranderen.

437
00:27:25,040 --> 00:27:32,040
En daar zijn natuurlijk heel veel voorbeelden van gewoon in een bredere zin van technologie en de ethiek van technologie.

438
00:27:32,040 --> 00:27:37,040
Is dat je bijvoorbeeld, nu vinden we het heel normaal dat iedereen op straat loopt met zijn airpods in.

439
00:27:37,040 --> 00:27:39,040
En dat iedereen tegen zichzelf aan het praten is.

440
00:27:39,040 --> 00:27:40,040
Ja, precies.

441
00:27:40,040 --> 00:27:44,040
Terwijl dat iets, als je dat tijdens je geleden had, dan denk je van, nou wat raar.

442
00:27:44,040 --> 00:27:46,040
Dat je dat 20 jaar geleden had gedaan ofzo.

443
00:27:46,040 --> 00:27:48,040
Ik heb dat nog hoor.

444
00:27:48,040 --> 00:27:51,040
Ik moet zeggen, ik doe dat best veel.

445
00:27:51,040 --> 00:27:52,040
Ja, nee ja.

446
00:27:52,040 --> 00:27:56,040
Ja, en dan zijn er nog steeds heel veel mensen die dat ook raar vinden.

447
00:27:56,040 --> 00:27:59,040
Ja, en dat soort dingen gaan langzaam.

448
00:27:59,040 --> 00:28:00,040
Ja, wordt anders zeker.

449
00:28:00,040 --> 00:28:09,040
En daar wordt vaak ook gekeken naar de harde impact van de kwantificeerbare en de impact van algoritmes en AI.

450
00:28:09,040 --> 00:28:12,040
Maar er zitten heel veel zachte kanten aan.

451
00:28:12,040 --> 00:28:21,040
Verantwoordelijkheden, waarden, frameworks, dat soort voorbeelden eigenlijk aangeven.

452
00:28:21,040 --> 00:28:28,040
En bij ethiek hebben we best wel heel vaak te maken met dat er heel duidelijke voorbeelden zijn hoe het niet moet.

453
00:28:28,040 --> 00:28:34,040
Maar uiteindelijk leren we het meeste van hoe het wel moet.

454
00:28:34,040 --> 00:28:38,040
Heb je daar een voorbeeld van?

455
00:28:38,040 --> 00:28:40,040
Ik voelde er wel aan komen.

456
00:28:40,040 --> 00:28:44,040
Ja, de niet voorbeelden zijn altijd heel makkelijk aanwijsbaar.

457
00:28:44,040 --> 00:28:53,040
Heb je iets van een voorbeeld, en dat mag wat in het algemene zijn, van dat je zegt van, ja maar hier is dat best wel heel goed gegaan.

458
00:28:53,040 --> 00:29:00,040
Als je deze stap al maakt, dan maak je in die zin al een reuzenstap.

459
00:29:00,040 --> 00:29:06,040
Ik denk dat, misschien een heel makkelijk antwoord, maar tijd.

460
00:29:06,040 --> 00:29:12,040
Dat zie ik terug in mijn eigen onderzoek, maar ook wel in andere aspecten.

461
00:29:12,040 --> 00:29:16,040
Daar moet ook tijd voor zijn om hierover na te kunnen denken.

462
00:29:16,040 --> 00:29:19,040
En dat wordt op verschillende manieren vormgegeven.

463
00:29:19,040 --> 00:29:24,040
Wat steeds meer gebeurt is dat er bepaalde rollen ontstaan.

464
00:29:24,040 --> 00:29:27,040
Dus AI ethics officers, AI ethics specialists.

465
00:29:27,040 --> 00:29:31,040
Dat is eigenlijk een vorm van, wij geven hier nu aandacht aan.

466
00:29:31,040 --> 00:29:39,040
Dat is één manier, maar het kan natuurlijk ook zo zijn dat andere rollen tijd krijgen om hier aan te werken.

467
00:29:39,040 --> 00:29:41,040
O ja, dat is een goede.

468
00:29:41,040 --> 00:29:47,040
Dus je kan een waarde framework ontwikkelen.

469
00:29:47,040 --> 00:29:51,040
Maar er moet ook wel tijd zijn om hem te implementeren.

470
00:29:51,040 --> 00:29:54,040
En hem toe te passen op jouw context.

471
00:29:54,040 --> 00:30:00,040
Dus ik denk dat één van de dingen die ik veel terug zie en waarvan ik denk dat is wel een goede stap.

472
00:30:00,040 --> 00:30:02,040
En dat zit ook wel in dat maturity model verwerkt.

473
00:30:02,040 --> 00:30:06,040
Maar er zijn heel veel principes en frameworks beschikbaar.

474
00:30:06,040 --> 00:30:09,040
Maar vertaal die naar je eigen context.

475
00:30:09,040 --> 00:30:14,040
Want de context van jouw organisatie is zo specifiek.

476
00:30:14,040 --> 00:30:17,040
Er zitten zoveel unieke aspecten aan.

477
00:30:17,040 --> 00:30:22,040
Die zijn niet te vangen in die abstracte principes die je op alle contexten kunt toepassen.

478
00:30:22,040 --> 00:30:27,040
Dat is altijd wel weer lastig, want mensen zijn natuurlijk altijd weer op zoek naar een recept.

479
00:30:27,040 --> 00:30:30,040
Ik neem aan dat dat best wel lastig is.

480
00:30:30,040 --> 00:30:33,040
Ja, maar dat is denk ik ook, want je vroeg van heb je een voorbeeld.

481
00:30:33,040 --> 00:30:37,040
Ik denk als dat lukt, dat dat al stap 1 is.

482
00:30:37,040 --> 00:30:39,040
Ja, dat vind ik wel een hele mooie.

483
00:30:40,040 --> 00:30:46,040
Het kan zijn dat het wel overeenkomt met die algemene principes.

484
00:30:46,040 --> 00:30:51,040
Maar het kan zijn dat de nuance in jouw context toch net iets anders ligt.

485
00:30:51,040 --> 00:30:59,040
En een ander best practice is dat je kan het per principe aanpakken.

486
00:30:59,040 --> 00:31:04,040
Dus je kan zeggen, we gaan nu bezig zijn met bijvoorbeeld uitlegbaarheid of fairness.

487
00:31:04,040 --> 00:31:11,040
Maar vaak zit er toch een bepaalde overlap in met andere principes.

488
00:31:11,040 --> 00:31:17,040
Dus ik zou juist vanuit die organisatorische blik gaan kijken en niet vanuit die principeblik.

489
00:31:17,040 --> 00:31:24,040
Want vaak, om fairness aan te pakken, moet een algoritme ook wel vaak explainable zijn.

490
00:31:24,040 --> 00:31:29,040
En dan wil je ook weten wie daar verantwoordelijk voor is om daar weer iets over te zeggen.

491
00:31:29,040 --> 00:31:31,040
Ja, dat vind ik wel een mooi uitgangspunt.

492
00:31:31,040 --> 00:31:33,040
Een hele holistische aanpak.

493
00:31:33,040 --> 00:31:37,040
En hoe weet je nou dat je, want dan ga je hier mee bezig.

494
00:31:37,040 --> 00:31:40,040
Ik noemde al van het is een grijs gebied.

495
00:31:40,040 --> 00:31:42,040
Hoe weet je nou dat je hier impact op maakt?

496
00:31:42,040 --> 00:31:46,040
Wat is impact?

497
00:31:46,040 --> 00:31:47,040
Sorry.

498
00:31:47,040 --> 00:31:50,040
Dat is een hele goede tegenvraag.

499
00:31:50,040 --> 00:31:54,040
Nou ja, dat je verschil aan het maken bent.

500
00:31:54,040 --> 00:31:57,040
Dus dat wat je aan het doen bent...

501
00:31:57,040 --> 00:31:58,040
Dat je verandering ziet bedoel je?

502
00:31:58,040 --> 00:32:00,040
Dat je verandering ziet, ja.

503
00:32:00,040 --> 00:32:10,040
Ja, ik denk dat op het moment dat je wilt een cultuur of een setting creëren waar mensen kunnen signaleren van...

504
00:32:10,040 --> 00:32:19,040
"Hé, ik weet het niet. Ik weet niet zeker of ik dit mag gebruiken of dat we dit wel moeten doen."

505
00:32:19,040 --> 00:32:23,040
Dus dat is heel erg iets interns, denk ik.

506
00:32:23,040 --> 00:32:30,040
Want je kan soms ook als je één rol hebt die alles implementeert, die kan niet alles overzien.

507
00:32:30,040 --> 00:32:37,040
Als je ervoor wilt zorgen dat iedereen die verantwoordelijkheid begint te voelen.

508
00:32:37,040 --> 00:32:38,040
Ja, precies.

509
00:32:38,040 --> 00:32:43,040
Dus als het gesprek breder in de organisatie een punt wordt...

510
00:32:43,040 --> 00:32:46,040
Ik probeer hem te vertalen, zodat ik me zeg of ik het goed heb.

511
00:32:46,040 --> 00:32:53,040
Dus als het iets is wat eigenlijk tijdens de lunch besproken wordt...

512
00:32:53,040 --> 00:33:02,040
"Niels, ik dacht dat jij dit ethische aspect nog wat verder zou uitzoeken, maar dat heb je niet gedaan."

513
00:33:02,040 --> 00:33:04,040
En dat je elkaar er misschien ook op aanspreekt.

514
00:33:04,040 --> 00:33:06,040
Dat je dan impact maakt.

515
00:33:06,040 --> 00:33:08,040
Dat er een verandering plaatsvindt.

516
00:33:08,040 --> 00:33:10,040
Ja, dus dat is intern.

517
00:33:10,040 --> 00:33:12,040
Ja, ik denk dat...

518
00:33:12,040 --> 00:33:14,040
Dat jij dat organisatorische deel...

519
00:33:14,040 --> 00:33:17,040
Ja, en dan heb je misschien weer meer over dat interesse.

520
00:33:17,040 --> 00:33:22,040
Maar je hoopt uiteindelijk dat het toe ook leidt dat er bepaalde keuzes gemaakt worden.

521
00:33:22,040 --> 00:33:24,040
Zodat je niet...

522
00:33:24,040 --> 00:33:28,040
Misschien die unintended...

523
00:33:28,040 --> 00:33:29,040
Ja.

524
00:33:29,040 --> 00:33:34,040
Dat hetgeen wat je misschien niet had voorzien, dat dat steeds meer geïdentificeerd kan worden.

525
00:33:34,040 --> 00:33:39,040
En in ieder geval van tevoren over nagedacht van "Wat zou er kunnen gebeuren op het moment dat we dit doen?"

526
00:33:39,040 --> 00:33:44,040
Ja. Dus dat we ideeën vanuit een breder perspectief gaan bekijken.

527
00:33:44,040 --> 00:33:47,040
Los van jouw deel van expertise, maar ook al verder gaat kijken.

528
00:33:47,040 --> 00:33:50,040
Zonder dat daar eerst een hele setting voor gecreëerd moet worden.

529
00:33:50,040 --> 00:33:52,040
Maar dat iemand zelf opstapt als dat er nog niet is.

530
00:33:52,040 --> 00:33:54,040
Om daarmee aan de slag te gaan.

531
00:33:54,040 --> 00:33:56,040
Bijvoorbeeld, ja.

532
00:33:56,040 --> 00:33:59,040
En natuurlijk ook in een bredere zin impact.

533
00:33:59,040 --> 00:34:05,040
Je wilt uiteindelijk ook dat de burgers, jouw klanten, de maatschappij in het algemeen...

534
00:34:05,040 --> 00:34:10,040
Ik denk dat het heel belangrijk is, en dat zie je nu ook met generatieve AI,

535
00:34:10,040 --> 00:34:17,040
dat bepaalde bestaande biases en bepaalde systematische problemen die er al zijn,

536
00:34:17,040 --> 00:34:19,040
dat die niet nog verder versterkt worden.

537
00:34:19,040 --> 00:34:20,040
Ja.

538
00:34:20,040 --> 00:34:27,040
En daar zitten elke keer als we iets meten, of het moment dat wij een keuze moeten maken,

539
00:34:27,040 --> 00:34:30,040
een bepaalde threshold moeten zetten, maken we al een bepaalde keuze,

540
00:34:30,040 --> 00:34:35,040
dat is een menselijke keuze, hoe iets eruit moet komen te zien.

541
00:34:35,040 --> 00:34:39,040
Hoe kijk je dan, misschien gaan we er een heel klein zijstapje in doen,

542
00:34:39,040 --> 00:34:44,040
hoe kijk je er dan tegenaan, zeg maar, hoe op dit moment Big Tech daarmee bezig is,

543
00:34:44,040 --> 00:34:49,040
want die data die ze gebruiken, daarvan weten we één ding zeker, die is heel erg biased.

544
00:34:49,040 --> 00:34:54,040
Ik zag zelfs, ik dacht dat het OpenAI was, ik weet even niet helemaal zeker,

545
00:34:54,040 --> 00:35:00,040
OpenAI die licentie nu had afgesloten met Reddit, waarvan we weten dat,

546
00:35:00,040 --> 00:35:08,040
Reddit is zo'n open riool forum, laat ik het maar even zo noemen, in ieder geval delen daarvan,

547
00:35:08,040 --> 00:35:12,040
en dat gaan ze dus gebruiken in hun generatieve AI,

548
00:35:12,040 --> 00:35:18,040
dus zij zijn eigenlijk nog meer bias in hun modellen aan het stoppen.

549
00:35:18,040 --> 00:35:21,040
Ja, en ook weer niet, want je zag bijvoorbeeld Google Gemini,

550
00:35:21,040 --> 00:35:27,040
zag je dat ze diversiteit probeerden toe te voegen aan hun model,

551
00:35:27,040 --> 00:35:29,040
en dat ging er juist de andere kant op.

552
00:35:29,040 --> 00:35:38,040
En er is een heel mooi artikel die eigenlijk verschillende traps, dus valkuilen, aangeeft,

553
00:35:38,040 --> 00:35:43,040
van wat gebeurt er nou als je dus met biased data aan de slag gaat,

554
00:35:43,040 --> 00:35:46,040
en ook vooral kijk naar hoe kunnen we dat algoritme nou,

555
00:35:46,040 --> 00:35:49,040
want ik denk dat dat een van de dingen was die we bij Google Gemini,

556
00:35:49,040 --> 00:35:55,040
ze hebben het algoritme aangepast om die diversiteit, of ik was er niet bij, maar...

557
00:35:55,040 --> 00:36:02,040
Nou ja, het probleem is, Google die dag zich, er is een aparte aflevering van,

558
00:36:02,040 --> 00:36:08,040
maar die dachten zich er makkelijk van af te maken,

559
00:36:08,040 --> 00:36:12,040
door namelijk de prompt die je dan opgeeft, gewoon even als dat over mensen gaat,

560
00:36:12,040 --> 00:36:16,040
er achteraf toevoegen van, maak er een diverse groep van.

561
00:36:16,040 --> 00:36:21,040
Dat heeft niets te maken met het algoritme aanpassen, maar gewoon eventjes je prompt.

562
00:36:21,040 --> 00:36:24,040
Ja, dat was grote stappen snel thuis, maar dat...

563
00:36:24,040 --> 00:36:26,040
Ze waren weer zo snel thuis.

564
00:36:26,040 --> 00:36:29,040
Ze waren heel snel thuis, ja.

565
00:36:29,040 --> 00:36:31,040
Het is even offline gegaan zelfs, hè.

566
00:36:31,040 --> 00:36:33,040
Dus ze hebben in ieder geval de pijn gevoeld.

567
00:36:33,040 --> 00:36:37,040
Ja, dus ik denk dat, er zijn dus verschillende valkuilen,

568
00:36:37,040 --> 00:36:40,040
dus bijvoorbeeld een van die valkuilen ook is dat,

569
00:36:40,040 --> 00:36:43,040
technologie of de tool is niet altijd de oplossing.

570
00:36:43,040 --> 00:36:46,040
Dus dat, in dit geval een prompt is niet de oplossing.

571
00:36:46,040 --> 00:36:47,040
Precies.

572
00:36:47,040 --> 00:36:50,040
Omdat soms is dat gewoon, iets zoals diversiteit of fairness,

573
00:36:50,040 --> 00:36:53,040
is gewoon zo moeilijk te vangen.

574
00:36:53,040 --> 00:36:59,040
Wordt nog steeds over, er zijn heel veel debates, contests.

575
00:36:59,040 --> 00:37:04,040
Ik denk dat het eigenlijk wel een heel mooi voorbeeld is van alles wat jij verteld hebt,

576
00:37:04,040 --> 00:37:07,040
want wat er natuurlijk bij Google gebeurde, is dat zij...

577
00:37:07,040 --> 00:37:10,040
Ze hadden eerst, Lambda heette dat model nog,

578
00:37:10,040 --> 00:37:13,040
dan kreeg je die Google Test Engineer,

579
00:37:13,040 --> 00:37:18,040
en die vond dat dat model zelfbewustzijn had en zo.

580
00:37:18,040 --> 00:37:23,040
Dat is een hele hoop gedoe geweest, man ontslagen, model teruggetrokken.

581
00:37:23,040 --> 00:37:25,040
Maar wat zij vooral toen gedaan hebben,

582
00:37:25,040 --> 00:37:30,040
is hun ethics team hebben zij volledig uitgekleed.

583
00:37:32,040 --> 00:37:37,040
En nu dus een jaar, anderhalf jaar later, zitten we er dus met Gemini.

584
00:37:37,040 --> 00:37:39,040
En wat hebben ze gezien?

585
00:37:39,040 --> 00:37:43,040
We hebben misschien een ethisch probleempje.

586
00:37:43,040 --> 00:37:47,040
Mensen zien het niet hoor, tussen aanhalingstekens, probleempje.

587
00:37:47,040 --> 00:37:49,040
En daar dachten een paar technici,

588
00:37:49,040 --> 00:37:51,040
oh, maar daar past er gewoon even een promptje aan.

589
00:37:51,040 --> 00:37:55,040
Volgens mij heb je het daarover gehad toch?

590
00:37:55,040 --> 00:37:58,040
Het zit niet in de organisatie, het is niet geëmbed,

591
00:37:58,040 --> 00:38:01,040
het wordt niet gevoeld.

592
00:38:01,040 --> 00:38:04,040
En er is iemand waarschijnlijk geweest die dacht van,

593
00:38:04,040 --> 00:38:06,040
oh ja, maar hier moeten we wel wat mee.

594
00:38:06,040 --> 00:38:11,040
En dus op de slechts mogelijke manier is dat vertaald.

595
00:38:11,040 --> 00:38:15,040
En ook die andere punt die je net noemde, eigenlijk tijd.

596
00:38:15,040 --> 00:38:17,040
Tijd, focus en prioriteit.

597
00:38:17,040 --> 00:38:21,040
Tijd maken en focus op aanbrengen en prioriteit geven

598
00:38:21,040 --> 00:38:23,040
en niet te snel willen gaan.

599
00:38:23,040 --> 00:38:26,040
Volgens mij zitten we ook in een maatschappij waar alles heel snel gaat.

600
00:38:26,040 --> 00:38:30,040
Ja, ik denk dat dat wel een hele belangrijke is inderdaad.

601
00:38:30,040 --> 00:38:33,040
Dat echt even de tijd voor pakken en niet te snel willen gaan inderdaad.

602
00:38:33,040 --> 00:38:37,040
En niet de red race per se willen winnen, maar het goed willen doen.

603
00:38:37,040 --> 00:38:39,040
Ja, en dat ook.

604
00:38:39,040 --> 00:38:44,040
Als je water hebt en water is het sociale systeem waarin,

605
00:38:44,040 --> 00:38:47,040
en dan heb je een druppel wat de technologie is die je erin,

606
00:38:47,040 --> 00:38:49,040
dan heb je een bepaald effect.

607
00:38:49,040 --> 00:38:51,040
Ja, dat rimpel effect.

608
00:38:51,040 --> 00:38:55,040
En door één klein dingetje aan te passen,

609
00:38:55,040 --> 00:38:57,040
kan er eigenlijk een effect ontstaan

610
00:38:57,040 --> 00:38:59,040
en die kan ook heel anders zijn in verschillende contexten.

611
00:38:59,040 --> 00:39:02,040
Nu was het inderdaad met foto's,

612
00:39:02,040 --> 00:39:06,040
maar in een ander context was misschien de implicatie heel anders geweest

613
00:39:06,040 --> 00:39:10,040
en waren ze misschien beter uitgepakt. Je weet het niet.

614
00:39:10,040 --> 00:39:14,040
Of subtieler, waardoor je het minder snel detecteert.

615
00:39:14,040 --> 00:39:17,040
Kijk, nu was het zo, zo zichtbaar.

616
00:39:17,040 --> 00:39:20,040
Dat was in ieder geval nog het voordeel.

617
00:39:20,040 --> 00:39:23,040
Het gaat juist om die subtiele...

618
00:39:23,040 --> 00:39:30,040
Ja, en zeker als daar nog een menselijk besluitvormingsproces tussen zit,

619
00:39:30,040 --> 00:39:33,040
dat het advies aan de mens wordt gegeven,

620
00:39:33,040 --> 00:39:35,040
daar zitten daar ook weer allemaal aspecten aan.

621
00:39:35,040 --> 00:39:37,040
Bijvoorbeeld iemand zijn eigen perceptie,

622
00:39:37,040 --> 00:39:39,040
iemand zijn rol in de expertise verandert.

623
00:39:39,040 --> 00:39:42,040
Of bijvoorbeeld, het kan zijn dat de ene persoon denkt,

624
00:39:42,040 --> 00:39:45,040
ik ga dit gewoon opvolgen, en de andere persoon negeert het.

625
00:39:45,040 --> 00:39:50,040
Dus daar ook weer de implicaties van en bepaalde machtsverhoudingen.

626
00:39:50,040 --> 00:39:53,040
Die worden ook allemaal beïnvloed.

627
00:39:53,040 --> 00:39:54,040
Snap ik.

628
00:39:54,040 --> 00:39:58,040
We hebben ook Aisha, onze virtuele co-host.

629
00:39:58,040 --> 00:40:01,040
En die zou je ook graag even willen aansluiten.

630
00:40:01,040 --> 00:40:17,040
[muziek]

631
00:40:17,040 --> 00:40:20,040
Het is een genoegen je te ontmoeten.

632
00:40:20,040 --> 00:40:23,040
Ik ben Aisha, de AI hier.

633
00:40:23,040 --> 00:40:27,040
Ik zou graag een vraag willen stellen, als je het niet erg vindt.

634
00:40:27,040 --> 00:40:31,040
Ja, dat mag. Natuurlijk.

635
00:40:31,040 --> 00:40:36,040
Welke science-fiction film geeft volgens jou de toekomst van AI nauwkeurig weer?

636
00:40:36,040 --> 00:40:39,040
Interessante vraag.

637
00:40:39,040 --> 00:40:41,040
Nauwkeurig weer, dat is wel heel erg interessant.

638
00:40:41,040 --> 00:40:43,040
Nauwkeurig vooral.

639
00:40:43,040 --> 00:40:45,040
[lachen]

640
00:40:45,040 --> 00:40:51,040
Ik moet eerlijk toegeven, Aisha, dat ik niet een hele grote filmfan ben.

641
00:40:51,040 --> 00:40:54,040
Ik hou wel erg van lezen.

642
00:40:54,040 --> 00:40:56,040
Oh, dat is ook mooi.

643
00:40:56,040 --> 00:41:02,040
Ik weet niet echt of het de toekomst vergeeft, maar een boek wat mij zeker toen ik philosophie studeerde

644
00:41:02,040 --> 00:41:06,040
heel erg aan het denken zat, was I, Robot van Isaac Asimov.

645
00:41:06,040 --> 00:41:14,040
Toen kwam die ook met drie regels, hoe robots mensen...

646
00:41:14,040 --> 00:41:18,040
En daar zijn ook weer heel veel reflexen op geweest.

647
00:41:18,040 --> 00:41:25,040
Ik denk dat de kracht van verhalen en de kracht van bepaalde dingen laten zien

648
00:41:25,040 --> 00:41:28,040
ook juist weer die discussie op gang kan brengen.

649
00:41:28,040 --> 00:41:35,040
Eigenlijk je eigen reflectie van wat gebeurt er nou eigenlijk op het moment dat zo'n technologie beschikbaar is.

650
00:41:35,040 --> 00:41:40,040
En ik denk ook dat... Hij heeft acht verhalen in dat boek.

651
00:41:40,040 --> 00:41:45,040
Een film kunnen natuurlijk ook meerdere verhaallijnen zijn.

652
00:41:45,040 --> 00:41:50,040
Maar die acht verhalen laten ook weer verschillende aspecten van onze samenleving zien.

653
00:41:50,040 --> 00:41:56,040
Dus wat als je bevriend wordt met een robot of wat als we een robot inzetten in een militaire contact.

654
00:41:56,040 --> 00:42:00,040
Dus ik vind dat soort verhalen altijd heel erg...

655
00:42:00,040 --> 00:42:06,040
Zorgen er bij mij voor dat ik weer ga reflecteren op wat nou de impact kan zijn.

656
00:42:06,040 --> 00:42:11,040
Bedankt voor dat heldere en informatieve antwoord.

657
00:42:11,040 --> 00:42:13,040
Ja, zeker interessant.

658
00:42:13,040 --> 00:42:17,040
In mijn beleving is er geen film die het nauwkeurig weergeeft.

659
00:42:17,040 --> 00:42:21,040
Want we houden natuurlijk van lekker dystopisch.

660
00:42:21,040 --> 00:42:23,040
Het gaat altijd mis.

661
00:42:23,040 --> 00:42:26,040
Wel weer gesprekstof inderdaad. Willen we die kant niet op laten gaan.

662
00:42:26,040 --> 00:42:30,040
Ik denk als we die films niet hadden, hadden we die gesprekken misschien niet gehad en dan had het er geweest.

663
00:42:30,040 --> 00:42:32,040
Geen idee.

664
00:42:32,040 --> 00:42:40,040
Ik weet wel dat in Rotterdam een kino een serie hebben gehad met allemaal films over AI en science fiction.

665
00:42:40,040 --> 00:42:46,040
Dus mocht je nog een hele lijst met films over AI willen zien, dan wil ik dat je daar naartoe kan.

666
00:42:46,040 --> 00:42:50,040
Ook bekend als Her.

667
00:42:50,040 --> 00:42:54,040
Natuurlijk met online datingachtige context.

668
00:42:54,040 --> 00:42:57,040
Maar ook iRobot zelf. Ik moest gelijk aan de film denken.

669
00:42:57,040 --> 00:43:01,040
Ik ben minder van de boeken lezen maar meer van de webcast en dat soort zaken.

670
00:43:01,040 --> 00:43:05,040
I, Robot is natuurlijk ook een film waarin ook de drie wetten zijn opgenomen.

671
00:43:05,040 --> 00:43:08,040
Zo zijn er nog wel aardig wat andere films.

672
00:43:08,040 --> 00:43:10,040
Maar nauwkeurig, nee.

673
00:43:10,040 --> 00:43:12,040
Om dat toch wel even duidelijk te zeggen.

674
00:43:12,040 --> 00:43:16,040
Maar het is wel interessant als je denkt aan de film Her.

675
00:43:16,040 --> 00:43:21,040
Wat daar zich afspeelt met de ontwikkelingen die er de afgelopen jaren zijn geweest.

676
00:43:21,040 --> 00:43:24,040
Hoe meer dat eigenlijk werkelijkheid is geworden.

677
00:43:24,040 --> 00:43:28,040
En je dat op verschillende manieren terug ziet in verschillende technologieën.

678
00:43:28,040 --> 00:43:32,040
Niet exact zo, maar in een ander context.

679
00:43:32,040 --> 00:43:34,040
Dat is een hele mooie.

680
00:43:34,040 --> 00:43:41,040
Nog als laatste over het maturity model.

681
00:43:41,040 --> 00:43:43,040
Mensen hebben dit geluisterd.

682
00:43:43,040 --> 00:43:46,040
Wat is de eerste stap wat ze gaan doen?

683
00:43:46,040 --> 00:43:49,040
Dus ze zetten zo direct deze podcast uit.

684
00:43:49,040 --> 00:43:56,040
Wat gaan ze in jouw beleving doen nu met deze informatie?

685
00:43:56,040 --> 00:43:59,040
Als je wilt kan je het artikel lezen.

686
00:43:59,040 --> 00:44:02,040
Ik wil niemand verplichten om het hele artikel te lezen.

687
00:44:02,040 --> 00:44:04,040
Maar ik denk dat het wel erg helpt om te begrijpen.

688
00:44:04,040 --> 00:44:07,040
Wat is nou de context geweest en hoe we het hebben ontwikkeld.

689
00:44:07,040 --> 00:44:09,040
En wat betekent het nou?

690
00:44:09,040 --> 00:44:11,040
En de eerste stap die je al kan zetten.

691
00:44:11,040 --> 00:44:14,040
Het staat een tabel in en er staat ook een raamwerk in.

692
00:44:14,040 --> 00:44:17,040
Is gewoon eens opschrijven wat is er nou eigenlijk in mijn organisatie.

693
00:44:17,040 --> 00:44:19,040
Het maakt niet uit wat voor rol je hebt.

694
00:44:19,040 --> 00:44:22,040
Je hoeft niet per se degene te zijn die hiervoor verantwoordelijk is.

695
00:44:22,040 --> 00:44:25,040
Maar ga nou eens opschrijven wat je al hebt.

696
00:44:25,040 --> 00:44:28,040
En waar zou je graag willen staan.

697
00:44:28,040 --> 00:44:30,040
En dat al eens een keer bespreken.

698
00:44:30,040 --> 00:44:32,040
Ga dat dan een keer met een collega bespreken.

699
00:44:32,040 --> 00:44:35,040
En kijken of die daar dezelfde percepties bij heeft.

700
00:44:35,040 --> 00:44:37,040
Dat kan je eigenlijk steeds verder uitbouwen.

701
00:44:37,040 --> 00:44:39,040
Dan kan je op een gegeven moment gaan kijken van oké, maar hoe komen we daar nou?

702
00:44:39,040 --> 00:44:42,040
En wat zouden we dan nu moeten doen?

703
00:44:42,040 --> 00:44:46,040
En dan zou je kunnen kijken van, nou ja, als je die mapping al neerzet.

704
00:44:46,040 --> 00:44:52,040
Kan je al kijken van welke dimensies ben ik nou al wat volwassener in.

705
00:44:52,040 --> 00:44:54,040
En waar heb ik eigenlijk nog helemaal niet aan gedacht.

706
00:44:54,040 --> 00:44:56,040
Nou dat lijkt me een hele mooie.

707
00:44:56,040 --> 00:45:00,040
We zijn niet toegekomen aan de explainability.

708
00:45:00,040 --> 00:45:03,040
Daar moeten we nog eens een ander moment voor kiezen.

709
00:45:03,040 --> 00:45:05,040
Maar ik ben bang dat als ik daar nu over begin.

710
00:45:05,040 --> 00:45:09,040
Dat we de volgende drie kwartier bezig zijn.

711
00:45:09,040 --> 00:45:12,040
Tamara, super bedankt dat je hier wilde zijn.

712
00:45:12,040 --> 00:45:16,040
Dat je dat maturity model, dat je dat hebt willen uitleggen aan ons.

713
00:45:16,040 --> 00:45:17,040
Heel erg interessant.

714
00:45:17,040 --> 00:45:19,040
Heeft mij ook weer aan het denken gezet.

715
00:45:19,040 --> 00:45:23,040
Ik denk dat Niels en ik ook maar eens weer moeten gaan beginnen met schrijven.

716
00:45:23,040 --> 00:45:24,040
Ja, zeker.

717
00:45:24,040 --> 00:45:27,040
Dus wij gaan in ieder geval wel die eerste stap uitvoeren.

718
00:45:27,040 --> 00:45:29,040
Dank je wel dat je hier wilde zijn.

719
00:45:29,040 --> 00:45:31,040
Dank je wel voor de uitnodiging. Leuk om hier te zijn.

720
00:45:31,040 --> 00:45:38,040
Leuk dat je luisterde naar deze aflevering.

721
00:45:38,040 --> 00:45:41,040
Vergeet je niet te abonneren via je favoriete podcast app.

722
00:45:41,040 --> 00:45:45,040
Dan krijg je vanzelf een seintje als er weer een nieuwe aflevering beschikbaar is.

723
00:45:45,040 --> 00:45:47,040
Op de maandag altijd met een gast.

724
00:45:47,040 --> 00:45:49,040
Op de donderdag een korte column.

725
00:45:49,040 --> 00:45:51,040
Tot de volgende keer.

726
00:45:51,040 --> 00:45:52,040
Tot de volgende keer.

727
00:45:52,040 --> 00:45:54,000
[Muziek]

People on this episode