AIToday Live

S05E49 - Auteur Marc Steen - Ethics for People Who Work in Tech

Info Support AIToday Season 5 Episode 49

In deze aflevering van AIToday Live hebben we de eer om auteur Marc Steen te verwelkomen. In zijn boek "Ethics for People Who Work in Tech" benadrukt Steen dat ethiek geen kwestie is van regels en vereisten, maar eerder een proces van communicatie en vragen stellen.

Aangezien AI volop in ontwikkeling is, is het cruciaal dat niet alleen grote bedrijven, maar ook burgers en overheden betrokken worden bij het bepalen van de koers. Steen legt uit dat het stellen van vragen en het begrijpen van verschillende perspectieven cruciaal zijn bij ethische dilemma's. Hierbij kunnen externe experts een waardevolle rol spelen.

Om te voorkomen dat deze gesprekken eindeloos doorgaan, heeft Steen de "Rapid Ethical Deliberation" methode ontwikkeld.

Het boek van Marc Steen biedt een praktische gids voor het stellen van ethische vragen in tech-projecten. Mis het niet!

Links

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:06,040
Welkom bij een nieuwe aflevering van AIToday Live met vandaag de gast Marc Steen,

2
00:00:06,040 --> 00:00:12,040
boek, boek, auteur van het boek Ethics for People Who Work in Tech.

3
00:00:12,040 --> 00:00:14,680
Mijn naam is Joop Snijder, CTO bij Aigency.

4
00:00:14,680 --> 00:00:17,880
Mijn naam Niels Naglé, chapter lead Data & AI bij Info Support.

5
00:00:17,880 --> 00:00:21,040
Marc, dankjewel dat je onze gast wil zijn.

6
00:00:21,040 --> 00:00:23,760
Het is een eer om jou als auteur hier te hebben.

7
00:00:23,760 --> 00:00:26,640
Zou jij willen voorstellen aan onze luisteraars?

8
00:00:26,640 --> 00:00:29,280
Ja, nou, dankjewel voor de uitnodiging.

9
00:00:29,280 --> 00:00:35,000
leuk om over dit onderwerp te praten. Mijn naam is Marc Steen, ik werk als senior onderzoeker

10
00:00:35,000 --> 00:00:42,640
bij TNO. TNO is een grote organisatie, 3000 plus experts in allerlei gebieden, energie,

11
00:00:42,640 --> 00:00:49,160
ICT, mobiliteit, urban, van alles. We doen altijd toegepast wetenschappelijk onderzoek,

12
00:00:49,160 --> 00:00:55,000
dus zeg maar tussen universiteiten en bedrijfsleven in ook om die brug te leggen. Dus lastige

13
00:00:55,000 --> 00:00:59,000
moeilijke dingen praktisch maken. Dat gaat mijn boek eigenlijk ook over.

14
00:00:59,000 --> 00:01:03,000
Ja, toch? Want ethiek is best lastig. We hebben het wel vaker in deze podcast gehad over ethiek.

15
00:01:03,000 --> 00:01:08,000
Wat is volgens jou ethiek en waarom heeft het te maken met AI?

16
00:01:08,000 --> 00:01:10,000
Want daarom zit je in deze podcast.

17
00:01:10,000 --> 00:01:13,000
Ja, er zijn natuurlijk heel veel opvattingen over ethiek.

18
00:01:13,000 --> 00:01:18,000
Het is al duizenden jaren een onderwerp van allerlei culturen.

19
00:01:18,000 --> 00:01:22,000
Ik zal een paar voorbeelden geven waarvan ik denk dat het voor mij in ieder geval niet is.

20
00:01:22,000 --> 00:01:28,000
Bijvoorbeeld niet zoiets van "Hey Marc, kun je een stempel zetten op dit project om te kijken of het wel goed is?"

21
00:01:28,000 --> 00:01:30,000
Ethiek. Ethisch goed enzo.

22
00:01:30,000 --> 00:01:35,000
Het is ook niet een hele moeilijke checklist van waar je allemaal aan moet voldoen.

23
00:01:35,000 --> 00:01:41,000
Dat is veel meer een soort van privacy of compliance eisen die je kunt stellen, bijvoorbeeld op het gebied van privacy.

24
00:01:41,000 --> 00:01:45,000
Ethiek voor mij, daar gaat eigenlijk mijn hele boek over, zie ik meer als een proces.

25
00:01:45,000 --> 00:01:51,000
Wat je kunt organiseren, wat je kunt doorlopen, wat je met een aantal mensen kunt doorlopen, wat je een aantal keren ook kunt herhalen.

26
00:01:51,000 --> 00:01:56,240
ook kunt herhalen. Dus uiteindelijk wordt het dan een participatief en iteratief proces

27
00:01:56,240 --> 00:02:02,680
van vragen stellen. Hé, is dit wat we willen? Is dit het goede om te doen? En dan daarop

28
00:02:02,680 --> 00:02:06,440
terugkomen als je wil bijsturen. Dat is veel meer de metafoor van een stuur.

29
00:02:06,440 --> 00:02:07,440
Oh ja.

30
00:02:07,440 --> 00:02:12,480
Wat ik ook wel gebruik. Ik moedig ook mensen aan om, en mijn boek is ook als praktische

31
00:02:12,480 --> 00:02:16,840
hulp erbij bedoeld, als je in je project ethische vragen wil stellen, dan kun je merken

32
00:02:16,840 --> 00:02:23,720
dat je het kunt gebruiken als een stuur om jouw project netjes of veilig van A naar B te brengen.

33
00:02:23,720 --> 00:02:31,280
Om te voorkomen dat je niet tegen de vangrails zit de hele tijd, of de verkeerde afslag neemt,

34
00:02:31,280 --> 00:02:36,400
geen botsingen maakt. Dus ethiek als stuur van je project.

35
00:02:36,400 --> 00:02:40,800
Oh ja, waar je dan voornamelijk met elkaar over communiceert en het erover hebt.

36
00:02:40,800 --> 00:02:44,800
Ja, voor mij is het al een enorme winst als mensen eerst hun stappen erin nemen.

37
00:02:44,800 --> 00:02:50,480
We gaan een meeting doen van 60 minuutjes, dan gaan we ons project op tafel leggen en

38
00:02:50,480 --> 00:02:52,160
er ethische vragen over stellen.

39
00:02:52,160 --> 00:02:54,160
Is dit wel fair?

40
00:02:54,160 --> 00:02:55,160
Is het transparant?

41
00:02:55,160 --> 00:02:59,000
Het algoritme, ik maak meteen het bericht naar AI toe.

42
00:02:59,000 --> 00:03:04,160
Je kunt het ook op allerlei gebieden, ethiek bedrijven, toegepast ethiek, professionele

43
00:03:04,160 --> 00:03:05,160
ethiek.

44
00:03:05,160 --> 00:03:10,080
En bij AI is het denk ik super relevant, omdat AI is volop in ontwikkeling.

45
00:03:10,080 --> 00:03:13,440
Er kan van alles, maar moet je ook alles willen wat kan?

46
00:03:13,440 --> 00:03:20,440
Wie ontwikkelen het dan? Zijn het grote bedrijven of mogen burgers er ook een richting aan meegeven?

47
00:03:20,440 --> 00:03:24,320
Overheden, moeten die komen met wetgeving of is het industrie?

48
00:03:24,320 --> 00:03:32,840
Dus je hebt allerlei vragen, juist omdat het in potentie heel machtige, heel krachtige technieken zijn met AI.

49
00:03:32,840 --> 00:03:34,440
Je kan er van alles mee.

50
00:03:34,440 --> 00:03:37,440
Maar wat is het goede om er mee te doen?

51
00:03:37,440 --> 00:03:40,240
Je had het over het praktisch maken.

52
00:03:40,240 --> 00:03:45,740
Hoe voorkom je nou dat mensen meteen stelling nemen over een etisch dilemma...

53
00:03:45,740 --> 00:03:48,440
en daar dan ook niet meer uitkomen?

54
00:03:48,440 --> 00:03:53,380
Dus je hebt het met elkaar over, en de ene is heel snel voor, de andere is heel snel tegen.

55
00:03:53,380 --> 00:03:55,880
Hoe ga je daar dan mee om?

56
00:03:55,880 --> 00:03:57,880
Ja, ik denk doorvragen.

57
00:03:57,880 --> 00:04:02,640
We hebben ook binnen TNO wel ervaring in transdisciplinair samenwerken.

58
00:04:02,640 --> 00:04:08,240
Dus een data scientist, en een legal, en iemand van operaties, en nog iemand rond de tafel.

59
00:04:08,240 --> 00:04:12,240
Dan zegt iemand wat, dat is fijn. Als iemand stellig is, dan kunnen we het erover hebben.

60
00:04:12,240 --> 00:04:15,240
Maar het gaat ook om door te vragen, van wat bedoel je daarmee?

61
00:04:15,240 --> 00:04:24,240
Kun je uitleggen? Kun je de aannames die jij meeneemt, vanuit waar je die bewering doet, op die ook uitleggen?

62
00:04:24,240 --> 00:04:30,240
Dus het is voornamelijk doorvragen ook, en elkaar luisteren naar de antwoorden die ze geven.

63
00:04:30,240 --> 00:04:36,240
Dus zorgen dat je de perspectief van de ander begrijpt, of open staat om het te begrijpen.

64
00:04:36,240 --> 00:04:42,040
die als een compleet beeld van je omgeving te schetsen om dan een route te gaan bepalen.

65
00:04:42,040 --> 00:04:44,940
Ja, compleet wordt het niet, maar het wordt wel compleeter.

66
00:04:44,940 --> 00:04:47,840
Als je meerdere mensen aan het woord laat en je luistert er een eindje naar...

67
00:04:47,840 --> 00:04:50,840
en je vraagt dus door wat bedoel je precies en hoezo en verleggen ze uit.

68
00:04:50,840 --> 00:04:53,240
Ja, het wordt een compleeter beeld.

69
00:04:53,240 --> 00:04:57,240
En heb je situaties, zoals Joop net zei, van je zit misschien wel eens in een impasse.

70
00:04:57,240 --> 00:05:00,240
Ik zeg A en die zegt B en je komt er niet uit.

71
00:05:00,240 --> 00:05:03,240
Kom je dat in de praktijk wel eens tegen en hoe wordt er dan mee omgegaan?

72
00:05:03,240 --> 00:05:09,440
Ik ben heel vaak blij dat ik bij TNO werk, want we hebben heel veel nieuwsgierige mensen.

73
00:05:09,440 --> 00:05:11,240
En ook heel veel mensen met verschillende expertise.

74
00:05:11,240 --> 00:05:14,240
Dus vaak blijft het gesprek gewoon doorgaan.

75
00:05:14,240 --> 00:05:18,240
Dus dan zegt diegene wat en dan kan die ander weer een vraag over stellen of een ander perspectief naast zetten.

76
00:05:18,240 --> 00:05:24,240
Echt impasses heb je misschien eerder als er heel veel zeg maar at stake is.

77
00:05:24,240 --> 00:05:27,240
Hoe zeg je het in het Nederlands?

78
00:05:27,240 --> 00:05:29,240
Ja precies, als er heel veel op het spel staat.

79
00:05:29,240 --> 00:05:31,240
Op het spel staat, exact. Dankjewel.

80
00:05:31,240 --> 00:05:36,960
Dat is veel meer in een soort van bedrijfscontext, waarbij harde financiële belangen van horen.

81
00:05:36,960 --> 00:05:42,960
Het kan wel zijn dat jij die social media app wat meer fair, wat dan ook wil hebben,

82
00:05:42,960 --> 00:05:45,320
wat minder verslavende wil hebben, bijvoorbeeld.

83
00:05:45,320 --> 00:05:50,240
Maar ja, ons businessmodel is namelijk gebaseerd op veel bezoekers, lang blijven zitten en

84
00:05:50,240 --> 00:05:51,360
afstandslinie zijn verkopen.

85
00:05:51,360 --> 00:05:56,040
Dus ja, dat overroelt zeg maar, dan een andere overweging.

86
00:05:56,040 --> 00:05:57,480
Je triggerde mij.

87
00:05:57,480 --> 00:05:59,480
Je zegt van veel nieuwsgierige mensen.

88
00:05:59,480 --> 00:06:05,480
Iets wat ook nogal een beetje een afdronk is als mensen het over ethiek hebben, is de eindeloze discussies.

89
00:06:05,480 --> 00:06:10,480
Hoe voorkom je weer dat je in de eindeloosheid van het predeneren en daarin gaat hangen?

90
00:06:10,480 --> 00:06:12,480
Ja, dat is een goede vraag.

91
00:06:12,480 --> 00:06:17,480
Ik heb op een gegeven moment iets ontwikkeld wat we zijn genoemd 'rapid ethical deliberation'.

92
00:06:17,480 --> 00:06:19,480
Dat is dan ook zoals geruststelling daarvoor bedoeld.

93
00:06:19,480 --> 00:06:21,480
Ook een zorg die ik zelfs heb.

94
00:06:21,480 --> 00:06:30,480
van eindeloos filosoferen of van in je votuien... Armchair Philosopher.

95
00:06:30,480 --> 00:06:34,480
Het boek is in het Engels geschreven.

96
00:06:34,480 --> 00:06:40,480
Een beetje een votuifilosoof.

97
00:06:40,480 --> 00:06:43,480
Dus niet eindeloos door... Maar je moet vooral tot actie komen.

98
00:06:43,480 --> 00:06:46,480
Vandaar dat ik het Rapid Ethical Deliberation heb genoemd...

99
00:06:46,480 --> 00:06:49,480
om ook aansluiting bij agile en scrum en dat soort dingen voor jou.

100
00:06:49,480 --> 00:06:52,480
Wat kun je in 60 minuten, 90 minuten bereiken?

101
00:06:52,480 --> 00:06:55,480
Goeie vragen stellen, die je iets nauwkeuriger kunt stellen.

102
00:06:55,480 --> 00:06:58,480
Actiepunten voor dingen die je nog moet uitzoeken.

103
00:06:58,480 --> 00:07:04,480
Actiepunten voor dingen die je nog buiten je bedrijf of binnen je team moet uitzoeken.

104
00:07:04,480 --> 00:07:09,480
Waarmee het altijd praktisch wordt en ook redelijk kort cyclies blijft.

105
00:07:09,480 --> 00:07:11,480
Dat is inderdaad wel heel mooi.

106
00:07:11,480 --> 00:07:14,480
Kort cyclies maken en ook zorgen dat het gewoon een eind is.

107
00:07:14,480 --> 00:07:17,480
En daarna weer even de tijd apart gaat om er weer los over na te kunnen denken.

108
00:07:17,480 --> 00:07:20,040
bij elkaar komen met of nieuwe inzichten of nieuwe onderzoeken.

109
00:07:20,040 --> 00:07:29,160
Ja, en terug te komen, want je zei net van, bijvoorbeeld, stel je zou een social media app hebben...

110
00:07:29,160 --> 00:07:32,080
en je optimaliseert daar op schermtijd.

111
00:07:32,080 --> 00:07:37,600
Nou, dat is misschien niet heel erg ethisch, zeg maar, vanuit maatschappelijk oogpunt.

112
00:07:37,600 --> 00:07:44,160
Maar in het begin van dit soort trajecten worden er natuurlijk wel, zeker in het bedrijfsleven, vaak...

113
00:07:45,280 --> 00:07:54,360
metrieken genomen die doordruppelen om ervoor te zorgen dat het machine learning model of het AI systeem dat dat daarbij past.

114
00:07:54,360 --> 00:08:00,600
En dat zijn niet direct aan ethiek gerelateerde doelstellingen.

115
00:08:00,600 --> 00:08:07,520
Hoe zorg je dat je die constant meeneemt en ook dan wel valideert?

116
00:08:07,520 --> 00:08:09,320
Want je hebt het over scrum, iteratief.

117
00:08:09,960 --> 00:08:16,320
Het zou betekenen dat je je ethische waardes eigenlijk ook constant, iteratief, eigenlijk zou moeten valideren.

118
00:08:16,320 --> 00:08:18,320
Of zeg ik nou iets heel vreemds?

119
00:08:18,320 --> 00:08:24,400
Je hebt dadelijk veel meer verstand, ben ik, van de praktijk van zo'n iteratief proces.

120
00:08:24,400 --> 00:08:30,880
Als ik daarop doorassocieer, ja, vanaf het begin af aan wil je misschien ook wel requirements voor ethiek meenemen.

121
00:08:30,880 --> 00:08:37,040
Dus behalve dat je zegt, de app moet goed werken technisch, behalve dat je zegt, de app moet bepaalde voordelen bieden voor de gebruiker.

122
00:08:37,040 --> 00:08:44,040
Je moet ook zeggen dat deze social media app mensen in staat moet stellen om wat aan fact-checking te doen.

123
00:08:44,040 --> 00:08:49,040
Dus niet zomaar een post meteen liken en resharen, maar heb je het ook gelezen?

124
00:08:49,040 --> 00:08:56,040
Of bijvoorbeeld bij een reactie op iemand anders een post even dertig seconden onthold houden,

125
00:08:56,040 --> 00:09:01,040
om te kijken of je initiële postsite-verontwaardigingen kan weghebben.

126
00:09:01,040 --> 00:09:06,040
Dan weet je nog zeker dat je dit wel wilt posten, of denk even na voordat je het post.

127
00:09:06,040 --> 00:09:11,600
en mechanismes om bijvoorbeeld die polarisatie of dat verspreiden van fake

128
00:09:11,600 --> 00:09:16,000
nieuws zeg maar wat wat wat te beperken. Ja. Ik neem wat voorbeelden die notoire

129
00:09:16,000 --> 00:09:19,920
voor de social media zijn. Nou, ik denk dat het ook heel erg... Als je van het begin af aan bij die app die eisen ook stelt,

130
00:09:19,920 --> 00:09:24,600
ja, dan krijg je gewoon een andere app. Ja, en ik denk dat het juist hele belangrijke

131
00:09:24,600 --> 00:09:30,800
voorbeelden zijn, want volgens mij zeg maar hebben de social media bouwers op

132
00:09:30,800 --> 00:09:34,240
dit moment heel goed in de gaten zeg maar wat het betekent. En die willen

133
00:09:34,240 --> 00:09:41,080
absoluut niet dat je nadenkt en het juist opgooit om ervoor te zorgen dat er heel veel reuring ontstaat

134
00:09:41,080 --> 00:09:45,960
waardoor de volgende weer reageert. Dus die hebben een soort van omgekeerde etiek zou je misschien kunnen zeggen.

135
00:09:45,960 --> 00:09:57,640
Ja, en iets gericht op engagement. Mensen zo vaak, maar ook zo lang mogelijk zo engaged mogelijk op het ruziezoekende af

136
00:09:57,640 --> 00:09:59,640
daar aan boord te houden.

137
00:09:59,640 --> 00:10:02,840
Maar om even terug te koppelen op jouw vraag en het antwoord,

138
00:10:02,840 --> 00:10:04,840
voor mezelf heb ik het goed begrepen,

139
00:10:04,840 --> 00:10:07,840
is dus eigenlijk, ja, iteratief,

140
00:10:07,840 --> 00:10:11,840
heb je een bepaald aantal statistieken waar je op optimaliseert in de techniek.

141
00:10:11,840 --> 00:10:14,440
En ook requirements in de oplossing,

142
00:10:14,440 --> 00:10:18,240
waarbij we nu in de praktijk vaak zien dat dat is op engagement,

143
00:10:18,240 --> 00:10:19,440
waar we het net even over hadden.

144
00:10:19,440 --> 00:10:22,040
Maar dat we daar eigenlijk nieuwe requirements aan toe moeten voegen,

145
00:10:22,040 --> 00:10:24,040
tijdens de designfase wat mij betreft,

146
00:10:24,040 --> 00:10:27,240
is ook de ethische zaken om te zetten naar requirements

147
00:10:27,240 --> 00:10:31,900
voor de implementatie, zodat je eigenlijk zoals je je applicatie en je modellen ook

148
00:10:31,900 --> 00:10:33,320
continu blijft evalueren.

149
00:10:33,320 --> 00:10:36,800
Dus ook die automagisch meeneemt in dat proces van herevaluatie.

150
00:10:36,800 --> 00:10:40,980
Ja, ik kan een voorbeeld geven om het misschien iets praktischer te maken.

151
00:10:40,980 --> 00:10:45,040
Veel in mijn werk heb ik ook inspireerd door Shannon Veller haar werk.

152
00:10:45,040 --> 00:10:50,440
Zij heeft een boek geschreven in 2016, Technology and the Virtues, waarbij ze deugdetiek een

153
00:10:50,440 --> 00:10:55,680
hele mooie update geeft met hoe deugdetiek doorspelt in het gebruiken van allerlei technologieën.

154
00:10:55,680 --> 00:10:57,040
Wat is deugdetiek?

155
00:10:57,040 --> 00:11:01,040
Oh, deugdetiek, ja. Je hebt vier soorten ethiek die normaaliter worden behandeld.

156
00:11:01,040 --> 00:11:04,040
Plus en min van gevolgenethiek,

157
00:11:04,040 --> 00:11:09,040
plichten en rechten van plichtethiek, relatieethiek, feministische ethiek,

158
00:11:09,040 --> 00:11:12,040
en dan de vierde, deugdetiek, tenminste die volgorde behandeling.

159
00:11:12,040 --> 00:11:15,040
Deugdetiek gaat terug naar het oude Griekenland van Aristoteles bijvoorbeeld.

160
00:11:15,040 --> 00:11:20,040
En hij zegt dit van, welke deugden hebben wij nodig om goed samen te kunnen leven,

161
00:11:20,040 --> 00:11:25,040
om het goede leven te leven en om samen te leven in een polis in zijn geval in Athene.

162
00:11:25,040 --> 00:11:28,040
Bij ons kun je aan de pols denken, Nederland of de EU.

163
00:11:28,040 --> 00:11:30,540
Waarin we regels afspreken hoe het goed te doen is.

164
00:11:30,540 --> 00:11:32,540
En om het goede leven te leven.

165
00:11:32,540 --> 00:11:36,040
En bijvoorbeeld dan zegt ze een social media app...

166
00:11:36,040 --> 00:11:41,540
die ondermijnt, gewoon door hoe die is gemaakt...

167
00:11:41,540 --> 00:11:44,540
met piep piep belletjes, notificaties...

168
00:11:44,540 --> 00:11:48,540
ondermijnt die van heel veel mensen hun vermogen door zelfbeheersing.

169
00:11:48,540 --> 00:11:50,540
Zelfbeheersing is een klassieke deugd.

170
00:11:51,540 --> 00:11:55,540
Dan ben je een half uur verder en denk je, wat deed ik ook alweer op Twitter of Facebook?

171
00:11:55,540 --> 00:12:01,040
Dan kun je ook een andere app bedenken die zelfbeheersing juist helpt te cultiveren.

172
00:12:01,040 --> 00:12:04,540
Dus dan ga ik naar Facebook of Twitter en dan zeg ik van...

173
00:12:04,540 --> 00:12:08,540
Oh, ik wil wel even iets doen. Dan komt hij eerst met een pop-up van...

174
00:12:08,540 --> 00:12:11,540
Wat wil je eigenlijk doen en hoeveel minuten wil je er ongeveer aan besteden?

175
00:12:11,540 --> 00:12:16,540
Dan ben ik natuurlijk slim genoeg om te zeggen, nou, vijf minuutjes lijken me wel zat.

176
00:12:16,540 --> 00:12:20,540
En dan gaat na vijf minuten inderdaad dat wekkertje en dan heb ik zelf natuurlijk alsnog de keuze.

177
00:12:20,540 --> 00:12:21,940
Dat is op zich meer een nudge.

178
00:12:21,940 --> 00:12:26,140
Maar dan houdt hij me een beetje bij de les van wat ik ook weer belangrijk vond.

179
00:12:26,140 --> 00:12:28,460
Dus dan kan hij mij helpen de deugd van zelfweerziening.

180
00:12:28,460 --> 00:12:29,360
Ja, precies.

181
00:12:29,360 --> 00:12:30,620
Dat zou mij wel helpen.

182
00:12:30,620 --> 00:12:32,460
Ja? - Ja, deze feature.

183
00:12:32,460 --> 00:12:35,660
Ik heb wel avonden van ik ga even nog even dit uitzoeken, want daar ben ik wel geïnteresseerd.

184
00:12:35,660 --> 00:12:37,400
En dan kom ik van artikel naar artikel naar artikel.

185
00:12:37,400 --> 00:12:40,800
Dat is nog niet eens persisch social media, maar dan zou mij zo'n trigger wel even helpen.

186
00:12:40,800 --> 00:12:43,260
Je wil alleen even een half uurtje dit onderwerp onderzoeken.

187
00:12:43,260 --> 00:12:44,600
Heb je dat nu gedaan of niet?

188
00:12:44,600 --> 00:12:46,500
Dat zou mij wel helpen, ja.

189
00:12:46,500 --> 00:12:49,460
En een nudge, je noemt nudge. Wat is een nudge?

190
00:12:49,480 --> 00:12:53,480
Dat wil meer zeggen van het is een beïnvloeding, maar waarbij degene die beïnvloed wordt,

191
00:12:53,480 --> 00:12:55,200
alsnog gewoon keuzevrijheid heeft.

192
00:12:55,200 --> 00:13:00,480
Je kan hem wegklikken, je kan door, maar je krijgt even een reminder van wat wilde je ook weer.

193
00:13:00,480 --> 00:13:04,280
Dus dat het wat meer een explicietere keuze wordt.

194
00:13:04,280 --> 00:13:08,480
Overigens het klassieke nudge is juist gebaseerd op onbewuste nudges.

195
00:13:08,480 --> 00:13:11,280
Zo van je loopt bij de kast en je denkt, oh snickers lekker.

196
00:13:11,280 --> 00:13:16,480
Of omgekeerd bij de bedrijfskantine, oh fruit, wat dan meer naar voren ligt, lekker.

197
00:13:16,480 --> 00:13:21,480
Dus het is meer een bewustmakende nudge, wat dan misschien niet per se een nudge mag heten.

198
00:13:21,480 --> 00:13:27,080
Ja, ik heb een keer op een project gezeten waar je grote kantoortuinen had,

199
00:13:27,080 --> 00:13:32,680
maar dan had je ook van die cubicles waar je kon zitten, waar je dan helemaal in concentratie ging.

200
00:13:32,680 --> 00:13:36,680
En dan ging bijvoorbeeld rond lunchtijd, zat er even zo'n dipje in het licht,

201
00:13:36,680 --> 00:13:39,280
en 's avonds om vijf uur, een half zes, nog een keer.

202
00:13:39,280 --> 00:13:45,080
Om je even te laten weten van, nou ja, misschien is het wel tijd om even te stoppen.

203
00:13:45,080 --> 00:13:47,080
Maar je kon inderdaad door.

204
00:13:47,080 --> 00:13:49,080
Ja.

205
00:13:49,080 --> 00:13:55,480
Dus dat perspectief van Shannon Veller over welke deugden hebben we nodig om goed samen te kunnen leven.

206
00:13:55,480 --> 00:14:00,880
En hoe kan technologie daarbij ofwel dat onderuit halen ofwel juist in positieve zin je daarbij helpen.

207
00:14:00,880 --> 00:14:06,680
Ik vind dat een heel mooi perspectief omdat die andere ethische perspectieven zijn ook heel mooi hoor.

208
00:14:06,680 --> 00:14:09,680
De plussen en minnen, de plichten en rechten en de relatieethiek.

209
00:14:09,680 --> 00:14:13,080
Maar deugden die ik beweerd ben, ik ga er wel een hele tijd in met hem mee,

210
00:14:13,080 --> 00:14:18,560
is vooral bij zoiets als AI heel belangrijk, omdat AI is nog helemaal niet uitgekristalliseerd.

211
00:14:18,560 --> 00:14:22,040
Wat zijn dan precies die apps en hoe gaan we die gebruiken en hoe gaan we die inrichten?

212
00:14:22,040 --> 00:14:29,680
Hij zegt juist bij dat soort emerging technologies, emergerende technologieën, opkomende technologieën,

213
00:14:29,680 --> 00:14:34,640
die nog niet helemaal uitkristalliseerd zijn of verre van uitkristalliseerd, kan juist

214
00:14:34,640 --> 00:14:37,720
deugdritiek in een soort van overal visie geven.

215
00:14:37,720 --> 00:14:39,640
Wat wilden we ook weer voor samenleving?

216
00:14:39,640 --> 00:14:41,960
Hoe wilden we ook weer daar goed samen in leven?

217
00:14:41,960 --> 00:14:43,960
Wat kan daarbij helpen?

218
00:14:43,960 --> 00:14:50,960
Wat zijn dingen die je gebruikt in de workshops om dit soort gesprekken te starten?

219
00:14:50,960 --> 00:14:53,960
Die Rapid Ethical Deliberation bestaat uit drie stappen.

220
00:14:53,960 --> 00:14:56,960
Eentje is stap nul.

221
00:14:56,960 --> 00:14:59,960
Dat is belangrijk om het ook veel praktischer te maken.

222
00:14:59,960 --> 00:15:03,960
Zodat je niet dat theoreet of filosofische tussenaanstekens hebt.

223
00:15:03,960 --> 00:15:10,960
Stap nul is iemand van het projectteam vertelt wat het product of het systeem of de dienst of de applicatie is waar het over gaat.

224
00:15:10,960 --> 00:15:15,960
En dat om te voorkomen dat gedurende de rest van het gesprek mensen zeggen,

225
00:15:15,960 --> 00:15:16,960
ja, het hangt er vanaf.

226
00:15:16,960 --> 00:15:17,960
Nee, het hangt niet vanaf.

227
00:15:17,960 --> 00:15:23,960
Want we hebben net gezien, gehoord, een plaatje, een schets, hoe het werkt.

228
00:15:23,960 --> 00:15:25,960
Vaak zeggen mensen, ja maar Marc, het is nog niet af.

229
00:15:25,960 --> 00:15:27,960
Dan zeg ik, dat is alleen maar handig.

230
00:15:27,960 --> 00:15:28,960
Precies, dan kun je er nog wat mee.

231
00:15:28,960 --> 00:15:32,960
Exact, dan kun je nog ingrijpen, bijsturen.

232
00:15:32,960 --> 00:15:36,960
Maar dat wil niet zeggen, het is vaak toch wel even een opdracht, opgave,

233
00:15:36,960 --> 00:15:41,960
Dat een van de mensen uit het projectteam zijn of haar uiterste best doet om het.

234
00:15:41,960 --> 00:15:44,560
Het zou er zo uit kunnen gaan zien.

235
00:15:44,560 --> 00:15:47,160
We hebben een A of een B variant, dat heb je ook wel eens.

236
00:15:47,160 --> 00:15:48,360
Enfin, dat is stap nul.

237
00:15:48,360 --> 00:15:53,760
Stap één is dat je van verschillende kanten naar kijkt en zegt, wat zou er mis kunnen gaan?

238
00:15:53,760 --> 00:15:55,560
Je kan ook zeggen, wat zou er goed kunnen gaan?

239
00:15:55,560 --> 00:15:58,760
Je hebt zelfs ook gevallen waarbij je zegt, stel dat het een ontiegelijk succes is,

240
00:15:58,760 --> 00:16:00,360
want iedereen heeft altijd overal dit gebruikt.

241
00:16:00,360 --> 00:16:01,960
Dat kan ook weer problemen geven.

242
00:16:01,960 --> 00:16:02,960
Ja, zeker.

243
00:16:02,960 --> 00:16:04,960
Maar goed, dingen die je af wil vragen ethisch.

244
00:16:04,960 --> 00:16:09,960
Wat zouden er voor kosten of risico's of concerns of harms zijn?

245
00:16:09,960 --> 00:16:12,960
Stap 2 is dat je daarover gaat praten met elkaar.

246
00:16:12,960 --> 00:16:13,960
Daar zal ik straks meer over vertellen.

247
00:16:13,960 --> 00:16:15,960
Daar kun je dus die vier perspectieven van gebruiken.

248
00:16:15,960 --> 00:16:18,960
En stap 3 is overgaan tot actie.

249
00:16:18,960 --> 00:16:20,960
Dus zo'n rapid ethical deliberation.

250
00:16:20,960 --> 00:16:23,960
Einde daarvan is van jongens, wat hebben we nou gevonden?

251
00:16:23,960 --> 00:16:26,960
Hebben we direct aanknopingspunten om direct al in te grijpen bij het sturen?

252
00:16:26,960 --> 00:16:27,960
Moet je vooral doen.

253
00:16:27,960 --> 00:16:31,960
Maar ook alvast in te richten dat je twee maanden later of twee weken later even kijkt.

254
00:16:31,960 --> 00:16:33,720
heeft het bijsturen geholpen.

255
00:16:33,720 --> 00:16:35,840
Of ook andere dingen wat je net al zei,

256
00:16:35,840 --> 00:16:38,760
dat gaan we even uitzoeken de komende paar weken.

257
00:16:38,760 --> 00:16:43,640
Dus stap twee, er samen over praten, is voor mij de kern.

258
00:16:43,640 --> 00:16:46,240
Vandaar dat ik dat deliberatie heb genoemd.

259
00:16:46,240 --> 00:16:50,160
Ja, precies. Ik vind het ook wel heel mooi dat je het meteen koppelt aan acties.

260
00:16:50,160 --> 00:16:52,320
Actionable.

261
00:16:52,320 --> 00:16:55,680
Ja, maar misschien is dat meer de techneutermij.

262
00:16:55,680 --> 00:17:01,200
Je wil in ieder geval er iets mee kunnen en ermee doorgaan.

263
00:17:01,200 --> 00:17:05,200
Daarom heb ik het ook zo genoemd en het spreekt ook inderdaad aan.

264
00:17:05,200 --> 00:17:07,800
We moeten wel meteen bijzeggen, die acties zijn niet dat je...

265
00:17:07,800 --> 00:17:09,800
"Oh, nu is alles helder na een uur."

266
00:17:09,800 --> 00:17:13,000
Maar wel, "Oh, nu is na een uur het een en ander scherper."

267
00:17:13,000 --> 00:17:16,400
Wat we weten, wat we niet weten, wat we moeten uitzoeken,

268
00:17:16,400 --> 00:17:18,400
wat voor richting we verder willen.

269
00:17:18,400 --> 00:17:23,200
En dan vooral ook de aanmoediging om twee, drie weken later nog een keer zo'n uurtje.

270
00:17:23,200 --> 00:17:25,000
Of twee maanden later nog een keer zo'n uurtje.

271
00:17:25,000 --> 00:17:28,400
Het is niet de bedoeling dat je dat één keer doet en dan klaar bent.

272
00:17:28,400 --> 00:17:29,400
Het is iteratief.

273
00:17:29,400 --> 00:17:36,680
Een vraag die bij mij opspeelt is, wat zijn de disciplines die in dat soort workshops bij elkaar komen om dit soort gesprekken met elkaar te voeren?

274
00:17:36,680 --> 00:17:38,680
Ja, hele goede vraag.

275
00:17:38,680 --> 00:17:41,400
Zo veel mogelijk zou je bijna zeggen.

276
00:17:41,400 --> 00:17:45,640
Vanuit het projectteam komen er dan vaak de technisch georiënteerde mensen.

277
00:17:45,640 --> 00:17:47,640
Heel nuttig.

278
00:17:47,640 --> 00:17:51,800
Je moet ook weten, wat zijn de opties, hoe kunnen we het maken, wat zijn de voordelen en nadelen.

279
00:17:51,800 --> 00:17:55,240
Je hebt ook altijd iemand nodig vanuit de toepassing, de applicatie.

280
00:17:55,240 --> 00:17:59,000
Iemand vanuit de praktijk, de werkvloer, de toekomstige gebruiker kun je zelfs zeggen.

281
00:17:59,000 --> 00:18:06,600
En dan nog wat mensen die wat meer legal, ethical of societal, van het maatschappij,

282
00:18:06,600 --> 00:18:09,600
van het juridisch, van het ethisch, daarover kunnen meepraten.

283
00:18:09,600 --> 00:18:14,000
Vaak helpt het als die mensen ook wel goed door hebben, wat is dit voor domein, wat is

284
00:18:14,000 --> 00:18:15,000
dit voor branche.

285
00:18:15,000 --> 00:18:20,720
Want anders krijg je een soort van disconnect, van ja, maar dat werkt niet, of dat moet wel

286
00:18:20,720 --> 00:18:21,720
zo.

287
00:18:21,720 --> 00:18:24,160
Dus het is goed als die gewoon weten wat er inhoudelijk over gaat.

288
00:18:24,160 --> 00:18:31,760
En er is ook vaak nog wel, maar dat is bijna meer voor vorderden, dat je ook mensen van buiten de organisatie erbij vraagt.

289
00:18:31,760 --> 00:18:41,560
Misschien vanuit een NGO die over mensrechten kan praten, misschien vanuit een koepelorganisatie die bijvoorbeeld algemene belangen wat meer in de gaten kan houden.

290
00:18:41,560 --> 00:18:45,160
Maar dat kan ook in een tweede of derde sessie, want anders krijg je wel...

291
00:18:45,160 --> 00:18:45,960
- Heel groot.

292
00:18:45,960 --> 00:18:49,160
- Ja, heel groot. En dan begint het al met heel veel rumoer.

293
00:18:49,160 --> 00:18:53,360
En je kan het ook opbouwen, complexiteit.

294
00:18:53,360 --> 00:18:59,960
Ik denk dat je dit best wel snel wil doen bij nieuwe initiatieven, innovaties, zaken die nog misschien helemaal scherp zijn...

295
00:18:59,960 --> 00:19:04,440
...om dit soort gesprekjes wel te voeren, waarbij misschien niet iedereen het daglicht van die oplossing gaat zien.

296
00:19:04,440 --> 00:19:07,720
Dus misschien dat je dan dat wil zou opbouwen.

297
00:19:07,720 --> 00:19:16,520
Heb je een... Ik weet niet of deze vraag te lastig is hoor, maar is er ergens een soort van rode draad te vinden...

298
00:19:16,520 --> 00:19:21,640
...van een top drie die regelmatig uit die eerste 60 tot 90 minuten komt?

299
00:19:21,640 --> 00:19:24,640
Ja, dat is wel een goede. Ik pakte trouwens nog een vraag terug van je, Joop.

300
00:19:24,640 --> 00:19:27,640
Je zei eerder, hoe doe je dat?

301
00:19:27,640 --> 00:19:30,640
Dat tweede stuk, die stap twee, dus daarover praten,

302
00:19:30,640 --> 00:19:34,640
dat doe je dus, wat mij betreft, idealiter vanuit die vier verschillende perspectieven.

303
00:19:34,640 --> 00:19:37,640
Dus we gaan op een gegeven moment zeggen, oké, dit is de applicatie,

304
00:19:37,640 --> 00:19:39,640
wat zijn de plussen en minnen?

305
00:19:39,640 --> 00:19:42,640
Voor zover je je kaart kunt brengen, is het een goed idee om die in de kaart te brengen.

306
00:19:42,640 --> 00:19:44,640
Dan kan je zeg maar in een engere zin bekijken,

307
00:19:44,640 --> 00:19:46,640
voor de gebruiker of voor de klant,

308
00:19:46,640 --> 00:19:49,640
heeft het een plus in de midden, of voor de organisatie die het gaat toepassen.

309
00:19:49,640 --> 00:19:51,640
Maar je kan die kring ook wat breder trekken.

310
00:19:51,640 --> 00:19:54,160
Waar vallen dan de kosten?

311
00:19:54,160 --> 00:19:59,560
ChatGTP bijvoorbeeld wordt getraind door gigworkers uit Afrika voor minimumloontjes of daaronder.

312
00:19:59,560 --> 00:20:03,360
Dat is niet echt fair, zou je kunnen zeggen, qua verdeling van plus en minne.

313
00:20:03,360 --> 00:20:08,880
En alle baten komen dan weer bij een paar high tech bedrijven, big tech bedrijven, VVS, ook.

314
00:20:08,880 --> 00:20:11,960
Dus je kan dat plus en minne klein of groot trekken.

315
00:20:11,960 --> 00:20:15,480
De tweede perspectief die we vaak gebruiken is plichtethiek.

316
00:20:15,480 --> 00:20:19,040
Wat moet je doen als organisatie?

317
00:20:19,040 --> 00:20:23,680
Dat is ook wel mooi om dat vanuit de farmaceutische industrie te leren.

318
00:20:23,680 --> 00:20:28,440
Of vanuit andere consumenten productenwetgeving.

319
00:20:28,440 --> 00:20:33,280
Waarom mag je eigenlijk AI zomaar in de wereld op de markt knallen?

320
00:20:33,280 --> 00:20:39,280
Normaal ter medicijnen en voedingsmiddelen heb je de plicht om eerst een hele serie tests.

321
00:20:39,280 --> 00:20:42,280
En dan pas heb je je stempeltje, zeg maar, dat je door mag.

322
00:20:42,280 --> 00:20:45,680
Dus dat zou wat mij betreft ook wel een plicht kunnen worden.

323
00:20:45,680 --> 00:20:50,680
Ik denk ook dat AI law, de AI wetgeving vanuit de EU, dat ook wel een heel stuk gaat doen.

324
00:20:50,680 --> 00:20:52,680
En ook met toezichthouders erop.

325
00:20:52,680 --> 00:20:55,680
In ieder geval, zodra je voor de hoge risico applicaties wordt,

326
00:20:55,680 --> 00:20:59,680
dan wordt het een verplichting dat je in een sandbox, dus in een afgeschermde omgeving,

327
00:20:59,680 --> 00:21:04,680
moet kunnen aantonen dat hij in ieder geval doet wat hij zou moeten doen.

328
00:21:04,680 --> 00:21:06,680
Ja, betrouwbaarheid, veiligheid in eerste plaats.

329
00:21:06,680 --> 00:21:13,680
Ja, maar of iets dan uiteindelijk nog ethisch is, is denk ik ook best wel moeilijk te checken.

330
00:21:13,680 --> 00:21:24,680
Ja, ethisch is op een gegeven moment ook wel een soort van verzamelterm, want op een gegeven moment kun je zeggen, als het ding betrouwbaar is, en het ding is veilig, dan zijn het sowieso, hoe je het ook wendt of kiest, plusjes aan de ethische kant.

331
00:21:24,680 --> 00:21:29,680
Want het is beter dan onveilig en onbetrouwbaar.

332
00:21:29,680 --> 00:21:30,680
Precies.

333
00:21:30,680 --> 00:21:34,680
Dat tweede perspectief van plichten en rechten, er zitten ook rechten bij.

334
00:21:34,680 --> 00:21:38,880
Hoogschool Utrecht, of is het Universiteit Utrecht? Ik denk Hooghooltrecht.

335
00:21:38,880 --> 00:21:42,260
Die hebben ook die Human Rights Impact Assessment,

336
00:21:42,260 --> 00:21:44,260
of Fundamental Rights Impact Assessment.

337
00:21:44,260 --> 00:21:47,460
De IAMA bedoel ik, denk ik. - Ja, precies.

338
00:21:47,460 --> 00:21:50,380
Ja, dat is van de universiteit. - Zeg jij het maar hoe het precies heet.

339
00:21:50,380 --> 00:21:54,980
Het is de Impact Assessment voor Mensenrechten en Algorithmes.

340
00:21:54,980 --> 00:21:57,300
Die is het. - Ontwikkeld door de Universiteit van Utrecht.

341
00:21:57,300 --> 00:21:58,820
Door Mirco.

342
00:21:58,820 --> 00:22:02,220
Die weet ik niet, maar Iris Muijs is daar bijvoorbeeld bij betrokken.

343
00:22:02,220 --> 00:22:03,460
We bedoelen dezelfde groep, afsluitend.

344
00:22:03,480 --> 00:22:05,480
Dus excuses voor, het was de Utrecht.

345
00:22:05,480 --> 00:22:05,980
Oké, ja.

346
00:22:05,980 --> 00:22:07,980
De Universiteit Utrecht.

347
00:22:07,980 --> 00:22:10,980
Ik ga snel door naar die derde.

348
00:22:10,980 --> 00:22:12,980
Hoe kun je nog meer soorten vragen stellen?

349
00:22:12,980 --> 00:22:15,980
Je kunt ook over, dat noemen we, heb ik relatieethiek genoemd.

350
00:22:15,980 --> 00:22:20,480
Daar zit ook feministische ethiek en care ethics bij.

351
00:22:20,480 --> 00:22:21,980
Maar dat is een lange verhaal, moet ik helemaal uitleggen.

352
00:22:21,980 --> 00:22:25,480
Maar het gaat over, laat ik bijvoorbeeld van Chad GTP winnen.

353
00:22:25,480 --> 00:22:27,980
Hoe kan dat, als we dat continu gaan gebruiken,

354
00:22:27,980 --> 00:22:31,480
de vermogens om als mens tot mens te communiceren.

355
00:22:31,480 --> 00:22:32,480
Hoe kan dat dat ondergraven?

356
00:22:32,480 --> 00:22:35,480
En ook bijvoorbeeld kan het vragen stellen over macht.

357
00:22:35,480 --> 00:22:41,240
Ik maak daar straks wel een toespeling op van als een handjevol bij techbedreigingen

358
00:22:41,240 --> 00:22:44,600
uit de VS of uit China, want die hebben eenzelfde soort ding maar net anders.

359
00:22:44,600 --> 00:22:46,200
Ook zo'n concentratie.

360
00:22:46,200 --> 00:22:51,480
Als die heel veel macht aan zich toetreken, dan kun je er ook vragen over stellen vanuit

361
00:22:51,480 --> 00:22:52,480
de relatieethiek.

362
00:22:52,480 --> 00:22:55,520
En die vierde, die heb ik al genoemd, de deugdethiek.

363
00:22:55,520 --> 00:23:00,040
Hoe kan het ons helpen om bepaalde deugden wel of niet te ontwikkelen of ondergraven

364
00:23:00,040 --> 00:23:01,040
juist.

365
00:23:01,040 --> 00:23:07,120
terug naar zo'n Rapid Ethical Deliberation. Dat heb ik vaak gedaan. Ik heb het zelfs ook wel in

366
00:23:07,120 --> 00:23:14,440
de coronatijd gedaan. Dan hadden we zo'n miroboard. En er waren bijvoorbeeld mensen 16e en die gingen

367
00:23:14,440 --> 00:23:18,880
dan in vier groepjes van vier. En ieder zo'n kwadrant en dan had ik zo eenvoudige vragen

368
00:23:18,880 --> 00:23:23,560
gegeven. En het kwadrant zijn dan die vier items die je bedoelt? Ja, die had ik ook als kwadrant

369
00:23:23,560 --> 00:23:27,680
de vorm gegeven. En terwijl ik zeg maar als faciliteitraar keek, dan zag je zo die vier keer

370
00:23:27,680 --> 00:23:32,040
Je zag mensen daar textjes optypen, brainstormen.

371
00:23:32,040 --> 00:23:37,520
En na een kwartiertje hebben ze dan een aantal top drie van concerns die ze hebben binnen

372
00:23:37,520 --> 00:23:39,160
ieder van die vier perspectieven.

373
00:23:39,160 --> 00:23:41,400
En daar vroeg je ook naar.

374
00:23:41,400 --> 00:23:45,520
Rechtvaardigheid is een heel belangrijke.

375
00:23:45,520 --> 00:23:46,520
Die kom je heel vaak tegen.

376
00:23:46,520 --> 00:23:50,360
Of het nou fairness heet, of het nou bias heet in je trainingsdata.

377
00:23:50,360 --> 00:23:51,360
Is het fair?

378
00:23:51,360 --> 00:23:53,760
Zijn de plus en minnen netjes verdeeld?

379
00:23:53,760 --> 00:23:54,760
Fair verdeeld?

380
00:23:54,760 --> 00:23:57,240
Dat zijn heel veel voorkomende.

381
00:23:57,240 --> 00:24:00,480
Ik denk dat rondom transparantie ook heel veel voorkomt.

382
00:24:00,480 --> 00:24:07,160
En daar kun je ook heel veel kanten mee op van transparantie in technische zin, snappen

383
00:24:07,160 --> 00:24:08,160
wat hij doet.

384
00:24:08,160 --> 00:24:10,840
Dat is bij AI soms niet altijd de belangrijkste vraag.

385
00:24:10,840 --> 00:24:13,040
Het is meer van, kunnen we nog wat sturingen geven?

386
00:24:13,040 --> 00:24:15,280
Kunnen we er nog een beetje naar kijken?

387
00:24:15,280 --> 00:24:20,200
En het kan ook degene die, zeg maar, on the receiving end, hoe zeg je dat in het Nederlands,

388
00:24:20,200 --> 00:24:24,400
aan de ontvangende kant, het slachtoffer wordt van, de data subject in kwestie,

389
00:24:24,400 --> 00:24:27,700
die dus bijvoorbeeld een vlagje heeft vanwege verdenking van fraude,

390
00:24:27,700 --> 00:24:32,600
om maar eens een zijstraat te noemen, kan die inzicht krijgen in hoe komt het daar?

391
00:24:32,600 --> 00:24:36,800
En kan ik dan ook begrijpen welk formulier ik net anders had moeten invullen,

392
00:24:36,800 --> 00:24:40,400
en misschien was het wel een onbedoelde fout, misschien was het een slordigheidje,

393
00:24:40,400 --> 00:24:41,800
maar het formulier heel ingewikkeld was.

394
00:24:41,800 --> 00:24:44,400
- Waar moet je in beroep gaan als je tegen bent?

395
00:24:44,400 --> 00:24:51,000
Ja, dus daar zit ook een heel stuk procedurele rechtvaardigheid bij, gekoepeld aan transparantie.

396
00:24:51,000 --> 00:24:52,600
Dus transparantie hangt heel veel achter.

397
00:24:52,600 --> 00:24:57,960
Uitlegbaarheid, begrijpelijkheid, de mogelijkheden, de effectieve mogelijkheden tot bezwaar maken,

398
00:24:57,960 --> 00:25:01,000
beroep maken, redress krijgen, reparatie krijgen.

399
00:25:01,000 --> 00:25:02,600
Nou ja, dat is een stuk met veel...

400
00:25:02,600 --> 00:25:10,800
Nou, wel het geval dat Niels en ik een hele podcastaflevering hebben opgenomen over allerlei verschillende vormen van transparantie op het gebied.

401
00:25:10,800 --> 00:25:11,600
Ja, die podcast bedoel ik.

402
00:25:11,600 --> 00:25:16,160
Dus als je die nog niet geluisterd hebt, luistert die in ieder geval ook nog eventjes.

403
00:25:16,160 --> 00:25:16,660
Zeker.

404
00:25:16,660 --> 00:25:18,660
Ja, dat is een mooie.

405
00:25:18,660 --> 00:25:22,860
Ja, we hebben trouwens ook nog, ik haal haar er even bij.

406
00:25:22,860 --> 00:25:24,860
Misschien kan jij nog even een vraag stellen.

407
00:25:24,860 --> 00:25:26,860
We hebben namelijk ook nog Aisha.

408
00:25:26,860 --> 00:25:28,860
En die gaat jou zo direct een afsluitende vraag stellen.

409
00:25:28,860 --> 00:25:32,660
Maar ik denk dat Niels in ieder geval ook nog even een vraag heeft.

410
00:25:32,660 --> 00:25:34,660
Dan haal ik haar er even bij.

411
00:25:34,660 --> 00:25:38,660
Je noemde net een leuke workshop tijdens coronaperiode qua Miro.

412
00:25:38,660 --> 00:25:46,060
Was dat nou positief beïnvloed dat mensen remote aan Miro die kwadranten gingen invullen ten opzichte van de fysieke workshops vroeger af?

413
00:25:46,060 --> 00:25:50,860
Oh, ik denk dat het vergelijkbaar is. Met de voor- en nadelen zoals we die kunnen voorstellen.

414
00:25:50,860 --> 00:25:53,860
Het had natuurlijk wel een heel voordeel qua plannen.

415
00:25:53,860 --> 00:25:58,660
Plotseling kon iedereen op de gekste tijd zitten omdat je geen reistijd had en dat soort dingen.

416
00:25:58,660 --> 00:26:01,660
Je kan hetzelfde doen met een...

417
00:26:01,660 --> 00:26:06,860
Zoals we hier zitten, je kunt makkelijk vier tafeltjes maken met vier mensen rondom en dat kan ook tegelijkertijd.

418
00:26:06,860 --> 00:26:12,860
Ik wil de laatste vraag laten aan Aisha.

419
00:26:12,860 --> 00:26:15,060
Het is een eer om je te ontmoeten.

420
00:26:15,060 --> 00:26:19,260
Ik ben Aisha, de AI-assistent van deze podcast.

421
00:26:19,260 --> 00:26:20,860
Mag ik je een vraag stellen?

422
00:26:20,860 --> 00:26:21,860
Ja.

423
00:26:21,860 --> 00:26:27,860
Als AI gevoel voor humor zou kunnen hebben, wat voor grappen zou het dan maken?

424
00:26:27,860 --> 00:26:31,860
Ik heb toevallig een keer een podcast afgehoord met Gary Marcus.

425
00:26:31,860 --> 00:26:34,860
En die zei woordgrappen waarschijnlijk.

426
00:26:34,860 --> 00:26:43,900
Want AI zoals we het vandaag tegenkomen is heel veel de chat-GTP-achtige dingen die heel

427
00:26:43,900 --> 00:26:48,140
goed met woorden kunnen goochelen, mixen, combineren.

428
00:26:48,140 --> 00:26:49,620
Dus woordgrappen.

429
00:26:49,620 --> 00:26:53,340
Dat was een zeer diepgaand antwoord, bedankt.

430
00:26:53,340 --> 00:27:00,580
Dank je wel inderdaad Marc voor deze interessante kijk op het gebied van ethiek.

431
00:27:00,580 --> 00:27:04,660
Wat ik heel fan vind is de vertaling naar de praktijk.

432
00:27:04,660 --> 00:27:05,860
Dus dank je wel.

433
00:27:05,860 --> 00:27:13,300
En ik zou iedereen willen aanvragen oproepen om in ieder geval je boek ook te lezen.

434
00:27:13,300 --> 00:27:14,300
Het is heel erg interessant.

435
00:27:14,300 --> 00:27:15,860
Ethics for people who work in tech.

436
00:27:15,860 --> 00:27:17,860
Een absolute aanrader.

437
00:27:17,860 --> 00:27:24,620
Dank je wel dat je weer wilde luisteren naar een aflevering van de AI Today Live.

438
00:27:24,620 --> 00:27:29,620
Vergeet je niet te abonneren via je favoriete podcast app en mis geen aflevering.

439
00:27:29,620 --> 00:27:31,620



People on this episode