AIToday Live

S07E63 - De Spiegelfunctie van AI: Hoe systemen waarden reflecteren met Judith Zoë Blijden

Aigency by Info Support Season 7 Episode 63

Judith Zoë Blijden, filosoof en jurist bij Hooghiemstra & Partners, bespreekt in deze aflevering van AIToday Live hoe AI-systemen onze maatschappelijke waarden en vooroordelen weerspiegelen. Ze legt uit dat technologie niet los staat van de samenleving en dat de keuzes van ontwikkelaars en de gebruikte data invloed hebben op de resultaten van AI-systemen.

Aan de hand van concrete voorbeelden, zoals het Amazon recruitmentproject en onderzoek naar gezichtsherkenning, illustreert Judith hoe AI onbedoeld discriminatie kan versterken. Ze benadrukt het belang van contextafhankelijke rechtvaardigheid en pleit voor bescheidenheid bij de ontwikkeling en toepassing van AI-technologie.

Judith stelt dat AI een hulpmiddel is, geen samenwerkingspartner, en waarschuwt voor de beperkingen van online data bij het trainen van AI-modellen. Ze bespreekt ook het belang van uitlegbaarheid in AI-systemen en sluit af met een verrassende visie op een meer collectieve AI-ervaring.

Onderwerpen

  • De spiegelfunctie van AI en maatschappelijke waarden
  • Voorbeelden van vooroordelen in AI-systemen
  • Rechtvaardigheid en contextafhankelijkheid in AI
  • Beperkingen van online data voor AI-training
  • De rol van bescheidenheid bij AI-ontwikkeling
Links

Genoemde entiteiten: Hooghiemstra & Partners - Amazon - Meta

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:05,680
In deze aflevering hoor je Judith Zoë Blijden, filosoof en jurist bij Hooghiemstra & Partners.

2
00:00:05,680 --> 00:00:10,400
Judith legt uit hoe AI-systemen onbedoeld onze maatschappelijke waarden en vooroordelen

3
00:00:10,400 --> 00:00:11,400
weerspiegelen.

4
00:00:11,400 --> 00:00:15,920
Vanuit haar unieke combinatie van juridische expertise en filosofische onderzoek belicht

5
00:00:15,920 --> 00:00:21,200
zij hoe organisaties deze spiegelfunctie kunnen benutten om bewustere keuzes te maken

6
00:00:21,200 --> 00:00:24,320
in de ontwikkeling en toepassing van kunstmatige intelligentie.

7
00:00:24,320 --> 00:00:26,320
Dus blijf luisteren!

8
00:00:28,880 --> 00:00:31,740
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

9
00:00:32,100 --> 00:00:33,840
Mijn naam is Joop Snijder, CTO bij Aigency.

10
00:00:34,060 --> 00:00:36,500
Mijn naam Niels Naglé, Area Lead Data & AI uit bij Info Support.

11
00:00:37,520 --> 00:00:41,340
En we hebben vandaag een gast in de studio, zoals jullie van ons gewend zijn.

12
00:00:41,760 --> 00:00:42,660
Judith Zoë Blijden.

13
00:00:42,900 --> 00:00:45,200
Judith, ontzettend bedankt dat je wilde komen.

14
00:00:45,780 --> 00:00:46,880
Helemaal vanuit Den Haag.

15
00:00:46,960 --> 00:00:48,420
Dat was toch best wel een reis, hè?

16
00:00:49,800 --> 00:00:53,880
Maar voordat we gaan het hebben over wat jij doet met kunstmatige intelligentie,

17
00:00:54,580 --> 00:00:56,520
Zou je je eerst willen voorstellen aan de luisteraars?

18
00:00:56,910 --> 00:00:59,200
Ja, natuurlijk. Mijn naam is Judith Zoë Blijden.

19
00:00:59,880 --> 00:01:03,100
Ik doe verschillende dingen. Ik ben filosoof en jurist.

20
00:01:03,580 --> 00:01:06,600
Als filosoof heb ik ook mijn eigen bedrijf. Het is This Art Maybe.

21
00:01:07,320 --> 00:01:12,200
En daar doe ik filosofisch onderzoek in samenwerking met anderen altijd.

22
00:01:13,000 --> 00:01:17,280
En daarnaast ben ik ook jurist. Ik werk als senior adviseur bij Hooghiemstra & Partners.

23
00:01:17,940 --> 00:01:21,180
En dat is een adviesbureau gespecialiseerd in technologie en recht.

24
00:01:22,020 --> 00:01:22,620
Ja, klinkt goed.

25
00:01:22,980 --> 00:01:23,540
Mooie combinatie.

26
00:01:23,780 --> 00:01:26,100
Ja, jij had een vraag over die combinatie.

27
00:01:26,190 --> 00:01:26,980
Ja, ik kan het zeggen inderdaad.

28
00:01:27,100 --> 00:01:27,800
Wat heb je getrokken?

29
00:01:27,950 --> 00:01:28,720
Waar was je mee begonnen?

30
00:01:28,790 --> 00:01:30,740
Was je eerst vanuit de juristenkant filosoof gehad?

31
00:01:30,839 --> 00:01:32,080
Of gewoon nog filosoof naar jurist?

32
00:01:32,110 --> 00:01:33,560
En hoe verhoudt dat toch tot elkaar?

33
00:01:34,120 --> 00:01:35,320
Ik ben begonnen met de rechten.

34
00:01:35,820 --> 00:01:38,100
Dus eerder gewoon bachelor rechtsgeleerdheid gedaan.

35
00:01:38,860 --> 00:01:41,760
En ik vond dat een heel toegepast studie eigenlijk.

36
00:01:42,520 --> 00:01:47,140
Terwijl ik eigenlijk heel erg vooral geïnteresseerd was in meer de bredere concepten zoals rechtvaardigheid.

37
00:01:47,760 --> 00:01:51,520
Dat we meer in de hoek van politieke filosofie zitten en wat minder bij rechtsgeleerdheid.

38
00:01:52,540 --> 00:01:55,840
Dus toen ben ik de master encyclopedie en filosofie van het recht gaan doen.

39
00:01:55,870 --> 00:01:57,020
Dat is nog een rechten master.

40
00:01:57,160 --> 00:02:00,560
Dus daar kan je ook nog, als je dat zou willen, advocaat of wat dan ook mee kunnen worden.

41
00:02:01,880 --> 00:02:07,540
En dat was al een master die nog wel echt voor rechtsgeleerdeheid studenten was.

42
00:02:07,630 --> 00:02:11,840
Maar wel heel erg al gericht op filosofie en rechtstheorie meer onder het recht.

43
00:02:13,060 --> 00:02:15,800
En dat vond ik, ja, ik vond heel veel dingen van die master.

44
00:02:15,830 --> 00:02:20,900
Maar vooral kwam ik er daar echt achter dat filosofie, dat daar echt mijn hart ook ligt.

45
00:02:21,840 --> 00:02:24,820
En dat ik juist die combinatie heel leuk vind met rechten en filosofie.

46
00:02:24,920 --> 00:02:28,660
Dus toen heb ik daarna ook nog een pre-master politieke filosofie gedaan.

47
00:02:28,720 --> 00:02:32,180
En toen ook nog een filosofiemaster bij geesteswetenschappen.

48
00:02:32,240 --> 00:02:34,120
Dus bij de andere filosofen.

49
00:02:34,480 --> 00:02:38,460
En hoe werkt de filosofie in jouw voordeel bij jouw vakgebied als jurist?

50
00:02:39,900 --> 00:02:41,240
Ja, ik denk wel heel veel.

51
00:02:41,360 --> 00:02:43,980
Want daarna ben ik wel gaan werken eigenlijk als jurist.

52
00:02:44,160 --> 00:02:46,840
Want als filosoof, in ieder geval toen, ik heb nu inderdaad het idee,

53
00:02:47,040 --> 00:02:48,880
zeker met de opkomst van AI en technologie,

54
00:02:49,140 --> 00:02:54,340
Dat filosofie veel meer arbeidsmarktwaarde heeft gekregen.

55
00:02:54,560 --> 00:02:57,320
Maar toen ik net op de arbeidsmarkt kwam was dat nog niet zo.

56
00:02:58,300 --> 00:03:00,480
En toen ben ik dus wel begonnen als jurist.

57
00:03:00,480 --> 00:03:02,240
En ik werk dus nu nog steeds als jurist.

58
00:03:02,680 --> 00:03:05,280
En daar zie ik dat de meerwaarde van filosofie wel heel erg is.

59
00:03:05,320 --> 00:03:08,240
Dat je bij filosofie heel goed abstract leert nadenken.

60
00:03:09,160 --> 00:03:11,820
Ik denk net als bij een studie wiskunde dat ook bijvoorbeeld is.

61
00:03:13,060 --> 00:03:14,340
En je leert dat ook heel goed.

62
00:03:14,520 --> 00:03:18,340
Dus je leert heel goed concepten toepassen in verschillende contexten.

63
00:03:18,540 --> 00:03:24,020
En begrijpen dat wat iets betekent heel erg afhangt van hoe het gebruikt, door wie het wordt gebruikt.

64
00:03:25,280 --> 00:03:31,580
En dat contextualiseren van abstracte concepten, dat is iets waar ik echt heel veel heb ook als jurist.

65
00:03:32,000 --> 00:03:38,020
Ik wil eigenlijk dan ook met een best wel abstract begrip beginnen, want jij noemde net rechtvaardigheid.

66
00:03:38,020 --> 00:03:41,460
En rechtvaardigheid en AI, dat is vaak wel een thema.

67
00:03:41,760 --> 00:03:42,380
Ja, klopt.

68
00:03:43,080 --> 00:03:46,500
Dus ik was eigenlijk wel benieuwd, wat is dan eigenlijk rechtvaardigheid?

69
00:03:47,180 --> 00:03:48,420
Ja, dat is een goede vraag.

70
00:03:49,060 --> 00:03:52,000
Dus ik zou eigenlijk zeggen dat je dat in algemene zin...

71
00:03:52,000 --> 00:03:52,940
kan je dat best beantwoorden.

72
00:03:53,060 --> 00:03:54,780
Rechtvaardigheid misschien dat iedereen...

73
00:03:56,920 --> 00:03:59,000
de rechten die hij heeft goed kan uitoefenen.

74
00:03:59,160 --> 00:04:02,560
Bijvoorbeeld, dat zou je een invulling van rechtvaardigheid kunnen noemen.

75
00:04:03,840 --> 00:04:07,180
Maar wat het echt betekent is volgens mij iets wat je alleen kan zeggen...

76
00:04:07,180 --> 00:04:08,160
in een specifieke context.

77
00:04:10,440 --> 00:04:12,560
Dus bijvoorbeeld je hebt een conflict met een collega.

78
00:04:13,080 --> 00:04:14,900
Wat zou daar een rechtvaardige oplossing voor zijn?

79
00:04:15,080 --> 00:04:17,519
Dan moet je eigenlijk weten wat lag er onder dat conflict.

80
00:04:18,160 --> 00:04:20,260
Wat waren de belangen van de verschillende personen.

81
00:04:20,480 --> 00:04:22,460
Wat is eerder afgesproken tussen die personen.

82
00:04:22,470 --> 00:04:24,280
En welk context werken ze met elkaar.

83
00:04:24,820 --> 00:04:29,320
En dan kan je eigenlijk preciezer zijn met wat rechtvaardig is in die specifieke situatie.

84
00:04:30,340 --> 00:04:33,220
Maar met de laag van AI eroverheen.

85
00:04:33,700 --> 00:04:37,740
Wordt het volgens mij lastiger om te bepalen van wat is dan rechtvaardig.

86
00:04:37,820 --> 00:04:39,460
Wat is een rechtvaardig gebruik van AI.

87
00:04:40,880 --> 00:04:48,100
Ja, ik weet niet of dat met AI heel anders is dan bij andere middelen die je kan gebruiken als je iets wil doen.

88
00:04:50,080 --> 00:04:54,840
Maar ja, en dat is eigenlijk hetzelfde ook met een beetje met de AI.

89
00:04:55,120 --> 00:04:58,800
Om heel algemene termen iets te zeggen over rechtvaardigheid in AI is heel lastig.

90
00:04:59,300 --> 00:05:04,720
Omdat AI in heel veel verschillende specifieke contexten kan worden toegepast door verschillende mensen.

91
00:05:05,260 --> 00:05:09,800
En ook AI is eigenlijk een soort van paraplu term voor heel veel verschillende soorten technologieën.

92
00:05:10,280 --> 00:05:13,820
En eigenlijk heb je feiten over al die verschillende aspecten nodig.

93
00:05:14,440 --> 00:05:18,280
Om iets echt zinnigs te kunnen zeggen over rechtvaardigheid en AI.

94
00:05:19,340 --> 00:05:28,720
Waar ik daarom vraag is dat vaak in beleid, beleidstukken van zeker wat grotere bedrijven, staat er nou typisch dit in?

95
00:05:29,480 --> 00:05:30,940
Rechtvaardig of responsible.

96
00:05:32,320 --> 00:05:35,260
En dan denk ik altijd van ja, maar wat houdt dat dan concreet in?

97
00:05:35,420 --> 00:05:37,520
Dus hoe ga je dit dan praktisch maken?

98
00:05:38,819 --> 00:05:40,120
Ja, dat klopt.

99
00:05:40,300 --> 00:05:43,640
Zeker met responsible AI is natuurlijk nu een hele populaire term.

100
00:05:47,900 --> 00:05:51,180
Wederom denk ik eigenlijk dat je daar, ook als bedrijf, als organisatie,

101
00:05:51,200 --> 00:05:56,480
als je dat ergens neerzet, niet kan toedichten aan de technologie zelf.

102
00:05:57,060 --> 00:06:00,280
Maar of je rechtvaardig bent, is iets wat je als mens kan zijn.

103
00:06:00,540 --> 00:06:01,840
Dat is denk ik misschien stap één.

104
00:06:02,420 --> 00:06:05,760
Dus als je een bedrijf bent en je zegt, we willen responsible AI maken,

105
00:06:06,120 --> 00:06:11,000
Dan moet je eerst je afvragen wat betekent rechtvaardigheid voor ons als bedrijf.

106
00:06:11,460 --> 00:06:15,280
En dat zal dan in relatie tot de dienst of het product dat je ontwikkelt, moet je dat bedenken.

107
00:06:16,480 --> 00:06:18,020
En dan krijgt het al wat meer vorm.

108
00:06:18,380 --> 00:06:26,260
En vervolgens kan je dan nadenken hoe past AI hierin of welke AI past eigenlijk in het idee van rechtvaardigheid dat wij hier met elkaar hebben afgesproken.

109
00:06:26,840 --> 00:06:28,440
Dus die stappen zou ik een beetje nemen.

110
00:06:28,520 --> 00:06:36,800
En die labels zoals rechtvaardigheid, maar ook eerlijk of goed, die zouden denk ik altijd van toepassing moeten blijven op een actor.

111
00:06:37,050 --> 00:06:40,480
Dus een bedrijf, een rechtspersoon of een natuurlijk persoon.

112
00:06:40,860 --> 00:06:45,020
Die kunnen rechtvaardig zijn en AI kan daarbij helpen.

113
00:06:45,560 --> 00:06:48,320
Maar AI kan zelf niet rechtvaardig zijn eigenlijk.

114
00:06:48,800 --> 00:06:56,940
Want dat blijft eigenlijk bij de persoon of mensen die in onze samenleving een zeggenschap hebben over wat er gebeurt.

115
00:06:56,970 --> 00:06:58,280
En dat is AI zelf niet.

116
00:06:58,760 --> 00:06:59,780
Mooi, duidelijk

117
00:07:00,320 --> 00:07:02,920
En dat is denk ik ook met de blik van juristen erop

118
00:07:03,000 --> 00:07:06,980
Want met aansprakelijkheid of toetsen van de wet en de regelgeving

119
00:07:07,060 --> 00:07:10,040
Heb je ook die actoren nodig om dat eigenlijk te kunnen vaststellen

120
00:07:10,340 --> 00:07:11,800
Ja klopt, inderdaad

121
00:07:11,900 --> 00:07:16,620
Het is ook soms die vragen van bijvoorbeeld bij zelfrijdende auto's of wat dan ook

122
00:07:17,140 --> 00:07:18,640
Wie is eigenlijk dan verantwoordelijk?

123
00:07:18,680 --> 00:07:21,600
Voor een jurist is dat eigenlijk niet heel erg onduidelijk

124
00:07:21,720 --> 00:07:24,320
Want uiteindelijk bepaalt iemand dat je iets inzet

125
00:07:24,480 --> 00:07:25,319
Dat kan AI zijn

126
00:07:26,120 --> 00:07:29,680
en degene die dat bepaalt, die komt altijd met een bepaalde verantwoordelijkheid

127
00:07:29,690 --> 00:07:32,620
en dan kan je niet verschuilen achter een nieuwe technologie

128
00:07:32,800 --> 00:07:34,440
omdat die slimmer is dan de vorige.

129
00:07:34,880 --> 00:07:37,020
En dan toch even daarop doorpakken op die auto inderdaad,

130
00:07:37,140 --> 00:07:40,520
maar is het dan degene die de auto levert of is het degene die in de auto stapt?

131
00:07:40,610 --> 00:07:42,120
Want als je stapt wil je van A naar B.

132
00:07:42,900 --> 00:07:46,220
Ik moet zeggen, heel specifiek zou ik niet weten.

133
00:07:47,340 --> 00:07:51,320
Ik denk ook daar moet ik zeggen dat het ook ligt aan de context.

134
00:07:51,800 --> 00:07:55,120
Was het een fout in de software waarvan de ontwikkelaar,

135
00:07:55,280 --> 00:07:57,820
dat het al lang had kunnen weten of ze hebben niet goed getest.

136
00:07:58,160 --> 00:07:59,900
Ik kan me voorstellen dat het sneller daar ligt.

137
00:08:00,420 --> 00:08:05,700
Maar lette iemand gewoon niet op of ik veel was die onder invloed van alcohol.

138
00:08:07,100 --> 00:08:10,640
En daardoor begreep je het systeem niet goed, dan zal het bij die persoon liggen.

139
00:08:11,020 --> 00:08:13,660
Ja, dus de context is daar en blijft daar van essentieel belang

140
00:08:13,780 --> 00:08:16,000
om die helder te hebben en de situatie schetsen.

141
00:08:17,980 --> 00:08:22,820
In voorbereiding op deze podcast hebben wij met je gesproken

142
00:08:23,040 --> 00:08:24,920
en Niels heeft ook wat dingen zitten kijken.

143
00:08:25,240 --> 00:08:28,240
En dan noem jij ook dat, als ik het goed zeg,

144
00:08:28,420 --> 00:08:31,660
dus verbeter me als ik het niet goed zeg,

145
00:08:32,240 --> 00:08:37,419
dat de AI-systemen een soort van afspiegeling geven van wie wij als mensen zijn.

146
00:08:37,860 --> 00:08:39,480
Zou je daar wat over kunnen vertellen?

147
00:08:40,020 --> 00:08:43,260
Ja, dat is iets wat ik heel leuk vind van technologie.

148
00:08:43,460 --> 00:08:44,960
En soms kan het ook heel problematisch zijn,

149
00:08:46,120 --> 00:08:49,160
maar het is iets dat mij nieuwsgierigheid heel erg triggert.

150
00:08:50,640 --> 00:08:55,000
Dus technologie, en dat geldt ook voor AI, staat niet los van de samenleving.

151
00:08:55,200 --> 00:08:58,560
Dus mensen maken iets, mensen ontwikkelen iets en maken daar keuzes in.

152
00:08:59,419 --> 00:09:04,799
En dat geldt voor een tv-programma net zoveel als voor een AI-systeem.

153
00:09:05,940 --> 00:09:12,100
En hoe dat AI-systeem dus werkt en voor wie het goed werkt, dat hangt heel erg af van de keuzes die mensen maken.

154
00:09:12,600 --> 00:09:17,080
En ook hoe je het gebruikt als gebruiker hangt ook erg af van hoe de gebruiker zich gedraagt.

155
00:09:18,620 --> 00:09:26,020
En wat ik interessant vind is dat daardoor iets dat wij maken altijd tot een bepaalde hoogte onze waarde zal reflecteren.

156
00:09:26,150 --> 00:09:27,900
Het is namelijk onmogelijk om dat niet te doen.

157
00:09:28,250 --> 00:09:29,060
Dat vind ik ook interessant.

158
00:09:30,210 --> 00:09:35,480
Nu is natuurlijk heel veel aandacht voor waardegedreven ontwikkelen of waardegedreven technologie.

159
00:09:36,100 --> 00:09:41,560
Maar ik zou zeggen, er bestaat geen waardeloze technologie.

160
00:09:42,120 --> 00:09:44,560
Technologie, alles wat je maakt, dat geldt ook voor niet.

161
00:09:44,940 --> 00:09:45,980
Het geldt dan de waarden.

162
00:09:46,530 --> 00:09:48,080
We hebben dus niet waarden in geld.

163
00:09:48,610 --> 00:09:52,280
Maar de normen en waarden die wij hebben.

164
00:09:52,480 --> 00:09:54,920
Ja, zoals rechtvaardigheid zoals je eerder noemde.

165
00:09:55,300 --> 00:09:55,760
Precies.

166
00:09:56,960 --> 00:09:58,460
Dus als je iets ontwikkelt.

167
00:09:58,460 --> 00:10:00,700
En zeker bij een AI-systeem waar je misschien gebruik maakt.

168
00:10:00,700 --> 00:10:03,800
Van hele grootschalige hoeveelheden aan data.

169
00:10:05,200 --> 00:10:09,500
Is het onvoorkomelijk dat daarin de dingen die wij vinden.

170
00:10:09,720 --> 00:10:12,460
Enigszins uitkomen of kunnen laten zien.

171
00:10:13,340 --> 00:10:14,260
En dat vind ik heel interessant.

172
00:10:15,080 --> 00:10:21,140
Omdat aan de ene kant wil je heel graag dat wat je maakt samenhangt met wat je bedoelde.

173
00:10:21,480 --> 00:10:25,600
Dus stel je wilt een eerlijk systeem dat bijvoorbeeld iedereen evenveel geld geeft.

174
00:10:25,820 --> 00:10:26,380
Of wat dan ook.

175
00:10:27,100 --> 00:10:31,000
Dan wil je heel graag dat hij dat op een goede manier doet zoals jij dat zelf ook had gedacht.

176
00:10:31,220 --> 00:10:34,940
Dus het is belangrijk dat die AI die waarde van jou goed weer spiegelt.

177
00:10:35,520 --> 00:10:36,720
Maar het kan soms ook andersom.

178
00:10:36,840 --> 00:10:39,320
Dat je daar helemaal niet heel erg bewust over na hebt gedacht.

179
00:10:40,720 --> 00:10:45,200
En dan de AI iets gaat doen waarvan je denkt, oeh, dat is misschien niet zo goed.

180
00:10:45,260 --> 00:10:48,760
En soms kan dat ook iets zeggen over de data die je verzameld hebt.

181
00:10:48,800 --> 00:10:50,400
Of misschien de selectie die je hebt gemaakt.

182
00:10:50,900 --> 00:10:55,460
Of misschien bepaalde gedragingen die bij de ontwikkelaars heel normaal zijn.

183
00:10:56,360 --> 00:11:03,540
Die dan toch subjectiel, zeg maar zonder dat het heel bewust is, ook worden gereflecteerd in het AI systeem.

184
00:11:03,860 --> 00:11:05,400
En dat vind ik allebei heel interessant.

185
00:11:05,760 --> 00:11:09,500
Ja, want dat kan dus ook eigenlijk een signaal zijn.

186
00:11:10,580 --> 00:11:12,620
waar je dan uiteindelijk iets mee zou kunnen.

187
00:11:12,980 --> 00:11:15,500
Ja, je kan dus aan de ene kant soms dan zeggen

188
00:11:16,559 --> 00:11:18,560
het AI-systeem werkt niet goed.

189
00:11:19,080 --> 00:11:20,140
Maar soms kan je ook zeggen

190
00:11:20,579 --> 00:11:23,040
wat wij doen werkt misschien niet goed.

191
00:11:23,560 --> 00:11:24,300
En dat is interessant.

192
00:11:25,840 --> 00:11:27,640
Dat is eigenlijk het spel dat je hele tijd speelt.

193
00:11:27,960 --> 00:11:29,380
En eigenlijk denk ik als je iets ontwikkelt

194
00:11:29,420 --> 00:11:30,960
probeer je dat steeds beter te doen.

195
00:11:32,600 --> 00:11:35,240
En heb je daar voorbeelden van gezien

196
00:11:35,620 --> 00:11:38,700
van organisaties, zonder ze het hoeven noemen,

197
00:11:38,980 --> 00:11:40,540
maar die dit eigenlijk heel goed doen?

198
00:11:42,780 --> 00:11:45,120
Ja, ik denk dat organisaties die dit heel goed doen,

199
00:11:45,820 --> 00:11:47,760
wat ik eerder eigenlijk ook al zei,

200
00:11:48,080 --> 00:11:51,660
heel goed zijn en heel specifiek zijn wanneer ze wat toepassen.

201
00:11:54,480 --> 00:11:57,100
Dus ja, dat is eigenlijk het belangrijkste,

202
00:11:57,200 --> 00:11:59,060
dat je dus bewust bent van beperkingen,

203
00:11:59,340 --> 00:12:03,500
bewust bent ook met zelfreflectie van wat kan een systeem wel en niet aan mij bieden,

204
00:12:03,920 --> 00:12:07,500
en dan daar een keuze over maakt en daar ook verantwoording over legt

205
00:12:07,560 --> 00:12:13,320
en na een aantal lange tijd weer eens evalueert van klopt het nog eigenlijk wat ik aan het doen ben.

206
00:12:13,960 --> 00:12:19,160
Het zit eigenlijk meer in die werkvorm ook, in een soort van ruimte voor zelfreflectie en aanpassing,

207
00:12:19,560 --> 00:12:23,900
dan dat je op één moment de juiste keuze voor de juiste technologie moet maken.

208
00:12:24,480 --> 00:12:28,580
Dus meer de systematiek opzetten binnen je organisatie, de governance op orde brengen,

209
00:12:28,980 --> 00:12:31,240
zodat die ruimte er is om dat eigenlijk te doen.

210
00:12:31,410 --> 00:12:32,120
Ja, precies.

211
00:12:32,340 --> 00:12:36,420
Heb je voorbeelden gezien van beleid binnen organisaties die dat echt ondersteunen?

212
00:12:36,920 --> 00:12:37,700
En heb je er voorbeeld van?

213
00:12:38,180 --> 00:12:40,500
Ja, dus je hebt zeg maar goede en slechte voorbeelden.

214
00:12:40,560 --> 00:12:42,580
Dat zijn heel vaak dezelfde voorbeelden voor mij.

215
00:12:43,200 --> 00:12:46,820
Dus een heel bekend voorbeeld hiervan.

216
00:12:46,840 --> 00:12:50,760
Ook waar je heel erg ziet dat bepaalde waarden of praktijken van een bedrijf.

217
00:12:50,880 --> 00:12:52,400
Werden gereflecteerd in een iSysteem.

218
00:12:52,800 --> 00:12:54,340
Is het voorbeeld van Amazon.

219
00:12:54,640 --> 00:12:55,900
Die kennen jullie misschien wel.

220
00:12:57,140 --> 00:13:00,700
Bijvoorbeeld in 2014 begonnen ze met het ontwikkelen van een iSysteem.

221
00:13:01,100 --> 00:13:06,240
Dat het doel had om automatisch de beste kandidaat te kunnen selecteren.

222
00:13:06,420 --> 00:13:07,580
Uit een pool van cv's.

223
00:13:09,860 --> 00:13:13,020
En ongeveer na een jaar werd al heel erg duidelijk.

224
00:13:13,180 --> 00:13:15,740
Dat dat systeem heel erg een voorkeur had voor mannen.

225
00:13:16,380 --> 00:13:19,300
En dat kwam omdat veel meer mannen daar werkten.

226
00:13:20,240 --> 00:13:21,620
En ook dus veel meer cv's had.

227
00:13:21,620 --> 00:13:26,900
Dus dat systeem had automatisch het factor man gekoppeld aan een goede kandidaat.

228
00:13:28,320 --> 00:13:30,720
Dus aan de ene kant is het een voorbeeld van niet goed.

229
00:13:31,040 --> 00:13:36,360
Want eigenlijk is het niet dat Amazon heel bewust wilde dat ze vrouwen dus gingen discrimineren.

230
00:13:37,140 --> 00:13:42,640
Maar door hoe ze zelf werkte, reflecteert het toch bepaalde waarden terug in zo'n systeem.

231
00:13:44,440 --> 00:13:46,640
Dat aan de ene kant is een voorbeeld van dat het niet goed was.

232
00:13:46,780 --> 00:13:50,600
Maar aan de andere kant, Amazon is hier uiteindelijk open over geweest.

233
00:13:50,960 --> 00:13:52,800
Ze hebben dit ook verteld, dat dit is gebeurd.

234
00:13:52,810 --> 00:13:54,840
En ze hebben ook gekozen om het systeem te stoppen.

235
00:13:55,480 --> 00:14:01,040
En vervolgens hebben ze gekeken hoe kunnen we op andere manier technologie ondersteunend inzetten bij onze HR.

236
00:14:01,540 --> 00:14:04,760
Dus het is zowel, zeg maar, dat bedoel ik met zowel slecht en goed, dat is heel vaak.

237
00:14:05,220 --> 00:14:12,220
Het is niet, ja, het gaat ook, ik wil ook graag voorkomen dat als iets fout gaat, alsof je dan zeg maar slecht bent.

238
00:14:12,740 --> 00:14:14,120
Dat is niet hoe ik ernaar kijk.

239
00:14:14,220 --> 00:14:17,480
Het gaat juist dat je geïnteresseerd bent van hoe.

240
00:14:17,880 --> 00:14:20,520
Ik heb iets gemaakt, oh nu doet het dit, dat wil ik eigenlijk niet.

241
00:14:20,740 --> 00:14:22,160
En dat je er dan ook iets mee gaat doen.

242
00:14:22,280 --> 00:14:26,680
En dat is dan die spiegel eigenlijk waarvan jij zegt van, hé, dat systeem spiegelt ons.

243
00:14:27,380 --> 00:14:33,880
En als je daar dan genoeg reflectie op hebt, heb je de mogelijkheid om je spiegelbeeld eigenlijk te veranderen.

244
00:14:33,920 --> 00:14:34,560
Ja, precies.

245
00:14:35,140 --> 00:14:36,660
Wat een mooie benadering.

246
00:14:37,610 --> 00:14:38,980
Heb je daar eventueel nog een voorbeeld van?

247
00:14:39,110 --> 00:14:39,960
Deze is wel heel interessant.

248
00:14:41,700 --> 00:14:43,120
Ik heb ook een voorbeeld.

249
00:14:44,040 --> 00:14:46,500
Die is grappiger en negatiever.

250
00:14:47,440 --> 00:14:51,220
Maar daardoor meer ruimte onder het spiegelbeeld te veranderen.

251
00:14:53,060 --> 00:14:55,720
Zeker bij AI zie je soms nu ook heel duidelijk...

252
00:14:55,720 --> 00:15:00,020
dat bepaalde voordelen heel nadrukkelijk naar voren komen.

253
00:15:00,020 --> 00:15:02,540
Dat zie je al anderen bij het genereren van afbeeldingen.

254
00:15:03,020 --> 00:15:07,560
Dus als je die prompts geeft, dan hebben die toch heel erg de neiging om stereotyperingen te kopiëren.

255
00:15:07,840 --> 00:15:08,140
Zeker.

256
00:15:09,000 --> 00:15:12,100
En dat komt werderom niet alleen door AI.

257
00:15:12,380 --> 00:15:16,880
Want ook als je bijvoorbeeld in Google intypt, en dat is al heel lang zo, verpleger.

258
00:15:17,380 --> 00:15:20,940
Dan zal je heel vaak vrouwelijke jonge verplegers in witte pakjes zien.

259
00:15:21,780 --> 00:15:24,160
Terwijl mannen ook verpleger kunnen zijn, bijvoorbeeld.

260
00:15:24,520 --> 00:15:30,720
Dus dat probleem is niet een heel nieuw probleem dat we nu pas zien omdat we generatieve AI hebben.

261
00:15:31,080 --> 00:15:39,760
Dat is eigenlijk iets omdat we al langer ook de data die online beschikbaar is, heel vaak helemaal niet representatief is voor hoe onze wereld er echt uitziet.

262
00:15:40,680 --> 00:15:42,000
Een concreet voorbeeld.

263
00:15:43,300 --> 00:15:49,840
Er was onderzoek gedaan naar de werking van gezichtsherkenning op verschillende mensen.

264
00:15:50,080 --> 00:15:58,799
En daar werd heel duidelijk uit gebleken dat met name zwarte vrouwen veel slechter kunnen worden herkend door AI-systemen.

265
00:15:59,420 --> 00:16:08,040
Vaak omdat er veel minder data, waarschijnlijk in de data, niet goed representatief genoeg was van de verschillende mensen die bestaan in de wereld.

266
00:16:08,620 --> 00:16:13,800
En weer om dan ook dat het niet eenzijdig is.

267
00:16:13,810 --> 00:16:19,120
Dat is aan de ene kant niet goed als je graag wil dat je telechnologie goed toepasbaar is en accuraat is.

268
00:16:19,160 --> 00:16:24,220
Zeker als je gezicht wil herkennen, wil je meestal van heel veel mensen goed het gezicht kunnen herkennen.

269
00:16:24,220 --> 00:16:27,380
En niet per se alleen maar van witte mannen of zwarte mannen.

270
00:16:27,380 --> 00:16:28,340
Daar was het ook veel beter.

271
00:16:29,600 --> 00:16:31,140
dus dat is minder goed

272
00:16:31,190 --> 00:16:33,140
maar bijvoorbeeld ook de leeftijd

273
00:16:33,360 --> 00:16:35,400
werd bij zwarte vrouw heel vaak veel jonger

274
00:16:35,540 --> 00:16:35,980
ingeschat

275
00:16:38,020 --> 00:16:38,960
waarschijnlijk wil je dat niet

276
00:16:39,100 --> 00:16:41,020
omdat je wilt dat het systeem accuraat is

277
00:16:41,140 --> 00:16:42,300
maar het is wel om te laten zien

278
00:16:42,370 --> 00:16:44,240
het is niet alleen maar iets waar je

279
00:16:45,080 --> 00:16:46,720
waarschijnlijk zouden mensen het vervelender vinden

280
00:16:46,770 --> 00:16:48,620
als ze veel ouder worden ingeschat

281
00:16:49,500 --> 00:16:52,000
dus het is niet dat alles wat we negatief vinden

282
00:16:52,230 --> 00:16:53,640
altijd ook negatiever uitkomt

283
00:16:53,720 --> 00:16:55,480
soms kunnen dingen niet kloppen

284
00:16:56,300 --> 00:16:57,619
omdat de data dus niet

285
00:16:57,640 --> 00:16:59,340
representatief of andere redenen.

286
00:16:59,780 --> 00:17:01,720
En die kunnen heel verschillende uitwerkingen

287
00:17:01,840 --> 00:17:03,500
hebben. En soms kan dat heel veel zeggen over

288
00:17:03,520 --> 00:17:04,980
hoe wij naar mensen kijken.

289
00:17:06,079 --> 00:17:06,760
Maar soms ook niet.

290
00:17:07,020 --> 00:17:08,760
Soms kan het ook gewoon, ja,

291
00:17:09,079 --> 00:17:11,599
kleiner zijn. En er is een interessant onderzoek en die hebben toen gekeken

292
00:17:11,720 --> 00:17:12,300
naar als je alle

293
00:17:13,699 --> 00:17:15,640
acteurs uit de Black Panther film

294
00:17:16,480 --> 00:17:17,280
door verschillende

295
00:17:18,398 --> 00:17:19,359
gezichtsherkenning systemen doet,

296
00:17:19,579 --> 00:17:21,359
kunnen die dan accuraat de

297
00:17:21,800 --> 00:17:23,660
seks en de etniciteit

298
00:17:23,960 --> 00:17:25,359
en de leeftijd inschatten.

299
00:17:25,819 --> 00:17:27,599
En daar kwam dus heel duidelijk uit dat ze dat heel

300
00:17:27,619 --> 00:17:28,140
slecht konden.

301
00:17:30,260 --> 00:17:30,860
Bijvoorbeeld.

302
00:17:33,680 --> 00:17:34,880
Wij maken

303
00:17:36,190 --> 00:17:37,139
machine learning modellen

304
00:17:37,190 --> 00:17:38,840
bijvoorbeeld waarbij je data

305
00:17:39,080 --> 00:17:40,580
van bedrijven gebruikt.

306
00:17:40,970 --> 00:17:42,980
En dan moet ik ook eigenlijk altijd zeggen

307
00:17:43,080 --> 00:17:43,700
we hebben een

308
00:17:45,600 --> 00:17:47,279
gebalanceerde dataset nodig.

309
00:17:47,560 --> 00:17:48,680
Dus het is niet alleen maar

310
00:17:49,620 --> 00:17:51,080
de positieve gevallen, maar het is ook

311
00:17:51,080 --> 00:17:52,159
de negatieve gevallen.

312
00:17:53,259 --> 00:17:54,960
De uitzonderingen moeten bijna

313
00:17:54,960 --> 00:17:57,580
net zo groot in die dataset zitten

314
00:17:57,600 --> 00:18:01,160
Als de tussen aanhalingstekens gewone data.

315
00:18:02,120 --> 00:18:04,500
En dat is vaak heel erg lastig.

316
00:18:04,530 --> 00:18:06,020
Want er wordt natuurlijk heel snel gedacht.

317
00:18:06,620 --> 00:18:07,360
We hebben dit.

318
00:18:07,470 --> 00:18:08,760
We willen hier een voorspelling op doen.

319
00:18:08,810 --> 00:18:09,720
Of een classificatie.

320
00:18:10,820 --> 00:18:12,360
En daar hebben we de data voor.

321
00:18:13,320 --> 00:18:16,540
En dan is het vinden van die balans vaak heel erg moeilijk.

322
00:18:17,900 --> 00:18:21,400
En is het ook nog wel eens een lastige boodschap.

323
00:18:21,510 --> 00:18:25,300
Om te denken van ja maar eigenlijk heb je geen gebalanceerde dataset.

324
00:18:26,140 --> 00:18:30,960
En ook het effect ervan is dus ook niet in algemeenheid heel makkelijk iets over te zeggen.

325
00:18:30,970 --> 00:18:32,620
Dus bijvoorbeeld bij die gezichtsherkenning.

326
00:18:34,360 --> 00:18:37,640
Stel je wilt dat inzetten omdat je je telefoon goed wil kunnen openen.

327
00:18:40,440 --> 00:18:44,720
Dan de consequentie dat sommige mensen dat misschien niet kunnen gebruiken is heel vervelend.

328
00:18:45,540 --> 00:18:47,400
Omdat je product ook minder toegankelijk wordt.

329
00:18:47,400 --> 00:18:49,240
Maar mensen voelen zich ook letterlijk niet gezien.

330
00:18:50,920 --> 00:18:55,180
Maar tegelijkertijd heb je ook veel grotere negatieve effecten die je erbij kan bedenken.

331
00:18:55,260 --> 00:18:59,060
Stel, het wordt ingezet door handhaving in een politieketen of zoiets dergelijks.

332
00:19:00,300 --> 00:19:01,740
In Amerika is dat het geval.

333
00:19:02,380 --> 00:19:03,780
Daar gebruiken ze dat heel veel.

334
00:19:04,120 --> 00:19:07,820
En dan ben je als zwarte man behoorlijk het haasje.

335
00:19:08,080 --> 00:19:08,960
Laten we wel wezen.

336
00:19:09,180 --> 00:19:13,780
Ja, voorbeelden van dat mannen verkeerd herkend zijn door zo'n systeem.

337
00:19:13,790 --> 00:19:16,220
En dat in een strafzaak wel is gebruikt.

338
00:19:16,900 --> 00:19:20,480
En het is ook heel moeilijk als persoon om je daartegen te verweren.

339
00:19:20,640 --> 00:19:22,940
Om aan te geven dat er een fout in zo'n systeem zit.

340
00:19:23,020 --> 00:19:24,140
Of dat het niet goed werkt.

341
00:19:24,580 --> 00:19:26,160
In Nederland had je daar ook een voorbeeld van.

342
00:19:27,440 --> 00:19:29,540
Een student die ook met...

343
00:19:29,780 --> 00:19:30,980
Zeker, Robin Pokor.

344
00:19:31,040 --> 00:19:32,020
Ik ben niet of ze ook.

345
00:19:32,070 --> 00:19:34,120
Ja, ze is ook bij ons in de podcast geweest.

346
00:19:34,280 --> 00:19:34,960
Zoek dat op.

347
00:19:35,200 --> 00:19:39,320
Ja, maar vertel me even voor de luisteraars die het geval niet kennen.

348
00:19:39,700 --> 00:19:41,280
Ja, daar was dus ook het geval.

349
00:19:41,740 --> 00:19:44,860
Het was nog steeds niet helemaal duidelijk, maar het lijkt er toch sterk op.

350
00:19:45,040 --> 00:19:45,920
Zij was een student.

351
00:19:46,140 --> 00:19:49,400
Volgens mij studeerde ze bij de VU, als ik het goed herinner.

352
00:19:50,440 --> 00:19:53,940
En gedurende de pandemie moesten ze thuis tentamens maken.

353
00:19:54,100 --> 00:19:57,440
en er werd dan gebruik gemaakt van spieksoftware,

354
00:19:57,900 --> 00:19:58,980
of dat je niet gaat spieken.

355
00:19:59,420 --> 00:20:01,880
Dus die kijkt dan mee terwijl je je tentamen maakt.

356
00:20:02,660 --> 00:20:05,080
Daarvoor moet je gezicht zichtbaar zijn.

357
00:20:06,040 --> 00:20:08,480
Maar bij haar was het geval, zij heeft dan donkere huid,

358
00:20:09,600 --> 00:20:11,540
kon hij haar gezicht niet goed herkennen.

359
00:20:12,000 --> 00:20:15,780
Wat voor haar heel lastig was, waardoor ze met een lamp in haar gezicht moest werken.

360
00:20:18,000 --> 00:20:21,640
En ze zei zelf, dit is eigenlijk niet de manier waarop ik mijn tentamen kan doen.

361
00:20:21,760 --> 00:20:24,980
En volgens mij is deze software eigenlijk niet goed genoeg om te kunnen inzetten.

362
00:20:25,420 --> 00:20:28,180
En zij heeft natuurlijk ook een klacht voorbij ingediend bij het College voor de Recht van de Mens.

363
00:20:29,500 --> 00:20:32,700
Nou, die zijn, vond ik zelf, wat ambivalent uiteindelijk geweest in een uitspraak.

364
00:20:33,300 --> 00:20:38,100
Of er wel of niet sprake was van discriminatie is er eigenlijk niet heel duidelijk naar voren gekomen.

365
00:20:38,420 --> 00:20:44,620
Wel was er naar voren gekomen, als ik het goed herinner, dat de VU beter onderzoek had moeten doen of de software nou wel geschikt was.

366
00:20:45,200 --> 00:20:58,820
Maar dat is zo'n ander voorbeeld waar het gebrek aan representativiteit die we hebben, zeker online, waar sommige groepen niet altijd goed worden meegenomen, tot hele vervelende consequenties kan hebben.

367
00:20:59,000 --> 00:21:09,560
Waardoor het belangrijk dus is om die spiegelfunctie heel serieus te nemen en kritisch te kijken van waar zijn we mee bezig, past wat we maken goed bij, voor wie we het maken en zo niet, hoe kunnen we dat aanpassen.

368
00:21:10,080 --> 00:21:17,520
Hoe kijk jij dan tegen het feit aan dat Meta, die gaat nu alle foto's gebruiken van Instagram van de mensen.

369
00:21:18,140 --> 00:21:24,580
Dat is natuurlijk een, laten we zeggen, op zijn minst een soort van lachspiegel van de samenleving.

370
00:21:24,720 --> 00:21:29,120
Want dat is niet representatief van wat er daadwerkelijk in de wereld gebeurt.

371
00:21:29,540 --> 00:21:32,120
Hoe kijk je daar dan tegen aan? Maak je dan zorgen?

372
00:21:33,500 --> 00:21:40,100
Want het lijkt me niet dat dit een verbetering gaat zijn rond die representativiteit.

373
00:21:40,500 --> 00:21:42,780
Ja, ik maak me daar zeker zorgen over.

374
00:21:43,650 --> 00:21:47,180
Ook omdat ik denk, dat geldt niet alleen maar bij dit geval bij Meta,

375
00:21:47,190 --> 00:21:49,840
die dan eigenlijk aan de ene kant zegt, we hebben meer data nodig,

376
00:21:49,910 --> 00:21:51,440
want we weten dat we niet representatief zijn.

377
00:21:51,530 --> 00:21:55,800
Maar tegelijkertijd, de data die ze vervolgens kiezen om te verzamelen, zijn dat ook niet.

378
00:21:56,080 --> 00:22:01,160
Dus er is geen oplossing voor het probleem dat ze zelf ook duidelijk zijn dat ze daar bewust van zijn.

379
00:22:01,560 --> 00:22:02,560
Dat is daar heel gek aan.

380
00:22:03,500 --> 00:22:05,740
maar überhaupt dat de online wereld

381
00:22:06,100 --> 00:22:07,940
het idee dat de online wereld

382
00:22:07,940 --> 00:22:09,780
een goede representatie is van de

383
00:22:10,020 --> 00:22:10,880
werkelijke wereld

384
00:22:11,780 --> 00:22:14,220
dat idee dat is denk ik heel problematisch

385
00:22:14,320 --> 00:22:15,980
omdat dat heel vaak niet zo is

386
00:22:16,140 --> 00:22:17,440
en zeker inderdaad

387
00:22:17,520 --> 00:22:19,880
de manier hoe we ons uit op social media

388
00:22:20,520 --> 00:22:21,960
is niet per se representief

389
00:22:22,010 --> 00:22:23,140
hoe we ons de hele dag voelen

390
00:22:23,250 --> 00:22:24,600
nee, zeker niet

391
00:22:25,820 --> 00:22:27,420
ja en daardoor is die spiegel

392
00:22:27,480 --> 00:22:30,200
dat is ook wederom waar die spiegelfunctie zo belangrijk is

393
00:22:30,440 --> 00:22:31,840
omdat er heel vaak

394
00:22:31,920 --> 00:22:36,140
tussen het spiegelbeeld en jezelf dus een soort van disconnectie zit.

395
00:22:36,840 --> 00:22:39,640
En het doel zou zijn als je iets ontwikkelt, maar ook als je iets gebruikt,

396
00:22:39,720 --> 00:22:44,420
dat je dat aanpast en verbetert, zodat het overeenkomt met elkaar.

397
00:22:44,920 --> 00:22:46,380
Zeker dat gebruik wat je zegt.

398
00:22:46,530 --> 00:22:49,660
Want misschien dat mensen die dit luisteren denken van ja, boeien.

399
00:22:51,880 --> 00:22:53,160
Ik heb er niks mee te maken.

400
00:22:53,340 --> 00:22:56,780
Maar uiteindelijk zeg maar in het bedrijf waar je werkt

401
00:22:56,830 --> 00:22:58,980
en ze gaan daar gebruik maken van dit soort modellen,

402
00:22:59,240 --> 00:23:02,720
zitten dan wel uiteindelijk deze vooroordelen erin.

403
00:23:03,020 --> 00:23:05,060
Of in ieder geval missende representatie.

404
00:23:05,920 --> 00:23:08,280
En krijg je daar vroeg of laat wel mee te maken.

405
00:23:08,860 --> 00:23:11,240
Al is het maar dat je aan co-pilots direct vraagt van...

406
00:23:12,120 --> 00:23:13,700
maak een afbeelding over iets.

407
00:23:15,380 --> 00:23:17,080
Niemand ontkomt hier denk ik aan.

408
00:23:17,960 --> 00:23:19,420
Ja, helaas.

409
00:23:20,200 --> 00:23:22,920
Dus dat vraagt ook inderdaad van de gebruikers.

410
00:23:23,280 --> 00:23:28,400
Dus van de kleinere bedrijven of individuen die zoiets gebruiken.

411
00:23:28,460 --> 00:23:29,880
of dat nou een ChatGPT is of iets anders.

412
00:23:32,160 --> 00:23:33,820
Wel een kritisch vermogen.

413
00:23:34,260 --> 00:23:35,560
Dat vraagt het eigenlijk vooral.

414
00:23:35,720 --> 00:23:40,960
Want je kan er niet van uitgaan dat omdat een product overal toegankelijk is...

415
00:23:40,960 --> 00:23:45,060
en gratis en makkelijk gebruik is, ook goed is voor waarvoor je het wil gebruiken.

416
00:23:46,719 --> 00:23:47,980
Ja, ik ben even...

417
00:23:48,580 --> 00:23:51,140
Het gaat aan de andere kant op, dus sorry als het er een beetje raar uitkomt.

418
00:23:51,560 --> 00:23:54,380
Eigenlijk is het inderdaad, ik heb geen Facebook of geen Instagram...

419
00:23:54,380 --> 00:23:55,900
dus mij maakt het niet zoveel uit.

420
00:23:56,680 --> 00:23:57,680
Dat is dan vaak het beeld.

421
00:23:57,820 --> 00:23:59,140
Maar eigenlijk is het te abstract.

422
00:23:59,320 --> 00:24:03,280
Waar gaat uiteindelijk die data en de toepassing uit komen waar dat op gevoed is?

423
00:24:03,330 --> 00:24:06,120
En ik denk dat dat voor veel mensen niet duidelijk is.

424
00:24:06,220 --> 00:24:07,900
En dat het misschien te ver van de bad show is.

425
00:24:08,280 --> 00:24:11,800
En ook daar niet transparant genoeg is over waar wordt die data vergaard.

426
00:24:12,220 --> 00:24:13,440
En waarvoor wordt het gebruikt.

427
00:24:13,860 --> 00:24:14,860
Dat het zo ver weg voelt.

428
00:24:15,120 --> 00:24:16,520
Terwijl het gaat niet ver weg zijn.

429
00:24:16,620 --> 00:24:17,640
Het zit dadelijk in je modellen.

430
00:24:17,710 --> 00:24:20,680
In de dagelijkse systemen die we gewend zijn om te gebruiken.

431
00:24:20,780 --> 00:24:21,320
Zoals je ook noemt.

432
00:24:21,420 --> 00:24:22,420
ChatGPT, co-pilot.

433
00:24:22,860 --> 00:24:23,700
Daar zit het dadelijk in.

434
00:24:23,900 --> 00:24:26,340
Maar het besef en de bewustzijn ervan is er denk ik niet.

435
00:24:27,780 --> 00:24:28,220
dus nee

436
00:24:28,400 --> 00:24:30,020
dat moest ik even

437
00:24:30,999 --> 00:24:32,660
ik was wel nieuwsgierig

438
00:24:32,780 --> 00:24:33,320
die spiegel

439
00:24:34,200 --> 00:24:36,600
hele mooie beeldvorming

440
00:24:36,960 --> 00:24:38,260
en hoe zouden

441
00:24:38,480 --> 00:24:40,400
organisaties die spiegel goed kunnen inzetten

442
00:24:42,240 --> 00:24:43,220
één om te begrijpen

443
00:24:43,220 --> 00:24:44,440
het is meer een soort spiegel

444
00:24:44,720 --> 00:24:45,800
soms zoals in

445
00:24:46,400 --> 00:24:47,440
wat is het sneeuwwitje

446
00:24:48,879 --> 00:24:50,320
dus soms klopt het

447
00:24:50,440 --> 00:24:52,100
spiegelbeeld helemaal niet met

448
00:24:52,800 --> 00:24:54,580
wat je zou willen zien

449
00:24:56,220 --> 00:24:57,520
ik denk dat dat heel belangrijk is

450
00:24:57,520 --> 00:24:58,820
voor mensen om te begrijpen

451
00:24:59,460 --> 00:25:01,320
dus die spiegelfunctie is niet omdat

452
00:25:01,600 --> 00:25:03,620
ik gebruik dat woord niet omdat ik denk

453
00:25:03,760 --> 00:25:05,600
dat die online wereld of een technologie

454
00:25:05,660 --> 00:25:07,640
een accuraat reflectie is

455
00:25:07,820 --> 00:25:09,040
van wat wij doen

456
00:25:09,800 --> 00:25:11,300
maar het zegt wel heel vaak

457
00:25:11,560 --> 00:25:13,580
iets over onze wereld

458
00:25:13,780 --> 00:25:15,280
maar het zegt ook heel vaak dingen over die

459
00:25:15,320 --> 00:25:17,420
in onze normale wereld, dat vind ik dus ook als filosoof

460
00:25:17,420 --> 00:25:19,200
heel interessant vind, heel

461
00:25:19,440 --> 00:25:21,160
ongrijpbaar zijn, het zegt heel vaak iets over

462
00:25:23,760 --> 00:25:24,560
machtsdynamiek bijvoorbeeld

463
00:25:24,580 --> 00:25:26,300
iets gebruikt in het werk niet goed voor jou,

464
00:25:26,520 --> 00:25:28,140
heeft dat vaak te maken met dat

465
00:25:28,560 --> 00:25:30,140
degene die dat heeft gemaakt waarschijnlijk

466
00:25:30,280 --> 00:25:32,700
jouw belangen wat minder meenam

467
00:25:33,010 --> 00:25:33,800
in de ontwikkeling.

468
00:25:34,670 --> 00:25:36,300
Dus soms zegt het altijd iets

469
00:25:36,680 --> 00:25:38,480
over hoe de wereld in elkaar steekt,

470
00:25:38,780 --> 00:25:40,940
maar het zegt niet altijd iets waar we naar op zoek zijn.

471
00:25:41,220 --> 00:25:41,940
Nee, oké.

472
00:25:42,840 --> 00:25:44,740
De spiegel of in ieder geval kijkvenster

473
00:25:44,740 --> 00:25:46,100
waar je dan in kijkt, omdat kritisch zijn,

474
00:25:46,220 --> 00:25:46,900
wat zien we nu eigenlijk?

475
00:25:47,180 --> 00:25:50,080
En eigenlijk de uitdaging of de oplossing die we inzetten,

476
00:25:50,240 --> 00:25:52,080
die van meerdere kanten durven bekijken.

477
00:25:52,130 --> 00:25:54,540
En daarvoor moet je in de spiegel of in kijkvenster kijken

478
00:25:54,560 --> 00:25:55,860
naar het vraagstuk wat er is.

479
00:25:58,160 --> 00:26:00,680
Dus eigenlijk stilstaan bij wat zijn we aan het doen?

480
00:26:00,900 --> 00:26:01,600
Waarom zijn we aan het doen?

481
00:26:02,000 --> 00:26:03,440
Wat zijn onze waarden die er aan gekoppeld zitten?

482
00:26:04,060 --> 00:26:04,900
Wie gaat het gebruiken?

483
00:26:05,120 --> 00:26:06,740
En is het voor die mensen van toepassing?

484
00:26:07,580 --> 00:26:08,900
En voor wie is het niet van toepassing?

485
00:26:08,910 --> 00:26:10,080
En wees daar transparant in.

486
00:26:10,240 --> 00:26:10,900
Ja, precies.

487
00:26:11,380 --> 00:26:14,120
Ik vind ook bescheidenheid een heel belangrijke waarde

488
00:26:14,660 --> 00:26:16,820
bij het gebruik en ontwikkeling van technologie.

489
00:26:17,880 --> 00:26:19,660
En dat staat heel erg ook in contrast

490
00:26:20,080 --> 00:26:22,120
met wat Silicon Valley heel vaak belooft.

491
00:26:22,240 --> 00:26:23,920
Want die beloofden altijd gouden bergen.

492
00:26:24,540 --> 00:26:29,820
Maar ik denk voor goed en verantwoord gebruik van technologiebescheidenheid een hele belangrijke waarde is.

493
00:26:29,920 --> 00:26:35,100
Zowel voor gebruikers als voor bedrijven die op een grotere schaal misschien technologie afnemen.

494
00:26:35,300 --> 00:26:37,000
En hoe uitzicht die bescheidenheid?

495
00:26:38,380 --> 00:26:46,540
Eén om te denken dat zeker bij complexe problemen, maar ook soms bij simpele problemen, daar heel vaak ook niet een hele simpele oplossing voor is.

496
00:26:48,300 --> 00:26:50,160
Dus soms is het te mooi om waar te zijn.

497
00:26:50,400 --> 00:26:54,060
Ik vind op zich daar ook is dat Amazon best een goed voorbeeld van.

498
00:26:54,900 --> 00:26:59,140
Want Amazon is natuurlijk een bedrijf dat op heel veel verschillende plekken in hun keten AI gebruikt.

499
00:26:59,620 --> 00:27:00,680
Om te optimaliseren.

500
00:27:01,720 --> 00:27:07,220
Ik zelf vind dat het in zo'n groot monopoliebedrijf is dat ik daar wel wat kritiek op heb van hoe groot ze zijn.

501
00:27:07,360 --> 00:27:10,280
Maar tegelijkertijd kan je wel zeggen dat ze heel veel dingen hebben geoptimaliseerd.

502
00:27:10,640 --> 00:27:13,540
Ze kunnen in ieder geval zorgen dat je je pakketje heel snel hebt.

503
00:27:14,260 --> 00:27:17,560
Even los van andere consequenties die dat hele systeem met zich mee heeft.

504
00:27:18,880 --> 00:27:29,460
En daarbij denk ik ook dat zo'n bedrijf als Amazon, doordat ze vaak gewend zijn om een werkproces verder op te knippen in kleinere stukjes die ze vervolgens konden automatiseren,

505
00:27:30,000 --> 00:27:32,740
dat ze ook dachten dat alles te automatiseren is.

506
00:27:32,760 --> 00:27:40,600
En soms te weinig aandacht hebben dat bijvoorbeeld zo'n proces als het aannemen van een persoon een heel complex, ingewikkeld probleem is eigenlijk.

507
00:27:41,280 --> 00:27:45,680
Dat je niet heel makkelijk kan opknippen in een te automatiseren systeem.

508
00:27:46,760 --> 00:27:51,360
En daarover nadenken van het probleem dat ik heb, wat voor soort probleem is dat?

509
00:27:51,570 --> 00:27:57,800
Is dat een klein en simpel probleem dat omlijnd is en waarvan ik heel goed begrijp wat er aan de hand is?

510
00:27:58,120 --> 00:28:08,780
Of is het eigenlijk een complex probleem waar heel veel factoren een rol spelen die niet zo makkelijk ook in een cijfermatige of een ander rekenmatig module op te lossen zijn?

511
00:28:10,120 --> 00:28:16,080
Ja, dat is niet makkelijk, maar ik denk dat dat een heel belangrijk punt is.

512
00:28:16,140 --> 00:28:16,920
Duidelijk, duidelijk.

513
00:28:17,560 --> 00:28:20,320
Wij hebben ook een kaartspel met stellingen.

514
00:28:20,940 --> 00:28:25,600
Juist ook om dingen met elkaar te bespreken die misschien best wel lastig kunnen zijn.

515
00:28:26,220 --> 00:28:28,420
En wij willen ook heel graag zo'n stelling aan jou voorleggen.

516
00:28:42,140 --> 00:28:43,160
Niels heeft weer geschud, hè?

517
00:28:43,270 --> 00:28:43,400
Ja.

518
00:28:44,860 --> 00:28:46,800
Gebruik en toepassing is het thema deze keer.

519
00:28:47,290 --> 00:28:48,820
En de stelling luidt als volgt.

520
00:28:49,290 --> 00:28:54,580
De samenwerking tussen mensen en AI zal verbeteren met generatieve AI.

521
00:28:57,640 --> 00:29:01,200
Nou ja, ik zou zeggen dat je dus niet echt samenwerkt met AI.

522
00:29:01,740 --> 00:29:03,440
Je werkt samen met andere mensen.

523
00:29:04,090 --> 00:29:06,120
En je kan AI gebruiken als een hulpmiddel.

524
00:29:06,400 --> 00:29:10,680
In die zin, dat onderdeel van de stelling zou ik sowieso niet mee eens zijn.

525
00:29:12,080 --> 00:29:16,360
En het tweede was dat generatieve AI die samenwerking ook gaat verbeteren.

526
00:29:18,180 --> 00:29:20,260
Ja, daar ben ik ook beperkt.

527
00:29:20,260 --> 00:29:26,540
Ik denk dat generatieve AI ook voor kunstenaars een hele interessante nieuw middel kan zijn om kunst te maken.

528
00:29:26,640 --> 00:29:28,100
Of andere dingen te genereren.

529
00:29:29,300 --> 00:29:35,580
Tegelijkertijd denk ik ook dat generatieve AI heel veel beperkingen heeft.

530
00:29:35,740 --> 00:29:38,820
Omdat het ook denk ik heel afhankelijk is van de input.

531
00:29:39,440 --> 00:29:46,300
Ik heb wat argwaan hoe creatief generatieve AI is.

532
00:29:46,760 --> 00:29:50,900
Dus ik denk dat daar de mens nog steeds wel heel erg veel beter in zal blijven.

533
00:29:50,980 --> 00:29:52,260
Voor een hele lange periode.

534
00:29:53,960 --> 00:29:55,040
Dus daar ben ik ook.

535
00:29:55,040 --> 00:29:58,040
En zeker met samenwerken is nou een heel goed voorbeeld van iets.

536
00:29:58,080 --> 00:29:59,700
Dat heel vaak heel complex is.

537
00:30:00,820 --> 00:30:04,080
Dus ik denk dat technologie daar niet heel snel heel veel beter.

538
00:30:05,060 --> 00:30:06,160
Heel veel meerwaarde heeft.

539
00:30:06,600 --> 00:30:08,840
Waarvan ik denk, wauw dat gaat alles veranderen.

540
00:30:09,320 --> 00:30:11,080
Maar meer een bescheiden bijdrage.

541
00:30:12,120 --> 00:30:13,960
Zou je toch nog iets over dat samenwerken?

542
00:30:14,050 --> 00:30:16,100
Want dat triggert je, dat woord.

543
00:30:17,580 --> 00:30:19,780
Wat zie jij dan als samenwerking?

544
00:30:20,080 --> 00:30:23,300
En waarom AI daar eigenlijk niet in zit?

545
00:30:24,000 --> 00:30:26,620
Ja, dus AI, ik zie dat net als dat je...

546
00:30:26,960 --> 00:30:30,600
Als ik een rapport op met Word schrijf...

547
00:30:30,600 --> 00:30:32,720
Dan zie ik dat niet als een samenwerking met Word.

548
00:30:33,140 --> 00:30:36,360
Maar meestal werk ik samen met een opdrachtgever en met collega's...

549
00:30:36,400 --> 00:30:38,280
om dat document af te maken.

550
00:30:38,900 --> 00:30:40,380
En datzelfde zie ik wel ook bij AI.

551
00:30:40,620 --> 00:30:43,720
Dus ik zie niet als ik AI gebruik, dat gebruik ik vaak genoeg.

552
00:30:44,520 --> 00:30:46,120
Dat zie ik niet als een samenwerking met AI.

553
00:30:46,620 --> 00:30:50,260
Maar meer misschien als iets dat mij input kan geven om mijn eigen gedachten,

554
00:30:51,580 --> 00:30:54,340
om met mezelf te brainstormen van, hij klopt het gedachten wel.

555
00:30:54,440 --> 00:30:57,320
Of een soort van actievere versie van een notebook.

556
00:30:57,590 --> 00:31:00,040
Van gewoon een boekje waar je dingen voor jezelf opschrijft.

557
00:31:01,300 --> 00:31:02,000
Zo zie ik AI.

558
00:31:02,050 --> 00:31:05,420
Dus AI is geen persoon of een acteur waarmee ik werk.

559
00:31:05,900 --> 00:31:07,020
Maar is gewoon een hulpmiddel.

560
00:31:07,680 --> 00:31:08,860
Net als een pen dat is.

561
00:31:09,200 --> 00:31:10,680
Of een computer.

562
00:31:11,220 --> 00:31:12,520
Ja, duidelijk.

563
00:31:17,280 --> 00:31:18,480
Waar ik nog benieuwd naar ben.

564
00:31:19,200 --> 00:31:21,200
Je hebt ook wat onderzoek gedaan.

565
00:31:22,340 --> 00:31:23,140
Naar AI.

566
00:31:23,620 --> 00:31:25,100
En normen en waarden.

567
00:31:25,740 --> 00:31:27,140
Zo mag ik dat denk ik noemen.

568
00:31:27,320 --> 00:31:29,400
Zou je daar wat verder over kunnen vertellen?

569
00:31:30,040 --> 00:31:31,780
Ja, wat ik zelf net zei.

570
00:31:31,860 --> 00:31:35,500
Ik vind het heel belangrijk om dingen in context te bekijken.

571
00:31:35,560 --> 00:31:36,540
En ik vind zelf ook.

572
00:31:36,880 --> 00:31:39,180
Ik vind filosofie heel leuk, zoals jullie hebben gehoord.

573
00:31:40,120 --> 00:31:44,620
En het nadenken over conceptuele relaties, dat kan ik heel graag heel lang doen.

574
00:31:45,640 --> 00:31:50,820
Maar ik zelf wel denk dat nadenken en doen twee dingen zijn die elkaar heel erg versterken.

575
00:31:51,560 --> 00:31:58,100
En ook dat, want vaak, nou niet vaak, soms, ik ook, denk je soms van ik moet er eerst over nadenken en dan kan ik iets doen.

576
00:31:58,640 --> 00:32:01,960
Maar ik ben steeds meer van mening dat dat eigenlijk niet zo is.

577
00:32:02,060 --> 00:32:04,700
Dat je nadenken en doen de hele tijd met elkaar moet afwisselen.

578
00:32:04,840 --> 00:32:07,780
En dat dat voor allebei heel vaak een positief effect heeft.

579
00:32:09,000 --> 00:32:12,100
Dus zo heb ik eigenlijk mijn eigen onderzoekspraktijk ontwikkeld.

580
00:32:12,780 --> 00:32:15,500
Wat ik doe is dat ik kijk naar een filosofisch concept.

581
00:32:16,120 --> 00:32:22,920
En vervolgens kijk of ik voorbeelden van een toepassing van het concept kan vinden in een hele concrete zin.

582
00:32:23,280 --> 00:32:25,700
Dus ik kijk naar hele specifieke applicaties.

583
00:32:26,520 --> 00:32:30,580
En ga dan met mensen in gesprek over hoe zien we dit concept hierin terug.

584
00:32:31,320 --> 00:32:35,440
Dus ik heb onder andere onderzoek gedaan naar de rol van autonomie bij menstruatieapps.

585
00:32:35,920 --> 00:32:39,600
En daarbij zijn menstruatieapps dan voor mij het middel om te kijken naar autonomie.

586
00:32:40,360 --> 00:32:44,400
Maar ook om autonomie tot een bepaalde niveau te kunnen praktiseren.

587
00:32:44,720 --> 00:32:47,360
Dus stel ik wil meer zeggenschap over mijn lichaam.

588
00:32:47,460 --> 00:32:49,700
Omdat dat mijn autonomie verbetert.

589
00:32:49,800 --> 00:32:51,820
Dan kan je daar een menstruatieapp voor gebruiken.

590
00:32:51,960 --> 00:32:55,760
En in die zin is een menstruatieapp dus een toepassing voor mijzelf.

591
00:32:55,980 --> 00:32:58,900
Om te kijken hoe kan ik autonomie praktiseren in mijn eigen leven.

592
00:33:00,200 --> 00:33:02,620
En dat was dan het uitgangspunt voor dat onderzoek.

593
00:33:03,000 --> 00:33:04,060
En ik kijk dan samen.

594
00:33:04,220 --> 00:33:10,240
Het zijn collectieve projecten waar ik samen met ontwikkelaars, gebruikers en filosofen nadenk over.

595
00:33:10,400 --> 00:33:13,580
Wat zien we als we dit met z'n allen hiernaar kijken?

596
00:33:14,260 --> 00:33:16,760
En nu doe ik onderzoek naar de rol van kwetsbaarheid en dating apps.

597
00:33:16,800 --> 00:33:18,260
En dat is een zelfde soort aanpak.

598
00:33:18,860 --> 00:33:25,540
En hoe zouden bedrijven hier zelf ook iets mee kunnen?

599
00:33:27,860 --> 00:33:29,600
Ja, dus als ze iets willen...

600
00:33:29,600 --> 00:33:30,760
Nou, bijvoorbeeld stel je...

601
00:33:30,940 --> 00:33:32,620
Waar we begonnen in het gesprek...

602
00:33:32,620 --> 00:33:35,560
Je vindt het heel belangrijk als bedrijf...

603
00:33:36,040 --> 00:33:38,180
om een rechtvaardig bedrijf te zijn.

604
00:33:38,420 --> 00:33:41,240
Dat op een bepaalde manier eerlijkheid of rechtvaardigheid...

605
00:33:41,960 --> 00:33:43,500
meeneemt in de manier waarop je werkt...

606
00:33:43,500 --> 00:33:44,960
of de producten die je ontwikkelt.

607
00:33:46,140 --> 00:33:49,100
Om over rechtvaardigheid in abstracte zin te blijven nadenken...

608
00:33:49,100 --> 00:33:50,140
is heel erg lastig.

609
00:33:50,220 --> 00:33:52,440
Dan wordt het ook snel een soort van academische exercitie.

610
00:33:53,220 --> 00:33:56,080
Dus ik zou dan een bedrijf aanraden om te kijken...

611
00:33:56,160 --> 00:33:57,180
kunnen we iets maken?

612
00:33:58,160 --> 00:34:02,540
waarbij we dit begrip rechtvaardigheid als belangrijkste uitgangspunt nemen.

613
00:34:02,590 --> 00:34:07,280
En wat betekent het dan van hoe we samen werken, wat we maken en voor wie we maken.

614
00:34:07,780 --> 00:34:14,320
En dan kan je in concrete zin vaak heel veel dingen leren over wat je dan met elkaar eigenlijk vindt dat rechtvaardigheid is.

615
00:34:15,320 --> 00:34:18,219
Dus op die manier zou ik dat aanraden voor bedrijven.

616
00:34:18,310 --> 00:34:22,780
Want het wordt veel minder ook een filosofische exercitie.

617
00:34:23,420 --> 00:34:24,440
En als wij nou eens...

618
00:34:24,780 --> 00:34:27,320
Kijk, ik ben heel erg van de uitlegbaarheid.

619
00:34:28,400 --> 00:34:30,760
Maar dat zit heel erg aan de machine learning kant.

620
00:34:31,139 --> 00:34:33,620
Omdat je daar nog een vorm van uitlegbaarheid hebt.

621
00:34:33,719 --> 00:34:35,900
Met de grote taalmodellen is dat heel erg lastig.

622
00:34:36,540 --> 00:34:39,520
Maar ook weer in de beleidsstukken staat heel vaak...

623
00:34:41,100 --> 00:34:43,179
Onze systemen moeten uitlegbaar zijn.

624
00:34:44,478 --> 00:34:49,120
Hoe ga ik dan met zoiets aan de slag als ik dat aan jou zou vragen?

625
00:34:49,940 --> 00:34:51,719
Ja, nou een goede vraag.

626
00:34:53,159 --> 00:34:56,080
Aan de ene kant, ik ben zowel filosoof als jurist.

627
00:34:56,199 --> 00:35:00,719
En het verschil wel tussen die twee is dat je vanuit een ethisch perspectief...

628
00:35:00,719 --> 00:35:02,680
kan je heel erg nadenken over wenselijkheid.

629
00:35:02,780 --> 00:35:04,400
Wat zouden we idealiter graag willen?

630
00:35:05,560 --> 00:35:08,540
En vanuit juridisch perspectief moet je toch wel ook veel meer kijken...

631
00:35:08,540 --> 00:35:10,999
over wat mag en wat mag niet en wat zijn daar grenzen.

632
00:35:11,120 --> 00:35:15,120
En dat is wat harder dan als je alleen maar vanuit de ethiek ergens naar kijkt.

633
00:35:15,260 --> 00:35:18,300
Het mooie is in de AI Act staat ook uitlegbaarheid.

634
00:35:18,300 --> 00:35:19,780
Ja, precies. Dus daar wil je ook naartoe.

635
00:35:20,260 --> 00:35:25,140
Dus als je iets maakt of bijvoorbeeld een systeem wil gebruiken...

636
00:35:25,140 --> 00:35:28,800
waarbij het belangrijk is dat je kan uitleggen hoe je tot een besluit bent gekomen...

637
00:35:28,920 --> 00:35:32,760
dan kan het al heel goed zijn dat je bepaalde systemen dus niet kan gebruiken...

638
00:35:32,760 --> 00:35:34,100
omdat we die niet kunnen uitleggen.

639
00:35:34,640 --> 00:35:36,920
Dus daar is niet zoveel aan te tweaken.

640
00:35:37,900 --> 00:35:42,100
Dat is meer een harde realiteit die, denk ik, voor soms heel moeilijk te accepteren is...

641
00:35:42,100 --> 00:35:44,840
omdat mensen denken, maar het kan zoveel meerwaarde hebben op dit vlak.

642
00:35:46,240 --> 00:35:55,500
Maar het kunnen uitleggen van besluiten of het kunnen uitleggen hoe een systeem heeft bijgedragen aan een bepaald besluit dat op een individu van toepassing is.

643
00:35:55,780 --> 00:35:57,260
Dat is in een voorordening heel belangrijk.

644
00:35:57,740 --> 00:36:02,360
En dat betekent ook dat bepaalde systemen eigenlijk op sommige plekken niet kunnen worden ingezet.

645
00:36:04,080 --> 00:36:09,020
Soms zijn dingen toch uitlegbaar, maar wil je het misschien toch niet vanwege andere doeleinden als organisatie zijnde.

646
00:36:10,180 --> 00:36:24,100
Wat ik bij het menstruatie app en die data verzameling eigenlijk al heel mooi naar voren vond komen tijdens de podcast die je ook gemaakt hebt en ook verschillende onderzoeken die gedaan zijn, is dat er vaak heel veel mogelijk is.

647
00:36:24,100 --> 00:36:28,940
Dat technologie echt wel heel veel meer mogelijk maakt dan dat het vroeger in een boekje werd opgeschreven.

648
00:36:28,970 --> 00:36:38,200
Dus je hebt veel meer autonomie zoals je zegt, maar door wel besef te hebben van de technologie ook te gaan kijken van wat moeten we dan het goede ervan inzetten.

649
00:36:38,400 --> 00:36:40,440
Maar wat zijn de nadelige kanten waar we wat mee moeten?

650
00:36:41,800 --> 00:36:43,300
En daar dus eigenlijk holistisch naar te kijken.

651
00:36:43,480 --> 00:36:45,440
En dus af en toe wat minder snel gaan.

652
00:36:46,500 --> 00:36:48,240
Dan dat de technologie gaat door te kijken.

653
00:36:48,360 --> 00:36:50,780
Hoe wil ik dat als organisatie dan eigenlijk inzetten?

654
00:36:51,380 --> 00:36:52,060
Want wat ik begreep is.

655
00:36:52,300 --> 00:36:55,020
Het is heel veel nieuwe informatie die je voor jezelf hebt.

656
00:36:55,340 --> 00:36:56,740
Maar je hebt er geen controle meer over.

657
00:36:57,740 --> 00:36:58,740
En ik denk dat dat vaak is.

658
00:36:58,860 --> 00:37:01,240
Kijken we goed genoeg naar de use case.

659
00:37:01,540 --> 00:37:03,640
En naar het probleem dat we willen oplossen.

660
00:37:04,400 --> 00:37:05,540
Vanuit de verschillende perspectieven.

661
00:37:06,320 --> 00:37:08,360
En vaak wordt dan de negatieve blik erop gezet.

662
00:37:08,440 --> 00:37:09,640
Maar het hoeft niet altijd negatief te zijn.

663
00:37:09,840 --> 00:37:11,400
Dat vind ik wel heel mooi naar voren komen.

664
00:37:11,480 --> 00:37:14,400
En ik denk dat het ook wel iets is om de luisteraars ook mee te geven.

665
00:37:14,980 --> 00:37:16,720
Soms kan iets negatief overkomen.

666
00:37:17,320 --> 00:37:19,920
Maar door daar naar het negatief te kijken kan je het positief maken.

667
00:37:20,080 --> 00:37:21,240
Maar dan moet je er wel mee aan de slag.

668
00:37:21,360 --> 00:37:25,340
Precies, dat is eigenlijk precies het doel van mijn werk.

669
00:37:26,240 --> 00:37:29,880
Want soms denk ik ook dat mensen heel graag de kansen willen horen.

670
00:37:30,900 --> 00:37:31,980
En ik denk dat dat heel goed is.

671
00:37:32,240 --> 00:37:33,480
Want er zijn heel veel kansen.

672
00:37:34,000 --> 00:37:36,700
Maar soms ook dat ze daardoor minder willen focussen op de risico's.

673
00:37:36,700 --> 00:37:37,800
Dat hoor je soms mensen zeggen.

674
00:37:38,130 --> 00:37:40,160
Maar juist die risico's zijn super interessant.

675
00:37:40,620 --> 00:37:42,980
Omdat je daardoor iets goed of beter kan maken.

676
00:37:43,420 --> 00:37:46,740
Dus het is heel goed om die in het gezicht te kijken.

677
00:37:46,840 --> 00:37:48,480
Bij MensenGelaatsen heb je een heel mooi voorbeeld.

678
00:37:49,320 --> 00:37:51,520
Het biedt in potentie heel veel meerwaarde.

679
00:37:51,530 --> 00:37:53,280
Je hebt er ook heel veel verschillende soorten apps.

680
00:37:53,330 --> 00:37:56,180
Dus je hebt er ook genoeg die wel goed zijn.

681
00:37:56,340 --> 00:37:59,620
En die ook die rol van autonomie niet alleen maar hebben vertaald.

682
00:37:59,720 --> 00:38:01,480
In dat je informatie krijgt over jezelf.

683
00:38:01,920 --> 00:38:04,180
Maar ook dat je een hele goede gegevensbescherming hebt.

684
00:38:04,260 --> 00:38:06,540
En dat de informatiebeveiliging et cetera op orde is.

685
00:38:06,940 --> 00:38:10,000
Dus er is heel veel mogelijk om heel vaak een bepaald begrip.

686
00:38:10,160 --> 00:38:11,720
Zoals autonomie of rechtvaardigheid.

687
00:38:12,100 --> 00:38:15,460
Op alle verschillende niveaus van een technologie goed te vertalen.

688
00:38:15,660 --> 00:38:18,000
Maar dat vraagt van ons zelfreflectie.

689
00:38:18,140 --> 00:38:19,980
En soms denken dit is nog niet goed genoeg.

690
00:38:20,400 --> 00:38:21,500
Dus dat moeten we aanpassen.

691
00:38:22,320 --> 00:38:25,480
Ik denk dat het vaak in de kleine details zit waar we niet besef van hebben.

692
00:38:25,600 --> 00:38:26,580
En dat was voor mij een trigger.

693
00:38:27,180 --> 00:38:28,860
Van gewoon een knop in de app hebben.

694
00:38:29,060 --> 00:38:30,560
Ik wil mijn data verwijderd hebben.

695
00:38:30,800 --> 00:38:32,520
Maar dat dat dan ergens via een mail moet.

696
00:38:32,520 --> 00:38:34,640
En dat is wel een hele praktische.

697
00:38:34,700 --> 00:38:36,800
Die je gewoon mee kan nemen in je designkeuzes.

698
00:38:37,320 --> 00:38:38,660
Als je dat moet doen.

699
00:38:38,960 --> 00:38:40,540
Maak het dan ook wel makkelijk genoeg.

700
00:38:40,980 --> 00:38:41,560
In apps.

701
00:38:41,700 --> 00:38:43,280
Dat was een heel concreet voorbeeld.

702
00:38:44,080 --> 00:38:45,800
Een ander mooi voorbeeld vond ik.

703
00:38:45,880 --> 00:38:46,840
Met de menstruatie apps.

704
00:38:48,160 --> 00:38:50,020
Ook bedrijven die soms wel bewust zijn.

705
00:38:50,200 --> 00:38:52,300
Dat gegevensbescherming heel belangrijk is.

706
00:38:52,360 --> 00:38:53,600
Zeker bij menstruatie apps.

707
00:38:53,640 --> 00:38:55,240
Waar je hele gevoelige data deelt.

708
00:38:55,780 --> 00:38:56,260
Met de app.

709
00:38:57,280 --> 00:38:59,280
Dat ze dat wel hadden bedacht.

710
00:39:00,440 --> 00:39:01,760
de data die je heel bewust

711
00:39:02,060 --> 00:39:04,180
invoert, bijvoorbeeld wanneer je ongesteld

712
00:39:04,210 --> 00:39:05,840
bent, maar dat ze dat niet dachten

713
00:39:05,890 --> 00:39:07,700
van de metadata. Terwijl

714
00:39:07,790 --> 00:39:09,160
de meeste mensen die

715
00:39:09,920 --> 00:39:11,620
menstruatie app gebruiken, die heel vaak zullen

716
00:39:11,880 --> 00:39:13,720
gebruiken en dan zullen

717
00:39:14,060 --> 00:39:15,520
openen als ze ongesteld zijn om hun

718
00:39:15,660 --> 00:39:17,520
ongesteld data in te doen. En dat is dus metadata

719
00:39:17,730 --> 00:39:19,520
die hij heel veel zegt eigenlijk over

720
00:39:19,760 --> 00:39:21,540
de cyclus. Dus het is

721
00:39:22,080 --> 00:39:23,820
niet altijd onwil, soms ook wel.

722
00:39:23,980 --> 00:39:25,620
Want sommige zijn genoeg menstruatie apps

723
00:39:25,620 --> 00:39:27,519
die alleen maar worden gemaakt omdat ze die data graag willen

724
00:39:27,540 --> 00:39:29,520
doorverkopen. Maar soms

725
00:39:29,520 --> 00:39:31,720
is het ook gewoon echt nieuwsgierigheid

726
00:39:31,780 --> 00:39:33,400
denk ik dat nodig is om te begrijpen

727
00:39:33,400 --> 00:39:35,400
hoe kan je dit verbeteren en hoe

728
00:39:35,540 --> 00:39:36,720
kunnen we problemen voorkomen.

729
00:39:37,700 --> 00:39:39,360
Je hebt een heel duidelijke

730
00:39:40,360 --> 00:39:41,540
denkwijze over hoe je

731
00:39:42,520 --> 00:39:43,820
als je spiegelbeeld

732
00:39:43,820 --> 00:39:45,760
niet goed is, hoe je dat beter kan maken.

733
00:39:46,000 --> 00:39:47,600
Hoe je naar dingen kijkt. Ik denk dat

734
00:39:47,600 --> 00:39:48,780
dat wat anders is dan

735
00:39:49,960 --> 00:39:51,500
hoe de gemiddelde gekeken wordt.

736
00:39:52,140 --> 00:39:53,600
Is er iets of iemand geweest

737
00:39:53,720 --> 00:39:55,060
die je daarin beïnvloed heeft?

738
00:39:55,230 --> 00:39:57,060
Dat je hierop bent uitgekomen?

739
00:39:58,640 --> 00:39:59,880
Nou eigenlijk heel veel mensen.

740
00:40:01,200 --> 00:40:05,940
Ik ben mijn filosofische praktijk eigenlijk begonnen drie jaar geleden nu.

741
00:40:05,980 --> 00:40:07,080
Of drie jaar, vier jaar geleden.

742
00:40:07,720 --> 00:40:09,900
En dat kwam door heel veel redenen.

743
00:40:09,960 --> 00:40:14,120
Ondanks dan onder andere door wat er aan Amerika gebeurde.

744
00:40:14,120 --> 00:40:15,780
En ook direct met Roe v. Wade.

745
00:40:16,040 --> 00:40:19,720
En de rol van vrouwen en de positie van vrouwen in de maatschappij.

746
00:40:19,820 --> 00:40:21,280
Waarvan ik dacht, ik moet daar iets mee.

747
00:40:21,920 --> 00:40:32,140
Maar het kwam ook omdat ik in mijn werk heel erg vaak met hoogopgeleide experts interacteer over onderwerpen.

748
00:40:32,580 --> 00:40:36,620
En zelf heel erg merkte ook gewoon met gesprekken met mijn vader of met vriendinnen.

749
00:40:37,000 --> 00:40:39,900
Dat ik dacht, die hebben super interessante inzichten.

750
00:40:40,380 --> 00:40:43,400
Zowel over eigenlijk filosofische concepten als technologie.

751
00:40:46,620 --> 00:40:51,700
Ik vind het nog steeds dat er zoveel wijsheid zit bij mensen die elke dag technologie gebruiken.

752
00:40:53,080 --> 00:40:53,520
en

753
00:40:54,540 --> 00:40:56,280
dat is eigenlijk denk ik mijn grootste

754
00:40:57,120 --> 00:40:58,700
inspiratiebron voor ook hoe ik er nu over

755
00:40:58,900 --> 00:41:00,660
nadenk, omdat ik juist denk dat er heel

756
00:41:00,740 --> 00:41:02,480
veel kennis zit bij mensen die direct

757
00:41:03,060 --> 00:41:04,120
met technologie iets doen

758
00:41:05,060 --> 00:41:06,840
dus die zijn eigenlijk mijn grootste

759
00:41:06,940 --> 00:41:08,820
inspiratiebron en dat kunnen zowel ontwikkelaars

760
00:41:08,830 --> 00:41:10,760
zijn, maar ook dus gewone

761
00:41:11,280 --> 00:41:11,720
gebruikers

762
00:41:13,240 --> 00:41:14,760
ja, soms wordt

763
00:41:14,840 --> 00:41:16,780
er gezegd dat we heel gemakzuchtig

764
00:41:16,920 --> 00:41:18,160
met technologie omgaan

765
00:41:18,640 --> 00:41:20,699
maar in mijn projecten merk ik eigenlijk dat dat

766
00:41:20,720 --> 00:41:22,180
niet zo is. Dat mensen als je

767
00:41:23,200 --> 00:41:24,340
overvraagt, wat vind je hiervan?

768
00:41:24,770 --> 00:41:26,780
Of wat denk je over ChatGPT?

769
00:41:26,830 --> 00:41:28,700
Of wat dan ook. Dat je dan hele interessante

770
00:41:29,559 --> 00:41:30,740
diepe soms gesprekken

771
00:41:30,840 --> 00:41:32,620
kan hebben over wat het betekent om mensen

772
00:41:32,770 --> 00:41:34,640
te zijn. En dat vind ik heel

773
00:41:34,820 --> 00:41:36,480
mooi. Dus ja, juist die wijsheid

774
00:41:36,700 --> 00:41:37,800
bij iedereen.

775
00:41:39,280 --> 00:41:40,680
Omdat juist die individuele

776
00:41:40,860 --> 00:41:42,760
ervaring ook heel erg kan verschillen tussen mensen.

777
00:41:42,810 --> 00:41:44,720
Dat vind ik heel interessant. Omdat ik op die manier

778
00:41:45,720 --> 00:41:46,720
iets anders leer dan

779
00:41:46,860 --> 00:41:48,940
dat ik zelf ervaar. En dat vind ik heel leuk.

780
00:41:49,420 --> 00:41:51,340
Dat leidt ons eigenlijk naar...

781
00:41:52,140 --> 00:41:53,500
Dat is een geweldig bruggetje.

782
00:41:53,560 --> 00:41:54,300
Heel mooi bruggetje.

783
00:41:54,350 --> 00:41:55,440
Want eigenlijk zijn we benieuwd.

784
00:41:55,570 --> 00:41:57,520
Dus als je heel vrij zou mogen zijn.

785
00:41:58,060 --> 00:42:00,860
Van hoe jij dan naar technologie zou willen kijken.

786
00:42:01,140 --> 00:42:02,420
En dan vooral naar AI.

787
00:42:03,260 --> 00:42:07,700
Van wat voor systeem of AI zou je in je leven willen hebben.

788
00:42:07,800 --> 00:42:09,040
En of dat werk is of privé.

789
00:42:09,160 --> 00:42:09,960
Maakt me niet zoveel uit.

790
00:42:10,820 --> 00:42:13,120
Want dat zegt iets dan over jouw inzicht.

791
00:42:13,810 --> 00:42:16,320
En we geven je even tijd om daarover na te denken.

792
00:42:40,220 --> 00:42:42,080
Ik denk dat het zonder grenzen is.

793
00:42:42,210 --> 00:42:42,840
Ja, zeker.

794
00:42:44,480 --> 00:42:46,460
Ik denk wat ik heel leuk zou vinden.

795
00:42:47,760 --> 00:42:51,520
Nu is technologie nog heel vaak voor een individu.

796
00:42:52,000 --> 00:42:54,540
En is het gebruik ook heel individueel.

797
00:42:55,280 --> 00:42:56,660
Ik zou het heel interessant vinden.

798
00:42:57,100 --> 00:42:59,640
Of er een AI systeem zou kunnen worden ontwikkeld.

799
00:42:59,760 --> 00:43:06,880
Waarbij je veel gezamenlijker ervaringen kan opdoen.

800
00:43:07,380 --> 00:43:08,420
Dus ik zit even te denken.

801
00:43:09,140 --> 00:43:13,000
Want ook onze mediaconsumptie is nu ook bijvoorbeeld heel erg individueel.

802
00:43:13,140 --> 00:43:16,420
En vroeger had je de tv en kon je samen bijvoorbeeld een tv-programma kijken.

803
00:43:18,300 --> 00:43:19,920
En ik weet niet wat er volgt.

804
00:43:19,920 --> 00:43:24,180
En nu zijn we eigenlijk naar een heel geïndividualiseerde consumentengebruik überhaupt gegaan.

805
00:43:24,600 --> 00:43:27,180
Het zou interessant zijn als er weer een volgende stap kan zijn.

806
00:43:27,300 --> 00:43:29,620
Waar die gezamenlijkheid van een ervaring.

807
00:43:29,920 --> 00:43:32,420
Waar je daar makkelijk in kan delen op een bepaalde manier.

808
00:43:32,600 --> 00:43:33,020
Wat mooi.

809
00:43:33,400 --> 00:43:40,120
Want AI wordt natuurlijk heel vaak gecombineerd met juist hyperpersonalisatie.

810
00:43:40,380 --> 00:43:40,480
Zo.

811
00:43:41,620 --> 00:43:42,600
Ik struikel er even over.

812
00:43:43,720 --> 00:43:47,140
En jij zegt van nee, maar ik wil eigenlijk weer terug naar het groepsgevoel.

813
00:43:47,380 --> 00:43:50,420
Ja, dat zou mooi zijn.

814
00:43:53,620 --> 00:43:58,140
Hoe kijk je dan nu tegen die hele beweging van die hyperpersonalisatie aan?

815
00:43:59,420 --> 00:44:01,920
Aan de ene kant vind ik het persoonlijk soms fijn.

816
00:44:02,800 --> 00:44:05,140
Namelijk het is gewoon meer geënt op wat ik wil zien.

817
00:44:05,600 --> 00:44:07,200
Het is de producten die ik wil hebben.

818
00:44:10,060 --> 00:44:14,720
Ja, ik denk er ook aan, want ik kijk nu naar de rol van kwetsbaarheid bij datingapps.

819
00:44:14,730 --> 00:44:21,660
En ik denk daar dus het idee ook dat daten een heel individuele ervaring is, een verkeerde aanname is.

820
00:44:22,040 --> 00:44:25,920
Dus voor een mens, we zijn sociale wezens, we willen heel graag bij groepen horen.

821
00:44:27,580 --> 00:44:32,880
Denk ik dat die hyperpersonalisatie eigenlijk best problematisch is soms.

822
00:44:32,920 --> 00:44:39,760
voor ons gevoel van ergens bij horen of met andere mensen relateren en communiceren.

823
00:44:40,920 --> 00:44:49,140
En ook dat communicatie, het heeft ook communicatie heel erg opgeknipt in dat je je uitcommuniceert.

824
00:44:49,280 --> 00:44:51,820
Terwijl ik denk niet dat dat communicatie alleen is.

825
00:44:51,820 --> 00:44:57,620
Voor communicatie wil je eigenlijk dat iemand naar je luistert, je begrijpt en hoeft niet per se een antwoord op te komen.

826
00:44:57,960 --> 00:45:06,940
Maar dat aspect van iemand horen of iemand zien, dat ontbreekt nu denk ik eigenlijk totaal bij hypergepersonaliseerde consumptie.

827
00:45:07,160 --> 00:45:11,659
Ja, en heel veel van eigenlijk wie wij zijn, wat wij doen, is niet gedigitaliseerd.

828
00:45:12,380 --> 00:45:17,260
En dat zit niet in de hyperpersonalisatie, als ik voor mezelf even voor word.

829
00:45:17,960 --> 00:45:18,240
Mooi.

830
00:45:18,900 --> 00:45:23,420
Ik denk dat we een duidelijk beeld hebben gekregen van hoe jij naar deze technologie kijkt.

831
00:45:23,700 --> 00:45:27,340
Vooral het idee van het spiegelbeeld zal denk ik lang blijven hangen.

832
00:45:28,260 --> 00:45:30,200
ontzettend bedankt voor het delen van je inzichten

833
00:45:30,740 --> 00:45:31,800
ja jullie bedankt

834
00:45:31,960 --> 00:45:32,300
dankjewel

835
00:45:34,780 --> 00:45:37,060
leuk dat je weer luisterde naar deze aflevering

836
00:45:37,060 --> 00:45:38,060
van AIToday live

837
00:45:38,300 --> 00:45:39,540
vergeet je niet te abonneren via je

838
00:45:40,300 --> 00:45:41,080
podcast app

839
00:45:43,260 --> 00:45:44,700
het zijn allemaal tongenbrekers

840
00:45:44,900 --> 00:45:45,180
blijkbaar

841
00:45:46,200 --> 00:45:47,920
en dan mes je geen aflevering

842
00:45:48,140 --> 00:45:49,819
tot de volgende keer


People on this episode