AIToday Live

S07E73 - Onze kunstmatige toekomst: gesprek met de auteur (Joris Krijger)

Aigency by Info Support Season 7 Episode 73

Joris Krijger, AI Governance Officer bij ASN Bank en promovendus aan de Erasmus Universiteit, bespreekt zijn boek "Onze kunstmatige toekomst" in de nieuwste aflevering van AIToday Live. Hij belicht de maatschappelijke impact van AI en de noodzaak om deze technologische revolutie in goede banen te leiden.

Krijger waarschuwt voor de machtsverschuiving die AI teweegbrengt en pleit voor een ethische infrastructuur binnen organisaties. Hij benadrukt het belang van morele veerkracht in de samenleving om een tegenwicht te bieden aan de toenemende macht van overheden en bedrijven door AI.

Onderwerpen

  • Maatschappelijke impact van AI
  • Ethische infrastructuur binnen organisaties
  • Veranderende arbeidsmarkt door AI
  • Uitlegbaarheid en verantwoordelijkheid van AI-systemen
  • Concrete stappen voor verantwoorde AI
Links

Genoemde entiteiten: ASN Bank - Erasmus Universiteit - Zwitserland

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:05,600
In deze aflevering praten we met Joris Krijger over zijn nieuwe boek Onze kunstmatige toekomst.

2
00:00:05,600 --> 00:00:11,640
Joris deelt zijn visie op hoe we als samenleving met AI om moeten gaan om ervoor te zorgen

3
00:00:11,640 --> 00:00:17,320
dat niet alleen een kleine groep, maar iedereen profiteert van deze technologische transformatie.

4
00:00:17,320 --> 00:00:18,760
Veel plezier met deze aflevering.

5
00:00:20,700 --> 00:00:23,640
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

6
00:00:24,000 --> 00:00:25,680
Mijn naam is Joop Snijder, CTO bij Aigency.

7
00:00:26,020 --> 00:00:28,820
Mijn naam Niels Naglé, Area Lead, Data & AI bij Info Support.

8
00:00:29,160 --> 00:00:31,100
En in de studio, Joris Krijger.

9
00:00:31,280 --> 00:00:33,560
Joris, je bent weer terug, al vrij snel.

10
00:00:33,900 --> 00:00:35,080
En daar zijn we ontzettend blij mee.

11
00:00:35,280 --> 00:00:37,440
Want je hebt een heel mooi boek geschreven.

12
00:00:37,700 --> 00:00:44,000
Onze kunstmatige toekomst, wat wij willen met AI en AI met ons.

13
00:00:44,860 --> 00:00:49,180
En voordat we dat boek induiken, zou je je even willen voorstellen aan de luisteraars?

14
00:00:49,390 --> 00:00:52,420
Ja, natuurlijk. Heel leuk om weer terug te zijn. Dus dank voor de uitnodiging.

15
00:00:52,620 --> 00:00:57,460
En ja, Joris Krijger, ik ben wat we nu hebben genoemd AI Governance Officer bij de ASN Bank.

16
00:00:58,000 --> 00:01:00,000
Sinds 1 juli de ASN Bank, voorheen De Volksbank.

17
00:01:00,480 --> 00:01:04,040
En daarnaast ben ik promovendus aan de Erasmus Universiteit op het gebied ethiek en AI.

18
00:01:04,440 --> 00:01:06,120
Ja, en waarom moest dit boek te komen?

19
00:01:07,110 --> 00:01:08,260
Oh, dat is gelijk een hele goede vraag.

20
00:01:08,400 --> 00:01:14,560
Nou, omdat ik me de afgelopen ruim zes jaar elke dag heb bezighouden met het onderwerp hoe zetten we AI nou verantwoord in.

21
00:01:15,220 --> 00:01:22,640
En ik heb een heleboel goede discussies voorbij zien komen, maar ik heb ook het idee dat een heel belangrijk deel van de discussie over de verantwoorde inzet van AI nog mist of onderbelicht is.

22
00:01:23,420 --> 00:01:29,160
Dat wilde ik graag in dit boek naar voren brengen, om te kijken hoe ziet het grotere plaatje daar nou uit van waar we met AI naartoe gaan.

23
00:01:30,200 --> 00:01:35,700
In welke mate is dat wenselijk en wat kunnen we er tegenover zetten om te zorgen dat we die hele AI-revolutie in goede banen leiden.

24
00:01:36,200 --> 00:01:47,860
Ja, en kan je nog even kort herhalen voor degene die de vorige keer jou niet gehoord hebben? Ze moeten vooral daarna gaan luisteren, maar even heel kort van wat je binnen de bank doet op het gebied van ethiek.

25
00:01:48,380 --> 00:01:53,820
Ja, ik ben bij de Volksbank dus ooit begonnen vanuit de vraag hoe kunnen we algoritmes eerlijk gebruiken.

26
00:01:55,220 --> 00:02:01,160
En mijn rol is een beetje geworden in die hybride functie tussen een promotieplek aan de Erasmus Universiteit en bij de bank.

27
00:02:01,660 --> 00:02:06,980
Om te kijken wat kunnen we nou in de organisatie inrichten om te zorgen dat we op een verantwoorde manier met die technologie omgaan.

28
00:02:06,980 --> 00:02:10,320
Er komen allerlei nieuwe vragen naar voren als je met AI aan de slag gaat.

29
00:02:10,860 --> 00:02:16,260
Allerlei dingen waarvan je je misschien niet direct verwacht dat ze naar boven komen als je met AI aan de slag gaat.

30
00:02:16,300 --> 00:02:18,820
Dingen als bias, maar ook vragen over is het uitlegbaar genoeg?

31
00:02:18,850 --> 00:02:20,740
Wie is uiteindelijk verantwoordelijk voor een AI-systeem?

32
00:02:21,240 --> 00:02:27,480
En mijn rol binnen de bank is een beetje geworden om te zorgen dat we structureel grip houden op die ethische aspecten van AI.

33
00:02:27,799 --> 00:02:29,239
En al best wel lang, toch?

34
00:02:29,570 --> 00:02:35,880
Ja, ik denk dat we na twee jaar, dus dan heb je het over 2021, dat we echt een goed werkend proces hier omheen hadden.

35
00:02:36,260 --> 00:02:38,560
Waarvan we dachten, ja, nu kunnen we ook dat waarborgen afgeven.

36
00:02:38,630 --> 00:02:44,460
Dat voor de systemen die we ontwikkelen, we vanaf de ID-fase tot het daadwerkelijk in productie nemen van zo'n systeem.

37
00:02:45,080 --> 00:02:50,620
Goede checks hebben om te zorgen dat we die ethiek goed inregelen.

38
00:02:51,800 --> 00:02:53,660
Toen ik dit boek binnen kreeg.

39
00:02:54,620 --> 00:02:56,020
Ik was sowieso heel benieuwd.

40
00:02:56,120 --> 00:02:57,920
Sowieso na ons vorige gesprek.

41
00:02:58,780 --> 00:03:01,300
Ik was wel geïntegreerd door de ondertitel.

42
00:03:01,460 --> 00:03:03,840
Want dat is dan wat wij willen met AI.

43
00:03:04,340 --> 00:03:06,220
En dan tussen haakjes en AI met ons.

44
00:03:07,740 --> 00:03:12,260
Ik ben heel erg voorstander ervan dat AI niet echt een intentie heeft.

45
00:03:12,940 --> 00:03:16,120
En hier spreekt wel een mate van intentie uit, toch?

46
00:03:16,380 --> 00:03:17,580
Van wat AI met ons wil.

47
00:03:18,180 --> 00:03:21,260
Ja, ik wist dat die reactie erop ging komen.

48
00:03:21,390 --> 00:03:25,420
En ik geloof ook niet, en dat bedoel ik ook gelijk in het boek, dat AI zelf een intentie heeft.

49
00:03:25,860 --> 00:03:32,240
Maar wat de ondertitel impliceert, is dat als we geen bewuste keuzes maken rond hoe we die technologie inzetten.

50
00:03:32,460 --> 00:03:35,300
En wat wij belangrijke waarden vinden om in die technologie mee te nemen.

51
00:03:35,720 --> 00:03:37,900
Dat AI ons wel degelijk op een bepaald pad zet.

52
00:03:37,990 --> 00:03:40,700
Als individu, als samenleving, als organisatie.

53
00:03:41,660 --> 00:03:45,220
Dus we moeten onszelf de vraag stellen, wat willen we eigenlijk met AI?

54
00:03:46,180 --> 00:03:49,500
Wat voor organisatie willen we zijn, maar ook wat voor samenleving willen we zijn?

55
00:03:50,480 --> 00:03:54,240
Omdat anders AI ons een bepaalde kant op brengt, en dat schets ik ook in het boek,

56
00:03:55,160 --> 00:03:59,120
waarin er toch tot op zekere hoogte voor ons gekozen wordt door hoe die technologie is ingestoken.

57
00:03:59,150 --> 00:04:05,180
Dus dat is niet zozeer de autonomie van AI zelf, die een plan heeft voor waar wij als mensheid naartoe gaan,

58
00:04:05,210 --> 00:04:08,480
maar de bedrijven erachter en de belangen die in die technologie zitten ingebakken,

59
00:04:09,340 --> 00:04:10,780
daar moeten we ons denk ik heel goed van bewust zijn.

60
00:04:10,980 --> 00:04:13,400
Vandaar die ondertitel om een beetje die spanning naar boven te halen.

61
00:04:14,020 --> 00:04:15,220
Mooie spanning die je creëert.

62
00:04:15,410 --> 00:04:19,540
En heb je daar voorbeelden van hoe dat nu in de praktijk al zichtbaar wordt?

63
00:04:20,740 --> 00:04:26,680
Nou, ik denk dat je op heel grote schaal eigenlijk ziet dat er allerlei...

64
00:04:28,040 --> 00:04:29,220
Misschien moet ik één stap terug doen.

65
00:04:29,310 --> 00:04:33,440
En eerst kijken, kijk, de verwachting van AI is dat het een heleboel problemen voor ons gaat oplossen.

66
00:04:34,340 --> 00:04:38,680
En wat ik schets is ook dat het een waanzinnige technologie is die ook daadwerkelijk heel veel kan oplossen.

67
00:04:39,180 --> 00:04:43,540
Maar wat we vaak vergeten daarbij te vragen is wat gaat het niet oplossen en welke nieuwe problemen creëert het.

68
00:04:44,560 --> 00:04:51,040
En ik denk dat als je kijkt naar bijvoorbeeld de nieuwe voorstellen rond deepfakes bijvoorbeeld.

69
00:04:51,900 --> 00:04:58,220
Allerlei maatschappelijke discussies over AI, nepnieuws, noem maar op, fraudevormen die nieuw ontstaan.

70
00:04:58,600 --> 00:05:02,860
Dat we ons heel erg focussen op die oplossingen en de gave toepassingen.

71
00:05:02,920 --> 00:05:09,340
Maar dat we de problemen die het misschien wel uitvergroot of de nieuwe problemen die het creëert, dat we die een beetje over het hoofd zien.

72
00:05:09,760 --> 00:05:16,840
En ik denk dat daar al een beetje die spanning zit van ja, we zien de wereld om ons heen al veranderen.

73
00:05:17,460 --> 00:05:20,060
We zien ons eigen werk, ons eigen leven veranderen door AI.

74
00:05:20,580 --> 00:05:24,880
Maar we proberen dat nog een beetje te kaderen vanuit ons oude denken.

75
00:05:25,520 --> 00:05:30,640
En ik denk dat we dat moeten gaan loslaten om te kijken wat gaat AI daadwerkelijk doen.

76
00:05:30,740 --> 00:05:35,760
waar bewegen we nou eigenlijk naartoe en wat zou een passend kader zijn om daar op een menswaardige manier invulling aan te geven.

77
00:05:36,200 --> 00:05:40,540
Dat klinkt heel makkelijk, dat even loslaten. Maar hoe doe je dat, dat even loslaten?

78
00:05:41,160 --> 00:05:44,660
Nou, en dat is denk ik de essentie ook van het boek.

79
00:05:44,920 --> 00:05:50,400
Dat is nadenken over hoe zit deze technologie in elkaar en wat betekent dat.

80
00:05:50,540 --> 00:05:57,080
Wat kunnen we bijvoorbeeld leren uit de geschiedenis over eerdere grote technologische doorbraken en de impact die dat heeft op onze maatschappij.

81
00:05:57,740 --> 00:06:02,840
En wat kunnen we met de kennis die we nu hebben over deze technologie al zien aankomen de komende jaren?

82
00:06:03,700 --> 00:06:06,660
Om ons zelf vervolgens de vraag te stellen, wat vinden we daarvan?

83
00:06:06,820 --> 00:06:09,800
Is dat iets waar we heel enthousiast van worden? Misschien van sommige delen wel.

84
00:06:10,060 --> 00:06:12,020
Of is dat iets wat we heel zorgelijk vinden?

85
00:06:12,300 --> 00:06:17,520
En ik denk dat er ook heel veel aspecten van die AI-revolutie zijn die we als zorgelijk kunnen zien.

86
00:06:17,580 --> 00:06:20,960
En waar we ook vanuit maatschappelijk oogpunt echt iets tegenover moeten zetten.

87
00:06:21,200 --> 00:06:27,020
En welke lessen zouden we uit de automatisering, want die slag zijn we eigenlijk nog steeds mee bezig.

88
00:06:27,060 --> 00:06:31,400
maar al best wel heel lang. Welke lessen zouden we mee kunnen nemen nu voor AI?

89
00:06:35,040 --> 00:06:38,300
Ik denk als je kijkt naar de studies over automatisering bijvoorbeeld,

90
00:06:39,620 --> 00:06:44,600
dan zie je, ik zeg zelf altijd, vooruitgang is nooit vanzelfsprekend.

91
00:06:44,740 --> 00:06:48,080
En dat is wat je ziet doorheen al die technologische revoluties,

92
00:06:48,960 --> 00:06:53,860
de stoommachines, elektriciteit, het internet, ze kunnen heel veel brengen.

93
00:06:54,140 --> 00:06:58,920
Maar wat je eigenlijk ziet in de geschiedenis is dat het voor eigenlijk maar een hele kleine groep heel goed uitpakt.

94
00:06:59,260 --> 00:07:02,380
En dat het voor een groot deel van de mensen veel minder goed uitpakt.

95
00:07:02,460 --> 00:07:05,520
En dat het heel lang duurt voordat zo'n disbalans in de samenleving hersteld is.

96
00:07:05,880 --> 00:07:07,780
Nadat zo'n technologie eigenlijk alles op zijn kop zet.

97
00:07:08,380 --> 00:07:13,060
Voor wie is AI nu dan? Wie zijn de grote winnaars van AI?

98
00:07:13,840 --> 00:07:16,240
Je zou kunnen zeggen de grote technologiebedrijven.

99
00:07:16,260 --> 00:07:19,760
Het is niet voor niks dat Nvidia nu het meest waardevolle bedrijf in de wereld is.

100
00:07:20,000 --> 00:07:24,040
Niet een bedrijf wat de brandstof voor onze auto's levert, zoals een oliemaatschappij.

101
00:07:24,460 --> 00:07:28,280
Niet het bedrijf wat onze technologie levert, zoals een Apple of een Microsoft.

102
00:07:28,600 --> 00:07:32,460
Maar alleen een bedrijf wat AI-chips maakt, is het meest waardevolle bedrijf in de wereld.

103
00:07:33,140 --> 00:07:37,480
Maar ik denk op iets meer maatschappelijke schaal, de verschuiving die ik een beetje zie,

104
00:07:38,320 --> 00:07:40,460
is dat werkgevers hier heel veel profijt bij gaan hebben.

105
00:07:41,120 --> 00:07:46,420
Ik denk dat bedrijven en organisaties, overheden, hier heel veel profijt van gaan hebben.

106
00:07:46,840 --> 00:07:53,080
Maar dat eigenlijk de positie van consumenten, van burgers en van werknemers erop achteruit gaat als we niks doen.

107
00:07:53,150 --> 00:07:56,080
En dat is een beetje de machtsverschuiving die je ziet door AI.

108
00:07:56,440 --> 00:08:02,160
En wat krijgen die werkgevers en de overheden erbij dan?

109
00:08:03,120 --> 00:08:10,480
Die krijgen, denk ik in ieder geval, mogelijkheden erbij om bijvoorbeeld werknemers meer te monitoren.

110
00:08:10,920 --> 00:08:14,920
Om consumenten, dat weten we al van de social media bedrijven, effectiever te beïnvloeden.

111
00:08:15,760 --> 00:08:20,260
Voor overheden om nauwkeurigere analyses, risicoanalyses te maken.

112
00:08:20,450 --> 00:08:23,280
Om processen geautomatiseerd te gaan afhandelen.

113
00:08:24,160 --> 00:08:26,620
En dat is voor een overheid misschien voordelig.

114
00:08:26,620 --> 00:08:27,920
Of voor een bedrijf misschien voordelig.

115
00:08:27,920 --> 00:08:33,080
Maar ik denk dat het voor het merendeel van de mensen niet direct in hun voordeel is.

116
00:08:33,090 --> 00:08:35,520
Dat we naar dit soort gestandardiseerde AI oplossingen gaan.

117
00:08:35,720 --> 00:08:38,240
Gegeven de risico's die daar aan het gebruik van AI zitten.

118
00:08:40,480 --> 00:08:42,220
En er kwam een plingetje binnen.

119
00:08:43,820 --> 00:08:45,760
De risico's, wat zijn dan die risico's?

120
00:08:47,500 --> 00:08:49,660
Je hebt op de schaal van de toepassing, zeg maar,

121
00:08:49,670 --> 00:08:52,120
heb je risico's dat een systeem natuurlijk vooringenomen kan zijn.

122
00:08:52,640 --> 00:08:55,280
Je hebt het risico dat het zo onuitlegbaar wordt,

123
00:08:55,500 --> 00:08:58,479
dat we niet meer snappen wat er nou precies in zo'n systeem gebeurt.

124
00:08:59,940 --> 00:09:02,760
En ik denk daaromheen heb je het risico dat bepaalde belangen,

125
00:09:02,820 --> 00:09:04,200
mensen die handiger zijn met die technologie,

126
00:09:04,410 --> 00:09:05,600
of die dat meer kunnen inzetten,

127
00:09:05,650 --> 00:09:07,600
dat die de boventoon voeren boven anderen.

128
00:09:07,740 --> 00:09:10,340
Dus dat je een grotere ongelijkheid krijgt.

129
00:09:11,400 --> 00:09:13,640
Dus als je een beetje uitzoomt van die toepassing af,

130
00:09:13,980 --> 00:09:18,860
Ik denk in het gebruik van AI ga je zien dat er een verantwoordelijkheidsvraagstuk ontstaat.

131
00:09:19,820 --> 00:09:22,360
Namelijk we delegeren een taak aan een AI systeem.

132
00:09:22,440 --> 00:09:24,520
Zeker de agents die eraan zitten te komen.

133
00:09:25,920 --> 00:09:28,680
Maar betekent dat ook dat we de verantwoordelijkheid voor die taak delegeren?

134
00:09:29,600 --> 00:09:31,800
En je zou misschien kunnen zeggen dat is moreel niet helemaal wenselijk.

135
00:09:32,620 --> 00:09:35,000
Maar het is wel denk ik de realiteit waar we naartoe gaan.

136
00:09:35,060 --> 00:09:38,400
En je ziet ook al voorbeelden van bedrijven die een poging doen in ieder geval.

137
00:09:38,460 --> 00:09:41,780
om de verantwoordelijkheid voor fouten in een klantenservice en dat soort dingen

138
00:09:42,300 --> 00:09:43,640
op AI af te schuiven.

139
00:09:44,050 --> 00:09:45,660
En ik denk als je daar weer van uitzoomt,

140
00:09:45,990 --> 00:09:49,260
dan is het risico dat je dus een soort samenleving krijgt

141
00:09:49,260 --> 00:09:51,940
met een heel grotere, niet alleen economische ongelijkheid,

142
00:09:51,960 --> 00:09:53,880
het verschil tussen rijk en armband steeds groter wordt.

143
00:09:54,620 --> 00:10:00,560
Ook omdat er verwachtingen zijn dat AI en de productiviteitsgroei die dat gaat brengen

144
00:10:00,560 --> 00:10:05,160
zich gaat concentreren bij de bovenste percentielen van de mensen die werk hebben.

145
00:10:05,920 --> 00:10:08,920
Dus niet eens meer een soort polarisatie van de arbeidsmarkt.

146
00:10:09,060 --> 00:10:10,860
Maar de groei constateert zich bij de mensen.

147
00:10:11,020 --> 00:10:12,280
De meest senior mensen eigenlijk.

148
00:10:14,060 --> 00:10:17,980
Ook dat overigens zie je nu al met junior functies en stage functies die vervallen.

149
00:10:18,380 --> 00:10:19,940
Omdat AI die rol kan overnemen.

150
00:10:20,880 --> 00:10:26,100
En ik denk dus dat je het risico hebt ook dat onze juridische mechanismen.

151
00:10:26,100 --> 00:10:27,720
Om bedrijven ter verantwoording te roepen.

152
00:10:27,800 --> 00:10:30,040
En om te zeggen we willen eigenlijk weten wat jullie daar aan het doen zijn.

153
00:10:30,100 --> 00:10:31,360
Is dat nog wel een democratisch belang.

154
00:10:32,640 --> 00:10:35,560
Dat die ook steeds ingewikkelder worden of misschien niet meer toepasbaar zijn.

155
00:10:36,780 --> 00:10:40,140
omdat ons wetboek achterloopt, omdat ons juridisch systeem achterloopt

156
00:10:40,520 --> 00:10:42,700
en niet bij kan houden waar we met die technologie naartoe gaan.

157
00:10:43,660 --> 00:10:46,420
Je triggert er bij mij iets, met name het stukje junior en senior

158
00:10:46,680 --> 00:10:48,260
en dan die bovenste percentile.

159
00:10:50,380 --> 00:10:51,480
Hoe kijk je er zelf tegenaan?

160
00:10:51,640 --> 00:10:55,160
Als we dadelijk geen junioren meer aannemen omdat we met de senioren werken.

161
00:10:55,340 --> 00:10:57,580
Dat is toch een vraag om een probleem voor de toekomst?

162
00:10:58,420 --> 00:11:01,360
Ja, precies. Dat is een probleem voor de toekomst.

163
00:11:02,460 --> 00:11:04,579
Ik heb zelf, voordat ik bij de bank begon

164
00:11:04,680 --> 00:11:06,940
en mijn onderzoek ging doen, heb ik bij een start-up gewerkt.

165
00:11:08,340 --> 00:11:10,220
En dat was een spin-off van een natuurkundig bedrijf.

166
00:11:10,300 --> 00:11:11,080
Dat was hartstikke gaaf.

167
00:11:11,080 --> 00:11:13,600
Maar de enige reden dat ik daar kon werken is omdat ik goed was in schrijven.

168
00:11:14,660 --> 00:11:17,000
Ik deed de business development, de marketing,

169
00:11:17,480 --> 00:11:18,740
maar ook de patentaanvragen bijvoorbeeld.

170
00:11:19,080 --> 00:11:22,820
Dus later zat ik te denken, ik was eigenlijk de chat-GPT van dat bedrijf.

171
00:11:23,220 --> 00:11:25,920
En de reden dat ik nu een boek kon schrijven is omdat ik eindeloos heb kunnen oefenen

172
00:11:26,100 --> 00:11:28,920
met schrijven en eigen maken van andere materie en van tekst

173
00:11:29,000 --> 00:11:30,420
en dat weer op papier zetten.

174
00:11:31,200 --> 00:11:34,019
Dus ik denk dat mensen ook, je gaat een soort vaardigheidskloof krijgen

175
00:11:34,060 --> 00:11:36,120
van mensen die niet meer de kans krijgen om dat te ontwikkelen,

176
00:11:36,360 --> 00:11:39,900
omdat AI dat makkelijker, sneller en goedkoper kan doen

177
00:11:40,260 --> 00:11:42,020
dan het inhuren van een junior.

178
00:11:42,540 --> 00:11:45,660
En dat is denk ik de verschuiving in de arbeidsmarkt

179
00:11:45,760 --> 00:11:47,100
die je in grotere zin gaat zien.

180
00:11:47,940 --> 00:11:50,360
Wie er aan werk gaan komen en hoe dat werk gewaardeerd wordt,

181
00:11:50,540 --> 00:11:51,820
dat gaat heel erg veranderen.

182
00:11:52,460 --> 00:11:54,220
Dus je krijgt mensen die misschien heel veel betaald krijgen

183
00:11:54,380 --> 00:11:55,920
omdat ze senior zijn en dit al heel goed doen.

184
00:11:56,300 --> 00:11:58,420
Maar je krijgt ook mensen die dat punt misschien niet gaan bereiken

185
00:11:58,540 --> 00:11:59,520
omdat ze de kans niet krijgen.

186
00:12:00,080 --> 00:12:02,720
En ik denk dat soort verschuivingen, daar moeten we vast op anticiperen.

187
00:12:02,760 --> 00:12:04,100
Dat is ook de boodschap van het boek.

188
00:12:04,540 --> 00:12:08,540
We moeten vast op veel bredere schaal anticiperen op de veranderingen die dit gaat brengen.

189
00:12:08,620 --> 00:12:12,580
Niet alleen van we gaan medewerkers trainen hoe ze een chatbot slim kunnen inzetten.

190
00:12:13,380 --> 00:12:18,640
Maar we moeten als samenleving ons voorbereiden op wat nou als deze hele grote groep niet meer aan een baan gaat komen.

191
00:12:18,700 --> 00:12:23,200
Als bepaalde banen gaan verdwijnen of zodanig gaan veranderen dat ze nieuwe skills nodig hebben.

192
00:12:23,660 --> 00:12:25,600
Hoe zorgen we dan dat we daar goed op anticiperen?

193
00:12:26,300 --> 00:12:28,500
En wat is het antwoord eigenlijk dan? Waarop?

194
00:12:29,240 --> 00:12:32,640
Het begin van het antwoord, het volledige antwoord, misschien deel twee.

195
00:12:34,700 --> 00:12:41,140
Maar het begin van het antwoord voor mij is om de manier waarop we naar die technologie kijken en hoe we over die technologie denken anders in te steken.

196
00:12:41,760 --> 00:12:47,300
We kijken hier nog steeds heel erg naar ook de wetgeving als een technisch probleem en een technische uitdaging.

197
00:12:47,630 --> 00:12:51,340
Hoe passen we deze technologie in, in onze processen enzovoort.

198
00:12:51,900 --> 00:12:57,160
En de strekking van het boek is dat we hier eigenlijk veel meer als een soort maatschappelijke uitdaging naar moeten kijken.

199
00:12:57,740 --> 00:13:01,920
En dat we dus ook de dingen die we er tegenover zetten op maatschappelijke schaal insteken.

200
00:13:02,340 --> 00:13:06,600
En voor mij zit dat bijvoorbeeld in een goede en krachtige consumentenbond.

201
00:13:06,700 --> 00:13:13,820
Goede krachtige vakbonden die in de CAO onderhandelingen aspecten over AI en de automatisering die AI kan brengen meenemen.

202
00:13:14,580 --> 00:13:16,940
Maar ook veranderingen in de wetgeving bijvoorbeeld.

203
00:13:17,540 --> 00:13:21,820
Je ziet dat nu op intellectueel eigendomsrecht voor deepfakes wat deze week is voorgesteld.

204
00:13:23,000 --> 00:13:27,180
En ik denk dat we veel meer op die schaal moeten kijken naar hoe gaan we die technologie in groene baden leiden.

205
00:13:27,380 --> 00:13:31,900
In plaats van wat we in de jaren dat ik hier naar onderzoek heb gedaan alleen maar hebben gedaan.

206
00:13:31,990 --> 00:13:33,180
Is zeggen tegen ontwikkelaars.

207
00:13:33,380 --> 00:13:34,500
Jullie krijgen een training.

208
00:13:34,740 --> 00:13:35,760
Jullie krijgen een waardekader.

209
00:13:36,600 --> 00:13:38,740
Een assessment op mensenrechten.

210
00:13:39,200 --> 00:13:41,260
En zorg maar dat het netjes gebeurt.

211
00:13:41,620 --> 00:13:43,760
En ik denk dat we daar de oorlog niet mee gaan winnen.

212
00:13:45,140 --> 00:13:46,440
En zie je de beweging al?

213
00:13:47,300 --> 00:13:48,140
Is die al ingezet?

214
00:13:48,240 --> 00:13:50,980
Dus dat we vanuit een andere blik naar kijken dan alleen technologie?

215
00:13:51,160 --> 00:13:53,960
Of is dat nog echt te schaars en moeten we eerst allemaal het boek lezen?

216
00:13:56,100 --> 00:14:01,300
Sowieso denk ik dat het verstandig is, aanbevelenswaardig, om kennis te nemen van het boek.

217
00:14:01,420 --> 00:14:04,360
Maar ik denk dat het tot nu toe nog steeds te ad hoc is.

218
00:14:04,430 --> 00:14:08,340
Dus ook wat we doen op het gebied van de deepfakes en de intellectueel eigendomsrecht.

219
00:14:08,760 --> 00:14:12,600
Ik denk dat het redelijk ad hoc is, omdat we het grotere plaatje eigenlijk nog missen.

220
00:14:13,060 --> 00:14:17,240
Dus we zijn brandjes aan het blussen voor individuele incidenten die ontstaan met die technologie.

221
00:14:17,760 --> 00:14:22,220
Zonder de link te zien tussen, hé, maar dit komt allemaal voort uit dezelfde aard van de technologie

222
00:14:22,360 --> 00:14:24,680
en hetzelfde systeem waarbinnen die technologie gebruikt wordt.

223
00:14:25,340 --> 00:14:32,780
En we moeten in dat systeem wat wissels omzetten om te zorgen dat we een andere richting opgaan dan wat we nu misschien aan het doen zijn.

224
00:14:34,240 --> 00:14:36,360
Maar dat is best heel groot, toch?

225
00:14:38,180 --> 00:14:44,840
Ik hoor wat je zegt, maar ik zie het nog niet voor me van wie of wat dit vorm gaat geven. Jij wel?

226
00:14:45,640 --> 00:14:51,380
Ja, ik denk dat er twee heel belangrijke aspecten zijn aan de verandering die we kunnen inzetten.

227
00:14:51,660 --> 00:14:54,700
De eerste heb ik genoemd de ethische infrastructuur van organisaties.

228
00:14:55,120 --> 00:14:57,940
Daar heb ik vorige keer ook al iets over verteld voor hoe dat voor de ASM bank is.

229
00:14:58,440 --> 00:15:04,480
Maar ik geloof heel sterk in dat we de technische infrastructuur nu best aardig op orde aan het krijgen zijn met data en hoe we dat allemaal inrichten.

230
00:15:04,980 --> 00:15:11,340
Maar de ethische infrastructuur waarmee ik bedoel de structuren en processen die we inrichten om de ethiek naar boven te halen.

231
00:15:11,630 --> 00:15:13,820
Te bespreken een zorgvuldige afweging in te maken.

232
00:15:14,020 --> 00:15:16,520
Te zorgen dat we de juiste stakeholders betrekken in die afweging.

233
00:15:16,850 --> 00:15:18,560
Die ontbreekt nog bij heel veel organisaties.

234
00:15:19,020 --> 00:15:23,040
Ook bij organisaties is het vaak nog een soort ad hoc en inderdaad op ontwikkelaars gerichte aanpak.

235
00:15:23,420 --> 00:15:24,100
Dus dat is stap 1.

236
00:15:24,620 --> 00:15:31,000
Dus dat je als organisatie volwassen wordt in het gebruik van ethiek rond je AI-systemen.

237
00:15:31,620 --> 00:15:36,060
Dat je volwassen wordt in de discussievoeren, het betrekken van de juiste mensen bij die discussie.

238
00:15:36,540 --> 00:15:38,980
En het tweede aspect, en dat heb ik morele veerkracht genoemd,

239
00:15:39,220 --> 00:15:43,180
is een samenleving met organisaties en instanties en stichtingen enzovoort,

240
00:15:43,540 --> 00:15:48,160
die ook een goede tegenmacht kan vormen op de macht die overheden en bedrijven gaan krijgen.

241
00:15:48,380 --> 00:15:54,100
En dat zit hem in zo'n consumentenbond die aan tafel komt zitten op het moment dat het over cao's gaat en automatisering.

242
00:15:54,660 --> 00:16:01,620
Dus ik geloof heel sterk in een structuur binnen organisaties waarin die ethiek naar boven wordt gehaald en waarin rechtvaardiging een belangrijke rol speelt.

243
00:16:02,040 --> 00:16:04,560
Wij kiezen ervoor om deze kant op te gaan met dit AI-systeem.

244
00:16:04,900 --> 00:16:08,820
Dit zijn onze redenen daarvoor en daar kun je over in gesprek gaan.

245
00:16:08,940 --> 00:16:12,860
Daar zitten allerlei aannames en waardes achter die tekenend zijn voor die organisatie.

246
00:16:13,260 --> 00:16:19,340
En ik denk dat het belangrijk is dat als die rechtvaardiging er is, dat er ook een partij is die kan zeggen wij kunnen ons hier wel invinden of niet invinden.

247
00:16:19,940 --> 00:16:22,420
En wij gaan dat bijsturen wanneer nodig.

248
00:16:22,780 --> 00:16:27,180
Ja, dus eigenlijk ook een soort van AI governance board op overheidsniveau.

249
00:16:28,080 --> 00:16:32,760
Ja, ik denk dat het veel meer, omdat AI zo'n ontzettend, het is een systeemtechnologie,

250
00:16:32,830 --> 00:16:38,740
omdat het op zoveel verschillende plekken doordringt en op zoveel verschillende plekken complexe vragen en dilemma's naar boven brengt,

251
00:16:39,440 --> 00:16:41,120
kun je dat denk ik niet centraal oplossen.

252
00:16:41,150 --> 00:16:46,100
Dus het is heel goed als een zorgenautoriteit enzovoort ook kennis nemen van wat AI is,

253
00:16:46,740 --> 00:16:49,720
wat het betekent voor de zorg, voor patiënten, voor mensen die in de zorg werken,

254
00:16:50,160 --> 00:16:56,860
Om op die manier eigenlijk ook goede afweging te maken in het belang van de werknemers of de consumenten of de burgers.

255
00:16:57,480 --> 00:17:01,040
Zodat hun belangen een plek hebben aan de beslistafel.

256
00:17:01,860 --> 00:17:05,180
En ook in het proces daarna.

257
00:17:05,380 --> 00:17:06,960
Want dat is misschien nog wel minstens zo belangrijk.

258
00:17:07,480 --> 00:17:11,560
Bij ethiek is het namelijk nooit zo dat je één keuze maakt en die is voor eeuwig de beste keuze.

259
00:17:12,440 --> 00:17:14,579
Het is een keuze die je ook vaak zal moeten herzien.

260
00:17:14,900 --> 00:17:17,740
Je zult je AI-systemen moeten monitoren of ze nog passen.

261
00:17:18,099 --> 00:17:21,500
En ik denk dat die correctiemechanismen, dat is wat ik bedoel met morele veerkracht,

262
00:17:21,540 --> 00:17:24,500
dat het feit dat ook als je de verkeerde kant op gaat of de verkeerde keus maakt,

263
00:17:24,800 --> 00:17:28,300
dat er mogelijkheden zijn om dat bij te sturen vanuit de samenleving of het publiek belang.

264
00:17:28,699 --> 00:17:31,180
Ik denk dat dat essentieel wordt om dit in goede banen te leiden.

265
00:17:32,440 --> 00:17:32,800
Ja, mooi.

266
00:17:35,280 --> 00:17:40,020
Een van de dingen die ik las in je boek, want we hebben het heel snel over problemen,

267
00:17:40,560 --> 00:17:46,640
maar je hebt ook een heel mooi voorbeeld van hoe AI in ieder geval ook een samenleving kan versterken.

268
00:17:47,199 --> 00:17:51,000
En dan haal je het voorbeeld van een integratievraagstuk in Zwitserland aan.

269
00:17:51,580 --> 00:17:52,680
Zou je daar iets over kunnen vertellen?

270
00:17:52,990 --> 00:17:53,460
Ja, zeker.

271
00:17:53,990 --> 00:17:57,100
Dat is voor de mensen die de podcast van de vorige keer gaan luisteren,

272
00:17:57,120 --> 00:17:58,080
die komt hier ook even voorbij.

273
00:17:58,130 --> 00:17:59,560
Dus excuus voor de herhaling.

274
00:18:00,100 --> 00:18:03,060
Maar dat is een heel mooi systeem wat ontworpen is met Zwitserland en Stanford.

275
00:18:04,260 --> 00:18:07,620
Waar ze eigenlijk het integratievraagstuk met AI zijn gaan oplossen.

276
00:18:08,240 --> 00:18:11,540
En zij gaan kijken hoe kunnen we dat nou op een effectievere manier doen.

277
00:18:11,590 --> 00:18:14,580
En wat ze gedaan hebben is ze kijken naar welke vraag is er,

278
00:18:14,740 --> 00:18:17,160
welke arbeidsvraag bijvoorbeeld is er in een bepaalde community.

279
00:18:17,630 --> 00:18:19,000
Wat voor skills hebben we behoefte aan?

280
00:18:19,000 --> 00:18:23,600
En met AI zijn ze mensen, vluchtelingen zijn ze gaan matchen met de vraag in die community.

281
00:18:23,740 --> 00:18:25,940
Zodat mensen snel aan een baan kunnen komen waar ze geplaatst worden.

282
00:18:26,300 --> 00:18:30,280
En daarmee, en dat laten de cijfers ook zien, significant, sneller en beter integreren.

283
00:18:30,460 --> 00:18:33,640
Wat voor de gemeenschap daar goed is, want ze hebben de mensen die ze nodig hebben.

284
00:18:33,650 --> 00:18:36,900
En natuurlijk voor degene die daar moeten integreren ook heel goed uitpakt.

285
00:18:37,040 --> 00:18:40,180
Omdat ze een vaste plek hebben, vastigheid hebben, bestaanszekerheid hebben.

286
00:18:41,060 --> 00:18:45,900
Ja, en wat mij vooral opviel in deze case is dat er zo anders nagedacht wordt.

287
00:18:47,660 --> 00:18:50,140
In de huidige politiek zien we alles als probleem.

288
00:18:50,900 --> 00:18:53,860
Terwijl hier heel erg vanuit de oplossing is gedacht.

289
00:18:53,960 --> 00:18:57,940
En dat lijkt me, als je het dan hebt over ethiek, lijkt me dit een hele mooie case.

290
00:18:58,580 --> 00:18:59,360
Ja, nee, absoluut.

291
00:18:59,400 --> 00:19:03,620
En ik benoem ook steeds, er zitten allerlei risico's aan AI.

292
00:19:03,660 --> 00:19:07,720
Maar ik probeer ook telkens naar voren te halen van dit zijn voorbeelden waar het wel goed is gegaan.

293
00:19:07,860 --> 00:19:12,080
Waar mensen wel vanuit de juiste insteek gekeken hebben.

294
00:19:12,100 --> 00:19:14,180
Hoe kunnen we die technologie die waanzinnig krachtig is.

295
00:19:14,180 --> 00:19:15,440
Die hartstikke mooie dingen kan doen.

296
00:19:15,900 --> 00:19:17,740
Hoe kunnen we die nou wel op zo'n manier inzetten.

297
00:19:17,840 --> 00:19:19,340
Dat het ook bijdraagt aan onze community.

298
00:19:19,500 --> 00:19:22,020
En dit is inderdaad echt vanuit een soort community idee ingestoken.

299
00:19:22,520 --> 00:19:25,700
Hoe helpen we deze mensen en de gemeenschappen waar ze moeten integreren.

300
00:19:26,240 --> 00:19:28,220
En dat is denk ik de juiste houding.

301
00:19:28,300 --> 00:19:32,800
In plaats van hoe zorgen we dat we mensen zo snel mogelijk of zo goed mogelijk eruit filteren.

302
00:19:33,140 --> 00:19:35,420
Voor ze hier binnen zijn en voorkomen we dat ze hier binnen komen.

303
00:19:36,420 --> 00:19:37,660
Dat is een andere insteek.

304
00:19:37,780 --> 00:19:43,660
En ik denk dat deze veel constructiever is en ook op de lange termijn veel meer gaat opleveren voor de Zwitserse samenleving in dit geval.

305
00:19:43,990 --> 00:19:46,560
Ja, ik bleef het een mooi voorbeeld vinden.

306
00:19:46,770 --> 00:19:52,200
Ja, en wat ik me dan afvraag, is dan de heldere en transparante intentie die zo naar voren komt?

307
00:19:52,800 --> 00:19:55,880
Want in principe hoop ik dat we dat als maatschappij altijd willen.

308
00:19:56,190 --> 00:20:03,540
Dus wat maakt het dan anders? Is dat dat ze de tijd voor hem gepakt hebben om het vanaf een afstand opnieuw te bekijken?

309
00:20:04,640 --> 00:20:10,840
Ja, ik denk dat het dat is. De reflectie op hoe gaan we deze technologie inzetten om deze mensen te helpen.

310
00:20:13,080 --> 00:20:14,980
En inderdaad wat al gezegd werd.

311
00:20:15,100 --> 00:20:19,980
Ook de houding waarmee ze die technologie zijn gaan uitrollen rond dit vraagstuk.

312
00:20:20,880 --> 00:20:23,340
Omdat je er heel veel verschillende dingen mee kunt doen.

313
00:20:23,520 --> 00:20:24,860
Visa controleren enzovoort.

314
00:20:25,700 --> 00:20:31,080
En dit is een manier waarin ze zeiden we willen zorgen dat we de mensen en de samenleving zo goed mogelijk helpen.

315
00:20:31,080 --> 00:20:33,180
Ik denk dat dat beseft, die houding.

316
00:20:33,380 --> 00:20:36,080
Ik zei al, AI stelt ons uiteindelijk voor de vraag...

317
00:20:36,080 --> 00:20:37,280
wat voor samenleving willen wij zijn?

318
00:20:37,760 --> 00:20:40,260
En ik denk dat dit een heel mooie invulling is van een antwoord...

319
00:20:40,260 --> 00:20:42,860
van hoe willen wij omgaan met mensen die hier naartoe komen?

320
00:20:43,900 --> 00:20:45,980
En een mooi antwoord op de vraag wie wij willen zijn.

321
00:20:46,260 --> 00:20:49,500
En hoe we dus technologie inzetten om eigenlijk die uitdaging aan te gaan.

322
00:20:49,840 --> 00:20:49,900
Ja.

323
00:20:51,520 --> 00:20:54,700
Ik kwam een heel grappig fragment tegen uit je boek.

324
00:20:54,730 --> 00:20:56,060
Dus die zou ik eigenlijk...

325
00:20:56,280 --> 00:20:58,260
Ik bedoel, ik vertel hem even aan jou.

326
00:20:58,720 --> 00:20:59,900
Joris, die kent hem.

327
00:21:00,710 --> 00:21:03,000
Maar ik ben wel benieuwd waarom je hiervoor gekozen hebt.

328
00:21:04,220 --> 00:21:08,280
Daar staat hoe goed de bedoelingen ook zijn waar we algoritmes en AI voor willen gebruiken.

329
00:21:08,960 --> 00:21:11,380
Ze allemaal moeten dealen met de data uit het verleden.

330
00:21:11,580 --> 00:21:14,480
En hoe passend die data zijn voor de situatie nu.

331
00:21:15,120 --> 00:21:21,900
Je zou kunnen zeggen dat we, als we iets aan AI vragen, antwoord verwachten van een soort Alexander Klubbing-achtige geest.

332
00:21:22,720 --> 00:21:26,140
Maar in de praktijk eerder een Johan Derkse antwoord krijgen.

333
00:21:28,400 --> 00:21:29,120
Dat is wel mooi.

334
00:21:33,520 --> 00:21:36,180
En waarom heb je het als zodanig beschreven?

335
00:21:37,660 --> 00:21:40,440
Dit was ooit een keer in een gesprek na een keynote.

336
00:21:40,640 --> 00:21:42,480
Kreeg ik de vraag van hoe zit dat dan?

337
00:21:43,680 --> 00:21:46,340
Het gaat heel erg over het thema die objectiviteit van AI.

338
00:21:47,080 --> 00:21:50,300
Waar in feite allerlei meningen omkleed met code wordt het ook wel genoemd.

339
00:21:50,760 --> 00:21:52,480
Er zitten allerlei subjectieve aspecten in.

340
00:21:52,980 --> 00:21:56,860
En de aanname die vaak leeft bij mensen is omdat het data gedreven is.

341
00:21:57,000 --> 00:21:59,680
Omdat het over AI gaat, wiskundige technologie ingewikkeld.

342
00:22:00,760 --> 00:22:02,520
Dat AI voor ons een soort de toekomst voorspelt.

343
00:22:02,680 --> 00:22:03,840
Zoals een Alexander Klubing dat doet.

344
00:22:04,000 --> 00:22:04,960
Zo ziet de toekomst eruit.

345
00:22:06,240 --> 00:22:09,500
Maar wat we vaak vergeten is dat het getraind wordt op data uit het verleden.

346
00:22:09,580 --> 00:22:12,580
En dat je dus eigenlijk ook heel vaak conservatieve antwoorden krijgt.

347
00:22:13,580 --> 00:22:18,080
Selectieprocessen waar voor de technische functies vrouwen op voorhand uit het selectieproces gehaald worden.

348
00:22:19,179 --> 00:22:19,580
Enzovoort.

349
00:22:19,740 --> 00:22:26,180
Dus het was voor mij een manier om te illustreren dat heel veel mensen de idee bij AI hebben dat het ons de toekomst gaat voorspellen.

350
00:22:26,580 --> 00:22:30,240
Terwijl we in feite allerlei conservatieve, en daar schaar ik Johan Derksen dan maar onder.

351
00:22:30,320 --> 00:22:35,040
Dat er allerlei conservatieve opvattingen aan het repliceren zijn en automatiseren zijn met die technologie.

352
00:22:35,780 --> 00:22:40,340
En dan nog een belangrijk aspect is dat de datakwaliteit van de historische data vaak ook nog ondermaats is.

353
00:22:41,020 --> 00:22:42,220
Ja, ik denk dat dat ook hierop gaat.

354
00:22:46,260 --> 00:22:48,360
En dat er dan heel selectief ook gekeken wordt.

355
00:22:48,520 --> 00:22:51,140
Want dat wordt natuurlijk ook bij dat conservatieve.

356
00:22:51,400 --> 00:22:54,920
Dat je er alleen uit pikt wat voor jou op dat moment handig is.

357
00:22:55,560 --> 00:23:03,060
Ja, en ik denk, nou ja, het illustreert een beetje het probleem van de problemen die in AI blijven zitten.

358
00:23:03,160 --> 00:23:07,040
Ik zei al van AI kan allerlei problemen oplossen, maar er zijn ook allerlei problemen die het niet op kan lossen.

359
00:23:08,280 --> 00:23:12,280
En de geschiedenis en de data die we uit die geschiedenis hebben gehaald, die kan het niet voor ons oplossen.

360
00:23:12,740 --> 00:23:18,060
Dus het is aan ons om te kijken hoe verhouden we ons daartoe en hoe willen we dat naar de toekomst toe vormgeven.

361
00:23:18,140 --> 00:23:22,000
En een beetje het mantra wat ik daarbij hanteer is AI kan ons iets vertellen over hoe de wereld was.

362
00:23:22,480 --> 00:23:23,720
Misschien iets over hoe de wereld is.

363
00:23:24,180 --> 00:23:26,300
Maar het kan ons niet iets vertellen over hoe de wereld zou moeten zijn.

364
00:23:26,640 --> 00:23:29,640
En dat is het ethische vraagstuk van waar willen we dan naartoe met die technologie.

365
00:23:30,040 --> 00:23:30,920
Mooi, mooi.

366
00:23:32,980 --> 00:23:34,340
Zo, dan zakt die vraag een keer weg.

367
00:23:35,200 --> 00:23:35,800
Ja, dat kan gebeuren.

368
00:23:37,140 --> 00:23:41,420
Wat we aan jou willen voorleggen is dat we zijn ook bezig met een nieuw kaartspel.

369
00:23:42,020 --> 00:23:45,520
Daar zit ook het onderwerp ethiek, een maatschappij in.

370
00:23:45,640 --> 00:23:48,540
We weten niet of jij die gaat kiezen.

371
00:23:49,840 --> 00:23:52,500
Met het hele idee hadden we de vorige keer natuurlijk ook.

372
00:23:53,360 --> 00:23:56,580
Dat je met elkaar dingen gaat bespreken aan de hand van een stelling.

373
00:23:57,740 --> 00:23:59,480
Dit is heel specifiek allemaal uit de zorg.

374
00:24:00,860 --> 00:24:03,100
Dus ik ben heel erg benieuwd naar wat jij vindt.

375
00:24:03,140 --> 00:24:07,140
Het kaartspel kun je al wel vast reserveren bestellen.

376
00:24:07,800 --> 00:24:09,340
Maar hij is nog niet gedrukt.

377
00:24:10,310 --> 00:24:11,740
Dus Niels kan niet schudden.

378
00:24:12,120 --> 00:24:14,960
Maar we kunnen wel aan jou vragen om een getal onder de 42.

379
00:24:15,800 --> 00:24:18,700
En dan gaat hij uit de Excel-sheets die we hebben.

380
00:24:19,160 --> 00:24:20,040
Gaat hij jou de vraag stellen?

381
00:24:39,340 --> 00:24:40,160
Welk nummer mag het worden?

382
00:24:40,910 --> 00:24:42,800
Ja, onder de 42 kies ik 41.

383
00:24:44,439 --> 00:24:44,880
41.

384
00:24:46,640 --> 00:24:49,360
Het thema is dan wetgeving en beleid.

385
00:24:50,560 --> 00:24:56,320
En de stelling luidt, iedere zorgverlener moet verplicht AI geschoold zijn.

386
00:24:59,260 --> 00:25:00,740
Poeh, iedere zorgverlener.

387
00:25:03,240 --> 00:25:05,080
Ja, ik zou zeggen van wel.

388
00:25:05,410 --> 00:25:08,920
Ik denk dat, en niet alleen voor zorgverleners, maar ook daarbuiten.

389
00:25:09,080 --> 00:25:14,080
Ik denk dat het heel goed is, omdat AI niet alleen in de zorg,

390
00:25:14,200 --> 00:25:17,080
waarin allerlei processen een steeds belangrijker rol gaat spelen,

391
00:25:17,540 --> 00:25:21,600
dat het heel goed is om in ieder geval in de basis kennis te nemen van wat is AI precies.

392
00:25:22,080 --> 00:25:24,260
En ook wat zijn de beperkingen van die technologie.

393
00:25:25,760 --> 00:25:28,980
Omdat de verwachting is in ieder geval, zeker in de zorg ook,

394
00:25:29,130 --> 00:25:34,800
dat je je werkende leven steeds meer gaat samenvallen met AI.

395
00:25:34,940 --> 00:25:37,080
Je werkt steeds meer met AI direct of indirect.

396
00:25:37,780 --> 00:25:42,140
En ik denk dat als je niet genoeg weet over hoe die technologie in elkaar zit,

397
00:25:43,560 --> 00:25:45,900
dat dat allerlei onwenselijke uitkomsten zou kunnen geven.

398
00:25:46,320 --> 00:25:48,440
Dus ik ben het wel eens met die stelling...

399
00:25:48,440 --> 00:25:51,540
dat mensen daar in ieder geval een basiskennis van moeten hebben.

400
00:25:52,960 --> 00:25:53,900
Helder. Mooi.

401
00:25:55,080 --> 00:25:59,360
Ik heb ook nog een soort van opmerking gekregen...

402
00:25:59,360 --> 00:26:00,840
van een van de luisteraars.

403
00:26:01,440 --> 00:26:05,180
En die zei, dit zou je eigenlijk eens aan ethici moeten vragen.

404
00:26:05,200 --> 00:26:06,840
Dus die wil ik eigenlijk ook aan je voorleggen.

405
00:26:07,460 --> 00:26:09,040
En er werd gesteld namelijk...

406
00:26:09,120 --> 00:26:11,199
hoe moeten we omgaan met de dubbele standaard...

407
00:26:11,960 --> 00:26:13,880
Waarbij we van AI perfectie eisen.

408
00:26:14,420 --> 00:26:18,400
Terwijl we accepteren dat mensen bij dezelfde taken vooroordelen hebben en fouten maken.

409
00:26:19,160 --> 00:26:21,560
Ja, dat is een hele grappige. Die heb ik ook in het boek zitten.

410
00:26:22,140 --> 00:26:25,480
Ik heb een heel hoofdstuk met reacties die ik vaak krijg op mijn verhaal.

411
00:26:26,620 --> 00:26:27,640
En daar is dit er een van.

412
00:26:29,620 --> 00:26:31,100
Als mens zijn we toch ook niet ethisch.

413
00:26:31,200 --> 00:26:34,360
Dus kunnen we dan van AI een perfecte standaard verwachten.

414
00:26:38,520 --> 00:26:40,620
Ja, mijn idee erbij, wat ik er altijd bij zeg is,

415
00:26:41,120 --> 00:26:42,520
het is een beetje hetzelfde als zeggen,

416
00:26:42,620 --> 00:26:45,140
we hebben ook geen extra codes voor een nucleair programma nodig,

417
00:26:45,640 --> 00:26:47,000
want mensen krijgen toch ook in de kroeg,

418
00:26:47,000 --> 00:26:49,280
we gaan in de kroeg toch ook wel eens met elkaar op de vuist.

419
00:26:49,780 --> 00:26:52,840
Zo van, ja, dat klopt, maar dit is echt van een andere orde grote,

420
00:26:53,060 --> 00:26:55,680
een andere schaal, met veel grotere consequenties.

421
00:26:56,900 --> 00:27:00,480
Dus ondanks dat we het niet eens kunnen zijn over wat misschien ethisch is,

422
00:27:00,580 --> 00:27:03,680
is het denk ik wel heel goed om na te denken over wat het best mogelijke is

423
00:27:03,720 --> 00:27:04,900
wat we kunnen doen hieromheen.

424
00:27:05,960 --> 00:27:09,120
Omdat dit, wat ik zei, op een zo grotere schaal is.

425
00:27:09,170 --> 00:27:13,220
En ik vind het ook een beetje getuigen van een soort morele laksheid.

426
00:27:13,250 --> 00:27:15,480
Om te zeggen, ja wij kunnen het ook niet.

427
00:27:15,660 --> 00:27:17,800
Dus waarom moeten we het dan aan AI opleggen?

428
00:27:17,840 --> 00:27:20,060
Ik denk ook dat we als mensen de verplichting hebben.

429
00:27:20,580 --> 00:27:24,520
Om zo goed mogelijk zorg te dragen voor onszelf, voor elkaar, voor de wereld om ons heen.

430
00:27:26,140 --> 00:27:28,380
Dus door dan te zeggen, ja we komen daar nooit helemaal uit.

431
00:27:28,780 --> 00:27:32,160
Ik geloof dat we absoluut betere van minder goede levensvormen kunnen onderscheiden.

432
00:27:32,380 --> 00:27:33,920
En ik denk dat dat voor AI ook zo is.

433
00:27:34,060 --> 00:27:38,160
En ik denk ook zelfs dat we die verplichting hebben om te zorgen dat we dit in goede banen leiden.

434
00:27:38,200 --> 00:27:44,620
En te zorgen dat we nu vast de keuzes maken die voor de volgende generaties een systeem of een samenleving opleveren.

435
00:27:45,480 --> 00:27:49,320
Die misschien beter is of een betere levensstandaard kan voorzien dan de onze nu.

436
00:27:49,700 --> 00:27:50,800
Ja, zeker.

437
00:27:51,440 --> 00:27:57,620
Het is wel zo natuurlijk dat, wat ik in ieder geval ook bij mijn praatjes en dat soort dingen tegenkom.

438
00:27:58,000 --> 00:28:04,740
is dat de perfectie wordt wel geëist net alsof AI geen fouten meer mag maken.

439
00:28:04,920 --> 00:28:07,120
En dat is natuurlijk wel weer de andere kant van het verhaal.

440
00:28:07,680 --> 00:28:12,020
Dus als je geen fouten wil, zeg ik altijd, dan moet je geen AI gebruiken.

441
00:28:12,800 --> 00:28:16,540
Dus daar zit wel ergens natuurlijk een balans in.

442
00:28:17,200 --> 00:28:20,400
Nee, tuurlijk. En ook AI gaat niet foutloos zijn.

443
00:28:20,780 --> 00:28:23,500
Dus het zou onredelijk zijn om dat te eisen.

444
00:28:23,920 --> 00:28:26,540
Wat ik merk is dat het vaak als argument wordt aangehaald.

445
00:28:26,680 --> 00:28:28,700
Om te zeggen van ja, maar als mens komen we er niet uit.

446
00:28:29,100 --> 00:28:31,040
Dus hoe kunnen we dat nou in een AI systeem stoppen?

447
00:28:31,860 --> 00:28:34,480
En ik denk dat we ons heel bewust moeten zijn van de beperkingen van AI.

448
00:28:34,620 --> 00:28:36,900
En dus ook het feit dat het fouten maakt, fouten zal maken.

449
00:28:37,380 --> 00:28:40,860
En vandaar dat ik heel erg hamer op die correctiemechanismen om dat bij te sturen.

450
00:28:41,220 --> 00:28:45,220
Omdat ik daar veel meer in geloof dan alleen de besluitvorming.

451
00:28:45,400 --> 00:28:48,180
Of wat we dan in de ethiek hebben als moreel beraad of zoiets.

452
00:28:48,260 --> 00:28:51,700
Waar we met z'n allen bij elkaar komen, een besluit nemen van zo gaan we het doen.

453
00:28:52,120 --> 00:28:54,000
En dan is dat wat het vanaf dat punt is.

454
00:28:54,400 --> 00:28:56,120
Dus ik denk dat het zeker waar is.

455
00:28:56,400 --> 00:28:58,160
En ook dat onze ethiek evolueert.

456
00:28:58,260 --> 00:29:00,380
Dus ook dat we kunnen terugkomen op een eerdere beslissing.

457
00:29:00,780 --> 00:29:01,900
Dat was toch niet de juiste.

458
00:29:03,240 --> 00:29:06,320
Als mens zijn we ook blackboxen tot op zekere hoogte.

459
00:29:06,720 --> 00:29:08,300
Als mens hebben we ook allerlei vooroordelen.

460
00:29:09,040 --> 00:29:10,220
Maar we moeten ons er heel goed van bewust zijn.

461
00:29:10,300 --> 00:29:12,540
Dat we die ook allemaal in die technologie stoppen.

462
00:29:12,860 --> 00:29:14,960
Dat we heel kritisch moeten zijn op wat die technologie doet.

463
00:29:15,300 --> 00:29:18,800
En dat we ons telkens de vraag moeten stellen.

464
00:29:18,940 --> 00:29:20,340
Zoals we dat ook aan onszelf zouden moeten doen.

465
00:29:20,740 --> 00:29:22,440
Is dit het systeem wat we willen?

466
00:29:22,660 --> 00:29:24,740
En zijn we daarmee wie we willen zijn?

467
00:29:25,460 --> 00:29:32,000
En die correctiemechanismen, zijn die ook voldoende verankerd in de AI Act, volgens jou?

468
00:29:35,080 --> 00:29:36,280
Nee, ik zou zeggen van niet.

469
00:29:36,700 --> 00:29:42,140
Met de AI Act ontstaat er een ontzettend goed bewustzijn over de risico's die aan AI zitten.

470
00:29:42,160 --> 00:29:46,300
En het risicomanagement, wat je zeker voor de hoogrisico toepassingen moet ingeregeld hebben.

471
00:29:47,520 --> 00:29:52,720
Maar ik denk dat het zelfs tot op zekere ochtend ook nadelig zou kunnen zijn voor de ethische discussie.

472
00:29:53,260 --> 00:29:54,880
Omdat je, dat noemen ze het Peltzman effect.

473
00:29:55,820 --> 00:29:57,220
en dat is vernoemd naar een econoom

474
00:29:57,600 --> 00:29:59,440
die bestudeerd heeft hoeveel

475
00:29:59,860 --> 00:30:01,240
verkeersongelukken er waren nadat de gordel

476
00:30:01,360 --> 00:30:02,440
verplicht werd in de auto

477
00:30:03,160 --> 00:30:05,520
en eigenlijk ging dat helemaal niet zo ver naar beneden als dat ze hadden

478
00:30:05,580 --> 00:30:07,300
gehoopt en dat kwam omdat mensen

479
00:30:07,440 --> 00:30:09,180
dachten ja we hebben nu een gordel in de auto en dan kunnen we

480
00:30:09,300 --> 00:30:10,360
meer risico's gaan nemen

481
00:30:10,980 --> 00:30:13,380
dus het is een soort juridificering van ethiek

482
00:30:14,040 --> 00:30:15,360
waardoor de ethische discussie

483
00:30:15,480 --> 00:30:16,900
zelf een beetje naar de achtergrond verdwijnt

484
00:30:16,980 --> 00:30:18,720
en dat zou ik heel jammer vinden als we dat

485
00:30:19,600 --> 00:30:21,300
als dat bij de AI act ook het gevolg

486
00:30:21,300 --> 00:30:23,359
zou zijn. Ik denk dat het absoluut de stap in de goede richting

487
00:30:23,380 --> 00:30:25,280
is. Maar ik zou het heel belangrijk vinden

488
00:30:25,380 --> 00:30:26,940
dat we nog steeds die ethische

489
00:30:27,360 --> 00:30:29,040
discussie blijven voeren over wat is bijvoorbeeld

490
00:30:29,280 --> 00:30:31,300
bias. Er zit in artikel 10

491
00:30:31,500 --> 00:30:33,380
van de AI Act specifiek

492
00:30:33,380 --> 00:30:35,140
dat je bias moet signaleren, moet

493
00:30:35,260 --> 00:30:37,220
voorkomen en moet mitigeren op het moment dat

494
00:30:37,220 --> 00:30:39,320
je dat tegenkomt. Maar wat telt als bias?

495
00:30:39,460 --> 00:30:40,980
Wanneer is een onderscheid onwenselijk?

496
00:30:41,340 --> 00:30:42,800
Dat zijn denk ik allemaal ethische vragen

497
00:30:43,240 --> 00:30:45,140
waar we dat soort correctiemechanismen

498
00:30:45,140 --> 00:30:47,120
voor nodig hebben. Het is best wel heel erg

499
00:30:47,240 --> 00:30:49,120
moeilijk inderdaad, wanneer is iets bias.

500
00:30:50,040 --> 00:30:51,240
Ja, als het heel duidelijk

501
00:30:51,300 --> 00:30:53,340
is, dan gaat het juist

502
00:30:53,360 --> 00:30:54,640
om de subtiliteiten.

503
00:30:55,640 --> 00:30:56,220
Ja, absoluut.

504
00:30:56,570 --> 00:30:58,020
En ook waar het duidelijk is, zou je zeggen,

505
00:30:58,280 --> 00:30:59,100
uiteindelijk is het altijd,

506
00:31:00,100 --> 00:31:01,000
wat ze dan zeggen is,

507
00:31:01,010 --> 00:31:02,820
there are no solutions, there are only trade-offs.

508
00:31:03,080 --> 00:31:05,120
Uiteindelijk is het altijd een trade-off die je maakt.

509
00:31:05,760 --> 00:31:07,540
Je kunt je voorstellen dat misschien in bepaalde

510
00:31:09,380 --> 00:31:10,100
fraude-detectieprogramma's

511
00:31:11,280 --> 00:31:12,000
bepaalde nationaliteiten,

512
00:31:12,070 --> 00:31:13,920
neem Rusland bijvoorbeeld, vaker naar boven komt.

513
00:31:14,260 --> 00:31:16,340
En dat je dus mensen met een Russische nationaliteit

514
00:31:16,460 --> 00:31:17,840
vaker vragen gaat stellen over,

515
00:31:18,010 --> 00:31:19,320
is hier misschien sprake van fraude?

516
00:31:20,000 --> 00:31:22,200
Dan val je die groep structureel vaker lastig.

517
00:31:22,200 --> 00:31:23,020
Die hebben daar hinder van.

518
00:31:23,420 --> 00:31:27,680
Maar misschien is daarmee ook de kans dat je daadwerkelijke vormen van fraude opst wordt een stuk hoger.

519
00:31:27,750 --> 00:31:32,840
En als je zegt we halen nationaliteit hier uit, dan val je die groep minder vaak lastig.

520
00:31:32,840 --> 00:31:35,800
Maar mis je misschien ook veel meer vormen van fraude.

521
00:31:36,070 --> 00:31:40,940
En dat is een discussie van gaan we voor een zo optimaal mogelijke detectie van fraude.

522
00:31:41,380 --> 00:31:47,360
Of gaan we voor een zo eerlijk mogelijk systeem waarin nationaliteit niet zwaar meeweegt in wie daar geflagd wordt.

523
00:31:47,860 --> 00:31:51,240
Ik denk dat er in het begin al heel veel en in het verleden ook al heel veel over nagedacht is.

524
00:31:51,420 --> 00:31:58,700
Maar met de versnelling en met AI, de technologie die dat gaat versnellen, eigenlijk juist een kans is om dit gesprek opnieuw te voeren.

525
00:31:58,710 --> 00:32:02,780
Als we hem wel voeren, met wat kunnen we met de datapunten en hoe willen we ermee omgaan?

526
00:32:02,780 --> 00:32:06,040
In plaats van dat het intern bij de mens die die beslissing neemt.

527
00:32:06,720 --> 00:32:10,600
Ik denk juist dat de technologie daarbij gaat helpen om die bias in ieder geval transparant.

528
00:32:10,610 --> 00:32:12,280
Je zal het niet spotten, misschien gelijk.

529
00:32:12,760 --> 00:32:19,120
Maar het zou wel transparanter moeten worden door los te kijken naar de datapunten die er zijn om het te kunnen implementeren binnen AI.

530
00:32:19,560 --> 00:32:22,040
Helemaal waar. En dat is ook wat ik zo mooi vind aan dit veld.

531
00:32:22,090 --> 00:32:25,140
Ook aan de klassieke algoritmes waar ik mee gewerkt heb.

532
00:32:25,540 --> 00:32:31,740
Is dat het heel weinig of eigenlijk geen ruimte laat voor wollig taalgebruik en mooie beleidsvoorstellen enzovoort.

533
00:32:32,400 --> 00:32:35,460
Uiteindelijk komt er een systeem dat levert bepaalde uitkomsten op.

534
00:32:35,730 --> 00:32:37,320
Daar moet je bepaalde keuzes over maken.

535
00:32:37,480 --> 00:32:40,260
Zeker bij algoritmes is dat redelijk een soort deterministisch.

536
00:32:40,360 --> 00:32:43,180
Je kiest wat je wilt hebben en wat niet.

537
00:32:43,490 --> 00:32:44,880
En welke gewichten je eraan hangt.

538
00:32:45,760 --> 00:32:48,960
En dat maakt het ook voor ethisch gezien heel interessant.

539
00:32:49,520 --> 00:32:51,680
Want je wordt gedwongen om een bepaalde keuze te maken.

540
00:32:51,720 --> 00:32:58,420
En soms merk ik ook dat zo'n ethiek rond AI, het voelt voor mij soms als een soort paard van trooien wat je naar binnen rijdt.

541
00:32:58,640 --> 00:33:03,120
Omdat het ineens ook gaat over de werkpraktijk waarin dat systeem is ingebed en de keuzes die daar gemaakt zijn.

542
00:33:03,420 --> 00:33:05,780
De strategie waar die werkpraktijk dan weer onderdeel van is.

543
00:33:06,140 --> 00:33:11,080
Dus ik denk inderdaad dat het ook echt een opstap kan zijn naar een bredere reflectie op wat zijn we precies aan het doen.

544
00:33:11,320 --> 00:33:13,700
Waarom zijn we dat precies aan het doen en voor wie doen we dit precies.

545
00:33:15,260 --> 00:33:21,520
In het boek heb je ook vier vragen die je stelt eigenlijk en waar je uiteindelijk ook antwoord op geeft.

546
00:33:22,760 --> 00:33:25,720
Van als we steeds vaker taken uitbesteden met AI.

547
00:33:26,050 --> 00:33:30,140
En ik wilde daar twee uitlichten. Die andere twee moeten mensen maar lezen.

548
00:33:30,980 --> 00:33:38,040
Eén is van wat betekent het als deze systemen zo complex worden dat we ze niet meer begrijpen of kunnen controleren.

549
00:33:38,660 --> 00:33:40,620
Dat is echt wel een lastig probleem.

550
00:33:42,020 --> 00:33:47,300
En wat ik aan jou wil voorleggen is een van de dingen die hier dan tegenover wordt gesteld is vaak de uitlegbaarheid.

551
00:33:47,340 --> 00:33:48,600
Die zit ook in die AI Act.

552
00:33:49,320 --> 00:33:56,900
Maar als we het over generatieve AI hebben, wat stelt dan uitlegbaarheid voor in jouw idee?

553
00:33:57,900 --> 00:33:59,660
Ja, nee, ik denk dat dat onmogelijk is.

554
00:33:59,800 --> 00:34:06,660
De hoeveelheid datapunten in zo'n systeem, je kunt daar onmogelijk een vorm van uitlegbaarheid verwachten.

555
00:34:06,860 --> 00:34:10,780
Zoals je dat misschien zou hebben rond je hypotheekverstrekking of zoiets.

556
00:34:10,830 --> 00:34:12,520
Waar veel minder variabelen in gaan.

557
00:34:14,120 --> 00:34:19,719
En de vraag voor mij is niet zozeer, en dat zie ik nu toch best vaak opkomen.

558
00:34:20,080 --> 00:34:21,739
Moeten alle AI-systemen uitlegbaar zijn?

559
00:34:21,790 --> 00:34:23,719
Of hoe zorgen we dat alle AI-systemen uitlegbaar zijn?

560
00:34:24,120 --> 00:34:27,780
Voor mij is het veel meer een vraagstuk van wat betekent het als systemen niet meer uitlegbaar zijn?

561
00:34:28,260 --> 00:34:29,300
En hoe willen we daarmee omgaan?

562
00:34:30,020 --> 00:34:34,080
Wat we merken is dat vaak de meest complexe modellen ook de beste uitkomsten geven.

563
00:34:34,110 --> 00:34:35,120
De beste performance hebben.

564
00:34:36,399 --> 00:34:40,540
En in sommige vlakken zou je natuurlijk kunnen zeggen van ja, we willen absoluut dat dit uitlegbaar blijft.

565
00:34:40,880 --> 00:34:45,020
Omdat we niet willen dat we niet kunnen begrijpen hoe een systeem tot zijn beslissing komt.

566
00:34:45,438 --> 00:34:47,980
Op andere terreinen zou je kunnen zeggen, we vinden het zo belangrijk.

567
00:34:49,139 --> 00:34:54,120
Bijvoorbeeld rond de fraudedetectie die ik net noemde, richting betalingen naar Rusland of zoiets.

568
00:34:54,130 --> 00:34:59,939
We vinden het zo belangrijk dat we die eruit halen, dat het misschien minder erg is dat het niet volledig uitlegbaar is.

569
00:35:00,419 --> 00:35:05,899
Dus ik denk dat dat, zoals al die verplichtingen en al die principes, heel erg contextueel bepaald wordt.

570
00:35:06,200 --> 00:35:08,919
En dat je daar dus een heel goed besluitvormingsproces omheen moet hebben.

571
00:35:10,000 --> 00:35:15,800
Dus kom je eigenlijk weer terug op de trade-offs die je bewust kiest om het wel of niet in te zetten voor een bepaald doeleinde.

572
00:35:16,020 --> 00:35:23,940
Ja, exact. En de zorg die leeft rond die uitlegbaarheid is dat als je daar ook niet kijkt naar de keuzes die daaromheen gemaakt worden,

573
00:35:23,990 --> 00:35:28,100
dat het heel makkelijk wordt wat ik eerder al schetst om die verantwoordelijkheid af te schuiven op zo'n black box.

574
00:35:28,450 --> 00:35:31,460
Van ja, we weten het eigenlijk zelf ook niet, maar dit is de nieuwe realiteit.

575
00:35:32,380 --> 00:35:35,580
En dat gaat denk ik op maatschappelijke schaal heel onwenselijke consequenties geven.

576
00:35:36,320 --> 00:35:39,020
Want de derde vraag die je stelt, die heeft daarmee te maken.

577
00:35:39,820 --> 00:35:42,080
Even goed voorlezen.

578
00:35:42,410 --> 00:35:46,540
Hoe weten we zeker dat AI-systemen doen wat wij bedoelen?

579
00:35:47,920 --> 00:35:50,640
En dat gaat een steeds groter vraagstuk worden.

580
00:35:51,110 --> 00:35:52,760
Als we kijken naar de agents.

581
00:35:54,900 --> 00:35:57,540
Want zelfs als we een chain of thought vragen.

582
00:35:57,650 --> 00:36:04,160
Dus waarbij je bijvoorbeeld een ChatGPT eerst laat vertellen van hoe ga je dit aanpakken.

583
00:36:04,360 --> 00:36:08,300
Een plan wil het niet zo zijn dat het plan ook daadwerkelijk gevolgd wordt.

584
00:36:09,280 --> 00:36:10,180
Weet u uit ervaring.

585
00:36:10,550 --> 00:36:15,280
Dus het wordt steeds complexer om erachter te komen van voert die uit wat we bedoelen.

586
00:36:15,820 --> 00:36:19,640
Ja, dit is wat ze het klassieke value alignment probleem noemen.

587
00:36:19,770 --> 00:36:24,720
En dat heeft primair te maken met onze taal.

588
00:36:24,840 --> 00:36:25,960
Onze taal is altijd ambigu.

589
00:36:26,110 --> 00:36:28,060
Wij weten soms zelf ook niet precies wat we bedoelen.

590
00:36:28,540 --> 00:36:33,420
En het bekendste voorbeeld is van de paperclip robots die gevraagd wordt om zoveel mogelijk paperclips te maken.

591
00:36:33,480 --> 00:36:37,560
die uiteindelijk de hele fabriek, inclusief de medewerkers, afbreekt om er paperclips van te maken.

592
00:36:38,140 --> 00:36:40,500
Het is een simpel doel wat je zo'n systeem meegeeft,

593
00:36:40,510 --> 00:36:46,540
maar wij hebben daar allerlei contextuele waarden bij die we veronderstellen als we zo'n opdracht geven.

594
00:36:46,940 --> 00:36:50,660
Natuurlijk breek je niet de stagiair af om er ook een paperclip van te maken die niet in zo'n systeem zitten.

595
00:36:51,120 --> 00:36:55,140
En dat is het probleem met value alignment, hoe goed we de doelen ook specificeren.

596
00:36:55,150 --> 00:36:59,480
Het is altijd mogelijk, reward hacking is dan zo'n mooi voorbeeld bij AI.

597
00:36:59,800 --> 00:37:02,940
Het is altijd mogelijk dat het een andere route gaat vinden om dat doel te bereiken,

598
00:37:03,140 --> 00:37:05,620
die wij niet precies voorzien hadden of bedoeld hadden.

599
00:37:06,320 --> 00:37:09,100
Maar waarvan we terugkijken en denken dat was niet de bedoeling.

600
00:37:10,499 --> 00:37:12,700
Ik denk wel voor nieuwe inzichten waren vol.

601
00:37:12,770 --> 00:37:14,620
Maar de vraag is wat is de impact die het heeft.

602
00:37:14,690 --> 00:37:15,880
En daar weer bewust in te zijn.

603
00:37:16,800 --> 00:37:18,620
Ik had nog even een vraagje over die trade-offs.

604
00:37:19,700 --> 00:37:21,640
Want dat betekent ook wel over vastlegging daarvan.

605
00:37:21,800 --> 00:37:22,360
Vooral ethiek.

606
00:37:22,460 --> 00:37:23,760
Het kan over tijd weer veranderen.

607
00:37:23,760 --> 00:37:25,440
Je kan een nieuw besluit nemen.

608
00:37:26,340 --> 00:37:27,020
Er kan een verandering zijn.

609
00:37:27,400 --> 00:37:29,860
Hoe ga je dat soort zaken vastleggen om op terug te komen?

610
00:37:30,020 --> 00:37:31,820
Dat is gewoon een vraag die bij mij leeft.

611
00:37:34,040 --> 00:37:38,900
Ik denk dat je dat, in ieder geval hoe wij het hebben ingestoken binnen de ASN,

612
00:37:38,950 --> 00:37:44,580
is om gewoon te documenteren wat de overwegingen zijn om voor of tegen iets te stemmen of een bepaalde insteek te kiezen.

613
00:37:45,640 --> 00:37:50,400
En hoe dat eruit ziet is dat je kijkt naar een stuk van de context waarin het model wordt ingezet.

614
00:37:50,560 --> 00:37:54,760
Hoe werken we nu en wat gaat er veranderen als we AI introduceren?

615
00:37:55,100 --> 00:37:58,740
En daar zit voor mij ook een belangrijke opmerking dat ethiek niet alleen gaat over wat er niet mag,

616
00:37:59,180 --> 00:38:03,020
Maar dat je soms ook kunt zeggen, ja eigenlijk is het meest ethisch om hier te doen om wel AI in te zetten.

617
00:38:03,440 --> 00:38:07,820
Ondanks dat het model misschien niet perfect is, is het zoveel beter dan de manier waarop we nu werken.

618
00:38:08,240 --> 00:38:10,200
We hebben daar, merk ik, echt een soort status quo bias.

619
00:38:10,440 --> 00:38:13,340
Dat de situatie zonder AI, die is vertrouwd.

620
00:38:13,450 --> 00:38:15,180
En de situatie met AI, die is eng.

621
00:38:15,300 --> 00:38:17,460
Terwijl heel vaak het omgekeerde ook het geval kan zijn.

622
00:38:17,830 --> 00:38:19,240
Dus je maakt een afweging van de context.

623
00:38:20,020 --> 00:38:23,120
Je kijkt naar welke ethische principes het systeem raakt.

624
00:38:23,480 --> 00:38:25,540
Welke dilemma's of vraagstukken er ontstaan.

625
00:38:26,000 --> 00:38:31,800
en vervolgens kijk je welke aanpassingen willen we maken rond het model of het proces waar dit model in zit

626
00:38:32,260 --> 00:38:35,920
om te zorgen dat dit op een manier ingezet wordt die past bij onze waarde.

627
00:38:36,340 --> 00:38:38,240
En al die aspecten kan je vastleggen.

628
00:38:38,320 --> 00:38:43,500
Kun je documenteren in de vorm van een assessment of een andere vorm van verslaglegging

629
00:38:44,000 --> 00:38:45,660
en daar kun je gewoon in vastleggen.

630
00:38:46,360 --> 00:38:47,500
Deze keuzes hebben we uiteindelijk gemaakt.

631
00:38:47,650 --> 00:38:50,720
We weten dat we daarmee niet kiezen voor deze aspecten.

632
00:38:52,000 --> 00:38:56,080
In de context van fraude, we kiezen ervoor om geen onderscheid te maken op nationaliteit,

633
00:38:56,280 --> 00:39:00,360
wetende dat we daarmee mogelijk mensen gaan missen die wel fraude plegen.

634
00:39:02,060 --> 00:39:03,040
En dit zijn hier de redenen voor.

635
00:39:03,130 --> 00:39:06,780
We vinden het belangrijk dat eerlijkheid gerespecteerd wordt enzovoort.

636
00:39:07,200 --> 00:39:08,360
En op die manier kun je dat vastleggen.

637
00:39:08,440 --> 00:39:10,880
En dan kan een toezichthouder of een samenleving zeggen van,

638
00:39:10,950 --> 00:39:15,780
hé, maar wacht even, we vinden het belangrijk dat je wel zoveel mogelijk mensen pakt die frauderen.

639
00:39:16,260 --> 00:39:17,400
En dan kun je dat bijsturen.

640
00:39:17,600 --> 00:39:20,780
Maar ik denk dat het heel belangrijk is, elke keuze betekent ook dat je ergens niet voor kiest.

641
00:39:20,960 --> 00:39:22,600
En dat je die afweging heel bewust maakt.

642
00:39:22,900 --> 00:39:25,400
Dus goede vastlegging en rapportages daarop.

643
00:39:25,560 --> 00:39:26,700
Zodat je daarop terug kan komen.

644
00:39:27,520 --> 00:39:28,740
En ook gelijk weer kan toetsen.

645
00:39:28,860 --> 00:39:29,780
Zoals jij net zei Joop.

646
00:39:30,020 --> 00:39:31,720
Doet het wel wat we verwachten dat we het moeten doen.

647
00:39:31,740 --> 00:39:31,920
Precies.

648
00:39:32,440 --> 00:39:33,820
Ten tijde van de beslissing.

649
00:39:34,140 --> 00:39:34,200
Ja.

650
00:39:35,720 --> 00:39:38,240
Je hebt al eventjes in het begin genoemd.

651
00:39:38,580 --> 00:39:41,720
Je lost natuurlijk niet allerlei problemen op.

652
00:39:42,680 --> 00:39:44,680
Wat hoop je wat nu nog niet kan.

653
00:39:45,000 --> 00:39:47,100
Dat dat in de toekomst wel opgelost zou kunnen worden.

654
00:39:48,680 --> 00:39:49,080
Poeh.

655
00:39:49,280 --> 00:39:50,700
Ja, ik denk dat er...

656
00:39:51,560 --> 00:39:53,900
Er zijn zoveel vraagstukken waarvan ik denk...

657
00:39:54,060 --> 00:39:59,680
In de zorg alleen al problemen, wachttijden, geestelijke gezondheidszorg...

658
00:39:59,740 --> 00:40:01,820
waarvan ik denk dat AI echt een uitkomst kan bieden.

659
00:40:01,840 --> 00:40:04,240
In het onderwijs met gepersonaliseerde leerplannen.

660
00:40:05,100 --> 00:40:08,120
Ik denk dat er echt heel veel mooie mogelijkheden zijn...

661
00:40:08,120 --> 00:40:12,060
waar we nu nog aan het begin van staan die met AI mogelijk worden.

662
00:40:12,520 --> 00:40:16,720
Dus ik denk dat er op echt heel veel terreinen heel veel te winnen is met AI.

663
00:40:17,200 --> 00:40:21,680
Dingen die nu nog niet helemaal gerealiseerd zijn, maar zeker gaan komen.

664
00:40:22,320 --> 00:40:26,080
En wat ik vooral hoop en ook met het boek aan hoop bij te dragen,

665
00:40:26,140 --> 00:40:29,020
is dat we de discussie hebben over hoe gaan we dat in goede banen leiden.

666
00:40:29,040 --> 00:40:33,080
Wie profiteert uiteindelijk van die enorme transitie die we nu ingaan met AI?

667
00:40:33,480 --> 00:40:38,140
En hoe zorgen we dat we daar allemaal van mee profiteren in plaats van alleen een kleine groep mensen?

668
00:40:38,700 --> 00:40:45,720
Ja, en een van de leuke kopjes die ik in je boek zag is Too Big to Jail.

669
00:40:46,420 --> 00:40:50,920
Dat heeft daar denk ik ook mee te maken met van wie daarmee profiteert.

670
00:40:50,920 --> 00:40:52,260
Maar waarom Too Big to Jail?

671
00:40:52,710 --> 00:40:55,600
Ja, ik ben afgestudeerd ooit op de financiële crisis.

672
00:40:56,180 --> 00:40:57,060
Technologie en ethiek.

673
00:40:58,020 --> 00:41:01,500
En Too Big to Jail komt uit de onderzoeken naar de financiële crisis.

674
00:41:01,700 --> 00:41:03,740
Omdat eigenlijk daar de banken overeind werden gehouden.

675
00:41:04,140 --> 00:41:06,060
Omdat ze zo belangrijk waren voor het systeem.

676
00:41:06,460 --> 00:41:10,080
Dat we ze niet om wilden laten vallen en ook niet verantwoordelijk wilden houden.

677
00:41:10,490 --> 00:41:13,540
En daar komt voor mij een heel groot deel van de zorg rond AI nu vandaan.

678
00:41:13,920 --> 00:41:18,960
Omdat wat je ziet wat het gevolg is van die keuzes, is dat mensen massaal het vertrouwen verliezen.

679
00:41:19,020 --> 00:41:22,440
Niet alleen in het financiële systeem, maar in de overheid, in experts überhaupt.

680
00:41:23,880 --> 00:41:28,600
En ik denk dat dat wijst op een soort tekortschietende verantwoordelijkheidsmechanisme.

681
00:41:29,200 --> 00:41:34,440
En too big to jail betekent dus dat ze dermate groot zijn dat we ze niet meer aan durven pakken.

682
00:41:34,820 --> 00:41:41,320
Terwijl dat denk ik wel ontzettend belangrijk is voor de sociale cohesie, om als samenleving goed met elkaar om te gaan.

683
00:41:41,420 --> 00:41:45,880
En om die vertrouwen te houden en op te bouwen naar een overheid en naar experts en naar het financiële systeem toe.

684
00:41:49,140 --> 00:41:55,520
Wat zijn nou concrete zaken die mensen mee zou willen geven op het gebied van ethiek?

685
00:41:57,040 --> 00:41:58,720
Om daar eens mee te starten.

686
00:41:59,820 --> 00:42:06,700
Voor mij stap 1 is wat ik al zei, de andere kijk op AI en de uitdagingen rond AI en wie dat moet oplossen.

687
00:42:06,880 --> 00:42:12,020
Dus afstappen van het technische frame rond AI en AI als technische uitdaging.

688
00:42:12,640 --> 00:42:15,420
En het inzien als een grote maatschappelijke uitdaging.

689
00:42:16,460 --> 00:42:22,520
En een concrete stap daarmee is dat het verantwoord gebruik van AI niet alleen bij ontwikkelaars komt te liggen.

690
00:42:22,520 --> 00:42:26,080
Maar dat iedereen dat op de agenda kan zetten van zijn of haar gemeente.

691
00:42:26,540 --> 00:42:29,480
Van de bank waar je een rekening hebt.

692
00:42:30,300 --> 00:42:33,660
Van de organisatie waar je zelf voor werkt of organisaties waar je veel mee te maken hebt.

693
00:42:35,960 --> 00:42:40,640
En we vaak doorhebben dat we met AI werken op het moment dat we er direct mee interacteren met de ChatGPT's.

694
00:42:40,940 --> 00:42:46,540
Maar niet doorhebben dat bij al die partijen onze energieleverancier, onze verzekeraar, AI op de achtergrond draait.

695
00:42:46,640 --> 00:42:51,880
En keuzes voor ons maakt tot op zekere hoogte over de premie die we krijgen, de zorg die we krijgen enzovoort.

696
00:42:52,999 --> 00:42:55,420
En ik denk dat we daar al heel veel zouden kunnen winnen.

697
00:42:55,540 --> 00:42:59,780
Dus stap 1 is, kijk eens in je eigen organisatie, zet het op de agenda als het nog niet op de agenda staat.

698
00:43:00,200 --> 00:43:04,520
En probeer met elkaar te kijken van, hey, AI stelt ons de vraag wie willen we zijn?

699
00:43:04,960 --> 00:43:07,240
Welke antwoord gaan we eigenlijk geven? Welke antwoord kunnen we eigenlijk geven?

700
00:43:08,379 --> 00:43:14,480
Maar moeten we eigenlijk altijd weten dat er een AI-systeem gebruikt wordt?

701
00:43:17,220 --> 00:43:19,780
Nee, ik denk dat dat in veel gevallen niet nodig is.

702
00:43:19,930 --> 00:43:24,680
Je gaat ook gewoon met het vliegtuig zonder exact te weten hoe de motoren in elkaar zitten en de cockpit in elkaar zitten.

703
00:43:24,980 --> 00:43:29,940
Dus ik denk op een zekere hoogte, maar je moet wel het vertrouwen kunnen hebben dat het goed in elkaar zit.

704
00:43:30,200 --> 00:43:34,940
dat de veiligheidschecks toereikend zijn, omdat je anders dat vliegtuig niet meer instapt.

705
00:43:35,020 --> 00:43:36,980
Dus ondanks dat je niet exact hoeft te weten hoe het in elkaar zit,

706
00:43:37,380 --> 00:43:41,180
wil je weten, er is een instantie die toezicht houdt op hoe vliegtuigen gekeurd worden,

707
00:43:41,240 --> 00:43:42,460
op het onderhoud enzovoort.

708
00:43:42,520 --> 00:43:47,080
Dat moet aan de hoogste standaarden voldoen, voordat je dat vertrouwen gaat geven.

709
00:43:47,560 --> 00:43:49,560
En dat is met voedingsmiddelen in de supermarkt niet anders.

710
00:43:50,360 --> 00:43:55,020
Als het echt lukraak alles door elkaar zou zijn, zonder keurmerken en kwaliteitstoetsen,

711
00:43:55,300 --> 00:43:57,720
dan zou je een stuk voorzichtiger worden in wat je koopt.

712
00:43:58,080 --> 00:43:59,740
En dat is denk ik voor AI-systemen ook.

713
00:43:59,960 --> 00:44:04,700
We moeten een systeem opbouwen waarin we dat vertrouwen ook kunnen krijgen in de AI-systemen die ingezet worden.

714
00:44:05,260 --> 00:44:06,840
Bij een verzekeraar, in de zorg enzovoort.

715
00:44:07,540 --> 00:44:09,800
Ik heb het idee dat we daar nu aan het begin van staan.

716
00:44:09,920 --> 00:44:11,780
Dat we ons ervan bewust zijn dat het nodig is.

717
00:44:12,700 --> 00:44:17,340
AI kon heel lang voor de AI-act gewoon op de markt worden gebracht zonder dat er een vorm van toetsing op zat.

718
00:44:18,400 --> 00:44:25,920
Ik denk dat we nu die stappen moeten gaan zetten om een breder netwerk of een bredere infrastructuur, zoals ik het dan noem, rond ethiek en vertrouwen op te zetten.

719
00:44:27,560 --> 00:44:32,620
Je triggert mij met het vliegtuig even in de zin van, dat is heel praktisch, dat is heel erg duidelijk.

720
00:44:33,100 --> 00:44:39,080
We zien daar een bepaalde trackrecord, hoe vaak de ongelukken gebeuren, dat is heel transparant, of in ieder geval voelt als transparant.

721
00:44:39,780 --> 00:44:46,480
Terwijl bij AI-oplossing is dat minder transparant, maar het zal ook over tijd veranderen, want de datapunten veranderen, wij veranderen, de processen veranderen.

722
00:44:46,880 --> 00:44:50,200
Dus eigenlijk zou dat betekenen continu monitoring en trackrecord delen.

723
00:44:51,740 --> 00:45:01,440
Ik weet niet of dat voor alle systemen nodig gaat zijn, maar ik denk wel dat we sowieso een bredere discussie moeten hebben over wie houdt u hier toezicht op?

724
00:45:01,800 --> 00:45:03,220
Op welke manier houden we toezicht?

725
00:45:03,640 --> 00:45:08,860
En dan niet alleen het compliance vraagstuk van voldoen organisaties aan de wet, hebben ze een risicomanagement?

726
00:45:09,760 --> 00:45:15,320
Maar ook de toetsvraag hoe raakt dit aan de publieke waarde en waar we als samenleving naartoe gaan.

727
00:45:15,660 --> 00:45:19,000
Dus een bredere monitoring en transparantie op dat vlak.

728
00:45:19,160 --> 00:45:19,300
Ja.

729
00:45:19,320 --> 00:45:25,400
Ja, nou, ik denk dat we weer ontzettend veel gehoord hebben.

730
00:45:25,870 --> 00:45:31,480
Wat ik nog eigenlijk als afsluiten, want ik denk dat dat ook de structuur van deze aflevering is geweest.

731
00:45:31,580 --> 00:45:34,600
Een samenvatting, dat is eigenlijk de structuur van jouw boek.

732
00:45:34,740 --> 00:45:37,360
Want het is, wat gaat AI doen voor ons als maatschappij?

733
00:45:37,450 --> 00:45:38,460
Wat betekent dat voor ons?

734
00:45:38,670 --> 00:45:39,340
Is je deel twee?

735
00:45:40,100 --> 00:45:41,120
En wat kunnen we doen?

736
00:45:41,310 --> 00:45:44,040
En dat staat allemaal in een heel mooi boek beschreven.

737
00:45:44,520 --> 00:45:45,560
Wat fijn leest.

738
00:45:47,300 --> 00:45:50,380
Maar ik heb er ook weer een heel aantal inzichten uitgehaald.

739
00:45:50,430 --> 00:45:52,180
Dus ik wil eigenlijk de luisteraar ook oproepen.

740
00:45:53,579 --> 00:45:54,920
Bestel het boek, ga het lezen.

741
00:45:55,500 --> 00:45:58,760
Maar maak er vooral gebruik van van de inzichten die je deelt in het boek.

742
00:45:59,680 --> 00:46:00,220
Ja, dankjewel.

743
00:46:03,160 --> 00:46:05,180
Dankjewel weer voor het luisteren naar deze aflevering.

744
00:46:05,580 --> 00:46:08,140
Vergeet je niet te abonneren op onze nieuwsbrief.

745
00:46:08,260 --> 00:46:10,000
We hebben hele leuke dingen voor achter de schermen.

746
00:46:11,479 --> 00:46:13,380
Deze nieuwsbrief echt wel speciaal.

747
00:46:13,500 --> 00:46:14,940
Dus mis het niet.

748
00:46:15,450 --> 00:46:16,060
Tot de volgende keer.

749
00:46:16,320 --> 00:46:16,980
Tot de volgende keer.


People on this episode