AIToday Live

S06E55 - Auteur Aaron Mirck: AI, voorbij de hype

July 08, 2024 Aigency by Info Support Season 6 Episode 55
S06E55 - Auteur Aaron Mirck: AI, voorbij de hype
AIToday Live
More Info
AIToday Live
S06E55 - Auteur Aaron Mirck: AI, voorbij de hype
Jul 08, 2024 Season 6 Episode 55
Aigency by Info Support

In deze aflevering van AIToday Live is Aaron Mirck te gast, auteur van het boek "AI voorbij de hype". Aaron deelt zijn inzichten over de polarisatie binnen het AI-landschap en benadrukt het belang van een gebalanceerde benadering van kunstmatige intelligentie.

Met een achtergrond als schrijver en spreker over technologie, biedt hij een frisse kijk op hoe AI kan worden ingezet zonder te vervallen in de valkuilen van overdreven enthousiasme of ongegronde angst. Aaron en de host verkennen samen de maatschappelijke en ethische aspecten van AI, de impact op de arbeidsmarkt en de noodzaak van kritisch denken in het debat rondom kunstmatige intelligentie.

Links

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

Show Notes Transcript

In deze aflevering van AIToday Live is Aaron Mirck te gast, auteur van het boek "AI voorbij de hype". Aaron deelt zijn inzichten over de polarisatie binnen het AI-landschap en benadrukt het belang van een gebalanceerde benadering van kunstmatige intelligentie.

Met een achtergrond als schrijver en spreker over technologie, biedt hij een frisse kijk op hoe AI kan worden ingezet zonder te vervallen in de valkuilen van overdreven enthousiasme of ongegronde angst. Aaron en de host verkennen samen de maatschappelijke en ethische aspecten van AI, de impact op de arbeidsmarkt en de noodzaak van kritisch denken in het debat rondom kunstmatige intelligentie.

Links

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,001 --> 00:00:06,200
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

2
00:00:06,200 --> 00:00:11,200
In mijn eentje, nou niet in mijn eentje, ik heb een gast, maar Niels is er niet bij.

3
00:00:11,200 --> 00:00:16,000
Die is verhinderd, dat komt wel eens een keer voor.

4
00:00:16,000 --> 00:00:19,400
Maar in de studio hebben we vandaag Aaron Mirck.

5
00:00:19,400 --> 00:00:22,200
Aaron, welkom dat je er bent.

6
00:00:22,200 --> 00:00:26,360
Normaal gesproken vraag ik eigenlijk of de gast zichzelf eerst wil voorstellen, maar

7
00:00:26,360 --> 00:00:28,960
ik wil zelf eigenlijk eerst even over jou beginnen.

8Merii
00:00:28,960 --> 00:00:34,000
En vooral namelijk, je bent auteur van het boek AI voorbij de hype.

9
00:00:34,000 --> 00:00:39,880
Ik lees best wel veel van dit soort boeken en ik was hier echt van onder de indruk.

10
00:00:39,880 --> 00:00:45,480
Niet omdat ik er zelf in sta, dat zou een beetje flauw zijn natuurlijk, maar het feit

11
00:00:45,480 --> 00:00:51,400
dat je het onderwerp van zoveel kanten hebt weten te belichten en daar zo ontzettend veel

12
00:00:51,400 --> 00:00:56,200
experts bij hebt weten te halen, maakte het voor mij in ieder geval echt een feest om

13
00:00:56,200 --> 00:00:57,200
te lezen.

14
00:00:57,200 --> 00:01:00,240
En dat wilde ik vast kwijt voordat we überhaupt beginnen.

15
00:01:00,240 --> 00:01:03,240
Thanks, dat is echt heel fijn om te horen.

16
00:01:03,240 --> 00:01:07,240
Dat was ook echt de doelstelling van het boek.

17
00:01:07,240 --> 00:01:10,600
Het AI landschap is zo gepolariseerd.

18
00:01:10,600 --> 00:01:16,040
Aan de ene kant heb je alle AI fans, je moet dit doen met ChatGPT en als je morgen er niet

19
00:01:16,040 --> 00:01:18,000
mee start, dan ben je overmorgen failliet.

20
00:01:18,000 --> 00:01:22,080
En aan de andere kant heb je de mensen die zeggen, nou dan moet je ver van weg blijven.

21
00:01:22,080 --> 00:01:26,440
En open AI en ChatGPT en co-pilot, dat is de duivel.

22
00:01:26,440 --> 00:01:29,480
En die twee groepen die spraken elkaar bijna niet.

23
00:01:29,480 --> 00:01:32,520
En ik dacht, nou die ga ik samen een plek geven in dit verhaal.

24
00:01:32,520 --> 00:01:36,800
En ik hoop dat je dat er ook hebt uitgehaald, dat het een inleiding is.

25
00:01:36,800 --> 00:01:39,920
Wat is dat AI en hoe kan je ermee werken?

26
00:01:39,920 --> 00:01:42,800
Het lijkt ook een beetje AI voor dummies, hopelijk.

27
00:01:42,800 --> 00:01:43,800
Ja, denk ik.

28
00:01:43,800 --> 00:01:45,800
Ja, maar misschien wat verder eigenlijk.

29
00:01:45,800 --> 00:01:48,600
Het is voor dummies, maar je wordt er ook echt wel wijzer van.

30
00:01:48,600 --> 00:01:56,600
Maar voordat we beginnen, misschien even kort je achtergrond en waarom je ook aan een boek

31
00:01:56,600 --> 00:01:57,600
zo bent begonnen.

32
00:01:57,600 --> 00:02:03,120
Ja, dus ik ben schrijver en spreker over technologie.

33
00:02:03,120 --> 00:02:06,440
En ik heb nu drie boeken hierover geschreven.

34
00:02:06,440 --> 00:02:07,440
Dit is mijn derde boek.

35
00:02:07,440 --> 00:02:08,680
Ik ben begonnen met een dichtbundel.

36
00:02:08,680 --> 00:02:11,040
Dit al grijpt me deugd niet.

37
00:02:11,040 --> 00:02:12,640
En verzameling tech-poëzie.

38
00:02:12,640 --> 00:02:15,320
En daarna heb ik een etikettengids geschreven.

39
00:02:15,320 --> 00:02:16,880
En niet appen tijdens het eten.

40
00:02:16,880 --> 00:02:19,760
Daar heb ik een TED-talk over gedaan, iets meer dan een jaar geleden.

41
00:02:19,760 --> 00:02:24,840
En ik was eigenlijk al best wel uitgekeken op het thema kunstmatige intelligentie.

42
00:02:24,840 --> 00:02:26,480
Ik vond het eigenlijk helemaal niet interessant.

43
00:02:26,480 --> 00:02:28,880
Maar ik spreek best wel vaak op evenementen.

44
00:02:28,880 --> 00:02:32,520
En daar hoorde ik gewoon zoveel onzin.

45
00:02:32,520 --> 00:02:35,040
Ik werd er zo verdrietig van.

46
00:02:35,040 --> 00:02:38,320
En het is een beetje hetzelfde als wat we met Facebook hebben gezien, denk ik, twintig

47
00:02:38,320 --> 00:02:39,320
jaar geleden.

48
00:02:39,320 --> 00:02:43,800
Iedereen die ooit een Facebook-account had met wat volgers, die was opeens Facebook-expert.

49
00:02:43,800 --> 00:02:46,840
En hetzelfde is nu aan de hand met AI.

50
00:02:46,840 --> 00:02:50,640
Iedereen die een beetje goed is met chat-GPT, die is AI-expert.

51
00:02:50,640 --> 00:02:54,400
Die zeggen dan dingen als "AI is neutraal".

52
00:02:54,400 --> 00:03:00,680
Of wat was er nog meer iets waar ik echt van schrok?

53
00:03:00,680 --> 00:03:05,520
Dat AI een bewustzijn heeft en dat we er bang voor moeten zijn.

54
00:03:05,520 --> 00:03:07,080
Dat Terminator-verhaal.

55
00:03:07,080 --> 00:03:11,000
Dat hoorde ik van mensen die heel serieus worden genomen in een vakgebied.

56
00:03:11,000 --> 00:03:13,720
Die je misschien wel zelfs kent van de televisie.

57
00:03:13,720 --> 00:03:19,400
En ik dacht, als dit het publieke debat is, dan verdienen we wel veel beter.

58
00:03:19,400 --> 00:03:20,840
Daarom ben ik dit boek gaan schrijven.

59
00:03:20,840 --> 00:03:21,840
Mooi.

60
00:03:21,840 --> 00:03:24,200
En heel erg noodzakelijk.

61
00:03:24,200 --> 00:03:25,440
Want het is net wat je zegt.

62
00:03:25,440 --> 00:03:28,400
Er zijn zoveel fantasieën over deze technologie.

63
00:03:28,400 --> 00:03:31,840
Dat gaat bijna je voorstellingsvermogen te boven.

64
00:03:31,840 --> 00:03:35,680
Wat ik zelf nog zou willen toevoegen.

65
00:03:35,680 --> 00:03:39,000
Ik hoor bijvoorbeeld ook heel veel mensen zeggen van "we gaan het klimaatprobleem oplossen

66
00:03:39,000 --> 00:03:40,000
met AI".

67
00:03:40,000 --> 00:03:41,000
Ja.

68
00:03:41,000 --> 00:03:45,320
Er staat hier ook een boek bij jou in de kast waarin dat inderdaad werd gesuggereerd.

69
00:03:45,320 --> 00:03:48,120
Ik ben halverwege en daarin wordt dat geopperd.

70
00:03:48,120 --> 00:03:51,480
Maar jongens, dat is echt heel veel CO2 uitstoot.

71
00:03:51,480 --> 00:03:53,240
Dat is echt heel veel klimaatimpact.

72
00:03:53,240 --> 00:03:55,800
Het gebruik van generatieve AI.

73
00:03:55,800 --> 00:04:00,920
En ik hoop dat we nu, we staan een beetje aan de vooravond volgens mij van de massaal

74
00:04:00,920 --> 00:04:02,760
implementatie van generatieve AI.

75
00:04:02,760 --> 00:04:04,360
Ik denk wel dat het eraan komt.

76
00:04:04,360 --> 00:04:05,440
Ik denk wel dat we er allemaal mee gaan werken.

77
00:04:05,440 --> 00:04:09,320
De vraag is alleen, kunnen we nog er kritischer op zijn?

78
00:04:09,320 --> 00:04:12,520
Kunnen we met z'n allen zeggen "we gaan het niet voor alles doen, we gaan het niet de

79
00:04:12,520 --> 00:04:15,920
hele tijd gebruiken en misschien moeten we dat ook niet met die big tech bedrijven doen

80
00:04:15,920 --> 00:04:20,920
die er toch wel meer belang aan hechten dat hun aandeelhouders profiteren in plaats van

81
00:04:20,920 --> 00:04:21,920
de maatschappij.

82
00:04:21,920 --> 00:04:22,920
Zeker.

83
00:04:22,920 --> 00:04:26,840
Er is heel veel aandacht voor de economische kansen van generatieve AI.

84
00:04:26,840 --> 00:04:29,640
Er is niet zo heel veel aandacht voor de maatschappelijke kosten.

85
00:04:29,640 --> 00:04:33,680
En dat hebben we 15, 20 jaar geleden met social media en smartphones.

86
00:04:33,680 --> 00:04:34,680
We hebben die boven een beetje gemist.

87
00:04:34,680 --> 00:04:39,500
Nu zijn alle kinderen smartphone verslaafd en burn-out of depressief.

88
00:04:39,500 --> 00:04:42,980
Of hebben ze een concentratieprobleem gechargeerd.

89
00:04:42,980 --> 00:04:47,300
Maar die boten hebben we gemist en de democratie ligt aan het diggelen.

90
00:04:47,300 --> 00:04:52,860
En nu kunnen we met AI, kunnen we misschien nog, want nog niet iedereen heeft ooit iets

91
00:04:52,860 --> 00:04:56,700
gedaan met generatieve AI, kunnen we dat debat nu gaan voeren.

92
00:04:56,700 --> 00:04:57,700
Ja.

93
00:04:57,700 --> 00:05:01,900
Nou, en ik denk, hartstikke belangrijk, van precies wat jij zegt met die social media.

94
00:05:01,900 --> 00:05:04,140
Ja, dat is echt wel een heel groot probleem.

95
00:05:04,140 --> 00:05:06,780
En het gekke is, het lijkt wel alsof we dit niet erg genoeg vinden.

96
00:05:06,780 --> 00:05:08,500
Want we zouden er wat aan kunnen doen.

97
00:05:08,500 --> 00:05:09,500
Toch?

98
00:05:09,500 --> 00:05:10,500
Is het zo?

99
00:05:10,500 --> 00:05:14,740
De vraag is ook, wat kunnen we er dan aan doen?

100
00:05:14,740 --> 00:05:19,220
Want er zijn wel alternatieven, maar die zijn toch meer aantrekkelijk dan de big tech platformen.

101
00:05:19,220 --> 00:05:20,220
Ja.

102
00:05:20,220 --> 00:05:21,780
Wetgeving loopt achter.

103
00:05:21,780 --> 00:05:22,780
Ja.

104
00:05:22,780 --> 00:05:28,700
En nou ja, ik zit dan met een paar tenen in die creatieve sector, want ik heb die dichtbundel

105
00:05:28,700 --> 00:05:29,700
geschreven.

106
00:05:29,700 --> 00:05:33,380
Dus ik kom dan op dat soort plekken waar andere makers, wat een lelijk woord,

107
00:05:33,380 --> 00:05:34,380
samen komen.

108
00:05:34,380 --> 00:05:36,140
Iedereen zit op Instagram.

109
00:05:36,140 --> 00:05:40,380
Terwijl dat platform, dat heeft helemaal niet het beste voor met makers.

110
00:05:40,380 --> 00:05:44,300
Dat is alleen maar de domme content pushen en advertenties verkopen.

111
00:05:44,300 --> 00:05:46,820
Maar toch zit de hele creatieve sector op Instagram.

112
00:05:46,820 --> 00:05:54,060
En was het niet ook, als ik het goed gelezen had, dat Meta nu had gezegd van de voorwaarden

113
00:05:54,060 --> 00:05:58,580
worden veranderd en alles wat je post gaat gebruikt worden om nieuwe modellen te genereren?

114
00:05:58,580 --> 00:05:59,580
Of te trainen?

115
00:05:59,580 --> 00:06:02,060
Ja, dus hoe goed kom je er vanaf als maker?

116
00:06:02,060 --> 00:06:05,900
Als alles wat je maakt weer nagemaakt gaat worden door AI?

117
00:06:05,900 --> 00:06:07,580
Ja, treurig toch?

118
00:06:07,580 --> 00:06:08,580
Ja.

119
00:06:08,580 --> 00:06:12,940
En laten we misschien toch nog even terug, want we gaan meteen de diepte in, dat ligt

120
00:06:12,940 --> 00:06:13,940
aan mij.

121
00:06:13,940 --> 00:06:16,500
Wat is volgens jou AI?

122
00:06:16,500 --> 00:06:21,140
Ja, nou dat ingewikkelde is dat er zoveel definities van zijn als mensen die zich ermee

123
00:06:21,140 --> 00:06:22,140
bezighouden.

124
00:06:22,140 --> 00:06:26,020
Wat ik interessant vond toen ik dit boek schreef, dat wist ik ook niet, is dat niet elke vorm

125
00:06:26,020 --> 00:06:30,340
van kunstmatige intelligentie zelflerende algoritme nodig heeft.

126
00:06:30,340 --> 00:06:31,620
Dat wist ik niet.

127
00:06:31,620 --> 00:06:36,420
Dus je kan AI zien als een computersysteem dat autonome beslissingen neemt.

128
00:06:36,420 --> 00:06:42,060
En dan is de autocorrect functie in Word ook een vorm van AI.

129
00:06:42,060 --> 00:06:43,740
En dat zien we niet zo.

130
00:06:43,740 --> 00:06:47,500
Dus ook al ben je niet eens verbonden met het internet, toch gebruik je kunstmatige

131
00:06:47,500 --> 00:06:48,500
intelligentie.

132
00:06:48,500 --> 00:06:50,180
Mind was blown.

133
00:06:50,180 --> 00:06:52,060
Oké, ja, zo zie je maar.

134
00:06:52,060 --> 00:06:53,780
Heb je daar ooit bij stilgestaan?

135
00:06:53,780 --> 00:06:56,980
Nou ja, ik zit natuurlijk al heel lang in dit vakgebied.

136
00:06:56,980 --> 00:06:59,900
En het leuke is namelijk dat dat steeds opschuift.

137
00:06:59,900 --> 00:07:05,380
In eerste instantie was natuurlijk, of in eerste instantie, er is een moment geweest

138
00:07:05,380 --> 00:07:10,100
dat gezegd werd, weet je, als we die schaakcomputer, als die de mens verslaat, dan hebben we de

139
00:07:10,100 --> 00:07:13,260
ultieme kunstmatige intelligentie gecreëerd.

140
00:07:13,260 --> 00:07:15,340
Daar moeten we nu om lachen, toch?

141
00:07:15,340 --> 00:07:17,100
Dus dat verschuift steeds verder.

142
00:07:17,100 --> 00:07:24,540
En het feit dat we zeg maar, dat iets taalherkenning doet en je correctie geeft op spelling, dat

143
00:07:24,540 --> 00:07:25,540
vinden we normaal.

144
00:07:25,540 --> 00:07:26,540
Je spamfolder, normaal.

145
00:07:26,540 --> 00:07:31,140
Dat is allemaal machine learning achter, AI.

146
00:07:31,140 --> 00:07:34,860
Ja, en de vraag is dus ook helemaal niet, ga je iets met AI doen?

147
00:07:34,860 --> 00:07:38,580
Maar de vraag is welke AI's ga je gebruiken?

148
00:07:38,580 --> 00:07:39,580
Ja.

149
00:07:39,580 --> 00:07:43,980
En dat is een belangrijke nuance waar we, het is geen toekomstmuziek, het is al overal

150
00:07:43,980 --> 00:07:44,980
om ons heen.

151
00:07:44,980 --> 00:07:48,180
En als je uitzoomt, zou je kunnen zeggen, het is ons venster op de realiteit.

152
00:07:48,180 --> 00:07:51,620
Want je haalt je nieuws van social media, toch, in grote mate.

153
00:07:51,620 --> 00:07:55,780
Je hebt een vraag, dan stel je die als eerst aan Google.

154
00:07:55,780 --> 00:08:00,900
Dus we leven eigenlijk niet zozeer in een tijdperk waarin AI is, we leven eigenlijk

155
00:08:00,900 --> 00:08:01,900
al in een AI-tijdperk.

156
00:08:01,900 --> 00:08:03,340
Dat denk ik ook.

157
00:08:03,340 --> 00:08:05,900
En dan is de vraag, deugen die algoritmes?

158
00:08:05,900 --> 00:08:07,060
Ja, wat vind je?

159
00:08:07,060 --> 00:08:11,860
Ik heb iemand in deze podcast, en ik ben het niet, hoorden vertellen dat de meeste algoritmes

160
00:08:11,860 --> 00:08:12,860
deugen.

161
00:08:12,860 --> 00:08:13,860
De meeste mensen, ja.

162
00:08:13,860 --> 00:08:15,500
Ik heb natuurlijk daar een korte aflevering over gemaakt.

163
00:08:15,500 --> 00:08:21,260
Juist omdat, heel snel zeg maar, algoritmes zijn slecht.

164
00:08:21,260 --> 00:08:27,220
Dus we horen natuurlijk alle problemen rondom, en terecht, rondom grote zaken.

165
00:08:27,220 --> 00:08:34,100
En dat doet het dan vermoeden alsof alle algoritmes discrimineren, slecht zijn.

166
00:08:34,100 --> 00:08:36,420
Niet alle algoritmes gaan überhaupt over mensen.

167
00:08:36,420 --> 00:08:39,020
Dus of jij in de voor…

168
00:08:39,020 --> 00:08:41,220
De autocorrect functie in Word.

169
00:08:41,220 --> 00:08:42,220
Ja, dat.

170
00:08:42,220 --> 00:08:48,900
Maar ook, weet je, tomatentelers selecteren de tomaten, hoe rijp ze zijn.

171
00:08:48,900 --> 00:08:52,780
Er zijn zo ontzettend veel algoritmes die wij niet zien.

172
00:08:52,780 --> 00:08:57,100
Dus wij zien het topje van de ijsberg, en van het topje van de ijsberg horen we natuurlijk

173
00:08:57,100 --> 00:09:00,820
voornamelijk wanneer het misgaat, waar we wat mee moeten.

174
00:09:00,820 --> 00:09:05,900
Maar ik denk inderdaad dat de meeste algoritmes niet zo schadelijk zijn.

175
00:09:05,900 --> 00:09:09,140
En daarin wil ik met je meegaan.

176
00:09:09,140 --> 00:09:13,700
Volgens mij heb ik je ooit ook horen zeggen dat je niet kan zeggen dat een algoritme deugt

177
00:09:13,700 --> 00:09:14,700
of niet.

178
00:09:14,700 --> 00:09:18,460
Want het is natuurlijk geprogrammeerd door iemand die bedoelingen heeft.

179
00:09:18,460 --> 00:09:22,820
Dus dan zou je moeten zeggen dat de algoritme-programmeur deugt niet.

180
00:09:22,820 --> 00:09:24,900
Ja, of de opdrachtgever.

181
00:09:24,900 --> 00:09:29,060
Uiteindelijk maak je iets met een doel, hoop ik.

182
00:09:29,060 --> 00:09:30,660
Ja, als het goed is.

183
00:09:30,660 --> 00:09:31,660
Ja, toch?

184
00:09:31,660 --> 00:09:32,660
Ja.

185
00:09:32,660 --> 00:09:33,660
Daar gaat het wel vaak mis.

186
00:09:33,660 --> 00:09:34,820
Maar in principe maak je iets met een doel.

187
00:09:34,820 --> 00:09:40,020
En als dat doel niet deugt, dan deugt ze direct dat algoritme dat eronder zit.

188
00:09:40,020 --> 00:09:41,300
Dat gaat zeker niet deugen.

189
00:09:41,300 --> 00:09:42,300
Ja.

190
00:09:42,300 --> 00:09:48,660
Toch lees ik vaak het technieuws en dan denk ik "dit algoritme deugt niet".

191
00:09:48,660 --> 00:09:56,340
En dan blijkt weer dat de meta gebruikt alle openbare foto's om zijn AI mee te trainen.

192
00:09:56,340 --> 00:09:59,700
Facebook filtert geen nepnieuws meer.

193
00:09:59,700 --> 00:10:03,660
We gaan gewoon kijken hoe ver we kunnen komen zonder contentmoderatie dit jaar.

194
00:10:03,660 --> 00:10:05,460
De helft van de wereldbevolking mag stemmen.

195
00:10:05,460 --> 00:10:08,900
Dan denk ik "dat algoritme deugt niet".

196
00:10:08,900 --> 00:10:16,540
Ja, en ik denk dan dat het doel van Facebook precies is wat ze willen.

197
00:10:16,540 --> 00:10:21,300
Dat je zo lang mogelijk blijft hangen, dat er zo veel mogelijk reuring plaatsvindt,

198
00:10:21,300 --> 00:10:23,660
dat er zo veel mogelijk polarisatie plaatsvindt.

199
00:10:23,660 --> 00:10:26,180
Daar hebben ze de algoritmes voor ontwikkeld.

200
00:10:26,180 --> 00:10:27,980
Dus ik ben het helemaal met je eens.

201
00:10:27,980 --> 00:10:29,420
Dat algoritme deugt niet.

202
00:10:29,420 --> 00:10:32,380
Maar het doel van Facebook deugt nog veel minder.

203
00:10:32,380 --> 00:10:37,420
Ja, en dan ben je wel een beetje een nuance-hooligan.

204
00:10:37,420 --> 00:10:39,420
Ja, dat klopt.

205
00:10:39,420 --> 00:10:48,420
Het idee van die titel was om het een beetje in een catchy phrase te maken.

206
00:10:48,420 --> 00:10:55,900
Dat we wat meer gaan nadenken over wat de drijvende kracht is achter de timeline die ik zie.

207
00:10:55,900 --> 00:10:59,500
Want je opent zo'n platform, of nou ja, jij en ik niet,

208
00:10:59,500 --> 00:11:04,460
maar de gemiddelde internetgebruiker opent zo'n timeline of gebruikt een zoekmachine

209
00:11:04,460 --> 00:11:08,140
zonder erbij stil te staan dat je in een filter bubble terechtkomt.

210
00:11:08,140 --> 00:11:11,860
Of dat je content ziet die gemaakt is om je zo lang mogelijk online te laten zijn.

211
00:11:11,860 --> 00:11:18,940
Mijn idee is dat er de afgelopen 20 jaar een debat op gang is gekomen over diversiteit, over duurzaamheid.

212
00:11:18,940 --> 00:11:21,940
Zelfs Shell noemt zichzelf een groen bedrijf.

213
00:11:21,940 --> 00:11:23,940
Hoe dan?

214
00:11:23,940 --> 00:11:30,180
En 20 jaar geleden was je een geitenwollen sok als je zei dat je iets voor het klimaat wilde doen.

215
00:11:30,180 --> 00:11:31,700
Dus dat is gelukt.

216
00:11:31,700 --> 00:11:34,900
En ik geloof dat we dat ook kunnen doen met technologie.

217
00:11:34,900 --> 00:11:37,620
Dat we iets moeten met technologie.

218
00:11:37,620 --> 00:11:42,620
En of dat nou is dat er strengere wetgeving moet komen, of dat je beter alternatieven moet krijgen,

219
00:11:42,620 --> 00:11:46,940
of dat we als maatschappij er wat vaker over moeten nadenken.

220
00:11:46,940 --> 00:11:51,660
Of dat we telefoontjes niet alleen uit de klas halen, maar dat we ook op het werk daar gesprekken over hebben.

221
00:11:51,660 --> 00:11:53,660
Daar gaat iets gebeuren.

222
00:11:53,660 --> 00:11:56,340
Ik denk dat we nu aan het begin van die ontwikkeling staan,

223
00:11:56,340 --> 00:12:00,700
dat die telefoontjes in ieder geval uit de middelbare schoolklassen zijn gehaald, geloof ik.

224
00:12:00,700 --> 00:12:02,700
Ja, deels geloof ik.

225
00:12:02,700 --> 00:12:05,900
Of basisonderwijs, die zijn uit klassen gehaald.

226
00:12:05,900 --> 00:12:07,900
Pim er niet op vast.

227
00:12:07,900 --> 00:12:12,500
Er wordt een gesprek gevoerd op universiteiten en op hoge en middelbare scholen over

228
00:12:12,500 --> 00:12:15,700
het chatgpt-gebruik, mag ik daar iets mee of niet.

229
00:12:15,700 --> 00:12:18,700
Ieder student gebruikt dat volgens mij.

230
00:12:18,700 --> 00:12:23,980
En laten we eerlijk zijn, had jij het niet gebruikt als je toen je studeerde in het geschiedenis was?

231
00:12:23,980 --> 00:12:26,620
Als student kies je de weg van de minste weerstand, toch?

232
00:12:26,620 --> 00:12:28,620
Ja, dat is denk ik...

233
00:12:28,620 --> 00:12:33,620
Dus er is nu wel een debat over die digitale middelen.

234
00:12:33,620 --> 00:12:37,620
En het recht op onbereikbaar zijn, dat zit in steeds meer cao's.

235
00:12:37,620 --> 00:12:40,620
Dus we staan wel aan de vooravond van verandering.

236
00:12:40,620 --> 00:12:45,620
Ik hou van de uitspraak 'de toekomst is een werkwoord', 'the future is a verb'.

237
00:12:45,620 --> 00:12:55,620
Dus als Elon Musk zegt 'we gaan met allemaal van die tunnels onder de grond gaan we reizen',

238
00:12:55,620 --> 00:12:59,620
dan denk ik als eerste 'gast, heb je ooit gehoord van een trein?'

239
00:12:59,620 --> 00:13:06,620
En daarna denk ik 'ja, maar deze meneer is de toekomst aan het maken, want hij schetst een toekomstbeeld'.

240
00:13:06,620 --> 00:13:10,620
Dus wordt het ook wel waarschijnlijker dat we die kant op gaan, want we hebben het erover.

241
00:13:10,620 --> 00:13:16,620
En daarom ben ik heel blij dat we het vandaag hier over gaan hebben, want ik denk dat we naar een toekomst kunnen gaan,

242
00:13:16,620 --> 00:13:21,620
waarin we minder macht bij big tech kunnen neerleggen, kritischer omgaan met technologie.

243
00:13:21,620 --> 00:13:26,620
En we niet alleen het uitwerking hebben van slimme technologie, maar ook slimme gebruikers.

244
00:13:26,620 --> 00:13:30,620
En dat laten we dan als stip op de horizon hebben.

245
00:13:30,620 --> 00:13:32,620
Nou, ik denk dat het ook hele mooi is.

246
00:13:32,620 --> 00:13:37,620
Eigenlijk zeg je ook van 'het raakt de hele samenleving'.

247
00:13:37,620 --> 00:13:44,620
Dus de samenleving moet nu uiteindelijk ook een lijn trekken van 'waar willen we uitkomen, waar willen we niet zijn'.

248
00:13:44,620 --> 00:13:48,620
Hoe kijk jij dan aan tegen de nieuwe EU AI Act?

249
00:13:48,620 --> 00:13:53,620
Ik hoor daar best wel veel mensen over die zeggen van 'ja, maar dit remt innovatie'.

250
00:13:53,620 --> 00:13:59,620
Als Europa komen we op een achterstand te staan. Amerika, China, die gaan ons voorbij.

251
00:13:59,620 --> 00:14:01,620
We verliezen dit.

252
00:14:01,620 --> 00:14:09,620
Het zou best wel eens ervoor kunnen zorgen dat er bepaalde oplossingen niet gemaakt worden.

253
00:14:09,620 --> 00:14:12,620
Maar de vraag is, vind je het fijn dat...

254
00:14:12,620 --> 00:14:17,620
Stel je voor dat je in een park rondloopt en je koopt een ijsje bij een ijscoman.

255
00:14:17,620 --> 00:14:20,620
En dat daarna die ijscomeneer de hele tijd achter je aanloopt.

256
00:14:20,620 --> 00:14:22,620
Dan ga je in je woonkamer toe, mee naar de wc.

257
00:14:22,620 --> 00:14:26,620
Dat zouden we heel raar vinden, maar op het internet is het de normaalste zaak van de wereld.

258
00:14:26,620 --> 00:14:30,620
En dan kan je zeggen... - De cookies, de trekking.

259
00:14:30,620 --> 00:14:34,620
Dan kan je zeggen 'ja, dat is innovatie'. Maar je kan ook zeggen 'dat is een gebrek aan privacy'.

260
00:14:34,620 --> 00:14:37,620
En dat is natuurlijk de Amerikaanse blik.

261
00:14:37,620 --> 00:14:42,620
De markt moet het doen en dan moet de overheid niet in de weg staan, want dan hou je innovatie tegen.

262
00:14:42,620 --> 00:14:44,620
In China hebben ze een hele andere kijk op.

263
00:14:44,620 --> 00:14:51,620
De overheid moet het doen, want dan weten we zeker dat het in lijn ligt met de belangen van de natie.

264
00:14:51,620 --> 00:14:53,620
Whatever that may be.

265
00:14:53,620 --> 00:14:58,620
En in Europa hebben we hopelijk nog een alternatief, namelijk de maatschappij.

266
00:14:58,620 --> 00:15:00,620
Dat ben jij.

267
00:15:00,620 --> 00:15:02,620
Dus zouden wij als maatschappij kunnen zeggen...

268
00:15:02,620 --> 00:15:05,620
Oké, we vinden het belang van burgers belangrijk.

269
00:15:05,620 --> 00:15:09,620
En we hopen dat er iets als het maatschappelijk middenveld...

270
00:15:09,620 --> 00:15:11,620
Public spaces is een heel goed voorbeeld.

271
00:15:11,620 --> 00:15:13,620
Dat er publieke alternatieven komen.

272
00:15:13,620 --> 00:15:19,620
En dat het niet zozeer vanuit de overheid komt en niet zozeer vanuit het bedrijfsleven.

273
00:15:19,620 --> 00:15:23,620
Maar dat er zoiets is als de maatschappij, Wikipedia.

274
00:15:23,620 --> 00:15:26,620
Ja, een heel mooi voorbeeld.

275
00:15:26,620 --> 00:15:30,620
Een Wikipedia-achtig internet in plaats van een Amerikaans of een Chinees internet.

276
00:15:30,620 --> 00:15:33,620
En dat zou ons exportproduct kunnen zijn.

277
00:15:33,620 --> 00:15:38,620
Het ingewikkelde bij generatieve AI is natuurlijk dat het te maken heeft met een hele grote verzameling data...

278
00:15:38,620 --> 00:15:44,620
en een hele grote behoefte aan rekenkracht. Dus ook een hele grote energieconsumptie.

279
00:15:44,620 --> 00:15:49,620
En de vraag is, hoe ga je dat dan op die manier maatschappelijk beleggen?

280
00:15:49,620 --> 00:15:55,620
GPT-NL, Mistral, dat zijn dan alternatieven die er aankomen, die er al zijn.

281
00:15:55,620 --> 00:15:57,620
Ja, Mistral.

282
00:15:57,620 --> 00:16:01,620
Ja, natuurlijk die Microsoft-investering. Ga je dan even beginnen?

283
00:16:01,620 --> 00:16:02,620
Ja, zeker.

284
00:16:02,620 --> 00:16:04,620
Ja, dus voor de mensen.

285
00:16:04,620 --> 00:16:06,620
Mistral is relatief open source.

286
00:16:06,620 --> 00:16:11,620
Daar komt een aflevering aan over hoe open source modellen zijn trouwens.

287
00:16:11,620 --> 00:16:15,620
Maar Mistral is een Franse open source model.

288
00:16:15,620 --> 00:16:22,620
Maar ze hebben het allergrootste, beste, duurste model nu gesloten gemaakt.

289
00:16:22,620 --> 00:16:26,620
De licentie afgesloten met Microsoft.

290
00:16:26,620 --> 00:16:31,620
En dat deel is sowieso niet meer open source.

291
00:16:31,620 --> 00:16:37,620
Ja, en dat is denk ik ook... Je loopt per definitie een beetje achter,

292
00:16:37,620 --> 00:16:43,620
want die andere grote AI-systemen hebben en miljarden aan investeringen,

293
00:16:43,620 --> 00:16:45,620
en al heel veel data verzameld.

294
00:16:45,620 --> 00:16:49,620
De vraag is, kunnen we misschien ook af met minder grote modellen?

295
00:16:49,620 --> 00:16:51,620
En dat zou dan een oplossing kunnen zijn.

296
00:16:51,620 --> 00:16:56,620
Ik geloof dat de Erasmus Universiteit in Rotterdam is bezig met een model.

297
00:16:56,620 --> 00:16:59,620
En er zijn wel wat initiatieven.

298
00:16:59,620 --> 00:17:02,620
Misschien hoeven we ook niet de hele tijd met een bazooka op een mug te schieten.

299
00:17:02,620 --> 00:17:04,620
Wat betreft generatieve AI.

300
00:17:04,620 --> 00:17:08,620
Chats, GPT, Copilot, kunnen alles een beetje goed.

301
00:17:08,620 --> 00:17:13,620
Misschien komt er hierna een golf van generatieve AI,

302
00:17:13,620 --> 00:17:16,620
die bepaalde dingen heel goed kan.

303
00:17:16,620 --> 00:17:18,620
Daar ben ik van overtuigd.

304
00:17:18,620 --> 00:17:21,620
Dus we gaan naar de small language models.

305
00:17:21,620 --> 00:17:24,620
Dus dat je eigenlijk gewoon experts meer krijgt.

306
00:17:24,620 --> 00:17:26,620
Dus als jij nu iemand wil inhuren,

307
00:17:26,620 --> 00:17:30,620
stel, ik hou er niet van om technologie te vermenselijken,

308
00:17:30,620 --> 00:17:33,620
maar het maakt het misschien de analogie wat makkelijker.

309
00:17:33,620 --> 00:17:37,620
Dus jij wil iemand inhuren voor het verbouwen van je huis.

310
00:17:37,620 --> 00:17:42,620
Dan ga je niet waarschijnlijk één inhuren die alles een heel klein beetje kan.

311
00:17:42,620 --> 00:17:46,620
Dan heb je het liefst dat je zegt, ik heb een architect die heel goed daarin is,

312
00:17:46,620 --> 00:17:49,620
en ik heb iemand die heel goed kan metselen,

313
00:17:49,620 --> 00:17:52,620
iemand die heel goed elektriciteit kan aanleggen.

314
00:17:52,620 --> 00:17:54,620
En daar gaan we veel meer naartoe, denk ik.

315
00:17:54,620 --> 00:17:57,620
Ja, en dat zou dan ook betekenen dat je minder rekenkracht nodig hebt,

316
00:17:57,620 --> 00:18:00,620
en minder grote data zet.

317
00:18:00,620 --> 00:18:03,620
Dus dat zou dan een alternatief kunnen zijn.

318
00:18:03,620 --> 00:18:07,620
Het ingewikkelde is dat je wel een beetje achter de feiten aanloopt.

319
00:18:07,620 --> 00:18:10,620
Ik had een stukje geschreven voor het FD vorige week.

320
00:18:10,620 --> 00:18:16,620
Is onze AI-achterstand misschien niet ook een kans om etische alternatieven te overwegen?

321
00:18:16,620 --> 00:18:19,620
Is er zoiets als de remmende voorsprong?

322
00:18:19,620 --> 00:18:23,620
Als we met z'n allen nu een soort vendor lock-in hebben bij CoPilot,

323
00:18:23,620 --> 00:18:27,620
dan wordt het heel moeilijk om straks zo'n small language model te gaan gebruiken,

324
00:18:27,620 --> 00:18:30,620
want je zit al in zo'n systeem gevangen.

325
00:18:30,620 --> 00:18:34,620
Dus misschien is het gewoon goed nieuws dat Nederland op een bepaalde manier

326
00:18:34,620 --> 00:18:36,620
tussen aanhalingstekens achterloopt.

327
00:18:36,620 --> 00:18:39,620
Dat vind ik wel een mooie kijk eigenlijk.

328
00:18:39,620 --> 00:18:44,620
En je had nog een mooie kijk, want je had ook geschreven een stukje over,

329
00:18:44,620 --> 00:18:48,620
want het gaat bij AI natuurlijk heel vaak over productiviteitswensen.

330
00:18:48,620 --> 00:18:53,620
Dus het gaat over demografische, gaan we veranderen, vergrijzen.

331
00:18:53,620 --> 00:18:59,620
En je hoort bijna van AI is daar ook weer de oplossing, generatieve AI is daar de oplossing,

332
00:18:59,620 --> 00:19:04,620
want we kunnen 30, 40 procent sneller werken met generatieve AI.

333
00:19:04,620 --> 00:19:06,620
Jij keek daar iets anders tegenaan, toch?

334
00:19:06,620 --> 00:19:11,620
Ja, AI is sowieso een oplossing op zoek naar een probleem.

335
00:19:11,620 --> 00:19:13,620
Dus niemand die tien jaar geleden zei,

336
00:19:13,620 --> 00:19:19,620
ik zou wel wat vaker gewoon met een druk op de knop een tekst willen genereren.

337
00:19:19,620 --> 00:19:20,620
Dat zei niemand ooit.

338
00:19:20,620 --> 00:19:23,620
Dus opeens hebben we dit en dan gaan we op zoek naar een use case.

339
00:19:23,620 --> 00:19:28,620
En dit is natuurlijk, het kan je productiever maken.

340
00:19:28,620 --> 00:19:32,620
Het kan taken automatiseren, ervoor zorgen dat we dingen niet meer zelf hoeven te doen.

341
00:19:32,620 --> 00:19:37,620
Maar de ironie is dat we juist op dit moment veel minder productief zijn geworden door AI.

342
00:19:37,620 --> 00:19:41,620
Wat blijkt? De gemiddelde Nederlander zit twee uur per dag op social media,

343
00:19:41,620 --> 00:19:45,620
tweeënhalf uur op zijn telefoon en is drie uur per dag bezig met e-mail.

344
00:19:45,620 --> 00:19:47,620
Dat is bijna een hele werktuig, digitale communicatie.

345
00:19:47,620 --> 00:19:49,620
Dat is eigenlijk krankzinnig.

346
00:19:49,620 --> 00:19:53,620
De oplossing is, laat die digitale media met rust.

347
00:19:53,620 --> 00:19:58,620
Als je, dus 80 procent van de kenniswerkers heeft zijn mailbox altijd openstaan.

348
00:19:58,620 --> 00:20:00,620
Dat is echt krankjorum.

349
00:20:00,620 --> 00:20:03,620
Laat dat gewoon met rust, check een paar keer per dag je mail.

350
00:20:03,620 --> 00:20:07,620
En tenzij je in sales werkt of bij de klantenservice,

351
00:20:07,620 --> 00:20:11,620
de wereld gaat door met draaien als je je mailbox wat vaker openstaat.

352
00:20:11,620 --> 00:20:12,620
Dat is echt niet erg.

353
00:20:12,620 --> 00:20:15,620
Ik ben vriend met een ondernemer, die heeft een paar mensen in dienst.

354
00:20:15,620 --> 00:20:19,620
Als die meteen teruggemaild worden, dan wordt hij boos.

355
00:20:19,620 --> 00:20:21,620
Ja, ik kan me dat voorstellen.

356
00:20:21,620 --> 00:20:23,620
Dan heb je niks beters te doen.

357
00:20:23,620 --> 00:20:27,620
En heel veel mensen willen dienstverlenend zijn en zijn dus maar aan die mailbox gekluisterd.

358
00:20:27,620 --> 00:20:33,620
Maar het zorgt ervoor dat we heel reactief worden en niet focussen op de dingen die we er toe doen.

359
00:20:33,620 --> 00:20:38,620
Dus de stelling van AI voorbij de hype is,

360
00:20:38,620 --> 00:20:41,620
AI is een hype die FOMO veroorzaakt.

361
00:20:41,620 --> 00:20:43,620
Dus iedereen wil iets met AI.

362
00:20:43,620 --> 00:20:45,620
Dat is echt het domste wat je kan zeggen.

363
00:20:45,620 --> 00:20:49,620
Je hebt een probleem en daarvoor zoek je een oplossing.

364
00:20:49,620 --> 00:20:56,620
Maar AI is ook overschaduwd tussen alternatieve oplossingen die goedkoper zijn,

365
00:20:56,620 --> 00:20:59,620
of ethischer of beter, gewoon simpeler.

366
00:20:59,620 --> 00:21:04,620
Omdat je per se AI wil, maak je het complexer dan strikt noodzakelijk.

367
00:21:04,620 --> 00:21:06,620
Dus we moeten productiever worden.

368
00:21:06,620 --> 00:21:07,620
Daar ben ik het helemaal mee eens.

369
00:21:07,620 --> 00:21:12,620
We besteden het minder mensen die werk doen, wat we gedaan willen krijgen.

370
00:21:12,620 --> 00:21:16,620
Je kan ook zeggen, we gaan mensen vertrouwen in plaats van controleren.

371
00:21:16,620 --> 00:21:19,620
En dan heb je een hele managementlaag die eruit kan.

372
00:21:19,620 --> 00:21:21,620
Kijk naar de toeslagen of verder.

373
00:21:21,620 --> 00:21:23,620
Je kan zeggen dat het ligt aan een algoritme.

374
00:21:23,620 --> 00:21:28,620
Maar dat is ontstaan omdat we een Bulgare fraude, zo heette dat destijds,

375
00:21:28,620 --> 00:21:31,620
dat is ook echt stigmatiserend, maar goed.

376
00:21:31,620 --> 00:21:35,620
We hadden een Bulgare fraude en toen zeiden we, dat wilden we niet,

377
00:21:35,620 --> 00:21:37,620
dus gingen we strenger controleren op toeslagen.

378
00:21:37,620 --> 00:21:44,620
Dus er werd een algoritme getraind en daarbij is uiteindelijk het criterium nationaliteit meegenomen.

379
00:21:44,620 --> 00:21:47,620
Wat natuurlijk niet deugt als algoritme.

380
00:21:47,620 --> 00:21:48,620
Zeker niet.

381
00:21:48,620 --> 00:21:51,620
Het besluit om het mee te nemen.

382
00:21:51,620 --> 00:21:55,620
Ja, dat deugt inderdaad niet.

383
00:21:55,620 --> 00:21:57,620
Dat is uit New Orleans Hooligan.

384
00:21:57,620 --> 00:22:05,620
En de context is, we vertrouwen in mensen niet en we accepteren niet een kleine marge van fraude.

385
00:22:05,620 --> 00:22:09,620
Wat misschien ook inherent is aan een samenleving of een systeem of wat dan ook.

386
00:22:09,620 --> 00:22:11,620
Want de data liet dat gewoon zien.

387
00:22:11,620 --> 00:22:15,620
Ik weet het niet meer uit mijn hoofd, maar het lag geloof ik ergens tussen 1 en 2 procent of zo, die fraude.

388
00:22:15,620 --> 00:22:19,620
Daarvan weten ze gewoon van, dat is bijna niet terug te dringen.

389
00:22:19,620 --> 00:22:23,620
Dat heb je gewoon met toeslagen en uitkering en dat soort zaken.

390
00:22:23,620 --> 00:22:25,620
Maar het zou en het moest.

391
00:22:25,620 --> 00:22:32,620
En de uiteindelijke kosten voor de toeslagen en verder, behalve gewoon mensenlevens, zijn miljarden.

392
00:22:32,620 --> 00:22:35,620
Dus dat als voorbeeld.

393
00:22:35,620 --> 00:22:40,620
Maar het is natuurlijk, dat hele productiviteitsvraag is heel urgent.

394
00:22:40,620 --> 00:22:46,620
Want er zit een generatie, die gaat met pensioen nu, die heel groot is op de arbeidsmarkt, niet genoeg nieuwe aan was.

395
00:22:46,620 --> 00:22:48,620
Ook een politieke keuze trouwens.

396
00:22:48,620 --> 00:22:51,620
En dus, moeten beschikbare krachten productiever worden?

397
00:22:51,620 --> 00:22:54,620
Nou, je kan anders omgaan met huidige digitale middelen.

398
00:22:54,620 --> 00:22:58,620
Maar je kan ook een heleboel banen gewoon ermee ophouden.

399
00:22:58,620 --> 00:23:00,620
We hebben heel veel bullshit banen.

400
00:23:00,620 --> 00:23:02,620
En bullshit taken ook gewoon.

401
00:23:02,620 --> 00:23:05,620
Ik denk dat iedereen wel taken, als je nu even nadenkt,

402
00:23:05,620 --> 00:23:09,620
je denkt van ja, A je hebt er geen zin in, B het levert niks op.

403
00:23:09,620 --> 00:23:10,620
En toch doe je ze.

404
00:23:10,620 --> 00:23:15,620
Dus dan kan je straks nog sneller een bullshit taak doen, in plaats van dat je hem weghaalt.

405
00:23:15,620 --> 00:23:19,620
En dan vraag ik me af, hoe intelligent is het werken met AI dan echt?

406
00:23:19,620 --> 00:23:22,620
Wat is jouw antwoord?

407
00:23:22,620 --> 00:23:24,620
Nou ja, dat schemert hier toch wel doorheen.

408
00:23:24,620 --> 00:23:25,620
Ja toch?

409
00:23:25,620 --> 00:23:29,620
Dus de stelling van het boek, als ik het moet samenvatten in één zin, is

410
00:23:29,620 --> 00:23:31,620
AI is een tool en geen doel.

411
00:23:31,620 --> 00:23:35,620
En het kan je helpen om een bepaald probleem op te lossen.

412
00:23:35,620 --> 00:23:37,620
En ik zie ook echt heus wel wat nut in.

413
00:23:37,620 --> 00:23:42,620
En ik vond die use cases die gedeeld werden echt heel mooi en heel waardevol.

414
00:23:42,620 --> 00:23:49,620
En ik zie de toegevoegde waarde, maar waar ik me echt mateloos aan erger,

415
00:23:49,620 --> 00:23:51,620
en waar ik ook echt heel erg verbaasd over ben,

416
00:23:51,620 --> 00:23:54,620
is dat er heel veel trendwatchers heel veel geld verdienen in Nederland,

417
00:23:54,620 --> 00:23:56,620
die gewoon de industrie napraten.

418
00:23:56,620 --> 00:24:00,620
En je hebt gewoon een onafhankelijke rol als expert.

419
00:24:00,620 --> 00:24:08,620
En het zijn gewoon voorbeelden die uit keynotes komen van Apple en Google en Microsoft.

420
00:24:08,620 --> 00:24:12,620
We hebben de hele IBM Watson hype hebben we gehad,

421
00:24:12,620 --> 00:24:18,620
waarvan bleek dat het uiteindelijk alleen maar een hele grote marketing sales machine was van IBM.

422
00:24:18,620 --> 00:24:27,620
Dus zij zouden kankerbehandelingen uit alle diagnoses die er ter wereld waren,

423
00:24:27,620 --> 00:24:29,620
alles wat er over geschreven was,

424
00:24:29,620 --> 00:24:31,620
zij zouden dat wel even oplossen.

425
00:24:31,620 --> 00:24:33,620
Dat is niet helemaal gelukt.

426
00:24:33,620 --> 00:24:37,620
Ja, en dat heeft dus, en dan vraag je je misschien af waarom maak ik me daar zo druk om,

427
00:24:37,620 --> 00:24:39,620
nou dat heeft dus gevolgen voor de echte wereld.

428
00:24:39,620 --> 00:24:45,620
Dus ik had een boek van Kurt Kikkerenser, een bioloog uit Amerika,

429
00:24:45,620 --> 00:24:52,620
en die vertelde dus dat hij door de Nederlandse Kankerstichting gevraagd was om mee te denken over kanker in Nederland.

430
00:24:52,620 --> 00:24:56,620
En hij ontdekte dat de helft van de gevallen van kanker in Nederland te maken hebben met leefstijlkeuzes.

431
00:24:56,620 --> 00:24:58,620
Dus eten, drinken, roken, sporten.

432
00:24:58,620 --> 00:25:02,620
Dus als je dan jonge mensen op hun vroege leeftijd leert om gezonder te leven,

433
00:25:02,620 --> 00:25:03,620
los je dat probleem op.

434
00:25:03,620 --> 00:25:04,620
Wat gebeurde er?

435
00:25:04,620 --> 00:25:09,620
Het Nederlands Kankerinstituut zei, ja we willen toch iets met AI.

436
00:25:09,620 --> 00:25:14,620
Maar wat ga je dan doen? Ga je dan nog betere data-analyses doen?

437
00:25:14,620 --> 00:25:15,620
Wat schiet je ermee op?

438
00:25:15,620 --> 00:25:18,620
De oplossing is natuurlijk mensen voorlichten.

439
00:25:18,620 --> 00:25:21,620
Dat is dus de helft van de gevallen, dat heb je uitgerekend.

440
00:25:21,620 --> 00:25:25,620
De andere helft van de gevallen los je daar niet mee op, maar dit is gewoon een heel significant getal.

441
00:25:25,620 --> 00:25:29,620
En daar maak ik me dan druk om.

442
00:25:29,620 --> 00:25:30,620
Ja, terecht denk ik.

443
00:25:30,620 --> 00:25:34,620
Nee zeker, helemaal.

444
00:25:34,620 --> 00:25:40,620
Wij zitten wel bijvoorbeeld in een onderzoeksprogramma met het Radboud Universiteit,

445
00:25:40,620 --> 00:25:53,620
en daar kijken we naar gepersonaliseerde nabehandeling van kankerpatiënten.

446
00:25:53,620 --> 00:25:56,620
Nu gaat dat heel erg volgens protocol.

447
00:25:56,620 --> 00:26:03,620
Dat is gewoon, als je op dat moment je laatste Q hebt gehad, zoveel weken daarna krijg je dit ene.

448
00:26:03,620 --> 00:26:05,620
Zo ligt dat eigenlijk helemaal vast.

449
00:26:05,620 --> 00:26:11,620
En dan word jij als mens, wat jij belangrijk vindt in je leven, wordt daar dan eigenlijk niet in meegenomen.

450
00:26:11,620 --> 00:26:13,620
Mensenkwaliteit van leven wordt daar niet in meegenomen.

451
00:26:13,620 --> 00:26:21,620
En ik denk dat juist mooie oplossingen zijn van hoe zorg je nou dat die AI de mensen gaat helpen.

452
00:26:21,620 --> 00:26:26,620
Dat je het versterkt, dat wij niet per se dezelfde behandeling krijgen,

453
00:26:26,620 --> 00:26:31,620
maar dat die op ons is afgestemd van wat wij zelf belangrijk vinden.

454
00:26:31,620 --> 00:26:35,620
Ja, en dat is het, de nuance.

455
00:26:35,620 --> 00:26:38,620
Er zijn heel veel toepassingen die heel waardevol zijn.

456
00:26:38,620 --> 00:26:40,620
Het is niet zo zwart-wit.

457
00:26:40,620 --> 00:26:46,620
Er zijn use cases, er zijn voorbeelden, er zijn allemaal handige dingen die je kan doen met AI,

458
00:26:46,620 --> 00:26:50,620
wat je tijd bespaart, wat ons productiever maakt, wat ons als maatschappij verder brengt.

459
00:26:50,620 --> 00:26:54,620
Alleen het idee dat technologie voor alles de oplossing is, dat is zo…

460
00:26:54,620 --> 00:26:58,620
Ik hoop echt dat we het een beetje aan het begin van deze eeuw achter ons kunnen laten,

461
00:26:58,620 --> 00:27:00,620
en dat we verder kunnen.

462
00:27:00,620 --> 00:27:02,620
Ik denk dat het heel moeilijk is hoor.

463
00:27:02,620 --> 00:27:07,620
Ik kom natuurlijk ook heel veel bij klanten, ook inderdaad, die graag met AI aan de slag willen.

464
00:27:07,620 --> 00:27:10,620
En dan stellen we ook dit soort kritische vragen.

465
00:27:10,620 --> 00:27:15,620
Van, wil je het wel? Wat lost het op? Welk doel wil je bereiken?

466
00:27:15,620 --> 00:27:19,620
En in heel veel gevallen hoeft het helemaal niet met deze technologie.

467
00:27:19,620 --> 00:27:25,620
Want, even een soort disclaimer, ik heb je natuurlijk geïnterviewd voor dit boek.

468
00:27:25,620 --> 00:27:32,620
En het voorbeeld wat je daarin deelde over het algoritme voor die sollicitatieprocedure,

469
00:27:32,620 --> 00:27:34,620
dat vond ik zo mooi.

470
00:27:34,620 --> 00:27:40,620
Ja, dus een groot uitzendbureau kwam met een aantal cases bij ons,

471
00:27:40,620 --> 00:27:46,620
waaronder de kijken of we de beste match konden maken

472
00:27:46,620 --> 00:27:50,620
tussen mensen uit hun bestand en de vacature die binnenkwam.

473
00:27:50,620 --> 00:27:55,620
Ik moet zeggen, dat hebben we niet afgewezen vanwege dat we zeiden,

474
00:27:55,620 --> 00:27:57,620
ja, daar moet je een andere technologie voor gebruiken.

475
00:27:57,620 --> 00:27:59,620
Die hebben we juist afgewezen, omdat we hebben gezegd,

476
00:27:59,620 --> 00:28:02,620
daar moet je überhaupt geen technologie voor gebruiken.

477
00:28:02,620 --> 00:28:05,620
Dat levert je zoveel problemen op.

478
00:28:05,620 --> 00:28:09,620
Dat gaat discriminatie veroorzaken. Je gaat mensen schaden.

479
00:28:09,620 --> 00:28:16,620
De kans zelfs dat je je doel bereikt, wat je zou willen, is denk ik ook heel erg klein.

480
00:28:16,620 --> 00:28:19,620
Dus daarvan hebben we gezegd, wij doen dat in ieder geval niet.

481
00:28:19,620 --> 00:28:23,620
En dat vond ik nog zo verbazingwekkend.

482
00:28:23,620 --> 00:28:29,620
Je hoeft niet eens expliciet te filteren op etniciteit of geslacht of wat dan ook, toch?

483
00:28:29,620 --> 00:28:32,620
Nee, zeker niet. Er zitten allerlei indirecties in data,

484
00:28:32,620 --> 00:28:38,620
waardoor je problemen krijgt, waardoor je weet of iemand man of vrouw is,

485
00:28:38,620 --> 00:28:41,620
of wat eventueel een etnische achtergrond is.

486
00:28:41,620 --> 00:28:45,620
Je kan je voorstellen, als je gewoon een buitenlandse naam hebt,

487
00:28:45,620 --> 00:28:49,620
dan is het een heel belangrijk onderdeel van je leven.

488
00:28:49,620 --> 00:28:52,620
En dat is ook een van de grote problemen.

489
00:30:58,620 --> 00:31:01,620
En worden je programmeurs ook een beetje...

490
00:31:01,620 --> 00:31:04,620
Dat is ook een voorbeeld uit de literatuur.

491
00:31:04,620 --> 00:31:07,620
Dat je afhankelijk wordt van die technologie.

492
00:31:07,620 --> 00:31:10,620
Dat je van kids of co-op pilot afhankelijk wordt...

493
00:31:10,620 --> 00:31:13,620
en zelf minder goed kan coderen.

494
00:31:13,620 --> 00:31:16,620
Dat moeten wij nog zien.

495
00:31:16,620 --> 00:31:19,620
We zitten natuurlijk in die zin best wel in een vroegtijdig stadium.

496
00:31:19,620 --> 00:31:22,620
Niet iedereen mag het bij ons gebruiken...

497
00:31:22,620 --> 00:31:25,620
omdat wij voor klanten werken en die AI-beleid hebben.

498
00:31:25,620 --> 00:31:28,620
Wij willen dit niet.

499
00:31:28,620 --> 00:31:31,620
Dus dan hebben ze daar gewoon geen toegang toe.

500
00:31:31,620 --> 00:31:34,620
Niet zoals studenten dat je dat stiekem toch ergens wel doet.

501
00:31:34,620 --> 00:31:37,620
We hebben daar gewoon zware contracten onder zitten.

502
00:31:37,620 --> 00:31:40,620
De overheid lijkt me een partij die daar heel sterk op zit.

503
00:31:40,620 --> 00:31:43,620
Ja, maar ook banken, verzekeraars.

504
00:31:43,620 --> 00:31:46,620
Vanuit eigenlijk best wel heel veel bedrijven...

505
00:31:46,620 --> 00:31:49,620
die zijn eigenlijk nog bezig met het ontwikkelen van AI-beleid.

506
00:31:49,620 --> 00:31:52,620
En dan begin je natuurlijk met...

507
00:31:52,620 --> 00:31:55,620
of ik weet niet of het natuurlijk, maar zij beginnen met verbieden.

508
00:31:55,620 --> 00:31:58,620
En stap voor stap gaan ze dan kijken van...

509
00:31:58,620 --> 00:32:01,620
hoe zouden we het toe kunnen laten?

510
00:32:01,620 --> 00:32:04,620
En wat laten we dan toe? En met welke leverancier laten we dat toe?

511
00:32:04,620 --> 00:32:08,620
Dus ik denk dat dat ook best wel een hele goede weg is.

512
00:32:08,620 --> 00:32:11,620
Maar wij zijn wel aan het nadenken...

513
00:32:11,620 --> 00:32:14,620
want je moet natuurlijk over drie, vijf jaar kijken...

514
00:32:14,620 --> 00:32:19,620
van wat nou als de studenten die informatica hebben gestudeerd...

515
00:32:19,620 --> 00:32:22,620
voornamelijk geprogrammeerd hebben met dit soort tooling...

516
00:32:22,620 --> 00:32:25,620
hoe krijgen wij die nou op een niveau...

517
00:32:25,620 --> 00:32:30,620
die voor ons belangrijk is?

518
00:32:30,620 --> 00:32:36,620
Ja, want dat is een ander vraagteken bij die AI-revolutie.

519
00:32:36,620 --> 00:32:40,620
Komen we niet in een tijdperk terecht van slimme technologie en domme gebruikers?

520
00:32:40,620 --> 00:32:43,620
En wat blijkt nou? We kunnen zelf steeds minder goede weg vinden...

521
00:32:43,620 --> 00:32:46,620
want we hebben allemaal GPS-technologie.

522
00:32:46,620 --> 00:32:51,620
Onze gevoel voor spelling en grammatica holt achteruit van autocorrect.

523
00:32:51,620 --> 00:32:55,620
En nu zijn we teksten of code aan het genereren.

524
00:32:55,620 --> 00:33:00,620
De vraag is, worden we dan steeds minder goed in schrijven, in coderen?

525
00:33:00,620 --> 00:33:03,620
En zou je dan ook kunnen zeggen, worden we steeds minder goed in denken?

526
00:33:03,620 --> 00:33:08,620
Mogelijk. En in ieder geval bij het programmeren...

527
00:33:08,620 --> 00:33:13,620
is denk ik wel een hele mooie analogie met niet meer je route kunnen bepalen.

528
00:33:13,620 --> 00:33:18,620
Stel, ze zouden je blinddoeken ergens midden in het bos zetten...

529
00:33:18,620 --> 00:33:21,620
en je komt er niet meer uit met je routeplanner.

530
00:33:21,620 --> 00:33:25,620
Dus je moet dat zelf doen. Je kan geen kaart meer lezen, je kan helemaal niks.

531
00:33:25,620 --> 00:33:28,620
Softwareontwikkeling bestaat eigenlijk uit het oplossen van fouten.

532
00:33:28,620 --> 00:33:32,620
Schrijven van code, heel gesorgeerd, is niet zo moeilijk.

533
00:33:32,620 --> 00:33:35,620
Hoe vind je de fout? En hoe lus je de fout op?

534
00:33:35,620 --> 00:33:38,620
En als je dus in die zin niet meer kan kaart lezen...

535
00:33:38,620 --> 00:33:40,620
hoe kom je dan uit dat dolhof?

536
00:33:40,620 --> 00:33:43,620
Daar maken wij ons wel een beetje zorg over.

537
00:33:43,620 --> 00:33:47,620
Ja. En merk je dat nu al?

538
00:33:47,620 --> 00:33:52,620
Dat er mensen afstuderen en dat ze minder vaardig zijn dan vijf jaar geleden?

539
00:33:52,620 --> 00:33:56,620
Nee. Ik moet zeggen dat dat nog niet zo is.

540
00:33:56,620 --> 00:34:00,620
Ik denk dat de studenten het meest gebruiken voor het schrijven.

541
00:34:00,620 --> 00:34:02,620
Dat vinden ze natuurlijk het minst leuk.

542
00:34:02,620 --> 00:34:06,620
En je bent hopelijk de studie gaan doen omdat je programmeren heel leuk vindt.

543
00:34:06,620 --> 00:34:10,620
Dus we zitten eerder nog aan de kant dat er wat weerstand is.

544
00:34:10,620 --> 00:34:13,620
Dus dat is wel fijn. Maar ik ben toch beter dan die machine.

545
00:34:13,620 --> 00:34:17,620
Maar daar zal ook een verloop in gaan komen.

546
00:34:17,620 --> 00:34:25,620
Ik las ook een voorbeeld dat piloten bijvoorbeeld nog maar één tot vier minuten per vlucht vliegen.

547
00:34:25,620 --> 00:34:26,620
Ja, bizar.

548
00:34:26,620 --> 00:34:29,620
Dat betekent dus wel dat er steeds minder ongelukken zijn.

549
00:34:29,620 --> 00:34:31,620
Maar piloten kunnen dus ook steeds minder goed vliegen.

550
00:34:31,620 --> 00:34:35,620
Vroeger waren er veel meer ongelukken, maar konden piloten ook veel beter vliegen.

551
00:34:35,620 --> 00:34:38,620
Dus als er iets was, dan liep het vaker goed af.

552
00:34:38,620 --> 00:34:45,620
Als er nu iets is en de automatische pilot het niet kan oplossen, dan is de kans groter dat je gewoon een bokje bent.

553
00:34:45,620 --> 00:34:47,620
Dat is geen fijn idee.

554
00:34:47,620 --> 00:34:53,620
Het zegt ook iets over autonomie en over de relatie mens-machine.

555
00:34:53,620 --> 00:34:55,620
Dat we steeds afhankelijker worden.

556
00:34:55,620 --> 00:35:01,620
En er was een Netflix film, ik geloof het 'Einde van de wereld' of zo,

557
00:35:01,620 --> 00:35:05,620
waarin alle Tesla's op elkaar inrijden.

558
00:35:05,620 --> 00:35:07,620
Ik kan me er iets van voorstellen.

559
00:35:07,620 --> 00:35:11,620
Een soort van cyberaanval op Amerika is het, geloof ik.

560
00:35:11,620 --> 00:35:18,620
En er is dan een scène waarin een man zijn klusjesman aanbelt en zegt

561
00:35:18,620 --> 00:35:20,620
"Ik heb medicijnen nodig voor mijn zoon."

562
00:35:20,620 --> 00:35:23,620
Want die heeft dan een van de... Nou ja, dat was ook helemaal niet bereikbaar.

563
00:35:23,620 --> 00:35:26,620
En dan zeg ik "Zonder technologie kan ik gewoon niks."

564
00:35:26,620 --> 00:35:28,620
"Ik ben gewoon waardeloos als mens."

565
00:35:28,620 --> 00:35:33,620
Ja, maar dat is precies waar we nu op afsteven.

566
00:35:33,620 --> 00:35:38,620
Dat betekent niet dat je helemaal niks moet doen met AI of niks met technologie,

567
00:35:38,620 --> 00:35:42,620
maar er zit wel een bepaalde schoonheid in vaardigheden.

568
00:35:42,620 --> 00:35:44,620
Hetzelfde geldt voor het taalgevoel.

569
00:35:44,620 --> 00:35:47,620
We kunnen steeds meer dingen live vertalen.

570
00:35:47,620 --> 00:35:52,620
Ik ben heel jaloers op oudere vrienden die ik heb die gewoon een boek in het Duits kunnen lezen.

571
00:35:52,620 --> 00:35:57,620
Dat is toch een ervaring die mijn generatie al bijna niet meer heeft,

572
00:35:57,620 --> 00:36:01,620
maar die generatie na mij gaat dat al helemaal niet meer lukken.

573
00:36:01,620 --> 00:36:03,620
Want het is gewoon twee uur TikTok per dag.

574
00:36:03,620 --> 00:36:07,620
Ja, maar soms is het ook wel...

575
00:36:07,620 --> 00:36:10,620
Ik doe even de advocaat van de duivel.

576
00:36:10,620 --> 00:36:15,620
Dit waren natuurlijk ook alle argumenten van de introductie van de rekenmachine.

577
00:36:15,620 --> 00:36:19,620
Volgens mij schrijf je ook in je boek zelfs de introductie van het schrift.

578
00:36:19,620 --> 00:36:23,620
Daar werd van gezegd dat daar wat dommer van zou worden.

579
00:36:23,620 --> 00:36:29,620
We zijn natuurlijk wel altijd geneigd om vooral te kijken naar wat er misgaat.

580
00:36:29,620 --> 00:36:36,620
Of misgaat, ik weet niet of misgaat, maar iets waar wij nu heel veel waarde aan hechten,

581
00:36:36,620 --> 00:36:40,620
dat dat verdwijnt en dat dat zoveel waarde heeft dat iedereen dat zou moeten houden.

582
00:36:40,620 --> 00:36:44,620
Ja, loss aversion. Dat is dat we bang zijn om te verliezen wat we hebben.

583
00:36:44,620 --> 00:36:46,620
Dat weegt zwaarder dan wat we kunnen krijgen.

584
00:36:46,620 --> 00:36:47,620
O, zo.

585
00:36:47,620 --> 00:36:48,620
Dus dat is een psychologisch effect.

586
00:36:48,620 --> 00:36:50,620
Dus het klopt helemaal wat je zegt.

587
00:36:50,620 --> 00:36:53,620
Daar heb ik een moeilijk woord voor. Dat is het goede nieuws.

588
00:36:53,620 --> 00:36:58,620
Dus we zijn bang dat we, en dat weegt zwaarder in onze besluitvorming dan wat we kunnen krijgen.

589
00:36:58,620 --> 00:37:04,620
En dat lijkt te kloppen, alleen kunnen we volgens mij niet altijd overzien wat we gaan verliezen.

590
00:37:04,620 --> 00:37:06,620
Dus dat is een belemmering.

591
00:37:06,620 --> 00:37:10,620
We hadden niet kunnen voorzien wat we de afgelopen 15 jaar zouden verliezen.

592
00:37:10,620 --> 00:37:12,620
De helft van onze vrije tijd gaat op aan schermen.

593
00:37:12,620 --> 00:37:15,620
Niet aan de sport, maar gewoon Netflix en Instagram.

594
00:37:15,620 --> 00:37:19,620
En ondertussen hebben we geen tijd voor vrienden, familie, sport, hobby's noem het op.

595
00:37:19,620 --> 00:37:22,620
Dus we kunnen het volgens mij niet goed overzien.

596
00:37:22,620 --> 00:37:26,620
En ten tweede, dom, daar ben ik een beetje op mijn vingers getikt.

597
00:37:26,620 --> 00:37:28,620
Want het is heel normatief. Wat is slim, wat is dom.

598
00:37:28,620 --> 00:37:33,620
Maar het is toch ook zo dat we steeds minder dingen onthouden sinds we dingen op papier kunnen zeggen.

599
00:37:33,620 --> 00:37:36,620
De vraag is, is het erg? En dat is normatief.

600
00:37:36,620 --> 00:37:42,620
Maar er zit natuurlijk ook een schoonheid in dat je een heel verhaal uit je hoofd kent.

601
00:37:42,620 --> 00:37:44,620
Of dat je een soort orale traditie.

602
00:37:44,620 --> 00:37:47,620
Het is wat minder handig als je wil dat je beschaving voortleeft.

603
00:37:47,620 --> 00:37:51,620
Omdat je kennis kan opschalen of reproduceren.

604
00:37:51,620 --> 00:37:55,620
Dus er zitten ook echt wel nadelen aan het niet te hebben van het schrift.

605
00:37:55,620 --> 00:38:00,620
De boekdrukkunst is in dat opzicht toch ook het begin van de verlichting.

606
00:38:00,620 --> 00:38:04,620
Zeker, ik zou niet weten wat ik zou moeten zonder boeken in mijn leven.

607
00:38:04,620 --> 00:38:08,620
Als auteur kan ik dit alleen maar beamen.

608
00:38:08,620 --> 00:38:13,620
Maar er zit altijd een trade-off met de komst van nieuwe technologie.

609
00:38:13,620 --> 00:38:17,620
Er komt iets goed, maar het kost ook iets.

610
00:38:17,620 --> 00:38:23,620
En de uitvinding van de rekenmachine zorgt ervoor dat we minder vaak zelf rekenen.

611
00:38:23,620 --> 00:38:25,620
En er minder goed in worden misschien.

612
00:38:25,620 --> 00:38:29,620
Is dat heel erg? We bestaan nog steeds en dat gaat op zich prima.

613
00:38:29,620 --> 00:38:33,620
Ja, en je rekent nog steeds keurig af bij de kas, zaten we op de cent nauwkeurig.

614
00:38:33,620 --> 00:38:36,620
Ja, daar ga je vanuit.

615
00:38:36,620 --> 00:38:39,620
Ja, maar ik reken het zelf niet.

616
00:38:39,620 --> 00:38:46,620
Er was toch iets aan de hand bij een grote supermarkt dat er wat te hoge bedragen op de rekening stonden uiteindelijk.

617
00:38:46,620 --> 00:38:48,620
Oh, dat heb ik niet meegekregen.

618
00:38:48,620 --> 00:38:53,620
Ja, pin me er niet op vast, dan krijg ik vast een lasterrechtzaak aan de broek.

619
00:38:53,620 --> 00:38:58,620
Dus ik noem ook even geen namen. Maar goed, dit ter overweging.

620
00:38:58,620 --> 00:39:06,620
Je triggert me in die zin, dat schrijf je ook wat over volgens mij in het boek.

621
00:39:06,620 --> 00:39:18,620
Is dat er natuurlijk ook vormen zijn van oplossingen waar het predikaat AI op zit, terwijl er eigenlijk gewoon gebruik wordt gemaakt van mensen?

622
00:39:18,620 --> 00:39:29,620
Dus dingen als de Mechanical Turk, of ik haal dingen door elkaar.

623
00:39:29,620 --> 00:39:34,620
Ik heb het zelf ook meegemaakt toen ik een startup had.

624
00:39:34,620 --> 00:39:39,620
En dit is wat heel veel techbedrijven, vooral als ze beginnen zeggen, is "ja nee, dat hebben we geautomatiseerd".

625
00:39:39,620 --> 00:39:42,620
En aan de achterkant zijn dat gewoon hele goedkope arbeidskrachten.

626
00:39:42,620 --> 00:39:46,620
En dat duurt heel lang totdat die technologie klaar is en er genoeg vraag naar is.

627
00:39:46,620 --> 00:39:55,620
En je kan er eigenlijk wel vaak van uitgaan dat het toch gewoon vaak hele slecht betaalde mensen uit het globale zuiden,

628
00:39:55,620 --> 00:40:00,620
arme Indiërs, dat is ook waar je AI voor kan laten staan.

629
00:40:00,620 --> 00:40:05,620
En dat is misschien stigmatiserend en ik word vast gecanceld als ik het zeg, maar dit is ook gewoon vaak de praktijk.

630
00:40:05,620 --> 00:40:13,620
En dat roept de vraag op hoe transparant die bedrijven zijn.

631
00:40:13,620 --> 00:40:22,620
En ook hoe die hype van AI ook ervoor zorgt dat we alles maar AI noemen.

632
00:40:22,620 --> 00:40:28,620
Dus de Jumbo zei van "we hebben nu camera technologie, AI beveiliging".

633
00:40:28,620 --> 00:40:30,620
Ja, van die zelfscankassa's.

634
00:40:30,620 --> 00:40:35,620
Ja, maar met camera's in de hele winkel.

635
00:40:35,620 --> 00:40:40,620
En dan hoefde je geloof ik niet meer langs een zelfscanner, dan werd het automatisch afgeschreven.

636
00:40:40,620 --> 00:40:43,620
Er werd veel meer gesurvieerd.

637
00:40:43,620 --> 00:40:48,620
En dat verkochten ze dan aan de pers als een AI innovatie.

638
00:40:48,620 --> 00:40:50,620
Maar het was gewoon surveillance technologie.

639
00:40:50,620 --> 00:40:53,620
Dit was gewoon Big Brother 1984, dat was het.

640
00:40:53,620 --> 00:41:02,620
En dat kunnen we dan AI noemen, maar dat is niet sluitend.

641
00:41:02,620 --> 00:41:05,620
Ik zou Hitler ook niet als een vegetariër beschrijven.

642
00:41:05,620 --> 00:41:13,620
Of de moeder van Jezus als een alleenstaande moeder.

643
00:41:13,620 --> 00:41:16,620
Met een ongewenste zwangerschap.

644
00:41:16,620 --> 00:41:20,620
Nee, dat is wel een goede.

645
00:41:20,620 --> 00:41:23,620
Hey Aaron, we hebben ook een virtuele co-host.

646
00:41:23,620 --> 00:41:26,620
En zij wil je ook altijd graag een vraag stellen.

647
00:41:42,620 --> 00:41:46,620
Het is een plezier om deel te nemen aan dit gesprek.

648
00:41:46,620 --> 00:41:49,620
Ik ben Aisha, de AI hier.

649
00:41:49,620 --> 00:41:51,620
Zou ik je een vraag mogen stellen?

650
00:41:51,620 --> 00:41:53,620
Ja.

651
00:41:53,620 --> 00:41:58,620
Hoe kan AI zo ontworpen worden dat het vrouwen empowert en ondersteunt?

652
00:41:58,620 --> 00:42:02,620
De vraag is "empowered".

653
00:42:02,620 --> 00:42:04,620
Dat wordt een beetje moeilijk uitgesproken.

654
00:42:04,620 --> 00:42:11,620
Hoe kan AI zo ontworpen worden dat het vrouwen empowert en ondersteunt?

655
00:42:11,620 --> 00:42:21,620
Ik heb twee bezwaren met deze vraag.

656
00:42:21,620 --> 00:42:23,620
En geen antwoord.

657
00:42:23,620 --> 00:42:29,620
Het eerste bezwaar is dat we in de hele tech-industrie focussen op kenmerken waar je niet voor kiest.

658
00:42:29,620 --> 00:42:32,620
Zoals gender en etniciteit.

659
00:42:32,620 --> 00:42:35,620
En er is een probleem met vertegenwoordiging.

660
00:42:35,620 --> 00:42:39,620
Maar ik mis echt het perspectief van de zeven vinkjes in de tech-industrie.

661
00:42:39,620 --> 00:42:51,620
Een Theoretisch opgeleide autochtone Nederlander uit een milieu waarin de ouders niet hebben gestudeerd,

662
00:42:51,620 --> 00:42:56,620
zonder, met 4 of 5 vinkjes, die komt ook niet boven te drijven.

663
00:42:56,620 --> 00:43:03,620
Ik heb bij heel veel start-ups in de keuken gekeken waarin beslissingen werden genomen over de Hengst en Ingrid van deze wereld,

664
00:43:03,620 --> 00:43:05,620
waarin die niks te zeggen hadden.

665
00:43:05,620 --> 00:43:10,620
Dus er werden allemaal banen opgeknipt in flex-contracten en platform-economie.

666
00:43:10,620 --> 00:43:12,620
Dat zijn gewoon mensen hun banen.

667
00:43:12,620 --> 00:43:14,620
Dat is zingeving.

668
00:43:14,620 --> 00:43:19,620
En dan maakt het eigenlijk niet zoveel uit of een vrouw of een man die beslissing neemt.

669
00:43:19,620 --> 00:43:22,620
Dit is gewoon disruptie van de markt waar mensen echt last van hebben.

670
00:43:22,620 --> 00:43:26,620
En wat echt impact heeft op de realiteit van mensen.

671
00:43:26,620 --> 00:43:32,620
Dus laten we alsjeblieft verder kijken met alle respecten wat iemand in zijn of haar onderbroek heeft zitten.

672
00:43:32,620 --> 00:43:36,620
Tuurlijk moeten we vertegenwoordiging hebben van zoveel mogelijk perspectieven,

673
00:43:36,620 --> 00:43:39,620
maar laten we ook verder kijken dan alleen dat.

674
00:43:39,620 --> 00:43:46,620
Het draait ook om zoveel meer factoren dan alleen gender en etniciteit.

675
00:43:46,620 --> 00:43:50,620
Het draait ook om al die andere vinkjes die Joris Leijen Dijk volgens mij heel goed beschrijft.

676
00:43:50,620 --> 00:43:52,620
Dus dat ten eerste.

677
00:43:52,620 --> 00:43:57,620
En ten tweede, waarom hebben we het alleen over AI in deze context?

678
00:43:57,620 --> 00:44:02,620
Waarom hebben we het niet over kinderopvang en belastingvoordelen?

679
00:44:02,620 --> 00:44:08,620
En over alle wetgeving en regelgeving die er is in Nederland.

680
00:44:08,620 --> 00:44:11,620
Waarom moeten we het hebben over technologie?

681
00:44:11,620 --> 00:44:15,620
Empower vind ik ook een geuk van.

682
00:44:15,620 --> 00:44:17,620
Maar het is beter dan in hun kracht zetten.

683
00:44:17,620 --> 00:44:19,620
Dat moet ik Aisha wel nageven.

684
00:44:19,620 --> 00:44:29,620
Misschien is het ook mijn gebrek aan toepassingen van AI, maar mij schiet niet zo snel iets erbinnen.

685
00:44:29,620 --> 00:44:32,620
Heb jij een idee hoe AI vrouwen kan empoweren?

686
00:44:32,620 --> 00:44:38,620
Oh ja, ik zat natuurlijk ademloos naar je te luisteren.

687
00:44:38,620 --> 00:44:40,620
Moet ik er heel even over nadenken.

688
00:44:40,620 --> 00:44:44,620
Nou ja, ik denk dat het in ieder geval wel heel belangrijk is.

689
00:44:44,620 --> 00:44:45,620
Ik ben het met je eens.

690
00:44:45,620 --> 00:44:56,620
Het gaat niet per se over vrouwen, maar ik denk dat we wel meer perspectieven nodig hebben dan die we op dit moment in de technologie hebben.

691
00:44:56,620 --> 00:45:01,620
Ik denk dat technologie wel een behoorlijk westers feestje is.

692
00:45:01,620 --> 00:45:05,620
Ook wel veel mannen uiteindelijk.

693
00:45:05,620 --> 00:45:14,620
Dus ik denk wel dat er meer diversiteit en hoe je dat dan invult, dat weet ik ook niet zo goed, dat wel heel erg nodig is.

694
00:45:14,620 --> 00:45:21,620
Wat wij natuurlijk wel zien, de AI machine learning modellen draaien op basis van data.

695
00:45:21,620 --> 00:45:25,620
En die data is wel historische data.

696
00:45:25,620 --> 00:45:30,620
En in die historische data zijn witte mannen wel oververtegenwoordigd.

697
00:45:30,620 --> 00:45:40,620
Dus we moeten wel iets, of dat dan technologisch is, dat je iets aanpast of dat je het sociaal maatschappelijk aanpakt.

698
00:45:40,620 --> 00:45:52,620
Maar er moeten dingen veranderen om dat recht te krijgen, zodat je zo direct ook eerlijke, betrouwbare, robuuste modellen krijgt voor iedereen.

699
00:45:52,620 --> 00:46:00,620
Je vertelde een kwartiertje geleden dat je niet een vacature AI scanner wilde bouwen voor een grote uitzender.

700
00:46:00,620 --> 00:46:01,620
Ja.

701
00:46:01,620 --> 00:46:04,620
Maar dan gaan we nu toch die modellen aanpakken.

702
00:46:04,620 --> 00:46:06,620
Ja, dat is heel goed.

703
00:46:06,620 --> 00:46:10,620
Kijk, uiteindelijk, niks is zwart-wit.

704
00:46:10,620 --> 00:46:13,620
Je noemde me net, hoe noem je dat?

705
00:46:13,620 --> 00:46:15,620
De nuance-hooligan.

706
00:46:17,620 --> 00:46:31,620
Kijk, er is aan de kant van de dataselectie natuurlijk heel veel te doen in hoe je die data kneedt, hoe je dat aanpakt, hoe de vertegenwoordiging eruit ziet.

707
00:46:31,620 --> 00:46:40,620
En als we dat voor elkaar krijgen om dat goed en eerlijk te verdelen, er zijn allerlei technische metrieken voor,

708
00:46:40,620 --> 00:46:47,620
dus dat je je data gewoon goed op analyseert, je kijkt of er geen meerderheidsgroepen zijn, geen minderheidsgroepen.

709
00:46:47,620 --> 00:46:58,620
Zou iemand uit de minderheidsgroep en de meerderheidsgroep hetzelfde antwoord moeten krijgen, dezelfde classificatie, daar kan je allemaal op testen.

710
00:46:58,620 --> 00:47:07,620
Maar er zijn echt wel technologische manieren waarop wij erachter kunnen komen of een zo eerlijk mogelijk model hebben.

711
00:47:07,620 --> 00:47:15,620
Als we van tevoren weten van dit gaat het niet worden, dan wijzen we het af.

712
00:47:15,620 --> 00:47:24,620
Maar dat is wat anders dan, want anders zou je geen model meer kunnen maken die invloed heeft op een persoonlijke levenssfeer.

713
00:47:24,620 --> 00:47:31,620
Dit zou dan een oplossing kunnen zijn.

714
00:47:31,620 --> 00:47:39,620
En toch voelt het ongemakkelijk om meteen weer naar een technologische oplossing te grijpen.

715
00:47:39,620 --> 00:47:44,620
Dat is natuurlijk ook het deel waar wij in zitten.

716
00:47:44,620 --> 00:47:54,620
Maar het goede nieuws is dat we het wel kunnen meten, dat we er aandacht voor hebben.

717
00:47:54,620 --> 00:48:02,620
En helaas, juist bij de gevallen die je in het nieuws ziet, is daar zo weinig aandacht aan besteed.

718
00:48:02,620 --> 00:48:08,620
Wat zou je dan willen meegeven aan die mensen die dat soort systemen bouwen?

719
00:48:08,620 --> 00:48:16,620
In mijn beleving hoort dat als je professioneel werkt, horen dit soort dingen erbij.

720
00:48:16,620 --> 00:48:25,620
Dus als jij alleen maar wil zo snel mogelijk een model bouwen, een blackbox model, waar je niet in kan kijken,

721
00:48:25,620 --> 00:48:34,620
waar je dit soort vraagstukken niet uit kan krijgen, wat mij betreft stap je gewoon uit deze sector.

722
00:48:34,620 --> 00:48:36,620
Ga weg.

723
00:48:36,620 --> 00:48:42,620
Maar als je dit professioneel aanpakt, je zorgt dat je de ethische kant bekijkt,

724
00:48:42,620 --> 00:48:47,620
dat je technologisch gewoon je dingen op orde hebt, dat je veel monitoort.

725
00:48:47,620 --> 00:48:53,620
Dus als wij modellen in productie hebben, zorgen we ook dat we in de gaten houden van blijft die doen wat die zou moeten doen?

726
00:48:53,620 --> 00:48:56,620
Want ze kunnen ook een klein beetje gaan afwijken.

727
00:48:56,620 --> 00:49:02,620
Er komt ontzettend veel bij kijken om uiteindelijk gewoon een goed AI systeem te bouwen.

728
00:49:02,620 --> 00:49:07,620
Is dat een beetje of preek ik dan te veel voor eigen paroche hier?

729
00:49:07,620 --> 00:49:11,620
Nee, ik vond het ook wel een mooie oproep. Stop, hou op.

730
00:49:11,620 --> 00:49:13,620
Ja, ja.

731
00:49:13,620 --> 00:49:24,620
Ik hoop dat er veel mensen die nog daarmee bezig zijn, die naar luisteren en je advies opvolgen.

732
00:49:24,620 --> 00:49:26,620
Kijk, hartstikke mooi.

733
00:49:26,620 --> 00:49:31,620
Aaron, ik wil heel graag afsluiten met het boek uiteraard.

734
00:49:31,620 --> 00:49:40,620
Ik denk dat het een mooi vermeldenswaardig is dat je een hele tijd op nummer één hebt gestaan in het management boek top 10.

735
00:49:40,620 --> 00:49:48,620
Dat is een mooie, hoe zeg je dat? Ik kan het Nederlands woord even niet vinden. Achievement.

736
00:49:48,620 --> 00:49:49,620
Prestatie.

737
00:49:49,620 --> 00:49:52,620
Prestatie, ja. Mooie prestatie.

738
00:49:52,620 --> 00:49:56,620
Waar kunnen ze je boek bestellen?

739
00:49:56,620 --> 00:50:02,620
Het is te koop in elke boekhandel. Het kan zijn dat ze het niet op voorraad hebben, maar dan kunnen ze het voor je bestellen.

740
00:50:02,620 --> 00:50:07,620
Je kan ook naar mijn website, aaronmerk.com, daar kan je het ook bestellen.

741
00:50:07,620 --> 00:50:11,620
En daar, ja, zoals zei, moet ik het kunnen vinden.

742
00:50:11,620 --> 00:50:18,620
Ja, je hebt een opname gemaakt van de boekpresentatie, waarin je ook zeg maar het eerste deel gewoon zelf presenteert.

743
00:50:18,620 --> 00:50:23,620
Ik kan het alleen maar aanbevelen, omdat je daar ook een heel mooi verhaal hebt van hoe je naar AI kijkt.

744
00:50:23,620 --> 00:50:30,620
En vooral eigenlijk zegt van het is een tool en geen doel.

745
00:50:30,620 --> 00:50:35,620
En ja, ik zou eigenlijk iedereen willen oproepen om gewoon een boek te kopen, lezen.

746
00:50:35,620 --> 00:50:36,620
Toch?

747
00:50:36,620 --> 00:50:38,620
Heer, heer.

748
00:50:38,620 --> 00:50:42,620
Ja, hartstikke bedankt dat je hier in de studio wilde zijn.

749
00:50:42,620 --> 00:50:49,620
Ik vond het leuk, want we hebben best wel heel veel interactie gehad met met vragen.

750
00:50:49,620 --> 00:50:52,620
Je hebt mij ook uitgedaagd. Vind ik heel erg fijn. Dank je wel daarvoor.

751
00:50:52,620 --> 00:50:57,620
En ja, dus nogmaals, AI voorbij de hype is het boek.

752
00:50:57,620 --> 00:51:02,620
Gele voorkant, kan niet missen. Koop het, lees het en leer er vooral heel veel van.

753
00:51:02,620 --> 00:51:04,620
Dank je wel.

754
00:51:04,620 --> 00:51:10,620
Fijn dat je luisterde naar deze aflevering van AIToday Live.

755
00:51:10,620 --> 00:51:15,620
Vergeet je niet te abonneren via je favoriete podcast app en dan mis je geen aflevering.

756
00:51:15,620 --> 00:51:16,620
Dank je wel weer.

757
00:51:16,620 --> 00:51:18,620
Tot ziens!

758
00:51:18,620 --> 00:51:41,420
[Muziek]