AIToday Live

S06E49 - Nederlandse bedrijven scoren slecht bij het AI-Act examen met Diptish Day (HvA)

Aigency by Info Support Season 6 Episode 49

Stuur ons een bericht

In deze aflevering van AIToday Live is Diptish Dey te gast, onderzoeker en docent bij de HvA, gespecialiseerd in AI. Dey deelt inzichten uit zijn onderzoek naar de voorbereiding van Nederlandse bedrijven op de aankomende EU-AI-act, waarbij blijkt dat veel bedrijven nog niet voldoen aan de vereisten.

Met een gemiddelde score van 5,6 op compliance, is er een duidelijke noodzaak voor verbetering. Dey en de hosts bespreken de uitdagingen en kansen rond AI-implementatie, de impact van AI op de maatschappij en het belang van transparantie en ethiek in AI-ontwikkeling.

Links

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,001 --> 00:00:05,000
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

2
00:00:05,000 --> 00:00:08,000
Met vandaag een speciale gast, Diptish Dey

3
00:00:08,000 --> 00:00:12,000
We zijn heel blij dat hij gekomen is van de HVA onderzoek.

4
00:00:12,000 --> 00:00:14,000
Daar gaan we het uitgebreid over hebben.

5
00:00:14,000 --> 00:00:16,000
Ik ben Joop Snijder, CTO bij Aigency.

6
00:00:16,000 --> 00:00:19,000
Mijn naam Niels Naglé, Area Lead, Data & AI bij Info Support.

7
00:00:19,000 --> 00:00:21,000
Diptish, welkom.

8
00:00:21,000 --> 00:00:24,000
Heel erg fijn dat je wilde komen naar onze studio.

9
00:00:24,000 --> 00:00:27,000
Zou je je eerst willen voorstellen aan de luisteraar?

10
00:00:27,000 --> 00:00:31,000
Ja, Diptish Dey Ik ben geboren en gegroeid in India.

11
00:00:31,000 --> 00:00:35,000
Op mijn 18de huis verlaten en naar een universiteit gegaan in India.

12
00:00:35,000 --> 00:00:37,000
Campus Universiteit.

13
00:00:37,000 --> 00:00:40,000
We hebben daar heel bekende alumni van eigenlijk, overal in de wereld.

14
00:00:40,000 --> 00:00:44,000
Onder andere Sundar Pichai, de baas van Google.

15
00:00:44,000 --> 00:00:46,000
Ja, zo.

16
00:00:46,000 --> 00:00:52,000
En daarna met een scholarship naar Nederland gekomen, bij de Universiteit Twente.

17
00:00:52,000 --> 00:00:56,000
Daar heb ik ook mijn master's en mijn PhD gedaan, in Wiskunde en Informatica.

18
00:00:56,000 --> 00:00:59,000
En daarna in het bedrijfsleven, heel lang.

19
00:00:59,000 --> 00:01:01,000
En wat heb je daar gedaan in het bedrijfsleven?

20
00:01:01,000 --> 00:01:05,000
Ik ben ooit begonnen bij de strategie-consulting-firma, Bain & Company.

21
00:01:05,000 --> 00:01:10,000
Daarna de visie tot de Friesland Food & Company heb ik geleid.

22
00:01:10,000 --> 00:01:14,000
En eventueel bij Calcotec Corporation gewerkt.

23
00:01:14,000 --> 00:01:17,000
En daar ben ik gegroeid als AI-specialist.

24
00:01:17,000 --> 00:01:22,000
En nu onder andere onderzoeker en docent bij de HvA.

25
00:01:22,000 --> 00:01:24,000
Kan je daar iets over vertellen?

26
00:01:24,000 --> 00:01:27,000
Ik werk bij de HvA als docent-onderzoeker op dit moment.

27
00:01:27,000 --> 00:01:29,000
Voornamelijk binnen de AI.

28
00:01:29,000 --> 00:01:34,000
En ik geef les voornamelijk aan de master's studenten.

29
00:01:34,000 --> 00:01:41,000
En daar krijg je zowel de technische vakken van mij, de zeer technische vakken.

30
00:01:41,000 --> 00:01:46,000
Dan moet je een model bouwen, zeer complexe modellen, zoals bijvoorbeeld het recommender-systeem.

31
00:01:46,000 --> 00:01:52,000
En aan de andere kant kun je ook onderzoek doen, samen met mij leren over

32
00:01:52,000 --> 00:01:56,000
hoe bedrijven op dit moment omgaan met AI.

33
00:01:56,000 --> 00:02:00,000
Bij het ontwikkelen en in de markt brengen van AI-producten en -diensten.

34
00:02:00,000 --> 00:02:07,000
En hoe zit het ten opzichte van alle maatschappelijke zorgen.

35
00:02:07,000 --> 00:02:12,000
Zorgen vanuit de wetgever over wat is wenselijk.

36
00:02:12,000 --> 00:02:17,000
Waar moeten bedrijven op letten als je gaat met AI.

37
00:02:17,000 --> 00:02:23,000
En daar geef ik ook les in, daar werk ik met studenten mee.

38
00:02:23,000 --> 00:02:27,000
Samen met andere bedrijven om onderzoek te doen, onderzoek op te zetten.

39
00:02:27,000 --> 00:02:30,000
Dus dat is waar ik op dit moment bezig ben bij de HvA.

40
00:02:30,000 --> 00:02:37,000
En een van die onderzoeken ging over of bedrijven wel klaar zijn voor de aankomende EU-AI-act.

41
00:02:37,000 --> 00:02:39,000
Ja, dat klopt.

42
00:02:39,000 --> 00:02:42,000
En zou je al in ieder geval...

43
00:02:42,000 --> 00:02:44,000
Laten we eens beginnen met de uitkomst.

44
00:02:44,000 --> 00:02:45,000
Laten we achteraan beginnen.

45
00:02:45,000 --> 00:02:47,000
Zag dat er goed uit?

46
00:02:47,000 --> 00:02:52,000
Eigenlijk maak ik best wel zorgen daarover.

47
00:02:52,000 --> 00:02:53,000
Ja.

48
00:02:53,000 --> 00:02:58,000
Die onderzoek dat wij hadden gedaan, hadden wij eigenlijk gedaan met puur Nederlandse bedrijven.

49
00:02:58,000 --> 00:03:06,000
Zoals de grote bedrijven, echt heel grote bedrijven, tot kleine bedrijven met 10 mannen op de werkvloer.

50
00:03:06,000 --> 00:03:10,000
Tot 300, 400 mannen op de werkvloer.

51
00:03:10,000 --> 00:03:13,000
Dus in de hele range zitten wij in.

52
00:03:13,000 --> 00:03:23,000
En we hadden ook bedrijven genomen van alle sectoren, zoals retail, verzekering, toerisme.

53
00:03:23,000 --> 00:03:27,000
Ja, echt sectoroverstijgend.

54
00:03:27,000 --> 00:03:29,000
Ja, over alle sectoren heen.

55
00:03:29,000 --> 00:03:34,000
En uiteindelijk hadden wij een onderzoek gedaan met circa 50 bedrijven.

56
00:03:34,000 --> 00:03:42,000
En waarvan we minstens een paar uur, een paar keer met die bedrijven gezeten.

57
00:03:42,000 --> 00:03:45,000
En doorgevraagd hoe ze omgaan met AI.

58
00:03:45,000 --> 00:03:47,000
Hoe ontwikkelen ze hun producten?

59
00:03:47,000 --> 00:03:50,000
Hoe zetten ze die producten eventueel in de markt?

60
00:03:50,000 --> 00:03:57,000
En we hadden een vragenlijst van bijna 100 vragen.

61
00:03:57,000 --> 00:03:58,000
Oké, zo.

62
00:03:58,000 --> 00:04:00,000
Ja, en echt in de diepte gegaan.

63
00:04:00,000 --> 00:04:07,000
En daar kwamen wij achter dat die bedrijven een issue hadden met compliance.

64
00:04:07,000 --> 00:04:12,000
Nou, bij de HVH zeggen wij altijd dat een student is geslacht met 5,5.

65
00:04:12,000 --> 00:04:16,000
De gemiddelde score bij deze bedrijven was 5,6.

66
00:04:16,000 --> 00:04:18,000
Ja, dat is wel heel minimaal, hè?

67
00:04:18,000 --> 00:04:20,000
Hakken over de sloot.

68
00:04:20,000 --> 00:04:24,000
Ja, en dat vind ik zorgelijk.

69
00:04:24,000 --> 00:04:27,000
Want als we toch even die 5,6 pakken, hè.

70
00:04:27,000 --> 00:04:31,000
Is er 5,6 zo direct genoeg om te voldoen aan die wet?

71
00:04:31,000 --> 00:04:32,000
Nee.

72
00:04:32,000 --> 00:04:33,000
Nee, hè?

73
00:04:33,000 --> 00:04:35,000
10 is genoeg.

74
00:04:35,000 --> 00:04:40,000
Ja, bij 10 doe je alles wat de wetgever wil dat je doet.

75
00:04:40,000 --> 00:04:43,000
Ja, het is niet zo van een 8+ is al genoeg.

76
00:04:43,000 --> 00:04:46,000
Nee, dus dat betekent eigenlijk een behoorlijk gat.

77
00:04:46,000 --> 00:04:47,000
Ja, een behoorlijk gat.

78
00:04:47,000 --> 00:04:48,000
En natuurlijk moet je het zo kijken.

79
00:04:48,000 --> 00:04:50,000
Er is altijd ruimte voor verbeteringen.

80
00:04:50,000 --> 00:04:53,000
Ook bij een gemiddelde audit zou een auditor altijd zeggen

81
00:04:53,000 --> 00:04:56,000
dit doe je minder, dit doe je heel goed.

82
00:04:56,000 --> 00:05:01,000
En bij de minder moet je de volgende keer een verbeterproject inzetten.

83
00:05:01,000 --> 00:05:05,000
Maar bij 5,6 was het begin bij de verbeterproject.

84
00:05:05,000 --> 00:05:06,000
Ja, zo.

85
00:05:06,000 --> 00:05:12,000
En kon je ook dingen aanwijzen, als rode draad ofzo?

86
00:05:12,000 --> 00:05:17,000
Want hier hadden ze misschien bijna allemaal wel last van of problemen in.

87
00:05:17,000 --> 00:05:22,000
En natuurlijk hadden wij de hele wetgeving niet bekeken,

88
00:05:22,000 --> 00:05:26,000
maar we hadden wel bepaalde pockets bekeken, bepaalde onderwerpen bekeken.

89
00:05:26,000 --> 00:05:30,000
Zoals, we noemen dat eentje, hoe ga je met data om?

90
00:05:30,000 --> 00:05:35,000
Het uitzamelen van data, het inzetten van data in een model.

91
00:05:35,000 --> 00:05:37,000
Hoe bouw je je model?

92
00:05:37,000 --> 00:05:41,000
Doe je bijvoorbeeld iets aan technische documentatie?

93
00:05:41,000 --> 00:05:42,000
O ja, dat is een goeie.

94
00:05:42,000 --> 00:05:43,000
Ja, dat is een goeie.

95
00:05:43,000 --> 00:05:48,000
Jullie zijn van Info Support, dus jullie moeten weten hoe belangrijk technische documentatie is.

96
00:05:48,000 --> 00:05:49,000
Zeker, absoluut.

97
00:05:49,000 --> 00:05:50,000
In het vakgebied.

98
00:05:50,000 --> 00:05:52,000
Zeker, en dat je daar ook vroegtijdig mee begint.

99
00:05:52,000 --> 00:05:54,000
Ja, dat was een van die vragen.

100
00:05:54,000 --> 00:05:56,000
Hoe vaak doe je technische documentatie?

101
00:05:56,000 --> 00:06:02,000
En grappig genoeg is, als je de algemene vraag stelt,

102
00:06:02,000 --> 00:06:05,000
denk je dat je technische documentatie goed doet.

103
00:06:05,000 --> 00:06:08,000
Dan zeggen bijna alle bedrijven, ja, wij doen het echt goed.

104
00:06:08,000 --> 00:06:14,000
Dus hun eigen perceptie, wat goed is, is behoorlijk hoog.

105
00:06:14,000 --> 00:06:20,000
Maar als je doorvraagt, is de technische documentatie geschreven voor management of voor technische mensen?

106
00:06:20,000 --> 00:06:22,000
Dan ja, het is voor technische mensen.

107
00:06:22,000 --> 00:06:24,000
Dat hebben wij niet heel veel aan.

108
00:06:24,000 --> 00:06:25,000
Nee.

109
00:06:26,000 --> 00:06:28,000
Hoe vaak doe je technische documentatie?

110
00:06:28,000 --> 00:06:30,000
In het begin van een sprint of aan het eind van een sprint?

111
00:06:30,000 --> 00:06:32,000
Of doe je het aan het eind van een product?

112
00:06:32,000 --> 00:06:35,000
Dat is ook niet vaak genoeg eigenlijk.

113
00:06:35,000 --> 00:06:39,000
Die technische documentatie is natuurlijk ook heel erg belangrijk om risico's in te schatten,

114
00:06:39,000 --> 00:06:43,000
problemen te kunnen voorzien, zaken uit te kunnen leggen.

115
00:06:43,000 --> 00:06:47,000
Ja, en ook transparant zijn.

116
00:06:47,000 --> 00:06:52,000
Als modelbouwer, als technische mensen, dat wij transparant moeten zijn aan mensen

117
00:06:52,000 --> 00:06:57,000
die toch niet opgeleid zijn in de techniek.

118
00:06:57,000 --> 00:06:58,000
Precies.

119
00:06:58,000 --> 00:07:01,000
En dat is een voorbeeld.

120
00:07:01,000 --> 00:07:07,000
Een ander voorbeeld is bijvoorbeeld, we hebben iets van risk management.

121
00:07:07,000 --> 00:07:18,000
Dat is een systeem, een proces dat je houdt in de karte hoeveel risico je neemt als ondernemer

122
00:07:18,000 --> 00:07:21,000
door een bepaald product in de markt te zetten.

123
00:07:21,000 --> 00:07:31,000
Bijvoorbeeld, je kan zeggen dat ik een online retailer ben, ik wil echt proberen onderste uit de kant te halen

124
00:07:31,000 --> 00:07:35,000
om een goede klantclassificatie uit te voeren.

125
00:07:35,000 --> 00:07:38,000
Maar daarmee neem je behoorlijk veel risico's.

126
00:07:38,000 --> 00:07:45,000
Want je kunt een klant op basis van social scoring segmenteren.

127
00:07:45,000 --> 00:07:49,000
Aan de andere kant, je kan ook zeggen, wat krijg ik daarvoor?

128
00:07:49,000 --> 00:07:55,000
Je kunt ook kiezen voor een wat veiligere optie, om te zeggen dat ik niet zo ver ga,

129
00:07:55,000 --> 00:08:00,000
ik ga een beetje terug zakken in mijn risicoprofiel.

130
00:08:00,000 --> 00:08:06,000
Daarmee waarschijnlijk ga ik 90% van mijn doelen, mijn omzet doelen.

131
00:08:06,000 --> 00:08:17,000
Maar dat soort van overwegingen zie je nergens terug in de procesgedachten van de bedrijven.

132
00:08:17,000 --> 00:08:22,000
Wat bij merken ook is, als je een model hebt in de markt gezet,

133
00:08:22,000 --> 00:08:27,000
het model is jaren aan het draaien zonder enige vorm van monitoring.

134
00:08:27,000 --> 00:08:32,000
En wat is het risico als je dat niet doet?

135
00:08:32,000 --> 00:08:40,000
Het risico is dat de voorspelling fout is, wat je voorspelt met het model.

136
00:08:40,000 --> 00:08:42,000
En waarom is het fout?

137
00:08:42,000 --> 00:08:45,000
Het kan eigenlijk hoofdzakelijk twee redenen zijn.

138
00:08:45,000 --> 00:08:48,000
Eén is dat er een data drift plaatsgevonden is.

139
00:08:48,000 --> 00:08:50,000
Wat is een data drift dan?

140
00:08:50,000 --> 00:08:54,000
Het is net als met autodriften, dat je data ook gaat schuiven.

141
00:08:54,000 --> 00:08:58,000
Van die rechterlijn gaat de data schuiven eigenlijk.

142
00:08:58,000 --> 00:09:02,000
En de rechterlijn is eigenlijk wat hoort te zijn, wat juist is.

143
00:09:02,000 --> 00:09:09,000
En de drift betekent dat je doelgroep niet meer representatief is.

144
00:09:09,000 --> 00:09:11,000
De data is niet meer representatief voor de doelgroep eigenlijk.

145
00:09:11,000 --> 00:09:15,000
Ja precies, de data hoort eigenlijk niet meer helemaal op het model.

146
00:09:15,000 --> 00:09:19,000
En daarmee ga je dan toch, als ik het goed begrijp, voorspellingen doen.

147
00:09:19,000 --> 00:09:22,000
En die voorspellingen zijn dan typisch onjuist.

148
00:09:22,000 --> 00:09:26,000
De andere kan zijn dat je een model drift hebt.

149
00:09:26,000 --> 00:09:33,000
Dat je data is goed, maar wij weten inmiddels dat sommige types systemen,

150
00:09:33,000 --> 00:09:36,000
die toch een beetje real-time systemen zijn,

151
00:09:36,000 --> 00:09:38,000
bijvoorbeeld een aanbevelingssysteem.

152
00:09:38,000 --> 00:09:42,000
Je komt op Netflix en je ziet dat, omdat je deze films hebt bekeken,

153
00:09:42,000 --> 00:09:45,000
waarschijnlijk vind je ook deze films leuk.

154
00:09:45,000 --> 00:09:47,000
Dat is typisch een aanbevelingssysteem.

155
00:09:47,000 --> 00:09:52,000
En op dit moment hebben heel veel online bedrijven aanbevelingssystemen draaien.

156
00:09:52,000 --> 00:09:57,000
En die systemen zijn behoorlijk gevoelig voor model drift.

157
00:09:57,000 --> 00:10:01,000
In de zin dat, als je ergens op klikt, als consument,

158
00:10:01,000 --> 00:10:04,000
dan op de achtergrond het systeem is aan het trainen

159
00:10:04,000 --> 00:10:07,000
en dan gaat hij een ander gedrag aantonen.

160
00:10:07,000 --> 00:10:10,000
Een ander gedrag dan ook gewenst.

161
00:10:10,000 --> 00:10:13,000
Ja, dat is even die vraag. Of het gewenst is of niet gewenst.

162
00:10:13,000 --> 00:10:14,000
Ja, precies.

163
00:10:14,000 --> 00:10:17,000
Maar het begint bij meten.

164
00:10:17,000 --> 00:10:21,000
Het begint bij monitoren. Meten is monitoren ook.

165
00:10:21,000 --> 00:10:24,000
En dat doen de bedrijven te weinig.

166
00:10:24,000 --> 00:10:30,000
En dat is een behoorlijk risico, omdat heel veel bedrijven hebben ooit

167
00:10:30,000 --> 00:10:32,000
heel veel geld uitgegeven om zo'n model te laten bouwen.

168
00:10:32,000 --> 00:10:36,000
En nu zijn we klaar, denken ze.

169
00:10:36,000 --> 00:10:39,000
Ja, dat zien we ook heel veel in de praktijk.

170
00:10:39,000 --> 00:10:44,000
Dat model is eigenlijk waar alles over gaat en waar de investering in gaat.

171
00:10:44,000 --> 00:10:48,000
En als je dat model maar hebt, dan ben je klaar, wordt er dan gedacht.

172
00:10:48,000 --> 00:10:50,000
Eigenlijk begint het dan pas.

173
00:10:50,000 --> 00:10:52,000
Dat is exact.

174
00:10:52,000 --> 00:10:57,000
Maar eigenlijk vraag ik ook maar af of de bedrijven weten zelf

175
00:10:57,000 --> 00:10:59,000
hoe accuraat hun modellen zijn op dit moment.

176
00:10:59,000 --> 00:11:02,000
Dat is niet zo meer.

177
00:11:02,000 --> 00:11:08,000
Stel als luisteraar word je wakker en je denkt ik doe ook niet genoeg aan risicomanagement.

178
00:11:08,000 --> 00:11:12,000
Hoe zouden bedrijven daar stappen in kunnen zetten om verbetering te gaan doen

179
00:11:12,000 --> 00:11:14,000
in hun proces en hun aanpak?

180
00:11:14,000 --> 00:11:18,000
Daar hebben we voor bij de HVA een bepaalde model bedacht.

181
00:11:18,000 --> 00:11:20,000
Die heet nou de appraise model.

182
00:11:20,000 --> 00:11:26,000
En wat wij zeggen in die appraise model is, als we kijken naar de krachten

183
00:11:26,000 --> 00:11:29,000
die op dit moment in de veld zijn.

184
00:11:29,000 --> 00:11:30,000
Dat zijn vier typen krachten.

185
00:11:30,000 --> 00:11:33,000
Wij noemen dat de regulatory pressure.

186
00:11:33,000 --> 00:11:36,000
Dat is de druk vanuit de wetgeving.

187
00:11:36,000 --> 00:11:41,000
In dit geval is het dan de Europese parlement, de Europese commissie eigenlijk.

188
00:11:41,000 --> 00:11:45,000
Die voornamelijk de druk heeft van boven.

189
00:11:45,000 --> 00:11:50,000
De tweede is, wat ik merk bij heel veel bedrijven is,

190
00:11:50,000 --> 00:11:52,000
wij moeten iets doen met AI.

191
00:11:52,000 --> 00:11:55,000
Het China's Doel, het Iets vooral.

192
00:11:55,000 --> 00:12:02,000
Wat moeten we doen dat is nu onbelangrijk, maar wij moeten iets doen

193
00:12:02,000 --> 00:12:04,000
omdat mijn concurrent ook iets doet.

194
00:12:04,000 --> 00:12:07,000
Dat noemen we de AI technology pressure.

195
00:12:07,000 --> 00:12:14,000
Dan hebben we te maken met wat wij noemen normatief pressure.

196
00:12:14,000 --> 00:12:22,000
Ik praat met heel veel developers, model developers, software developers.

197
00:12:22,000 --> 00:12:27,000
Dat zijn ontwikkelaars van modellen en software.

198
00:12:27,000 --> 00:12:36,000
Wat wij zien is dat deze mensen zijn ook vanuit hun eigen normen en waarden,

199
00:12:36,000 --> 00:12:43,000
ze vinden het belangrijk om toch iets goeds te doen, toch iets goeds neer te zetten.

200
00:12:43,000 --> 00:12:49,000
Ze zeggen ook zelf dat wij dat niet willen omdat dat fout is.

201
00:12:49,000 --> 00:12:52,000
Op deze manier om mensen te segmenteren.

202
00:12:52,000 --> 00:12:57,000
Dat horen wij vaak, omdat wij bij ons komen helpen studenten.

203
00:12:57,000 --> 00:13:03,000
Dat zijn net nu hun next job als een developer, als analist of een developer.

204
00:13:03,000 --> 00:13:05,000
Dat horen wij ook.

205
00:13:05,000 --> 00:13:07,000
Dat speelt ook op de werkvloer op dit moment.

206
00:13:07,000 --> 00:13:09,000
Wat is dan van het risico?

207
00:13:09,000 --> 00:13:14,000
Het risico is heel vaak, vooral bij de generatie Z,

208
00:13:14,000 --> 00:13:19,000
die op dit moment voornamelijk hier zitten als beroep,

209
00:13:19,000 --> 00:13:24,000
dat ze zeggen ik ga bij een andere werkgever werken.

210
00:13:24,000 --> 00:13:28,000
Dat hoor je vaak, ik ben niet tevreden met dat ze niet mijn normen en waarden.

211
00:13:28,000 --> 00:13:34,000
Het risico voor een bedrijf is dat ze iemand anders moeten zoeken,

212
00:13:34,000 --> 00:13:38,000
of nadenken over hun werkwijze.

213
00:13:38,000 --> 00:13:44,000
Voor de eerste is dat betekent dat het bedrijf opnieuw helemaal het project moet inrichten.

214
00:13:44,000 --> 00:13:47,000
Omdat heel veel kennis is verloren gegaan.

215
00:13:47,000 --> 00:13:53,000
En in het AI werkt het zo dat het heel moeilijk is om iemand te vervangen door iemand anders.

216
00:13:53,000 --> 00:13:55,000
Dat was de derde type pressure.

217
00:13:55,000 --> 00:13:59,000
En de vierde is eigenlijk wat ik noem als de value creation pressure.

218
00:13:59,000 --> 00:14:02,000
Dat is dan waarde creatie pressure.

219
00:14:02,000 --> 00:14:10,000
En dat is dan een bedrijf, voor een bedrijf is het belangrijk geld te verdienen met het product.

220
00:14:10,000 --> 00:14:16,000
En wat is het verschil tussen IT en AI dan in dit geval?

221
00:14:16,000 --> 00:14:23,000
Omdat traditioneel gezien, IT wordt gezien in een proces map eigenlijk als iets ondersteunend.

222
00:14:23,000 --> 00:14:26,000
En bij AI zit het in de première proces.

223
00:14:26,000 --> 00:14:30,000
Dat wil zeggen dat AI waarde toevoegt direct aan het bedrijf.

224
00:14:30,000 --> 00:14:35,000
En daardoor is de drang om AI te omarmen zo groot.

225
00:14:35,000 --> 00:14:39,000
Ja, waarbij de technologie eigenlijk misschien zelfs wel een beetje leidend wordt.

226
00:14:39,000 --> 00:14:42,000
In plaats van ondersteunend, dat het dan leidend wordt.

227
00:14:42,000 --> 00:14:45,000
Ja, en daarom is de value creation pressure zo belangrijk.

228
00:14:45,000 --> 00:14:48,000
En dat is de appraise framework eigenlijk.

229
00:14:48,000 --> 00:14:50,000
En dan de buitenkant van de appraise framework.

230
00:14:50,000 --> 00:14:55,000
De binnenkant zit aantal lenzen waar je moet een bedrijf observeren, onderzoeken.

231
00:14:55,000 --> 00:14:59,000
Een van die lenzen is dan bijvoorbeeld hoe coördineer ik.

232
00:14:59,000 --> 00:15:05,000
Omdat mijn processen, mijn interfaces, hoe ga ik met technologie explainability.

233
00:15:05,000 --> 00:15:11,000
Explainability is uitlegbaarheid van de AI technologie eigenlijk.

234
00:15:11,000 --> 00:15:13,000
Daar doen wij zelf heel veel onderzoek in.

235
00:15:13,000 --> 00:15:19,000
Ook wetenschappelijk onderzoek, publicaties en ook simulaties bij de HVA.

236
00:15:19,000 --> 00:15:23,000
Dus dat zijn typisch wat je bij de framework hoort eigenlijk.

237
00:15:23,000 --> 00:15:28,000
En daarmee kan je eigenlijk een soort beeld krijgen van hoe je bezig bent.

238
00:15:28,000 --> 00:15:32,000
En waar dan mogelijk verbeterpunten liggen.

239
00:15:32,000 --> 00:15:40,000
Ja, en daar hangen ook een aantal soort van meetmomenten of KPIs of OKRs, hoe je dat maar noemt.

240
00:15:40,000 --> 00:15:44,000
En met dat in de hand kun je ook zichzelf even meten.

241
00:15:44,000 --> 00:15:47,000
En wat je niet kan meten, kun je ook niet sturen.

242
00:15:47,000 --> 00:15:57,000
Want je hebt dan die bedrijven, hebben jullie als onderzoek tegen de huidige wetgeving, tenminste de huidige wet tekst.

243
00:15:57,000 --> 00:16:00,000
Want het moet nog uiteindelijk geëffectueerd worden.

244
00:16:00,000 --> 00:16:04,000
Hoe lang duurt het voordat die wet effect krijgt?

245
00:16:04,000 --> 00:16:09,000
En hoe lang krijgen bedrijven de tijd om van die 5,6 om daar een 10 van te maken?

246
00:16:09,000 --> 00:16:18,000
Nou, binnen de huidige wetgeving vanuit Brussel zijn een aantal deadlines meegenomen.

247
00:16:18,000 --> 00:16:21,000
Zes maanden of een jaar of twee jaar.

248
00:16:21,000 --> 00:16:25,000
Het is afhankelijk van welke situatie voor jou toepasbaar is.

249
00:16:25,000 --> 00:16:29,000
In sommige situaties ben je eigenlijk klaar in een half jaar.

250
00:16:29,000 --> 00:16:32,000
En in sommige gevallen heb je twee jaar tijd.

251
00:16:32,000 --> 00:16:35,000
Maar dat de klokt tikt al.

252
00:16:35,000 --> 00:16:40,000
En met die half jaar bedoel je eigenlijk van dan moet je na een half jaar klaar zijn, toch?

253
00:16:40,000 --> 00:16:42,000
Dus je krijgt maar een beperkte tijd.

254
00:16:42,000 --> 00:16:45,000
Het is eigenlijk vanaf nu vijf maanden.

255
00:16:45,000 --> 00:16:48,000
Ja, dat gaat snel.

256
00:16:48,000 --> 00:16:53,000
En van die 5,6 naar die 10 is denk ik best wel een hele grote stap.

257
00:16:53,000 --> 00:16:56,000
Ja, het is een forse stap.

258
00:16:56,000 --> 00:17:06,000
En zeker als het gaat om technische documentatie, dat kun je met retrospective doen.

259
00:17:06,000 --> 00:17:15,000
Maar als het gaat om, ik noem het maar, een van de verboden praktijken zijn,

260
00:17:15,000 --> 00:17:18,000
volgens de wetgeving, is dat je social scoring doet.

261
00:17:18,000 --> 00:17:26,000
Of, de wetgeving noemt dat biometrische categorisatie.

262
00:17:26,000 --> 00:17:28,000
Dat is een heel moeilijke woord, dat is een mondvol.

263
00:17:28,000 --> 00:17:36,000
Biometrische categorisatie, wat houdt daarin dat je niet een soort van groepering kan maken

264
00:17:36,000 --> 00:17:39,000
op basis van biometrische eigenschappen van mensen.

265
00:17:39,000 --> 00:17:42,000
Dat zou kunnen zijn, man of vrouw.

266
00:17:42,000 --> 00:17:44,000
Is dat biometrische?

267
00:17:44,000 --> 00:17:45,000
Ja.

268
00:17:45,000 --> 00:17:48,000
Dat weet ik niet hoor, daarom vraag ik het aan je.

269
00:17:48,000 --> 00:17:50,000
Dat is heel breed dan eigenlijk.

270
00:17:50,000 --> 00:17:51,000
Ja.

271
00:17:51,000 --> 00:17:56,000
Maar wat is grappig genoeg, is, we hebben dat even onderzocht,

272
00:17:56,000 --> 00:18:01,000
stel dat je bij het data input van een systeem, bij het bouwen van een systeem,

273
00:18:01,000 --> 00:18:08,000
je neemt dat niet in jouw, we noemen dat features, we noemen dat input dat in gaat,

274
00:18:08,000 --> 00:18:10,000
dat je neemt dat niet mee.

275
00:18:10,000 --> 00:18:13,000
Dat kende neem je helemaal niet mee.

276
00:18:13,000 --> 00:18:18,000
Maar toch kan het systeem heel snel achterkomen of je een man of vrouw bent.

277
00:18:18,000 --> 00:18:22,000
En dat doet hij niet expliciet, dat doet hij impliciet.

278
00:18:22,000 --> 00:18:25,000
En wij hebben gemeten, zeker bij aanbevelingssysteem,

279
00:18:25,000 --> 00:18:29,000
dat zit ons echt onder de loop, aanbevelingssysteem,

280
00:18:29,000 --> 00:18:37,000
we hebben echt gemeten dat die kunnen echt een andere type films of producten aantonen aan mannen,

281
00:18:37,000 --> 00:18:42,000
en heel andere type producten en diensten aantonen naar vrouwen.

282
00:18:42,000 --> 00:18:46,000
Zonder dat je eigenlijk de gender meeneemt van de persoon.

283
00:18:46,000 --> 00:18:49,000
En dat is best zorgelijk.

284
00:18:49,000 --> 00:18:55,000
Maar terugkomen naar je vraag, hoe pak je dat aan?

285
00:18:55,000 --> 00:18:57,000
Dat is best lastig.

286
00:18:57,000 --> 00:18:58,000
Ja hè.

287
00:18:58,000 --> 00:19:03,000
En een van de dingen die jij zei, en volgens mij staat dat ook in het artikel,

288
00:19:03,000 --> 00:19:07,000
dat artikel zullen we trouwens ook opnemen in de show note,

289
00:19:07,000 --> 00:19:13,000
geeft je ook aan dat bedrijven, je noemde net uitlegbaarheid, explainable AI,

290
00:19:13,000 --> 00:19:17,000
dat ze makkelijk gebruik maken van black box modellen.

291
00:19:17,000 --> 00:19:20,000
Een van de stappen die je denk ik zal moeten gaan nemen,

292
00:19:20,000 --> 00:19:23,000
is die black box wat meer openmaken.

293
00:19:23,000 --> 00:19:25,000
En dat valt denk ik niet mee.

294
00:19:25,000 --> 00:19:30,000
Dat valt niet mee, zeker niet, omdat die models, je noemt het model nu,

295
00:19:30,000 --> 00:19:39,000
het model is een complexe samenkomst van een aantal algoritmes.

296
00:19:39,000 --> 00:19:42,000
Die komen samen om een bepaalde output te leveren.

297
00:19:42,000 --> 00:19:47,000
In een typisch aanbevelingssysteem zijn er minstens 30,

298
00:19:47,000 --> 00:19:53,000
als je waarschijnlijk bij Amazon binnenkomt, dan is het waarschijnlijk een order of twee hoger.

299
00:19:53,000 --> 00:19:58,000
Dus 300, 3000 algoritmes die samen komen om een bepaalde dienst te leveren.

300
00:19:58,000 --> 00:20:03,000
En ook als een individueel algoritme uitlegbaar is,

301
00:20:03,000 --> 00:20:07,000
wanneer ze samen komen, wat doen ze eigenlijk?

302
00:20:07,000 --> 00:20:10,000
Dat is dan heel lastig in de gaten te houden.

303
00:20:10,000 --> 00:20:15,000
Dus eigenlijk moeten wij het model of het systeem beschouwen als een black box.

304
00:20:15,000 --> 00:20:17,000
Oké, interessant.

305
00:20:17,000 --> 00:20:26,000
En dan moeten wij kijken, hoe kunnen wij die black box door middel van observaties beter begrijpen.

306
00:20:26,000 --> 00:20:28,000
En hoe doe je dat dan?

307
00:20:28,000 --> 00:20:32,000
Dan moeten we echt verdiepen in de techniek.

308
00:20:32,000 --> 00:20:35,000
Oké, je zegt er gaat voor nu te ver.

309
00:20:35,000 --> 00:20:37,000
Ik ga iets te ver.

310
00:20:37,000 --> 00:20:42,000
Ik ben er wel nieuwsgierig naar, maar dat doen we dan op een ander moment.

311
00:20:42,000 --> 00:20:44,000
Maar eigenlijk vind ik het wel een interessant idee,

312
00:20:44,000 --> 00:20:51,000
want je zegt dus, omdat het een stapeling is van data gaat, een model in,

313
00:20:51,000 --> 00:20:56,000
daar komt eigenlijk een uitkomst uit, die uitkomst gaat weer in een nieuw model.

314
00:20:56,000 --> 00:20:58,000
En zo stapel je een heel aantal modellen,

315
00:20:58,000 --> 00:21:01,000
waardoor als ieder van die modellen uitlegbaar zou zijn,

316
00:21:01,000 --> 00:21:06,000
dat je nog steeds niet begrijpt wat er van voor tot achter uitkomt.

317
00:21:06,000 --> 00:21:09,000
Maar ja, dat vind ik wel een interessante…

318
00:21:09,000 --> 00:21:11,000
Eigenlijk een soort van keten die ontstaat,

319
00:21:11,000 --> 00:21:16,000
eigenlijk een ecosysteem waarbij alle factoren bij elkaar weer invloed kunnen hebben op elkaar,

320
00:21:16,000 --> 00:21:21,000
waardoor het dus een flink complexe brei wordt om dat toe te gaan lichten.

321
00:21:21,000 --> 00:21:28,000
Inderdaad, het is teveel inputs en teveel tussenberekeningen en tussen inputs die leidt tot…

322
00:21:28,000 --> 00:21:32,000
Ja, sorry Niels, ik breng het nog heel even in.

323
00:21:32,000 --> 00:21:36,000
In de vorige aflevering heb jij verteld over…

324
00:21:36,000 --> 00:21:39,000
Niels was naar de conferentie van Gartner geweest,

325
00:21:39,000 --> 00:21:42,000
die heel erg aan het voorspellen is over de AI agents.

326
00:21:42,000 --> 00:21:47,000
Dus allemaal van die autonome modellen die met elkaar straks gaan interacteren.

327
00:21:47,000 --> 00:21:49,000
En dan ga je dit natuurlijk ook krijgen.

328
00:21:49,000 --> 00:21:51,000
Dus ieder stukje zou best wel uitlegbaar kunnen zijn,

329
00:21:51,000 --> 00:21:56,000
maar als die agents met elkaar gaan acteren, weet je eigenlijk ook niet meer wat de uitkomst is.

330
00:21:56,000 --> 00:21:59,000
Dat is ook inderdaad de keten die ik bedoel.

331
00:21:59,000 --> 00:22:04,000
Ik zag al die agents, zag ik even voor me, die met elkaar inderdaad een conversatie hadden,

332
00:22:04,000 --> 00:22:05,000
waarvoor je eigenlijk niet meer weet hoe het is.

333
00:22:05,000 --> 00:22:09,000
Maar dan vraag ik me wel af, wat is dan de waarde als we toch één of twee,

334
00:22:09,000 --> 00:22:12,000
of slechts 50 procent van die modellen wel explainable hebben?

335
00:22:12,000 --> 00:22:15,000
Heeft dat dan nog wel genoeg waarde? Als we niet het geheel kunnen overzien.

336
00:22:15,000 --> 00:22:17,000
Heeft een fractie daarvan explainable maken?

337
00:22:17,000 --> 00:22:18,000
Ja, zeker.

338
00:22:18,000 --> 00:22:19,000
Ja, gelukkig.

339
00:22:19,000 --> 00:22:26,000
Zeker, omdat het is net als door een glas kijken.

340
00:22:26,000 --> 00:22:28,000
Is dat glas helder, dan zie je alles.

341
00:22:28,000 --> 00:22:34,000
Is dat glas helemaal zwart, dichtgeplakt, dan zie je niks.

342
00:22:34,000 --> 00:22:38,000
Nu is even die vraag, zo zwart wit is het ook niet.

343
00:22:38,000 --> 00:22:44,000
En dan, wij proberen vanuit wiskunde dat te ontcijferen, te begrijpen.

344
00:22:44,000 --> 00:22:46,000
Hoe gedraagt het systeem?

345
00:22:46,000 --> 00:22:52,000
En te voorspellen, hoe zou het systeem kunnen gedragen onder bepaalde omstandigheden?

346
00:22:52,000 --> 00:22:58,000
En hoever zijn we daarmee in de wiskundetechnologie om dat op bestaande systemen los te laten?

347
00:22:58,000 --> 00:22:59,000
Hoe ver zijn we daarmee?

348
00:22:59,000 --> 00:23:05,000
Als we kijken naar complexe systemen, in de banken wel.

349
00:23:05,000 --> 00:23:10,000
Dan heb je KYC of bepaalde risicoprofiel systemen.

350
00:23:10,000 --> 00:23:13,000
En dat zijn toch redelijk eenvoudige systemen.

351
00:23:13,000 --> 00:23:15,000
En daar zijn we best ver.

352
00:23:15,000 --> 00:23:17,000
Dat is op zich niet het probleem.

353
00:23:17,000 --> 00:23:21,000
Het probleem begint bij, in de commerciële wereld, systemen.

354
00:23:21,000 --> 00:23:23,000
Waar heel veel input gaat samen.

355
00:23:23,000 --> 00:23:25,000
En heel veel algoritmes komen samen.

356
00:23:25,000 --> 00:23:28,000
Bijvoorbeeld bij aanbevelingssystemen.

357
00:23:28,000 --> 00:23:30,000
Daar gebeurt heel veel.

358
00:23:30,000 --> 00:23:33,000
En het systeem traint zich bijna elke seconde.

359
00:23:33,000 --> 00:23:36,000
Je klikt op een item op Netflix.

360
00:23:36,000 --> 00:23:38,000
Het systeem gaat zichzelf hertrainen.

361
00:23:38,000 --> 00:23:41,000
En hoe ga je met zo'n systeem om?

362
00:23:41,000 --> 00:23:44,000
En dat is dan een grote uitdaging.

363
00:23:44,000 --> 00:23:47,000
Ik hoop nog steeds, maar dat roep ik eigenlijk al jaren,

364
00:23:47,000 --> 00:23:51,000
is dat we steeds meer feedback kunnen gaan geven aan het algoritme.

365
00:23:51,000 --> 00:23:56,000
Waarmee je eigenlijk zelf ook de feedbackloop direct kan teruggeven aan het model.

366
00:23:56,000 --> 00:23:58,000
Met name als je inderdaad een item gekocht hebt,

367
00:23:58,000 --> 00:23:59,000
je hebt de commerciële wereld,

368
00:23:59,000 --> 00:24:04,000
dat je dan nog drie maanden plezier hebt van alternatieven die je misschien beter had kunnen kopen,

369
00:24:04,000 --> 00:24:06,000
terwijl je al blij was met het product dat je binnen hebt.

370
00:24:06,000 --> 00:24:08,000
Zie je die ontwikkeling ook?

371
00:24:08,000 --> 00:24:10,000
Je bedoelt dat je dat dus niet wil?

372
00:24:10,000 --> 00:24:11,000
Dat je dat niet meer wil.

373
00:24:11,000 --> 00:24:13,000
Eigenlijk je wil input op het model geven van,

374
00:24:13,000 --> 00:24:16,000
nee, ben ik niet meer geïnteresseerd, dit past niet bij mij.

375
00:24:16,000 --> 00:24:18,000
Of nee, leuk, maar hoeft het niet meer.

376
00:24:18,000 --> 00:24:22,000
Dat zie je wel bijvoorbeeld bij Google News.

377
00:24:22,000 --> 00:24:24,000
Als je een Android phone hebt.

378
00:24:24,000 --> 00:24:31,000
Google aanbeveelt jou een aantal nieuwsitems.

379
00:24:31,000 --> 00:24:34,000
En je kunt klikken op een nieuwsitem en zeggen,

380
00:24:34,000 --> 00:24:36,000
not interested in this.

381
00:24:36,000 --> 00:24:38,000
Als je een Engelse versie hebt, dan zegt die,

382
00:24:38,000 --> 00:24:41,000
je bent niet geïnteresseerd in dit onderwerp,

383
00:24:41,000 --> 00:24:44,000
of geen interesse in dit nieuwszender.

384
00:24:44,000 --> 00:24:47,000
Oh ja, goeie.

385
00:24:47,000 --> 00:24:50,000
En daarmee kun je ook aangeven aan het systeem,

386
00:24:50,000 --> 00:24:53,000
dat je dat niet prettig vindt.

387
00:24:53,000 --> 00:24:55,000
En het negatieve feedback,

388
00:24:55,000 --> 00:24:57,000
wat je net zei, het negatieve feedback,

389
00:24:57,000 --> 00:25:02,000
dat was in het oude systeem niet echt onderzocht,

390
00:25:02,000 --> 00:25:04,000
maar wat je ziet, steeds meer inderdaad,

391
00:25:04,000 --> 00:25:07,000
dat het negatieve feedback wat meegenomen in het nieuwe systeem.

392
00:25:07,000 --> 00:25:12,000
We hebben het hier vooral over de machine learning algoritmes.

393
00:25:12,000 --> 00:25:15,000
Want voor heel veel mensen, ik denk voor onze luisteraars ook,

394
00:25:15,000 --> 00:25:19,000
is een beetje het beeld ontstaan, AI is generatieve AI.

395
00:25:19,000 --> 00:25:22,000
Dus dat we net over de ChatGPT's, het genereren van plaatjes,

396
00:25:22,000 --> 00:25:26,000
het genereren van audio, daar hebben we het vandaag niet over, toch?

397
00:25:26,000 --> 00:25:31,000
Het onderzoek is gedaan rondom voorspellende modellen, machine learning.

398
00:25:31,000 --> 00:25:33,000
Dat is waar we het over hebben.

399
00:25:33,000 --> 00:25:38,000
Dat zijn eigenlijk, wat wij zien, is dat sinds een paar jaar,

400
00:25:38,000 --> 00:25:42,000
is eigenlijk generatieve AI, je hebt ChatGPT of Google Gemini,

401
00:25:42,000 --> 00:25:45,000
hoe je dat noemt, dat verovert de markt.

402
00:25:45,000 --> 00:25:50,000
En dat is ook later in de Europese wetgeving meegenomen,

403
00:25:50,000 --> 00:25:54,000
in het oorspronkelijke stuk, drie of vier jaar geleden inmiddels,

404
00:25:54,000 --> 00:25:56,000
was dat niet zo.

405
00:25:56,000 --> 00:26:00,000
En toen moesten ze heel snel hun broek omhoog trekken,

406
00:26:00,000 --> 00:26:04,000
laten ze het zien, en dat dichttimmeren.

407
00:26:04,000 --> 00:26:06,000
En daar hebben we het niet over.

408
00:26:06,000 --> 00:26:08,000
Deze onderzoek van mij, daar gaat het niet om.

409
00:26:08,000 --> 00:26:11,000
Het gaat om mensen die predictieve modellen bouwen.

410
00:26:11,000 --> 00:26:13,000
En dat zijn heel veel mensen.

411
00:26:13,000 --> 00:26:18,000
En de trend op dit moment is, de twee komen samen bij elkaar.

412
00:26:18,000 --> 00:26:21,000
En... -Wat vind je daarvan?

413
00:26:21,000 --> 00:26:23,000
Daar word ik echt enthousiast van.

414
00:26:23,000 --> 00:26:25,000
Ja? -Ik schiet aan je, ja.

415
00:26:25,000 --> 00:26:30,000
Ja, want dat leidt tot toenemende complexiteit.

416
00:26:30,000 --> 00:26:32,000
Behoorlijk toenemende complexiteit.

417
00:26:32,000 --> 00:26:38,000
Omdat die predictieve modellen uiteindelijk die bestaan,

418
00:26:38,000 --> 00:26:41,000
net zoals de generatieve AI modellen.

419
00:26:41,000 --> 00:26:45,000
En ze gaan steeds vaker met elkaar communiceren.

420
00:26:45,000 --> 00:26:51,000
We hebben het net gehad, Niels, over algoritmes die aan elkaar input geven.

421
00:26:51,000 --> 00:26:54,000
Dus nu hebben wij een foundation model, we noemen dat,

422
00:26:54,000 --> 00:26:58,000
die behoorlijk wat input geeft aan de predictieve AI modellen.

423
00:26:58,000 --> 00:27:01,000
Die kan dan met die input wat doen.

424
00:27:01,000 --> 00:27:04,000
Ja, dat wordt een spannende tijd. -Ja toch?

425
00:27:04,000 --> 00:27:06,000
Zeker, zeker.

426
00:27:06,000 --> 00:27:08,000
Het biedt natuurlijk ook heel veel kansen,

427
00:27:08,000 --> 00:27:10,000
en ook zaken waar we moeten gaan letten.

428
00:27:10,000 --> 00:27:14,000
Ja, het geeft heel veel kansen,

429
00:27:14,000 --> 00:27:18,000
maar het is net als twee kanten van de mond.

430
00:27:18,000 --> 00:27:20,000
Ja, precies.

431
00:27:20,000 --> 00:27:22,000
De voor's en de tegens.

432
00:27:22,000 --> 00:27:26,000
En de andere kant, de zorgen vanuit de wetgever,

433
00:27:26,000 --> 00:27:28,000
zal alleen maar toenemen.

434
00:27:28,000 --> 00:27:31,000
Ja, het is vandaar ook het belang om te kijken naar de risico's,

435
00:27:31,000 --> 00:27:33,000
hoe pak je dat als organisatie op,

436
00:27:33,000 --> 00:27:35,000
en heb je dat goed geborgen in je proces,

437
00:27:35,000 --> 00:27:37,000
hoe zit het met je governance, hoe zit het met de ethiek,

438
00:27:37,000 --> 00:27:40,000
en cultuur en het framework wat je al hebt beschreven.

439
00:27:40,000 --> 00:27:45,000
En als een bedrijf te laat,

440
00:27:45,000 --> 00:27:48,000
als je zegt ik wil nu mijn models dat ik heb gebouwd,

441
00:27:48,000 --> 00:27:51,000
echt explainability toepassen op die models,

442
00:27:51,000 --> 00:27:53,000
dan ben je eigenlijk heel laat.

443
00:27:53,000 --> 00:27:58,000
Je kan beter goede processen ontwerpen, inrichten,

444
00:27:58,000 --> 00:28:02,000
en daarmee faciliteer je.

445
00:28:02,000 --> 00:28:06,000
Ja, dat je eigenlijk al begint met het hele idee van transparantie.

446
00:28:06,000 --> 00:28:08,000
Ja. -Toch? Dat is wat je zegt.

447
00:28:08,000 --> 00:28:11,000
Transparantie by design. -Transparantie by design, ja.

448
00:28:11,000 --> 00:28:14,000
We hebben ook een virtuele co-host,

449
00:28:14,000 --> 00:28:18,000
en zij stelt ook altijd een vraag aan onze gast.

450
00:28:18,000 --> 00:28:21,000
Dus die willen we er even ingooien.

451
00:28:21,000 --> 00:28:22,000
Mooi.

452
00:28:22,000 --> 00:28:37,000
Ik ben blij om bij dit gesprek betrokken te zijn.

453
00:28:37,000 --> 00:28:39,000
Ik ben Aisha.

454
00:28:39,000 --> 00:28:42,000
De AI van deze podcast, mag ik je een vraag stellen?

455
00:28:42,000 --> 00:28:43,000
Jazeker.

456
00:28:43,000 --> 00:28:46,000
Heb je nog advies voor onze luisteraars

457
00:28:46,000 --> 00:28:49,000
over hoe ze AI in hun leven kunnen omarmen?

458
00:28:49,000 --> 00:28:52,000
Ja, hoe ze AI in hun leven kunnen omarmen.

459
00:28:52,000 --> 00:28:55,000
Dat is een behoorlijk grote vraag. -Ja, hè?

460
00:28:55,000 --> 00:29:00,000
Ja, ik denk zelf dat heel veel mensen op dit moment

461
00:29:00,000 --> 00:29:03,000
onbewust omgaan met AI.

462
00:29:03,000 --> 00:29:06,000
Of je in een ziekenhuis bent, daar gaat het beginnen.

463
00:29:06,000 --> 00:29:11,000
Of je zit voor de televisie bij Netflix te kijken.

464
00:29:11,000 --> 00:29:15,000
Of je zit een product uit bol.com te kopen.

465
00:29:15,000 --> 00:29:19,000
Of je zit in je auto, die door middel van een lidaar

466
00:29:19,000 --> 00:29:23,000
probeert je op de juiste baan, in de goede baan te houden.

467
00:29:23,000 --> 00:29:24,000
Precies.

468
00:29:24,000 --> 00:29:27,000
Zou je een voorbeeld uit het ziekenhuis kunnen noemen?

469
00:29:27,000 --> 00:29:31,000
Stel dat je een botbreuk hebt, of stel dat je een kanker krijgt.

470
00:29:31,000 --> 00:29:34,000
Dan, we noemen dat computer vision eigenlijk.

471
00:29:34,000 --> 00:29:37,000
Dat gebruiken wij, de beelden die worden genomen op de machine,

472
00:29:37,000 --> 00:29:39,000
door een MRI-apparaat of een x-ray-apparaat,

473
00:29:39,000 --> 00:29:43,000
die worden door zo'n software geleid.

474
00:29:43,000 --> 00:29:45,000
En de software scant het automatisch.

475
00:29:45,000 --> 00:29:49,000
En die gebruikt AI om te begrijpen waar je het probleem ligt.

476
00:29:49,000 --> 00:29:55,000
Dat is een heel mooi voorbeeld van hoe een AI-systeem

477
00:29:55,000 --> 00:29:59,000
jou kan helpen bij het detecteren, het diagnoseren van ziektes.

478
00:29:59,000 --> 00:30:04,000
Dus eigenlijk zeg je ook, het zit eigenlijk al overal en nergens.

479
00:30:04,000 --> 00:30:08,000
Ja, en het kan zeker toenemen.

480
00:30:08,000 --> 00:30:13,000
En een van de zorgen die we hebben,

481
00:30:13,000 --> 00:30:17,000
die op dit moment speelt eigenlijk,

482
00:30:17,000 --> 00:30:23,000
is de toenemende maat van drones bij oorlogen.

483
00:30:23,000 --> 00:30:28,000
En dat is dan de eerste stap richting het gebruik van AI

484
00:30:28,000 --> 00:30:30,000
bij oorlogen.

485
00:30:30,000 --> 00:30:34,000
En volgens mij zitten wij daar niet te wachten.

486
00:30:34,000 --> 00:30:36,000
En dat moeten wij zien te voorkomen.

487
00:30:36,000 --> 00:30:40,000
Ja, het grappige is, ik was laatst bij een presentatie

488
00:30:40,000 --> 00:30:43,000
en daar vroeg de presentator van,

489
00:30:43,000 --> 00:30:45,000
wie heeft er vandaag AI gebruikt?

490
00:30:45,000 --> 00:30:48,000
En ongeveer de helft stak zijn hand op.

491
00:30:48,000 --> 00:30:49,000
De helft, Mart?

492
00:30:49,000 --> 00:30:50,000
Ja, de helft.

493
00:30:50,000 --> 00:30:54,000
Want we denken dan, eigenlijk vind ik dat het wel heel mooi,

494
00:30:54,000 --> 00:30:57,000
precies wat jij zegt, alsof je het heel actief zou moeten gebruiken.

495
00:30:57,000 --> 00:31:02,000
Dat als je ChatGPT gebruikt, dat dat het moment is dat jij AI gebruikt hebt.

496
00:31:02,000 --> 00:31:04,000
En daar kwamen natuurlijk ook allerlei voorbeelden.

497
00:31:04,000 --> 00:31:06,000
Eigenlijk precies wat jij nu zegt.

498
00:31:06,000 --> 00:31:09,000
Ja, weet je, je bent nog geen uur op

499
00:31:09,000 --> 00:31:13,000
en er is al van alles voorbijgekomen in je leven eigenlijk.

500
00:31:13,000 --> 00:31:15,000
Dat is eigenlijk wat je zegt.

501
00:31:15,000 --> 00:31:19,000
Ja, en of dat nou de goede kant of de slechte kant is van de AI,

502
00:31:19,000 --> 00:31:22,000
want daar refereer je natuurlijk ook een beetje aan.

503
00:31:22,000 --> 00:31:24,000
Het is AI.

504
00:31:24,000 --> 00:31:28,000
En hoe zouden mensen daar meer bewust van kunnen worden?

505
00:31:28,000 --> 00:31:31,000
De vraag is, moeten ze er bewust van worden?

506
00:31:31,000 --> 00:31:34,000
Je vraagt over bewustwording van…

507
00:31:34,000 --> 00:31:37,000
Waar wordt het toegepast? Hoe kijk ik er tegenaan?

508
00:31:37,000 --> 00:31:42,000
Mensen zien het vaak als iets ongrijpbaars, maar we gebruiken het al dagelijks.

509
00:31:42,000 --> 00:31:52,000
Ik denk, de vraag eigenlijk is, onder welke omstandigheden moeten mensen bewust zijn dat ze AI gebruiken?

510
00:31:52,000 --> 00:31:59,000
Stel dat iemand een bepaalde beeld heeft gemaakt van een bekende iemand met AI.

511
00:31:59,000 --> 00:32:06,000
Dan moet de persoon in mijn ogen melden dat dit gemaakt is door AI

512
00:32:06,000 --> 00:32:11,000
en daarvoor is geen toestemming gekregen van die persoon.

513
00:32:11,000 --> 00:32:15,000
Maar aan de andere kant, als je je smartwatch gebruikt,

514
00:32:15,000 --> 00:32:17,000
ik zie een soort van smartwatch bij jou ook.

515
00:32:17,000 --> 00:32:25,000
Als je een smartwatch gebruikt en bepaalde AI-systemen hebt om je ECG in de gaten te houden,

516
00:32:25,000 --> 00:32:30,000
dan moet je ervan bewust zijn dat dat niet nodig is.

517
00:32:30,000 --> 00:32:38,000
Het is afhankelijk van welke omstandigheden je dat gaat gebruiken in de toekomst.

518
00:32:38,000 --> 00:32:43,000
Jouw reactie op mijn vraag biedt veel helderheid, dank je wel.

519
00:32:43,000 --> 00:32:47,000
Ik vind het wel mooi, inderdaad. Moet je het wel weten?

520
00:32:47,000 --> 00:32:54,000
Omdat mensen het vaak niet doorhebben, vind ik het wel mooi om te kijken wanneer je het wel moet weten.

521
00:32:54,000 --> 00:32:59,000
Met name de impact die je hebt of regels die je misschien onbewust breekt.

522
00:32:59,000 --> 00:33:05,000
Dan zou je wel moeten weten wat er gebeurt en welke invloed je daarvoor hebt om iets anders te kunnen doen.

523
00:33:05,000 --> 00:33:11,000
Als je in een ziekenhuis bijvoorbeeld AI gebruikt om kanker beter te diagnoseren,

524
00:33:11,000 --> 00:33:17,000
dan zou ik zeggen, volgens mij moet niemand dat probleem hebben.

525
00:33:17,000 --> 00:33:27,000
Als we dit terugtrekken naar de bedrijven toe, moeten bedrijven altijd realiseren waar ze AI gebruiken?

526
00:33:27,000 --> 00:33:33,000
Als een bedrijf AI gebruikt om een bepaalde product of dienst in de markt te zetten,

527
00:33:33,000 --> 00:33:36,000
dan moeten ze er echt bewust van zijn.

528
00:33:36,000 --> 00:33:39,000
Want?

529
00:33:39,000 --> 00:33:47,000
Omdat, voordat je weet, je neemt onnodig risico's wat betreft mensenrechten.

530
00:33:47,000 --> 00:33:51,000
En die regels zijn niet voor niets.

531
00:33:51,000 --> 00:33:55,000
De regels zijn gekomen allemaal vanuit ons verleden.

532
00:33:55,000 --> 00:34:02,000
En toen was het nodig. En om te zeggen dat het niet meer van toepassing is, is tekort op de bocht.

533
00:34:02,000 --> 00:34:08,000
En ik denk dat bedrijven daar goed over moeten nadenken.

534
00:34:08,000 --> 00:34:15,000
Wat voor impact heeft het op bepaalde afspraken die we hebben met elkaar gemaakt in het verleden?

535
00:34:15,000 --> 00:34:20,000
Er zijn ook best wel mensen die bang zijn, omdat die wetgeving geldt zo direct voor Europa,

536
00:34:20,000 --> 00:34:25,000
dat wij misschien in Europa achter gaan lopen omdat een aantal zaken niet mogen,

537
00:34:25,000 --> 00:34:29,000
die straks in de rest van de wereld wel mogen. Hoe kijk jij daar naar?

538
00:34:29,000 --> 00:34:34,000
Een stukje veiligheid heeft altijd kosten in de uitvoering.

539
00:34:34,000 --> 00:34:37,000
Daarom kom je niet aan.

540
00:34:37,000 --> 00:34:43,000
En het is niet zo dat de wetgeving zegt nu moet je alles stoppen.

541
00:34:43,000 --> 00:34:51,000
Er zijn ook maatregelen genomen, of zijn ze aan het nemen voor start-ups,

542
00:34:51,000 --> 00:34:54,000
sandboxes noemen we dat.

543
00:34:54,000 --> 00:34:58,000
Via die is ook een en ander mogelijk.

544
00:34:58,000 --> 00:35:02,000
De wetgeving is toepasbaar voor alle grote bedrijven,

545
00:35:02,000 --> 00:35:07,000
de Googles en de Amazons komen allemaal onder die wetgeving.

546
00:35:07,000 --> 00:35:12,000
Je kunt zeggen, en dat heb ik ook in mijn onderzoek laten zien,

547
00:35:12,000 --> 00:35:19,000
dat grote bedrijven toch hebben een voorsprong als het gaat om compliance zijn met de wetgeving,

548
00:35:19,000 --> 00:35:21,000
dan de kleine bedrijven.

549
00:35:21,000 --> 00:35:25,000
Dus die hebben een groter impact op kleine bedrijven, net zoals bij de AVG.

550
00:35:25,000 --> 00:35:31,000
Omdat de grote bedrijven creatief genoeg zijn om er doorheen te komen.

551
00:35:31,000 --> 00:35:34,000
Daar maak ik ook mijn zorgen over.

552
00:35:34,000 --> 00:35:44,000
En daarom is het wel essentieel dat andere landen, zoals China, India of Amerika,

553
00:35:44,000 --> 00:35:49,000
waar de grote bedrijven zitten, dat ook meegaat, ook mee loopt met ons.

554
00:35:49,000 --> 00:35:59,000
In deze gedachten dat wij moeten goed nadenken over hoe de AI-wereld zou uitzien in de toekomst.

555
00:35:59,000 --> 00:36:06,000
En dat is een manier om hierover na te denken.

556
00:36:06,000 --> 00:36:11,000
De andere manier is eigenlijk, laten wij ons bedrijfsleven helpen om compliant te zijn.

557
00:36:11,000 --> 00:36:12,000
Precies.

558
00:36:12,000 --> 00:36:16,000
Maar als wij compliant zijn, dan staan wij sterker.

559
00:36:16,000 --> 00:36:18,000
Daar gaat het om.

560
00:36:18,000 --> 00:36:20,000
Mooi uitgangspunt.

561
00:36:20,000 --> 00:36:25,000
Ik zou iedereen willen aanraden om je onderzoek te lezen.

562
00:36:25,000 --> 00:36:29,000
We nemen het op in de show notes.

563
00:36:29,000 --> 00:36:35,000
Mag ik het samenvatten in de zin van, gemiddeld scoren de bedrijven een 5,6.

564
00:36:35,000 --> 00:36:39,000
Niet genoeg om te voldoen aan de wet.

565
00:36:39,000 --> 00:36:41,000
Daar heb je een 10 voor nodig.

566
00:36:41,000 --> 00:36:44,000
Geen 9,9, maar een 10.

567
00:36:44,000 --> 00:36:47,000
En dat ze nog een hele grote stap moeten maken.

568
00:36:47,000 --> 00:36:48,000
Dat klopt.

569
00:36:48,000 --> 00:36:51,000
Ik zou zeggen, begin maar vandaag.

570
00:36:51,000 --> 00:36:53,000
En niet morgen.

571
00:36:53,000 --> 00:36:54,000
Toch?

572
00:36:54,000 --> 00:36:55,000
Heel goed.

573
00:36:55,000 --> 00:36:58,000
Diptish, hartstikke bedankt voor je uitleg.

574
00:36:58,000 --> 00:37:06,000
Ik denk dat we weer een heel eind wijzer zijn geworden, vooral van het belang van deze wetgeving.

575
00:37:06,000 --> 00:37:08,000
En precies wat je zegt, vandaag beginnen.

576
00:37:08,000 --> 00:37:10,000
Niet wachten op morgen.

577
00:37:10,000 --> 00:37:11,000
Bedankt Joop.

578
00:37:11,000 --> 00:37:12,000
Graag gedaan.

579
00:37:13,000 --> 00:37:17,000
Leuk dat je weer luisterde naar deze aflevering van AIToday Live.

580
00:37:17,000 --> 00:37:20,000
Vergeet je niet te abonneren via je favoriete podcast app.

581
00:37:20,000 --> 00:37:22,000
Dit is nogmaals bedankt.

582
00:37:22,000 --> 00:37:25,000
Tot de volgende keer.

583
00:37:25,000 --> 00:37:26,000
Tot de volgende keer.


People on this episode