AIToday Live

S07E99 - Value first, AI second: de praktische uitwerking

Aigency by Info Support Season 7 Episode 99

In de podcast AIToday Live deelt Kees Gelderblom, Commercial Director bij Systemation, zijn visie op AI-implementatie in organisaties. Hij benadrukt het principe 'Value First, AI Second' waarbij waardecreatie voorop staat en technologie slechts een middel is.

Gelderblom introduceert het concept 'Data Impact Management' dat verder gaat dan traditioneel portfoliomanagement en een duidelijke verbinding legt tussen bedrijfsdoelstellingen en data-initiatieven. Hij pleit voor een sterkere positie van de Chief Data Officer aan de bestuurstafel en een pragmatische aanpak bij het verbeteren van de datahuishouding.

Onderwerpen

  • Value First, AI Second
  • Data Impact Management
  • Rol van de Chief Data Officer (CDO)
  • EU AI Act
  • Menselijke factor en datageletterdheid
Links

Genoemde entiteiten: Systemation

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Outvie
Outvie verbindt professionals met events en opleidingen rond actualiteit en strategie.

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:04,799
In deze aflevering hoor je Kees Gelderblom, Commercial Director bij Systemation,

2
00:00:04,799 --> 00:00:11,359
die uitlegd waarom waarde creatie voorop moet staan bij AI-initiatieve en niet de technologie zelf.

3
00:00:11,359 --> 00:00:17,359
Hij deelt concrete inzichten over hoe organisaties hun datahuishouding kunnen voorbereiden op AI,

4
00:00:17,359 --> 00:00:19,559
zonder eerst alles perfecte willen hebben.

5
00:00:21,659 --> 00:00:24,339
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

6
00:00:24,819 --> 00:00:26,679
Mijn naam Joop Snijder, CTO bij Aigency.

7
00:00:27,439 --> 00:00:30,659
Niels is er vandaag helaas niet bij, maar we doen het met z'n tweeën.

8
00:00:31,399 --> 00:00:32,179
Kees Gelderblom.

9
00:00:32,579 --> 00:00:35,299
Kees, dankjewel dat je bij ons in de studio bent.

10
00:00:35,559 --> 00:00:36,399
Dankjewel dat ik hier kan zijn.

11
00:00:37,579 --> 00:00:40,199
Voordat we beginnen zou je jezelf even willen voorstellen.

12
00:00:40,599 --> 00:00:42,239
Ja, mijn naam is Kees Gelderblom.

13
00:00:42,659 --> 00:00:44,159
Ik ben 56 jaar oud.

14
00:00:44,719 --> 00:00:48,719
Ik heb ongeveer 25 jaar data in verschillende salesrollen weliswaar.

15
00:00:50,119 --> 00:00:51,139
Ik ben in mijn privé getrouwd.

16
00:00:51,379 --> 00:00:53,659
Twee mooie kinderen wonen in het platteland.

17
00:00:53,919 --> 00:00:55,519
Ik ben een fervente klusser.

18
00:00:56,039 --> 00:00:56,359
Heerlijk.

19
00:00:56,699 --> 00:00:57,559
Mijn eigen perceel.

20
00:00:58,229 --> 00:00:59,299
En wat ik zei in het dagelijks leven.

21
00:00:59,999 --> 00:01:00,839
Altijd sales rollen gedaan.

22
00:01:01,479 --> 00:01:04,358
En ook altijd in het werkvlak van de data.

23
00:01:06,159 --> 00:01:06,239
Ja.

24
00:01:07,039 --> 00:01:08,499
En in dat kader zitten we hier ook.

25
00:01:08,759 --> 00:01:12,399
Want je gaat ook spreken op een conferentie van Outvi.

26
00:01:13,079 --> 00:01:14,019
De dag van de CDO.

27
00:01:14,839 --> 00:01:16,599
Kan je vertellen wat je daar gaat doen?

28
00:01:16,659 --> 00:01:18,879
Nou ja, ik ga niet zelf spreken.

29
00:01:19,599 --> 00:01:20,638
Wij zijn daar als kennispartner.

30
00:01:21,459 --> 00:01:24,499
En we zijn er samen met een van de vendoren die wij vertegenwoordigen.

31
00:01:24,499 --> 00:01:26,139
Een organisatie uit Duitsland.

32
00:01:26,699 --> 00:01:30,359
En de CEO van die organisatie zal het verhaal daar die dag doen.

33
00:01:30,679 --> 00:01:31,779
Wij zijn er met hem.

34
00:01:32,839 --> 00:01:37,819
En vandaag gaan we het hebben over data als voorbereiding op het gebruik van AI.

35
00:01:39,119 --> 00:01:40,759
Ja, daar kunnen we het over hebben.

36
00:01:40,919 --> 00:01:42,239
Maar namen ook over waarde.

37
00:01:42,279 --> 00:01:44,299
En daarom is het gesprek voor mij een klein beetje spannend.

38
00:01:44,459 --> 00:01:46,719
Want ik zit hier natuurlijk in een AI-omgeving.

39
00:01:46,859 --> 00:01:51,859
En ik kom eigenlijk vertellen van, ja jongens, AI staat op de tweede plaats en niet op de eerste plaats.

40
00:01:51,879 --> 00:01:52,699
Het gaat over waarde.

41
00:01:52,899 --> 00:01:53,299
Ja, wat goed.

42
00:01:53,299 --> 00:01:53,939
Dat staat op één.

43
00:01:55,259 --> 00:01:58,019
En volgens mij heb je daar ook een mooie term voor, value first.

44
00:01:58,359 --> 00:01:58,479
Ja.

45
00:01:59,059 --> 00:02:01,939
Kan je vertellen wat jouw visie daar dan op is?

46
00:02:02,399 --> 00:02:09,098
Ja, dat is een visie die bij ons, bij Systemation, waar ik voor werk, in twee stappen is gekomen eigenlijk.

47
00:02:09,758 --> 00:02:14,719
Wij zijn al heel lang bezig met datamanagement, met het fundament en alle mooie kreten die erbij horen.

48
00:02:14,719 --> 00:02:23,139
Dus master data, data quality, data lineage, al die onderwerpen om organisaties te helpen om beter resultaten uit hun data te kunnen halen.

49
00:02:23,919 --> 00:02:30,899
En wij zagen op een gegeven moment de verandering komen dat we niet vanuit die richting omhoog moesten gaan denken, maar juist vanuit de andere kant naar beneden.

50
00:02:31,959 --> 00:02:36,939
We spraken bijvoorbeeld met een hele mooie onderneming die nog moest beginnen met al die onderwerpen.

51
00:02:37,089 --> 00:02:38,879
En daar komen we straks ook nog wel even op.

52
00:02:39,439 --> 00:02:49,319
En die onderneming was eigenlijk in een unieke positie om te gaan definiëren vanuit de organisatiedoelstellingen wat ze zouden moeten gaan doen met datamanagementcapabilities.

53
00:02:49,429 --> 00:02:54,999
Wat moet je eerst doen? In welke volgorde? En wanneer volg je dan met iets anders? Hoe ga ik een strategie ontwikkelen?

54
00:02:55,469 --> 00:02:56,419
Dat was de eerste stap.

55
00:02:57,559 --> 00:03:03,119
En daarna is het langzaam in gesprekken met de organisatie waarvoor wij werken,

56
00:03:03,579 --> 00:03:08,939
naar voren gekomen dat die waarde waarvoor ze werken, de organisatorische doelstellingen,

57
00:03:09,439 --> 00:03:11,899
op het hoogste niveau, dat die heel belangrijk gaan worden.

58
00:03:11,909 --> 00:03:16,219
En dat is met name gekomen vanaf het moment dat AI belangrijk werd,

59
00:03:16,339 --> 00:03:18,859
want het ging steeds sneller en het ging steeds meer kosten.

60
00:03:19,349 --> 00:03:20,359
En daar kwamen vragen over.

61
00:03:20,559 --> 00:03:23,199
Ja, en wat waren dan typische vragen?

62
00:03:24,619 --> 00:03:28,759
Typische vragen zijn waar moet ik mijn resources aan gaan besteden.

63
00:03:28,769 --> 00:03:30,799
Want die zijn beperkt, die zijn schaars.

64
00:03:31,519 --> 00:03:35,939
Welke projecten moet ik prioriteren als het om AI of werken met data gaat.

65
00:03:36,279 --> 00:03:37,419
Dat soort vragen heb je het over.

66
00:03:38,079 --> 00:03:40,719
Of heel basaal, waar doe ik het eigenlijk voor?

67
00:03:42,039 --> 00:03:43,699
Waarom gaan wij iets ontwikkelen?

68
00:03:44,799 --> 00:03:49,119
Nou zijn er best wel heel wat bedrijven die wilden instappen op het gebied van AI.

69
00:03:49,499 --> 00:03:50,959
Gewoon vanwege de technologie.

70
00:03:52,059 --> 00:03:53,839
Komen ze op die manier ook wel eens bij jullie?

71
00:03:55,839 --> 00:03:57,119
Ja, bedoel je voor de AI zelf?

72
00:03:57,339 --> 00:03:58,379
Ja, dat is het.

73
00:03:58,569 --> 00:03:59,679
Nou, niet zozeer voor de AI.

74
00:04:00,639 --> 00:04:01,699
Ik herken wel die vraag.

75
00:04:02,009 --> 00:04:05,459
Want ik heb natuurlijk regelmatig gesprekken met mensen in het datawerkveld.

76
00:04:05,959 --> 00:04:07,939
Vooral met CDOs ook of heads of data.

77
00:04:08,879 --> 00:04:10,859
En als het dan gaat over AI en waarden.

78
00:04:10,969 --> 00:04:12,779
En wij zeggen value first, AI second.

79
00:04:13,579 --> 00:04:15,519
Dan heb je het wel een vraag over het onderwerp.

80
00:04:15,619 --> 00:04:19,539
Dat ze zeggen, ja, maar onze business weet eigenlijk helemaal niet wat er mogelijk is met AI.

81
00:04:20,399 --> 00:04:21,738
Dus wij ontwikkelen dingen.

82
00:04:21,798 --> 00:04:23,179
Ik sprak pas een CDO.

83
00:04:23,279 --> 00:04:26,119
Die had een portfolio van 250 projecten lopen op dit moment.

84
00:04:26,239 --> 00:04:28,699
Dat allemaal trial projecten waren.

85
00:04:30,399 --> 00:04:32,799
Ja, daar moet je toch ook op een bepaalde manier mee omgaan.

86
00:04:32,879 --> 00:04:34,719
Om die bij te houden.

87
00:04:34,919 --> 00:04:37,699
Dan praat je echt over portfolio management, denk ik.

88
00:04:38,279 --> 00:04:40,199
En wij gaan iets verder.

89
00:04:40,918 --> 00:04:42,599
Maar het is wel interessant om erover na te denken.

90
00:04:42,599 --> 00:04:45,419
Hoe je die dingen ook gaat meenemen, die projecten.

91
00:04:45,439 --> 00:04:48,299
Want je moet dat wel doen in je benadering van value.

92
00:04:48,419 --> 00:04:48,559
Ja.

93
00:04:49,859 --> 00:04:53,879
In jouw wereld wordt er natuurlijk heel veel gesproken over datagedreven werken.

94
00:04:55,499 --> 00:04:58,279
Het is altijd heel erg lastig. Wat is eigenlijk datagedreven werken?

95
00:04:58,399 --> 00:05:02,639
Ja, ik heb hier een stapeltje papier voor me en daar heb ik die definitie ook opgeschreven voor mezelf.

96
00:05:03,019 --> 00:05:05,139
Nou, we hebben er wel een aparte benadering voor.

97
00:05:05,499 --> 00:05:12,939
Wij zeggen datagedreven werken is het systematisch inzetten van data en AI, technologie en menselijke kunde en expertise.

98
00:05:13,659 --> 00:05:18,499
Om je beslissingen te kunnen onderbouwen, processen te verbeteren en waarde te creëren binnen een organisatie.

99
00:05:19,299 --> 00:05:21,819
Voor ons zitten daar wel twee hele specifieke punten in.

100
00:05:21,979 --> 00:05:24,719
Los van dat hij het zegt over mensen en processen en naast technologie.

101
00:05:25,189 --> 00:05:26,519
Maar vooral ook systematisch.

102
00:05:26,759 --> 00:05:27,739
Waarde creëren dus.

103
00:05:28,679 --> 00:05:29,659
Ja en dat systematisch.

104
00:05:29,659 --> 00:05:31,839
Ik denk dat je dat even voor de luisteraar moet uitleggen.

105
00:05:31,939 --> 00:05:36,259
Nou ja systematisch is dat je niet zeg maar ad hoc ergens begint.

106
00:05:36,399 --> 00:05:38,439
Omdat er technologie is en dan wat gaat ontwikkelen.

107
00:05:39,369 --> 00:05:42,819
En dat kan best wel mooie resultaten geven in de organisatie.

108
00:05:42,919 --> 00:05:44,819
En dat kan inspireren in de organisatie.

109
00:05:45,799 --> 00:05:49,599
Maar systematisch bedoelen wij dat je dus met voorbedachte raden een plan gaat maken.

110
00:05:49,639 --> 00:05:55,699
Of een strategie gaat maken hoe jij data en AI, data gedreven werken,

111
00:05:55,819 --> 00:05:59,099
een onderdeel gaat maken van jouw processen en van je organisatie.

112
00:05:59,219 --> 00:06:00,079
Om die doelen te bereiken.

113
00:06:01,878 --> 00:06:08,819
En wordt dat altijd geaccepteerd dat je zegt, wij doen value first, AI second?

114
00:06:10,419 --> 00:06:10,519
Nee.

115
00:06:12,799 --> 00:06:16,019
Nee, ik moet je heel eerlijk zeggen, we noemen het data impact management.

116
00:06:16,149 --> 00:06:19,399
En ik zit natuurlijk in de wereld waar veel naar Gartner wordt gekeken.

117
00:06:19,519 --> 00:06:22,979
Dan heb je een categorie waarin iets moet vallen en deze categorie bestaat nog niet.

118
00:06:23,819 --> 00:06:28,439
Ik moet je ook heel eerlijk zeggen dat, vandaag praten we over het onderwerp aan zich.

119
00:06:29,419 --> 00:06:33,119
Wij hebben daar een vendor bij geselecteerd waarvan wij vinden dat die hier heel goed in zijn.

120
00:06:33,579 --> 00:06:37,579
Maar dat is ook een vendor die relatief jong is en dat is voor ons eigenlijk uniek.

121
00:06:38,259 --> 00:06:39,459
Maar we kiezen daar nu wel voor.

122
00:06:39,699 --> 00:06:41,179
Ondanks dat het een jonge onderneming is.

123
00:06:41,339 --> 00:06:43,139
Jong in de ontwikkeling van zo'n propositie.

124
00:06:43,299 --> 00:06:44,979
Omdat we er stellig in geloven.

125
00:06:45,839 --> 00:06:47,099
Kom je dan bij organisaties.

126
00:06:47,299 --> 00:06:49,479
Dan loop je wel tegen weerstand aan.

127
00:06:49,759 --> 00:06:50,219
Dat klopt.

128
00:06:50,859 --> 00:06:54,739
Er zijn natuurlijk heel veel mensen die het liefst lekker willen doorgaan.

129
00:06:54,759 --> 00:06:55,899
Met dat pionieren en ontwikkelen.

130
00:06:55,899 --> 00:06:57,919
En helemaal niet op zoek zijn naar remmende factoren.

131
00:06:58,998 --> 00:07:00,239
Of prioritering van projecten.

132
00:07:00,339 --> 00:07:00,819
En dat soort dingen.

133
00:07:02,139 --> 00:07:04,039
En anderzijds zijn er ook organisaties die zeggen.

134
00:07:04,099 --> 00:07:04,779
Dat doen we al.

135
00:07:04,779 --> 00:07:05,379
Dat hebben we al.

136
00:07:05,899 --> 00:07:07,119
Die hebben er dan een heel ander beeld bij.

137
00:07:07,639 --> 00:07:08,999
Oh ja, en wat is dat andere beeld?

138
00:07:09,879 --> 00:07:14,559
Wat je vaak hoort is dat ze zeggen, bijvoorbeeld, we doen al aan portfolio management.

139
00:07:14,779 --> 00:07:18,539
Als je dan zo'n onderwerp hebt aangesneden, dan zeggen ze, ja, maar wij doen al aan portfolio management.

140
00:07:18,679 --> 00:07:19,739
Daar hebben we al oplossingen voor.

141
00:07:20,419 --> 00:07:23,979
Maar impact management gaat veel verder dan alleen maar portfolio management.

142
00:07:24,299 --> 00:07:25,519
Ja, wat pak je erbij?

143
00:07:26,519 --> 00:07:29,019
Value management, met name stakeholder management pak je erbij.

144
00:07:29,199 --> 00:07:35,759
Maar de value, dat is eigenlijk de belangrijkste component om echt uiteindelijk business lineage te gaan creëren voor de organisatie.

145
00:07:36,579 --> 00:07:39,679
Wat maakt het dan zo lastig om dat erbij te nemen?

146
00:07:40,339 --> 00:07:41,119
Is het een lastig concept?

147
00:07:44,259 --> 00:07:46,439
Ik weet niet of het een lastig concept is.

148
00:07:48,759 --> 00:07:52,359
Mensen zijn heel erg druk met het maken van die AI proposities.

149
00:07:53,319 --> 00:07:56,519
En het lijkt wel of ze daar ook niet te veel in afgeleid willen worden.

150
00:07:58,279 --> 00:08:02,819
Een tweede stap die moeilijk is, is om op dit moment de financiële functie,

151
00:08:03,019 --> 00:08:04,679
laten we die voor vandaag even de CFO noemen,

152
00:08:05,279 --> 00:08:09,579
En de businessfunctie, laten we die de CEO noemen, om die in het gesprek erbij te krijgen.

153
00:08:09,859 --> 00:08:12,499
En die als het ware leidend te maken.

154
00:08:13,779 --> 00:08:17,459
Dat moet ik iets breder trekken, want we hebben het nu over AI en value management.

155
00:08:17,659 --> 00:08:21,879
Je kunt het ook naar elk dataproduct wat je in je organisatie hebt trekken, dat onderwerp natuurlijk.

156
00:08:23,699 --> 00:08:30,659
En dan zien we dat die functies erbij halen wat lastig is in het gesprek.

157
00:08:30,919 --> 00:08:34,558
Wij zitten toch nog steeds aan tafel bij de datamensen, de IT-mensen.

158
00:08:35,499 --> 00:08:37,578
en die houden het wat op.

159
00:08:38,318 --> 00:08:42,719
En die andere functies, die beginnen nu steeds meer tractie te krijgen eigenlijk.

160
00:08:42,958 --> 00:08:46,499
De CFO begint zich echt af te vragen, waar zit dan de waarde van AI?

161
00:08:46,779 --> 00:08:47,899
Kan je het eens inzichtelijk maken?

162
00:08:48,419 --> 00:08:49,819
Kan je het eens meetbaar maken voor mij?

163
00:08:50,999 --> 00:08:54,799
En die CEO begint wel steeds meer te vragen, waar doen we het eigenlijk voor?

164
00:08:55,598 --> 00:08:58,038
En ik moet ook zeggen dat ik sporadisch weliswaar nog,

165
00:08:58,478 --> 00:09:00,439
maar ook wel bij de datafunctie kom, dat mensen zeggen,

166
00:09:00,579 --> 00:09:03,218
wij zijn wel bezig met data management, met al die initiatieven.

167
00:09:03,778 --> 00:09:05,519
Maar heel eerlijk, we zijn het ook een beetje kwijt.

168
00:09:05,699 --> 00:09:07,179
Waarom we het doen, voor wie we het doen.

169
00:09:07,559 --> 00:09:08,579
Waar wij op aansluiten.

170
00:09:09,009 --> 00:09:10,619
Dus dat besef dat begint er wel te komen.

171
00:09:11,539 --> 00:09:15,559
Wat zou je aan de CEO's en de CFO's mee willen geven?

172
00:09:15,649 --> 00:09:17,519
Want uiteindelijk is het natuurlijk...

173
00:09:17,519 --> 00:09:21,339
Kijk, de term disruptief vind ik altijd een beetje vervelend.

174
00:09:22,339 --> 00:09:24,598
Maar van deze technologie kunnen we toch echt wel zeggen...

175
00:09:25,309 --> 00:09:26,759
dat het heel veel bedrijven gaat raken.

176
00:09:26,829 --> 00:09:30,359
Dat je misschien op een andere manier gaat werken.

177
00:09:30,579 --> 00:09:32,219
Dat het je businessmodel misschien gaat raken.

178
00:09:32,699 --> 00:09:35,879
Dus je kan er volgens mij als CEO en CFO niet omheen.

179
00:09:37,099 --> 00:09:38,579
Dus moet je ergens een stap zetten.

180
00:09:39,059 --> 00:09:40,839
Wat zou je ze willen meegeven?

181
00:09:41,539 --> 00:09:45,139
Nou, wat blijkt uit onderzoeken, en dan praat ik over onderzoek van PwC.

182
00:09:45,319 --> 00:09:47,479
McKinsey heeft ook net weer een stuk uitgebracht.

183
00:09:48,039 --> 00:09:52,519
Dan zie je toch wel dat die CEO-functie voornamelijk, 70% van,

184
00:09:53,419 --> 00:09:59,379
het was een onderzoek onder 45 CEO's wereldwijd, 70% daarvan had eigenlijk geen idee van hoe die producten,

185
00:10:00,099 --> 00:10:03,379
dataproducten of AI-producten, waarde toevoegde aan de organisatie.

186
00:10:04,099 --> 00:10:06,259
En dat vind ik eigenlijk kwalijk, dat zou je wel moeten weten.

187
00:10:06,419 --> 00:10:06,559
Ja toch?

188
00:10:06,799 --> 00:10:10,759
Je hebt bepaalde doelen te halen en iedereen weet, zelfs je werknemers weten,

189
00:10:10,879 --> 00:10:16,219
dat AI als technologie daar naar de toekomst toe gewoon een hele belangrijke bijdrage in gaat leveren.

190
00:10:16,579 --> 00:10:19,319
We roepen wel eens, als je te laat bent, dan ben je uitgeschakeld.

191
00:10:19,439 --> 00:10:22,459
Degene die het snelst doen en het best doen, dat zijn de winners van de toekomst.

192
00:10:23,119 --> 00:10:27,299
Dus je zou als CEO daar zeker van op de hoogte moeten zijn, van waarom doe ik dat?

193
00:10:27,479 --> 00:10:30,319
Wat zijn mijn use cases en wat gaan die bijdragen aan de doelstellingen?

194
00:10:31,199 --> 00:10:34,959
In het kader van de dag van de CDO zou ik willen zeggen, beste CFO of CEO.

195
00:10:35,679 --> 00:10:38,299
Zorg ervoor dat je je CDO ook aan de tafel haalt.

196
00:10:38,779 --> 00:10:40,639
Aan de C-suite tafel haalt.

197
00:10:41,119 --> 00:10:45,119
En niet als een functie ergens in de organisatie elders laten ronddobberen.

198
00:10:45,459 --> 00:10:46,619
Maar dat die echt aan tafel komt.

199
00:10:46,739 --> 00:10:48,559
Want dat wordt cruciaal voor jouw onderneming.

200
00:10:48,759 --> 00:10:52,639
En die CDO kan heel goed de link in pin tussen alle functies zijn.

201
00:10:53,019 --> 00:10:59,319
Wat zouden nou drie essentiële vragen zijn van de CFO aan de Chief Data Officer?

202
00:11:02,459 --> 00:11:08,999
Nou, ik zou zeggen, welke mogelijkheden, beste CDO, heb jij om met ons samen de koers te bepalen?

203
00:11:09,399 --> 00:11:12,959
Ik denk dat dat vaak ontbreekt, dus om ze alle drie aan tafel te krijgen.

204
00:11:14,579 --> 00:11:20,099
Beste CDO, heb jij wel het beeld van wat er speelt in de business en waarvoor we het doen

205
00:11:20,179 --> 00:11:22,099
en wat er speelt in de dataorganisatie?

206
00:11:22,879 --> 00:11:23,859
En wat daar moet gebeuren.

207
00:11:23,929 --> 00:11:24,739
En beste CDO.

208
00:11:26,019 --> 00:11:28,379
Heb jij wel beeld bij de waarde die we creëren.

209
00:11:28,429 --> 00:11:29,639
Of zou je daarin geïnteresseerd zijn?

210
00:11:31,359 --> 00:11:32,199
Dat zijn mooie vragen.

211
00:11:33,919 --> 00:11:34,759
Dat is wel het minste toch?

212
00:11:35,679 --> 00:11:36,379
Ja, wel het minste.

213
00:11:36,879 --> 00:11:38,679
Maar goed, jij werkt zelf ook in de AI.

214
00:11:40,199 --> 00:11:41,379
Daarom vraag ik dit ook.

215
00:11:42,159 --> 00:11:42,979
Ik had het opgeschreven.

216
00:11:43,679 --> 00:11:45,279
Wat onderscheidt ons bij Aigency?

217
00:11:45,919 --> 00:11:47,239
Ik lees hem even voor weer.

218
00:11:47,379 --> 00:11:50,319
Wij bouwen geen losse modellen of kortstondige experimenten.

219
00:11:50,439 --> 00:11:53,319
We ontwikkelen AI-oplossingen die geïntegreerd zijn in je organisatie.

220
00:11:53,779 --> 00:11:55,699
Bijdragen aan complete doelen en voldoen aan.

221
00:11:56,079 --> 00:11:59,979
En dan komt die de eisen van transparantie, uitlegbaarheid en betrouwbaarheid.

222
00:12:00,579 --> 00:12:03,879
Als ik dan heb over waarde en de aansluiting naar de organisatie.

223
00:12:04,039 --> 00:12:07,999
Dan zijn dat inderdaad de onderwerpen die ik zou duiden nu als business lineage.

224
00:12:08,599 --> 00:12:11,659
Hoe vanuit het waardeperspectief gaat data door de organisatie heen.

225
00:12:13,378 --> 00:12:17,439
Daar is denk ik de rol van de CDO uiteindelijk ook heel belangrijk.

226
00:12:17,499 --> 00:12:18,739
Om die functie op te gaan zetten.

227
00:12:19,659 --> 00:12:22,859
Maar wel in samenspraak met de financiële functie en de businessfunctie.

228
00:12:24,019 --> 00:12:29,179
En als je dat op een goede manier doet, dan druppelt het ook door in de rest van je organisatie.

229
00:12:30,199 --> 00:12:34,339
Iedereen eist dan van elkaar dat het in ieder geval duidelijk is waarom doe je iets.

230
00:12:34,899 --> 00:12:40,539
En hoe draagt de technologie die je inzet, of dat nou AI is of niet, bij aan de doelstellingen.

231
00:12:40,589 --> 00:12:44,539
In plaats van, we hebben een technologie en we gaan er een feestje op bouwen.

232
00:12:44,699 --> 00:12:45,219
Ja, dat klopt.

233
00:12:46,419 --> 00:12:50,019
En er zijn drie dingen die daar nu in ontbreken.

234
00:12:50,059 --> 00:12:57,619
De eerste is een canvas of een omgeving waarin je het beheer kan doen op die vraagstukken.

235
00:12:59,638 --> 00:13:02,079
Misschien heb jij er ervaring mee, maar waar gaat de CFO heen?

236
00:13:02,199 --> 00:13:03,199
Waar gaat de CEO heen?

237
00:13:03,199 --> 00:13:04,719
Waar gaat de CDO überhaupt heen?

238
00:13:05,519 --> 00:13:11,239
Als ze willen samenwerken op het bereiken van die doelen en hoe data daarin of AI daarin gaat helpen.

239
00:13:11,739 --> 00:13:12,919
Waar leggen ze dat vast?

240
00:13:12,999 --> 00:13:13,759
Waar werken ze samen?

241
00:13:14,019 --> 00:13:15,999
In welke applicaties vinden ze hun informatie?

242
00:13:17,859 --> 00:13:20,099
Ik durf te stellen dat die bijna overal ontbreken.

243
00:13:20,199 --> 00:13:25,859
Want dat zit verspreid in Excel, PowerPoint, SharePoint, Jira en overal een beetje.

244
00:13:26,759 --> 00:13:29,239
Maar waar collaboreren ze met elkaar? Geen idee.

245
00:13:29,759 --> 00:13:32,179
Eerlijk gezegd ook niet heel versnipperd, net wat jij zegt.

246
00:13:34,119 --> 00:13:37,179
Dat is denk ik waar er platformen gaan ontstaan.

247
00:13:37,279 --> 00:13:40,739
Zoals waar Nadiem van Heidebrand over gaat spreken op de dag van de CDO.

248
00:13:41,379 --> 00:13:44,019
Dus daar komen gewoon platformen voor die dat gaan orkestreren.

249
00:13:44,519 --> 00:13:48,159
Dan loop je dus tegen dat argument van ja, we hebben al dit of dat of zo.

250
00:13:48,449 --> 00:13:49,759
Waar we portfolio management doen.

251
00:13:49,999 --> 00:13:52,819
En daar koppelen wij onze use cases aan de producten die we maken.

252
00:13:53,059 --> 00:13:53,719
Dus dat hebben we al.

253
00:13:55,579 --> 00:13:58,659
En dan kom je op wat we net noemden, eigenlijk business lineage.

254
00:13:58,899 --> 00:13:59,639
Want dan wordt het belangrijk.

255
00:13:59,729 --> 00:14:02,279
Want dit is portfolio management.

256
00:14:02,519 --> 00:14:05,799
En dan zou je kunnen zeggen, nou dat kunnen we oplossen in wat we daarvoor hebben.

257
00:14:05,849 --> 00:14:06,839
In Jira of wat dan ook.

258
00:14:07,379 --> 00:14:08,499
Maar er komt nog iets anders bij kijken.

259
00:14:08,509 --> 00:14:09,359
En dat is de value.

260
00:14:10,119 --> 00:14:12,479
Want je hebt je doelstellingen, daar maak je use cases bij.

261
00:14:12,939 --> 00:14:16,979
Die use cases koppel je uiteindelijk aan je assetlaag, zal ik maar zeggen.

262
00:14:17,079 --> 00:14:20,419
En die gaat naar beneden naar je infrastructuurlaag.

263
00:14:21,239 --> 00:14:24,179
Dus dat stuk portfolio management, dat is het dan wel.

264
00:14:24,659 --> 00:14:25,419
Maar dan value.

265
00:14:25,779 --> 00:14:28,639
Dat is de laatste echt value management erbij optellen.

266
00:14:29,519 --> 00:14:32,639
Dus hoe kan ik nu als organisatie op een eenduidige manier

267
00:14:33,399 --> 00:14:36,179
alles wat ik ga doen op het gebied van data een waarde toekennen?

268
00:14:37,439 --> 00:14:40,518
Want ik kan mezelf uit mijn eigen verleden nog wel eens herinneren

269
00:14:40,539 --> 00:14:41,779
Als ik iets voor elkaar wil kregen.

270
00:14:42,129 --> 00:14:43,619
In het Excel klopte het voor mij altijd.

271
00:14:43,859 --> 00:14:45,139
Dan was het positief.

272
00:14:45,659 --> 00:14:46,819
Dat kun je naar je toe rekenen.

273
00:14:46,919 --> 00:14:49,639
Maar het is natuurlijk wel belangrijk dat organisaties voor alle use cases.

274
00:14:49,899 --> 00:14:52,499
Op dezelfde manier de value daaraan gaan hangen.

275
00:14:53,239 --> 00:14:55,359
Dat kan je ook in zo'n impact platform doen.

276
00:14:55,979 --> 00:14:57,699
En daar kun je elke willekeurige methode in hangen.

277
00:14:57,799 --> 00:15:01,079
Want er zijn organisaties die doen dat met Capgemini.

278
00:15:02,179 --> 00:15:03,779
Ze halen overal wel een methode vandaan.

279
00:15:04,159 --> 00:15:05,239
Maar doe dat eenduidig.

280
00:15:05,239 --> 00:15:09,419
Want dan ga je echt de waarde die je wil bereiken bij een use case koppelen.

281
00:15:10,159 --> 00:15:14,699
En als je dat aan gaat koppelen, vervolgens in dat portfolio management aan je productlaag,

282
00:15:14,739 --> 00:15:18,439
je dataproductenlaag, naar je assets, naar je infrastructuur,

283
00:15:19,059 --> 00:15:21,819
dan krijg je dus van boven naar beneden, of van beneden naar boven,

284
00:15:22,678 --> 00:15:25,659
echt dat inzicht in wat bijdraagt aan wat.

285
00:15:25,879 --> 00:15:26,379
Ja, precies.

286
00:15:28,759 --> 00:15:35,019
Nu dat we het over data hebben, want data is natuurlijk van essentieel belang op het gebied van AI.

287
00:15:36,599 --> 00:15:39,979
Er wordt wel gesteld van, je moet je datahuishouding op orde hebben,

288
00:15:40,379 --> 00:15:41,779
voordat je kan beginnen met AI.

289
00:15:42,129 --> 00:15:42,939
Hoe sta jij daarin?

290
00:15:45,859 --> 00:15:48,499
Uiteindelijk denk ik dat dat voor een deel wel klopt.

291
00:15:51,219 --> 00:15:54,419
Maar wat ik net ook zei, wij zien we als bij organisaties,

292
00:15:54,599 --> 00:15:57,159
vooral als we nog niet zo heel ver zijn in de ontwikkeling daarvan.

293
00:15:58,239 --> 00:16:02,079
Wij zijn een DAMA-huis, dus wij gebruiken om met onze klanten te spreken

294
00:16:02,359 --> 00:16:06,479
het DAMA-framework om een universeel gesprek te kunnen hebben.

295
00:16:06,559 --> 00:16:08,839
Het DAMA-framework moet je voor de luisteraar even uitleggen.

296
00:16:08,979 --> 00:16:13,359
DAMA is een wereldwijde organisatie, die hebben een boek geschreven,

297
00:16:13,839 --> 00:16:16,999
het DMBOK heet dat, de Data Management Body of Knowledge.

298
00:16:18,019 --> 00:16:20,159
680 pagina's waar je op kunt certificeren,

299
00:16:20,619 --> 00:16:25,019
waarin alle disciplines van datamanagement worden uitgelegd tot op een zeer nauwkeurig detail.

300
00:16:25,779 --> 00:16:28,459
Het voordeel daarvan is, in Nederland wordt dat veel gehanteerd,

301
00:16:29,019 --> 00:16:35,099
dat als ik bijvoorbeeld met jou zou spreken over master datamanagement of over interoperability,

302
00:16:35,919 --> 00:16:38,139
Dat wij allebei hetzelfde referentiekader hebben.

303
00:16:38,279 --> 00:16:41,399
Omdat we ons daarin hebben verdiept via DAMA.

304
00:16:41,939 --> 00:16:43,259
Dus dat maakt het heel prettig.

305
00:16:43,819 --> 00:16:47,019
Nederland is heel veel gehanteerd bij heel veel organisaties als basis.

306
00:16:48,059 --> 00:16:48,919
Hoe kwamen we hier ook weer op?

307
00:16:50,719 --> 00:16:51,279
Ja, dat is een goede.

308
00:16:53,859 --> 00:16:54,758
Je was bezig met...

309
00:16:56,238 --> 00:17:00,819
Een onderdeel van DAMA, de wereldwijde voorzitter van die organisatie, is een meneer die heet Pieter Eken.

310
00:17:01,059 --> 00:17:04,699
Dat is een zeer kundige professor uit Amerika op het gebied van data management.

311
00:17:05,299 --> 00:17:06,739
Een hele aimabele man ook.

312
00:17:07,439 --> 00:17:08,638
Die heeft een piramide gemaakt.

313
00:17:08,769 --> 00:17:09,959
Dat heet de Piramide van Eken.

314
00:17:10,118 --> 00:17:14,618
En daar heeft hij alle datamanagement proposities in kleine driehoekjes op elkaar gestapeld.

315
00:17:15,519 --> 00:17:21,638
En idealiter zit daar een volgorde in van vier fases waarin je datamanagementorganisatie zou uitrollen om dat goed te doen.

316
00:17:22,118 --> 00:17:26,719
Dus het onderste gedeelte van die piramide is een heel breed vlak wat governance heet.

317
00:17:27,279 --> 00:17:28,599
En daar ga je verder op bouwen.

318
00:17:31,398 --> 00:17:32,239
Maar dat is een theorie.

319
00:17:32,479 --> 00:17:36,179
Want pas in fase 4 ga je BI en data warehousing doen.

320
00:17:36,339 --> 00:17:38,018
Dat doen we al 25 of 30 jaar.

321
00:17:38,648 --> 00:17:41,378
En we zijn nu de andere disciplines die er hadden moeten zijn,

322
00:17:41,459 --> 00:17:42,599
zijn we pas aan het implementeren.

323
00:17:43,919 --> 00:17:46,419
Wat ik denk dat belangrijk is, als je nog die positie hebt,

324
00:17:46,648 --> 00:17:50,499
begin weer, in ieder geval bij dataproducten, bij wat je wil gaan doen.

325
00:17:50,659 --> 00:17:53,379
Dus als jij predictive maintenance wilt gaan doen in je organisatie,

326
00:17:53,959 --> 00:17:56,479
begin dan bij de vraag, wat heb ik daar eigenlijk voor nodig?

327
00:17:56,939 --> 00:17:59,359
In plaats van dat je master, data management, data quality,

328
00:17:59,529 --> 00:18:00,819
alles gaat inrichten en gaat bouwen.

329
00:18:01,639 --> 00:18:02,739
En op een gegeven moment tot de conclusie komt.

330
00:18:02,939 --> 00:18:04,699
Waarom doe ik het eigenlijk? Het kost heel veel geld.

331
00:18:05,119 --> 00:18:05,939
Ik begin met die vraag.

332
00:18:06,069 --> 00:18:07,279
Als ik predictive maintenance wil doen.

333
00:18:07,699 --> 00:18:09,559
Welke data heb ik dan nodig? Hoe moet ik erop sturen?

334
00:18:09,639 --> 00:18:10,679
Wat heb ik dan als eerste nodig?

335
00:18:11,199 --> 00:18:12,379
Om daarmee aan de slag te kunnen gaan.

336
00:18:12,839 --> 00:18:13,639
En in welke mate?

337
00:18:14,819 --> 00:18:17,879
Uiteindelijk denk ik dat je al die capabilities wel nodig hebt.

338
00:18:18,259 --> 00:18:21,379
We hadden het kort voor dit gesprek met de koffie ook even over.

339
00:18:21,859 --> 00:18:24,619
De EU AI act die eraan gaat komen.

340
00:18:25,779 --> 00:18:28,979
Dan ontkom je niet meer aan het beheren van je kwaliteit van je data.

341
00:18:29,559 --> 00:18:31,439
Het hebben van technische lineage over je data.

342
00:18:31,519 --> 00:18:33,219
aan het hebben van goede

343
00:18:33,499 --> 00:18:34,659
governance, van goede security.

344
00:18:35,079 --> 00:18:37,159
Uiteindelijk ga je dat allemaal nodig moeten hebben.

345
00:18:38,219 --> 00:18:39,179
Als het niet om AI gaat

346
00:18:39,239 --> 00:18:41,419
of die act, maar om eenvoudige toepassingen,

347
00:18:41,439 --> 00:18:43,379
dan zou ik zeggen, begin met de vraag wat je moet hebben

348
00:18:43,699 --> 00:18:44,779
en ga van daaruit bouwen.

349
00:18:45,139 --> 00:18:46,719
Hoe kijk je tegen die wet aan?

350
00:18:48,139 --> 00:18:49,359
Ja, dat is

351
00:18:49,759 --> 00:18:51,039
een interessant vraagstuk.

352
00:18:51,759 --> 00:18:53,439
Ik kan niet heel die wet doorgronden.

353
00:18:53,559 --> 00:18:55,119
Ik heb hem niet gelezen, maar ik heb er wel

354
00:18:55,239 --> 00:18:57,539
nodige presentaties over gezien en vraagstukken bij gehad.

355
00:18:59,659 --> 00:19:00,819
Ik vind hem wel spannend,

356
00:19:01,059 --> 00:19:01,719
Als ik heel eerlijk ben.

357
00:19:01,959 --> 00:19:03,219
Want hij is al van start.

358
00:19:03,739 --> 00:19:06,979
En augustus volgend jaar wordt er ook op gehandhaafd.

359
00:19:08,239 --> 00:19:11,239
En de zorg die ik eigenlijk heb voor veel ondernemingen is.

360
00:19:12,179 --> 00:19:14,879
We kijken natuurlijk snel terug naar de handhaven van andere wetgevingen.

361
00:19:14,879 --> 00:19:18,919
Waar volgens mij niet zo heel vaak heel erg is opgetreden.

362
00:19:19,059 --> 00:19:21,039
Daar kon je makkelijk wegkomen met zaken.

363
00:19:21,139 --> 00:19:23,499
En het moest wel heel geruchtmakend zijn.

364
00:19:24,119 --> 00:19:28,359
Wilde een autoriteit daar jou op aanspreken en jou een boete geven bijvoorbeeld.

365
00:19:29,419 --> 00:19:32,979
Ik denk dat het met de EU-AI-act anders gaat zijn.

366
00:19:33,199 --> 00:19:36,059
Omdat de problemen waar we tegenaan lopen,

367
00:19:36,659 --> 00:19:38,619
die kunnen wel eens veel sneller opkomen.

368
00:19:38,999 --> 00:19:41,239
En veel sneller ook exploderen.

369
00:19:42,379 --> 00:19:45,519
En jij zei het net in onze voorbereiding, dat ik toen graag opschrijf.

370
00:19:45,939 --> 00:19:47,579
Je zei ook, ja, er gaat straks een hoop mis.

371
00:19:48,459 --> 00:19:51,639
En vanaf augustus volgend jaar is dat ook meteen zichtbaar als het misgaat.

372
00:19:52,319 --> 00:19:53,779
En dan moet je ook verantwoording afleggen.

373
00:19:53,919 --> 00:19:57,139
En dan loop je ook meteen kans op die boetes die er in te komen.

374
00:19:57,759 --> 00:19:59,379
Dus ik vind het best een spannende.

375
00:20:00,399 --> 00:20:02,559
En wat ik daar graag aan zou willen toevoegen is dat ik zie,

376
00:20:03,659 --> 00:20:06,299
als je kijkt naar die data management capabilities van jij net vroeg,

377
00:20:07,939 --> 00:20:09,659
naarmate we verder gaan in de tijd,

378
00:20:12,139 --> 00:20:15,799
wordt het gat wat overbrugt moet worden, volgens mij exponentieel groter.

379
00:20:16,899 --> 00:20:20,099
Net in de auto luisterde ik naar een artikel over die Xpeng,

380
00:20:20,239 --> 00:20:21,799
het Xpeng het merk van de auto's.

381
00:20:22,059 --> 00:20:22,619
Oh ja, ja.

382
00:20:22,619 --> 00:20:24,199
Die hebben de robot van me laten zien.

383
00:20:24,799 --> 00:20:27,739
Het leek verdacht veel alsof er een man of een vrouw in dat pak zat.

384
00:20:28,269 --> 00:20:30,339
Maar dat maakte ze open, zat echt een robot in.

385
00:20:30,959 --> 00:20:37,439
En dat reken ik dan ook maar even toe aan de toekomst die we voor ons zien met AI-gebruik, met IT-gebruik.

386
00:20:38,839 --> 00:20:41,039
Het gaat zo onvoorstelbaar snel.

387
00:20:41,459 --> 00:20:43,479
En we zijn allemaal zo bezig met die ontwikkelingen.

388
00:20:43,979 --> 00:20:46,679
Maar ondertussen aan de achterkant op het gebied van data management.

389
00:20:46,829 --> 00:20:51,999
Met al die capabilities en het kunnen aantonen dat we alles beheersen.

390
00:20:53,219 --> 00:20:54,539
Daar gaat de tijd dringen.

391
00:20:54,839 --> 00:20:56,999
Het gaat echt wel heel veel energie kosten.

392
00:20:57,279 --> 00:21:03,359
Niet alleen in technologie, maar ook in het beter begrijpen van je processen en het aanpassen van die processen daarop.

393
00:21:03,959 --> 00:21:07,979
Maar ook, niet onbelangrijk, in de datageletterdheid van je mensen.

394
00:21:09,639 --> 00:21:12,899
Twee jaar geleden sprak ik nog met de Chief Digital van een verzekeringsmaatschappij.

395
00:21:12,919 --> 00:21:21,359
Die zei, dat is voor ons wel een uitdaging, want wij hebben mensen die komen binnen en die doen hun jas uit, hun schoenen uit en hun pantoffels aan.

396
00:21:21,899 --> 00:21:24,319
En die gaan in een bureau zitten en die gaan heerlijk aan de slag.

397
00:21:24,479 --> 00:21:25,519
En die doen fantastisch werk.

398
00:21:26,279 --> 00:21:30,179
Maar hoe ga ik die meekrijgen in die ontwikkelingen die eraan komen van digitalisering?

399
00:21:30,959 --> 00:21:33,859
Dus ook op mensenvlak moet er nog wel wat gebeuren.

400
00:21:33,859 --> 00:21:35,179
En die tijd wordt steeds korter.

401
00:21:36,039 --> 00:21:37,199
Maar de relevantie is steeds groter.

402
00:21:37,639 --> 00:21:39,679
Als ik misschien wat mag prikkelen.

403
00:21:41,819 --> 00:21:49,659
Want hoeveel data management is er straks nog nodig als de AI gewoon heel goed om kan gaan met de ongestructureerde data?

404
00:21:49,719 --> 00:21:51,359
Dat zien we nu met metaal.

405
00:21:52,279 --> 00:21:53,339
misschien vervuilde data

406
00:21:54,159 --> 00:21:55,859
data die die overal en nergens

407
00:21:55,939 --> 00:21:56,799
vandaan kan halen

408
00:21:58,099 --> 00:21:58,479
als we

409
00:21:59,739 --> 00:22:01,199
een paar stappen vooruit kijken

410
00:22:02,059 --> 00:22:03,579
hoeveel datamanagement hebben we dan eigenlijk

411
00:22:03,689 --> 00:22:04,119
nog nodig?

412
00:22:05,299 --> 00:22:07,559
Ik denk dat we nog steeds die datamanagement nodig gaan hebben

413
00:22:07,649 --> 00:22:09,739
alleen dat we ons daar zelf wat minder mee gaan bemoeien

414
00:22:09,739 --> 00:22:11,739
als mensen. Sterker nog, ik denk dat we

415
00:22:11,739 --> 00:22:13,859
die menselijke factor voor een groot gedeelte

416
00:22:14,599 --> 00:22:15,659
uit willen gaan halen

417
00:22:15,839 --> 00:22:17,699
wij voorzien er zelf

418
00:22:17,839 --> 00:22:19,659
in de data product management laag

419
00:22:19,669 --> 00:22:20,677
een belangrijke rol

420
00:22:21,478 --> 00:22:24,019
waarbij je straks dataproducten gaat krijgen

421
00:22:24,279 --> 00:22:25,379
dat kan bijvoorbeeld een agent zijn

422
00:22:25,399 --> 00:22:27,439
maar dat kan ook een dataset voor rapportages zijn

423
00:22:27,479 --> 00:22:27,999
of wat dan ook

424
00:22:28,719 --> 00:22:31,759
maar dat dat eigenlijk straks geautomatiseerd gaat plaatsvinden

425
00:22:32,219 --> 00:22:33,839
en dat kunnen agents doen

426
00:22:34,919 --> 00:22:37,659
en die gaan dan controleren op alle safeguards die er zijn

427
00:22:38,958 --> 00:22:41,039
guardrails gebruikte je in ons voorgesprek ook al

428
00:22:41,619 --> 00:22:42,139
dat soort dingen

429
00:22:42,519 --> 00:22:44,519
dat daar gekeken wordt naar hoeveel doe ik aan de governance

430
00:22:44,779 --> 00:22:46,579
hoeveel doe ik aan de gestelde datakwaliteit

431
00:22:47,139 --> 00:22:48,239
hoeveel zie ik in mijn lineage

432
00:22:48,459 --> 00:22:49,119
is die bekend

433
00:22:49,339 --> 00:22:50,659
is de privacy geregeld

434
00:22:50,679 --> 00:22:51,579
de security geregeld.

435
00:22:52,759 --> 00:22:54,399
Dat dat automatisch

436
00:22:54,799 --> 00:22:56,299
zonder tussenkomst van mensen

437
00:22:56,779 --> 00:22:57,519
geregeld gaat worden.

438
00:22:58,419 --> 00:23:00,219
En dan krijgen de mensen die hun

439
00:23:00,359 --> 00:23:02,419
pantoffeltjes aantrekken het wel heel erg lastig.

440
00:23:03,919 --> 00:23:04,639
Ja, dat

441
00:23:04,739 --> 00:23:05,299
zou kunnen.

442
00:23:06,299 --> 00:23:08,779
Ik zie regelmatig sprekers op grote congressen

443
00:23:08,779 --> 00:23:10,579
die dan naar het publiek

444
00:23:10,699 --> 00:23:12,579
roepen van AI is going to

445
00:23:12,599 --> 00:23:14,599
take your jobs to the next level.

446
00:23:16,839 --> 00:23:18,439
Ik durf daar nog geen voorspelling over te doen.

447
00:23:18,619 --> 00:23:19,699
Ik weet niet

448
00:23:20,759 --> 00:23:23,479
hoe of wat deze mensen dan gaan doen op het moment dat dat gebeurt.

449
00:23:25,059 --> 00:23:26,179
Lijkt me wel spannend voor ze.

450
00:23:26,939 --> 00:23:29,259
Nou, absoluut. Als het dan gaat om datageletterdheid

451
00:23:29,329 --> 00:23:33,019
of zoals wij het noemen, de menselijke component hierin,

452
00:23:33,139 --> 00:23:35,099
dan is dat natuurlijk ook een heel belangrijk onderwerp.

453
00:23:35,199 --> 00:23:36,819
Want mensen voelen dat wel.

454
00:23:37,119 --> 00:23:39,399
60% ongeveer van de mensen weten wel degelijk

455
00:23:39,899 --> 00:23:40,899
dat er wat aan staat te komen.

456
00:23:41,879 --> 00:23:43,899
En denkt daarover na, van ja, wat betekent dat voor mij?

457
00:23:44,939 --> 00:23:47,899
En dat is echt wel een verschuiving, want eerst was je natuurlijk

458
00:23:48,379 --> 00:23:51,179
in die zin een soort van koning op een troon.

459
00:23:51,359 --> 00:23:53,899
Want jij wist precies wat er in die data zat,

460
00:23:54,499 --> 00:23:55,779
hoe dat gestructureerd was.

461
00:23:57,639 --> 00:24:00,239
Qua job security zat je heel veilig.

462
00:24:01,299 --> 00:24:02,319
Maar dat is wel veranderd.

463
00:24:03,959 --> 00:24:06,899
Ik weet niet per se of het als het om datamanagement gaat,

464
00:24:07,039 --> 00:24:08,299
of het nu al veranderd is.

465
00:24:08,349 --> 00:24:11,359
Want nu is er nog een ongekende zoektocht

466
00:24:11,419 --> 00:24:14,019
naar mensen met skills om dit te kunnen doen.

467
00:24:14,679 --> 00:24:15,999
Hoe dat naar de toekomst verandert,

468
00:24:16,619 --> 00:24:19,139
Ja, durven we geen uitspraak over het?

469
00:24:19,219 --> 00:24:20,519
Nee, dat snap ik.

470
00:24:21,379 --> 00:24:26,559
Maar mind you, er zijn wel onderwerpen zoals, dat vind ik echt een ondergeschoven kindje nog,

471
00:24:26,799 --> 00:24:28,619
data lineage, technische data lineage ook.

472
00:24:31,279 --> 00:24:34,839
Ik kom heel veel organisaties tegen waar dat gewoon nog niet geregeld is,

473
00:24:35,539 --> 00:24:39,139
überhaupt nog niet in zicht is, wat toch wel heel complexe materie is

474
00:24:39,139 --> 00:24:42,399
en waar we voorlopig denk ik ook nog wel menselijke vaardigheden en kennis bij nodig zullen.

475
00:24:42,779 --> 00:24:45,759
Ja, niet iedereen is thuis in deze wereld.

476
00:24:46,659 --> 00:24:47,979
Dus technische data lineage.

477
00:24:48,409 --> 00:24:55,139
Ja, data lineage, dat is eigenlijk het proces om in kaart te brengen hoe data door jouw organisatie stroomt.

478
00:24:55,559 --> 00:24:59,879
Dus je wordt ergens klant, iemand legt jouw gegevens vast, je adres en je naam enzovoort.

479
00:25:00,359 --> 00:25:04,099
En uiteindelijk wordt die data ook gebruikt in processen of in rapporten.

480
00:25:04,459 --> 00:25:09,439
Het inzichtelijk maken hoe die data dan stroomt door jouw organisatie is heel belangrijk.

481
00:25:09,529 --> 00:25:13,779
Want daarmee kun je kijken van als daar iets verandert in die data van jou, waar gaat dat impact hebben?

482
00:25:14,179 --> 00:25:20,839
En andersom kun je kijken als er iets gebeurd is, een rapport dat niet meer werkt, kun je via datalinage precies zien waar het misgegaan is.

483
00:25:21,819 --> 00:25:27,579
Root course analysis noemen we dat, maar gewoon een benadering van waar en wat is er misgegaan.

484
00:25:27,779 --> 00:25:38,559
Eigenlijk net als bijvoorbeeld onze vlees of zuivel, dat we echt helemaal terug kunnen naar de specifieke koe waar de melk uitgekomen is.

485
00:25:38,559 --> 00:25:39,499
De koe die u ziet waar het eig gelegd is inderdaad.

486
00:25:39,599 --> 00:25:44,319
Ja, precies. En dat is dan die lineage waar je het over hebt.

487
00:25:44,319 --> 00:25:48,699
Ja, dat is wel een van de moeilijkere onderwerpen in data management.

488
00:25:50,909 --> 00:25:54,279
Dat is nog steeds heel erg moeilijk om verschillende redenen.

489
00:25:55,759 --> 00:25:59,459
En hoe zou AI daarbij aan bij kunnen dragen dan?

490
00:26:01,139 --> 00:26:09,639
Ja, als je kijkt naar, wij hebben het dan over de waardelaag, data impact management.

491
00:26:10,019 --> 00:26:12,599
Daarachter komt voor ons de data product management laag.

492
00:26:13,159 --> 00:26:16,399
Dat is de laag waar jouw data producten worden neergezet.

493
00:26:16,499 --> 00:26:21,579
Dus als jullie bijvoorbeeld een AI product maken, dan gaan wij ervan uit dat daar een product komt te staan

494
00:26:21,609 --> 00:26:24,059
wat helemaal gecheckt is en alle voorwaarden waaraan het moet voldoen.

495
00:26:24,069 --> 00:26:30,859
Dus wetgeving, security wat ik net al zei, PII, privacy informatie is daarop gecheckt

496
00:26:31,619 --> 00:26:36,159
Maar dat heeft uiteindelijk nog steeds een connectie naar de onderliggende datamanagementlaag.

497
00:26:39,539 --> 00:26:40,179
Wat was de vraag?

498
00:26:41,039 --> 00:26:43,439
Hoe AI je bij kan dragen aan die datalimages?

499
00:26:43,739 --> 00:26:50,499
Wat wij nu zien en wat wij volgen is dat er in de internationale markt wel spelers zijn die daar al op inspelen.

500
00:26:51,619 --> 00:26:55,899
Want wat je straks gaat krijgen is dat jij stelt een vraag aan de data via een LLM.

501
00:26:56,499 --> 00:27:00,219
Gewoon in mensen taal en die kan dat interpreteren en die gaat terugkomen met een antwoord.

502
00:27:00,779 --> 00:27:02,479
en als je het dan hebt over wat jij zegt

503
00:27:03,679 --> 00:27:05,039
transparantie, uitlegbaarheid, betrouwbaarheid

504
00:27:05,039 --> 00:27:07,279
of vertrouwen ook in dat antwoord wat er dan terugkomt

505
00:27:07,709 --> 00:27:09,639
dan is het belangrijk dat dat meegeleverd gaat worden

506
00:27:10,819 --> 00:27:12,359
AI gaat daar een rol in spelen

507
00:27:12,409 --> 00:27:15,399
want die gaat die context van het antwoord wat terugkomt

508
00:27:15,759 --> 00:27:17,239
gaat AI ook meeleveren

509
00:27:17,659 --> 00:27:20,379
dus die agent die jou gaat antwoorden

510
00:27:20,779 --> 00:27:21,499
die gaat ook zeggen van

511
00:27:21,639 --> 00:27:24,079
ik heb op basis van de regelgeving even gecontroleerd

512
00:27:24,139 --> 00:27:26,979
dat de PII klopt, ik heb de datakwaliteit even gecontroleerd

513
00:27:27,219 --> 00:27:28,858
ik heb de lineage voor je meegeregeld

514
00:27:29,279 --> 00:27:36,839
Dus de context van het antwoord dat jij straks gaat krijgen, dat gaat hij voor jou meenemen om dat vertrouwen in die data te kunnen leveren.

515
00:27:37,809 --> 00:27:43,499
En er zijn platformen, vendoren of leveranciers, die zich daar nu echt op inzetten om dat te kunnen gaan doen.

516
00:27:43,549 --> 00:27:44,179
Ja, wat mooi.

517
00:27:45,539 --> 00:27:47,819
En die volgen wij dus weer, want dat is ons business model.

518
00:27:48,019 --> 00:27:50,699
We willen dat soort partijen heel vroeg op te pakken.

519
00:27:51,319 --> 00:27:54,659
Dat doen wij ook in overleg met de ondernemingen waarvoor wij werken.

520
00:27:54,699 --> 00:27:56,919
Dat zijn vooral heel veel corporates, enterprise bedrijven.

521
00:27:58,159 --> 00:28:00,219
Die ook met dat soort zaken naar ons toe komen.

522
00:28:00,249 --> 00:28:02,839
Die gaan we dan volgen, die partijen, om ze op een gegeven moment te contracteren.

523
00:28:03,539 --> 00:28:07,279
Als we denken dat het echt winnaars zijn voor de Beneluxmarkt, voor de Nederlandse markt.

524
00:28:07,619 --> 00:28:07,959
Ja, snap ik.

525
00:28:08,939 --> 00:28:10,599
We hebben een vast onderdeel.

526
00:28:10,609 --> 00:28:15,279
Dus uit ons kaartspel wil ik jou graag namelijk een stelling voorleggen.

527
00:28:15,359 --> 00:28:15,699
Spannend.

528
00:28:16,599 --> 00:28:18,419
Maar dan ga ik eerst eventjes de kaarten schudden.

529
00:28:18,839 --> 00:28:18,939
Ja.

530
00:28:34,019 --> 00:28:34,499
MUZIEK

531
00:28:36,919 --> 00:28:39,139
Zo even de bril erbij op, anders kan ik het niet lezen.

532
00:28:40,699 --> 00:28:43,819
Nou, het gaat ook over toekomstvisies en speculaties.

533
00:28:44,299 --> 00:28:49,099
En de stelling is, binnen nu en één jaar hebben wij generatieve AI in productie.

534
00:28:51,239 --> 00:28:52,059
En ze aan jou?

535
00:28:54,559 --> 00:28:57,199
Hebben jullie generatieve AI in productie?

536
00:28:57,619 --> 00:28:59,339
Nou, wij niet bij Systemation.

537
00:28:59,639 --> 00:29:00,779
Wij zijn kleine ondernemingen.

538
00:29:00,779 --> 00:29:04,819
Wij gebruiken AI zoals iedereen dat doet om stukken tekst op te blazen.

539
00:29:04,919 --> 00:29:06,119
Zodat een ander weer kan samenvatten.

540
00:29:08,079 --> 00:29:10,979
Maar onze Vendoren zeker wel.

541
00:29:11,519 --> 00:29:13,179
En daar kan ik je ook een voorbeeld van geven.

542
00:29:13,439 --> 00:29:17,299
Dus een van de partijen die wij vertegenwoordigen is een data quality oplossing.

543
00:29:20,399 --> 00:29:22,699
Die gebruiken AI al een stap verder dan dat.

544
00:29:22,939 --> 00:29:24,539
Daar kun je gewoon in mensentaal zeggen.

545
00:29:25,239 --> 00:29:30,179
Ik heb een bepaalde wens ten aanzien van de kwaliteit van een set data.

546
00:29:30,459 --> 00:29:31,819
En ik wil weten hoe het daarmee gesteld is.

547
00:29:31,899 --> 00:29:32,579
En dat typ je gewoon in.

548
00:29:33,119 --> 00:29:37,059
En de agent gaat gewoon op pad om dat te vertalen naar een data kwaliteitsregel.

549
00:29:37,659 --> 00:29:39,419
Dat is een stukje programmeerwerk.

550
00:29:39,879 --> 00:29:41,079
En die vuurt hij af op de data.

551
00:29:41,859 --> 00:29:44,919
Dat zijn al heel belangrijke veranderingen.

552
00:29:45,299 --> 00:29:46,719
Die aansluiten op wat jij eerder ook vroeg.

553
00:29:47,779 --> 00:29:48,859
Hoe gaat ons dat helpen?

554
00:29:49,409 --> 00:29:50,759
Dat wordt zoveel makkelijker.

555
00:29:51,959 --> 00:29:53,879
Sterker nog, we hebben nu over Gen AI.

556
00:29:54,119 --> 00:29:59,879
Ik denk dat we Agentic AI ook al heel snel zullen gaan zien in dit soort toepassingen.

557
00:30:00,999 --> 00:30:02,679
En hoe zie je dat voor je?

558
00:30:03,619 --> 00:30:04,159
Hoe bedoel je dat?

559
00:30:04,639 --> 00:30:07,219
De Agentic AI, hoe gaat dat helpen?

560
00:30:08,319 --> 00:30:12,079
Nou ja, kijk, Gen AI is nog het genereren eigenlijk.

561
00:30:12,619 --> 00:30:15,499
Die werken met ons, die agents.

562
00:30:15,799 --> 00:30:18,879
En in Agentic gaan ze zelfstandig werken, die agenten.

563
00:30:19,059 --> 00:30:21,639
Of die agents, daar hoef je niet meer naar om te kijken, bij wijze van spreken.

564
00:30:22,459 --> 00:30:26,539
Ik heb al een keer gesproken met een CDO die zich er echt oprecht zorgen over maakte,

565
00:30:26,539 --> 00:30:27,839
hoe die dat straks gaat managen.

566
00:30:28,059 --> 00:30:28,179
Ja.

567
00:30:28,899 --> 00:30:36,199
Je krijgt dan, je krijgt eigenlijk een soort taal die die agents met elkaar moeten gaan spreken.

568
00:30:36,379 --> 00:30:39,399
Want je hebt een agent die taak 1 heeft en een agent die taak 2 heeft.

569
00:30:39,709 --> 00:30:41,599
Hoe zorg je er nou voor dat je met elkaar kunt praten?

570
00:30:42,299 --> 00:30:45,239
Maar belangrijker ook nog, als je nou eens honderd van die agents hebt.

571
00:30:45,419 --> 00:30:46,899
Die vervangen mensen, taken.

572
00:30:47,599 --> 00:30:48,979
Wie wordt dan de baas van die agent?

573
00:30:49,179 --> 00:30:52,979
En hoe ga je dat dan vanuit manager richting de rest van de organisatie?

574
00:30:53,579 --> 00:30:55,379
Maar dat agentic, dat wordt ook wel belangrijk.

575
00:30:55,509 --> 00:31:01,259
Die agents gaan gewoon zelfstandig taken uitvoeren en met elkaar communiceren en dat werk uitvoeren.

576
00:31:01,879 --> 00:31:03,659
En ook die stap gaat al heel snel.

577
00:31:03,999 --> 00:31:06,939
En als we het dan hebben over wat jij net die data lineage noemde.

578
00:31:07,859 --> 00:31:11,299
Hoe hou je dan nog bij welke data waar doorheen gestroomd is?

579
00:31:11,459 --> 00:31:12,599
Wat er is veranderd?

580
00:31:12,959 --> 00:31:17,679
Ja, want die agents worden allemaal getraind op bepaalde kennis.

581
00:31:17,899 --> 00:31:19,079
En daar ligt weer data onder.

582
00:31:19,879 --> 00:31:22,639
En daar moet je dan wel begrip van hebben wat daaronder zit.

583
00:31:23,939 --> 00:31:27,919
Wat ik net al zei, dat gaat steeds sneller die behoeften.

584
00:31:28,059 --> 00:31:32,259
En de tijd die we hebben om dat gat te sluiten, dat wordt eigenlijk steeds korter.

585
00:31:32,499 --> 00:31:32,579
Ja.

586
00:31:35,799 --> 00:31:44,739
Ik ben nog wel benieuwd, voor jou persoonlijk, zijn er dingen waar je wakker van ligt rondom deze technologie?

587
00:31:46,019 --> 00:31:46,759
AI-technologie?

588
00:31:46,879 --> 00:31:46,999
Ja.

589
00:31:49,679 --> 00:31:59,419
Nou, waar ik wel eens over nadenk, waar iedereen over nadenkt, wat gaat de rol van mensen uiteindelijk worden?

590
00:31:59,559 --> 00:32:03,259
En gaat dit echt heel veel banen van mensen wegnemen?

591
00:32:03,649 --> 00:32:05,139
En wat gaat dat voor ons betekenen?

592
00:32:06,219 --> 00:32:07,659
Maar ook kennis.

593
00:32:08,139 --> 00:32:12,579
Omdat iedereen is waarschijnlijk wel bekend met het hallucineren van AI.

594
00:32:13,359 --> 00:32:15,499
We gebruiken allemaal ChatGPT of Copilot.

595
00:32:16,479 --> 00:32:19,799
En ik vraag me af hoeveel mensen daar dan controleren wat eruit komt.

596
00:32:19,899 --> 00:32:21,139
Of dat ze het gewoon klakkeloos aannemen.

597
00:32:21,139 --> 00:32:24,779
Ik sprak gisteren een familielid die bij een grote scholengemeenschap werkt.

598
00:32:25,439 --> 00:32:28,339
En gewoon eigenlijk de opdracht krijgt om veel Copilot te gebruiken.

599
00:32:28,399 --> 00:32:29,979
Want dan gaat onze productiviteit omhoog.

600
00:32:30,759 --> 00:32:34,219
Weet je dan ook hoe die productiviteit eruit ziet en wat dat betekent?

601
00:32:35,099 --> 00:32:36,239
Ja, eigenlijk niet.

602
00:32:38,259 --> 00:32:40,039
Maar als het gaat om het vervangen van jobs.

603
00:32:41,259 --> 00:32:43,419
Ik neem even een fictief voorbeeld, de advocatuur.

604
00:32:43,819 --> 00:32:49,999
Je kan heel veel werkzaamheden van junior medewerkers in die wereld laten uitvoeren door AI straks.

605
00:32:50,119 --> 00:32:51,759
Heel snel, heel eenvoudig.

606
00:32:53,319 --> 00:32:57,399
Normaal als iemand van een law school komt, dan gaat die persoon eerst junior zijn.

607
00:32:57,519 --> 00:33:01,879
en die gaat dan voor mijn part eerst files uit de kelder halen en voorbereiden voor een advocaat.

608
00:33:01,939 --> 00:33:05,439
En daarna mag je misschien die dingen doorlezen en een advies schrijven.

609
00:33:05,679 --> 00:33:06,979
Ik ben niet helemaal bekend in die wereld.

610
00:33:07,879 --> 00:33:10,859
Maar op die manier wordt deze advocaat uiteindelijk de senior.

611
00:33:11,919 --> 00:33:16,459
Maar als AI dit gaat doen voor de senior, hoe gaan we dan ooit nog seniors krijgen?

612
00:33:16,619 --> 00:33:18,359
Want die juniors worden niet meer opgeleid als seniors.

613
00:33:19,039 --> 00:33:21,939
En in heel veel vakgebieden gaat misschien die kennis allemaal zitten in die agents,

614
00:33:22,339 --> 00:33:26,879
maar vergeten we dus mensen op te leiden om uiteindelijk in die seniorrollen terecht te komen.

615
00:33:27,559 --> 00:33:30,779
Dus dat zijn dingen waar ik volgens mij denk, hoe gaan we dat dan oplossen?

616
00:33:31,179 --> 00:33:32,499
Ja, dat is een goede vraag.

617
00:33:34,859 --> 00:33:35,779
Ik heb het antwoord ook niet.

618
00:33:36,079 --> 00:33:37,859
We hebben het hier intern ook.

619
00:33:39,358 --> 00:33:44,339
Qua software bouwen worden we natuurlijk ook geraakt.

620
00:33:44,339 --> 00:33:46,459
Maar ik vind het ook wel een mooie ontwikkeling.

621
00:33:47,939 --> 00:33:52,619
Maar het vraagstuk van Junior, Media of Senior, die hebben we hier ook.

622
00:33:52,639 --> 00:33:54,919
Dus daar zijn we ook aan het puzzelen van hoe doe je dat?

623
00:33:56,079 --> 00:33:59,979
Hoe lang mogen mensen wel of geen AI gebruiken in het begin?

624
00:34:02,019 --> 00:34:04,559
Hoe sluiten straks nog de scholen aan?

625
00:34:04,759 --> 00:34:09,099
Dus de HBO's, de WO's op het gebied van softwareontwikkeling.

626
00:34:09,579 --> 00:34:13,918
Zijn er straks andere eigenschappen gewoon nodig?

627
00:34:14,139 --> 00:34:14,619
Vaardigheden?

628
00:34:16,879 --> 00:34:18,399
Het is aardig dat je de laatste zegt.

629
00:34:19,197 --> 00:34:20,498
We hadden het voorheen.

630
00:34:20,518 --> 00:34:23,699
Ik heb een zoon die vrijdag zijn bul krijgt van de Erasmus Universiteit.

631
00:34:24,938 --> 00:34:27,839
Is nu bezig met zijn master Business Information Management.

632
00:34:29,819 --> 00:34:34,119
Je ziet gelukkig dat het curriculum bij die universiteiten ook daarop aangepast is.

633
00:34:35,478 --> 00:34:42,779
Zij kunnen er ook kiezen uit onderwerpen als van leiderschap in de nieuwe wereld van AI.

634
00:34:43,159 --> 00:34:46,498
Of de impact van AI op organisaties en hoe die organisatie moet gaan voorgeven.

635
00:34:47,099 --> 00:34:50,059
Dus daar gelukkig bij de nieuwe generatie wordt er al op voorgesorteerd.

636
00:34:50,639 --> 00:34:53,659
Ja, en uiteindelijk in ons vak bijvoorbeeld.

637
00:34:55,139 --> 00:34:55,659
softwareontwikkeling

638
00:34:56,639 --> 00:34:58,359
bestaat eigenlijk niet uit het maken van

639
00:34:58,619 --> 00:35:00,519
regels code. Het gaat uiteindelijk

640
00:35:00,679 --> 00:35:02,499
om analytische vaardigheden

641
00:35:02,938 --> 00:35:04,419
en het juiste oplossing

642
00:35:04,659 --> 00:35:06,399
vinden bij het businessprobleem

643
00:35:06,478 --> 00:35:08,238
waar we eigenlijk mee begonnen hebben. Dus je hebt

644
00:35:08,509 --> 00:35:10,679
een businessprobleem, je wil waarde creëren

645
00:35:11,359 --> 00:35:12,499
en een deel

646
00:35:12,529 --> 00:35:14,478
zit dan in de technologie en daar

647
00:35:14,549 --> 00:35:15,458
komen wij dan mee kijken.

648
00:35:17,179 --> 00:35:18,599
Dus daar gaat waarschijnlijk

649
00:35:18,609 --> 00:35:20,079
ook een verschuiving plaatsvinden.

650
00:35:20,359 --> 00:35:22,318
Misschien is straks wel het effect dat

651
00:35:22,339 --> 00:35:24,499
dat er veel meer mensen kunnen programmeren.

652
00:35:24,699 --> 00:35:26,679
Dus nu moeten we uit een hele kleine vijver vissen.

653
00:35:27,419 --> 00:35:29,879
Er zijn al heel veel mensen die zijn aan het vibe-code,

654
00:35:30,539 --> 00:35:32,159
met alle gevolgen van die.

655
00:35:32,479 --> 00:35:33,919
Nu moet jij misschien wat uitleggen.

656
00:35:34,199 --> 00:35:34,639
Vibe-code?

657
00:35:34,769 --> 00:35:38,819
Oh, vibe-code is dat je dus aan je taalmodel,

658
00:35:39,339 --> 00:35:41,719
dus je hebt een idee voor een stukje software,

659
00:35:41,809 --> 00:35:43,519
en dan kan je dat nu ook op gaan vragen.

660
00:35:44,059 --> 00:35:46,099
En in één keer, je kon niet programmeren,

661
00:35:46,399 --> 00:35:51,979
maar door vragen te stellen en door fouten die je eruit krijgt,

662
00:35:52,079 --> 00:35:56,519
ook weer te voeden aan het systeem, krijg je uiteindelijk een functioneel werkend stukje software.

663
00:35:57,599 --> 00:36:04,039
Hoe die technisch in elkaar zit, dat daar allerlei privacyvraagstukken in zitten,

664
00:36:04,719 --> 00:36:06,259
beveiliging niet goed is, dat soort zaken.

665
00:36:06,779 --> 00:36:09,259
Maar mensen kunnen functioneel in één keer iets voor elkaar krijgen.

666
00:36:10,059 --> 00:36:15,759
Maar daarmee kunnen ze misschien wel hun gedachten scherpen in het analyseren van een probleem.

667
00:36:16,099 --> 00:36:18,599
Dus misschien verschuift dan...

668
00:36:18,619 --> 00:36:21,359
Noemen we dat niet een klein beetje de translatorrol van dag en dag?

669
00:36:21,899 --> 00:36:22,439
Ja, bijvoorbeeld.

670
00:36:24,419 --> 00:36:28,519
En uiteindelijk zullen er ook, volgens mij zijn dat nu een van de best betaalde banen in Amerika.

671
00:36:28,679 --> 00:36:31,279
De mensen die in alle ... kunnen prompten in,

672
00:36:31,919 --> 00:36:36,619
die goed weten wat ze moeten vragen aan een agent of een AI-oplossing,

673
00:36:37,159 --> 00:36:38,759
om er een goed resultaat uit te krijgen over.

674
00:36:39,099 --> 00:36:42,699
Want je kunt heel snel een vraagje stellen, maar dan is de kans dat het antwoord eruit komt

675
00:36:43,399 --> 00:36:45,979
en dat dat niet helemaal goed is of niet helemaal aansluit,

676
00:36:46,159 --> 00:36:49,179
dat het ook veel groter dan wanneer je een heel duidelijke instructie geeft.

677
00:36:49,199 --> 00:36:49,459
Precies.

678
00:36:49,899 --> 00:36:53,179
En als we die dan bijvoorbeeld koppelen aan iemand die technisch heel vaardig is.

679
00:36:53,719 --> 00:36:55,399
Misschien gaat het dan sneller.

680
00:36:56,439 --> 00:36:58,699
Maar dat zal de toekomst uit moeten wijzen.

681
00:36:59,579 --> 00:37:03,039
Daarbij is dan het agentic gedeelte natuurlijk ook weer wel heel spannend.

682
00:37:03,339 --> 00:37:07,999
Want als het om gen AI gaat, waarbij AI met ons werkt en wij zelf nog moeten prompten.

683
00:37:08,659 --> 00:37:13,919
Als straks die agents zelfstandig gaan werken en denken, dan hebben we daar eigenlijk geen zicht meer op of wat daarin gaat.

684
00:37:16,019 --> 00:37:18,979
Nee, wij bouwen zeg maar al in die zin agentic.

685
00:37:19,859 --> 00:37:25,639
We spinnen een aantal agents op die het werk gewoon uitvoeren.

686
00:37:26,259 --> 00:37:28,459
En gaat het er inderdaad om? Hoe hou je die eigenlijk?

687
00:37:30,319 --> 00:37:32,099
Het is een soort van wilde stier.

688
00:37:32,179 --> 00:37:36,679
En wij worden de rodeo-rijders die die wilde stier een beetje in bedwang moeten houden.

689
00:37:37,039 --> 00:37:38,259
En hoe controleren we het dan?

690
00:37:38,399 --> 00:37:41,799
Dan kijk ik weer op mijn papiertje naar jullie Aigency.

691
00:37:42,339 --> 00:37:45,539
Hoe hou je dat dan transparant, uitlegbaar, betrouwbaar?

692
00:37:46,039 --> 00:37:47,999
Hoe houdt de gebruiker het vertrouwen erin?

693
00:37:48,039 --> 00:37:50,319
of nemen we het maar voor lief straks?

694
00:37:51,039 --> 00:37:52,739
Dat zijn best wel hele grote vraagstukken.

695
00:37:53,019 --> 00:37:56,639
Kijk, ik kom uit nog dat we met machine learning bezig waren.

696
00:37:56,999 --> 00:37:59,619
Dus dan hebben we het over 4GPT, voor generatieve AI.

697
00:38:00,519 --> 00:38:03,579
En daar was uitlegbaarheid een heel belangrijk onderdeel.

698
00:38:04,459 --> 00:38:06,139
Dat als je een model zelf getraind had,

699
00:38:07,499 --> 00:38:09,759
dat je dan ook de uitkomsten die er komen,

700
00:38:10,229 --> 00:38:13,699
dat dat uitlegbaar is, dat je ook weet wat de volgende stap zou zijn.

701
00:38:14,639 --> 00:38:17,179
Ik gebruik heel vaak het voorbeeld van een model,

702
00:38:17,559 --> 00:38:20,339
Omdat dat voor iedereen heel makkelijk is.

703
00:38:20,779 --> 00:38:28,319
En die gaf namelijk de kans op nabloedingen bij mensen die bloedverdunners gebruiken.

704
00:38:29,099 --> 00:38:33,879
En als jij dat in een zeer ernstige vorm hebt, kan je gewoon doodbloeden.

705
00:38:34,459 --> 00:38:39,379
Dus dat model gaf het risico aan van nabloedingen.

706
00:38:40,259 --> 00:38:46,639
En als dat niet uitlegbaar is, wat de reden is waardoor je zo'n verhoogd risico hebt.

707
00:38:47,319 --> 00:38:49,959
En daar kan je dus ook geen actie ondernemen.

708
00:38:50,619 --> 00:38:54,339
Ja, misschien dat je kan zeggen van binnen nu en twee weken kan je doodbloeden.

709
00:38:54,399 --> 00:38:56,739
Van ik ga misschien veel te kroeg in.

710
00:38:58,219 --> 00:38:59,559
Maak je je bloed trouwens nog dunner.

711
00:39:01,519 --> 00:39:02,279
Maar echte acties.

712
00:39:04,539 --> 00:39:10,519
Dit model was dan getraind op 140, 150 verschillende variabelen.

713
00:39:11,699 --> 00:39:13,759
Dus er zijn echt wel knopjes waar je aan kan draaien.

714
00:39:13,859 --> 00:39:15,259
Kijk, aan je leeftijd kan je niet draaien.

715
00:39:15,799 --> 00:39:17,679
Maar aan andere knopjes kan je wel draaien.

716
00:39:17,979 --> 00:39:19,459
Dan is het wel fijn als een model zegt.

717
00:39:21,459 --> 00:39:22,259
Deze variabelen.

718
00:39:22,719 --> 00:39:24,979
Die hebben de meeste impact gehad.

719
00:39:25,479 --> 00:39:26,219
Op de voorspelling.

720
00:39:26,839 --> 00:39:29,019
Dat je een zeer ernstige nabloeding krijgt.

721
00:39:29,659 --> 00:39:30,899
En dan kan je dus als arts.

722
00:39:31,039 --> 00:39:31,559
Als patiënt.

723
00:39:31,759 --> 00:39:33,079
Kan je actie ondernemen.

724
00:39:34,059 --> 00:39:35,999
Vertalen we dit nu naar die taalmodellen.

725
00:39:38,599 --> 00:39:40,359
Daar ben ik ook heel vaak onderzoek.

726
00:39:40,419 --> 00:39:41,259
En dat soort dingen aan het lezen.

727
00:39:41,339 --> 00:39:43,578
Er bestaat eigenlijk nog niet een uitlegbaarheid.

728
00:39:44,299 --> 00:39:47,059
over hoe zij tot een resultaat komen.

729
00:39:49,339 --> 00:39:50,799
Je hebt de chain of thought.

730
00:39:52,539 --> 00:39:55,099
Dat je aan de taalmodel vraagt.

731
00:39:55,799 --> 00:39:57,119
Doe nou eens een denkstappen.

732
00:39:58,599 --> 00:40:00,099
Werkt dit uit een denkstappen?

733
00:40:00,579 --> 00:40:03,199
Maar die antwoorden die je dan krijgt, die stappen,

734
00:40:03,679 --> 00:40:06,539
wil niet zeggen dat hij die intern ook al zodanig uitvoert.

735
00:40:07,339 --> 00:40:10,059
Dus de uitlegbaarheid met grote taalmodellen

736
00:40:10,619 --> 00:40:12,839
is nog een behoorlijk onontgonnen gebied.

737
00:40:13,559 --> 00:40:15,259
Een heel eenvoudig voorbeeld voor mezelf.

738
00:40:15,679 --> 00:40:17,879
Ik heb een boek op mijn nachtkastje liggen waar ik nu mee bezig ben.

739
00:40:18,679 --> 00:40:20,239
De titel ontgaat me even.

740
00:40:20,439 --> 00:40:22,279
Het voorwoord is van Alexander Klubbing.

741
00:40:23,638 --> 00:40:25,259
Dan heb je het hele voorwoord gelezen.

742
00:40:25,999 --> 00:40:29,199
En dan zegt hij, het zal je niet verrassen, dit is door AI geschreven.

743
00:40:29,819 --> 00:40:31,099
Maar dan laat hij ook wel zijn prompt zien.

744
00:40:31,239 --> 00:40:32,399
En dat is ook al een A4'tje.

745
00:40:33,359 --> 00:40:35,579
Dat is er blijkbaar nodig om dat voorwoord eruit te halen.

746
00:40:36,259 --> 00:40:40,158
Maar in de eerste hoofdstukken laten ze ook dezelfde vraag stellen ze dezelfde tools

748
00:40:48,039 --> 00:40:50,079
En dan zie je ook al de verschillende antwoorden die eruit komen.

749
00:40:50,299 --> 00:40:52,759
Uit dezelfde vraag komen totaal verschillende antwoorden natuurlijk.

750
00:40:53,019 --> 00:40:55,139
Ja, en zo zit die technologieën in elkaar.

751
00:40:55,319 --> 00:41:00,939
Dus ook als je aan ChatGPT tien keer dezelfde vraag krijgt, krijg je tien keer een ander antwoord.

752
00:41:01,399 --> 00:41:06,719
Of je moet een guardrail, een vangrail moet je raken en dan krijg je altijd hetzelfde antwoord die zegt van,

753
00:41:07,019 --> 00:41:08,039
je mag geen antwoord op geven.

754
00:41:08,779 --> 00:41:13,379
Maar dat heeft te maken met dat er willekeurig is geïnjecteerd in het model.

755
00:41:14,559 --> 00:41:16,559
Anders krijgen we namelijk hele saaie teksten eruit.

756
00:41:16,719 --> 00:41:17,359
Ja, ja.

757
00:41:19,759 --> 00:41:21,799
We hebben nog een hoop te doen.

758
00:41:22,019 --> 00:41:22,319
Ja, zeker.

759
00:41:23,699 --> 00:41:28,639
Als je nou tips zou mogen meegeven aan CDO's.

760
00:41:29,139 --> 00:41:34,139
Wat zouden jouw belangrijkste tips zijn rondom het onderwerp van AI?

761
00:41:36,859 --> 00:41:41,479
Nou, kijk, ik zit natuurlijk niet op de inhoud als het gaat om de technologie van AI,

762
00:41:41,699 --> 00:41:43,619
maar wel op dat voorbereidende stuk.

763
00:41:43,719 --> 00:41:44,499
Ja, heel belangrijk.

764
00:41:47,459 --> 00:41:51,519
Ik zou zeggen, beste CDO, maar dat is ook mijn oproep aan de CEO en de CFO,

765
00:41:52,139 --> 00:41:58,919
zorg dat je aan tafel komt en dat je de regie neemt in dat speelveld van alle stakeholders.

766
00:41:59,879 --> 00:42:02,439
Dat is het allerbelangrijkste wat ze op dit moment kunnen doen.

767
00:42:02,559 --> 00:42:06,819
Dus niet alleen maar aan die datakant blijven zitten en bezig zijn met het ontwikkelen van producten

768
00:42:06,839 --> 00:42:08,819
proposities. Maar zorg dat je

769
00:42:08,849 --> 00:42:10,559
aan die tafel komt van de C-suite, want

770
00:42:10,659 --> 00:42:12,539
daar hoor je echt terecht.

771
00:42:13,479 --> 00:42:14,619
Aan die tafel. Ja, mooi.

772
00:42:17,179 --> 00:42:17,979
Is er een vraag

773
00:42:18,879 --> 00:42:20,679
die ik niet gesteld heb, die je wel had

774
00:42:20,779 --> 00:42:21,099
verwacht?

775
00:42:23,459 --> 00:42:24,059
Of gehoopt?

776
00:42:24,878 --> 00:42:26,159
Nee, eigenlijk niet.

777
00:42:26,409 --> 00:42:28,619
Want ik zei aan het begin, het is natuurlijk een beetje spannend als je

778
00:42:28,719 --> 00:42:30,499
komt met een propositie van value first,

779
00:42:30,679 --> 00:42:32,499
AI second, dat je met

780
00:42:32,719 --> 00:42:33,499
een AI

781
00:42:35,599 --> 00:42:36,419
kenner gaat praten.

782
00:42:37,579 --> 00:42:40,359
Dus nee, dat is eigenlijk niet voorbij gekomen voor mij.

783
00:42:41,299 --> 00:42:46,079
Eigenlijk wel jammer dat ik daar eigenlijk mee eens ben met het hele value first en AI second.

784
00:42:48,599 --> 00:42:53,819
Ik sluit namelijk de korte columns ook altijd af van AI is onmisbaar waar het past.

785
00:42:55,659 --> 00:42:57,159
Maar het moet wel passen.

786
00:42:57,249 --> 00:43:02,459
Dus het is niet een hamer voor iedere oplossing.

787
00:43:02,719 --> 00:43:03,399
Nee, dat klopt.

788
00:43:03,839 --> 00:43:05,419
Het begint inderdaad bij doelstellingen.

789
00:43:07,019 --> 00:43:08,639
soms helpt technologie erbij.

790
00:43:09,279 --> 00:43:12,259
En binnen die technologie helpt soms AI erbij.

791
00:43:13,219 --> 00:43:14,999
En waarbij we dan ook misschien moeten zeggen,

792
00:43:15,219 --> 00:43:16,079
want dat begonnen we in het begin ook,

793
00:43:16,899 --> 00:43:18,799
blijf ook wel vooral proberen natuurlijk.

794
00:43:19,199 --> 00:43:21,339
Dus het is niet zo dat je geen AI moet doen,

795
00:43:21,339 --> 00:43:22,119
want er is geen business case.

796
00:43:22,399 --> 00:43:25,239
Soms is het ook belangrijk om gewoon lekker te freewheelen

797
00:43:25,439 --> 00:43:26,939
en dat met de business te delen.

798
00:43:27,019 --> 00:43:29,619
Dit kan ook, dat moeten we niet vergeten.

799
00:43:29,719 --> 00:43:31,959
Nee, maar dan zou ik er wel aan willen toevoegen

800
00:43:32,339 --> 00:43:34,339
dat je dan ook leerdoelen eigenlijk neerzet.

801
00:43:34,579 --> 00:43:35,459
Want dat is dan je waarde.

802
00:43:35,719 --> 00:43:37,039
Dus dan is je waarde het leren.

803
00:43:37,719 --> 00:43:39,779
Dus dan ga je daar kijken van wat wil je leren.

804
00:43:40,339 --> 00:43:40,939
Tot welk niveau.

805
00:43:42,059 --> 00:43:43,459
En dan mik je dus ook op die leerdoelen.

806
00:43:44,118 --> 00:43:46,059
En dat is dan wat anders.

807
00:43:46,199 --> 00:43:48,339
Dan is dat je zegt van nu gaan we voor de business ontwikkelen.

808
00:43:48,539 --> 00:43:49,399
Ja, dat klopt.

809
00:43:49,899 --> 00:43:52,479
En dat zou je eventueel ook een waarde kunnen geven natuurlijk.

810
00:43:53,019 --> 00:43:54,039
In datzelfde stramien.

811
00:43:54,739 --> 00:43:55,019
Precies.

812
00:43:55,259 --> 00:43:56,379
Die boom van...

813
00:43:57,418 --> 00:43:58,499
Ik moet er nu eens aan denken.

814
00:43:58,619 --> 00:43:59,519
Die boom van waarde.

815
00:43:59,599 --> 00:44:00,979
Want daar hebben we het niet over gehad.

816
00:44:00,999 --> 00:44:02,619
De kostenkant kun je ook inzichtelijk maken.

817
00:44:03,059 --> 00:44:12,499
Als je weet welk dataproduct levert aan welke use cases, dan kan een bepaald dataproduct wel heel veel belangrijker zijn dan een ander dataproduct dat maar aan één use case levert.

818
00:44:13,979 --> 00:44:16,499
Maar dus value first, AI second.

819
00:44:17,239 --> 00:44:22,919
En wil je nog even aangeven wie er komt spreken op het outvie en wanneer het is?

820
00:44:23,219 --> 00:44:28,559
Het is 2 december in Utrecht. Ik ga er nu voor de derde keer naartoe.

821
00:44:28,709 --> 00:44:33,379
En ook bewust omdat het een heel goed inhoudelijk event is.

822
00:44:34,319 --> 00:44:38,479
Niet met honderd kraampjes van leveranciers, maar gewoon echt inhoud voor de CDO.

823
00:44:38,879 --> 00:44:42,859
Dus ben je CDO, head of data, head of governance, ga daar echt naartoe.

824
00:44:42,959 --> 00:44:44,619
Want al jouw peers zijn daar ook.

825
00:44:46,079 --> 00:44:49,039
Wij zijn daar samen met een van de vendoren die we vertegenwoordigen.

826
00:44:49,079 --> 00:44:49,919
Die heet Mindfuel.

827
00:44:50,449 --> 00:44:52,599
En hun CEO, Nadiem van Heidebrand.

828
00:44:52,979 --> 00:44:54,499
Die gaat daar spreken.

829
00:44:55,119 --> 00:44:58,239
En dat is echt een begeisterde kerel.

830
00:44:58,479 --> 00:44:59,139
Jonge vent.

831
00:44:59,319 --> 00:45:00,119
Heel veel energie.

832
00:45:00,619 --> 00:45:02,259
Pet je op, maar weet van de route aan de rand.

833
00:45:03,399 --> 00:45:04,239
Kijk, klinkt goed.

834
00:45:04,419 --> 00:45:04,979
Dankjewel Kees.

835
00:45:05,399 --> 00:45:05,719
Dankjewel.

836
00:45:08,139 --> 00:45:10,099
Leuk dat je weer luisterde naar deze aflevering.

837
00:45:10,179 --> 00:45:11,159
Vergeet je niet te favor...

838
00:45:11,519 --> 00:45:12,859
Zo, ik ga weer...

839
00:45:14,779 --> 00:45:17,599
Vergeet je niet te abonneren op je favoriete podcast app.

840
00:45:18,219 --> 00:45:20,719
En dan mis je geen aflevering. Tot de volgende keer hoor.