AIToday Live

S06E47 - Vooroplopen met de laatste AI trends

June 10, 2024 Aigency by Info Support Season 6 Episode 47
S06E47 - Vooroplopen met de laatste AI trends
AIToday Live
More Info
AIToday Live
S06E47 - Vooroplopen met de laatste AI trends
Jun 10, 2024 Season 6 Episode 47
Aigency by Info Support

In deze aflevering van AIToday Live staat een bijzondere situatie centraal: Niels Naglé, normaal gesproken een van de hosts, neemt de rol van gast op zich om zijn ervaringen van een recent bezochte Gartner conferentie te delen. De focus ligt op de impact van generatieve AI en de toekomstige trends in kunstmatige intelligentie, zoals voorspeld door Gartner.

Luisteraars krijgen inzicht in hoe AI zonder data niet kan bestaan en de rol van AI in het omzetten van data naar waardevolle inzichten. Deze aflevering biedt een unieke kijk op de toekomst van AI en de operationele implicaties voor bedrijven.


LinksAigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

Show Notes Transcript

In deze aflevering van AIToday Live staat een bijzondere situatie centraal: Niels Naglé, normaal gesproken een van de hosts, neemt de rol van gast op zich om zijn ervaringen van een recent bezochte Gartner conferentie te delen. De focus ligt op de impact van generatieve AI en de toekomstige trends in kunstmatige intelligentie, zoals voorspeld door Gartner.

Luisteraars krijgen inzicht in hoe AI zonder data niet kan bestaan en de rol van AI in het omzetten van data naar waardevolle inzichten. Deze aflevering biedt een unieke kijk op de toekomst van AI en de operationele implicaties voor bedrijven.


LinksAigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,001 --> 00:00:07,440
Hey, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

2
00:00:00,001 --> 00:00:26,320
Heerlijk! Ja, leuk toch? Ja zeker!

3
00:00:07,440 --> 00:00:10,440
Met vandaag best wel een heel speciale gast.

4
00:00:10,440 --> 00:00:13,040
Hij zit al te lachen.

5
00:00:13,040 --> 00:00:16,880
Want Niels, onze eigen Niels, is eigenlijk gewoon te gast.

6
00:00:16,880 --> 00:00:17,880
Ja toch?

7
00:00:17,880 --> 00:00:20,840
Niels, jij bent naar een conferentie geweest.

8
00:00:20,840 --> 00:00:22,480
En daar gaan we het vandaag over hebben.

9
00:00:22,480 --> 00:00:27,960
Ik ben Joop Snijder, CTO bij Aigency.

10
00:00:26,320 --> 00:00:30,320
Mijn naam Niels Naglé, Area Lead, Data & AI bij Info Support.

11
00:00:27,960 --> 00:00:33,200
En Niels, we beginnen natuurlijk altijd bij de gast.

12
00:00:30,320 --> 00:00:39,320
Voor de luisteraars die me nog niet kennen, ik ben Niels Naglé, Area Lead, Data & AI bij

13
00:00:33,200 --> 00:00:35,000
Zou je je even willen voorstellen?

14
00:00:35,000 --> 00:00:51,200
Ja, maar misschien kan je toch nog heel even vertellen, weet je, wat doe je in dagelijks

15
00:00:39,320 --> 00:00:42,320
Info Support en te gast in de AIToday Live.

16
00:00:42,320 --> 00:00:45,320
Nou echt, als ik ergens al van droom dan is dat, joh.

17
00:00:45,320 --> 00:00:52,320
Ja, dagelijks werk.

18
00:00:51,200 --> 00:00:52,200
werk leven?

19
00:00:52,200 --> 00:00:59,200
Ja, precies.

20
00:00:52,320 --> 00:00:57,320
Ik ben Data Architect bij Info Support, dus dat betekent dat ik bij bedrijven advies geef

21
00:00:57,320 --> 00:01:02,320
over de datastrategie, dus hoe kunnen ze data omzetten naar waarde en hoe ga je daar ook

22
00:00:59,200 --> 00:01:24,080
En natuurlijk host ook van deze podcast, maar vandaag als gast.

23
00:01:02,320 --> 00:01:10,320
de cultuur van de organisatie mee nemen om beslissingen gemaakt op basis van data en onderbuikgevoel

24
00:01:10,320 --> 00:01:12,320
te maken binnen je organisatie.

25
00:01:12,320 --> 00:01:17,320
En ja, daar komt AI natuurlijk ook continu bij kijken en steeds meer, want ja, AI zonder

26
00:01:17,320 --> 00:01:19,320
data, dat kan niet hè?

27
00:01:19,320 --> 00:01:38,320
Ja, dus dit was ook één van de conferenties die Gartner heeft.

28
00:01:24,080 --> 00:01:27,720
En jij bent naar een conferentie van Gartner geweest.

29
00:01:27,720 --> 00:01:33,560
En ik denk niet dat iedere luisteraar weet wat Gartner als bedrijf is en wat zo'n conferentie

30
00:01:33,560 --> 00:01:34,560
eigenlijk inhoudt.

31
00:01:34,560 --> 00:01:58,080
Dus ik denk dat het een heel belangrijk onderwerp is om te onderzoeken.

32
00:01:38,320 --> 00:01:42,320
Dus Gartner is een organisatie die doet heel veel research en onderzoek naar wat is de

33
00:01:42,320 --> 00:01:45,320
technologie, maar wat zijn ook de ontwikkelingen in de markt.

34
00:01:45,320 --> 00:01:51,320
En die onderzoek is ook heel veel in de markt, dus dat is ook een van de dingen die we in

35
00:01:51,320 --> 00:01:52,320
de markt doen.

36
00:01:52,320 --> 00:01:55,320
En daarom is Gartner ook een van de onderzoekers die we in de markt doen.

37
00:01:55,320 --> 00:01:58,320
En dat is ook een van de dingen die we in de markt doen.

38
00:01:58,080 --> 00:02:13,360
Wat zij doen voornamelijk eigenlijk marktonderzoek.

39
00:02:10,320 --> 00:02:15,320
En dat is ook een van de dingen die we in de markt doen.

40
00:02:13,360 --> 00:02:17,920
Het is geen wetenschappelijk onderzoek, maar het is echt marktonderzoek.

41
00:02:15,320 --> 00:02:18,320
En dat is ook een van de dingen die we in de markt doen.

42
00:02:17,920 --> 00:02:25,640
Welke technologieën komen, hoe zitten ze, is het een hype of is het iets wat je op dit

43
00:02:25,640 --> 00:02:28,360
moment veel ziet toegepast worden?

44
00:02:28,360 --> 00:02:30,480
En daar geven ze heel veel advies over.

45
00:02:30,480 --> 00:02:45,600
Ja, en kijk, heel vaak hebben wij experts bij ons in de studio en die ondervragen we.

46
00:02:45,600 --> 00:02:49,600
En daar vragen we natuurlijk ook naar van wat doe je, wat gebruik je, dat soort zaken.

47
00:02:49,600 --> 00:02:54,280
En voor hun is dat eigenlijk hun dagelijkse werk dat zij met allerlei bedrijven, met

48
00:02:54,280 --> 00:02:58,120
mensen spreken en daar een soort van rode draad uit halen.

49
00:02:58,120 --> 00:03:05,120
Dat ze zeggen dit zijn onderwerpen die in de markt spelen, dit zijn problemen, of laten

50
00:03:05,120 --> 00:03:09,160
we het uitdagingen noemen waar partijen tegenaan lopen.

51
00:03:09,160 --> 00:03:12,560
En ze geven dan advies over hoe je daarmee om zou kunnen gaan.

52
00:03:12,560 --> 00:03:30,600
En jij bent naar deze conferentie gegaan.

53
00:03:30,600 --> 00:03:33,000
Had die conferentie een speciaal thema?

54
00:03:33,000 --> 00:03:56,960
Ja, dat was een keer een festival.

55
00:03:56,960 --> 00:04:05,280
Ja, een generatieve AI.

56
00:04:05,280 --> 00:04:19,440
En wat zeiden ze daar dan over?

57
00:04:19,440 --> 00:04:37,600
Dat ik met de databronnen die er zijn, mijn taal eigenlijk gewoon vragen ga stellen.

58
00:04:37,600 --> 00:04:55,240
Oh ja, dat klinkt op zich best wel goed.

59
00:04:55,240 --> 00:04:58,240
Ja?

60
00:04:58,240 --> 00:05:15,180
Dev assisters?

61
00:05:15,180 --> 00:05:22,180
Oh ja.

62
00:05:22,180 --> 00:05:37,660
En was er nog een andere rode draad dan die generatieve AI in de vraag stellen aan je

63
00:05:37,660 --> 00:05:38,660
data?

64
00:05:38,660 --> 00:05:45,660
Wat is dat?

65
00:05:45,660 --> 00:06:10,660
Dat is een soort van...

66
00:06:10,660 --> 00:06:17,660
Ik weet het niet.

67
00:06:17,660 --> 00:06:20,660
Ik weet het niet.

68
00:06:20,660 --> 00:06:23,660
Oh ja.

69
00:06:23,660 --> 00:06:34,660
Gaaf is ook een voorbeeld van wat voor keuzes je dan kan maken om het uiteindelijk de operationele

70
00:06:34,660 --> 00:06:35,660
kosten te verlagen.

71
00:06:35,660 --> 00:06:36,660
Ah oké.

72
00:06:36,660 --> 00:06:38,660
Ik dacht dat je het over OpenAI-modellen had.

73
00:06:38,660 --> 00:06:41,660
Dat het heel veel uitmaakt qua operationele kosten.

74
00:06:41,660 --> 00:06:51,260
Of je GPT 3.5 gebruikt of dat je de GPT 4 Turbo gebruikt of de nieuwste, de 4O.

75
00:06:51,260 --> 00:06:55,060
Daar zitten nogal factoren aan kostenverschil.

76
00:06:55,060 --> 00:07:12,060
Ja.

77
00:07:13,060 --> 00:07:27,060
Ja.

78
00:07:27,060 --> 00:07:47,060
Ja.

79
00:07:47,060 --> 00:08:02,060
Oh ja.

80
00:08:02,060 --> 00:08:15,060
Ik kan me er wat bij voorstellen.

81
00:08:15,060 --> 00:08:20,060
Want als je normaal gesproken standaard rapporten maakt, weet je wat de operationele kosten zijn

82
00:08:20,060 --> 00:08:21,060
voor het maken van dat rapport.

83
00:08:21,060 --> 00:08:24,060
Het zal niet zo heel hoog zijn.

84
00:08:24,060 --> 00:08:31,060
Maar omdat je nu dus vragen kan stellen, door kan vragen, stapelen eigenlijk die operationele

85
00:08:31,060 --> 00:08:37,060
kosten tot een plafond, als je die niet ingesteld hebt, misschien oneindig is.

86
00:08:37,060 --> 00:08:55,060
Ja.

87
00:08:55,060 --> 00:08:56,060
Oké.

88
00:08:56,060 --> 00:08:58,060
En dat noemen ze dan FinOps.

89
00:08:58,060 --> 00:09:17,060
Ja.

90
00:09:17,060 --> 00:09:24,060
Ja.

91
00:09:24,060 --> 00:09:25,060
Ja.

92
00:09:25,060 --> 00:09:26,060
Oké.

93
00:09:26,060 --> 00:09:27,060
Ja.

94
00:09:27,060 --> 00:09:28,060
Duidelijk.

95
00:09:28,060 --> 00:09:29,060
O-oh.

96
00:09:29,060 --> 00:09:30,060
Ja.

97
00:09:30,060 --> 00:09:54,060
Ja.

98
00:09:54,060 --> 00:10:14,060
Ja.

99
00:10:14,060 --> 00:10:35,060
O-oh.

100
00:10:35,060 --> 00:11:04,060
Ja.

101
00:11:04,060 --> 00:11:05,060
Ja.

102
00:11:05,060 --> 00:11:14,320
vervolgens mee. Hebben ze daar oplossingen, tips, advies voor gegeven van hoe je hier dan

103
00:11:14,320 --> 00:11:19,940
mee moet omgaan? En zat daar ook een deel bij van hoe AI daarbij zou kunnen helpen?

104
00:11:19,940 --> 00:11:49,500
Oh zo ja. Ja? Ja, oké duidelijk. Wij hebben natuurlijk heel veel gesprekken met gasten

105
00:11:49,500 --> 00:11:55,620
en we hebben zelf denk ik ook wel hier en daar wat ervaring over het gebied van AI. Was er iets

106
00:11:55,620 --> 00:12:02,820
wat je verraste tijdens de conferentie? Dat je dacht van, hé dat was echt wel heel nieuw voor mij.

107
00:12:02,820 --> 00:12:30,420
Zeker. Ja? Ja. En wat zijn nou typisch eigenlijk deelnemers van een conferentie zoals dit?

108
00:12:30,420 --> 00:12:58,180
Ja? Oh ja, ja zo is jij.

109
00:12:58,180 --> 00:13:28,140
Ja. Ja. Ja. En als je nou kijkt, want je hebt denk ik heel veel

110
00:13:28,140 --> 00:13:32,500
lezingen en presentaties daar gevolgd. Zou je er eentje kunnen uitpikken dat je zegt,

111
00:13:32,500 --> 00:13:48,180
want die vond ik eigenlijk wel heel erg waardevol? Ja? Ja?

112
00:13:48,180 --> 00:14:15,620
Oh nou, kom maar door. Misschien moet je even uitleggen wat een AI agent is.

113
00:14:15,620 --> 00:14:27,260
Ja? Oké, dat wil ik best even uitleggen. Een AI agent is eigenlijk een autonom stukje software

114
00:14:27,260 --> 00:14:35,260
waar AI in zit. Die een hele specifieke taak kan uitvoeren. En als je allerlei verschillende AI

115
00:14:35,260 --> 00:14:44,580
agents hebt, zou je die eventueel met elkaar kunnen samenwerken, waardoor je veel meer een

116
00:14:44,580 --> 00:14:53,060
taak in zich heel kan uitvoeren. Je zou een custom GPT van OpenAI, zou je als een agent

117
00:14:53,060 --> 00:15:17,340
kunnen benoemen. Een vorm daarvan. Ja.

118
00:15:17,340 --> 00:15:46,580
Je kan ook de analogie nemen met schrijven. Stel je wil,

119
00:15:46,580 --> 00:15:56,300
een gedegen stuk schrijven waarbij je zegt van, ik wil een deel onderzoek doen. Misschien

120
00:15:56,300 --> 00:16:01,860
marktonderzoek, misschien wat wetenschappelijk onderzoek. En die wil je uitbrengen dat je daar

121
00:16:01,860 --> 00:16:07,220
een publicatie van maakt. Dan heb je daar als het ware een aantal verschillende rollentaken.

122
00:16:07,220 --> 00:16:14,180
Dus je zegt van, ik heb een agent die heel goed is in het uitvoeren van het onderzoek. En die doet

123
00:16:14,180 --> 00:16:23,900
wat anders dan degene die de publicatie schrijft. Dus dan heb je een schrijversagent. Dan heb je

124
00:16:23,900 --> 00:16:32,660
bijvoorbeeld een editor. Editor is heel goed in structuur, spelling, grammatica, begrijpbaarheid,

125
00:16:32,660 --> 00:16:40,500
toetsen. En dan heb je misschien, geen idee wat er dan nog na kan, een designer, marketeer,

126
00:16:40,500 --> 00:16:46,460
die uiteindelijk zo'n publicatie dan ook onder de aandacht kan brengen. Dus je hebt het heel snel

127
00:16:46,460 --> 00:16:55,020
over delen van software die heel specifiek zijn gemaakt voor een taak die ze heel erg goed kunnen

128
00:16:55,020 --> 00:17:12,500
uitvoeren. Ja, zo zou je dat kunnen noemen. Ja. Ik weet niet of je je nog kan herinneren,

129
00:17:12,500 --> 00:17:18,780
we hebben het in een podcast, ik weet eigenlijk even niet welke aflevering dat was, ook gehad

130
00:17:18,780 --> 00:17:26,140
namelijk over zogenaamde small language models. Het is, JGPT is typisch een large language model.

131
00:17:26,140 --> 00:17:32,540
En dat is een model wat, nou ja, laten we even voor het gemak zeggen, antwoord kan geven op,

132
00:17:32,540 --> 00:17:42,860
nou heel veel. Laat ik het alles even achterwegen. Op heel veel. En wat je kan doen, is dat je small

133
00:17:42,860 --> 00:17:49,900
language models maakt die weer heel erg goed zijn in een bepaalde taak. En dat is wat je veel meer

134
00:17:49,900 --> 00:17:55,580
gaat zien. Dus dat je bijvoorbeeld ook kleinere taalmodellen gaat krijgen, die energiezuiniger

135
00:17:55,580 --> 00:18:00,420
zijn, die efficiënter zijn, die ook veel meer lokaal gedraaid kunnen worden. Dus die zouden

136
00:18:00,420 --> 00:18:08,300
eventueel zelfs op je mobiel kunnen draaien, die zouden op je laptop kunnen draaien. En dus het

137
00:18:08,300 --> 00:18:15,740
is een, laten we zeggen, decentralisatie van kennis en kunde in zo'n AI agent.

138
00:18:15,740 --> 00:18:36,700
Ja. Oh ja, en wat is een knowledge graph?

139
00:18:36,700 --> 00:18:37,700
grof?

140
00:18:37,700 --> 00:19:05,700
We hebben het al over de zomer, de zomer is al lang geleden.

141
00:19:05,700 --> 00:19:24,300
En eigenlijk zeg je in zo'n knowledge graph, wat je net als voorbeeld aangaf, is dat de

142
00:19:24,300 --> 00:19:33,900
verbinding tussen, wat jij net zegt, wij kennen elkaar, dat zit erin.

143
00:19:33,900 --> 00:19:38,660
En dat hoeft niet per se in stukken tekst aanwezig te zijn.

144
00:19:38,660 --> 00:19:46,220
Dus je legt verbindingen waardoor het taalmodel weer gebruik kan maken van die verbindingen.

145
00:19:46,220 --> 00:19:51,340
Dus je brengt structuur aan in wat eerst ongestructureerde tekst was.

146
00:19:51,340 --> 00:19:57,140
En die ga je weer gebruiken bij het taalmodel, zodat het taalmodel kan redeneren.

147
00:19:57,140 --> 00:20:04,580
Het zijn een soort van hops.

148
00:20:04,580 --> 00:20:10,860
Zo van, ik ken jou, jij kent iemand uit je familie.

149
00:20:10,860 --> 00:20:19,620
En zo kan hij doorredeneren van wat het zou betekenen met die tussenliggende relaties.

150
00:20:19,620 --> 00:20:47,460
Dus je kan het ook met een verbinding maken van dat.

151
00:20:47,460 --> 00:20:52,180
Ja.

152
00:20:52,180 --> 00:20:56,660
Ja.

153
00:20:56,660 --> 00:21:00,820
Ja.

154
00:21:00,820 --> 00:21:04,900
Ja.

155
00:21:04,900 --> 00:21:08,900
Ja.

156
00:21:12,900 --> 00:21:25,060
Dat is wel apart, want dan gebruik je dus eigenlijk weer de mens of is het dat je de

157
00:21:25,060 --> 00:21:30,980
visuele weergave weer aan de AI geeft als een soort van computer vision.

158
00:21:30,980 --> 00:21:31,980
Oké.

159
00:21:31,980 --> 00:21:32,980
Ja.

160
00:21:32,980 --> 00:21:33,980
Bijzonder.

161
00:21:33,980 --> 00:21:34,980
Ja.

162
00:21:36,980 --> 00:21:55,980
Nou ja, ik begrijp dat wel, want als je iets visueel hebt, kan je natuurlijk inderdaad

163
00:21:55,980 --> 00:21:57,780
heel makkelijk iets herkennen.

164
00:21:57,780 --> 00:22:01,860
Ik moet natuurlijk deze podcast ook regelmatig editen.

165
00:22:01,860 --> 00:22:07,900
En eigenlijk wordt door van die geluidsgolven gevisualiseerd, kan ik ook vaak zien van

166
00:22:07,900 --> 00:22:10,780
waar vallen stiltes.

167
00:22:10,780 --> 00:22:18,460
Maar zelfs het patroon tussen jou, mij of de gast kan ik makkelijk herkennen dat ik weet

168
00:22:18,460 --> 00:22:19,700
van hier kan ik knippen.

169
00:22:19,700 --> 00:22:23,060
We doen het niet zoveel hoor.

170
00:22:23,060 --> 00:22:29,140
Maar als het nodig is, dan heb je dat heel snel in de gaten, omdat je dat herkent.

171
00:22:29,140 --> 00:22:30,140
Ja.

172
00:22:31,140 --> 00:22:32,140
Oh jeetje.

173
00:22:32,140 --> 00:22:33,140
Ja.

174
00:22:36,140 --> 00:22:37,140
Oké, ja.

175
00:22:37,140 --> 00:22:38,140
Nou, ik denk dat ik daar wel een beetje langs moet gaan.

176
00:22:38,140 --> 00:22:39,140
Ik heb een beetje een verhaal.

177
00:22:39,140 --> 00:22:40,140
Ik ben naar het begin van de podcast geweest, en ik denk dat dit een beetje een verhaal

178
00:22:40,140 --> 00:22:41,140
is, maar ik denk dat het een beetje een verhaal is.

179
00:22:41,140 --> 00:22:42,140
Ik denk dat het een beetje een verhaal is.

180
00:22:49,140 --> 00:22:56,140
Ja.

181
00:23:03,140 --> 00:23:11,140
Ja.

182
00:23:11,140 --> 00:23:17,140
Ja.

183
00:25:11,140 --> 00:25:19,140
Ja.

184
00:25:35,140 --> 00:25:41,140
Ja.

185
00:26:29,140 --> 00:26:33,140
Ja.

186
00:26:37,140 --> 00:26:43,140
Ja.

187
00:26:49,140 --> 00:26:53,140
Ja.

188
00:27:17,140 --> 00:27:23,140
Ja.

189
00:27:23,140 --> 00:27:27,140
Ja.

190
00:28:07,140 --> 00:28:13,140
Ja.

191
00:28:13,140 --> 00:28:17,140
Ja.

192
00:29:09,320 --> 00:29:17,840
En de voorspelling bij 2030 dat de synthetische data vele malen groter is dan de echte data.

193
00:29:17,840 --> 00:29:20,920
Ja, dat is… ja.

194
00:29:20,920 --> 00:29:33,300
Nee, en die we nu dagelijks creëren neemt ook alleen maar toe.

195
00:29:33,300 --> 00:29:37,320
En toch zeggen ze bij 2030 wordt dat overschaduwd.

196
00:29:37,140 --> 00:29:43,140
Dus hebben we meer, zeg maar, door onszelf, zeg maar, als een soort van nep data.

197
00:29:37,320 --> 00:29:54,740
Ja, en wat het effect ervan gaat zijn, daar ben ik ook nog wel nieuwsgierig naar.

198
00:29:43,140 --> 00:29:45,140
Oké.

199
00:29:45,140 --> 00:29:47,140
Bijzonder.

200
00:29:47,140 --> 00:29:49,140
Die moet ik eerst zien, dan geloven.

201
00:29:49,140 --> 00:29:51,140
Eerlijk gezegd.

202
00:29:51,140 --> 00:29:53,140
Ja.

203
00:29:54,740 --> 00:29:58,700
Trend 3, AI engineering.

204
00:29:55,140 --> 00:29:59,140
Ja.

205
00:29:58,700 --> 00:30:05,120
En daar hebben we eigenlijk de DevOps van AI engineering die we daar steeds meer toegepast

206
00:30:05,120 --> 00:30:06,120
in worden.

207
00:30:06,120 --> 00:30:08,920
Dat is echt naar implementatie, naar productie.

208
00:30:08,920 --> 00:30:18,440
Ja, maar ook MLOps, eigenlijk die flow, die zit er ook weer in.

209
00:30:18,440 --> 00:30:23,560
Een paar voorbeelden die ze dan in hebben zitten is stukje AI monitoring, activation

210
00:30:23,560 --> 00:30:27,720
and deployment, integration and testing, dus het integreren en testen, eigenlijk de DevOps

211
00:30:27,720 --> 00:30:29,720
cycle voor AI.

212
00:30:29,720 --> 00:30:33,960
En daar weer allemaal ondersteunende activiteiten die ze erbij geplot hebben.

213
00:30:33,960 --> 00:30:40,800
Dus het is niet alleen om de technologie te gebruiken, maar ook om de technologie te gebruiken.

214
00:30:40,800 --> 00:30:44,440
En dat is ook een van de dingen die we in de DevOps cycle hebben.

215
00:30:44,440 --> 00:30:49,840
En dat is ook een van de dingen die we in de DevOps cycle hebben.

216
00:30:49,840 --> 00:30:55,440
En dat is ook een van de dingen die we in de DevOps cycle hebben.

217
00:30:55,440 --> 00:31:00,320
En dat is ook een van de dingen die we in de DevOps cycle hebben.

218
00:31:00,320 --> 00:31:05,480
En dat is ook een van de dingen die we in de DevOps cycle hebben.

219
00:31:03,140 --> 00:31:07,140
Oké.

220
00:31:05,480 --> 00:31:10,480
En dat is ook een van de dingen die we in de DevOps cycle hebben.

221
00:31:07,140 --> 00:31:11,140
Ja.

222
00:31:15,480 --> 00:31:21,480
En dat is ook een van de dingen die we in de DevOps cycle hebben.

223
00:31:21,480 --> 00:31:28,480
En dat is ook een van de dingen die we in de DevOps cycle hebben.

224
00:31:28,480 --> 00:31:41,480
[onverstaanbaar]

225
00:31:41,480 --> 00:31:43,480
Ja.

226
00:31:43,480 --> 00:32:01,480
[onverstaanbaar]

227
00:32:01,480 --> 00:32:06,480
Ja, en er zit ook nog een stukje cultuur aan binnen de organisatie, technisch en cultuur.

228
00:32:06,480 --> 00:32:12,480
Als we kijken naar data en datagedreven werken, zien we ook nog heel veel bedrijven en afdelingen die dat ook nog niet zijn.

229
00:32:12,480 --> 00:32:14,480
Dus dat is ook een stukje cultuur.

230
00:32:14,480 --> 00:32:16,480
En dat is ook een stukje cultuur.

231
00:32:16,480 --> 00:32:19,480
En dat is ook een stukje cultuur.

232
00:32:19,140 --> 00:32:21,140
Ja.

233
00:32:21,140 --> 00:32:23,140
Snap ik.

234
00:32:23,140 --> 00:32:27,140
Misschien kunnen we naar de laatste toe?

235
00:32:27,140 --> 00:32:31,140
Oké.

236
00:32:31,140 --> 00:32:35,140
Wat betekent dat?

237
00:32:35,140 --> 00:32:39,140
Ja.

238
00:35:07,140 --> 00:35:11,140
Mooi. Nou, dat lijken me vijf duidelijke trends.

239
00:35:11,140 --> 00:35:17,140
Dank je wel voor dit inzicht, Niels. Ik denk dat het een mooie samenvatting is voor wat je daar allemaal gezien hebt.

240
00:35:17,140 --> 00:35:25,140
Ik neem aan dat als mensen vragen hebben dat ze die via de socials kunnen stellen en dat jij die dan eventjes beantwoord.

241
00:35:25,140 --> 00:35:27,140
Hartstikke goed.

242
00:35:27,140 --> 00:35:37,140
Dank je wel weer voor het luisteren naar deze aflevering van de AIToday Live. Vergeet je niet te abonneren via je favoriete podcast app en mis geen aflevering.

243
00:35:37,140 --> 00:35:39,140
Tot de volgende keer.

244
00:35:39,140 --> 00:35:59,540
.