AIToday Live

S08E52 - Gartner AI-voorspellingen 2027: wat klopt er van?

Aigency by Info Support Season 8 Episode 52

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 18:44

Gartner spreekt met duizenden bedrijven wereldwijd en hun conclusie van de Data & Analytics Summit is direct: de meeste organisaties boeken productiviteitswinst met Artificial Intelligence, maar zien die winst niet terug op de balans. De gewonnen tijd verdwijnt in andere taken, tools stapelen zich op, en het fundament ontbreekt.

Joop en Niels werken vijf concrete voorspellingen uit, van FOBO (de angst overbodig te worden) tot de stelling dat AI zonder fundament alleen je onwetendheid versterkt.

Het patroon dat steeds terugkomt: wie nu stil doorwerkt, leert van tegenvallers en meet of zijn AI-gebruik écht iets oplevert, staat er in 2027 beter voor dan wie nu de meeste demo's geeft. Morgen kun je beginnen met één vraag: welke AI-toepassing die je nu gebruikt levert aantoonbaar resultaat op de balans?

Onderwerpen

  • Productiviteitswinst van AI die niet zichtbaar is op de balans
  • Het belang van een fundament onder AI-toepassingen in plaats van losse tools
  • FOBO (Fear Of Becoming Obsolete) als nieuwe werkangst
  • Aandacht als schaars goed versus oppervlakkige communicatie
  • De hype cycle van AI en waarom helden ontstaan in dieptepunten
Links

Genoemde entiteiten: Gartner - Will.i.am - Embert Tan - Copilot - LinkedIn

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:01,199 --> 00:00:05,440
Leuk dat je luistert naar deze korte aflevering van AIToday Live.

2
00:00:05,759 --> 00:00:14,960
We hebben in die zin een speciale aflevering van Niels en ik zijn afgereis naar Londen om het laatste nieuws over AI op te halen.

3
00:00:15,359 --> 00:00:18,160
We zijn live vanuit Londen.

4
00:00:18,799 --> 00:00:19,839
Live opgenomen dan.

5
00:00:19,920 --> 00:00:24,559
Dus we staan in een hele grote ruimte.

6
00:00:24,559 --> 00:00:26,400
Het is altijd van hoog klinken.

7
00:00:27,360 --> 00:00:28,719
Dat verklaar het toch.

8
00:00:28,719 --> 00:00:31,679
Maar we dacht het is wel heel erg leuk om een opname te maken.

9
00:00:31,679 --> 00:00:37,600
Want we zijn namelijk op de conferentie, Data Analytics, zo moeilijk uit te spreken.

10
00:00:38,879 --> 00:00:43,600
En Gartner is voor degene die dat nog niet kennen, is een analistenbureau.

11
00:00:43,600 --> 00:00:47,759
Dus die spreken met heel veel bedrijven over de hele wereld.

12
00:00:47,920 --> 00:00:50,880
Analyseren wat er allemaal gedaan wordt.

13
00:00:51,359 --> 00:00:54,320
Presenteren hier de uitkomsten.

14
00:00:54,560 --> 00:00:56,960
Het leuke is, zij doen ook voorspellingen.

15
00:00:57,920 --> 00:01:01,920
Die voorspellingen, die willen we eigenlijk vandaag even behandelen.

16
00:01:01,920 --> 00:01:04,399
En vooral eigenlijk wat we daar zelf van vinden.

17
00:01:04,719 --> 00:01:07,359
Dus laten we er gewoon lekker gelijk induiken.

18
00:01:07,519 --> 00:01:09,919
Laten we de eerste stelling is, laten we vooren brengen.

19
00:01:10,480 --> 00:01:14,000
En het is best wel een lange stelling, dus bear with me, zeggen ze dan.

20
00:01:14,000 --> 00:01:19,840
Het is triest dat we in een wereld gaan leven waarin machines zich beter kunnen uitdrukken dan mensen.

21
00:01:19,840 --> 00:01:26,799
Terwijl wij onze toevlucht hebben genomen tot korte tweets, emoties, memes en stickers om te communiceren.

22
00:01:27,120 --> 00:01:32,639
We zouden honderd keer meer moeten investeren in menselijke intelligentie.

23
00:01:32,639 --> 00:01:37,359
Ja, en het mooie is, we gaan straks onthullen van wie deze quote is.

24
00:01:37,360 --> 00:01:40,559
Want dat is best wel heel erg verrassend.

25
00:01:40,799 --> 00:01:44,159
Maar ja, ik denk dat 100% gelijk, toch?

26
00:01:45,760 --> 00:01:51,199
Zeker volgens met de WhatsApp en dat soort dingen, hoe kort.

27
00:01:51,439 --> 00:01:52,799
Kort snel.

28
00:01:52,799 --> 00:01:54,319
Niet meer diepgaand.

29
00:01:54,960 --> 00:02:01,839
We hebben denk ik ook wel eens gehad over dat je mails aan het dicteren bent die de AI dan groot maakt.

30
00:02:02,159 --> 00:02:08,960
En de andere die het weer ontvangt, naar drie actiepunten in plaats van die drie actiepunten te menen.

31
00:02:10,479 --> 00:02:12,479
Wat zouden we eraan moeten doen?

32
00:02:12,799 --> 00:02:13,920
Als het in jou ligt.

33
00:02:14,480 --> 00:02:16,639
Wat mij betreft, moeten we met elkaar in gesprek gaan.

34
00:02:16,639 --> 00:02:17,759
We hebben dadelijk meer tijd.

35
00:02:17,759 --> 00:02:23,039
Laten we die tijd verstandig inzetten en met elkaar het gesprek aangaan niet via mailtjes.

36
00:02:23,039 --> 00:02:27,120
Nee, gewoon letterlijk zoals wij nu staan, hier face-to-face het gesprek met elkaar aangaan.

37
00:02:27,120 --> 00:02:31,920
En 100 keer investeren in menselijke intelligentie.

38
00:02:32,959 --> 00:02:35,679
Blijf lezen, trainingen volgen.

39
00:02:35,680 --> 00:02:37,120
Trainingen volgen.

40
00:02:37,439 --> 00:02:38,960
Je aandacht spannen.

41
00:02:39,120 --> 00:02:40,159
Podcast luisteren.

42
00:02:40,879 --> 00:02:42,879
Podcast luisteren, zoals deze, inderdaad.

43
00:02:42,879 --> 00:02:49,599
Maar ook zorg dat je je aandacht wat langer kan vasthouden bij hetgene waar je mee bezig bent en dat trainen.

44
00:02:49,600 --> 00:02:50,560
Dat trainen van al.

45
00:02:50,799 --> 00:02:52,240
Oh, ja, want dat was ook nog een leuk.

46
00:02:52,240 --> 00:02:55,120
Want we hebben natuurlijk heel vaak gezegd.

47
00:02:55,599 --> 00:02:57,199
Knowledge is power.

48
00:02:57,199 --> 00:03:01,680
En hier werd het uiteindelijk attention is power.

49
00:03:02,399 --> 00:03:05,599
Aandacht is een heel groot goed.

50
00:03:06,560 --> 00:03:08,000
En van wie was nou de quote?

51
00:03:08,079 --> 00:03:10,159
Ja, het was wel leuk, inderdaad, bij de keynote.

52
00:03:10,159 --> 00:03:12,879
En iedereen zei van ja: wie heeft dit gezegd?

53
00:03:12,879 --> 00:03:14,319
will.i.am.

54
00:03:15,599 --> 00:03:19,200
Hoe leuk inderdaad, om die hier terug te zien komen.

55
00:03:20,000 --> 00:03:21,840
Laten we naar de volgende stelling gaan.

56
00:03:22,079 --> 00:03:26,400
Ja, wat nog mooi voorbij kwam, is, er kwam een nieuwe afkorting voor mij.

57
00:03:26,400 --> 00:03:29,280
Dat is niet FOMO.

58
00:03:29,520 --> 00:03:32,719
En dat stond dan voor FOBO.

59
00:03:33,039 --> 00:03:36,239
Spang bent dat je gewoon.

60
00:03:36,239 --> 00:03:37,439
Obsoleet raakt.

61
00:03:37,439 --> 00:03:38,480
Dus niet meer nodig bent.

62
00:03:38,719 --> 00:03:43,919
En dat is wel Talk of the Town, inderdaad, in de zin van organisatie, is mijn functie de dadelijk nog.

63
00:03:43,919 --> 00:03:45,360
Wat ga ik dan doen?

64
00:03:45,360 --> 00:03:47,840
Dus ik denk dat die heel erg actueel is.

65
00:03:48,079 --> 00:03:49,920
Ik krijg deze vraag ontzettend veel.

66
00:03:49,920 --> 00:03:56,479
Dus niet alleen in zakelijke settings, zelfs ook op verjaardagen feestjes en dat soort zaken.

67
00:03:56,719 --> 00:04:00,079
En dan wordt er ook nog wel gevraagd, laatst in de interview.

68
00:04:00,079 --> 00:04:05,120
Van welke banen staan nou het meest op de tocht.

69
00:04:06,320 --> 00:04:18,880
In eerste instantie proberen ik dan te denken van deze sector of deze sector, ik denk dat het veel meer gaat over ben je bereid om door te leren, ben je goed in je vak.

70
00:04:18,879 --> 00:04:23,039
Ik moet ook een beetje terugdenken aan het gesprek dat we met Embert Tan hadden.

71
00:04:23,039 --> 00:04:28,639
En dat hij zei: ik denk dat ik zo goed ben in mijn vak dat ik niet zomaar vervangen wordt.

72
00:04:28,639 --> 00:04:32,400
En dat heeft iets te maken met passie, met de wil om mee te bewegen.

73
00:04:32,399 --> 00:04:36,159
Het blijven leren, het investeren in jouw passie en jouw kennis.

74
00:04:36,159 --> 00:04:43,759
En als jij op die manier meegaat, dan staat in ieder geval niet jouw baan of het toch of.

75
00:04:44,240 --> 00:04:47,439
Dat is dan toch wel een of, of een maar.

76
00:04:47,439 --> 00:04:52,879
Als je in een sector zit die aan het verdwijnen is, je kan nog zo'n goede mijnwerker zijn in Limburg.

77
00:04:53,120 --> 00:04:55,599
Maar uiteindelijk ging je baan wel weg.

78
00:04:55,639 --> 00:05:03,320
Dus als je in een sector zit zo hard geraakt wordt dat de hele sector verdwijnt, dat is dan een ander verhaal.

79
00:05:03,720 --> 00:05:10,600
Maar in principe geloof ik echt in passie, doorleren, meebewegen in je vak.

80
00:05:11,079 --> 00:05:12,280
Dan komt het wel goed.

81
00:05:12,279 --> 00:05:23,880
Ja, en ik denk als je je daarop inzet, dat ook een heel ander vakgebied ook voor jou een plek heeft, omdat je weet een plek te creëren waar jij tot je recht komt en waar je je kennis in kwijt kan.

82
00:05:23,879 --> 00:05:25,480
En dat is misschien wat bijleren.

83
00:05:25,480 --> 00:05:28,600
Maar als je daar weer je passie kan vinden, dan is dat prima te doen.

84
00:05:28,600 --> 00:05:31,879
En we hadden de voorspelling in het begin van dit jaar natuurlijk.

85
00:05:32,040 --> 00:05:35,399
Welke rollen gingen er verdwijnen, toen zaten wij er toch ook twee jaar geleden of vorig jaar.

86
00:05:35,399 --> 00:05:37,640
Nee, het zat twee jaar tussen compleet naast.

87
00:05:37,639 --> 00:05:41,240
Dus het is ook niet te voorspellen, dus zorg gewoon dat je inderdaad bij blijft leren.

88
00:05:41,240 --> 00:05:43,640
En je houdt het houdt niet op met leren.

89
00:05:43,639 --> 00:05:47,160
En dat was eerst bij heel veel vakgebieden, vooral de technologie.

90
00:05:47,160 --> 00:05:49,560
Dat is daar voor elk vakgebied zit.

91
00:05:51,639 --> 00:05:54,279
Gaan we naar de volgende voorspelling.

92
00:05:54,600 --> 00:05:59,960
Wordt voorspeld dat tegen 2027, volgend jaar dus, best wel snel.

93
00:06:00,279 --> 00:06:14,920
Meer dan de helft van de Chief Data Analytics officers financiering zal weten te krijgen voor programma's op het gebied van data geletterdheid en AI-geletterdheid, omdat bedrijven er niet in slagen de verwachte waarde uit generatieve AI te realiseren, er zitten eigenlijk twee stukken.

94
00:06:15,240 --> 00:06:20,680
Dus dat er volgend jaar ook nog behoorlijk geïnvesteerd wordt in AI geletterdheid.

95
00:06:22,199 --> 00:06:23,639
Dat geloof ik, dat is iets.

96
00:06:23,800 --> 00:06:24,759
Dat is nodig.

97
00:06:25,879 --> 00:06:34,840
Ik denk dat het vooral goed is om te snappen dat geletterdheid is een status van dit moment.

98
00:06:35,319 --> 00:06:41,320
Je kan vandaag geletterd zijn op het stuk waar je ingezet bent met de applicaties die je gebruikt.

99
00:06:41,319 --> 00:06:45,240
En morgen, morgen is een beetje over volgend jaar.

100
00:06:45,319 --> 00:06:54,119
Dat je in de context waarin jij zit niet meer AI geletterd bent, de context wijzigt, de technologie wijzigt, de omgeving wij zijn.

101
00:06:54,360 --> 00:07:01,319
De species waarmee je waar je mee werkt, waar andere AI-componenten in zitten, veranderen.

102
00:07:01,399 --> 00:07:04,519
Dus dat deel geloof ik wel, dat vind ik niet zo spannend.

103
00:07:04,840 --> 00:07:11,079
Het tweede gedeelte is dus, omdat de bedrijven niet in slagen om de verwachte waarde van generatieve AI voor elkaar te krijgen.

104
00:07:11,240 --> 00:07:14,439
En daar hebben we natuurlijk best wel heel veel sessies over gezien.

105
00:07:14,439 --> 00:07:17,240
Over het verkrijgen van waarden.

106
00:07:18,120 --> 00:07:19,560
Dat geloof ik wel in.

107
00:07:19,720 --> 00:07:25,879
Dus een van de leuke dingen die je ook gezegd wordt, is dat er heel vaak gezegd wordt, tijd is geld.

108
00:07:25,879 --> 00:07:28,759
Dus we proberen op productiviteit in te zetten.

109
00:07:28,759 --> 00:07:34,920
Maar de productiviteitswinst die we boeken, die gaat dan op aan van alles en nog wat.

110
00:07:34,920 --> 00:07:37,879
Dus die zie je uiteindelijk niet terug in de boeken.

111
00:07:37,879 --> 00:07:39,959
In de boeken op je balans.

112
00:07:40,279 --> 00:07:44,119
En het wordt pas interessant als je het op je balans terugvindt.

113
00:07:44,120 --> 00:07:52,600
Dus als jij Copilot noem ik maar even die adopties allemaal top adopties doet.

114
00:07:52,920 --> 00:08:02,600
Dat ga je niet terugzien in je balans als je het niet toekent de gewonnen tijd aan iets wat bijdraagt uiteindelijk aan je winst en verliesrrekening.

115
00:08:02,759 --> 00:08:06,199
Dus wat doe jij met de tijd die je vrij krijgt eruit?

116
00:08:06,200 --> 00:08:13,319
Maar dat is even jou, wat doe jij met de tijd die vrijkomt als je iets voor jezelf makkelijker gemaakt hebt, zodat je er minder tijd voor nodig hebt.

117
00:08:13,960 --> 00:08:16,280
Ja, op dit moment doe ik vooral meer.

118
00:08:16,840 --> 00:08:25,639
De vraag is inderdaad, zeg maar, hoeveel daarvan wordt omgezet naar winst, die echt op de balans komt.

119
00:08:25,960 --> 00:08:27,000
Daar ga ik over nadenken.

120
00:08:27,399 --> 00:08:31,080
Op dit moment vind ik dat nog een beetje te moeilijk om het antwoord op te geven.

121
00:08:31,399 --> 00:08:35,319
Maar dat is wel wat in deze stelling denk ik heel goed naar voren komt.

122
00:08:35,319 --> 00:08:36,360
Zeker.

123
00:08:39,639 --> 00:08:41,080
Het gaat over fundament.

124
00:08:42,200 --> 00:08:46,920
Zonder een stevig fundament is AI slechts een versterkte onwetendheid.

125
00:08:47,559 --> 00:08:52,840
Stem uw fundamentele initiatieven af op uw ambitieniveau op het gebied van AI.

126
00:08:52,839 --> 00:09:01,799
Maak van governance een waarde vermeerderaar, verbindt stroomlijnen en integreer, creëer een uniforme context laag.

127
00:09:04,120 --> 00:09:05,399
Laten we even afpellen.

128
00:09:05,720 --> 00:09:07,879
Laten we gewoon het begin even doen.

129
00:09:07,879 --> 00:09:10,120
Want de rest is mambo jambo.

130
00:09:10,599 --> 00:09:15,639
Zonder een stevig fundament, is AI slechts een versterking van onwaar.

131
00:09:17,399 --> 00:09:20,280
Dan kan ik me wel wat in vinden en de fundament.

132
00:09:20,599 --> 00:09:23,320
Dat is dan de vraag van wat is dan je fundament.

133
00:09:24,920 --> 00:09:30,919
Dus dat betekent dat je, nou, we hebben het net al gehad over je geletterdheid, maar dat is maar een stukje van je fundament.

134
00:09:31,079 --> 00:09:36,840
Dat betekent ook dat je wil dat je moet weten wat je wil gaan bereiken.

135
00:09:36,840 --> 00:09:37,879
Je doel moet je helpen.

136
00:09:37,879 --> 00:09:45,519
Want anders ben je een richting op aan het gaan waarvan je niet weet of dat je dan heel hard vooruit om daarna weer terug te rennen.

137
00:09:47,440 --> 00:09:53,680
Als het gaat over fundament en dat je ook laten we ook een ding.

138
00:09:54,240 --> 00:10:02,719
Dus dat je budgetten hebt, dat je geld hebt en dan niet alleen voor de innovatie, dat als er wat uitkomt, dat je dat dus ook.

139
00:10:05,919 --> 00:10:10,879
En daar dus inderdaad, winst op lever kosten verlaagt.

140
00:10:11,440 --> 00:10:13,919
Dat zie ik best wel in veel organisaties.

141
00:10:14,240 --> 00:10:19,440
Dat de innovatie wel geregeld is, maar stap naar productie.

142
00:10:19,519 --> 00:10:23,519
En als het in productie is dat je het ook onderhouden.

143
00:10:23,759 --> 00:10:30,640
Het is niet dat de AI op magische wijze zichzelf onderhoudt, dat wordt vaak vergeten.

144
00:10:30,960 --> 00:10:38,479
Als dat soort dingen bij het fundament horen en je hebt dat niet op orde, dan is AI slechts een versterkte onwetendheid.

145
00:10:39,519 --> 00:10:48,960
Toch zien we in de praktijk nog heel vaak dat innovatie of data of AI echt een project is, in plaats van een way of working voor de toekomst.

146
00:10:49,200 --> 00:10:51,679
Dat je dat echt in je bedrijfsprocessen integreert.

147
00:10:52,080 --> 00:10:54,080
Het moet standaard worden, eigenlijk.

148
00:10:54,240 --> 00:10:58,000
Klinkt zij standaard, maar standaard in dit deze context is heel goed.

149
00:10:58,000 --> 00:11:01,600
En context, ik weet niet hoe vaak ik de term context gehoord heb.

150
00:11:01,600 --> 00:11:05,759
Context is king, context is critical, noemen we het allemaal op.

151
00:11:06,080 --> 00:11:09,520
Zorg dat je dus helder hebt in wat voor proces zitten we.

152
00:11:09,519 --> 00:11:12,479
Wat zijn de key stakeholders, wat is de omgeving.

153
00:11:12,480 --> 00:11:18,960
Wat voor effect heeft het op je proces eigenlijk goed schetsen en daarmee aan de slag gaan.

154
00:11:19,120 --> 00:11:22,639
En wat ook mooi bijkomend voordeel is, ik weet de aantallen niet meer.

155
00:11:22,639 --> 00:11:28,879
Die staan nog op de slides, die krijgen misschien nog een ander keertje: is dat als jij context goed meegeeft aan je AI.

156
00:11:28,879 --> 00:11:37,039
Dan was het factor vier zo minder tokens nodig om het juiste antwoord in dezelfde kwaliteit terug te leveren.

157
00:11:37,039 --> 00:11:41,200
Dus context is niet alleen king, het zorgt ook voor minder kosten die je maken.

158
00:11:42,080 --> 00:11:44,320
Minder mambo jumbo.

159
00:11:46,080 --> 00:11:48,800
Doem er eentje voor 2029.

160
00:11:49,519 --> 00:12:02,000
Tegen die tijd zal 80% van de bedrijven met een volwassen automatisering aanpak overstappen op een geconsolideerd platform, dat bedrijfsprocessen en agent gebaseerde automatisering coördineert.

161
00:12:04,480 --> 00:12:07,600
2029, dus drie jaar drie jaar.

162
00:12:08,399 --> 00:12:09,920
Ik heb hier mijn twijfels bij.

163
00:12:10,159 --> 00:12:19,039
En dat komt omdat de technologie is nu zo nog in beweging, ik moet eigenlijk een stapje terug.

164
00:12:19,039 --> 00:12:27,680
Een platform betekent namelijk dat je zaken zodanig gestandaardiseerd hebt, dat je dat in een platform kan vatten.

165
00:12:28,559 --> 00:12:34,080
Dat je op basis van dat platform nieuwe applicaties maakt.

166
00:12:35,039 --> 00:12:40,799
De technologie is zo hard die onderstroom zo groot.

167
00:12:40,799 --> 00:12:47,440
En ik verwacht eigenlijk niet dat we in 2029 dat helemaal uitgekristalliseerd hebben.

168
00:12:47,759 --> 00:13:00,320
Dus als je nu een platform voor een platform kiest, moet je ervan uitgaan dat die er over een half jaar anders uitzien, dat hij er over een jaar anders uitzien, dat je over anderhalf jaar anders uitzien.

169
00:13:00,319 --> 00:13:08,159
Dat betekent dus ook dat alles wat je daarboven opbouwt, dat dat in dezelfde snelheid mee moet gaan.

170
00:13:10,319 --> 00:13:15,600
Wij zelf hebben natuurlijk ook heel erg gekeken van.

171
00:13:16,879 --> 00:13:19,040
Wij geloven er nog niet in.

172
00:13:19,600 --> 00:13:29,280
Dus dan geloven er eerder in van dat je zelf nu die kennis op doet, dat je daarvan leert, dat je ook weet wat je eigenlijk straks zou willen van zo'n platform.

173
00:13:29,840 --> 00:13:38,559
En dat je het zodanig je applicaties opzet, dat je mee kan bewegen, met hoe de technologie zich ontwikkelt.

174
00:13:38,559 --> 00:13:41,360
Ja, en vooral de bedrijfsprocessen.

175
00:13:41,360 --> 00:13:55,600
Ik denk dat we nog te veel te leren hebben, en dat de organisaties die al wat langer meegaan, om het maar even zo te noemen, nog zoveel te doen hebben om naar die situatie toe te gaan, dat 2029 te dichtbij is om volledig over te zijn.

176
00:13:55,599 --> 00:13:58,720
Dan we de sprankjes van gaan zien, geloof ik 100%.

177
00:13:58,879 --> 00:14:02,800
En dat er nu zijn er ook al gewoon heel veel aanbieders die zeggen van we hebben het.

178
00:14:08,879 --> 00:14:11,760
Zodat we erop terugkomen, vraag ik even naar mijn agent.

179
00:14:16,240 --> 00:14:17,960
Eens even kijken.

180
00:14:18,600 --> 00:14:22,319
Helden ontstaan niet op het hoogtepunt van een hype.

181
00:14:22,319 --> 00:14:26,639
Helden ontstaan in de dieptepunten, die vond ik wel erg mooi.

182
00:14:26,639 --> 00:14:28,399
Hoe kwam je bij jou binnen?

183
00:14:28,399 --> 00:14:30,360
Ja, ik vond hem ook heel erg mooi.

184
00:14:29,920 --> 00:14:34,199
En dan komt natuurlijk, we zitten nu nog volledig bovenop de hype.

185
00:14:35,399 --> 00:14:39,240
Mens die het misschien niet kennen, dus Gartner heeft een soort van hype cycle.

186
00:14:39,639 --> 00:14:47,879
En dat betekent dat technologieën, dat mensen er eerst heel erg veel beloofd en zien verwachten.

187
00:14:48,039 --> 00:14:52,039
Heel veel verwachten onrealistisch, hoog die verwachtingen.

188
00:14:52,039 --> 00:14:56,039
En op een gegeven moment dan daalt zeg maar de werkelijkheid in.

189
00:14:58,120 --> 00:15:00,120
Hij keer het gevoel van oh, is dit het.

190
00:15:00,360 --> 00:15:04,680
En dan krijg je het toch van desie dat dan.

191
00:15:05,480 --> 00:15:09,240
Waardoor je waarna je groeit naar een volwassen.

192
00:15:10,759 --> 00:15:22,200
Dus we zitten nog boven op die hype cycle en inderdaad is zo makkelijk om in de hype om daar te laten zien wat je allemaal kan en demo's en allemaal dat soort dingen.

193
00:15:22,200 --> 00:15:25,799
Als dat zeg maar is dan dat je dan de hero bent, als het recht.

194
00:15:26,440 --> 00:15:32,280
Als je werkelijk bezig bent met deze technologie, dan zul je ook gewoon tegen teleurstellingen aanlopen.

195
00:15:32,279 --> 00:15:33,159
Het is niet anders.

196
00:15:33,159 --> 00:15:36,360
En dan is het de vraag: wie komt er dan overheen?

197
00:15:36,600 --> 00:15:38,439
Welke acties onderneem je?

198
00:15:38,440 --> 00:15:47,560
Waar durf je ook een stapje terug te doen, waar durf je juist verder verder te gaan, verder te kijken, waar durf je processen te veranderen.

199
00:15:49,320 --> 00:15:51,800
Daar vind ik deze quote echt heel goed voor.

200
00:15:52,759 --> 00:15:58,279
Daar vind je de helder en dat zijn waarschijnlijk ook mensen die iets minder vocaal zijn.

201
00:15:58,919 --> 00:16:04,040
En die moeten aan het woord, inderdaad, en die moeten een podium ook kunnen krijgen om daarvan te leren.

202
00:16:04,039 --> 00:16:09,879
En dus ook een keuze maken om het niet met AI of met een LLM op te gaan lossen, omdat het niet past.

203
00:16:10,039 --> 00:16:12,200
Ben jij nou zo'n silent hero.

204
00:16:12,680 --> 00:16:15,159
Ik denk niet dat ik wordt geclassificeerd als silent.

205
00:16:15,720 --> 00:16:17,240
Ik wil het even aan de luisteraar.

206
00:16:17,319 --> 00:16:25,959
Dus als je zelfs luisteraar vindt van is eigenlijk een silent hero, neem dan even contact met ons op, vinden we het ontzettend leuk om jou een podium te geven, ook in onze podcast.

207
00:16:25,960 --> 00:16:27,000
Zeker.

208
00:16:27,639 --> 00:16:31,159
Iets langere short wordt dit, maar het is ook een speciale deze ook.

209
00:16:31,159 --> 00:16:33,879
Dus laten we er nog eentje doen om mee af te sluiten.

210
00:16:34,120 --> 00:16:40,120
En deze was wel een hele interessante AI-agents zijn geen teamgenoten.

211
00:16:40,120 --> 00:16:44,920
Maar ze beloven een nieuwe relatie tussen mens en machine.

212
00:16:46,840 --> 00:17:04,439
Ja, ik ben net zeg maar een beetje overgestapt, dat ik daarna moet gaan kijken als wel een soort van dat helpt bij het definiëren van die agents, wat mogen ze wel wat mogelijk zien.

213
00:17:04,759 --> 00:17:09,559
Maar ik ben het wel mee eens van de nieuwe relatie tussen mensen en machine.

214
00:17:09,960 --> 00:17:22,279
Dus het is niet meer dat we een systeem hebben, dat een taak uitvoert op het moment dat wij zeggen dat het moet gebeuren op een deterministische manier.

215
00:17:22,440 --> 00:17:31,399
Dus wij moeten leren omgaan dat het systeem fouten kan maken, dat je dat het systeem dingen aan jou vraagt in plaats van andersom.

216
00:17:31,720 --> 00:17:35,319
Dus die samenwerking gaat zeker inderdaad anders worden.

217
00:17:35,559 --> 00:17:41,480
En we hadden eind van de dag twee haddden een hele mooie closing keynote over verschillende generaties.

218
00:17:41,799 --> 00:17:57,480
En ik denk inderdaad, met de generatie die nu opgroeit met LLM's, AI agents en dat soort zaken, dat daar een hele andere werk en ook privéverhouding zal zijn met hoe we dit gebruiken, deze technologie, en dat het misschien niet eens voelt als een machine, maar als een onderdeel van wat er gewoon is.

219
00:17:57,799 --> 00:17:59,799
Dus ik zie daar echt gewoon een grote verandering.

220
00:17:59,799 --> 00:18:01,799
Ik weet niet waar we heen gaan, ik ben erg benieuwd.

221
00:18:01,799 --> 00:18:03,399
Ik ben heel nieuwsgierig.

222
00:18:04,039 --> 00:18:06,359
Maar ik volg het graag.

223
00:18:06,759 --> 00:18:25,640
Dit waren de voorspellingen, we hebben ook nog sessies gehad met allerlei dieptezaken, maar dat is te lastig om dat in een korte aflevering, om dat allemaal te vertellen, maar we vonden het leuk om eens vooruit te kijken, en een aantal van de quotes die zij hier dropten, om die met jullie te bespreken.

224
00:18:25,960 --> 00:18:32,279
En zoals iedere week AI is niet de oplossing van elk probleem, maar onmisbaar waar het past.

225
00:18:32,279 --> 00:18:35,879
Vergeet je niet te abonneren via je favoriete podcast-app.

226
00:18:35,880 --> 00:18:38,039
Dat ondersteunt ons enorm.

227
00:18:38,360 --> 00:18:40,519
Tot de volgende week.