AIToday Live

S05E79 - Kunstmatige intelligentie in 2024: 12 voorspellingen!

Aigency by Info Support Season 5 Episode 81

In deze aflevering van AIToday Live gaan Joop Snijder en Niels Naglé in gesprek over actuele ontwikkelingen in de wereld van kunstmatige intelligentie. Van de nieuwste generatieve AI-technologieën tot verwachtingen rondom de EU AI-act worden onderwerpen kritisch tegen het licht gehouden.

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:07,000
Hoi, leuk dat je luistert naar een nieuwe aflevering van de AIToday Live.

2
00:00:07,000 --> 00:00:11,000
En wat is er nou zo leuk aan deze tijd van het jaar?

3
00:00:11,000 --> 00:00:14,000
We zitten nog net niet zeg maar onder een boom en dat soort dingen,

4
00:00:14,000 --> 00:00:17,000
maar dit is de tijd van vooruitkijken en dat gaan we doen.

5
00:00:17,000 --> 00:00:19,000
Mijn naam is Joop Snijder, CTO bij Aigency.

6
00:00:19,000 --> 00:00:23,000
Mijn naam Niels Naglé, chapter lead data AI bij Info Support.

7
00:00:23,000 --> 00:00:26,000
En Niels, het jaar zit er bijna op.

8
00:00:26,000 --> 00:00:32,000
Je bent wel een vlogel maar wel ontzettend veel opnames gemaakt,

9
00:00:32,000 --> 00:00:36,000
je hebt ontzettend veel leuke gasten, je hebt zelf heel veel geleerd.

10
00:00:36,000 --> 00:00:41,000
En ja, dat wordt een beetje een langzaam traditie, vooruitkijken.

11
00:00:41,000 --> 00:00:46,000
Dus wat gaat er gebeuren op het gebied van AI in 2024?

12
00:00:46,000 --> 00:00:53,000
Wat ik wel zo moet zeggen, als je kijkt, heel even terugkijken, niet te lang,

13
00:00:53,000 --> 00:00:59,000
want het is volgens mij namelijk een tijdperk aangebroken in 2023,

14
00:00:59,000 --> 00:01:04,000
wat wij eigenlijk zeggen is begonnen in 30 november 2022,

15
00:01:04,000 --> 00:01:06,000
bij het uitkomen van ChatGPT.

16
00:01:06,000 --> 00:01:09,000
Wat een bizar jaar is dit geworden.

17
00:01:09,000 --> 00:01:15,000
In het begin hadden we het stroomgeheel, nu hoor je iedereen erover.

18
00:01:15,000 --> 00:01:17,000
Het is overal.

19
00:01:17,000 --> 00:01:20,000
Je kan geen radio zenden, je kan geen tv-toegang meer kijken,

20
00:01:20,000 --> 00:01:22,000
of er wordt in orde geschoven.

21
00:01:22,000 --> 00:01:25,000
Dus dat betekent interessante tijden.

22
00:01:25,000 --> 00:01:29,000
En als er interessante tijden zijn, gebeurt er veel.

23
00:01:29,000 --> 00:01:33,000
En als er veel gebeurt, dan kunnen we ook een beetje vooruitkijken,

24
00:01:33,000 --> 00:01:37,000
blijven we diezelfde golf over ons heen krijgen,

25
00:01:37,000 --> 00:01:41,000
gaarder, net zo hard, net zo snel als afgelopen jaar.

26
00:01:41,000 --> 00:01:43,000
Wat denk jij?

27
00:01:43,000 --> 00:01:47,000
Ik denk dat de golf nog wel even doorziet.

28
00:01:47,000 --> 00:01:52,000
Ik denk dat we nog een heel eind over gaan hebben.

29
00:01:52,000 --> 00:01:56,000
In de hoeveelheid die we nu hebben, of misschien zelfs als het kan, nog wel wat meer.

30
00:01:56,000 --> 00:01:59,000
Ik ben bang ook in eerste instantie van wel,

31
00:01:59,000 --> 00:02:03,000
want wat we natuurlijk nog gaan krijgen is de custom GPT-store.

32
00:02:03,000 --> 00:02:07,000
Dat is niet eens een voorspelling, die gaat er gewoon komen 2024.

33
00:02:07,000 --> 00:02:13,000
Dat wordt ook een verdienmodel voor de OpenAI en voor de makers van de custom GPT-store.

34
00:02:13,000 --> 00:02:19,000
Dat gaat zich ermee tegen dat je die in de store kan plaatsen, net als een soort van gezamenlijke app.

35
00:02:19,000 --> 00:02:22,000
Daar kan je geld voor afvragen, voor de toegang.

36
00:02:22,000 --> 00:02:25,000
Dan zul je waarschijnlijk de afdracht moeten gaan doen om OpenAI,

37
00:02:25,000 --> 00:02:27,000
want zij hebben natuurlijk ook wat ze allemaal aan het doen zijn,

38
00:02:27,000 --> 00:02:29,000
om dat terug op te kopen.

39
00:02:29,000 --> 00:02:31,000
Daar gaan we nu mee.

40
00:02:31,000 --> 00:02:37,000
En dan gaan we ook een enorme golf krijgen van, in zin of onzin, wildgroei.

41
00:02:37,000 --> 00:02:42,000
Het is al gespoed moeten worden in de toekomst, maar er gaat eerst heel veel wild groen vlak zijn.

42
00:02:42,000 --> 00:02:49,000
Ik ben bang dat het wildgroei eruit gaat zien als de Google Play Store in het begin.

43
00:02:49,000 --> 00:02:54,000
Dat je echt heel goed moet gaan opletten waar je moet worden opgelicht.

44
00:02:54,000 --> 00:03:01,000
Ik denk dat er een aantal mensen miljonair gaan worden over de ruggen van...

45
00:03:01,000 --> 00:03:03,000
Hoe moet ik het zeggen?

46
00:03:03,000 --> 00:03:07,000
Als je even niet goed oplet, laat ik het zo zeggen.

47
00:03:07,000 --> 00:03:12,000
Als je even... - Je het gemak wil gebruiken en de goede punten ervan wil gebruiken.

48
00:03:12,000 --> 00:03:14,000
Efficiëntie of gemak.

49
00:03:14,000 --> 00:03:16,000
Maar net even niet opletten inderdaad.

50
00:03:16,000 --> 00:03:20,000
Dat is misschien ook gelijk de eerste voorspelling die je daar hebt gemaakt.

51
00:03:20,000 --> 00:03:24,000
Er gaan meerdere miljonairs uit voortkomen uit dit soort oplossingen.

52
00:03:24,000 --> 00:03:29,000
En waar de mensen winst maken, zijn er ook mensen die hun verlies pakken.

53
00:03:29,000 --> 00:03:34,000
Wat ik ook denk wat er gaat gebeuren,

54
00:03:34,000 --> 00:03:38,000
is dat we nu natuurlijk heel erg te maken hebben dat...

55
00:03:38,000 --> 00:03:43,000
de JGPT en de onderliggende modellen, de large language models,

56
00:03:43,000 --> 00:03:45,000
moeite hebben met feiten.

57
00:03:45,000 --> 00:03:48,000
En je kan nu al...

58
00:03:48,000 --> 00:03:54,000
Nou ja, als je vraagt om een samenvatting van een website,

59
00:03:54,000 --> 00:03:56,000
krijg je al iets als een bronvermelding.

60
00:03:56,000 --> 00:04:02,000
Dat die zegt van deze stukjes zinnen komen hier uit deze website.

61
00:04:02,000 --> 00:04:06,000
En daar gaan we denk ik in de aankomende jaar sprongen in maken.

62
00:04:06,000 --> 00:04:11,000
Want veel mensen die snappen natuurlijk dat die feitelijkheid mist.

63
00:04:11,000 --> 00:04:14,000
Dat heb je wel nodig om het goed te gebruiken.

64
00:04:14,000 --> 00:04:19,000
Dus ik denk dat daar veel onderzoek naar gaat gebeuren.

65
00:04:19,000 --> 00:04:22,000
Maar ook dat we dat ook direct terugzien in het product.

66
00:04:22,000 --> 00:04:25,000
Ja, ik denk dat we nu de eerste sprankeltjes ervan gaan zien.

67
00:04:25,000 --> 00:04:28,000
Maar echt gaan effectueren in 2024.

68
00:04:28,000 --> 00:04:33,000
En ik denk dat het ook nodig is om echt te gaan naar het stukje meer vertrouwen.

69
00:04:33,000 --> 00:04:37,000
Kunnen herhalen van wat heeft er plaatsgevonden.

70
00:04:37,000 --> 00:04:41,000
Dat je je factchecks kan gaan doen op basis van wat je is teruggegeven.

71
00:04:41,000 --> 00:04:42,000
Ja.

72
00:04:42,000 --> 00:04:45,000
En waar ik zelf een beetje...

73
00:04:45,000 --> 00:04:49,000
Ja, bang is het niet, want ik zit niet te rillen of zo.

74
00:04:49,000 --> 00:04:53,000
Maar wat ik denk dat er gebeurt, is dat de...

75
00:04:53,000 --> 00:04:58,000
vloedgolf van large language models, generatieve AI en dat soort dingen...

76
00:04:58,000 --> 00:05:01,000
ons een beetje verblinden, laat ik het zo zeggen.

77
00:05:01,000 --> 00:05:06,000
Dat het gaat verblinden rondom alle andere technologieën rondom AI.

78
00:05:06,000 --> 00:05:10,000
Dus eigenlijk de traditionele machine learning, dat dat vergeten wordt.

79
00:05:10,000 --> 00:05:16,000
Dat we nu een zo'n glimmend stukje gereedschap hebben.

80
00:05:16,000 --> 00:05:21,000
Dat we als kraaien zo blind zijn voor dat glimmende stukje.

81
00:05:21,000 --> 00:05:24,000
Dat we even vergeten dat er andere gereedschappen zijn...

82
00:05:24,000 --> 00:05:28,000
die in heel veel gevallen beter, makkelijker, simpeler...

83
00:05:28,000 --> 00:05:29,000
Transparanter.

84
00:05:29,000 --> 00:05:31,000
Transparanter, precies.

85
00:05:31,000 --> 00:05:35,000
Dat we even de use cases en de technologie...

86
00:05:35,000 --> 00:05:37,000
dat we die even uit beeld raken.

87
00:05:37,000 --> 00:05:40,000
Dat we vergeten dat er soms veel makkelijkere manieren zijn...

88
00:05:40,000 --> 00:05:44,000
om iets ook op te lossen dan met de GPT.

89
00:05:44,000 --> 00:05:48,000
Dus dan zullen we meer gehamerd zien met AI.

90
00:05:48,000 --> 00:05:50,000
Terwijl we beter even kunnen gaan schroeven...

91
00:05:50,000 --> 00:05:52,000
met machine learning of andere oplossingen.

92
00:05:52,000 --> 00:05:54,000
Ja, dus met large language models.

93
00:05:54,000 --> 00:05:57,000
Large language models ten opzichte van de machine learning.

94
00:05:57,000 --> 00:06:01,000
Ik ben bang dat we ons daar...

95
00:06:01,000 --> 00:06:05,000
Nou, we, maar iedereen die hiermee bezig is...

96
00:06:05,000 --> 00:06:07,000
dat daar ook blind gestaard wordt.

97
00:06:07,000 --> 00:06:09,000
Ja, maar dat is ook logisch, denk ik.

98
00:06:09,000 --> 00:06:11,000
Maar goed, we gaan wel terugkijken of dat ook logisch is.

99
00:06:11,000 --> 00:06:13,000
Dan gaan we onze voorspellingen kijken.

100
00:06:13,000 --> 00:06:15,000
Maar er gaan ook meer mensen gebruik van maken.

101
00:06:15,000 --> 00:06:19,000
Ja, en daardoor wordt die markt nog groter.

102
00:06:19,000 --> 00:06:22,000
En wat we gaan zien is dat er een race gaat komen...

103
00:06:22,000 --> 00:06:24,000
tussen de verschillende aanbieders.

104
00:06:24,000 --> 00:06:26,000
Dus we hebben natuurlijk heel veel over ChatGPT.

105
00:06:26,000 --> 00:06:29,000
Het is een beetje zoals in Amerika hebben ze het over...

106
00:06:29,000 --> 00:06:32,000
als je aan het fotokopiëren bent, hebben ze het over Xeroxing.

107
00:06:32,000 --> 00:06:36,000
Dus het merk is uiteindelijk de taak geworden.

108
00:06:36,000 --> 00:06:39,000
Dus het wordt wel, zeg maar...

109
00:06:39,000 --> 00:06:42,000
De vraag is of we gaan barden of gaan...

110
00:06:42,000 --> 00:06:43,000
ChatGPT'en.

111
00:06:43,000 --> 00:06:45,000
Of we gaan kloten.

112
00:06:45,000 --> 00:06:47,000
GELACH

113
00:06:47,000 --> 00:06:51,000
Ik voel al aangekomen dat we een andere naam nodig hebben.

114
00:06:51,000 --> 00:06:55,000
Maar wat we daar wel gaan zien is een race om...

115
00:06:55,000 --> 00:06:58,000
Nieuwe versies, verbeteringen, features.

116
00:06:58,000 --> 00:07:00,000
Ja, echt een red race.

117
00:07:00,000 --> 00:07:02,000
Daar geloof ik absoluut in.

118
00:07:02,000 --> 00:07:06,000
En in eerste instantie gaat dat zijn in grootte...

119
00:07:06,000 --> 00:07:08,000
van de context van de modellen.

120
00:07:08,000 --> 00:07:11,000
Dus hoeveel kan die onthouden van jouw prompt...

121
00:07:11,000 --> 00:07:13,000
en van jouw hele dialoog.

122
00:07:13,000 --> 00:07:15,000
Dat noemen ze dan de context.

123
00:07:15,000 --> 00:07:19,000
En Entropic was de eerste die hem bijvoorbeeld...

124
00:07:19,000 --> 00:07:23,000
naar 100.000 tokens optrok.

125
00:07:23,000 --> 00:07:26,000
Dus dat betekende dat je echt onwaarschijnlijk veel pagina's...

126
00:07:26,000 --> 00:07:29,000
kon geven en dat hij ook nog antwoord kon geven.

127
00:07:29,000 --> 00:07:32,000
Toen kwam ChatGPT er overheen.

128
00:07:32,000 --> 00:07:33,000
Die matchte dat.

129
00:07:33,000 --> 00:07:35,000
Entropic zit nu op 200.000.

130
00:07:35,000 --> 00:07:37,000
En ik denk dat we gaan naar...

131
00:07:37,000 --> 00:07:39,000
Pak een beet, 400.000.

132
00:07:39,000 --> 00:07:40,000
Meer.

133
00:07:40,000 --> 00:07:41,000
Dat soort zaken.

134
00:07:41,000 --> 00:07:43,000
Waarbij ik me afvraag of het niet de...

135
00:07:43,000 --> 00:07:47,000
pixels race is van de digitale camera's.

136
00:07:47,000 --> 00:07:50,000
Of meer uiteindelijk ook beter blijkt te zijn.

137
00:07:50,000 --> 00:07:53,000
En of we er ook daadwerkelijk wat aan hebben.

138
00:07:53,000 --> 00:07:55,000
Of dat het vooral fijn is dat je denkt...

139
00:07:55,000 --> 00:07:57,000
ja, we hebben meer.

140
00:07:57,000 --> 00:07:58,000
Meer is beter.

141
00:07:58,000 --> 00:08:01,000
Andere features.

142
00:08:01,000 --> 00:08:04,000
Wat we gaan krijgen is...

143
00:08:04,000 --> 00:08:08,000
dat er meerdere modellen aan elkaar geknoopt worden.

144
00:08:08,000 --> 00:08:12,000
Dus we zien nu al dat je images kan maken.

145
00:08:12,000 --> 00:08:13,000
In Chat-GPT.

146
00:08:13,000 --> 00:08:16,000
Dat je aan plaatjes dingen kan vragen.

147
00:08:16,000 --> 00:08:19,000
We gaan denk ik ook video's krijgen.

148
00:08:19,000 --> 00:08:20,000
Stability AI.

149
00:08:20,000 --> 00:08:22,000
Dat AI is daar al mee bezig.

150
00:08:22,000 --> 00:08:25,000
Om met prompt video's te maken.

151
00:08:25,000 --> 00:08:27,000
Misschien krijgen we zo direct ook...

152
00:08:27,000 --> 00:08:29,000
dat je muziek kan maken in Chat-GPT.

153
00:08:29,000 --> 00:08:31,000
Je kan al prompt omzetten naar muziek.

154
00:08:31,000 --> 00:08:33,000
Ik denk dat er meer bij elkaar gaat komen.

155
00:08:33,000 --> 00:08:36,000
Zoals dat je video's...

156
00:08:36,000 --> 00:08:39,000
Dat eigenlijk de contentvarianten...

157
00:08:39,000 --> 00:08:41,000
flexibeler mee om kunnen gaan...

158
00:08:41,000 --> 00:08:44,000
dan alleen maar met de chat en met tekstuele vorm.

159
00:08:44,000 --> 00:08:47,000
Dat volgend jaar veel meer stroom gaat krijgen.

160
00:08:47,000 --> 00:08:55,000
Waar ik dan vooral naar zit te kijken...

161
00:08:55,000 --> 00:08:58,000
is dat ik denk dat ze veel meer gaan kijken...

162
00:08:58,000 --> 00:09:00,000
ook naar stem.

163
00:09:00,000 --> 00:09:02,000
Dus het gebruik van stemmen.

164
00:09:02,000 --> 00:09:05,000
Dus onze stemmen, maar ook het praten ergens tegen.

165
00:09:05,000 --> 00:09:06,000
Antwoord krijgen.

166
00:09:06,000 --> 00:09:08,000
Makkelijke opdrachten kunnen geven.

167
00:09:08,000 --> 00:09:10,000
Daar uitvoering aan geven.

168
00:09:10,000 --> 00:09:13,000
Dus dat de interface weer gaat naar...

169
00:09:13,000 --> 00:09:16,000
wat de belofte was van Siri...

170
00:09:16,000 --> 00:09:18,000
of de belofte was van je Google Assistant.

171
00:09:18,000 --> 00:09:21,000
Dat die slimmer worden, beter worden.

172
00:09:21,000 --> 00:09:23,000
Ja, zou ik ook heel blij worden...

173
00:09:23,000 --> 00:09:25,000
als dat volgend jaar geplaatst vindt.

174
00:09:25,000 --> 00:09:27,000
Dat je iets minder ook in commando's...

175
00:09:27,000 --> 00:09:29,000
daartegen hoeft te praten.

176
00:09:29,000 --> 00:09:31,000
Dat ik in mijn Android-auto...

177
00:09:31,000 --> 00:09:33,000
mijn WhatsApp-berichtjes aan het versturen ben...

178
00:09:33,000 --> 00:09:35,000
en ik denk van nee, laat maar zitten.

179
00:09:35,000 --> 00:09:37,000
Ja, en de potentie is er...

180
00:09:37,000 --> 00:09:40,000
om dat in die zin gewoon heel veel beter te maken.

181
00:09:40,000 --> 00:09:42,000
Ja, dan pak ik gelijk even door...

182
00:09:42,000 --> 00:09:44,000
naar mijn voorspelling werken.

183
00:09:44,000 --> 00:09:46,000
Dat steeds meer van de copilots...

184
00:09:46,000 --> 00:09:49,000
en de ondersteuning in chat-based werken...

185
00:09:49,000 --> 00:09:51,000
naar augmented working gaan.

186
00:09:51,000 --> 00:09:54,000
Dus dat we eigenlijk verder ondersteund worden...

187
00:09:54,000 --> 00:09:56,000
in onze werkuitvoering.

188
00:09:56,000 --> 00:09:58,000
In plaats van dat we gaan vragen wat er moet gebeuren...

189
00:09:58,000 --> 00:10:00,000
maar dat er een soort van meegekeken wordt...

190
00:10:00,000 --> 00:10:03,000
voorstellen gedaan wordt zonder dat je het hoeft te vragen.

191
00:10:03,000 --> 00:10:05,000
Dus augmented colleagues.

192
00:10:05,000 --> 00:10:08,000
O, zo. Hoe noem je dat in het Nederlands? Toegevoegd.

193
00:10:08,000 --> 00:10:10,000
Ja, toegevoegde werkzaamheden inderdaad.

194
00:10:10,000 --> 00:10:12,000
Dat je daarin direct ondersteund wordt.

195
00:10:12,000 --> 00:10:15,000
Dat je een aanbeveling krijgt als je een mail aan het schrijven bent...

196
00:10:15,000 --> 00:10:18,000
van doe nog even dit, stuur dit mee...

197
00:10:18,000 --> 00:10:20,000
of zou je hier niet ook nog over schrijven.

198
00:10:20,000 --> 00:10:22,000
Ja, of je doelgroep is dit...

199
00:10:22,000 --> 00:10:25,000
maar als ik het zo zie zou je toch wel even hiernaar kunnen kijken.

200
00:10:25,000 --> 00:10:27,000
Dus dat je het niet meer hoeft te vragen...

201
00:10:27,000 --> 00:10:29,000
maar dat je eigenlijk ondersteund wordt.

202
00:10:29,000 --> 00:10:31,000
En daar kan je het mee eens of oneens zijn.

203
00:10:31,000 --> 00:10:33,000
Ondersteunend. - Ondersteunend zijn.

204
00:10:33,000 --> 00:10:37,000
Ja, augmented is ondersteunend. - Ja, ondersteunend van onze werkzaamheden.

205
00:10:37,000 --> 00:10:40,000
Dus in plaats van minder vragen, gewoon ondersteuning.

206
00:10:40,000 --> 00:10:42,000
Mooi.

207
00:10:42,000 --> 00:10:44,000
Wat we ook denk ik gaan krijgen is...

208
00:10:44,000 --> 00:10:48,000
want ik blijf toch nog eventjes in die generatieve AI...

209
00:10:48,000 --> 00:10:50,000
want dat spreekt denk ik de mensen het meest aan.

210
00:10:50,000 --> 00:10:52,000
Zo direct in 2024 ook.

211
00:10:52,000 --> 00:10:55,000
Dat we nog meer...

212
00:10:55,000 --> 00:11:00,000
nog meer druk krijgen op het hele verhaal...

213
00:11:00,000 --> 00:11:03,000
rondom Artificial General Intelligence.

214
00:11:03,000 --> 00:11:06,000
Dus nogmaals herhalen, dat is het moment...

215
00:11:06,000 --> 00:11:10,000
dat de machine ons als mens voorbijstreeft...

216
00:11:10,000 --> 00:11:12,000
en onze taken kan uitvoeren.

217
00:11:12,000 --> 00:11:15,000
Daar wil ik eigenlijk in die zin twee dingen over zeggen.

218
00:11:15,000 --> 00:11:18,000
Eén, wat me opvalt is dat OpenAI heeft...

219
00:11:18,000 --> 00:11:21,000
zeg maar zijn definitie van Artificial General Intelligence...

220
00:11:21,000 --> 00:11:23,000
al zo ver naar beneden geschroefd...

221
00:11:23,000 --> 00:11:25,000
dat het zo direct ook makkelijker is om te zeggen van...

222
00:11:25,000 --> 00:11:26,000
ja, dat hebben we.

223
00:11:26,000 --> 00:11:30,000
Als je zegt van, mijn zelfrijdende auto is zelfrijdend...

224
00:11:30,000 --> 00:11:32,000
als ik het stuur bedien of zo.

225
00:11:32,000 --> 00:11:36,000
Daar zitten ze een beetje op.

226
00:11:36,000 --> 00:11:39,000
Maar als we kijken naar echt Artificial General Intelligence...

227
00:11:39,000 --> 00:11:43,000
gaan we denk ik heel veel meer claims vooral krijgen.

228
00:11:43,000 --> 00:11:45,000
Dat we daar zijn, dat we daar bijna zijn.

229
00:11:45,000 --> 00:11:49,000
En allemaal dat soort, ik noem het toch echt wel grote onzin.

230
00:11:52,000 --> 00:11:57,000
Dat alles is nu nog gebaseerd op wiskundige formules...

231
00:11:57,000 --> 00:12:00,000
en die wiskundige gaat niet zelf denken.

232
00:12:00,000 --> 00:12:05,000
Ik hoop dat je ermee oneens bent, laat het ons weten.

233
00:12:05,000 --> 00:12:10,000
Maar ik durf met zeer hoge stelligheid te zeggen...

234
00:12:10,000 --> 00:12:13,000
in 2024 mensen, echt niet.

235
00:12:13,000 --> 00:12:15,000
No way, goussé.

236
00:12:15,000 --> 00:12:21,000
Maar je voorspelling is dus dat het wel geclaimed gaat worden.

237
00:12:21,000 --> 00:12:24,000
Die claims gaan ons om de oren worden geslagen...

238
00:12:24,000 --> 00:12:26,000
waar je niet goed van wordt.

239
00:12:26,000 --> 00:12:28,000
Dat is goed om te weten, want we gaan natuurlijk weer terugluisteren.

240
00:12:28,000 --> 00:12:29,000
Ja, aan onszelf.

241
00:12:29,000 --> 00:12:32,000
Dan kunnen we ook weer even zeggen wat we zelf over gezegd hebben.

242
00:12:32,000 --> 00:12:33,000
Heel goed.

243
00:12:33,000 --> 00:12:35,000
Ja, had jij nog...

244
00:12:35,000 --> 00:12:40,000
Ik denk dat we het ook verder gaan zien dan chat.

245
00:12:40,000 --> 00:12:42,000
Ik zei het net al even, een soort van ondersteunend werker.

246
00:12:42,000 --> 00:12:47,000
Maar ik denk dat we het ook steeds meer gaan zien met video en voice.

247
00:12:47,000 --> 00:12:51,000
Dus dat we het misschien wel op tv gaan zien in 2024.

248
00:12:51,000 --> 00:12:53,000
Net zoals in het buitenland ook al gebeurt.

249
00:12:53,000 --> 00:12:55,000
Dus nieuws dat wordt voorgelezen.

250
00:12:55,000 --> 00:12:57,000
Ik denk dat volgend jaar het jaar gaat zijn...

251
00:12:57,000 --> 00:13:00,000
dat de eerste paar programma's daadwerkelijk live gaan...

252
00:13:00,000 --> 00:13:05,000
met behulp van video, voice en ondersteuning vanuit AI.

253
00:13:05,000 --> 00:13:06,000
Ja.

254
00:13:06,000 --> 00:13:08,000
En duurzaamheid.

255
00:13:08,000 --> 00:13:12,000
Vorig jaar hebben we gezegd, duurzaamheid wordt het thema.

256
00:13:12,000 --> 00:13:14,000
Ja, we hebben het ook wel eens fout.

257
00:13:14,000 --> 00:13:18,000
Het is wel een thema, maar het is niet een heel groot thema geweest volgens mij.

258
00:13:18,000 --> 00:13:20,000
Gaat het aankomend jaar een thema worden?

259
00:13:20,000 --> 00:13:23,000
Gaat het gespreksonderwerp worden? Ja.

260
00:13:23,000 --> 00:13:24,000
Hoe groot?

261
00:13:24,000 --> 00:13:26,000
Er liggen twijfels.

262
00:13:26,000 --> 00:13:30,000
Ik denk dat er wel meer over gesproken gaat worden dan afgelopen jaar.

263
00:13:30,000 --> 00:13:33,000
Met name met de groei en toename van gebruik.

264
00:13:33,000 --> 00:13:36,000
Daar moeten we het wat mij betreft wel over gaan hebben.

265
00:13:36,000 --> 00:13:39,000
Maar of dat ook echt gaat gebeuren, daar heb ik echt wel harde hoofd in.

266
00:13:39,000 --> 00:13:44,000
Wat ik zie als ik kom waar praatjes gehouden worden,

267
00:13:44,000 --> 00:13:46,000
of op conferenties, seminars en zo,

268
00:13:46,000 --> 00:13:51,000
wordt er vooral gesproken over hoe AI kan bijdragen aan duurzaamheid.

269
00:13:51,000 --> 00:13:54,000
En wordt er ergens wel vermeld,

270
00:13:54,000 --> 00:13:58,000
dat kost eigenlijk best wel heel veel resources,

271
00:13:58,000 --> 00:14:02,000
wat we allemaal aan het verbranden zijn met alle prompts en alle dingen die we maken.

272
00:14:02,000 --> 00:14:07,000
Maar ik denk dat 2024, juist omdat we die golf over ons heen krijgen,

273
00:14:07,000 --> 00:14:10,000
dat we allemaal denken van ja, ik gebruik het, ik wil het.

274
00:14:10,000 --> 00:14:11,000
Zoveel waarde.

275
00:14:11,000 --> 00:14:13,000
Ik wil het, ik wil het, ik wil het.

276
00:14:13,000 --> 00:14:18,000
Dat er misschien, weet je, ergens is er een stemmetje in je achterhoofd

277
00:14:18,000 --> 00:14:21,000
die zegt van ja, ik weet dat het dat is,

278
00:14:21,000 --> 00:14:24,000
maar ik denk niet dat het een onderwerp gaat worden.

279
00:14:24,000 --> 00:14:28,000
Ik denk dat het daar nog te vroeg gaat zijn en dat we het eerst verder gaan gebruiken.

280
00:14:28,000 --> 00:14:31,000
Net zoals het licht aanzetten thuis op afstand,

281
00:14:31,000 --> 00:14:34,000
dat kost ook best wel wat energie en kwaliteit.

282
00:14:34,000 --> 00:14:35,000
Het is nu gemak.

283
00:14:35,000 --> 00:14:39,000
En ik denk dat op de duur, maar niet volgend jaar, daar wel meer naar gekeken gaat worden.

284
00:14:39,000 --> 00:14:44,000
Zeker. Maar nu is het nog vooral, zeg maar, worden alle positieve kanten uitgelicht

285
00:14:44,000 --> 00:14:48,000
van hij gaat bijdragen aan duurzaamheid, maar voorlopig zitten we nog zeg maar in de min.

286
00:14:48,000 --> 00:14:49,000
Ja. Ja.

287
00:14:49,000 --> 00:14:52,000
We zitten aan de negatieve bijdrage.

288
00:14:52,000 --> 00:14:56,000
Die zal nog toenemen, die negatieve impact.

289
00:14:56,000 --> 00:14:58,000
Dat geloof ik ook. Zekers.

290
00:14:58,000 --> 00:15:02,000
Wat rondom privacy dan?

291
00:15:04,000 --> 00:15:09,000
Ja, ik denk dat dat, privacy is natuurlijk, wat staan we er allemaal onder?

292
00:15:09,000 --> 00:15:16,000
Ik denk dat het volgend jaar wel echt een onderwerp gaat worden.

293
00:15:16,000 --> 00:15:20,000
Net als, een Nederlands woord, legislation. Wetgeving.

294
00:15:20,000 --> 00:15:21,000
Wetgeving, ja.

295
00:15:21,000 --> 00:15:23,000
Heel gek, ik kwam er niet op.

296
00:15:23,000 --> 00:15:28,000
Ik denk dat het volgend jaar wel echt, met de wetgeving die ook nu uitgesteld is,

297
00:15:28,000 --> 00:15:32,000
waar we in gesprekken over hebben, ik denk dat volgend jaar ook wel de klap gaat vallen

298
00:15:32,000 --> 00:15:36,000
dat die rondkomt en dat privacy daar wel een heel belangrijk onderwerp zit.

299
00:15:36,000 --> 00:15:39,000
Ja, dan bedoel je de EU, de AI-act, die eraan komt.

300
00:15:39,000 --> 00:15:40,000
Ja.

301
00:15:40,000 --> 00:15:43,000
Je ziet natuurlijk nu dat er al best wel heel veel vragen worden gesteld

302
00:15:43,000 --> 00:15:47,000
rondom het gebruik van jouw data met JPT.

303
00:15:47,000 --> 00:15:51,000
Wordt die nou wel meegenomen om te trainen, niet meegenomen?

304
00:15:51,000 --> 00:15:56,000
De policies worden aangescherpt of duidelijker gemaakt van,

305
00:15:56,000 --> 00:15:58,000
ja, je data wordt inderdaad meegenomen.

306
00:15:58,000 --> 00:16:01,000
Dus ik geloof dat daar inderdaad veel meer aandacht voor komt.

307
00:16:01,000 --> 00:16:03,000
Ja, dat geloof ik ook.

308
00:16:03,000 --> 00:16:09,000
Zeker met de JPT's, die je ook zelf kan gebouwen, kan bijtrainen en dat soort zaken.

309
00:16:09,000 --> 00:16:10,000
Er worden ook andere data weer naartoe gevoegd.

310
00:16:10,000 --> 00:16:12,000
Ik denk dat dat echt wel een thema gaat worden,

311
00:16:12,000 --> 00:16:16,000
waardoor schade en schande wijzer gaan worden.

312
00:16:16,000 --> 00:16:21,000
Ja, en ik denk dat we het aankomende jaar best wel regelmatig zullen gaan hebben,

313
00:16:21,000 --> 00:16:26,000
misschien zelfs hier in de podcast, maar zeg maar in het algemeen over die EU-AI-act.

314
00:16:26,000 --> 00:16:28,000
Want die gaat je uiteindelijk raken.

315
00:16:28,000 --> 00:16:32,000
En zeker als je als organisatie bezig bent met het ontwikkelen van AI-systemen,

316
00:16:32,000 --> 00:16:34,000
moet je natuurlijk naar voren kijken.

317
00:16:34,000 --> 00:16:38,000
Dus ik neem aan dat als je nu bezig gaat met het maken van een systeem,

318
00:16:38,000 --> 00:16:42,000
dat je die over vijf jaar nog steeds wilt gebruiken.

319
00:16:42,000 --> 00:16:47,000
En misschien gaat het allemaal niet zo hard als dat we gehoopt hadden,

320
00:16:47,000 --> 00:16:49,000
maar over vijf jaar is die er.

321
00:16:49,000 --> 00:16:51,000
Dat durf ik wel te zeggen.

322
00:16:51,000 --> 00:16:56,000
En dan wil je er nu alvast over nadenken waar je dan aan moet voldoen,

323
00:16:56,000 --> 00:16:59,000
welke transparantie-eisen er zijn, welke privacy-regels er zijn,

324
00:16:59,000 --> 00:17:02,000
welke uitlegbaarheidseisen er zijn.

325
00:17:02,000 --> 00:17:06,000
Dus het is wel heel goed om je daar nu alvast in te verdiepen,

326
00:17:06,000 --> 00:17:12,000
om het behoud eigenlijk uiteindelijk van je investering.

327
00:17:12,000 --> 00:17:20,000
Dus dat is, ik denk dat dat in ieder geval een thema wordt,

328
00:17:20,000 --> 00:17:22,000
misschien niet, zeker niet maatschappelijk nog,

329
00:17:22,000 --> 00:17:24,000
maar wel binnen organisaties.

330
00:17:24,000 --> 00:17:30,000
Dus hoe zorgen we nou dat je robuust, langdurig gebruik kan blijven maken

331
00:17:30,000 --> 00:17:31,000
van die machine learning?

332
00:17:31,000 --> 00:17:36,000
Veel bedrijven hebben wat experimenten uitgevoerd,

333
00:17:36,000 --> 00:17:37,000
hebben dingen in productie,

334
00:17:37,000 --> 00:17:41,000
maar je gaat zien dat dat onderhoud nodig heeft,

335
00:17:41,000 --> 00:17:43,000
dat dat ook een likje verf nodig heeft,

336
00:17:43,000 --> 00:17:48,000
dat dat zo direct aan regulering onderhevig is.

337
00:17:48,000 --> 00:17:50,000
En als het niet aan regulering onderhevig wordt,

338
00:17:50,000 --> 00:17:54,000
dan zijn het wel de ethische vraagstukken waar meer vraag naar is.

339
00:17:54,000 --> 00:17:56,000
Gebruikersvragen die erbij komen.

340
00:17:56,000 --> 00:17:58,000
Het gaat hoe dan ook veranderen.

341
00:17:58,000 --> 00:18:00,000
We moeten bouwen op die verandering.

342
00:18:00,000 --> 00:18:01,000
Die verandering komt sowieso.

343
00:18:01,000 --> 00:18:05,000
Welke vorm, wetgeving of gebruikservaringen,

344
00:18:05,000 --> 00:18:08,000
of als organisatie er anders mee om willen gaan.

345
00:18:08,000 --> 00:18:10,000
Dus ik denk dat het wel het jaar wordt van,

346
00:18:10,000 --> 00:18:12,000
hoe gaan we robuuste oplossingen,

347
00:18:12,000 --> 00:18:14,000
die flexibel genoeg zijn voor de toekomst,

348
00:18:14,000 --> 00:18:17,000
echt gaan vormgeven en ontwikkelen.

349
00:18:17,000 --> 00:18:22,000
Ja, wat ik hoop, maar ik denk niet dat dat gaat gebeuren,

350
00:18:22,000 --> 00:18:26,000
is dat er veel meer taakintegratie gaat komen,

351
00:18:26,000 --> 00:18:30,000
tussen de, laten we zeggen, AI agents.

352
00:18:30,000 --> 00:18:33,000
Ik denk dat dat het allermoeilijkste deel is.

353
00:18:33,000 --> 00:18:35,000
Hoe praten systemen met elkaar?

354
00:18:35,000 --> 00:18:38,000
Op dit moment in de marketingwereld,

355
00:18:38,000 --> 00:18:40,000
en misschien daarbuiten ook wel,

356
00:18:40,000 --> 00:18:42,000
wordt heel veel Zapier gebruikt,

357
00:18:42,000 --> 00:18:45,000
waarbij, die hebben, weet ik veel,

358
00:18:45,000 --> 00:18:49,000
een paar duizend van die services, van die SaaS-services,

359
00:18:49,000 --> 00:18:50,000
kan je dan aan elkaar knopen.

360
00:18:50,000 --> 00:18:54,000
Als ik dit op LinkedIn, als er een berichtje op LinkedIn verschijnt,

361
00:18:54,000 --> 00:18:55,000
kan ik het in de Google Docs stoppen.

362
00:18:55,000 --> 00:18:58,000
En als het daar in de Google Docs staat, weet ik het,

363
00:18:58,000 --> 00:19:01,000
kan ik mezelf een mailtje sturen.

364
00:19:01,000 --> 00:19:05,000
Zo kan je allerlei van dit soort services, zeg maar, aan elkaar knopen.

365
00:19:05,000 --> 00:19:09,000
En dat kun je nu ook al automatiseren,

366
00:19:09,000 --> 00:19:11,000
voor een deel met ChatGPT.

367
00:19:11,000 --> 00:19:15,000
Er is een plugin voor, daar heb ik ook eventjes naar gekeken.

368
00:19:15,000 --> 00:19:19,000
Maar wat je daar vooral ziet, is dat je nog best wel heel technisch

369
00:19:19,000 --> 00:19:22,000
allerlei linkjes moet kopiëren, precies op de juiste plek.

370
00:19:22,000 --> 00:19:27,000
De juiste naamgeving moet dan aan de ene kant ook aan de andere kant zijn.

371
00:19:27,000 --> 00:19:29,000
En je kan je voorstellen, zeg maar,

372
00:19:29,000 --> 00:19:32,000
nou, als we het hebben over houtje touwtjes,

373
00:19:32,000 --> 00:19:35,000
dan is dit zeg maar de houtje touwtje oplossing.

374
00:19:35,000 --> 00:19:37,000
De touwtjes zullen heel snel breken.

375
00:19:37,000 --> 00:19:42,000
En jij past ergens in Zapier een woordje aan en hij doet het niet meer.

376
00:19:42,000 --> 00:19:46,000
En als jij heel veel van dat soort geautomatiseerde workflows hebt,

377
00:19:46,000 --> 00:19:48,000
want dan gaat het over geautomatiseerde workflows,

378
00:19:48,000 --> 00:19:51,000
en hij voert niet meer uit wat je dacht dat hij moest doen,

379
00:19:51,000 --> 00:19:54,000
heb je geen idee meer. - Waar gaat het stuk?

380
00:19:54,000 --> 00:19:57,000
Waar gaat het stuk? Dat is altijd de allergrootste vraag in automatiseringsland.

381
00:19:57,000 --> 00:20:01,000
Waar gaat iets stuk? - Welk bitje is omgevallen?

382
00:20:01,000 --> 00:20:03,000
Ja, toch? - Ja.

383
00:20:03,000 --> 00:20:10,000
Transparante AI is ook wel eentje waar jij druk mee bent.

384
00:20:10,000 --> 00:20:15,000
Als je kijkt naar dat onderwerp, wat gaat daar op 2024 veranderen?

385
00:20:15,000 --> 00:20:21,000
Veranderen? Ik ben bang dat er niet zo heel veel significant gaat veranderen.

386
00:20:21,000 --> 00:20:29,000
Ik kon zelf dit jaar niet mee naar de eerste explainable AI conferentie die gehouden is.

387
00:20:29,000 --> 00:20:34,000
Die is vanuit de wetenschappelijke wereld, vanuit de academie, georganiseerd.

388
00:20:34,000 --> 00:20:40,000
Maar een van mijn masterstudenten en een collega is mee geweest.

389
00:20:40,000 --> 00:20:46,000
Wat je daar vooral zag, is dat er heel veel aandacht was alleen op de techniek,

390
00:20:46,000 --> 00:20:49,000
die dan explainable AI heet.

391
00:20:49,000 --> 00:20:52,000
Dat betekent eigenlijk dat je eerst een blackbox traint,

392
00:20:52,000 --> 00:20:58,000
en dan een schilletje daar omheen maakt om ongeveer te kijken in die zwarte doos.

393
00:20:58,000 --> 00:21:01,000
Dus je begint eigenlijk, in mijn beleving, aan de verkeerde kant.

394
00:21:01,000 --> 00:21:06,000
Je zegt eerst van, ja, iets kan niet, en we proberen dat dan een beetje te verklaren.

395
00:21:06,000 --> 00:21:13,000
En er waren eigenlijk maar twee onderzoekers, waarvan dus één mijn studenten,

396
00:21:13,000 --> 00:21:16,000
en één andere, was ook trouwens een Nederlandse,

397
00:21:16,000 --> 00:21:20,000
die zich bezighielden met interpreteerbare AI.

398
00:21:20,000 --> 00:21:25,000
Dus waarbij je uitgaat van een model waar je daadwerkelijk in kan kijken.

399
00:21:25,000 --> 00:21:28,000
Waar je gewoon kan zien, zo redeneert hij.

400
00:21:28,000 --> 00:21:32,000
Hier zitten de fouten, hier zit een mogelijke bias.

401
00:21:32,000 --> 00:21:40,000
En omdat er heel snel gekozen wordt, omdat we heel snel moeten ontwikkelen,

402
00:21:40,000 --> 00:21:43,000
is natuurlijk de weg van de minste weerstand is snel bewandeld.

403
00:21:43,000 --> 00:21:49,000
En dan is in zekere zin die deep learning, de blackboxes die dat oplevert,

404
00:21:49,000 --> 00:21:56,000
is de snelste route naar een doel op de korte termijn.

405
00:21:56,000 --> 00:22:02,000
En dus je hebt even een omweggetje nodig om hem interpreteerbaar te maken, beter.

406
00:22:02,000 --> 00:22:08,000
Maar op lange termijn, dit is eigenlijk het verhaal van de haas en de schildpad.

407
00:22:08,000 --> 00:22:13,000
Dus je denkt dat je supersnel bent, maar je bent de schildpad op de weg gezet.

408
00:22:13,000 --> 00:22:17,000
Nee, het was andersom toch? De schildpad was op een gegeven moment slimmer.

409
00:22:17,000 --> 00:22:23,000
Dus in het begin denk je dat je een haas hebt en die gaat heel snel.

410
00:22:23,000 --> 00:22:27,000
Maar die is ook heel snel, is die uitgerend, is die moe, is die klaar.

411
00:22:27,000 --> 00:22:32,000
En de andere kant van de interpreteerbare is de schildpad.

412
00:22:32,000 --> 00:22:37,000
Dus in het begin lijkt het alsof je wat langzamer gaat.

413
00:22:37,000 --> 00:22:40,000
En uiteindelijk is die steady, gaat die door.

414
00:22:40,000 --> 00:22:43,000
En heb je daar uiteindelijk zo ontzettend veel meer aan.

415
00:22:43,000 --> 00:22:49,000
Daar gaat in 2024 helaas niets aan veranderen.

416
00:22:49,000 --> 00:22:52,000
Maar als het aan mij ligt, wel.

417
00:22:52,000 --> 00:22:54,000
Ik hoop dus dat je fout zit, Joop.

418
00:22:54,000 --> 00:22:57,000
Ja, dat lijkt me een hele mooie afsluiting.

419
00:22:57,000 --> 00:22:59,000
Ik hoop ook dat ik heel erg fout zit.

420
00:22:59,000 --> 00:23:06,000
Dankjewel voor het luisteren naar de mooie verspreidingen van 2024.

421
00:23:06,000 --> 00:23:08,000
Tot…

422
00:23:08,000 --> 00:23:10,000
Nee, dit is niet de allerlaatste aflevering van het jaar.

423
00:23:10,000 --> 00:23:15,000
We weten nooit helemaal exact wanneer de uitzenddata is.

424
00:23:15,000 --> 00:23:20,000
Maar we hopen je in ieder geval in 2024 sowieso weer heel vaak te horen.

425
00:23:20,000 --> 00:23:23,000
Dankjewel voor al het luisteren.

426
00:23:23,000 --> 00:23:26,000
En nou ja, tot volgende keer.

427
00:23:26,000 --> 00:23:27,080
VROLIJKE MUZIEK.

428
00:23:27,080 --> 00:23:30,080
ja


People on this episode