AIToday Live

S07E09 - Van verbod naar vertrouwen: Hoe de NS een eigen AI-platform bouwde

Aigency by Info Support Season 7 Episode 9

Edwin Wenink van de Nederlandse Spoorwegen vertelt over de toepassing van AI binnen het bedrijf. De NS ontwikkelde een intern AI-platform genaamd ChatNS om medewerkers te ondersteunen bij hun dagelijkse werkzaamheden. Het systeem wordt ingezet voor diverse toepassingen, zoals het helpen van monteurs en het verwerken van defectmeldingen.

Privacy en databescherming stonden vanaf het begin centraal bij de ontwikkeling van het platform. De NS koos voor een pragmatische aanpak en focuste op wat goed genoeg werkt voor de meeste toepassingen.

Onderwerpen

  • Ontwikkeling van het interne AI-platform ChatNS
  • Toepassing van AI in verschillende bedrijfsprocessen
  • Privacy en databescherming binnen AI-implementaties
  • Uitdagingen en leerpunten bij de implementatie van AI
  • Toekomstvisie op AI binnen de Nederlandse Spoorwegen
Links

Genoemde entiteiten: Nederlandse Spoorwegen - Edwin Wenink

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:06,640
In deze aflevering hoor je Edwin Wenink, data-expert bij de Nederlandse Spoorwegen, over het bouwen

2
00:00:06,640 --> 00:00:10,120
van een intern AI-platform dat medewerkers ondersteunt.

3
00:00:10,120 --> 00:00:17,760
Hij deelt hoe de NS al vroeg de potentie van large language models zag en vanuit cybersecurity-overwegingen

4
00:00:17,760 --> 00:00:19,600
juist een eigen oplossing ontwikkelde.

5
00:00:19,601 --> 00:00:20,600
[Muziek]

6
00:00:20,600 --> 00:00:21,600
[Muziek]

7
00:00:21,600 --> 00:00:22,600
[Muziek]

8
00:00:22,600 --> 00:00:23,600
Hoi

9
00:00:23,600 --> 00:00:24,600
Leuk dat je luistert naar

10
00:00:24,600 --> 00:00:25,600
een nieuwe aflevering van

11
00:00:25,600 --> 00:00:26,600
AIToday Live

12
00:00:26,600 --> 00:00:28,840
Rechtstreeks vanaf het podium. We zijn daadwerkelijk live.

13
00:00:28,840 --> 00:00:32,280
Misschien dat jullie even kunnen laten horen dat we ook daadwerkelijk live zijn.

14
00:00:32,280 --> 00:00:35,780
Kijk, kijk, kijk. Dankjewel, dankjewel.

15
00:00:35,780 --> 00:00:43,320
En vandaag behandelen we namelijk een bijzonder verhaal over het bouwen van een eigen AI platform moet ik zeggen bij de Nederlandse spoorwegen.

16
00:00:43,320 --> 00:00:49,760
Een verhaal dat laat zien hoe een Nederlandse organisatie al vroeg potentieel zag van large language models.

17
00:00:49,760 --> 00:00:56,160
Ja, onze gast is Edwin Wnink, data expert bij de NS met een fascinerende combinatie van expertise's.

18
00:00:56,560 --> 00:00:59,280
Hij studeerde zowel artificial intelligence als filosofie.

19
00:00:59,280 --> 00:01:03,620
Een combinatie die hem in staat stelt om technologie niet alleen te begrijpen, maar ook kritisch te beschouwen.

20
00:01:03,620 --> 00:01:05,140
Wat een mooie combinatie.

21
00:01:05,140 --> 00:01:11,600
De NS bouwt, samen met de NS bouwt hij zijn team aan een platform dat ontwikkelaars in staat stelt om met AI toepassingen te maken.

22
00:01:11,600 --> 00:01:16,200
Een platform dat meegroeit met snelle ontwikkelingen in het AI-landschap van het afgelopen jaar.

23
00:01:16,200 --> 00:01:19,340
We hebben 45 minuten, dus we gaan meteen beginnen.

24
00:01:19,340 --> 00:01:23,600
30 minuten inhoudelijk en dan hebben we nog een kwartiertje voor vragen uit het publiek.

25
00:01:23,600 --> 00:01:25,220
Dus Niels.

26
00:01:25,220 --> 00:01:26,260
Laten we beginnen.

27
00:01:26,520 --> 00:01:28,000
Nou ja, voor veel mensen, laten we daar beginnen.

28
00:01:28,000 --> 00:01:31,560
Voor veel mensen is AI nog steeds een beetje een mysterisch begrip.

29
00:01:31,560 --> 00:01:36,260
Hoe leg je aan familie, vrienden, thuis uit wat je doet bij de NS?

30
00:01:36,260 --> 00:01:37,740
Ja, hele goede vraag.

31
00:01:37,740 --> 00:01:44,700
Het eerste is, als je bij de NS werkt, dan moet je inderdaad op verjaardagen jezelf regelmatig verantwoorden.

32
00:01:45,240 --> 00:01:50,220
En dus een van de vragen die ik sindsdien niet meer krijg is, wat is AI nou eigenlijk?

33
00:01:50,220 --> 00:01:54,000
Want mensen vinden dat al prachtig en die menen vaak ook best wel goed te weten wat het is.

34
00:01:54,000 --> 00:01:57,340
Dus misschien ben je eerder dan aannames aan het bijstellen.

35
00:01:57,340 --> 00:02:06,940
Maar hoe ik het zelf vaak uitleg is, het zijn eigenlijk computers of systemen die doen, waarvan we bij mensen zeggen dat dat intelligent is.

36
00:02:07,720 --> 00:02:10,280
En dat is een hele pragmatische definitie.

37
00:02:10,280 --> 00:02:14,940
En wat ik daar het mooie van vind, is dat wij vinden nu schaakcomputers.

38
00:02:14,940 --> 00:02:18,520
Eigenlijk niemand denkt meer aan schaakcomputers als we het over AI hebben.

39
00:02:18,520 --> 00:02:23,980
Dus er zit een hele culturele component in van wat wij intelligent zijn gaan vinden in computers.

40
00:02:24,260 --> 00:02:26,220
En dat begrip groeit ook een beetje mee.

41
00:02:26,220 --> 00:02:33,540
Dus wat ik mooi vind aan die definitie, is dat die component, die veranderende component, ook een beetje vangt.

42
00:02:33,540 --> 00:02:38,160
Ja, en wat is dan het deel wat jij uitvoert bij de Nederlandse spoorwegen?

43
00:02:38,160 --> 00:02:39,940
Hoe leg je dat uit, zeg maar, aan je familie?

44
00:02:39,940 --> 00:02:47,900
Ja, dat verhaal begint eigenlijk, je kan natuurlijk het historisch aanpakken, helemaal, maar daar haken ze ook wel vaak af.

45
00:02:47,900 --> 00:02:49,300
Ja, het begint er wel ze niet.

46
00:02:50,820 --> 00:02:55,260
Dus het makkelijkste aanknopingspunt is natuurlijk wel gewoon ChatGPT.

47
00:02:55,260 --> 00:02:58,680
Bijna iedereen kent dat sinds, wat is het, twee jaar onderhand.

48
00:02:58,680 --> 00:03:01,300
Mijn vriendin noemt het Chatty G.

49
00:03:01,300 --> 00:03:04,420
Is de shout-out naar mijn vriendin.

50
00:03:04,420 --> 00:03:09,260
En dat is toch ook wel leuk om te noemen, omdat ik merk ook dat het een moeilijk uit te spreken naam is.

51
00:03:09,260 --> 00:03:10,820
ChatGPT.

52
00:03:10,820 --> 00:03:14,020
De meeste mensen maken er toch een soort van Chattie Pity van.

53
00:03:14,020 --> 00:03:14,900
Precies.

54
00:03:14,900 --> 00:03:16,460
Maar het is wel iets wat iedereen kent.

55
00:03:16,460 --> 00:03:19,140
Dus dat is een heel mooi aanknopingspunt om uit te leggen.

56
00:03:19,140 --> 00:03:20,360
Wat doen wij nu eigenlijk?

57
00:03:20,360 --> 00:03:20,820
Ja.

58
00:03:20,820 --> 00:03:26,420
En dat begint een beetje bij data, veiligheid, cybersecurity en privacy.

59
00:03:26,420 --> 00:03:29,020
Dus iedereen gebruikte dat.

60
00:03:29,020 --> 00:03:29,640
Ja.

61
00:03:29,640 --> 00:03:36,380
Nou, dan zag je in begintijden dat grote bedrijven, en wij zijn een groot bedrijf.

62
00:03:36,380 --> 00:03:36,980
Absoluut.

63
00:03:36,980 --> 00:03:39,060
Eigenlijk is er van paniekreacties grote.

64
00:03:39,060 --> 00:03:41,440
Van, oh god, wat gebeurt er met onze data?

65
00:03:41,700 --> 00:03:47,440
En vooral in sectoren waarin je bijvoorbeeld in de bankensector met gevoelige data werkt.

66
00:03:47,440 --> 00:03:48,380
Klantgegevens.

67
00:03:48,380 --> 00:03:49,360
Nou, die hebben wij ook.

68
00:03:49,360 --> 00:03:51,120
Of met intellectual property of zo.

69
00:03:51,120 --> 00:03:51,660
Ja.

70
00:03:51,660 --> 00:03:56,460
Dat is eigenlijk de instinctieve reactie vanuit het gevoel van, we gaan het verbieden.

71
00:03:56,460 --> 00:03:57,040
Ja.

72
00:03:57,620 --> 00:04:05,640
En het mooie en coole aan dit project is dat we zijn in die fase al begonnen met zeggen, nou, eigenlijk geloven we daar helemaal niet in, in dat verbieden.

73
00:04:07,000 --> 00:04:09,560
Als je het verbiedt, dan is dat naïef.

74
00:04:09,560 --> 00:04:11,420
Mensen gaan het toch wel gebruiken.

75
00:04:11,420 --> 00:04:13,780
Alleen, je hebt geen zicht op het gebruik.

76
00:04:13,780 --> 00:04:14,520
Dat is het verschil.

77
00:04:14,520 --> 00:04:14,900
Ja.

78
00:04:14,900 --> 00:04:17,600
Dus wij wilden eigenlijk pragmatisch daarin staan.

79
00:04:17,600 --> 00:04:23,700
En bij ons was cybersecurity dus eigenlijk een aandrijver om te zeggen, hey, we moeten dat niet zelf gaan aanbieden.

80
00:04:23,700 --> 00:04:24,560
Wat goed.

81
00:04:24,560 --> 00:04:25,020
Ja.

82
00:04:25,020 --> 00:04:25,280
Mooi.

83
00:04:25,280 --> 00:04:28,420
Waar kwam, zeg maar, dat inzicht vandaan?

84
00:04:28,420 --> 00:04:32,360
Want dat verbieden was echt, dat was echt net wat je zegt, dat was de reflex.

85
00:04:32,360 --> 00:04:32,940
Ja.

86
00:04:32,940 --> 00:04:36,540
Waarom was dat bij jullie precies andersom?

87
00:04:37,220 --> 00:04:38,040
Hele goede vraag.

88
00:04:38,040 --> 00:04:41,800
Dat is eigenlijk te danken aan de visie van onze product owner.

89
00:04:41,800 --> 00:04:43,400
Die zat toen op een ander project.

90
00:04:43,400 --> 00:04:47,040
Die heeft gewoon een goede gevoelsnaar van, hey, wat speelt er in de samenleving?

91
00:04:47,040 --> 00:04:47,340
Ja.

92
00:04:47,340 --> 00:04:50,180
En die loopt altijd net wat verder vooruit.

93
00:04:50,180 --> 00:04:54,540
Dus hij is, wij zijn met het team als geheel wel een early adopter, denk ik.

94
00:04:54,540 --> 00:04:54,800
Ja.

95
00:04:54,800 --> 00:04:57,540
Ik qua karakter ben dat soms wat minder.

96
00:04:57,540 --> 00:04:59,080
Ik ben vrij nuchter daarin.

97
00:04:59,080 --> 00:04:59,320
Ja.

98
00:04:59,320 --> 00:05:00,160
Ik zie het allemaal wel.

99
00:05:00,160 --> 00:05:02,440
Hij loopt altijd op de troepen vooruit.

100
00:05:02,440 --> 00:05:07,880
En hij is echt met de visie de organisatie ingegaan om het verhaal te vertellen van, wij moeten hier op springen.

101
00:05:07,880 --> 00:05:12,140
Want ja, anders worden we ingehaald door de realiteit.

102
00:05:12,140 --> 00:05:16,420
En dan met de argument van veiligheid.

103
00:05:16,420 --> 00:05:18,640
Dat was het aanvankelijke argument.

104
00:05:18,940 --> 00:05:22,440
Ja, en dat is natuurlijk een heel conservatief argument.

105
00:05:22,440 --> 00:05:24,420
Dus in eerste instantie was de inzet.

106
00:05:24,420 --> 00:05:33,320
We moeten een eigen chatplatform hebben met dezelfde capabilities of eigenlijk dezelfde dingen die je kan doen als die je gewend bent van ChatGPT.

107
00:05:33,320 --> 00:05:38,180
Maar dan op een manier dat je data, je enterprise data, helemaal veilig blijft.

108
00:05:38,180 --> 00:05:40,580
En je geeft aan aanvankelijk.

109
00:05:40,580 --> 00:05:43,540
Dat insinueert dat er nog andere zaken bij zijn gekomen.

110
00:05:43,540 --> 00:05:45,000
Wat zijn die zaken die erbij zijn gekomen?

111
00:05:46,260 --> 00:05:51,180
Nou ja, dat hoef ik jullie niet te vertellen, maar dit veld beweegt natuurlijk heel erg snel.

112
00:05:51,180 --> 00:05:56,400
Dus om snel op gang te gaan hebben we aanvankelijk wat compromissen gemaakt.

113
00:05:56,400 --> 00:05:57,840
Bijvoorbeeld, we loggen helemaal niks.

114
00:05:57,840 --> 00:05:59,740
Afspraken gemaakt met onze aanbieders.

115
00:05:59,740 --> 00:06:02,880
Om ook dingen als abuse monitoring uit te zetten.

116
00:06:02,880 --> 00:06:04,280
Dat klinkt dan gevaarlijk.

117
00:06:04,280 --> 00:06:09,020
Maar er is normaal gesproken bij veel diensten die je afneemt altijd een soort van escape clausule.

118
00:06:09,020 --> 00:06:11,420
Dat als verdacht gedrag wordt gedetecteerd.

119
00:06:11,420 --> 00:06:12,980
Dat dan toch nog een mensen naar kan kijken.

120
00:06:13,220 --> 00:06:17,420
Dus zelfs over dat soort dingen hebben wij aan het begin afspraken gemaakt om het allemaal uit te zetten.

121
00:06:17,420 --> 00:06:26,740
Om te garanderen dat dus alles wat op onze eigen platform wordt ingevoerd, dat het ook echt volgens onze eigen normen veilig genoeg is.

122
00:06:26,740 --> 00:06:29,140
Maar dat is natuurlijk het uitgangspunt.

123
00:06:29,140 --> 00:06:34,480
En toen we dat op een gegeven moment op orde hadden, dan begint het avontuur pas.

124
00:06:34,580 --> 00:06:39,540
Want dan heb je wel een platform, maar ook een hele grote organisatie die daar nog wat mee moet gaan doen.

125
00:06:40,060 --> 00:06:44,000
En dan is een van de eerste grote uitdagingen.

126
00:06:44,000 --> 00:06:46,080
Oké, we hebben dit nu intern draaien.

127
00:06:46,080 --> 00:06:51,300
Maar dan wil je ook dat de bedrijfsdata die we hebben gebruikt kan worden.

128
00:06:51,300 --> 00:06:57,660
Dus iedereen die in het veld een beetje het over taalmodellen heeft, die denkt dan ook meteen aan hallucinatie.

129
00:06:58,540 --> 00:07:05,400
Nou, dus onderhand, als je zegt RAG heet dat dan, of RAG, Retrieval Augmented Generation.

130
00:07:05,400 --> 00:07:11,820
Heel duur woord voor, we zoeken de informatie als context automatisch bij een vraag die je aan het taalmodel staat.

131
00:07:11,820 --> 00:07:13,740
Daar zijn wij vroeg mee begonnen.

132
00:07:13,740 --> 00:07:17,960
Dus dat was eigenlijk de volgende stap naar dat privacy verhaal.

133
00:07:18,380 --> 00:07:25,720
En liep je daar niet tegen vraagstukken aan dat zeiden, ja, bedrijfsdata, maar die gaan we niet even zomaar openstellen?

134
00:07:25,720 --> 00:07:29,000
Ja, zeker.

135
00:07:29,000 --> 00:07:32,160
Maar ja, definiëer openstellen.

136
00:07:32,160 --> 00:07:34,960
Nou ja, via jullie platform.

137
00:07:34,960 --> 00:07:38,880
Dus je kan nu chatten, je zegt van, hey, we gebruiken zo'n RAG-systeem.

138
00:07:38,880 --> 00:07:42,300
Dus je gebruikt je interne data, bedrijfsdata.

139
00:07:42,300 --> 00:07:46,880
Ook daar schieten mensen vaak van in de vlekken.

140
00:07:46,880 --> 00:07:49,240
Ja, dat klopt.

141
00:07:49,240 --> 00:07:53,320
En dat is ook een gesprek dat ook gaande blijft.

142
00:07:53,320 --> 00:07:59,100
Dus intern maken we daar natuurlijk afspraken over en doen we risico-inschattingen van bepaalde dingen.

143
00:07:59,100 --> 00:08:04,780
Maar inderdaad, dat is zeker een belangrijk punt.

144
00:08:04,780 --> 00:08:07,580
En die reflectie was er ook zeker wel.

145
00:08:07,580 --> 00:08:10,060
Wij zijn als bedrijf vrij conservatief.

146
00:08:10,060 --> 00:08:15,420
Omdat we zo erg in de schijnwerpers staan, elke fout.

147
00:08:16,560 --> 00:08:18,280
Natuurlijk meteen in de kranten staat.

148
00:08:18,280 --> 00:08:20,420
Maar daarom is je verhaal ook zo interessant.

149
00:08:20,420 --> 00:08:26,640
Omdat je vanuit het conservatisme, als ik het dan ook zo mag noemen, eigenlijk juist de innovatie.

150
00:08:26,640 --> 00:08:31,080
En de weg voorwaarts hebt gekozen.

151
00:08:31,080 --> 00:08:32,900
Dus dat maakt het ook zo interessant.

152
00:08:32,900 --> 00:08:34,880
Zeker, maar het gaat natuurlijk niet zonder wrijving.

153
00:08:34,880 --> 00:08:36,880
Nee, daar ben ik wel benieuwd naar.

154
00:08:37,240 --> 00:08:39,460
Ja, dus dat klopt.

155
00:08:39,460 --> 00:08:40,840
Dat is een gevecht.

156
00:08:40,840 --> 00:08:45,480
Maar we zijn nog steeds aan het bijkomen van onze eerste compromis dat we niks loggen.

157
00:08:45,480 --> 00:08:49,020
Want wat is er nou vervelender als programmeur?

158
00:08:49,020 --> 00:08:51,880
Ja, wij zien helemaal niet wat mensen met ons platform per se doen.

159
00:08:51,880 --> 00:08:54,420
Omdat we die privacy echt garanderen.

160
00:08:55,260 --> 00:08:58,740
Maar dat maakt het natuurlijk ook moeilijk om onze dienstverlening te verbeteren.

161
00:08:58,740 --> 00:09:01,040
Dus ja, heel vervelend als programmeur.

162
00:09:01,040 --> 00:09:02,940
Ik moet dus echt mijn ivoren toren uit.

163
00:09:02,940 --> 00:09:05,100
En dus gewoon gaan praten met gebruikers.

164
00:09:05,100 --> 00:09:06,040
Hoe vervelend is dat?

165
00:09:06,040 --> 00:09:08,440
Ja, gekker moet het niet worden, wou je zeggen.

166
00:09:09,320 --> 00:09:10,780
En wat levert dat dan op?

167
00:09:10,780 --> 00:09:13,920
Ja, dat is een hele grote vraag.

168
00:09:13,920 --> 00:09:17,660
Daar heb ik ook geen klein antwoord op.

169
00:09:17,660 --> 00:09:23,740
Want, kijk, NS heeft ook, er zit ook een kostenplaatje aan.

170
00:09:23,740 --> 00:09:24,860
Dat je moet rechtvaardigen.

171
00:09:24,860 --> 00:09:28,120
En we zien daar twee bewegingen.

172
00:09:28,120 --> 00:09:31,920
Enerzijds toch wel de poging om te kwantificeren van wat levert het op.

173
00:09:31,920 --> 00:09:34,320
Nou, daar kun je een hele kostenplaatje...

174
00:09:34,320 --> 00:09:37,200
Oh, ja, maar ik bedoelde eigenlijk het praten met die gebruikers.

175
00:09:37,200 --> 00:09:38,340
Ah, oké, sorry.

176
00:09:38,340 --> 00:09:40,480
Ja, nee, dan precies.

177
00:09:40,480 --> 00:09:41,940
Dat levert heel veel op.

178
00:09:41,940 --> 00:09:42,840
Het is alleen heel veel werk.

179
00:09:42,840 --> 00:09:44,540
Ja.

180
00:09:44,540 --> 00:09:46,920
Maar kan je een inzicht delen?

181
00:09:46,920 --> 00:09:49,260
Van, ja, maar die heb ik echt te zien.

182
00:09:49,260 --> 00:09:52,340
Ja, dus een van de dingen die...

183
00:09:52,340 --> 00:09:54,300
Kijk, we hadden op een gegeven moment zo'n RAG-oplossing.

184
00:09:54,300 --> 00:09:58,340
Dus dat wil zeggen, mensen die kunnen hun eigen data, bedrijfsdata...

185
00:09:58,340 --> 00:10:00,100
Die blijven er eigen van.

186
00:10:00,100 --> 00:10:01,440
Die zien wij als ontwikkelaars ook niet.

187
00:10:01,440 --> 00:10:02,700
Dus als een afgeschermde omgeving.

188
00:10:02,700 --> 00:10:06,500
Die kunnen dat uploaden om er dan mee vragen over te stellen.

189
00:10:06,500 --> 00:10:11,960
En wat bijvoorbeeld heel erg lastig is, is dat...

190
00:10:11,960 --> 00:10:16,760
Kijk, wij weten als ontwikkelaars prima hoe die technologie werkt.

191
00:10:16,760 --> 00:10:18,200
Dus je stelt een vraag.

192
00:10:18,200 --> 00:10:21,860
Op basis van die vraag gaan wij slim zoeken in onze database.

193
00:10:21,860 --> 00:10:26,040
Dat wil zeggen, het stukje data dat die persoon zelf heeft aangeleverd.

194
00:10:26,040 --> 00:10:27,620
Die mag niet bij andermans data komen.

195
00:10:28,340 --> 00:10:30,000
En dan komt daar een antwoord uit.

196
00:10:30,000 --> 00:10:32,960
En dat is heel geschikt voor feitelijke vragen.

197
00:10:32,960 --> 00:10:36,960
Dus we hebben bijvoorbeeld een van onze meest enthousiaste gebruikers.

198
00:10:36,960 --> 00:10:38,340
Die zit dan bij het leercentrum.

199
00:10:38,340 --> 00:10:42,580
En hij zal, als hij nu luistert, ik ga natuurlijk de podcast doorsturen.

200
00:10:42,580 --> 00:10:45,500
Hij weet wie hij is.

201
00:10:45,500 --> 00:10:49,800
Maar die hebben heel veel monteurs bijvoorbeeld.

202
00:10:49,800 --> 00:10:53,020
We hebben een bedrijf met heel veel operationeel personeel.

203
00:10:53,740 --> 00:10:59,960
Dus bijvoorbeeld monteurs, die hebben gigantische leerboeken om bijgeschoold te worden over hoe repareer je die trein en zo.

204
00:10:59,960 --> 00:11:02,460
Er zijn gigantische tekorten aan monteurs.

205
00:11:02,460 --> 00:11:12,620
Dus hoe mooi zou het kunnen zijn als je die monteurs in staat stelt om met niet per se een 300 pagina boek door te spitten.

206
00:11:12,620 --> 00:11:15,080
Toch sneller op gang te helpen.

207
00:11:15,080 --> 00:11:19,980
Vooral sommige monteurs hebben bijvoorbeeld een certificering voor één bepaald type trein.

208
00:11:20,200 --> 00:11:24,300
Maar de treindeur van een andere trein is wel net wat anders, maar zo verschilt het ook weer niet.

209
00:11:24,300 --> 00:11:28,720
Dus in plaats van dat ze dan drie maanden op cursus moeten, zou je ze ook een RAG-oplossing kunnen aanbieden.

210
00:11:28,720 --> 00:11:31,680
Dus een iemand is daarmee bezig.

211
00:11:31,680 --> 00:11:36,200
Dus die op basis van ons platform maakt die als het ware leerervaringen met chatbots.

212
00:11:36,200 --> 00:11:39,000
Op basis van het daadwerkelijke lesmateriaal.

213
00:11:39,000 --> 00:11:40,720
Dus dat zijn bijvoorbeeld monteurshandleidingen.

214
00:11:40,720 --> 00:11:43,500
Dus dat wordt eigenlijk gebouwd op jullie platform.

215
00:11:44,120 --> 00:11:49,560
Ja, dus wij bieden dat intern aan en daar kun je dan weer, wij faciliteren een aantal dingen zelf met een webapp.

216
00:11:49,560 --> 00:11:55,400
En ook met een API waar andere producten intern is en dus dan weer op voort kunnen bouwen.

217
00:11:55,400 --> 00:12:00,480
Maar dus wat met die gebruiker, ik ben natuurlijk weer drie laagjes diep in mijn verhaal.

218
00:12:00,820 --> 00:12:05,020
Ik zal mezelf er weer even proberen uit te worm.

219
00:12:05,020 --> 00:12:15,120
Met die gebruikers zie ik bijvoorbeeld dat het RAG-systeem is heel goed voor het stellen van feitelijke vragen waar dan het antwoord ergens in die documenten staat.

220
00:12:15,120 --> 00:12:20,300
Dus een schoolvoorbeeld dat ik dan vaak gebruik om even te kijken of ik niet per geluk onze eigen platform kapot heb gemaakt.

221
00:12:20,300 --> 00:12:22,580
Is de vraag wat is een P-rem?

222
00:12:22,580 --> 00:12:25,880
Nou, ik wist niet wat dat was, maar dat weet ik onderhand wel.

223
00:12:25,880 --> 00:12:27,420
Wat is het?

224
00:12:27,420 --> 00:12:28,820
Dat is een pneumatische rem.

225
00:12:29,560 --> 00:12:31,660
Dat is een rem die werkt op basis van luchtdruk.

226
00:12:31,660 --> 00:12:36,340
Dat is heel belangrijk, want als de trein stroomstoring heeft, dan moet die nog steeds kunnen remmen.

227
00:12:36,340 --> 00:12:37,380
Oeh, dat is wel handig ja.

228
00:12:37,380 --> 00:12:39,380
Dus dat is eigenlijk een soort van back-up rem.

229
00:12:39,380 --> 00:12:47,960
Ik ben dus zelf geen machinist en monteur, dus ik hoop dat misschien word ik teruggefloten door collega's met meer expertise.

230
00:12:47,960 --> 00:12:51,160
Maar voor dat soort feitelijke vragen is RAG heel geschikt.

231
00:12:51,160 --> 00:12:58,820
Omdat je eigenlijk vijf fragmenten vindt, bijvoorbeeld, die als relevante context aan het taalmodel meegeven kunnen worden.

232
00:12:59,300 --> 00:13:04,460
En dan met bronvermelding en alles erbij je een grondantwoord krijgt.

233
00:13:04,460 --> 00:13:09,780
En jullie hebben dus een platform waar gebruikers dit zelf op kunnen bouwen?

234
00:13:09,780 --> 00:13:14,860
Of zorgen jullie ervoor dat jullie die RAG ook zelf bouwen voor de gebruikers binnen de organisatie?

235
00:13:16,860 --> 00:13:17,760
Parkeer de vraag nog heel even.

236
00:13:17,760 --> 00:13:24,940
Dus als je met gebruikers praat, waar je dan dus achterkomt, is dat ze dan hele andere vragen stellen.

237
00:13:24,940 --> 00:13:25,860
Niet wel eens een p-rem.

238
00:13:25,860 --> 00:13:32,660
Maar oké, geef twintig ideeën voor toetsvragen op basis van dit document.

239
00:13:33,020 --> 00:13:38,880
En wij weten aan de achterkant van het systeem van, ja maar wacht eens even, hij vindt maximaal maar vijf relevante fragmenten.

240
00:13:38,880 --> 00:13:42,640
En het taalmodel geeft wel degelijk twintig vragen.

241
00:13:43,720 --> 00:13:46,620
Maar die blijft gewoon doorpraten tussen aanhalingstekens, hè?

242
00:13:46,620 --> 00:13:50,120
Ja, we hebben wel ons best gedaan dat hij dan zegt van, hé ik weet het niet.

243
00:13:50,780 --> 00:13:55,220
Maar als de vraag dan net wel over de stof gaat, ja dan heeft hij wel relevante fragmenten.

244
00:13:55,220 --> 00:13:56,340
Alleen het zijn er geen twintig.

245
00:13:56,340 --> 00:14:01,340
Dus dat soort dingen, daar zit eigenlijk de complexiteit van zo'n product.

246
00:14:01,340 --> 00:14:07,700
Niet per se in het programmeerwerk, maar meer in hoe flexibel eigenlijk zo'n taalmodel is en al die interacties die je dan krijgt.

247
00:14:07,700 --> 00:14:12,480
En dat is voor ons wel een hele belangrijke drive, dus om met die gebruikers te praten.

248
00:14:12,480 --> 00:14:16,260
Om er dus achter te komen van, ah oké, hier hadden we zelf niet aan gedacht.

249
00:14:17,240 --> 00:14:22,040
Betekent dat ook dat je beperkingen oplegt wat er gevraagd mag worden?

250
00:14:22,040 --> 00:14:24,680
Ik bedoel, je zegt aan de ene kant we loggen niet, maar dat is wat anders.

251
00:14:24,680 --> 00:14:28,620
Zijn er beperkingen wat iemand wel of niet mag vragen?

252
00:14:28,620 --> 00:14:31,340
Of bouwen?

253
00:14:31,340 --> 00:14:36,540
Beperkingen wat mensen mogen vragen?

254
00:14:36,540 --> 00:14:39,440
Nou ja, we hebben onderhand jouw vraag, je moet hem zaken opnemen.

255
00:14:39,440 --> 00:14:40,380
Ik stel hem zo nog een keer.

256
00:14:40,380 --> 00:14:40,960
Ik moet hem zaken opnemen.

257
00:14:40,960 --> 00:14:46,620
Wij leggen aan gebruikers, maar dat is belangrijk om te zeggen.

258
00:14:46,820 --> 00:14:48,220
Wij werken eigenlijk van binnen naar buiten.

259
00:14:48,220 --> 00:14:52,160
Ook dat is een stukje risicobeheersing, dus wij bieden het niet aan de klant buiten aan.

260
00:14:52,160 --> 00:14:54,560
Dus het is de ondersteuning van professionals.

261
00:14:54,560 --> 00:14:56,740
Ja, dat maakt heel veel uit.

262
00:14:56,740 --> 00:15:01,940
En dat maakt wel uit, want daar verwachten we ook een zekere professionaliteit van de gebruikers en collega's.

263
00:15:01,940 --> 00:15:07,180
Dus als het gaat om gewoon chatten in ons product, dat heet ChatNS.

264
00:15:07,180 --> 00:15:08,300
Surprise, surprise.

265
00:15:10,680 --> 00:15:13,720
Dan leggen wij niet beperkingen op van dit mag je niet vragen.

266
00:15:13,720 --> 00:15:16,280
Er zijn natuurlijk wel de dingen, we geven geen antwoord op.

267
00:15:16,280 --> 00:15:17,320
Hoe maak ik een bom?

268
00:15:17,320 --> 00:15:18,980
Dat soort content filtering.

269
00:15:18,980 --> 00:15:19,880
Ja, dat doen we.

270
00:15:19,880 --> 00:15:24,140
Maar ook daar, iemand die een beetje goed is in prompt engineering, die komt er echt wel omheen.

271
00:15:24,140 --> 00:15:29,100
Dus ook daar is het gewoon professionaliteit van onze collega's.

272
00:15:29,100 --> 00:15:32,520
En in die zin leggen we daar dus geen beperkingen op.

273
00:15:33,080 --> 00:15:38,720
Nee, maar door heel helder te hebben van wat je intern doet versus extern, niet op dit moment.

274
00:15:38,720 --> 00:15:39,600
Ja, duidelijk.

275
00:15:39,600 --> 00:15:45,780
Maar in het geval dat iemand zijn eigen data wilt aanleveren, dus dat is wel iets wat we in ons product zelf faciliteren.

276
00:15:45,780 --> 00:15:46,120
Oké.

277
00:15:46,120 --> 00:15:50,060
Dus daar zit het meeste werk in.

278
00:15:50,060 --> 00:15:53,460
Totaal niet in het aanbieden van die chat functionaliteit, want ja goed, dat...

279
00:15:53,460 --> 00:15:53,860
Dat doet ie.

280
00:15:53,860 --> 00:15:55,440
Ja, iedereen doet dat wel.

281
00:15:55,440 --> 00:15:55,780
Ja.

282
00:15:55,780 --> 00:15:58,900
Maar vooral al het beheer wat er omheen komt kijken.

283
00:15:58,900 --> 00:16:06,160
Dus wij hebben dan een soort van workspace en daar kun je je eigen systeem prompt in zetten om een bepaald chatbot op ons platform te bouwen.

284
00:16:06,160 --> 00:16:08,660
Maar je kan ook je eigen data eraan toevoegen.

285
00:16:08,660 --> 00:16:14,820
En we hopen binnenkort de functionaliteit om bijvoorbeeld andere NS API's aan te spreken.

286
00:16:14,820 --> 00:16:17,600
Dat bieden we aan.

287
00:16:17,600 --> 00:16:21,100
Dus dat faciliteren we wel.

288
00:16:21,100 --> 00:16:21,640
Oké.

289
00:16:21,640 --> 00:16:24,840
We zijn in die zin een heel raar datateam, want we hebben ook een webapp.

290
00:16:24,840 --> 00:16:28,280
Dus we willen helemaal geen webapp.

291
00:16:28,280 --> 00:16:28,780
Ja.

292
00:16:28,780 --> 00:16:32,980
Alleen eigenlijk is dat een soort van uithangbord van wat ons platform kan.

293
00:16:32,980 --> 00:16:36,980
En dat helpt heel erg om gebruikers ook te laten zien wat het kan.

294
00:16:36,980 --> 00:16:42,900
En dat is ook een heel groot onderdeel van die gig.

295
00:16:42,900 --> 00:16:43,160
Ja.

296
00:16:43,160 --> 00:16:49,660
Niet alleen de technologie neerzetten, maar ook echt gaan praten met je gebruikers.

297
00:16:49,660 --> 00:16:51,500
En ook met een beetje visie.

298
00:16:51,500 --> 00:16:56,120
Dus echt uit de ivoren toren en de organisatie ingaan om te laten zien wat allemaal kan.

299
00:16:56,620 --> 00:16:57,020
Ja.

300
00:16:57,220 --> 00:17:05,180
Ja, want hoe stimuleer je mensen om zeg maar op een andere manier te denken, zodat ze ook jullie platform gaan gebruiken.

301
00:17:06,839 --> 00:17:09,520
Ja, dus dat is een beetje maatwerk wel.

302
00:17:09,520 --> 00:17:12,240
Je merkt...

303
00:17:12,240 --> 00:17:13,440
Het is een beetje tweeledig.

304
00:17:13,440 --> 00:17:15,040
Aan de ene kant is er een technologie die...

305
00:17:15,040 --> 00:17:16,760
Nou, onderhand niet meer nieuw is.

306
00:17:16,760 --> 00:17:20,079
Maar toen we begonnen, waren mensen echt nog iets van, ja, wat moeten we ermee?

307
00:17:20,079 --> 00:17:25,060
En daar zit een stukje visieontwikkeling dat je dus mensen weet te overtuigen.

308
00:17:25,440 --> 00:17:27,819
Dat kon toen nog niet met nummertjes, dat is nog steeds moeilijk.

309
00:17:27,819 --> 00:17:29,520
Dus je moet echt een verhaal vertellen.

310
00:17:29,520 --> 00:17:29,900
Ja.

311
00:17:29,900 --> 00:17:32,620
Van, hé, dit is It's Here to Stay en we moeten er wat mee.

312
00:17:32,620 --> 00:17:32,880
Ja.

313
00:17:32,880 --> 00:17:34,160
Dat rijmt ook nog.

314
00:17:34,160 --> 00:17:34,560
Ja.

315
00:17:38,560 --> 00:17:39,000
Dat.

316
00:17:39,000 --> 00:17:43,480
En aan de andere kant zien we nu ook juist een andere beweging, dat we mensen bijna moeten afremmen.

317
00:17:43,480 --> 00:17:49,580
Omdat links en rechts nu iedereen van ons af weet, worden we de hele dag bestookt met fantastische ideeën.

318
00:17:49,580 --> 00:17:49,860
Ja.

319
00:17:51,460 --> 00:17:54,520
Alleen het is ook, dat herkennen jullie misschien ook vanuit jullie praktijk.

320
00:17:54,520 --> 00:17:59,360
Mensen stellen AI tegenwoordig gelijk aan taalmodellen, LLMs.

321
00:17:59,360 --> 00:18:01,800
Nou, dan denk je al van nou, nou, nou.

322
00:18:01,800 --> 00:18:06,900
En ze verwachten ook dat het alle problemen oplost die het labeltje AI hebben gekregen.

323
00:18:06,900 --> 00:18:07,140
Ja.

324
00:18:07,140 --> 00:18:10,240
Dus we zijn ook best wel veel tijd kwijt met mensen nee verkopen.

325
00:18:10,240 --> 00:18:13,760
En dan heel goed uitleggen van, hé, dit kan het dan net weer niet.

326
00:18:13,760 --> 00:18:14,160
Ja.

327
00:18:14,160 --> 00:18:17,780
En dat is misschien even belangrijk als mensen overtuigen wat het wel kan.

328
00:18:17,780 --> 00:18:19,480
En hoe leg je dat uit?

329
00:18:19,480 --> 00:18:21,240
Wat het niet kan?

330
00:18:21,240 --> 00:18:27,880
Nou, één voorbeeld dat we in de praktijk, we zijn een heel divers bedrijf.

331
00:18:27,880 --> 00:18:30,520
Het is eigenlijk een soort van verzameling van andere bedrijven.

332
00:18:30,520 --> 00:18:32,100
We hebben natuurlijk operationeel personeel en zo.

333
00:18:32,100 --> 00:18:34,140
Maar ook bijvoorbeeld accountants.

334
00:18:34,140 --> 00:18:35,820
En die rekenen.

335
00:18:35,820 --> 00:18:36,100
Ja.

336
00:18:36,100 --> 00:18:37,600
Dus die hebben heel veel Excel sheets.

337
00:18:37,600 --> 00:18:37,980
Ja.

338
00:18:37,980 --> 00:18:39,880
En die werken met nummertjes.

339
00:18:39,880 --> 00:18:42,660
En één van de dingen, we geven zelf ook trainingen.

340
00:18:42,660 --> 00:18:45,880
En één van de dingen waar we er altijd op hameren is van, ja, wacht even.

341
00:18:45,880 --> 00:18:47,820
Het kan eigenlijk niet rekenen.

342
00:18:47,820 --> 00:18:51,100
En dat is best moeilijk om uit te leggen.

343
00:18:51,100 --> 00:18:51,380
Ja.

344
00:18:51,380 --> 00:18:52,700
Omdat het heel vaak wel goed gaat.

345
00:18:52,700 --> 00:18:53,940
Ja.

346
00:18:53,940 --> 00:18:55,160
Ja, dat maakt het heel vervelend.

347
00:18:55,160 --> 00:18:55,480
Ja.

348
00:18:55,480 --> 00:19:01,820
En je ziet natuurlijk op social media ook allerlei rekenvoorbeelden van hoe schijnbaar het goed gaat.

349
00:19:01,820 --> 00:19:02,060
Ja.

350
00:19:02,280 --> 00:19:03,000
Maar het is net wat je zegt.

351
00:19:03,000 --> 00:19:04,000
Ja, het is geen rekenmachine.

352
00:19:04,000 --> 00:19:04,760
Het is een taalmachine.

353
00:19:04,760 --> 00:19:05,740
Het is een taalmachine.

354
00:19:05,740 --> 00:19:07,820
Dus het ziet een cijfertje.

355
00:19:07,820 --> 00:19:10,280
Ook als een token of als een woord.

356
00:19:10,280 --> 00:19:12,140
Om het minder technisch te zeggen.

357
00:19:12,140 --> 00:19:15,280
Dus je moet je soms echt...

358
00:19:15,280 --> 00:19:17,100
Mensen zijn best hardnekkig daarin.

359
00:19:17,100 --> 00:19:17,240
Ja.

360
00:19:18,440 --> 00:19:20,840
We hebben echt wel een keer gehad dat iemand zei, maar het kan wel rekenen.

361
00:19:20,840 --> 00:19:21,260
Kijk maar.

362
00:19:21,260 --> 00:19:24,180
En dan moet je dus voorbeelden geven.

363
00:19:24,180 --> 00:19:24,500
Ja.

364
00:19:24,500 --> 00:19:27,120
Dus als je vraagt, wat is 20 keer 20?

365
00:19:27,120 --> 00:19:28,840
Ja, daar komt die nog wel uit.

366
00:19:28,840 --> 00:19:34,100
Maar als je twee hele grote getallen met elkaar vermenigvuldigt, dan zul je ook zien, daar komt

367
00:19:34,100 --> 00:19:34,820
een getal uit.

368
00:19:34,820 --> 00:19:36,260
Dat heeft precies...

369
00:19:36,260 --> 00:19:37,120
Het is een wondertje.

370
00:19:37,120 --> 00:19:39,600
Maar hij heeft precies het goede aantal cijfers.

371
00:19:39,600 --> 00:19:40,040
Oh ja.

372
00:19:40,480 --> 00:19:42,900
Maar het zit er dan wel net 200 vanaf, weet je wel.

373
00:19:42,900 --> 00:19:46,480
Dus als je dat een keer laat zien, dan denken ze, oh ja, oh ja, oh ja.

374
00:19:46,480 --> 00:19:48,820
Ja, en dat is in de verhaalvorm niet zo erg.

375
00:19:48,820 --> 00:19:50,740
Maar voor de accountancy is dat toch wel cruciaal.

376
00:19:50,740 --> 00:19:52,900
Ja, dus daar is het heel belangrijk.

377
00:19:52,900 --> 00:19:58,180
Het is eigenlijk meer een risico dat mensen die modellen gaan inzetten op een manier die

378
00:19:58,180 --> 00:19:59,440
eigenlijk contraproductief is.

379
00:19:59,440 --> 00:20:01,480
Want ze gaan er op vertrouwen terwijl dat het helemaal niet kan.

380
00:20:01,480 --> 00:20:07,540
Heb je nog een mooi voorbeeld van wat gebouwd is, waarvan je van tevoren eigenlijk

381
00:20:07,540 --> 00:20:09,180
daar niet over nagedacht hebt.

382
00:20:09,180 --> 00:20:12,280
Zeg van ja, dat is gaaf en dat mag ik hier ook delen.

383
00:20:12,280 --> 00:20:15,660
Ja, we hebben eigenlijk niks geheims of zo.

384
00:20:15,660 --> 00:20:16,760
Dat was in ieder geval fijn.

385
00:20:16,760 --> 00:20:21,000
Dus omdat we de data niet kunnen zien, moeten we wel echt met mensen praten als ze dus

386
00:20:21,000 --> 00:20:23,100
een eigen bucket met data willen, zeg maar.

387
00:20:23,100 --> 00:20:27,880
Dus we hebben in die zin van wat leuke use cases wel een overzicht.

388
00:20:27,880 --> 00:20:32,440
Maar helemaal aan het begin iets waar wij zelf als programmeur helemaal niet bij stil stonden

389
00:20:32,440 --> 00:20:38,100
en wat dus wel kikken is, is bijvoorbeeld dat mensen bij sociale veiligheid en serviceveiligheid

390
00:20:38,100 --> 00:20:43,340
dat zijn, ja je hebt ook mensen bij ons rondlopen die moeten de order handhaven op het

391
00:20:43,340 --> 00:20:43,580
bron.

392
00:20:43,580 --> 00:20:43,980
Ja.

393
00:20:43,980 --> 00:20:48,700
Nou die hadden wij helemaal niet in beeld als potentiële gebruiker van een chatplatform.

394
00:20:48,700 --> 00:20:52,060
Dan denk je toch aan kantoorpersoneel, aan klantenservice, dat soort dingen.

395
00:20:52,060 --> 00:20:52,440
Ja.

396
00:20:53,380 --> 00:20:56,100
En die waren heel enthousiast over RAG.

397
00:20:56,100 --> 00:20:57,120
Oké.

398
00:20:57,120 --> 00:20:57,940
En dan denk je van, huh?

399
00:20:57,940 --> 00:20:59,300
In welke vorm dan?

400
00:20:59,300 --> 00:21:00,520
Ja, in welke vorm dan?

401
00:21:00,520 --> 00:21:02,520
En daar was ik ook wel een beetje, ja.

402
00:21:02,520 --> 00:21:04,920
Ik had een zekere gezonde scepsis.

403
00:21:04,920 --> 00:21:05,260
Ja.

404
00:21:05,260 --> 00:21:07,280
Dat is denk ik altijd wel goed om te hebben.

405
00:21:08,620 --> 00:21:16,260
Maar als je dat dan vertaalt naar de waarde voor het bedrijf, dan zie je dus dat bijvoorbeeld

406
00:21:16,260 --> 00:21:18,260
als iemand een sigaret rookt op een perron.

407
00:21:18,260 --> 00:21:19,560
Nou dat mag niet.

408
00:21:19,560 --> 00:21:19,940
Ja.

409
00:21:19,940 --> 00:21:21,900
Dat weet Wouter Koolmees is onderhand ook.

410
00:21:23,040 --> 00:21:29,160
En wat dan zo iemand moet doen, is er moet een bon uitschrijven.

411
00:21:29,160 --> 00:21:30,060
Dat heet een combibon.

412
00:21:30,060 --> 00:21:30,560
Ja.

413
00:21:30,560 --> 00:21:32,680
En die moet dan die bon helemaal goed schrijven.

414
00:21:32,680 --> 00:21:33,100
Ja.

415
00:21:33,100 --> 00:21:36,980
Maar soms is dat best wel een gespannen situatie.

416
00:21:36,980 --> 00:21:39,380
Misschien zelfs is er een vorm van agressie in het spel.

417
00:21:39,380 --> 00:21:39,740
Ja.

418
00:21:39,740 --> 00:21:41,100
Daar horen we natuurlijk veel van.

419
00:21:41,100 --> 00:21:41,780
Ja.

420
00:21:41,780 --> 00:21:45,480
Dat is echt een groot issue, een groot topic bij ons in het bedrijf.

421
00:21:45,480 --> 00:21:51,200
En die moet dan dus wel heel precies en juridisch correct opschrijven.

422
00:21:51,200 --> 00:21:51,580
Ja.

423
00:21:51,900 --> 00:21:53,480
Nou, ik zag iemand rook inhaleren.

424
00:21:53,480 --> 00:21:54,320
Oké.

425
00:21:54,320 --> 00:21:55,760
Ik zag hem de adem vasthouden.

426
00:21:55,760 --> 00:21:57,340
En waar op dat niveau?

427
00:21:57,340 --> 00:21:59,280
Ja, ik ben ook geen jurist.

428
00:21:59,280 --> 00:22:01,300
Maar juristen zijn wel heel precies met dat soort dingen.

429
00:22:01,300 --> 00:22:03,040
Anders is zo'n bon niet geldig.

430
00:22:03,040 --> 00:22:03,200
Ja.

431
00:22:03,200 --> 00:22:04,660
En je moet dus niet vergeten te zeggen.

432
00:22:04,660 --> 00:22:07,460
Oh, maar ik zag ook die persoon een rook uitademen.

433
00:22:07,460 --> 00:22:09,000
Oké.

434
00:22:09,000 --> 00:22:12,180
En nou, dat is gewoon één voorbeeld.

435
00:22:12,180 --> 00:22:16,680
En als je dan dat bijvoorbeeld met RAG, in plaats van dat ze dan misschien een foutje maken

436
00:22:16,680 --> 00:22:20,220
of dan een juridisch handboek van honderden pagina's door moeten spitten.

437
00:22:20,760 --> 00:22:25,260
Als je dan snel het antwoord kan vinden en ook kan verwijzen naar een brondocument,

438
00:22:25,260 --> 00:22:30,540
dan is het potentieel een medewerker sneller uit een onveilige situatie.

439
00:22:30,540 --> 00:22:33,160
Nou, dat is misschien een beetje een stretch nog.

440
00:22:33,160 --> 00:22:33,580
Ja.

441
00:22:33,580 --> 00:22:36,160
We zijn nu vooral op de desktop.

442
00:22:36,160 --> 00:22:38,600
Je slijt niet de computer mee.

443
00:22:38,600 --> 00:22:40,160
Het is nog niet allemaal optimaal op de mobiel.

444
00:22:40,160 --> 00:22:44,820
Maar wel om aan te geven van dat is echt iets waar ik zelf nooit aan had gedacht.

445
00:22:44,820 --> 00:22:45,920
Doe we met dat project begonnen.

446
00:22:45,920 --> 00:22:46,900
Mooi.

447
00:22:46,900 --> 00:22:47,440
Ja.

448
00:22:47,440 --> 00:22:48,440
Zeker.

449
00:22:48,440 --> 00:22:50,560
En ja, dat komt dan al even terug.

450
00:22:50,640 --> 00:22:51,600
Ik ben gewoon nieuwsgierig.

451
00:22:51,600 --> 00:22:53,980
Dan zitten mensen misschien in de trein te luisteren.

452
00:22:53,980 --> 00:23:02,740
Hoe merken die dat de NS vooruitgang heeft geboekt, om even in de trein termen te blijven,

453
00:23:02,740 --> 00:23:06,800
dat AI wordt ingezet om die versnelling, die efficiëntie te bereiken.

454
00:23:06,800 --> 00:23:07,980
Hoe merken mensen dat?

455
00:23:08,400 --> 00:23:12,180
Ja, dus met ons platform niet direct.

456
00:23:12,180 --> 00:23:12,620
Nee.

457
00:23:12,620 --> 00:23:15,800
En dat is ook wel juist by design.

458
00:23:15,800 --> 00:23:22,360
Wij geloven niet in deze fase dat die technologie goed genoeg is om ook maar iets in de operatie te doen.

459
00:23:22,360 --> 00:23:24,700
Dus dat is denk ik juist een van de risico's.

460
00:23:24,700 --> 00:23:27,740
De beschikbaarheid van zo'n chatplatform is niet hoog genoeg.

461
00:23:27,740 --> 00:23:28,060
Ja.

462
00:23:28,060 --> 00:23:32,200
Dus het voldoet echt niet aan de eisen om operationeel wat te doen.

463
00:23:32,200 --> 00:23:32,500
Ja.

464
00:23:32,500 --> 00:23:36,120
Waar het wel een verschil kan maken, maar dat is natuurlijk heel indirect nog.

465
00:23:36,240 --> 00:23:39,040
En dat is een minder goede marketingpraatje.

466
00:23:39,040 --> 00:23:44,660
Het is ondersteuning van intern personeel om hun werk makkelijker, maar ook leuker te maken.

467
00:23:44,660 --> 00:23:49,420
Ik vind het altijd jammer dat er zo veel wordt gepraat over het moet efficiënter.

468
00:23:49,420 --> 00:23:49,920
Ja.

469
00:23:49,920 --> 00:23:51,260
Maar het is ook gewoon leuker.

470
00:23:51,260 --> 00:23:52,760
En hoe wordt het leuker?

471
00:23:52,760 --> 00:23:54,700
Nou ja, goed.

472
00:23:54,700 --> 00:23:56,840
Ik kan vooral vanuit mijn eigen ervaring spreken.

473
00:23:56,840 --> 00:24:01,040
Maar je went er ten eerste aan.

474
00:24:01,040 --> 00:24:01,860
Ik vind het onderhand.

475
00:24:01,860 --> 00:24:03,740
Ik gebruik onze eigen platform elke dag.

476
00:24:04,940 --> 00:24:10,340
Het is zelfs een beetje een risico voor mijn beroep, want ik kijk wat te weinig buiten de deur soms.

477
00:24:10,340 --> 00:24:16,600
Er zijn nog steeds andere oplossingen even proberen, want ik ben gewoon zo tevreden met wat we zelf hebben bestaan.

478
00:24:16,600 --> 00:24:19,560
Wat was je vraag ook weer?

479
00:24:19,560 --> 00:24:22,260
Waar het voor jou leuker wordt.

480
00:24:22,260 --> 00:24:23,580
Wat wordt er leuker?

481
00:24:23,580 --> 00:24:25,760
Ja, je hebt eigenlijk een gratis sparringspartner.

482
00:24:27,600 --> 00:24:31,320
Dus het is gewoon echt een tool, een ondersteunende tool.

483
00:24:31,320 --> 00:24:33,640
Ik verwacht niet dat het de wereld vrede gaat brengen.

484
00:24:33,640 --> 00:24:38,040
Maar het kan natuurlijk wel helpen met een aantal klusjes.

485
00:24:38,040 --> 00:24:41,960
Of als je een probleem hebt, snel even brainstormen.

486
00:24:41,960 --> 00:24:51,300
Zit daar ook niet een deel gevaar in dat je brainstormt nu niet met de collega naast je of tegenover je?

487
00:24:51,300 --> 00:24:55,100
Misschien is dat wel het onderdeel van het eerste stapje in wereldvrede.

488
00:24:55,100 --> 00:24:57,080
Dus dat je geen ruzie met je collega maakt.

489
00:24:57,080 --> 00:24:58,900
Maar dat je...

490
00:24:58,900 --> 00:25:01,740
Sorry, door hem niet te benaderen maak ik ruzie.

491
00:25:02,540 --> 00:25:08,800
Maar dat je nu dus brainstormt eigenlijk met een machine in plaats van met je collega tegenover je?

492
00:25:08,800 --> 00:25:11,000
Ervaar jij het zelf als in plaats van?

493
00:25:11,000 --> 00:25:13,280
Soms wel, ja.

494
00:25:13,280 --> 00:25:13,380
Ja.

495
00:25:13,380 --> 00:25:15,640
Omdat het beschikbaar is.

496
00:25:15,640 --> 00:25:19,740
Dus de AI-assistent in dit geval is 24x7 beschikbaar.

497
00:25:19,740 --> 00:25:20,040
Ja.

498
00:25:20,040 --> 00:25:25,560
Dus op het moment dat ik denk van, oh ja, maar nu wil ik brainstormen, kan ik brainstormen?

499
00:25:26,920 --> 00:25:31,380
Ik moet even denken of het me tegenhoudt om met collega's te praten.

500
00:25:31,380 --> 00:25:32,760
Maar daarom stel ik eigenlijk jou die vraag.

501
00:25:32,760 --> 00:25:34,160
Om jezelf te denken.

502
00:25:34,160 --> 00:25:36,240
Ik heb het zelf in ieder geval niet gemerkt.

503
00:25:36,240 --> 00:25:36,560
Ja.

504
00:25:36,560 --> 00:25:40,220
Ik denk dat je nog steeds het goede gesprek hebt met je collega.

505
00:25:40,220 --> 00:25:45,100
Maar misschien als er routinematige vragen zijn waar je collega niet hoeft lastig te vallen.

506
00:25:45,100 --> 00:25:45,440
Ja.

507
00:25:45,440 --> 00:25:49,320
Dan maakt dat misschien ruimtevrij voor een gesprek over de juiste dingen.

508
00:25:49,320 --> 00:25:50,980
Een politiek correct antwoord.

509
00:25:50,980 --> 00:25:51,480
Dat is een mooie.

510
00:25:51,480 --> 00:25:55,380
Vooral met je achtergrond in de filosofie is dat natuurlijk wel een mooie vraag.

511
00:25:56,060 --> 00:25:58,000
Ja, ik zie hem niet als of-of.

512
00:25:58,000 --> 00:25:58,420
Nee.

513
00:25:58,420 --> 00:25:59,760
Oh, in die zin.

514
00:25:59,760 --> 00:26:02,260
Ja, dat hebben we natuurlijk nog helemaal niet aangeraakt.

515
00:26:02,260 --> 00:26:04,720
Jij komt oorspronkelijk uit de filosofie.

516
00:26:04,720 --> 00:26:06,500
Ja, ik ben hier undercover filosoof.

517
00:26:06,500 --> 00:26:13,780
Hoe kom je als filosoof op een evenement als dit te praten over large language models?

518
00:26:13,780 --> 00:26:18,360
Ja, eigenlijk is de gekke vraag waarom ben ik filosofie gaan studeren?

519
00:26:18,360 --> 00:26:21,520
Dat is eigenlijk de uitstap geweest.

520
00:26:23,180 --> 00:26:26,340
Want ik ben daar heel pragmatisch in geweest.

521
00:26:26,340 --> 00:26:29,240
Ik vond puzzelen met concepten heel erg leuk.

522
00:26:29,240 --> 00:26:32,220
Dan kun je wiskunde, natuurkunde of programmeur worden.

523
00:26:32,220 --> 00:26:37,600
Maar als je dat op een talige manier doet, dan kom je toch een beetje bij de filosofie uit.

524
00:26:37,600 --> 00:26:39,760
Dus ik zag daar helemaal geen tegenstelling.

525
00:26:39,760 --> 00:26:42,940
Alleen is het wel, ik ben gaan studeren toen ik 17 was.

526
00:26:43,440 --> 00:26:46,100
Op een gegeven moment, ja, 21, de master was af.

527
00:26:46,100 --> 00:26:48,760
Ik dacht van ja, het kriebelde toch nog wel.

528
00:26:48,760 --> 00:26:50,200
Ik wilde wel wat mee doen.

529
00:26:50,200 --> 00:26:54,480
En dat was eigenlijk toen, ik heb in Nijmegen gestudeerd.

530
00:26:54,480 --> 00:26:58,740
En dat was toen het tweede jaar dat er überhaupt een AI opleiding was.

531
00:27:00,600 --> 00:27:14,300
En dat klikte eigenlijk omdat het de juiste combinatie was van enerzijds programmeren, natuurkunde niet, maar wel wiskunde, statistiek, oftewel skills waarmee je een baan kunt krijgen.

532
00:27:14,300 --> 00:27:23,200
En tegelijkertijd toen ook al echt een opkomend technologie was die de maatschappij aan het veranderen was.

533
00:27:23,340 --> 00:27:25,680
En dat is als filosoof dan weer heel erg interessant.

534
00:27:25,680 --> 00:27:33,160
En helpt je dat nu ook met, zeg maar, gewoon echt je dagelijkse werk rond dat large language model platform?

535
00:27:33,160 --> 00:27:35,080
Ja.

536
00:27:35,080 --> 00:27:40,060
Alleen, het is zo'n ding, je gebruikt het elke dag.

537
00:27:40,060 --> 00:27:40,460
Ja.

538
00:27:40,460 --> 00:27:41,620
Onbewust.

539
00:27:41,620 --> 00:27:42,880
Ja, precies.

540
00:27:42,880 --> 00:27:45,480
Maar ik ben echt ontwikkelaar aan het product ook.

541
00:27:45,480 --> 00:27:53,320
Alleen, je ziet wel dat om de waarde van de producten verzilveren, komen we nou in een fase waarin het steeds belangrijker wordt om ook mensen te proberen.

542
00:27:53,320 --> 00:27:55,700
begeleiden in het integreren van hun use case.

543
00:27:55,700 --> 00:27:59,920
Dus bijna een doorontwikkeling naar een expertisecentrum.

544
00:27:59,920 --> 00:28:00,460
Ja.

545
00:28:00,460 --> 00:28:05,380
En ja, dan zijn de skills die ik uit filosofie heb wel degelijk handig.

546
00:28:05,380 --> 00:28:07,240
Mensen vragen zonder, wat kun je ermee?

547
00:28:07,240 --> 00:28:11,100
En dan zeg ik soms heel plat, je leert heel goed lezen en schrijven.

548
00:28:11,100 --> 00:28:12,800
En dat klinkt dan niet zo sexy.

549
00:28:12,800 --> 00:28:15,760
Alleen, ja, kijk maar hoeveel e-mailtjes je hebt op een dag.

550
00:28:15,760 --> 00:28:21,080
En als je in een groot bedrijf werkt, dan zijn communicatieskills heel belangrijk om je product aan de man te brengen.

551
00:28:21,080 --> 00:28:23,080
Dat soort dingen neem je wel mee.

552
00:28:23,160 --> 00:28:26,660
En het communiceren nu met een taalmodel gaat alleen maar over lezen en schrijven, toch?

553
00:28:26,660 --> 00:28:28,620
In die zin is dat inderdaad heel interessant.

554
00:28:28,620 --> 00:28:30,960
Want wat is nou het grote succes van die taalmodellen?

555
00:28:30,960 --> 00:28:37,440
Ja, we kunnen tegenwoordig programmeren via een natuurlijke interface, natuurlijke taal.

556
00:28:37,440 --> 00:28:41,360
Dat is natuurlijk ook waarom het globaal zo is geëxplodeerd.

557
00:28:41,600 --> 00:28:46,100
Je hoeft niet meer een hele moeilijke taal te leren, je kan gewoon je eigen taal praten.

558
00:28:46,100 --> 00:28:47,720
Dat is toch iets heel menselijks.

559
00:28:47,720 --> 00:28:49,000
Ja, fijn is dat hè?

560
00:28:49,000 --> 00:28:49,180
Ja.

561
00:28:49,180 --> 00:28:53,820
Maar moeten we wel leren de juiste vragen te stellen en goed te schrijven daarin.

562
00:28:53,820 --> 00:29:00,340
En daarmee ook misschien even een stapje naar tips en misschien wel iets waar andere organisaties wat van kunnen leren met de ervaring die jullie hebben opgedaan.

563
00:29:00,520 --> 00:29:06,400
Wat zou je mee willen geven of aan kunnen raden vanuit jullie ervaring als bedrijven met AI aan de slag willen gaan?

564
00:29:06,400 --> 00:29:11,880
Ja, wees pragmatisch.

565
00:29:11,880 --> 00:29:15,600
Kijk, vaak heb je al een cloud infrastructuur staan.

566
00:29:15,600 --> 00:29:17,920
Sluit daar gewoon op aan en begin gewoon.

567
00:29:17,920 --> 00:29:21,420
Dus ja, er is elke paar weken wel weer een nieuw model.

568
00:29:21,420 --> 00:29:25,420
Ja, dan moet je ook een beetje bestand...

569
00:29:25,420 --> 00:29:28,400
Ja, een beetje olifantenhuid creëren.

570
00:29:28,400 --> 00:29:30,240
Je moet een beetje olifantenhuid creëren.

571
00:29:30,660 --> 00:29:31,300
Ik ben dus...

572
00:29:31,300 --> 00:29:32,740
Ik ligt er zelf überhaupt niet zo wakker van.

573
00:29:32,740 --> 00:29:36,480
Ik denk van, ik zie wel over een paar maanden welke nieuwe tool het heeft overleefd.

574
00:29:36,480 --> 00:29:38,040
Want ze komen links en rechts de grond uit.

575
00:29:38,040 --> 00:29:41,260
Dus begin gewoon en wees pragmatisch.

576
00:29:41,260 --> 00:29:43,960
Sluit aan bij infrastructuur die je al hebt staan.

577
00:29:43,960 --> 00:29:46,040
Dat helpt in ieder geval om snel...

578
00:29:46,040 --> 00:29:49,040
Ja, denk inderdaad na over...

579
00:29:49,040 --> 00:29:54,060
Kijk, je moet ook weer niet headfirst helemaal naïef er ingaan.

580
00:29:54,060 --> 00:29:58,300
Dus denk wel na over, oké, is het gepast in mijn enterprise omgeving?

581
00:29:59,420 --> 00:30:02,160
Dan zijn er ook architecten en security experts.

582
00:30:02,160 --> 00:30:03,300
Die vinden er ook allemaal wat van.

583
00:30:03,300 --> 00:30:05,680
Betrek die vanaf seconde één in het gesprek.

584
00:30:05,680 --> 00:30:08,340
Want als je dat niet doet, dan word je teruggefloten.

585
00:30:08,340 --> 00:30:09,720
Dan heb je al investeringen gemaakt.

586
00:30:09,720 --> 00:30:11,740
En dat is heel vervelend voor iedereen.

587
00:30:11,740 --> 00:30:14,620
Dan ben je meteen defensief aan het programmeren.

588
00:30:14,620 --> 00:30:14,780
Ja.

589
00:30:17,880 --> 00:30:22,140
Dus dat is denk ik echt wel een tip uit onze ervaring dat die goed heeft uitgepakt.

590
00:30:22,140 --> 00:30:26,700
Terwijl cybersecurity ook natuurlijk echt een belemmering kan zijn voor snelle innovatie.

591
00:30:26,700 --> 00:30:31,940
Ja, daarom was het zo interessant dat jullie toch wel vanuit die eerste dat zo benaderd hebben.

592
00:30:32,340 --> 00:30:34,300
Ik heb dat nog niet eerder zo gehoord.

593
00:30:34,300 --> 00:30:35,680
Dus dat is wel heel erg interessant.

594
00:30:35,680 --> 00:30:38,940
Ja, dat is denk ik ook wat unieke aan ons verhaal.

595
00:30:38,940 --> 00:30:39,260
Ja.

596
00:30:39,260 --> 00:30:39,360
Ja.

597
00:30:39,360 --> 00:30:41,440
Nou, we hebben vragen uit het publiek.

598
00:30:41,440 --> 00:30:42,200
Jazeker.

599
00:30:42,200 --> 00:30:43,500
En we hebben er meerdere.

600
00:30:43,500 --> 00:30:45,540
Dus ik begin gewoon heel random bovenaan.

601
00:30:45,540 --> 00:30:48,100
De vraag is van Arjan de Hoop.

602
00:30:48,100 --> 00:30:50,280
Gen AI adviseur bij ZETA Alpha.

603
00:30:50,280 --> 00:30:51,580
Dankjewel voor je vraag, Arjan.

604
00:30:52,460 --> 00:30:58,400
De vraag luidt, bij het gebruik van RAG ben je erg afhankelijk van de kwaliteit van AI zoekmachines.

605
00:30:58,400 --> 00:31:00,660
Deze zijn minder accuraat op de Nederlandse data.

606
00:31:00,660 --> 00:31:01,940
Wat doe je hier aan?

607
00:31:01,940 --> 00:31:13,000
Bij AI zoekmachines denk ik meteen van dan heb je het misschien over bestaande oplossingen die je dan of die zelf gebruikt.

608
00:31:13,000 --> 00:31:20,840
Een van de grappige dingen aan ons product, omdat we zo vroeg zijn begonnen, is dat we keuzes maakten.

609
00:31:21,100 --> 00:31:24,360
We begonnen in de tijd dat er nog geen standaard tooling was voor RAG.

610
00:31:24,360 --> 00:31:25,740
En die is er natuurlijk nu overal.

611
00:31:25,740 --> 00:31:31,220
Dus wij hebben wel daardoor heel veel controle gehad over ons systeem.

612
00:31:31,220 --> 00:31:35,040
Heeft jullie eigenlijk een voordeel opgeleverd?

613
00:31:35,040 --> 00:31:36,860
Ja, een nadeel aan een voordeel.

614
00:31:36,860 --> 00:31:40,340
Want een nadeel is enerzijds dat je meer onderhoud hebt.

615
00:31:40,340 --> 00:31:44,880
Het voordeel is dat je heel veel ervaring opdoet met alle stappen die erbij komen kijken.

616
00:31:44,880 --> 00:31:49,280
Waardoor je ook sneller het kaf en het koren kan scheiden in het hele toolinglandschap.

617
00:31:49,740 --> 00:31:54,900
Als iemand een praatje geeft, dan weet ik meteen van ah oké, dat doen die en die gebruiken die chunker en dat embedding model.

618
00:31:54,900 --> 00:31:58,240
En dat kun je vaak een beetje reverse engineeren.

619
00:31:58,240 --> 00:31:58,400
Ja.

620
00:31:58,400 --> 00:32:07,580
Wat ik wel herken, dat zit een beetje achter de vraag, is dat als je standaard oplossingen koopt,

621
00:32:07,580 --> 00:32:12,960
en dan denk ik ook aan co-pilot-achtige dingen, dat toch vaak wel heel erg is ingesteld op Engels.

622
00:32:13,100 --> 00:32:15,480
En wij zijn ook een Nederlandstalig bedrijf.

623
00:32:15,480 --> 00:32:16,820
Dus dat herken ik zeker.

624
00:32:16,820 --> 00:32:22,340
Wij gebruiken embeddings die in principe voor meerdere talen werken.

625
00:32:22,340 --> 00:32:28,000
Maar daar moet ik meteen toegeven, wij zijn niet helemaal van oh dat moet 100% geoptimaliseerd zijn.

626
00:32:28,000 --> 00:32:35,620
Er zijn ook in ons platform, er zijn 100 losse eindjes van dingen die we helemaal experimenteel hadden kunnen uitvogelen.

627
00:32:35,980 --> 00:32:41,080
Nou, we hadden 100 embedding modellen kunnen benchmarken, kijken welke...

628
00:32:41,080 --> 00:32:43,220
Kun je wel even kort uitleggen wat een embedding model is?

629
00:32:43,220 --> 00:32:44,720
Ja, hele goede check. Sorry.

630
00:32:44,720 --> 00:32:47,520
Ik merk meteen dat ik tegen de expert uit het diep praat.

631
00:32:47,520 --> 00:32:47,640
Ja.

632
00:32:47,640 --> 00:32:53,420
Een embedding model, dat is een beetje abstract.

633
00:32:53,420 --> 00:32:58,340
Maar dat is eigenlijk een manier om teksten doorzoekbaar te maken.

634
00:32:58,540 --> 00:33:02,580
Niet op een ctrl-f manier, zoals in een Word document.

635
00:33:02,580 --> 00:33:07,680
Je denkt van, hé, ik zoek iets over pipo de clown, dan is mijn zoekterm pipo.

636
00:33:07,680 --> 00:33:13,060
Waarom dit vooral naar boven kan, daar mag een of andere psychoanalyste over buigen.

637
00:33:13,060 --> 00:33:25,100
Een embedding model, dat is een model dat teksten in een abstracte ruimte weten representeren.

638
00:33:25,240 --> 00:33:31,260
En het enige wat je er eigenlijk van moet snappen, is dat woorden die op elkaar lijken qua betekenis, op hetzelfde plekje in die ruimte komen.

639
00:33:31,260 --> 00:33:33,900
Dus een hond en een kat zijn twee hele andere dingen.

640
00:33:33,900 --> 00:33:37,200
Maar het zijn wel allebei dieren, dus ze zullen wel een beetje in die ruimte zitten.

641
00:33:37,200 --> 00:33:39,840
En het voordeel daarvan is, die zijn doorzoekbaar.

642
00:33:39,840 --> 00:33:45,580
Dus op basis daarvan kun je slimme zoekoplossingen maken die met het duurwoord op semantiek zoeken.

643
00:33:45,580 --> 00:33:46,880
Dus de betekenis van woorden.

644
00:33:46,880 --> 00:33:51,320
Meer dan dat je, net zoals in die ctrl-f oplossing, het identiek juiste woord moet hebben.

645
00:33:51,320 --> 00:34:00,880
En dat staat natuurlijk ook opgesloten in de vraag van, hé maar die embedding modellen zijn vaak getraind op het Engels, de Engelse vocabulair.

646
00:34:00,880 --> 00:34:06,280
Hoe zijn jullie dan omgegaan dat je eigenlijk wil zoeken in de Nederlandse vocabulair?

647
00:34:06,280 --> 00:34:09,440
Ze werken ook op het Nederlands.

648
00:34:09,440 --> 00:34:13,320
Dus voordat de zoekbaarheid, hebben we dat niet extreem geoptimaliseerd.

649
00:34:14,080 --> 00:34:16,440
Dit is echt zo'n ding waar je ook pragmatisch in kan zijn.

650
00:34:16,440 --> 00:34:19,320
We hebben op een per capaciteit.

651
00:34:19,320 --> 00:34:23,060
We hebben nu momenteel drie ontwikkelaars waar we alles mee bouwen.

652
00:34:23,060 --> 00:34:24,179
Dus dat is best wel aanpoten.

653
00:34:24,179 --> 00:34:31,400
En dan is een van de keuzes die je vrij snel maakt, is we gaan niet 100 embedding modellen benchmarken.

654
00:34:31,400 --> 00:34:37,739
En in dit geval, als je gewoon een OpenAI model gebruikt, op geen enkele benchmark is die het beste.

655
00:34:38,040 --> 00:34:42,280
Maar goed, die benchmarks zijn ook een beetje vertekend, want je finetunet iets daar helemaal op.

656
00:34:42,280 --> 00:34:46,179
Maar off the shelf werkt het prima voor de meeste toepassingen.

657
00:34:46,179 --> 00:34:50,020
En dat is voor ons ook wel de juiste keuze, omdat wij een heel breed bedrijf zijn.

658
00:34:50,020 --> 00:34:55,520
En we moeten onze oplossingen ook niet op één gebruiker afstemmen, want dan hebben we een andere gebruiker weer mee.

659
00:34:55,520 --> 00:34:57,200
Ja, duidelijk.

660
00:34:57,200 --> 00:35:02,100
Maar om dat antwoord af te ronden van, dat werkt best oké in de Nederlands.

661
00:35:02,100 --> 00:35:04,260
Dus het is niet alleen om het Engels getraind.

662
00:35:05,860 --> 00:35:11,760
En Nederlands is in mijn ervaring in dit domein vaak een van de best ondersteunde talen.

663
00:35:11,760 --> 00:35:13,720
Wat ik wel soms vreemd vind.

664
00:35:13,720 --> 00:35:17,140
Misschien zitten er gewoon heel veel NLP-enthousiasten in Nederland.

665
00:35:17,140 --> 00:35:20,440
Of is het een hele makkelijke taal om dingen mee te doen.

666
00:35:20,440 --> 00:35:25,800
Maar in de benchmarks van OpenAI zelf komt Nederlands er altijd verrassend goed uit.

667
00:35:25,800 --> 00:35:29,340
Misschien wel sommigen zelfs op nummer één.

668
00:35:29,340 --> 00:35:31,440
Anders wel direct na Engels vaak.

669
00:35:33,040 --> 00:35:38,760
En wat in de RAG-oplossing dan ook wel vaak helpt, is dat het taalmodel zelf heel goed bullshit kan filteren.

670
00:35:38,760 --> 00:35:43,660
Dus onze information, zeg maar het zoeken, is niet perfect.

671
00:35:43,660 --> 00:35:45,920
Maar dat hoeft het ook niet altijd te zijn.

672
00:35:45,920 --> 00:35:55,280
Als je maar een paar van de juiste dingen vindt, dan kan het taalmodel in het formuleren van het uiteindelijke antwoord vaak nog best wel onzin er uitfilteren.

673
00:35:55,280 --> 00:36:01,160
En in de context die jullie gebruiken, jullie geven aan het interne medewerkers, de professionals die weten in welke context opereren.

674
00:36:01,160 --> 00:36:04,300
Gaat het ze al helpen en kunnen ze zelf ook nog wel beoordelen of dat goed is.

675
00:36:04,300 --> 00:36:06,660
Dus binnen die context is goed is goed genoeg.

676
00:36:06,660 --> 00:36:08,980
En hoeft de perfectie niet opgezocht te worden.

677
00:36:08,980 --> 00:36:13,560
En daarmee is het nog niet de noodzaak geweest om die specialisatie daarop te bouwen.

678
00:36:14,000 --> 00:36:15,800
Dus omdat we een breed publiek willen bedienen.

679
00:36:15,800 --> 00:36:19,760
En precies wat je zegt, we willen eigenlijk de expert aan het roer laten.

680
00:36:19,760 --> 00:36:22,880
Ja, helemaal eens.

681
00:36:22,880 --> 00:36:29,000
En dat geven jullie dan ook mee in waarschijnlijk de talks die jullie hebben en de presentaties van, goh, het is misschien niet altijd goed.

682
00:36:29,000 --> 00:36:32,880
En dat is wel een bewustwording die natuurlijk aan de professional meegegeven moet worden.

683
00:36:32,880 --> 00:36:33,860
Maar dat is daar de uitdaging.

684
00:36:33,860 --> 00:36:35,480
Dat is misschien dan nog de derde tip.

685
00:36:35,480 --> 00:36:37,080
Waarvoor heb ik twee tips gegeven op de hand.

686
00:36:37,080 --> 00:36:38,400
De derde tip.

687
00:36:38,400 --> 00:36:41,600
Onderschat niet, je moet echt aan de slag met mensen opleiden.

688
00:36:41,600 --> 00:36:45,680
Ook vanuit de AI Act wordt AI Literacy steeds meer een ding.

689
00:36:45,680 --> 00:36:50,140
We zijn al vrij vroeg bezig gegaan met opleidingen zelf maken.

690
00:36:50,140 --> 00:36:54,360
We hebben ook het lef, daar hoef je niet altijd een dure externe partijen voor in te vliegen.

691
00:36:54,360 --> 00:36:56,140
Ik weet niet of ik in niemands vaarwater zit nu.

692
00:36:56,140 --> 00:37:01,960
Maar je kan ook zelf kleinschalig beginnen en vanaf daar kijken waar je landt.

693
00:37:01,960 --> 00:37:03,240
Dat is echt heel belangrijk.

694
00:37:03,240 --> 00:37:07,840
Want de waarde van die technologie, je kan wel een platform aanbieden.

695
00:37:07,840 --> 00:37:09,540
Maar de mensen moeten het wel zelf gaan doen.

696
00:37:09,920 --> 00:37:13,280
We zitten hier, zowel de luisteraars als in het publiek.

697
00:37:13,280 --> 00:37:19,120
Je zit in een bubbel waarin je ook denkt dat mensen het onderhand wel weten.

698
00:37:19,120 --> 00:37:20,480
Maar dat is natuurlijk helemaal niet waar.

699
00:37:20,480 --> 00:37:22,040
Dat is zeker niet waar.

700
00:37:22,040 --> 00:37:27,700
En wat we in onze trainingen doen, dat is ook wel leuk dat je gewoon inderdaad je handen vel maakt.

701
00:37:27,700 --> 00:37:29,560
Naar die gebruikers toe gaat om ze op te leiden.

702
00:37:29,560 --> 00:37:31,220
Dat doen we ook gewoon met ons kleine team.

703
00:37:32,220 --> 00:37:39,000
Om de hand gaan hele afdelingen komen aan kloppen van we moeten denk ik alle medewerkers die training halen.

704
00:37:39,000 --> 00:37:42,580
Maar een van de dingen die je ziet is dat mensen zeggen wel te snappen.

705
00:37:42,580 --> 00:37:51,220
Maar bijvoorbeeld als ik vraag wat is een lekker tomatenrecept om vanavond te koken.

706
00:37:51,220 --> 00:37:52,700
Dan krijg ik een mooi antwoord.

707
00:37:53,260 --> 00:37:59,260
Als ik daarna een programmeertest wil schrijven, dan kiest die opeens toevallig tomatensap als een teststring.

708
00:37:59,260 --> 00:38:01,120
Dan denk ik van, hoe kan dat nou?

709
00:38:01,120 --> 00:38:04,700
Dus alleen al zo iets, dat is echt laaghangend fruit.

710
00:38:04,700 --> 00:38:09,020
Dus zelfs zal mensen bewust maken van, hey begin af en toe een nieuwe chat.

711
00:38:09,020 --> 00:38:09,360
Ja.

712
00:38:10,820 --> 00:38:13,080
Dat klinkt super triviaal.

713
00:38:13,080 --> 00:38:14,020
Snap je?

714
00:38:14,020 --> 00:38:16,740
En iedereen zegt, oh nee maar dat snappen we wel.

715
00:38:16,740 --> 00:38:19,000
En in zo'n training kijk je over iemand schouders mee.

716
00:38:19,000 --> 00:38:19,460
Ja.

717
00:38:19,460 --> 00:38:21,120
En dan zie je toch dat ze dat niet doen.

718
00:38:21,120 --> 00:38:21,620
Precies.

719
00:38:21,620 --> 00:38:23,440
En daar zit de waarde in.

720
00:38:23,440 --> 00:38:24,260
Ja, mooi.

721
00:38:24,260 --> 00:38:25,760
Dus echte adoptie.

722
00:38:25,760 --> 00:38:27,740
We hebben nog meerdere vragen.

723
00:38:27,740 --> 00:38:28,200
Ja, daarom.

724
00:38:28,200 --> 00:38:29,360
We gaan snel door naar de volgende vraag.

725
00:38:29,360 --> 00:38:31,780
Die is van Peter Brouwers, founder van NextGen AI.

726
00:38:31,780 --> 00:38:33,380
Dankjewel Peter voor je vraag.

727
00:38:33,380 --> 00:38:39,420
Hoe zetten jullie de door AI besparende tijd in voor het verhoog van welzijn en werkgeluk van de medewerker?

728
00:38:40,340 --> 00:38:42,440
Oh, dat is meer een vraag voor HR zou ik bijna zeggen.

729
00:38:42,440 --> 00:38:45,160
Of de filosoof in je.

730
00:38:45,160 --> 00:38:47,380
Herhaal hem nog eens.

731
00:38:47,380 --> 00:38:50,300
Ik heb het gevoel dat er een addertje onder het gas zit bij die vraag.

732
00:38:50,300 --> 00:38:56,380
Hoe zetten jullie de door AI besparende tijd in voor het verhogen van welzijn en werkgeluk van de medewerkers?

733
00:38:56,380 --> 00:39:03,300
Ja, de aanname lijkt te zijn, je wordt gelukkiger door tijd te besparen.

734
00:39:03,300 --> 00:39:07,580
Ik kan dat niet voor Peter invullen, maar wat wordt...

735
00:39:07,580 --> 00:39:10,300
Nou, laten we hem eens uit elkaar trekken van waar...

736
00:39:10,300 --> 00:39:12,280
zet je de gewonde tijd voor in.

737
00:39:12,280 --> 00:39:12,540
Ja.

738
00:39:12,540 --> 00:39:16,480
Nou, dat kan ik niet voor al onze gebruikers beantwoorden.

739
00:39:16,480 --> 00:39:16,720
Nee.

740
00:39:16,720 --> 00:39:18,660
Dat ga ik ook zeker niet pretenderen.

741
00:39:20,340 --> 00:39:22,280
Ik denk in ieder geval zelf.

742
00:39:22,280 --> 00:39:24,400
Ik programmeer ook gewoon aan het product.

743
00:39:24,400 --> 00:39:26,320
Ja, als je inderdaad...

744
00:39:26,320 --> 00:39:27,820
Ik vond vorige praatje heel erg leuk, hè.

745
00:39:27,820 --> 00:39:28,740
Test-driven development.

746
00:39:28,740 --> 00:39:29,180
Ja.

747
00:39:29,340 --> 00:39:38,880
Als je routine taakjes kan wegautomatiseren, zodat je meer tijd overhoudt voor de leuke dingen en de dingen die ook meer hersencapaciteit vragen.

748
00:39:38,880 --> 00:39:39,520
Ja.

749
00:39:40,040 --> 00:39:45,260
En je kan daar ook die capaciteit voor gebruiken, omdat je niet helemaal lam geslagen bent door al die routine taakjes.

750
00:39:45,260 --> 00:39:49,340
Dan is dat volgens mij pure winst en ook leuk voor je werk.

751
00:39:49,340 --> 00:39:52,460
En is dat dan misschien welzijn verhogend?

752
00:39:53,460 --> 00:39:55,240
Nou ja, dat zal je moeten onderzoeken, hè.

753
00:39:55,240 --> 00:39:56,460
Wij doen...

754
00:39:56,460 --> 00:40:02,020
Welzijn van de medewerkers is heel belangrijk, evident.

755
00:40:02,020 --> 00:40:02,620
Absoluut.

756
00:40:02,620 --> 00:40:06,440
Er wordt constant uitgevraagd bij ons en er wordt ook actie ontnomen en dan weer aanvraag gedaan.

757
00:40:06,440 --> 00:40:07,400
Heeft het verbeterd?

758
00:40:07,400 --> 00:40:07,620
Ja.

759
00:40:07,620 --> 00:40:10,700
Wat wel een leuke challenge is, daar zit nog geen vraag in.

760
00:40:10,700 --> 00:40:11,260
Nee.

761
00:40:11,260 --> 00:40:13,000
Hoe werkt ChatNS voor jou?

762
00:40:13,000 --> 00:40:13,080
Ja.

763
00:40:13,080 --> 00:40:14,160
Wordt jouw werk leuker?

764
00:40:14,160 --> 00:40:14,500
Ja.

765
00:40:14,500 --> 00:40:16,820
Dus bedankt voor de vraag.

766
00:40:16,820 --> 00:40:17,500
Het is eigenlijk wel...

767
00:40:17,500 --> 00:40:18,420
Ik ben wel geïnspireerd.

768
00:40:18,420 --> 00:40:19,960
Om die mee te gaan nemen.

769
00:40:19,960 --> 00:40:20,720
Om die mee te gaan nemen.

770
00:40:20,720 --> 00:40:22,300
In ieder geval te gaan lobbyen bij de mensen die dat doen.

771
00:40:22,300 --> 00:40:23,280
Van, hé, vraag het eens.

772
00:40:23,280 --> 00:40:23,620
Ja.

773
00:40:23,620 --> 00:40:24,340
Wat goed.

774
00:40:24,340 --> 00:40:24,640
Ja.

775
00:40:24,640 --> 00:40:28,160
Maar het idee van alles efficiënter, dat an sich.

776
00:40:28,160 --> 00:40:33,660
Ja, dat is toch een beetje te nauw gekeken naar die technologie.

777
00:40:33,660 --> 00:40:34,080
Ja.

778
00:40:34,080 --> 00:40:35,600
Als ik me even voor mezelf beantwoord.

779
00:40:35,600 --> 00:40:38,000
Ik ben gewoon blij dat ik gesupport word.

780
00:40:38,000 --> 00:40:42,700
En een stukje vertrouwen door bepaalde zaken gewoon die routinematig zijn waar ik telkens weer mijn geheugen in moet.

781
00:40:42,700 --> 00:40:43,000
Ja.

782
00:40:43,000 --> 00:40:43,680
Daar helpt het mij.

783
00:40:43,680 --> 00:40:44,780
Dus dat geeft me ook een vertrouwen.

784
00:40:44,780 --> 00:40:45,840
En dat zorgt voor mij.

785
00:40:45,840 --> 00:40:46,120
Ja.

786
00:40:46,120 --> 00:40:47,300
Meer werk geluk daarin.

787
00:40:47,300 --> 00:40:48,020
Ja.

788
00:40:48,020 --> 00:40:49,300
Ja.

789
00:40:49,300 --> 00:40:51,480
Gaan we gelijk door naar de volgende vraag.

790
00:40:51,480 --> 00:40:52,500
Die is van Kim.

791
00:40:52,500 --> 00:40:55,780
Je wordt bestookt met ideeën.

792
00:40:55,780 --> 00:40:58,580
Hoe bepaal je waar je wel en niet wat mee gaat doen?

793
00:40:58,580 --> 00:41:00,300
Oh, dat is een hele goede vraag.

794
00:41:00,300 --> 00:41:00,680
Ja.

795
00:41:00,680 --> 00:41:01,800
En daar worstelen we echt mee.

796
00:41:01,800 --> 00:41:02,180
Ja.

797
00:41:03,780 --> 00:41:06,900
We zijn nu heel erg zoekende in dat proces een beetje stroomlijnen.

798
00:41:06,900 --> 00:41:13,700
Op een gegeven moment, kijk, als je honderd vragen krijgt, dan herken je op een gegeven moment patronen in die vragen.

799
00:41:14,360 --> 00:41:18,000
Dus het wordt in die zin wel steeds makkelijker om snel in te schatten.

800
00:41:18,000 --> 00:41:20,400
Oké, zo'n use case hebben we al drie keer voorbij zien komen.

801
00:41:20,400 --> 00:41:22,240
En dan heb je je antwoord wel klaar.

802
00:41:22,240 --> 00:41:22,500
Ja.

803
00:41:23,860 --> 00:41:34,620
Een van mijn collega's, die zit hier nu ook in de koffer in de zaal, heeft onderhand ook een workspace gemaakt met de vragen die we vaak krijgen.

804
00:41:34,620 --> 00:41:38,260
Dus onderhand kun je aan ons eigen platform vragen.

805
00:41:38,260 --> 00:41:40,460
Dat is een beetje een flauw antwoord.

806
00:41:41,260 --> 00:41:45,640
Maar we begeleiden zeker dus wel in het ontwikkelen van use cases.

807
00:41:45,640 --> 00:41:47,900
Daar ligt denk ik ook heel veel van de waarde van het product.

808
00:41:47,900 --> 00:41:48,320
Ja.

809
00:41:48,320 --> 00:41:53,340
Dus dat is een constante, we willen veel meer dan wat we kunnen.

810
00:41:53,340 --> 00:41:59,500
Het is elke keer dat we nee zeggen, soms zeggen we ook, ja het is een goed idee, we hebben even geen capaciteit.

811
00:41:59,500 --> 00:42:02,440
Dat doet pijn.

812
00:42:02,440 --> 00:42:09,080
Maar dat is een constante worsteling, een afweging van capaciteit, de waarde die het oplevert.

813
00:42:09,080 --> 00:42:11,440
En dan gaat het helaas wel vaak ook over euro's.

814
00:42:11,440 --> 00:42:13,660
En niet alleen over werkplezier.

815
00:42:13,660 --> 00:42:15,680
Want ja, ik vind die ook belangrijk.

816
00:42:15,680 --> 00:42:18,840
Maar goed, meet is weten en dat verkoopt wel makkelijker.

817
00:42:18,840 --> 00:42:20,500
En daar wordt dan ook op gestuurd.

818
00:42:20,500 --> 00:42:21,580
Ja, daar wordt op gestuurd.

819
00:42:21,580 --> 00:42:24,280
Dus we zitten ook in tijden van bezuiniging.

820
00:42:24,280 --> 00:42:27,380
Dus dat is gewoon, dat verhaal moet je ook vertellen.

821
00:42:27,380 --> 00:42:30,500
En dat helpt mee om, ja.

822
00:42:30,500 --> 00:42:35,160
Ja, maar persoonlijk, ik denk dat het ook niet altijd kwaad kan door af en toe nee te verkopen.

823
00:42:35,160 --> 00:42:39,880
Dat er wat kritisch gekeken wordt naar de vraag en waarvoor stel ik de vraag.

824
00:42:39,880 --> 00:42:42,580
En ja, is de use case, de business case echt zo groot?

825
00:42:42,580 --> 00:42:46,500
Of is het nu gewoon een vraag die ik graag wil stellen, omdat ik er even nu op dit moment last van heb.

826
00:42:46,500 --> 00:42:54,140
Ja, bijvoorbeeld, we zien ook echt wel vragen komen waarvan je eigenlijk een proces hebt, waarmee data wordt gegenereerd.

827
00:42:54,560 --> 00:43:02,000
Dat kan bijvoorbeeld zijn, en op zich is dat een goede toepassing van het taalmodel, dat iemand beschrijvingen heeft van defecten.

828
00:43:02,000 --> 00:43:02,480
Ja.

829
00:43:02,480 --> 00:43:04,460
Maar daar mist dan een veld in de Excel sheet.

830
00:43:04,460 --> 00:43:04,940
Oh ja.

831
00:43:04,940 --> 00:43:07,200
Oh ja, laten we dat classificeren met het taalmodel.

832
00:43:07,200 --> 00:43:07,420
Ja.

833
00:43:07,420 --> 00:43:12,700
En dat is zo'n case waarvan ik dan zou zeggen, nou, dat kan zeker met een taalmodel.

834
00:43:12,700 --> 00:43:15,920
En met een beetje prompt engineering hoef je ook helemaal niks customs te doen.

835
00:43:15,920 --> 00:43:18,060
Je kan gewoon ons platform gebruiken zonder extra werk.

836
00:43:18,300 --> 00:43:21,280
Dus daar zit weer dat stukje gebruikersopleiding in.

837
00:43:21,280 --> 00:43:21,560
Ja.

838
00:43:21,560 --> 00:43:26,620
Alleen wat je eigenlijk moet doen, is gewoon je primaire proces verbeteren en dat veldje gewoon laten invullen.

839
00:43:26,620 --> 00:43:26,960
Ja.

840
00:43:26,960 --> 00:43:31,300
Dus bijvoorbeeld als je wil weten, is dit een storing in de software of is het een hardware probleem?

841
00:43:31,300 --> 00:43:34,580
Zeg, ja, als je die informatie nodig hebt in je proces, dan moet je bij de bron.

842
00:43:34,580 --> 00:43:36,060
Dus ja.

843
00:43:36,060 --> 00:43:41,300
En dat maakt het wel lastig, zeker als je enthousiast bent over technologie.

844
00:43:41,300 --> 00:43:47,000
En misschien als, weet je, je zit bij jullie in een bedrijf en je denkt van, ja, maar nou heb ik een technologische oplossing.

845
00:43:47,400 --> 00:43:51,440
Om dan, zeg maar, nou meer dan één stap erachter te doen.

846
00:43:51,440 --> 00:43:53,540
Ik denk van, hé, maar misschien kunnen we het proces aanpassen.

847
00:43:53,540 --> 00:43:55,340
Misschien hoeven we dit proces helemaal niet uit te voeren.

848
00:43:55,340 --> 00:43:56,520
Dat wordt vaak ook vergeten.

849
00:43:56,520 --> 00:43:56,820
Ja.

850
00:43:56,820 --> 00:44:03,380
En dat misschien AI ook wel het laatste stukje is om in te vullen.

851
00:44:03,380 --> 00:44:03,820
Ja.

852
00:44:03,820 --> 00:44:08,340
Want er zijn goedkopere, makkelijkere manieren om problemen uiteindelijk op te lossen.

853
00:44:08,340 --> 00:44:09,260
Ja, zeker.

854
00:44:09,260 --> 00:44:15,640
Want wel met traditionele machine learning of traditionele AI projecten, er zit natuurlijk veel meer maatwerk in.

855
00:44:15,640 --> 00:44:16,020
Ja.

856
00:44:16,500 --> 00:44:19,500
Dus wat ik dan wel vaak zeg, is van, eigenlijk wat je nu net zei.

857
00:44:19,500 --> 00:44:24,260
Dus let wel op, misschien moet je het proces fixen.

858
00:44:24,260 --> 00:44:25,400
Dat is het eigenlijke probleem.

859
00:44:25,400 --> 00:44:26,900
En AI gaat dat ook niet oplossen.

860
00:44:26,900 --> 00:44:27,120
Ja.

861
00:44:27,120 --> 00:44:36,460
Maar wat dus wel mooi is aan de taalmodellen, is dat het is zo flexibel dat je wel een hele snelle prototype tool hebt.

862
00:44:36,460 --> 00:44:36,680
Ja.

863
00:44:36,920 --> 00:44:41,560
Dus het kan wel weer een middel zijn om mensen te overtuigen van, hé, we moeten dat veldje hebben.

864
00:44:41,560 --> 00:44:41,780
Ja.

865
00:44:41,780 --> 00:44:42,880
Wat heb je, kijk maar.

866
00:44:42,880 --> 00:44:44,560
Ik heb het laten invullen door ChatNS.

867
00:44:44,560 --> 00:44:44,800
Ja.

868
00:44:44,800 --> 00:44:46,040
En iedereen is er blij mee.

869
00:44:46,040 --> 00:44:46,720
Dat is zo mooi, ja.

870
00:44:46,720 --> 00:44:48,680
Dus je kan hem op die manier ook challengen.

871
00:44:48,680 --> 00:44:49,080
Ja.

872
00:44:49,080 --> 00:44:50,220
Hebben we nog een vraag?

873
00:44:50,220 --> 00:44:51,260
Ja, we hebben nog een vraag.

874
00:44:51,260 --> 00:44:53,000
Dat ligt een beetje in het verlengde.

875
00:44:53,000 --> 00:44:57,680
Dus ik wil eigenlijk voorstellen om toch even de droomvraag te stellen van de vaste categorie die we hebben.

876
00:44:57,680 --> 00:45:00,560
Want deze ligt, ja, ik laat hem toch even stellen dan.

877
00:45:01,360 --> 00:45:02,000
Dankjewel Arjan.

878
00:45:02,000 --> 00:45:03,880
De hoop, nog een vraag inderdaad.

879
00:45:03,880 --> 00:45:08,840
Buiten chatten met interne documenten, hebben die al specifieke RAG agents of solutions gebouwd?

880
00:45:08,840 --> 00:45:12,060
Ja, met RAG agents.

881
00:45:12,060 --> 00:45:15,960
Althans, RAG en agents zijn niet helemaal hetzelfde.

882
00:45:15,960 --> 00:45:18,780
Dus wat RAG agents zijn, weet ik niet.

883
00:45:18,780 --> 00:45:22,380
Maar wat ik vermoed dat wordt gevraagd is überhaupt agents.

884
00:45:22,380 --> 00:45:24,580
Dus dingen die acties kunnen uitzetten.

885
00:45:24,580 --> 00:45:27,360
Hebben we nog niet.

886
00:45:27,360 --> 00:45:30,860
Ik denk wel dat het op de horizon ligt.

887
00:45:30,960 --> 00:45:32,540
Maar dat is wel typisch een van die dingen.

888
00:45:32,540 --> 00:45:36,180
Als je zo'n platform meer agents geeft, krijg je ook bijbehorende risico's.

889
00:45:36,180 --> 00:45:44,000
En dit is dan weer precies zo'n ding waar we dan terug moeten gaan naar alle stakeholders die wat over security te zeggen hebben.

890
00:45:44,000 --> 00:45:45,700
Die hebben hier wel meningen over.

891
00:45:45,700 --> 00:45:51,160
We maken ons niet zo zorgen over prompt injection en dat soort dingen.

892
00:45:51,160 --> 00:45:54,420
Omdat er ten eerste, het is allemaal intern.

893
00:45:54,420 --> 00:45:56,940
En er worden naar buiten geen acties uitgezet.

894
00:45:56,940 --> 00:45:58,600
Dus het risico is gewoon vrij beperkt.

895
00:45:58,600 --> 00:46:00,700
En onze systeempromptes zijn gewoon niet gevoelig.

896
00:46:00,700 --> 00:46:03,340
Ik denk dat we zo een heel mooi rond verhaal hebben.

897
00:46:03,340 --> 00:46:08,360
Want we zijn begonnen met als uitgangspunt die veiligheid, cybersecurity.

898
00:46:08,360 --> 00:46:11,660
Daar hebben jullie een heel mooi platform gebouwd.

899
00:46:11,660 --> 00:46:17,540
Waarbij de NS-medewerkers eigenlijk versterkt worden in hoe zij hun werk doen.

900
00:46:18,260 --> 00:46:24,240
En je bent nu terug bij een volgende stap waarbij het weer een vraagstuk is.

901
00:46:24,240 --> 00:46:34,540
En ik wil nogmaals de complimenten geven van hoe je als conservatieve organisatie een innovatiekracht hebt gevonden.

902
00:46:35,040 --> 00:46:37,060
Binnen de context die jullie hebben.

903
00:46:37,060 --> 00:46:39,760
En fijn dat je dit met ons hebt willen delen.

904
00:46:39,760 --> 00:46:42,200
En dank jullie wel voor het luisteren ook.

905
00:46:42,200 --> 00:46:43,700
Ja, dankjewel.

906
00:46:50,200 --> 00:46:53,280
Leuk dat je luisterde naar deze aflevering van AIToday Live.

907
00:46:53,280 --> 00:46:55,540
Edwin, hartstikke bedankt voor al je inzichten.

908
00:46:55,540 --> 00:46:58,240
Vergeet je niet te abonneren via je favoriete podcast app.

909
00:46:58,240 --> 00:46:59,600
En dan mis je geen aflevering.

910
00:46:59,600 --> 00:47:00,200
Dankjewel.

911
00:47:00,720 --> 00:47:01,420
Tot de volgende keer.


People on this episode