
AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S07E87 - AI & digitale soevereiniteit: Kijkje in de keuken bij Vandebron
In deze bijzondere live-opname vanaf het Outvie-congres Dataprotectie en Privacy spreken we met Sietse Bruinsma, CTO bij Vandebron, over hun gedurfde overstap van AWS naar de Europese cloud provider Scaleway.
Wat je in deze aflevering hoort:
- Waarom Vandebron koos voor een Europese cloud - niet alleen voor data-soevereiniteit, maar vooral voor duurzaamheid en transparantie over CO2-uitstoot
- Hoe de overstap 30-40% kostenbesparingen opleverde door het vermijden van vendor lock-in
- De pragmatische multi-cloud aanpak: waarom ze nog steeds Google Workspace en Gemini gebruiken naast Europese alternatieven
- GreenOps in de praktijk: hoe Vandebron testclusters in het weekend uitschakelt voor energiebesparing
- AI in klantenservice met een menselijk gezicht: waarom klanten bij Vandebron altijd een mens aan de lijn krijgen
- Praktische tips voor bedrijven die overwegen naar een Europese cloud over te stappen
Sietse deelt openhartig over de uitdagingen bij de migratie, het belang van Kubernetes voor flexibiliteit, en hoe ze privacygevoelige gegevens beschermen bij het gebruik van AI-taalmodellen.
Een technische storing tijdens de opname zorgde voor een onverwachte wending, maar de waardevolle inzichten over digitale soevereiniteit, duurzaamheid en verantwoord AI-gebruik maken deze aflevering tot een must-listen voor iedereen die werkt met cloud en AI.
Links
- Podcast: AIToday Live podcast
- Organisatie: Vandebron
- Cloud Provider: Scaleway
- Cloud Provider: AWS
- AI Platform: Google Gemini
- AI Platform: Mistral
- Cloud Initiative: ECOFED (EUROPEAN CLOUD SERVICES IN AN OPEN FEDERATED ECOSYSTEM)
- Kaartspel: AI Game Changer - Generative AI editie
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Outvie
Outvie verbindt professionals met events en opleidingen rond actualiteit en strategie.
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,480 --> 00:00:03,820
In deze opname hoor je Sietse Bruinsma, CTO bij Vandebron.
2
00:00:04,800 --> 00:00:08,200
Maar dit wordt een beetje een apart begin dan anders.
3
00:00:08,780 --> 00:00:10,340
Want voordat we beginnen moet ik je iets vertellen.
4
00:00:11,000 --> 00:00:17,980
Tijdens deze live opname die we met Sietse hebben op het podium bij het Outvie-congres Dataprotectie en Privacy
5
00:00:18,420 --> 00:00:21,940
gebeurde er iets wat je als podcaster nooit wil meemaken.
6
00:00:22,480 --> 00:00:24,640
We waren ongeveer 15 minuten onderweg.
7
00:00:25,100 --> 00:00:30,060
Sietze was net aan het vertellen over green washing in de cloudindustrie toen plots het geluid wegviel.
8
00:00:30,780 --> 00:00:35,480
Ik keek naar onze podcastmixer en zag tot mijn afgrijzen file system error.
9
00:00:36,320 --> 00:00:40,520
De zaal zat vol, Sietse wilde zijn verhaal afmaken en onze tijd was beperkt.
10
00:00:41,420 --> 00:00:44,000
Ja, dus ik startte snel een nieuwe opname en we gingen door.
11
00:00:44,440 --> 00:00:47,420
Maar thuis werd mijn ernstig ergste vermoeden bewaarheid.
12
00:00:47,590 --> 00:00:50,060
Die eerste tien minuten waren volledig verdwenen.
13
00:00:50,680 --> 00:00:53,360
En ook met recovery software niets te redden.
14
00:00:54,620 --> 00:00:59,100
En voor alles moet een eerste keer zijn, maar sommige eerste keren sla je toch liever over.
15
00:00:59,700 --> 00:01:10,580
Maar goed, ik kan een reconstructie geven van dit eerste deel, want gelukkig had ik vooraf uitgebreid met Sietse gesproken en kan ik je vertellen wat we in die eerste tien minuten bespraken.
16
00:01:11,200 --> 00:01:17,240
Oh, en voordat ik het vergeet, we hadden de zaal uitgedaagd om tijdens de keynote vragen op te schrijven voor Sietse.
17
00:01:17,800 --> 00:01:22,740
En die vragen hebben we na de live opname behandeld. Je hoort ze aan het eind van deze aflevering.
18
00:01:23,180 --> 00:01:27,280
En twee gelukkige vraagstellers hebben mijn nieuwe boek, doeltreffend met AI Agents, gewonnen.
19
00:01:27,830 --> 00:01:28,780
Ook dat hoor je straks.
20
00:01:30,540 --> 00:01:32,920
Laat ik beginnen met de introductie van Sietse.
21
00:01:33,420 --> 00:01:35,840
We begonnen met zijn rol bij Vandebron.
22
00:01:36,460 --> 00:01:40,940
Hij is eindverantwoordelijk voor de techstrategie en alle technologische keuzes als CTO.
23
00:01:41,600 --> 00:01:45,940
Van der Bron bestaat sinds 2014 en is vanaf het begin al in de cloud begonnen.
24
00:01:46,380 --> 00:01:51,240
Het bijzondere is dat zij als duurzame energiemaatschappij niet alleen duurzame energie verkopen,
25
00:01:51,640 --> 00:01:54,620
maar ook hun IT-infrastructuur duurzaam willen maken.
26
00:01:55,030 --> 00:01:56,480
En dan van propositie tot platform.
27
00:01:57,240 --> 00:01:58,520
Zoals ziet ze het mooi verwoorden.
28
00:01:59,140 --> 00:02:04,420
In april van het jaar maakten ze de grote switch van AWS naar Scaleway.
29
00:02:04,640 --> 00:02:07,200
En dat is een Europese cloud provider, een hyperscaler.
30
00:02:07,620 --> 00:02:08,800
En hier komt het interessante.
31
00:02:09,300 --> 00:02:13,660
De hoofdreden was niet zozeer data soevereiniteit, maar duurzaamheid.
32
00:02:14,140 --> 00:02:19,920
AWS staat er volgens iets onbekend om alles te doen om zo onduidelijk mogelijk te maken wat de CO2-uitstoot is.
33
00:02:20,700 --> 00:02:24,400
En de timing was voor hun perfect, omdat hun technologie aan vervanging toe was.
34
00:02:24,760 --> 00:02:30,020
Dus in plaats van gewoon te vernieuwen, gingen ze op zoek naar een provider die wel transparantie biedt over duurzaamheid.
35
00:02:30,920 --> 00:02:33,860
Wat mij opviel in ons gesprek was het pragmatisme.
36
00:02:34,440 --> 00:02:37,680
Van de Bron heeft niet alles zomaar overgegooid.
37
00:02:37,960 --> 00:02:42,000
Ze gebruiken nog steeds Google Workspace, Gemini voor hun AI toepassingen.
38
00:02:42,580 --> 00:02:46,180
En het is daarmee op dit moment een multi-cloud strategie geworden.
39
00:02:46,860 --> 00:02:49,420
En zoals Sietze letterlijk zei, het is geen zwart-wit verhaal.
40
00:02:49,920 --> 00:02:51,560
Het is constant keuzes maken.
41
00:02:52,560 --> 00:02:56,420
Ze proberen de afhankelijkheid van Big Tech te verminderen waar mogelijk.
42
00:02:56,600 --> 00:02:58,080
Maar herkennen ook de realiteit.
43
00:02:58,580 --> 00:03:00,700
Voor hun chatbot gebruiken ze bijvoorbeeld Gemini.
44
00:03:01,100 --> 00:03:02,180
Omdat het gewoon goed werkt.
45
00:03:02,480 --> 00:03:05,160
En bij hun Google Workspace zit inbegrepen.
46
00:03:05,800 --> 00:03:09,960
En dan kijken ze wel met een schuin oog naar het Europese mistral voor de toekomst.
47
00:03:11,040 --> 00:03:14,020
Een eye-opener was de overstap naar Skillway.
48
00:03:14,160 --> 00:03:15,920
Dat het niet alleen duurzamer was.
49
00:03:15,940 --> 00:03:18,820
Maar ook voor hun 30 tot 40 procent goedkoper.
50
00:03:19,520 --> 00:03:25,480
En dat komt omdat ze bewust geen gebruik maken van allerlei Vendor-lock-indiensten van die hyperscalers.
51
00:03:26,180 --> 00:03:33,060
En leuk voor de technische luisteraars, ze gebruiken namelijk Kubernetes als orchestratie laag, waardoor ze relatief eenvoudig konden migreren.
52
00:03:33,940 --> 00:03:38,100
Al duurde het, zoals hij zei, wel een paar maanden langer dan gepland vanwege hun schaal.
53
00:03:40,820 --> 00:03:43,060
Nou, en toen kwam dus die technische storing.
54
00:03:43,460 --> 00:03:52,240
En we hadden het net over de transparantie die Scaleway biedt in hun duurzaamheidsrapportages over de verschillende scopes van CO2 uitstoot toen alles uitviel.
55
00:03:52,760 --> 00:03:57,080
Gelukkig konden we snel verder en je hoort nu het moment waarop we de draad weer oppakken.
56
00:03:57,580 --> 00:04:05,000
Waarbij ik ziet ze vroeg om nog even terug te komen op die transparantie en wat voor inzichten ze nu precies krijgen van een nieuwe cloud nog verder.
57
00:04:06,140 --> 00:04:09,900
Blijf vooral luisteren tot het eind, dan hoor je ook de vragen uit de zaal.
58
00:04:13,240 --> 00:04:15,000
File system error. Heel spannend.
59
00:04:15,260 --> 00:04:16,700
Wat ik zeg, voor alles moet een eerste keer zijn.
60
00:04:17,739 --> 00:04:19,079
We hadden het over greenwashing.
61
00:04:22,100 --> 00:04:30,480
Waar ik eigenlijk mee eindigde was dat die transparantie die wij dus ook krijgen in de rapportages van de cloud provider is echt wel ongekend voor ons.
62
00:04:31,479 --> 00:04:40,940
Voorheen zeker bij een AWS die toch ook wel bekend staat om alles eraan te doen om het zo onduidelijk mogelijk te maken wat de uitstoot is.
63
00:04:41,160 --> 00:04:43,920
En dat is natuurlijk ook helemaal niet in belang van cloud providers nu.
64
00:04:44,160 --> 00:04:45,320
Zeker met de opkomst van AI.
65
00:04:46,620 --> 00:04:52,660
Alle modellen die we kennen en alle grafiekjes, die zullen waarschijnlijk in de realiteit nog een keer tien zijn inmiddels.
66
00:04:55,700 --> 00:04:57,260
Wat voor inzichten krijg je dan zo?
67
00:04:58,120 --> 00:04:59,480
Het is eigenlijk een verzameling.
68
00:05:00,120 --> 00:05:04,999
Op basis van de verschillende scopes waar je rekening uit bent binnen de duurzaamheidsrapportage.
69
00:05:05,700 --> 00:05:07,180
Dus volgens mij is het scope 1, 2, 3.
70
00:05:08,120 --> 00:05:12,500
En op basis daarvan wordt het eigenlijk doorvertaald naar een CO2-uitstoot.
71
00:05:12,820 --> 00:05:18,320
Dus ik ben even de naam precies kwijt, maar dat is eigenlijk de output.
72
00:05:18,900 --> 00:05:22,300
En dat is op zich een hele mooie non-functionele KPI om ook op te gaan rapporteren.
73
00:05:22,380 --> 00:05:25,680
Dus dat hebben we op de lange termijn ook zeker wel op de planning staan.
74
00:05:26,240 --> 00:05:31,180
Om echt een target neer te zetten, om dat als reductie ook, als een cijfer, om op te rapporteren.
75
00:05:33,860 --> 00:05:36,180
Vanuit duurzaamheid horen we ook steeds vaker GreenOps.
76
00:05:36,820 --> 00:05:37,960
Kan je iets vertellen over het concept?
77
00:05:38,060 --> 00:05:39,720
Wat houdt het in en hoe passen jullie dat toe?
78
00:05:39,980 --> 00:05:40,580
En waarom?
79
00:05:42,580 --> 00:05:46,540
Greenops is allereerst echt een leuke uitdaging om te doen.
80
00:05:48,360 --> 00:05:50,240
Om een voorbeeld te geven van wat GreenOps doet.
81
00:05:50,300 --> 00:05:51,960
Om het een beetje tot de verbeelding te laten spreken.
82
00:05:53,140 --> 00:05:56,380
Als kind werd er altijd opgevoed als je de kamer verliet.
83
00:05:56,440 --> 00:05:59,000
Om het eventjes even uit te doen.
84
00:06:01,160 --> 00:06:05,540
Dat principe willen we ook toepassen in onze diensten in de cloud.
85
00:06:06,120 --> 00:06:10,640
Het mooie van de cloud is dat je als gebruiker het aan en uit kan zetten.
86
00:06:10,860 --> 00:06:11,480
Vrij eenvoudig.
87
00:06:13,039 --> 00:06:18,300
En een voorbeeld van een Greenops maatregel is dat je bijvoorbeeld in de weekenden een testcluster.
88
00:06:18,860 --> 00:06:21,960
Waarbij alle engineers hun software testen.
89
00:06:22,220 --> 00:06:23,700
Dat doen ze hopelijk niet in het weekend.
90
00:06:24,000 --> 00:06:24,760
Want dan hebben ze lekker vrij.
91
00:06:25,280 --> 00:06:28,620
Dan zetten we gewoon dat cluster of helemaal uit of op een heel laag pitje.
92
00:06:29,140 --> 00:06:33,460
En daarmee bespaar je dus ook gewoon simpelweg stroom en uitstoot.
93
00:06:34,140 --> 00:06:37,000
En qua beveiliging, als het uitstaat, lijkt het ook een stukje beter, toch?
94
00:06:37,480 --> 00:06:40,460
Ja, zeker. Als het uitstaat, kan je er niet in.
95
00:06:42,320 --> 00:06:46,080
Je gaf net al aan dat jullie ook gewoon Google Gemini nog gebruiken.
96
00:06:46,960 --> 00:06:51,500
Hoe balanceer je nou tussen de technologie die je wil gebruiken,
97
00:06:51,520 --> 00:06:53,000
dat je wel features blijft gebruiken,
98
00:06:53,640 --> 00:06:55,160
en die data-soevereiniteiten,
99
00:06:55,820 --> 00:06:59,700
dat je juist misschien niet de functionaliteit van Big Tech wil gebruiken?
100
00:07:00,060 --> 00:07:01,220
Hoe maken jullie die afweging?
101
00:07:01,560 --> 00:07:08,780
Ja, dus ik denk dat maatregelen die we bijvoorbeeld zelf ook toepassen is dat we logica inbouwen.
102
00:07:08,820 --> 00:07:11,000
Dus met name dan als het gaat rondom klantgegevens.
103
00:07:11,820 --> 00:07:14,120
Die sturen we natuurlijk niet naar zo'n taalmodel.
104
00:07:14,980 --> 00:07:17,360
Wat we eigenlijk daarmee doen is een bepaalde logica ingebouwd.
105
00:07:17,460 --> 00:07:21,940
Waardoor je alle PII, dus alle privacygegevens, er eigenlijk van onttrekt.
106
00:07:22,440 --> 00:07:25,900
En eigenlijk meer de vorm van de mail kan doorsturen.
107
00:07:26,000 --> 00:07:31,000
Dus dat is bijvoorbeeld een van de AI-assistants die we hebben ingebouwd in ons klant-service centrum.
108
00:07:31,500 --> 00:07:35,920
is eigenlijk dat een mail wordt eerst geanalyseerd intern bij ons.
109
00:07:36,420 --> 00:07:40,240
En vervolgens naar een taalmodel gestuurd om weer een voorbeeldmail te geven.
110
00:07:40,760 --> 00:07:43,600
Dan is er altijd nog wel, in ons geval, human in the loop.
111
00:07:44,200 --> 00:07:47,680
Er zit altijd nog wel iemand tussen die dan controleert, klopt het?
112
00:07:47,800 --> 00:07:48,760
Moet ik nog dingen aanpassen?
113
00:07:48,900 --> 00:07:49,960
En vervolgens dat we het weer sturen.
114
00:07:50,960 --> 00:07:54,300
Dus een voorbeeld is dat we daar al rekening mee houden.
115
00:07:54,360 --> 00:07:56,100
Wat sturen we dan naar die cloud provider?
116
00:07:56,380 --> 00:07:59,180
Ja, dus privacygevoelige gegevens eruit.
117
00:07:59,280 --> 00:08:00,820
Wat je overhoudt naar het taalmodel.
118
00:08:01,020 --> 00:08:04,240
Wat je terugkrijgt, daar kan je eigenlijk weer de gegevens voor invullen.
119
00:08:04,450 --> 00:08:06,600
Exact, dat is bijvoorbeeld een maatregel die we nemen.
120
00:08:06,900 --> 00:08:09,660
Vervolgens hebben we natuurlijk ook mensen die echt dat Gen AI,
121
00:08:09,800 --> 00:08:11,560
gewoon de chatbots gebruiken, ook van Gemini.
122
00:08:12,060 --> 00:08:17,200
Die proberen we met trainingen ook daarin te upskillen.
123
00:08:17,480 --> 00:08:19,440
En ook goed uitleggen hoe prompt je.
124
00:08:21,640 --> 00:08:24,580
En wat kan je er wel en liever niet in uploaden.
125
00:08:24,680 --> 00:08:26,820
Maar dat is natuurlijk wel ook afhankelijk van je medewerkers.
126
00:08:26,830 --> 00:08:30,760
Dus daar zit in die zin geen 100% dichte controle op.
127
00:08:30,900 --> 00:08:33,659
Maar we proberen onze medewerkers daar wel in op te leiden.
128
00:08:34,200 --> 00:08:34,520
Duidelijk.
129
00:08:34,640 --> 00:08:36,940
En heb je ook een voorbeeld van de andere kant op?
130
00:08:36,979 --> 00:08:39,260
Die zegt van, ja, maar dat hadden we eigenlijk wel heel graag gewild.
131
00:08:39,760 --> 00:08:42,960
Maar we hebben ervoor gekozen om het niet te doen vanwege die soevereiniteit.
132
00:08:48,320 --> 00:08:49,840
Nou, dat weet ik even niet.
133
00:08:50,820 --> 00:08:51,700
Kan je een voorbeeld noemen?
134
00:08:52,680 --> 00:08:53,780
Ik moet mij een beetje helpen met de vraag.
135
00:08:55,700 --> 00:08:57,780
Nou ja, dat je bepaalde functionaliteiten hebt.
136
00:08:57,860 --> 00:09:03,920
dat je zegt van ja, dat levert een Google of een AWS wel.
137
00:09:04,460 --> 00:09:05,880
Maar daar hebben we heel duidelijk voor gekozen.
138
00:09:06,140 --> 00:09:09,940
Of we gebruiken het nu niet of we hebben het uitgesteld
139
00:09:10,050 --> 00:09:12,960
tot het moment dat we dat in een Europese cloud kunnen
140
00:09:13,140 --> 00:09:13,920
of misschien lokaal.
141
00:09:13,920 --> 00:09:15,460
Ik weet niet of jullie ook lokaal dingen draaien.
142
00:09:15,860 --> 00:09:17,120
Nee, dus wij draaien niks lokaal.
143
00:09:19,720 --> 00:09:22,300
Nou kijk, wij hebben sowieso wel...
144
00:09:22,860 --> 00:09:26,140
Nu zitten we echt in een experimenterende fase rondom AI.
145
00:09:26,580 --> 00:09:30,240
en willen we daar niet te veel in tegenhouden.
146
00:09:30,250 --> 00:09:36,140
Dus iedereen moet echt wel kunnen proberen waarde te halen uit business cases en testen,
147
00:09:36,140 --> 00:09:37,460
uit proof of concept.
148
00:09:39,460 --> 00:09:41,540
Dat geeft ons ook de tijd om te kijken in hoeverre.
149
00:09:41,590 --> 00:09:46,980
Met de schuine ogen heb je een Mistral of je hebt ook andere modellen die gewoon Europees zijn.
150
00:09:47,860 --> 00:09:52,260
Of die op een gegeven moment op een niveau zitten dat we dat kunnen gaan gebruiken.
151
00:09:52,520 --> 00:10:00,940
Dus we hebben bijvoorbeeld ook met de partner, met wie we nu hebben ook de FAQ chatbot, die is op basis van LLM.
152
00:10:01,360 --> 00:10:03,280
Daar zit nu het taalmodel van Google onder.
153
00:10:03,720 --> 00:10:09,880
Maar we kijken al wel met een schuine oog van hoe kunnen we dat op TCT ook gaan vervangen voor het administraalmodel.
154
00:10:10,300 --> 00:10:12,660
Dus we houden dat wel in de gaten.
155
00:10:13,300 --> 00:10:16,980
Maar werkelijkheid is ook pragmatisch.
156
00:10:17,920 --> 00:10:20,640
Als het model heel goed is, is het ook een stuk goedkoper op dit moment.
157
00:10:21,060 --> 00:10:24,720
Dus we hebben dan een lange termijn visie waar we wel heen willen.
158
00:10:24,900 --> 00:10:26,480
En dat is idealiter Europees.
159
00:10:27,540 --> 00:10:31,980
Maar in het begin zijn we ook gewoon met wat er voor handen is en wat makkelijk te koppelen is.
160
00:10:33,359 --> 00:10:39,580
En ik hoor consumenten, ik hoor data, ik hoor dataveiligheid, ik hoor AI-efficiëntie.
161
00:10:39,960 --> 00:10:45,540
In de media speelt natuurlijk nu heel veel dat bedrijven hun klantenservice met behulp van Gen AI invullen.
162
00:10:45,600 --> 00:10:51,280
en dat er best wel veel partijen last hebben van dat ze eigenlijk geen antwoord krijgen en een medewerker willen spreken.
163
00:10:51,400 --> 00:10:54,140
Zijn jullie bij Vandebron ook aan het kijken om daar GenAI voor in te zetten?
164
00:10:54,380 --> 00:10:55,400
En hoe kijk je daar tegenaan?
165
00:10:55,740 --> 00:10:58,360
Ja, zeker. Sterker nog, daar zijn we al mee begonnen.
166
00:10:58,960 --> 00:11:02,640
Alleen denk ik dat het echt belangrijk is om aan te geven in onze visie,
167
00:11:03,199 --> 00:11:08,200
als een klant de moeite neemt om te bellen, moet er altijd iemand aan de lijn kunnen zitten.
168
00:11:08,740 --> 00:11:13,560
Dus dat betekent dat wij eigenlijk er alles aan doen, zodat de klant niet op het punt komt om ons te willen bellen.
169
00:11:13,720 --> 00:11:15,020
Dus daar moet de efficiëntie zitten.
170
00:11:15,920 --> 00:11:17,940
Maar als een klant dan toch echt een vraag heeft
171
00:11:17,960 --> 00:11:19,340
Of wie heeft iets
172
00:11:20,359 --> 00:11:22,040
Dan zal je bij Vandebron nooit
173
00:11:22,740 --> 00:11:24,260
Een bot aan de lijn krijgen
174
00:11:24,900 --> 00:11:25,840
Tenzij je daarvoor kiest
175
00:11:26,000 --> 00:11:27,420
Dus we denken wel van als we bijvoorbeeld
176
00:11:27,640 --> 00:11:29,040
Optionaliteit geven aan de klant
177
00:11:29,520 --> 00:11:31,560
Dat is nu nog niet hoor, maar stel je kan dus inderdaad
178
00:11:32,200 --> 00:11:33,380
Als klant bel je op
179
00:11:33,520 --> 00:11:35,820
En je kan geholpen worden
180
00:11:35,980 --> 00:11:36,680
Door een bot
181
00:11:37,600 --> 00:11:38,400
Geen wachttijd
182
00:11:39,160 --> 00:11:41,380
We beloven een bepaalde garantie
183
00:11:41,380 --> 00:11:43,720
Dat het altijd lukt, hopelijk tegen die tijd ook
184
00:11:44,280 --> 00:11:48,280
En als je dat niet wil blijven dan even wachten aan de lijn, dan is er altijd iemand beschikbaar, maar dat duurt misschien wat langer.
185
00:11:48,720 --> 00:11:53,720
Dus wij geloven erin op het moment dat je die optionaliteit al blijft bieden, is dat nog steeds gewoon klantvriendelijk.
186
00:11:54,600 --> 00:11:56,080
En is het een keuze dan aan de klant.
187
00:11:56,660 --> 00:12:00,440
En wat voor uitdagingen heb je dan over data veiligheid, privacy en bescherming?
188
00:12:00,650 --> 00:12:02,320
Een dag waar we het hier vol over hebben.
189
00:12:02,770 --> 00:12:05,760
Ja, nou kijk, je moet natuurlijk wel echt goed nadenken.
190
00:12:07,180 --> 00:12:10,540
Hoe doe je de verificatie van medewerkers of van klanten?
191
00:12:10,770 --> 00:12:10,860
Sorry.
192
00:12:13,920 --> 00:12:18,960
Kijk, dit zijn de terreinen die we nog niet live hebben staan.
193
00:12:19,200 --> 00:12:21,160
Dus we zijn er wel actief over aan het denken.
194
00:12:21,840 --> 00:12:31,300
Maar kijk, met AI kan je echt al veel betrouwbaardere controles ook doen over de identiteit van mensen.
195
00:12:31,440 --> 00:12:38,640
Dus het kan ook echt als een hulpmiddel zijn om juist meer compliance of juist meer veiligheid te garanderen.
196
00:12:39,120 --> 00:12:40,280
Dus dat klinkt misschien eng.
197
00:12:40,580 --> 00:12:42,000
En dat is eigenlijk niet wat te gebruiken.
198
00:12:42,040 --> 00:12:45,120
Maar er zijn bijvoorbeeld echt op basis van de stemgeluid.
199
00:12:45,520 --> 00:12:47,020
Dat mensen geïnteresseerd kunnen worden.
200
00:12:47,520 --> 00:12:49,960
Nou dan heb je niet meer dat de buurman met jouw postcode.
201
00:12:50,420 --> 00:12:51,820
En als hij die gegevens net heeft.
202
00:12:52,160 --> 00:12:53,800
Zoals dat van oudsher eigenlijk gaat.
203
00:12:54,240 --> 00:12:55,360
Dus gewoon wat is uw e-mailadres.
204
00:12:55,980 --> 00:12:56,820
Postcode en huisnummer.
205
00:12:57,160 --> 00:12:59,140
Nou dat kan je best makkelijk van iemand anders hebben.
206
00:12:59,220 --> 00:13:00,240
En dan heb je niet die voice controle.
207
00:13:00,880 --> 00:13:01,960
Dus los van dat het eng is.
208
00:13:02,000 --> 00:13:05,560
Kan het juist ook echt wel helpen in je dataveiligheid denk ik.
209
00:13:05,660 --> 00:13:05,860
Mooi.
210
00:13:06,280 --> 00:13:07,320
En je gaf aan.
211
00:13:07,540 --> 00:13:09,920
Je bent bijna rechtstreeks vanuit Lissabon ingevlogen.
212
00:13:10,120 --> 00:13:11,100
Dat is echt wel cool.
213
00:13:11,510 --> 00:13:12,120
Hij kwam vannacht.
214
00:13:14,380 --> 00:13:15,580
Vannacht is hij aangekomen.
215
00:13:15,800 --> 00:13:16,880
En nu sta je hier al.
216
00:13:17,520 --> 00:13:19,140
Dat je in Lissabon ook van alles hebt gezien.
217
00:13:19,320 --> 00:13:20,760
Op het gebied van AI en klantenservice.
218
00:13:21,400 --> 00:13:22,400
Kan je daar wat over vertellen?
219
00:13:23,300 --> 00:13:24,280
Ja, dus kijk.
220
00:13:26,100 --> 00:13:27,680
Waar nu veel naar wordt gekeken.
221
00:13:27,770 --> 00:13:30,700
Is om toch ook echt het leven van een agent.
222
00:13:30,880 --> 00:13:31,980
Dus iemand die de klant te woord staat.
223
00:13:32,120 --> 00:13:33,840
Dat wordt vaak in het jargon agent genoemd.
224
00:13:35,340 --> 00:13:37,120
Om die ook zoveel mogelijk te kunnen ondersteunen.
225
00:13:37,220 --> 00:13:37,980
Met de hulp van AI.
226
00:13:38,160 --> 00:13:43,100
Dus bijvoorbeeld tijdens het gesprek al meteen de intentie van de klant kunnen aanvoelen.
227
00:13:43,580 --> 00:13:45,320
Dus als iemand heel boos is of niet.
228
00:13:45,520 --> 00:13:47,180
Dus dan kunnen mensen zich al een beetje schrap zetten.
229
00:13:47,500 --> 00:13:49,700
Wat voor type gesprek ga ik nou eigenlijk in met deze klant?
230
00:13:50,140 --> 00:13:53,200
Dus dat is bijvoorbeeld een voorbeeld dat bestaat dus al.
231
00:13:53,840 --> 00:13:56,840
Een ander is dat meteen het afhandelen.
232
00:13:56,990 --> 00:14:01,060
Dus nadat een gesprek is afgelopen dat het gesprek samengevat voor je is.
233
00:14:01,600 --> 00:14:02,620
Dus van voice to text.
234
00:14:03,240 --> 00:14:06,660
Dat zijn allemaal zaken die zijn ontzettend behulpzaam voor een agent.
235
00:14:07,280 --> 00:14:10,380
Het maakt het een stuk efficiënter, maar ook een stuk betrouwbaarder.
236
00:14:10,760 --> 00:14:15,680
Want als je midden in een gesprek zit en je moet daarna nog even loggen waar het gesprek over ging,
237
00:14:16,240 --> 00:14:18,060
zou zomaar kunnen dat je iets bent vergeten.
238
00:14:18,440 --> 00:14:21,980
En dat soort zaken worden wel gewoon met behulp van AI tegenwoordig,
239
00:14:22,100 --> 00:14:24,520
kan dat gewoon echt bijna sluitend gedaan worden.
240
00:14:25,040 --> 00:14:25,760
En ook een stuk sneller.
241
00:14:26,210 --> 00:14:29,040
Dus dat is dat stukje efficiëntie, maar ook een stukje kwaliteit,
242
00:14:29,180 --> 00:14:31,800
die je toch wel gewoon naar de klant, als je dat dus goed inricht.
243
00:14:31,980 --> 00:14:33,460
En dit was een Europese aanbieder?
244
00:14:33,840 --> 00:14:35,900
Ja, van origine zijn zij Portugees.
245
00:14:36,460 --> 00:14:36,760
Kijk aan.
246
00:14:37,640 --> 00:14:40,760
Maar ze zijn wel naar San Francisco verhuisd, dat zag ik.
247
00:14:40,850 --> 00:14:46,000
En dat heeft wel toch te maken, denk ik, ook met het geld dat beschikbaar is voor bedrijven.
248
00:14:46,200 --> 00:14:46,880
Dat hoor je ook veel.
249
00:14:47,400 --> 00:14:52,300
Er is veel frustratie, denk ik, ook binnen de EU over echt te kunnen groeien.
250
00:14:52,390 --> 00:14:55,060
En het geld wat aanwezig is, om dat te kunnen bewerkstelligen.
251
00:14:55,680 --> 00:14:59,720
Dus wat je helaas ziet, is dat veel bedrijven die ook wel in Europa zijn begonnen,
252
00:15:00,560 --> 00:15:02,880
toch de vlucht nemen naar Amerika vanwege kapitaal.
253
00:15:04,520 --> 00:15:09,480
Maar uiteindelijk heb je dan nog steeds te maken met de Amerikaanse wetgeving daardoor, toch?
254
00:15:09,990 --> 00:15:13,940
Ja, klopt. Ik kan het ook niet mooier maken dan het is.
255
00:15:14,420 --> 00:15:17,200
Wij hebben ervoor gekozen om de dingen waar wij direct invloed op hebben,
256
00:15:17,460 --> 00:15:20,900
dus dat zijn die eigen infrastructuur, om een voorbeeld te geven,
257
00:15:20,950 --> 00:15:23,620
dat is de klantenapp, dat is de website van Van der Won.
258
00:15:24,060 --> 00:15:29,680
Maar ook aan de andere kant balanceren wij het energienet met al onze producentenlocaties.
259
00:15:30,320 --> 00:15:36,000
Om dat te balanceren, dat noemen we met een mooi woord een virtuele energiecentrale,
260
00:15:36,210 --> 00:15:40,580
een virtual power plant in Engels, dat bouwen wij in-house, dat draait Europees.
261
00:15:40,800 --> 00:15:45,840
En dat is ook direct een kritieke infrastructuur voor onze samenleving, dat soort werk.
262
00:15:46,330 --> 00:15:47,620
Dus dat vinden we dan ook heel belangrijk.
263
00:15:48,300 --> 00:15:53,260
Alleen is de realiteit ook dat de aanbieder van zo'n belsysteem waar we het net over hadden,
264
00:15:53,800 --> 00:15:56,120
ik ken geen goed Europese alternatief op dit moment.
265
00:15:56,620 --> 00:16:00,100
Dus dat is ook de realiteit waar we in zitten, dus we proberen de keuze te maken waar mogelijk.
266
00:16:00,500 --> 00:16:04,620
Ja, dus dat betekent dat je eigenlijk best wel flexibel moet zijn binnen je organisatie en technologie.
267
00:16:05,200 --> 00:16:07,100
Jullie hebben de migratie gedaan.
268
00:16:07,340 --> 00:16:12,580
Heb je vanuit de praktijk ervaringen, leringen die we mee kunnen geven als je dit in de praktijk gaat doen?
269
00:16:12,580 --> 00:16:13,280
Waar loop je tegenaan?
270
00:16:13,600 --> 00:16:16,980
Ja, dat is heel erg afhankelijk van heel veel factoren.
271
00:16:17,020 --> 00:16:23,600
Dus natuurlijk, hoe groot is de onderneming, hoeveel bezoekers krijg je bijvoorbeeld op je technologie.
272
00:16:26,680 --> 00:16:27,900
Hoeveel tijd heb je ervoor.
273
00:16:28,960 --> 00:16:34,660
Kijk, uiteindelijk is de ervaring voor ons op een aantal vlakken.
274
00:16:35,380 --> 00:16:38,860
Allereerst is het een stuk goedkoper in ons geval dan waar wij zaten.
275
00:16:39,180 --> 00:16:44,020
Dus het is om en nabij 30-40% goedkoper dan de Amerikaanse.
276
00:16:44,340 --> 00:16:44,960
En waar ligt het aan?
277
00:16:44,960 --> 00:16:47,420
Want ik denk dat heel veel mensen denken dat het juist andersom is.
278
00:16:47,540 --> 00:16:51,700
Ja, nee, de prijzen zijn lager.
279
00:16:52,040 --> 00:16:58,300
En wat je toch veel ziet is dat bij de grote hyperscalers hebben heel veel diensten eromheen.
280
00:16:58,540 --> 00:17:04,819
Dus je kan een server afnemen, maar tegenwoordig kan je heel veel diensten, platform as a service of dat soort zaken afnemen,
281
00:17:05,180 --> 00:17:08,360
die je eigenlijk direct ook vastleggen bij die cloud.
282
00:17:08,680 --> 00:17:09,939
Best moeilijk om ervan af te komen.
283
00:17:10,480 --> 00:17:17,280
En heel veel bedrijven kiezen daarvoor, omdat het ook wel oprecht een stuk makkelijker is om dan zaken online te zetten.
284
00:17:18,260 --> 00:17:23,220
Wij hebben zelf altijd bewust de keuze blijven maken om dat bewust niet te doen.
285
00:17:23,800 --> 00:17:27,920
Waardoor wij dus relatief heel flexibel zijn waar we dat draaien.
286
00:17:28,060 --> 00:17:30,420
Dus wij maken gebruik van een technologie dat heet Kubernetes.
287
00:17:31,260 --> 00:17:36,100
Ik weet niet of dat voor iemand bekend is, maar dat is een orchestratielaag van je services.
288
00:17:37,380 --> 00:17:40,700
En dat is een open source oplossing.
289
00:17:41,430 --> 00:17:43,380
En dat kan dus in principe overal draaien.
290
00:17:43,900 --> 00:17:47,920
En dat maakt het voor ons ook wel echt dat wij in een unieke positie zaten,
291
00:17:48,540 --> 00:17:50,280
waardoor we dit relatief eenvoudig konden doen.
292
00:17:50,310 --> 00:17:52,840
Ik zeg relatief, het heeft echt wel een paar maanden uitgelopen.
293
00:17:53,620 --> 00:18:01,120
En dat komt ook mede door dat wij, zelfs op onze schaal, we zijn niet groot, we zijn ook niet klein, we hebben best wel wat verkeer.
294
00:18:01,720 --> 00:18:09,600
En diensten die we draaien, tot de verbeelding het weer voorspellen, vraagt om best veel data en best wel veel rekenkracht.
295
00:18:09,700 --> 00:18:15,000
En dat doen we ieder uur van de dag als voorspelling voor morgen om zo accuraat mogelijk dat te voorspellen.
296
00:18:19,840 --> 00:18:20,940
Ik heb even mijn verhaal kwijt.
297
00:18:23,040 --> 00:18:26,040
Ja, dat je over bent gegaan met Kubernetes.
298
00:18:26,660 --> 00:18:29,800
Dat je dat heel veel voordelen heeft gegeven, maar dat er ook problemen zijn.
299
00:18:30,340 --> 00:18:32,680
Ja, daar wil ik je naar het heen, dankjewel.
300
00:18:33,000 --> 00:18:34,180
Dus het stukje schaal.
301
00:18:35,760 --> 00:18:40,520
Dus met onze grote onderzoek, dat we dus niet een giga bedrijf zijn met heel veel lood,
302
00:18:41,200 --> 00:18:47,460
liepen wij al wel tegen die grenzen soms aan van die cloud provider in de schaal die wij hadden en hebben.
303
00:18:48,680 --> 00:18:52,900
En dat is in die zin gelukkig een goede partnership met Scaleway.
304
00:18:53,340 --> 00:18:57,860
waarin we dat samen moeten ontdekken en moeten uitbouwen.
305
00:18:58,580 --> 00:19:02,680
Inmiddels zijn we hartstikke tevreden en is het ook gewoon stabiel en zitten we goed in het jasje.
306
00:19:03,020 --> 00:19:06,820
Dat heeft wel echt wat andere uitdagingen gehad dan bijvoorbeeld een AWS of een Google,
307
00:19:07,280 --> 00:19:10,280
waarbij wij echt een druppel op de hele plek zijn met onze schaal.
308
00:19:12,200 --> 00:19:16,720
Ik heb ook een vraag over de agents die je noemde, zeker in de klantenservice.
309
00:19:17,660 --> 00:19:21,100
De AI agents kunnen een hele hoop werk van je overnemen.
310
00:19:21,860 --> 00:19:26,640
Het probleem is dat zij ook soms meer willen doen dan dat je opgegeven hebt.
311
00:19:27,620 --> 00:19:33,880
Hoe zorg je dat als er een bepaalde mate van autonomie in zit, dat je die agent begrenst?
312
00:19:34,240 --> 00:19:35,920
Dat hij alleen maar doet wat je wil?
313
00:19:36,200 --> 00:19:39,100
Ja, dus je hebt daar verschillende technieken voor, geloof ik.
314
00:19:39,280 --> 00:19:43,780
Maar eentje die je veel ziet is dat je toch een soort multi-agent approach hebt.
315
00:19:44,020 --> 00:19:47,640
Waarbij eigenlijk een supervisor-agent is.
316
00:19:47,940 --> 00:19:50,580
En ze hebben allemaal specifieke rollen en taken.
317
00:19:51,260 --> 00:19:56,660
Dus de supervisor die houdt eigenlijk in de gaten wat is de vraag van de klant.
318
00:19:56,740 --> 00:19:58,960
Bijvoorbeeld via een chatbot.
319
00:19:59,480 --> 00:20:03,240
En vervolgens stuurt hij dan een hele specifieke andere agent aan.
320
00:20:03,580 --> 00:20:06,460
Om eigenlijk op pad te gaan om wat werk uit te zoeken.
321
00:20:06,920 --> 00:20:09,380
Vervolgens komen ze allemaal terug bij die supervisor.
322
00:20:09,760 --> 00:20:11,940
Die controleert nog met bijvoorbeeld een compliance role.
323
00:20:12,060 --> 00:20:15,200
Of het eigenlijk het antwoord van de klant wel netjes is beantwoord.
324
00:20:15,760 --> 00:20:20,820
Dus zo'n soort logica kan je helemaal inbouwen in je agentic system.
325
00:20:21,080 --> 00:20:21,820
Zoals dat heet.
326
00:20:23,960 --> 00:20:25,340
Wij zijn nog niet op dat punt.
327
00:20:25,480 --> 00:20:27,060
Dus we hebben dat nu wel...
328
00:20:27,140 --> 00:20:27,800
Nou, dat is niet helemaal waar.
329
00:20:27,820 --> 00:20:30,520
Dus we hebben dat wel voor klantvragen beantwoorden.
330
00:20:31,800 --> 00:20:35,880
Het uitvoeren van taken doet het bij ons nog niet.
331
00:20:36,860 --> 00:20:40,280
Maar we hebben het hier over dataprotectie, privacy.
332
00:20:40,860 --> 00:20:43,660
Dus dat betekent dat je echt hele gespecialiseerde agents kan maken.
333
00:20:44,540 --> 00:20:47,340
De een kijkt naar dataprotectie, de ander kijkt naar privacy.
334
00:20:47,520 --> 00:20:48,400
De ander kijkt naar compliance.
335
00:20:49,480 --> 00:20:51,540
Dat je het op die manier afvangt.
336
00:20:52,000 --> 00:20:55,040
Waarbij gezegd moet worden dat het geen 100% scenario's zijn.
337
00:20:55,640 --> 00:21:00,100
Nee, dus er zit natuurlijk altijd iets van risico in dat hij toch gaat...
338
00:21:00,920 --> 00:21:02,600
Nu ben ik het mooie woord ervoor kwijt.
339
00:21:02,600 --> 00:21:04,460
Maar dat hij af gaat...
340
00:21:04,940 --> 00:21:05,380
Hallogeneren?
341
00:21:05,660 --> 00:21:06,460
Ja, hallucineren.
342
00:21:06,720 --> 00:21:07,280
Of afwijken.
343
00:21:11,480 --> 00:21:13,920
Maar wij testen dit echt doorlopend.
344
00:21:15,120 --> 00:21:17,660
Rond nu zijn we aan het kijken hoe presteert hij.
345
00:21:17,760 --> 00:21:18,580
Dat kan je ook meten.
346
00:21:19,220 --> 00:21:21,460
Dus daar wordt echt naar gekeken en gemonitord.
347
00:21:23,919 --> 00:21:30,780
Daarnaast zorgen we er ook voor dat deze agents een beperkte handelsvrijheid hebben.
348
00:21:31,200 --> 00:21:34,260
Ze kunnen niet zomaar in alle systemen en allemaal gekke dingen doen.
349
00:21:34,280 --> 00:21:39,660
Dus we kunnen dat heel deterministisch instellen door het zoveel mogelijk terug te brengen.
350
00:21:40,580 --> 00:21:42,920
Dus ja goed, het risico is er zeker.
351
00:21:43,000 --> 00:21:46,960
Maar goed, aan de andere kant, een mens maakt ook fouten.
352
00:21:47,000 --> 00:21:47,840
Dus het is nooit honderd procent.
353
00:21:48,080 --> 00:21:48,360
Zeker.
354
00:21:48,780 --> 00:21:54,480
Maar het mooie is dat je dezelfde technieken kan gebruiken als dat de mens in de zaal misschien al bekend is.
355
00:21:55,280 --> 00:21:58,040
Je kan gewoon een soort van golden test set hebben.
356
00:21:58,540 --> 00:22:03,480
Waarbij je kan zien, als ik dit aan de chatbot geef, aan de agent geeft.
357
00:22:03,860 --> 00:22:07,740
Haalt de compliance agent bijvoorbeeld ook alle compliance problemen eruit.
358
00:22:08,140 --> 00:22:09,160
Dus die kan je gewoon voeden.
359
00:22:09,880 --> 00:22:13,260
En je kan inderdaad wat je zegt, meten hoe nauwkeurig dat uiteindelijk is.
360
00:22:15,020 --> 00:22:16,840
nagaan hoeveel risico je overhoudt
361
00:22:16,960 --> 00:22:18,700
en hoeveel risico's
362
00:22:18,720 --> 00:22:20,400
sta je toe. Exact, ja, dus dat heeft
363
00:22:20,440 --> 00:22:21,740
weer na te maken met je risk-apeteiten.
364
00:22:22,760 --> 00:22:23,780
Ja, toch? Nee, dat klopt.
365
00:22:24,440 --> 00:22:26,360
En ik denk dat
366
00:22:26,660 --> 00:22:28,660
wij zijn als een relatief jongere organisatie,
367
00:22:28,720 --> 00:22:30,060
we willen echt ook wel gewoon
368
00:22:31,000 --> 00:22:32,000
dingen proberen, maar
369
00:22:32,440 --> 00:22:34,160
zij het wel compliant uiteraard.
370
00:22:34,440 --> 00:22:34,500
Ja.
371
00:22:36,380 --> 00:22:38,520
Ik was nog nieuwsgierig met heel veel AI,
372
00:22:39,000 --> 00:22:40,240
maar data-soevereiniteit,
373
00:22:40,920 --> 00:22:42,999
reden waarom jullie ook naast duurzaamheid
374
00:22:43,020 --> 00:22:44,900
natuurlijk naar Europese cloud zijn gegaan.
375
00:22:45,960 --> 00:22:48,900
Wat zijn de uitdagingen, maar wat brengt het u van de bron?
376
00:22:49,360 --> 00:22:53,800
Ja, nou, kijk, ik gaf het net ook al aan.
377
00:22:54,180 --> 00:22:56,740
Het eerlijke verhaal is dat wij gewoon multicloud zijn gaan doen.
378
00:22:58,139 --> 00:23:02,020
Ik kan niet garanderen dat alle klant data nu alleen maar op Europees draait,
379
00:23:02,020 --> 00:23:06,740
want een modern IT-landschap is meer een netwerk dan een fortress,
380
00:23:07,260 --> 00:23:10,600
zoals dat eigenlijk weer in het mooie Nederlands wordt genoemd.
381
00:23:11,260 --> 00:23:14,440
En een netwerk betekent dat je dus niet overal directe invloed hebt.
382
00:23:14,540 --> 00:23:18,720
Dus wij werken samen met een aantal partners en die zitten gewoon nog vast.
383
00:23:19,240 --> 00:23:23,460
Want die hebben wel die services van die cloud afgenomen.
384
00:23:25,320 --> 00:23:27,260
Kijk, wat het ons direct levert.
385
00:23:27,310 --> 00:23:32,400
Ik denk dat het ons vooral ook een bepaalde morele boost geeft.
386
00:23:32,510 --> 00:23:36,460
Ook voor de medewerkers en onze klanten die het belangrijk vinden.
387
00:23:36,680 --> 00:23:40,140
Want het is natuurlijk wel, dit kunnen we wel ook goed uitleggen.
388
00:23:41,240 --> 00:23:43,220
Het is denk ik een mooi voorbeeld
389
00:23:43,960 --> 00:23:44,960
En ja
390
00:23:45,820 --> 00:23:46,860
Echt praktisch
391
00:23:47,200 --> 00:23:48,280
Kijk uiteindelijk hebben we het gewoon over
392
00:23:49,220 --> 00:23:51,079
Dat data staat ergens op een
393
00:23:51,820 --> 00:23:51,900
Server
394
00:23:52,340 --> 00:23:55,220
Dus of ik nou heel veel daar extra bij kan halen
395
00:23:55,280 --> 00:23:56,560
Behalve dat we vanuit
396
00:23:57,020 --> 00:23:59,000
De wetgeving en privacy hebben we echt al een extra
397
00:23:59,160 --> 00:23:59,720
Vinkje denk ik
398
00:24:00,340 --> 00:24:02,020
Maar zoals gezegd
399
00:24:02,860 --> 00:24:05,180
Het is een multi-cloud approach
400
00:24:05,860 --> 00:24:06,800
Een aanpak
401
00:24:09,600 --> 00:24:10,160
Dus
402
00:24:10,180 --> 00:24:12,200
van de cloud. Nee, nee, nee, maar ik denk dat
403
00:24:12,220 --> 00:24:13,980
het wel eens mooi is dat jullie het doen.
404
00:24:14,100 --> 00:24:16,180
En als we meer bedrijven het gaan doen, dat we dus ook
405
00:24:16,180 --> 00:24:18,020
de Europese cloud, wat je zegt, nu is het nog misschien
406
00:24:18,080 --> 00:24:20,020
een beetje zoeken, schaalbaarheid en dat soort zaken.
407
00:24:20,140 --> 00:24:22,020
Maar als meer bedrijven dat gaan doen, dat we dus
408
00:24:22,300 --> 00:24:23,060
binnen de Europese
409
00:24:24,600 --> 00:24:26,360
meer bedrijven er gebruik van kunnen gaan maken.
410
00:24:26,400 --> 00:24:28,000
Dan zal het groeien. Ja, dus een van onze
411
00:24:28,380 --> 00:24:29,980
echte, een van de zaken die ons heel erg
412
00:24:30,200 --> 00:24:32,040
motiveerde om dit te doen, is ook om echt te laten
413
00:24:32,260 --> 00:24:34,080
zien dat het kan. Ja. En, nou,
414
00:24:34,260 --> 00:24:36,000
dat bij deze, dus het kan.
415
00:24:36,540 --> 00:24:38,280
Maar wel met beperking
416
00:24:38,600 --> 00:24:42,340
dat je afhankelijk bent in een netwerk van partners.
417
00:24:44,280 --> 00:24:51,180
Kijk, als ik dan ook een beetje de stappen kan geven voor anderen om dit te gaan onderzoeken,
418
00:24:51,740 --> 00:24:53,720
is om het eigenlijk best klein te maken.
419
00:24:53,930 --> 00:24:59,140
Dus wat zijn nou eigenlijk echt mijn vereisten als bedrijf?
420
00:24:59,390 --> 00:25:01,740
Nou, soevereiniteit lijkt me wel een hele mooie.
421
00:25:02,160 --> 00:25:03,940
Maar ook gewoon vanuit technisch.
422
00:25:04,480 --> 00:25:08,580
Dus uiteindelijk is een server gewoon een computer die je ergens inhuurt.
423
00:25:08,640 --> 00:25:13,080
En als dat al voldoende is voor bepaalde workloads.
424
00:25:13,460 --> 00:25:17,440
Sorry dat ik soms in Engels, de terminologie in IT is vaak Engels.
425
00:25:20,120 --> 00:25:21,620
Om gewoon met kleine stapjes te beginnen.
426
00:25:21,920 --> 00:25:24,520
We gaan op het testen gewoon, zo zijn wij ook begonnen.
427
00:25:25,380 --> 00:25:30,840
Gewoon met kleine stukjes diensten overzetten, testen, tegen grenzen aanlopen zoals ik net al aangaf.
428
00:25:31,220 --> 00:25:32,920
En vervolgens het uitbouwen.
429
00:25:33,160 --> 00:25:39,320
En wij zijn toen eigenlijk in een half jaar tijd helemaal overgegaan met onze eigen software.
430
00:25:39,640 --> 00:25:42,120
Ja, klinkt als een goede aanpak in dat klein beginnen.
431
00:25:43,060 --> 00:25:44,900
We hebben een vast onderdeel in de podcast.
432
00:25:45,560 --> 00:25:46,980
We hebben namelijk een kaartspel ontwikkeld.
433
00:25:46,980 --> 00:25:47,900
Die ligt bij jullie ook allemaal.
434
00:25:49,180 --> 00:25:51,000
En anders kan je hem zo direct bij ons opkomen halen.
435
00:25:51,500 --> 00:25:54,880
En er wordt natuurlijk heel veel gesproken over de technologie van AI.
436
00:25:55,900 --> 00:25:57,940
En iedereen heeft daar een andere kijk op.
437
00:25:58,260 --> 00:26:03,380
Dus met dit kaartspel kan je met elkaar bekijken hoe je ernaar kijkt.
438
00:26:03,560 --> 00:26:06,700
En in de hoop dat je dichter bij elkaar komt.
439
00:26:07,540 --> 00:26:09,620
Dus ik wil er ook eentje aan jou voorleggen.
440
00:26:22,000 --> 00:26:23,360
Je hebt gezien dat ik geschud heb.
441
00:26:23,640 --> 00:26:24,360
Ja, ik zag het.
442
00:26:24,960 --> 00:26:26,940
Het is uit de categorie ethiek en maatschappij.
443
00:26:27,040 --> 00:26:29,340
Het is best een hele mooie stelling namelijk voor vandaag.
444
00:26:29,760 --> 00:26:36,220
Er zijn doeltreffende strategieën beschikbaar om vooroordelen in generatieve AI-algoritmes te verminderen.
445
00:26:38,880 --> 00:26:39,880
Dat is de stelling?
446
00:26:40,040 --> 00:26:40,860
Dat is de stelling, ja.
447
00:26:42,860 --> 00:26:43,560
Precies, oké.
448
00:26:44,580 --> 00:26:45,120
Lekker pittig.
449
00:26:45,380 --> 00:26:47,260
Ja, we hebben het net over gehad.
450
00:26:47,600 --> 00:26:52,900
Dus ik zei het niet helemaal 100% dicht.
451
00:26:53,100 --> 00:27:00,740
Maar je kan echt wel maatregelen nemen om ervoor te zorgen dat AI ook op een veilige manier gebruikt kan worden.
452
00:27:01,120 --> 00:27:06,020
Dus bijvoorbeeld door echt op compliance te controleren.
453
00:27:06,400 --> 00:27:08,500
Of op de juistheid van het geven van een antwoord.
454
00:27:10,440 --> 00:27:15,560
Je kan van al die taalmodellen ook de systeem prompt terugvinden tegenwoordig.
455
00:27:15,560 --> 00:27:17,620
Die zijn wel publiek beschikbaar of gelekt.
456
00:27:18,660 --> 00:27:25,740
Waarbij je eigenlijk op basis daarvan ook al goed kan kijken welk taalmodel kan ik nou wel eigenlijk goed gebruiken voor wat voor toepassing en welke niet.
457
00:27:26,180 --> 00:27:42,800
Ik denk dat als je het echt helemaal goed en veilig wil doen, dan draai je het het liefst gewoon zelf op een plek dat je zelf je taalmodel ownt.
458
00:27:43,000 --> 00:27:46,660
Dus als je de eigenaar bent en niet van een grote cloud provider.
459
00:27:46,780 --> 00:27:50,020
Want die hebben toch uiteindelijk een andere intentie dan hoe je hem als je hem zoveel toepast.
460
00:27:50,480 --> 00:27:54,100
Kan je misschien iets vertellen? Ik weet niet of iedereen weet wat een systeemprompt is.
461
00:27:54,580 --> 00:27:57,000
En dan gaan wij in de show notes opnemen waar je ze allemaal kan vinden.
462
00:27:57,380 --> 00:27:57,820
Oké, ja.
463
00:27:59,420 --> 00:28:01,240
Maar jullie zijn nog meer de experts dan ik.
464
00:28:01,460 --> 00:28:08,380
Maar een systeemprompt is eigenlijk een soort standaardrichting die een taalmodel meekrijgt in de vorm.
465
00:28:08,680 --> 00:28:10,940
Bijvoorbeeld hoe die met je interakteert.
466
00:28:11,520 --> 00:28:12,720
Wat wel of niet mag.
467
00:28:13,140 --> 00:28:16,800
Dus ik denk een goed voorbeeld was DeepSeek toen hij uitkwam.
468
00:28:17,260 --> 00:28:20,520
Die stond niet toe dat je ook maar iets kritisch over China kon vragen.
469
00:28:21,320 --> 00:28:24,520
En dat zit dan ingebakken in die systeemprompt van het taalmodel.
470
00:28:24,860 --> 00:28:25,120
Klopt het?
471
00:28:25,540 --> 00:28:26,220
Zeker, zeker.
472
00:28:26,490 --> 00:28:29,340
En dat betekent ook dat als je precies weet wat er in die systeemprompt staat,
473
00:28:29,470 --> 00:28:34,140
dat je met je eigen prompt daar eigenlijk omheen kan.
474
00:28:34,400 --> 00:28:36,840
Dus je zegt van, gebruik dat niet.
475
00:28:37,480 --> 00:28:38,340
Ja, heel simpel.
476
00:28:38,450 --> 00:28:38,980
Ja, klopt.
477
00:28:40,200 --> 00:28:42,180
Ik wil hem even terugpakken naar soevereiniteit.
478
00:28:42,680 --> 00:28:45,080
Ik hoor wel eens dat bedrijven zich richten op digitale soevereinheid.
479
00:28:45,250 --> 00:28:48,180
Dat er dan eigenlijk wordt gezegd dat de innovatie vertraagd wordt.
480
00:28:48,310 --> 00:28:49,620
Door de bedrijven wordt dan gezegd.
481
00:28:50,400 --> 00:28:53,880
Omdat ze dan niet de beste, recentste technologie tot hun beschikking hebben.
482
00:28:54,040 --> 00:28:54,860
Hoe kijk jij daar tegenaan?
483
00:28:57,240 --> 00:28:59,460
Ja, ik denk dat ik begrijp waar dat vandaan komt.
484
00:28:59,670 --> 00:29:06,080
Dus dat heeft met name te maken bij de diensten van de Amerikaanse cloud.
485
00:29:06,240 --> 00:29:07,620
Op dit moment, die zijn echt superieur.
486
00:29:07,870 --> 00:29:09,240
Daar kunnen we heel kort over zijn.
487
00:29:09,840 --> 00:29:15,300
Die lopen denk ik tien jaar voor als het gaat om de oplossingen die ze bieden.
488
00:29:15,760 --> 00:29:22,620
En dan gaat het dus met name over die oplossingen die je gewoon met één klik op de knop staat het klaar voor je.
489
00:29:23,620 --> 00:29:27,620
Dat is heel krachtig, maar dat is dus met een keerzijde.
490
00:29:30,379 --> 00:29:36,440
Uiteindelijk is het enige waar het allemaal op draait is een CPU en is geheugen.
491
00:29:37,400 --> 00:29:39,480
En dan kunnen we allemaal abstractielagen opzetten.
492
00:29:39,800 --> 00:29:40,860
En dat is het grote verschil.
493
00:29:41,480 --> 00:29:45,560
Alleen de server zelf is gewoon vergelijkbaar.
494
00:29:46,340 --> 00:29:47,700
Dus eigenlijk het stukje gemak.
495
00:29:47,730 --> 00:29:49,920
En daarmee geven we eigenlijk zaken uit handen.
496
00:29:50,380 --> 00:29:53,960
En soms moeten we even dat gemak toch nog eventjes ontdekken en onderzoeken.
497
00:29:54,500 --> 00:29:56,200
Wanneer willen we dat gemak wel inzetten?
498
00:29:56,280 --> 00:29:57,420
Wanneer willen we dat gemak niet inzetten?
499
00:29:57,420 --> 00:29:58,060
Als ik het goed begrijp.
500
00:29:58,280 --> 00:29:58,460
Exact.
501
00:29:59,700 --> 00:30:04,720
En uiteindelijk is het gewoon mogelijk om op hetzelfde niveau mee te draaien.
502
00:30:04,900 --> 00:30:09,540
Maar wellicht wel met iets meer complexiteit en iets meer dingen in eigen hand te nemen.
503
00:30:09,760 --> 00:30:16,120
Dus wij gebruiken bijvoorbeeld Van der Bron, maken wij dankbaar gebruik van open source, waar mogelijk.
504
00:30:16,480 --> 00:30:18,920
En dat geeft ons ook deze vrijheid.
505
00:30:19,820 --> 00:30:21,900
We hebben best wel wat over klantenservice gehad.
506
00:30:22,180 --> 00:30:24,720
Zie je andere mogelijkheden voor AI binnen Van der Bron?
507
00:30:25,179 --> 00:30:28,820
Zeker. Ik gaf het net al aan, wij doen eigenlijk al jarenlang AI.
508
00:30:29,040 --> 00:30:35,180
Het is geen generatieve AI, maar we hebben machine learning modellen voor het voorspellen van het weer.
509
00:30:36,040 --> 00:30:48,000
Daar zit een heel team op om dagelijks, de data scientists, om ervoor te zorgen dat wij het verbruik van onze klantenbase goed matchen met het opwekken van onze producentenbase.
510
00:30:49,340 --> 00:30:52,300
Hoe beter we daarin zijn, hoe beter wij er ook beloond voor worden.
511
00:30:52,450 --> 00:31:00,260
Maar ook, dit doen we in samenwerking met Tenet, die is verantwoordelijk voor het hele hoogspanningsnetwerk in Nederland.
512
00:31:00,690 --> 00:31:03,240
Maar ook de lokale netbeheerders.
513
00:31:03,780 --> 00:31:06,640
Het is echt een ecosysteem waarbij we allemaal samenwerken.
514
00:31:07,620 --> 00:31:11,480
En hoe beter we zijn in het voorspellen van verbruik, maar ook het weer van morgen.
515
00:31:11,860 --> 00:31:14,280
Want dat heeft te maken met hoeveel zon is er en hoeveel wind is er.
516
00:31:14,640 --> 00:31:17,400
Dus opwek, want wij hebben alleen maar hernieuwbare energie op ons platform.
517
00:31:19,700 --> 00:31:25,340
Dat bestelt een Tennet in staat om zo goed mogelijk het net te blijven balanceren.
518
00:31:25,540 --> 00:31:29,720
Waardoor we gewoon allemaal netjes, behalve dat die net even uitvuurde, dat lag niet aan het strook toch?
519
00:31:30,580 --> 00:31:32,060
Dat we gewoon de lampen aan blijven.
520
00:31:32,900 --> 00:31:33,340
Heel mooi.
521
00:31:34,160 --> 00:31:41,480
Als je één technologische innovatie zou mogen versnellen die de energietransitie significant zou bevorderen, welke zou dat dan zijn?
522
00:31:41,800 --> 00:31:42,260
Batterijen.
523
00:31:42,600 --> 00:31:43,060
Batterijen.
524
00:31:43,260 --> 00:31:44,980
Dat is een heel makkelijk antwoord.
525
00:31:46,580 --> 00:31:51,000
De complexiteit die we nu hebben met de energietransitie is gewoon nog opslag.
526
00:31:51,760 --> 00:31:56,100
Dus helaas zitten we nog niet op die 100% groene energie, 100% van de tijd.
527
00:31:56,660 --> 00:32:08,900
Omdat we op momenten van de dag waarbij de zon niet schijnt, namelijk rond deze tijd is het helaas alweer donker als we thuis komen en we met z'n allen rond dezelfde tijd avondeten gaan maken.
528
00:32:10,080 --> 00:32:12,240
Dat vraagt dan wel een enorme piek in het verbruik.
529
00:32:13,360 --> 00:32:15,080
Of bijvoorbeeld ook met elektrische auto's.
530
00:32:15,220 --> 00:32:18,020
Iedereen komt rond dezelfde tijd ze thuis, prikt de stekker erin.
531
00:32:18,100 --> 00:32:30,640
Maar dat geeft ons ook wel weer heel veel uitdagingen en kansen om met de klant samen te informeren, maar ook met financiële prikkels, door bijvoorbeeld het laden te sturen.
532
00:32:30,720 --> 00:32:36,100
Dus bijvoorbeeld dat te verspreiden wat later in de nacht, zodat het niet rond dezelfde pieken is dat iedereen het op hetzelfde moment doet.
533
00:32:37,640 --> 00:32:42,740
Dat is even een stukje de complexiteit rondom duurzame energie, vernieuwbare energie op dit moment.
534
00:32:43,280 --> 00:32:48,880
Het zou echt fantastisch zijn als we die pieken kunnen afvangen vanuit batterijen.
535
00:32:49,440 --> 00:32:55,220
Dat kan je in heel veel vormen bedenken, maar dat is op dit moment nog niet op zo'n industriele schaal aanwezig.
536
00:32:55,820 --> 00:33:00,480
We hebben nu wel steeds meer batterijen die op het energienet worden aangesloten.
537
00:33:02,980 --> 00:33:07,360
Maar dat voldoet nog lang niet aan de behoeften van Nederlandse huishouders.
538
00:33:08,420 --> 00:33:11,800
Ontzettend gaaf dat we een kijkje hebben mogen nemen bij jullie in de keuken.
539
00:33:12,440 --> 00:33:19,380
Wat zou je mensen mee willen geven die aan het begin staan van deze stap naar die soevereiniteit?
540
00:33:21,500 --> 00:33:23,240
Wat ik aangaf, we beginnen klein.
541
00:33:23,620 --> 00:33:25,800
We beginnen, zoals wij dat ook deden, met een lijstje.
542
00:33:25,860 --> 00:33:28,260
Wat zijn nou eigenlijk onze must-haves en nice-to-haves?
543
00:33:28,700 --> 00:33:30,660
Zo simpel kan je beginnen.
544
00:33:30,780 --> 00:33:31,420
Ik hou van simpel.
545
00:33:32,260 --> 00:33:38,720
En vervolgens zijn we gaan selecteren wat als dit lijstje onze must-haves zijn.
546
00:33:39,920 --> 00:33:40,740
En voldoet dat dan aan?
547
00:33:40,980 --> 00:33:44,920
Dan is het denk ik verrassend veel wat al naar een Europese cloud kan.
548
00:33:45,460 --> 00:33:46,320
Mooi. Dank je wel.
549
00:33:46,470 --> 00:33:47,780
Dank je wel voor dit kijkje in de keuken.
550
00:33:48,840 --> 00:33:50,320
Warm applaus zou ik zeggen voor Sietse.
551
00:33:50,680 --> 00:33:50,980
Graag gedaan.
552
00:33:54,140 --> 00:33:56,200
Dan sluit ik hem hier nog even af.
553
00:33:56,340 --> 00:33:59,340
Dank je wel voor het luisteren naar deze aflevering van RTD Live.
554
00:33:59,500 --> 00:34:00,700
Sietse, nogmaals bedankt.
555
00:34:00,900 --> 00:34:01,340
Graag gedaan.
556
00:34:01,480 --> 00:34:04,120
En vergeet je niet te abonneren via je favoriete podcast app.
557
00:34:04,420 --> 00:34:05,600
Dan mis je geen aflevering.
558
00:34:06,060 --> 00:34:09,360
Blijf hangen, want er komen nog vragen aan die Sietse hierna.
559
00:34:09,780 --> 00:34:10,200
geantwoord.
560
00:34:12,200 --> 00:34:17,240
Marielle FG bij ING, je vertelde over AI-inzet voor emotieherkenning in callcenters.
561
00:34:17,760 --> 00:34:22,940
Welke ethische dilemma's zie je hier en hoe zie je deze service in het licht van de EU-AI Act?
562
00:34:24,139 --> 00:34:27,800
Ja, dat is inderdaad een terecht punt van kritiek.
563
00:34:28,780 --> 00:34:30,540
Dat is inderdaad ook wel een punt van zorg.
564
00:34:32,100 --> 00:34:35,100
Het betekent niet dat wij deze technologie zelf inzetten.
565
00:34:35,220 --> 00:34:38,700
Het is wel eentje die mogelijk is.
566
00:34:41,060 --> 00:34:44,080
Dus ik begrijp het ethisch bezwaar.
567
00:34:44,220 --> 00:34:48,220
Aan de andere kant kan je natuurlijk ook als je vanuit een dienstverlening het zo goed mogelijk wil inrichten.
568
00:34:49,840 --> 00:34:53,220
Als je je medewerkers op de juiste manier ook daarmee traint.
569
00:34:53,679 --> 00:34:58,500
Kan het ook misschien een heel krachtig iets zijn om voor te bereiden.
570
00:34:58,750 --> 00:35:01,760
Om te weten wat voor klant is het een hele boze klant of niet.
571
00:35:02,400 --> 00:35:08,820
Maar ik begrijp ook dat er inderdaad ethische of misschien wel zelfs vanuit de AI wetgeving daar wat restricties zitten.
572
00:35:09,240 --> 00:35:15,640
Maar ik bedoel het vooral als voorbeeld waarbij het ook potentieel iets positiefs kan zijn.
573
00:35:16,220 --> 00:35:16,780
Zeker, mooi.
574
00:35:17,540 --> 00:35:19,780
Ik heb ook van Xadia van Bruxvoort.
575
00:35:20,020 --> 00:35:24,700
Zij is digitale rechten- en algoritme-officer van de gemeente Amsterdam.
576
00:35:24,700 --> 00:35:26,780
Hoe gaan jullie om met bias, met name in het proces?
577
00:35:27,300 --> 00:35:33,640
Bijvoorbeeld, intentieherkenning van de klantenservicegesprekken kan sterk afhankelijk zijn van in hoeverre iemand de Nederlandse taalmachtig is.
578
00:35:34,220 --> 00:35:36,980
Overlicht hebben jullie geanonimiseerde mails nog steeds.
579
00:35:38,860 --> 00:35:39,260
Proxies.
580
00:35:39,660 --> 00:35:40,100
Oh ja.
581
00:35:41,180 --> 00:35:43,220
Dus af en toe het handschrift even lezen.
582
00:35:43,400 --> 00:35:46,340
Nou kijk, dus het is volgens mij weer hetzelfde voorbeeld.
583
00:35:46,560 --> 00:35:49,040
Dus met de herkenning van de intentie van de klant die belt.
584
00:35:49,420 --> 00:35:51,140
Kijk, uiteindelijk is het allemaal een suggestie.
585
00:35:51,300 --> 00:35:54,420
Dus iemand spreekt nog steeds die klant direct en die heeft meteen door.
586
00:35:54,820 --> 00:35:55,600
Klopt het nou of niet?
587
00:35:55,820 --> 00:35:59,120
Dus het is echt meer een hulpmiddel waarmee we kort hebben getest.
588
00:35:59,240 --> 00:36:01,120
Zoals gezegd draait het volgens mij nu niet meer.
589
00:36:02,840 --> 00:36:08,220
Maar het is nog steeds in dit geval gewoon een mens die een klant te woord staat.
590
00:36:08,480 --> 00:36:10,640
En daarin gewoon ook zelf de afweging nog steeds maakt.
591
00:36:10,640 --> 00:36:12,260
Dus dat is niet helemaal afhankelijk van de AI.
592
00:36:13,380 --> 00:36:14,140
Helder, dankjewel.
593
00:36:14,600 --> 00:36:16,060
De volgende vraag is van Alwin.
594
00:36:16,340 --> 00:36:18,660
Eerste lijns riskcoördinator bij de ING.
595
00:36:18,800 --> 00:36:22,840
En de vraag luidt, denken jullie invloed te kunnen uitoefenen op Europese ontwikkelingen?
596
00:36:23,080 --> 00:36:25,120
Zijn er politieke strategische contacten?
597
00:36:26,880 --> 00:36:30,520
Nou, ik zou willen zeggen ja, want dan klinkt het nog belangrijker wat we doen.
598
00:36:30,840 --> 00:36:40,760
Maar nee, dus wat ik wel heb gemerkt is dat er best wel wat grotere, serieuze consultancyclubs bij ons hebben aangeklopt.
599
00:36:40,760 --> 00:36:44,280
Van hey, hoe hebben jullie dat gedaan? Hebben jullie wellicht contacten van die cloud provider?
600
00:36:44,680 --> 00:36:48,580
Want wij merken bij ons klantenbestand ook veel meer vragen naar Europese cloud.
601
00:36:49,000 --> 00:36:52,420
En jullie zijn toch wel ook echt een voorbeeld geweest waarbij het blijkbaar kan.
602
00:36:52,860 --> 00:36:55,500
En dat is wel precies het effect wat we natuurlijk hoopten te bereiken.
603
00:36:55,920 --> 00:37:02,080
Want als we dit soort grotere, serieuze consultancyclubs samenwerkingen aangaan met de Europese cloud.
604
00:37:02,360 --> 00:37:05,500
Betekent dat volgens mij alleen maar echt een versnelling van waar we heen willen met elkaar.
605
00:37:06,040 --> 00:37:08,160
Dus van tevoren was dat iets wat we hoopten.
606
00:37:08,580 --> 00:37:10,680
Dat is wel deels dus gelukt.
607
00:37:11,020 --> 00:37:12,360
Ik weet de opvolging er niet van.
608
00:37:12,580 --> 00:37:15,460
En helaas het zijn geen officiële instanties.
609
00:37:15,940 --> 00:37:17,480
Maar wel vanuit het bedrijfsleven dus.
610
00:37:17,620 --> 00:37:18,360
En dat zijn wij natuurlijk ook.
611
00:37:18,720 --> 00:37:20,760
Een informele invloed is niet te onderschatten.
612
00:37:21,220 --> 00:37:22,280
Nee, dat hoop ik ook.
613
00:37:22,500 --> 00:37:26,580
Ik heb een hele mooie vervolgvraag hierop van John Oest.
614
00:37:26,820 --> 00:37:27,820
Hij is van de GasUnie.
615
00:37:28,340 --> 00:37:35,380
En die vraagt namelijk in dit kader zijn jullie naast klant ook leverancier van Scaleway?
616
00:37:36,060 --> 00:37:36,420
Hoe heet het?
617
00:37:36,600 --> 00:37:37,900
Ja, dat is een leuke vraag.
618
00:37:38,260 --> 00:37:42,060
Nee, dus wij leveren niet de energie aan Skillway.
619
00:37:42,860 --> 00:37:46,640
Dus nee, dat was wel een mooi circuit rond geweest.
620
00:37:46,680 --> 00:37:48,180
Ik wou zeggen, wel een creatieve vraag ook.
621
00:37:48,520 --> 00:37:48,960
Dankjewel daarvoor.
622
00:37:49,500 --> 00:37:53,140
De volgende vraag is van Denen, FG, ministerie van OCW.
623
00:37:53,880 --> 00:37:58,020
En de vraag is, is deels over op Europese partijen wel echt digitaal soeverein?
624
00:37:58,120 --> 00:38:01,360
En hoe belangrijk is toewerken naar volledige digitale soevereiniteit?
625
00:38:02,160 --> 00:38:04,180
Ja, dus het antwoord is in die zin simpel.
626
00:38:04,220 --> 00:38:06,580
Dat is dus niet helemaal onafhankelijk of soeverein.
627
00:38:07,560 --> 00:38:11,460
Zoals ik ook probeer duidelijk te maken, is dat op dit moment ook wel echt heel erg lastig.
628
00:38:12,440 --> 00:38:16,540
Je zit in een netwerk waarbij je niet altijd direct invloed hebt.
629
00:38:17,060 --> 00:38:21,560
Maar het is wel cruciaal voor ons landschap om met bepaalde partners te blijven werken.
630
00:38:23,400 --> 00:38:25,800
Invloed is dus wel iets wat we proberen uit te oefenen.
631
00:38:26,360 --> 00:38:29,420
Alleen we moeten ook wel realistisch zijn in hoe groot we als Van der Bon zijn.
632
00:38:29,480 --> 00:38:34,040
We zijn uiteindelijk gewoon een MKB met beperkte invloed.
633
00:38:34,240 --> 00:38:36,240
Maar goed, dat is denk ik één.
634
00:38:37,460 --> 00:38:43,980
De vraag was ook nog in hoeverre is het van strategisch belang om het verder uit te wijden.
635
00:38:44,280 --> 00:38:51,640
Kijk, wij houden het in ieder geval als een principe bij alle keuzes die we maken om Europees te kunnen prioriteren.
636
00:38:51,980 --> 00:38:53,980
Op het moment dat er een degelijk alternatief is.
637
00:38:54,420 --> 00:39:00,280
Maar we zijn natuurlijk wel gewoon een onderneming die in een hele competitieve markt is.
638
00:39:00,570 --> 00:39:03,040
Dus we moeten deze afweging continu blijven maken.
639
00:39:03,500 --> 00:39:08,600
En op het moment dat het mogelijk is, of we hebben ook de middelen beschikbaar, dan zullen we altijd voor Europees kiezen.
640
00:39:09,060 --> 00:39:11,820
Dat is echt de intrinsieke motivatie om het te doen.
641
00:39:12,180 --> 00:39:12,800
Exact, ja.
642
00:39:13,460 --> 00:39:13,600
Mooi.
643
00:39:14,780 --> 00:39:20,340
Een andere vraag is van Arnie Beugeling. Zij is FG en bedrijfsjurist bij Translink.
644
00:39:21,860 --> 00:39:27,600
Zij zegt, er werd aangegeven dat AI wordt ingezet om efficiënter te werken. Maak je dit ook meetbaar?
645
00:39:27,750 --> 00:39:31,200
En zo ja, kun je een voorbeeld geven van hoe je dit meetbaar maakt?
646
00:39:31,480 --> 00:39:37,940
Ja, dus op verschillende manieren. Wij meten bijvoorbeeld ook de klanttevredenheid.
647
00:39:38,920 --> 00:39:43,080
Onlangs hebben wij onze chatbot, dus met name voor het beantwoorden van vragen.
648
00:39:43,280 --> 00:39:49,000
Dus de FAQ zogezegd is eigenlijk met een geautomatiseerde bot nu beschikbaar op onze website.
649
00:39:50,080 --> 00:39:53,880
Wat wij dan vervolgens meten is de klanttevredenheid aan het einde van een gesprek.
650
00:39:53,880 --> 00:39:55,460
Dus een touchpoint en PS bijvoorbeeld.
651
00:39:56,120 --> 00:39:59,580
Nou, die is vele malen hoger dan de bot die we hiervoor hadden.
652
00:40:00,400 --> 00:40:03,620
Die gewoon op basis van scripting werkte.
653
00:40:04,080 --> 00:40:08,640
Dus dat is één voorbeeld waarbij we zien dat het gewoon een verhoogde kwaliteit lijkt te hebben.
654
00:40:09,100 --> 00:40:15,600
Omdat de customer satisfaction hoger wordt gescoord voor dat stukje technologie.
655
00:40:16,880 --> 00:40:19,820
Daarnaast als het gaat om efficiëntieslag bij onze agents.
656
00:40:20,580 --> 00:40:25,520
Wij kijken bijvoorbeeld naar hoe lang is iemand nog bezig na een gesprek om het samen te vatten.
657
00:40:27,110 --> 00:40:28,320
En de agents zijn de mensen.
658
00:40:28,390 --> 00:40:29,140
Ja dat zijn inderdaad.
659
00:40:29,140 --> 00:40:29,780
De consent agents.
660
00:40:29,780 --> 00:40:31,100
Ja dat is het jargon inderdaad.
661
00:40:31,630 --> 00:40:32,620
Dus het zijn gewoon mensen.
662
00:40:34,320 --> 00:40:37,260
Inderdaad de mensen die ons verantwoord staan.
663
00:40:37,600 --> 00:40:45,340
Hoe lang zijn ze dan nog bezig nadat het gesprek is afgelopen om te loggen waar het gesprek over is gegaan.
664
00:40:46,560 --> 00:40:49,920
Dat is meer een tijdsefficiëntieslag die je daarmee kan halen.
665
00:40:50,080 --> 00:40:52,040
Maar ook kwaliteitscontroles.
666
00:40:52,460 --> 00:40:53,660
Dus hoe compleet is het?
667
00:40:53,800 --> 00:40:57,460
Want vaak wordt een gesprek opgenomen voor kwaliteitsdoeleinden.
668
00:40:57,900 --> 00:40:59,820
Wordt teruggeluisterd, ook om te trainen.
669
00:41:00,320 --> 00:41:01,660
Nou, dit kunnen we nu veel weten.
670
00:41:01,800 --> 00:41:04,460
Eén op één, ook gewoon door de mens, maar ook geautomatiseerd.
671
00:41:04,600 --> 00:41:06,540
Kunnen we die kwaliteitscontroles doen?
672
00:41:07,320 --> 00:41:11,620
Dat zijn een aantal voorbeelden waarin we het ook meten dat de kwaliteit echt ten goede komt.
673
00:41:11,880 --> 00:41:12,760
Ja, mooi.
674
00:41:14,940 --> 00:41:17,820
Een redelijk aansluitende vraag van Peter Herens.
675
00:41:17,980 --> 00:41:20,640
Programma manager digitalisering bij Waterweg Wonen.
676
00:41:21,220 --> 00:41:23,740
Wat zijn de belangrijkste knelpunten voor het toepassen van AI?
677
00:41:25,300 --> 00:41:30,840
Nou, ik vind in die zin hallucinatie vind ik een hele spannende.
678
00:41:31,040 --> 00:41:32,360
Dus daar hebben we het ook over gehad.
679
00:41:32,980 --> 00:41:35,700
Hoe zorg je ervoor dat het antwoord correct wordt gegeven.
680
00:41:35,880 --> 00:41:38,340
En ook precies wat de klant vraagt.
681
00:41:38,660 --> 00:41:40,820
Welke vraag wordt gesteld en wordt die ook echt beantwoord.
682
00:41:41,200 --> 00:41:44,940
Dat is wel echt een uitdaging bij de toepassing van generatieve AI.
683
00:41:48,340 --> 00:41:51,280
Een ander knelpunt vind ik ook wel kosten.
684
00:41:53,700 --> 00:41:57,300
Op het moment dat we dat niet goed gecontroleerd doen.
685
00:41:57,600 --> 00:42:03,960
Dan is dit een mogelijke tegenvaller in de financiële boeken.
686
00:42:06,880 --> 00:42:10,060
Van Boreana, zij is legal counsel bij Sodexo Nederland.
687
00:42:10,540 --> 00:42:17,360
En zij vraagt, is er op het vlak van AI duurzaamheid, EU alternatieven, daar is nog heel veel winst te halen.
688
00:42:18,260 --> 00:42:20,980
En niet alles kan tegelijk, dat heb jij natuurlijk ook al aangegeven.
689
00:42:21,400 --> 00:42:26,580
Als je één ding mocht kiezen, wat zou jij als eerste veranderen en wat zou zogezegd je prio 1 krijgen?
690
00:42:27,700 --> 00:42:31,540
En dan met name dus over de duurzaamheid bij taalmodellen?
691
00:42:32,440 --> 00:42:33,140
Ja, laten we die doen.
692
00:42:33,400 --> 00:42:37,660
Ja, het is AI, duurzaamheid, EU-alternatieven.
693
00:42:37,780 --> 00:42:38,480
Dat is nogal breed.
694
00:42:38,630 --> 00:42:39,160
Nee, precies.
695
00:42:41,460 --> 00:42:44,480
Zoals ik ook aangaf, wij kijken echt wel met de schuine ogen naar Europese alternatieven.
696
00:42:44,580 --> 00:42:46,220
Mistral is dus de grootste, denk ik.
697
00:42:46,450 --> 00:42:47,140
De meest bekende.
698
00:42:48,180 --> 00:42:52,600
Maar je hebt in Nederland ook echt het AI for Impact collectief.
699
00:42:52,690 --> 00:42:55,120
Dus er zijn best wel mooie voorbeelden al in de markt.
700
00:42:56,190 --> 00:42:59,620
Die echt AI willen toepassen op een goede manier en op een duurzame manier.
701
00:42:59,740 --> 00:43:01,680
Green GPT, dat bestaat ook.
702
00:43:02,420 --> 00:43:03,540
Die draaien op Leaf Cloud.
703
00:43:03,820 --> 00:43:07,060
Ook echt wel een hele mooie leuke cloud met een goed concept.
704
00:43:08,600 --> 00:43:12,660
Dus kijk, ik praat dan even vanuit Van der Bonn gedachten.
705
00:43:12,840 --> 00:43:14,700
Dan prioriteren wij sustainability natuurlijk.
706
00:43:14,880 --> 00:43:19,700
Want dat is wel hetgene waarvoor wij bestaan ook als bedrijf.
707
00:43:20,120 --> 00:43:24,520
En dan ken je ook het initiatief van TNO samen met Info Support.
708
00:43:25,260 --> 00:43:26,080
We hebben EcoVet.
709
00:43:26,920 --> 00:43:29,420
Dat is ook een Europese cloud waarmee gestart is.
710
00:43:29,980 --> 00:43:31,880
Leuk, daar was ik nog niet mee bekend, maar die ga ik opzoeken.
711
00:43:32,040 --> 00:43:32,600
Kijk, heel goed.
712
00:43:33,860 --> 00:43:36,980
De volgende vraag is van Arjan Bremen, FG van Waterschap Rivierenland.
713
00:43:37,640 --> 00:43:39,580
Als eerste complimenten, dus ook even te delen.
714
00:43:39,780 --> 00:43:40,620
Mooi duurzaam verhaal.
715
00:43:41,540 --> 00:43:45,840
Batterijen per wijk of straat, is dat niet een betere optie in plaats van per huishouden?
716
00:43:46,080 --> 00:43:47,060
Wordt hier ook nagekeken?
717
00:43:47,940 --> 00:43:51,820
Ja, dus ik ben verder geen groot expert op dit gebied.
718
00:43:51,860 --> 00:43:57,320
Maar voor zover ik weet, wordt er ook zeker bij nieuwe wijken gekeken naar meer een aansluiting van batterijen voor de wijk.
719
00:43:58,340 --> 00:43:59,500
Top, dat klinkt heel goed.
720
00:44:01,040 --> 00:44:07,360
Zoals gezegd, wij zitten er vooral in om zoveel mogelijk manieren, maar op maar naar die 100% duurzaam energie.
721
00:44:08,060 --> 00:44:12,260
Ik denk dat binnen het huis is een hele goede oplossing voor bestaande infrastructuur.
722
00:44:12,380 --> 00:44:15,000
Want je zet niet zomaar die batterijen overal neer.
723
00:44:15,400 --> 00:44:18,520
Dus volgens mij gebeurt het inderdaad al bij aanleg van nieuwe wijken.
724
00:44:19,000 --> 00:44:23,600
Maar ik denk dat we het allemaal nodig hebben, eerlijk gezegd, om naar een 100% duurzaam energiesysteem te gaan.
725
00:44:25,220 --> 00:44:29,580
Kijk, Liz van Hoek, zij is privacy officer, bedrijf is Welten.
726
00:44:29,980 --> 00:44:37,120
Hoe zie je de groei van de datacentra en batterijen om AI te ondersteunen in relatie tot de klimaatproblematiek?
727
00:44:38,020 --> 00:44:41,220
Nou ja, dat is echt een probleem.
728
00:44:41,460 --> 00:44:42,740
Dus een tegenstrijdig iets.
729
00:44:42,920 --> 00:44:49,580
Dus het gebruik van AI heeft een enorme impact op de duurzaamheid.
730
00:44:51,120 --> 00:44:53,920
Gelukkig, ik ben in die zin ook wel een tech-optimist.
731
00:44:54,280 --> 00:44:57,580
Je ziet ook echt wel dat die taalmodellen een stuk efficiënter worden.
732
00:44:57,860 --> 00:45:01,100
Ook de economics moet er op een gegeven moment kikken in.
733
00:45:02,960 --> 00:45:05,780
Dus je ziet eigenlijk al in verhouding dat de nieuwere taalmodellen.
734
00:45:05,870 --> 00:45:07,380
En ook bijvoorbeeld zo'n DeepSeek.
735
00:45:07,380 --> 00:45:11,280
Die zijn echt pionierend geweest in het een stuk efficiënter doen.
736
00:45:11,920 --> 00:45:16,460
Dus ik hoop dat we erna...
737
00:45:16,930 --> 00:45:17,860
Nee, ik ga er vanuit.
738
00:45:18,230 --> 00:45:23,800
Dat we over een aantal jaren gewoon een bepaalde balans weer weten te vinden.
739
00:45:24,080 --> 00:45:25,760
In het gebruik van AI.
740
00:45:25,890 --> 00:45:27,580
Maar wel ook in een duurzamere manier.
741
00:45:27,760 --> 00:45:29,220
En dat die efficiëntieslagen ook worden gemaakt.
742
00:45:29,900 --> 00:45:31,740
En dat samen met de batterijen die ze stelt.
743
00:45:31,960 --> 00:45:34,340
Want nu lekt er natuurlijk nog heel veel energie weg.
744
00:45:34,440 --> 00:45:35,560
Die we niet vast kunnen houden.
745
00:45:36,020 --> 00:45:37,440
Dus dat daar nog wel winst te halen is.
746
00:45:37,520 --> 00:45:38,220
Bijvoorbeeld, zeker.
747
00:45:38,420 --> 00:45:40,860
We hebben echt nog een gigantische opslaguitdaging.
748
00:45:44,360 --> 00:45:45,860
Ik pak gewoon de volgende vraag.
749
00:45:47,040 --> 00:45:48,520
De volgende vraag is van Anita Tamiga.
750
00:45:49,640 --> 00:45:51,000
Privacy adviseur bij DUO.
751
00:45:51,560 --> 00:45:54,420
En als schaalgrote een issue is bij Europese cloud.
752
00:45:54,520 --> 00:45:55,760
Kan de belastingdienst erin?
753
00:45:55,940 --> 00:45:57,380
Dat is de eerste vraag.
754
00:45:57,600 --> 00:46:03,720
Nou, dat hangt er een beetje vanaf wat voor services de belastingdienst nodig heeft.
755
00:46:06,160 --> 00:46:09,140
Kijk, bij ons was het vooral het dynamisch schalen.
756
00:46:09,620 --> 00:46:12,840
Dat soort zaken waar we gewoon tegen wat begrenzing aan liepen.
757
00:46:13,160 --> 00:46:15,180
Ik denk het aantal services gewoon te plannen.
758
00:46:15,700 --> 00:46:17,180
En dat is ook echt wel mogelijk.
759
00:46:17,740 --> 00:46:19,920
Het hangt er een beetje vanaf of het inderdaad heel dynamisch is.
760
00:46:20,400 --> 00:46:21,720
En hoe schaalbaar het moet zijn.
761
00:46:22,660 --> 00:46:26,680
Vaak is een statische load overal wel te krijgen als je dat van tevoren met elkaar afspreekt.
762
00:46:27,000 --> 00:46:28,760
Dus ik denk dat dat prima moet lukken.
763
00:46:29,180 --> 00:46:30,880
Als we maar gewoon duidelijke afspraken maken.
764
00:46:30,880 --> 00:46:35,480
En de verwachtingen goed weten te communiceren naar de Europese cloud provider.
765
00:46:35,760 --> 00:46:36,940
Ja, dat lijkt mij ook inderdaad.
766
00:46:37,080 --> 00:46:38,840
En je gaat toch niet in een big bang over.
767
00:46:38,960 --> 00:46:40,000
Dus klein beginnen kan altijd.
768
00:46:40,280 --> 00:46:41,460
Dus ik zou zeggen, ja kan altijd.
769
00:46:42,040 --> 00:46:43,980
En in de groei mee met de omgeving.
770
00:46:44,100 --> 00:46:44,260
Exact.
771
00:46:45,160 --> 00:46:46,800
En een ander stukje de vervolgvraag.
772
00:46:47,190 --> 00:46:49,860
Is de daadsoevereiniteit ongelijk aan de Europese cloud?
773
00:46:49,940 --> 00:46:50,840
Is ongelijk aan Gemini?
774
00:46:51,480 --> 00:46:52,780
Zijn we dan nog wel soeverein?
775
00:46:53,720 --> 00:46:54,640
We hebben het net al een beetje gehad.
776
00:46:54,730 --> 00:46:54,840
Ja.
777
00:46:56,440 --> 00:46:57,940
Ja, ik probeerde...
778
00:46:58,020 --> 00:46:59,560
Ik zal het proberen.
779
00:47:00,140 --> 00:47:00,940
Ik zal het proberen.
780
00:47:01,400 --> 00:47:04,780
Het is een beetje mijn handschrift, dus ik zou het eigenlijk moeten kunnen lezen.
781
00:47:04,940 --> 00:47:07,900
Excuses, Laurens, die technolier bij TIP Legal.
782
00:47:09,420 --> 00:47:12,020
Als de vraag niet helemaal goed overgekomen is, is het mijn schuld, niet jouw schuld.
783
00:47:12,420 --> 00:47:16,220
Als de overweging om naar een EU-cloud te gaan daadsoevereiniteit is,
784
00:47:16,640 --> 00:47:20,500
maar de EU-services draaien deels op US-embedded software,
785
00:47:20,780 --> 00:47:26,020
hoe soeverein ben je dan als je niet ook alle embedded software of software biedt,
786
00:47:26,560 --> 00:47:28,520
En biedt het dan niet enkel schijnveiligheid?
787
00:47:28,860 --> 00:47:30,420
Ik ben blij dat deze vraag gesteld wordt.
788
00:47:30,520 --> 00:47:32,380
Het is namelijk inderdaad een hele terechte.
789
00:47:33,720 --> 00:47:39,420
Een beetje dat netwerkverhaal wat ik ook heb uitgeproberen te leggen van ons landschap was van de bron.
790
00:47:40,920 --> 00:47:46,000
Nu specifiek voor Skillway is dit iets waar ze heel specifiek over hebben gecommuniceerd.
791
00:47:46,320 --> 00:47:50,260
Zij gebruiken in alle diensten zelf opgebouwde software.
792
00:47:50,720 --> 00:47:55,160
Dus ze maken geen gebruik van Amerikaanse componenten in deze cloudomgeving.
793
00:47:55,500 --> 00:47:57,360
Dus het is een hele terechte vraag. Leuk dat die wordt gesteld.
794
00:47:58,100 --> 00:48:02,200
Zij zijn heel expliciet over dat ze die afhankelijkheid niet hebben.
795
00:48:02,830 --> 00:48:05,100
In dit geval. En dat zijn toch die Fransen denk ik.
796
00:48:05,230 --> 00:48:06,820
Die hebben toch een beetje bij het juiste eind gehad.
797
00:48:07,520 --> 00:48:13,580
En is deze dan het boek waard om naar toe te sturen?
798
00:48:14,360 --> 00:48:15,040
Als vraag.
799
00:48:15,420 --> 00:48:16,100
Zeker. Ja, toch?
800
00:48:16,720 --> 00:48:17,540
Meest technische vraag.
801
00:48:17,780 --> 00:48:18,520
Meest technische vraag.
802
00:48:18,870 --> 00:48:21,260
En heb je er nog zo eentje paraat waarvan je zegt.
803
00:48:21,380 --> 00:48:22,640
Ja, die vond ik ook zo leuk.
804
00:48:23,700 --> 00:48:25,420
Dat is de volgende boekwinnaar.
805
00:48:27,319 --> 00:48:28,040
Ik vond...
806
00:48:28,320 --> 00:48:30,420
Nou, de vraag...
807
00:48:33,740 --> 00:48:35,540
Nou, moet ik even denken.
808
00:48:35,740 --> 00:48:37,620
Want ik zit nu helemaal zo in het antwoorden.
809
00:48:37,630 --> 00:48:38,580
Dat ik het niet goed weet.
810
00:48:39,230 --> 00:48:40,060
Kunnen jullie me niet helpen?
811
00:48:40,700 --> 00:48:43,280
Komen we zo anders inderdaad nog wel even terug.
812
00:48:43,400 --> 00:48:44,620
Ik heb nog even een vraag voor je.
813
00:48:44,720 --> 00:48:46,300
Terwijl Jop even door de kaartjes heen gaat.
814
00:48:47,820 --> 00:48:49,220
Je had natuurlijk van tevoren kunnen bedenken...
815
00:48:49,220 --> 00:48:50,200
wat voor vragen we gingen bestellen.
816
00:48:51,680 --> 00:48:53,660
Welke vraag hebben we niet gesteld...
817
00:48:53,680 --> 00:48:55,780
verwacht. Nou, dus eigenlijk deze laatste
818
00:48:55,840 --> 00:48:57,860
vraag was echt eentje die nog in mijn achterhoofd
819
00:48:58,180 --> 00:48:59,800
zong. Dat is
820
00:48:59,900 --> 00:49:01,560
eigenlijk nog een goede om te vertellen. Ik vond
821
00:49:01,680 --> 00:49:03,700
de ruimte of mogelijkheid niet helemaal
822
00:49:03,920 --> 00:49:05,560
om echt zo'n soort technische uitleg te geven.
823
00:49:06,040 --> 00:49:07,860
Maar dat is inderdaad echt wel een hele belangrijke.
824
00:49:08,420 --> 00:49:09,440
Op het moment dat je
825
00:49:11,180 --> 00:49:11,980
een soevereine
826
00:49:12,140 --> 00:49:13,860
dienst wil aanbieden, maar er zit een Amerikaans
827
00:49:13,900 --> 00:49:15,400
component in, dan
828
00:49:15,760 --> 00:49:17,980
heb je daar een lek. Dus dat is
829
00:49:18,540 --> 00:49:19,720
scherp gevraagd, scherp gezien.
830
00:49:20,120 --> 00:49:21,700
Maar in ons geval ook
831
00:49:21,720 --> 00:49:22,220
over nagedacht.
832
00:49:23,300 --> 00:49:25,420
Wat mij betreft is de laatste vraag,
833
00:49:25,480 --> 00:49:27,440
want die zat er een beetje aan vastgeplakt,
834
00:49:27,680 --> 00:49:29,560
blijkbaar. Die hebben we niet gesteld, dus laten we deze dan ook
835
00:49:29,600 --> 00:49:31,120
gewoon kiezen als een boek.
836
00:49:31,779 --> 00:49:33,740
Lekker willekeurig. Peter Herens,
837
00:49:33,800 --> 00:49:35,660
hij is programmamanager digitalisering
838
00:49:35,780 --> 00:49:36,820
bij Waterweg Wonen.
839
00:49:37,560 --> 00:49:39,520
Wat zijn de belangrijkste knelpunten voor het toepassen
840
00:49:39,640 --> 00:49:41,560
van AI? Ja, die vraag hebben we
841
00:49:41,700 --> 00:49:43,560
volgens mij wel gehad. Ja? Oh, nou, dan heb ik
842
00:49:43,640 --> 00:49:44,800
hem gemist. Ja, we zaten natuurlijk ook
843
00:49:45,780 --> 00:49:47,500
voor de luisteraars. We staan hier in de gang
844
00:49:47,640 --> 00:49:50,300
van Van der Valk Hotel.
845
00:49:50,780 --> 00:49:52,460
Met de microfoons in de hand.
846
00:49:52,820 --> 00:49:54,480
Maar dan is Peter...
847
00:49:54,680 --> 00:49:56,180
We kunnen hem in ieder geval aankondigen als winnaar.
848
00:49:57,619 --> 00:49:58,760
Nogmaals, hartstikke bedankt.
849
00:49:58,920 --> 00:49:59,400
Graag gedaan.
850
00:50:00,660 --> 00:50:02,100
Hiermee sluiten we hem af. Dankjewel.
851
00:50:02,200 --> 00:50:02,600
Dankjewel.