AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S06E81 - Live op het podium: de rol van AI in klantenservice met Cynthia Mak
Cynthia Mak, eigenaar van The Caring Company, bespreekt in deze aflevering de impact van kunstmatige intelligentie op de klantenservice. Ze legt uit hoe AI kan bijdragen aan het verbeteren van werkprocessen, vooral in het licht van vergrijzing en personeelstekorten.
Cynthia benadrukt dat oudere klanten vaak andere communicatiestijlen prefereren, wat vraagt om aanpassingen in de klantenservice. Daarnaast gaat ze in op hoe AI kan helpen bij het automatiseren van repetitieve taken, waardoor medewerkers zich kunnen richten op complexere vraagstukken.
De aflevering biedt ook inzichten in de ethische overwegingen rondom AI en het belang van betrokkenheid van medewerkers bij de implementatie.
Links
- Spreker: Cynthia Mak (https://events.frankwatching.com/conversationalconference/speaker/1389661/cynthia-mak)
- Organisatie: The Caring Company (https://www.thecaringcompany.nl)
- Opleiding: Online trainingsprogramma's over AI (https://grow.google/intl/be-nl/ai-trainings/)
- Kaartspel: AI Game Changer - Generative AI editie (https://aigency.com/ai-game-changer/generative-ai/)
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
=1
00:00:00,001 --> 00:00:11,240
Niels, wij zijn voor het eerst live op het podium bij de Conversational Conference en
2
00:00:11,240 --> 00:00:14,840
we hebben best wel een zaal vol.
3
00:00:14,840 --> 00:00:17,720
Kunnen jullie laten horen dat we ook daadwerkelijk live zijn of niet?
4
00:00:17,720 --> 00:00:18,720
Hebben we er een beetje zin in?
5
00:00:18,720 --> 00:00:21,720
Kijk, kijk, kijk, dankjewel, dankjewel.
6
00:00:21,720 --> 00:00:25,280
Ik ga jullie even uitleggen wat we gaan doen.
7
00:00:25,280 --> 00:00:30,920
We hebben een live podcast, we hebben buitengewoon interessante gasten bereid gevonden om het
8
00:00:30,920 --> 00:00:31,920
gesprek aan te gaan.
9
00:00:31,920 --> 00:00:36,280
Jullie hebben allemaal briefjes gekregen waarop je een vraag zou kunnen stellen.
10
00:00:36,280 --> 00:00:43,480
Dus het eerste deel, gaan we met Cynthia Mak praten over waarom het goed is dat AI werk
11
00:00:43,480 --> 00:00:44,480
overneemt.
12
00:00:44,480 --> 00:00:50,640
En ik ga ervan uit dat jullie boorden vol vragen zitten, dus je kan dan een vraag opschrijven,
13
00:00:50,640 --> 00:00:56,600
het liefst met je voornaam erbij, de rest mag je kijken of je dat wel of niet zou willen
14
00:00:56,600 --> 00:00:57,600
invullen.
15
00:00:57,600 --> 00:01:05,920
We gaan ook daarna nog loten wie een heel erg leuk pakket krijgt als je een vraag inlevert.
16
00:01:05,920 --> 00:01:07,840
Dus zorg in ieder geval dat er een naam op staat.
17
00:01:07,840 --> 00:01:11,840
Dus dat gaan we doen.
18
00:01:11,840 --> 00:01:15,840
En we hebben Cynthia bereid gevonden, Cynthia Mak.
19
00:01:15,840 --> 00:01:20,240
Cynthia, zou jij je willen voorstellen aan de luisteraars en het publiek hier?
20
00:01:20,240 --> 00:01:21,240
Jazeker.
21
00:01:21,240 --> 00:01:22,920
Nou, mijn naam is Cynthia Mak.
22
00:01:22,920 --> 00:01:27,680
Ik ben eigenaar van The Caring Company en met The Caring Company help ik bedrijven om hun
23
00:01:27,680 --> 00:01:29,160
klantenservice te verbeteren.
24
00:01:29,160 --> 00:01:33,400
Ik ben zelf sinds 2006 werkzaam binnen klantenservice organisaties.
25
00:01:33,400 --> 00:01:38,280
Ik ben begonnen als agent aan de lijn en ik ben vrij snel doorgegroeid naar leidinggevende.
26
00:01:38,280 --> 00:01:42,000
En dat heb ik bij allerlei verschillende soorten organisaties gedaan.
27
00:01:42,000 --> 00:01:47,280
Dus B2B, B2C, tech, e-commerce, retail, eigenlijk alles wel.
28
00:01:47,280 --> 00:01:51,760
Waarbij de rode draad altijd was, ik kwam ergens binnen en dan moest er een probleem
29
00:01:51,760 --> 00:01:52,760
opgelost worden.
30
00:01:52,760 --> 00:01:54,560
En dat vond ik superleuk om te doen.
31
00:01:54,560 --> 00:01:58,680
En zodra het was opgelost, dacht ik, oké, ik ben weer weg.
32
00:01:58,680 --> 00:02:03,800
Nou, na een aantal jaar dat in loondienst hebben gedaan, ben ik in 2021 een hele mooie
33
00:02:03,800 --> 00:02:04,800
prijs gewonnen.
34
00:02:04,800 --> 00:02:07,000
Dat is de Manager of the Year Award.
35
00:02:07,000 --> 00:02:11,000
En toen dacht ik, nou, dank je.
36
00:02:11,000 --> 00:02:15,560
En dat was voor mij ook wel het keerpunt dat ik dacht, nou, wat ga ik nou verder doen?
37
00:02:15,560 --> 00:02:20,680
En een van de dingen die ik altijd heel erg niet wilde, wat me heel eng leek, dat was
38
00:02:20,680 --> 00:02:21,680
voor mezelf beginnen.
39
00:02:21,680 --> 00:02:23,400
Dus toen dacht ik, nou, weet je wat?
40
00:02:23,400 --> 00:02:25,200
Ik ga het maar gewoon proberen.
41
00:02:25,200 --> 00:02:29,400
Dus zo ben ik met de Caring Company begonnen, nu bijna twee jaar geleden.
42
00:02:29,400 --> 00:02:30,400
Ja, mooi.
43
00:02:30,400 --> 00:02:31,400
Mooie introductie.
44
00:02:31,400 --> 00:02:35,800
En waar ik heel erg benieuwd naar ben, want de stelling is eigenlijk waarom het zo goed
45
00:02:35,800 --> 00:02:37,720
is dat AI werk overneemt.
46
00:02:37,720 --> 00:02:42,400
En dan moeten we denk ik een klein beetje uitzoomen, want allemaal merken we denk ik
47
00:02:42,400 --> 00:02:47,640
wel dat we iets meekrijgen van de vergrijzing die aan het gebeuren is.
48
00:02:47,640 --> 00:02:53,720
En dan, ik denk in jouw tak van sport, klantenservices, dat je dat misschien ook wel al merkt.
49
00:02:53,720 --> 00:02:54,720
Zeker, ja.
50
00:02:54,720 --> 00:02:55,720
En wat merk je daarvan?
51
00:02:55,720 --> 00:02:58,960
Nou, ik denk dat je het op een aantal verschillende manieren merkt.
52
00:02:58,960 --> 00:03:03,920
Dus aan de ene kant heb je veel verschillende generaties aan het werk binnen klantcontact.
53
00:03:03,920 --> 00:03:06,720
Dus dat kunnen inderdaad mensen zijn die ouder zijn of jonger.
54
00:03:06,720 --> 00:03:11,600
Maar je merkt het natuurlijk ook bij de klanten, dat die ouder worden.
55
00:03:11,600 --> 00:03:14,680
Dus dat betekent er andere vragen die binnenkomen?
56
00:03:14,680 --> 00:03:17,000
Wat is daar het effect dan?
57
00:03:17,000 --> 00:03:19,800
Nou, andere manieren waarop ze contact willen bijvoorbeeld.
58
00:03:19,800 --> 00:03:24,000
Dus je merkt ook wel bij de oudere generatie, ik weet niet wie ook bij de panel discussie
59
00:03:24,000 --> 00:03:27,280
heeft gezeten, waar natuurlijk al het generatievraagstuk veel naar voren kwam.
60
00:03:27,280 --> 00:03:31,960
Maar die toch sneller in de telefoonlijn willen klimmen bijvoorbeeld.
61
00:03:31,960 --> 00:03:35,640
Die helemaal niet zo thuis zijn met apps of dingen online willen opzoeken.
62
00:03:35,640 --> 00:03:37,200
Die willen graag gewoon een mens spreken.
63
00:03:37,200 --> 00:03:42,800
Dus dat merk je wel, terwijl bij de jongere generaties is het wat makkelijker om te denken
64
00:03:42,800 --> 00:03:44,360
van ja, dat zoek je toch gewoon op.
65
00:03:44,360 --> 00:03:45,360
Of je pakt een appje.
66
00:03:45,360 --> 00:03:52,520
Nou en als we het hebben over vergrijzing, dan hebben we het ook heel snel over productiviteit.
67
00:03:52,520 --> 00:04:00,480
Volgens mij hebben we de keuzes te maken als maatschappij, van moeten we hetzelfde blijven
68
00:04:00,480 --> 00:04:02,680
doen met minder mensen.
69
00:04:03,280 --> 00:04:08,600
Of kiezen we voor dat er uiteindelijk meer mensen binnen moeten komen.
70
00:04:08,600 --> 00:04:10,800
Of remmen we economische groei.
71
00:04:10,800 --> 00:04:13,280
Hoe sta jij daarin?
72
00:04:13,280 --> 00:04:15,800
Hoe sta ik daarin?
73
00:04:15,800 --> 00:04:17,400
Ja, interessante vraag.
74
00:04:17,400 --> 00:04:22,160
Kijk aan de ene kant moet er natuurlijk ook wel realistisch zijn.
75
00:04:22,160 --> 00:04:25,760
Misschien wil je wel het liefst zoveel mogelijk nieuwe mensen aan boord krijgen, maar de
76
00:04:25,760 --> 00:04:27,480
arbeidsmarkt is daar gewoon niet naar.
77
00:04:27,480 --> 00:04:30,600
Dus je moet ook gaan kijken naar andere manieren om dat op te vangen.
78
00:04:30,600 --> 00:04:34,720
Tegelijkertijd denk ik ook dat als we kijken naar nieuwe arbeidskrachten, dan zijn we vooral
79
00:04:34,720 --> 00:04:37,880
bezig met die jonge, getalenteerde, nieuwe instromer.
80
00:04:37,880 --> 00:04:41,200
En is er wel nog een hele groep die eigenlijk vergeten wordt.
81
00:04:41,200 --> 00:04:46,240
Dat is dan de mensen die misschien wat meer richting pensioen gaan of die oudere generatie.
82
00:04:46,240 --> 00:04:48,400
Ja, kan ik me niet zo goed voorstellen.
83
00:04:48,400 --> 00:04:50,120
Maar wat kan AI hierin betekenen?
84
00:04:50,120 --> 00:04:54,920
AI kan sowieso werk veel makkelijker maken.
85
00:04:54,920 --> 00:04:58,800
AI is heel breed inzetbaar denk ik.
86
00:04:58,800 --> 00:05:01,880
Er zijn heel veel toepassingen die je hiervoor kan gebruiken.
87
00:05:01,880 --> 00:05:07,680
Maar één ding wat AI sowieso kan doen is ervoor zorgen dat er minder mensen nodig zijn
88
00:05:07,680 --> 00:05:08,840
om werk uit te voeren.
89
00:05:08,840 --> 00:05:12,760
Nou, dat is aan de ene kant natuurlijk een makkelijke oplossing, maar ook een unpopular
90
00:05:12,760 --> 00:05:13,760
opinion, weet je wel.
91
00:05:13,760 --> 00:05:16,160
Want je wil helemaal niet dat AI mensenwerk vervangt.
92
00:05:16,160 --> 00:05:20,600
Maar goed, je kan het wel makkelijker maken, waardoor je bijvoorbeeld ook andere eisen
93
00:05:20,600 --> 00:05:22,520
kunt stellen aan de mensen die je nodig hebt.
94
00:05:22,520 --> 00:05:27,600
Dus als je het bijvoorbeeld hebt over vergrijzing en mensen die misschien wat langzamer dingen
95
00:05:27,600 --> 00:05:33,440
leren of tot zich nemen, als je dan een AI oplossing hebt die ze daarin kan ondersteunen,
96
00:05:33,440 --> 00:05:36,560
dat maakt het natuurlijk ook weer veel interessanter om die generatie.
97
00:05:36,560 --> 00:05:41,600
Dus een hele populatie die weer extra werk kan bijdragen in deze sector.
98
00:05:41,600 --> 00:05:42,600
Ja, zeker.
99
00:05:42,600 --> 00:05:47,280
Maar zeker ook wel als je het op zo'n manier inzet dat het het werk makkelijker maakt.
100
00:05:47,280 --> 00:05:53,680
En zie je dan al ontwikkelingen nu in de praktijk waarin die makkelijke maken van het werk plaatsvindt?
101
00:05:53,680 --> 00:05:57,640
Ja, en dan stap ik even een beetje weg van het generatie-onderwerp, maar wat ik een hele
102
00:05:57,640 --> 00:06:03,760
mooie ontwikkeling vind, waar ik een poosje terug over had gelezen, was dat live vertalen.
103
00:06:03,760 --> 00:06:07,400
Dus ik praat in het Nederlands tegen jou, maar jij hoort het in het Spaans.
104
00:06:07,400 --> 00:06:11,600
En zo kunnen wij een gesprek met elkaar voeren, wat natuurlijk best wel een goede oplossing
105
00:06:11,600 --> 00:06:15,120
is voor het tekort aan mensen die meerdere talen spreken.
106
00:06:15,120 --> 00:06:16,120
Zeker.
107
00:06:16,120 --> 00:06:19,480
Ik zou het Spaans, als je tegen mij Spaans spreekt, niet begrijpen.
108
00:06:19,480 --> 00:06:20,480
Nee, precies.
109
00:06:20,480 --> 00:06:22,400
Maar als er zo'n tool tussen zit, die het gewoon automatisch vertaalt.
110
00:06:22,400 --> 00:06:23,400
En we hebben gewoon een gesprek.
111
00:06:23,400 --> 00:06:24,400
Alleen jij hoort het anders.
112
00:06:24,400 --> 00:06:25,400
Dat is toch fantastisch?
113
00:06:25,400 --> 00:06:26,400
Ik wil het nu.
114
00:06:26,400 --> 00:06:31,840
Jij hebt het over werk makkelijker maken.
115
00:06:31,840 --> 00:06:39,000
Hoe identificeer jij de delen in het werk waarvan je zegt, die kunnen dus makkelijker
116
00:06:39,000 --> 00:06:41,200
gemaakt worden met AI?
117
00:06:41,200 --> 00:06:43,600
Hoe ik die identificeer?
118
00:06:43,600 --> 00:06:48,440
Ten eerste is het heel belangrijk dat je, als je processen wilt gaan verbeteren, want
119
00:06:48,440 --> 00:06:52,120
dat is eigenlijk waar we het nu over hebben, moet je eerst weten welke processen je hebt.
120
00:06:52,120 --> 00:06:53,480
Dus die moet je eerst in kaart brengen.
121
00:06:53,480 --> 00:06:57,480
En vervolgens, wat heel belangrijk is, is dat je ook heel kritisch naar die processen
122
00:06:57,480 --> 00:07:00,160
kan kijken van wat is hier nou overbodig.
123
00:07:00,160 --> 00:07:06,520
Dus een heel makkelijk voorbeeld is, stel dat ik iets handmatig moet invoeren, wat eigenlijk
124
00:07:06,520 --> 00:07:11,680
al op een bijlage staat, die je gewoon kan uploaden en de informatie ervan kan aflezen.
125
00:07:11,680 --> 00:07:15,040
Dat zijn dingen die je heel veel makkelijker kan maken.
126
00:07:15,040 --> 00:07:18,280
Dat zijn stappen, die maken echt wel verschil.
127
00:07:18,280 --> 00:07:21,720
En er is niemand die tegen je zal zeggen, nou dat handmatige werk, dat had ik heel graag
128
00:07:21,720 --> 00:07:22,720
willen doen.
129
00:07:22,720 --> 00:07:23,720
Toch?
130
00:07:23,720 --> 00:07:24,720
Zeker.
131
00:07:24,720 --> 00:07:30,360
Ik zou ook haast zeggen, als iets overbodig is, laten we het dan niet doen.
132
00:07:30,360 --> 00:07:35,120
Iets kan overbodig zijn om handmatig te doen.
133
00:07:35,120 --> 00:07:36,120
Oh ja, heel goed.
134
00:07:36,120 --> 00:07:40,720
Dus dat je het wel nodig hebt, maar dat het niet nodig is dat jij wat overtypt en dat
135
00:07:40,720 --> 00:07:43,160
jij het vervolgens controleert en ik er nog een keertje naar kijk.
136
00:07:43,160 --> 00:07:44,600
Dat is echt zonde van je tijd.
137
00:07:44,600 --> 00:07:45,600
Precies.
138
00:07:45,600 --> 00:07:50,360
En die stappen waarvan ik dan zeg, je bullshit radar gaat er van af, dat zijn de eerste stappen
139
00:07:50,360 --> 00:07:52,880
die je goed kan verbeteren met AI.
140
00:07:52,880 --> 00:07:53,880
Het klinkt zo simpel.
141
00:07:53,880 --> 00:07:58,040
Laten we even kijken hoe het proces eruit ziet, stappen in kaart brengen en zeggen van
142
00:07:58,040 --> 00:07:59,800
nou dit kunnen we gewoon makkelijk automatisch doen.
143
00:07:59,800 --> 00:08:03,000
Maar ik denk dat veel mensen in hun patroon zitten dat ze dat niet zomaar spotten.
144
00:08:03,000 --> 00:08:07,720
Hoe krijgen we de mensen zo actief dat ze eigenlijk het beeld hebben van, hé maar hier
145
00:08:07,720 --> 00:08:10,840
kunnen we AI voor inzetten of kunnen we op een andere manier automatiseren of kunnen
146
00:08:10,840 --> 00:08:11,840
we weglaten.
147
00:08:11,840 --> 00:08:15,560
Wat is daar een stap die ze zouden kunnen zetten?
148
00:08:15,560 --> 00:08:20,440
Aan de ene kant is het denk ik heel goed om mensen te inspireren van wat kan er en welke
149
00:08:20,440 --> 00:08:22,000
mogelijkheden zijn er allemaal.
150
00:08:22,000 --> 00:08:26,360
Dus dit soort kennisdeelsessies bijvoorbeeld dat mensen echt laten zien van welke stap
151
00:08:26,360 --> 00:08:30,000
heb ik nou genomen en dat mensen daar heel geïnspireerd van weggaan, dat helpt.
152
00:08:30,000 --> 00:08:34,040
Maar ook gewoon een frisse wind, dus even een frisse blik die met je meekijkt.
153
00:08:34,040 --> 00:08:38,720
De vreemde ogen die dwingen en die tegen je zeggen joh, jullie doen dit altijd zo, maar
154
00:08:38,720 --> 00:08:39,720
waarom eigenlijk?
155
00:08:39,720 --> 00:08:43,360
Soms hoef je het ook niet allemaal zelf te doen, kan het ook zijn dat anderen natuurlijk
156
00:08:43,360 --> 00:08:44,360
een perspectief brengen.
157
00:08:44,360 --> 00:08:45,360
Ja, mooi.
158
00:08:45,360 --> 00:08:54,600
En ik denk iedereen die hier zit en straks ook aan het luisteren is, die is manager of
159
00:08:54,600 --> 00:08:55,600
heeft een manager.
160
00:08:55,600 --> 00:08:59,400
En als je zelfstandiger bent, dan ben je manager van je eigen werk, toch?
161
00:08:59,400 --> 00:09:03,640
Wat zouden die volgens jou op zijn minst moeten weten over deze technologie?
162
00:09:03,640 --> 00:09:11,200
Oeh, dat vind ik wel een goede vraag, want ik vraag me af van moeten zij iets weten
163
00:09:11,200 --> 00:09:12,680
over deze technologie?
164
00:09:12,680 --> 00:09:17,600
Ik denk eigenlijk dat je gewoon moet weten welk probleem je wilt gaan oplossen.
165
00:09:17,600 --> 00:09:22,320
En dan zijn er mensen die genoeg weten over de technologie die je erbij kan vinden, dus
166
00:09:22,320 --> 00:09:24,640
je hoeft het niet allemaal zelf te doen en zelf te weten.
167
00:09:24,640 --> 00:09:29,040
Maar als jij gewoon bedenkt van vanuit dit proces vind ik dit onnodig en ik wil dat gaan
168
00:09:29,040 --> 00:09:33,840
oplossen, dan is er altijd wel iemand die jou precies kan helpen met hoe dat op te lossen.
169
00:09:33,840 --> 00:09:38,560
Ja, ik heb het radertje in mijn hoofd, dus ik probeer even te verwoorden wat er nu
170
00:09:38,560 --> 00:09:39,560
van me overgaat.
171
00:09:39,560 --> 00:09:43,520
We hebben een aflevering met Dennis Doeland opgenomen, mocht je die nog niet geluisterd
172
00:09:43,520 --> 00:09:44,520
hebben, luister hem even terug.
173
00:09:44,520 --> 00:09:47,160
Maar daar hadden we het over wat is nou echt belangrijk?
174
00:09:47,160 --> 00:09:51,880
Is die management buy-in echt op strategie niveau zeggen dit willen we gaan bereiken?
175
00:09:51,880 --> 00:09:55,240
Technologie is dan AI, maar het kan ook zijn van een stukje automatiseren.
176
00:09:55,240 --> 00:09:59,240
Hoe krijgen we dat in die board room en wat moeten die er dan van weten?
177
00:09:59,240 --> 00:10:02,600
En het kan niet dat ze er dan niks van weten, toch van die technologie?
178
00:10:02,600 --> 00:10:05,960
Dat klopt, maar ik denk dat je op verschillende lagen heb je verschillende interesses.
179
00:10:05,960 --> 00:10:10,720
Dus ik denk als het over management of de board gaat, dan zal de grootste interesse
180
00:10:10,720 --> 00:10:13,560
vaak zijn, helaas toch, dat het gaat om kostenbesparing.
181
00:10:13,560 --> 00:10:17,200
Er is ergens een probleem, er moet iets makkelijker, er moet iets minder geld gaan kosten.
182
00:10:17,200 --> 00:10:22,560
Maar zo'n, kijk dat dat het probleem is, dat zegt niet dat het niet meerdere gezichten
183
00:10:22,560 --> 00:10:23,560
heeft.
184
00:10:23,560 --> 00:10:27,600
Dus door een oplossing te implementeren kan je ook tevreden klanten krijgen, je medewerkers
185
00:10:27,600 --> 00:10:31,360
blijven beter binnen, het werk wordt makkelijker, er worden minder fouten gemaakt.
186
00:10:31,360 --> 00:10:36,440
Dus ik denk niet dat het een one size fits all is, maar wel van wat is het probleem op
187
00:10:36,440 --> 00:10:39,960
welke laag en hoe sluit je daar je boodschap op aan.
188
00:10:39,960 --> 00:10:45,960
Dus om te vertellen van met de implementatie van AI gaan we bijvoorbeeld de helft van het
189
00:10:45,960 --> 00:10:48,840
werk automatiseren en daarmee makkelijker maken.
190
00:10:48,840 --> 00:10:53,800
Zo'n boodschap vertellen en daar buy-in voor te krijgen, hoef je niet precies te weten
191
00:10:53,800 --> 00:10:55,320
hoe de technologie werkt.
192
00:10:55,320 --> 00:10:57,200
Nee, helemaal mee eens.
193
00:10:57,200 --> 00:11:05,880
Gaat het, want je hebt het over reductie van kosten, gaat het in deze sector over dan ook
194
00:11:05,880 --> 00:11:07,800
het vervangen van mensen?
195
00:11:07,800 --> 00:11:12,880
Niet per se, ik denk dat, tenminste dat zou het niet moeten zijn.
196
00:11:12,880 --> 00:11:19,160
Dus ik sluit niet uit dat het wel soms het uitgangspunt is, maar dat zou het niet moeten
197
00:11:19,160 --> 00:11:20,160
zijn.
198
00:11:20,160 --> 00:11:23,560
En hoe zou het bij kunnen dragen?
199
00:11:23,560 --> 00:11:28,360
Dus als je nu werk hebt wat voor een deel wordt overgenomen, en de stelling is, nou ja
200
00:11:28,360 --> 00:11:30,840
weet je, het is fijn als AI werk overneemt.
201
00:11:30,840 --> 00:11:34,600
Wat zijn dan de dingen die je wel gaat doen?
202
00:11:34,600 --> 00:11:37,040
Ja, dat is een interessante vraag.
203
00:11:37,040 --> 00:11:41,200
Kijk, er zijn altijd werkzaamheden waarvan mensen zeggen, dat vinden we heel belangrijk,
204
00:11:41,200 --> 00:11:42,440
maar daar komen we niet aan toe.
205
00:11:42,440 --> 00:11:47,480
Dus binnen een klantenserviceomgeving, kun je QM bijvoorbeeld noemen, quality monitoring.
206
00:11:47,480 --> 00:11:50,680
We vinden het allemaal belangrijk, maar het lukt nooit iemand om er wat mee te doen.
207
00:11:50,680 --> 00:11:55,200
En tegelijkertijd, bij zo'n vraag denk ik ook wel eens aan de telefonie sector.
208
00:11:55,200 --> 00:12:01,000
Ik bedoel, jaren geleden zaten de vrouwtjes in een hokje, al die lijntjes om te gooien,
209
00:12:01,000 --> 00:12:02,400
en dat is nu geautomatiseerd.
210
00:12:02,400 --> 00:12:04,880
Maar betekent dat er geen werk meer in de telefonie sector is?
211
00:12:04,880 --> 00:12:06,280
Nee, helemaal niet.
212
00:12:06,280 --> 00:12:10,600
Dus het dat werk makkelijker wordt gemaakt of deels vervangen, dat betekent niet dat het
213
00:12:10,600 --> 00:12:14,120
weggehaald wordt, maar het betekent wel dat het anders wordt.
214
00:12:14,120 --> 00:12:16,160
Nou ja, wat dan dat anders is?
215
00:12:16,160 --> 00:12:19,320
Als ik in de toekomst kom kijken, dan had ik dat verteld.
216
00:12:19,320 --> 00:12:24,400
Maar als je dan toch even mag dromen, we houden je er niet aan, maar je mag toch dromen,
217
00:12:24,400 --> 00:12:29,760
en we kijken drie tot vijf jaar vooruit, wat zou je dan voor deze sector graag anders zien?
218
00:12:29,760 --> 00:12:31,640
Of veranderd zien?
219
00:12:31,640 --> 00:12:32,640
Of verrijkt?
220
00:12:32,640 --> 00:12:33,640
Mooie vraag.
221
00:12:33,640 --> 00:12:43,560
Nou ja, over het algemeen zou ik het mooi vinden als je door de toepassing van technologie,
222
00:12:43,560 --> 00:12:47,960
door technologie, dat je het werk makkelijker maakt, dat daarmee meer ruimte voor menselijkheid
223
00:12:47,960 --> 00:12:48,960
ontstaat.
224
00:12:48,960 --> 00:12:52,040
Menselijkheid, waar denk je dan aan?
225
00:12:52,040 --> 00:12:57,400
Ja, dus echt wel gewoon die verbinding, het menselijke contact waar het zin in heeft,
226
00:12:57,400 --> 00:13:03,240
maar ook kun je door het werk met AI makkelijker te maken, dus het werk weg te halen, kun je
227
00:13:03,240 --> 00:13:07,080
daardoor bijvoorbeeld de werkdruk verlagen en dan niet zeggen, nou dat betekent dat we
228
00:13:07,080 --> 00:13:10,280
minder mensen nodig hebben, maar ook gewoon eens zeggen, misschien hoeft er niet zo'n
229
00:13:10,280 --> 00:13:11,280
hoge druk op te staan.
230
00:13:11,280 --> 00:13:17,240
Dus kan het daarmee wat menselijker worden dat we misschien minder burn-outs voor onze
231
00:13:17,240 --> 00:13:20,480
kiezen krijgen en meer kunnen genieten van het leven.
232
00:13:20,480 --> 00:13:23,720
Aan de klantenservice kant zit ik vaak aan de klant kant.
233
00:13:23,720 --> 00:13:29,680
En daar voel ik die vermenselijking niet echt.
234
00:13:29,680 --> 00:13:38,840
Ik krijg nog meer menu's, ik krijg nog meer chatbots, ik krijg nog meer automatische antwoorden
235
00:13:38,840 --> 00:13:39,840
dan ooit.
236
00:13:39,840 --> 00:13:44,000
Ik ben weleens bang, ik denk van ik krijg straks helemaal geen mensen meer aan de lijn.
237
00:13:44,000 --> 00:13:45,440
Ja, dat kan ik me goed voorstellen.
238
00:13:45,440 --> 00:13:54,840
Zie jij daar iets in voor AI dat dat dan wel menselijker kan worden?
239
00:13:54,840 --> 00:13:55,840
Hoor ik dat?
240
00:13:55,840 --> 00:14:00,480
Kijk, ik denk dat AI zoals het nu is, staat natuurlijk wel, ik wil niet zeggen redelijk
241
00:14:00,480 --> 00:14:03,240
in de kinderschoenen, maar wel redelijk aan het begin.
242
00:14:03,240 --> 00:14:04,240
Zeker.
243
00:14:04,240 --> 00:14:10,720
En er zijn genoeg mensen of partijen die vinden dat AI al heel erg empathisch kan zijn bijvoorbeeld,
244
00:14:10,720 --> 00:14:13,080
of veel meer empathie kan tonen dan mensen.
245
00:14:13,080 --> 00:14:18,440
Dus kijk, als dat het geval is, want ik denk waar jij nu mee te maken hebt, als je denkt
246
00:14:18,440 --> 00:14:23,120
het is niet zo menselijk, dan is het ook de manier waarop er gereageerd wordt, of de antwoorden
247
00:14:23,120 --> 00:14:25,120
die je krijgt, dat die robotachtig zijn.
248
00:14:25,120 --> 00:14:27,520
Ik denk wel dat AI daar beter in gaat worden.
249
00:14:27,520 --> 00:14:28,920
Dat mag ik wel hopen ja.
250
00:14:28,920 --> 00:14:29,920
Ja, dat mag ik ook hopen.
251
00:14:29,920 --> 00:14:34,720
En nu is het dan wel druk hier op 1, wil je dit, druk op 2.
252
00:14:34,720 --> 00:14:36,880
Daar word ik niet heel vrolijk van.
253
00:14:36,880 --> 00:14:37,880
Nee, dat is waar.
254
00:14:37,880 --> 00:14:43,040
Ik denk ook wel dat de meeste bedrijven ook weg willen van dat soort IVR's implementeren
255
00:14:43,040 --> 00:14:46,920
en juist meer naar zo'n spraakgestuurde versie willen waarbij je je vraag inspreekt.
256
00:14:46,920 --> 00:14:48,920
Dat moet je ook maar net leuk vinden, weet je wel.
257
00:14:48,920 --> 00:14:52,920
Maar je gaat in ieder geval weg van die druk 1, 2 en 3 en luister het hele menu nog een
258
00:14:52,920 --> 00:14:53,920
keertje door.
259
00:14:53,920 --> 00:14:54,920
Het zou mij wel helpen.
260
00:14:54,920 --> 00:14:57,280
En het in de auto dan op een nummertje drukken is ook niet heel veilig.
261
00:14:57,280 --> 00:15:00,360
Dus het helpt mij, als dat spraak meer mogelijk maakt.
262
00:15:00,360 --> 00:15:01,800
Ja, dat is klaar.
263
00:15:01,800 --> 00:15:07,240
Maar als je weer in een drukke bus of zo staat, dan vind ik het ook niet heel wat.
264
00:15:07,240 --> 00:15:09,080
Even je probleem uitleggen.
265
00:15:09,080 --> 00:15:11,840
Zo'n drukke bus meeluisteren is misschien niet voor alle problemen inderdaad.
266
00:15:11,840 --> 00:15:22,000
Je komt dus met je bedrijf bij veel, ik denk dat je, laat ik het zo zeggen, dat je best
267
00:15:22,000 --> 00:15:24,400
wat kijkjes in keukens krijgt.
268
00:15:24,400 --> 00:15:32,520
Hier zitten mensen in de zaal, die bereid zijn om te luisteren naar wat er mogelijk is en
269
00:15:32,520 --> 00:15:33,520
dat soort zaken.
270
00:15:33,520 --> 00:15:42,280
Als er nou weerstand is, bij het bedrijf waar je komt om dit verder te automatiseren met
271
00:15:42,280 --> 00:15:44,920
AI, hoe ga je daarmee om?
272
00:15:44,920 --> 00:15:50,440
Nou, ik zit wel in de luxe positie dat als ik ergens kom, dan is vaak al de ellende
273
00:15:50,440 --> 00:15:53,800
zo groot dat de weerstand tegen verandering niet zo heel groot is.
274
00:15:53,800 --> 00:15:55,800
Dus daar loop ik niet snel tegen aan.
275
00:15:55,800 --> 00:16:01,240
Maar ik kan het wel meer terugbrengen naar bijvoorbeeld voorheen in loondienst.
276
00:16:01,240 --> 00:16:04,400
Als je dan aangeeft dat je ergens een probleem mee hebt, dan wordt er soms wat minder naar
277
00:16:04,400 --> 00:16:05,400
geluisterd.
278
00:16:05,400 --> 00:16:11,600
En ik denk wat daarin gewoon heel erg scheelt, is, en het is jammer, maar toch dat je dingen
279
00:16:11,600 --> 00:16:13,440
heel goed in een business case weer kan omzetten.
280
00:16:13,440 --> 00:16:17,840
Nou, business cases gaan natuurlijk vooral over welk financieel voordeel je eruit kan
281
00:16:17,840 --> 00:16:22,720
halen, maar eigenlijk is het hele verhaal natuurlijk van hoe gaat dit voordeel opleveren.
282
00:16:22,720 --> 00:16:27,160
En ik denk dat het heel belangrijk is dat je daarbij naar drie verschillende facetten kijkt.
283
00:16:27,160 --> 00:16:29,600
Dus wat is het voordeel voor de mensen?
284
00:16:29,600 --> 00:16:31,640
Dus voor de klanten en voor de medewerkers.
285
00:16:31,640 --> 00:16:37,000
Het voordeel in de processen, dus hoe wordt dat makkelijker, beter, nauwkeuriger of sneller.
286
00:16:37,000 --> 00:16:40,040
En welk financieel voordeel levert dat op?
287
00:16:40,040 --> 00:16:41,040
Mooi.
288
00:16:41,040 --> 00:16:46,440
Ja, en het past ook wel in dat business case hebben en het probleem echt helder krijgen,
289
00:16:46,440 --> 00:16:47,880
daar ligt nog vaak de uitdaging.
290
00:16:47,880 --> 00:16:55,680
Zijn daar tips en tricks voor om dat toch wat eerder op tafel te krijgen?
291
00:16:55,680 --> 00:17:01,520
Dus dat mensen eerder nadenken over het grotere plaatje in plaats van het specifieke probleem
292
00:17:01,520 --> 00:17:04,520
waar ze denken last van te hebben.
293
00:17:04,520 --> 00:17:07,400
Oh dat, even kijken.
294
00:17:07,400 --> 00:17:12,880
Dat weet ik eigenlijk niet, dat is wel een goede vraag, maar ik kom nu even niet iets
295
00:17:12,880 --> 00:17:13,880
naar boven.
296
00:17:13,880 --> 00:17:14,880
Nee, dat kan.
297
00:17:14,880 --> 00:17:15,880
Dat hoeft helemaal niet.
298
00:17:15,880 --> 00:17:21,880
Voor de luisteraars is dat niet te zien, maar ik pak onze kaartspel uit, de AI Game
299
00:17:21,880 --> 00:17:22,880
Changer.
300
00:17:22,880 --> 00:17:29,600
Iedereen zou bezig moeten zijn wat mij betreft binnen je bedrijf over hoe ga je met AI om
301
00:17:29,600 --> 00:17:31,520
en dat je daar op zijn minst over nadenkt.
302
00:17:31,520 --> 00:17:33,440
Of je het nou wel of niet gaat gebruiken is een keuze.
303
00:17:33,440 --> 00:17:39,920
Als je het wel gaat gebruiken, dat je nadenkt over wat visie, strategie, beleid.
304
00:17:39,920 --> 00:17:44,240
Daar hebben we een kaartspel voor ontwikkeld en ik wil jou daar eigenlijk ook een stelling
305
00:17:44,240 --> 00:17:47,320
van voorleggen als dat mag.
306
00:17:47,320 --> 00:18:11,640
Jullie hebben gezien, ik heb hem geschud, dus hij valt denk ik behoorlijk in waar we
307
00:18:11,640 --> 00:18:12,640
mee bezig zijn.
308
00:18:12,640 --> 00:18:20,720
De categorie is risico's en uitdagingen, waarbij de stelling is wij voorzien geen weerstand
309
00:18:20,720 --> 00:18:23,960
tegen de invoering van generatieve AI in onze organisatie.
310
00:18:23,960 --> 00:18:29,240
Nou ja, ik denk niet dat dat zo is.
311
00:18:29,240 --> 00:18:32,360
Dus ik denk dat daar zeker wel weerstand tegen zal zijn.
312
00:18:32,360 --> 00:18:37,760
Ik denk niet dat als je zegt, hé dit is een probleem, hier heb je de oplossing, dat het
313
00:18:37,760 --> 00:18:39,400
zo gesmeerd er doorheen gaat.
314
00:18:39,400 --> 00:18:42,320
Er zullen altijd wel afdelingen zijn die daar vragen bij stellen bijvoorbeeld.
315
00:18:42,320 --> 00:18:47,520
Ik denk dat het voor veel partijen ook nog spannend is, AI, juist omdat het zo in de
316
00:18:47,520 --> 00:18:48,520
kinderschoenen staat.
317
00:18:48,520 --> 00:18:51,760
Dus ik ben het niet eens met de stelling.
318
00:18:51,760 --> 00:18:52,760
Ja, heel goed.
319
00:18:52,760 --> 00:18:58,000
Ik denk dat het wel een moment is, ik weet niet of er al vragen zijn.
320
00:18:58,000 --> 00:19:06,480
We hebben collega Ilse, die komt ze even ophalen, om een aantal vragen te behandelen.
321
00:19:06,480 --> 00:19:11,240
Dus steek ook even je hand op als je een vraag op papier hebt gezet al, of als je een vraag
322
00:19:11,240 --> 00:19:12,240
hebt.
323
00:19:12,240 --> 00:19:18,040
Dan leest Niels eventjes de eerste vraag voor.
324
00:19:18,040 --> 00:19:21,720
We beginnen met de vraag van Maureen.
325
00:19:21,720 --> 00:19:28,520
Hoe zie jij de toekomst van het klantcontactcentrum en wat is daar aan voorwaardelijk?
326
00:19:28,520 --> 00:19:33,840
Wat bedoel je met wat is daar aan voorwaardelijk?
327
00:19:33,840 --> 00:19:37,680
Even herhalen.
328
00:19:37,680 --> 00:19:46,280
Dus wat moeten we doen om daarop in te spelen, aan voorbereiding?
329
00:19:46,280 --> 00:19:53,800
Ik hing hier een beetje op twee dingen.
330
00:19:53,800 --> 00:19:59,440
Hoe zie ik graag dat het klantcontactcentrum van de toekomst eruit ziet en hoe denk ik
331
00:19:59,440 --> 00:20:00,440
dat het zal zijn?
332
00:20:00,440 --> 00:20:06,800
Ik zei net al, ik hoop dat er gewoon veel meer ruimte meer gaat zijn voor menselijkheid.
333
00:20:06,800 --> 00:20:10,480
Dat dat menselijke stuk daar meer in naar voren komt.
334
00:20:10,480 --> 00:20:18,280
En ik denk, wat daarvoor nodig is, is ervoor te zorgen dat de omstandigheden zo zijn dat
335
00:20:18,280 --> 00:20:20,240
er ook ruimte is voor die menselijkheid.
336
00:20:20,240 --> 00:20:26,960
Dus als dat betekent dat je met AI bijvoorbeeld werk makkelijker kan maken of weg kan halen,
337
00:20:26,960 --> 00:20:30,880
daarmee de druk kan vlagen, dat is eigenlijk wat ik al eerder zei, dat dat best wel een
338
00:20:30,880 --> 00:20:32,240
goede stap daarvoor zou zijn.
339
00:20:32,240 --> 00:20:38,080
Wat ik denk dat er gaat gebeuren, is anders.
340
00:20:38,080 --> 00:20:45,480
Dus ik denk dat AI veel meer ingezet zal worden om een hogere productiviteit te behalen.
341
00:20:45,480 --> 00:20:54,440
En dat het eerder zal leiden tot of dat er minder mensen in klantcontact gaan werken,
342
00:20:54,440 --> 00:20:59,480
of dat er inderdaad toch veel meer automatisch afgehandeld wordt en gerobotiseerd dan dat
343
00:20:59,480 --> 00:21:00,480
we misschien zouden willen.
344
00:21:00,480 --> 00:21:03,280
Wat zouden we daaraan kunnen doen?
345
00:21:03,280 --> 00:21:06,560
Wat voor bijdrage zouden wij kunnen leveren aan mensen die in de sector zitten, maar ook
346
00:21:06,560 --> 00:21:07,560
de burgers?
347
00:21:07,560 --> 00:21:09,280
Hebben wij daar invloed op, denk je?
348
00:21:09,280 --> 00:21:12,280
Dat vraag ik me af.
349
00:21:12,280 --> 00:21:16,880
Ik denk dat die invloed veel kleiner is als dat ik graag zou zien.
350
00:21:16,880 --> 00:21:22,520
Ik zie het ergens ook wel een beetje als een soort van technologie-AI-golf die gaat, en
351
00:21:22,520 --> 00:21:23,520
heel veel gaan erop mee.
352
00:21:23,520 --> 00:21:29,240
Je hoort natuurlijk ook al vaak de uitspraak 'loop je hopeloos achter als je nog niet met
353
00:21:29,240 --> 00:21:30,240
AI begonnen bent?'
354
00:21:30,240 --> 00:21:33,480
Dus er zit wel een soort van druk.
355
00:21:33,480 --> 00:21:36,720
Iedereen hoort erbij, iedereen moet erbij.
356
00:21:36,720 --> 00:21:42,520
Maar of het per zijn golf is waar je op moet stappen, dat weet ik ook niet.
357
00:21:42,520 --> 00:21:44,760
Loop je hopeloos achter als je er nu niet mee bezig bent?
358
00:21:44,760 --> 00:21:45,760
Dat denk ik niet, nee.
359
00:21:45,760 --> 00:21:46,760
Waarom niet?
360
00:21:46,760 --> 00:21:54,200
Nou, even kijken hoor.
361
00:21:54,200 --> 00:21:56,720
Hoe geef ik daar antwoord op?
362
00:21:56,720 --> 00:21:59,920
Mag ik je helpen?
363
00:21:59,920 --> 00:22:04,800
Ik denk dat je heel terecht zegt dat we aan het begin zitten.
364
00:22:04,800 --> 00:22:06,160
Zeker generatieve AI.
365
00:22:06,160 --> 00:22:11,800
Ik denk dat voor de meeste van jullie hier is dat begonnen bij de uitkomst van ChatGPT.
366
00:22:11,800 --> 00:22:16,880
Dan hebben we het over 30 november 2022.
367
00:22:16,880 --> 00:22:19,320
Dus we zijn nog geen twee jaar verder.
368
00:22:19,320 --> 00:22:26,040
Dus die hele technologie is gewoon nog onvolwassen.
369
00:22:26,040 --> 00:22:30,640
Dan moeten we gaan kijken van 'wat kun je ermee, wat kun je er niet mee, wat wil je
370
00:22:30,640 --> 00:22:32,600
er mee, wat wil je er niet mee?'
371
00:22:32,600 --> 00:22:36,440
En dat dat best wel tijd nodig heeft om daar goed over na te denken.
372
00:22:36,440 --> 00:22:43,360
En als je het gebruikt binnen je organisatie, denk ik dat het heel slim is om ermee te experimenteren.
373
00:22:43,360 --> 00:22:45,080
Want daar kun je makkelijke fouten maken.
374
00:22:45,080 --> 00:22:47,680
Maar jullie zitten in klantcontact.
375
00:22:47,680 --> 00:22:53,000
En als je het hebt over klantcontact, zou ik daar zelf ook iets meer terughoudend in
376
00:22:53,000 --> 00:22:54,000
zijn.
377
00:22:54,000 --> 00:22:56,880
Wat je daar wel in doet, wat je daar niet in doet.
378
00:22:56,880 --> 00:22:59,000
En dat voorzichtig stapje voor stapje.
379
00:22:59,000 --> 00:23:05,360
In plaats van dat je zegt 'we duiken daar vol in en we zien het wel'.
380
00:23:05,360 --> 00:23:07,480
Je klant bij je zo kwijt.
381
00:23:07,480 --> 00:23:14,760
Dus dat daar enige terughoudendheid zit, denk ik dat dat goed is.
382
00:23:14,760 --> 00:23:18,240
En het was natuurlijk van 'loop je achter'.
383
00:23:18,240 --> 00:23:22,640
Ik denk dat dat in zekere zin goed is om daar een beetje in achter te lopen.
384
00:23:22,640 --> 00:23:25,400
Maar begin wel in je organisatie.
385
00:23:25,400 --> 00:23:28,920
Want daar kan je namelijk oefenen, kijken, voelen, proeven.
386
00:23:28,920 --> 00:23:33,120
Alles wat ervoor nodig is om uiteindelijk vertrouwen te krijgen in de technologie.
387
00:23:33,120 --> 00:23:36,400
Of dat je zegt 'dit gaan we echt niet doen'.
388
00:23:36,400 --> 00:23:40,920
Ja, en dan denk ik dat je met name kijkt naar het naar buiten gericht inzetten van
389
00:23:40,920 --> 00:23:41,920
AI.
390
00:23:41,920 --> 00:23:42,920
Wat ik hierover heb.
391
00:23:42,920 --> 00:23:47,200
Want wat mij betreft moet je nu al wel beginnen, als je nog niet begonnen bent met AI, voor
392
00:23:47,200 --> 00:23:48,960
je eigen werk te supporten.
393
00:23:48,960 --> 00:23:50,800
En dat je daar al je ondersteuning gebruikt.
394
00:23:50,800 --> 00:23:56,680
En dat je bewust moet zijn, wat is de impact als ik het voor andere doeleinden, voor procesautomatisering
395
00:23:56,680 --> 00:23:59,440
of voor klantcontact ga inzetten.
396
00:23:59,440 --> 00:24:03,720
Dat je daar wel wat terughoudend en goed naar gaat kijken wat is het effect.
397
00:24:03,720 --> 00:24:07,160
Niet anders dan dat we andere processen automatiseren waar de impact hoog is.
398
00:24:07,160 --> 00:24:10,480
Nou ja, volgens mij klant kwijtraak is impact hoog.
399
00:24:10,480 --> 00:24:12,920
Dus dat je daar inderdaad wel bewust mee omgaat.
400
00:24:12,920 --> 00:24:17,280
Maar ben je nog niet gestart, ga starten.
401
00:24:17,280 --> 00:24:21,680
Er zijn genoeg online trainingsprogramma's over wat het allemaal is en hoe je ermee kan
402
00:24:21,680 --> 00:24:22,680
starten.
403
00:24:22,680 --> 00:24:25,120
Dus ben je nog niet gestart.
404
00:24:25,120 --> 00:24:29,680
Het is nu, als we het opnemen is het donderdag, dus morgen starten.
405
00:24:29,680 --> 00:24:33,960
Morgen is nog wel werkdag, dus voor degenen die live zijn, morgen op de werkdag gelijk
406
00:24:33,960 --> 00:24:34,960
beginnen.
407
00:24:34,960 --> 00:24:36,840
Maar nee, je loopt niet achter.
408
00:24:36,840 --> 00:24:40,920
Maar ga wel experimenteren en ga leren wat het wel voor je kan betekenen.
409
00:24:40,920 --> 00:24:42,320
Dan zie je die kansen.
410
00:24:42,320 --> 00:24:43,760
Je hebt nog een mooie vraag.
411
00:24:43,760 --> 00:24:46,680
Ik heb nog een vraag van Sumit.
412
00:24:46,680 --> 00:24:50,000
Hoe ver weg is de AI klant?
413
00:24:50,000 --> 00:24:53,800
Herhaalrecept, garageafspraak, onderhoud aan de woning.
414
00:24:53,800 --> 00:24:54,800
Voorbeeldje.
415
00:24:54,800 --> 00:24:58,440
De auto plant aan de hand van jouw agenda de APK keuring in.
416
00:24:58,440 --> 00:24:59,440
Zo.
417
00:24:59,440 --> 00:25:00,440
Wow.
418
00:25:00,440 --> 00:25:05,840
Dus hoe ver weg is de AI klant?
419
00:25:05,840 --> 00:25:08,240
Ik denk dat dat nog wel een…
420
00:25:08,240 --> 00:25:12,840
Ik ga er even vanuit dat het een vraag aan een van ons is.
421
00:25:12,840 --> 00:25:16,600
Ik denk dat dat nog best wel verder weg is dan dat je denkt.
422
00:25:16,600 --> 00:25:23,120
Op dit moment op internet zie je natuurlijk heel veel dingen over AI agents, zelfstandige
423
00:25:23,120 --> 00:25:26,160
agents die van alles en nog wat voor je doen.
424
00:25:26,160 --> 00:25:32,000
Die technologie is nog minder volwassen dan waar we het over hebben met de generatieve
425
00:25:32,000 --> 00:25:35,160
AI en de taal en dat soort zaken.
426
00:25:35,160 --> 00:25:45,320
De vraag of dit soort agents echt voor jou autonoom dit gaan uitvoeren, dan kom je op
427
00:25:45,320 --> 00:25:48,640
het snijvlak van systeemintegratie.
428
00:25:48,640 --> 00:25:52,880
Systeemintegratie is iets wat in de IT, wij komen uit de IT.
429
00:25:52,880 --> 00:26:01,080
Dat al decennia lang een enorm probleem is en ik verwacht niet dat dit soort agents zomaar
430
00:26:01,080 --> 00:26:03,520
in één keer met allerlei systemen kunnen praten.
431
00:26:03,520 --> 00:26:07,440
En dat we die systeemintegratie oplossen met AI.
432
00:26:07,440 --> 00:26:08,440
Helaas.
433
00:26:08,440 --> 00:26:12,720
AI mag helaas nog wel even weg.
434
00:26:12,720 --> 00:26:15,800
Op dit moment zou ik het niet allemaal door AI willen laten doen.
435
00:26:15,800 --> 00:26:21,440
Want de uitdagingen die we zien, vooral data kwaliteit, complexiteit van beschikbaar hebben
436
00:26:21,440 --> 00:26:26,720
van de data, de systemen, de kwaliteit van de data, in veel gevallen is dat ook wel een
437
00:26:26,720 --> 00:26:27,720
uitdaging.
438
00:26:27,720 --> 00:26:32,960
Wat nog wel een mooie is, ik weet niet of iemand zich dat kan herinneren, maar een aantal
439
00:26:32,960 --> 00:26:39,320
jaren geleden had Google heel groot op zijn podium, hadden ze dat de Google Assistant van
440
00:26:39,320 --> 00:26:41,640
alles voor jou kon laten uitvoeren.
441
00:26:41,640 --> 00:26:48,040
Die kon de kapper afspraken maken, die kon eten voor je bestellen, die kon eigenlijk
442
00:26:48,040 --> 00:26:49,040
van alles.
443
00:26:49,680 --> 00:26:55,480
Het vervelende was dat dat niet alleen een demo was, maar dat was volledig nep.
444
00:26:55,480 --> 00:27:02,520
Ze hebben toen ook dat uitgebracht als een dienst, maar wat bleek uiteindelijk is dat
445
00:27:02,520 --> 00:27:08,800
ze een enorm callcenter, daar zijn we nu alweer terug, een enorm callcenter hadden in één
446
00:27:08,800 --> 00:27:11,880
van de Amerikaanse staten, want daar was het ook alleen maar uitgebracht.
447
00:27:11,880 --> 00:27:19,760
Dus jij sprak iets in en daarachter zat dus gewoon iemand mee te luisteren en dit voor
448
00:27:19,760 --> 00:27:20,760
jou uit te voeren.
449
00:27:20,760 --> 00:27:28,800
Het was het al oude, gewoon ergens een kaboutertje in een box en Google zat gewoon de boel te
450
00:27:28,800 --> 00:27:29,800
flessen.
451
00:27:29,800 --> 00:27:30,800
De Mechanic Turk.
452
00:27:30,800 --> 00:27:33,080
Ja, Mechanic Turk heet het.
453
00:27:33,080 --> 00:27:35,480
Dat is de term inderdaad.
454
00:27:35,480 --> 00:27:41,840
Ik zou het mooi vinden als dat soort zaken konden, want APK-keuring, we weten allemaal
455
00:27:41,840 --> 00:27:44,080
wanneer het ongeveer moet gebeuren en dat soort zaken.
456
00:27:44,080 --> 00:27:45,800
Daar is ook geen AI voor nodig.
457
00:27:45,800 --> 00:27:49,040
Dat kan gewoon met softwareoplossingen, dat kan gewoon met regels, dat kan gewoon met
458
00:27:49,040 --> 00:27:51,280
afspraken, dus dat hoeft ook niet eens met AI.
459
00:27:51,280 --> 00:27:54,200
We moeten AI ook inzetten als hulpmiddel en niet als doel.
460
00:27:54,200 --> 00:27:57,360
Dus dat vind ik ook nog altijd belangrijk om mee te nemen daarin.
461
00:27:57,360 --> 00:28:02,960
Trouwens, als je vraag niet beantwoord is, we zijn hier dadelijk nog, dus val ons gerust
462
00:28:02,960 --> 00:28:03,960
lastig.
463
00:28:03,960 --> 00:28:06,200
We hebben nu aan een nieuwe vraag binnengekomen.
464
00:28:06,200 --> 00:28:09,160
Excuus als ik de naam verkeerd uitspreek.
465
00:28:09,160 --> 00:28:16,320
Maud, wat is een bad practice voorbeeld voor inzet van AI?
466
00:28:16,320 --> 00:28:20,440
Die willen we eerst even naar jou doen, Cynthia.
467
00:28:20,440 --> 00:28:24,320
Wat is een bad practice, slechte gewoonte?
468
00:28:24,320 --> 00:28:28,360
Mag ik daar even over nadenken?
469
00:28:28,360 --> 00:28:29,360
Ja.
470
00:28:29,360 --> 00:28:33,080
Zal ik hem anders eerst even pakken?
471
00:28:33,080 --> 00:28:42,160
Een bad practice is wat mij betreft AI oppakken voor het automatiseren van een bepaalde werkzaamheden
472
00:28:42,160 --> 00:28:45,760
en vervolgens denken van het werkt en zo naar productie brengen.
473
00:28:45,760 --> 00:28:53,440
Zonder goede testomgeving, goede validatie, human oversight en dat soort zaken.
474
00:28:53,440 --> 00:28:54,440
Het is echt een bad practice.
475
00:28:54,440 --> 00:28:58,800
Het werkt, maar het werkt voor mij, het werkt in deze situatie, let's go.
476
00:28:58,800 --> 00:29:04,200
Prima voor experimenteerfasen, maar ga je het breder over een stukje waar impact is,
477
00:29:04,200 --> 00:29:07,120
het uitrollen, dan betekent dat gewoon dat we onze verantwoordelijkheid moeten nemen,
478
00:29:07,120 --> 00:29:11,800
dat we daar secure in moeten zijn en niet in een keer zeggen "it works on my machine,
479
00:29:11,800 --> 00:29:15,240
het werkt op mijn machine, het gaat live en we gaan er weer aan de slag".
480
00:29:15,240 --> 00:29:17,240
Doe dat altijd in een gecontroleerde setting.
481
00:29:17,240 --> 00:29:21,960
Dus een bad practice wat mij betreft, het werkt voor mij, ik ga gelijk alles erop loslaten.
482
00:29:21,960 --> 00:29:27,280
En wat wij ook nog wel in de praktijk zien is, daar hebben we net ook al een beetje aan
483
00:29:27,280 --> 00:29:36,240
gestipt, is dat je gebruikt de technologie als een antwoord op een probleem wat je eigenlijk
484
00:29:36,240 --> 00:29:37,240
nog moet vinden.
485
00:29:37,240 --> 00:29:42,000
Oftewel, er is geen doel, maar je wil per se de technologie gaan inzetten.
486
00:29:42,000 --> 00:29:44,800
Ik denk dat je dat namelijk altijd moet omdraaien.
487
00:29:44,800 --> 00:29:49,800
Je hebt een doel, je wilt iets bereiken, en als je dat hebt weet je namelijk ook wanneer
488
00:29:49,800 --> 00:29:52,720
je kan stoppen, wanneer iets klaar is.
489
00:29:52,720 --> 00:30:00,520
En als je dat niet hebt, dan heb je eigenlijk een oplossing en daar zit je dan een probleem
490
00:30:00,520 --> 00:30:01,520
voor te zoeken.
491
00:30:01,520 --> 00:30:05,040
Dat staat misschien een beetje haaks op het experimenteren.
492
00:30:05,040 --> 00:30:11,080
Als je gaat experimenteren zou ik zeggen, duik de technologie in en kijk wat het kan
493
00:30:11,080 --> 00:30:12,080
doen.
494
00:30:12,080 --> 00:30:18,800
Daar kan je ook weer dat ruiken, dat proeven, daar kan je door geïnspireerd raken.
495
00:30:18,800 --> 00:30:24,080
Maar ga niet op zoek naar een businessprobleem wat mij betreft, omdat je zegt "ja maar we
496
00:30:24,080 --> 00:30:25,080
willen AI inzetten".
497
00:30:25,080 --> 00:30:28,520
Ja, ik wil daar nog wel eentje op aansluiten.
498
00:30:28,520 --> 00:30:35,840
En dat is een oplossing met AI implementeren, wat niet past bij bijvoorbeeld de klant.
499
00:30:35,840 --> 00:30:41,720
Dus een van de dingen die je nu binnen klantcontact veel ziet is, er is dan een trend, dus bijvoorbeeld
500
00:30:41,720 --> 00:30:44,400
een AI chatbot ofzo, en die moeten we dan allemaal hebben.
501
00:30:44,400 --> 00:30:48,720
Maar ja, als jouw doelgroep of jouw klanten, als dat bij wijze van spreken een verzorgingstehuis
502
00:30:48,720 --> 00:30:51,200
is, dan is dat helemaal niet handig.
503
00:30:51,200 --> 00:30:53,440
Dus dat blijkt me ook nog wel een goede aansluiting.
504
00:30:53,440 --> 00:30:58,120
Kijk goed wie jouw klant is, wie de gebruiker is en zorg dat je technologie daarop aansluit.
505
00:30:58,120 --> 00:30:59,120
Ja, mooi.
506
00:30:59,120 --> 00:31:00,120
Moet ondersteunen.
507
00:31:00,120 --> 00:31:02,120
Moet geen doelen aan op zich.
508
00:31:02,120 --> 00:31:04,480
Zie je dat wel gebeuren dan?
509
00:31:04,480 --> 00:31:10,600
Ik kan me zo voorstellen dat die druk voor het hebben van een chatbot, dat die best wel
510
00:31:10,600 --> 00:31:11,600
groot is.
511
00:31:11,600 --> 00:31:12,600
Zeker.
512
00:31:12,600 --> 00:31:18,280
Ik heb bij een opdracht gezien dat echt een hele grote wens was om een chatbot te implementeren.
513
00:31:18,280 --> 00:31:23,920
Maar dat ging dan over een doelgroep die letterlijk de hele dag met vieze handen rondloopt.
514
00:31:23,920 --> 00:31:29,800
Dus die waren met hun handen bezig, op een werkplaats bijvoorbeeld.
515
00:31:29,800 --> 00:31:32,120
Als die een vraag hebben, wat willen die?
516
00:31:32,120 --> 00:31:37,800
Die willen gewoon denk ik dan bellen of die willen de hoorn onder hun oor en tussen je
517
00:31:37,800 --> 00:31:41,120
schouder in, maar niet met je handen gaan zitten chatten.
518
00:31:41,120 --> 00:31:44,440
Dat is bijvoorbeeld geen goede aansluiting.
519
00:31:44,440 --> 00:31:49,480
Nee, dus know your customers, weet voor wie je het doet, weet je doelgroep en maak daar
520
00:31:49,480 --> 00:31:50,920
de passende oplossing voor.
521
00:31:50,920 --> 00:31:51,920
Juist.
522
00:31:51,920 --> 00:31:58,760
Ik kan me ook voorstellen dat het best ook heel lastig kan zijn in situaties waar, kijk
523
00:31:58,760 --> 00:32:06,080
die chatbot is uiteindelijk, die geeft antwoorden op basis van de informatie die die heeft.
524
00:32:06,080 --> 00:32:07,960
Het is een woord voor woord voorspeller.
525
00:32:07,960 --> 00:32:13,520
Dus het maakt heel veel uit waar die antwoorden op mag geven.
526
00:32:13,520 --> 00:32:17,600
Ik ben eens een keer bij een klant geweest, dat ging dan niet over klantenservice, maar
527
00:32:17,600 --> 00:32:22,840
die hadden van allerlei CAO's en allerlei hele moeilijke arbeidscontracten.
528
00:32:22,840 --> 00:32:28,240
En dan wilden ze intern een chatbot hebben waar je dus vragen aan kon stellen aan die
529
00:32:28,240 --> 00:32:30,120
chatbot over die contracten.
530
00:32:30,120 --> 00:32:33,800
Dat klinkt natuurlijk dan heel verleidelijk en denk ik ook heel mooi.
531
00:32:33,800 --> 00:32:41,480
En toen begonnen ze ook wel even te grappen, van wat nou als je je ziek meldt bij die chatbot
532
00:32:41,480 --> 00:32:46,840
en die zegt dan, ach weet je, neem een paracetamol en dan kom je morgen weer op het werk.
533
00:32:46,840 --> 00:32:49,440
Dan moesten ze in de zaal daarom lachen.
534
00:32:49,440 --> 00:32:52,920
En toen zei ik, maar wat als die nou dat antwoord ook geeft.
535
00:32:52,920 --> 00:33:00,720
Nou, toen werd nog verder gelachen, van ja dat zou toch wel heel grappig zijn, van onder
536
00:33:00,720 --> 00:33:01,720
het dekentje.
537
00:33:01,720 --> 00:33:08,320
Maar, als die nou echt dat antwoord geeft, want dat mag niet.
538
00:33:08,320 --> 00:33:10,760
Dat is gewoon wettelijk verboden.
539
00:33:10,760 --> 00:33:16,160
Je mag geen medisch advies geven.
540
00:33:16,160 --> 00:33:18,600
En toen werd het toch wel stil.
541
00:33:18,600 --> 00:33:24,840
En toen hebben we vooral in die hele sessie erover gehad, niet over van, ja maar wat zou
542
00:33:24,840 --> 00:33:30,280
zo'n chatbot eigenlijk moeten zeggen, maar wat mag die allemaal niet zeggen.
543
00:33:30,280 --> 00:33:36,840
En dat universum is zoveel groter dan uiteindelijk van wat die wel mag zeggen.
544
00:33:36,840 --> 00:33:41,280
En daar is uiteindelijk besloten, laten we het maar niet doen.
545
00:33:41,280 --> 00:33:48,440
Dus als je het hebt over bad practices, dan is het misschien ook wel dat je eigenlijk
546
00:33:48,440 --> 00:33:55,120
ook alleen maar kijkt naar de mogelijkheden en de onmogelijkheden of in ieder geval de
547
00:33:55,120 --> 00:34:00,040
side effects, de dingen die je niet wil, dat je die over het hoofd gaat zien.
548
00:34:00,040 --> 00:34:03,200
En dat moet je natuurlijk bij stilstaan.
549
00:34:03,200 --> 00:34:04,600
En daar moet je natuurlijk geholpen worden.
550
00:34:04,600 --> 00:34:05,600
Hoe kom je daar toe?
551
00:34:05,600 --> 00:34:07,640
Want dat is misschien niet iets waar je top of mind zit.
552
00:34:07,640 --> 00:34:10,000
Want je zit natuurlijk lekker op die hype van gaan we het oplossen.
553
00:34:10,000 --> 00:34:12,000
We hebben nog een laatste vraag.
554
00:34:12,000 --> 00:34:14,600
We hebben er nog twee, dus dan ga ik kiezen.
555
00:34:14,600 --> 00:34:17,920
Oh, dan hebben we nog een.
556
00:34:17,920 --> 00:34:21,480
Hoe zorg je voor een hogere adoptie van AI?
557
00:34:21,480 --> 00:34:23,680
Oplossingen in het contactcenter bij agents.
558
00:34:23,680 --> 00:34:25,680
Dankjewel Timothy voor je vraag.
559
00:34:25,680 --> 00:34:28,280
Dus hoe zorg je voor een hogere adoptie van AI?
560
00:34:28,280 --> 00:34:30,440
Oplossingen in het contactcenter bij agents.
561
00:34:30,440 --> 00:34:33,400
Wat heel erg helpt is maak ze onderdeel ervan.
562
00:34:33,400 --> 00:34:38,800
Dus op het moment dat je AI gaat implementeren, moet het ook een oplossing zijn voor hun probleem.
563
00:34:38,800 --> 00:34:43,600
En het is niet handig om een probleem aan ze te vertellen en daar de oplossing voor te
564
00:34:43,600 --> 00:34:44,600
bedenken.
565
00:34:44,600 --> 00:34:46,200
Dus neem ze er echt in mee.
566
00:34:46,200 --> 00:34:49,280
Even van mijn beeld, want ik zit niet in deze sector, een agent.
567
00:34:49,280 --> 00:34:50,280
Waar moet ik dan even aan denken?
568
00:34:50,280 --> 00:34:51,280
Een agent, oh dat is een medewerker.
569
00:34:51,280 --> 00:34:54,680
Dus dat is iemand die aan de telefoon zit of die aan de chat zit.
570
00:34:54,680 --> 00:34:57,360
Dus dat is eigenlijk de workforce, om het zo maar te noemen.
571
00:34:57,360 --> 00:35:02,480
En ja, het is iets wat best wel vaak kan voorkomen, is dat er natuurlijk een oplossing
572
00:35:02,480 --> 00:35:06,320
wordt bedacht en wordt opgelegd en vervolgens wordt het niet aangenomen.
573
00:35:06,320 --> 00:35:08,160
En dan is de vraag, hoe kan dat nou?
574
00:35:08,160 --> 00:35:11,000
Ja, die zien we wel vaker in de praktijk.
575
00:35:11,000 --> 00:35:14,200
Dus echt iemand gewoon goed meenemen.
576
00:35:14,200 --> 00:35:15,720
Dus wat is nou jouw probleem?
577
00:35:15,720 --> 00:35:19,560
Wat is jouw ideale wereld en hoe gaat deze oplossing daarin bijdragen?
578
00:35:19,560 --> 00:35:24,200
Ja, en daarna zijn er nog allemaal hele goede ideeën die andere mensen veel beter bedenken
579
00:35:24,200 --> 00:35:25,200
dan ik.
580
00:35:25,200 --> 00:35:30,280
Met posters maken en evenementen organiseren en zorgen echt voor dat het echt heel erg
581
00:35:30,280 --> 00:35:32,160
gaat leven bij de medewerkers.
582
00:35:32,160 --> 00:35:36,680
Ja, ik kan niet precies in deze paar agents erover hebben, maar wel gewoon over oplossingen
583
00:35:36,680 --> 00:35:37,680
die we voor klanten maken.
584
00:35:37,680 --> 00:35:41,840
En dat is inderdaad, betrek ze in het bedenkproces al en niet naar het oplossingsproces.
585
00:35:41,840 --> 00:35:45,240
Wie weet komen ze met ideeën waar je zelf niet over nagedacht.
586
00:35:45,240 --> 00:35:47,080
En anders zijn ze in ieder geval onderdeel van het proces.
587
00:35:47,080 --> 00:35:51,840
En als je daar een paar key users hebt die je meekrijgt, dan gaat het balletje als het
588
00:35:51,840 --> 00:35:55,560
goed is vanzelf wel rollen, maar als je ze niet betrekt, dan is het heel snel een weerstand
589
00:35:55,560 --> 00:35:56,560
inderdaad.
590
00:35:56,560 --> 00:35:57,560
Dankjewel Timothy.
591
00:35:57,560 --> 00:36:00,560
Oh, nou is het door elkaar gedaan.
592
00:36:00,560 --> 00:36:01,560
Handig.
593
00:36:01,560 --> 00:36:04,680
Ja, zit je ze ook te schudden.
594
00:36:04,680 --> 00:36:07,080
Ik heb hem gevonden.
595
00:36:07,080 --> 00:36:14,360
Nawiet, welke mensen met functies heb je minimaal nodig, naast technische kennis, om AI succesvol
596
00:36:14,360 --> 00:36:16,200
te implementeren bij klantcontact?
597
00:36:16,200 --> 00:36:17,200
Mooie vraag.
598
00:36:17,200 --> 00:36:23,440
Ja, dat vind ik een hele mooie vraag en ik denk dat dat heel afhankelijk is van de organisatie.
599
00:36:23,440 --> 00:36:28,240
Dus sommige organisaties zijn natuurlijk gigantisch groot en daar heb je allerlei verschillende
600
00:36:28,240 --> 00:36:30,120
rollen die daarin kunnen ondersteunen.
601
00:36:30,120 --> 00:36:34,080
En soms heb je een heel klein organisatietje en dan ben je het eigenlijk zelf die dat aan
602
00:36:34,080 --> 00:36:35,080
het doen is.
603
00:36:35,080 --> 00:36:38,640
Dus ik vind het lastig om daar zeg maar een eenduidig antwoord op te geven.
604
00:36:38,640 --> 00:36:44,640
Maar wat je sowieso, wat ik al aangaf, je moet gewoon goed in kaart krijgen welk probleem
605
00:36:44,640 --> 00:36:45,640
ga je oplossen.
606
00:36:45,640 --> 00:36:47,280
Wie heb je daarvoor nodig?
607
00:36:47,280 --> 00:36:50,720
Dat zijn natuurlijk mensen met kennis over het proces wat je gaat verbeteren.
608
00:36:50,720 --> 00:36:54,720
Het liefst ook mensen die snappen of weten hoe je zo'n proces in kaart brengt en hoe
609
00:36:54,720 --> 00:36:56,160
je daar berekening over doet.
610
00:36:56,160 --> 00:36:59,800
Welk voordeel de oplossing je gaat bieden.
611
00:36:59,800 --> 00:37:02,560
En dan voor het implementeren zelf.
612
00:37:02,560 --> 00:37:06,480
Het zou kunnen dat je een implementatiepartner hebt of dat je intern een IT afdeling hebt
613
00:37:06,480 --> 00:37:07,600
die je daarmee kan helpen.
614
00:37:07,600 --> 00:37:12,640
Ik denk dat dat heel erg verschilt per organisatie en per grootte van de organisatie.
615
00:37:12,640 --> 00:37:15,080
En zie je daar ook nog een rol voor?
616
00:37:15,080 --> 00:37:17,200
Ethici en gesprekken daarover?
617
00:37:17,200 --> 00:37:18,680
Of wat is de impact daarvan?
618
00:37:18,680 --> 00:37:21,080
Zie je dat al in deze sector wat vaak terugkomt?
619
00:37:21,080 --> 00:37:23,080
Nee, dat heb ik nog niet.
620
00:37:23,080 --> 00:37:26,240
Geen ethische board waarin dat wordt besproken?
621
00:37:26,240 --> 00:37:28,080
Niet wat ik heb meegemaakt, nee.
622
00:37:28,080 --> 00:37:30,160
Maar ik sluit niet uit dat het er niet is hoor.
623
00:37:30,160 --> 00:37:32,000
Nee, niet in mijn ervaring.
624
00:37:32,000 --> 00:37:37,680
En afsluitend Cynthia, wat zou je de mensen hier, de luisteraar, mee willen geven?
625
00:37:37,680 --> 00:37:41,720
Waar zouden ze nou morgen mee moeten starten wat jou betreft?
626
00:37:41,720 --> 00:37:45,280
Wat zou je ze mee willen geven?
627
00:37:45,280 --> 00:37:47,800
Starten in de zin van hoe kan je beginnen met AI?
628
00:37:47,800 --> 00:37:49,680
Of wat moet je doen?
629
00:37:49,680 --> 00:37:51,680
Ja, mag jij kiezen?
630
00:37:51,680 --> 00:37:53,680
Nou, dan kies ik voor de laatste.
631
00:37:53,680 --> 00:37:56,560
Want daar heb ik toevallig net een mooie presentatie over gegeven.
632
00:37:56,560 --> 00:38:00,880
Als je wil beginnen met AI zijn er gewoon vier stappen die je wat mij betreft moet nemen.
633
00:38:00,880 --> 00:38:03,520
De eerste, we hebben hem al genoemd, ken je klant.
634
00:38:03,520 --> 00:38:08,320
Dus weet wie je klant is en weet hoe jouw oplossing aansluit bij zijn probleem.
635
00:38:08,320 --> 00:38:10,960
De tweede, breng je processen in kaart.
636
00:38:10,960 --> 00:38:14,320
Dus zorg ervoor dat je weet welke processen je gaat verbeteren.
637
00:38:14,320 --> 00:38:17,920
De derde, ik noemde hem al een beetje, maar je bullshit radar.
638
00:38:17,920 --> 00:38:24,000
Dus blijf kijken naar wat er niet klopt in je processen en wat onlogisch is en wat beter kan.
639
00:38:24,000 --> 00:38:28,080
En als vierde zou ik ook echt de tip mee geven, vind de juiste partner.
640
00:38:28,080 --> 00:38:30,240
Dus dat kan een implementatiepartner zijn.
641
00:38:30,240 --> 00:38:35,720
Het kan ook inderdaad iemand binnen de organisatie zijn die jou gaat helpen met het juist neerzetten.
642
00:38:35,720 --> 00:38:38,120
Of die beter dat technische begrip heeft.
643
00:38:38,120 --> 00:38:42,440
Je hoeft het niet allemaal zelf te kunnen en te weten, maar verzamel wel de juiste mensen om je heen.
644
00:38:42,440 --> 00:38:44,880
Dat lijkt me een prachtige afsluiter.
645
00:38:44,880 --> 00:38:48,120
Dank je wel Cynthia, dank je wel dat je onze gast wilde zijn.
646
00:38:48,120 --> 00:38:49,120
Bedankt voor de uitnodiging.
647
00:38:49,120 --> 00:38:50,320
Heel graag gedaan.
648
00:38:50,320 --> 00:38:54,720
En jullie bedankt dat jullie hierbij wilden zijn.
649
00:38:54,720 --> 00:38:57,600
Dank ook voor alle vragen die er zijn.
650
00:38:57,600 --> 00:39:05,720
We sluiten de podcast af en dan gaan we even wat loten van wie een mooi pakket aan boeken krijgt.
651
00:39:05,720 --> 00:39:06,480
Dank jullie wel.
652
00:39:06,480 --> 00:39:07,720
Dank je wel voor het luisteren.
653
00:39:07,720 --> 00:39:10,640
Vergeet je niet te abonneren via je favoriete podcastapp.
654
00:39:10,640 --> 00:39:12,640
En dan mis je geen aflevering.
655
00:39:12,640 --> 00:39:14,640
Tot de volgende keer.
656
00:39:15,040 --> 00:39:19,640
*Applaus*