AIToday Live

S08E31 - Praktische AI voor bedrijven en sport: van CRM-automatisering tot hockeyanalyse

Aigency by Info Support Season 8 Episode 31

Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.

0:00 | 52:08

Erik Klein Nagelvoort, Managing Partner van Blue Field Agency, ziet organisaties falen met AI omdat ze beginnen met technologie in plaats van processen. Hij ontwikkelde een intervaltraining-aanpak: korte AI-sprints met strategische rust ertussen om te evalueren wat werkt. Bij Transavia ontdekte hij dat 80% van winterse call center drukte kwam van pensionado's naar Spanje met medicijnvragen - specifiek inzicht dat een gerichte campagne mogelijk maakte.

In plaats van meer personeel aannemen voor pieken, losten ze het probleem op met vooraf communicatie. Klein Nagelvoort gebruikt zelf een WhatsApp-agent die zijn CRM bijwerkt na zakelijke gesprekken terwijl hij in de auto zit. Morgen kun je beginnen met drie processen scoren die jullie de meeste tijd kosten: kostprijs, AI-impact en implementatietijd.

Onderwerpen

  • Intervaltraining-aanpak voor AI-projecten met strategische rust tussen sprints
  • Call center analyse bij Transavia en VVN: van generieke inzichten naar specifieke actie-punten
  • Gesloten versus open AI-modellen en de trade-off tussen privacy en kennisbreedte
  • AI-agents als teamlid met 70/30 verhouding mens-technologie
  • Proces-gedreven in plaats van technologie-gedreven AI-implementatie
Links

Genoemde entiteiten: Blue Field Agency - Nederlandse hockeybond - Vereniging van Verpleegkundigen Nederland - Transavia - ChatGPT - Garmin - WhatsApp - Einstein

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:03,319
Je CRM dat zichzelf bijwerkt, terwijl je rijdt.

2
00:00:03,319 --> 00:00:09,119
Call center data, die onthuld dat 80% van je winterpiek over medicijnen naar Spanje gaat,

3
00:00:09,119 --> 00:00:14,400
en dan strafcorners automatisch herkennen om tegenstanders te lezen.

4
00:00:14,400 --> 00:00:17,199
3 use cases 1 persoon.

5
00:00:17,199 --> 00:00:24,519
Erik Klein Nagelvoort, bouwt bij Blue Field Agency, dit soort praktische AI-systemen voor bedrijven.

6
00:00:24,519 --> 00:00:27,640
Daarnaast is hij voorzitter van de Nederlandse hockeybond.

7
00:00:27,640 --> 00:00:32,200
Een combinatie die hem unieke inzichte geeft over mensen, processe en technologie.

8
00:00:35,639 --> 00:00:37,720
Joop: Kijk, je stond er al op.

9
00:00:38,760 --> 00:00:39,719
Joop: Heel erg leuk.

10
00:00:39,879 --> 00:00:41,800
Joop: Je zit er inderdaad in ons hoekje.

11
00:00:41,799 --> 00:00:44,840
Joop: Leuk dat je luistert naar AIToday Live.

12
00:00:44,840 --> 00:00:47,959
Joop: Ik ben Joop Snijder, Head of AI bij Info Support.

13
00:00:48,039 --> 00:00:50,840
Niels: Mijn naam Niels Naglé, Area Lead Data&AI bij Info Support.

14
00:00:50,999 --> 00:00:55,799
Joop: En in de studio, je hoorden hem al even, hebben we Erik Klein Nagelvoort.

15
00:00:55,799 --> 00:00:57,960
Joop: Erik, zou je jezelf eerst even willen voorstellen?

16
00:00:58,360 --> 00:01:04,998
Erik: Ik ben Erik Klein Nagelvoort, Managing Partner van Blue Field Agency, AI in Design een onderzoeksbedrijf in Amsterdam.

17
00:01:04,998 --> 00:01:08,279
Erik: En daarnaast voorzitter van de Nederlandse hockeybond.

18
00:01:08,279 --> 00:01:12,999
Joop: Ja, dat is natuurlijk wel een hele grappige combinatie, waar ik wel meteen mee wil beginnen, eigenlijk.

19
00:01:12,999 --> 00:01:16,840
Joop: Want hoe komt de voorzitter van de Nederlandse hockeybond in de AI terecht?

20
00:01:16,920 --> 00:01:18,039
Erik: Ja, precies.

21
00:01:18,999 --> 00:01:21,479
Erik: Ik ben oud scheidsrechter oud hockey.

22
00:01:22,120 --> 00:01:24,440
Erik: En dat scheidsrechters uit de hand gelopen.

23
00:01:24,440 --> 00:01:32,759
Erik: Dus ik ben op het best hoogste niveau in de wereld gezeten, dus India, Pakistan geweest, EK's, WK's, Champion Trophy's gedaan.

24
00:01:33,080 --> 00:01:38,599
Erik: Dus tot mijn eigen grote verrassing op het hoogste niveau gefloten.

25
00:01:38,599 --> 00:01:40,759
Erik: Suuk hele mooie ervaring.

26
00:01:42,359 --> 00:01:46,519
Erik: Daarna gingen mijn kinderen hockeyen voorzitter van een club geworden.

27
00:01:46,520 --> 00:01:52,200
Erik: En vier jaar geleden zei de bond tegen mij van joh, zou je niet voorzitter willen worden van de bond.

28
00:01:52,200 --> 00:01:58,119
Erik: Want je kent het internationale speelveld en je kent clubhockey, verenigingsleven.

29
00:01:58,120 --> 00:01:59,239
Erik: Dus zou je dat willen doen.

30
00:01:59,240 --> 00:02:01,159
Erik: Dus dat doe ik dat is een vrijwilligerstaak.

31
00:02:01,320 --> 00:02:05,639
Erik: Je moet het voorzien als een voorzitter RVT rol.

32
00:02:06,279 --> 00:02:08,919
Erik: Maar superleuk, heel eervol om te doen.

33
00:02:08,919 --> 00:02:12,919
Erik: En ik heb natuurlijk een hele mooie doe het nu al mijn vierde jaar.

34
00:02:13,160 --> 00:02:19,159
Erik: En Parijs is natuurlijk achter de rug met een hele unieke prestatie van de mannen en vrouwen.

35
00:02:19,480 --> 00:02:26,039
Erik: Het is nog nooit voorgekomen überhaupt in teamsport dat mannen en vrouwenteams Olympisch goud halen.

36
00:02:26,040 --> 00:02:28,519
Erik: Dus ik viel met mijn neus in de boven.

37
00:02:30,760 --> 00:02:35,239
Joop: Kijk, we gaan ze direct in op wat je dagelijks doet, maar toch nog wel heel interessant.

38
00:02:35,799 --> 00:02:38,839
Joop: Zit er ergens een combinatie tussen AI en hockey?

39
00:02:38,840 --> 00:02:39,480
Erik: Zeker.

40
00:02:39,480 --> 00:02:40,280
Erik: Ja, zeker.

41
00:02:40,279 --> 00:02:48,919
Erik: Ik heb toevallig gisteren bij de ABN Amro tennis toernooi, heb ik voor ondernemers een verhaal over AI en sport gehouden.

42
00:02:49,480 --> 00:02:53,320
Erik: En dat doe ik ook vaker bij NOC NSF voor bondscoaches.

43
00:02:53,320 --> 00:02:55,559
Erik: En om in beeld te geven.

44
00:02:55,560 --> 00:02:58,120
Erik: Je kunt natuurlijk met de AI analyseren.

45
00:02:58,120 --> 00:02:59,639
Erik: Looplijnen.

46
00:02:59,639 --> 00:03:01,240
Erik: Hoe loop ik een strafcorner?

47
00:03:01,239 --> 00:03:05,319
Erik: Ik weet niet of jullie ook hier zijn, maar strafcorner wil, is een groot ding in hockey.

48
00:03:06,119 --> 00:03:07,880
Erik: Hoe moet ik dat verdedigen?

49
00:03:08,120 --> 00:03:13,400
Erik: Ik haal alle strafcorners van alle wedstrijden tegen ik noem maar wat Argentinië naar binnen.

50
00:03:13,559 --> 00:03:15,639
Erik: En wat zijn dan de looplijnen?

51
00:03:15,639 --> 00:03:16,680
Erik: Wie loopt als eerste?

52
00:03:16,680 --> 00:03:22,040
Erik: Hoe worden die verdedigd, hoe ik dat aanvallen kun je allemaal met AI natuur.

53
00:03:22,919 --> 00:03:24,280
Erik: Analyseren.

54
00:03:24,519 --> 00:03:27,799
Erik: Waarbij we dat voorheen met een expert systeem bouwen.

55
00:03:28,040 --> 00:03:32,760
Erik: En nu kun je dat met een patroonherkenning best wel makkelijk doen.

56
00:03:35,320 --> 00:03:39,959
Erik: En je ziet ook wel daar een ontwikkeling dat de ontwikkeling van video.

57
00:03:39,959 --> 00:03:42,600
Erik: Dus de kwaliteit van video heel belangrijk is.

58
00:03:43,239 --> 00:03:47,479
Erik: Net zoals altijd met AI, kwaliteit van data is belangrijk.

59
00:03:48,040 --> 00:03:50,760
Erik: Anders wordt het niks met die outprocessen.

60
00:03:51,160 --> 00:03:53,239
Erik: En dat zie je bij hockey dus ook.

61
00:03:53,720 --> 00:04:02,280
Erik: Waarbij we in het verleden altijd gebruik moest maken van tv-beelden, kun je nu met AI-camera's, die al hogere kwaliteit opname hebben, kunnen we onderscheiden.

62
00:04:02,279 --> 00:04:04,439
Erik: Is dat Joop of is dat Erik?

63
00:04:05,559 --> 00:04:07,799
Joop: Dat je ook de individuele spelers allemaal ziet.

64
00:04:07,799 --> 00:04:10,760
Erik: En bij hockey hebben we natuurlijk de problematiek dat wij hebben interchange.

65
00:04:10,760 --> 00:04:15,399
Erik: Dus je kunt wisselen gedurende de wedstrijd, anders dan bij voetballen.

66
00:04:15,960 --> 00:04:22,440
Erik: We spelen zes minuten vaak en dan ben je er weer uit, je speel maximaal uit en dan ga je op de bank zitten.

67
00:04:22,440 --> 00:04:24,760
Erik: Dus daar wordt het een heel snel spelletje.

68
00:04:25,239 --> 00:04:30,359
Erik: Maar ja, die camera moet natuurlijk wel, of dat systeem, moet ik wel die speler kunnen blijven volgen.

69
00:04:30,359 --> 00:04:34,760
Erik: Want als je denkt, waar is hij nummer 7, die zit op de bank.

70
00:04:35,000 --> 00:04:39,880
Erik: Het zou een beetje slordig zijn als je dan zou zeggen van het is de nummer 7 die scoort.

71
00:04:39,880 --> 00:04:41,159
Erik: Dus daar kan je veel mee.

72
00:04:41,160 --> 00:04:53,399
Erik: Dus wat ik nu mee bezig ben met de internationale bond, is om te kijken van kunnen wij net zoals bij Formule 1 statistics aanbieden, zodat het ook wat toegankelijker wordt voor niet-hockeyers.

73
00:04:53,639 --> 00:04:57,159
Erik: Dat je kan zeggen, hoe hard gaat die bal er nu in, net zoals bij tennis?

74
00:04:58,200 --> 00:04:59,800
Erik: Hoe hard loopt een spelen?

75
00:04:59,800 --> 00:05:04,680
Erik: Wat voor combinaties zie ik nu tussen wat zijn de ideale combinaties.

76
00:05:05,239 --> 00:05:07,399
Erik: Je kunt daar hier heel ver in gaan.

77
00:05:07,399 --> 00:05:10,439
Erik: Je kunt zelf zeggen dat hebben we nog niet hoor je zo.

78
00:05:10,760 --> 00:05:16,919
Erik: Op basis van herkenning, zou je kunnen kijken: zijn er vermoeidheidsverschijnselen bij spelers.

79
00:05:16,920 --> 00:05:19,400
Erik: En aan de ene kant versus de andere kant.

80
00:05:19,399 --> 00:05:21,560
Erik: Want je weet natuurlijk dat is bij voetbal ook.

81
00:05:21,560 --> 00:05:25,399
Erik: Je kunt dan druk zetten op de kant die het moeilijk is.

82
00:05:26,760 --> 00:05:33,839
Erik: Dat zijn dingen waar we allemaal naar kijken, ja, tot het maken van trainingsschema's gaat heel ver door.

83
00:05:34,240 --> 00:05:35,520
Niels: Dat is wel realtime.

84
00:05:31,480 --> 00:05:38,320
Niels: Dus tijdens de wedstrijd, als veel in de voorbereiding.

85
00:05:38,560 --> 00:05:46,399
Erik: Dus een combinatie van moet je voorstellen dat we nu onze bondscoaches en überhaupt coaches wedstrijden inklikken.

86
00:05:46,399 --> 00:05:50,880
Erik: Dus je ziet die live beelden en tijdens de wedstrijd wordt geklikt op standaard situaties.
87
00:05:51,200 --> 00:05:54,720
Erik: Dat is heel veel werk, los zo al tijdens de wedstrijd.
 87
00:05:54,719 --> 00:06:02,000
Erik: En na de wedstrijd zitten we uren te analyseren om al die beelden, alle strafcorners, alle vrijeslagen naar binnen te halen.
 88
00:06:02,000 --> 00:06:04,479
Erik: En dat kan je nu met AI enorm versnellen.
 89
00:06:04,479 --> 00:06:13,919
Erik: Dus kunnen de coaches eigenlijk veel meer tijd besteden aan de creativiteit aan strategie, in plaats van saai werk te doen.
 90
00:06:13,920 --> 00:06:16,880
Niels: En zie je daar het spel ook echt te veranderen.
 91
00:06:17,040 --> 00:06:19,200
Erik: Dat is nog te vroeg om te zeggen.
 92
00:06:19,200 --> 00:06:29,200
Erik: Wat ik wel zie, is dat door de invloed van technologie die we hiervoor hebben ingezet, dat klikken en dat het spelletje enorm is verandert.
 93
00:06:29,200 --> 00:06:32,000
Erik: Het spelletje sneller geworden, tactisch geworden.
 94
00:06:32,479 --> 00:06:47,200
Erik: Wat we in de regelgeving wel hebben gedaan, ik weet niet of jullie kunnen herinneren, maar toen we in Beijing speelde, was Mark Lammers, bondscoach van de dames, die heeft toen geprobeerd om oortjes in de oren van dames te zetten en dan zo te coachen live.
 95
00:06:47,440 --> 00:06:50,639
Erik: Dat is regeltechnisch natuurlijk tegengehouden.
 96
00:06:51,760 --> 00:06:53,360
Erik: En dat is ook maar goed.
 97
00:06:54,000 --> 00:06:55,360
Joop: Geen robot.
 98
00:06:55,920 --> 00:07:01,760
Erik: Ze moeten een stukje van creativiteit, zoals Louis van Gael het mooi zegt, imagineren nog steeds zijn.
 99
00:07:02,560 --> 00:07:03,919
Erik: Dat die vrijheid er wel is.
 100
00:07:03,920 --> 00:07:08,399
Erik: En anders komen we in het gemiddelde uit, dat weten we ook, statistiek.
 101
00:07:09,359 --> 00:07:12,719
Erik: Ja, dan komen we nergens worden allemaal 0-0 potjes.
 102
00:07:13,359 --> 00:07:17,760
Joop: Ook niet leuk om te kijken, je van tevoren al intekenen.
 103
00:07:19,120 --> 00:07:24,080
Joop: Wat vanuit de sport neem jij nou mee in je dagelijkse werk rondomheen?
 104
00:07:24,079 --> 00:07:24,880
Erik: Ja, is wel leuk.
 105
00:07:24,880 --> 00:07:32,160
Erik: Ik had in mijn voorbereiding zat ik daarover na te denken, ik heb het gisteren ook in Rotterdam verteld, aan de ondernemers.
 106
00:07:32,719 --> 00:07:39,120
Erik: Als je een AI-project doet, dan moet je het niet zien als een marathon, maar dan moet je het zien als een intervaltraining.
 107
00:07:40,719 --> 00:07:41,679
Joop: Dat moet je even uitleggen.
 108
00:07:43,359 --> 00:07:47,360
Erik: Jullie kennen het begrip MVP, minimal viable product.
 109
00:07:47,359 --> 00:07:53,039
Erik: En als je dus start met een klein doel, haal de juiste expert erbij.
 110
00:07:53,120 --> 00:07:55,120
Erik: En doe dan een klein projectje.
 111
00:07:55,119 --> 00:08:00,720
Erik: Doe net als een topsporter dan, neem dan even strategische rust, evalueer dat.
 112
00:08:00,719 --> 00:08:03,200
Erik: En gaan dan weer naar het volgend projectje toe.
 113
00:08:03,440 --> 00:08:05,760
Joop: Waarom zeg je die strategische rust?
 114
00:08:05,760 --> 00:08:14,160
Erik: Om even hoog over te analyseren, zowel op mensengebied als op technologiegebied als procesorganisatie.
 115
00:08:14,160 --> 00:08:16,399
Erik: Wat gaat er nou goed en wat gaat er niet goed?
 116
00:08:16,400 --> 00:08:20,000
Erik: Want mensen is super belangrijk, die moeten we niet vergeten in die technologie.
 117
00:08:20,000 --> 00:08:21,439
Erik: En dat neem ik steeds in mee.
 118
00:08:21,440 --> 00:08:23,760
Erik: Omdat het doet een topsporter ook.
 119
00:08:23,760 --> 00:08:26,319
Erik: Die traint keihard.
 120
00:08:26,479 --> 00:08:29,600
Erik: Die probeert wat, die gaat over het randje soms.
 121
00:08:30,000 --> 00:08:31,760
Erik: Proberen wij ook met technologie.
 122
00:08:31,839 --> 00:08:35,039
Erik: Even iets proberen kijken of dit werkt.
 123
00:08:35,039 --> 00:08:38,799
Erik: En dan moet je evalueren van ja, was dit nou wel een goed idee of niet.
 124
00:08:38,958 --> 00:08:41,279
Erik: Dat is waarom ik zeg strategische rust.
 125
00:08:42,078 --> 00:08:51,039
Joop: En heb je een voorbeeld waarin die strategische rust ook tot iets heeft geleid die je anders niet zo hebben gehad.
 126
00:08:53,359 --> 00:09:06,880
Erik: Ja, ik denk, ja, er zijn wel meerdere voorbeelden, eigenlijk zie ik dat bij dagelijks wel bij mijn klanten dat je even weer, laat ik zo zeggen, je begint met al de expectations, de verwachting van de klant zelf.
 127
00:09:07,359 --> 00:09:08,639
Erik: Dat herkennen jullie wel.
 128
00:09:08,640 --> 00:09:09,280
Erik: Zeker.
 129
00:09:09,279 --> 00:09:20,480
Erik: En dan dat het met technologie van alles kan, zie je bij sport ook, daar heb je hoge verwachtingen, maar je moet focus op proces in sport, maar ook in je werk.
 130
00:09:20,879 --> 00:09:25,360
Erik: Je kunt niet allemaal niet allemaal goud winnen, het gelijk de reis moet ook goed zijn.
 131
00:09:25,359 --> 00:09:32,800
Erik: En wat je ziet bij die verwachting aan de ene kant is dat je dat door die strategische rust ook weer terug kan managen.
 132
00:09:32,800 --> 00:09:42,480
Erik: Dus dat je ook kan zeggen van ja, wacht even, maar realistisch gezien kan dit taalmodel het gewoon helemaal nog.
 133
00:09:42,479 --> 00:09:52,400
Erik: Dus je hebt wel die verwachting dat het alles kan, maar het blijft gewoon statistiek, en dit is wat de stand van de techniek kan.
 134
00:09:52,400 --> 00:09:54,639
Erik: En misschien over een half jaar kunnen we dat dan wel.
 135
00:09:54,640 --> 00:10:04,999
Erik: En dit merk ik dus heel vaak dat ik aan de ene kant een hele enthousiaste grote, gisteren had ik ook weer hele enthousiaste groepen, nou dan gooien we alles in het model.
 136
00:10:05,560 --> 00:10:06,719
Erik: Dan gaan we het gewoon doen.
 137
00:10:06,719 --> 00:10:15,120
Erik: En dan zeg je ja, hoor, waar ben je wel bewust van dat het niet het doekje voor alles is.
 138
00:10:15,999 --> 00:10:25,079
Joop: En zijn ze zich ook bewust dat dat taalmodel kan het gewoon 99 keer goed doen en de honderdste keer.
 139
00:10:26,440 --> 00:10:31,240
Erik: En dan even voorbeeld te geven, in een gesloten taalmodellen.
 140
00:10:31,719 --> 00:10:38,760
Erik: Ik bouw veel modellen dan in de Customer Intelligence hoek in de marketinghoek in, gesloten taalmodellen.
 141
00:10:38,759 --> 00:10:48,600
Erik: Met als voordeel dat het vanuit een merk kan redeneren, vanuit een bepaalde context kan redeneren, met als nadeel dat het heel langzaam leert.
 142
00:10:48,759 --> 00:10:53,320
Erik: En wat zie je dan als teleurstelling of die 99%?
 143
00:10:53,879 --> 00:10:56,120
Niels: Kan je iets meer toelichten over het gesloten model?
 144
00:10:56,680 --> 00:11:02,599
Erik: Dus ChatGPT is een open model, ook Gemini is open model.
 145
00:11:02,599 --> 00:11:05,959
Erik: Daar gooi ik alles in en het heeft de hele context van de hele wereld.
 146
00:11:05,959 --> 00:11:13,000
Erik: Gesloten model, bijvoorbeeld, we zetten in een Microsoft omgeving zetten een aparte omgeving op.
 147
00:11:18,040 --> 00:11:20,679
Erik: En het taalmodel kijkt alleen naar die data.
 148
00:11:20,680 --> 00:11:25,560
Erik: Dus ik stop daar documenten in, PDF's, whatever.
 149
00:11:25,800 --> 00:11:27,639
Erik: En daar leert hij alleen van.
 150
00:11:27,640 --> 00:11:30,440
Erik: Dat is alleen maar het model als context gebruikt.
 151
00:11:30,440 --> 00:11:32,440
Erik: En voor de rest niet, dan mag niet naar buiten.
 152
00:11:32,440 --> 00:11:33,640
Erik: En mag niet naar buiten.
 153
00:11:33,640 --> 00:11:37,320
Erik: Maar daar heeft hij ook meteen de beperking meegekregen.
 154
00:11:40,440 --> 00:11:44,599
Erik: Dat is een voordeel en een nadeel, omdat hij kijkt naar die context.
 155
00:11:44,599 --> 00:11:47,800
Erik: Maar tegelijk het nadeel ook, je weet niks anders.
 156
00:11:48,599 --> 00:11:51,079
Erik: Dat kan ook wel eens op teleurstellingen uitmonden.
158
00:11:51,079 --> 00:11:58,040
Joop: Ja, en dat bedoel je met langzaam leren, want dan moet het IS het model inkomen, omdat er dus geen verbinding naar buiten zit.

157
00:11:59,239 --> 00:12:01,640
Joop: En wat levert dan die teleurstelling op?

158
00:12:01,640 --> 00:12:03,000
Joop: Wanneer komt die?

159
00:12:03,959 --> 00:12:07,560
Erik: Ja, omdat mensen toch dan, dan zie je dat mensen resultaat gedreven zijn.

160
00:12:07,560 --> 00:12:10,280
Erik: Dus even de analogie met de sport.

161
00:12:10,680 --> 00:12:13,320
Erik: Zie je dat mensen die willen scoren.

162
00:12:14,120 --> 00:12:17,800
Erik: En dan zei ja, dan valt me toch tegen wat daar dan uitkomt.

163
00:12:17,800 --> 00:12:21,079
Erik: En dan zeg je oké, maar we kunnen wel een beetje extra context geven.

164
00:12:21,079 --> 00:12:25,320
Erik: En dan en dan zie je en dan betekent laten we nog een sprintje doen met elkaar.

165
00:12:25,560 --> 00:12:27,719
Erik: En dan vervolgens komt er wel weer wat.

166
00:12:27,959 --> 00:12:30,599
Erik: Dus dat is het handje vasthouden met elkaar.

167
00:12:30,599 --> 00:12:35,560
Erik: En dan geloof hebben, wel, dat ze ook analogie met sport geloven hebben in een uitkomst.

168
00:12:36,359 --> 00:12:42,839
Erik: Als je blijft trainen, dat dat tot een goed resultaat uiteindelijk gaat komen.

169
00:12:42,839 --> 00:12:47,079
Erik: En of dat nou goud, zilver of brons is, dat maakt niet uit.

170
00:12:47,239 --> 00:12:52,440
Erik: Dus je ziet bij alle sporters die geïnterviewd worden ook, daar kan we ook heel goed in verplaatsen.

171
00:12:52,440 --> 00:12:56,200
Erik: Dat ze, ja, ik heb alles gegeven, maar daar zit deze hele wereld achter.

172
00:12:56,359 --> 00:12:58,680
Erik: Ze hebben gewoon vier jaar lang getraind.

173
00:12:58,680 --> 00:13:03,320
Erik: En vergelijk even met ons werk, we zijn gewoon heel lang met een project bezig.

174
00:13:03,400 --> 00:13:07,240
Erik: En dan trainen.

175
00:13:07,560 --> 00:13:12,839
Erik: Analogie daar anders op dat train is ook dat je dingen moet proberen.

176
00:13:14,040 --> 00:13:16,040
Erik: En dat er ook dingen falen.

177
00:13:16,040 --> 00:13:17,720
Erik: En dat hoort er ook bij.

178
00:13:18,599 --> 00:13:25,320
Niels: Dus even voor mij dan nog even de analogie, want ik was er nog steeds over nadenken, want ik zeg inderdaad vaak voor data en datavolwassenheid is echt een marathon.

179
00:13:25,320 --> 00:13:26,679
Niels: Dat is niet even een sprintje.

180
00:13:26,920 --> 00:13:28,920
Niels: Maar je traint wel voor het einddoel.

181
00:13:28,920 --> 00:13:31,079
Niels: Maar je doet dat door in te val te trainen.

182
00:13:31,239 --> 00:13:34,040
Niels: Dus je weet daarop snel te schakelen.

183
00:13:34,200 --> 00:13:40,999
Niels: Maar je hebt wel het langere doel, heb je nog steeds voor ogen, dat kan ook een beetje naar links of naar rechts gaan, maar je traint wel met korte intervals voor het langere stuk.

184
00:13:40,999 --> 00:13:43,000
Erik: Exact, exact.

185
00:13:42,999 --> 00:13:46,280
Niels: En hoe kom je in de praktijk er dan tegenaan?

186
00:13:46,280 --> 00:13:51,239
Niels: Hoeveel sprints moeten we nog gaan met die verwachting van hoe werkt dat binnen een organisatie?

187
00:13:51,239 --> 00:13:52,839
Niels: Zijn ze dan sprintmoe?

188
00:13:54,680 --> 00:13:58,999
Erik: Ja, dat kan gebeuren zeker, omdat je snel het resultaat wil.

189
00:13:58,999 --> 00:14:01,079
Erik: En dan kan je sprint moe worden.

190
00:14:02,359 --> 00:14:04,680
Erik: Dan betekent wel wat jij net terecht zei.

191
00:14:04,680 --> 00:14:09,000
Erik: Als je dat ene doel maar met elkaar heel scherp en smart hebt staat.

192
00:14:09,320 --> 00:14:10,999
Erik: Dan kom je er wel.

193
00:14:10,999 --> 00:14:16,520
Erik: Maar dat is wel het wat ik neem, ik heb er een recent voorbeeld in mijn hoofd.

194
00:14:16,839 --> 00:14:23,240
Erik: Waar we bij een organisatie gesprekken uit luisteren van een call center.

195
00:14:23,560 --> 00:14:27,800
Erik: Om te ontdekken, daar zijn 100.000 gesprekken per maand.

196
00:14:30,999 --> 00:14:41,800
Erik: En dan wil je weten wat zeggen mensen, wat vinden mensen en eigenlijk komen daar dan in eerste instantie best wel lame resultaten uit.

197
00:14:42,359 --> 00:14:48,280
Erik: Dat had ik ook kunnen vertellen waarom van die dure spraakherkenningssoftware op zit.

198
00:14:48,599 --> 00:14:57,159
Erik: En dan moet je dan daar de volgende stap maken en zeg, ja, maar daar zit achter nog veel meer, en er zit nog emotie achter en zit allerlei dingen.

199
00:14:57,160 --> 00:15:01,560
Erik: En dan kun je kunt nog naar segmenteren en allerlei andere data overheen.

200
00:15:01,560 --> 00:15:04,640
Erik: En dan kun je data verrijken met een RAG bijvoorbeeld.

201
00:15:04,719 --> 00:15:07,520
Erik: Dus een retrieval Augmented Generation.

202
00:15:01,959 --> 00:15:09,360
Erik: En waardoor je.

203
00:15:09,359 --> 00:15:16,400
Erik: En dan moet je wel op jouw vraag moet je wel mensen meenemen naar het einddoel.

204
00:15:16,400 --> 00:15:24,400
Erik: En als je dat niet doet, merk ik wel vaak van oh ja, ik ben een beetje moe geworden en heeft het allemaal wel zin wat we doen, moeten we niet terug naar het oude.

205
00:15:24,400 --> 00:15:27,360
Niels: Ja, hou je ze mee met het einddoel in zich.

206
00:15:27,359 --> 00:15:30,479
Niels: En dat wat je zegt, is ook je hebt die datapunten nodig.

207
00:15:30,479 --> 00:15:36,960
Niels: Alleen de eerste zijn echt eigenlijk open deuren waar je tegenaan loopt, want dat zijn de eerste observatie die we allemaal eigenlijk zouden herkennen.

208
00:15:37,040 --> 00:15:38,719
Niels: Maar daarachter zit nog een hele wereld.

209
00:15:38,719 --> 00:15:43,520
Niels: En om ze daar niet in mee te nemen, gaan ze dus niet door de volgende deur heen, inderdaad.

210
00:15:43,759 --> 00:15:54,480
Erik: Het ziek in het sport ook hoor, als ik bij verschillende sporten zie, bij wat rijkere bonden hebben, embedded data scientists.

211
00:15:54,640 --> 00:16:00,240
Erik: En ja, er komen soms resultaat uit dat je dat weet een coach al lang.

212
00:16:00,959 --> 00:16:03,280
Erik: Wat ga ik nu vertellen dan.

213
00:16:05,119 --> 00:16:10,960
Erik: Ik neem even het baanwielrennen en als voorbeeld, als je dan het volgend niveau is.

214
00:16:11,839 --> 00:16:13,679
Erik: Die jongens zitten hoog in de baan.

215
00:16:13,680 --> 00:16:21,200
Erik: Maar als je Harrie Lafrij snel kan vertellen, van je kan net acht centimeter 8 graden meer kantelen.

216
00:16:21,200 --> 00:16:22,800
Erik: En dan val je niet naar beneden.

217
00:16:23,280 --> 00:16:25,999
Erik: Is je effect tien keer meer.

218
00:16:25,999 --> 00:16:27,599
Erik: Of je minder hard te trappen.

219
00:16:28,560 --> 00:16:29,920
Erik: Maar dat weet je als mensen dan niet.

220
00:16:29,920 --> 00:16:32,240
Erik: Maar ja, goed, dat is pas het volgend level.

221
00:16:33,359 --> 00:16:34,800
Unknown: Snap ik.

222
00:16:35,599 --> 00:16:39,120
Joop: Je had het over de spraakherkenningstechnologie.

223
00:16:42,800 --> 00:16:47,679
Joop: Koop je die software in, maak je dat zelf, wat doe je daarmee?

224
00:16:47,920 --> 00:16:52,720
Erik: Wat wij doen is, we maken gebruik van best practice aan software die er is.

225
00:16:53,599 --> 00:17:01,200
Erik: En daarbovenop hebben we een laag gebouwd die van de best of both worlds gebruik maakt.

226
00:17:01,519 --> 00:17:12,800
Erik: En daarmee eigenlijk een toepassing maakt om zowel op emotie als op wat wordt er gezegd informatiebouw te hebben.

227
00:17:13,759 --> 00:17:25,359
Joop: En dat van het emotie, ik heb het zelf niet helemaal scherp, ik weet niet of jij dat hebt, maar iets in de AI-act geeft aan rondom emotieherkenning.

228
00:17:25,680 --> 00:17:27,598
Joop: Wat we wel mogen, wat we niet mogen.

229
00:17:27,598 --> 00:17:28,879
Joop: Hoe zit dat, weet je dat?

230
00:17:28,880 --> 00:17:32,640
Erik: Ja, kijk, wat wij doen is alleen maar even twee dingen.
233
00:17:32,640 --> 00:17:34,800
Erik: Het is belangrijk als je gesprekken uitluistert.

231
00:17:34,800 --> 00:17:43,040
Erik: We hebben al heel lang zijn wij ook software die achter dit gesprek wordt opgenomen voor kwaliteitsdoeleinden.

232
00:17:43,279 --> 00:17:44,959
Erik: Het is helemaal AVG-proef.

233
00:17:44,959 --> 00:17:56,720
Erik: Dus je gaat je haalt het omhoog naar het abstract niveau en ik kan jou niet aanraken wat jij hebt gezegd, er zitten ook cryptografische sleutels en dergelijke tussen.

234
00:17:59,999 --> 00:18:00,879
Erik: Dat is één ding.

235
00:18:00,880 --> 00:18:03,039
Erik: Dus ik mag nooit nooit aan mij gelinkt worden.

236
00:18:05,440 --> 00:18:07,919
Erik: En het andere ding is, er zijn twee dingen.

237
00:18:07,920 --> 00:18:13,440
Erik: Dus tekst en emotie en emotie kan je ook door toon eruit halen.

238
00:18:14,560 --> 00:18:17,759
Erik: En dat is eigenlijk wat we doen en dat mag weer wel.

239
00:18:17,759 --> 00:18:20,079
Joop Snijder: En is dat analyse of realtime.

240
00:18:20,400 --> 00:18:23,759
Erik: Dat is analyse, maar kan ook realtime.

241
00:18:24,640 --> 00:18:27,279
Erik: Maar veelal gebruik het voor analyse.

242
00:18:28,080 --> 00:18:33,279
Erik: Om je vaak die hele gesprekken moet uitluisteren en daarna doorheen moet spoelen.

243
00:18:33,279 --> 00:18:36,080
Erik: En dat weer naar een macroniveau moet halen.

244
00:18:36,080 --> 00:18:41,279
Erik: Dat is eigenlijk dus realtime, om dat verwarring weg te nemen, dat doe ik niet.

245
00:18:41,279 --> 00:18:42,560
Erik: Ik doe echt voor analyse.

246
00:18:43,840 --> 00:18:50,799
Erik: En dat is best een uitdaging, want daar zat ik in mijn voorbereiding over na te denken, dat herkenning van woorden gaat best wel oké.

247
00:18:51,440 --> 00:18:56,079
Erik: Maar die emotie.

248
00:18:56,319 --> 00:18:57,999
Erik: Er zitten een paar problemen mee.

249
00:18:57,999 --> 00:19:07,200
Erik: Ook omdat je in een call center situatie in een realtime situatie, achtergrondgeluid, mensen noemen andere dingen.

250
00:19:07,359 --> 00:19:12,240
Erik: En daardoor gaat het de kwaliteit van de herkenning enorm omlaag.

251
00:19:12,239 --> 00:19:14,400
Erik: De intentieherkenning gaat in omlaag.

252
00:19:14,560 --> 00:19:23,999
Joop Snijder: Want ik kan me iets voorstellen dat als ik iets heel cynisch zeg, dat ik dus iets de letterlijke woorden zeggen iets anders dan wat de betekenis is.

253
00:19:23,999 --> 00:19:28,400
Erik: Ja, wat we hebben een paar dingen hebben daarop.

254
00:19:28,400 --> 00:19:37,680
Erik: Dus op jouw punt hebben we eigenlijk gekeken van kunnen we meer contextual keywordspotting toepassen, in plaats van naar een hele zin kijken.

255
00:19:38,640 --> 00:19:43,039
Erik: Wat je normaal eigenlijk met een taalmodel doet, of hele blokken van zinnen.

256
00:19:43,200 --> 00:19:56,200
Erik: Maar het model eigenlijk meer leren van perfecte leren begrijpen van welke trefwoorden zijn nu belangrijk en daar het model op trainen, in plaats van hele zinsneden.

257
00:19:56,200 --> 00:20:00,680
Erik: En daardoor wordt de contextuele begrip beter.

258
00:20:00,759 --> 00:20:08,279
Erik: En het andere deel wat ik net het probleem heb opnoemde, dat zit meer aan de noise reduction layer eigenlijk.

259
00:20:08,279 --> 00:20:15,799
Erik: En daar hebben we eigenlijk het model getraind om specifiek achtergrondgeluid te filteren voordat hij het spraakherkenningssoftware in.

260
00:20:17,080 --> 00:20:19,320
Joop Snijder: Dus ook weer kwaliteitsverbetering van de data.

261
00:20:19,319 --> 00:20:19,879
Erik: Ja, exact.

262
00:20:21,080 --> 00:20:22,920
Erik: Een filter bouwen, zeg maar.

263
00:20:23,400 --> 00:20:27,160
Erik: En daarin hebben we ook gebouwd, wie zegt wat.

264
00:20:27,479 --> 00:20:33,079
Erik: Als ik de agent ben, dat jij bent de klant, kan ik ook wel eens na een dag best wel boos worden.

265
00:20:33,479 --> 00:20:37,239
Joop Snijder: En een agent is dit in dit geval een customer support medewerker.

266
00:20:38,999 --> 00:20:40,279
Joop Snijder: Ik ben de mens.

267
00:20:40,279 --> 00:20:45,160
Erik: En nou, om vier uur 's middags als ik alleen maar klachten over nodig gehad heb.

268
00:20:46,039 --> 00:20:50,519
Erik: Dan kan ik ook wel eens moe worden van kan ik ook wel eens uitvallen.

269
00:20:51,160 --> 00:20:54,519
Erik: Dan moet je wel kunnen onderscheiden van wie is wie is nou wie.

270
00:20:59,640 --> 00:21:04,600
Joop Snijder: Volgens mij wat ik gelezen had, je bouwt met je bedrijf ook AI agents, toch?

271
00:21:04,600 --> 00:21:06,600
Joop Snijder: En dan hebben we het nu wel over de machines.

272
00:21:08,680 --> 00:21:10,279
Joop Snijder: Ik ben wel benieuwd.

273
00:21:10,360 --> 00:21:19,959
Joop Snijder: Welke reis heb je doorgemaakt en wat is nou het verschil tussen de eerste agent die je hebben gemaakt en de laatste waar je mee bezig bent, wat heb je ertussen geleerd.

274
00:21:20,279 --> 00:21:23,160
Erik: Oh, ja, heel veel.

275
00:21:23,479 --> 00:21:33,559
Erik: Even kijken door frameworks toe te passen, along the way, dus de modellen beter meten te maken, maar als een stapje terug maakt.

276
00:21:33,880 --> 00:21:37,719
Erik: De eerste agent was heel simpel.

277
00:21:39,319 --> 00:21:41,479
Erik: Dingen aan elkaar knopen.

278
00:21:43,880 --> 00:21:51,640
Erik: Ik geef even voorbeeld die in mijn Garmin wat koppelen aan mijn agenda, bewijs van.

279
00:21:51,640 --> 00:21:55,319
Erik: En dat was een hele simpele en echt een agent eigenlijk.

280
00:21:55,560 --> 00:22:00,999
Erik: En toen dacht je, oké, ja, maar die data gaat allemaal naar en het en toe, dat is ook niet handig, dus dat wil ik helemaal niet.

281
00:22:01,319 --> 00:22:04,360
Erik: Dus dan zie je dan leer je eigenlijk vrij snel.

282
00:22:04,759 --> 00:22:11,400
Erik: Ik wil ontwikkelen, bij design by transparantie en security natuurlijk.

283
00:22:11,400 --> 00:22:14,279
Erik: Dus denk je, oh ja, maar dat kan helemaal niet zo.

284
00:22:14,279 --> 00:22:15,319
Erik: Dus ik moet het anders doen.

285
00:22:15,319 --> 00:22:25,719
Erik: Ik moet dan kwam ik weer terug, je moet een gesloten systeem, het moet veilig zijn, welke agents ga ik dan gebruiken, moet de context van de klant, welke tools zijn er dan?

286
00:22:25,719 --> 00:22:30,599
Erik: Dan ga je bij Microsoft kijken, bij andere leveranciers kijken, welke zijn er dan?

287
00:22:30,600 --> 00:22:34,039
Erik: Wat kan je die eigenlijk echt.

288
00:22:34,039 --> 00:22:38,200
Erik: En dan leer je eigenlijk dan terug naar oude automatiseringsprincipes.

289
00:22:38,759 --> 00:22:42,759
Erik: Wat moet het proces eigenlijk zijn, wat is de logica.

290
00:22:43,319 --> 00:22:45,799
Erik: Dus dan ga je uitzoomen.

291
00:22:45,799 --> 00:22:50,440
Erik: En dan ga je dan kijken van wat wil ik dan eigenlijk, kan ik een heel straatje automatiseren.

292
00:22:50,440 --> 00:22:59,080
Erik: Dus als ik het plat sla, we waren eigenlijk heel erg problemsolving gericht.

293
00:22:59,080 --> 00:23:03,719
Erik: En dan was de klant eigenlijk nog niet blij, want dan had je één klein resetje gedaan.

294
00:23:03,719 --> 00:23:08,999
Erik: En dan kom je daarna achter, ja, maar als ik het gewoon qua design heel anders aanvlieg.

295
00:23:09,319 --> 00:23:13,479
Erik: Dat is ook wel een van de redenen waarom ik design thinkers in mijn bedrijf heb.

296
00:23:13,799 --> 00:23:19,399
Erik: Dan ga je tien keer de efficiëntie bereiken.

297
00:23:19,400 --> 00:23:22,039
Erik: En dan ga je dan ga je het proces heel anders aanvliegen.

298
00:23:22,040 --> 00:23:30,119
Erik: En dat is waar ik nu de endstate waar ik nu zit dat ik dat ik het proces heel anders uit.

299
00:23:30,120 --> 00:23:42,039
Erik: Terwijl de klant mij dan wel probeert te duwen richting kun je dit kleine dingetje doen, maar ik zeg ja, maar eigenlijk als je de verstandig aan doet, dan kijken we naar het hele redesign van het proces.

300
00:23:42,040 --> 00:23:48,519
Erik: Want anders ben je ouder, ja, het is toch weer die het paard voor de T-fort aan het zetten.
304
00:23:50,279 --> 00:23:53,800
Erik: Dat krijg je dan voor de jonge luisteraars.

301
00:23:53,799 --> 00:23:56,759
Erik: De T-fort was de uitvinding.

302
00:23:57,319 --> 00:24:01,559
Erik: Die de paarden vervangen.

303
00:24:01,560 --> 00:24:03,559
Erik: En dat is niet slim.

304
00:24:04,040 --> 00:24:04,839
Joop Snijder: Dat zie je nu wel weer.

305
00:24:04,920 --> 00:24:09,400
Joop Snijder: Heb je hier een concreet voorbeeld van waar je dit hebt uitgevoerd?

306
00:24:10,519 --> 00:24:16,599
Erik: Ja, ik heb bij vereniging van verpleegkundigen Nederland.

307
00:24:17,560 --> 00:24:22,200
Erik: Heb ik dat is die organisatie die 100.000 calls langs krijgt.

308
00:24:22,200 --> 00:24:27,159
Erik: En die hebben heel veel mensen die hebben dus wat ze hebben, ze hebben een training center.

309
00:24:27,640 --> 00:24:34,559
Erik: Waarbij ze verpleegkundige trainen, zodat ze naar de IC kunnen kwaliteitsregister.

310
00:24:32,120 --> 00:24:38,559
Erik: En heel veel mensen, fysieke mensen nemen daar de telefoon op.

311
00:24:39,039 --> 00:24:43,839
Erik: En uiteindelijk hebben ze geen meta-informatie waar dit over ging.

312
00:24:44,080 --> 00:24:52,639
Erik: En waar moet ik dan op sturen en wat vinden en voelen verpleegkundigen nu in de dagelijks praktijk en wat hebben ze nodig en in welke regio?

313
00:24:52,640 --> 00:25:03,280
Erik: Want hier heb je het over alle doelgroepen, dus alle specialisaties door heel Nederland, van alle ziekenhuizen en klinieken.

314
00:25:03,519 --> 00:25:09,680
Erik: Je hebt het over hartchirurgie, tot en met IC, tot en met aan het bed.

315
00:25:10,239 --> 00:25:12,080
Niels Naglé: Heel erg divers.

316
00:25:12,319 --> 00:25:19,600
Erik: En dan moet je voorstellen dat juist Customer Call agent, de echte agent.

317
00:25:21,920 --> 00:25:29,680
Erik: Iemand aan de lijn, dan ga je nooit aan het eind van de dag kunnen recappen van wat zijn de issues geweest die ik allemaal en dat halen we nu allemaal naar boven.

318
00:25:29,680 --> 00:25:33,920
Erik: En daardoor kunnen zij de strategie beter aanscherpen.

319
00:25:34,239 --> 00:25:35,440
Erik: Waar moet ik me op richten?

320
00:25:35,440 --> 00:25:37,920
Erik: Wat voor producten moet ik ontwikkelen, dat soort dingen.

321
00:25:37,920 --> 00:25:41,599
Erik: En de andere kant is, ze kunnen ook een communicatie beter inrichten.

322
00:25:41,600 --> 00:25:47,920
Erik: Dus ze kunnen ook weer met een andere agent hebben gebouwd om een communicatie-agent, dat noemen wij de brandbuddy.

323
00:25:48,799 --> 00:25:52,719
Erik: Specifiek te kunnen communiceren, waardoor er ook minder calls komen.

324
00:25:53,360 --> 00:26:05,360
Erik: Een ander voorbeeld wat we het verleden hebben gedaan bij Transavia is zij belden ons op en zeiden van we hebben in de winter heel veel calls.

325
00:26:05,360 --> 00:26:11,440
Erik: We moeten maar mensen aannemen tijdelijk om die calls af te handelen, kunnen eens kijken waar die gesprekken over gaan.

326
00:26:11,440 --> 00:26:14,959
Erik: En dat bleek te gaan over pensionado's naar Spanje.

327
00:26:14,959 --> 00:26:15,600
Erik: veel al.

328
00:26:15,600 --> 00:26:18,160
Erik: Dat was de 80% van de calls.

329
00:26:18,400 --> 00:26:21,200
Erik: Die hadden de vragen over medicijnen.

330
00:26:21,200 --> 00:26:22,479
Erik: Mag ik die meenemen?

331
00:26:23,440 --> 00:26:29,200
Erik: Ja, dan komen die dan wel aan als ik ze in mijn koffer heb en de andere kant vragen.

332
00:26:29,360 --> 00:26:34,479
Erik: Aan andere kant zegt natuurlijk, ja, ik kan nooit 100% garanderen dat die koffer aan komt, die gesprekken langer.

333
00:26:35,600 --> 00:26:37,279
Erik: Als je dat dus weet.

334
00:26:37,519 --> 00:26:43,920
Erik: Dan kun je geen riek weer naar boven, dan kun je zeggen, oh, dan moeten we communicatiecampagne aan de voorkant doen.

335
00:26:44,160 --> 00:26:46,000
Erik: Specifiek op deze doelgroep.

336
00:26:45,999 --> 00:26:48,240
Erik: En dan gaan die call center kosten omlaag.

337
00:26:48,400 --> 00:26:50,640
Erik: Dat zijn twee nieuws kees.

338
00:26:53,440 --> 00:26:57,680
Niels Naglé: Mooie inzicht inderdaad, door eigenlijk even meer het strategisch stilstaan.

339
00:26:57,839 --> 00:26:59,359
Niels Naglé: Wat willen we bereiken?

340
00:26:59,519 --> 00:27:00,640
Niels Naglé: Wat hebben we al?

341
00:27:00,640 --> 00:27:02,240
Niels Naglé: En wat moeten we misschien dus creëren?

342
00:27:02,239 --> 00:27:06,880
Niels Naglé: Welke data hebben we dan nodig om opnieuw te kunnen kijken waar zit het nou eigenlijk in de diepte?

343
00:27:06,880 --> 00:27:08,719
Erik: Ja, precies.

344
00:27:10,479 --> 00:27:15,440
Joop Snijder: Waar zou je AI agents nou niet voor inzetten?

345
00:27:19,120 --> 00:27:23,279
Erik: Nou ja, kijk, ik denk nog steeds, even generiek.

346
00:27:24,880 --> 00:27:33,279
Erik: Ik denk dat je emotie, emotionele intelligentie, creativiteit.

347
00:27:33,279 --> 00:27:35,200
Erik: Die hoek.

348
00:27:35,200 --> 00:27:40,320
Erik: Daar kunnen agents een heel stap in komen om een beetje een voorzetje te geven.

349
00:27:40,319 --> 00:27:44,479
Erik: Maar daar zou ik ze niet voor inzetten het is statistiek.

350
00:27:44,719 --> 00:27:49,600
Erik: En dan eindigen we allemaal in de gemiddelde waar we het net ook over hadden, op het gemiddelde.

351
00:27:49,600 --> 00:27:52,239
Erik: En dan wordt het een hele saaie wereld.

352
00:27:53,360 --> 00:27:57,200
Erik: Dus ik zou ze niet inzetten op creativiteit, daar zou ik de mens.

353
00:27:57,200 --> 00:28:03,680
Erik: Ik zou de voorbeeld bij mij, ik heb creatieven, de creatief designers in mijn.

354
00:28:03,680 --> 00:28:06,719
Erik: Die gebruiken de agents als hulpmiddel.

355
00:28:06,959 --> 00:28:14,879
Erik: Maar om zelf weer beter te worden om geïnspireerd te worden, maar vervolgens maken zij iets veel beters van dan een agent zou kunnen maken.

356
00:28:16,959 --> 00:28:19,999
Erik: De angst die ik zie ook in de reclamewereld.

357
00:28:20,160 --> 00:28:28,079
Erik: Over de campagnes al vervangen, al die bureaus van ik denk dat dat anders kan werken.

358
00:28:28,239 --> 00:28:37,519
Erik: Dat kan werken dat je gewoon geïnspireerd wordt door al die data en al die campagnes, maar daarna iets heel tofs maakt wat je nooit had bedacht.

359
00:28:38,319 --> 00:28:44,080
Erik: Dus daarin denk ik op jouw vraag niet inzetten op creativiteit.

360
00:28:44,400 --> 00:28:49,519
Erik: Maar wel als gebruiken voor je inspiratie.

361
00:28:50,799 --> 00:28:54,800
Joop Snijder: En heb je zelf agents in je eigen werk lopen?

362
00:28:54,799 --> 00:28:55,440
Erik: Zeker.

363
00:28:55,600 --> 00:29:02,319
Erik: Wat wij eigenlijk voorbeeld, ik ben hier geweest, ik doe een ID op.

364
00:29:03,279 --> 00:29:07,360
Erik: Ik moest dat dan eind van de week in mijn CRM stoppen.

365
00:29:07,839 --> 00:29:12,319
Erik: Stel, we hebben samen een zakelijk idee bedacht tijdens deze podcast.

366
00:29:13,120 --> 00:29:22,360
Erik: En dan moet ik aan het eind van de week denken, oh ja, wat was het ook alweer allemaal en dan moet ik al die leads en die funnels en zo allemaal bijhouden, dat doe ik nu met een agent.

367
00:29:22,360 --> 00:29:25,559
Erik: Ik zit in de auto, ik roep tegen mijn agent.

368
00:29:26,200 --> 00:29:28,759
Erik: Het is gewoon een WhatsApp integratie.

369
00:29:29,239 --> 00:29:33,239
Erik: En die stelt aan mij vragen van Erik, wat was het idee?

370
00:29:33,239 --> 00:29:34,280
Erik: Wat was de klant?

371
00:29:34,279 --> 00:29:35,639
Erik: Wat is de doorlooptijd?

372
00:29:35,640 --> 00:29:40,119
Erik: Wat is ongeveer de dealwaarde.

373
00:29:40,120 --> 00:29:41,239
Erik: Deal zit erin.

374
00:29:41,319 --> 00:29:43,639
Erik: Eind van de week hoef ik dat saaie werk.

375
00:29:44,519 --> 00:29:50,920
Erik: En al dat soort dingen kijken wel als bureau wel naar van heb ik robotmatig werk, wat ik kan automatiseren.

376
00:29:50,920 --> 00:29:55,239
Erik: Want als je denkt als een robot, werkt als een robot, dan ben je een robot.

377
00:29:56,120 --> 00:29:58,599
Erik: Dan maakt je werk gewoon een stukje makkelijker.

378
00:29:58,680 --> 00:30:03,479
Erik: Dus zo kijken we elke week wel naar dingetjes die we kunnen die we kunnen automatiseren.

379
00:30:03,479 --> 00:30:06,839
Niels Naglé: Dat was van nieuwsgierig, is de agent dan van jou een teamlid.

380
00:30:06,840 --> 00:30:08,520
Niels Naglé: Een speler in het team.

381
00:30:08,519 --> 00:30:11,400
Niels Naglé: Is het de coach, is het de scheidsrechter.
386
00:30:12,360 --> 00:30:13,799
Erik: Het is wel een teamlid.
 382
00:30:14,200 --> 00:30:15,479
Erik: Het is wel een buddy.
 383
00:30:15,719 --> 00:30:17,239
Erik: Zo voelen wij hem wel.
 384
00:30:17,880 --> 00:30:19,240
Erik: Het is geen coach.
 385
00:30:19,239 --> 00:30:23,160
Erik: Hij is niet ja, soms wel, maar meer een buddy.
 386
00:30:23,400 --> 00:30:24,759
Unknown: Maar echt een buddy.
 387
00:30:24,999 --> 00:30:27,959
Erik: Het is ook geen scheidsrechter, hij bepaalt niks.
 388
00:30:29,560 --> 00:30:31,239
Erik: In de zin van ja, bepaalt niks.
 389
00:30:31,239 --> 00:30:34,279
Erik: Hij bepaalt natuurlijk wel van wat de output kan zijn.
 390
00:30:34,279 --> 00:30:36,359
Erik: Maar ik vind het wel leuk dat je dat vraag.
 391
00:30:36,360 --> 00:30:42,920
Erik: Ik vind het wel belangrijk dat een agent uiteindelijk een support is voor de mens.
 392
00:30:43,559 --> 00:30:47,079
Erik: Ik denk toch weer 70, 30, mens, 70%.
 393
00:30:47,319 --> 00:30:50,200
Erik: En 30% ondersteund door technologie.
 394
00:30:50,440 --> 00:30:54,279
Erik: En we zitten natuurlijk in een tijd van hype van de AI.
 395
00:30:54,600 --> 00:30:57,800
Erik: Maar uiteindelijk gaat het daar gewoon weer op neerkomen.
 396
00:30:57,799 --> 00:31:04,039
Erik: Ik heb in 2003 onderzoek mogen doen vanuit PwC voor de ministerie Economische Zaken.
 397
00:31:04,039 --> 00:31:05,560
Erik: Toen de vraag gesteld.
 398
00:31:05,880 --> 00:31:11,640
Erik: Dus de onderzoeksvraag was, wat is de verband tussen technologie toen kun je niet voorstellen.
 399
00:31:11,640 --> 00:31:14,360
Erik: En arbeidsproductiviteit en economische groei.
 400
00:31:14,600 --> 00:31:15,959
Erik: Toen onderzocht.
 401
00:31:15,959 --> 00:31:20,519
Erik: En dan heb ik wereldwijd allemaal interviews gedaan en uiteindelijk kom je dat tot een correlatie.
 402
00:31:20,920 --> 00:31:21,880
Erik: Dat dat er is.
 403
00:31:21,880 --> 00:31:26,120
Erik: Er is geen productiviteitsparadox in organisaties.
 404
00:31:26,120 --> 00:31:30,440
Erik: Maar het leidt ook tot nieuwe bedrijven, het leidt tot nieuwe arbeids alle dingen.
 405
00:31:32,120 --> 00:31:33,640
Erik: En dat zie ik nu weer.
 406
00:31:33,640 --> 00:31:35,239
Erik: Dus dat gebeurt nu weer.
 407
00:31:36,039 --> 00:31:42,840
Erik: Maar tegelijkertijd, ik zie de automatiserings 2.0 zitten wij of 3.0, wie het wil noemen, zit het in.
 408
00:31:42,839 --> 00:31:44,519
Erik: Maar tegelijkertijd.
 409
00:31:44,999 --> 00:31:47,400
Erik: De mens gaat gewoon anders werken.
 410
00:31:47,640 --> 00:31:48,760
Erik: En dat is het.
 411
00:31:49,239 --> 00:31:51,719
Erik: En we moeten het gewoon omarmen.
 412
00:31:52,519 --> 00:31:57,239
Erik: Maar technologie gaat niet vertellen wat ik moet gaan doen.
 413
00:31:57,479 --> 00:31:59,479
Erik: Dat gaat me heel ver helpen.
 414
00:31:59,479 --> 00:32:09,160
Erik: En ik ken ook alle, ik volg ook alle verhalen over robots en mij kunnen helpen als ik wat ouder ben, dat ze dat super gaaf.
 415
00:32:09,479 --> 00:32:14,200
Erik: Maar tegelijkertijd blijf ik wel in de driving seat zitten, hoop ik.
 416
00:32:16,920 --> 00:32:20,519
Joop Snijder: Je zegt dan, we moeten het omarmen.
 417
00:32:21,080 --> 00:32:26,120
Joop Snijder: Maar een hele hoop bedrijven hebben toch nog best wel een worsteling met AI adoptie.
 418
00:32:26,120 --> 00:32:28,680
Joop Snijder: Want je komt natuurlijk wel iets met iets nieuws.
 419
00:32:30,279 --> 00:32:34,119
Joop Snijder: Maar mensen soms bang voor zijn dat ze vervangen worden.
 420
00:32:34,120 --> 00:32:41,880
Joop Snijder: Wat zijn nou een aantal gedragingen die je ziet die de adoptie of versterken of juist verzwakken?
 421
00:32:42,279 --> 00:32:46,440
Erik: Ik denk dat belangrijk is transparantie en vertrouwen.
 422
00:32:47,080 --> 00:32:52,999
Erik: Dat je dat vanaf het begin laat zien, dat wat uit die agents komt.
 423
00:32:53,799 --> 00:32:55,559
Erik: Dat dat checkbaar is.
 424
00:32:55,559 --> 00:33:00,600
Erik: En dat nog steeds de mensen aan het stuur zit, waar we het net over hadden.
 425
00:33:01,080 --> 00:33:04,599
Joop Snijder: Maar dat neem niet helemaal weg dat je dan denk van ja, maar mijn werk wordt overgenomen.
 426
00:33:04,600 --> 00:33:07,640
Joop Snijder: Want hoe beter die agent worden, hoe groter misschien de bedreiging.
 427
00:33:07,640 --> 00:33:19,079
Erik: Ja, ik denk dat je daarin moet focussen op dat je niet gaat gaat de efficiëntieparadox eigenlijk of trap eigenlijk.
 428
00:33:19,160 --> 00:33:23,239
Erik: Dat je meteen gaat denken, ja, ga alles wegautomatiseren en jij bent niet meer nodig.
 429
00:33:23,239 --> 00:33:29,719
Erik: Ik denk, juist de mens op de empathiekant moet meenemen ik neem jou mee.
 430
00:33:29,719 --> 00:33:32,280
Erik: Maar je werk wordt leuker en beter, wordt relevanter.
 431
00:33:32,279 --> 00:33:34,599
Erik: Dus we gaan in productiviteit omhoog.
 432
00:33:34,600 --> 00:33:38,279
Erik: In plaats van ik ga jouw werk vervangen.
 433
00:33:38,920 --> 00:33:41,159
Erik: Dat is in automatisering ook zo gebeurd.
 434
00:33:41,479 --> 00:33:45,799
Erik: Dat is waarom die productiviteitsparadox zo relevant is.
 435
00:33:47,400 --> 00:33:53,079
Erik: We gaan gewoon in output vooruit, denk ik, is mijn geloof.
 436
00:33:55,239 --> 00:33:57,880
Erik: Dus efficiëntie gaat hoger worden.
 437
00:33:57,880 --> 00:33:59,399
Erik: Maar we gaan gewoon andere dingen doen.
 438
00:33:59,400 --> 00:34:02,200
Erik: En ja, er zullen beroepen straks niet meer bestaan.
 439
00:34:02,640 --> 00:34:06,160
Erik: Maar die mensen zijn ook andere dingen gaan doen en leukere dingen gaan doen.
 440
00:34:06,160 --> 00:34:08,399
Erik: En zo stuur ik mijn bedrijf ook aan.
 441
00:34:08,400 --> 00:34:13,518
Erik: Dat ik zeg, ja, je doet nu sommige hele saaie dingen die ik echt kan automatiseren.
 442
00:34:13,518 --> 00:34:16,958
Erik: Maar denk er eens over na wat je zou kunnen doen met een agent.
 443
00:34:17,279 --> 00:34:22,400
Joop Snijder: Wat is iets wat jij nu nog doet, wat je over twee jaar niet meer doet, dat dat is overgenomen.
 444
00:34:22,639 --> 00:34:26,478
Erik: Ja, PowerPoints maken.
 445
00:34:28,400 --> 00:34:32,079
Erik: Wat ik echt mijn hele leven bij PwC's zal.
 446
00:34:32,958 --> 00:34:33,920
Joop Snijder: Dat is je core business.
 447
00:34:35,279 --> 00:34:38,400
Erik: Alles op een juist lijntje zetten, dat is toch super saai.
 448
00:34:38,400 --> 00:34:41,279
Erik: Het is ook wel creatief werk, maar het is super zijn.
 449
00:34:41,359 --> 00:34:43,918
Erik: Dat ga je echt ga ik echt maak nu voor een deel.
 450
00:34:44,399 --> 00:34:49,679
Joop Snijder: Maar betekent dat ook dat over twee jaar dat ik dan ook geen presentaties meer hoef aan te horen.
 451
00:34:50,319 --> 00:34:56,480
Erik: Ja, ik denk dat je wat je gaat verwachten van iemand die een presentatie geeft.
 452
00:34:56,960 --> 00:35:01,759
Erik: Dat hij daarin jou gaat verrassen met creatieve invalshoeken.
 453
00:35:01,759 --> 00:35:04,319
Erik: En dan ondersteunt we die data die we met z'n allen weten.
 454
00:35:04,399 --> 00:35:08,800
Erik: Want Einstein zei knowledge is limited, imaginations limitless.
 455
00:35:09,279 --> 00:35:12,079
Erik: En ik denk, daar moet we ons aan vasthouden.
 456
00:35:12,239 --> 00:35:18,800
Erik: Dus die imagination, dat ga ik jou als ik presentator ben voor jou, ga ik jou verven.
 457
00:35:19,040 --> 00:35:20,799
Erik: En die knowledge.
 458
00:35:20,799 --> 00:35:27,439
Erik: Dat is een daar zeggen we in de onderbalk in zo'n presentatie van dat weten we allemaal en dit kunnen we ermee.
 459
00:35:28,160 --> 00:35:29,840
Erik: Is de volgende stap.
 460
00:35:32,960 --> 00:35:34,719
Joop Snijder: Zeker in converseren.
 461
00:35:37,439 --> 00:35:41,599
Erik: En ik denk ook dat er een andere trend aan de gang is, als ik zo over nadenken.
 462
00:35:41,839 --> 00:35:43,999
Erik: We zoeken, kijk maar nu naar de festivals.
 463
00:35:44,080 --> 00:35:45,919
Erik: We zoeken naar meer verbindingen.
 464
00:35:45,919 --> 00:35:48,239
Erik: Het is iets heel apart aan de hand in de wereld.
 465
00:35:48,239 --> 00:35:52,079
Erik: We zijn aan de ene kant zien we een mega trend qua technologie.
 466
00:35:52,080 --> 00:35:55,040
Erik: Ten gelijkertijd een enorme drang om te verbinden.
 467
00:35:55,839 --> 00:36:00,879
Erik: Dus we waarom zijn die festivals en dergelijke offline events noem ik het maar even.
 468
00:36:01,200 --> 00:36:04,799
Erik: Zo hierom, we zoeken verbinding.
 469
00:36:04,799 --> 00:36:13,119
Erik: We zoeken weer de kroegen, de restaurants in steden dorpen zijn nog nooit zo druk
 470
00:36:20,960 --> 00:36:30,399
Erik: Dat moet je meenemen in het wat ik bedoel, met empathisch ontwerpen en mensgericht ontwerpen van je organisatie.
 471
00:36:31,439 --> 00:36:34,560
Joop Snijder: Dit klinkt best wel heel erg ideologisch.
 472
00:36:34,719 --> 00:36:41,439
Joop Snijder: Toch zijn er ook gedragingen van mensen die het heel subtiel eigenlijk de adoptie tegenhouden.
 473
00:36:41,680 --> 00:36:43,920
Joop Snijder: Heb je daar voorbeelden van?
 474
00:36:44,560 --> 00:37:07,120
Erik: Ja, neem de CIO in een organisatie die zeggen, Erik, super leuk allemaal, maar het moet wel planbaar continu en wat doe je met mijn data en garbage in, garbage out, dus alle dingen die je allemaal dat we allemaal weten die oplosbaar zijn.
 475
00:37:07,120 --> 00:37:10,400
Erik: Of er wordt verwezen naar governance.
 476
00:37:10,399 --> 00:37:13,600
Erik: Niet goed geregeld van data en dergelijken.
 477
00:37:13,600 --> 00:37:18,800
Erik: En als we dat niet zo goed regelen, dan hebben we groot risico met deze organisatie.
 478
00:37:19,600 --> 00:37:24,079
Erik: En al dat soort tegenwerpingen zie ik veel.
 479
00:37:25,680 --> 00:37:30,879
Erik: We zitten in een tijd wat dat betreft in een soort van tijdsgewricht waar je nu de innovators nog mee hebt.
 480
00:37:30,879 --> 00:37:40,559
Erik: En zo meteen we zitten niet in die curve die hypecurve en dat zal ook wel een grote ramp ontstaan, waardoor we allemaal even een setback hebben.
 481
00:37:40,560 --> 00:37:46,960
Erik: En daarna gaat dat gewoon echt groeien vanuit een goede governance goede systeem denken.
 482
00:37:47,520 --> 00:37:52,239
Erik: Maar goed terug, ik zie die zie die tegenwerpingen veel.
 483
00:37:54,399 --> 00:37:57,520
Erik: Waar we net over hadden, banenweg bezuinigen.
 484
00:37:57,520 --> 00:38:01,360
Erik: O wat doet het met mij, of kwaliteit van de data.
 485
00:38:01,520 --> 00:38:03,279
Erik: Die hebben we nog niet op orde.
 486
00:38:03,279 --> 00:38:05,520
Erik: Dus we kunnen nog niet beginnen.
 487
00:38:05,759 --> 00:38:08,640
Erik: Allemaal dat soort subtiele dingen.
 488
00:38:09,200 --> 00:38:18,799
Erik: Waarbij de innovators, die probeer ik dan wel te omarmen en te zeggen, ja, maar zullen we dan alvast gewoon klein beginnen met dat weer die kleine intervaltraining.
 489
00:38:19,439 --> 00:38:22,560
Erik: Want we komen er wel, we gaan wel dat goud halen.
 490
00:38:23,279 --> 00:38:26,640
Erik: En dan krijg je langzo en maar die anderen ook wel blijven meenemen.
 491
00:38:26,640 --> 00:38:28,799
Erik: Dus degene die op de rem staan.
 492
00:38:29,200 --> 00:38:32,000
Erik: Vriend van mij noemt dat de remmers in dienst.
 493
00:38:33,279 --> 00:38:35,520
Erik: Om die toch wel mee te nemen.
 494
00:38:35,520 --> 00:38:36,640
Erik: Wat is wel belangrijk.
 495
00:38:36,640 --> 00:38:39,679
Erik: Want als je die niet meeneemt, dan komt er een hele harde rem.
 496
00:38:39,839 --> 00:38:41,680
Niels Naglé: En hoe neem je die mee?
 497
00:38:42,399 --> 00:38:44,799
Erik: Ja, door ze vanaf het begin te betrekken.
 498
00:38:44,799 --> 00:38:50,200
Erik: Dus ik had het net over een goed doel stellen, experts neemen en dan intervaltraining doen.
 499
00:38:50,439 --> 00:38:55,399
Erik: Die experts neem meenemen, moet je ook meteen vertellen.
 500
00:38:55,879 --> 00:38:57,000
Erik: Dit is het doel.
 501
00:38:57,319 --> 00:38:58,599
Erik: Dit ga ik doen.
 502
00:38:58,600 --> 00:39:01,080
Erik: Ik hou rekening met jouw zorgen.
 503
00:39:02,279 --> 00:39:05,400
Erik: Maar geloof nou in het proces.
 504
00:39:06,279 --> 00:39:09,080
Erik: En dat er dan goede output komt.
 505
00:39:09,960 --> 00:39:11,800
Niels Naglé: Lijkt me wel lastig, inderdaad.
 506
00:39:12,279 --> 00:39:13,080
Erik: Zie jullie dat ook?
 507
00:39:14,200 --> 00:39:20,600
Niels Naglé: Ja, en juist ook ze de rol geven van je mag inderdaad de pessimist in plaats van de optimist zijn.
 508
00:39:20,600 --> 00:39:23,879
Niels Naglé: Want de pessimisten hebben we ook nodig om ons scherp te houden.
 509
00:39:23,879 --> 00:39:39,399
Niels Naglé: En als je ze daarmee een rol geeft, en ook grumpy old mag zijn, dat het waarde heeft, dat helpt wel onze op den duur mee te kunnen laten sprinten, of in ieder geval te kijken naar de sprint om op een duur ook een stapje te zetten.
 510
00:39:39,560 --> 00:39:40,839
Erik: Ik vind het wel leuk dat je dat zegt.
 511
00:39:40,839 --> 00:39:45,159
Erik: Ik kijk even terug naar mijn rol in besturen van de hockeyboek.
 512
00:39:45,480 --> 00:39:47,959
Erik: Ik heb bewust een heel divers bestuur.
 513
00:39:47,960 --> 00:39:55,320
Erik: We kunnen heel goed met elkaar omgaan, maar tegelijkertijd zijn we heel verschillend en zijn we heel scherp op de inhoud.
 514
00:39:56,120 --> 00:40:01,000
Erik: En daardoor mag je best af en toe een zwart kijken op een bepaald thema zijn.
 515
00:40:01,239 --> 00:40:03,399
Erik: Dat maakt alleen maar een proces beter.
 516
00:40:03,399 --> 00:40:06,119
Erik: En daardoor kun je vanuit andere kanten kijken.
 517
00:40:06,120 --> 00:40:12,519
Erik: En als we dat bereiken met elkaar, dan ga je gewoon hard vooruit en innoveer je ook tegelijkertijd.
 518
00:40:13,480 --> 00:40:19,640
Erik: We hebben allemaal maar oogkleppen op, zoals we mensen zoals we zijn, we hebben een bepaalde context zelf ook meegekregen.
 519
00:40:20,520 --> 00:40:23,959
Erik: En dat is wat het is, denk ik, dat is wat het beter maakt.
 520
00:40:23,960 --> 00:40:26,919
Erik: Dus ik vind het wel leuk dat je zegt, je mag een pessimist zijn, zeker.
 521
00:40:26,919 --> 00:40:28,120
Niels Naglé: Ja, die hebben we ook nodig.
 522
00:40:28,120 --> 00:40:29,960
Niels Naglé: We hebben ze nodig om onscherp te houden.
 523
00:40:30,520 --> 00:40:32,359
Niels Naglé: En inderdaad kritisch te kunnen blijven.
 524
00:40:32,919 --> 00:40:37,239
Joop Snijder: Er is wel een verschil vind ik tussen een pessimist of remmer zijn.
 525
00:40:40,600 --> 00:40:48,680
Joop Snijder: Of ben je bewust of onbewust obstakels op de weg aan het gooien om tegen te houden?
 526
00:40:48,680 --> 00:40:50,360
Niels Naglé: Dat noem ik een saboteur.
 527
00:40:50,600 --> 00:40:52,680
Niels Naglé: Dus dat gaat bij mij nog net iets anders inderdaad.
 528
00:40:52,680 --> 00:40:58,039
Niels Naglé: Dat is doelbewust iets creëren waardoor je nooit naar dat einddoel zou kunnen gaan.
 529
00:40:58,279 --> 00:41:02,599
Niels Naglé: Dus inderdaad, daar zit wel echt een verschil tussen een remmer die gewoon kritisch kijkt.
 530
00:41:02,600 --> 00:41:08,440
Niels Naglé: En een saboteur die er alles aan doet om ervoor te zorgen dat je daar niet gaat komen op de route die.
 531
00:41:08,839 --> 00:41:13,719
Erik: Wat daar interessant is qua leiderschap, is om te ontdekken.
 532
00:41:13,719 --> 00:41:18,919
Erik: Wat zijn de conversaties boven tafel, maar vooral wat we zeggen hier.
 533
00:41:18,919 --> 00:41:21,079
Erik: Maar wat zijn de conversaties onder tafel?
 534
00:41:21,080 --> 00:41:22,599
Erik: Wat denken mensen.
 535
00:41:22,600 --> 00:41:25,399
Erik: Want ze kunnen dingen zeggen en toch dingen anders doen.
 536
00:41:25,399 --> 00:41:32,279
Erik: En dat maken we natuurlijk als je het hebt over de onderlaag, wat echt lastig is, en dat vereist ervaring.
 537
00:41:32,279 --> 00:41:36,439
Erik: Als je het hebt over waar maak ik nou naar de toekomst zorgen over.
 538
00:41:39,640 --> 00:41:46,919
Erik: Volgens mij opgedaan in de loop de jaren door gewoon vallen en opstaan trainen en weer vallen en weer opstaan.
 539
00:41:48,359 --> 00:41:56,440
Erik: Ik maak me wel zorgen over dat we dat de nieuwe generatie door alles wat ze aan het tools die ze meekrijgen.
 540
00:41:57,080 --> 00:42:01,319
Erik: Die ervaring nog niet hebben en nog niet snel gaan op doen.
 541
00:42:01,319 --> 00:42:06,359
Erik: Om je moet hier doorheen om die conversaties onder tafel te herkennen.
 542
00:42:06,359 --> 00:42:10,439
Erik: En dan te weten van oh ja, maar wacht even, jij bent nu dit aan het doen.
 543
00:42:10,439 --> 00:42:14,359
Erik: Maar ik zie dat wel wat je doet, maar ik kan je ook helpen.
550
00:42:14,600 --> 00:42:17,640
Erik: Maar je moet het eerst even boven tafel krijgen.

544
00:42:17,799 --> 00:42:19,399
Erik: En dan even vertrouwen.

545
00:42:19,480 --> 00:42:22,439
Erik: En dan kunnen we weer door met elkaar.

546
00:42:22,439 --> 00:42:25,319
Erik: En daardoor maken we het beter waar we het net over hadden.

547
00:42:25,560 --> 00:42:32,840
Erik: Maar als je dat niet ziet, dan ga je vroeger heel vaak teleurgesteld naar kantoor teruggekomen als consultant.

548
00:42:33,160 --> 00:42:40,439
Erik: En dat ze een interim manager met een hele andere agenda's had dan ik had als consultant.

549
00:42:40,759 --> 00:42:44,759
Erik: En dat ik dacht, ja, het ligt aan mij en ik ben toch inhoudelijk goed bezig.

550
00:42:45,000 --> 00:42:47,160
Erik: Maar er was iets heel anders aan de hand.

551
00:42:50,920 --> 00:42:58,680
Joop: Zij moeten zich gaan bewegen door een andere wereld dan waar wij in begonnen, maar daar gaan ze ook natuurlijk gewoon in vallen en opstaan.

552
00:42:58,680 --> 00:43:03,399
Joop: En zeggen dan naar een x-aantal jaren van ja, dit is de ervaring die ik heb opgedaan.

553
00:43:03,399 --> 00:43:06,839
Joop: En degene achter mij, weet je, die missen deze ervaring.

554
00:43:06,839 --> 00:43:08,839
Joop: Is het niet een terugkeren patroon?

555
00:43:08,839 --> 00:43:12,120
Erik: Ja, misschien is het wel misschien is het wel.

556
00:43:12,200 --> 00:43:18,440
Erik: Dat je echt inderdaad van, wat ik tegen mijn ouders zeggen, dat dat zich gewoon herhaald.

557
00:43:18,920 --> 00:43:20,920
Erik: Grumpy old man ben ik nu.

558
00:43:22,200 --> 00:43:23,640
Niels: Maar zie je dat in sport ook niet.

559
00:43:23,640 --> 00:43:24,999
Niels: De sporters ook niet verdwenen.

560
00:43:25,640 --> 00:43:30,239
Niels: Het is ook anders hoe ze nu starten in de hockey, denk ik dan dat je dat jaren terugdenken.

561
00:43:30,200 --> 00:43:30,959
Niels: Ja, 100%.

562
00:43:32,000 --> 00:43:45,920
Erik: Ja, de hockeyers van nu versus de hockeyers van vroeger in mijn tijd, nu zijn het echt atleten die de 100% voor gaan, die ze geen biertjes ziet drinken na een winst.

563
00:43:46,160 --> 00:43:51,999
Erik: Olympische spelen, die gewoon vol voor het einddoel gaan.

564
00:43:52,239 --> 00:43:56,640
Erik: En in mijn tijd stonden ze gewoon nog wel een biertje aan het hebben.

565
00:43:56,640 --> 00:44:00,320
Erik: Dus dat is heel anders en de trainingsinspanning is anders.

566
00:44:00,560 --> 00:44:06,799
Erik: En even terug naar mezelf als scheidsrechter, als ik kijken wat scheidsrechters nu meekrijgen.

567
00:44:07,120 --> 00:44:13,600
Erik: Over en wat ik meekrijg, ik heb het allemaal zelf uitgevonden en ik stond in de stadion met 40.000 man in Delhi.

568
00:44:13,600 --> 00:44:21,120
Erik: En ik moet allemaal uitvinden hoe ik omga met spanning en focus en concentratie en conflictmanagement, etcetera.

569
00:44:22,319 --> 00:44:28,080
Erik: He wel een mens gemaakt, wat niet bevrees is voor groepen te staan.

570
00:44:28,080 --> 00:44:32,560
Erik: Maar ik heb het wel moeten leren en met vallen en opstaan.

571
00:44:34,960 --> 00:44:39,679
Erik: Dat is wel een nu geven ze dat allemaal mee.

572
00:44:39,680 --> 00:44:46,399
Erik: Dus we geven ze nu allemaal trainingen mee met anger management en communicatie.

573
00:44:46,399 --> 00:44:49,200
Erik: En als je dit doet, dan gebeurt er dat.

574
00:44:49,200 --> 00:44:51,279
Erik: En als je dat doet, dan gebeurt het dit.

575
00:44:51,279 --> 00:44:55,200
Erik: En dan maken ze die fouten nog, maar ze herkennen direct door je fout maken.

576
00:44:55,439 --> 00:44:57,120
Erik: Oh, je had het verteld, oh, wacht even.

577
00:44:57,839 --> 00:45:02,079
Erik: Het is niet zo dat ze geen fouten maken, ze hebben veel meer tools dan in handen.

578
00:45:02,080 --> 00:45:03,279
Erik: Veel meer tools in handen.

579
00:45:03,680 --> 00:45:11,839
Erik: Dus ik denk wel dat je net inderdaad van je zult toch vallen en leren opstaan, maar die tools zijn, daardoor ga je wel sneller.

580
00:45:11,839 --> 00:45:16,879
Erik: Ik zie aan mijn kinderen die wel sneller leren, dat is alleen maar leuk.

581
00:45:16,879 --> 00:45:19,200
Erik: Dus we gaan alleen harder vooruit.

582
00:45:19,200 --> 00:45:26,319
Erik: Dus dat geeft mij het geloof wat ik net zei dat die economische groei en die projecta die komt er gewoon aan.

583
00:45:26,399 --> 00:45:29,360
Erik: Ze gaan gewoon weer door, dankzij technologie.

584
00:45:33,120 --> 00:45:36,400
Erik: Als ik er zo over nadenk, dat is toch wel dat gaat er gebeuren.

585
00:45:36,640 --> 00:45:40,560
Erik: Maar anders anders.

586
00:45:41,439 --> 00:45:50,399
Joop: Wat is er iemand iemand of iets geweest wat jou geïnspireerd heeft om juist deze technologie verder in te duiken?

587
00:45:50,719 --> 00:45:57,440
Erik: Ja, aan de technologiekant Eric Smith en Jensen Wang van NVIDIA.

588
00:45:57,439 --> 00:46:03,280
Erik: En Eric Smit oud Google directeur of CEO.

589
00:46:03,680 --> 00:46:09,280
Erik: En die nu vol ik volg zijn video's nog dagelijks zeg maar op YouTube.

590
00:46:09,680 --> 00:46:20,640
Erik: waarin hij zegt 90% van de best scientist en de best medische man, et cetera, et cetera, dat gaat straks AI worden.

591
00:46:20,640 --> 00:46:22,160
Erik: Dus zorgt ervoor.

592
00:46:22,160 --> 00:46:33,279
Erik: En ook de warning van we moeten niet zorgen dat we dat we een nucleair wapen ontwikkelen, wat de wereld gaat vernietigen.

593
00:46:34,480 --> 00:46:42,959
Erik: Dat inspireert mij omdat die denkt zoals Einstein dacht, van kennis is beperkt.

594
00:46:43,200 --> 00:46:45,279
Erik: In Imagination is limitless.

595
00:46:45,279 --> 00:46:47,759
Erik: Dus dat vind ik mooi, vind ik inspiratief.

596
00:46:48,399 --> 00:46:53,040
Erik: De Chinese Lei zeg je dat wat.

597
00:46:53,680 --> 00:46:59,120
Erik: Die inspireert mij op het gebied van hoe je human centric kan ontwerpen.

598
00:47:02,960 --> 00:47:04,800
Erik: De luisteraars maar eens opzoeken.

599
00:47:05,279 --> 00:47:08,640
Erik: Maar dat is inspireert mij op dat vlak is even.

600
00:47:08,640 --> 00:47:14,640
Erik: Je heeft het al twintig jaar geleden aan gedragsmethode en ontwikkeld.

601
00:47:14,640 --> 00:47:17,200
Erik: En ik denk, dat is nu van toepassing.

602
00:47:17,200 --> 00:47:24,640
Erik: Dus als je die twee combineert, dan zijn de twee inspiratiebronnen van mij en ook van mijn bureau, waarbij ik die design kant.

603
00:47:24,640 --> 00:47:27,759
Erik: Dus Human Centric ontwerpen versus.

604
00:47:27,759 --> 00:47:32,320
Erik: Wat kan er allemaal met technologie gebruiken zeker?

605
00:47:32,640 --> 00:47:39,440
Joop: Is er een vraag die wij niet gesteld hebben, maar waarvan je wel in je voorberein zeggen.

606
00:47:39,600 --> 00:47:42,160
Joop: Dit wil ik nog wel even gezegd hebben.

607
00:47:44,000 --> 00:47:49,920
Erik: Nou, ik denk dat ik alles wel, ik denk wel belangrijk is dat wat we niet heel erg hebben.

608
00:47:50,560 --> 00:47:53,920
Erik: We hebben zorgwekkende kanten onderstreept.

609
00:47:54,480 --> 00:48:01,039
Erik: Maar die data privacy en veiligheid is wel super belangrijk als design principle hebben we het wel kort over gehad.

610
00:48:01,359 --> 00:48:09,039
Erik: Maar het risico op data lekken en het misbruik van gegevens is, gaat exponentieel omhoog.

611
00:48:09,680 --> 00:48:16,320
Erik: Dus we moeten daarin met z'n allen als vakbroeders goed blijven werken.

612
00:48:16,480 --> 00:48:19,559
Joop: Maar zie je daar niet eigenlijk een hele rare contradictie.

613
00:48:19,879 --> 00:48:29,239
Joop: Want jij zegt dit, het wordt wat later uitgezonden dan dat we het nu opnemen, maar in de afgelopen week anderhalve week is het alleen maar gaan over open klol.

614
00:48:29,799 --> 00:48:31,319
Joop: Een beveiligingsnachtmerk.

615
00:48:31,719 --> 00:48:35,879
Joop: Dus aan de ene kant zeggen we, doe voorzichtig, iedereen is beleid aan het maken.

616
00:48:35,879 --> 00:48:40,040
Joop: En aan de andere kant, weet je, hebben we ook een vreemde kronkel of zo.
624
00:48:40,200 --> 00:48:48,040
Joop: We zeggen van ja, maar zo'n open klor, dat duiken we met z'n allen op en we laten zien, zeg maar dat we alle deuren open kunnen zetten en heel onveilig bezig zijn.

617
00:48:48,040 --> 00:48:49,399
Joop: Hoe kijk je daarna?

618
00:48:49,719 --> 00:48:52,759
Erik: Ja, ik denk dat je moet experimenteren in het lab.

619
00:48:52,759 --> 00:48:57,320
Erik: En dan als je het naar buiten brengt, dan moet het gewoon wel veilig zijn.

620
00:48:57,799 --> 00:49:00,759
Erik: En ook afhankelijk van de context.

621
00:49:01,080 --> 00:49:08,280
Erik: Als je in een bank iets gebruikt of in een overheidsinstelling, dan moet het gewoon veilig zijn bij design.

622
00:49:08,279 --> 00:49:12,840
Erik: Maar als het voor mij privé, ik zal mij niet uitmaken.

623
00:49:13,239 --> 00:49:15,640
Erik: Dus dat is ik heb niks te verbergen.

624
00:49:18,520 --> 00:49:21,479
Joop: Mijn creditkaartgegevens?

625
00:49:21,560 --> 00:49:24,599
Erik: Nee, maar meer op mijn gedrag, ik geef al jaren weg.

626
00:49:24,600 --> 00:49:26,840
Erik: Hadden van de week nog de discussie.

627
00:49:26,919 --> 00:49:32,200
Erik: Met mensen, ja, ik vind het moeilijk hoe Google en Meta, mijn data traint.

628
00:49:32,200 --> 00:49:35,879
Erik: Ik zeg, ja, maar dan heb je de afslag tien jaar geleden al gemist.

629
00:49:35,879 --> 00:49:38,200
Erik: Want die trainen al jaren op deze data.

630
00:49:38,200 --> 00:49:42,359
Erik: Dus dat is we zijn al het product als mens.

631
00:49:42,439 --> 00:49:45,239
Niels: Het gebruik is alleen veranderd en versneld en verbreed.

632
00:49:45,399 --> 00:49:47,319
Erik: Ja, maar context is wel belangrijk, denk ik.

633
00:49:47,319 --> 00:49:49,960
Erik: Dus op dat punt wat jij net zegt.

634
00:49:52,600 --> 00:49:53,879
Erik: Je moet wel uitproberen.

635
00:49:53,879 --> 00:49:56,120
Erik: Ik ga binnenkort naar China.

636
00:49:56,600 --> 00:50:00,040
Erik: Om uit te zien, want ik zie dat China is heel ver.

637
00:50:00,279 --> 00:50:03,879
Erik: En we vinden van alles van data en privacy.

638
00:50:03,879 --> 00:50:09,239
Erik: Maar ga daar bewust heen en kijken naar hoe ver zijn ze nou op technologisch gebied.

639
00:50:09,960 --> 00:50:13,400
Erik: En wat zou ik er dan in deze context mee kunnen?

640
00:50:13,640 --> 00:50:15,559
Erik: Wel vanuit de Secure Design.

641
00:50:17,399 --> 00:50:18,279
Erik: waar gaan ze op af.

642
00:50:18,439 --> 00:50:20,519
Erik: Ook vanuit sport is het interessant.

643
00:50:21,080 --> 00:50:25,399
Erik: Ik wil weten van hoe ver pushen zij het al.

644
00:50:25,399 --> 00:50:33,559
Erik: Want ik wil een LA of een Brisbane, de Olympisch Spelen daarna, niet verrast worden door een Chinees team wat iets heeft uitgevonden met technologie.

645
00:50:33,560 --> 00:50:36,280
Erik: Waarbij dachten, oh, daar hadden we naar moeten kijken.

646
00:50:38,120 --> 00:50:40,999
Erik: Of dat hadden we niet willen, dat willen we niet.

647
00:50:41,000 --> 00:50:42,279
Joop: Dus je gaat ook een beetje afkijken.

648
00:50:42,279 --> 00:50:43,719
Erik: Ja, ga een beetje afkijken.

649
00:50:43,719 --> 00:50:45,800
Erik: Wat vroeger andersom ging.

650
00:50:46,600 --> 00:50:50,200
Erik: Geen Chinezen bij ons afkijken, nu gaan we andersom afkijken.

651
00:50:50,359 --> 00:50:56,759
Erik: Want je wil niet dat ik wil ook het IOC kunnen adviseren op dit mag wel en dit mag niet.

652
00:50:57,319 --> 00:51:00,200
Erik: Want ik tenminste qua gedrag.

653
00:51:03,960 --> 00:51:10,120
Niels: Dus nieuwsgierigheid en toch kijken, inderdaad, waar zit de scheidsrechter in je kijken waar de grenzen zijn.

654
00:51:10,439 --> 00:51:12,679
Niels: Dat is mooi om te horen, inderdaad.

655
00:51:12,680 --> 00:51:14,440
Erik: Dat is wat Erik is, inderdaad.

656
00:51:14,439 --> 00:51:17,319
Erik: Dat is wel Erik is nieuwsgierig innovatief.

657
00:51:17,560 --> 00:51:23,080
Erik: Maar ik kan dan wel een streep trekken van oké, maar dit vind ik dit is de grens.

658
00:51:24,040 --> 00:51:25,160
Joop: Ik denk dat belangrijk is.

659
00:51:25,160 --> 00:51:28,440
Joop: Ik denk dat het ook een mooi beeld is om mee te geven aan de luisteraar toch?

660
00:51:29,239 --> 00:51:31,800
Joop: Als je je zo opstelt, dan kom je een stuk verder.

661
00:51:32,200 --> 00:51:35,319
Joop: Ik denk dat we een geweldige inkijk hebben gekregen in wat je doet.

662
00:51:35,319 --> 00:51:40,999
Joop: Terwijl qua alles rond de sport, maar ook met AI en hoe je dat combineert.

663
00:51:41,000 --> 00:51:42,519
Joop: Heel erg leuk, dank daarvoor.

664
00:51:42,520 --> 00:51:45,719
Joop: Dank dat je naar de studio wilde komen en voor dit prettige gesprek.

665
00:51:45,719 --> 00:51:47,880
Erik: Leuk jullie te spreken, jongens.

666
00:51:49,399 --> 00:51:52,360
Joop: Leuk dat je weer luisterde naar deze aflevering.

667
00:51:52,359 --> 00:52:07,080
Joop: Zorg dat je je abonneert op onze nieuwsbrief, want daar zitten hele leuke dingen achter de schermen, we gaan namelijk Erik ook een vraag stellen vraag van de maand, en die lees je daarom terug, bijvoorbeeld volgende keer.