AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S05E75 - Een kijkje in de AI-keuken van Erasmus MC: innovatie in de praktijk
Welkom bij een nieuwe aflevering van AIToday Live! Vandaag hebben we het genoegen om Ben Werkhoven van Erasmus MC in de studio te hebben.
We praten met Ben over verschillende AI-projecten in de zorg, waaronder het voorspellen van no-shows en het optimaliseren van kliniekplanning. Ook bespreken we de grootste misvattingen over AI.
Benieuwd naar deze boeiende gesprekken? Luister dan snel!
Links
- PDF: Medical Device Regulation (MDR): wettelijke checks en documentatie voor directe patiëntenzorg (https://www.medical-device-regulation.eu/download-mdr/)
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:07,000
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.
2
00:00:07,000 --> 00:00:11,000
Vandaag in de studio Ben Werkhoven van Erasmus MC.
3
00:00:11,000 --> 00:00:16,000
Niels Naglé is er bij deze uitzending even wegens omstandigheden niet bij.
4
00:00:16,000 --> 00:00:18,000
Je zal het met mij moeten doen.
5
00:00:18,000 --> 00:00:21,000
Mijn naam is Joop Snijder, CTO bij Aigency.
6
00:00:21,000 --> 00:00:24,000
Hoi Ben, welkom terug.
7
00:00:24,000 --> 00:00:27,000
We hebben al een opname gemaakt.
8
00:00:27,000 --> 00:00:31,200
Dus als je als luisteraar hier nog niet geluisterd hebt, deel 1, zoek hem eventjes op.
9
00:00:31,200 --> 00:00:37,040
Waarin Ben vertelt over een prachtig model wat geïmplementeerd is bij het Erasmus MC,
10
00:00:37,040 --> 00:00:39,440
over het voorspellen van no-shows.
11
00:00:39,440 --> 00:00:44,560
Maar voor degene die nog niet die aflevering geluisterd hebben,
12
00:00:44,560 --> 00:00:46,560
zou je je nog even kort willen voorstellen, Ben?
13
00:00:46,560 --> 00:00:48,680
Ja, tuurlijk. Mijn naam is Ben Werkhoven.
14
00:00:48,680 --> 00:00:52,840
Ik werk nu bijna drie jaar voor het Erasmus MC als data scientist.
15
00:00:52,840 --> 00:00:55,440
Met een achtergrond in natuurkunde.
16
00:00:55,440 --> 00:00:57,680
PhD ook in de theorieën van natuurkunde.
17
00:00:57,680 --> 00:01:04,080
Dus geen opleiding in data science, maar wel de analytische skills van theorieën van natuurkunde...
18
00:01:04,080 --> 00:01:06,720
die je nu kan toepassen in het vakgebied van data science.
19
00:01:06,720 --> 00:01:10,800
Precies. En in de vorige aflevering hebben we het gehad over het voorspellen van no-shows...
20
00:01:10,800 --> 00:01:12,220
en wat dat betekende.
21
00:01:12,220 --> 00:01:16,160
Maar je gaf aan dat jullie ook nog bezig zijn met andere projecten.
22
00:01:16,160 --> 00:01:17,880
Zou je daar wat over kunnen vertellen?
23
00:01:17,880 --> 00:01:18,900
Ja, zeker.
24
00:01:18,900 --> 00:01:22,360
Want no-show was ons eerste project en daar...
25
00:01:22,380 --> 00:01:26,020
Dat was voor ons een redelijk laag hangend fruit.
26
00:01:26,020 --> 00:01:30,860
Om te laten zien dat wij ook echt iets kunnen neerzetten en waarde kunnen toevoegen.
27
00:01:30,860 --> 00:01:34,820
Maar we wilden graag ook breder dan alleen maar de polyclinieken...
28
00:01:34,820 --> 00:01:37,780
of alleen maar de bedrijfsvoering eromheen projecten doen.
29
00:01:37,780 --> 00:01:42,780
We wilden graag in alle stukken van de zorg vinden het leuk om iets te doen.
30
00:01:42,780 --> 00:01:46,860
Dus op een gegeven moment zijn we andere projecten gaan oppakken...
31
00:01:46,860 --> 00:01:50,100
die in andere delen van het ziekenhuis relevant waren.
32
00:01:50,220 --> 00:01:53,580
Dat is niet dat je direct in de zorg zit, maar het gaat om de planning daaromheen.
33
00:01:53,580 --> 00:01:57,660
Dus dat een kliniekmanager, die gewoon moet regelen,
34
00:01:57,660 --> 00:02:00,980
morgen gaan deze en deze patiënten, die komen hierheen.
35
00:02:00,980 --> 00:02:03,460
En dan moet je ook nog eens een plan hebben.
36
00:02:03,460 --> 00:02:06,060
En dat is ook een van de dingen die we in de zorg doen.
37
00:02:06,060 --> 00:02:08,260
En dat is ook een van de dingen die we in de zorg doen.
38
00:02:08,260 --> 00:02:10,260
En dat is ook een van de dingen die we in de zorg doen.
39
00:02:10,260 --> 00:02:12,260
En dat is ook een van de dingen die we in de zorg doen.
40
00:02:12,260 --> 00:02:14,260
En dat is ook een van de dingen die we in de zorg doen.
41
00:02:14,260 --> 00:02:16,260
En dat is ook een van de dingen die we in de zorg doen.
42
00:02:16,260 --> 00:02:18,260
En dat is ook een van de dingen die we in de zorg doen.
43
00:02:18,260 --> 00:02:19,740
Die komen hierheen.
44
00:02:19,740 --> 00:02:24,860
Die moeten natuurlijk weten wie gaat er vandaag weg, of hoeveel mensen gaan er vandaag weg.
45
00:02:24,860 --> 00:02:29,100
Want je moet ruimte hebben voor de patiënten die je morgen hebt ingepland.
46
00:02:29,100 --> 00:02:32,500
Of andersom, je wil dat je al genoeg bedden gevuld hebt.
47
00:02:32,500 --> 00:02:35,100
Als je te weinig mensen hebt ingepland voor morgen,
48
00:02:35,100 --> 00:02:38,740
en dan gaat ineens heel veel weg, dan heb je ineens een halve lege kliniek.
49
00:02:38,740 --> 00:02:42,620
Dat is allemaal verspilde capaciteit. Elk leeg bed kocht geld in die zin.
50
00:02:42,620 --> 00:02:46,620
Dus daar hebben we toen ook een model voor ontwikkeld.
51
00:02:47,140 --> 00:02:50,780
om daar inzicht in te geven 's ochtends vroeg,
52
00:02:50,780 --> 00:02:53,440
zodat ze daar al vroeg op kunnen gaan handelen
53
00:02:53,440 --> 00:02:56,540
om de planning goed rond te krijgen eigenlijk.
54
00:02:56,540 --> 00:03:01,820
Kwam je hier met andere problematiek te maken dan met dat eerste model?
55
00:03:01,820 --> 00:03:08,660
Ja, hier was het lastig om...
56
00:03:08,660 --> 00:03:11,420
Het is lastig om de klinieken mee te krijgen bij dit model.
57
00:03:11,420 --> 00:03:13,340
Dus hier zijn we ook nog niet...
58
00:03:13,340 --> 00:03:15,580
Het is nog niet geïmplementeerd.
59
00:03:15,600 --> 00:03:23,200
We zijn nu weer opnieuw met klinieken in gesprek om te kijken van hoe kunnen we dit zo inrichten dat jullie er wat aan hebben.
60
00:03:23,200 --> 00:03:29,520
Want op een gegeven moment was er iemand van de kliniek die het wel gebruikte, maar op een gegeven moment zag je het gebruik een beetje teruglopen.
61
00:03:29,520 --> 00:03:30,020
Oh ja.
62
00:03:30,020 --> 00:03:32,520
En toen vroegen we waarom gebruik je het niet meer zoveel.
63
00:03:32,520 --> 00:03:33,020
Ja.
64
00:03:33,020 --> 00:03:38,520
Klussers sluiten toch niet goed aan op je werkproces, want we hadden in eerste instantie wel contact met haar.
65
00:03:38,520 --> 00:03:43,240
En ook samen met haar ontworpen van op zo'n manier presenteer ik het elke dag aan je.
66
00:03:43,240 --> 00:03:47,200
En dan ja, dat is toch om een of andere reden gaat dat gebruik neemt af.
67
00:03:47,200 --> 00:03:50,200
En daar is natuurlijk een reden voor. Het is niet dat ze dan lui zijn of zo.
68
00:03:50,200 --> 00:03:53,200
Nee, het is blijkbaar voelen ze toch niet het nut ervan.
69
00:03:53,200 --> 00:03:58,320
Dus dan gaan we opnieuw naar ze toe van oké, hoe kunnen we dit anders misschien inrichten?
70
00:03:58,320 --> 00:04:02,000
Dat je wel de neiging hebt, of wel wil gebruiken.
71
00:04:02,000 --> 00:04:03,520
En het idee hebt dat je er wat aan hebt.
72
00:04:03,520 --> 00:04:06,000
Lag het aan het model, lag het aan de presentatie?
73
00:04:06,000 --> 00:04:10,400
Het lag er denk ik in wat ze precies met het model doen.
74
00:04:10,400 --> 00:04:14,600
Dus het model was op zich prima, maar het is precies de...
75
00:04:14,600 --> 00:04:16,600
Specifiek de...
76
00:04:16,600 --> 00:04:22,400
Wat moet zij doen met een voorspelling en wanneer krijgt ze die voordeur?
77
00:04:22,400 --> 00:04:27,400
Ik denk dat het niet goed genoeg aansloot op hoe zij het normaal gesproken...
78
00:04:27,400 --> 00:04:30,000
Dat het nog niet past eigenlijk in haar werkproces.
79
00:04:30,000 --> 00:04:32,000
Ja, precies. Want je...
80
00:04:32,000 --> 00:04:36,160
Als je wil dat mensen iets gaan gebruiken, dan moet je het werkproces eigenlijk makkelijker
81
00:04:36,160 --> 00:04:37,160
maken.
82
00:04:37,160 --> 00:04:41,760
Als je hetzelfde houdt, of evenveel energie of meer, dan hebben mensen de neiging om het
83
00:04:41,760 --> 00:04:42,760
niet meer te gaan gebruiken.
84
00:04:42,760 --> 00:04:45,040
Je moet het makkelijker voor ze maken.
85
00:04:45,040 --> 00:04:49,240
Je moet iets uit handen nemen en dan willen ze het gebruiken.
86
00:04:49,240 --> 00:04:56,200
Als je dat net niet goed weet te identificeren, het gevoel ook hebben dat ze er iets aan hebben,
87
00:04:56,200 --> 00:04:57,720
dan komen ze er minder snel naar terug.
88
00:04:57,720 --> 00:04:58,720
- Snap ik.
89
00:04:58,720 --> 00:05:06,220
En is dat het model waar jullie nu aan werken?
90
00:05:06,220 --> 00:05:10,220
Of hebben jullie meer tegelijkertijd waar je nu aan aan het ontwikkelen bent?
91
00:05:10,220 --> 00:05:17,720
Ja, we hebben nu naast No-Show en Ontslag hebben we nog zeker één in de vergevorderde stadium.
92
00:05:17,720 --> 00:05:21,720
En ook één waar we net aan zijn begonnen en nog zelfs nog een paar ideeën.
93
00:05:21,720 --> 00:05:25,720
Dus het begint te lopen bij ons.
94
00:05:25,720 --> 00:05:34,920
Eentje die al redelijk ver is, en dat is ons eerste directe zorg, patiëntenzorg model.
95
00:05:34,920 --> 00:05:40,720
Dat is het voorspellen van het risico tot ontwikkelen van decubitus.
96
00:05:40,720 --> 00:05:41,720
Wat is dat?
97
00:05:41,720 --> 00:05:43,220
Decubitus is een doorlichtplek.
98
00:05:43,220 --> 00:05:49,720
Dus als je langertermijn druk legt op een stuk huid, dan gaat de doorbloeding slechter en
99
00:05:49,720 --> 00:05:51,440
de huid kan kapot gaan.
100
00:05:51,440 --> 00:05:54,000
Het kan hele vervelende wonden opleveren.
101
00:05:54,000 --> 00:06:04,740
Als je niet goed ligt of niet genoeg draait vooral, of je hele lange operaties hebt, ook te veel druk komt op een stuk uit, dan is het risico aanwezig dat je zo'n doorligplek ontwikkelt.
102
00:06:04,740 --> 00:06:10,220
En als je dat ontwikkelt, dan heeft dat zorg nodig, dan moet je natuurlijk de doorligplekken op de lucht zetten.
103
00:06:10,220 --> 00:06:12,880
En dat is ook een heel belangrijk punt. - Ja, ik vind het ook heel belangrijk.
104
00:06:12,880 --> 00:06:19,000
komt op één stuk uit, dan is het risico gewoon aanwezig dat je zo'n doorlig plek ontwikkelt.
105
00:06:19,000 --> 00:06:24,840
En als je dat ontwikkelt, dan heeft dat zorg nodig. Dan moeten natuurlijk de artsen erbij,
106
00:06:24,840 --> 00:06:30,080
de wondverpleegkundigen. Je ligt gewoon langer. Het is gewoon een hele vervelende wond. Het doet gewoon
107
00:06:30,080 --> 00:06:36,120
pijn. Je moet het draaien of anders liggen, terwijl je al een beetje zwak bent. Het is geen
108
00:06:36,120 --> 00:06:40,880
kliniek-specifieke aandoening. Maar wel bijna iedereen in het ziekenhuis kan er last van hebben.
109
00:06:40,880 --> 00:06:47,360
Ja, dus het is een heel waardevol model als het zo direct gaat werken.
110
00:06:47,360 --> 00:06:55,840
Ja, zeker. Dit is een idee dat kwam ook, dat was niet ons idee, het kwam vanuit de kliniek zelf.
111
00:06:55,840 --> 00:07:02,840
Dit is gewoon een groep die de verantwoordelijkheid heeft om de decubitus in de gaten te houden.
112
00:07:02,840 --> 00:07:06,840
En verpleegkundigen voor te lichten, hoe doe je interventies en preventie.
113
00:07:06,840 --> 00:07:12,000
En die zagen dat de hoeveelheid decubitus gewoon de verkeerde kant op ging.
114
00:07:12,000 --> 00:07:13,000
Het was gewoon meer.
115
00:07:13,000 --> 00:07:16,880
En daar maakten ze zich terecht ook een beetje zorgen om.
116
00:07:16,880 --> 00:07:17,880
Ja, zeker.
117
00:07:17,880 --> 00:07:18,880
We moeten hier iets mee.
118
00:07:18,880 --> 00:07:21,600
Ze hadden al meerdere dingen geprobeerd.
119
00:07:21,600 --> 00:07:23,320
Sommige dingen hielpen wel, sommige niet.
120
00:07:23,320 --> 00:07:29,000
Maar ze dachten, volgens mij was het gewoon letterlijk, iemand in de lift sprak ons aan,
121
00:07:29,000 --> 00:07:31,200
kunnen we niet iets met haar doen?
122
00:07:31,200 --> 00:07:34,680
Kunnen we niet een model ontwikkelen om hierbij te helpen?
123
00:07:34,680 --> 00:07:38,040
Dus dan is het veel meer de vraag of je het model goed genoeg kan krijgen.
124
00:07:38,040 --> 00:07:41,400
En in dit project kunnen we de data ook echt vinden.
125
00:07:41,400 --> 00:07:43,400
Dat is ook een van de dingen die we in de projecten doen.
126
00:07:43,400 --> 00:07:45,400
En dat is ook een van de dingen die we in de projecten doen.
127
00:07:45,400 --> 00:07:47,400
En dat is ook een van de dingen die we in de projecten doen.
128
00:07:47,400 --> 00:07:49,400
En dat is ook een van de dingen die we in de projecten doen.
129
00:07:49,400 --> 00:07:51,400
En dat is ook een van de dingen die we in de projecten doen.
130
00:07:51,400 --> 00:07:53,400
En dat is ook een van de dingen die we in de projecten doen.
131
00:07:53,400 --> 00:07:55,400
En dat is ook een van de dingen die we in de projecten doen.
132
00:07:55,400 --> 00:07:57,400
En dat is ook een van de dingen die we in de projecten doen.
133
00:07:57,400 --> 00:07:59,400
En dat is ook een van de dingen die we in de projecten doen.
134
00:07:59,400 --> 00:08:01,400
En dat is ook een van de dingen die we in de projecten doen.
135
00:08:01,400 --> 00:08:04,400
En in dit project vooral kunnen we de data ook echt vinden.
136
00:08:04,400 --> 00:08:06,400
Dat was hier echt een groot probleem.
137
00:08:06,400 --> 00:08:10,400
- Oh ja. Want dat is dan technisch hè, kun je de data vinden.
138
00:08:10,400 --> 00:08:14,400
Zaten er ook nog andere aspecten aan?
139
00:08:14,400 --> 00:08:18,400
Want bij die andere benadrukte je echt zo van, ja, daar zit je niet in de patiëntenzorg.
140
00:08:18,400 --> 00:08:23,400
Dus dat betekende dat het in die zin makkelijker is qua regulering en dat soort zaken.
141
00:08:23,400 --> 00:08:28,400
Zitten hier nou echt veranderingen, andere dingen waar jullie rekening mee houden...
142
00:08:28,400 --> 00:08:30,400
dan ten opzichte van die andere modellen?
143
00:08:30,400 --> 00:08:36,400
Ja, zeker. Voor directe patiëntenzorg moet je door de zogeheten Medical Device Regulation,
144
00:08:36,400 --> 00:08:45,560
de MDR, om het even kort te houden. En dat is eigenlijk gewoon wettelijke checks en documentatie
145
00:08:45,560 --> 00:08:51,880
waar je doorheen moet om te laten zien dat het impact op de patiënt en eigenlijk vooral ook
146
00:08:51,880 --> 00:08:56,560
het risico dat dat geminimaliseerd is. Dus de impact moet natuurlijk een positief impact hebben,
147
00:08:56,560 --> 00:08:59,560
En de risico's moeten ingedekt zijn.
148
00:08:59,560 --> 00:09:02,560
Dus bijvoorbeeld bij Notion, ook bij ontslag,
149
00:09:02,560 --> 00:09:05,560
de risico's van een foute actie op basis van je model,
150
00:09:05,560 --> 00:09:09,560
of de impact van een foute actie, is niet zo heel erg groot.
151
00:09:09,560 --> 00:09:12,560
Maar bijvoorbeeld bij de decubitus, als een model zegt,
152
00:09:12,560 --> 00:09:17,560
dit is een laag risicopatiënt, en een week later heeft hij de decubitus ontwikkeld.
153
00:09:17,560 --> 00:09:19,560
Ja, dat is een probleem.
154
00:09:19,560 --> 00:09:24,560
Daar moet je veel strakker zijn en veel hogere eisen stellen aan je model.
155
00:09:24,560 --> 00:09:30,560
aan je model, eigenlijk niet alleen de model, maar ook hoe je het werkproces inricht,
156
00:09:30,560 --> 00:09:33,560
dat moet gewoon een veel hogere eisen voldoen.
157
00:09:33,560 --> 00:09:36,560
Je moet meer checks doen, je moet meer documentatie doen.
158
00:09:36,560 --> 00:09:38,560
Het kost gewoon veel meer tijd, eigenlijk.
159
00:09:38,560 --> 00:09:45,560
En ik snap het ook wel, maar ja, het kost wel heel veel tijd om dat allemaal voor elkaar te krijgen.
160
00:09:45,560 --> 00:09:50,560
Bij zo'n type model is daar uitlegbaarheid ook een factor, of niet?
161
00:09:50,560 --> 00:09:55,200
Dus is het alleen het bepalen van het risico en op basis daarvan wordt de actie ondernomen?
162
00:09:55,200 --> 00:09:57,800
Of moet je ook weten hoe het model geredeneerd heeft,
163
00:09:57,800 --> 00:10:00,800
zodat je misschien hele specifieke acties nog zou kunnen ondernemen?
164
00:10:00,800 --> 00:10:03,720
Ja, dit is een vraag waar we wel veel mee hebben geworsteld.
165
00:10:03,720 --> 00:10:05,160
Hoe gaan we dit nou precies doen?
166
00:10:05,160 --> 00:10:09,280
Want aan de ene kant hadden we...
167
00:10:09,280 --> 00:10:12,200
Een standpunt dat je kan innemen is, oké, we hebben het model.
168
00:10:12,200 --> 00:10:15,400
We hebben op een of andere manier aangetoond dat het een betere inschatting geeft
169
00:10:15,400 --> 00:10:17,880
dan de huidige verpleegkundige staf, gemiddeld genomen.
170
00:10:17,880 --> 00:10:23,600
Dus in principe als je hier op vaart, dan zou het beter moeten werken.
171
00:10:23,600 --> 00:10:25,720
Dat is natuurlijk heel makkelijk zeggen.
172
00:10:25,720 --> 00:10:32,720
En we merken dat heel veel zorgpersoneel, verpleegkundigen en artsen, die willen heel
173
00:10:32,720 --> 00:10:33,720
graag weten waarom.
174
00:10:33,720 --> 00:10:39,560
En dat snap ik ook wel, want je bent verantwoordelijk voor een patiënt en een model zegt tegen
175
00:10:39,560 --> 00:10:41,760
je, je moet nu intuïties gaan doen.
176
00:10:41,760 --> 00:10:42,760
Waarom dan?
177
00:10:42,760 --> 00:10:45,520
Ik vind dit helemaal geen hoog risicopatiënt.
178
00:10:45,520 --> 00:10:48,800
En dan raken ze wel wantrouwig.
179
00:10:48,800 --> 00:10:52,520
Vooral als ze het idee hebben dat het model toch niet zo goed is als wij zeggen.
180
00:10:52,520 --> 00:11:00,120
Dus daar loop je wel tegen problemen aan als je gewoon de voorspelling oplegt.
181
00:11:00,120 --> 00:11:03,400
Aan de andere kant, als je een volledige uitleg geeft...
182
00:11:03,400 --> 00:11:07,600
van hoe het model tot zijn keuze is gekomen bij elke losse patiënt...
183
00:11:07,600 --> 00:11:11,200
dan begint de staf ook bepaalde verbanden te leggen die niet klopt.
184
00:11:11,320 --> 00:11:13,320
Dus dat is de hele andere kant.
185
00:11:13,320 --> 00:11:15,320
Dat je bij elke patiënt helemaal uitgeeft,
186
00:11:15,320 --> 00:11:20,320
oké, deze feature had dit gewicht en was zo belangrijk voor deze voorspelling.
187
00:11:20,320 --> 00:11:22,320
Dat heeft dan ook weer zo zijn nadelen.
188
00:11:22,320 --> 00:11:25,320
Dan gaat het met zijn eigen leven leiden.
189
00:11:25,320 --> 00:11:27,320
Ze willen het ook niet te transparant maken.
190
00:11:27,320 --> 00:11:28,320
- Oh ja, grappig.
191
00:11:28,320 --> 00:11:30,320
- Dat was een lastige balans,
192
00:11:30,320 --> 00:11:32,320
waar ik nog steeds wel een beetje mee zit.
193
00:11:32,320 --> 00:11:34,320
Maar het is ook een heel belangrijk punt.
194
00:11:34,320 --> 00:11:36,320
- Ja, dat is ook een belangrijk punt.
195
00:11:36,320 --> 00:11:38,320
- Ja, dat is ook een belangrijk punt.
196
00:11:38,320 --> 00:11:41,760
En het was een lastige balans waar we nog steeds wel een beetje mee zitten.
197
00:11:41,760 --> 00:11:47,320
Want sommigen die, ik denk vooral mensen uit juristen en zo,
198
00:11:47,320 --> 00:11:49,800
die neigen heel erg naar gewoon echt volledige uitlegbaarheid.
199
00:11:49,800 --> 00:11:50,320
Ja.
200
00:11:50,320 --> 00:11:52,720
En veel artsen en verpleegkundigen willen ook graag meer uitlegbaarheid,
201
00:11:52,720 --> 00:11:54,360
want ze begrijpen waarom er dan iets zegt.
202
00:11:54,360 --> 00:11:54,880
Ja.
203
00:11:54,880 --> 00:11:56,160
Maar wij zijn er toch iets willen...
204
00:11:56,160 --> 00:11:57,440
Het is terughoudend. Oh ja.
205
00:11:57,440 --> 00:11:58,960
...dat we het dan niet teveel uitleggen.
206
00:11:58,960 --> 00:11:59,480
Ja.
207
00:11:59,480 --> 00:12:01,020
Dan gaan ze echt...
208
00:12:01,020 --> 00:12:04,200
De kans op verkeerde verbanden leggen is dan te groot.
209
00:12:04,200 --> 00:12:06,960
Dus we zitten nu een beetje ertussenin.
210
00:12:07,640 --> 00:12:10,080
Zo hebben we het nu gedaan bij de Q-tips-model.
211
00:12:10,080 --> 00:12:14,640
We geven alle patiënten de risicoscore.
212
00:12:14,640 --> 00:12:19,120
Met de afspraak dat als die boven een bepaalde grens is,
213
00:12:19,120 --> 00:12:21,980
dan is het al de bedoeling dat ze daar op handelen.
214
00:12:21,980 --> 00:12:24,840
Maar bij elke patiënt kunnen ze ook...
215
00:12:24,840 --> 00:12:31,400
We hebben niet per patiënt, maar voor het model hebben we uitleg gegeven
216
00:12:31,400 --> 00:12:35,360
van met een hogere leeftijd heb je gemiddeld een hoger risico.
217
00:12:35,360 --> 00:12:36,380
- Oh, zo ja.
218
00:12:36,400 --> 00:12:41,400
met een hogere ADL, dus algemene dagelijkse leef...
219
00:12:41,400 --> 00:12:46,400
Hoe mobiel je bent, hoe makkelijk je je eigen onthoud kan doen.
220
00:12:46,400 --> 00:12:49,400
Hoe hoger die score is, hoe hoger je risico.
221
00:12:49,400 --> 00:12:54,400
Op die manier geven we algemene trends van het model, maar niet op patiëntniveau.
222
00:12:54,400 --> 00:12:59,400
Nee, precies. Dus eigenlijk het globale model, die leg je uit,
223
00:12:59,400 --> 00:13:02,400
maar niet de individuele voorspelling.
224
00:13:02,400 --> 00:13:09,400
Dat geeft de staf het vertrouwen dat het model weet waar hij het over heeft.
225
00:13:09,400 --> 00:13:13,400
Dat hij niet allemaal onzin loopt te verkondigen.
226
00:13:13,400 --> 00:13:20,400
Maar ook dat ze niet elke keer helemaal kapot staren op die specifieke patiënt en wat het model voor die patiënt heeft gedaan.
227
00:13:20,400 --> 00:13:21,400
Oh ja, mooi.
228
00:13:21,400 --> 00:13:25,400
Ja, begrijpen hoe zo'n model werkt is voor ons data scientist soms wel lastig.
229
00:13:25,400 --> 00:13:27,400
Wat doet dit model nou precies?
230
00:13:27,400 --> 00:13:28,800
Wat doet dit model nou precies?
231
00:13:28,800 --> 00:13:31,120
Dus dat wil ik ook niet van verpleegkundigen of van een arts verwachten,
232
00:13:31,120 --> 00:13:34,160
dat zij dat ook goed kunnen inschatten bij elke voorspelling.
233
00:13:34,160 --> 00:13:38,400
Nee, maar bij sommige modellen is het natuurlijk wel van heel erg belang.
234
00:13:38,400 --> 00:13:45,120
Wij hebben bijvoorbeeld gewerkt aan het voorspellen voor trombose patiënten,
235
00:13:45,120 --> 00:13:47,160
om te kijken of het risico is op een bloeding.
236
00:13:47,160 --> 00:13:54,200
Nou, per patiënt wil je precies weten wat uiteindelijk het effect is geweest van een bepaalde feature.
237
00:13:54,200 --> 00:13:58,700
Omdat je op basis daarvan uiteindelijk een besluit moet gaan nemen wat je daarmee gaat doen.
238
00:13:58,700 --> 00:14:00,960
Ik kan het van jullie inderdaad heel goed voorstellen.
239
00:14:00,960 --> 00:14:07,200
Op een globaal niveau weten ze van stel dat er uit zou komen dat iemand die heel mobiel is,
240
00:14:07,200 --> 00:14:11,840
dat dat een heel hoog risico is, dat je dan zegt, ja maar dat klopt niet met de werkelijkheid.
241
00:14:11,840 --> 00:14:15,600
Dus daar kan je dan op ingrijpen als niet technici.
242
00:14:15,600 --> 00:14:23,600
Terwijl je inderdaad zegt van ja maar we willen niet dat ze als zelf helemaal dat mentale model in hun hoofd krijgen.
243
00:14:23,600 --> 00:14:28,320
Wij gaan er juist fouten in maken, omdat die patronen eigenlijk complexer zijn...
244
00:14:28,320 --> 00:14:33,680
dan even op basis van 5, 6, 7 van dat soort features of zo...
245
00:14:33,680 --> 00:14:35,200
dat er aan elkaar zit te knopen.
246
00:14:35,200 --> 00:14:38,840
Ja, precies. De kracht van zo'n model komt juist uit...
247
00:14:38,840 --> 00:14:42,960
dat die hele gekke verbanden tussen heel veel verschillende parameters kan leggen.
248
00:14:42,960 --> 00:14:44,160
Ja, en heel fijnmazig.
249
00:14:44,160 --> 00:14:47,320
Ja, precies. Dus je wil niet dat mensen dat gaan proberen te reproduceren.
250
00:14:47,320 --> 00:14:48,840
Dat moet je gewoon aan het model laten.
251
00:14:48,840 --> 00:14:52,160
Maar we willen ze wel een beetje tegemoet komen...
252
00:14:52,160 --> 00:14:57,760
Want ik snap eigenlijk heel goed dat als je zo verantwoordelijk bent voor de gezondheid van iemand,
253
00:14:57,760 --> 00:15:01,340
dat je een weloverhoge keuze kan maken.
254
00:15:01,340 --> 00:15:06,460
Dus ook hoe wij de voorspreiding presenteren is altijd als beslissingsondersteuning.
255
00:15:06,460 --> 00:15:09,260
Dus we zullen nooit echt de keuze voor ze maken.
256
00:15:09,260 --> 00:15:12,540
We geven alleen input voor de keuze.
257
00:15:12,540 --> 00:15:16,160
Dus dat de autonomie ook nog bij de zorgprofessional ligt.
258
00:15:16,160 --> 00:15:17,980
Dat het niet zomaar wordt overgenomen.
259
00:15:18,000 --> 00:15:22,760
Hier is het echt de AI versterkt de mens en het neemt het niet over.
260
00:15:22,760 --> 00:15:24,520
Ja, dat is wel het idee.
261
00:15:24,520 --> 00:15:29,960
Die symbiose daar spelen we op in.
262
00:15:29,960 --> 00:15:33,840
Ik denk dat het in de gezondheid, en ik geloof daar sowieso in,
263
00:15:33,840 --> 00:15:38,640
dat dat uiteindelijk een veel beter resultaat oplevert.
264
00:15:38,640 --> 00:15:41,640
Wat jij noemt die samenwerking tussen mens en machine,
265
00:15:41,640 --> 00:15:44,760
dan het overnemen of het blind volgen ervan.
266
00:15:44,760 --> 00:15:48,760
Dat is vooral, hier is onze eindgebruikers verpleegkundigen, die hebben heel veel met
267
00:15:48,760 --> 00:15:49,760
de patiënten te maken.
268
00:15:49,760 --> 00:15:52,760
Die zien heel veel de gemoedstoestanden van de patiënt.
269
00:15:52,760 --> 00:15:53,760
Hele, heel veel.
270
00:15:53,760 --> 00:15:54,760
Dus dat is een heel belangrijk aspect.
271
00:15:54,760 --> 00:15:55,760
En dan is er ook de technologie.
272
00:15:55,760 --> 00:15:56,760
Dat is ook een heel belangrijk aspect.
273
00:15:56,760 --> 00:15:57,760
En dan is er ook de technologie.
274
00:15:57,760 --> 00:15:58,760
En dan is er ook de technologie.
275
00:15:58,760 --> 00:15:59,760
En dan is er ook de technologie.
276
00:15:59,760 --> 00:16:00,760
En dan is er ook de technologie.
277
00:16:00,760 --> 00:16:01,760
En dan is er ook de technologie.
278
00:16:01,760 --> 00:16:02,760
En dan is er ook de technologie.
279
00:16:02,760 --> 00:16:03,760
En dan is er ook de technologie.
280
00:16:03,760 --> 00:16:04,760
En dan is er ook de technologie.
281
00:16:04,760 --> 00:16:05,760
En dan is er ook de technologie.
282
00:16:05,760 --> 00:16:06,760
En dan is er ook de technologie.
283
00:16:06,760 --> 00:16:07,760
En dan is er ook de technologie.
284
00:16:07,760 --> 00:16:10,960
gebruikers verpleegkundigen, die hebben heel veel met de patiënten te maken.
285
00:16:10,960 --> 00:16:13,840
Die zien heel veel de gemoedstoestanden van de patiënt.
286
00:16:13,840 --> 00:16:17,920
Hele lastig te vangen eigenschappen van de patiënt.
287
00:16:17,920 --> 00:16:18,920
Ja.
288
00:16:18,920 --> 00:16:20,920
Lastig in data te vangen tenminste.
289
00:16:20,920 --> 00:16:22,360
Helemaal niet geregistreerd.
290
00:16:22,360 --> 00:16:24,360
Die zien zij wel.
291
00:16:24,360 --> 00:16:26,840
Dus ik zou ook niet willen dat wij het helemaal overnemen.
292
00:16:26,840 --> 00:16:29,200
Want zij zien bepaalde dingen die wij gewoon niet zien in de data.
293
00:16:29,200 --> 00:16:31,960
Als de patiënt gewoon niet zo lekker in zijn vel zit,
294
00:16:31,960 --> 00:16:34,240
het staat nergens in de patiënten-dossier.
295
00:16:34,240 --> 00:16:35,760
Maar die verpleegkundigen weten dat.
296
00:16:35,760 --> 00:16:38,320
Of dat je het gewoon kan zien, dat je gewoon ziet van...
297
00:16:38,320 --> 00:16:42,080
...weet je, iemand ligt er gewoon beroerd bij.
298
00:16:42,080 --> 00:16:43,100
Ja, precies.
299
00:16:43,100 --> 00:16:45,360
Wij kunnen dat gewoon in één oogopslag zien.
300
00:16:45,360 --> 00:16:46,380
Ja.
301
00:16:46,380 --> 00:16:47,900
Vooral verpleegkundigen.
302
00:16:47,900 --> 00:16:52,640
We zijn een keer meegelopen om even te kijken hoe het nou in de praktijk gaat daar.
303
00:16:52,640 --> 00:16:53,660
Ja.
304
00:16:53,660 --> 00:16:56,280
Je ziet gewoon waar ze dan de hele dag mee bezig zijn.
305
00:16:56,280 --> 00:16:57,840
Het individueel, alle patiënten.
306
00:16:57,840 --> 00:17:00,920
Maar ze weten heel goed wat er aan de hand is en wat elke patiënt nodig heeft.
307
00:17:00,920 --> 00:17:04,160
Dat is gewoon hun vak, daar zijn ze super goed in.
308
00:17:04,160 --> 00:17:05,180
Ja.
309
00:17:05,200 --> 00:17:08,640
Dat is altijd een mooi beeld van wat er met de patiënt aan de hand is.
310
00:17:08,640 --> 00:17:10,480
Ja, en die twee heb je gewoon allebei nodig.
311
00:17:10,480 --> 00:17:12,200
Ik heb het wel eens andersom meegemaakt, hoor.
312
00:17:12,200 --> 00:17:16,280
Dat er zo naar de data werd gekeken dat eigenlijk de patiënt vergeten werd.
313
00:17:16,280 --> 00:17:18,680
En dat is dat degene waar het over ging, zeg maar.
314
00:17:18,680 --> 00:17:23,520
Die, ja, weet je, als wij daarnaar keken, zei je van, ja, die heeft enorm kort.
315
00:17:23,520 --> 00:17:25,920
En dus die lag te zweten.
316
00:17:25,920 --> 00:17:28,920
En nou ja, aan alles kan je zien, weet je, dat iemand kort had.
317
00:17:28,920 --> 00:17:31,440
Maar de thermometer op een of andere manier werkte niet goed.
318
00:17:31,440 --> 00:17:37,280
"Nee hoor, het is 36.2, dus nee, het patiënt heeft nergens last van."
319
00:17:37,280 --> 00:17:39,280
Dan zeggen ze "Nou..."
320
00:17:39,280 --> 00:17:44,160
Data zegt ook niet alles. Daarom heb je ze ook allebei juist zo nodig.
321
00:17:44,160 --> 00:17:47,560
Ja, het is beslissing en ondersteuning.
322
00:17:47,560 --> 00:17:50,600
En we zijn ook bezig met beleid rondom AI-vastechten.
323
00:17:50,600 --> 00:17:53,400
Hoe gebruik je het nou? Het is altijd de autonomie van de zorglener.
324
00:17:53,400 --> 00:17:56,000
Dat staat wel centraal. Die blijft erin.
325
00:17:56,000 --> 00:17:59,800
En dat is niet alleen maar omdat het fijn is voor de zorgprofessional,
326
00:17:59,800 --> 00:18:05,800
maar ook omdat het heel belangrijk is, omdat zij bepaalde dingen kunnen vangen die wij niet in ons model hebben zitten.
327
00:18:05,800 --> 00:18:09,640
Ja, dat lijkt me heel logisch.
328
00:18:09,640 --> 00:18:18,320
We hebben ook een virtuele co-host en zij wil ook een vraag aan je stellen als dat mag.
329
00:18:18,320 --> 00:18:19,640
Ja, tuurlijk.
330
00:18:19,640 --> 00:18:21,640
[Muziek]
331
00:18:21,640 --> 00:18:23,640
[Muziek]
332
00:18:23,640 --> 00:18:25,640
[Muziek]
333
00:18:25,640 --> 00:18:27,640
[Muziek]
334
00:18:27,640 --> 00:18:29,640
[Muziek]
335
00:18:29,640 --> 00:18:31,640
[Muziek]
336
00:18:31,640 --> 00:18:33,640
[Muziek]
337
00:18:33,640 --> 00:18:35,640
[Muziek]
338
00:18:35,640 --> 00:18:37,640
[Muziek]
339
00:18:37,640 --> 00:18:39,640
Het is mij een genoegen je hier te verwelkomen.
340
00:18:39,640 --> 00:18:43,640
Mijn naam is Aisha, de AI van deze podcast.
341
00:18:41,640 --> 00:18:43,640
Mag ik je een vraag stellen?
342
00:18:43,640 --> 00:18:45,640
Mag ik je een vraag stellen?
343
00:18:45,640 --> 00:18:47,640
Ja, natuurlijk
344
00:18:47,640 --> 00:18:51,720
Wat is volgens jou de grootste misvatting over AI in de media?
345
00:18:51,720 --> 00:18:55,920
Oeh, ja, dat is wel een goede vraag, ja.
346
00:18:55,920 --> 00:18:56,920
Ja, hè?
347
00:18:56,920 --> 00:19:02,720
Ik denk dat er een bepaald...
348
00:19:02,720 --> 00:19:07,400
Dat er een angst is dat AI van alles...
349
00:19:07,400 --> 00:19:09,880
Ja, we hebben het er een beetje over gehad, dat het van alles gaat overnemen.
350
00:19:09,880 --> 00:19:10,880
Ja.
351
00:19:10,880 --> 00:19:13,640
En dat we er geen grip meer op hebben en zo.
352
00:19:15,560 --> 00:19:18,220
Er wordt ook best wel gestimuleerd, dat idee.
353
00:19:18,220 --> 00:19:22,360
Dat soort koppen doen het goed.
354
00:19:22,360 --> 00:19:29,260
Waar het eventueel niet zo goed gaat, worden dat soort dingen er meteen ingegooid in de media.
355
00:19:29,260 --> 00:19:34,140
Ja, en ook een beetje de andere kant op, dat het alle problemen in één keer gaat oplossen.
356
00:19:34,140 --> 00:19:35,140
Dat zit er ook wel.
357
00:19:35,140 --> 00:19:38,340
Ik denk dat dat eigenlijk wel een grotere misvalt, denk ik.
358
00:19:40,940 --> 00:19:46,540
Er zijn natuurlijk heel veel problemen die we nog hebben in de maatschappij.
359
00:19:46,540 --> 00:19:50,540
Soms wordt het gepresenteerd van, nou we hebben AI, en vooral nu met de generatieve AI.
360
00:19:50,540 --> 00:19:51,560
Ja.
361
00:19:51,560 --> 00:19:53,080
Alle problemen worden opgelost.
362
00:19:53,080 --> 00:19:56,020
Precies. We honger de wereld uit.
363
00:19:56,020 --> 00:19:57,040
Ja.
364
00:19:57,040 --> 00:19:58,960
Dat soort, geen oorlog meer.
365
00:19:58,960 --> 00:20:02,800
Terwijl ik denk dat bijna elke nieuwe technologie,
366
00:20:02,800 --> 00:20:05,840
het is niet zozeer de technologie, maar het is meer hoe je hem gebruikt.
367
00:20:05,840 --> 00:20:06,860
Ja.
368
00:20:06,860 --> 00:20:07,880
Hoe je hem inzet.
369
00:20:08,900 --> 00:20:13,580
Want ook, wat zien we ook wel is, dat problemen die mensen ervaren in het ziekenhuis,
370
00:20:13,580 --> 00:20:19,260
het is soms, soms komen ze naar ons toe, kunnen we hier niet gewoon AI voor gebruiken
371
00:20:19,260 --> 00:20:20,260
om het probleem te lossen?
372
00:20:20,260 --> 00:20:24,540
Maar dan heb ik al zo'n intake gedaan, een beetje doorgegaan van waar is het probleem nou precies?
373
00:20:24,540 --> 00:20:30,020
Het probleem is niet iets wat je met AI oplost, het is gewoon standaard software of database
374
00:20:30,020 --> 00:20:32,380
of dingen waar allang de technologie voor is.
375
00:20:32,380 --> 00:20:37,180
Heel veel van de issues daar waar tegen aan lopen zijn, moet je juist op zo'n manier aanpakken.
376
00:20:37,180 --> 00:20:41,180
Dat je niet overgooit en maar AI tegenaan, want het is allemaal heel geweldig.
377
00:20:41,180 --> 00:20:42,880
Ja, het is geen toverstokje.
378
00:20:42,880 --> 00:20:44,880
Nee, precies. Het is geen toverstokje.
379
00:20:44,880 --> 00:20:49,780
En er zit gewoon heel veel werk aan om het uiteindelijk, als het wel ermee zou kunnen,
380
00:20:49,780 --> 00:20:52,480
om het ook gewoon goed te krijgen, toch?
381
00:20:52,480 --> 00:20:54,180
Ja, dat is ook zeker een heel goed punt, ja.
382
00:20:54,180 --> 00:20:56,180
Veel mensen denken van, nou het is zelflerend.
383
00:20:56,180 --> 00:21:01,180
Je geeft gewoon data en dan haal je daar vanzelf wel uit,
384
00:21:01,180 --> 00:21:03,180
alsof het een of ander magisch iets is.
385
00:21:03,180 --> 00:21:04,180
Ja, precies.
386
00:21:04,180 --> 00:21:09,780
Het hele pakketje eromheen, of technisch of werkprocespakketje,
387
00:21:09,780 --> 00:21:12,400
dat wordt nogal eens vergeten.
388
00:21:12,400 --> 00:21:16,980
Ik waardeer je deskundige uitleg, dank je wel.
389
00:21:16,980 --> 00:21:18,300
Graag gedaan.
390
00:21:18,300 --> 00:21:20,300
Ja, daar moet ik me wel bij aansluiten.
391
00:21:20,300 --> 00:21:25,400
Wat ik wel grappig vind, je gaf aan van ik heb geen data science-achtergrond,
392
00:21:25,400 --> 00:21:27,500
je komt uit de natuurkunde.
393
00:21:27,500 --> 00:21:30,800
Wat heb je nou vanuit de natuurkunde meegenomen,
394
00:21:30,840 --> 00:21:36,640
Wat jou een andere data scientist maakt dan iemand die dat wel gestudeerd heeft?
395
00:21:36,640 --> 00:21:41,960
Dat zou ik eigenlijk aan mijn collega's moeten vragen.
396
00:21:41,960 --> 00:21:44,560
Ik kan wel even...
397
00:21:44,560 --> 00:21:51,040
Ik denk dat, vooral omdat ik theoretisch natuurlijke hebben gedaan,
398
00:21:51,040 --> 00:21:53,240
geeft mij...
399
00:21:53,240 --> 00:21:57,520
Daar word je heel erg in getraind om ook heel abstract en heel wiskundig na te denken.
400
00:21:57,560 --> 00:22:06,240
Dus ik merk dat ik een goed beeld heb van hoe data nou precies in elkaar zitten.
401
00:22:06,240 --> 00:22:07,240
- Oh ja.
402
00:22:07,240 --> 00:22:11,000
- De datastromen en wat nou precies waar en alle condities,
403
00:22:11,000 --> 00:22:16,760
dat ik een goed beeld heb van, oké, we hebben in ons data set nu patiënten die voor deze data,
404
00:22:16,760 --> 00:22:19,520
maar na die data zijn opgenomen en over die grenzen.
405
00:22:19,520 --> 00:22:26,840
Dus heel veel van dat soort abstracte, de logica uitdenken en de gevolgen daarvan op data.
406
00:22:26,840 --> 00:22:28,840
Dus vooral dat abstractieiveau, zeg maar.
407
00:22:28,840 --> 00:22:34,040
Ik merk dat ik daar goed een beeld van kan maken in mijn hoofd.
408
00:22:34,040 --> 00:22:38,640
Omdat, ja, als je de theorieën weet, dan moet je gewoon heel abstract nadenken.
409
00:22:38,640 --> 00:22:42,840
Het zijn wel Foubidus en X en Y en onbekende dingen.
410
00:22:42,840 --> 00:22:46,440
Dus daar moet je heel goed in gedachten houden.
411
00:22:46,440 --> 00:22:49,840
Wat gebeurt er met de logica die je hier nu opzet?
412
00:22:49,840 --> 00:22:54,440
Ja, want uiteindelijk, die modellen zijn natuurlijk ook een abstractie van de werkelijkheid.
413
00:22:54,440 --> 00:22:57,440
Dus het gaat ook heel veel over abstractie natuurlijk.
414
00:22:57,440 --> 00:23:00,440
Ja, maar wel nog steeds de link met waar komt het ook echt vandaan.
415
00:23:00,440 --> 00:23:05,440
Dus je hebt de data uiteindelijk van patiënten opgenomen tussen die en die data.
416
00:23:05,440 --> 00:23:09,440
En dan hoe dat daarna door je hele dataverwerking tot aan het model gaat.
417
00:23:09,440 --> 00:23:14,440
Er zit een heel pad in die je voor je data maakt, die heel lang kan worden ook.
418
00:23:14,440 --> 00:23:17,440
Vooral als je hele rommelige data hebt zoals wij hebben.
419
00:23:17,440 --> 00:23:23,440
Er zit gewoon een heel ingewikkeld pad aan vast die verschillende, met heel veel zijpaden natuurlijk.
420
00:23:23,440 --> 00:23:26,720
En om dat een beetje naar een mindmap van te houden,
421
00:23:26,720 --> 00:23:29,240
ik merk dat dat mij wel goed afgaat.
422
00:23:29,240 --> 00:23:30,240
Ja, cool.
423
00:23:30,240 --> 00:23:31,960
En heb je nog een droom, zeg maar,
424
00:23:31,960 --> 00:23:34,240
voor wat je zou willen doen binnen dit ziekenhuis?
425
00:23:34,240 --> 00:23:39,160
Ja, wat ik heel graag zou willen,
426
00:23:39,160 --> 00:23:43,440
is dat waar we met AI in,
427
00:23:43,440 --> 00:23:47,200
ik weet niet alleen in de zorg, maar in ieder geval in de zorg,
428
00:23:47,200 --> 00:23:49,680
waar we echt last van hebben, is die implementation gap.
429
00:23:49,680 --> 00:23:52,040
Dat probleem, we hebben het al over gehad,
430
00:23:52,040 --> 00:23:55,040
maar door het veel ontwikkeld, maar door het weinig gebruikt.
431
00:23:55,040 --> 00:23:59,040
Dat vind ik heel zonde.
432
00:23:59,040 --> 00:24:05,540
Want het is allemaal tijd en moeite die uiteindelijk tot niks komt.
433
00:24:05,540 --> 00:24:08,040
En de zorg heeft het hard nodig.
434
00:24:08,040 --> 00:24:12,040
De zorg heeft gewoon hulp nodig om het betaalbaar te houden
435
00:24:12,040 --> 00:24:17,040
en de capaciteit beschikbaar te houden,
436
00:24:17,040 --> 00:24:19,040
om die zorg te leveren die nodig is.
437
00:24:20,040 --> 00:24:25,920
En AI is niet de panacea die het helemaal goed oplost, maar het kan zeker wel het bijdragen.
438
00:24:25,920 --> 00:24:27,720
Want we krijgen een hefboom, hè?
439
00:24:27,720 --> 00:24:33,320
De vergrijzing zorgt dat er meer mensen uiteindelijk zorg nodig hebben.
440
00:24:33,320 --> 00:24:35,960
En aan de onderkant hebben we minder mensen die de zorg kunnen leveren.
441
00:24:35,960 --> 00:24:40,320
Precies, ja. En dat versterkt elkaar ook een beetje, want je krijgt minder personeel.
442
00:24:40,320 --> 00:24:43,280
Dus je krijgt meer druk op wat wel nog steeds is.
443
00:24:43,280 --> 00:24:46,680
En die gaat dan ook weer sneller weg, want de druk is gewoon ontzettend hoog.
444
00:24:46,700 --> 00:24:50,140
Dus het is een beetje een vicieuze cirkel wat dat betreft.
445
00:24:50,140 --> 00:24:54,060
Dus ja, daar willen we graag wat mee.
446
00:24:54,060 --> 00:24:59,860
Maar ik wil graag inzetten, in ieder geval in het Erasmus, maar eigenlijk ook op reden van...
447
00:24:59,860 --> 00:25:04,140
...kunnen we dit, we kunnen eigenlijk echt als we dat goed aanpakken, kunnen we er echt wat mee?
448
00:25:04,140 --> 00:25:08,100
We kunnen moeite besparen, we kunnen capaciteit besparen, we kunnen geld besparen,
449
00:25:08,100 --> 00:25:10,980
we kunnen de zorg slimmer maken.
450
00:25:10,980 --> 00:25:14,020
Maar dan moeten we wel even het slim aanpakken.
451
00:25:14,020 --> 00:25:18,020
We moeten het goed doen, we moeten goede processen hebben, we moeten goed beleid hebben ook.
452
00:25:18,020 --> 00:25:22,020
We moeten het natuurlijk ook op een ethische manier doen.
453
00:25:22,020 --> 00:25:26,020
We moeten ervoor zijn dat we niet verkeerde profilering dingen aan gaan doen enzo.
454
00:25:26,020 --> 00:25:30,020
We kunnen het, maar we moeten het wel even goed aanpakken.
455
00:25:30,020 --> 00:25:35,020
U merkt nu dat dat omslagpunt begint nu te komen in de zorg.
456
00:25:35,020 --> 00:25:39,020
We zijn in contact met andere ziekenhuizen die tegen hetzelfde probleem aanlopen.
457
00:25:39,020 --> 00:25:42,020
Er wordt veel gemaakt, er wordt weinig gebruikt.
458
00:25:42,020 --> 00:25:47,620
Dus dan zijn we nu echt in gesprek over wat de barrières zijn en hoe we die weg kunnen nemen.
459
00:25:47,620 --> 00:25:52,540
Hoe kunnen we de expertise in een ziekenhuis combineren en centraliseren,
460
00:25:52,540 --> 00:25:58,740
zodat we alle onderzoekers, want er worden in onderzoek vooral heel veel mooie modellen gemaakt,
461
00:25:58,740 --> 00:26:01,700
maar voor hen is het heel lastig om het dan ook te implementeren.
462
00:26:01,700 --> 00:26:04,700
Dat is heel logisch, want het is een heel ander vak geld.
463
00:26:04,700 --> 00:26:08,900
Maar dan wil je ze wel de middelen geven om die stap makkelijker te kunnen zetten.
464
00:26:08,900 --> 00:26:13,900
En daar zijn we dus nu ook mee bezig om de processen voor te ontwikkelen en ook de technische
465
00:26:13,900 --> 00:26:14,900
infrastructuur.
466
00:26:14,900 --> 00:26:16,220
Dat is ook een heel belangrijk punt.
467
00:26:16,220 --> 00:26:19,740
Dat je de juiste technische templates ook voor ze kan neerzetten.
468
00:26:19,740 --> 00:26:22,820
Dat ze niet heel veel moeite hoeven te doen om iets in productie te zetten.
469
00:26:22,820 --> 00:26:26,740
Dat is ook weer iets anders dan je model ontwikkelen.
470
00:26:26,740 --> 00:26:27,740
Absoluut.
471
00:26:27,740 --> 00:26:32,300
Als je daar gewoon iets moois voor kan neerzetten, dat heel gebruiksvriendelijk is.
472
00:26:32,300 --> 00:26:34,500
Dan kan je dat soort onderzoekers ook heel erg helpen.
473
00:26:34,500 --> 00:26:36,740
Want die willen ook heel graag hun modellen in de praktijk zien.
474
00:26:36,740 --> 00:26:38,420
Maar ze weten vaak ook niet hoe.
475
00:26:38,420 --> 00:26:49,420
Ja mooi. Wat ik uit de twee gesprekken haal is vooral het optimisme van wat het allemaal kan betekenen in de zorg.
476
00:26:49,420 --> 00:26:51,420
En dat jullie het ook gewoon echt voor elkaar hebben.
477
00:26:51,420 --> 00:26:55,420
Dat is ook de reden waarom we je hadden uitgenodigd voor de podcast.
478
00:26:55,420 --> 00:27:01,420
Juist om te zien, het kan ook gewoon met hele mooie dingen.
479
00:27:01,420 --> 00:27:07,420
Eigenlijk de vraag die net gesteld werd, een beetje misverstanden, daar wordt heel veel over gesproken.
480
00:27:07,420 --> 00:27:11,100
En wat ik soms wel eens mis is juist dit soort voorbeelden.
481
00:27:11,100 --> 00:27:14,420
Weet je, waar hebben we daar juist zoveel plezier van?
482
00:27:14,420 --> 00:27:16,020
Waar kan het je helpen?
483
00:27:16,020 --> 00:27:20,420
En ik denk dat je daar heel inzicht in hebt gegeven.
484
00:27:20,420 --> 00:27:23,420
Niet alleen wat jullie hebben, maar waar je ook naartoe aan het groeien bent.
485
00:27:23,420 --> 00:27:26,820
Super bedankt voor deze twee gesprekken, Ben.
486
00:27:26,820 --> 00:27:27,620
Ja, graag gedaan.
487
00:27:27,620 --> 00:27:29,620
Het is optimisme met ook een beetje realisme.
488
00:27:29,620 --> 00:27:32,020
Jazeker, daar houden we van.
489
00:27:32,020 --> 00:27:38,620
Nee, want te optimistisch, daar moeten we niks mee.
490
00:27:38,620 --> 00:27:41,820
Optimistisch realistisch, dat is een mooi eind.
491
00:27:41,820 --> 00:27:42,820
Dank je wel.
492
00:27:42,820 --> 00:27:48,100
Leuk dat je weer luisterde.
493
00:27:48,100 --> 00:27:50,620
Mis geen aflevering van de AIToday Live.
494
00:27:50,620 --> 00:27:52,620
Zorg dat je je abonneert,
495
00:27:52,620 --> 00:27:53,980
of je je favoriete podcast hebt.
496
00:27:53,980 --> 00:27:55,340
Mis geen aflevering.
497
00:27:55,340 --> 00:27:57,340