AIToday Live

S07E17 - Wat als AI jouw nieren kan redden? Met nefroloog Martin de Borst

Aigency by Info Support Season 7 Episode 17

Martin de Borst, hoogleraar interne geneeskunde en nefroloog bij het UMCG, vertelt in de nieuwste aflevering van AIToday Live over AI-onderzoek naar vroege opsporing van nierschade. Hij bespreekt hoe geavanceerde voorspelmodellen de toekomst van niertransplantaties kunnen veranderen.

De Borst licht toe hoe zijn team AI-technieken inzet om grote hoeveelheden data te analyseren voor het vroeg detecteren van nierschade. Ook wordt gewerkt aan een voorspelmodel voor de kwaliteit en levensduur van donornieren.

Ethische vragen rond AI in de zorg komen aan bod, waarbij De Borst AI ziet als beslissingsondersteuning en niet als vervanging van de arts. Hij is optimistisch over de mogelijkheden van AI in de nefrologie en hoopt dat de ontwikkelde modellen breed toepasbaar worden.

Onderwerpen

  • AI-onderzoek naar vroege opsporing van nierschade
  • Impact van chronische nierschade op patiënten
  • Gebruik van AI voor voorspellingsmodellen bij niertransplantaties
  • Ethische vragen rondom AI in de gezondheidszorg
  • Toekomstperspectieven van AI in de nefrologie
Links

Genoemde entiteiten: UMCG

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:12,000
In deze aflevering hoor je Martin de Borst, hoogleraar interne geneeskunde en nefroloog bij het UMCG over baanbrekend AI-onderzoek naar vroege opsporing van nierschade.

2
00:00:13,000 --> 00:00:23,000
Hij onthult hoe geavanceerde voorspelmodellen en biomarkers de toekomst van niertransplantaties kunnen veranderen en patiënten een betere kwaliteit van leven kunnen bieden.

3
00:00:23,001 --> 00:00:29,200
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van de AIToday Live.

4
00:00:29,200 --> 00:00:33,020
Met mijn naam Niels Naglé Area Lead Data&AI bij Info Support.

5
00:00:33,020 --> 00:00:35,500
Mijn naam Joop Snijder, CTO bij Aigency.

6
00:00:35,500 --> 00:00:39,940
En zoals je hoort Niels, de stem is nog niet wat het wezen moet.

7
00:00:39,940 --> 00:00:42,680
De vaste luisteraar heeft misschien al eerder gehoord.

8
00:00:42,680 --> 00:00:49,000
Ik heb een naweeën van een influenza gecombineerd met een longontsteking en een keelontsteking.

9
00:00:49,000 --> 00:00:50,940
En dat doet dit dus met je stem.

10
00:00:52,140 --> 00:00:54,580
Maar goed, we doen het met wat we hebben.

11
00:00:54,580 --> 00:00:57,140
Inderdaad, en ik ben blij om je eigen stem weer te horen.

12
00:00:57,140 --> 00:00:59,120
Ik vond het mooi, de aflevering met ElevenLabs.

13
00:00:59,120 --> 00:01:03,720
Mocht je nog niet geluisterd hebben, is de short inderdaad die pas een tijdje terug live gegaan is.

14
00:01:03,720 --> 00:01:05,019
Dus luister hem ook zeker terug.

15
00:01:05,019 --> 00:01:08,440
Maar ik ben blij omdat je je eigen stem weer enigszins terug begint te krijgen, Joop.

16
00:01:08,440 --> 00:01:10,320
Daar ben ik heel blij mee.

17
00:01:10,320 --> 00:01:12,220
Dus welkom back with the voice.

18
00:01:12,220 --> 00:01:14,980
Maar we zitten hier weer gezellig met z'n drieën.

19
00:01:14,980 --> 00:01:17,840
En we hebben een hele speciale gast vandaag, Martin de Borst.

20
00:01:17,840 --> 00:01:21,280
Martin, zou je eerst jezelf even kort willen voorstaan aan onze luisteraars?

21
00:01:21,280 --> 00:01:22,100
Ja, zeker.

22
00:01:22,100 --> 00:01:22,620
Dank je wel.

23
00:01:22,620 --> 00:01:23,920
Ja, ik ben Martin de Borst.

24
00:01:23,920 --> 00:01:25,840
Ik ben internist en nefroloog.

25
00:01:25,840 --> 00:01:28,180
Dus dat betekent dat ik patiënten met nierziektes behandel.

26
00:01:28,180 --> 00:01:31,080
En met name ook patiënten na niertransplantatie.

27
00:01:31,880 --> 00:01:36,860
Ik werk in het UMCG in Groningen en ik ben daar ook hoogleraar interne geneeskunde.

28
00:01:36,860 --> 00:01:43,580
Ik doe veel onderzoek naar het ontstaan van nierziekten, vroege opsporing daarvan, maar ook nieuwe behandelmethodes.

29
00:01:44,440 --> 00:01:49,360
En ook naar hart- en vaatziekten die veel van onze patiënten krijgen, hoe je die kunt opsporen en behandelen.

30
00:01:49,360 --> 00:01:50,400
Dus daar doe ik veel onderzoek naar.

31
00:01:50,400 --> 00:01:57,920
Oké, en dat is dan denk ik ook de link naar AI, want kunstmatige intelligentie en de AIToday Live podcast, daar gaan we later nog op in.

32
00:01:57,920 --> 00:01:59,880
Maar ik denk goed om eerst even toe te lichten.

33
00:02:00,880 --> 00:02:04,240
Wat is daar het effect van bij mensen?

34
00:02:04,240 --> 00:02:09,979
Ja, ongeveer 10% van de bevolking in Nederland en ook wereldwijd krijgen te maken met chronische nierschade.

35
00:02:09,979 --> 00:02:11,560
Dus het komt eigenlijk best nog wel vaak voor.

36
00:02:11,560 --> 00:02:17,880
Het is iets wat veel mensen op oudere leeftijd treft, maar het kan zeker ook bij jongere mensen voorkomen.

37
00:02:17,880 --> 00:02:19,400
Bijvoorbeeld bij erfelijke nierziektes.

38
00:02:19,400 --> 00:02:22,360
En nou, dus 1 op de 10.

39
00:02:22,360 --> 00:02:24,120
Gelukkig krijgt niet iedereen nierfalen.

40
00:02:24,120 --> 00:02:28,140
Dus het eindstadium van de ziekte waarin je dialyse nodig hebt of een transplantatie.

41
00:02:29,060 --> 00:02:34,800
Dat is gelukkig maar een relatief klein deel, omdat er wel behandelingen zijn om de achteruitgang van de nierfunctie te vertragen.

42
00:02:34,800 --> 00:02:36,880
Maar helaas lukt dat nog niet bij alle patiënten.

43
00:02:36,880 --> 00:02:39,080
En dat is een van de dingen waar we natuurlijk druk mee bezig zijn.

44
00:02:39,080 --> 00:02:46,080
Om aan de ene kant mensen bewust te maken van het bestaan van chronische nierschade.

45
00:02:46,080 --> 00:02:48,320
Hoe je erachter kunt komen dat je het hebt.

46
00:02:48,320 --> 00:02:51,240
Want zeker in het beginstadium is het zonder klachten.

47
00:02:51,240 --> 00:02:55,700
Dus dan moet je echt een test doen, een bloedtest of een urinetest om erachter te komen.

48
00:02:56,200 --> 00:03:02,100
En anderzijds om die behandelingen beter te krijgen om de verdere achteruitgang van de nierfunctie zoveel mogelijk te beperken.

49
00:03:02,100 --> 00:03:03,760
Ja, en voor het gesprek.

50
00:03:03,760 --> 00:03:05,680
En want ik ben echt super blij dat je hier bent.

51
00:03:05,680 --> 00:03:07,200
Echt naar uitgekeken.

52
00:03:07,940 --> 00:03:10,800
Ik heb natuurlijk ook een persoonlijke relatie met dit onderwerp.

53
00:03:10,800 --> 00:03:13,900
Ik heb bijna vier jaar geleden zelf een niertransplantie gehad.

54
00:03:13,900 --> 00:03:16,160
De erfelijke variant, zoals jij net al aangaf.

55
00:03:16,160 --> 00:03:19,500
Dus vanaf jonge leeftijd wist ik dat dit ooit zou gebeuren.

56
00:03:19,500 --> 00:03:23,900
Dus ik ben ook heel erg benieuwd naar jouw verhaal.

57
00:03:23,900 --> 00:03:28,540
En wat jullie aan het doen zijn, zeg maar, om nierfalen op te sporen.

58
00:03:28,540 --> 00:03:30,500
En hoe AI daar uiteindelijk bij kan helpen.

59
00:03:31,160 --> 00:03:32,240
Ja, zeker.

60
00:03:32,240 --> 00:03:38,960
Dus we zien natuurlijk de laatste jaren dat steeds meer ook in het medische onderzoek AI een steeds grotere rol speelt.

61
00:03:38,960 --> 00:03:44,800
Dus om de grote hoeveelheden data die we eigenlijk al verzameld hebben in de afgelopen jaren, misschien wel tientallen jaren,

62
00:03:44,800 --> 00:03:47,140
om die op een betere manier te kunnen analyseren.

63
00:03:47,380 --> 00:03:55,560
Ja, zou je eerst kunnen aangeven wat betekent nierschade, nierfalen eigenlijk voor een mens als die dat krijgt, een patiënt?

64
00:03:55,560 --> 00:03:59,180
Ja, nou in dit vroege stadium zei ik net al een beetje merk je eigenlijk niet dat je het hebt.

65
00:03:59,180 --> 00:04:01,440
Dus dat is ook heel tricky eigenlijk.

66
00:04:01,440 --> 00:04:05,160
Want je kan jaren rondlopen met een verminderde nierfunctie zonder dat je er ergens hebt.

67
00:04:05,160 --> 00:04:07,080
Gaat dat nou verder achteruit?

68
00:04:07,080 --> 00:04:09,280
Want in principe is dat iets progressiefs.

69
00:04:09,280 --> 00:04:11,800
Dus het wordt steeds erger als je er niks aan doet.

70
00:04:11,800 --> 00:04:17,480
Dingen die je nog aan bij kunt dragen is bijvoorbeeld veel zout eten.

71
00:04:17,480 --> 00:04:19,700
In onze voeding zit best wel veel zout.

72
00:04:19,700 --> 00:04:23,640
Dus als je niet weet dat je lichaam daar gevoelig voor is, dan hou je daar ook geen rekening mee.

73
00:04:23,640 --> 00:04:26,440
En krijg je over het algemeen veel te veel zout binnen.

74
00:04:26,440 --> 00:04:29,560
Waardoor je bijvoorbeeld je bloeddruk omhoog kan gaan, wat ook weer slecht is voor je nieren.

75
00:04:29,560 --> 00:04:31,300
Maar ook rechtstreeks op de nieren zelf.

76
00:04:31,300 --> 00:04:36,400
En als dat dan verder gaat met dat verlies van je nierfunctie, dan op een gegeven moment begin je wel klachten te krijgen.

77
00:04:36,400 --> 00:04:41,560
En dan moet je denken aan bijvoorbeeld dikke enkels, vocht in je benen.

78
00:04:41,560 --> 00:04:43,860
Maar ook bijvoorbeeld vermoeidheid.

79
00:04:43,860 --> 00:04:45,760
Je kan bloedarmoede krijgen.

80
00:04:45,760 --> 00:04:47,140
Dus je ziet er bleker uit.

81
00:04:47,140 --> 00:04:51,120
Ja, en dat zijn klachten waarmee mensen dan vaak naar een huisarts gaan.

82
00:04:51,120 --> 00:04:52,760
En die doet een keer bloedonderzoek.

83
00:04:52,760 --> 00:04:56,020
En dan blijkt dat die nierfunctie helemaal ontregeld is.

84
00:04:56,020 --> 00:05:00,160
Ja, en dat kan zover gaan dat je uiteindelijk moet gaan dialyseren.

85
00:05:00,160 --> 00:05:04,140
En de dialyse is ook een hele grote impact op je leven.

86
00:05:04,140 --> 00:05:04,520
Enorm.

87
00:05:04,520 --> 00:05:08,220
Ja, want mensen moeten drie keer in de week vier uur lang aan een machine liggen.

88
00:05:08,220 --> 00:05:09,540
Dus dat is behoorlijk.

89
00:05:09,540 --> 00:05:12,680
Dat betekent eigenlijk drie dagen dat je volledig in beslag wordt genomen door je ziekte.

90
00:05:12,680 --> 00:05:15,060
Vaak hebben mensen ook echt weinig energie.

91
00:05:15,060 --> 00:05:19,700
Dus fatsoenlijk functioneren in de maatschappij is eigenlijk nauwelijks mogelijk.

92
00:05:19,700 --> 00:05:23,720
Er zijn aan de andere kant ook mensen die juist dat best nog wel goed kunnen volhouden.

93
00:05:23,720 --> 00:05:24,700
Dat varieert ook enorm.

94
00:05:25,780 --> 00:05:28,500
Maar veel mensen hebben er toch echt wel heel veel last van.

95
00:05:28,500 --> 00:05:31,800
En dan is een transplantatie een goede uitkomst.

96
00:05:31,800 --> 00:05:39,940
Waar ik heel erg van schrok in de voorlichting, ik ben ook over zo'n dialyse afdeling geleid en zo,

97
00:05:39,940 --> 00:05:45,740
is dat je eigenlijk maar een heel klein beetje extra nierfunctie krijgt van die dialyse.

98
00:05:45,740 --> 00:05:48,260
Daar had ik me eigenlijk niet bij gerealiseerd.

99
00:05:48,260 --> 00:05:49,160
Wat een klein beetje?

100
00:05:49,160 --> 00:05:50,140
Nou, ik had bijvoorbeeld...

101
00:05:50,140 --> 00:05:50,420
10%?

102
00:05:50,420 --> 00:05:51,080
Ja.

103
00:05:51,080 --> 00:05:54,480
Dat is ongeveer 10% nierfunctie die je zo'n apparaat kan bieden.

104
00:05:54,900 --> 00:05:57,240
Voor een hele beperkte tijd.

105
00:05:57,240 --> 00:05:58,900
Dus drie keer in de week.

106
00:05:58,900 --> 00:06:01,220
Dus je gaat bijvoorbeeld tot maandag wordt je gedialyseerd.

107
00:06:01,220 --> 00:06:03,460
Dan heb je op de dinsdag er profijt van.

108
00:06:03,460 --> 00:06:05,880
En op woensdag moet je weer, want dan is die alweer ingezakt.

109
00:06:05,880 --> 00:06:06,460
Ja.

110
00:06:06,460 --> 00:06:10,180
En is dat dan onafhankelijk van hoeveel procent je nieren nog werken?

111
00:06:10,180 --> 00:06:12,760
Ja, dat wordt erbij opgeteld eigenlijk.

112
00:06:12,760 --> 00:06:13,960
Dus als je van jezelf...

113
00:06:13,960 --> 00:06:18,260
Je moet meestal starten met dialyse als je nierfunctie onder de 10% is gekomen van je eigen nieren.

114
00:06:18,260 --> 00:06:22,580
En dan komt die 10% extra functie er nog bij op.

115
00:06:22,660 --> 00:06:25,020
Maar het zijn ook niet alle functies die het apparaat kan overnemen.

116
00:06:25,020 --> 00:06:28,260
Dus het kan vocht uit het lichaam weggehaald worden door het apparaat.

117
00:06:28,260 --> 00:06:30,060
Maar dat kan ook niet met liters tegelijk natuurlijk.

118
00:06:30,060 --> 00:06:31,800
Want dan gaat je bloeddruk ook enorm naar beneden.

119
00:06:31,800 --> 00:06:35,100
En de afvalstoffen worden weggehaald door het apparaat.

120
00:06:35,100 --> 00:06:37,120
Maar dat is niet 100% effectief.

121
00:06:37,120 --> 00:06:38,000
Dat is dus maar die 10%.

122
00:06:38,860 --> 00:06:42,100
En sommige mensen blijven nog een beetje nierfunctie houden wat langere tijd.

123
00:06:42,100 --> 00:06:44,380
Dus dan is het misschien in totaal 15%.

124
00:06:44,380 --> 00:06:46,420
Maar na verloop van tijd gaat dat ook weg.

125
00:06:46,420 --> 00:06:48,200
Dus dan hou je alleen het apparaat over.

126
00:06:48,200 --> 00:06:49,720
Dan hou je alleen het apparaat over.

127
00:06:49,720 --> 00:06:52,700
En dan moet je dus langer en vaker eraan.

128
00:06:53,660 --> 00:06:58,500
Ja, het is zo dat in principe die drie keer per week vier uur is een beetje het standaard beleid.

129
00:06:58,500 --> 00:07:00,940
Dus helemaal aan het begin kan je vaak met wat minder af.

130
00:07:00,940 --> 00:07:03,600
Maar snel gaat het toch al wel naar die drie keer vier uur toe.

131
00:07:03,600 --> 00:07:05,940
Er zijn ook wel nachtelijke behandelingen bijvoorbeeld.

132
00:07:05,940 --> 00:07:08,420
Waar je meerdere nachten per week aan een apparaat ligt.

133
00:07:08,420 --> 00:07:09,940
En dan is het ook langer dan die vier uur.

134
00:07:09,940 --> 00:07:13,000
Dus dan worden de afvalstoffen wel efficiënter weggehaald.

135
00:07:13,000 --> 00:07:16,300
Maar ja, dan moet je maar net kunnen slapen met zo'n slangetje uit je arm.

136
00:07:16,300 --> 00:07:17,900
En een piepend apparaat naast je bed.

137
00:07:17,900 --> 00:07:20,100
Dat is lang niet voor iedereen een optie.

138
00:07:20,100 --> 00:07:23,920
En als dat geen optie meer is, dan is de enige optie niet de transplantatie.

139
00:07:23,920 --> 00:07:25,400
Ja, je hebt ook nog buikspoeling.

140
00:07:25,400 --> 00:07:26,700
Dus dat is ook een vorm van dialyse.

141
00:07:26,700 --> 00:07:27,900
Waar je een slangetje in je buik krijgt.

142
00:07:27,900 --> 00:07:29,420
Vloeistof inlaat lopen en er weer uit.

143
00:07:29,420 --> 00:07:31,160
En dan veelt je als het ware over je buikvlies.

144
00:07:31,160 --> 00:07:32,880
De afvalstof uit je lichaam.

145
00:07:32,880 --> 00:07:33,440
Dat kan ook.

146
00:07:33,440 --> 00:07:35,260
Maar het is ook weer gevoeliger voor infecties.

147
00:07:35,260 --> 00:07:36,980
Het is ook niet voor elke patiënt geschikt.

148
00:07:36,980 --> 00:07:39,440
En niet elk buikvlies kan dat ook aan.

149
00:07:39,440 --> 00:07:41,620
Dus het verschilt per patiënt of dat kan.

150
00:07:41,620 --> 00:07:43,780
En dan kom je bij een transplantatie uit.

151
00:07:44,140 --> 00:07:46,480
Dus je hoort de impact.

152
00:07:46,480 --> 00:07:47,440
Ja, de impact.

153
00:07:47,440 --> 00:07:49,920
De effect van nierschade is enorm groot.

154
00:07:49,920 --> 00:07:52,980
En ik denk dat het ook heel belangrijk is om te begrijpen.

155
00:07:52,980 --> 00:07:55,800
Zo direct van waarom dit onderzoek ook zo belangrijk is.

156
00:07:55,800 --> 00:07:56,720
Ja, nou zeker.

157
00:07:56,720 --> 00:07:58,620
We hebben gelukkig de Nierstichting in Nederland.

158
00:07:58,620 --> 00:08:01,180
Die echt heel erg bezig is met het bekendmaken.

159
00:08:01,180 --> 00:08:02,600
Ook van de impact van nierschade.

160
00:08:02,600 --> 00:08:05,020
En dat is ook echt wel vrij uniek in de wereld.

161
00:08:05,020 --> 00:08:07,080
Dat dat in Nederland er is, de Nierstichting.

162
00:08:07,080 --> 00:08:08,520
Er wordt heel veel geld opgehaald.

163
00:08:08,520 --> 00:08:10,780
Vanuit bijvoorbeeld collectors natuurlijk.

164
00:08:10,780 --> 00:08:12,240
Maar ook erfenissen en zo.

165
00:08:12,840 --> 00:08:14,860
Wat bij de Nierstichting binnenkomt en gebruikt wordt.

166
00:08:14,860 --> 00:08:17,180
Om onder andere onderzoek te financieren.

167
00:08:17,180 --> 00:08:20,000
Wat wij dan weer kunnen aanvragen bij de Nierstichting.

168
00:08:20,000 --> 00:08:20,840
Dat is heel belangrijk.

169
00:08:20,840 --> 00:08:23,820
Maar zeker ook om mensen bewust te maken in Nederland.

170
00:08:23,820 --> 00:08:25,360
Dat dit een ernstige ziekte is.

171
00:08:25,360 --> 00:08:26,020
Ja, dan wat je zegt.

172
00:08:26,020 --> 00:08:26,720
Een op de tien.

173
00:08:26,720 --> 00:08:29,740
En inderdaad met zo'n degradatie en zo'n progressief pad.

174
00:08:29,740 --> 00:08:31,640
Is het dus essentieel om er vroeg bij te zijn.

175
00:08:31,640 --> 00:08:32,700
Want als je er vroeg bij bent.

176
00:08:32,700 --> 00:08:33,820
Kan je er dan meer aan doen?

177
00:08:33,820 --> 00:08:35,600
Heb je dan andere paden die eruit gaan komen?

178
00:08:35,600 --> 00:08:37,140
Ja, dan kun je er wel wat meer aan doen.

179
00:08:37,140 --> 00:08:39,760
Ja, dus dan kun je op tijd beginnen met behandelingen.

180
00:08:39,820 --> 00:08:42,919
Kijk, je moet je voorstellen, een nierfunctie die weg is, die krijg je niet meer terug.

181
00:08:42,919 --> 00:08:45,180
Dus de nier kan niet meer aangroeien of herstellen of zo.

182
00:08:45,180 --> 00:08:49,200
Dus het is echt van belang om tijdig met medicijnen te starten.

183
00:08:49,200 --> 00:08:50,560
En bijvoorbeeld dat zout wat ik al noemde.

184
00:08:50,560 --> 00:08:51,980
Om je daar heel bewust van te zijn.

185
00:08:51,980 --> 00:08:54,700
Dat zijn dingen die je zelf kan doen.

186
00:08:54,700 --> 00:08:56,120
En hoe eerder je begint, hoe beter.

187
00:08:56,120 --> 00:08:59,640
Ja, vandaar dat het detecteren dus zo belangrijk is.

188
00:08:59,640 --> 00:09:02,560
Omdat het eigenlijk zonder symptomen in het begin plaatsvindt.

189
00:09:02,560 --> 00:09:04,500
Dus dat is wel ook lastig lijkt mij.

190
00:09:04,500 --> 00:09:05,520
Ja, klopt.

191
00:09:05,520 --> 00:09:09,540
Want niet iedereen zal zomaar natuurlijk naar een dokter stappen van, laat me urine eens even testen.

192
00:09:09,540 --> 00:09:10,980
Dus daar moet vaak dan een reden voor zijn.

193
00:09:10,980 --> 00:09:13,740
Er wordt ook wel onderzoek gedaan naar screening in de bevolking.

194
00:09:13,740 --> 00:09:15,540
Want voor andere ziektes wordt er wel gescreend.

195
00:09:15,540 --> 00:09:16,900
Zoals darmkanker bijvoorbeeld.

196
00:09:16,900 --> 00:09:18,040
Borstkanker.

197
00:09:18,040 --> 00:09:22,220
Dus er wordt momenteel onderzocht door collega's van mij, ook in Nederland.

198
00:09:22,220 --> 00:09:24,860
Of zo'n check die je thuis kunt doen.

199
00:09:24,860 --> 00:09:28,880
Dus vaak kan je dat gewoon met een simpele urine test gewoon thuis doen.

200
00:09:28,880 --> 00:09:30,560
Om te kijken of er eiwitten in je urine zit.

201
00:09:30,560 --> 00:09:33,260
En dat is een uiting van schade aan de nieren.

202
00:09:33,260 --> 00:09:36,980
En dat kan dan weer een vervolgstap opleveren om naar de huisarts te gaan.

203
00:09:36,980 --> 00:09:38,120
Om het verder te laten onderzoeken.

204
00:09:38,120 --> 00:09:40,280
Ja, want die symptomen die je net even beschreven.

205
00:09:40,280 --> 00:09:43,460
Ja, dat zijn ook niet symptomen waar je denkt van, oh dat is het.

206
00:09:43,460 --> 00:09:45,360
Het kan stress zijn, het kan moe zijn.

207
00:09:45,360 --> 00:09:46,840
Het kan gewoon even een slechte week zijn.

208
00:09:46,840 --> 00:09:48,180
En dat langere periode denken.

209
00:09:48,180 --> 00:09:52,080
Dus het zijn niet van die zaken die in een keer opvallen van, oh wacht, nou moet ik echt even aan de bel gaan.

210
00:09:52,140 --> 00:09:53,300
Nee, iedereen is wel eens moe.

211
00:09:53,300 --> 00:09:59,500
Ik denk dat 99% van de mensen die moe zijn en naar de huisarts gaan, is er niks of is er niet iets aantoonbaars.

212
00:09:59,500 --> 00:10:02,220
Maar een heel klein deel zal nierschade hebben.

213
00:10:02,220 --> 00:10:03,860
Ik ben wel benieuwd.

214
00:10:03,860 --> 00:10:05,460
We gaan een beetje richting het onderzoek.

215
00:10:05,460 --> 00:10:06,180
Dus ik ben eigenlijk wel benieuwd.

216
00:10:06,180 --> 00:10:07,940
Kan je wat meer vertellen over het onderzoek?

217
00:10:07,940 --> 00:10:08,540
Ja, zeker.

218
00:10:08,540 --> 00:10:14,380
Nou, een van de dingen waar we al lang onderzoek naar doen, is inderdaad het vroeg opsporen van nierschade.

219
00:10:14,380 --> 00:10:16,540
Dus dat kan met zo'n test in de urine bijvoorbeeld.

220
00:10:16,540 --> 00:10:21,460
Maar niet alle patiënten met nierschade krijgen verhoogde eiwitgehalte in hun urine.

221
00:10:22,060 --> 00:10:25,240
Er zijn ook nierziektes die dat niet geven en die spoor je dan met zo'n test niet op.

222
00:10:25,240 --> 00:10:30,480
En ja, de nierfunctie, de nieren zitten best wel ingenieus in elkaar.

223
00:10:30,480 --> 00:10:31,820
Ik ben daar heel enthousiast over.

224
00:10:31,820 --> 00:10:32,840
Ja, ik zie het ook.

225
00:10:33,140 --> 00:10:37,180
Maar wat ze kunnen doen is namelijk, ze hebben een reservecapaciteit.

226
00:10:37,180 --> 00:10:38,100
Dus je hebt twee nieren.

227
00:10:38,100 --> 00:10:39,780
Net zoals dat je twee longen hebt bijvoorbeeld.

228
00:10:39,780 --> 00:10:43,760
En als je één nier weghaalt, dat is bij een nierdonor ook natuurlijk het geval.

229
00:10:43,760 --> 00:10:45,780
Je kunt één nier afstaan, dan kun je gewoon honderd mee worden.

230
00:10:45,780 --> 00:10:47,280
Dus je hebt overcapaciteit.

231
00:10:47,280 --> 00:10:49,420
En dat is aan de ene kant natuurlijk hartstikke mooi.

232
00:10:49,420 --> 00:10:52,080
Want als er dan iets gebeurt, dan kun je nog best wel lang het volhouden.

233
00:10:52,580 --> 00:10:56,660
Aan de andere kant is het ook nadelig in het opsporen van schade aan de nieren.

234
00:10:56,660 --> 00:11:03,620
Omdat door die compensatie die je hebt, neemt het nierweefsel wat het nog wel doet, de functie deels over.

235
00:11:04,100 --> 00:11:10,880
En daardoor duurt het best wel lang voordat je met die nierfunctiemeting die we altijd doen, kan opsporen dat er echt wat aan de hand is.

236
00:11:10,880 --> 00:11:15,620
En daarom hebben we nieuwe methodes nodig om beter te kunnen kijken van nou, wat is er nou in een vroeger stadium?

237
00:11:15,620 --> 00:11:16,860
Is er iets mis?

238
00:11:16,860 --> 00:11:19,960
En ja, dat is één van de onderzoeken waar ik aan werk.

239
00:11:19,960 --> 00:11:25,180
Dus ik heb vorig jaar daar een Europese subsidie voor gekregen om daar heel grootschalig op allerlei manieren onderzoek naar te doen.

240
00:11:25,180 --> 00:11:30,420
Dan moet je denken aan grote groepen mensen waarvan we al bloed en urine in vriezers hebben liggen.

241
00:11:30,420 --> 00:11:32,900
En die we ook al tien of twintig jaar vervolgd hebben.

242
00:11:33,020 --> 00:11:36,740
En een deel van die mensen hebben nierschade gekregen en het grootste deel niet.

243
00:11:36,740 --> 00:11:38,340
Nou, hoe vis je die er nou uit?

244
00:11:38,340 --> 00:11:42,780
En aan de hand van de bloed- en urine-testen die we dan zeg maar nieuw willen ontwikkelen.

245
00:11:42,780 --> 00:11:47,340
Nou, daar heb je methodes voor die bijvoorbeeld proteomics en metabolomics.

246
00:11:47,340 --> 00:11:53,560
Dat zijn methodes die tienduizenden stofjes tegelijkertijd in één bloedsample kunnen meten of in een urine-sample.

247
00:11:53,560 --> 00:11:57,760
En dat levert natuurlijk een enorme hoeveelheid data op echt hoogdimensionele data.

248
00:11:57,760 --> 00:12:02,500
Nou ja, dan kom je natuurlijk een beetje in de buurt van de machine learning toepassingen.

249
00:12:02,720 --> 00:12:13,660
Met de traditionele statistiek is het nog steeds heel lastig om met toch een relatief beperkt aantal proefpersonen met hele hoogdimensionele data daar de relevante signalen uit te halen.

250
00:12:13,660 --> 00:12:22,320
Dus daar komen die nieuwere technieken met machine learning aan de orde om de belangrijkste features, zoals we ze noemen, daar uit te halen.

251
00:12:22,320 --> 00:12:29,000
Misschien dat een heel technisch antwoord komt, maar wat zijn een beetje features die naar boven komen waar jullie dan naar kijken?

252
00:12:29,000 --> 00:12:31,540
Nou, we hebben natuurlijk een soort positieve controle.

253
00:12:31,540 --> 00:12:35,140
Dus als je een bloedsample neemt en je meet daar tienduizend stofjes in.

254
00:12:35,140 --> 00:12:41,200
We weten natuurlijk al een aantal van die stofjes, omdat we die dagelijks in de kliniek gebruiken, zoals het creatinine.

255
00:12:41,200 --> 00:12:44,900
Dat is een stofje wat wij altijd gebruiken om de nierfunctie mee te schatten.

256
00:12:45,140 --> 00:12:49,080
Nou, die zouden wel uit moeten komen als voorspeller van bijvoorbeeld het ontstaan van nierschade.

257
00:12:49,080 --> 00:12:51,020
En zo zijn er nog een paar meer.

258
00:12:51,020 --> 00:12:53,060
Dus gewoon bekende namen.

259
00:12:53,060 --> 00:12:55,620
Als we die tegenkomen in onze lijstjes, dan weten we dat we goed zitten.

260
00:12:56,160 --> 00:12:59,260
Daarnaast hopen we natuurlijk ook een aantal nog onbekende stofjes te vinden.

261
00:12:59,260 --> 00:13:04,660
En natuurlijk die te combineren op een slimme manier, zodat je voorspelkracht groter wordt dan wanneer je maar één stofje zou hebben.

262
00:13:04,660 --> 00:13:07,160
Is er al een eerste resultaat?

263
00:13:07,160 --> 00:13:10,060
Nou, het onderzoek is eigenlijk nog maar net begonnen.

264
00:13:10,060 --> 00:13:15,520
Het is nog wel vroeg, want het onderzoek omvalt niet alleen maar die patiëntencohorten, maar bijvoorbeeld ook proefdiermodellen.

265
00:13:15,520 --> 00:13:21,040
Waar we een deel van de filtertjes in de nier, want de nier bestaat uit ongeveer één miljoen filtertjes.

266
00:13:21,480 --> 00:13:25,680
Als je daar zeg maar 100.000 weghaalt, dat is 10%, dan blijft de nierfunctie eigenlijk normaal.

267
00:13:25,680 --> 00:13:27,940
Maar er is wel een tiende van je nier doet het niet meer.

268
00:13:27,940 --> 00:13:34,360
En er zijn proefdiermodellen, bijvoorbeeld muizen die worden geboren met maar 90% van het normale aantal.

269
00:13:34,360 --> 00:13:36,140
Zonder dat ze verder ziek zijn.

270
00:13:36,140 --> 00:13:41,780
Dat is een heel mooi model waar we in willen kijken van nou, kunnen we dat ook registreren met onze bloed- en urinestofjes.

271
00:13:41,780 --> 00:13:46,800
Dat zijn wel studies die wel een paar jaar duren, want je moet allerlei wet- en regelgeving door.

272
00:13:46,800 --> 00:13:51,280
En je moet dat natuurlijk heel zorgvuldig aanvragen en uitvoeren.

273
00:13:51,440 --> 00:13:54,880
Dus die resultaten zijn nog niet bekend.

274
00:13:54,880 --> 00:13:59,840
Maar we hebben wel een aantal onderzoeken al voor de echte start van dit project kunnen doen.

275
00:13:59,840 --> 00:14:02,480
Waar we wel wat aanwijzingen vinden dat het dus wel kan.

276
00:14:02,480 --> 00:14:04,020
Oké, dat is wel interessant.

277
00:14:04,020 --> 00:14:04,940
Ja, zeker.

278
00:14:04,940 --> 00:14:10,020
En wat gaf die veelbelovendheid aan?

279
00:14:11,160 --> 00:14:18,500
Nou, dat is bijvoorbeeld, kijk, we gebruiken creatinine dus veel als markeerstofje voor nierschade.

280
00:14:18,500 --> 00:14:22,040
Het nadeel van creatinine is dat het een spierafbraakstofje is.

281
00:14:22,040 --> 00:14:28,620
Dus hoeveelheid creatinine in je bloed zegt niet alleen iets over je nierfunctie, maar ook over hoeveel spieren je hebt.

282
00:14:29,180 --> 00:14:31,580
En nou maakt dat natuurlijk iets uit qua lichaamsbouw.

283
00:14:31,580 --> 00:14:36,320
Dus of jij een bodybuilder bent of een oud omaatje, dat maakt enorm uit van hoe hoog je creatinine dan is in je bloed.

284
00:14:37,260 --> 00:14:40,800
Dus dat speelt al mee, maar als mensen ziek worden, dan verlies je ook spiermassa.

285
00:14:40,800 --> 00:14:47,060
Zeker als je ernstig ziek wordt en je ligt twee weken in bed, dan gaat gewoon echt een behoorlijk percentage van je spiermassa weg.

286
00:14:47,060 --> 00:14:51,720
Nou, dat zul je wel herkennen, want dat je gewoon echt wel minder kracht hebt als je een tijdje flink ziek bent geweest.

287
00:14:51,720 --> 00:14:54,120
En dan gaat die creatinine dus ook automatisch omlaag.

288
00:14:54,120 --> 00:14:59,100
En als wij dat zien, dan krijgt die creatinine omlaag, dan denken we de nierfunctie wordt beter, want die ruimt die creatinine op.

289
00:14:59,100 --> 00:15:01,860
Maar dat is helemaal niet zo, want iemand heeft spiermassa ingeleverd.

290
00:15:01,860 --> 00:15:05,880
Nou zijn er dus al nieuwe stofjes ontdekt die spiermassa onafhankelijk zijn.

291
00:15:06,040 --> 00:15:08,140
Bijvoorbeeld Sistatine C is een voorbeeld van zo'n stofje.

292
00:15:08,140 --> 00:15:13,460
We weten dus ook al, als we die invoeren in onze formules, in onze systemen om de nierfunctie te schatten,

293
00:15:13,460 --> 00:15:15,280
ja, dan kan je gewoon precies erin schatten.

294
00:15:15,280 --> 00:15:25,340
Ik was dan wel benieuwd, want je gaf aan van, mensen leveren natuurlijk niet zomaar bloed of urine in bij de huisarts.

295
00:15:25,340 --> 00:15:34,540
Maar je hebt die bloed en urine zo direct wel nodig als input voor die modellen om die nierschade eerder te ontdekken.

296
00:15:34,540 --> 00:15:35,080
Klopt.

297
00:15:35,960 --> 00:15:37,320
Hoe moet ik dat met elkaar zien?

298
00:15:37,320 --> 00:15:38,360
Dat klinkt als een paradox.

299
00:15:38,360 --> 00:15:40,620
Ja, dus hoe kom je aan je data vraag je eigenlijk.

300
00:15:40,620 --> 00:15:46,440
Aan de ene kant komen we aan data door gebruik te maken van al verzamelde gegevens uit patiëntendossiers bijvoorbeeld.

301
00:15:46,440 --> 00:15:47,000
Dat kan.

302
00:15:47,000 --> 00:15:51,020
Maar de belangrijkste bron is eigenlijk bestaande cohorten die wij hebben.

303
00:15:51,020 --> 00:15:54,600
Dus grote groepen patiënten, maar ook mensen in de algemene bevolkingen.

304
00:15:54,600 --> 00:15:56,620
We hebben bijvoorbeeld in Groningen het Lifelines cohort.

305
00:15:56,620 --> 00:16:00,960
Daar zitten 160.000 mensen doen daaraan mee, gewoon uit drie generaties.

306
00:16:00,960 --> 00:16:04,920
Dus de ouders, de huidige generatie en de kinderen dan weer.

307
00:16:05,960 --> 00:16:16,520
En 160.000 mensen komen regulier langs bij ons bij gebouwtjes van Lifelines om daar vragenlijsten in te leveren en om daar bloed en urine af te geven.

308
00:16:16,520 --> 00:16:18,320
En die komen elke vijf jaar.

309
00:16:18,320 --> 00:16:20,620
Ze gaan net beginnen aan de vierde onderzoeksronde.

310
00:16:20,620 --> 00:16:23,740
Dus dat is al meer dan vijftien jaar loopt dat onderzoekronde.

311
00:16:23,740 --> 00:16:27,980
En van die mensen weten we precies van hoe is het nou na dat eerste bezoek met hen gegaan.

312
00:16:27,980 --> 00:16:33,380
En wat we dus die bloedtest ook blijven herhalen zien we ook van nou deze mensen krijgen misschien wel nierschade en deze niet.

313
00:16:33,380 --> 00:16:39,480
En zo kunnen we doordat die samples van vijftien jaar geleden nog in de vriezers liggen, die gaan wij natuurlijk nu uithalen om te kijken.

314
00:16:39,980 --> 00:16:46,360
Wat kunnen we met die bloed- en urine monsters meten en wat kunnen we daaruit voorspellen voor wat er nu gebeurt?

315
00:16:46,360 --> 00:16:47,260
Ja, precies.

316
00:16:47,260 --> 00:16:50,360
En dat zijn dus vrijwilligers die gewoon meedoen aan dit onderzoek.

317
00:16:50,360 --> 00:16:56,220
Niet omdat ze ziek zijn, maar gewoon omdat ze de wetenschap willen helpen en voorzien van data eigenlijk.

318
00:16:56,220 --> 00:16:58,200
Ja, klopt. Dat is fantastisch eigenlijk dat mensen daar aan mee willen doen.

319
00:16:58,200 --> 00:16:58,500
Zeker.

320
00:16:58,500 --> 00:16:59,600
En dat zijn ook zulke grote aantallen.

321
00:16:59,600 --> 00:17:03,700
Dus daar heb je echt een enorme schat aan data die je kunt gebruiken hiervoor.

322
00:17:03,700 --> 00:17:08,700
En we weten dus uit die vragenlijst ook heel veel over bijvoorbeeld medicatiegebruik, maar ook over leefstijl.

323
00:17:08,700 --> 00:17:09,140
Sport.

324
00:17:09,440 --> 00:17:12,300
Kwaliteit van leven. Ja, dat soort dingen. Gewoon een heleboel informatie.

325
00:17:12,300 --> 00:17:15,260
Sommige van die dingen hebben ook voorspellende waarden en andere weer niet.

326
00:17:15,260 --> 00:17:17,579
En dat is dan de algemene bevolking.

327
00:17:17,579 --> 00:17:20,480
Dus daarin zijn we natuurlijk geïnteresseerd van wie krijgt er nou nierschade.

328
00:17:20,480 --> 00:17:23,780
Er zitten ook wel een paar mensen in. Dus dan 10% heeft natuurlijk nierschade.

329
00:17:23,780 --> 00:17:26,300
Maar we hebben ook patiëntencohorten.

330
00:17:26,300 --> 00:17:31,080
Dus bij ons in het UMCG lopen natuurlijk patiënten rond met chronische nierschade die wij behandelen.

331
00:17:31,080 --> 00:17:34,540
Maar ook bijvoorbeeld transplantatiepatiënten die we vervolgen na de transplantatie.

332
00:17:34,680 --> 00:17:39,660
Daar zijn we al heel lang mee bezig om dat ook echt in cohort samen te brengen.

333
00:17:39,660 --> 00:17:46,020
Dus om ook deze mensen te vragen om op gezette tijden bloed en urine af te staan en ook weer vragenlijsten in te vullen.

334
00:17:46,020 --> 00:17:50,580
En dan kun je ook zien van nou hoe is het nou bij de dialyse, dus voordat iemand getransplanteerd wordt.

335
00:17:50,580 --> 00:17:53,600
Wat is de impact van zo'n transplantatie op iemands gezondheid?

336
00:17:53,660 --> 00:17:57,520
Maar ook van nou de een krijgt bijvoorbeeld afstoting van het getransporteerde orgaan, de ander niet.

337
00:17:57,520 --> 00:18:00,760
En wat voor impact heeft dat? En kun je dat misschien ook wel aanzien komen?

338
00:18:00,760 --> 00:18:04,240
En met aanzien komen dus ook weer met een voorspelmodel?

339
00:18:04,240 --> 00:18:06,680
Ja, want dan ga je bijvoorbeeld ook naar het immuunsysteem kijken.

340
00:18:06,680 --> 00:18:09,160
Naar circulerende witte bloedcellen bijvoorbeeld.

341
00:18:09,160 --> 00:18:12,140
Waar je allerlei soort van vlaggetjes op hebt staan.

342
00:18:12,140 --> 00:18:17,320
Misschien is het immuunsysteem van deze patiënt wel bezig met het herkennen van die donornier.

343
00:18:17,320 --> 00:18:21,320
Van hé, dit is niet een lichaamseigen orgaan. Die moet ik eruit werken.

344
00:18:21,660 --> 00:18:24,160
Ik denk dat veel mensen dat ook niet weten.

345
00:18:24,160 --> 00:18:33,260
Maar je lichaam is regelmatig, probeert die iets wat niet eigenlijk van jou is, om dat eruit te werken.

346
00:18:33,260 --> 00:18:34,740
Ja, jij bent daar een heel goed voorbeeld van.

347
00:18:34,740 --> 00:18:40,900
Want als er een virus het lichaam binnenkomt, zal het lichaam natuurlijk geneigd zijn om zo snel mogelijk eruit te werken.

348
00:18:40,900 --> 00:18:43,660
Maar tegelijkertijd zit daar ook een spanningsveld in.

349
00:18:43,660 --> 00:18:46,480
Want een orgaan wat getransplanteerd is, moet er natuurlijk niet uitgewerkt worden.

350
00:18:46,480 --> 00:18:50,280
Dus een van onze taken is eigenlijk om het immuunsysteem te onderdrukken.

351
00:18:50,280 --> 00:18:54,500
Maar dan ook weer niet zoveel dat je nou heel erg ziek wordt van een virus of een bacterie.

352
00:18:54,500 --> 00:18:59,820
Dus daar is een hele delicate balans eigenlijk in tussen afstoting en infecties.

353
00:18:59,820 --> 00:19:04,540
En ja, dat is soms heel erg zoeken naar wat is nou het goede evenwicht.

354
00:19:04,540 --> 00:19:04,800
Ja.

355
00:19:04,800 --> 00:19:07,780
Ik was nog wel nieuwsgierig over het onderzoek.

356
00:19:07,780 --> 00:19:09,820
Wie voerde dat onderzoek allemaal uit?

357
00:19:09,820 --> 00:19:10,780
Zijn dat data scientists?

358
00:19:10,780 --> 00:19:13,420
Zijn dat specialisten, combinaties?

359
00:19:13,420 --> 00:19:14,640
Hoe ziet die groep eruit?

360
00:19:14,680 --> 00:19:16,000
Ja, dat is een goede vraag.

361
00:19:16,000 --> 00:19:17,500
En dat is best ook wel heel complex.

362
00:19:17,500 --> 00:19:20,680
Inderdaad, bestaat mijn groep uit data scientists.

363
00:19:20,680 --> 00:19:24,100
Dus dat zijn mensen met bijvoorbeeld een AI-achtergrond.

364
00:19:24,100 --> 00:19:25,680
Die een AI-master hebben gedaan bijvoorbeeld.

365
00:19:25,680 --> 00:19:28,600
Maar ook computer science bijvoorbeeld.

366
00:19:28,600 --> 00:19:31,760
En tegelijkertijd zitten er ook natuurlijk artsen in.

367
00:19:31,760 --> 00:19:33,220
En mensen met een medische achtergrond.

368
00:19:33,360 --> 00:19:37,740
Het allermooiste is natuurlijk als je mensen hebt met een medische achtergrond die ook geïnteresseerd zijn in data science.

369
00:19:37,740 --> 00:19:39,420
Maar daar zijn er nog maar weinig van.

370
00:19:39,420 --> 00:19:44,840
Dat is ook iets waarvan ik denk dat de geneeskundeopleiding zou daar echt meer aandacht voor moeten hebben.

371
00:19:44,840 --> 00:19:45,740
En dat gebeurt ook wel.

372
00:19:45,740 --> 00:19:48,020
Maar daar moeten we denk ik nog echt wel een stap in maken.

373
00:19:48,020 --> 00:19:50,160
Hoe we de volgende generatie dokters kunnen opleiden.

374
00:19:50,160 --> 00:19:54,760
Dat ze echt begrijpen van wat is nou het belang van data, data analyse.

375
00:19:54,760 --> 00:19:59,360
En ja, hoe zet je dat in op een manier die echt de patiëntenzorg verder gaat helpen.

376
00:19:59,360 --> 00:20:02,660
En hoe kun je het ook weer vertalen naar een manier dat patiënten het ook snappen.

377
00:20:03,080 --> 00:20:04,320
Zet je jezelf op dat snijvlak?

378
00:20:04,320 --> 00:20:04,960
Ja, zeker.

379
00:20:04,960 --> 00:20:07,760
Want ik ben natuurlijk eigenlijk maar een simpele dokter die op een gegeven moment ook maar begonnen is.

380
00:20:07,760 --> 00:20:13,320
Ja, toch met te verdiepen in data science, in AI en ook vanuit interesse.

381
00:20:13,320 --> 00:20:18,440
Het UMCG, dat is wel leuk om te vertellen, heeft vorig jaar voor het eerst een AI bootcamp georganiseerd.

382
00:20:18,440 --> 00:20:23,020
En dat was twee keer drie weken fulltime werden we met tien man in een klasje gezet.

383
00:20:23,020 --> 00:20:25,480
En dat werd georganiseerd door ExquAIro.

384
00:20:25,480 --> 00:20:29,320
Dat is een organisatie vanuit het UMCG samen met het bedrijf My Company.

385
00:20:29,320 --> 00:20:31,060
Dat heet tegenwoordig Rewire.

386
00:20:31,260 --> 00:20:33,820
En zij hebben de handen ineengeslagen om zo'n bootcamp te organiseren.

387
00:20:33,820 --> 00:20:34,380
Oh, wat goed.

388
00:20:34,380 --> 00:20:35,660
Ja, en dat was dus heel leuk.

389
00:20:35,660 --> 00:20:38,480
Want dan zit je dus met een paar dokters, maar ook mensen vanuit een labachtergrond.

390
00:20:38,480 --> 00:20:41,840
Dan zit je echt zes weken fulltime in die AI te duiken.

391
00:20:41,840 --> 00:20:45,040
Nou ja, dat is natuurlijk maar eigenlijk een druppel op de gloeiende platen.

392
00:20:45,040 --> 00:20:48,100
Want ik ben natuurlijk nu heus niet heel goed in code geworden in die zes weken.

393
00:20:48,260 --> 00:20:51,320
Maar je hebt wel een beetje het overzicht van nou, wat speelt er nou allemaal?

394
00:20:51,320 --> 00:20:52,260
En wat kan er allemaal?

395
00:20:52,260 --> 00:20:53,320
Welke termen zijn er?

396
00:20:53,320 --> 00:20:54,280
Wat betekent het ongeveer?

397
00:20:54,280 --> 00:20:58,100
Dus het was best wel een brede training die we hebben gekregen.

398
00:20:58,100 --> 00:21:02,960
En dat heeft mij echt enorm geholpen om bijvoorbeeld subsidieaanvragen te schrijven vanuit de gedachte.

399
00:21:02,960 --> 00:21:06,940
Ja, maar als ik dit breng bij de data die wij al verzameld hebben in de afgelopen jaren.

400
00:21:06,940 --> 00:21:09,200
Ja, dan kan je ineens geweldige dingen doen.

401
00:21:09,540 --> 00:21:10,680
Nou ja, dat is ook gelukt.

402
00:21:10,680 --> 00:21:17,620
Dus ik heb vorig jaar echt die EU-subsidie binnengehaald, maar ook een grote subsidie vanuit NWO en de Nierstichting.

403
00:21:17,620 --> 00:21:20,980
En dat gaat over het voorspellen van de kwaliteit van donornieren.

404
00:21:20,980 --> 00:21:23,140
Dus dat hebben we net voor de kerst te horen gekregen.

405
00:21:23,140 --> 00:21:24,700
Oh, hoe gefeliciteerd.

406
00:21:24,700 --> 00:21:25,500
Ja, dank je.

407
00:21:25,500 --> 00:21:27,220
En dat is echt een heel gaaf project.

408
00:21:27,220 --> 00:21:31,700
Er komen eigenlijk twee vragen in me op.

409
00:21:31,700 --> 00:21:34,840
Eerst even nog over dat opleidingsdeel.

410
00:21:36,000 --> 00:21:39,620
Van wat heeft je daar eigenlijk het meest verrast?

411
00:21:39,620 --> 00:21:45,760
Of weet je, dat je zegt van ja, maar dat wist ik eigenlijk voor die training niet op het gebied van AI.

412
00:21:45,760 --> 00:21:53,220
Nou, ik denk dat eigenlijk bouwt AI gewoon toch wel voort op meerdere traditionele statistieken.

413
00:21:53,220 --> 00:21:55,960
Dus ik was eigenlijk ook wel een beetje verbaasd over wat ik al wel wist.

414
00:21:55,960 --> 00:21:57,020
Ja, heel goed.

415
00:21:57,020 --> 00:22:00,740
Ja, gewoon de regressiemodellen en zo die we natuurlijk gewoon al jaren en jaren deden.

416
00:22:00,740 --> 00:22:03,120
Dat is natuurlijk eigenlijk bouwt dit er wel een beetje op voort.

417
00:22:03,920 --> 00:22:06,480
Maar je kan toch ook wel echt complexere verbanden.

418
00:22:06,480 --> 00:22:08,140
En die zijn er natuurlijk heel veel in de biologie.

419
00:22:08,140 --> 00:22:11,020
Dus niet lineaire verbanden en interacties.

420
00:22:11,020 --> 00:22:17,060
Dus de relatie tussen A en B voor een bepaalde gegeven C, zeg maar.

421
00:22:17,060 --> 00:22:27,060
Dus dat soort verbanden kun je met AI toch veel beter bestuderen en krachtiger dan met de traditionele statistiek.

422
00:22:27,060 --> 00:22:30,100
Ja, waarbij het wel helpt dat je die statistiek onder de knie hebt.

423
00:22:30,100 --> 00:22:30,940
Ja, nee zeker.

424
00:22:30,940 --> 00:22:31,780
Dat is je startpunt.

425
00:22:31,780 --> 00:22:33,140
En dan is dit een volgende stap in.

426
00:22:33,260 --> 00:22:33,360
Ja.

427
00:22:33,360 --> 00:22:39,460
En de andere was, want dat voorspelmodel voor de kwaliteit van de transportatie in die hier.

428
00:22:39,460 --> 00:22:43,200
Kan je daarvan aangeven eigenlijk waarom dat zo belangrijk is?

429
00:22:43,200 --> 00:22:43,780
Ja, zeker.

430
00:22:43,780 --> 00:22:46,060
Nou, dus ik vertelde al, ik ben nefroloog.

431
00:22:46,060 --> 00:22:47,280
Dus ik ben nierspecialist.

432
00:22:47,280 --> 00:22:50,160
En ik had bijvoorbeeld afgelopen maandag dienst.

433
00:22:50,160 --> 00:22:54,500
En dan word ik midden in de nacht gebeld om hoofd drie door iemand van Eurotransplant.

434
00:22:54,500 --> 00:22:55,240
Die zit in Leiden.

435
00:22:55,240 --> 00:23:01,220
Dat is de organisatie die eigenlijk de toewijzing van donororganen regelt in zeven landen in Europa.

436
00:23:01,220 --> 00:23:02,900
Dus Nederland is daar ook bij aangesloten.

437
00:23:02,900 --> 00:23:06,400
En dan hebben wij onze patiënten op een wachtlijst staan.

438
00:23:06,400 --> 00:23:10,140
Dus je moet je voorstellen, voor het UMCG zijn dat mensen uit de hele regio Noordoost-Nederland.

439
00:23:10,740 --> 00:23:12,780
En dan word ik gebeld midden in de nacht.

440
00:23:12,780 --> 00:23:15,460
Vraag is dat dan midden in de nacht, helaas voor mij.

441
00:23:15,460 --> 00:23:18,680
En dan bellen ze van, nou, we hebben een nieraanbod voor een patiënt van jou.

442
00:23:18,680 --> 00:23:22,260
En dat is dan, nou, dan ga ik natuurlijk kijken van, nou, voor welke patiënt is het dan?

443
00:23:22,260 --> 00:23:26,780
Dan ga ik mijn collega bellen die de behandelend arts is van die patiënt of in het ziekenhuis waar diegene...

444
00:23:26,780 --> 00:23:31,000
En voor wie het is, dat wordt bepaald door een andere organisatie.

445
00:23:31,000 --> 00:23:31,920
Dat bepaal jij niet.

446
00:23:31,920 --> 00:23:33,740
Nee, dat bepaalt Eurotransplant inderdaad.

447
00:23:33,740 --> 00:23:36,080
En die hebben een heel systeem daarvoor.

448
00:23:36,080 --> 00:23:38,980
Dus die hebben, er is een wachtlijst, daar kom je op te staan.

449
00:23:38,980 --> 00:23:42,720
En daar weegt bijvoorbeeld best wel zwaar van hoe lang je al aan het dialyseren bent.

450
00:23:42,720 --> 00:23:46,100
Het is dus een beetje van wie er het langste wacht komt dan als eerste aan de beurt.

451
00:23:46,100 --> 00:23:48,180
En dat is een belangrijk iets wat meespeelt.

452
00:23:48,180 --> 00:23:49,720
Maar er wordt bijvoorbeeld ook naar de matching gekeken.

453
00:23:49,720 --> 00:23:53,840
Dus hoe goed past een donornier in dit geval bij een ontvanger.

454
00:23:53,840 --> 00:23:59,040
Wanneer heb je, ik heb geen idee, maar wanneer heb je dan wel een goede match of geen goede match?

455
00:23:59,040 --> 00:24:01,640
Ja, dat heeft met je bloedgroep te maken, maar ook met je weefselgroep.

456
00:24:01,640 --> 00:24:03,800
Dus bloedgroep is gewoon A, B en AB0.

457
00:24:03,800 --> 00:24:08,580
En de weefselgroepen, dat is nog een wat ingewikkelder systeem met letters en cijfers.

458
00:24:08,580 --> 00:24:13,020
Maar het heeft ermee te maken van, ja, je hebt een bepaalde aanleg wat maakt dat jij jij bent.

459
00:24:13,020 --> 00:24:17,260
En dat is voor iedereen vrij uniek qua weefselgroepen, zeg maar.

460
00:24:17,260 --> 00:24:19,180
Hoewel er ook wel een perfecte match kan zijn.

461
00:24:19,640 --> 00:24:23,780
Vaak is dat toch bij een broer of zus, of bij een tweeling is het natuurlijk sowieso het geval.

462
00:24:23,780 --> 00:24:30,000
Maar ook dus kan het toevallig zo zijn dat ergens in Europa iemand rondloopt die net dezelfde weefselgroep heeft als jij.

463
00:24:30,000 --> 00:24:31,940
En dan noemen we dat een perfecte match.

464
00:24:31,940 --> 00:24:33,820
Meestal zijn er wel wat verschillen.

465
00:24:33,820 --> 00:24:36,040
Ja, maar je wil zo dicht mogelijk bij de match zitten.

466
00:24:36,040 --> 00:24:39,640
Dus eigenlijk, en daar zit dan ook AI-systemen achter?

467
00:24:39,640 --> 00:24:45,980
Nou, er wordt wel gewerkt aan AI-systemen, maar diegene die wij toepassen is gewoon nog een vrij analoog systeem.

468
00:24:45,980 --> 00:24:47,940
Met eigenlijk een zespuntsschaal, zeg maar.

469
00:24:48,060 --> 00:24:53,000
Dus je kan een match hebben van mismatch, noemen we dat dan van 0 of 0-0-0, zeg maar.

470
00:24:53,000 --> 00:24:54,140
Dat zijn eigenlijk drie subschalen.

471
00:24:54,840 --> 00:24:59,040
Dus 0-0-0 tot 2-2-2, dat is dan de slechtste match, zeg maar, of de grootste mismatch.

472
00:24:59,040 --> 00:25:01,780
En hoe lager dat getal dus is, hoe beter de match.

473
00:25:01,780 --> 00:25:05,860
Het is niet zo dat als het 2-2-2 is, dus volledige mismatch, dat het dan kansloos is.

474
00:25:06,220 --> 00:25:12,580
Integendeel, onze medicatie die we nu geven qua afweeronderdrukking is eigenlijk zo goed, dat dat eigenlijk het overruled.

475
00:25:12,580 --> 00:25:17,400
Dus dat de kans op afstoting weliswaar heel iets groter is, maar dat weerhoudt ons er niet van om toch te transplanteren.

476
00:25:18,540 --> 00:25:21,600
Dus nou, dan krijg je dat orgaan aangeboden voor die persoon.

477
00:25:21,600 --> 00:25:25,800
En dan moet ik dus eigenlijk de afweging gaan maken van nou, is het een goede donornier?

478
00:25:25,800 --> 00:25:30,860
Dus dan, ik krijg op mijn scherm zeg maar dat informatie over hoe oud is de donor, waar is die aan overleden?

479
00:25:30,860 --> 00:25:37,520
Die ligt dan, die donor ligt trouwens niet dan, nog niet echt overleden, maar ligt op een intensive care en zal eigenlijk spoedig komen te overlijden.

480
00:25:38,700 --> 00:25:41,580
En dan, nou bijvoorbeeld, wat voor nierfunctie heeft iemand?

481
00:25:41,580 --> 00:25:43,020
Dus dan krijg je dat creatinine weer.

482
00:25:43,020 --> 00:25:47,660
En zo zijn er zeg maar in totaal iets van 10, 15 parameters waar we dan naar kijken.

483
00:25:47,660 --> 00:25:50,240
En we zetten dat af tegen de ontvanger.

484
00:25:50,240 --> 00:25:58,260
Dus je kan je voorstellen, als het een donor is van 75, die zijn hele leven lang gerookt heeft en een hoge bloeddruk had en drie keer een hartinfarct heeft gehad.

485
00:25:58,260 --> 00:26:02,300
Ja, nou als je dan een 30-jarige ontvanger hebt, die zal je niet echt de plezier doen daarmee.

486
00:26:02,300 --> 00:26:07,520
En aan de andere kant kan het soms zo zijn dat een nier die wel zeg maar een krasje heeft, om het zo te zeggen.

487
00:26:08,520 --> 00:26:13,060
Voor een oudere ontvanger misschien best eigenlijk wel prima kan zijn, want ja, die hoeft het dan misschien ook niet 50 jaar te doen.

488
00:26:13,060 --> 00:26:17,520
Oké, zo. Aardig wat factoren die meespelen in dat beslissingstraject.

489
00:26:17,520 --> 00:26:20,860
Ja, best complex. En dat speelt zich dan af in mijn hoofd.

490
00:26:20,860 --> 00:26:24,100
Ik overleg soms, ik overleg met collega's, dus met een chirurg.

491
00:26:24,100 --> 00:26:28,260
Er is een immunoloog die helpt met dat matchen en zo, dus die bel ik dan ook wakker om drie uur s'nachts.

492
00:26:28,260 --> 00:26:32,140
Maar het is niet zo dat we nou even een team bij elkaar gaan roepen midden in de nacht natuurlijk.

493
00:26:32,140 --> 00:26:35,720
Dus het komt toch eigenlijk wel een beetje op mij aan, zeg maar, qua beslissing.

494
00:26:36,540 --> 00:26:41,600
En toen dachten we eigenlijk van, nou ja, weet je, ik weet niet hoe jullie denken om drie uur s'nachts als je wordt wakker gebeld.

495
00:26:42,080 --> 00:26:44,000
Ik heb soms wel even een kopje koffie nodig.

496
00:26:44,000 --> 00:26:50,220
En ik baseer me natuurlijk heel eerlijk gezegd ook wel op de ervaringen van de afgelopen tijd.

497
00:26:50,220 --> 00:26:58,400
Dus heb ik de laatste keer misschien iets te scherp gekozen en een nier geaccepteerd voor een patiënt, wat ik misschien toch achteraf misschien beter niet had kunnen doen.

498
00:26:58,400 --> 00:27:03,680
Dan zal ik toch anders in die beslissing staan dan wanneer ik juist misschien te voorzichtig ben geweest en iets heb laten gaan.

499
00:27:04,040 --> 00:27:09,240
We praten daar met elkaar ook wel over in het team, zeg maar, van nou, hoe doe jij dit, hoe jij dat met casus.

500
00:27:09,240 --> 00:27:21,040
Maar er is recent onderzoek gedaan en daar blijkt dat er echt een enorme variatie zit tussen ziekenhuizen in Nederland, maar ook binnen een ziekenhuis tussen nefrologen, in welke, ja, hoe die beslissing eigenlijk genomen wordt.

501
00:27:21,600 --> 00:27:24,580
Sommige mensen zijn veel conservatiever, andere zijn juist veel liberaler.

502
00:27:24,580 --> 00:27:30,900
En ja, dat is best lastig uit te leggen ook aan patiënten van sta je in Groningen of in Nijmegen of in Amsterdam op de wachtlijst.

503
00:27:30,900 --> 00:27:34,340
En dat bepaalt gewoon of jij sneller of minder snel een nier krijgt.

504
00:27:34,340 --> 00:27:38,380
En is dat inzichtelijk voor de patiënten? Dat denk ik niet, hè? Dat proces.

505
00:27:38,380 --> 00:27:45,020
Dat is wel ook weer een proces van waar we de laatste jaren echt wel mee bezig zijn om dat toch transparanter te krijgen.

506
00:27:45,520 --> 00:27:53,300
En waar we nu staan is eigenlijk dat we wel die inzichten aan het genereren zijn en dat we zelf kunnen zien voor ons eigen centrum, hoe doen wij het ten opzichte van andere centra.

507
00:27:53,300 --> 00:27:59,600
Maar het is niet zo dat er nu openbaar is van nou, weet je, hoe die beslissingen precies worden gemaakt of zo per persoon of zo.

508
00:27:59,600 --> 00:28:06,020
Nee, vooral niet om er zoveel factoren bij te komen kijken. Lijkt me dat ook logisch, want anders dan wordt er een aanname gedaan op een van die karakteristieken.

509
00:28:06,020 --> 00:28:13,200
Ja, je weet soms ook niet wat beter is, hè? Want soms is een liberalere beslissing best wel goed, omdat het heel goed kan uitpakken.

510
00:28:13,340 --> 00:28:16,240
En dan heeft iemand een nier gekregen waar hij zijn leven lang plezier van heeft.

511
00:28:16,240 --> 00:28:17,220
Dat is uit de dialyse.

512
00:28:17,220 --> 00:28:24,500
Aan de andere kant is het risico van te liberaal zijn, dat je misschien toch een risico neemt dat de nier toch het minder goed doet dan je had gedacht.

513
00:28:24,500 --> 00:28:28,540
Maar zo direct heb je dan dat model, heb je jullie geïmplementeerd.

514
00:28:28,540 --> 00:28:32,800
Wat gaat er dan veranderen in dit proces wat je nu net helemaal hebt uitgelegd?

515
00:28:32,800 --> 00:28:35,420
Ja, meerdere dingen zoals wij het voor ons zien.

516
00:28:35,420 --> 00:28:38,580
Dus dit project is een consortium.

517
00:28:38,700 --> 00:28:44,480
Dat wil zeggen dat we met meerdere UMC's, dus universitaire medische centra in Nederland, maar ook universiteiten.

518
00:28:44,480 --> 00:28:46,900
Dus bijvoorbeeld Twente doet ook mee, Universiteit van Groningen.

519
00:28:46,900 --> 00:28:48,960
Maar ook meerdere bedrijven samenwerken.

520
00:28:48,960 --> 00:28:54,300
Een van de dingen die we willen doen is die stofjes in het bloed en de urine verbeteren.

521
00:28:54,300 --> 00:28:55,480
Want ik noemde creatinine al.

522
00:28:55,480 --> 00:28:59,600
Nou, dat is dus niet een hele goede marker voor de nierfunctie als je op de IC ligt.

523
00:28:59,600 --> 00:29:01,920
Want daar gaat je spiermassa natuurlijk helemaal snel weg.

524
00:29:01,920 --> 00:29:03,600
Dus eigenlijk is dat een hele slechte marker.

525
00:29:03,600 --> 00:29:08,520
Maar we gebruiken hem al tientallen jaren en we denken dat daar echt een slag gemaakt kan worden.

526
00:29:08,520 --> 00:29:13,220
Maar wat betreft de AI willen we natuurlijk, als we dan toch betere biomarkers gaan ontwikkelen,

527
00:29:13,220 --> 00:29:19,840
willen we het liefst natuurlijk met AI vaststellen van welke combinatie van biomarkers geeft nou de beste voorspelling van

528
00:29:19,840 --> 00:29:21,640
ja, hoe lang zo'n nier het nou gaat doen.

529
00:29:21,640 --> 00:29:24,280
En wat er dan verandert is dat...

530
00:29:24,280 --> 00:29:32,500
Hebben we het nu over het model voor transportatie of dat kwaliteitsmodel voor de transportatie?

531
00:29:32,820 --> 00:29:34,600
Nee, dan hebben we het over inderdaad voorspellen.

532
00:29:34,600 --> 00:29:41,120
Dus eigenlijk op het moment dat ik gebeld word, is mijn verwachting dat ik dan een overzichtje voor mijn neus krijg

533
00:29:41,120 --> 00:29:43,580
met een voorspelde overlevingsduur van de dier.

534
00:29:43,580 --> 00:29:43,940
Oh, zo ja.

535
00:29:43,940 --> 00:29:46,740
En eigenlijk het liefste ook een voorspelde overleving van de patiënt.

536
00:29:46,740 --> 00:29:48,180
Zodat ik dat naast elkaar kan zetten.

537
00:29:48,180 --> 00:29:50,580
Met een bepaalde...

538
00:29:50,580 --> 00:29:54,920
Het zou eigenlijk explainable moeten zijn van waarom is die voorspelling zo gedaan, op bepaalde van welke factoren.

539
00:29:54,920 --> 00:29:57,340
En een soort betrouwbaarheid erin.

540
00:29:57,340 --> 00:30:01,680
Je hebt natuurlijk altijd een bepaalde onzekerheid van de voorspelling van hoe zeker weet het model dat nou?

541
00:30:01,780 --> 00:30:04,900
Is het echt bijna zeker of is het super onzeker?

542
00:30:04,900 --> 00:30:06,780
En dat bepaalt denk ik ook wel van...

543
00:30:06,780 --> 00:30:11,960
In hoeverre je zelf ook nog moet gaan nadenken van wat denk ik eigenlijk zelf van.

544
00:30:11,960 --> 00:30:12,300
Ja.

545
00:30:13,000 --> 00:30:17,020
En wat verandert er dan in dat besluitvormingstraject?

546
00:30:17,020 --> 00:30:19,800
Ja, wij zien het als een beslissingsondersteuning.

547
00:30:19,800 --> 00:30:25,900
Dus wij zien het niet zo van dat het model gaat beslissen of voor deze patiënt de nier wel of niet geaccepteerd moet worden.

548
00:30:25,900 --> 00:30:29,780
Maar dat is ook wel een punt waar we veel over willen gaan spreken de komende jaren.

549
00:30:29,780 --> 00:30:32,000
Want dat onderdeel zit ook echt in het project van...

550
00:30:32,560 --> 00:30:39,560
met alle professionals die betrokken zijn bij de transplantatie, maar ook patiënten en ook mensen vanuit de maatschappij bij elkaar gaan zitten over...

551
00:30:39,560 --> 00:30:43,440
Wat denken wij dat AI nou voor een rol heeft binnen de transplantatiewereld?

552
00:30:43,440 --> 00:30:45,500
Want je kan wel zeggen het is een beslissingsondersteuning.

553
00:30:45,500 --> 00:30:49,480
Maar als ik om drie uur s'nachts word wakker gebeld en ik zie voor mijn neus van die moet je doen.

554
00:30:49,480 --> 00:30:52,440
Ja, misschien denk ik ja lekker doen inderdaad wat het algoritme zegt.

555
00:30:52,600 --> 00:30:55,800
Dus is het wel beslissingsondersteuning of beslist AI het straks gewoon?

556
00:30:55,800 --> 00:30:56,080
Ja.

557
00:30:56,080 --> 00:30:57,820
Ja, en moet je dat willen?

558
00:30:57,820 --> 00:30:58,900
Ja, wat denk je AI?

559
00:30:58,900 --> 00:31:00,880
Nou, het zou nog wel eens dat laatste kunnen zijn.

560
00:31:00,880 --> 00:31:04,920
Mijn eerste gedachte was het is een ondersteuning en het moet mensen niet ontslaan vanzelf nadenken.

561
00:31:04,920 --> 00:31:07,640
Maar in de praktijk ben ik wel heel benieuwd hoe dat gaat.

562
00:31:07,640 --> 00:31:09,420
En we zouden daar ook wel wat onderzoek naar willen doen.

563
00:31:09,420 --> 00:31:15,240
Om bijvoorbeeld casus voor te leggen aan mensen om te kijken van in hoeverre vertrouwen ze nou op AI in dit soort beslissingen.

564
00:31:15,240 --> 00:31:19,360
En kan het ook zijn dat er over reliance is, dus teveel vertrouwen op AI.

565
00:31:19,360 --> 00:31:20,980
Dat zou best nog wel eens zo kunnen zijn.

566
00:31:21,140 --> 00:31:22,960
Ja, dat risico bestaat zeker.

567
00:31:22,960 --> 00:31:24,920
Ja, ik dacht die kans groot aanwezig.

568
00:31:24,920 --> 00:31:27,200
Ja, en we hameren daar natuurlijk.

569
00:31:27,200 --> 00:31:29,120
We werken in de zorg natuurlijk steeds meer geprotocoleerd.

570
00:31:29,120 --> 00:31:32,020
Dus dat zien we in allerlei andere settings ook al wat terugkomen.

571
00:31:32,020 --> 00:31:35,960
Dat bijvoorbeeld een patiënt die op de poli nu komt, er wordt een brief over gemaakt.

572
00:31:35,960 --> 00:31:39,000
En dat is vaak een soort invullesje van nou dit is goed, dit is goed, dit is goed.

573
00:31:39,000 --> 00:31:43,280
Als je daar teveel op dat lesje gaat letten, dan ga je ook niet meer zelf nadenken.

574
00:31:43,280 --> 00:31:45,220
Zo van nou, ja maar klopt dit eigenlijk allemaal wel?

575
00:31:45,220 --> 00:31:46,620
Of wat mis ik?

576
00:31:46,620 --> 00:31:48,200
Dus dat is wel een valkuil.

577
00:31:48,200 --> 00:31:50,460
Ja, als je een checklist hebt, dan ga je de checklist af.

578
00:31:50,600 --> 00:31:53,360
En je bedenkt niet van, ik heb nog een checklist onderin staan nog drie puntjes.

579
00:31:53,360 --> 00:31:57,300
Oh wacht, die drie puntjes, die moeten er wel staan om nog de vraag te stellen die je anders niet gaat stellen.

580
00:31:57,300 --> 00:31:57,660
Klopt.

581
00:31:57,660 --> 00:32:01,000
Ja, en de setting is vaak ook toch wel complex bij donornieren.

582
00:32:01,000 --> 00:32:03,500
Omdat elke donor heeft weer zijn eigen verhaal.

583
00:32:03,500 --> 00:32:08,040
En er kunnen soms hele zeldzame ziektes meespelen bij een donor die misschien best wel impact hebben.

584
00:32:08,040 --> 00:32:11,240
Ja, zo'n model die heeft misschien die informatie eigenlijk nog nooit gezien.

585
00:32:11,340 --> 00:32:14,520
Dus die kan daar helemaal niet een goede voorspelling maken op basis van die data.

586
00:32:14,520 --> 00:32:15,480
Dus ja.

587
00:32:15,480 --> 00:32:22,260
En als je, we hebben ze in een ander seizoen hebben wij, maar dat komt uit de financiële wereld.

588
00:32:22,260 --> 00:32:25,680
Dan kan je wel of niet bijvoorbeeld kredieten krijgen.

589
00:32:26,620 --> 00:32:37,140
En wat deze kredietverstrekker gedaan had, is een AI model niet laten voorspellen zeg maar of iemand wel of niet het krediet zou mogen hebben.

590
00:32:37,140 --> 00:32:40,260
Maar ingezet als criticus van de mens.

591
00:32:40,380 --> 00:32:48,660
Dus die kijkt zeg maar als jij het besluit hebt genomen of dat zeg maar overeenkomt met de data.

592
00:32:48,660 --> 00:32:52,260
En zegt van hé, dat is eigenlijk wel een apart besluit.

593
00:32:52,260 --> 00:32:52,620
Ja.

594
00:32:52,620 --> 00:33:03,140
Want in gelijksoortige gevallen heb je, of is de wereld feiten, is er een ander besluit genomen van misschien moet je het nog eens heroverwegen.

595
00:33:03,140 --> 00:33:04,840
Ja, ik vind dat een hele goede suggestie.

596
00:33:04,840 --> 00:33:06,080
Dat zouden we best mee kunnen nemen.

597
00:33:06,080 --> 00:33:11,920
Want inderdaad, dan verplicht je de dienstdoende nefrologen zeg maar wel om eerst zelf na te denken van wat zou ik doen.

598
00:33:11,920 --> 00:33:19,720
En vervolgens geef je feedback van nou, we hebben soortgelijke gevallen in de afgelopen tientallen jaren een x aantal keer gezien.

599
00:33:19,720 --> 00:33:21,380
En zo en zo liep het af met de nier.

600
00:33:21,380 --> 00:33:23,940
Stuurt dat je beslissing eventueel nog bij?

601
00:33:23,940 --> 00:33:27,420
Want ik geloof wel heel erg in die datengedreven besluitvorming.

602
00:33:27,420 --> 00:33:27,740
Zeker, ja.

603
00:33:27,740 --> 00:33:31,520
We hebben natuurlijk, we zijn heel gekleurd, dat zei ik al, recente ervaringen zeg maar.

604
00:33:31,520 --> 00:33:37,340
Maar we kunnen straks een model bouwen op basis van 20.000 niertransplantaties die in Nederland zijn gedaan in de afgelopen 40, 50 jaar.

605
00:33:37,340 --> 00:33:41,620
Ja, en dat heeft natuurlijk echt wel veel meer waarde dan wat ik in mijn eentje kan bedenken.

606
00:33:41,620 --> 00:33:44,600
Ja, en de ervaring gaat dus verder dan alleen je eigen ervaring.

607
00:33:44,600 --> 00:33:45,960
Daar zit er natuurlijk ook heel veel waarde.

608
00:33:45,960 --> 00:33:46,320
Ja.

609
00:33:46,320 --> 00:33:50,260
En inderdaad, we zijn gewoon gewend wat recents gebeurd is, dat zullen we ook het meest actueel hebben.

610
00:33:50,360 --> 00:34:04,200
Wat ik nog maar afvroeg was, als daar de keuze gemaakt is, je krijgt de donor nier, wordt dan automatisch ook die data verzameld om dat traject te volgen, zodat je dat weer als feedback loop kan nemen voor die keuze?

611
00:34:04,200 --> 00:34:04,960
Ja, absoluut.

612
00:34:04,960 --> 00:34:16,219
Dus dat gebeurt gelukkig ook al tientallen jaren, omdat in de transplantatiewereld in Nederland, en dat geldt niet alleen voor de nieren, maar ook voor de andere organen, wordt er gelukkig heel goed bijgehouden hoe het verder gaat met mensen na een transplantatie.

613
00:34:16,219 --> 00:34:23,820
Dus er worden registers bijgehouden, en die worden zeg maar per UMC lokaal bijgehouden, maar die worden ook weer teruggegeven aan een landelijk register.

614
00:34:23,820 --> 00:34:29,639
Dus die gegevens blijven gewoon doorgaan met verzameld worden, en ja, we zouden ons algoritme daar ook op aan kunnen passen.

615
00:34:29,639 --> 00:34:39,880
Waar het niet dat het ook weer zo is dat het natuurlijk moet voldoen aan wet- en regelgeving, dus de MDR bijvoorbeeld, de Medical Device Regulation, die maakt dat zo'n algoritme is natuurlijk een apparaat, een medical device.

616
00:34:40,100 --> 00:34:47,780
Ja, er moet aan wet- en regelgeving voldoen, dus op een gegeven moment moet daar een stempel op van nou, dit doet wat het claimt te doen, dus dat moet gevalideerd zijn en zo.

617
00:34:47,780 --> 00:34:52,260
En als dat dan zo is, maar volgende week is het model weer hertraind, ja, dat wordt natuurlijk lastig.

618
00:34:52,260 --> 00:34:58,160
Dus dat is wel een spagaat waar we een beetje in zitten van nou, hoe gaan we dat nou steeds up-to-date houden, maar het kan ook weer niet elke dag.

619
00:34:58,920 --> 00:35:06,680
Nee, dat is denk ik wel een ontwikkeling die vooral in de medische sector met name is, maar ik denk wel steeds belangrijker wordt op meerdere vlakken waar certificering op dit soort oplossingen plaatsvindt.

620
00:35:06,680 --> 00:35:11,240
Klopt, ja. Dus dat moeten we gaan zien, wat dat betekent voor ons model de komende jaren.

621
00:35:11,240 --> 00:35:13,380
En hoe lang duurt het onderzoek?

622
00:35:13,380 --> 00:35:19,800
Het is een project van vijf jaar, dus en we werken er dus met drie UMC's aan.

623
00:35:20,140 --> 00:35:24,260
Dat is het Erasmus MC en het UMC Utrecht en het UMCG.

624
00:35:24,260 --> 00:35:29,760
En daarnaast dus een heel aantal bedrijven, maar ook bijvoorbeeld Eurotransplant en de Nederlandse Transplantatiestichting.

625
00:35:29,760 --> 00:35:33,600
Het zijn allemaal echt belangrijke partijen die allemaal hun eigen stem inbrengen.

626
00:35:33,600 --> 00:35:39,100
En natuurlijk de Nierpatiëntenvereniging Nederland die ook hierover meedenkt vanuit het perspectief van de patiënten.

627
00:35:39,100 --> 00:35:46,980
En betekent dat ook dat je over vijf jaar dan de uitslagen hebt of tussendoor al de inzichten die opgedaan worden geïmplementeerd?

628
00:35:47,680 --> 00:35:50,720
Ja, we zullen zeker de komende jaren al de eerste resultaten gaan zien.

629
00:35:50,720 --> 00:35:55,920
En we verwachten, we hopen dat aan het eind van die vijf jaar er echt een voorspelmodel ligt,

630
00:35:55,920 --> 00:35:58,900
wat we ook al hebben ingevoerd in de huidige workflow, zeg maar.

631
00:35:58,900 --> 00:35:59,980
En dat proberen we echt te doen.

632
00:35:59,980 --> 00:36:03,960
Want het doel van deze subsidie was ook echt, zeg maar, impact maken in de praktijk.

633
00:36:03,960 --> 00:36:06,640
Het is heel leuk als je een tool ontwikkelt die niemand verder niet gebruikt.

634
00:36:06,640 --> 00:36:10,580
Maar als je het invoegt in de workflow, en daarom is de Nederlandse Transplantatiestichting ook heel belangrijk,

635
00:36:10,580 --> 00:36:15,760
want zij zijn degene die het dashboard die wij nu gebruiken, zeg maar, onderhouden.

636
00:36:15,760 --> 00:36:21,520
Dus zij zijn ook bereid om met ons mee te denken van, nou, kunnen we deze nieuwe tool er ook in stoppen?

637
00:36:21,520 --> 00:36:24,460
Ja, en dan denk ik echt dat het ook gebruikt gaat worden.

638
00:36:24,460 --> 00:36:27,860
En hopelijk zien andere landen dat dan ook en willen ze het ook overnemen.

639
00:36:27,860 --> 00:36:31,960
En zou het ook voor andere organen bijvoorbeeld kunnen gelden, zoals de lever en het hart en de longen?

640
00:36:31,960 --> 00:36:32,740
Ja, zeker.

641
00:36:32,740 --> 00:36:35,060
Ja, ik snap waarom je hem uit wilde nodig.

642
00:36:35,060 --> 00:36:40,440
Dit soort technologie gewoon op de grond krijgen, implementeren en gaan leren.

643
00:36:40,440 --> 00:36:41,300
Ja, hartstikke mooi.

644
00:36:41,300 --> 00:36:41,760
Ja, precies.

645
00:36:41,760 --> 00:36:48,860
We hebben ook een item waarbij we vragen wat iemands ultieme droom zou zijn als je zonder beperkingen zou denken over AI.

646
00:36:48,860 --> 00:36:54,440
En het hoeft niet in je vakgebied te zijn, maar gewoon, het is natuurlijk een technologie die ons heel veel raakt.

647
00:36:55,820 --> 00:36:59,180
Nou ja, en we hebben even een korte jingle waar je er even over na kan denken.

648
00:36:59,180 --> 00:36:59,460
Ja.

649
00:36:59,460 --> 00:36:59,460
Ja.

650
00:36:59,460 --> 00:37:03,900
Een leven vol gemak.

651
00:37:03,900 --> 00:37:08,540
Technologie die alles doet waar we van dromen.

652
00:37:08,540 --> 00:37:12,900
Geen grenzen meer, niets houdt ons nog tegen.

653
00:37:12,900 --> 00:37:18,840
Het leven zoals wij het altijd wilden beleven.

654
00:37:21,000 --> 00:37:22,440
Heerlijk, dat is rustgevende muziek.

655
00:37:22,440 --> 00:37:22,880
Ja, hè?

656
00:37:22,880 --> 00:37:24,000
Ik kan er bijna bij in slaap.

657
00:37:24,000 --> 00:37:31,460
Ja, nee, ik denk in de medische wereld waar AI echt wat kan betekenen is, denk ik echt in de vroege opsprong van ziekte.

658
00:37:31,460 --> 00:37:32,440
Dus daar hadden we het al over.

659
00:37:32,440 --> 00:37:39,740
Ik zou me bijvoorbeeld kunnen voorstellen dat er een apparaatje thuis in het toilet hangt in het geval van nierziekte die op een gegeven moment melding geeft van,

660
00:37:39,740 --> 00:37:42,380
joh, kijk eens eventjes wat er in je urine gebeurt.

661
00:37:42,380 --> 00:37:43,580
Dit is niet goed.

662
00:37:43,580 --> 00:37:44,660
Je moet je wat mee.

663
00:37:44,660 --> 00:37:47,960
Dus echt die vroege detectie.

664
00:37:48,760 --> 00:37:56,240
En in het geval van de transplantatie, denk ik, wat dat motto is van de subsidie die we net hebben gekregen is One Kidney for Life.

665
00:37:56,240 --> 00:37:59,520
Dus iemand een nieuwe nier geven waar je leven lang mee kan doen.

666
00:37:59,520 --> 00:38:01,760
Ja, want dat is niet zomaar gegeven.

667
00:38:01,760 --> 00:38:03,760
Zou je daar nog iets over kunnen vertellen?

668
00:38:03,760 --> 00:38:04,980
Ja, nou dat klopt.

669
00:38:04,980 --> 00:38:10,100
Zeker bij, want je hebt nog het onderscheid van nieren van een levende donor en een overleden donor.

670
00:38:10,280 --> 00:38:15,320
Dus mensen die iemand kennen die niet aan hen wil afstaan, die donor wil zijn.

671
00:38:15,320 --> 00:38:18,620
Dat kan een familielid zijn, maar ook een vriend of een kennis of een partner.

672
00:38:18,620 --> 00:38:21,020
Ik heb bijvoorbeeld van een vriendin, dus van een levende donor.

673
00:38:21,020 --> 00:38:25,500
Veel mensen denken dat het alleen van een broer of zus kan zijn, maar het kan zeker ook van iemand die niet direct familie is.

674
00:38:25,500 --> 00:38:26,060
Dat kan het zijn.

675
00:38:26,060 --> 00:38:30,720
Dat is ongeveer de helft van de transplantaties die wij doen in Nederland, komt van een levende donor.

676
00:38:30,820 --> 00:38:35,060
Dus dat is echt wereldwijd ook een hele bijzondere verhouding in die zin dat er best wel...

677
00:38:35,060 --> 00:38:36,920
Nederlanders zijn best wel vrijgevig wat dat betreft.

678
00:38:36,920 --> 00:38:41,480
En misschien ook wel onze nuchterheid dat we denken van nou het zal wel goed komen als we niet meer afstaan.

679
00:38:41,480 --> 00:38:43,000
Maar het is iets heel groots.

680
00:38:43,000 --> 00:38:45,660
Dus je staat echt letterlijk gewoon een stuk van jezelf af.

681
00:38:45,660 --> 00:38:46,900
Ongelooflijk dat mensen doen.

682
00:38:46,900 --> 00:38:48,900
Ik heb daar echt ook enorm respect voor.

683
00:38:48,900 --> 00:38:50,780
Elke keer weer is dat gewoon een bijzonderheid.

684
00:38:50,780 --> 00:38:56,180
Ook al doen we zeg maar ongeveer honderd van dit soort transplantaties elk jaar in het UMCG.

685
00:38:56,740 --> 00:39:01,940
Het is toch elke keer weer echt heel bijzonder met een eigen verhaal van zowel een donor als een ontvanger.

686
00:39:01,940 --> 00:39:08,740
En de andere helft van de mensen, ja, die moeten dus op de wachtlijst staan waar we het eigenlijk net over hadden om te wachten op een overleden donornier.

687
00:39:08,740 --> 00:39:14,780
En van die overleden donornieren weten we dat die het echt nog wel een stukje minder goed doen dan de nieren van een levende donor.

688
00:39:14,780 --> 00:39:17,460
Dat is iets waar we echt ook een slag willen slaan.

689
00:39:17,460 --> 00:39:25,320
Dus dan moet je denken dat ongeveer ruim 30% van de nieren na 10 jaar na de transplantatie het niet meer goed doen.

690
00:39:25,820 --> 00:39:28,540
En dan hebben mensen dus een tweede transplantatie nodig of zelfs een derde.

691
00:39:28,540 --> 00:39:29,300
Oké.

692
00:39:29,300 --> 00:39:30,420
En dat is echt heel heftig.

693
00:39:30,420 --> 00:39:31,340
Maar het kan dus wel?

694
00:39:31,340 --> 00:39:32,800
Het kan wel, ja.

695
00:39:32,800 --> 00:39:33,540
Ja, nee zeker.

696
00:39:33,540 --> 00:39:35,920
Dus er zijn mensen die meerdere transplantaties hebben ondergaan.

697
00:39:35,920 --> 00:39:36,320
Dat kan.

698
00:39:36,320 --> 00:39:38,860
Maar het kan ook wel weer zijn dat het moeilijker wordt.

699
00:39:38,860 --> 00:39:42,540
Want ja, weet je, het lichaam herkent dan een orgaan als lichaamsvreemd.

700
00:39:42,540 --> 00:39:43,460
Stoot het af.

701
00:39:43,460 --> 00:39:46,780
En de volgende nier wordt dan misschien ook sneller herkend en ook weer afgestoten.

702
00:39:47,060 --> 00:39:48,540
Dus dat kan best wel moeilijker worden.

703
00:39:48,540 --> 00:39:50,980
Los van dat het toch ook weer een extra operatie is.

704
00:39:50,980 --> 00:39:53,400
En op een gegeven moment al die nieren in je buik, dat wordt ook wat vol.

705
00:39:53,400 --> 00:39:54,680
Dus op een gegeven moment moet er ook weer wat uit.

706
00:39:54,680 --> 00:39:57,180
En ja, dat zijn best uitdagingen.

707
00:39:57,180 --> 00:39:58,580
Want daar staan mensen.

708
00:39:58,580 --> 00:39:59,080
Ja, precies.

709
00:39:59,080 --> 00:40:01,940
Ik heb dus nu drie nieren.

710
00:40:01,940 --> 00:40:05,360
Het is niet zo dat er bij mij dan een nier uitgehaald wordt.

711
00:40:06,040 --> 00:40:10,220
En dan de nieuwe nier zeg maar daarvoor in de plaats wordt gezet.

712
00:40:10,220 --> 00:40:13,160
Je hebt dan ruimte in je buikholte.

713
00:40:13,160 --> 00:40:15,340
En daar wordt de nier bij geplaatst.

714
00:40:15,340 --> 00:40:15,800
Ja, inderdaad.

715
00:40:15,800 --> 00:40:16,560
Als dat kan.

716
00:40:16,560 --> 00:40:19,980
Soms dan hebben mensen veel last van hun eigen nieren.

717
00:40:19,980 --> 00:40:21,880
Dus bijvoorbeeld met ontstekingen of zo infecties.

718
00:40:21,880 --> 00:40:26,180
Maar meestal kunnen ze blijven zitten en dan komt er inderdaad in de onderbuik links of rechts een nier bij.

719
00:40:26,180 --> 00:40:29,260
En dan kan er aan de andere kant dus nog een extra nier bij.

720
00:40:29,260 --> 00:40:30,940
Dus vier, dat is wel zo'n beetje de max.

721
00:40:30,940 --> 00:40:32,900
En dan moeten we gaan denken over, kan er weer een uit?

722
00:40:32,900 --> 00:40:34,600
Zodat er weer ruimte gemaakt kan worden.

723
00:40:34,600 --> 00:40:35,320
Wauw.

724
00:40:35,320 --> 00:40:40,120
Ja, dus ik ben met meer het ziekenhuis uitgegaan dan ik erin kwam.

725
00:40:40,120 --> 00:40:40,780
Een bonusnier.

726
00:40:40,780 --> 00:40:41,580
Ja, precies.

727
00:40:41,580 --> 00:40:43,600
Wauw.

728
00:40:43,600 --> 00:40:45,400
Die komt even binnen.

729
00:40:45,400 --> 00:40:45,720
Ja.

730
00:40:45,720 --> 00:40:46,800
Dat had ik even niet als die komt.

731
00:40:46,800 --> 00:40:54,780
Ik had nog een vraag over die 160.000 mensen die jullie hebben in het onderzoek.

732
00:40:54,780 --> 00:40:56,660
Hoe uniek is dat in de wereld?

733
00:40:56,660 --> 00:40:59,180
Ja, dat is best wel bijzonder.

734
00:40:59,180 --> 00:41:03,000
Dus ook die drie generaties die we hebben, wat ook weer enorm kan helpen.

735
00:41:03,000 --> 00:41:04,720
Bijvoorbeeld in genetisch onderzoek, wat we ook doen.

736
00:41:05,280 --> 00:41:07,440
Maar 160.000 is natuurlijk een waanzinnig aantal.

737
00:41:07,440 --> 00:41:09,220
Dus dat geeft ons heel veel mogelijkheden.

738
00:41:09,220 --> 00:41:11,140
Tegelijkertijd zijn er ook wel weer uitdagingen.

739
00:41:11,140 --> 00:41:15,100
Want stel je voor dat je een bepaalde bepaling wil testen in een onderzoek.

740
00:41:15,100 --> 00:41:17,700
Stel dat die 20 euro kost per meting.

741
00:41:17,700 --> 00:41:20,320
Nou ja, keer je 160.000, dat gaat je kosten.

742
00:41:20,740 --> 00:41:28,980
We moeten proberen om daar een manier te vinden om toch met relatief beperkte middelen toch een hele grote aantal dingen te doen.

743
00:41:28,980 --> 00:41:32,500
Een van de mogelijkheden is natuurlijk gebruik te maken van al verzamelde data.

744
00:41:32,500 --> 00:41:33,500
Dus al bestaande data.

745
00:41:33,500 --> 00:41:36,500
Die je dan bijvoorbeeld in predictiemodellen kunt stoppen.

746
00:41:37,300 --> 00:41:46,940
En een goed voorbeeld daarvan is bijvoorbeeld dat een subgroep van deze 160.000, dat zijn 12.000 mensen, die hebben in de afgelopen jaren een CT-scan van hun hart ondergaan.

747
00:41:46,940 --> 00:41:48,660
Eigenlijk van hun borstkas.

748
00:41:49,220 --> 00:41:52,280
En dat was in het kader van een screeningsonderzoek naar longkanker.

749
00:41:52,280 --> 00:41:54,920
Dus eigenlijk wilden ze de longen op de scan zetten.

750
00:41:54,920 --> 00:41:56,920
Maar ja, het hart komt er dan automatisch ook weer op.

751
00:41:56,920 --> 00:42:01,940
En het voordeel daarvan was dat je ook de verkalkingen in de bloedvaten van het hart kunt meten.

752
00:42:01,940 --> 00:42:04,360
Eigenlijk kun je dan gewoon dezelfde beelden gebruiken.

753
00:42:04,360 --> 00:42:07,260
En dan doe je wat extra metingen op die kransvaten van het hart.

754
00:42:07,260 --> 00:42:12,540
En daar kun je dus allerlei scores uithalen die ook worden gebruikt als maat om hart- en vaatziekten te voorspellen.

755
00:42:12,540 --> 00:42:13,740
Dus bijvoorbeeld een hartinfarct.

756
00:42:13,740 --> 00:42:17,040
Nou, dan heb je dat van 12.000 mensen, wat ook weer uniek is.

757
00:42:17,200 --> 00:42:21,800
Dus dat zijn maar heel weinig groepen patiënten in de wereld waar die data van beschikbaar zijn.

758
00:42:21,800 --> 00:42:22,440
Groepen mensen.

759
00:42:22,440 --> 00:42:25,900
En we hebben natuurlijk bloed en urine van deze mensen in de vriezer liggen.

760
00:42:25,900 --> 00:42:30,460
Dus dat is ook weer een project wat ik eigenlijk als een soort spin-off van die bootcamp die ik had gedaan.

761
00:42:30,460 --> 00:42:31,780
Ze gaven een soort pilot grant.

762
00:42:31,780 --> 00:42:37,880
En daar heb ik een project uitgekregen wat wil onderzoeken van die verkalkingen in die kransvaten.

763
00:42:37,880 --> 00:42:39,920
Want dat is ook iets waar nierpatiënten veel last van hebben.

764
00:42:39,920 --> 00:42:42,760
Ja, welke factoren dragen daar nou aan bij?

765
00:42:42,880 --> 00:42:50,020
We willen dan bijvoorbeeld van die 12.000 mensen in samenwerking met een bedrijf die heel goed is in metabolomics.

766
00:42:50,020 --> 00:42:52,900
Dus zeg maar 10.000 metabolieten in één bloedsample meten.

767
00:42:52,900 --> 00:42:56,480
Dus allerlei stofjes die eiwitten en zo in bloed kunnen voorkomen.

768
00:42:56,480 --> 00:43:00,840
Die meten we dus van 12.000 mensen 10.000 stofjes per persoon.

769
00:43:00,840 --> 00:43:02,600
Dan heb je natuurlijk een enorme bak aan dat.

770
00:43:02,600 --> 00:43:06,900
Nou, daar kan je je lekker op uitleven met je predictiemodellen met AI.

771
00:43:06,900 --> 00:43:13,560
En daar proberen we natuurlijk dan combinaties van stofjes te vinden die echt kunnen voorspellen van hoeveel verkalkingen zitten er nou in je hart.

772
00:43:13,560 --> 00:43:19,300
Zodat je dat met een makkelijkere bloedtest kunt achterhalen in plaats van zo'n scan wat ook weer straling is en zo.

773
00:43:19,300 --> 00:43:21,300
En ook best wel duur is en intensief.

774
00:43:21,300 --> 00:43:24,240
Zou je dat met een bloedtest ook kunnen meten.

775
00:43:24,240 --> 00:43:28,940
En daarmee kunnen voorspellen van wie heeft er nou meer kans om bijvoorbeeld hart- en vaatziekten te krijgen.

776
00:43:28,940 --> 00:43:29,600
Nou, wat mooi.

777
00:43:29,840 --> 00:43:34,000
Ja, en een scan is niet alleen duur qua geld, maar natuurlijk ook qua tijd.

778
00:43:34,000 --> 00:43:36,780
We hebben last van wachtlijsten.

779
00:43:36,780 --> 00:43:38,760
Dus dat zou dat ook helpen om dat terug te dringen.

780
00:43:38,760 --> 00:43:42,720
Ja, nou dus als je kijkt van hoe wij het UMCG bijvoorbeeld AI inzetten.

781
00:43:42,720 --> 00:43:48,920
Dan proberen we ook tijd te besparen door bijvoorbeeld met generatieve AI dan samenvattingen van dossiers te maken.

782
00:43:48,920 --> 00:43:52,380
Suggesties voor antwoorden op vragen van patiënten te geven.

783
00:43:52,380 --> 00:43:54,840
Dat soort dingen, dat bespaart ons al wel wat tijd.

784
00:43:54,840 --> 00:43:57,820
Hoewel dat nog wel, er zijn echt nog wel ontwikkelingen nodig.

785
00:43:57,820 --> 00:44:02,180
Dus de suggestie die ik soms krijg voor antwoorden, ja, die tijd ook niet helemaal, zeg maar.

786
00:44:02,180 --> 00:44:05,340
Maar ja, die systemen leren natuurlijk ook en worden steeds beter.

787
00:44:05,340 --> 00:44:08,680
Dus het zal een kwestie van tijd zijn dat we dat echt wel meer gaan inzetten, ja.

788
00:44:08,680 --> 00:44:09,560
Mooi.

789
00:44:09,560 --> 00:44:10,880
Ja, dit triggert mij wel.

790
00:44:10,880 --> 00:44:17,420
Zijn er nog andere vlakken waar je voorbeelden hebt vanuit de zorgsector waar je AI op dit vlak ziet toegepast worden?

791
00:44:17,820 --> 00:44:20,880
Nou ja, dus ik denk, we hebben het best wel veel over predictie gehad.

792
00:44:20,880 --> 00:44:23,820
Dus voorspellen van wie krijgt er nou een ziekte, ja of nee.

793
00:44:23,820 --> 00:44:27,700
Of als je een ziekte hebt, kun je dan voorspellen van wat het beloop is.

794
00:44:27,700 --> 00:44:32,760
Dus een van de dingen waar wij veel mee bezig zijn, is het voorspellen van de tijd tot aan een bepaald event.

795
00:44:33,820 --> 00:44:37,640
Tot nu toe is het met name zo dat er percentage risico voorspeld wordt.

796
00:44:37,640 --> 00:44:41,500
En dan zit je in de spreekkamer een beetje van als je tegen een patiënt moet zeggen,

797
00:44:41,500 --> 00:44:46,000
u hebt 13% kans om in de komende vijf jaar diabetes te krijgen, suikerziekte.

798
00:44:46,000 --> 00:44:48,480
Ja, dan denk je, hartstikke leuk, maar wat kan ik daarmee?

799
00:44:48,480 --> 00:44:53,600
Terwijl als je zegt van nou, ik zie in mijn scherm staan dat u volgend jaar waarschijnlijk diabetes hebt.

800
00:44:53,600 --> 00:44:57,260
Nou, dan denk je wel van nou, wat moet ik doen om dit te voorkomen?

801
00:44:57,260 --> 00:45:02,220
Dus dat zijn dingen waar we mee bezig zijn, dat we de tijd proberen te voorspellen.

802
00:45:02,220 --> 00:45:04,060
Dus daar hebben we allerlei modellen voor.

803
00:45:04,060 --> 00:45:06,560
En dat is ook voor die donornieren bijvoorbeeld van belang.

804
00:45:06,560 --> 00:45:08,100
Dus hoe lang gaat een donornier mee?

805
00:45:08,100 --> 00:45:09,920
Dus in allerlei settings komt dat terug.

806
00:45:09,920 --> 00:45:12,420
En ik kan me ook voorstellen dat je daar dashboards voor zou kunnen maken,

807
00:45:12,420 --> 00:45:15,880
die in een medisch dossier, zeg maar, dat er bepaalde waarschuwingen opkomen van,

808
00:45:15,880 --> 00:45:19,660
let op, deze patiënt heeft risico om binnenkort deze ziekte te krijgen,

809
00:45:19,660 --> 00:45:25,560
bijvoorbeeld aan de hand van bepaalde profielen die er aan de hand van allerlei medische gegevens

810
00:45:25,560 --> 00:45:27,800
die er in dat dossier te vinden zijn gedaan kunnen worden.

811
00:45:27,800 --> 00:45:31,420
Ja, ik ga even een paar jaar de toekomst in voor mezelf.

812
00:45:31,800 --> 00:45:35,180
Ik weet ook niet of we het zouden moeten willen, maar zie je dat we naartoe gaan,

813
00:45:35,180 --> 00:45:39,700
dat we als patiënt, als burger, daar ook steeds meer inzicht en begeleiding in gaan krijgen?

814
00:45:39,700 --> 00:45:41,520
Dat we ook die data kunnen gaan inzien?

815
00:45:41,520 --> 00:45:44,200
Ja, dat weet ik wel zeker, want dat gebeurt in feite al wel.

816
00:45:44,200 --> 00:45:48,260
We hebben aan ons patiëntendossier ook een koppeling zitten met,

817
00:45:48,260 --> 00:45:50,320
dat heet dan in dit geval MijnUMCG,

818
00:45:50,320 --> 00:45:53,020
dat mensen zelf in eigen gezondheidsomgeving kunnen kijken.

819
00:45:53,020 --> 00:45:55,640
Maar er zijn steeds meer ontwikkelingen waar je niet alleen kan zien

820
00:45:55,640 --> 00:45:57,140
wanneer je een afspraak hebt in het ziekenhuis,

821
00:45:57,140 --> 00:45:59,420
maar ook van, hoe staat het ervoor met mijn gezondheid?

822
00:45:59,420 --> 00:46:02,780
Dus een van de dingen waar we bijvoorbeeld wel over praten met patiënten is,

823
00:46:02,780 --> 00:46:06,060
bijvoorbeeld de bloeddruk, van is die goed of niet goed gereguleerd?

824
00:46:06,060 --> 00:46:06,740
Wat kun je daaraan doen?

825
00:46:06,740 --> 00:46:08,480
Maar ook bijvoorbeeld de zoutinname.

826
00:46:08,480 --> 00:46:11,060
Dus ik zei al van, als je teveel zout eet, is het niet goed voor je nieren.

827
00:46:11,060 --> 00:46:14,140
We weten ook dat als je daar feedback op geeft,

828
00:46:14,140 --> 00:46:16,580
dus je kan het makkelijk meten aan de urine,

829
00:46:16,580 --> 00:46:19,340
want zout wordt weer uitgescheiden in de urine.

830
00:46:19,340 --> 00:46:20,340
Dus aan de hand van, als je,

831
00:46:20,340 --> 00:46:24,220
We vragen mensen heel vaak om 24 uur lang urine te verzamelen en dat dan in te leveren.

832
00:46:24,220 --> 00:46:28,720
Daar meten we dan het zoutgehalte in en dan kun je zien hoeveel zout iemand heeft gegeten de dag ervoor.

833
00:46:28,720 --> 00:46:31,000
En daar kun je feedback op geven.

834
00:46:31,000 --> 00:46:33,280
Dus je ziet gewoon van, nou, ik zie dat u veel te veel zout eet,

835
00:46:33,280 --> 00:46:37,220
maar dat kan ook een app tegen iemand zeggen van, nou, het gaat goed of het gaat niet goed.

836
00:46:37,220 --> 00:46:38,300
En dan kan je zo bijsturen.

837
00:46:38,300 --> 00:46:42,800
En zeker voor een behoorlijke groep patiënten zou dat wel heel geschikt kunnen zijn.

838
00:46:42,800 --> 00:46:49,440
Ja, en ik denk ook voor sporters en dat soort zaken is dit natuurlijk ook mooie informatie om te hebben.

839
00:46:49,940 --> 00:46:52,680
Absoluut, ja, de eerlijkheid gebied te zeggen dat het niet voor alle patiënten geschikt is,

840
00:46:52,680 --> 00:46:59,100
want er zijn ook heel veel mensen die kunnen daar toch niet zoveel mee of zijn niet in staat om daar goed op in te grijpen, zeg maar.

841
00:46:59,100 --> 00:47:03,820
Maar voor een deel van de patiënten, zeker die actief met hun gezondheid bezig zijn, is dat zeker een goede oplossing.

842
00:47:03,820 --> 00:47:04,880
Ja, mooi.

843
00:47:04,880 --> 00:47:10,900
Nou ja, je noemde al dat jullie ook een beetje aan het kijken zijn rondom generatieve AI.

844
00:47:10,900 --> 00:47:12,780
We hebben een kaartspel.

845
00:47:12,780 --> 00:47:16,180
Misschien wil jij het even overnemen, Niels, dan hoef ik iets minder te praten.

846
00:47:16,180 --> 00:47:18,580
We hebben de AI Game Changer,

847
00:47:18,820 --> 00:47:21,360
waarin we eigenlijk een kaartspel hebben waarin we stelling hebben,

848
00:47:21,360 --> 00:47:24,600
om binnen organisaties te voor te zorgen dat we het gesprek erover hebben.

849
00:47:24,600 --> 00:47:27,260
En eigenlijk neem je stelling in het spel.

850
00:47:27,260 --> 00:47:29,260
En graag willen we je ook een stelling voorleggen.

851
00:47:29,260 --> 00:47:30,000
Nou, kom maar op.

852
00:47:32,640 --> 00:47:45,860
Je zag het, ik heb geschud.

853
00:47:45,860 --> 00:47:49,180
En de bovenste is geworden toekomstvisies en speculaties.

854
00:47:49,180 --> 00:47:58,340
En de stelling luidt, binnen een decennium zal elke beslissing in het bedrijfsleven ondersteund of genomen worden door generatieve AI.

855
00:47:59,460 --> 00:48:01,100
Ja, en dit geeft wel dan in de gezondheid.

856
00:48:01,100 --> 00:48:01,740
In de gezondheid, sorry.

857
00:48:01,740 --> 00:48:01,960
Ja.

858
00:48:01,960 --> 00:48:05,400
Dat is wel een heftige natuurlijk, want in hoeverre moeten we het willen.

859
00:48:05,400 --> 00:48:06,400
Je noemde het zelf ook al even.

860
00:48:06,400 --> 00:48:10,820
Ik denk, het zal zeker een hele belangrijke rol spelen.

861
00:48:10,820 --> 00:48:13,840
Of het volledig alles zal bepalen, dat weet ik niet.

862
00:48:13,840 --> 00:48:18,040
Maar ja, ik denk zeker, je ziet dat echt al wel gebeuren.

863
00:48:18,040 --> 00:48:24,940
Dat generatieve AI ook echt wel steeds meer invloed krijgt in de manier waarop wij praten met patiënten.

864
00:48:25,060 --> 00:48:27,120
Maar patiënten zelf natuurlijk ook komen met hun vragen.

865
00:48:27,120 --> 00:48:32,860
Het is natuurlijk super makkelijk om thuis even in ChatGPT in te vullen van, ja, wat is mijn nierziekte?

866
00:48:32,860 --> 00:48:33,540
Wat betekent het?

867
00:48:33,540 --> 00:48:35,420
Deze zijn mijn uitslagen, zeg het maar.

868
00:48:35,420 --> 00:48:40,800
Ja, en dan komen ze met vragen waar ik van soms ook wel even denk van, oh, oké.

869
00:48:40,800 --> 00:48:43,020
Zie je daar verschillend?

870
00:48:43,020 --> 00:48:45,040
Want jullie hadden natuurlijk al last van Google.

871
00:48:45,040 --> 00:48:49,940
Is het met ChatGPT beter, slechter of gelijk?

872
00:48:49,940 --> 00:48:52,120
Nou, ik denk eigenlijk beter.

873
00:48:52,120 --> 00:48:53,940
Want mensen googlen wat af.

874
00:48:54,080 --> 00:48:57,100
En er staat natuurlijk ook een heleboel, ja, toch wel desinformatie op internet.

875
00:48:57,100 --> 00:49:00,020
Zeker op het gebied van gezondheidszorg en ziektes.

876
00:49:00,020 --> 00:49:03,680
En ook allerlei dingen die helemaal niet wetenschappelijk onderbouwd zijn.

877
00:49:03,680 --> 00:49:12,480
Dus eigenlijk zou je willen dat mensen de informatie die ze zelf kunnen krijgen, zeg maar, alleen maar op wetenschappelijk onderzoek baseren.

878
00:49:12,480 --> 00:49:15,360
En niet op gewoon wat iemand zomaar online knalt zonder dat.

879
00:49:15,360 --> 00:49:17,320
Precies, wat Jantje en Pietje mee heeft gemaakt.

880
00:49:17,320 --> 00:49:20,200
Ja, en dat is misschien eigenlijk haast wel de meerderheid van de informatie op internet.

881
00:49:20,200 --> 00:49:22,220
Dus toch, ja, ervaringen.

882
00:49:22,220 --> 00:49:25,160
En ja, het liefst werken wij natuurlijk toch wel echt evidence-based.

883
00:49:25,160 --> 00:49:30,480
Dus dat iets echt onderzocht is van, het liefst met de controlegroep erbij en dan geblindeerd en zo.

884
00:49:30,480 --> 00:49:33,940
En voordat we dan echt zeggen, dit is echt een behandeling die wij ook echt doen.

885
00:49:33,940 --> 00:49:37,700
Dus ja, met Google hebben we daar wel veel last van gehad.

886
00:49:37,700 --> 00:49:40,340
En dat zal misschien met ChatGPT niet heel veel beter gaan worden.

887
00:49:40,420 --> 00:49:45,900
Aan de andere kant, ja, tot die modellen wel zo goed worden dat ze zich echt baseren op de wetenschappelijke onderzoeken.

888
00:49:45,900 --> 00:49:49,160
Ja, dan zou het wel eens beter kunnen worden.

889
00:49:49,160 --> 00:49:49,380
Ja.

890
00:49:49,380 --> 00:49:55,860
Maar dan wordt het ook interessant, want dan kan je gewoon echt discussies met patiënten hebben over, nou, jij vindt dit, wij denken misschien wel dat.

891
00:49:55,860 --> 00:49:58,040
En op basis van welke artikelen is dat dan?

892
00:49:58,040 --> 00:49:59,200
En hoe komen we daar samen uit?

893
00:49:59,200 --> 00:50:01,040
Ik zie dat er wel steeds meer gebeuren, hoor.

894
00:50:01,040 --> 00:50:03,100
Dat we echt dat soort gesprekken wel hebben met patiënten.

895
00:50:03,100 --> 00:50:06,140
En ja, het kost tijd en het vraagt wat van ons.

896
00:50:06,140 --> 00:50:07,900
Maar het levert ook wel echt heel veel op.

897
00:50:07,900 --> 00:50:10,180
Ja, het is een ander gesprek die je hebt inderdaad.

898
00:50:10,180 --> 00:50:11,520
Ja, next level.

899
00:50:11,520 --> 00:50:19,900
Het is natuurlijk wel hoe beter je begrijpt wat er aan de hand is, wat er gebeurt in je lijf en welke invloed je nog een beetje hebt.

900
00:50:19,900 --> 00:50:24,360
Hoe makkelijk je natuurlijk ook zelf in staat bent om veranderingen door te voeren.

901
00:50:24,360 --> 00:50:27,180
Ja, zeker. Dus het legt de regie ook voor een heel deel weer terug bij de patiënt.

902
00:50:27,180 --> 00:50:28,420
En dat is superbelangrijk.

903
00:50:28,420 --> 00:50:33,380
En de tijd dat natuurlijk de dokter tegen je zei van je moet dit of je moet dat of je mag dit niet of dat niet.

904
00:50:33,380 --> 00:50:35,180
Ja, die tijd ligt echt ver achter ons.

905
00:50:35,740 --> 00:50:37,840
Daar zijn we steeds kritischer in geworden inderdaad.

906
00:50:37,840 --> 00:50:39,920
En dat denk ik ook goed in deze.

907
00:50:39,920 --> 00:50:42,160
Want welke invloed heb ik en past dit bij mij?

908
00:50:42,160 --> 00:50:44,920
Op basis van wat je zelf al zegt uit onderzoek.

909
00:50:44,920 --> 00:50:47,940
Zijn er zoveel contexten, afhankelijkheden die er zijn.

910
00:50:47,940 --> 00:50:49,060
En wat voelt goed?

911
00:50:49,060 --> 00:50:53,620
Ja, dus ik denk dat het nog steeds wel een rol voor artsen zal zijn om dat ook goed te duiden.

912
00:50:53,620 --> 00:50:59,400
Dat bepaalde onderzoeken die gedaan zijn, zelfs hoe goed die onderzoeken ook zijn, zullen gedaan zijn in bepaalde groepen patiënten.

913
00:50:59,400 --> 00:51:01,980
En hoe vertaalt zich dat dan weer tot jouw individuele situatie?

914
00:51:02,200 --> 00:51:06,720
Om dat goed te kunnen duiden, ik denk dat met gen AI dat je daar toch ook nog niet helemaal komt.

915
00:51:06,720 --> 00:51:09,780
Dat je daar toch nog wel menselijke intelligentie voor nodig hebt.

916
00:51:09,780 --> 00:51:11,540
Dat weet ik ook wel zeker inderdaad.

917
00:51:11,540 --> 00:51:16,380
Je triggerde mij nog, je bent er zelf ingerold.

918
00:51:16,380 --> 00:51:17,660
Naar aanleiding van een bootcamp.

919
00:51:17,660 --> 00:51:22,720
Stel, luisteraar, maakt niet uit welke sector wil ook aan de slag met AI.

920
00:51:22,720 --> 00:51:29,440
Wat voor tips kan je die mensen, bedrijven meegeven als die hier ook waarde in zien of mee aan de slag willen?

921
00:51:29,440 --> 00:51:31,740
Ja, ik denk in de eerste plaats kijken om je in een eigen ziekenhuis.

922
00:51:31,740 --> 00:51:34,680
Want ik denk dat er al in de meeste ziekenhuizen echt al wel mensen hiermee bezig zijn.

923
00:51:34,680 --> 00:51:36,780
Dus probeer aan te haken bij initiatieven die er al zijn.

924
00:51:37,220 --> 00:51:38,060
Dat is één.

925
00:51:38,060 --> 00:51:41,820
En er is online natuurlijk ook de wereld te vinden aan trainingen die je kunt doen.

926
00:51:41,820 --> 00:51:45,660
Bijvoorbeeld, ik heb zelf ook zo'n Python course gedaan in honderd dagen.

927
00:51:45,660 --> 00:51:47,580
Weet je wel, dat je de basis kunt leren.

928
00:51:47,580 --> 00:51:50,180
Dat je een beetje je eigen snakeprogrammaatje kunt programmeren.

929
00:51:50,180 --> 00:51:51,360
Dat is natuurlijk hartstikke leuk.

930
00:51:51,360 --> 00:51:53,600
Maar dan snap je een beetje van hoe dat coderen werkt.

931
00:51:53,860 --> 00:51:58,800
Zo kun je toch van echt een beginner naar iemand die er al een beetje iets van weet en ziet wat er kan.

932
00:51:58,800 --> 00:52:00,860
Kan ontwikkelen zeg maar.

933
00:52:00,860 --> 00:52:04,280
Maar ik denk dat eigenlijk het belangrijkste toch wel is dat we erover in gesprek gaan met elkaar.

934
00:52:04,280 --> 00:52:10,180
En dat we ook steeds meer toch op medische bijeenkomsten deze onderwerpen voorbij zien komen.

935
00:52:10,180 --> 00:52:16,880
Al geef ik ook gelijk ruiterlijk toe dat de gezondheidszorg niet voorop loopt in ontwikkelingen op het gebied van de AI.

936
00:52:17,580 --> 00:52:21,180
Ik denk dat er toch nog steeds wel heel veel mensen echt lekker in hun eigen denkwereldje blijven zitten.

937
00:52:21,180 --> 00:52:26,840
En dat het ook echt wel nodig is om gewoon soms even flink zo'n vernieuwingsslag door te voeren.

938
00:52:26,840 --> 00:52:30,640
Ja, en daar helpen denk ik dit soort onderzoekstrajecten natuurlijk heel veel mee.

939
00:52:30,640 --> 00:52:34,680
Omdat het van theorie naar praktijk is met heel veel verschillende disciplines die meewerken.

940
00:52:34,680 --> 00:52:35,980
Dus een heel mooi initiatief.

941
00:52:35,980 --> 00:52:39,940
Ja, en het is fantastisch om die disciplines bij elkaar te brengen in de één onderzoeksgroep.

942
00:52:39,940 --> 00:52:45,560
En het is heel gaaf dat met die subsidies van de EU en van de NWO en zo dat het ook lukt om het geld te genereren.

943
00:52:45,560 --> 00:52:47,840
Om deze mensen ook daadwerkelijk in een team bij elkaar te krijgen.

944
00:52:47,840 --> 00:52:50,760
Want iedereen heeft weer zijn eigen steentje die die bijdraagt.

945
00:52:50,760 --> 00:52:54,280
Dus vanuit echt de hele technische hoek, maar ook weer vanuit de medische hoek.

946
00:52:54,280 --> 00:52:56,320
En ja, dat komt dan bij elkaar.

947
00:52:56,320 --> 00:52:57,140
Dus dat is wel heel mooi.

948
00:52:57,140 --> 00:53:02,900
Wat bij mij mooi opvalt en heel mooi dat je dat zegt is dat je op zoek gaat naar een stukje techniek.

949
00:53:02,900 --> 00:53:04,620
En dat je er zelf ook Python in bent gedoken.

950
00:53:04,620 --> 00:53:07,580
Maar eigenlijk ga je dus net even over de grenzen van het eigen vakgebied.

951
00:53:07,580 --> 00:53:10,220
En ik denk dat als we dat met elkaar steeds vaker gaan doen.

952
00:53:10,220 --> 00:53:15,500
Dat we vooruit gaan komen als technologie, maar ook als organisaties en als instelling inderdaad.

953
00:53:15,680 --> 00:53:17,100
Absoluut, ja dat hebben we dan wel nodig.

954
00:53:17,100 --> 00:53:22,560
Dat vraagt die mindset van dat mensen toch over hun eigen schaduw heen durven te stappen eigenlijk.

955
00:53:22,560 --> 00:53:24,780
Om je toch te verdiepen in iets wat je nog niet kent.

956
00:53:24,780 --> 00:53:30,500
En elkaar daar ook in tegemoet te komen in plaats van te denken van nou ik weet het zelf wel en het is wel goed zo.

957
00:53:30,500 --> 00:53:32,020
Ja en dat gaat alle kanten op.

958
00:53:32,020 --> 00:53:34,500
Dus dat jij wat van Python hebt opgedaan.

959
00:53:34,500 --> 00:53:37,740
Maar ook dat de Python experts wat van de zorgdomeinkennis op gaan doen.

960
00:53:37,740 --> 00:53:41,780
En ik denk dat daar inderdaad waar we meet in the middle de meeste waarde zit.

961
00:53:41,780 --> 00:53:42,400
Ja absoluut.

962
00:53:42,400 --> 00:53:42,800
Mooi om te horen.

963
00:53:42,800 --> 00:53:45,000
Nou dat lijkt me een hele mooie afsluiter.

964
00:53:45,000 --> 00:53:50,340
Martin, geweldig dat je vanuit Groningen, het was een twee uur enkele reis voor je om te komen.

965
00:53:50,340 --> 00:53:54,300
Dat je bereid was om dit aan ons en de luisteraars te vertellen.

966
00:53:54,300 --> 00:53:55,500
Super bedankt.

967
00:53:55,500 --> 00:53:56,620
Ja graag gedaan.

968
00:53:56,620 --> 00:53:57,760
Was het waard, zeker?

969
00:53:58,260 --> 00:53:59,600
Kijk dat horen we graag.

970
00:53:59,600 --> 00:54:03,320
En nou ja als jij hem wil afsluiten Niels.

971
00:54:03,320 --> 00:54:06,600
Ja dankjewel dat jullie weer luisteren naar de aflevering van AIToday Live.

972
00:54:06,600 --> 00:54:08,500
Vergeet je niet te abonneren op onze nieuwsbrief.

973
00:54:08,500 --> 00:54:11,560
Daar vind je de leukste nieuwtjes en de inside informatie.

974
00:54:11,560 --> 00:54:14,200
En vergeet je niet te abonneren op ons kanaal.

975
00:54:14,200 --> 00:54:15,320
Tot de volgende keer.

976
00:54:15,320 --> 00:54:17,880
[Muziek]


People on this episode