AIToday Live

S06E69 - De rol van data in moderne zorg: de ervaring van Daniel Kapitan (PharmAccess & TU/Eindhoven)

Aigency by Info Support Season 6 Episode 69

In deze aflevering is te gast: Daniel Kapitan. Daniel heeft meer dan 20 jaar ervaring in de sector en is momenteel betrokken bij projecten die de gezondheidszorg in Afrika verbeteren.

Daniel legt uit hoe zorgrobots worden ingezet om eenzaamheid onder ouderen te verminderen, maar benadrukt dat de huidige technologie nog niet in staat is om menselijke interactie volledig te repliceren.

Daarnaast bespreekt hij het delen van zorgdata in Afrika en de uitdagingen die daarbij komen kijken, zoals beperkte toegang tot internet en elektriciteit. Ook de rol van AI in data-analyse komt aan bod, waarbij machine learning wordt gebruikt om risicoprofielen te creëren voor zwangere vrouwen.

Daniel introduceert het concept van "downward scalability" en bespreekt hoe generatieve AI kan helpen bij het beantwoorden van vragen van patiënten via een app. 

De belangrijkste onderwerpen in deze aflevering zijn:

  • De rol van sociale intelligentie in AI en robots
  • De toepassing van AI in de gezondheidszorg, inclusief telehealth en datadelen
  • Vooruitzichten en uitdagingen van AI in het onderwijs en maatschappelijke context
  • Het belang van datakwaliteit voor generatieve AI-toepassingen
  • De impact van open-source en datasolidariteit op databeheer

Links

Genoemde organisaties, personen en bedrijven: TU Eindhoven - PharmAccess Foundation - Dutch Hospital Data - Textors - AI-instituut van de EU Eindhoven - zorgsector - zorgrobots

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,001 --> 00:00:04,000
Hey, leuk dat je weer luistert naar een nieuwe aflevering van de AIToday Live.

2
00:00:04,000 --> 00:00:08,000
Met mijn naam Niels Naglé, Area Lead Data & AI bij Info Support.

3
00:00:08,000 --> 00:00:11,000
En helaas, Joop kon er vandaag niet bij zijn, die was verhinderd.

4
00:00:11,000 --> 00:00:14,000
En ik vraag me toch een beetje af, we gaan toch wel wat data raken vandaag.

5
00:00:14,000 --> 00:00:17,000
Dus wie weet dat dat meespeelt in zijn beslissingen.

6
00:00:17,000 --> 00:00:21,000
We hebben vandaag een speciale gast, Daniel Kapitan.

7
00:00:21,000 --> 00:00:24,000
Dankjewel, leuk dat je wilde komen naar onze studio.

8
00:00:24,000 --> 00:00:27,000
Zou je ons eerst even meenemen, wie is Daniel Kapitan voor de luisteraars?

9
00:00:27,000 --> 00:00:31,000
Ik ben Daniel, getrouwd, vorig jaar 50 geworden.

10
00:00:31,000 --> 00:00:38,000
Sinds mijn jonge jaren eigenlijk, met een tik van de draaideur qua wiskunde en beta dingen.

11
00:00:38,000 --> 00:00:40,000
Uiteindelijk gepromoveerd in de natuurkunde.

12
00:00:40,000 --> 00:00:46,000
En ik werk nu ruim 20 jaar, 23 jaar of zo denk ik, in het gebied van data en AI.

13
00:00:46,000 --> 00:00:48,000
Ook voordat het data science heette.

14
00:00:48,000 --> 00:00:53,000
Ik heb allerlei modellen gebouwd, vooral heel veel aanvankelijk eerste helft in de telecom sector.

15
00:00:53,000 --> 00:00:58,000
En in de afgelopen 12 jaar vooral in de non-for-profit en daarbinnen juist weer healthcare.

16
00:00:58,000 --> 00:01:03,000
Op dit moment heb ik een deeltijd aanstelling bij het AI-instituut van de EU Eindhoven.

17
00:01:03,000 --> 00:01:10,000
En mijn belangrijkste rol daarbij is om het volwassen educatieprogramma vorm te geven en mensen op te leiden.

18
00:01:10,000 --> 00:01:11,000
Dat is echt super tof.

19
00:01:11,000 --> 00:01:15,000
Dan krijg ik ook heel veel voeding met wat er allemaal leeft bij de organisaties,

20
00:01:15,000 --> 00:01:17,000
om toch AI een beetje breder begrijpbaar te maken.

21
00:01:17,000 --> 00:01:20,000
En voor de andere helft ben ik freelance adviseur.

22
00:01:20,000 --> 00:01:24,000
Waarbij mijn twee grootste projecten op dit moment zijn voor PharmAccess Foundation.

23
00:01:24,000 --> 00:01:27,000
Voor het beschikbaar maken van zorgdata in Afrika.

24
00:01:27,000 --> 00:01:31,000
Ook daar is het gewoon echt een serieus uitdaging.

25
00:01:31,000 --> 00:01:34,000
En voor Dutch Hospital Data.

26
00:01:34,000 --> 00:01:39,000
Het opbouwen van federatieve data platformen in de zorg in samenwerking met heel veel partijen.

27
00:01:39,000 --> 00:01:44,000
Mooi, gaaf en al jaren ervaring van verschillende perspectieven met allemaal raakvlak met data en AI.

28
00:01:44,000 --> 00:01:49,000
En voor de luisteraars die al jaren met ons meegaan, ook geen onbekende in de show.

29
00:01:49,000 --> 00:01:51,000
Ik geloof dat je zei dat het twee jaar geleden was.

30
00:01:51,000 --> 00:01:55,000
Ja, in de trein hiernaartoe zat ik een beetje door mijn LinkedIn-feed te kijken.

31
00:01:55,000 --> 00:01:57,000
Het was precies twee jaar geleden.

32
00:01:57,000 --> 00:02:00,000
Het stond zelfs bij, het was de eerste post-COVID face-to-face.

33
00:02:00,000 --> 00:02:04,000
Ik had toen nog een kantoortje bij station Rotterdam.

34
00:02:04,000 --> 00:02:07,000
Het was super mooi, dus leuk om hier weer te zijn.

35
00:02:07,000 --> 00:02:09,000
Dankjewel dat je er wilde zijn.

36
00:02:09,000 --> 00:02:14,000
We hebben een nieuw topic en dat is de vraag van de leek.

37
00:02:14,000 --> 00:02:16,000
Daar gaan we eerst even mee beginnen.

38
00:02:16,000 --> 00:02:22,000
Adviseur interne communicatie. Ik vind het wel heel fijn dat we ons als mens nog makkelijk onderscheiden van een robot.

39
00:02:22,000 --> 00:02:24,000
Dankzij onze sociale intelligentie.

40
00:02:24,000 --> 00:02:28,000
Daarin zijn we nog steeds uniek, al worden robotjes wel ingezet in de zorg.

41
00:02:28,000 --> 00:02:33,000
Om bijvoorbeeld aan eenzame ouderen, quasi geïnteresseerde vragen te stellen.

42
00:02:33,000 --> 00:02:36,000
Zo voelen deze mensen zich schijnbaar minder eenzaam.

43
00:02:36,000 --> 00:02:40,000
Verwacht je dat AI in de nabije toekomst over echt sociale vaardigheden gaat beschikken?

44
00:02:40,000 --> 00:02:43,000
En zo ja, wat moet ik me daar dan bij voorstellen?

45
00:02:43,000 --> 00:02:45,000
Schitterende vraag.

46
00:02:45,000 --> 00:02:47,000
Uit mijn hart gegrepen.

47
00:02:47,000 --> 00:02:50,000
Waar kan ik beginnen?

48
00:02:50,000 --> 00:02:54,000
Vooropgesteld specifiek deze casus, de zorgrobotjes.

49
00:02:54,000 --> 00:02:57,000
Ze zijn er in verschillende vormen en maten.

50
00:02:57,000 --> 00:03:00,000
Heel lang geleden was er een pratende plant.

51
00:03:00,000 --> 00:03:06,000
Tegenwoordig heb je er volgens mij ook eentje in de vorm van een soort kleine zeehond of zo.

52
00:03:06,000 --> 00:03:09,000
Die ademhaalt, als ik het goed heb.

53
00:03:09,000 --> 00:03:10,000
Ja, die zit ook dichtbij je.

54
00:03:10,000 --> 00:03:13,000
Dus daar zit ook iets van fysiek contact om mensen te triggeren.

55
00:03:13,000 --> 00:03:20,000
Ik gebruik dit heel vaak in mijn colleges om ook gewoon een beetje als opwarmertje om aan te geven van

56
00:03:20,000 --> 00:03:23,000
wat vinden we hier nou eigenlijk van als mensen onderling.

57
00:03:23,000 --> 00:03:26,000
En de meningen zijn extreem verdeeld.

58
00:03:26,000 --> 00:03:30,000
Dus het eerste wat ik vooraf wil zeggen, ik heb hier absoluut ook niet de wijsheid in pacht.

59
00:03:30,000 --> 00:03:38,000
Ik weet wel bij de TU Eindhoven, met name ook in de filosofie faculteit, wordt hier serieus onderzoek naar gedaan.

60
00:03:38,000 --> 00:03:41,000
Wat doet dit met mensen? Wat doet het met menselijke interactie?

61
00:03:41,000 --> 00:03:48,000
En even dan heel specifiek de vraag, verwachten we dat robots, want ze gebruikt het woord robots,

62
00:03:48,000 --> 00:03:53,000
vind ik ook beter dan het over AI te hebben, want met robots hebben we denk ik wel de juiste associatie.

63
00:03:53,000 --> 00:03:58,000
Het is echt een autonoom ding waar je een bepaalde verstandhouding mee op gaat bouwen.

64
00:03:58,000 --> 00:04:00,000
Gaan die dan inderdaad sociale vaardigheden?

65
00:04:00,000 --> 00:04:08,000
Nou, met de huidige techniek gaat dat voorlopig niet komen, omdat de huidige technieken echt gebaseerd zijn

66
00:04:08,000 --> 00:04:13,000
vooral op rauwe computing power en alleen maar op correlaties.

67
00:04:13,000 --> 00:04:18,000
En ik wil geloven als mens dat wij meer zijn dan dat.

68
00:04:18,000 --> 00:04:21,000
Dat sociale interacties veel meer zijn dan alleen maar correlaties.

69
00:04:21,000 --> 00:04:27,000
Tegelijkertijd, als je een beetje meer in het voorkamp bent,

70
00:04:27,000 --> 00:04:32,000
ik heb ook gezien in discussies met zorgpartijen voor eenzame ouderen, niet eens zozeer eenzaam,

71
00:04:32,000 --> 00:04:36,000
maar die bijvoorbeeld moeite hebben vanwege aandoeningen zoals dementie,

72
00:04:36,000 --> 00:04:44,000
doordat een semi-autonoom apparaat, zeg ik dan maar, hun triggert om vragen, antwoord en iets van een dialoog,

73
00:04:44,000 --> 00:04:50,000
omdat dat hen helpt, dan zeg ik van ja, laten we dat dan vooral verder verkennen en breder uitrollen.

74
00:04:50,000 --> 00:04:56,000
Maar dat noem ik geen sociale interactie, niet zoals deze mevrouw die vraag stelde.

75
00:04:56,000 --> 00:05:00,000
Dus we zouden het graag willen, maar we hebben nog een flinke route te gaan.

76
00:05:00,000 --> 00:05:07,000
En dat is de vraag van de mensen die het willen weten.

77
00:05:07,000 --> 00:05:10,000
En dat is de vraag van de mensen die het willen weten.

78
00:05:25,000 --> 00:05:30,000
En dat is de vraag van de mensen die het willen weten.

79
00:05:30,000 --> 00:05:33,000
En dat is de vraag van de mensen die het willen weten.

80
00:15:18,000 --> 00:15:21,000
En je had het over klein, klein en kleinst.

81
00:15:21,000 --> 00:15:23,000
Heb je voorbeelden daarvan?

82
00:15:23,000 --> 00:15:25,000
Wanneer is dat handig om daar naartoe te gaan,

83
00:15:25,000 --> 00:15:29,000
in plaats van de grote generieke modellen waar generieke antwoorden uitkomen?

84
00:15:29,000 --> 00:15:33,000
Wanneer zou je de stappen moeten willen maken richting klein, klein en kleinst?

85
00:15:33,000 --> 00:15:36,000
Nou, één van de triggers, en dat zei ik ook bewust tijdens mijn inleiding,

86
00:15:36,000 --> 00:15:41,000
hoe ik op dit spoor kwam, is dat ik nu twee jaar voor PharmAccess Foundation werk.

87
00:15:41,000 --> 00:15:44,000
En één van mijn hoofdopdrachten daar is,

88
00:15:44,000 --> 00:15:47,000
is om datadelen mogelijk te maken in Afrika.

89
00:15:47,000 --> 00:15:54,000
We werken vooral in landen zoals Kenia, Tanzania, Ghana en Nigeria.

90
00:15:54,000 --> 00:15:57,000
En dan kan je zeggen, joh, hebben we geen betere dingen te doen?

91
00:15:57,000 --> 00:16:02,000
Lees andere, meer urgente problemen dan het te gaan hebben over data platformen.

92
00:16:02,000 --> 00:16:05,000
Nou, onze gedachte, ons heel expliciet Farm Access,

93
00:16:05,000 --> 00:16:08,000
is we kunnen niet zorg leveren op de oude manier.

94
00:16:08,000 --> 00:16:09,000
Dat gaat gewoon niet.

95
00:16:09,000 --> 00:16:11,000
Waarom niet? Als ik de vraag stel.

96
00:16:11,000 --> 00:16:14,000
We hebben te weinig artsen, we hebben te weinig geld.

97
00:16:14,000 --> 00:16:17,000
Vanwege de geografie, rurale gebieden.

98
00:16:17,000 --> 00:16:19,000
Het kan vaak gewoon fysiek niet.

99
00:16:19,000 --> 00:16:25,000
Dus is één van de gedachten, remote care, telehealth, noem het maar op,

100
00:16:25,000 --> 00:16:27,000
heeft hier een belangrijke rol in.

101
00:16:27,000 --> 00:16:32,000
En je ziet dus, en dat schept hoop, dat bijvoorbeeld in Tanzania,

102
00:16:32,000 --> 00:16:36,000
er jonge dokters opstaan die zeggen van, ja, ik heb leren dokteren,

103
00:16:36,000 --> 00:16:40,000
maar ik ga nu meteen een telehealth dokterspraktijk opstarten.

104
00:16:40,000 --> 00:16:42,000
Een telehealth? Waar moet ik dan aan denken?

105
00:16:42,000 --> 00:16:46,000
Nou, het goede nieuws is dat in landen zoals Tanzania en Kenia,

106
00:16:46,000 --> 00:16:48,000
de meeste mensen hebben wel een smartphone.

107
00:16:48,000 --> 00:16:52,000
Maar die zijn niet bij macht om een arts te bezoeken.

108
00:16:52,000 --> 00:16:55,000
Een huisarts, het gaat er wel over eerst de lijn zorgen.

109
00:16:55,000 --> 00:16:57,000
Maar een app kunnen ze downloaden.

110
00:16:57,000 --> 00:17:00,000
Dus waar jij en ik normaliter voor naar de huisarts gaan,

111
00:17:00,000 --> 00:17:02,000
met het inloopspreekuur in de ochtend,

112
00:17:02,000 --> 00:17:04,000
dat doen ze dus nu veel meer via de app.

113
00:17:04,000 --> 00:17:08,000
Zo veel mogelijk via de app, je krijgt daadwerkelijk wel een huisarts aan de lijn.

114
00:17:08,000 --> 00:17:10,000
En pas wanneer, na dat eerste gesprek, blijkt,

115
00:17:10,000 --> 00:17:13,000
oh ja, er is wel iets serieuzer aan de hand.

116
00:17:13,000 --> 00:17:16,000
En daardoor is het noodzakelijk dat je gaat reizen.

117
00:17:16,000 --> 00:17:19,000
En ook een van de barrières is een halve dag,

118
00:17:19,000 --> 00:17:23,000
of misschien zelfs een hele dag gaan reizen om ergens naar een dokter te gaan.

119
00:17:23,000 --> 00:17:25,000
Ja, ik heb dan geen inkomen.

120
00:17:25,000 --> 00:17:30,000
Het zijn echt dat soort hele primaire vraagstukken.

121
00:17:30,000 --> 00:17:34,000
Daar geloven we in, in de zin van, nou, kunnen we dan toch

122
00:17:34,000 --> 00:17:39,000
de goede dingen van digitalisering zo inzetten

123
00:17:39,000 --> 00:17:43,000
dat we dus inderdaad zorg op afstand ook in deze landen kunnen aanbieden.

124
00:17:43,000 --> 00:17:46,000
En wat zijn dan de uitdagingen waar je zo tegenaan loopt?

125
00:17:46,000 --> 00:17:48,000
Nou, dan hebben we dus allemaal ideeën.

126
00:17:48,000 --> 00:17:52,000
We hebben allemaal architecturen. Ook daar wordt cloud architectuur gebruikt.

127
00:17:52,000 --> 00:17:56,000
Maar als je dus naar een willekeurige zorginstelling gaat,

128
00:17:56,000 --> 00:17:59,000
om en nabij de grote wegen en de grote steden,

129
00:17:59,000 --> 00:18:03,000
heb je vaak wel internet en stroom, maar daarbuiten niet.

130
00:18:03,000 --> 00:18:08,000
Dus je moet echt gaan nadenken qua architectuur. Hoe gaat dit werken?

131
00:18:08,000 --> 00:18:11,000
Dus we zijn ook aan het verkennen met sommige partijen,

132
00:18:11,000 --> 00:18:15,000
moeten er solar panels, zonnepanelen op het dak, dat we daar stroom hebben.

133
00:18:15,000 --> 00:18:18,000
En het andere belangrijke voor deze discussie is dat ik erachter kwam,

134
00:18:18,000 --> 00:18:23,000
ja, we kunnen niet eens van op aan dat we een klassieke soort client-server opstelling,

135
00:18:23,000 --> 00:18:25,000
die hebt een app. - De connectiviteit.

136
00:18:25,000 --> 00:18:27,000
De connectiviteit, die knalt er de hele tijd uit.

137
00:18:27,000 --> 00:18:31,000
En dat heeft mij op het spoor gezet. Dus een van mijn collega's heeft mij echt uitgedaagd.

138
00:18:31,000 --> 00:18:34,000
Ja, iedereen heeft het over scaling.

139
00:18:34,000 --> 00:18:40,000
We nemen impliciet aan upward scaling. Maar wat nou als het downward scaling is?

140
00:18:40,000 --> 00:18:43,000
En toen dacht ik, dat vind ik ook een mooi technisch puzzeltje.

141
00:18:43,000 --> 00:18:46,000
Dus wat betekent downward scalability?

142
00:18:46,000 --> 00:18:49,000
En uiteindelijk hebben we een soort mini data warehouse in de browser gebruikt.

143
00:18:49,000 --> 00:18:52,000
Vanwege deze standaarden konden wij, zeg maar,

144
00:18:52,000 --> 00:18:57,000
het developmentwerk met dezelfde toolkit op Azure of op Google, maakt niet uit,

145
00:18:57,000 --> 00:19:01,000
maar het zijn allemaal parquetbestanden, het zijn open source libraries.

146
00:19:01,000 --> 00:19:05,000
Ja, dat is manier van opslag, hè? - Ja, sorry, parquet is manier van opslag.

147
00:19:05,000 --> 00:19:09,000
Maar als we bijvoorbeeld zeggen, ja, maar we moeten het wel kunnen uitrollen, kunnen deployen,

148
00:19:09,000 --> 00:19:13,000
nou, dat heet in jargon resource-constrained environments,

149
00:19:13,000 --> 00:19:15,000
dan is het bijna dezelfde codebase.

150
00:19:15,000 --> 00:19:19,000
Natuurlijk moet je wel iets aanpassen, maar het merendeel blijft hetzelfde.

151
00:19:19,000 --> 00:19:22,000
We hebben dus technieken en standaarden zoals WebAssembly,

152
00:19:22,000 --> 00:19:26,000
en het draait gewoon in de browser. Echt volledig.

153
00:19:26,000 --> 00:19:30,000
En een jaar geleden hadden we dit dus voor 30 klinieken draaien in Tanzania.

154
00:19:30,000 --> 00:19:32,000
Ik dacht echt, dit is waanzinnig. - Ja, mooi.

155
00:19:32,000 --> 00:19:34,000
Hoezo hebben we een server nodig? - Ja.

156
00:19:34,000 --> 00:19:37,000
En wat heeft het de mensen daar gebracht?

157
00:19:37,000 --> 00:19:40,000
Wat het mensen daar heeft gebracht is, dus je moet je voorstellen,

158
00:19:40,000 --> 00:19:44,000
een kliniek in rural areas, het is echt rural.

159
00:19:44,000 --> 00:19:51,000
Dus daar valt stroom vaak uit, en internet is er vaak of niet.

160
00:19:51,000 --> 00:19:56,000
Je moet echt naar buiten lopen en dan ergens toevallig op het heuveltje, dan heb je dekking.

161
00:19:56,000 --> 00:20:00,000
En wat ik van mijn lokale collega's heb begrepen, hoe het meestal zo is,

162
00:20:00,000 --> 00:20:04,000
de mensen die de zorg verlenen, die wonen ergens anders,

163
00:20:04,000 --> 00:20:10,000
die wonen vaak ergens in urban of suburban area's waar wel dekking is.

164
00:20:10,000 --> 00:20:13,000
Dus letterlijk één van de design criteria.

165
00:20:13,000 --> 00:20:19,000
Kunnen we alles zo downward scalen, dat het op die tablet past van die zorgverlener?

166
00:20:19,000 --> 00:20:23,000
Die zorgverlener die heeft bijna 24/7 die tablet bij zich.

167
00:20:23,000 --> 00:20:29,000
En het syncingmechanisme wat we gebruiken is als de zorgverlener 's avonds naar huis gaat,

168
00:20:29,000 --> 00:20:33,000
dat wordt gesynct en de volgende dag dan staat alles weer op die tablet,

169
00:20:33,000 --> 00:20:35,000
zodat ze weer de zorg kan verlenen in die kliniek.

170
00:20:35,000 --> 00:20:40,000
- Ja, dat brengt natuurlijk wel andere uitdagingen met zich mee inderdaad, om dan te tackelen.

171
00:20:40,000 --> 00:20:44,000
En hoe helpt AI bij het tackelen van deze problemen?

172
00:20:44,000 --> 00:20:48,000
- Nou, die vraag krijg ik dus ook vaak, omdat ook AI natuurlijk,

173
00:20:48,000 --> 00:20:52,000
ook in de wereld van development organizations is natuurlijk,

174
00:20:52,000 --> 00:20:54,000
en we hebben daar hoge verwachtingen van,

175
00:20:54,000 --> 00:20:56,000
ik ben daar wat voorzichtiger in.

176
00:20:56,000 --> 00:21:02,000
Want ik denk bijna, zullen we eerst gewoon het data-share wel goed regelen,

177
00:21:02,000 --> 00:21:06,000
en bij wijze van spreken eerst met hele recht toe recht aan,

178
00:21:06,000 --> 00:21:12,000
als dit dan dat type logica inbouwen in de apps, dan kunnen we dat doen.

179
00:21:12,000 --> 00:21:15,000
Een van de eerste vormen van machine learning die we hebben toegepast,

180
00:21:15,000 --> 00:21:18,000
we doen veel op het gebied van antenatal care,

181
00:21:18,000 --> 00:21:25,000
dus moeder- en kindzorg, om dus ook de geboorte/sterfte tegen te gaan,

182
00:21:25,000 --> 00:21:31,000
is een heel simpel algoritme met risicoprofielen, op basis van leeftijd, etc.

183
00:21:31,000 --> 00:21:35,000
Dat is echt niet waar we de meeste tijd in kwijt zijn.

184
00:21:35,000 --> 00:21:39,000
Het is alle data-feeds, alle questionnaires, hoe doen we het veilig?

185
00:21:39,000 --> 00:21:45,000
Ook Kenia heeft GDPR, hoe zorgen we ervoor dat communicatiekanaal

186
00:21:45,000 --> 00:21:50,000
zo breed mogelijk beschikbaar is? Afgelopen jaar hebben we een WhatsApp-integratie gebouwd.

187
00:21:50,000 --> 00:21:55,000
Dat zijn ook een van die gedachten, downward scalability, kan je zeggen.

188
00:21:55,000 --> 00:21:59,000
Laten we consumententechnologie gebruiken, want dat heeft iedereen,

189
00:21:59,000 --> 00:22:03,000
maar dat robuuster maken, dat het met goed fatsoen ingezet kan worden in de zorg.

190
00:22:03,000 --> 00:22:07,000
Dus de goede kwaliteit, dat de ethiek afgehandeld is, maar ook de privacy afgehandeld is.

191
00:22:07,000 --> 00:22:11,000
Daar ben ik wel nieuwsgierig naar, want er zijn andere patronen voor nodig,

192
00:22:11,000 --> 00:22:13,000
om die data op een bepaald moment te syncen,

193
00:22:13,000 --> 00:22:18,000
maar hoe zorgen we ervoor dat de privacy, de vraag die we ook voor AI-modellen vaak hebben,

194
00:22:18,000 --> 00:22:20,000
is van, hoe kunnen we de privacy waarborgen?

195
00:22:20,000 --> 00:22:22,000
Wat doen we wel met de data, wat doen we niet met de data?

196
00:22:22,000 --> 00:22:26,000
Hoe kunnen jullie dat aanpakken, of hoe kunnen we dat aanpakken?

197
00:22:26,000 --> 00:22:29,000
Ja, dat is echt een van de hamvragen.

198
00:22:29,000 --> 00:22:34,000
Dat is dus ook een van de thema's binnen het werk van PharmAccess Foundation,

199
00:22:34,000 --> 00:22:38,000
maar dat is ook hier in Nederland actueel, het thema datasolidariteit,

200
00:22:38,000 --> 00:22:40,000
waar we twee jaar geleden over hadden.

201
00:22:40,000 --> 00:22:46,000
En dan ga ik even in een andere context, dus niet meer over die apps, maar meer in algemene zin.

202
00:22:46,000 --> 00:22:55,000
Ik geloof dus oprecht dat als de data van oorsprong is vastgelegd als bijproduct,

203
00:22:55,000 --> 00:23:00,000
dus aanhalingstekens van het zorgproces, dan is die data eigenlijk van niemand.

204
00:23:00,000 --> 00:23:05,000
Het is van ons allemaal, want het is als onderdeel van een collectieve dienst,

205
00:23:05,000 --> 00:23:08,000
die is geleverd en die hebben we met elkaar opgebracht.

206
00:23:08,000 --> 00:23:10,000
Heb je een voorbeeld daarvoor?

207
00:23:10,000 --> 00:23:15,000
Ja, dus bijvoorbeeld alle data van jou die zowel in het huisartsinformatiesysteem zit,

208
00:23:15,000 --> 00:23:19,000
die in het apotheekinformatiesysteem zit, die in het ziekenhuisinformatiesysteem zit.

209
00:23:19,000 --> 00:23:25,000
Ik durf nog best wel te zeggen, oké, data over mentale zorg is een aparte categorie,

210
00:23:25,000 --> 00:23:28,000
omdat het gewoon heel dicht bij mensen komt.

211
00:23:28,000 --> 00:23:31,000
Maar over jou is er echt heel veel data beschikbaar.

212
00:23:31,000 --> 00:23:36,000
En een deel daarvan overigens staat gewoon bij CBS, op CBS micro-data.

213
00:23:36,000 --> 00:23:41,000
En mijn punt is dat die data is van niemand, van ons allemaal tegelijk.

214
00:23:41,000 --> 00:23:44,000
En een van de oplossingsrichtingen die we zien,

215
00:23:44,000 --> 00:23:48,000
want elke keer als we het over data hergebruik gaan hebben,

216
00:23:48,000 --> 00:23:51,000
dan zitten we heel snel in een soort denken, oké,

217
00:23:51,000 --> 00:23:54,000
we gaan bepalen wie toegang mag hebben tot de data.

218
00:23:54,000 --> 00:23:59,000
En we denken meteen, of ik dan, naar access right controls,

219
00:23:59,000 --> 00:24:04,000
oh ja, deze tabellen, deze database, deze medewerkers mogen wel, deze medewerkers mogen niet.

220
00:24:04,000 --> 00:24:11,000
Ik denk dat dat dus bijna niet te doen is, gegeven alle data die overal en nergens opgeslagen is.

221
00:24:11,000 --> 00:24:15,000
En als je het omdraait, dus een van de principes van federative learning,

222
00:24:15,000 --> 00:24:20,000
is dat je de governance en de mechanismes op het hergebruik van data,

223
00:24:20,000 --> 00:24:24,000
die ga je dus plakken op de berekeningen, op de algoritmes.

224
00:24:24,000 --> 00:24:28,000
Dus je gaat naar een goedkeuringsmechanisme op berekeningsniveau,

225
00:24:28,000 --> 00:24:31,000
op algoritmeniveau en niet op dataniveau.

226
00:24:31,000 --> 00:24:34,000
En dat is dan ook een van de grote dingen die je moet doen.

227
00:24:34,000 --> 00:24:37,000
Dus dat is ook een van de grote dingen die je moet doen.

228
00:24:37,000 --> 00:24:40,000
En dat is ook een van de grote dingen die je moet doen.

229
00:24:40,000 --> 00:24:43,000
Dus dat is ook een van de grote dingen die je moet doen.

230
00:24:43,000 --> 00:24:46,000
En dat is ook een van de grote dingen die je moet doen.

231
00:29:25,000 --> 00:29:28,000
En dus encryptietechnieken zijn zo volwassen.

232
00:29:28,000 --> 00:29:31,000
En toen ik dus twee jaar geleden begon bij PharmAccess,

233
00:29:31,000 --> 00:29:34,000
we hebben ook al een pilot gedaan met Rosemann Labs. Echt waanzinnig.

234
00:29:34,000 --> 00:29:40,000
Nou, je moet wel echt extra dingen doen, want het komt uit de kost om die encryptie te doen.

235
00:29:40,000 --> 00:29:45,000
De berekening die ik toen wilde uitvoeren op ordegrootte 30.000 patiënten,

236
00:29:45,000 --> 00:29:49,000
kon net wel, net niet. Maar we zijn dus nu zover.

237
00:29:49,000 --> 00:29:53,000
We kunnen gewoon datasets van Pancabate, een miljoen instances,

238
00:29:53,000 --> 00:29:57,000
kunnen gewoon een random forest optrainen met MPC.

239
00:29:57,000 --> 00:30:00,000
We kunnen voorlopig gewoon aan de gang.

240
00:30:00,000 --> 00:30:05,000
En dat is dus, ik zie gewoon zoveel dingen, helemaal terug naar jouw vraag,

241
00:30:05,000 --> 00:30:08,000
wat is er de afgelopen twee jaar gebeurd en hoe we hier aan tafel zitten.

242
00:30:08,000 --> 00:30:12,000
Aan de ene kant ben ik een enorme liefhebber en optimist.

243
00:30:12,000 --> 00:30:16,000
Ik zie zoveel mooie puzzelstukken. Maar dat bij elkaar brengen.

244
00:30:16,000 --> 00:30:20,000
Ja, en we zijn er nog niet, maar we zien wel mooie stappen inderdaad.

245
00:30:20,000 --> 00:30:25,000
Die party trick deed me denken, ik weet niet waarom, maar ik gelijk aan kaartspellen.

246
00:30:25,000 --> 00:30:30,000
Die hebben wij ook, dus ik maak nu even een brugje naar een van de thema's die we hebben in de podcast.

247
00:30:30,000 --> 00:30:36,000
Dus daar start ik nu even de jingle van in. Dat is namelijk onze AI Game Changer kaartspel.

248
00:30:36,000 --> 00:30:39,000
Om met elkaar de discussie te hebben over hoe we tegenstellingen aankijken.

249
00:30:39,000 --> 00:30:42,000
En eigenlijk is iedereen altijd de winnaar bij dit kaartspel.

250
00:30:42,000 --> 00:30:46,000
Dat is een beetje de truc. Dus ik ga jou een stelling voorleggen.

251
00:30:46,000 --> 00:30:59,000
[muziek]

252
00:30:59,000 --> 00:31:04,000
Zo, dat was onze AI-gegenereerde intro die we daar hebben.

253
00:31:04,000 --> 00:31:07,000
Ik heb de kaarten geschud zoals je net zag.

254
00:31:07,000 --> 00:31:08,000
Ik zie het.

255
00:31:08,000 --> 00:31:12,000
Dus ik pak gewoon, nou dit kan bijna niet, toeval bestaat niet.

256
00:31:12,000 --> 00:31:16,000
Gebruik en toepassingen is een van de thema's die we hebben.

257
00:31:16,000 --> 00:31:23,000
We hebben er een aantal in zitten om verschillende disciplines van het vraagstuk van generatieve AI te kunnen belichten.

258
00:31:23,000 --> 00:31:26,000
En deze stelling gaat over datakwaliteit.

259
00:31:26,000 --> 00:31:29,000
Alsof het zo moet zijn, Daniel.

260
00:31:29,000 --> 00:31:36,000
En de stelling is, onze datakwaliteit is uitstekend voor het gebruik van generatieve AI.

261
00:31:36,000 --> 00:31:40,000
Eerst eens of oneens en daarna mag je hem toelichten.

262
00:31:40,000 --> 00:31:44,000
Maar je bedoelt dit in algemene zin voor alle bedrijven en organisaties in Nederland of de wereld?

263
00:31:44,000 --> 00:31:49,000
Je mag ook een casus pakken waar je nu momenteel mee bezig bent geweest.

264
00:31:49,000 --> 00:31:54,000
Want dit is inderdaad een hele generieke vraag. Dus eerst maar even een casus en daarna misschien een bredere zin.

265
00:31:54,000 --> 00:31:59,000
Dus even herhalen, onze data kwaliteit is goed genoeg om gen-AI toe te passen.

266
00:31:59,000 --> 00:32:02,000
Zelfs nog iets extremer is uitstekend.

267
00:32:02,000 --> 00:32:08,000
Ja kijk, dat is heel flauw. Dat wil ik geloven, maar dat kom ik heel zelden tegen.

268
00:32:08,000 --> 00:32:13,000
Als ik hem iets afzwak van het is goed genoeg om met gen-AI in de gang te gaan,

269
00:32:13,000 --> 00:32:17,000
dan denk ik van ja, dat zie ik bij veel organisaties.

270
00:32:17,000 --> 00:32:19,000
Ook weer een mooi voorbeeld in de zorg.

271
00:32:19,000 --> 00:32:23,000
Ik werk met een start-up, Textors, bij TU Eindhoven.

272
00:32:23,000 --> 00:32:28,000
Die bouwen dus in-house gen-AI toepassingen.

273
00:32:28,000 --> 00:32:31,000
En ik heb ze geïntroduceerd bij een huisartsenpraktijk.

274
00:32:31,000 --> 00:32:34,000
En we gaan daar dus de digitale oma bouwen.

275
00:32:34,000 --> 00:32:38,000
De vragen die je vroeger aan oma stelde voordat je naar de huisarts ging.

276
00:32:38,000 --> 00:32:40,000
Oh, ja ja ja.

277
00:32:40,000 --> 00:32:43,000
Wat je dus nu ziet is dat met die huisarts-apps,

278
00:32:43,000 --> 00:32:46,000
er komen al best wel veel vragen via die app binnen.

279
00:32:46,000 --> 00:32:49,000
Bij sommige praktijken heeft het inmiddels zo'n vorm,

280
00:32:49,000 --> 00:32:54,000
dat iemand twee uur per dag, let wel, twee uur per dag alleen maar bezig is om die vragen te beantwoorden.

281
00:32:54,000 --> 00:32:56,000
Kunnen we dat niet efficiënter doen?

282
00:32:56,000 --> 00:33:00,000
Nou, en ik denk dus dat, zelfs dus met de huidige techniek van gen-AI,

283
00:33:00,000 --> 00:33:04,000
en bij voorkeur dus inderdaad de wat meer open foundational models,

284
00:33:04,000 --> 00:33:09,000
die je dan veilig in je eigen omgeving kan gebruiken.

285
00:33:09,000 --> 00:33:12,000
En daar bovenop met extra data gaat trainen, in dit geval.

286
00:33:12,000 --> 00:33:18,000
Dus de huisartsendata toegevoegd ook met de protocollen,

287
00:33:18,000 --> 00:33:21,000
die gewoon in de Nederlandse huisartsenzorg gebruikt worden.

288
00:33:21,000 --> 00:33:25,000
Ja, de datakwaliteit is echt goed genoeg om dat te doen.

289
00:33:25,000 --> 00:33:29,000
En je kan het echt binnen een paar maanden live hebben.

290
00:33:29,000 --> 00:33:32,000
En de grootste uitdaging daarna is natuurlijk weer alle change management daarna.

291
00:33:32,000 --> 00:33:38,000
Hoe ga je het gebruiken? Je moet een proces voor de, hoe ga je de antwoorden goedkeuren?

292
00:33:38,000 --> 00:33:42,000
De moeilijke antwoorden, de makkelijke antwoorden en dan continu verbeteren.

293
00:33:42,000 --> 00:33:45,000
Dus in afgezwaktere vorm ben ik het ermee eens.

294
00:33:45,000 --> 00:33:47,000
Oké, dankjewel.

295
00:33:47,000 --> 00:34:00,000
[muziek]

296
00:34:00,000 --> 00:34:05,000
Ja, leuke stelling. Ik heb echt geschud net, maar het zou bijna over kunnen komen,

297
00:34:05,000 --> 00:34:09,000
als het doorgestoken kaart is inderdaad. Maar deze kwam letterlijk boven inderdaad.

298
00:34:09,000 --> 00:34:10,000
Ik heb die niet geschudden.

299
00:34:10,000 --> 00:34:14,000
Nee, en ik denk dat het wel belangrijk is inderdaad. Datakwaliteit is goed genoeg.

300
00:34:14,000 --> 00:34:17,000
En dat is ook een van de dingen die we in de toekomst hebben gedaan.

301
00:39:38,000 --> 00:39:41,000
Dus dat is allemaal de goede kant op.

302
00:39:41,000 --> 00:39:44,000
Maar het moet nog wel in standaarden worden vastgelegd.

303
00:39:47,000 --> 00:39:50,000
Ik zou graag zien dat bijvoorbeeld wetenschappers,

304
00:39:50,000 --> 00:39:53,000
dat ze niet alleen op peer-reviewed journals worden beoordeeld,

305
00:39:53,000 --> 00:39:56,000
maar ook op output.

306
00:39:56,000 --> 00:39:59,000
Ze hebben hier een open standaard geschreven en ze hebben een community aan de gang gekregen.

307
00:39:59,000 --> 00:40:02,000
Of ze hebben een open source implementatie van een standaard gemaakt.

308
00:40:02,000 --> 00:40:05,000
Dat zie je hier en daar.

309
00:40:05,000 --> 00:40:08,000
En dat is ook een van de dingen die we in de toekomst hebben gedaan.

310
00:41:26,000 --> 00:41:31,000
En dat heeft dus te maken met dat je dus via die open source implementaties

311
00:41:31,000 --> 00:41:36,000
in parallel met open standaarden, en een open standaard is bijvoorbeeld

312
00:41:36,000 --> 00:41:40,000
het TCP/IP-protocol, want zonder dat kan het internet niet werken.

313
00:41:40,000 --> 00:41:43,000
- Voor de informatieuitwisseling. - Ja, dus allemaal in die hoek.

314
00:41:43,000 --> 00:41:49,000
En als je dat gezamenlijk doet, dan zijn talloze studies die hebben uitgewezen,

315
00:41:49,000 --> 00:41:55,000
als je dus via een open manier van ontwikkelen dit soort technieken gaat uithollen,

316
00:41:55,000 --> 00:41:59,000
dan heeft het een veel grotere maatschappelijke waarde en ook veel eerlijkere verdeling

317
00:41:59,000 --> 00:42:01,000
in plaats van een closed source te maken.

318
00:42:01,000 --> 00:42:04,000
Omdat het open is, kan je de code verbeteren.

319
00:42:04,000 --> 00:42:09,000
Je kan het inzien, iedereen kan daar inderdaad kwetsbaarheden in herkennen

320
00:42:09,000 --> 00:42:11,000
en helpen op te lossen.

321
00:42:11,000 --> 00:42:15,000
Misschien ook niet heel toevallig is het een thema die we ook in de podcast

322
00:42:15,000 --> 00:42:17,000
een drieluik van hebben, waar Joop ook toelicht geeft.

323
00:42:17,000 --> 00:42:20,000
Maar wat is een open source in de AI-context?

324
00:42:20,000 --> 00:42:22,000
Want dan is de code misschien niet meer voldoende.

325
00:42:22,000 --> 00:42:24,000
Dan heb je het natuurlijk ook over trainingsdata die gebruikt is.

326
00:42:24,000 --> 00:42:29,000
En dat gaat dus nog wel verder op dat vlak dan alleen de code die er is.

327
00:42:29,000 --> 00:42:32,000
Nee, en dat zou ik dus inderdaad heel graag willen verkennen.

328
00:42:32,000 --> 00:42:35,000
Want even als gedachte-experiment.

329
00:42:35,000 --> 00:42:41,000
Stel je nou eens voor, neem een willekeurige AI voor beeldvormende diagnostiek.

330
00:42:41,000 --> 00:42:43,000
Bijvoorbeeld fundusfoto's.

331
00:42:43,000 --> 00:42:45,000
Fundusfoto's?

332
00:42:45,000 --> 00:42:47,000
Je retina, de binnenkant van je oog.

333
00:42:47,000 --> 00:42:48,000
Er zijn nu camera's.

334
00:42:48,000 --> 00:42:51,000
Ik kan gewoon een foto van de binnenkant van je oog maken.

335
00:42:51,000 --> 00:42:56,000
Binnen pak en beet vijf minuten weet ik of je bepaalde oogaandoeningen hebt.

336
00:42:56,000 --> 00:42:59,000
Met allemaal goedgekeurde AI.

337
00:42:59,000 --> 00:43:03,000
En daar ben ik bij betrokken vanuit een start-up.

338
00:43:03,000 --> 00:43:06,000
Maar even iets heel anders, dat gaan mijn collega's niet leuk vinden.

339
00:43:06,000 --> 00:43:09,000
Maar stel je nou eens voor, het menselijk oog is het menselijk oog.

340
00:43:09,000 --> 00:43:13,000
En stel je voor, we hebben, er zijn inmiddels heel veel grote datasets,

341
00:43:13,000 --> 00:43:18,000
met echt honderden, duizenden, zo niet miljoenen foto's van het binnenkant van je oog.

342
00:43:18,000 --> 00:43:22,000
Gelabeld met wel of niet ziekte X, Y of Z.

343
00:43:22,000 --> 00:43:26,000
Wat nou als we gewoon dat als basis nemen?

344
00:43:26,000 --> 00:43:30,000
En daar bovenop dus echt als een soort regenerative AI,

345
00:43:30,000 --> 00:43:33,000
we gaan modellen trainen in volstrekte openheid.

346
00:43:33,000 --> 00:43:37,000
Het mooie van dit voorbeeld is, hier is geen sprake van persoonsgegevens.

347
00:43:37,000 --> 00:43:38,000
Daar is een uitspraak van.

348
00:43:38,000 --> 00:43:41,000
Een foto van het oog is niet identificerend.

349
00:43:41,000 --> 00:43:43,000
Dat hebben we inmiddels.

350
00:43:43,000 --> 00:43:45,000
Nou, prima. Laten we vooral duizend bloemetjes bloeien.

351
00:43:45,000 --> 00:43:47,000
We gaan hackathons organiseren.

352
00:43:47,000 --> 00:43:50,000
Maar echt om production proof,

353
00:43:50,000 --> 00:43:56,000
het kunnen screenen op oogaandoeningen met een publieke dataset.

354
00:43:56,000 --> 00:43:59,000
De getrainde modellen gaan ook in de repositories.

355
00:43:59,000 --> 00:44:02,000
De modelcards, de evaluaties gaan er ook allemaal in.

356
00:44:02,000 --> 00:44:06,000
En als iemand zegt, ik wil dat wel oppakken, je wilt integreren in mijn product,

357
00:44:06,000 --> 00:44:08,000
voel je vrij om daar een dienstverlening omheen te doen.

358
00:44:08,000 --> 00:44:10,000
Zo werken ook alle grote cloud providers.

359
00:44:10,000 --> 00:44:13,000
Die bouwen, die packagen open source componenten,

360
00:44:13,000 --> 00:44:16,000
zodat het gebruiksvriendelijk wordt en de servers, etcetera.

361
00:44:16,000 --> 00:44:18,000
Waarom doen we dat dan niet?

362
00:44:18,000 --> 00:44:23,000
Om inderdaad het maatschappelijke belang, de kwaliteit en transparantie daarin te kunnen vergroten.

363
00:44:23,000 --> 00:44:24,000
Nou, niet alleen dat.

364
00:44:24,000 --> 00:44:26,000
En als je heel activistisch bent,

365
00:44:26,000 --> 00:44:30,000
dus Bart de Witte, Hippo-AI Foundation in Duitsland, die zit heel erg op deze tour.

366
00:44:30,000 --> 00:44:35,000
We spraken afgelopen congres gezamenlijk over dit onderwerp.

367
00:44:35,000 --> 00:44:39,000
Hij beweert zelfs, maar dat is natuurlijk ook echt een politiek debat,

368
00:44:39,000 --> 00:44:41,000
we hebben geen andere optie.

369
00:44:41,000 --> 00:44:43,000
Want als we het closed doen, dan wordt het gewoon te duur.

370
00:44:43,000 --> 00:44:46,000
Want er zijn ook al studies die dat uitwijzen.

371
00:44:46,000 --> 00:44:50,000
Het mooie voorbeeld recentelijk is dus de Human Genome Project.

372
00:44:50,000 --> 00:44:53,000
Dat is inmiddels al een tijdje geleden.

373
00:44:53,000 --> 00:44:56,000
Maar toen we daar aan het begin stonden, was ook een discussie,

374
00:44:56,000 --> 00:45:00,000
gaan we met belastinggeld één Human Genome database aanleggen,

375
00:45:00,000 --> 00:45:02,000
die dan eigenlijk open is.

376
00:45:02,000 --> 00:45:07,000
En daaruit kunnen allerlei partijen of onderzoeksinstellingen gewoon hun ding doen.

377
00:45:07,000 --> 00:45:09,000
En dat is ook een heel belangrijk onderwerp.

378
00:45:09,000 --> 00:45:12,000
En dat is ook een onderwerp waarin we ook een soort van

379
00:45:12,000 --> 00:45:14,000
een soort van open source-project kunnen maken.

380
00:45:14,000 --> 00:45:17,000
En dat is ook een onderwerp waarin we ook een soort van

381
00:45:17,000 --> 00:45:19,000
open source-project kunnen maken.

382
00:45:19,000 --> 00:45:22,000
En dat is ook een onderwerp waarin we ook een soort van

383
00:45:22,000 --> 00:45:24,000
open source-project kunnen maken.

384
00:45:24,000 --> 00:45:27,000
En dat is ook een onderwerp waarin we ook een soort van

385
00:45:27,000 --> 00:45:29,000
open source-project kunnen maken.

386
00:45:29,000 --> 00:45:32,000
En dat is ook een onderwerp waarin we ook een soort van

387
00:45:32,000 --> 00:45:34,000
open source-project kunnen maken.

388
00:45:34,000 --> 00:45:37,000
En dat is ook een onderwerp waarin we ook een soort van

389
00:45:37,000 --> 00:45:39,000
open source-project kunnen maken.

390
00:45:39,000 --> 00:45:42,000
En dat is ook een onderwerp waarin we ook een soort van

391
00:45:42,000 --> 00:45:44,000
open source-project kunnen maken.

392
00:45:44,000 --> 00:45:47,000
En dat is ook een onderwerp waarin we ook een soort van

393
00:45:47,000 --> 00:45:49,000
open source-project kunnen maken.

394
00:45:49,000 --> 00:45:52,000
En dat is ook een onderwerp waarin we ook een soort van

395
00:45:52,000 --> 00:45:54,000
open source-project kunnen maken.

396
00:45:54,000 --> 00:45:57,000
En dat is ook een onderwerp waarin we ook een soort van

397
00:45:57,000 --> 00:45:59,000
open source-project kunnen maken.

398
00:45:59,000 --> 00:46:02,000
En dat is ook een onderwerp waarin we ook een soort van

399
00:46:02,000 --> 00:46:04,000
open source-project kunnen maken.

400
00:46:04,000 --> 00:46:07,000
En dat is ook een onderwerp waarin we ook een soort van


People on this episode