AIToday Live

S07E59 - Ethische Dilemma's in Medische AI: Tussen Kwaliteit en Risico met Ger Janssen

Aigency by Info Support Season 7 Episode 59

Ger Janssen, AI Ethics & Compliance Lead bij Philips, deelt zijn inzichten over verantwoorde AI in de gezondheidszorg in de podcast AIToday Live. Hij bespreekt hoe Philips 'guardrails' implementeert om veilig met AI te experimenteren, waarbij patiëntveiligheid centraal staat.

Ger belicht de complexiteit van transparantie over AI-gebruik in medische besluitvorming en deelt praktijkvoorbeelden van ethische dilemma's. Hij gaat in op de uitdagingen van internationale verschillen in ethische waarden en regelgeving bij de ontwikkeling van AI-producten voor de wereldmarkt.

Onderwerpen

  • Implementatie van verantwoorde AI in de gezondheidszorg
  • Bias en transparantie in AI-besluitvorming
  • Ethische dilemma's en regionale verschillen
  • Balans tussen commerciële belangen en ethiek
  • Compliance en regelgeving rondom AI
Links

Genoemde entiteiten: Philips

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:04,000
In deze aflevering hoor je Ger Janssen, AI Ethics & Compliance Lead bij Philips,

2
00:00:04,000 --> 00:00:08,800
over de complexe uitdagingen van verantwoorde AI-implementatie in de gezondheidszorg.

3
00:00:08,800 --> 00:00:12,000
Hij deelt concrete voorbeelden van ethische dilemma's rond datasets,

4
00:00:12,000 --> 00:00:15,200
bias en transparantie in medische AI-toepassingen.

5
00:00:15,200 --> 00:00:18,000
Dus blijf luisteren!

6
00:00:19,900 --> 00:00:22,840
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

7
00:00:23,480 --> 00:00:25,060
Mijn naam is Joop Snijder, CTO bij Aigency.

8
00:00:25,420 --> 00:00:27,840
Mijn naam Niels Naglé, Area Lead, Data & AI bij Info Support.

9
00:00:28,380 --> 00:00:31,440
En in de studio hebben wij Ger Janssen van Philips.

10
00:00:32,159 --> 00:00:35,200
En zou je je eerst even willen voorstellen aan de luisteraars, Ger?

11
00:00:35,800 --> 00:00:37,100
Ja, natuurlijk. Goedemiddag.

12
00:00:38,300 --> 00:00:41,360
Bij Philips ben ik AI Ethics and Compliance Lead.

13
00:00:43,540 --> 00:00:51,540
En wat ik dan doe, ik probeer alle AI die wij binnen Philips ontwikkelen, in de markt zetten en gebruiken.

14
00:00:52,220 --> 00:00:55,960
Ik probeer tot we dat op een verantwoordelijke manier doen.

15
00:00:56,540 --> 00:00:57,920
Daar zitten natuurlijk verschillende aspecten aan.

16
00:00:58,220 --> 00:01:00,960
En hoe word je AI ethics, hoe zei je dat?

17
00:01:01,580 --> 00:01:03,300
AI ethics and compliance lead.

18
00:01:03,360 --> 00:01:05,980
Ja, hoe word je AI ethics and compliance lead.

19
00:01:06,420 --> 00:01:07,560
Ja, dat is een hele journey.

20
00:01:10,580 --> 00:01:13,180
Mijn achtergrond is technische natuurkunde.

21
00:01:13,260 --> 00:01:13,900
Heel lang geleden.

22
00:01:15,480 --> 00:01:19,960
En toen ben ik bij Philips begonnen in 2001 als een thermische expert.

23
00:01:20,160 --> 00:01:23,019
Allerlei koeloplossingen gemaakt voor Philips producten.

24
00:01:24,920 --> 00:01:26,960
En mijn veld was computational modeling.

25
00:01:27,470 --> 00:01:31,480
Dus dat zit al een beetje in het data gebruiken om voorspellingen te maken.

26
00:01:32,940 --> 00:01:37,160
Na een paar jaar ben ik afdelingsleider geworden van verschillende afdelingen op dat gebied.

27
00:01:37,860 --> 00:01:41,760
Op een gegeven moment heb ik het concept van Digital Twin binnen Philips gebracht.

28
00:01:42,020 --> 00:01:43,180
samen met een collega van me.

29
00:01:43,760 --> 00:01:45,640
Digital Twin is eigenlijk al iets...

30
00:01:45,890 --> 00:01:47,600
Het is een mengeling van computation modeling,

31
00:01:47,840 --> 00:01:51,740
dus kennisgedreven modellen en datagedreven modellen.

32
00:01:52,230 --> 00:01:54,240
Dus dat was eigenlijk al een hybride vorm.

33
00:01:55,140 --> 00:01:59,620
En een paar jaar later ben ik puur in het AI-veld terechtgekomen

34
00:02:00,360 --> 00:02:03,980
om AI-oplossingen richting Philips Businesses te brengen.

35
00:02:06,160 --> 00:02:08,460
Maar tegelijkertijd hadden we ook een kleine activiteit

36
00:02:08,810 --> 00:02:10,960
op het gebied van bias.

37
00:02:12,540 --> 00:02:13,980
Philips werkt in gezondheidszorg.

38
00:02:14,320 --> 00:02:17,480
En gezondheidszorg is het concept van bias heel belangrijk.

39
00:02:18,200 --> 00:02:21,420
Je wil zorgen tot de oplossingen die je levert,

40
00:02:21,420 --> 00:02:24,080
tot die geschikt zijn voor de mensen waar die voor bedoeld is.

41
00:02:24,780 --> 00:02:26,860
Dus ook op datagebied moet je ervoor zorgen

42
00:02:26,860 --> 00:02:33,640
tot je de juiste data van die populatie hebt om je algoritmes te trainen.

43
00:02:34,940 --> 00:02:37,440
En we hadden kleine activiteiten op bias mitigatie.

44
00:02:38,480 --> 00:02:41,760
En die activiteit die werd in de loop van de jaren eigenlijk alleen maar groter.

45
00:02:42,780 --> 00:02:51,000
En op een gegeven moment, zeg twee jaar geleden, hadden we een team van vijf of zes man werken op bias,

46
00:02:51,230 --> 00:02:56,540
maar ook op transparantie, op robuustheid, op privacy aspecten.

47
00:02:57,900 --> 00:03:00,420
Allerlei dingen gerelateerd aan wat wij noemen responsable AI.

48
00:03:01,420 --> 00:03:10,000
En eigenlijk vorig jaar, 2024, werd het team formeel een responsable AI-team.

49
00:03:11,120 --> 00:03:14,760
En als je formeel een team hebt, moet je ook een team lead hebben.

50
00:03:15,800 --> 00:03:19,660
En daar hing de mooie benaming AI-ethics en compliance.

51
00:03:19,980 --> 00:03:23,080
Ik heb hem zelf niet verzonnen, maar die heb ik zo gekregen.

52
00:03:23,740 --> 00:03:26,940
En wat veranderde met het feit dat het formeel werd?

53
00:03:28,020 --> 00:03:34,380
Formeel betekent dat je binnen Philips veel meer zichtbaarheid hebt.

54
00:03:35,800 --> 00:03:38,960
B. Tot veel meer mensen ook naar je luisteren.

55
00:03:40,300 --> 00:03:42,520
En C. Tot je eigenlijk ook iedereen kan lastigvallen.

56
00:03:42,780 --> 00:03:42,960
Oh ja.

57
00:03:43,650 --> 00:03:44,160
Is dat nodig?

58
00:03:44,700 --> 00:03:45,640
Dat is wel nodig, ja.

59
00:03:46,400 --> 00:03:48,980
Kijk, zeker als je naar AI kijkt.

60
00:03:49,980 --> 00:03:53,580
Nu is AI natuurlijk ontzettende hype met Generative AI.

61
00:03:54,340 --> 00:03:55,900
En iedereen wil van alles doen.

62
00:03:56,860 --> 00:04:00,920
Dat is in de privésfeer zo, maar dat is ook in de bedrijfssituatie zo.

63
00:04:03,260 --> 00:04:04,800
En dat is prima, dat moeten we ook doen.

64
00:04:05,040 --> 00:04:09,480
Want we moeten stappen maken en in gezondheidszorg zijn er genoeg stappen te maken om dingen te verbeteren.

65
00:04:10,580 --> 00:04:18,000
Alleen als je gaat experimenteren moet je ook weten, wat zijn nou de risico's als ik dingen niet goed doe?

66
00:04:19,100 --> 00:04:22,420
Zijn er dingen waar ik misschien niet automatisch aan denk?

67
00:04:23,500 --> 00:04:26,960
En om mensen daarop te attenderen is natuurlijk heel belangrijk.

68
00:04:27,820 --> 00:04:31,340
En het is niet alleen attenderen, maar ook zorgen tot je eigenlijk,

69
00:04:32,370 --> 00:04:35,700
wij noemen dat dan guardrails opstelt om te zeggen,

70
00:04:35,880 --> 00:04:39,859
binnen deze ruimte kun je vrijelijk experimenteren, kun je dingen doen.

71
00:04:40,760 --> 00:04:44,300
Maar daarbuiten moet je niet komen, want dan introduceer je bepaalde risico's.

72
00:04:44,420 --> 00:04:48,740
Heb je een paar voorbeelden van de kaders die je zoal tegenkomt of eigenlijk uitzet?

73
00:04:49,380 --> 00:05:00,740
Nou bijvoorbeeld, als wij, kijk wij zijn een healthcare bedrijf, dus onze CEO zegt altijd onze license to operate is patient safety and quality.

74
00:05:01,780 --> 00:05:09,180
Dus bij alles wat je doet, of er nou AI is of niet, je eerste gedachte moet eigenlijk zijn van wat gaat deze oplossing doen voor de patiënt.

75
00:05:10,140 --> 00:05:17,700
Als ik dan naar AI ga kijken en een AI-oplossing ga bedenken en ontwikkelen,

76
00:05:18,440 --> 00:05:23,360
ook dan moet ik in het begin al nadenken van oké, wat voor gevolgen heeft dit voor de patiënt?

77
00:05:23,880 --> 00:05:27,360
En moet ik die patiënt misschien informeren tot we AI gebruiken?

78
00:05:29,660 --> 00:05:33,040
Hoe zorg ik ervoor tot ik die juiste kwaliteit heb?

79
00:05:33,040 --> 00:05:39,520
Hoe zorg ik ervoor tot ik niet alleen naar de bias in mijn dataset kijk,

80
00:05:40,300 --> 00:05:45,880
Maar hoe zorg ik ervoor dat ik ook in mijn beslissingen die ik neem, wat voor model gebruik ik?

81
00:05:46,380 --> 00:05:53,280
Hoe ga ik dingen deployen tot ik daar ook bepaalde biases op geattenteerd word en indien nodig, die mitigeer?

82
00:05:54,840 --> 00:05:56,540
Wat doe ik op het gebied van security?

83
00:05:58,000 --> 00:06:00,980
En zeker met generative AI, dat is een extreem hot topic.

84
00:06:01,460 --> 00:06:06,040
Wat doe ik met hallucinaties van AI oplossingen?

85
00:06:07,480 --> 00:06:13,540
Accepteer ik die? Zeg ik daar iets over? Hou ik die geheim? Wat je natuurlijk niet wil, check ik die?

86
00:06:15,920 --> 00:06:24,480
Dat soort zaken, daar moet je allemaal rekening mee houden en daarvoor introduceren wij guardrails en guidelines om de mensen daarbij te helpen.

87
00:06:25,520 --> 00:06:30,340
We hadden de opname hiervoor met de vorige gast van vorige week.

88
00:06:31,080 --> 00:06:43,860
Hadden wij de stelling, je kreeg hij voor zijn neus of je eigenlijk altijd transparant zou moeten zijn dat AI gebruikt wordt in je besluitvormingsproces.

89
00:06:43,860 --> 00:06:45,560
Zo moet ik het noemen, bij je besluitvorming.

90
00:06:46,520 --> 00:06:50,220
Vind jij dat dat in de zorg zou moeten?

91
00:06:50,780 --> 00:06:59,040
Moet je als patiënt altijd weten dat er AI is gebruikt in de besluiten die een arts over jou neemt?

92
00:06:59,880 --> 00:07:06,020
Het logische antwoord zou in eerste instantie zijn ja, maar het realistische antwoord is nee, niet altijd.

93
00:07:07,560 --> 00:07:12,760
Want we spreken nu van AI-hype, iedereen is met AI bezig, maar AI is er al heel lang.

94
00:07:13,560 --> 00:07:23,540
Als je kijkt naar medische beelden, bijvoorbeeld van CT-scanner of röntgenapparaat of MR-scanner,

95
00:07:24,400 --> 00:07:28,600
daar wordt ook AI op gebruikt om bepaalde dingen te herkennen.

96
00:07:30,560 --> 00:07:37,160
Zegt een arts op dit moment of vijf jaar geleden tegen de patiënt van ja, we hebben dit medisch beeld met AI geanalyseerd?

97
00:07:37,330 --> 00:07:37,440
Nee.

98
00:07:38,080 --> 00:07:39,560
En waarom zegt hij dat niet?

99
00:07:40,370 --> 00:07:42,680
AI in zo'n geval is een puur hulpmiddel.

100
00:07:42,900 --> 00:07:50,120
Ondersteunt de arts in een conclusie te trekken van een medisch beeld.

101
00:07:50,260 --> 00:07:54,180
Het is niet zo dat de AI een beslissing neemt en de arts volgt die.

102
00:07:54,230 --> 00:07:56,220
Nee, de arts is de eindverantwoordelijke.

103
00:07:56,980 --> 00:08:00,940
En de AI is alleen maar een hulpmiddeltje om sneller tot de juiste conclusie te komen.

104
00:08:01,600 --> 00:08:05,980
Moet je in zo'n geval ook altijd gaan zeggen, ja we gebruiken AI.

105
00:08:06,620 --> 00:08:07,920
Persoonlijk denk ik van niet.

106
00:08:09,040 --> 00:08:14,660
Maar bijvoorbeeld als je met een, stel als patiënt bel ik naar een ziekenhuis toe.

107
00:08:16,180 --> 00:08:18,020
En ik verwacht de mensen aan de telefoon te krijgen.

108
00:08:18,130 --> 00:08:23,640
En ik krijg een chatbot aan de telefoon die je zeer binnenkort al niet meer van echt kunt onderscheiden.

109
00:08:24,040 --> 00:08:30,140
Dan is het wel wenselijk om te begrijpen dat je met een AI chatbot gaat.

110
00:08:30,150 --> 00:08:30,980
En niet met een mens.

111
00:08:31,810 --> 00:08:42,240
En als Philips doen we jaarlijks een heel groot interviewronde met heel veel healthcare professionals en patiënten wereldwijd.

112
00:08:43,480 --> 00:08:47,820
Zo'n 2000 of 3000 healthcare professionals en nog meer patiënten.

113
00:08:49,760 --> 00:08:58,880
En de laatste interviewronde die liet heel erg zien van vertrouwen is een issue in gezondheidszorg.

114
00:08:59,979 --> 00:09:01,159
Als je gebruik maakt van AI.

115
00:09:01,430 --> 00:09:04,980
Hoe kunnen healthcare professionals AI vertrouwen, maar hoe kunnen patiënten AI vertrouwen?

116
00:09:06,139 --> 00:09:08,280
Transparantie is daar maar één onderdeeltje van.

117
00:09:09,190 --> 00:09:12,520
Maar ook betrouwbaarheid is een ander onderdeeltje daarvan.

118
00:09:12,840 --> 00:09:16,900
Dat moet je ook kunnen bewijzen als provider van AI oplossingen.

119
00:09:18,080 --> 00:09:23,380
Ja, want AI maakt net zo goed fouten als dat wij dat als mensen doen.

120
00:09:23,860 --> 00:09:30,780
Maar volgens mij worden daar een andere lat tegen aangelegd dan voor mensen, toch?

121
00:09:31,140 --> 00:09:32,680
Ja, dat is een heel interessante discussie.

122
00:09:33,140 --> 00:09:35,520
Want wij als mensen maken fouten.

123
00:09:36,140 --> 00:09:37,000
Artsen maken ook fouten.

124
00:09:39,440 --> 00:09:42,460
En van AI wordt niet geaccepteerd dat het fouten maakt.

125
00:09:44,620 --> 00:09:47,820
Je zou bijna kunnen zeggen dat het een ethische discussie is.

126
00:09:47,840 --> 00:09:52,980
van stel je hebt een AI ontwikkeld die niet perfect is,

127
00:09:53,960 --> 00:09:59,560
maar wel uiteindelijk de besluitvorming met een bepaald percentage verbetert.

128
00:10:00,980 --> 00:10:02,040
Mag je hem dan gebruiken?

129
00:10:04,680 --> 00:10:06,740
Daar kun je een hele lange discussie overvoeren.

130
00:10:07,500 --> 00:10:11,160
Persoonlijk denk ik van ja, als je het beter maakt,

131
00:10:11,320 --> 00:10:19,560
Als je besluitvorming beter maakt en minder schade aan patiënten aanricht, patiënten beter kunt helpen,

132
00:10:20,580 --> 00:10:23,800
dan kun je je inderdaad afvragen van waarom zou je dat niet accepteren.

133
00:10:26,540 --> 00:10:30,420
Heb je daar zicht op hoe daar binnen de sector naar gekeken wordt?

134
00:10:34,200 --> 00:10:39,080
Kijk, het punt wat ik net zei is in principe waar tegelijkertijd.

135
00:10:40,760 --> 00:10:54,500
Bij AI is het ook zo, als ik een AI-oplossing die niet perfect is in één ziekenhuis breng en het wordt daar gebruikt,

136
00:10:55,380 --> 00:11:00,600
en daar verbetert het wel besluitvorming, maar niet 100%.

137
00:11:01,680 --> 00:11:10,520
Als ik diezelfde AI dan ga schalen naar honderden ziekenhuizen, andere ziekenhuizen met misschien ook andere besluitvorming,

138
00:11:11,300 --> 00:11:15,020
dan kan het heel goed zijn dat wat in het ene ziekenhuis misschien wel een verbetering leidt

139
00:11:15,060 --> 00:11:16,380
en in het andere ziekenhuis niet.

140
00:11:19,220 --> 00:11:22,840
Dus er zitten wat gevaarlijke kanten aan.

141
00:11:23,780 --> 00:11:28,280
Maar dat is dan omdat de schaling en de impact die je daar hebt

142
00:11:28,410 --> 00:11:31,140
op eventueel het stukje wat fout is, wat in de marge blijft bij één,

143
00:11:31,340 --> 00:11:33,440
wordt vergroot, totdat we groot schalen.

144
00:11:33,880 --> 00:11:35,500
Terwijl als je een arts hebt, die zit in één ziekenhuis,

145
00:11:35,570 --> 00:11:37,340
misschien meerdere dat die werkt, maar dat is dan één.

146
00:11:37,540 --> 00:11:39,960
Dus het is eigenlijk de impact die je hebt.

147
00:11:40,180 --> 00:11:42,440
De automatisering erbij versnelt dat.

148
00:11:42,950 --> 00:11:44,900
Dus daar moet je ook rekening mee houden.

149
00:11:46,540 --> 00:11:52,260
Wat zijn nou de meeste ethische dilemma's die je tegenkomt binnen Philips?

150
00:11:53,780 --> 00:11:56,380
Ik kan twee, denk ik, mooie voorbeelden geven.

151
00:11:59,319 --> 00:12:03,160
Als Philips, en ik denk dat dat voor heel veel bedrijven geldt,

152
00:12:03,610 --> 00:12:04,940
je ontwikkelt niet alle AI zelf.

153
00:12:05,690 --> 00:12:08,620
Dus je koopt ook AI van andere partijen in.

154
00:12:08,740 --> 00:12:12,520
Of je gebruikt modellen van anderen om vervolgens dat weer verder te trainen.

155
00:12:14,280 --> 00:12:24,120
Een paar jaar geleden hebben we een case gehad waarbij één business unit wilde een model gebruiken van een externe partij.

156
00:12:26,320 --> 00:12:30,040
En dat model dan weer hertrainen op eigen data.

157
00:12:31,900 --> 00:12:36,240
En ze kwamen bij ons met de vraag van, mogen we dat model gebruiken?

158
00:12:36,800 --> 00:12:37,800
Dat externe model.

159
00:12:38,960 --> 00:12:42,660
En dan kun je op verschillende manieren naar kijken natuurlijk. Je kunt vanuit juridische

160
00:12:42,880 --> 00:12:51,820
aspecten kijken, je kunt op intellectual property gebied kijken, je kunt op privacy gebied kijken en

161
00:12:52,170 --> 00:12:57,300
je kunt ook ethisch kijken. En ethisch in dit geval, ik zal het uitleggen, dat oorspronkelijke

162
00:12:57,410 --> 00:13:04,279
model was gereleased voor commerciëel gebruik, dus alles was in orde. En je hertrainde het met

163
00:13:04,300 --> 00:13:11,240
eigen data dus ook allemaal in orde. Alleen toen wij gingen kijken van waar is dat oorspronkelijk

164
00:13:11,430 --> 00:13:18,840
model op gebaseerd, waar is dat op getraind? Dat was op het dataset getraind en natuurlijk logischer

165
00:13:18,980 --> 00:13:27,680
wijs een dataset met beelden van mensen, gezichten van mensen. En we kwamen erachter tot iets van 60

166
00:13:27,940 --> 00:13:33,619
procent van die mensen had geen toestemming gegeven. Oei. En dan heb je gezichten van volwassen mensen

167
00:13:33,640 --> 00:13:40,500
zijn gezichten van kinderen nog steeds als je vanuit verschillende invalshoeken kijkt juridisch was de

168
00:13:40,560 --> 00:13:47,220
op zich niks mis mee en ip technisch ook niet en privacy technisch was ook niks mis mee alleen

169
00:13:47,440 --> 00:13:53,000
ethisch wel ja dus wat wij hebben wij gedaan we hebben die verschillende analyses schoon de

170
00:13:53,240 --> 00:14:03,600
conclusies naast elkaar gezet richting de business gingen van dit is het verhaal formeel zou je het

171
00:14:03,620 --> 00:14:05,500
vandaan komt, dan zou je

172
00:14:05,670 --> 00:14:07,440
eigenlijk zeggen, ethisch is dit

173
00:14:07,920 --> 00:14:09,240
niet oké. Maar

174
00:14:09,580 --> 00:14:10,360
de business beslist.

175
00:14:11,800 --> 00:14:13,420
De business is uiteindelijk met ons meegegaan.

176
00:14:13,420 --> 00:14:15,120
Hij heeft gezegd van, oké, dan gaan we voor plan B.

177
00:14:15,920 --> 00:14:17,320
Dan gaan we een ander model

178
00:14:17,680 --> 00:14:19,100
gebruiken. Dus dat is

179
00:14:19,470 --> 00:14:20,340
een ethisch dilemma.

180
00:14:21,920 --> 00:14:23,380
Misschien voelden ze het zelf al aan.

181
00:14:23,520 --> 00:14:25,240
Dat weet ik niet. Maar ze vroegen

182
00:14:25,240 --> 00:14:27,680
in ieder geval van, kunnen we dit gebruiken?

183
00:14:28,100 --> 00:14:29,220
Dus dat is één voorbeeld.

184
00:14:30,140 --> 00:14:31,380
Een ander voorbeeld is,

185
00:14:33,280 --> 00:14:36,860
Dat heeft dan niet met toestemming te maken, maar weer met bias te maken.

186
00:14:38,220 --> 00:14:51,580
We hebben een oplossing waarbij je de lengte van verblijfduur van patiënten in ICU kunt voorspellen.

187
00:14:51,900 --> 00:14:52,520
Intensive care.

188
00:14:52,840 --> 00:14:54,000
Ja, intensive care unit.

189
00:14:57,260 --> 00:14:58,620
Dat hadden we al in de markt staan.

190
00:14:59,280 --> 00:15:00,240
Hoe gebruik je dat?

191
00:15:00,780 --> 00:15:05,680
Dat kun je gebruiken als ziekenhuis om ook te vergelijken met ICU's van andere ziekenhuizen.

192
00:15:05,910 --> 00:15:12,680
En zo de kwaliteit van jouw zorg te vergelijken met de kwaliteit van andere ziekenhuizen.

193
00:15:13,820 --> 00:15:18,220
En als je dan slechter bent, kun je kijken van waar ligt dat dan aan en kan ik dat verbeteren.

194
00:15:20,140 --> 00:15:25,560
En wij ontdekten van ja, dat algoritme is op zich wel goed.

195
00:15:26,020 --> 00:15:27,360
Alleen daar zit een bepaalde bias in.

196
00:15:27,820 --> 00:15:35,400
Want je hebt natuurlijk patiënten die op de ICU zijn die daarna blijven leven en patiënten die doodgaan.

197
00:15:35,480 --> 00:15:35,960
Ja, bijvoorbeeld.

198
00:15:38,200 --> 00:15:41,880
En de dataset waarop getraind was, was redelijk gebiased.

199
00:15:42,060 --> 00:15:43,980
Dus we hebben een auditionele studie gedaan.

200
00:15:44,060 --> 00:15:45,320
En waar zat de bias in?

201
00:15:46,380 --> 00:15:47,520
Meer op de overlevende.

202
00:15:47,820 --> 00:15:48,100
Oh ja.

203
00:15:48,660 --> 00:15:51,480
En dan kun je verkeerde voorspellingen krijgen.

204
00:15:51,640 --> 00:15:56,780
En als je verkeerde voorspellingen krijgt, dan is de kwaliteitsvergelijking niet helemaal goed.

205
00:15:57,100 --> 00:16:03,680
En als je het wil gebruiken om al gedurende een opname kwaliteit van zorg te verbeteren,

206
00:16:03,980 --> 00:16:05,580
dan kan dat ook een probleem opleveren.

207
00:16:06,020 --> 00:16:10,160
Dus wat we hebben gedaan, we hebben een veel grotere dataset gebruikt

208
00:16:10,380 --> 00:16:13,820
van even uit mijn hoofd, meer dan 600.000 patiënten.

209
00:16:15,060 --> 00:16:22,020
Verdeeld over een paar honderd ICUs in honderd ziekenhuizen geloof ik in de USA.

210
00:16:23,740 --> 00:16:24,720
Het algoritme verbetert.

211
00:16:25,360 --> 00:16:28,060
En nu voorspelt het dus wel stukken beter.

212
00:16:29,860 --> 00:16:32,640
De lengte of T zoals dat dan mooi heet in een ICU.

213
00:16:33,020 --> 00:16:37,040
En dan kan het veel beter gebruikt worden om kwaliteit te verbeteren.

214
00:16:37,400 --> 00:16:42,900
Dat is een voorbeeld van bias waarvan je ontdekt van dat zit erin.

215
00:16:43,320 --> 00:16:44,300
In een bepaalde oplossing.

216
00:16:44,760 --> 00:16:45,480
En dat verbeter je dan.

217
00:16:45,700 --> 00:16:46,480
Ik was wel nieuwsgierig.

218
00:16:46,780 --> 00:16:49,960
Hoe is het aan het licht gekomen of hoe is het gespot?

219
00:16:51,560 --> 00:16:52,300
Dat is een goede vraag.

220
00:16:53,940 --> 00:16:55,240
Daar moet ik het antwoord op schuldig blijven.

221
00:16:55,260 --> 00:16:55,740
Dat weet ik niet.

222
00:16:56,220 --> 00:16:59,420
Redelijk vraag zijn dat als we dat soort dingen met elkaar leren herkennen namelijk,

223
00:17:00,160 --> 00:17:02,040
dan kunnen we het al eerder onszelf challengen.

224
00:17:02,860 --> 00:17:08,319
Het punt is, als je even uitzoomt, eigenlijk is het een volstrekt logische vraag.

225
00:17:09,560 --> 00:17:15,579
Want eigenlijk ga je weer nadenken van de dataset waar ik mijn algoritme op train,

226
00:17:16,380 --> 00:17:19,980
is die representatief voor de target population?

227
00:17:20,180 --> 00:17:23,280
En de target population is in dit geval breed.

228
00:17:24,420 --> 00:17:27,699
breder dan wat iemand oorspronkelijk waarschijnlijk had gedacht.

229
00:17:28,209 --> 00:17:31,220
Of men dacht van ja, de data set is breed genoeg.

230
00:17:31,480 --> 00:17:33,020
Maar dat bleek het eigenlijk niet zo te zijn.

231
00:17:33,180 --> 00:17:38,380
Dus het is toch weer eigenlijk zo vroeg mogelijk in de ontwikkeling van een algoritme.

232
00:17:38,500 --> 00:17:44,780
Eigenlijk al vroeg dat je het ontwikkelt, maar eigenlijk bij de use case definitie

233
00:17:44,970 --> 00:17:48,640
daar al heel veel kritische vragen stellen van waarom wil ik dit?

234
00:17:49,640 --> 00:17:51,160
En wat moet ik dan doen?

235
00:17:51,780 --> 00:17:53,040
En wat heb ik dan nodig?

236
00:17:53,660 --> 00:17:54,420
Wat is het effect?

237
00:17:54,460 --> 00:17:55,840
En dat blijven challengen.

238
00:17:56,400 --> 00:18:00,100
En daar was ik wel benieuwd, want je vertelt dat het een relatief klein team is.

239
00:18:00,600 --> 00:18:04,080
Ten opzeg van Philips als hele grote organisatie.

240
00:18:04,640 --> 00:18:08,880
Hoe zorg je dat de teams die hiermee bezig zijn met de implementatie van AI,

241
00:18:09,480 --> 00:18:11,160
dat ze de ethische kaders ook meenemen?

242
00:18:12,280 --> 00:18:15,800
Het team is in totaal zeven mannen en vrouwen.

243
00:18:16,620 --> 00:18:18,400
Terwijl Philips ongeveer 70.000 mensen is.

244
00:18:18,400 --> 00:18:18,980
Ja, dat bedoel ik.

245
00:18:19,920 --> 00:18:22,720
Dus het is een kleine verhouding.

246
00:18:24,320 --> 00:18:28,080
Kijk, als centraal team, wij doen verschillende dingen.

247
00:18:29,220 --> 00:18:37,360
Enerzijds hebben wij diverse trainingen ontwikkeld op het gebied van die ethische kaders.

248
00:18:39,500 --> 00:18:48,800
Zodat mensen die binnen Philips AI gebruiken of AI ontwikkelen, bewust zijn van bepaalde aspecten.

249
00:18:49,240 --> 00:18:51,860
En ethische aspecten die zitten in die training.

250
00:18:52,240 --> 00:18:54,520
Dus dat is een soort awareness die je creëert.

251
00:18:54,980 --> 00:18:55,560
Dat is één ding.

252
00:18:57,740 --> 00:19:00,980
Daarnaast houden wij workshops voor de businesses.

253
00:19:02,220 --> 00:19:05,360
Waarbij we dan met grotere teams van zo'n business unit

254
00:19:06,100 --> 00:19:08,620
gewoon een sessie van twee uur hebben.

255
00:19:09,420 --> 00:19:11,040
Waarbij we bepaalde dingen uitleggen.

256
00:19:11,200 --> 00:19:14,800
Waarbij we samen met hun in specifieke projecten van hun duiken.

257
00:19:15,560 --> 00:19:19,020
Om aan te geven, hier kun je daaraan denken.

258
00:19:19,140 --> 00:19:21,900
Hier kun je dat gebruiken om kritisch te zijn.

259
00:19:23,060 --> 00:19:24,040
Dat is een tweede voorbeeld.

260
00:19:26,940 --> 00:19:30,420
Daarnaast, zeker als je kijkt nu met de AI Act,

261
00:19:31,240 --> 00:19:34,440
hebben we er ook voor gezorgd dat alle business units een projectleider hebben.

262
00:19:34,480 --> 00:19:36,880
Om AI Act Ready te zijn.

263
00:19:38,040 --> 00:19:40,700
En dat is een community die we hebben gecreëerd.

264
00:19:40,820 --> 00:19:45,060
En die community geeft ook heel veel informatie.

265
00:19:45,640 --> 00:19:51,780
Die komen regelmatig bij elkaar om ook additionele informatie en best practices te delen.

266
00:19:51,900 --> 00:19:53,920
Zodat zij dat ook weer kunnen gebruiken in hun business.

267
00:19:54,840 --> 00:19:56,040
Je doet niet alles zelf.

268
00:19:56,110 --> 00:20:00,820
Je probeert ook mensen in de business op zo'n duidelijk niveau te krijgen.

269
00:20:00,960 --> 00:20:02,220
Tot zij weer verder kunnen helpen.

270
00:20:02,760 --> 00:20:05,300
Is het voor een internationaal bedrijf niet lastig?

271
00:20:05,500 --> 00:20:06,780
Want ethiek is natuurlijk iets.

272
00:20:07,150 --> 00:20:08,000
Dat zijn je waarden.

273
00:20:08,680 --> 00:20:12,500
En die verschillen nogal per cultuur.

274
00:20:13,200 --> 00:20:13,300
Ja.

275
00:20:14,640 --> 00:20:15,440
Ja, dat is een leuke.

276
00:20:16,740 --> 00:20:23,420
Kijk, voor Philips, we hebben heel plat gezegd, er zijn drie grote regio's.

277
00:20:23,790 --> 00:20:27,000
Je hebt Amerika, je hebt Europa en China, zou je kunnen zeggen.

278
00:20:27,160 --> 00:20:28,580
Dat zijn denk ik wel de grootste markten.

279
00:20:29,140 --> 00:20:30,920
Met Amerika verreweg de grootste.

280
00:20:31,760 --> 00:20:35,480
In Amerika heb je natuurlijk, onder het huidige politieke klimaat,

281
00:20:35,520 --> 00:20:39,180
heb je ook wel een verschuiving van ethische waarden.

282
00:20:39,240 --> 00:20:40,000
Ja, behoorlijk.

283
00:20:40,880 --> 00:20:42,480
Het geen lastig kan zijn.

284
00:20:43,200 --> 00:20:46,280
Europa is heel duidelijk qua ethische waarden.

285
00:20:46,520 --> 00:20:49,120
En China heeft weer andere ethische waarden.

286
00:20:50,400 --> 00:20:57,460
Het punt is, wij moeten rekening houden met wat geldt in welke regio.

287
00:20:58,220 --> 00:20:59,400
En dat maakt het lastig.

288
00:21:00,600 --> 00:21:06,100
Omdat in principe alles wat we ontwikkelen, willen we wereldwijd op de markt brengen.

289
00:21:07,040 --> 00:21:08,860
En dan is de vraag van, hoe ga je dat doen?

290
00:21:09,260 --> 00:21:11,100
Ga je bijvoorbeeld eerst naar Amerika toe?

291
00:21:11,640 --> 00:21:13,200
En dan naar Europa en dan naar China.

292
00:21:13,720 --> 00:21:15,040
Of begin je eerst in China.

293
00:21:16,520 --> 00:21:21,180
En dat zou een andere beslissing kunnen zijn van product tot product.

294
00:21:22,440 --> 00:21:26,240
Om dat te maken met complexiteit, datasets die je nodig hebt misschien.

295
00:21:27,100 --> 00:21:27,820
Ik noem maar wat.

296
00:21:28,360 --> 00:21:31,840
Dus per product wat je in de markt wil brengen, moet je eigenlijk gaan nadenken.

297
00:21:31,960 --> 00:21:34,540
Hoe ga ik dat op de meest eenvoudige manier doen?

298
00:21:35,560 --> 00:21:41,820
Zonder mezelf heel veel extra effort en vertraging op te leveren.

299
00:21:42,420 --> 00:21:45,180
En de ethische aspecten zijn verschillend.

300
00:21:45,460 --> 00:21:46,560
Daar moet je rekening mee houden.

301
00:21:47,700 --> 00:21:49,720
Dus voor mij een beeld, om te kijken of ik het goed begrijp.

302
00:21:49,820 --> 00:21:56,000
Zou het zo kunnen zijn dat bepaalde producten anders werken in de regio of dat niet?

303
00:21:56,640 --> 00:21:58,280
Is het met name een keuze?

304
00:21:58,440 --> 00:22:02,560
Als je kijkt naar bijvoorbeeld in China.

305
00:22:03,220 --> 00:22:06,200
Je moet producten getraind hebben op Chinese data.

306
00:22:07,260 --> 00:22:14,160
Maar als ik die producten heb en ik zou die dan weer willen gebruiken in Amerika of Europa,

307
00:22:14,800 --> 00:22:18,080
dan zal ik toch weer moeten hertrainen naar andere datasets.

308
00:22:18,400 --> 00:22:20,360
Ik kan ze niet één op één gebruiken.

309
00:22:21,820 --> 00:22:24,180
Maar dat geldt ook tussen Amerika en Europa.

310
00:22:25,590 --> 00:22:30,160
Want, kijk, dat kom ik weer terug op het puntje van het vertrouwen van je klanten,

311
00:22:30,250 --> 00:22:32,060
van de healthcare professionals en van de patiënten.

312
00:22:33,640 --> 00:22:39,400
Artsen vragen ons van, ja, jij komt met een mooie AI-oplossing die in Amerika is ontwikkeld.

313
00:22:40,400 --> 00:22:44,080
Maar als ik in Leiden, ik noem maar wat, een ziekenhuis dat wil gebruiken,

314
00:22:44,780 --> 00:22:46,960
hoe weet ik of dat voor mijn populatie geschikt is?

315
00:22:47,100 --> 00:22:53,320
Want dat heeft al heel andere karakteristieken dan bijvoorbeeld Boston of San Francisco.

316
00:22:54,240 --> 00:22:57,560
Dus je zult toch altijd naar lokale data moeten gaan.

317
00:22:57,860 --> 00:23:01,700
Dus die transparantie en helderheid van wat zit er in die data, wat zit er in het model,

318
00:23:01,900 --> 00:23:02,420
Wat is het effect?

319
00:23:03,040 --> 00:23:05,740
Dat is van essentieel belang van de oplossing.

320
00:23:07,600 --> 00:23:07,900
Mooi.

321
00:23:10,880 --> 00:23:15,260
Ik wilde toch nog even kijken van de moment die verschillen.

322
00:23:15,860 --> 00:23:18,840
Want hoe ga je daar dan mee om in je team?

323
00:23:19,240 --> 00:23:26,040
Want ik neem aan dat je niet ook mensen hebt vanuit China in je team die gewend zijn.

324
00:23:26,240 --> 00:23:30,180
Kijk, de ethische waarden zitten zo diep verstopt eigenlijk in ons.

325
00:23:31,520 --> 00:23:33,700
Pas als je ze raakt, weet je dat je ze hebt.

326
00:23:34,960 --> 00:23:35,740
Hoe ga je daarmee om?

327
00:23:36,520 --> 00:23:38,160
Dat is een hele mooie vraag.

328
00:23:39,720 --> 00:23:43,100
Kijk, het team wat we hebben zijn allemaal Europeanen.

329
00:23:44,540 --> 00:23:46,800
Niet allemaal Nederlanders, maar het zijn Europeanen.

330
00:23:47,500 --> 00:23:50,060
We zijn wel divers in man versus vrouw.

331
00:23:50,070 --> 00:23:51,680
Dus bijna 50-50, dus dat is goed.

332
00:23:52,440 --> 00:23:59,180
Maar het is inderdaad allemaal Europeanen met Europese waarden en normen.

333
00:24:00,980 --> 00:24:05,460
Dat betekent dus ook, als wij discussie zijn met teams in China,

334
00:24:06,220 --> 00:24:10,220
dan moeten we er even op letten tot wij niet automatisch onze waarden en normen opleggen aan hun.

335
00:24:11,940 --> 00:24:13,340
Kijk, Philips is zo georganiseerd.

336
00:24:18,260 --> 00:24:20,760
Wij zijn onderdeel van een grotere Data & AI-organisatie.

337
00:24:21,020 --> 00:24:26,240
En die Data & AI-organisatie heeft ook teams in Amerika zitten en in China zitten.

338
00:24:26,980 --> 00:24:32,460
Dus op dit moment wat wij doen, wij proberen gebruik te maken van mensen uit die teams

339
00:24:33,440 --> 00:24:40,320
om die lokale normen en waarden en andere regelgeving om daar rekening mee te houden.

340
00:24:42,220 --> 00:24:46,100
Maar het is uiteindelijk ook de bedoeling, ja, wij zijn nu een puur Europees team.

341
00:24:46,520 --> 00:24:48,140
We willen eigenlijk ook gaan uitbreiden.

342
00:24:48,150 --> 00:24:54,180
We moeten eigenlijk ook echt mensen binnen ons team hebben die en in Amerika zitten en in China zitten.

343
00:24:54,640 --> 00:24:56,480
Dus dat gaat op den duur wel komen, ja.

344
00:24:56,820 --> 00:24:57,240
Snap ik.

345
00:24:59,240 --> 00:25:03,040
Je hebt al een klein beetje qua voorbeelden wat uitgelegd.

346
00:25:03,530 --> 00:25:04,600
Wat ik nu ga vragen hoor.

347
00:25:04,650 --> 00:25:07,540
Maar ik wilde daar misschien toch wel ietsje dieper op in.

348
00:25:07,680 --> 00:25:13,560
Hoe balanceer je nou het commerciële belang van een bedrijf en die ethische waarde?

349
00:25:14,180 --> 00:25:14,380
Ja.

350
00:25:17,460 --> 00:25:20,760
Dat is altijd een lastige balans.

351
00:25:20,980 --> 00:25:31,000
In de zin van, enerzijds is het niet zo moeilijk omdat je zegt van ja, patient safety and quality is wat ons dreigt.

352
00:25:31,020 --> 00:25:33,020
Dus dat moet echt de eerste gedachte zijn.

353
00:25:35,520 --> 00:25:41,040
Anderzijds, je zou je kunnen voorstellen, hoewel dat het op dit moment misschien iets minder is,

354
00:25:41,060 --> 00:25:45,560
maar je zou je kunnen voorstellen tot er lucratieve contracten liggen.

355
00:25:46,120 --> 00:25:52,140
Of zouden kunnen liggen met, ik noem maar wat, Amerikaanse overheid om iets op defensie te doen.

356
00:25:54,160 --> 00:25:55,200
Dat is de vraag, wil je dat?

357
00:25:57,640 --> 00:26:00,780
Wij willen niet betrokken worden in oorlogsvoering natuurlijk.

358
00:26:01,260 --> 00:26:04,860
Dus dat is de normen en waarden van Philips.

359
00:26:05,420 --> 00:26:06,660
En daar tornen we ook niet aan.

360
00:26:08,220 --> 00:26:11,620
Kijk, als het over gezondheidszorg gaat voor militairen, is het een ander verhaal.

361
00:26:12,400 --> 00:26:14,040
AI voor oorlogsvoering, nee, no way.

362
00:26:15,240 --> 00:26:18,700
Dus dat is een afweging, maar op zich niet zo heel erg moeilijk.

363
00:26:22,440 --> 00:26:25,260
Er komen regelmatig, of regelmatig af en toe,

364
00:26:25,280 --> 00:26:30,160
wel iets subtielere uitdagingen tevoorschijn,

365
00:26:30,240 --> 00:26:35,660
waarbij je kunt afvragen van, oké, ik wil een bepaald doel bereiken met een algoritme,

366
00:26:38,700 --> 00:26:44,820
maar de data die ik daarvoor wil gaan verzamelen, heb ik die echt nodig?

367
00:26:45,380 --> 00:26:45,560
Oh ja.

368
00:26:45,760 --> 00:26:50,440
Moet ik echt heel veel verschillende type data verzamelen of kan het ook wel met minder?

369
00:26:51,519 --> 00:26:56,840
En wat je merkt is soms is de neiging van ja, hoe meer data hoe beter.

370
00:26:57,900 --> 00:27:04,040
Maar als je dan de goede discussie hebt met de goede argumenten en zegt van nou, je hoeft echt

371
00:27:04,240 --> 00:27:11,860
niet ik noem maar wat 25 parameters per persoon te monitoren om jouw doel te bereiken.

372
00:27:12,360 --> 00:27:17,240
Dus misschien hoef je er maar 16 of 15 te meten.

373
00:27:18,020 --> 00:27:19,220
En dat is een afweging.

374
00:27:20,100 --> 00:27:22,960
Maar goed, uiteindelijk komen we daar tot op heden wel altijd goed uit.

375
00:27:23,320 --> 00:27:24,480
Ja, snap ik.

376
00:27:26,360 --> 00:27:32,780
Wat is volgens jou nou een misverstand rondom AI en ethiek?

377
00:27:34,560 --> 00:27:36,240
Een misverstand tussen AI en ethiek?

378
00:27:40,640 --> 00:27:50,800
Nou, wat ik observeer, ik weet niet of het een misverstand is, maar er zitten twee kanten aan je vraag.

379
00:27:50,930 --> 00:27:53,080
Want ik kan hem op verschillende manieren beantwoorden.

380
00:27:53,520 --> 00:28:08,360
Eén manier beantwoorden is van, er zijn ook onderzoeken geweest die bijvoorbeeld kijken van, is AI empathischer dan een arts?

381
00:28:08,980 --> 00:28:09,240
Oh ja.

382
00:28:11,300 --> 00:28:15,320
En er zijn onderzoeken waaruit komt, ja, AI is empathischer.

383
00:28:16,460 --> 00:28:22,020
Kun je afvragen, oké, kun je dat überhaupt zo definiëren?

384
00:28:23,120 --> 00:28:25,800
Empathische AI, want eigenlijk slaat het nergens op.

385
00:28:26,500 --> 00:28:27,240
Waarom niet?

386
00:28:28,040 --> 00:28:32,260
AI is maar een technologie.

387
00:28:32,730 --> 00:28:35,140
Daar zit geen gevoelsleven in.

388
00:28:35,220 --> 00:28:36,280
kijk naar de techniek.

389
00:28:37,380 --> 00:28:38,580
Daar zit helemaal...

390
00:28:39,270 --> 00:28:41,240
Je kunt daar geen menselijke kenmerken

391
00:28:42,500 --> 00:28:43,380
aan verbinden.

392
00:28:44,070 --> 00:28:45,120
Maar veel mensen doen dat wel.

393
00:28:47,720 --> 00:28:49,060
Dus daarin, op dat

394
00:28:49,160 --> 00:28:50,760
gebied zou je kunnen zeggen van ja, daar zit wel

395
00:28:50,920 --> 00:28:53,200
een struggle

396
00:28:53,440 --> 00:28:54,760
tussen AI en ethiek.

397
00:28:57,440 --> 00:28:58,660
Er zijn ook mensen die zeggen van ja,

398
00:28:58,970 --> 00:29:00,380
AI gaat al onze problemen oplossen.

399
00:29:02,240 --> 00:29:02,580
Dus

400
00:29:03,440 --> 00:29:04,460
geef ons alle data.

401
00:29:04,980 --> 00:29:06,500
Want anders kunnen we alle problemen niet oplossen.

402
00:29:07,160 --> 00:29:09,540
Dat is ook een ethische dilemma.

403
00:29:11,520 --> 00:29:13,800
Dilemma wat ik zie is...

404
00:29:15,080 --> 00:29:17,220
AI heeft hele grote potentie.

405
00:29:17,840 --> 00:29:19,660
Maar wat ik ook zie is...

406
00:29:19,940 --> 00:29:21,640
Het wordt zoveel gehyped.

407
00:29:22,280 --> 00:29:24,660
Ook de Genuine TVI wordt zoveel gehyped.

408
00:29:25,380 --> 00:29:28,760
Persoonlijk denk ik dat we grote stappen maken.

409
00:29:28,880 --> 00:29:37,120
Maar tegelijkertijd, er zijn mensen die denken dat we veel te snel grote problemen kunnen oplossen.

410
00:29:37,170 --> 00:29:37,740
Ook in healthcare.

411
00:29:40,320 --> 00:29:45,580
En dat je daarom misschien wat ethische dilemma's iets meer op de achtergrond zou moeten schuiven.

412
00:29:45,800 --> 00:29:47,220
Omdat je die progressie wil maken.

413
00:29:48,500 --> 00:29:58,160
En persoonlijk denk ik van, we moeten heel erg opletten tot de use cases zoals die voor AI gedefinieerd worden.

414
00:29:58,800 --> 00:30:00,720
waarbij gouden bergen beloofd worden

415
00:30:00,920 --> 00:30:02,280
als je echt gaat kijken van

416
00:30:03,760 --> 00:30:05,180
hoeveel van die use cases

417
00:30:05,440 --> 00:30:07,120
en zeker van de complexere use cases

418
00:30:07,320 --> 00:30:08,520
leveren echt iets op

419
00:30:08,980 --> 00:30:10,620
en kunnen op korte termijn iets opleveren

420
00:30:10,680 --> 00:30:13,580
dan denk ik tot je toch snel van de koude kermis thuis komt

421
00:30:14,160 --> 00:30:18,600
dus daar moeten we toch een beetje op letten

422
00:30:18,700 --> 00:30:20,420
en misschien een beetje op de rem trappen

423
00:30:21,820 --> 00:30:24,280
ik wil nog even terugpakken naar de use case

424
00:30:24,410 --> 00:30:26,159
die je noemt, we hebben het net al een klein beetje aangestipt

425
00:30:26,220 --> 00:30:28,620
Maar hoe zorgt ervoor dat de juiste vraag stelt?

426
00:30:28,840 --> 00:30:30,900
Je geeft trading en awareness en dat soort zaken.

427
00:30:31,480 --> 00:30:34,040
En er zijn ongetwijfeld zaken waarvoor jullie geraadpleegd worden.

428
00:30:35,120 --> 00:30:43,120
Maar hoe kan je als zo'n grote organisatie ervoor zorgen dat op tijd waar jullie wordt opgevraagd of dat jullie ervan weten en langs gaan?

429
00:30:43,480 --> 00:30:45,000
Hoe zorg je dat je dat organiseert?

430
00:30:48,460 --> 00:30:49,620
Op dit moment zijn we nog niet perfect.

431
00:30:51,100 --> 00:30:54,800
We hebben bepaalde ideeën van hoe je het optimaal zou kunnen organiseren.

432
00:30:55,700 --> 00:30:59,380
Bijvoorbeeld, kijk wij zijn een klein centraal team.

433
00:30:59,550 --> 00:31:01,260
Dat hoeft ook niet een heel groot team te zijn.

434
00:31:02,280 --> 00:31:08,220
Wat je uiteindelijk zou willen is tot in alle onderdelen van de organisatie,

435
00:31:08,390 --> 00:31:12,760
in alle onderdelen van Philips, tot je, zoals wij het noemen,

436
00:31:13,060 --> 00:31:15,220
Responsible AI Ambassadors hebt.

437
00:31:16,560 --> 00:31:18,580
Of Officers, of hoe je het ook wil noemen.

438
00:31:19,120 --> 00:31:21,540
Dus eigenlijk een verlengstuk van het centrale team.

439
00:31:22,060 --> 00:31:24,260
Maar die wel in dienst zijn van de business unit.

440
00:31:25,200 --> 00:31:32,440
En die vanuit hun rol lokaal al veel eerder dingen kunnen waarnemen, kunnen adresseren.

441
00:31:33,040 --> 00:31:37,340
Soms dingen zelf kunnen oplossen en soms richting het centrale team komen.

442
00:31:37,460 --> 00:31:41,260
Dat is een vorm van ideale oplossing die wij zien.

443
00:31:41,960 --> 00:31:43,440
Kijk, op dit moment zijn we daar nog niet.

444
00:31:43,730 --> 00:31:53,880
Maar wat we wel zien is dat er mensen in de businesses duidelijk heel erg op dat responsable AI traject willen zitten.

445
00:31:54,960 --> 00:31:58,560
En daar ook extra inspanning in willen verrichten.

446
00:31:59,940 --> 00:32:08,820
Oftewel, die zijn van nature al gedreven om teams in hun organisatie misschien ook wel te helpen.

447
00:32:09,040 --> 00:32:14,400
Of teams te attenderen op ons bestaan.

448
00:32:14,640 --> 00:32:17,420
En wij proberen natuurlijk tegelijkertijd zoveel mogelijk reclame te maken.

449
00:32:17,980 --> 00:32:23,040
We zijn zowel intern als extern, we geven regelmatig presentaties.

450
00:32:23,240 --> 00:32:24,040
Ja, nu dan een podcast.

451
00:32:24,980 --> 00:32:28,660
Dus ik hoop dat de Filosomens ook gaan luisteren natuurlijk.

452
00:32:30,559 --> 00:32:36,580
Maar intern, we distribueren ook een newsletter, een responsable newsletter,

453
00:32:37,640 --> 00:32:38,880
voor de mensen die hem willen ontvangen.

454
00:32:38,950 --> 00:32:40,420
En die community wordt steeds groter.

455
00:32:42,280 --> 00:32:43,100
We geven webinars.

456
00:32:44,880 --> 00:32:45,700
We gaan op bezoek.

457
00:32:46,020 --> 00:32:49,520
Dus die bekendheid is er ondertussen wel.

458
00:32:49,680 --> 00:32:53,200
Dus vooral communicatie, vol sprieten in de organisatie uitzetten.

459
00:32:53,340 --> 00:32:55,300
zorgen dat inderdaad mensen je weten te vinden.

460
00:32:58,480 --> 00:33:00,540
We hebben een kaartspel ontwikkeld.

461
00:33:01,480 --> 00:33:06,240
Juist om te praten over allerlei dilemma's die er mogelijk zijn

462
00:33:06,440 --> 00:33:08,820
rondom in dit geval wel generatieve AI.

463
00:33:09,380 --> 00:33:11,440
Dus de generatieve AI-editie van het kaartspel.

464
00:33:11,790 --> 00:33:14,200
En we willen jou graag ook een stelling voorleggen.

465
00:33:15,520 --> 00:33:17,420
Wij hebben trouwens ook een kaartspel.

466
00:33:17,780 --> 00:33:19,960
Wij hebben ook een kaartspel, niet zelfgemaakt,

467
00:33:20,000 --> 00:33:27,320
We gebruiken een kaartspel om productontwikkelteams te triggeren op de juiste vragen die ze zichzelf moeten stellen.

468
00:33:27,680 --> 00:33:29,520
Wat voor risico's loop ik nou?

469
00:33:29,960 --> 00:33:30,300
Interessant.

470
00:33:30,760 --> 00:33:31,720
Kunnen wij die ook krijgen?

471
00:33:33,879 --> 00:33:37,220
Het is een externe kaartset van de vrouw.

472
00:33:37,880 --> 00:33:39,180
Die wil je moeten kopen.

473
00:33:40,300 --> 00:33:42,620
Dan hebben we het wel even na de uitzending over.

474
00:33:59,060 --> 00:33:59,980
De categorie deze keer.

475
00:34:00,400 --> 00:34:02,380
Toekomst, visies en speculaties.

476
00:34:03,740 --> 00:34:09,000
Generatieve AI zal leiden tot ongekende bedrijfsmodellen en inkomstenstromen.

477
00:34:14,080 --> 00:34:24,960
ik denk dat je dat al ziet op dit moment dus dit is de speculatie sowieso wat ik al observeer en

478
00:34:24,960 --> 00:34:33,600
en veel mensen onderschatten dat nog ook bij ons trouwens hoe je je dagelijks werk gaat veranderen

479
00:34:33,739 --> 00:34:34,960
En eigenlijk al veranderd.

480
00:34:35,520 --> 00:34:39,899
En ik geef zelf wel eens het vergelijk met de schaakwereld.

481
00:34:40,179 --> 00:34:41,440
Ik ben ook een schaker.

482
00:34:43,060 --> 00:34:44,879
In de schaakwereld is het al jaren zo.

483
00:34:45,600 --> 00:34:48,360
Tot de topschakers maken gebruik van AI.

484
00:34:49,000 --> 00:34:51,340
In hun voorbereidingen, in de analyse achteraf.

485
00:34:52,179 --> 00:34:53,840
Dus dat is echt een samenwerking.

486
00:34:54,679 --> 00:34:57,600
Vroeger zaten ze gewoon zelf achter een schaakbord.

487
00:34:58,700 --> 00:34:59,780
Met schaakboek ernaast.

488
00:34:59,810 --> 00:35:01,139
En misschien wel meerdere schaakborden.

489
00:35:01,260 --> 00:35:04,740
We waren bezig met studie en voorbereiding.

490
00:35:05,780 --> 00:35:07,320
Nu is dat gewoon via de computer.

491
00:35:07,899 --> 00:35:12,120
En je ziet dat door die samenwerking tussen mens en AI,

492
00:35:13,659 --> 00:35:15,340
het schakel heel erg anders is geworden.

493
00:35:15,940 --> 00:35:21,600
Dat zie je dus nu ook in andere beroepen doorsijpelen.

494
00:35:22,220 --> 00:35:23,500
Ook in ons dagelijks werk.

495
00:35:24,540 --> 00:35:26,600
Mensen maken veel gebruik van het ChatGPT.

496
00:35:28,960 --> 00:35:34,220
bepaalde ideeën te krijgen of vragen snel te beantwoorden.

497
00:35:35,800 --> 00:35:40,180
Dus in die zin, elk bedrijf, elk persoon,

498
00:35:41,180 --> 00:35:44,340
zal binnen no time op een andere manier werken.

499
00:35:45,380 --> 00:35:48,740
En die ongekende andere businessmodellen,

500
00:35:49,260 --> 00:35:53,100
maar ja, de big tech firms, daar zie je het al aan.

501
00:35:54,320 --> 00:35:57,400
Dat zal ook naar andere bedrijven doorsijpelen.

502
00:35:58,540 --> 00:36:00,060
Dat gaat heel snel, sneller dan je denkt.

503
00:36:00,620 --> 00:36:04,040
En als we in deze analogie het doorzetten van het schaken,

504
00:36:04,640 --> 00:36:07,820
wat zou de volgende zet moeten zijn in de ontwikkeling van AI?

505
00:36:11,060 --> 00:36:12,680
De volgende zet, ontwikkeling van AI.

506
00:36:18,740 --> 00:36:21,400
Een andere technologie dan large language models.

507
00:36:21,900 --> 00:36:24,520
Oh ja, waar zit je aan te denken?

508
00:36:26,600 --> 00:36:30,380
Ik ben niet degene die die technologie kan verzinnen.

509
00:36:31,220 --> 00:36:37,320
Maar zoals je nu ziet hoe de Genitive AI modellen zijn opgezet.

510
00:36:40,420 --> 00:36:43,280
Dat is goed voor nu, voor de huidige toepassingen.

511
00:36:43,440 --> 00:36:44,880
Maar wil je een stap verder maken.

512
00:36:45,420 --> 00:36:49,020
En daar zijn ook de goeroes op AI gebied.

513
00:36:49,100 --> 00:36:51,060
Zijn het daar wel over eens, heb je andere technologieën nodig.

514
00:36:51,880 --> 00:36:55,400
Dus dit is maar een tussenoplossing.

515
00:36:55,780 --> 00:36:57,200
Ja, zit in de tussenfase.

516
00:36:57,340 --> 00:36:58,160
Ja, absoluut.

517
00:36:58,860 --> 00:36:59,200
Nou, mooi.

518
00:37:00,120 --> 00:37:01,840
Ik was wel nieuwsgierig, ik weet niet hoeveel je ervan weet,

519
00:37:01,940 --> 00:37:04,640
maar in de voorbereiding door onderzoek naar onze gasten en dat soort zaken,

520
00:37:05,020 --> 00:37:08,980
was er ook gesproken over dat er in het Philips Museum ook een onderwerp ethiek en...

521
00:37:09,360 --> 00:37:09,780
Dat klopt, ja.

522
00:37:10,140 --> 00:37:11,260
Zou je daar wat meer over kunnen vertellen?

523
00:37:11,310 --> 00:37:13,580
Ik was wel geïntrigeerd, want ik kon er voor de rest nog niet heel veel over vinden.

524
00:37:14,540 --> 00:37:18,380
Ah, ja, dan zul je er toch een keer naar Eindhoven moeten komen om het Philips Museum te bezoeken.

525
00:37:20,060 --> 00:37:25,840
We hebben daar samen met een collega van mij vier stellingen.

526
00:37:26,880 --> 00:37:27,700
Presenteren wij daar.

527
00:37:28,140 --> 00:37:29,400
Die hebben we opgenomen.

528
00:37:30,200 --> 00:37:35,600
Dus bezoekers die kunnen gewoon op hun computer krijgen ze ons te zien.

529
00:37:36,040 --> 00:37:37,340
En wij leggen de stelling uit.

530
00:37:38,300 --> 00:37:44,620
En stellen dan degene die dat verhaal bekijkt een vraag.

531
00:37:46,120 --> 00:37:48,420
Ben je voor deze stelling of tegen deze stelling?

532
00:37:50,860 --> 00:37:50,900
en

533
00:37:52,000 --> 00:37:53,380
de bezoeker kan over nadenken

534
00:37:53,520 --> 00:37:55,240
en kan dan bij de antwoorden

535
00:37:55,290 --> 00:37:56,980
van ons horen, omdat het is

536
00:37:57,240 --> 00:37:59,100
meestal niet zwart wit, het is of ja of nee

537
00:37:59,240 --> 00:38:00,680
het kan ja zijn en het kan nee zijn

538
00:38:01,500 --> 00:38:02,580
dus op die manier

539
00:38:04,040 --> 00:38:05,000
zou je kunnen zeggen dat ik

540
00:38:05,180 --> 00:38:06,400
vereeuwigd ben in het feest van me

541
00:38:07,519 --> 00:38:08,720
met een museumstuk

542
00:38:09,540 --> 00:38:11,420
ja dat zijn mijn gezinnen ook al

543
00:38:14,380 --> 00:38:15,140
en dat is om

544
00:38:15,380 --> 00:38:17,240
awareness te creëren op het ethieke

545
00:38:17,260 --> 00:38:23,020
Vraagstukken die we eigenlijk allemaal zien en waar je mee te maken hebt door eigenlijk gewoon in de maatschappij vraagstukken.

546
00:38:23,120 --> 00:38:26,380
Ja, het is een AI tentoonstelling in het Filipsmuseum.

547
00:38:26,740 --> 00:38:29,180
En natuurlijk, ethiek speelt daar een onderdeel in.

548
00:38:29,280 --> 00:38:32,140
Dus het is maar een klein onderdeeltje in de complete tentoonstelling.

549
00:38:32,520 --> 00:38:35,060
Maar ja, vanuit mijn perspectief natuurlijk het meest langer.

550
00:38:35,280 --> 00:38:35,820
Ja, het stuk.

551
00:38:38,380 --> 00:38:42,060
Je had ook nog compliance in je functietitel zitten.

552
00:38:42,760 --> 00:38:51,780
Hoe zorg je nou met de toenemende regulering dat dat meegenomen wordt in de ontwikkeling van de producten en van de modellen?

553
00:38:52,240 --> 00:38:52,900
Ja, dat is een crime.

554
00:38:53,520 --> 00:38:55,420
Ja, daar vraag ik het ook.

555
00:38:57,100 --> 00:38:59,960
Allereerst als je kijkt naar Europa.

556
00:39:01,440 --> 00:39:05,340
Kijk, want ik moet even globaal kijken over de hele wereld, omdat we een globaal bedrijf zijn.

557
00:39:05,850 --> 00:39:12,340
Maar als je kijkt naar Europa, de AI Act is een horizontale wetgeving, dus voor alle industrieën.

558
00:39:13,420 --> 00:39:18,820
Tegelijkertijd, wij als medisch bedrijf voldoen natuurlijk al jarenlang aan de medical device regulations.

559
00:39:19,720 --> 00:39:23,400
Dat is puur een regulation voor de healthcare sector.

560
00:39:24,420 --> 00:39:27,940
En als je die twee naast elkaar legt, dan zijn er wel wat strijdigheden.

561
00:39:29,460 --> 00:39:31,800
Oftewel, die twee samen zijn niet optimaal.

562
00:39:32,360 --> 00:39:33,640
Dat geeft dus een uitdaging.

563
00:39:34,060 --> 00:39:42,260
Wij moeten meer documentatie aanleveren die misschien niet heel erg nuttig is.

564
00:39:43,100 --> 00:39:43,800
Dat is in Europa.

565
00:39:44,450 --> 00:39:47,860
En AI Act, die wetgeving is er.

566
00:39:48,240 --> 00:39:50,300
Maar de standaardisatiecommissies zijn nog bezig.

567
00:39:50,370 --> 00:39:53,660
Dus de details van de wetgeving, die moeten nog komen.

568
00:39:54,180 --> 00:39:56,860
Dus de vraag is even van hoe ontwikkelt zich dat nog verder.

569
00:39:56,960 --> 00:39:58,960
Dus is het nog niet in steen gegoten.

570
00:39:59,960 --> 00:40:00,680
Dan heb je Amerika.

571
00:40:01,400 --> 00:40:05,380
Amerika heeft natuurlijk de FDA, in januari kwam ze nog uit,

572
00:40:05,520 --> 00:40:10,140
met een draft guidance voor AI.

573
00:40:10,400 --> 00:40:16,700
Die trouwens best wel in de richting was van de Europese regelgeving.

574
00:40:16,780 --> 00:40:21,580
En de FDA is de instelling die jullie dan ook goedkeurt dat je het medisch mag gebruiken.

575
00:40:21,600 --> 00:40:22,900
Ja, en Amerika.

576
00:40:24,340 --> 00:40:28,220
Maar tegelijkertijd heb je dan natuurlijk het nieuwe politieke klimaat.

577
00:40:30,460 --> 00:40:34,280
Die misschien wel FDA regelgeving gaat afzakken.

578
00:40:34,440 --> 00:40:35,340
Dat weten we nog niet.

579
00:40:36,200 --> 00:40:42,340
En je hebt daar vijftig staten die hun eigen regelgeving aan het maken zijn op AI-gebied.

580
00:40:42,640 --> 00:40:44,840
Want Californië heeft zijn eigen AI-act.

581
00:40:44,890 --> 00:40:47,400
Ja, dus wat er in de praktijk gebeurt.

582
00:40:48,280 --> 00:40:54,760
Ons Amerikaanse regulatory team kijkt naar die lokale voorstellen voor AI-wetgeving.

583
00:40:55,780 --> 00:40:59,580
Stuur ze ook naar ons toe en vraag ook aan ons van hebben jullie ook nog input hier?

584
00:41:00,960 --> 00:41:02,600
Zit hier bepaalde red flags in?

585
00:41:04,180 --> 00:41:09,880
Heel veel van die dingen zorgen ervoor dat we extra werk zouden moeten doen voor die lokale staten.

586
00:41:11,160 --> 00:41:12,860
Dus die staten zijn ermee bezig.

587
00:41:12,960 --> 00:41:24,940
Tegelijkertijd zegt de Amerikaanse overheid, nee, er moet nou een moratorium komen op de wetgeving op staatsniveau van AI.

588
00:41:25,220 --> 00:41:26,680
Dus heel dynamisch.

589
00:41:29,900 --> 00:41:32,260
die staten hun eigen wetgeving mogen blijven doen,

590
00:41:32,260 --> 00:41:35,700
dan zou je kunnen zeggen, Amerikaanse wetgeving is meer complex

591
00:41:35,770 --> 00:41:36,520
dan de Europese.

592
00:41:37,510 --> 00:41:38,280
En dynamisch.

593
00:41:38,440 --> 00:41:39,120
Ja, precies.

594
00:41:39,120 --> 00:41:39,580
Dat is leuk, hè?

595
00:41:40,319 --> 00:41:46,160
In China zie je tot, die zijn heel erg actief

596
00:41:46,350 --> 00:41:49,460
om ook hun wetgeving weer te updaten.

597
00:41:51,620 --> 00:41:55,440
Maar op zich denk ik, ze zijn streng.

598
00:41:56,500 --> 00:42:01,260
Maar misschien wel, je zou bijna kunnen zeggen, misschien ook nog wel het meest stabiel.

599
00:42:02,020 --> 00:42:02,260
Oh ja.

600
00:42:03,040 --> 00:42:05,020
Dus je hebt die drie grote gebieden.

601
00:42:05,500 --> 00:42:06,980
Ik vergeet even de rest van de landen.

602
00:42:07,520 --> 00:42:09,560
Dat is ook complex, want dat is ook allemaal verschillend.

603
00:42:09,620 --> 00:42:11,260
Maar dit zijn onze drie grote markten.

604
00:42:13,800 --> 00:42:17,220
Als je die drie naast elkaar legt, dan heb je verschillende eisen.

605
00:42:17,580 --> 00:42:20,180
Een aantal dingen zijn hetzelfde, maar een aantal dingen zijn ook verschillend.

606
00:42:21,940 --> 00:42:26,100
Dan moet je ze dus naast elkaar leggen en kijken van oké, wat zijn de synergieën?

607
00:42:27,140 --> 00:42:28,740
wat zijn de lokale

608
00:42:30,000 --> 00:42:30,480
bijzonderheden

609
00:42:30,640 --> 00:42:31,700
waar ik aandacht aan moet hebben

610
00:42:32,420 --> 00:42:34,000
en dan kom ik weer terug op een eerder punt

611
00:42:34,420 --> 00:42:36,440
hoe ga ik dat nou meenemen

612
00:42:37,220 --> 00:42:38,700
in mijn productontwikkeling

613
00:42:38,820 --> 00:42:40,900
die ik wereldwijd wil uitrollen

614
00:42:40,980 --> 00:42:42,760
dat is een grote uitdaging

615
00:42:43,840 --> 00:42:44,620
en daar hebben wij

616
00:42:45,480 --> 00:42:46,960
wij proberen dat op de best

617
00:42:47,080 --> 00:42:47,820
mogelijke manier te doen

618
00:42:48,260 --> 00:42:49,600
maar we hebben nog niet

619
00:42:51,340 --> 00:42:52,780
zeg maar de pot met goud gevonden

620
00:42:52,940 --> 00:42:54,720
om dat op de meest optimale manier te doen

621
00:42:54,740 --> 00:42:56,520
En het is zo'n dynamisch veld.

622
00:42:56,550 --> 00:43:00,980
Dus je moet constant, ben je ook bezig, om al die regelgevingen,

623
00:43:01,070 --> 00:43:05,800
als er weer een nieuwe regelgeving komt, om dat te kijken van wat betekent dat.

624
00:43:06,540 --> 00:43:07,660
Ten opzichte van wat we al hebben.

625
00:43:07,920 --> 00:43:08,340
Ja, heftig.

626
00:43:09,460 --> 00:43:11,940
Ja, en zo'n vraag blijft in mijn hoofd.

627
00:43:11,980 --> 00:43:15,940
Het is wel heel erg detailistisch, maar dat is mijn beeld van medical devices.

628
00:43:16,620 --> 00:43:20,420
Daar worden natuurlijk heel veel AI-toepassingen ingebouwd in zo'n medical device.

629
00:43:21,680 --> 00:43:23,380
Wat als daar een nieuwe model in moet komen?

630
00:43:23,520 --> 00:43:25,560
Moeten ze dan ook langs de FDA weer opnieuw?

631
00:43:26,800 --> 00:43:28,920
Hoe zit er zo'n product lifecycle management?

632
00:43:29,120 --> 00:43:30,040
Wanneer moet je weer langs?

633
00:43:33,340 --> 00:43:34,880
Ja, dat hangt er weer vanaf.

634
00:43:37,020 --> 00:43:37,860
Een voorbeeldje.

635
00:43:41,320 --> 00:43:44,920
De vraag die je zelf moet stellen van in Europa bijvoorbeeld,

636
00:43:45,520 --> 00:43:49,440
is de AI die je aan een systeem wil toevoeren,

637
00:43:49,970 --> 00:43:51,680
heeft die een bepaalde safety functie?

638
00:43:52,030 --> 00:43:52,460
Ja of nee?

639
00:43:53,120 --> 00:43:57,660
Want dat betekent al iets voor de dingen waar je aan moet voldoen.

640
00:44:00,280 --> 00:44:06,960
Als je een bepaald product al in de markt hebt, of een AI al in de markt hebt, en je wil het updaten,

641
00:44:08,140 --> 00:44:12,560
daar had je al rekening mee kunnen houden in de vorige aanvraag.

642
00:44:13,020 --> 00:44:18,160
In Amerika in ieder geval, je hebt iets zoals een predetermined change control plan.

643
00:44:18,440 --> 00:44:23,880
Dat betekent dus al dat je bij je aanvraag voor goedkeuring van de FDA,

644
00:44:24,880 --> 00:44:28,320
tot je dan al aangeeft van nou, we gaan nog een aantal keer updaten.

645
00:44:29,800 --> 00:44:32,660
En we leveren al informatie daarover aan.

646
00:44:33,260 --> 00:44:37,360
Even grof gezegd, wel heel zwartwit gezegd, maar daar komt ongeveer op neer.

647
00:44:38,360 --> 00:44:41,180
En als je dat doet, dan hoef je niet elke keer een nieuwe submission te doen.

648
00:44:41,820 --> 00:44:46,460
Dus er zijn diverse vragen die je per product moet stellen.

649
00:44:47,680 --> 00:44:49,000
En per regio moet stellen.

650
00:44:49,560 --> 00:44:52,580
En aan de hand daarvan kun je kijken wat je moet doen.

651
00:44:52,820 --> 00:44:54,220
Klinkt als een complexe legpuzzel.

652
00:44:54,560 --> 00:44:55,540
Het is een complexe legpuzzel.

653
00:44:55,550 --> 00:44:59,080
En by the way, dat is niet de pure verantwoordelijkheid van ons team.

654
00:45:00,460 --> 00:45:03,440
Wij hebben een heel groot regulatory-vers team in Philips.

655
00:45:03,780 --> 00:45:05,860
Die lokaal overal aanwezig zijn.

656
00:45:06,520 --> 00:45:09,180
Het is primair hun taak om dat te doen.

657
00:45:09,860 --> 00:45:12,220
Wij brengen de responsable perspectieven.

658
00:45:13,200 --> 00:45:19,880
Is er iets of iemand die jou geïnspireerd heeft op jouw kijk rondom ethiek en AI?

659
00:45:21,580 --> 00:45:24,060
Ja, die vraag heb ik al een keer eerder gekregen.

660
00:45:25,040 --> 00:45:29,220
En mijn eerste spontane antwoord was, ja eigenlijk niet.

661
00:45:29,440 --> 00:45:30,480
Maar dat klinkt een beetje fout.

662
00:45:31,100 --> 00:45:31,300
Wat?

663
00:45:32,280 --> 00:45:35,900
Nou, het punt is, ik volg heel veel mensen.

664
00:45:38,260 --> 00:45:39,620
Vooral op LinkedIn, om eerlijk te zijn.

665
00:45:39,700 --> 00:45:42,940
Daar zie je heel veel mensen die heel waardevolle dingen posten.

666
00:45:43,820 --> 00:45:46,300
Er is niet één die daar specifiek voor mij uitspringt.

667
00:45:46,440 --> 00:45:48,700
Die heeft mij of geïnspireerd.

668
00:45:49,570 --> 00:45:54,800
Of als die iets zegt, dan vind ik dat belangrijker dan iemand anders iets zegt.

669
00:45:55,000 --> 00:45:57,240
Dus er zijn verschillende mensen waarvan ik zeg, die volg ik.

670
00:45:58,000 --> 00:45:59,200
Dat vind ik nuttige informatie.

671
00:45:59,880 --> 00:46:03,240
Maar er is niet één iemand die mijn voorbeeld is.

672
00:46:04,080 --> 00:46:04,580
Dat hoeft ook niet.

673
00:46:05,760 --> 00:46:06,460
Ik was gewoon benieuwd.

674
00:46:06,540 --> 00:46:09,960
Klinkt wel mooi als diverse aan verschillende perspectieven die je dus meeneemt.

675
00:46:11,140 --> 00:46:11,540
Zeker.

676
00:46:12,380 --> 00:46:14,960
Wat zou je de luisteraar mee willen geven?

677
00:46:16,280 --> 00:46:21,000
Als ze nou zo direct, dan zetten ze deze uit, de podcast op het gebied van ethiek.

678
00:46:21,440 --> 00:46:22,500
Wat zou je ze mee willen geven?

679
00:46:24,220 --> 00:46:31,460
Ik zou ze eigenlijk mee willen geven van, zie ethiek niet als iets bedreigends of zo.

680
00:46:32,840 --> 00:46:35,540
Ik moet heel erg uitkijken met, ik moet misschien niet aan beginnen.

681
00:46:36,480 --> 00:46:38,500
ik zou zeggen van AI kom je niet omheen

682
00:46:39,760 --> 00:46:40,500
iedereen moet AI

683
00:46:40,760 --> 00:46:42,560
gaan gebruiken en liefst hoe snel mogelijk

684
00:46:43,560 --> 00:46:44,020
maar

685
00:46:45,580 --> 00:46:46,580
denk altijd goed na

686
00:46:47,100 --> 00:46:48,320
wat je doet, stel jezelf

687
00:46:48,560 --> 00:46:49,440
gewoon kritische vragen

688
00:46:50,220 --> 00:46:51,200
zou jij zelf

689
00:46:52,380 --> 00:46:53,680
aan de andere kant willen zitten

690
00:46:54,500 --> 00:46:55,840
aan de ontvangende kant zeg maar

691
00:46:56,040 --> 00:46:57,160
van het algoritme

692
00:46:58,600 --> 00:47:00,380
stel je dat soort vragen

693
00:47:01,080 --> 00:47:02,180
en ga gewoon aan de slag

694
00:47:05,160 --> 00:47:05,640
mooi

695
00:47:05,680 --> 00:47:14,800
hebben gekregen van wat jij doet binnen Philips. En voor mij was het heel erg nuttig om te horen

696
00:47:14,900 --> 00:47:20,200
hoe dat internationaal vooral werkt. Dus jullie hebben heel veel ervaring hoe je iets globaal doet.

697
00:47:20,580 --> 00:47:23,780
Dus dank je wel dat je dat met ons wilde delen. Graag gedaan.

698
00:47:28,000 --> 00:47:31,860
We hadden van tevoren het erover dat ik wel eens een verkeerd knopje indruk.

699
00:47:32,260 --> 00:47:32,940
Nou, dat was het weer.

700
00:47:33,480 --> 00:47:34,240
Bij de Eze.

701
00:47:34,820 --> 00:47:38,220
Heel erg leuk dat je weer luisterde naar een aflevering van AIToday Live.

702
00:47:38,700 --> 00:47:41,160
Vergeet je niet te abonneren via je favoriete podcast app.

703
00:47:41,660 --> 00:47:43,160
En dan mis je geen aflevering.

704
00:47:43,680 --> 00:47:44,180
Tot de volgende keer.

705
00:47:44,320 --> 00:47:44,980
Tot de volgende keer.


People on this episode