AIToday Live

S07E55 - Publieke waarde versus commerciële belangen: de AI-balans

Aigency by Info Support Season 7 Episode 55

Jet de Ranitz en Erik Fledderus bespreken in deze aflevering van AIToday Live de complexe relatie tussen AI, publieke waarden en commerciële belangen. Ze delen inzichten over de toepassing van AI in de publieke sector en het belang van inclusiviteit bij AI-implementaties.

De experts benadrukken hoe AI niet alleen risico's op bias met zich meebrengt, maar ook kan helpen menselijke vooroordelen te verminderen. Ze bespreken de noodzaak om kritisch te blijven in een AI-gedreven wereld en de impact van AI op het onderwijs.

De aflevering sluit af met een aanmoediging om te experimenteren met AI en technologievrees te overwinnen.

Onderwerpen

  • AI en publieke waarden
  • Verschillende perspectieven op AI-toepassingen
  • Balans tussen publieke waarden en commerciële belangen
  • Inclusiviteit en AI
  • AI als verbeteraar van menselijke besluitvorming
Links

Genoemde entiteiten: Microsoft - WOB - gemeente Rotterdam - voetbalclub - technologiebedrijven - supportersgroepen

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:06,240
In deze aflevering hoor je Jet de Ranitz, directeur publieke sector bij Microsoft en Erik Fledderus,

2
00:00:06,240 --> 00:00:11,440
lector digital business and society bij Windesheim, over de balans tussen publieke waarde en commerciële

3
00:00:11,440 --> 00:00:12,840
belangen bij AI-toepassingen.…

4
00:00:12,840 --> 00:00:17,879
Ze bespreken hoe AI zowel uitdagingen als kansen biedt voor verschillende sectoren en

5
00:00:17,879 --> 00:00:20,000
waarom kritische reflectie essentieel blijft.

6
00:00:37,480 --> 00:00:38,880
***

7
00:00:50,020 --> 00:00:52,500
is eigenlijk wie bepaalt eigenlijk welke richting we opgaan.

8
00:00:52,830 --> 00:00:54,600
Is dat de grote techbedrijven?

9
00:00:55,239 --> 00:00:56,720
Zijn dat de onderwijsinstellingen?

10
00:00:56,720 --> 00:00:57,500
Of zijn wij dat allemaal?

11
00:00:58,220 --> 00:01:03,180
En daar praten we met twee, ben ik echt heel blij, de gasten die we hebben.

12
00:01:03,600 --> 00:01:04,900
De eerste is Jet de Ranitz.

13
00:01:05,519 --> 00:01:07,440
Jet, zou je jezelf eerst even willen voorstellen?

14
00:01:08,560 --> 00:01:10,680
Ja, ik ben directeur publieke sector bij Microsoft.

15
00:01:11,560 --> 00:01:11,940
Duidelijk.

16
00:01:12,510 --> 00:01:14,260
Ons tweede gast, Erik Fledderus.

17
00:01:15,460 --> 00:01:17,940
En zou jezelf ook even kort willen voorstellen aan de luisteraars?

18
00:01:18,240 --> 00:01:20,840
Ik ben lector Digital Business and Society bij Windesheim.

19
00:01:22,619 --> 00:01:25,560
En Erik, we gaan je straks confronteren.

20
00:01:25,640 --> 00:01:29,620
Maar je hebt volgens mij al eens eerder gezegd dat niet iedereen AI nodig heeft.

21
00:01:31,120 --> 00:01:32,640
Dat is denk ik een jaar of twee geleden.

22
00:01:32,650 --> 00:01:32,920
Sta je

23
00:01:32,920 --> 00:01:33,880
daar eigenlijk nog steeds achter?

24
00:01:36,160 --> 00:01:38,640
Nou, ik moet even diep graven wanneer ik die uitspraak heb gedaan.

25
00:01:38,820 --> 00:01:43,620
Ik denk dat er beroepen zijn, zoals dat ook wel met corona was toen iedereen thuis moest werken.

26
00:01:43,640 --> 00:01:45,480
Waarbij sommige mensen zeiden, ja thuis werken.

27
00:01:46,140 --> 00:01:47,120
Mijn werk is niet thuis.

28
00:01:47,900 --> 00:01:50,040
Dus ik moet wel echt al die fabriek in.

29
00:01:50,500 --> 00:01:53,280
En zo zal het denk ik ook wel rondom AI zijn.

30
00:01:53,360 --> 00:01:57,860
Er zijn beroepen die misschien wat minder ontvankelijk zijn voor de toepassing van AI.

31
00:01:59,740 --> 00:02:01,680
Maar als je het wat uitbreidt.

32
00:02:02,000 --> 00:02:09,440
En vandaag hadden we een robot, een humanoid robot op het podium waar natuurlijk ook een stuk AI in zit.

33
00:02:09,639 --> 00:02:10,960
Dan denk ik dat je een hele eind komt.

34
00:02:11,920 --> 00:02:14,240
En dan zou ik misschien die uitspraak al willen herzien.

35
00:02:16,060 --> 00:02:16,940
Hoe zie jij dat, Jet?

36
00:02:18,840 --> 00:02:20,440
Ik ga wel met Erik mee

37
00:02:20,560 --> 00:02:22,240
Ik denk dat we uiteindelijk allemaal wel

38
00:02:22,550 --> 00:02:24,480
AI toepassingen in ons leven zullen hebben

39
00:02:25,080 --> 00:02:25,820
En net zoals we ook

40
00:02:26,360 --> 00:02:28,140
Eigenlijk bijna allemaal mobiele telefoon hebben

41
00:02:28,240 --> 00:02:30,240
Die worden allemaal standaard uitgerust met AI

42
00:02:30,500 --> 00:02:32,540
Straks ook je laptop zit straks gewoon AI in

43
00:02:33,340 --> 00:02:34,760
En ik ken eigenlijk geen mensen meer

44
00:02:34,960 --> 00:02:37,180
Zonder laptop of mobiele telefoon

45
00:02:37,560 --> 00:02:37,900
Behalve

46
00:02:38,080 --> 00:02:40,020
Zelfs mijn schoonmoeder van 93

47
00:02:40,200 --> 00:02:40,700
Heeft inmiddels een

48
00:02:40,700 --> 00:02:41,580
mobiele telefoon

49
00:02:42,400 --> 00:02:44,000
Dus het is onontkoombaar

50
00:02:45,140 --> 00:02:46,400
Tegelijkertijd gebruik je dat nou

51
00:02:46,400 --> 00:02:48,120
heel intensief elke dag in je werk.

52
00:02:48,780 --> 00:02:50,600
Dat zal heel erg afhangen van het werk dat je doet.

53
00:02:50,720 --> 00:02:53,100
En ook de taak die je op dat moment aan het uitvoeren bent.

54
00:02:53,240 --> 00:02:54,680
Of de toegevoegde waarde heeft of niet.

55
00:02:55,200 --> 00:02:55,400
Zeker.

56
00:02:56,200 --> 00:02:57,640
En jullie hebben een heel mooie achtergrond.

57
00:02:58,020 --> 00:02:59,120
Ook in het onderwijs.

58
00:02:59,280 --> 00:03:00,240
Dat hadden we al mooi horen.

59
00:03:00,420 --> 00:03:01,560
Allebei ook een achtergrond bij SURF.

60
00:03:01,660 --> 00:03:04,100
Het is ook wel veel digitale domein ingerold.

61
00:03:04,620 --> 00:03:06,960
Zouden jullie kort wat kunnen vertellen over jullie huidige rol?

62
00:03:07,480 --> 00:03:09,420
En de rol daarvan met AI erin?

63
00:03:11,340 --> 00:03:11,820
Wie begint?

64
00:03:13,540 --> 00:03:13,940
Erik, ga je gaan?

65
00:03:13,960 --> 00:03:14,080
Zal

66
00:03:14,080 --> 00:03:14,420
ik beginnen?

67
00:03:15,680 --> 00:03:20,220
Nou, we hebben in het onderzoek gebruik van AI op een paar plekken.

68
00:03:20,220 --> 00:03:22,000
We doen veel projecten met de maakindustrie.

69
00:03:23,020 --> 00:03:28,680
Je ziet dat in de productie van allerlei producten en diensten, maar met name producten,

70
00:03:29,320 --> 00:03:36,000
dat daar veel automatisering en veel data en daarmee ook langzamerhand steeds met AI gebruikt wordt.

71
00:03:37,000 --> 00:03:43,000
Dat kan gekoppeld worden aan een slimme camera die fouten detectie moet doen of kwaliteitscontrole.

72
00:03:43,340 --> 00:03:45,800
Dus dat is een plek waar we heel veel met AI doen.

73
00:03:47,540 --> 00:03:55,720
We zien dat MKB'ers, dus eigenlijk veel van de ondernemers die het nog best spannend vinden om met dit soort geavanceerde technologie te werken,

74
00:03:56,010 --> 00:04:03,800
nog wat meer in de hoek van vertel eens waar het over gaat, ik wil wat meer achtergrond krijgen voordat ze echt het diepe in durven te duiken.

75
00:04:03,930 --> 00:04:04,060
Nou

76
00:04:04,060 --> 00:04:04,960
daar helpen

77
00:04:04,960 --> 00:04:05,320
we ze mee.

78
00:04:06,500 --> 00:04:12,700
En de laatste, en dat sluit heel erg aan bij waar Jet werkt, dat is AI en data in de publieke omgeving.

79
00:04:13,140 --> 00:04:15,100
Dus dat kan met name veel op de overheid.

80
00:04:16,560 --> 00:04:17,959
Ook AI en het onderwijs.

81
00:04:18,060 --> 00:04:21,959
In die zin heeft mijn lectoraat en heb ik zelf ook wel een soort dubbelfunctie.

82
00:04:22,040 --> 00:04:24,340
Deels naar de buitenwereld, maar ook wel intern winnen zijn.

83
00:04:25,020 --> 00:04:26,800
Ook iets meer vertellen over wat is dit nou?

84
00:04:26,900 --> 00:04:27,860
Hoe spannend is het nou?

85
00:04:28,840 --> 00:04:30,020
Hoe spannend is het echt?

86
00:04:30,840 --> 00:04:31,700
Wat is de achtergrond?

87
00:04:32,160 --> 00:04:36,540
Ook wat jij aangaf over waarom je deze podcast bent gestart.

88
00:04:36,700 --> 00:04:44,040
Maar ook daar een beetje de wat overtrokken verhalen wat realistischer te krijgen.

89
00:04:44,420 --> 00:04:46,260
Maar het ook niet zo te downplayen.

90
00:04:46,260 --> 00:04:48,720
Dat je zegt, dit waait ook wel weer over, ga lekker slapen.

91
00:04:48,880 --> 00:04:49,440
Ja, precies.

92
00:04:51,020 --> 00:04:52,560
En hoe zie jij dat, Jet?

93
00:04:53,780 --> 00:04:59,900
Mijn functie is vooral het verkopen van AI aan klanten in Nederland.

94
00:05:00,080 --> 00:05:04,920
En mijn klanten zijn de Rijksoverheid, provincies, gemeenten, onderwijsinstellingen, ziekenhuizen.

95
00:05:07,540 --> 00:05:10,060
Maar ik zie het toch vooral ook als het maken van een vertaalslag

96
00:05:10,120 --> 00:05:11,860
Zeker als het over AI gaat

97
00:05:12,800 --> 00:05:14,600
Want Microsoft is een heel groot bedrijf

98
00:05:15,060 --> 00:05:17,240
Maakt technologie die wereldwijd toepasbaar is

99
00:05:17,250 --> 00:05:22,480
En die daarmee in de aard der dingen eigenlijk ook een beetje algemeen gemaakt wordt

100
00:05:23,420 --> 00:05:25,560
Maar hoe je dat nou precies moet toepassen in het onderwijs

101
00:05:25,660 --> 00:05:27,700
Zodanig dat het een zinnige toepassing krijgt

102
00:05:27,840 --> 00:05:30,420
Die betekenis heeft en die het geld waard is

103
00:05:31,200 --> 00:05:33,060
Daarvoor moet je toch ook echt wel een beetje snappen

104
00:05:33,390 --> 00:05:35,000
Hoe het onderwijs werkt

105
00:05:35,020 --> 00:05:40,240
er in een ziekenhuis gebeurt, hoe de Rijksoverheid in elkaar zit, hoe de publieke dienstverlening

106
00:05:40,260 --> 00:05:46,160
moet worden vormgegeven, omdat je anders de verkeerde implementatie gaat doen.

107
00:05:46,260 --> 00:05:49,220
En dan krijg je eigenlijk het product niet zoals het bedoeld is.

108
00:05:49,980 --> 00:05:55,700
En hoe maak je dan die afweging, want ik kan me zo voorstellen dat dat in de publieke sector

109
00:05:55,940 --> 00:05:57,540
iets anders is dan in het bedrijfsleven?

110
00:06:00,420 --> 00:06:02,480
Tot op zekere hoogte ja en nee.

111
00:06:03,080 --> 00:06:11,520
Ik vond het voorbeeld wat, we waren vandaag bij die Community of Practice en daar vertelde een meneer die in zonnepanelen werkt over de klantenservice.

112
00:06:12,160 --> 00:06:21,240
Die die met AI heel veel beter kan laten presteren en kan zorgen dat die medewerkers van die klantenservice eigenlijk alle makkelijke vragen door de AI kunnen laten beantwoorden.

113
00:06:21,260 --> 00:06:23,640
En daardoor zelf tijd hebben voor de ingewikkelde gevallen.

114
00:06:24,060 --> 00:06:27,620
Dat zie je ook een bank hebben, dus ABN AMRO doet dat ook op die manier.

115
00:06:28,800 --> 00:06:31,160
Ik denk als je kijkt naar alle vragen die een gemeente krijgt.

116
00:06:31,410 --> 00:06:33,460
Of alle vragen die ambtenaren moeten beantwoorden.

117
00:06:33,580 --> 00:06:35,600
Bijvoorbeeld op basis van de wet open overheid.

118
00:06:36,280 --> 00:06:39,800
Zit er ook heel veel van het type informatie bij.

119
00:06:39,800 --> 00:06:43,800
Wat eigenlijk steeds dezelfde informatie is die je moet geven.

120
00:06:44,050 --> 00:06:45,620
Of die gewoon openbaar toegankelijk is.

121
00:06:45,620 --> 00:06:47,600
Die je heel makkelijk zou kunnen verzamelen met AI.

122
00:06:48,200 --> 00:06:51,240
Waardoor dat zo'n ambtenaar geen tijd en energie kost.

123
00:06:51,840 --> 00:06:56,200
Om te zorgen dat je 80% van het antwoord al aan de burger kan geven.

124
00:06:57,580 --> 00:07:01,620
En dan is er misschien 20% waar je nog even over na moet denken omdat het echt wat nauwer luistert.

125
00:07:02,460 --> 00:07:07,420
Of omdat de burger ook nog één ingewikkeld onderdeel had waar hij iets over wilde weten.

126
00:07:07,840 --> 00:07:09,980
En dan kun je als ambtenaar daar je tijd aan besteden.

127
00:07:10,120 --> 00:07:12,280
En dat is in IT-termen

128
00:07:12,280 --> 00:07:13,480
niet

129
00:07:13,480 --> 00:07:15,960
iets heel anders dan hoe je het voor een klantenservice zou

130
00:07:15,960 --> 00:07:16,440
inrichten.

131
00:07:16,440 --> 00:07:19,700
Wat ik me kan voorstellen, sorry dat ik je interrumpeer, maar ik kan me voorstellen.

132
00:07:19,700 --> 00:07:20,080
Hoe het eruit ziet

133
00:07:20,080 --> 00:07:21,040
voor de burger natuurlijk wel.

134
00:07:21,300 --> 00:07:34,620
Ja, maar ik kan me voorstellen dat, kijk, als bij dit bedrijf van die zonnepanelen, zonneplan was het, als daar de bot een advies geeft die niet past en die niet klopt, dat dat heel vervelend is.

135
00:07:36,100 --> 00:07:39,880
Maar in de publieke sector gelden daar denk ik andere regels voor.

136
00:07:40,580 --> 00:07:47,940
Als ik een vraag stel aan een gemeentebot en die geeft mij een advies die eigenlijk niet past binnen de gemeentewet.

137
00:07:49,660 --> 00:07:51,780
Dan is er een wat groter probleem, denk ik.

138
00:07:53,040 --> 00:07:58,180
Ik denk dat je in die zin in beide gevallen een probleem hebt of je nou een commercieel bedrijf bent of een gemeente.

139
00:07:58,840 --> 00:08:02,840
We moeten ons realiseren dat als een mens een antwoord geeft dat hij het ook bij het verkeerde eind

140
00:08:02,840 --> 00:08:03,280
kan worden.

141
00:08:04,540 --> 00:08:08,140
En dat je het hier dus vooral hebt over hoe ga je om met je aansprakelijkheid.

142
00:08:08,580 --> 00:08:10,100
Daar zijn ook rechtszaken over geweest.

143
00:08:10,340 --> 00:08:13,500
Waar op het moment dat jij een bot inzet om namens jou een antwoord te geven.

144
00:08:13,590 --> 00:08:15,200
Dat je daar net zo aansprakelijk voor bent.

145
00:08:15,720 --> 00:08:18,000
Als wanneer jij zelf die fout had gemaakt.

146
00:08:20,160 --> 00:08:23,220
En dat betekent dat je dus ook echt wel goed op moet letten met het trainen van zo'n bot.

147
00:08:23,300 --> 00:08:25,080
En dat op het moment dat dat dan toch verkeerd gaat.

148
00:08:26,080 --> 00:08:28,060
Dat je daar de aansprakelijkheid voor moet aanvaarden.

149
00:08:28,780 --> 00:08:32,659
Mijn ervaring is dat het met de AI ook heel vaak beter gaat.

150
00:08:33,600 --> 00:08:35,640
En een mooi voorbeeld vind ik uit de medische sector.

151
00:08:36,740 --> 00:08:41,620
Als je in het ziekenhuis ligt en je mag het ziekenhuis verlaten, dan krijg je een ontslagbrief mee.

152
00:08:42,620 --> 00:08:47,020
Waarin vaak ook iets staat over of je nog medicijnen moet nemen, wanneer je je weer moet melden, dat soort dingen.

153
00:08:49,000 --> 00:08:53,180
En die ontslagbrieven, daar hebben we een pilot mee gedaan waarbij die wordt gegenereerd door een AI.

154
00:08:54,140 --> 00:09:04,720
En nou blijkt, de patiënten die die brief ontvangen zijn eigenlijk blijer met de brief die ze met een AI gemaakte versie krijgen dan de versie van de arts.

155
00:09:04,940 --> 00:09:16,920
En waarom is dat? Omdat de AI eigenlijk getraind is om ingewikkelde taal van een dokter over wat jouw medische gegevens zijn beter kan uitleggen op een manier die voor een patiënt begrijpelijk is.

156
00:09:17,680 --> 00:09:19,700
Ook veel vriendelijker en invoelender

157
00:09:19,700 --> 00:09:20,020
is.

158
00:09:20,520 --> 00:09:23,740
Want die arts moet dat anders om 11 uur 's avonds na de zoveelste operatie doen.

159
00:09:23,860 --> 00:09:26,200
Dan heeft hij echt geen tijd om aardig te zijn.

160
00:09:26,560 --> 00:09:27,040
Dat

161
00:09:27,040 --> 00:09:27,860
kan die AI wel.

162
00:09:28,680 --> 00:09:35,340
En geeft vaak veel betere uitleg en instructie over wat jij moet doen als jij het ziekenhuis uitkomt.

163
00:09:36,800 --> 00:09:37,340
Mooi voorbeeld.

164
00:09:37,760 --> 00:09:39,500
Ja, en dat vind ik dus echt inspirerend.

165
00:09:39,820 --> 00:09:42,820
Scheelt de artsen enorm veel tijd, scheelt de verplegers enorm veel tijd.

166
00:09:43,880 --> 00:09:47,560
En de patiënt die het ziekenhuis verlaat is eigenlijk blijer met wat hij meegekregen heeft.

167
00:09:48,140 --> 00:09:52,140
En wat die arts en de verpleger wel moet doen is, klopt het stuk.

168
00:09:53,220 --> 00:09:55,020
Medisch, wat kritisch is, wat

169
00:09:55,020 --> 00:09:55,540
daarin staat.

170
00:09:55,940 --> 00:09:59,460
Dus je stuurt hem nooit één op één zonder nog eens na te kijken met die patiënt mee.

171
00:10:00,459 --> 00:10:01,340
Een mooi voorbeeld.

172
00:10:01,780 --> 00:10:06,860
Maar zijn er dan eigenlijk wel verschillen in afwegingen buiten en binnen het publieke domein?

173
00:10:07,960 --> 00:10:10,480
Ik denk dat het altijd vakmatige afwegingen zijn.

174
00:10:10,780 --> 00:10:12,060
Waar zo'n arts op moet letten

175
00:10:12,060 --> 00:10:12,840
op

176
00:10:12,840 --> 00:10:14,880
het moment dat hij zo'n ontslagbrief controleert,

177
00:10:15,940 --> 00:10:19,400
heeft te maken met de expertise die hij of zij op dat moment in moet brengen.

178
00:10:19,480 --> 00:10:20,820
Datzelfde geldt voor de verpleger.

179
00:10:20,860 --> 00:10:21,780
Die let op andere dingen

180
00:10:21,780 --> 00:10:22,900
in diezelfde brief.

181
00:10:25,900 --> 00:10:33,200
En op het moment dat dat een brief is die gaat over een verzekeringsproduct bij een verzekeringsmaatschappij.

182
00:10:33,720 --> 00:10:34,160
Of

183
00:10:34,160 --> 00:10:35,460
een bankproduct bij een bank.

184
00:10:35,490 --> 00:10:37,600
Ja, dan gaat het over die specifieke expertise.

185
00:10:38,080 --> 00:10:44,940
Dus wij kunnen technologie vanuit Microsoft maken die dit type automatisering voor je mogelijk maakt.

186
00:10:44,940 --> 00:10:47,120
En dat noemen we dan met een duur woord artificial intelligence.

187
00:10:47,760 --> 00:10:52,140
Maar de professional is degene die AI moet trainen om dat correct te doen.

188
00:10:52,640 --> 00:10:52,680
en

189
00:10:52,680 --> 00:10:54,760
die ook moet checken, is het ook correct?

190
00:10:54,900 --> 00:10:58,620
Op het moment dat die op verzenden drukt of het uitprinten aan jou meegeeft.

191
00:10:58,980 --> 00:11:01,180
Dus van generalisatie naar specialisatie.

192
00:11:01,440 --> 00:11:01,540
En

193
00:11:01,540 --> 00:11:02,420
de specialisatie

194
00:11:02,420 --> 00:11:05,740
ligt echt bij de vakkennis en degenen die daarmee aan de slag moeten.

195
00:11:06,040 --> 00:11:10,380
Ik zou één verschil tussen een privaat en een publieke omgeving willen noemen.

196
00:11:10,450 --> 00:11:13,680
En dat is het feit dat je de wet open overheid hebt.

197
00:11:14,060 --> 00:11:18,940
Dus je bent als overheid bij, dat noemden we vroeger WOP-baar.

198
00:11:19,860 --> 00:11:26,380
Je moet dus uit kunnen leggen en stukken kunnen sturen die aangeven hoe je tot een bepaald besluit bent gekomen.

199
00:11:26,450 --> 00:11:27,360
Een bedrijf hoeft dat niet.

200
00:11:27,770 --> 00:11:31,960
Als je zegt, leg nou eens uit waarom ik dat tarief moet betalen, dikke pech.

201
00:11:33,260 --> 00:11:38,300
Als ze erachter komen van, dat heeft die AI toch een beetje onhandig berekend, dan zullen ze dat wel corrigeren.

202
00:11:38,360 --> 00:11:43,660
Maar ze hoeven het niet verplicht uit te leggen als ze het er wel mee eens zijn, maar het komt wat slecht uit.

203
00:11:44,340 --> 00:11:46,520
Een overheid heeft andere plichten.

204
00:11:47,000 --> 00:11:53,440
En in die zin wil ik eigenlijk met jullie naar de publieke waarde, want daar refereer je hier aan.

205
00:11:54,660 --> 00:12:02,300
Erik, jij doet onderzoek naar de publieke waarde van digitalisering, terwijl Jet nu werkt juist voor een commerciële technologiepartij.

206
00:12:02,540 --> 00:12:09,280
Hoe zie jij, of jullie eigenlijk, de balans tussen publieke waarde en de commerciële belangen in het digitale domein?

207
00:12:09,480 --> 00:12:13,780
Ja, dan is het mooi dat Jet daar wel het onderwerp publieke waarde heeft binnen Microsoft.

208
00:12:13,910 --> 00:12:15,700
Dus dat maakt het heel interessant.

209
00:12:18,220 --> 00:12:22,440
Want voor mij zijn publieke waarden kun je op een aantal manieren vormgeven.

210
00:12:23,020 --> 00:12:25,560
Je kunt ze vormgeven in de technologie.

211
00:12:27,140 --> 00:12:31,420
Is er sprake van transparantie? Heb je het goed getraind met de goede data?

212
00:12:32,200 --> 00:12:33,600
Hoe weet je dat zeker?

213
00:12:35,820 --> 00:12:37,880
Dan praat je over bijvoorbeeld het algoritme.

214
00:12:38,500 --> 00:12:41,240
Veel overheden praten ook over een algoritmesysteem.

215
00:12:41,420 --> 00:12:44,160
En dan gaat het niet alleen maar over de techniek.

216
00:12:44,520 --> 00:12:49,500
Maar het gaat ook over het team of de organisatie rondom dat algoritme.

217
00:12:49,680 --> 00:12:54,760
En dat dus uit moet kunnen leggen hoe zij niet alleen human in the loop.

218
00:12:54,790 --> 00:12:55,980
Maar ook human at the end.

219
00:12:57,500 --> 00:13:00,660
Verantwoordelijkheid kunnen nemen voor een bepaald besluit dat is genomen.

220
00:13:00,780 --> 00:13:03,900
Of hoe ze bijvoorbeeld in geval van uitzonderingen.

221
00:13:04,840 --> 00:13:08,420
Een betekenisvolle menselijke tussenkomst kunnen organiseren.

222
00:13:09,000 --> 00:13:12,580
Dat zijn allemaal voorbeelden van publieke waarde.

223
00:13:13,220 --> 00:13:20,560
En de derde element waar je dan naartoe kunt gaan is in hoeverre zijn mensen zelf getraind om met dit soort technologie te kunnen werken.

224
00:13:20,720 --> 00:13:25,660
Dat kun je geletterdheid, AI geletterdheid noemen, maar dat gaat steeds verder, een stap verder.

225
00:13:25,800 --> 00:13:29,720
En het verhaal over de AI Act liet dat ook zien.

226
00:13:30,520 --> 00:13:35,800
Afhankelijk van hoeveel verantwoordelijkheid je hebt in je dagelijkse leven, in je werk,

227
00:13:36,420 --> 00:13:39,020
Zul je daar geletterder voor moeten zijn.

228
00:13:39,120 --> 00:13:41,300
Je zult daar meer capable in moeten zijn.

229
00:13:41,880 --> 00:13:43,400
Dan als je dat nooit tegenkomt.

230
00:13:44,020 --> 00:13:45,260
En langs die drie lijnen.

231
00:13:45,980 --> 00:13:46,960
Kun je publieke waarden.

232
00:13:47,540 --> 00:13:48,920
Denk ik uitstekend vorm geven.

233
00:13:49,040 --> 00:13:51,540
En hoeveel bewuster daarmee bezig zijn.

234
00:13:51,600 --> 00:13:52,060
Dan te zeggen.

235
00:13:52,120 --> 00:13:52,600
Ja weet je.

236
00:13:52,640 --> 00:13:53,700
Dat is ergens uitgevonden.

237
00:13:53,840 --> 00:13:54,680
Laten we het maar gebruiken.

238
00:13:55,440 --> 00:13:56,020
En Jet.

239
00:13:56,800 --> 00:13:59,140
Uiteindelijk Microsoft is een commerciëel bedrijf.

240
00:13:59,260 --> 00:14:01,580
Dus die hebben gewoon commerciële belangen.

241
00:14:02,980 --> 00:14:05,740
Hoe hou je dan die balans met die publieke waarden?

242
00:14:08,660 --> 00:14:11,980
De leiding van mijn bedrijf zegt altijd Microsoft runs on trust.

243
00:14:14,660 --> 00:14:15,620
En dat is ook echt zo.

244
00:14:15,860 --> 00:14:18,760
Want wij gaan om met de data van onze klanten.

245
00:14:19,720 --> 00:14:22,840
En of dat nou de gegevens van de klanten van ABN AMRO zijn.

246
00:14:23,980 --> 00:14:25,280
Of ING in Nederland.

247
00:14:25,760 --> 00:14:26,960
Of de overheid.

248
00:14:27,480 --> 00:14:28,860
En dan gaat het over overheidsdata.

249
00:14:29,000 --> 00:14:31,080
Of de gegevens van studenten in het onderwijs.

250
00:14:31,620 --> 00:14:35,460
Op het moment dat je het gevoel zou hebben dat dat niet veilig zou zijn in Microsoft technologie.

251
00:14:35,640 --> 00:14:36,800
dan koop jij niet meer bij ons.

252
00:14:37,560 --> 00:14:38,580
Dan blijf je er ver van.

253
00:14:39,920 --> 00:14:44,020
Dus voor ons is de belofte dat jouw data bij ons veilig zijn...

254
00:14:44,020 --> 00:14:45,520
en dat wij daar heel goed voor zorgen...

255
00:14:45,520 --> 00:14:49,160
en dat wij dus ook heel ver gaan in cybersecurity...

256
00:14:49,160 --> 00:14:51,880
om te zorgen dat criminelen daar niet zomaar bij kunnen...

257
00:14:51,880 --> 00:14:53,300
niet gehackt kan worden.

258
00:14:54,600 --> 00:14:58,660
Dat onze eigen mensen, techneuten, niet zomaar bij jou spullen kunnen.

259
00:14:58,800 --> 00:15:00,620
Dat zo'n datacenter heel erg veilig is.

260
00:15:01,740 --> 00:15:05,620
Ja, dat is nodig, omdat anders niemand bij ons ook nog maar één product wil afnemen.

261
00:15:06,400 --> 00:15:08,140
Ja, en hoe zit dat dan?

262
00:15:08,440 --> 00:15:12,400
Want de generatieve AI, dan hebben we het heel snel over de taalmodellen.

263
00:15:12,640 --> 00:15:16,060
Dat is denk ik waar mensen het meeste van kennen.

264
00:15:16,940 --> 00:15:26,460
Er zijn nogal wat verschillen rondom ideeën van hoe je of en hoe je bias, hoe je dat tegen gaat.

265
00:15:27,220 --> 00:15:34,500
En zeker zeg maar onder het huidige geopolitieke klimaat zijn er nogal verschillen tussen Amerika en Europa.

266
00:15:36,180 --> 00:15:37,400
Hoe kijk je daar tegenaan?

267
00:15:39,260 --> 00:15:43,800
Ik denk dat daar bij ons niet zo heel erg veel veranderd is ten opzichte van vroeger.

268
00:15:43,930 --> 00:15:49,260
In de zin dat we niet in één keer afgelopen jaar ons diversiteits en inclusiebeleid hebben gewijzigd. Dat

269
00:15:49,260 --> 00:15:51,100
is nog precies hetzelfde als het altijd was.

270
00:15:51,380 --> 00:15:51,580
Goed

271
00:15:51,580 --> 00:15:51,800
zo.

272
00:15:53,220 --> 00:15:54,140
Ook hier in Nederland.

273
00:15:54,420 --> 00:16:00,540
Ik ben sponsor van het netwerk van de LHBTIQ Plus gemeenschap.

274
00:16:03,080 --> 00:16:05,540
Dus inclusie is voor ons echt ook iets wat iets betekent.

275
00:16:05,540 --> 00:16:07,120
Niet alleen in de technologie die we maken.

276
00:16:07,140 --> 00:16:10,700
Maar ook gewoon hoe wij als collega's op de vloer met elkaar omgaan.

277
00:16:10,780 --> 00:16:13,440
Want uiteindelijk moet het zich ook gewoon in je menselijk gedrag vertalen.

278
00:16:13,880 --> 00:16:15,320
En daar is de technologie een uiting van.

279
00:16:17,460 --> 00:16:20,020
Microsoft heeft ook een raamwerk waarin dit past.

280
00:16:20,080 --> 00:16:20,580
En dat

281
00:16:20,580 --> 00:16:22,680
zit ook in Responsible AI.

282
00:16:23,900 --> 00:16:27,680
Eigenlijk by design willen we zorgen dat dat zo goed mogelijk getraind is.

283
00:16:29,060 --> 00:16:33,580
Wat je natuurlijk wel ziet, is dat je in een toepassingssituatie bij een gemeente bijvoorbeeld,

284
00:16:34,840 --> 00:16:38,900
specifieke voorbeelden kunt tegenkomen waarbij wij onvoldoende getraind hebben.

285
00:16:39,680 --> 00:16:44,860
Want de bevolkingssamenstelling van de gemeente als Rotterdam is anders dan die van Seattle.

286
00:16:45,420 --> 00:16:46,740
Om maar even wat uiterste te

287
00:16:46,740 --> 00:16:47,040
pakken.

288
00:16:47,440 --> 00:16:48,660
Overal zeer gevarieerd.

289
00:16:49,640 --> 00:16:52,980
Maar bijzondere gemeenschappen in Rotterdam, daar hebben ze in Seattle echt geen verstand van.

290
00:16:54,320 --> 00:16:59,120
En dat betekent dat je een soort basis krijgt aangereikt in hoe wij denken dat het goed getraind zou kunnen zijn.

291
00:16:59,260 --> 00:17:04,119
Maar op het moment dat je bijvoorbeeld een chatbot zou willen ontwerpen voor de gemeente Rotterdam,

292
00:17:04,660 --> 00:17:06,400
die vragen kan beantwoorden van burgers.

293
00:17:06,940 --> 00:17:10,920
En je moet er rekening mee houden dat sommige burgers in Rotterdam niet zo goed Nederlands spreken.

294
00:17:11,460 --> 00:17:17,000
En dat misschien met een bepaalde tongval doen, omdat ze uit de Marokkaanse of een Hindoestaanse gemeenschap komen.

295
00:17:17,119 --> 00:17:18,680
Dan moet je de bot leren dat te verstaan.

296
00:17:19,420 --> 00:17:21,500
En te weten als die burger deze vraag stelt.

297
00:17:22,700 --> 00:17:25,119
Dan wil die misschien een vergunning.

298
00:17:26,180 --> 00:17:27,260
Waar als je niks doet.

299
00:17:27,760 --> 00:17:29,780
Je misschien alleen de burger uit Hillegersberg zou hebben

300
00:17:29,780 --> 00:17:30,199
verstaan.

301
00:17:30,620 --> 00:17:31,860
Dat vinden wij niet goed.

302
00:17:32,600 --> 00:17:35,300
Dus wij gaan heel vaak aan de slag met onze klanten.

303
00:17:35,319 --> 00:17:35,920
Om te kijken.

304
00:17:37,640 --> 00:17:39,300
Wat hebben wij eigenlijk al ingebouwd.

305
00:17:39,300 --> 00:17:40,579
En wat moet je dan nog extra doen.

306
00:17:41,040 --> 00:17:41,880
Gegeven de context.

307
00:17:42,360 --> 00:17:44,100
Waarin jij aan de slag gaat met die AI.

308
00:17:44,980 --> 00:17:46,300
Ik denk dat het wel heel mooi is inderdaad.

309
00:17:46,339 --> 00:17:49,900
We weten welke context erin speelt en wat is er al in de basis.

310
00:17:50,190 --> 00:17:54,940
En is die basis voldoende voor de context waar je mee aan de slag gaat om terug te gaan naar de zorg?

311
00:17:55,160 --> 00:17:58,500
Is de juiste informatie er al voor, de juiste turn of voice, de juiste vertaling daarvan?

312
00:17:58,940 --> 00:18:03,720
Ik wil met jullie even een stapje maken van publieke waarden, commerciële belangen naar onderzoek en praktijk.

313
00:18:04,600 --> 00:18:08,540
Erik, welke concrete projecten was ik wel nieuwsgierig naar lopen en momenteel op electoraat?

314
00:18:08,590 --> 00:18:11,840
En hoe betrek je niet alleen de studenten erbij, maar ook het bedrijfsleven?

315
00:18:11,990 --> 00:18:15,520
Om echt met elkaar die verschillende perspectieven in te kunnen brengen.

316
00:18:16,780 --> 00:18:17,360
Dat is een leuke.

317
00:18:19,480 --> 00:18:28,660
Er heeft er eentje gelopen die in dit verband wel interessant is en dat is de toepassing van AI in voetbalstadions.

318
00:18:31,500 --> 00:18:35,400
De kwestie is veiligheid, maar ook gastvrijheid.

319
00:18:37,080 --> 00:18:45,020
Dat levert spanning op in een organisatie als een betaald voetbalorganisatie, want ze willen heel gastvrij zijn en tegelijkertijd moet het ook veilig zijn.

320
00:18:45,540 --> 00:18:51,280
Van families tot en met mensen die even een gezellig uitje willen hebben om de tegenstander het zo moeilijk mogelijk te maken.

321
00:18:51,660 --> 00:18:52,840
Verbaal en non-verbaal.

322
00:18:55,260 --> 00:19:03,540
En men heeft bedacht, laten wij daar ook met alle camera's en microfoons die er zijn, sowieso al zijn,

323
00:19:03,680 --> 00:19:13,900
laten we daar ook verkennen of AI de specialisten in de kamer, in de opnamekamer, ook kan helpen.

324
00:19:14,740 --> 00:19:19,420
En dat gebeurt dan met het vlaggen van bepaalde delen van opnames.

325
00:19:19,640 --> 00:19:23,900
Waarbij dan een steward kan kijken van is hier wat aan de hand?

326
00:19:24,160 --> 00:19:24,900
Zoomen ze wat in?

327
00:19:26,440 --> 00:19:31,480
Of zijn de stewards op het veld in van ga eens even kijken bij vak XYZ.

328
00:19:32,460 --> 00:19:37,920
Dat hebben we gedaan deels met de publieke organisatie de gemeente.

329
00:19:38,300 --> 00:19:38,540
Want die

330
00:19:38,540 --> 00:19:40,000
is verantwoordelijk voor de veiligheid.

331
00:19:40,980 --> 00:19:42,060
Met name om het stadion.

332
00:19:42,180 --> 00:19:44,180
In het stadion is dat de BVO.

333
00:19:45,360 --> 00:19:46,360
In dit geval was dat PEC.

334
00:19:47,660 --> 00:19:48,800
Maar er zat ook een bedrijf bij.

335
00:19:49,050 --> 00:19:50,200
Een aantal bedrijven bij.

336
00:19:50,370 --> 00:19:53,560
Die met name verantwoordelijk waren voor de training van de AI.

337
00:19:54,960 --> 00:19:56,880
En de hele inrichting van het dashboard.

338
00:19:57,920 --> 00:19:59,720
En het voeren van dat gesprek.

339
00:20:01,360 --> 00:20:04,200
Maar zelfs ook het voeren van het gesprek samen met de supporters.

340
00:20:04,740 --> 00:20:04,820
De

341
00:20:04,820 --> 00:20:05,260
harde kern.

342
00:20:05,460 --> 00:20:06,940
Wat vinden jullie nou belangrijk?

343
00:20:07,130 --> 00:20:08,920
Als je praat over het ontwikkelen.

344
00:20:09,380 --> 00:20:10,020
De toepassing.

345
00:20:11,300 --> 00:20:13,640
Alle effecten die je mogelijk wel of niet voorziet.

346
00:20:16,460 --> 00:20:17,820
nam best wel even tijd

347
00:20:18,280 --> 00:20:21,100
voordat iedereen het eigenlijk wel een goed idee vond.

348
00:20:21,490 --> 00:20:22,180
En vanaf waar

349
00:20:22,180 --> 00:20:23,200
vonden ze het een goed idee?

350
00:20:23,460 --> 00:20:25,260
Want ik kan me voorstellen dat de gemiddelde

351
00:20:26,840 --> 00:20:29,560
hardcore fans niet zitten te wachten op cameratoezicht.

352
00:20:29,880 --> 00:20:31,240
Nou, nee, zeker.

353
00:20:31,500 --> 00:20:34,080
Dus dat gaf bij twee andere clubs

354
00:20:34,180 --> 00:20:35,960
ik zal hun namen hier niet publiekelijk noemen

355
00:20:36,960 --> 00:20:39,260
het gevoel van nou laten we dat gesprek maar niet voeren.

356
00:20:41,000 --> 00:20:42,659
Laten we het maar gewoon eens proberen

357
00:20:42,680 --> 00:20:44,880
en kijken wat ze ervan vinden. Misschien valt het wel mee.

358
00:20:45,560 --> 00:20:49,980
Hier werden wij van meet af aan om die reden ook meegenomen in het consortium.

359
00:20:49,980 --> 00:20:55,780
Dat gaf overigens ook in het gesprek met de beoordelaar het gevoel van

360
00:20:55,880 --> 00:20:59,340
hier wordt ook het belangrijke gesprek over waarden,

361
00:20:59,550 --> 00:21:03,920
over publieke belangrijke waarden in het geheel, wat serieus genomen.

362
00:21:05,420 --> 00:21:09,320
Dat levert uiteindelijk soms ook wel een resultaat waarvan de opdrachtgever

363
00:21:09,320 --> 00:21:12,320
of de financier zegt van ja, maar dat hadden we niet bedoeld.

364
00:21:12,840 --> 00:21:22,000
Want toen zeiden wij van, ja, maar als je een gesprek voert alleen maar om het gesprek te voeren en er geen consequenties aan wil verbinden, dan doen wij het niet.

365
00:21:23,320 --> 00:21:29,600
Dus dat de club uiteindelijk heeft gezegd, we doen het op dat soort momenten niet en op andere momenten wel, vonden wij eigenlijk wel een heel krachtig

366
00:21:29,600 --> 00:21:30,100
resultaat.

367
00:21:30,280 --> 00:21:32,240
Hoewel de financier daar wat anders naar kijkt.

368
00:21:33,480 --> 00:21:36,780
Dus antwoord op jouw vraag, wanneer vond men dat een goed idee?

369
00:21:38,780 --> 00:21:41,920
De technologiebedrijven en de gemeente vond het van meter van een goed idee.

370
00:21:42,240 --> 00:21:44,540
Men vond het wel spannend van wat voor consequenties.

371
00:21:44,720 --> 00:21:44,820
Als

372
00:21:44,820 --> 00:21:45,280
je het over

373
00:21:45,280 --> 00:21:48,240
controle wil men ook wel het liefst daar controle hebben.

374
00:21:49,500 --> 00:21:51,800
De voetbalsupporters, ja, die vonden daar natuurlijk van alles van.

375
00:21:52,360 --> 00:21:53,660
Uiteraard zou ik haast willen zeggen.

376
00:21:53,940 --> 00:21:56,260
En waar je dan in meegaat in het gesprek is.

377
00:21:56,820 --> 00:21:59,840
Wat voor handelingsperspectief levert dat op technologie.

378
00:22:00,000 --> 00:22:01,260
Betere technologie ontwikkelen.

379
00:22:01,660 --> 00:22:02,780
Kun je het beter trainen.

380
00:22:03,080 --> 00:22:04,780
Het inbedden in de organisatie.

381
00:22:05,000 --> 00:22:07,920
Is er altijd iemand in de loop die zegt van.

382
00:22:08,660 --> 00:22:11,280
Er gaat geen AI zeggen van die persoon moet eruit.

383
00:22:11,840 --> 00:22:13,040
Nee, het moet altijd een persoon zijn.

384
00:22:13,190 --> 00:22:17,540
Je moet kunnen escaleren ook als je het ergens niet mee eens bent.

385
00:22:18,500 --> 00:22:21,820
En hoe train je dus ook mensen dat ze weten waar ze mee omgaan.

386
00:22:22,400 --> 00:22:22,600
En

387
00:22:22,600 --> 00:22:25,720
was dat dan voldoende voor de supporters om te zeggen van doe het dan wel?

388
00:22:26,420 --> 00:22:29,580
Dat was in ieder geval voldoende voor de supporters om meer vertrouwen te hebben.

389
00:22:30,400 --> 00:22:32,140
Maar ook wel om duidelijk een signaal te geven.

390
00:22:32,250 --> 00:22:34,040
Daar hebben we het nog niet voldoende vertrouwen.

391
00:22:34,050 --> 00:22:36,640
Daar kun je ons niet overtuigen dat het oké is.

392
00:22:36,740 --> 00:22:37,140
Dus dan moet je

393
00:22:37,140 --> 00:22:38,320
aan andere manieren denken.

394
00:22:38,350 --> 00:22:40,500
En het gaat hier ook over proportionaliteit.

395
00:22:40,570 --> 00:22:41,560
En dat is best de spannende.

396
00:22:42,580 --> 00:22:44,600
hoe proportioneel is de inzet van AI

397
00:22:44,690 --> 00:22:47,960
en in een bepaalde situatie ten opzichte van andere mogelijkheden

398
00:22:48,020 --> 00:22:49,000
die je ook zou kunnen hebben.

399
00:22:49,730 --> 00:22:52,680
En dat is een maatschappelijk debat wat je met elkaar hebt.

400
00:22:53,200 --> 00:22:55,440
Hoe lang mag iets fout gaan

401
00:22:57,180 --> 00:22:59,100
voordat we zeggen van en nou moet het echt

402
00:22:59,100 --> 00:22:59,400
anders.

403
00:23:00,160 --> 00:23:00,740
Hebben we al

404
00:23:00,740 --> 00:23:02,280
die alternatieven goed op een rijtje.

405
00:23:02,380 --> 00:23:03,280
Lijkt me een mooie les.

406
00:23:03,400 --> 00:23:05,940
Heb jij ook zo'n soort les uit jouw praktijk?

407
00:23:08,080 --> 00:23:11,580
Nou wat ik interessant vind aan dit gesprek

408
00:23:11,600 --> 00:23:16,040
Dat zie ik ook wel bij voorbeelden die in mijn praktijk voorkomen.

409
00:23:17,890 --> 00:23:22,080
Dat juist door het voeren van dit gesprek over welke waarden staan op het spel.

410
00:23:22,880 --> 00:23:24,240
Welke bias zou kunnen optreden.

411
00:23:25,160 --> 00:23:27,680
Word je je bewust van het feit dat je die hebt.

412
00:23:30,340 --> 00:23:33,440
Totdat we dat gesprek gevoerd hadden namen we gewoon beslissingen.

413
00:23:33,900 --> 00:23:37,600
Namen ambtenarenbeslissingen, docentenbeslissingen, doktersbeslissingen.

414
00:23:38,380 --> 00:23:39,960
Zonder dat ze zich die vraag stelden.

415
00:23:40,800 --> 00:23:42,040
Hé, heb ik eigenlijk een bias?

416
00:23:42,880 --> 00:23:45,460
En kom ik wel op de juiste gronden tot dat oordeel?

417
00:23:45,580 --> 00:23:47,820
Wat ook een risico in zich heeft.

418
00:23:48,620 --> 00:23:49,380
Dat we soms...

419
00:23:49,580 --> 00:23:50,780
Want ieder mens heeft bias.

420
00:23:50,980 --> 00:23:51,760
Ik heb dat ook.

421
00:23:51,880 --> 00:23:52,140
Zeker.

422
00:23:53,380 --> 00:23:54,020
Dan ontkomen we niet

423
00:23:54,020 --> 00:23:54,180
aan.

424
00:23:54,220 --> 00:23:55,060
AI kan ook echt

425
00:23:55,060 --> 00:23:55,660
helpen.

426
00:23:56,140 --> 00:23:58,800
Als je jezelf bewust die vragen stelt.

427
00:23:59,760 --> 00:24:02,820
Om minder vaak in dat vooroordeel te stappen.

428
00:24:02,980 --> 00:24:03,740
Wat elk mens heeft.

429
00:24:04,380 --> 00:24:05,340
Je geeft echt...

430
00:24:05,600 --> 00:24:06,160
We

431
00:24:06,160 --> 00:24:09,240
doen soms alsof het met AI alleen maar slechter kan worden.

432
00:24:09,440 --> 00:24:10,920
Ik denk dat het ook beter kan worden.

433
00:24:11,100 --> 00:24:14,440
Maar de voorwaarde is wel dat je echt even reflecteert.

434
00:24:15,140 --> 00:24:16,100
Echt even goed kijkt.

435
00:24:16,150 --> 00:24:16,820
Wat zijn de plussen?

436
00:24:16,820 --> 00:24:17,480
Wat zijn de minnen?

437
00:24:17,900 --> 00:24:19,520
En weeg dat tegen elkaar op.

438
00:24:19,680 --> 00:24:22,540
En die reflectie, dat is waar het vaak aan ontbreekt.

439
00:24:22,540 --> 00:24:23,160
En als je kijkt

440
00:24:23,160 --> 00:24:25,680
naar de AI-projecten die fout zijn gegaan.

441
00:24:26,980 --> 00:24:29,240
Dan is eigenlijk de conclusie van de commissies die die dingen

442
00:24:29,240 --> 00:24:30,080
onderzoeken altijd.

443
00:24:30,720 --> 00:24:32,300
Het ontbrak aan de reflectie vooraf.

444
00:24:32,920 --> 00:24:35,420
En dat is echt het belangrijkste voordat je hieraan begint.

445
00:24:35,450 --> 00:24:36,140
Om dat te doen.

446
00:24:36,230 --> 00:24:38,140
En dan word je als mens dus ook beter.

447
00:24:38,660 --> 00:24:42,060
Je maakt echt een geweldige brug naar ons kaartspel.

448
00:24:42,340 --> 00:24:49,160
Want wij vinden het niets belangrijker dan dat je over allerlei stellingen nadenkt.

449
00:24:49,540 --> 00:24:51,100
Want daar komt het op neer.

450
00:24:52,040 --> 00:24:55,980
Dus wij hebben een kaartspel en wij willen namelijk ook een stelling aan jullie voorleggen.

451
00:25:08,120 --> 00:25:16,560
En het idee is dan eigenlijk dat je dit met elkaar in een grotere groep eigenlijk bespreekt om van elkaar te weten hoe sta je hier eigenlijk in.

452
00:25:16,680 --> 00:25:17,520
Dus er is geen goed of fout.

453
00:25:17,800 --> 00:25:17,920
Het is

454
00:25:17,920 --> 00:25:20,300
gewoon hoe sta je ergens in. Niels heeft geschud.

455
00:25:21,140 --> 00:25:22,780
En ethiek en maatschappij

456
00:25:22,780 --> 00:25:23,540
is

457
00:25:23,540 --> 00:25:24,080
het thema.

458
00:25:25,080 --> 00:25:25,920
Heb jij voor mij.

459
00:25:28,040 --> 00:25:29,160
Jullie zagen dat ik hem echt geschud.

460
00:25:29,340 --> 00:25:33,860
Maar dat betekent dat we een mooie onderwerp, een mooie categorie hebben in onze stellingenspel.

461
00:25:34,240 --> 00:25:35,440
De stelling luidt als volgt.

462
00:25:36,020 --> 00:25:41,780
Hij zei doeltreffende strategieën beschikbaar om vooroordelen in generatieve AI algoritmen te verminderen.

463
00:25:43,620 --> 00:25:43,860
Laten we

464
00:25:43,860 --> 00:25:44,440
beginnen met Jeth.

465
00:25:45,340 --> 00:25:46,660
Ja, die zijn er.

466
00:25:47,940 --> 00:25:48,580
Kan je daar wat van noemen?

467
00:25:48,700 --> 00:25:48,760
Ja.

468
00:25:50,720 --> 00:25:57,020
Ik ben zelf geen techneut, maar wij trainen natuurlijk onze AI in generieke zin.

469
00:25:57,070 --> 00:25:58,820
Dat heb ik net ook uitgelegd.

470
00:26:00,260 --> 00:26:03,860
En wat ik zei, ik vind het heel belangrijk om in de context dan vervolgens het nog een keer te doen.

471
00:26:04,820 --> 00:26:09,640
En te kijken waar wil je deze AI toepassing in werking stellen.

472
00:26:10,460 --> 00:26:12,600
En waar moet je deze AI dan al extra optrainen.

473
00:26:12,940 --> 00:26:16,080
Om beducht te zijn voor wat er in deze situatie zou kunnen gebeuren.

474
00:26:16,090 --> 00:26:18,080
En dat betekent dat je dus ook echt kijkt naar de scoping.

475
00:26:18,490 --> 00:26:19,040
Wat mag deze

476
00:26:19,040 --> 00:26:19,320
AI?

477
00:26:20,300 --> 00:26:22,180
Bij welke data mag die het antwoord gaan zoeken?

478
00:26:24,680 --> 00:26:25,700
En je moet hem op een gegeven moment ook leren.

479
00:26:25,750 --> 00:26:26,780
Dit zijn de verkeerde antwoorden.

480
00:26:27,220 --> 00:26:29,180
Hier zit de verkeerde conclusie in.

481
00:26:29,190 --> 00:26:31,200
Of dit zou wel eens een bias kunnen zijn.

482
00:26:31,360 --> 00:26:33,540
Omdat de onderliggende data een bepaalde bias vertonen.

483
00:26:34,380 --> 00:26:37,660
En daar kom je achter door dat in de praktijk ook met elkaar uit te vinden.

484
00:26:39,660 --> 00:26:39,820
Erik?

485
00:26:40,800 --> 00:26:42,660
Nou, laat ik daar het antwoord nee op zeggen.

486
00:26:44,560 --> 00:26:46,380
En ik denk dat we er zeker niet zijn.

487
00:26:46,450 --> 00:26:52,300
Als ik hier ja op zou zeggen, dan zou ik daar ook al een zekere mate van genoeg van.

488
00:26:52,330 --> 00:26:55,120
Nou, het is wel oké, maar ik denk dat het nog niet oké is.

489
00:26:55,260 --> 00:26:56,720
En om als voorbeeld...

490
00:27:00,180 --> 00:27:03,440
trainen van een algoritme gaat op een paar manieren.

491
00:27:03,740 --> 00:27:10,380
Eén, je geeft het algoritme een aantal data voor en daar moet het een besluit over nemen.

492
00:27:11,000 --> 00:27:12,460
Of daar moet het een actie aan doen.

493
00:27:12,500 --> 00:27:13,760
En dat wordt dan beloond.

494
00:27:14,520 --> 00:27:15,660
Nou, wie beloont dat?

495
00:27:15,920 --> 00:27:17,480
Daar kun je mensen voor vragen.

496
00:27:17,520 --> 00:27:21,360
En de vraag is, is je groep die daar iets van zegt divers genoeg?

497
00:27:21,840 --> 00:27:22,680
Daar kun je wat aan doen.

498
00:27:23,980 --> 00:27:30,180
Maar wat ik nog spannend vind, en waar nog best wel wat onderzoek een van mijn collega's wil daar ook op gaan promoveren.

499
00:27:30,300 --> 00:27:35,460
is de mate waarin de data die je gebruikt om een algoritme te trainen,

500
00:27:35,460 --> 00:27:37,580
in hoever daar al bias in zit.

501
00:27:38,780 --> 00:27:42,300
Kun je daar een label aan geven of een bepaalde waarde aan geven?

502
00:27:43,320 --> 00:27:46,300
In Engelse taal is daar best veel over bekend.

503
00:27:46,320 --> 00:27:51,480
Er zijn ook best wel een aantal checks en balances die je daar kunt loslaten op een gegeven databron.

504
00:27:51,580 --> 00:27:53,720
Voor het Nederlands is dat veel minder bekend.

505
00:27:53,820 --> 00:27:57,240
En daar wil zij met name op gaan promoveren.

506
00:27:57,280 --> 00:28:05,760
Ook wat betreft de mate waarin mannen en vrouwen in een bepaalde tekst of in bepaalde data op een heel andere manier behandeld worden.

507
00:28:06,620 --> 00:28:08,820
Zonder dat daar überhaupt reden voor zou moeten zijn.

508
00:28:09,070 --> 00:28:10,240
Dat kun je seksisme noemen.

509
00:28:10,250 --> 00:28:15,300
Maar eigenlijk is die aanwezigheid in data op dit moment niet goed te detecteren.

510
00:28:15,420 --> 00:28:20,260
En daarmee weet je dus niet hoe beroerd of hoe goed de data is die je...

511
00:28:20,520 --> 00:28:23,840
Dus een stukje transparantie eigenlijk over de

512
00:28:23,840 --> 00:28:24,820
LLM en de data eronder.

513
00:28:24,820 --> 00:28:25,400
Eigenlijk een label van tevoren.

514
00:28:25,460 --> 00:28:26,520
Deze databron

515
00:28:26,520 --> 00:28:29,240
is voor dit doel einde good enough.

516
00:28:30,750 --> 00:28:33,140
Maar dat geldt zo direct eigenlijk ook voor wat er uitkomt.

517
00:28:33,400 --> 00:28:34,760
Dus we hebben het hier over generatieve AI.

518
00:28:35,920 --> 00:28:38,440
Heb je dat eigenlijk ook als evaluatie technieken nodig?

519
00:28:39,420 --> 00:28:45,980
Die zeggen van de uitkomst heeft ook een bepaalde mate uiteindelijk van vooroordeel.

520
00:28:46,680 --> 00:28:48,560
Dat was het voorbeeld wat Jet net noemde.

521
00:28:48,820 --> 00:28:54,260
Zij gaf aan van ons algoritme is bij wijze van spreken getraind voor de stad en de bevolking van Seattle.

522
00:28:55,340 --> 00:28:56,700
Dan pas je dat toe in Rotterdam.

523
00:28:56,960 --> 00:28:58,240
Dan heb je een andere samenstelling.

524
00:28:58,310 --> 00:29:01,340
Dus je zult even in de gaten moeten houden.

525
00:29:01,400 --> 00:29:03,540
Wetende dat er een bepaalde bias in kan zitten.

526
00:29:04,560 --> 00:29:07,820
Die bias treedt op op het moment dat je toepast in een nieuwe situatie.

527
00:29:08,400 --> 00:29:09,220
Dan moet je er alert zijn.

528
00:29:09,760 --> 00:29:12,500
Ik ga ervan uit dat als het algoritme in Seattle is getraind.

529
00:29:12,600 --> 00:29:13,640
Dat is goed toepasbaar.

530
00:29:15,000 --> 00:29:15,960
Maar een hele andere context.

531
00:29:16,220 --> 00:29:18,760
En dat is natuurlijk wel de business van een bedrijf als Microsoft.

532
00:29:18,980 --> 00:29:22,340
Dat is niet een bedrijf dat zich alleen maar bevindt in Seattle.

533
00:29:22,390 --> 00:29:23,420
En daar ook haar business.

534
00:29:23,620 --> 00:29:25,240
Dat zou we snel klaar zijn.

535
00:29:25,240 --> 00:29:25,540
Dat moet

536
00:29:25,540 --> 00:29:26,200
wereldwijd.

537
00:29:27,280 --> 00:29:31,040
Dus het is goed kijken naar wat je als bedrijf zelf kunt doen.

538
00:29:31,440 --> 00:29:34,300
Om dit zo goed mogelijk aan te leveren.

539
00:29:34,460 --> 00:29:36,940
En dat is iets waar we dagelijks mee bezig zijn.

540
00:29:37,140 --> 00:29:40,180
Dus als je kijkt naar de ontwikkeling sinds generatieve AI op de markt kwam.

541
00:29:40,800 --> 00:29:41,540
En de modellen nu.

542
00:29:42,300 --> 00:29:43,600
Is er een enorme verbetering

543
00:29:43,600 --> 00:29:44,300
zichtbaar.

544
00:29:44,980 --> 00:29:48,460
Waarbij de AI en zeker Copilot geeft ook citaties weer.

545
00:29:48,680 --> 00:29:51,280
Waarbij je kunt zien welke bronnen die dan gebruikt heeft.

546
00:29:51,740 --> 00:29:55,740
Waardoor je ook jezelf een beetje een oordeel kunt vormen over hoe waarachtig is het eigenlijk.

547
00:29:56,560 --> 00:30:02,280
Dus als bij spreken een artikel over mij refereert aan bronnen van vijf jaar geleden.

548
00:30:02,460 --> 00:30:05,360
Is de kans aanwezig dat het niet heel actueel is, misschien niet helemaal klopt.

549
00:30:05,880 --> 00:30:08,000
Maar hij heeft die bronnen van bij spreken gisteren gevonden.

550
00:30:08,340 --> 00:30:12,400
En je vindt dat betrouwbare media waar zo'n AI zich op baseert.

551
00:30:13,140 --> 00:30:16,600
Is de kans behoorlijk aanwezig dat wat daaruit komt correct is.

552
00:30:17,180 --> 00:30:20,300
Maar we moeten wel onthouden dat AI een technologie is.

553
00:30:20,300 --> 00:30:24,240
En generatieve AI een technologie is die niet pretendeert waarheid te geven.

554
00:30:24,820 --> 00:30:28,960
Hij geeft een waarschijnlijkheid op basis van tekstredeneren.

555
00:30:29,580 --> 00:30:29,700
Dus

556
00:30:29,700 --> 00:30:31,060
je moet altijd controleren.

557
00:30:31,420 --> 00:30:32,760
Daar helpen die citaties.

558
00:30:32,980 --> 00:30:35,300
Het vermelden van de bronnen helpt daarbij.

559
00:30:35,860 --> 00:30:39,380
Maar dat voorbeeld van die ontslagbrieven van ziekenhuis toont ook maar weer aan.

560
00:30:39,380 --> 00:30:43,660
Je moet ook echt altijd even je professionaliteit eroverheen leggen.

561
00:30:44,900 --> 00:30:47,600
En zeker in zo'n ziekenhuiscontext is dat ook superkritisch.

562
00:30:47,980 --> 00:30:50,040
Als dat ging over, kun je mijn cv opleuken?

563
00:30:50,960 --> 00:30:51,820
Is het minder kritisch?

564
00:30:52,720 --> 00:30:53,560
Ben je zelf aan zet.

565
00:30:53,670 --> 00:30:53,780
Ja,

566
00:30:54,600 --> 00:30:59,020
het wordt wel soms voor mensen een beetje lastiger voor dat controleren.

567
00:31:00,300 --> 00:31:02,400
Omdat niet overal bronnen worden aangegeven.

568
00:31:04,040 --> 00:31:06,480
Er zijn zoekmachines die dat niet doen.

569
00:31:06,810 --> 00:31:07,440
Of heel wild.

570
00:31:10,380 --> 00:31:11,420
Ik weet eigenlijk niet waar ik

571
00:31:11,420 --> 00:31:12,280
naartoe wil met mijn vraag.

572
00:31:12,660 --> 00:31:14,080
Maar het gaat er eigenlijk om dat,

573
00:31:14,240 --> 00:31:16,820
we worden er zo vertrouwd mee,

574
00:31:17,300 --> 00:31:22,580
dat ik me af ga vragen, weet je, wie gaat nog die bronnen zo direct ook daadwerkelijk checken?

575
00:31:22,780 --> 00:31:27,080
Nou, dat is wel een interessant punt.

576
00:31:27,680 --> 00:31:31,460
Want wij zitten nu eigenlijk nog maar met een hele nieuwe technologie.

577
00:31:32,020 --> 00:31:34,580
Natuurlijk, je kunt zeggen het is in de jaren 50 uiteraard.

578
00:31:34,700 --> 00:31:38,180
Maar de manier waarop het zich nu manifesteert is relatief nieuw.

579
00:31:38,920 --> 00:31:42,500
Wij kunnen nu nog een tekst beoordelen.

580
00:31:42,820 --> 00:31:45,900
Want veel professionals hebben die

581
00:31:45,900 --> 00:31:46,720
kennis nog en

582
00:31:46,720 --> 00:31:50,320
kunnen dus zeggen van ja, nee, maar dat is echt fout of nee, dat klopt wel redelijk.

583
00:31:51,680 --> 00:31:54,580
Fast forward, tien jaar, twintig jaar vanaf nu.

584
00:31:55,000 --> 00:31:55,680
Nieuwe professionals

585
00:31:55,680 --> 00:31:56,240
die zijn

586
00:31:56,240 --> 00:32:01,660
getraind, opgeleid in een tijd waarin we heel veel met AI deden.

587
00:32:02,180 --> 00:32:06,600
Hebben veel minder van het vak meegekregen dan misschien de mensen van nu.

588
00:32:07,340 --> 00:32:12,460
In hoeverre kunnen die nog, hoe zijn die cognitief luier geworden op een bepaald onderwerp?

589
00:32:13,300 --> 00:32:15,460
Het wordt vaak vergeleken met kunnen wij nog kaart lezen?

590
00:32:15,600 --> 00:32:16,720
Kunnen we überhaupt nog de weg vinden?

591
00:32:17,160 --> 00:32:18,360
Zonder een toepassing in een app.

592
00:32:18,980 --> 00:32:21,060
Nou, een groot aantal van ons gelukkig nog wel.

593
00:32:22,980 --> 00:32:23,920
Niels is het heel hard nu.

594
00:32:25,240 --> 00:32:26,140
Ik zal niet zeggen

595
00:32:26,140 --> 00:32:27,220
dat je cognitief lui bent.

596
00:32:27,560 --> 00:32:29,680
Maar, en misschien kon je wel dat nooit.

597
00:32:30,460 --> 00:32:32,860
Maar je moet wel blijven trainen.

598
00:32:33,060 --> 00:32:37,220
Dus de volgende stap wordt, en ik heb het maar even cognitieve obesitas genoemd.

599
00:32:37,300 --> 00:32:40,840
We moeten wel trainingsprogramma's gaan maken over hoe wij scherp blijven.

600
00:32:40,960 --> 00:32:43,420
Een vraag die bij mij altijd blijft knabbelen.

601
00:32:44,160 --> 00:32:46,000
Om even de antwoord te geven, ben je cognitief lui?

602
00:32:46,300 --> 00:32:48,860
Voor het kaartlezen ben ik cognitief lui en dat hoef ik ook niet te leren.

603
00:32:48,920 --> 00:32:50,840
Daar ga ik van de technologie vertrouwen ik volledig.

604
00:32:50,960 --> 00:32:52,060
Dus ik heb een probleem als dat uitvalt.

605
00:32:52,460 --> 00:32:53,320
Even terug naar mijn vraag.

606
00:32:54,700 --> 00:32:57,580
Een skill die ik steeds vaker tegenkom, die van essentieel belang is,

607
00:32:57,660 --> 00:33:03,200
is het kritisch blijven op de oplossingen en de tools die we inzetten.

608
00:33:03,800 --> 00:33:07,860
Hoe kunnen we daar de luisteraars, de studenten, de toekomst, de workforce,

609
00:33:08,840 --> 00:33:10,380
erop attenderen? Hoe blijf je kritisch?

610
00:33:10,420 --> 00:33:13,360
Ik ben wel benieuwd, hoe doen jullie dat binnen jullie organisatie?

611
00:33:13,860 --> 00:33:18,140
Hoe zorg je dat de cultuur is om kritisch te blijven en niet voor snelheid en gemak te gaan?

612
00:33:19,520 --> 00:33:22,160
Het is gewoon ook met elkaar in gesprek blijven.

613
00:33:23,220 --> 00:33:31,720
Het begint met niet de technologie de wereld laten regeren, maar zelf blijven nadenken en mensen aanmoedigen om dat te doen.

614
00:33:32,600 --> 00:33:34,200
En ook uit te spreken wat ze denken.

615
00:33:35,680 --> 00:33:46,960
Ik heb het toen ik hier vanmiddag een praatje hield gehad over de gesprekken die ik voer met klanten of organisaties zoals Surf of SLM Rijk die optreden namens grote groepen klanten.

616
00:33:47,390 --> 00:33:49,140
Die geven echt stevig weerwerk

617
00:33:49,140 --> 00:33:49,740
om

618
00:33:49,740 --> 00:33:55,340
samen met ons te kijken wat zijn de Nederlandse eisen die wij aan Microsoft technologie willen stellen.

619
00:33:56,040 --> 00:34:00,600
Zodat wij aan onze achterbank kunnen zeggen, nou als je het zo doet kun je het goed gebruiken.

620
00:34:01,760 --> 00:34:04,100
Het klopt dat niet iedereen dat kan.

621
00:34:04,740 --> 00:34:10,120
Het goede nieuws is dat soort organisaties zijn er die dat type gesprek met ons voeren.

622
00:34:10,120 --> 00:34:16,100
En ik denk dat je dat ook gewoon in je dagelijks gebruik voor jezelf moet blijven bevragen.

623
00:34:16,600 --> 00:34:19,320
De andere kant, en daar hebben we het veel te weinig over,

624
00:34:20,719 --> 00:34:26,480
is dat AI ook heel veel mogelijkheden biedt om hele complexe informatie juist toegankelijk te maken

625
00:34:26,560 --> 00:34:29,739
voor mensen die het moeilijk vinden om dingen te snappen.

626
00:34:30,480 --> 00:34:35,239
Dus zo'n vraag worden we niet te dom, vind ik ook echt een typische hoogopgeleide vraag.

627
00:34:37,219 --> 00:34:43,800
Want we hebben het niet over dat we hele ingewikkelde informatie toegankelijk kunnen maken door de AI te vragen, kun je hier een plaatje van maken?

628
00:34:44,460 --> 00:34:53,560
Of kun je deze brief die ik van de overheid heb gekregen, die ik niet snap, even in mijn eigen taal in simpele woorden te vertalen, zodat ik snap wat ik als burger moet doen?

629
00:34:54,399 --> 00:34:57,980
Dus ik vind dat we soms ook in een enorm hoog opgeleide discussie zitten.

630
00:34:58,220 --> 00:35:02,879
En niet nadenken over welke betekenis AI kan hebben voor mensen die het gewoon per definitie moeilijk vinden.

631
00:35:03,520 --> 00:35:07,960
En die met die AI toch toegang kunnen krijgen tot dingen die anders te ver weg zijn.

632
00:35:08,250 --> 00:35:08,840
Te moeilijk.

633
00:35:09,540 --> 00:35:10,159
Niet te begrijpen.

634
00:35:10,679 --> 00:35:11,040
Ja, mooi.

635
00:35:12,060 --> 00:35:14,879
Je gebruikt dan niet zozeer de voorspellende AI.

636
00:35:15,540 --> 00:35:17,620
Maar je gebruikt eigenlijk de analyserende AI.

637
00:35:17,820 --> 00:35:19,620
Je zegt, ik heb hier heel veel dingen.

638
00:35:20,050 --> 00:35:21,680
Maar ik maak er maar een chocola van.

639
00:35:22,300 --> 00:35:30,820
Ik was vorige week bij een bijeenkomst van het COA en daar ging het over hoe kunnen we nou de AI inzetten om de beleving van asielzoekers die in een centrum wonen te verbeteren.

640
00:35:32,420 --> 00:35:35,960
Dat zijn mensen die spreken heel slecht Nederlands als ze überhaupt al Nederlands spreken.

641
00:35:36,120 --> 00:35:39,760
Die hebben geen idee hoe ze dingen voor elkaar moeten krijgen.

642
00:35:40,060 --> 00:35:42,660
Hele simpele dingen proberen geregeld te krijgen.

643
00:35:43,060 --> 00:35:44,720
En er is structureel te weinig personeel.

644
00:35:45,160 --> 00:35:45,320
Daar

645
00:35:45,320 --> 00:35:51,560
kan AI enorm helpen om gewoon simpele informatie toegankelijk te maken in de taal van de asielzoekers zelf.

646
00:35:51,660 --> 00:35:53,120
Of soms met plaatjes.

647
00:35:54,920 --> 00:35:57,920
En dat maken we dan heel ingewikkeld.

648
00:35:58,000 --> 00:36:02,020
Totdat we heel technisch complexe discussies aan het voeren zijn over ethische waarden.

649
00:36:02,960 --> 00:36:04,780
Ik denk, ja jongens, dit kun je morgen toepassen.

650
00:36:04,830 --> 00:36:05,240
En daar worden heel

651
00:36:05,240 --> 00:36:06,480
veel mensen zo blij van.

652
00:36:07,580 --> 00:36:09,100
En dat is helemaal niet risicovol.

653
00:36:09,280 --> 00:36:10,800
Want dat is gewoon openbare informatie die

654
00:36:10,800 --> 00:36:11,580
gewoon beschikbaar is.

655
00:36:12,090 --> 00:36:12,640
Maar we doen het niet.

656
00:36:12,940 --> 00:36:13,840
Heel mooi voorbeeld.

657
00:36:14,919 --> 00:36:18,440
Toch willen we wel afsluiten met twee pittige vragen.

658
00:36:19,260 --> 00:36:20,780
En we beginnen met jou Erik.

659
00:36:21,420 --> 00:36:27,240
Want als je ziet, is het hoger onderwijs, misschien eigenlijk ieder onderwijs,

660
00:36:27,660 --> 00:36:31,460
is dat niet eigenlijk nu hopeloos achterhaald met de komst van AI?

661
00:36:33,500 --> 00:36:35,840
Nou, hopeloos achterhaald is wel heel erg dramatisch.

662
00:36:36,060 --> 00:36:36,320
Ik

663
00:36:36,320 --> 00:36:37,480
gooi hem er even in.

664
00:36:37,480 --> 00:36:38,740
Nee, ik

665
00:36:38,740 --> 00:36:39,400
snap de tactiek.

666
00:36:40,660 --> 00:36:42,440
Ik vind het voorbeeld wat Jert net noemde,

667
00:36:42,640 --> 00:36:47,500
dat AI ook een aantal hele goede gevolgen kan hebben,

668
00:36:47,600 --> 00:36:50,120
vind ik ook wel op het onderwijs van toepassing.

669
00:36:50,620 --> 00:36:56,280
Als je bijna kijkt naar de wijze waarop wij toetsten, ik denk dat het inmiddels behoorlijk aan het veranderen is,

670
00:36:56,760 --> 00:37:02,620
was het wel heel erg makkelijk van, nou student, doe maar even dit, doe maar even dat, zijk maar even hier.

671
00:37:03,260 --> 00:37:05,120
Allemaal hele relatief eenvoudigheid.

672
00:37:05,120 --> 00:37:10,020
De vraag was, werd daar nou echt getest wat wij een student mee willen geven?

673
00:37:10,240 --> 00:37:18,940
Dus wij worden door AI gedwongen als docenten goed na te denken over de essentie van ons vak.

674
00:37:19,600 --> 00:37:24,440
En die essentie van je vak kun je wel degelijk ook op een andere manier aanbrengen en toetsen dan met AI.

675
00:37:24,960 --> 00:37:26,840
En voor de rest zou ik willen zeggen, maak er gebruik van.

676
00:37:27,480 --> 00:37:28,600
Dus hopeloos achterhaald.

677
00:37:28,890 --> 00:37:33,040
We worden wel ontzettend met onze neus op de feiten gedrukt.

678
00:37:33,660 --> 00:37:35,560
Maar we moeten het wel opnieuw doordenken.

679
00:37:35,670 --> 00:37:36,940
Dus daarmee is het achterhaald.

680
00:37:37,020 --> 00:37:38,240
En uitgedaagd dus.

681
00:37:38,300 --> 00:37:39,120
En uitgedaagd, ja.

682
00:37:39,940 --> 00:37:40,300
Leuk.

683
00:37:41,040 --> 00:37:43,060
Tenminste, ik neem aan dat je werk leuker maakt.

684
00:37:43,320 --> 00:37:44,160
Dat vind ik wel,

685
00:37:44,310 --> 00:37:44,440
ja.

686
00:37:45,080 --> 00:37:45,300
Absoluut.

687
00:37:47,040 --> 00:37:47,960
Mag ik hier toch een keer?

688
00:37:47,960 --> 00:37:48,480
Oh ja, tuurlijk.

689
00:37:48,660 --> 00:37:49,040
Jazeker.

690
00:37:49,500 --> 00:37:51,260
Nu komt het onderwijs hard.

691
00:37:53,780 --> 00:37:55,320
Onderwijs gaat over drie dingen.

692
00:37:56,140 --> 00:37:58,420
Professor Bista heeft dat gelanceerd.

693
00:37:58,420 --> 00:37:59,860
Het gaat over persoonsvorming.

694
00:38:00,040 --> 00:38:01,600
Wie ben jij in de wereld?

695
00:38:01,600 --> 00:38:03,060
Het gaat over socialisatie.

696
00:38:03,500 --> 00:38:05,740
Wie ben jij met jouw omgeving?

697
00:38:05,840 --> 00:38:07,040
Met je vrienden, je familie?

698
00:38:08,140 --> 00:38:09,420
Mensen in jouw vak?

699
00:38:10,900 --> 00:38:12,240
En een stuk dat gaat over kennis.

700
00:38:13,080 --> 00:38:15,560
Die kenniscomponent gaat inderdaad heel erg veranderen.

701
00:38:15,620 --> 00:38:18,280
Want dat gaan we gewoon op een andere manier tot ons nemen.

702
00:38:18,440 --> 00:38:19,780
En ook op een andere manier gebruiken.

703
00:38:19,820 --> 00:38:21,220
Want daar komt technologie in.

704
00:38:22,460 --> 00:38:25,580
Maar die socialisatie en persoonsvorming is ook iets heel erg menselijks.

705
00:38:25,660 --> 00:38:29,760
Ook daar kun je op onderdelen best een stukje technologie bij inzetten.

706
00:38:31,580 --> 00:38:33,500
Maar daar zitten ook een aantal vaste waarden in.

707
00:38:33,500 --> 00:38:36,400
Die al eeuwen in het onderwijs aanwezig zijn.

708
00:38:36,540 --> 00:38:40,360
En die omdat wij mensen zijn naar mijn overtuiging ook echt nog eeuwenlang blijven.

709
00:38:41,120 --> 00:38:43,300
Dus we moeten het ook niet te dramatisch maken.

710
00:38:43,780 --> 00:38:46,440
Ik spreek vanavond in een talkshow over AI en relaties.

711
00:38:46,560 --> 00:38:47,600
Dus ik help het je op.

712
00:38:48,900 --> 00:38:49,680
Ja, maar dat vind

713
00:38:49,680 --> 00:38:50,580
ik gewoon belangrijk ook

714
00:38:50,580 --> 00:38:51,480
omhoog te houden.

715
00:38:51,660 --> 00:38:52,980
Als ik kijk waarom

716
00:38:52,980 --> 00:38:55,560
mijn kinderen een goede studietijd hebben gehad.

717
00:38:56,100 --> 00:38:58,260
Het ging ook over de vrienden die ze daar gemaakt hebben.

718
00:38:58,520 --> 00:39:01,900
Over het bedenken wat ze willen worden, wie ze willen

719
00:39:01,900 --> 00:39:02,200
zijn.

720
00:39:02,460 --> 00:39:02,600
Heel

721
00:39:02,600 --> 00:39:03,080
wezenlijk.

722
00:39:04,500 --> 00:39:06,260
En daar gaat AI echt niet over.

723
00:39:07,080 --> 00:39:07,700
Gelukkig niet.

724
00:39:07,980 --> 00:39:08,540
Mooie toevoeging,

725
00:39:08,800 --> 00:39:09,240
dankjewel.

726
00:39:10,300 --> 00:39:11,720
Ik had ook nog een pittige vraag.

727
00:39:12,360 --> 00:39:12,980
En die luidens volgt.

728
00:39:13,060 --> 00:39:15,280
Microsoft investeert miljarden in OpenAI.

729
00:39:15,600 --> 00:39:17,800
en integreert deze technologie in vrijwel alle producten,

730
00:39:17,940 --> 00:39:20,060
Copilot en alle andere tools die we kennen.

731
00:39:20,580 --> 00:39:23,640
En critici stellen dan dat dit een klassieke vendor lock-in strategie is,

732
00:39:23,700 --> 00:39:26,200
waarbij klanten steeds afhankelijk worden van één ecosysteem.

733
00:39:26,660 --> 00:39:30,540
Is dit niet in strijd met de publieke waarde of van digitale soevereiniteit,

734
00:39:31,060 --> 00:39:32,060
waar de overheid naar streeft?

735
00:39:33,380 --> 00:39:35,600
Wij willen gewoon een heel mooi product maken

736
00:39:35,900 --> 00:39:39,580
en zorgen dat dat goed werkt met alle andere Microsoft producten die wij maken.

737
00:39:39,700 --> 00:39:41,120
Maar er zijn ook andere modellen.

738
00:39:41,380 --> 00:39:43,280
Wij hebben goede concullega's in de markt.

739
00:39:44,020 --> 00:39:47,780
Ik zou het heel leuk vinden als ook Europa zich zou gaan roeren op dit vlak.

740
00:39:48,180 --> 00:39:49,680
Ik zie een aantal hele mooie initiatieven.

741
00:39:49,740 --> 00:39:51,060
Onder andere geïnitieerd door Surf.

742
00:39:52,080 --> 00:39:53,520
Ik denk dat deze markt groot genoeg is.

743
00:39:53,640 --> 00:39:55,180
En dat wij die concurrentie prima aankunnen.

744
00:39:55,680 --> 00:39:55,860
Mooi.

745
00:39:56,340 --> 00:39:56,820
Mooie afsluiting.

746
00:39:57,120 --> 00:39:57,540
Dank jullie wel.

747
00:39:58,080 --> 00:40:00,760
Dank jullie wel voor dit buitengewoon interessante gesprek.

748
00:40:00,820 --> 00:40:02,380
We hebben best wel een hele hoop behandeld.

749
00:40:02,540 --> 00:40:04,360
Publieke waarden, onderwijs.

750
00:40:06,540 --> 00:40:08,620
Hoe Microsoft eigenlijk in dit verhaal staat.

751
00:40:09,360 --> 00:40:11,440
Dank jullie wel voor deze inzichten.

752
00:40:12,480 --> 00:40:14,680
Hebben jullie eventueel nog een tip voor de luisteraars?

753
00:40:14,750 --> 00:40:21,760
En je zegt dan, als je zo direct hem uitzet, deze podcast, wat zou je dan moeten doen vanuit jouw idee?

754
00:40:22,780 --> 00:40:23,680
Laten we beginnen met Erik.

755
00:40:24,320 --> 00:40:27,560
Zo, ik dacht dat we een moeilijke stelling hadden gehad.

756
00:40:28,190 --> 00:40:28,300
Nou,

757
00:40:28,460 --> 00:40:31,220
ik denk

758
00:40:31,220 --> 00:40:35,140
dat de oproep zowel van de community practice als nu ook van mij is om,

759
00:40:36,500 --> 00:40:40,920
mocht je nog niet zijn gaan experimenteren, doe het.

760
00:40:44,040 --> 00:40:47,620
Ga eens bij iemand te raden die eigenlijk dezelfde stappen heeft doorlopen.

761
00:40:47,830 --> 00:40:51,440
En ga eens even aan de hand van iemand anders wat uitproberen.

762
00:40:51,880 --> 00:40:55,200
Kijk eens naar bepaalde dingen die je energie kosten.

763
00:40:55,880 --> 00:40:59,220
En kijk eens hoe je dat eventueel met AI anders zou kunnen doen.

764
00:40:59,320 --> 00:41:00,700
Dat het misschien je energie oplevert.

765
00:41:01,000 --> 00:41:02,340
Ik denk dat dat wel

766
00:41:02,340 --> 00:41:03,220
een aardige zou zijn.

767
00:41:04,840 --> 00:41:07,080
Ik denk ook, wees niet bang voor technologie.

768
00:41:09,240 --> 00:41:10,400
Ik heb Frans gestudeerd.

769
00:41:12,000 --> 00:41:16,780
En ik ben opgegroeid in een wereld waar tegen meisjes werd gezegd, technologie is te moeilijk.

770
00:41:16,800 --> 00:41:22,020
En ik kom heel veel mensen tegen die op het moment dat ze het woord IT horen, denken oh dat kan ik niet.

771
00:41:22,940 --> 00:41:25,420
En dan nemen ze eigenlijk afstand en willen niks meer horen.

772
00:41:27,720 --> 00:41:34,120
En als ik dan kijk naar mijn schoonmoeder van 93, bij haar heeft dat ertoe geleid dat zij de familieappjes niet meer kan volgen.

773
00:41:34,360 --> 00:41:36,060
Eigenlijk afgesloten is van de wereld.

774
00:41:37,180 --> 00:41:44,400
Dus wat ik mezelf heb voorgenomen is, ik moet één ding doen, is die wereld induiken en over mijn schroom heen het gewoon gaan doen.

775
00:41:45,160 --> 00:41:47,940
En dan blijkt dat voor wat ik nodig heb voor mijn vak,

776
00:41:48,180 --> 00:41:48,880
ik

777
00:41:48,880 --> 00:41:49,900
dit ook echt wel kan.

778
00:41:50,280 --> 00:41:56,440
En ik hoef echt niet te programmeren om te snappen hoe die technologie zich in mijn wereld vertoont.

779
00:41:56,460 --> 00:41:59,620
En als het over programmeren gaat, dan bel ik die techneuten in mijn wereld en daar heb

780
00:41:59,620 --> 00:42:00,200
ik er meer dan

781
00:42:00,200 --> 00:42:00,580
genoeg van.

782
00:42:00,940 --> 00:42:02,660
Ja, bel ons, zou ik zeggen.

783
00:42:02,720 --> 00:42:03,980
Ja, maar voor

784
00:42:03,980 --> 00:42:07,700
de meeste mensen is dat wat jij ervan moet snappen, is te doen.

785
00:42:08,240 --> 00:42:09,080
Het is helemaal niet zo moeilijk.

786
00:42:09,080 --> 00:42:11,620
Het is een kwestie van gewoon met kleine stapjes beginnen.

787
00:42:12,480 --> 00:42:15,560
En dat zou ik dus met Erik eigenlijk ook iedereen aanraden.

788
00:42:16,160 --> 00:42:17,260
Wees niet bang, gewoon doen.

789
00:42:17,960 --> 00:42:18,700
Fouten maken mag.

790
00:42:19,040 --> 00:42:20,360
Fouten maken mag, hartstikke

791
00:42:20,360 --> 00:42:20,540
mooi.

792
00:42:20,920 --> 00:42:21,140
Zeker.

793
00:42:22,500 --> 00:42:23,200
Ik dank jullie wel.

794
00:42:24,200 --> 00:42:25,200
Bedankt ook voor het luisteren

795
00:42:25,200 --> 00:42:26,300
naar deze aflevering.

796
00:42:26,660 --> 00:42:29,220
Vergeet je niet te abonneren via je favoriete podcast app.

797
00:42:29,430 --> 00:42:31,700
En dan mis je geen aflevering, krijg je automatisch een seintje.

798
00:42:32,100 --> 00:42:32,660
Tot de volgende keer.

799
00:42:32,700 --> 00:42:33,360
Tot de volgende keer.


People on this episode