AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S07E91 - Van efficiëntie naar fundamentele verandering met AI
Marco Derksen, digitaal strateeg en docent, is te gast in de nieuwste aflevering van AIToday Live. Hij bespreekt het verschil tussen digitalisering en digitale transformatie in relatie tot AI.
Derksen pleit voor een fundamenteel andere aanpak bij de inzet van AI, gericht op het oplossen van maatschappelijke vraagstukken. Hij waarschuwt voor de valkuil van efficiëntie-verbetering en benadrukt het belang van goed leiderschap bij AI-implementaties.
Onderwerpen
- Verschil tussen digitalisering en digitale transformatie
- Huidige inzet en kritieken op AI
- Leiderschap in het AI-tijdperk
- Duurzaamheid en AI
- De stem van de natuur en AI-initiatieven
Links
- Podcast: AIToday Live podcast
- Essay: Essay Marco Derksen - AI in de energietransitie: voorbij optimalisatie
- Onderzoek: Simone Cicero over semantische schuld
- Initiatief: Alles is Gezondheid platform
- Boek: De Droom van Peter Bennemeer
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: Marco Derksen
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:05,680
In deze aflevering hoor je Marco Derksen, digitaal strateeg en docent, die uitlegt waarom AI vaak
2
00:00:05,680 --> 00:00:12,200
wordt ingezet om bestaande processen te optimaliseren in plaats van fundamentele transformatie te
3
00:00:12,200 --> 00:00:13,200
stimuleren.
4
00:00:13,200 --> 00:00:18,600
Hij deelt zijn visie op hoe we AI kunnen inzetten voor maatschappelijke verandering en duurzame
5
00:00:18,600 --> 00:00:22,799
oplossingen in plaats van alleen voor efficiëntieverbeteringen.
6
00:00:25,919 --> 00:00:26,859
Kijk, dat is hem.
7
00:00:28,059 --> 00:00:30,659
Leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.
8
00:00:31,219 --> 00:00:32,799
Mijn naam Joop Snijder, CTO bij Aigency.
9
00:00:33,179 --> 00:00:35,859
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support.
10
00:00:36,099 --> 00:00:38,379
En in de studio hebben we Marco Derksen.
11
00:00:38,719 --> 00:00:40,379
Heel erg fijn dat je kon komen Marco.
12
00:00:40,959 --> 00:00:43,719
Voordat we beginnen zou je je eerst even willen voorstellen aan de luisteraars.
13
00:00:44,439 --> 00:00:47,399
Nou ja, ik ben dus Marco Derksen uit Arnhem.
14
00:00:50,259 --> 00:00:55,439
Wat doe ik? Ik ben al 25 jaar bezig met digitalisering, digitale transformatie.
15
00:00:55,679 --> 00:00:59,339
In de laatste jaren steeds meer. Het leiderschap op digitale transformatie.
16
00:00:59,779 --> 00:01:04,839
Ja, en als we wat mij betreft er meteen induiken. Wat is volgens jou dan leiderschap?
17
00:01:06,299 --> 00:01:10,979
Voor mij is leiderschap het verschil tussen management en leiderschap maak ik meestal.
18
00:01:11,659 --> 00:01:16,599
Voor mij is management de dingen goed doen en leiderschap is de goede dingen doen.
19
00:01:16,819 --> 00:01:18,299
Dus vooral de goede keuzes maken.
20
00:01:19,119 --> 00:01:20,939
En dat is voor mij leiderschap.
21
00:01:21,119 --> 00:01:24,359
Ja, en er is nu best wel wat te doen rondom AI en leiderschap.
22
00:01:25,899 --> 00:01:34,459
Zijn daar andere capaciteiten, karakteristieken nodig voor het leiderschap als je kijkt rondom AI?
23
00:01:35,339 --> 00:01:38,579
Nee, ik dacht niet dat dat anders is dan wat we voorheen hadden.
24
00:01:39,199 --> 00:01:44,939
Alleen de ontwikkelingen gaan zo snel dat het maken van keuzes natuurlijk steeds lastiger gaat worden.
25
00:01:45,619 --> 00:01:48,679
Dus daar zit de uitdaging bij AI.
26
00:01:49,739 --> 00:01:53,019
Dus hoe maak je daar de keuzes in zonder te vervallen...
27
00:01:53,459 --> 00:01:57,179
of eigenlijk in de valkuil te stappen om snel mee te gaan...
28
00:01:57,179 --> 00:02:00,039
met alle fantastische dingen die AI kan en belooft.
29
00:02:00,799 --> 00:02:03,739
Dus daar ligt de uitdaging voor leiderschap bij AI.
30
00:02:04,179 --> 00:02:06,099
En over die snelheid.
31
00:02:07,059 --> 00:02:08,519
Je bent er een tijdje uit geweest.
32
00:02:08,919 --> 00:02:10,378
Ik denk dat het op LinkedIn ook...
33
00:02:10,619 --> 00:02:12,139
dan was je daar ook verbaal over.
34
00:02:14,479 --> 00:02:17,479
Heb je het gevoel dat je ook wat gemist hebt?
35
00:02:17,999 --> 00:02:22,139
Of is het na hoeveel maanden ben je eruit geweest?
36
00:02:23,459 --> 00:02:24,919
Drie maanden ben ik vrij geweest.
37
00:02:24,999 --> 00:02:26,479
Een soort mini-sabbatical.
38
00:02:28,019 --> 00:02:30,799
Maar ik moet eerlijk zeggen, ik ben wel online.
39
00:02:32,179 --> 00:02:35,179
Zelfs vanuit Noorwegen hebben ze schijnbaar ook internet.
40
00:02:35,999 --> 00:02:37,279
Heb ik wel wat dingen gevolgd.
41
00:02:37,339 --> 00:02:39,699
Sterker nog, ik heb eigenlijk die drie maanden vrijgenomen.
42
00:02:39,939 --> 00:02:43,039
Om voor mezelf te lezen, te schrijven.
43
00:02:43,559 --> 00:02:44,339
Dat was eigenlijk het idee.
44
00:02:45,199 --> 00:02:46,259
Ik wilde een boek gaan schrijven.
45
00:02:46,399 --> 00:02:47,699
Dat gaat er niet komen, denk ik.
46
00:02:47,879 --> 00:02:48,179
Want?
47
00:02:49,439 --> 00:02:50,919
Nou, de vraag is...
48
00:02:50,999 --> 00:02:52,819
Ik weet dat jij toevallig net een boek hebt geschreven.
49
00:02:52,879 --> 00:02:55,039
De vraag is hoeveel mensen zitten nog te wachten over een boek.
50
00:02:55,899 --> 00:02:57,359
En tegen die tijd dat je het boek af hebt...
51
00:02:57,359 --> 00:02:59,719
ben je eigenlijk alweer achterhaald.
52
00:02:59,819 --> 00:03:02,639
Dus vandaar dat ik zit te denken aan wat andere dingen.
53
00:03:04,399 --> 00:03:07,799
Maar ik heb wel veel gelezen en nagedacht.
54
00:03:09,199 --> 00:03:13,419
Maar daarmee zeg je dan weinig gemist in die maanden?
55
00:03:14,339 --> 00:03:17,479
Nou ja, je mist heel veel aan de ene kant.
56
00:03:17,599 --> 00:03:19,499
Maar aan de andere kant eerlijk gezegd ook weer niet.
57
00:03:19,629 --> 00:03:21,719
Als je kijkt naar alle AI-ontwikkelingen.
58
00:03:21,819 --> 00:03:27,019
Ik heb zelf ooit AI in mijn afstuderen gehad in 1991.
59
00:03:27,459 --> 00:03:30,919
Als je het dan hebt over hoe snel gaan deze ontwikkelingen.
60
00:03:31,099 --> 00:03:33,499
Dan kan je dat op twee verschillende schalen bekijken.
61
00:03:34,299 --> 00:03:35,719
Als je dat op macro-schaal bekijkt.
62
00:03:35,729 --> 00:03:37,859
Dan denk je, dan heeft het toch allemaal nog heel lang geduurd.
63
00:03:37,999 --> 00:03:39,079
dat we staan waar we nu staan.
64
00:03:39,919 --> 00:03:42,039
En aan de andere kant kan je je ook helemaal gek laten maken
65
00:03:42,199 --> 00:03:44,539
door alles wat er in een week tijd uitkomt.
66
00:03:45,239 --> 00:03:47,279
Maar als je de grote lijden bekijkt, denk ik,
67
00:03:47,519 --> 00:03:48,599
het valt eigenlijk nog wel mee.
68
00:03:48,759 --> 00:03:52,299
Ja, het is met name het gevoel van snelheid
69
00:03:52,499 --> 00:03:54,919
met alle nieuwe, hippe dingen die erin zitten.
70
00:03:55,279 --> 00:03:57,779
En dat is precies ook het leiderschap.
71
00:03:58,219 --> 00:03:59,839
Hoe hou je je hoofd koel?
72
00:04:00,039 --> 00:04:01,259
Wat is jouw eigen kompas?
73
00:04:01,799 --> 00:04:03,559
Welke keuzes je maakt daarin?
74
00:04:04,819 --> 00:04:07,639
Hoe weet je als organisatie dat je de juiste dingen aan het doen bent dan?
75
00:04:09,719 --> 00:04:12,319
Nou ja, laat ik eerst bij mezelf beginnen.
76
00:04:12,519 --> 00:04:17,779
Gewoon als persoon, ik denk dat het heel belangrijk is dat je voor jezelf heel goed weet waar jij staat,
77
00:04:18,379 --> 00:04:21,599
waar jouw waarden zitten en welke keuzes je daarin maakt.
78
00:04:21,659 --> 00:04:24,419
En dat geldt natuurlijk voor een bedrijf, voor een organisatie precies hetzelfde.
79
00:04:24,979 --> 00:04:27,379
Waar sta je als organisatie voor? Wat is jouw rol?
80
00:04:28,139 --> 00:04:33,599
En op basis daarvan maak je keuzes voor de inzet van technologie en dus ook AI.
81
00:04:35,119 --> 00:04:38,939
En voor de luisteraar nog een iets breder beeld van jezelf.
82
00:04:39,769 --> 00:04:42,679
Kan je vertellen voor wat voor klanten je onder andere gewerkt hebt?
83
00:04:42,679 --> 00:04:44,258
Want ik denk dat dat wel interessant is.
84
00:04:45,739 --> 00:04:52,619
Wat ik net al aangaf, ik denk dat ik nu zo'n 25 jaar bezig ben met digitalisering, digitale transformatie.
85
00:04:53,619 --> 00:05:01,019
En ik ben ooit begonnen bij een grote consultancyclub waar ik met name de commerciële bedrijven heb geholpen.
86
00:05:02,039 --> 00:05:07,999
En dan hebben we het eind jaren 90 over banking, finance, telecom, dat soort bedrijven.
87
00:05:09,439 --> 00:05:15,399
2005 voor mezelf begonnen nadat ik het platform Marketingfix heb opgezet.
88
00:05:16,199 --> 00:05:20,379
En van daaruit ben ik ook weer bedrijven gaan helpen, ondersteunen op allerlei.
89
00:05:20,539 --> 00:05:25,099
En dat was in die tijd vooral social media, social business, wat meer in die hoek.
90
00:05:26,699 --> 00:05:33,459
Maar eigenlijk in 2012, 2013 is er voor mezelf steeds meer achtergekomen dat ik eigenlijk wel klaar was met de commerciële wereld.
91
00:05:33,559 --> 00:05:39,919
Dat ik denk van ik wil eigenlijk stoppen met bedrijven helpen om nog meer te verkopen, nog meer te produceren.
92
00:05:40,559 --> 00:05:43,319
En eigenlijk ben ik toen verschoven naar wat meer de publieke sector.
93
00:05:44,379 --> 00:05:46,179
Sindsdien doe ik vooral publieke sector.
94
00:05:49,458 --> 00:05:52,419
Woningcoöperaties, ziekenhuizen, zorginstellingen, onderwijs.
95
00:05:53,499 --> 00:05:57,599
En op dit moment ben ik eigenlijk al een aantal jaren bezig bij de nationale politie.
96
00:05:58,459 --> 00:06:01,999
En ik ben net weer begonnen met een groot traject bij de bibliotheken,
97
00:06:02,119 --> 00:06:04,139
waar ik ook al wat eerder in het verleden wat dingen heb gedaan.
98
00:06:04,679 --> 00:06:06,299
Maar met name dus de publieke sector.
99
00:06:07,519 --> 00:06:10,619
Ik was wel nieuwsgierig, want net even kort over AI en leiderschap,
100
00:06:11,159 --> 00:06:12,999
en commercieel en publiek.
101
00:06:13,379 --> 00:06:15,939
Zie je nou veel verschil tussen commercieel en publiek,
102
00:06:15,939 --> 00:06:17,779
en hoe ze leiderschap daarin invullen?
103
00:06:20,739 --> 00:06:26,579
Ja, het interessante is dat ik, en daar kwam ik pas in de loop van de tijd achter,
104
00:06:26,819 --> 00:06:31,579
als je echt wil leren wat leiderschap is, als je dus je eigen leiderschap wil ontwikkelen,
105
00:06:31,799 --> 00:06:37,179
wat ik denk dat dat kan voor een deel, dan moet je dat vooral doen in de publieke sector,
106
00:06:37,399 --> 00:06:43,079
omdat daar de complexiteit van de vraagstukken vele malen groter is dan in de commerciële wereld.
107
00:06:43,159 --> 00:06:46,019
Ik kom uit de wereld waarin we op een gegeven moment hebben gezegd van,
108
00:06:47,019 --> 00:06:49,799
we gaan gewoon naast onze eigen organisatie opnieuw beginnen.
109
00:06:50,599 --> 00:06:52,719
Dan begin je met nieuwe systemen, nieuwe mensen
110
00:06:52,899 --> 00:06:53,139
Nieuwe
111
00:06:54,879 --> 00:06:56,799
Maar dat gaat niet in de publieke sector
112
00:06:56,959 --> 00:06:58,859
Ik kan morgen niet met een nieuwe politie beginnen
113
00:07:00,419 --> 00:07:02,699
Dus daar is de uitdaging
114
00:07:02,819 --> 00:07:04,219
Van wat doe je wel, wat doe je niet
115
00:07:04,339 --> 00:07:05,299
En hoe pak je dat op
116
00:07:05,499 --> 00:07:07,979
Je hebt ver maken met veel meer stakeholders
117
00:07:08,979 --> 00:07:10,179
Om keuzes te maken
118
00:07:10,839 --> 00:07:12,519
Dus het leiderschap in de publieke sector
119
00:07:12,559 --> 00:07:13,919
Is veel malen complexer
120
00:07:14,559 --> 00:07:16,139
Dan in de commerciële hoek
121
00:07:19,459 --> 00:07:19,859
Oké
122
00:07:19,879 --> 00:07:21,379
Je noemde het telkens heel erg expliciet.
123
00:07:21,999 --> 00:07:23,939
Digitalisering en digitale transformatie.
124
00:07:25,099 --> 00:07:27,019
Zou je kunnen toelichten wat is het verschil tussen die twee?
125
00:07:27,399 --> 00:07:27,839
Ja, zeker.
126
00:07:28,599 --> 00:07:29,859
Nou ja, wat ik aangaf.
127
00:07:30,839 --> 00:07:34,959
Ik kom uit die commerciële hoek waarin we digitale technologie hebben ingezet.
128
00:07:35,079 --> 00:07:38,919
Vooral om wat we deden verder te optimaliseren.
129
00:07:39,159 --> 00:07:41,639
Dus gericht op efficiëntie, sneller, goedkoper.
130
00:07:42,539 --> 00:07:45,199
En ik ben daar een aantal jaren in meegegaan.
131
00:07:45,339 --> 00:07:47,218
Totdat, wat ik al aangaf, dat ik dacht van...
132
00:07:47,859 --> 00:07:53,299
Ik wil eigenlijk helemaal niet meer bijdragen aan nog meer produceren en nog meer verkoop.
133
00:07:54,039 --> 00:07:55,779
Dus we moeten het fundamenteel anders gaan doen.
134
00:07:55,979 --> 00:07:59,699
En voor mij is digitaliseren het optimaliseren van het bestaande.
135
00:08:00,209 --> 00:08:01,139
De fysische denken.
136
00:08:01,999 --> 00:08:05,739
En digitale transformatie is voor mij echt het fundamenteel anders organiseren.
137
00:08:05,839 --> 00:08:07,279
Dus echt naar een ander paradigma.
138
00:08:08,079 --> 00:08:09,779
Om te kijken hoe je daar dan...
139
00:08:09,839 --> 00:08:13,299
En dat is eigenlijk waar ik nu zo'n tien jaar mee bezig ben.
140
00:08:14,339 --> 00:08:20,639
En dat doe ik vooral vanuit de opleidingen die ik ook verzorg, de leerprogramma's.
141
00:08:21,939 --> 00:08:23,559
Dat heeft overigens ook met elkaar te maken.
142
00:08:23,569 --> 00:08:31,939
Ik ben in 2013 begonnen om met name post-HBO, post-academische opleidingen te verzorgen, te begeleiden.
143
00:08:32,818 --> 00:08:35,558
En dat is het programma Leiderschap bij Digitaal Transformatie geworden.
144
00:08:36,399 --> 00:08:39,558
Zou je zo'n voorbeeld van zo'n digitale transformatie kunnen noemen?
145
00:08:40,698 --> 00:08:47,999
Waar je het dan eigenlijk over hebt, ik zeg wel eens in de zorg, als je het daar hebt over digitalisering,
146
00:08:48,029 --> 00:08:54,619
dan zie je dat digitale technologie vooral wordt ingezet om de zorg sneller, goedkoper, efficiënter te maken.
147
00:08:56,819 --> 00:09:00,398
Maar dan ben je eigenlijk het oude paradigma verder aan het optimaliseren.
148
00:09:01,259 --> 00:09:09,659
Terwijl als je heel goed nadenkt over de zorg, we lopen daar tegen grenzen aan, we hebben een capaciteitsrecord, de kosten die nemen enorm toe.
149
00:09:10,679 --> 00:09:14,739
Maar eigenlijk zou je moeten richten op hoe zorgen we dat we gewoon niet ziek worden.
150
00:09:14,899 --> 00:09:17,399
En niet in die ziekenhuizen komen of niet bij een huisarts komen.
151
00:09:17,449 --> 00:09:19,279
Dus je moet veel meer richten op gezondheid.
152
00:09:19,959 --> 00:09:23,679
Dus het paradigmaverschuiving waar je het daarover hebt is van zorg naar gezondheid.
153
00:09:24,479 --> 00:09:26,019
Dat geldt eigenlijk bij veiligheid.
154
00:09:26,019 --> 00:09:27,559
Bij politie werkt precies hetzelfde.
155
00:09:27,729 --> 00:09:33,579
Je kunt digitale technologie inzetten om nog sneller de criminelen te vangen.
156
00:09:34,439 --> 00:09:38,599
Maar je zou ook kunnen kijken hoe kunnen we nou voorkomen dat de criminiteit plaatsvindt.
157
00:09:38,659 --> 00:09:40,479
En dat is die transformatie waar ik het over heb.
158
00:09:40,499 --> 00:09:40,779
Precies.
159
00:09:41,239 --> 00:09:44,759
En dat geldt eigenlijk in iedere sector, kan je dit soort voorbeelden wel bedenken.
160
00:09:45,099 --> 00:09:49,779
Hoe kijk je dan nu aan tegen alles wat er rondom, ik pak even het ChatGPT gebeurt.
161
00:09:50,379 --> 00:09:53,679
Ik bedoel, daar gaat eigenlijk alleen nog maar alles over productiviteit.
162
00:09:54,439 --> 00:09:57,879
En in mijn beleving zelfs heel veel over persoonlijke productiviteit.
163
00:09:58,399 --> 00:10:00,859
Dat staat denk ik haaks op wat jij nu aan het vertellen bent.
164
00:10:00,999 --> 00:10:03,959
Ja, dat is dus waarom ik daar ook regelmatig over schrijf.
165
00:10:04,379 --> 00:10:09,379
Dat ik denk van, wij vallen eigenlijk in die valkuil van de techniek inzetten
166
00:10:09,399 --> 00:10:11,379
om alles nog efficiënter te maken.
167
00:10:12,259 --> 00:10:15,519
En als er één les is die ik de afgelopen 20 jaar heb geleerd,
168
00:10:15,639 --> 00:10:16,419
20, 25 jaar,
169
00:10:17,179 --> 00:10:21,839
is dat digitale technologie ons leidt naar legacy-systemen
170
00:10:21,939 --> 00:10:23,679
waar we steeds moeilijker vanaf komen.
171
00:10:24,319 --> 00:10:26,579
En ik ben eerlijk gezegd bang dat we dat met AI
172
00:10:26,729 --> 00:10:28,359
nog vele malen groter gaan krijgen.
173
00:10:28,959 --> 00:10:30,739
Dus wij stoppen alles in een digitaal doosje
174
00:10:30,809 --> 00:10:32,039
waar we straks niet meer vanaf komen.
175
00:10:33,119 --> 00:10:36,079
En daarom is het van belang dat we nu heel goed nadenken
176
00:10:36,119 --> 00:10:37,619
waar zetten we eigenlijk AI voor in.
177
00:10:38,659 --> 00:10:41,059
En waar zou jij het dan voor in willen zetten?
178
00:10:41,799 --> 00:10:44,819
Nou ja, dat is dus waar ik eigenlijk afhankelijk van de sector...
179
00:10:45,259 --> 00:10:52,419
Ik heb toevallig net een essay geschreven voor de RES, de Regionale Energiestrategie.
180
00:10:52,659 --> 00:11:00,059
Een nationaal programma wat gevraagd heeft of ik een essay wilde schrijven over de toepassing van AI in de energietransitie.
181
00:11:01,959 --> 00:11:06,599
Wat je daar ziet is dat AI vooral wordt ingezet weer voor dat efficiënverhaal.
182
00:11:06,879 --> 00:11:11,479
Hoe kunnen we nog goedkoper en sneller duurzame energie produceren?
183
00:11:12,259 --> 00:11:17,979
Mijn stelling is, als we dat doen, dat we uiteindelijk dus vooral veel meer energie gaan verbruiken.
184
00:11:18,019 --> 00:11:20,559
Want het wordt goedkoper, het is makkelijker beschikbaar.
185
00:11:20,699 --> 00:11:22,799
Dat noemen ze ook wel de Jevons paradox.
186
00:11:24,219 --> 00:11:28,719
Dan denk je van, we hebben efficiënt, kunnen wij goedkoper en duurzame energie produceren.
187
00:11:28,759 --> 00:11:32,939
Dat is beter voor de wereld, maar uiteindelijk gaan we het gewoon veel meer consumeren.
188
00:11:33,819 --> 00:11:42,479
Dus mijn stelling is daar eigenlijk van kunnen we AI niet inzetten om uiteindelijk tot wat ik dan een regeneratieve koers heb genoemd.
189
00:11:42,549 --> 00:11:46,419
Hoe kunnen we dat inzetten om de wereld weer een stukje beter te maken?
190
00:11:46,449 --> 00:11:49,499
Dat is eigenlijk de zoektocht en ik heb niet overal meteen antwoorden op.
191
00:11:50,319 --> 00:11:57,439
Maar dat is wel waar ik mee bezig ben in al die domeinen van hoe kan ik AI nu inzetten om het echt fundamenteel anders te gaan doen.
192
00:11:57,679 --> 00:12:01,379
Je noemt de regeneratieve koers. Ik denk dat dat wat uitleg behoeft.
193
00:12:01,839 --> 00:12:09,519
Wat je nu ziet is, als we het hebben over duurzame energie, is dat we naar zonne-energie en naar windenergie,
194
00:12:09,779 --> 00:12:11,819
dat dat geen fossiele brandstoffen zijn.
195
00:12:13,178 --> 00:12:15,419
Dat is een eerste stap.
196
00:12:15,509 --> 00:12:20,999
Een tweede stap is, je zou ook kunnen kijken, als wij energie produceren of energie verbruiken,
197
00:12:21,239 --> 00:12:27,499
kunnen we dat ook zodanig doen dat het uiteindelijk ook de samenleving de wereld weer een stuk beter maakt.
198
00:12:28,579 --> 00:12:33,859
En een klein voorbeeld waar ook al mee geëxperimenteerd wordt is bijvoorbeeld zonnecellen.
199
00:12:34,939 --> 00:12:38,239
Kunnen we ervoor zorgen dat op het moment dat de gebieden waar we zonnecellen neerzetten,
200
00:12:38,289 --> 00:12:41,339
we hebben van die hele grote weilanden vol met zonnepanelen,
201
00:12:42,159 --> 00:12:47,939
kunnen we dat ook niet op de een of andere manier gebruiken om daar tegelijkertijd de biodiversiteit weer te verhogen.
202
00:12:48,269 --> 00:12:56,519
Dus kunnen we die energie voor een deel gebruiken om dat gebied ook weer de biodiversiteit omhoog te brengen.
203
00:12:56,699 --> 00:12:57,359
Dat is een voorbeeld.
204
00:12:57,979 --> 00:13:00,499
En hoe kunnen we daar nou AI bijvoorbeeld voor inzetten?
205
00:13:00,779 --> 00:13:01,659
Dat is één.
206
00:13:02,799 --> 00:13:08,639
Een tweede is dat ik ook aan het nadenken ben van kunnen wij niet,
207
00:13:09,139 --> 00:13:11,899
nou ja, dat hoef ik jullie niet te vertellen, als je AI gaat trainen,
208
00:13:12,379 --> 00:13:14,419
doen we dat op data die beschikbaar is.
209
00:13:15,239 --> 00:13:19,239
Maar wat we daar vaak niet gebruiken is inheemse kennis.
210
00:13:20,079 --> 00:13:24,079
Die zeg maar eeuwenoude kennis van de oorspronkelijke bewoners.
211
00:13:24,899 --> 00:13:32,179
Hoe zouden we dat nou kunnen gebruiken in die AI-modellen om uiteindelijk te komen tot betere stappen?
212
00:13:32,339 --> 00:13:35,259
Hoe moet ik dat zien met de inheemse kennis?
213
00:13:37,019 --> 00:13:40,599
We zien het eigenlijk overigens wereldwijd al steeds meer gebeuren.
214
00:13:41,459 --> 00:13:49,539
De Maori in Nieuw-Zeeland, daar is op dit moment de natuur ook rechten.
215
00:13:50,419 --> 00:13:51,819
Zijn jullie daarmee bekend of niet?
216
00:13:54,079 --> 00:13:56,939
Help ons even. Ik heb er wel van gehoord, maar niet de details.
217
00:13:57,849 --> 00:14:08,199
Nou ja, wat je ziet is, en ook in Nederland, de Waal, zijn ze op dit moment aan het kijken van de natuur die wordt gebruikt door bedrijven, door burgers.
218
00:14:09,399 --> 00:14:11,599
Maar de natuur zelf heeft eigenlijk geen enkele stem.
219
00:14:11,709 --> 00:14:17,499
Dus op het moment dat wij beslissen van we willen een fabriek ergens neerzetten, dan wordt dat bepaald door bedrijven, door mensen.
220
00:14:19,059 --> 00:14:20,679
Maar de natuur zelf heeft geen stem.
221
00:14:20,859 --> 00:14:23,279
En dat is eigenlijk waar steeds meer naar wordt gekeken.
222
00:14:23,379 --> 00:14:28,099
Kunnen we de natuur ook een stemrecht geven in dit soort beslissingen?
223
00:14:29,059 --> 00:14:32,359
En in Nieuw-Zeeland is dat gebeurd met een rivier bijvoorbeeld.
224
00:14:32,479 --> 00:14:34,619
Er is een hele fantastische documentaire daarover.
225
00:14:35,399 --> 00:14:38,519
Daar hebben ze gekeken van hoe kan nou de natuur een stem krijgen?
226
00:14:38,599 --> 00:14:44,179
En daar hebben ze de Maori, de inheemse bevolking, die vertegenwoordigt eigenlijk dan de rivier.
227
00:14:44,279 --> 00:14:46,019
Dus op het moment dat daar beslissingen worden genomen,
228
00:14:46,899 --> 00:14:51,459
dan kunnen de Maori bepalen dan mede welke beslissingen worden genomen.
229
00:14:51,639 --> 00:14:56,599
Omdat zij die eeuwenoude kennis nog hebben van natuur,
230
00:14:57,319 --> 00:15:00,679
van hoe we dat land bewerken, hoe we dat beter kunnen doen,
231
00:15:00,729 --> 00:15:03,919
hoe we dat ook beter kunnen overdragen naar een volgende generatie.
232
00:15:04,709 --> 00:15:07,759
Dat is kennis die wij eigenlijk langzamerhand aan het kwijtraken zijn.
233
00:15:08,719 --> 00:15:12,779
Het interessante is dat bijvoorbeeld in Nederland, in de Waal, in Limburg,
234
00:15:13,419 --> 00:15:14,099
is dat hetzelfde.
235
00:15:14,239 --> 00:15:17,199
Dan zijn ze ook bezig om te kijken of ze de Waal een stem kunnen krijgen.
236
00:15:18,059 --> 00:15:22,299
Maar wat ze daar nu hebben gedaan is alle rapporten en kennis over die Waal.
237
00:15:22,939 --> 00:15:27,079
Die hebben ze gebruikt om ook AI-modellen te trainen.
238
00:15:27,099 --> 00:15:30,639
Dus je moet je voorstellen dat je vervolgens aan tafel zit.
239
00:15:30,639 --> 00:15:31,739
Er wordt een beslissing genomen.
240
00:15:32,059 --> 00:15:33,359
Bedrijf X mag wat zeggen.
241
00:15:34,638 --> 00:15:35,859
Consument Y mag wat zeggen.
242
00:15:36,399 --> 00:15:39,199
En vervolgens wordt dat AI-model ook gevraagd.
243
00:15:39,259 --> 00:15:40,719
Stel dat we hier een fabriek gaan bouwen.
244
00:15:40,919 --> 00:15:45,719
En dat AI-model vertegenwoordigt dan in dit geval de natuur, de woon.
245
00:15:45,799 --> 00:15:46,579
Oké, ook bijzonder.
246
00:15:46,579 --> 00:15:52,439
En op die manier ga je inheemse kennis meenemen in het trainen van AI-modellen.
247
00:15:53,199 --> 00:15:56,859
Dus de domeinkennis die wordt ingebracht, de jaren ervaring wordt ingebracht.
248
00:15:56,859 --> 00:16:04,599
Maar ook wat ik dan hoor is de principes om namens de natuur of een ander aspect juist goed te kijken.
249
00:16:04,759 --> 00:16:08,199
Wat zijn de side effects, de voordelen, nadelen en dat mee te wegen.
250
00:16:08,799 --> 00:16:15,459
Want anders moet er ervan uitgaan dat het iemand is die als consument of als overheid daar genoeg stem in brengt.
251
00:16:15,579 --> 00:16:20,799
En zo kan je ook voorstellen dat je bijvoorbeeld, als we het hebben over moraliteit.
252
00:16:22,219 --> 00:16:24,939
Kijk, op dit moment wordt heel veel data gebruikt vanuit internet.
253
00:16:25,139 --> 00:16:28,059
Dat is nu van de fora, van sociale media.
254
00:16:28,939 --> 00:16:32,779
Maar ja, dat is data die dus nu actueel is.
255
00:16:32,939 --> 00:16:39,339
Maar stel dat je narratieve verhalen van 80-jarigen en ouder meeneemt.
256
00:16:39,359 --> 00:16:40,679
Dat je die gaat interviewen.
257
00:16:41,319 --> 00:16:45,379
En dat je hun perspectief meeneemt in het ontwikkelen van AI-modellen.
258
00:16:45,439 --> 00:16:49,059
Dan krijg je dus hele andere modellen dan dat we nu gewend zijn.
259
00:16:49,679 --> 00:16:50,279
Dat denken.
260
00:16:51,159 --> 00:16:52,939
Dat betekent dat we eens nog even moeten digitaliseren.
261
00:16:53,139 --> 00:16:55,119
Voordat we dat kunnen meenemen in de digitale transformatie.
262
00:16:55,379 --> 00:16:57,279
Maar ik zeg ook niet dat digitaliseren verkeerd is.
263
00:16:58,799 --> 00:17:01,819
Uiteindelijk heb je soms data nodig.
264
00:17:01,899 --> 00:17:03,619
om dingen voor elkaar te krijgen. Zeker.
265
00:17:04,878 --> 00:17:05,939
En als we dat aspect
266
00:17:06,179 --> 00:17:07,659
hebben van de waal
267
00:17:08,159 --> 00:17:09,939
een stuk natuur heeft een stem.
268
00:17:11,279 --> 00:17:11,799
Hoe zit dat met
269
00:17:12,138 --> 00:17:13,878
ethiek en de data die
270
00:17:13,979 --> 00:17:15,559
verkregen wordt? Hoe kijk je daar tegenaan?
271
00:17:16,659 --> 00:17:18,118
Nou ja, dat is natuurlijk een groot probleem.
272
00:17:18,239 --> 00:17:20,159
Zoals het nu gaat met de meeste AI-modellen.
273
00:17:20,759 --> 00:17:21,659
Die data die wordt
274
00:17:22,259 --> 00:17:23,979
gescrapet, die wordt illegaal verkregen.
275
00:17:24,519 --> 00:17:25,799
En ook hier
276
00:17:25,919 --> 00:17:28,098
denk ik dat we daar veel beter naar moeten kijken.
277
00:17:29,699 --> 00:17:30,579
Welke data
278
00:17:30,819 --> 00:17:31,859
kunnen we gebruiken voor het
279
00:17:31,878 --> 00:17:32,959
van die AI-modellen.
280
00:17:33,839 --> 00:17:37,959
En is dat op een eerlijke manier, transparante manier, verkregen?
281
00:17:38,159 --> 00:17:39,699
Dus absoluut van belang.
282
00:17:40,959 --> 00:17:43,099
En je hebt het eigenlijk over een hele andere manier van denken.
283
00:17:44,319 --> 00:17:47,238
Hoe kan je nou, als luisteraar,
284
00:17:47,339 --> 00:17:49,439
hoe kan je jezelf hierin gaan scherpen?
285
00:17:50,258 --> 00:17:53,199
Dat je dit gaat trainen, dat je op een andere manier denkt
286
00:17:53,239 --> 00:17:54,479
dan alleen die efficiëntie?
287
00:17:55,659 --> 00:17:59,459
Nou ja, dat begint eigenlijk van,
288
00:17:59,899 --> 00:18:01,839
heb je eigenlijk wel enig idee
289
00:18:01,859 --> 00:18:03,139
Hoe die AI modellen werken.
290
00:18:04,199 --> 00:18:05,219
Jullie zijn daarmee bekend.
291
00:18:05,379 --> 00:18:06,939
En veel van jullie klanten ook.
292
00:18:08,239 --> 00:18:10,639
Maar een groot deel van de gebruikers.
293
00:18:10,779 --> 00:18:12,919
Heeft geen idee hoe dat aan de achterkant.
294
00:18:13,459 --> 00:18:14,139
Precies werkt.
295
00:18:14,679 --> 00:18:15,519
Hoe ze getraind zijn.
296
00:18:16,079 --> 00:18:17,599
Hoe afhankelijk ze zijn van de data.
297
00:18:17,669 --> 00:18:18,639
Die daar gebruikt is.
298
00:18:19,319 --> 00:18:21,899
Hoe afhankelijk ze zijn van de mensen.
299
00:18:22,059 --> 00:18:23,419
Die de keuzes hebben gemaakt.
300
00:18:23,449 --> 00:18:24,719
Hoe die AI modellen werken.
301
00:18:24,939 --> 00:18:27,179
Denk aan OpenAI, ChattiePT.
302
00:18:27,779 --> 00:18:29,039
Welke mensen werken daar eigenlijk.
303
00:18:29,359 --> 00:18:31,759
Wat zijn hun waarden.
304
00:18:32,539 --> 00:18:37,559
op basis waarvan ze ook de vangrails instellen van zo'n AI-model.
305
00:18:38,299 --> 00:18:42,459
Als je dat begrijpt, pas dan kan je eigenlijk ook nagaan denken over...
306
00:18:42,459 --> 00:18:46,919
ja, maar wacht even, dat is een hele andere moraliteit dan waar ik zelf voor sta...
307
00:18:46,919 --> 00:18:49,759
of dat is de data die ik eigenlijk helemaal niet wil gebruiken.
308
00:18:50,259 --> 00:18:52,199
Maar ik denk dat veel mensen daar niet eens over nadenken.
309
00:18:52,959 --> 00:18:55,919
Het is fantastisch wat er wordt geleverd.
310
00:18:56,099 --> 00:18:57,739
Het JTPT is natuurlijk indrukwekkend.
311
00:18:58,279 --> 00:19:00,759
Of een Gemini of alle andere AI-tools.
312
00:19:01,259 --> 00:19:02,399
Dat is ook indrukwekkend.
313
00:19:03,039 --> 00:19:05,699
Maar wees je ook heel erg bewust van hoe dat aan de achterkant zit.
314
00:19:07,539 --> 00:19:08,379
Maar dat is één, denk ik.
315
00:19:08,479 --> 00:19:09,199
Maar dat is dus één.
316
00:19:10,119 --> 00:19:11,419
Nee, maar dat is dus één.
317
00:19:11,539 --> 00:19:12,699
En daar begint het eigenlijk mee.
318
00:19:13,739 --> 00:19:19,659
Zorg dat mensen ook voldoende bewust zijn en kennis hebben van dit soort nieuwe tools.
319
00:19:22,359 --> 00:19:26,219
Maar dan ben je denk ik nog niet bij de stap waar jij bent.
320
00:19:26,419 --> 00:19:29,459
Dat je anders denkt dan alleen over de efficiëntie.
321
00:19:30,059 --> 00:19:32,079
Nou ja, daar begint het natuurlijk wel mee.
322
00:19:32,319 --> 00:19:32,779
Dat is één.
323
00:19:33,559 --> 00:19:36,999
Maar dan stap ik toch heel even uit dit verhaal over AI.
324
00:19:37,279 --> 00:19:39,719
Ik ben hier natuurlijk al wat langer mee bezig.
325
00:19:40,559 --> 00:19:44,499
En dit vraagt dus op een gegeven moment iets van leiderschap in organisaties.
326
00:19:44,639 --> 00:19:49,539
Daarom, ik begeleid programma's Leiderschap bij Digitale Transformatie.
327
00:19:49,619 --> 00:19:54,219
Dat is niet door even een half uurtje een podcastinterview te doen.
328
00:19:54,459 --> 00:19:56,379
Of een keer een inspiratiesessie.
329
00:19:56,659 --> 00:20:00,179
Bij de meeste mensen duurt dat vrij lang voordat dat kwartje valt.
330
00:20:01,199 --> 00:20:05,479
De programma's die ik begeleid zijn meestal toch minimaal 7, 8 maanden.
331
00:20:06,159 --> 00:20:12,379
Mensen die gaan zo'n programma volgen, dat zijn in het algemeen bestuurders of managementlaag van organisatie.
332
00:20:12,409 --> 00:20:16,679
En die worden gedurende de 7, 8 maanden meegenomen in dit anders denken.
333
00:20:17,499 --> 00:20:19,199
Leiderschap bij Digitaal Transformatie.
334
00:20:20,199 --> 00:20:26,159
Daarin worden ze langzamerhand meegenomen in hoe kijk je nou op een andere manier naar je eigen vraagstukken.
335
00:20:27,699 --> 00:20:28,919
hoe zou je andere dingen kunnen doen
336
00:20:28,919 --> 00:20:31,039
en overigens kan dat ook al heel klein
337
00:20:31,219 --> 00:20:34,439
het is niet meteen van zorg naar gezondheid
338
00:20:34,919 --> 00:20:36,359
je kunt al hele kleine dingen
339
00:20:36,679 --> 00:20:38,139
fundamenteel anders gaan organiseren
340
00:20:38,719 --> 00:20:39,839
om te kijken hoe je dat
341
00:20:40,639 --> 00:20:41,379
beter en anders kunt doen
342
00:20:41,619 --> 00:20:42,239
heb je een voorbeeld?
343
00:20:42,759 --> 00:20:44,159
een klein voorbeeld te noemen
344
00:20:44,838 --> 00:20:47,219
wat je eigenlijk steeds meer ziet
345
00:20:47,399 --> 00:20:48,599
en dat is niet alleen in de zorg
346
00:20:48,639 --> 00:20:50,659
maar dat geldt ook voor de politie of onderwijs
347
00:20:50,659 --> 00:20:53,419
we lopen overal tegen capaciteitsproblemen aan
348
00:20:53,939 --> 00:20:56,199
en wat je ziet
349
00:20:56,219 --> 00:20:58,939
Eigenlijk als je op een andere manier naar het werk gaat kijken.
350
00:20:59,599 --> 00:21:01,979
Hoe kun je het nou samen doen met anderen?
351
00:21:03,219 --> 00:21:04,179
Ik pak een voorbeeld.
352
00:21:04,339 --> 00:21:05,979
Dit is alweer tien jaar geleden denk ik.
353
00:21:06,719 --> 00:21:08,719
Bij toen en tijd T-Mobile, Odido.
354
00:21:10,039 --> 00:21:15,819
Waarin ze op een gegeven moment heel veel vragen via sociale media en alle kanalen binnenkregen op het customer service.
355
00:21:16,079 --> 00:21:16,599
Klantenservice.
356
00:21:17,439 --> 00:21:21,079
Waarbij je op een gegeven moment dat niet meer kunt bovenwerken.
357
00:21:21,959 --> 00:21:24,919
Waarbij ze toen zijn overgegaan naar klanten helpen klanten.
358
00:21:25,679 --> 00:21:32,919
Dus ze hebben eigenlijk een forum neergezet waarin een overgrote deel van de vragen die binnenkwamen toen bij T-Mobile.
359
00:21:33,519 --> 00:21:35,519
Werden beantwoord door andere klanten.
360
00:21:36,319 --> 00:21:41,299
En eigenlijk heb je dan vanuit klantenservice T-Mobile zelf nog maar een beperkt aantal mensen nodig.
361
00:21:41,299 --> 00:21:46,239
Die dat aan de achterkant de complexe vragen oppakken of ondersteuning.
362
00:21:46,339 --> 00:21:49,519
Eigenlijk werden ze steeds meer een soort van community manager.
363
00:21:50,199 --> 00:21:59,419
Dit is een heel simpel voorbeeld van hoe je dingen fundamenteel anders kunt organiseren en hoe technologie daarin kan ondersteunen.
364
00:22:00,119 --> 00:22:06,559
In plaats van dat je technologie inzet om alle vragen geoptimaliseerd en efficiënt te beantwoorden.
365
00:22:06,659 --> 00:22:09,539
Dan ben je op het oude manier de dingen aan het doen.
366
00:22:09,699 --> 00:22:13,199
Dit is een heel simpel voorbeeld van digitalisering, digitaal transformatie.
367
00:22:13,619 --> 00:22:14,519
En wel een heel mooi voorbeeld.
368
00:22:14,659 --> 00:22:18,419
Ik was bijna vergeten wat voor transformatie dat eigenlijk is geweest.
369
00:22:18,639 --> 00:22:23,759
Omdat het zo feilloos is ingesijpeld bij de mensen en het in gebruik genomen.
370
00:22:23,759 --> 00:22:24,659
Ze hebben het nu overal zien.
371
00:22:25,059 --> 00:22:28,019
Ja, en misschien een concreet voorbeeld van AI.
372
00:22:30,619 --> 00:22:32,919
Binnen de politie wordt nu gewerkt aan een kennisassistent.
373
00:22:33,719 --> 00:22:41,099
Dat is een AI-model waarin je moet je voorstellen dat medewerkers op een gegeven moment allerlei vragen over nieuwe wetgeving.
374
00:22:41,229 --> 00:22:42,779
Of nieuwe afspraken intern.
375
00:22:43,459 --> 00:22:44,759
Hoe ging dat in het verleden?
376
00:22:44,899 --> 00:22:49,399
Daar was jouw directe leidinggevende of een collega, die moest je daarin helpen.
377
00:22:51,319 --> 00:22:58,019
En het toegankelijk maken van kennis en experts op een goede manier op de juiste vragen.
378
00:22:58,239 --> 00:23:00,899
Nou, daar kan AI natuurlijk een enorme grote rol in spelen.
379
00:23:01,839 --> 00:23:05,139
En dat is dus niet het efficiënter maken van zoals we het nu al doen.
380
00:23:05,329 --> 00:23:08,479
Maar dit is echt op een hele andere manier dingen gaan organiseren.
381
00:23:08,539 --> 00:23:15,439
Dit zijn twee kleine voorbeelden hoe je dingen anders kunt organiseren en waarin AI of technologie dus een grote rol zou kunnen spelen.
382
00:23:16,579 --> 00:23:17,779
Je had het ook over de zorg.
383
00:23:18,379 --> 00:23:26,239
Wij hebben samen met ETZ, Elisabeth Tweesteden Ziekenhuis, voorlopen op het gebied van AI in de zorg.
384
00:23:26,619 --> 00:23:28,699
We zijn een kaartspel aan het ontwikkelen.
385
00:23:28,879 --> 00:23:31,159
Die komt bijna uit, die kan bijna besteld worden.
386
00:23:31,639 --> 00:23:34,719
Maar dan willen we ook een stelling uit het kaartspel aan jou voorleggen.
387
00:23:50,459 --> 00:23:52,419
En normaal gesproken doen we het kaartspel schudden.
388
00:23:52,479 --> 00:23:54,039
Maar zoals we zeiden, hij is er bijna.
389
00:23:54,979 --> 00:23:58,459
Nu vraag even een nummer tussen de 1 en de 38.
390
00:23:59,419 --> 00:23:59,759
Jeetje.
391
00:24:01,199 --> 00:24:01,399
13.
392
00:24:02,499 --> 00:24:03,399
Mijn geluksgetal.
393
00:24:04,759 --> 00:24:08,719
Oeh, ja, nee, noem maar een volgende. Ik zal zo de vraag voorlezen.
394
00:24:08,779 --> 00:24:10,339
Oké, nummer 7.
395
00:24:10,659 --> 00:24:11,279
Nummer 7.
396
00:24:13,019 --> 00:24:16,059
7. Ze valt in de categorie ethiek en maatschappij.
397
00:24:17,059 --> 00:24:20,659
En de vraag luidt als volgt. AI is niet duurzaam.
398
00:24:25,279 --> 00:24:28,579
Dat klopt. AI is op dit moment niet duurzaam.
399
00:24:28,739 --> 00:24:34,339
Kost veel energie, verbruikt veel water, grote CO2-uitstoot.
400
00:24:34,559 --> 00:24:36,539
Dus ja, nee, het is niet duurzaam.
401
00:24:37,979 --> 00:24:41,419
Maar dat is nu precies de essay waar ik ook over heb geschreven.
402
00:24:41,919 --> 00:24:43,019
Er zitten twee kanten aan.
403
00:24:43,139 --> 00:24:49,999
Ik denk dat we AI uiteindelijk ook wel kunnen inzetten om wel tot een duurzame samenleving te komen.
404
00:24:50,739 --> 00:24:51,679
En hoe zie je dat voor je?
405
00:24:52,139 --> 00:24:55,079
Nou ja, dat is dat voorbeeld wat ik straks al heel kort aanhaalde.
406
00:24:55,119 --> 00:24:58,139
Kunnen wij AI technologie ontwikkelen.
407
00:24:58,899 --> 00:25:02,559
Die ons de wereld een stukje beter maakt.
408
00:25:02,679 --> 00:25:05,059
In plaats van alleen maar te verbruiken.
409
00:25:05,599 --> 00:25:06,719
Dus daar moeten we naar zoeken.
410
00:25:06,799 --> 00:25:08,839
Ik heb geen concrete antwoorden.
411
00:25:09,479 --> 00:25:13,579
Maar ik denk wel als wij veel meer die inheemse kennis gaan gebruiken.
412
00:25:14,499 --> 00:25:16,779
Om te kijken hoe we dingen gaan inrichten.
413
00:25:16,879 --> 00:25:19,599
Dat wij al een aantal mooie stappen kunnen gaan maken.
414
00:25:20,899 --> 00:25:23,279
En zeker niet zoals we nu omgaan met AI.
415
00:25:23,939 --> 00:25:26,879
Nee, dat moet voor alles inzetten. Maar voor de luisteraar die hetzelfde is als ik,
416
00:25:26,959 --> 00:25:29,819
ik ga toch nog even de vraag voorlezen die ik niet heb voorgelezen.
417
00:25:30,199 --> 00:25:31,699
Dan zou die bij mij blijven hangen.
418
00:25:31,839 --> 00:25:34,199
Ik ben nu wel heel benieuwd naar vraag 13 dan.
419
00:25:34,519 --> 00:25:38,259
De vraag 13 was als volgt. Ik maak regelmatig gebruik van ChatGPT voor mijn werk.
420
00:25:38,899 --> 00:25:40,419
Ja, daar had ik ook die haal op gehoord.
421
00:25:41,679 --> 00:25:44,859
Wel bewust het trouwens. Steeds meer bewust dat ik dat gebruik.
422
00:25:45,739 --> 00:25:47,779
En hoe bedoel je dat? Hoe kies je bewust?
423
00:25:48,659 --> 00:25:52,959
Nou, dat je wel gaat nagaan van wil ik hier wel of niet AI voor inzetten.
424
00:25:53,259 --> 00:25:56,299
Ik ben enthousiast over AI.
425
00:25:56,799 --> 00:25:58,139
En ik zie alle mogelijkheden.
426
00:25:58,919 --> 00:26:02,659
En je bent geneigd om dan al heel snel overal AI voor in te zetten.
427
00:26:03,479 --> 00:26:06,799
Terwijl ik nu toch wel steeds meer naar denk van...
428
00:26:06,799 --> 00:26:07,819
wil ik dit nu zelf doen?
429
00:26:08,349 --> 00:26:08,639
Als mens.
430
00:26:09,539 --> 00:26:11,759
Of ga ik hier AI voor inzetten?
431
00:26:12,129 --> 00:26:14,079
Ben ik aan het digitaliseren of ben ik aan het digitaliseren?
432
00:26:14,079 --> 00:26:14,299
Ja toch?
433
00:26:15,069 --> 00:26:19,439
Maar wanneer heb je het voor het laatst niet ingezet?
434
00:26:19,459 --> 00:26:19,999
Ja, niet ingezet.
435
00:26:21,099 --> 00:26:27,559
Nou, de stukken die ik schrijf, in het begin gebruikte ik eigenlijk overal AI voor.
436
00:26:27,929 --> 00:26:33,459
Dus voor het schrijven van de stukken op basis van de prompts die ik meegeef en de input die ik geef.
437
00:26:33,999 --> 00:26:35,699
Voor het redigeren, et cetera.
438
00:26:36,019 --> 00:26:40,719
En ik ben eigenlijk steeds vaker dat ik denk van nee, ik ga eerst zelf schrijven.
439
00:26:41,819 --> 00:26:46,099
En op basis daarvan ga ik kijken of ik de tekst wat meer strakker kan maken.
440
00:26:46,199 --> 00:26:47,619
En daar gaat AI me wel in helpen.
441
00:26:47,739 --> 00:26:49,439
Dus toch meer zelf nadenken.
442
00:26:49,979 --> 00:26:55,459
Toch jouw inheemse kennis, Marko, die ga je eerst brengen voordat je er weer aan de slag laat gaan.
443
00:26:55,459 --> 00:27:02,079
Ik zag gisteren een artikel voorbij komen, Deloy, die in Australië nu een enorme boete heeft gekregen.
444
00:27:02,079 --> 00:27:03,679
Of in ieder geval terug moet betalen.
445
00:27:04,219 --> 00:27:06,699
Een opdracht die zij hebben gedaan voor de Australische overheid.
446
00:27:07,839 --> 00:27:14,519
Rapporten geschreven op basis van AI, waarin quotes in staan en bronnen worden genoemd die niet kloppen.
447
00:27:15,999 --> 00:27:20,639
Maar goed, we gaan dit de komende jaren, de komende maanden gaan we dit vaker zien.
448
00:27:20,819 --> 00:27:21,119
Zeker.
449
00:27:21,439 --> 00:27:26,159
Dat daar toch wel hele grote fouten in komen te zien door dit blind te gaan gebruiken.
450
00:27:26,319 --> 00:27:30,839
En we zitten langzamerhand, en daarom zeg ik, we moeten daar veel meer over nadenken.
451
00:27:31,159 --> 00:27:36,459
We zitten langzamerhand in een wereld waarin aan de ene kant AI wordt gebruikt om van alles te produceren.
452
00:27:36,639 --> 00:27:38,139
Rapport content.
453
00:27:38,459 --> 00:27:44,199
En aan de andere kant hebben we AI om dan weer samenvattingen te maken om die content überhaupt aan te kunnen.
454
00:27:45,439 --> 00:27:47,019
Als je het hebt over duurzaamheid.
455
00:27:48,739 --> 00:27:51,039
Dit is natuurlijk de grootste onzin die er is.
456
00:27:51,509 --> 00:27:53,159
Dus daar moeten we veel kritischer op zijn.
457
00:27:53,319 --> 00:27:56,619
En dat is ook weer dat kompas wat je nodig hebt.
458
00:27:57,539 --> 00:27:57,979
Leiderschap.
459
00:27:58,599 --> 00:27:59,819
Wanneer gebruik ik het wel en niet?
460
00:28:01,059 --> 00:28:02,239
Bij dat wel en niet.
461
00:28:02,649 --> 00:28:05,919
Wat ik steeds meer voorbij zie komen.
462
00:28:06,259 --> 00:28:09,959
Is dat als je een soort van betrapt wordt.
463
00:28:10,179 --> 00:28:12,139
Dat je AI voor iets hebt gebruikt.
464
00:28:13,379 --> 00:28:18,959
dat de waarde van jezelf of van wat je gemaakt hebt, dat dat naar beneden gaat.
465
00:28:21,079 --> 00:28:23,219
Terwijl, laat ik niet zeggen wat ik ervan vind.
466
00:28:23,489 --> 00:28:24,959
Ik ben benieuwd wat jij daarvan vindt.
467
00:28:25,879 --> 00:28:27,539
Ik denk dat dat een kwestie van tijd is.
468
00:28:27,569 --> 00:28:29,639
Ik denk dat dat op dit moment inderdaad het geval was.
469
00:28:29,819 --> 00:28:34,399
Maar dat was ooit met de rekenmachine en met alle hulpmiddelen was dat eigenlijk hetzelfde verhaal.
470
00:28:34,479 --> 00:28:39,559
Als je het zelf niet kon hoofdrekenen, dan was dat van minder waarde dan dat jij een rekenmachine gebruikt.
471
00:28:39,959 --> 00:28:43,059
En ik denk eerlijk gezegd dat we daar langzamerhand wel een keer overheenstappen.
472
00:28:43,739 --> 00:28:44,339
Dus dat
473
00:28:46,659 --> 00:28:47,959
Het schrijven van de essay
474
00:28:48,319 --> 00:28:48,779
Die ik heb gedaan
475
00:28:48,849 --> 00:28:50,939
Daar heb ik echt heel veel AI gebruikt
476
00:28:51,559 --> 00:28:52,779
Maar ook mijn eigen kennis
477
00:28:52,959 --> 00:28:55,719
En ook de kennis van een grote groep mensen
478
00:28:55,799 --> 00:28:56,739
Die hebben meegelezen
479
00:28:57,459 --> 00:28:57,899
Meegedacht
480
00:28:59,299 --> 00:29:01,519
Ik denk dat je AI juist
481
00:29:01,549 --> 00:29:03,159
Op een hele goede manier zou kunnen gebruiken
482
00:29:03,189 --> 00:29:03,819
Voor dit soort dingen
483
00:29:04,259 --> 00:29:06,919
En wat mij betreft gaat het dan ook om het eindresultaat
484
00:29:07,059 --> 00:29:08,739
Ik heb heel lang gefotografeerd
485
00:29:08,739 --> 00:29:09,379
Dat was hartstikke leuk
486
00:29:09,839 --> 00:29:11,839
Maar er werd natuurlijk ook altijd gevraagd
487
00:29:11,899 --> 00:29:13,999
heb je Photoshop gebruikt en hoeveel?
488
00:29:14,059 --> 00:29:16,779
En ik denk van, we zitten in een soort van Groundhog Day.
489
00:29:17,039 --> 00:29:18,819
We zijn weer terug, maar nu met schrijven.
490
00:29:20,139 --> 00:29:22,779
Terwijl ik toen ook zoiets had van, het gaat volgens mij om het eindresultaat.
491
00:29:22,939 --> 00:29:24,259
Dus het is goed of het is niet goed.
492
00:29:25,999 --> 00:29:29,839
En welke middelen je daarvoor gebruikt, lijkt me minder interessant.
493
00:29:30,079 --> 00:29:33,679
Er zijn natuurlijk heel veel mensen die nu proberen aan de hand van streepjes,
494
00:29:33,719 --> 00:29:37,939
van dingetjes, van je tussen aanhalingstekens te betrappen,
495
00:29:38,619 --> 00:29:41,599
dat je iets hebt gebruikt, waarvan zij vinden dat dat dan,
496
00:29:41,699 --> 00:29:45,799
Ja, dit is wat mij betreft echt een evolutie.
497
00:29:45,939 --> 00:29:46,759
Dit heeft tijd nodig.
498
00:29:47,029 --> 00:29:51,699
En ik denk dat op een gegeven moment dat we het allemaal heel normaal vinden dat we dit gebruiken.
499
00:29:51,789 --> 00:29:52,019
Ja toch?
500
00:29:52,319 --> 00:29:54,179
En als je het hebt over leiderschap.
501
00:29:54,419 --> 00:29:59,179
Denk ik dat je juiste tools moet gebruiken die je vooruit kunnen helpen.
502
00:29:59,479 --> 00:30:00,599
Ongeacht waar dat naartoe is.
503
00:30:01,899 --> 00:30:03,379
Ja, daar staan we hetzelfde in.
504
00:30:04,019 --> 00:30:05,779
Maar goed, dat is een evolutie.
505
00:30:05,949 --> 00:30:06,859
We zijn nog even bezig.
506
00:30:06,869 --> 00:30:09,119
We zien nu een enorme groei aan gebruik.
507
00:30:09,199 --> 00:30:09,819
Ik denk dat het goed is.
508
00:30:09,939 --> 00:30:11,599
Dan leren mensen wat het kan, wat het niet kan.
509
00:30:11,759 --> 00:30:13,119
en misschien moeten we nog meer leren
510
00:30:13,389 --> 00:30:15,579
hoe ontstaat zoiets en wat komt er al bij kijken.
511
00:30:16,239 --> 00:30:17,499
Hoeveel jaren zitten we daar nog in
512
00:30:17,529 --> 00:30:19,419
als we vooruitkijken? Want wanneer zijn we
513
00:30:19,519 --> 00:30:21,699
zover dat we inderdaad die transformatie
514
00:30:21,789 --> 00:30:23,339
in kunnen gaan? Voor een grotere groep.
515
00:30:23,539 --> 00:30:25,599
Er zijn al mensen mee bezig, er zijn al bedrijven
516
00:30:25,609 --> 00:30:25,999
mee bezig.
517
00:30:28,359 --> 00:30:29,399
Dat is het lastige
518
00:30:29,579 --> 00:30:31,619
denk ik, van naar de toekomst toe kijken.
519
00:30:31,709 --> 00:30:33,519
Ik denk dat niemand dat goed kan voorspellen.
520
00:30:34,319 --> 00:30:35,419
En ik zei straks al,
521
00:30:35,489 --> 00:30:37,079
ik ben in, moet ik even kijken,
522
00:30:37,229 --> 00:30:39,259
is dat in 1991 afgestudeerd.
523
00:30:39,659 --> 00:30:41,219
Mijn afstudeeronderwerp ging over AI.
524
00:30:41,519 --> 00:30:42,499
Over neurale netwerken.
525
00:30:42,969 --> 00:30:44,499
Over de modellen waar we het nu over hebben.
526
00:30:45,199 --> 00:30:46,159
En ik kwam op de markt.
527
00:30:46,159 --> 00:30:47,699
En er was gewoon geen baan in te vinden.
528
00:30:49,239 --> 00:30:51,059
Dus ik heb het te vroeg gepiekt.
529
00:30:51,159 --> 00:30:52,559
Dat was de tweede AI zomer.
530
00:30:53,259 --> 00:30:56,019
Ik heb acht jaar bij een farmaceutisch bedrijf gewerkt.
531
00:30:56,219 --> 00:30:58,659
En daar wel wat AI gebruikt.
532
00:30:58,659 --> 00:30:59,919
Maar eigenlijk hadden we te weinig data.
533
00:31:00,009 --> 00:31:01,079
Te weinige rekenkracht.
534
00:31:02,239 --> 00:31:03,279
Eind jaren negentig.
535
00:31:03,479 --> 00:31:04,659
Met de opkomst van internet.
536
00:31:05,279 --> 00:31:06,619
Er kwam voldoende data.
537
00:31:06,959 --> 00:31:08,339
De rekenkracht werd groter.
538
00:31:09,079 --> 00:31:10,919
Dus we zitten nu in die derde AI zomer.
539
00:31:11,119 --> 00:31:14,459
Ik denk eerlijk gezegd dat we misschien nog wel een dip gaan krijgen.
540
00:31:15,219 --> 00:31:16,299
Ik weet niet hoe jullie daar naar kijken.
541
00:31:16,519 --> 00:31:21,579
Maar de kans is vrij groot dat we toch weer in een kleine AI-bubbel zitten.
542
00:31:22,299 --> 00:31:25,039
Dat we op een gegeven moment de verwachtingen veel te hoog zijn geweest.
543
00:31:25,059 --> 00:31:28,359
Dat we op korte termijn daar weer een terugslag zien.
544
00:31:28,499 --> 00:31:31,499
Zeker ook richting wet- en regelgeving.
545
00:31:31,499 --> 00:31:35,179
Richting de ethische dilemma's waar we mee te maken hebben.
546
00:31:35,179 --> 00:31:37,879
Dus het zou zomaar eens kunnen dat we weer een klein dipje krijgen.
547
00:31:37,879 --> 00:31:39,699
En dan gaan we vervolgens naar die vierde AI-zomer.
548
00:31:39,859 --> 00:31:44,219
Dus het kan jaren zijn, maar het kan ook nog wel tien jaar duren voordat we er zover zijn.
549
00:31:44,479 --> 00:31:46,919
Ik denk dat het wel goed zou zijn als er een beetje een dipje zou komen.
550
00:31:46,959 --> 00:31:51,879
Want er is inderdaad zoveel fantasie wat er leeft van wat er nu allemaal zou kunnen.
551
00:31:52,619 --> 00:31:59,199
Ik moet zeggen dat ik in mijn praatjes ook heel veel juist weer terug met de voeten op aarde zette.
552
00:32:01,139 --> 00:32:02,639
Zeker rondom de zelflerendheid.
553
00:32:02,939 --> 00:32:06,639
Dus er is natuurlijk heel veel fantasie over van ja, maar als je een AI hebt,
554
00:32:06,819 --> 00:32:09,299
Die is dan op een of andere manier getraind.
555
00:32:09,439 --> 00:32:12,739
Die zet je in productie en die doet alles wat jij zou willen.
556
00:32:13,479 --> 00:32:14,739
Zo werkt het helaas niet.
557
00:32:15,099 --> 00:32:18,179
Het is keihard werken om ons systeem uiteindelijk in productie te krijgen.
558
00:32:18,509 --> 00:32:19,919
En daarna in productie te houden.
559
00:32:20,919 --> 00:32:24,119
Je vroeg net wat je allemaal moet doen.
560
00:32:24,259 --> 00:32:25,879
En één is het bewustzijn.
561
00:32:26,519 --> 00:32:30,439
Dat onderdeel van het leiderschap is ook wel kennis hebben.
562
00:32:30,619 --> 00:32:31,739
Hoe werkt het nou precies?
563
00:32:31,819 --> 00:32:34,839
Bewustzijn van hoe je daarmee om moet gaan.
564
00:32:35,699 --> 00:32:40,679
En het tweede is, en ik denk dat veel organisaties nog helemaal niet klaar zijn om AI op een goede manier in te zetten.
565
00:32:40,819 --> 00:32:42,079
We hebben de data nog niet op orde.
566
00:32:42,179 --> 00:32:46,459
We hebben de inhoudelijke processen eigenlijk nog niet goed kritisch over nagedacht.
567
00:32:46,459 --> 00:32:49,479
Of dat wel de processen zijn die we willen optimaliseren.
568
00:32:50,259 --> 00:32:52,119
Dat heeft te maken met die digitale transformatie.
569
00:32:55,438 --> 00:32:58,019
En ze noemen dat ook wel de semantische schuld.
570
00:32:58,059 --> 00:32:59,439
Ik weet niet of jullie die term kennen.
571
00:33:00,218 --> 00:33:04,319
Simone Cicero heeft daar een heel mooi paper of een artikel over geschreven.
572
00:33:05,679 --> 00:33:09,639
waarom leveren de AI-modellen op dit moment eigenlijk nog onvoldoende op?
573
00:33:09,879 --> 00:33:14,699
Omdat we gewoon in de organisatie zelf nog onvoldoende klaar zijn...
574
00:33:14,699 --> 00:33:16,799
om die AI-modellen daadwerkelijk ook in te zetten.
575
00:33:16,979 --> 00:33:19,679
Laten we eerst eens nader gaan over, hebben we de juiste data?
576
00:33:21,099 --> 00:33:22,539
Zijn de processen goed beschreven?
577
00:33:22,879 --> 00:33:26,019
Als die context niet klopt, wat we in die modellen stoppen...
578
00:33:26,279 --> 00:33:28,079
dan komt het dus ook bakker uit, klaar.
579
00:33:29,299 --> 00:33:32,159
En de adoptie en de kennis moet ook gewoon overal beschikbaar zijn.
580
00:33:32,239 --> 00:33:34,939
Hoe ga ik ermee om? Je kan de technologie klaar hebben staan.
581
00:33:35,299 --> 00:33:36,919
Maar dat wil niet zeggen dat het gelijk gebruikt gaat worden.
582
00:33:36,919 --> 00:33:39,399
De technologie was dertig jaar geleden eigenlijk al zover.
583
00:33:39,679 --> 00:33:45,679
Het gaat er vooral om van zijn wij als mens en zijn wij als infrastructuur binnen organisaties de data, etc.
584
00:33:46,339 --> 00:33:48,979
En wat is een stap die wij als mens kunnen doen in de goede richting?
585
00:33:50,239 --> 00:33:52,099
Nou ja goed, dat gaf ik net al aan.
586
00:33:52,119 --> 00:33:57,899
Ik denk dat het echt toch begint met zorg dat je voldoende begrijpt wat daar aan de achterkant gebeurt.
587
00:33:57,979 --> 00:34:01,459
Voordat je dat aan de voorkant echt goed kunt gaan inzetten.
588
00:34:02,339 --> 00:34:04,999
Dus dat is toch dat bewustzijn, het opleiden van mensen.
589
00:34:05,459 --> 00:34:06,699
Mensen meenemen je in.
590
00:34:07,299 --> 00:34:07,859
Dus dat is één.
591
00:34:08,179 --> 00:34:11,319
Tweede is de data en de infrastructuur binnen organisaties.
592
00:34:11,369 --> 00:34:14,599
Die moet echt al worden zijn voordat je zover bent.
593
00:34:14,799 --> 00:34:19,239
En het is prima om daar nu mee te spelen en te kijken van wat kan wel, wat kan niet.
594
00:34:19,779 --> 00:34:25,219
Maar ik verwacht op hele korte termijn niet echt de grote stappen die we kunnen gaan zetten.
595
00:34:25,599 --> 00:34:28,679
En hoe vertel je dat aan een organisatie dat we er nog niet klaar voor zijn?
596
00:34:30,379 --> 00:34:31,958
Nou ja, dat is uiteindelijk toch wel weer.
597
00:34:31,978 --> 00:34:34,099
door die opleidingen, de leerprogramma's
598
00:34:34,099 --> 00:34:35,239
om ze daarin mee te nemen.
599
00:34:35,799 --> 00:34:37,998
Dus aan de ene kant laten zien wat er wel mee kan,
600
00:34:38,739 --> 00:34:40,079
maar aan de andere kant ook de ethische
601
00:34:40,217 --> 00:34:42,079
dilemma's en zorgen
602
00:34:42,197 --> 00:34:44,159
dat ze daar hele bewuste keuzes in maken.
603
00:34:44,998 --> 00:34:46,119
En dat als ze er goed over
604
00:34:46,259 --> 00:34:47,799
nadenken, dat ze dan pas de echt
605
00:34:48,018 --> 00:34:49,099
grote stappen kunnen gaan zetten.
606
00:34:50,039 --> 00:34:52,279
Pak toch weer even dat gezondheidverhaal,
607
00:34:52,359 --> 00:34:53,299
zorg, gezondheid.
608
00:34:54,079 --> 00:34:55,178
Ik zie, en jullie zitten bij
609
00:34:56,418 --> 00:34:58,299
de ETH in Tilburg
610
00:34:58,438 --> 00:35:00,019
bijvoorbeeld, ik zie dat
611
00:35:00,079 --> 00:35:01,938
op dit moment in de ziekenhuizen
612
00:35:01,958 --> 00:35:04,079
AI vooral wordt ingezet om wat we
613
00:35:04,198 --> 00:35:06,198
nu doen, om dat efficiënter te doen.
614
00:35:06,938 --> 00:35:08,139
Neem als heel simpel voorbeeld
615
00:35:08,188 --> 00:35:09,698
het opnemen van gesprekken
616
00:35:10,839 --> 00:35:11,879
van patiënten of
617
00:35:12,208 --> 00:35:12,839
van de
618
00:35:14,279 --> 00:35:15,619
gesprekken met, ja, dus wat
619
00:35:16,269 --> 00:35:17,639
de artsen aan het doen zijn.
620
00:35:17,819 --> 00:35:19,799
En dat is prima, dat je dat heel mooi
621
00:35:19,899 --> 00:35:21,739
kan samenvatten en dat op een hele manier
622
00:35:22,339 --> 00:35:23,899
efficiënte manier in de systemen
623
00:35:23,979 --> 00:35:25,999
kunt krijgen. Maar de vraag is
624
00:35:26,079 --> 00:35:27,939
wat gaan wij met die tijd doen die daar
625
00:35:28,099 --> 00:35:30,059
vrijkomt? Gaat
626
00:35:30,059 --> 00:35:31,079
het ons dat echt helpen?
627
00:35:32,519 --> 00:35:36,299
en hiermee gaan we eigenlijk het oude paradigma optimaliseren.
628
00:35:36,979 --> 00:35:39,039
Een patiënt komt binnen, kijken welke ziekte het heeft
629
00:35:39,039 --> 00:35:41,139
en dan gaan we zorgen dat hij ziekte oplost.
630
00:35:41,699 --> 00:35:44,419
Maar waarom zetten we niet veel meer in op gezondheid?
631
00:35:44,599 --> 00:35:46,979
Waarom zetten we niet veel meer in op hoe zorgen we ervoor
632
00:35:47,179 --> 00:35:50,259
dat die mensen überhaupt niet in die spreekkamer komen?
633
00:35:51,659 --> 00:35:53,199
En gaan we daarop inzetten?
634
00:35:54,059 --> 00:35:57,999
Zorgen dat we onze voeding, de gezonde voeding binnenkrijgen,
635
00:35:58,079 --> 00:35:59,259
dat we voldoende bewegen?
636
00:36:00,239 --> 00:36:04,379
En ja, ik weet ook wel dat we er altijd te maken zullen hebben met mensen die ziek zijn.
637
00:36:04,449 --> 00:36:05,839
Dus zorg zal altijd blijven.
638
00:36:06,838 --> 00:36:11,519
Maar 90% van geld, middelen en aandacht gaat toch echt naar de zorg en niet naar gezondheid.
639
00:36:11,819 --> 00:36:13,139
En dat zou eigenlijk andersom moeten.
640
00:36:13,409 --> 00:36:14,099
Maar goed, dat is het.
641
00:36:15,799 --> 00:36:17,879
En hoe is dan de rol van de leiderschap?
642
00:36:17,979 --> 00:36:20,819
Want veel van de kennis wat er op de dagelijkse vloer gebeurt,
643
00:36:21,039 --> 00:36:23,439
ligt natuurlijk in dit geval als we de zorg even houden bij de artsen.
644
00:36:23,659 --> 00:36:25,599
En die kunnen natuurlijk dat stukje wat ze dagelijks doen,
645
00:36:25,819 --> 00:36:28,419
proberen dat efficiënter, slimmer, sneller te doen.
646
00:36:29,199 --> 00:36:30,179
en leiderschap.
647
00:36:30,879 --> 00:36:32,139
Hoe gaat die samenwerking?
648
00:36:33,119 --> 00:36:35,259
Dit kan je natuurlijk niet verwachten vanuit een arts
649
00:36:35,359 --> 00:36:37,619
of van een verpleegkundige, want die zitten in het systeem.
650
00:36:38,359 --> 00:36:39,879
Het hele financieringsmodel
651
00:36:40,339 --> 00:36:41,419
is gebaseerd op
652
00:36:41,479 --> 00:36:42,439
patiënten beter maken.
653
00:36:43,119 --> 00:36:45,259
Dus dat begint eigenlijk al vooral bij de overheid
654
00:36:45,379 --> 00:36:46,699
en op een heel ander niveau
655
00:36:47,479 --> 00:36:49,219
dat we naar onze systemen moeten kijken.
656
00:36:49,359 --> 00:36:50,959
Want zijn wij nog wel met het goede bezig?
657
00:36:50,959 --> 00:36:52,239
Dus ik hoop dat ze bij VWS
658
00:36:52,739 --> 00:36:53,939
en in de politiek...
659
00:36:53,939 --> 00:36:55,459
Maar ja, goed, dat is...
660
00:36:56,299 --> 00:36:58,418
Daar zul je uiteindelijk mensen moeten hebben
661
00:36:58,439 --> 00:37:03,439
die de visie hebben om op een gegeven moment echt een ander paradigma te kiezen.
662
00:37:03,549 --> 00:37:07,479
En nogmaals, dit geldt voor veiligheid, dit geldt voor zorg, gezondheid,
663
00:37:07,639 --> 00:37:13,279
dit geldt voor het onderwijs, dit geldt eigenlijk voor alle systemen die op dit moment vastlopen.
664
00:37:13,619 --> 00:37:17,899
Ja, en de maatschappelijke waardes die we binnen Nederland en binnen Europa willen hanteren inderdaad.
665
00:37:18,279 --> 00:37:21,419
En wat kunnen we daar als maatschappij, kunnen we daar wat in betekenen?
666
00:37:22,379 --> 00:37:23,919
Nou ja, zoveel mogelijk hierover praten.
667
00:37:24,299 --> 00:37:24,919
Dat scheelt al hè?
668
00:37:25,369 --> 00:37:27,159
Nee, maar daar begint het natuurlijk wel mee.
669
00:37:27,499 --> 00:37:34,219
Dit soort verhalen met elkaar delen, over nadenken, kleine experimenten doen, daar begint het mee.
670
00:37:35,179 --> 00:37:38,819
Ja, want wat je zegt, dat is nogal een complexe situatie waar je in terechtkomt.
671
00:37:38,919 --> 00:37:46,059
Want je kan het als één organisatie willen, maar als je de financiering anders invult, dan is dat schrikkelijk een keten eigenlijk.
672
00:37:46,719 --> 00:37:48,679
Nee, maar dit is een systeemverandering.
673
00:37:49,259 --> 00:37:58,679
En in mijn colleges en mijn verhalen over digitale transformatie laat ik ook zien dat zo'n fundamentele verandering van de samenleving,
674
00:37:58,679 --> 00:38:05,099
de digitale transformatie, wat voor mij niets anders is dan die vierde industriele revolutie, dat is ongeveer 50, 60 jaar.
675
00:38:05,399 --> 00:38:06,739
Het is niet iets van een paar jaar.
676
00:38:08,059 --> 00:38:09,999
En het is interessant van waar staan we dan nu?
677
00:38:10,449 --> 00:38:13,539
De verwachting is eigenlijk dat wij nu een beetje op dat kantelpunt staan.
678
00:38:14,089 --> 00:38:17,999
Dat we langzamerhand steeds meer voorbeelden zien waarin we dingen fundamenteel anders gaan doen.
679
00:38:18,079 --> 00:38:20,479
En toch weer het voorbeeld van de zorg.
680
00:38:20,949 --> 00:38:23,739
Ik weet niet of jullie het platform Alles is Gezondheid kennen.
681
00:38:24,659 --> 00:38:34,399
Maar daar zitten inmiddels al honderden instellingen, organisaties, die met elkaar aan het kijken zijn hoe ze de zorg echt fundamenteel kunnen veranderen.
682
00:38:34,499 --> 00:38:35,199
Dus het gebeurt al wel.
683
00:38:35,249 --> 00:38:36,619
En er zitten zorgverzekeraars bij.
684
00:38:36,759 --> 00:38:39,199
Er zitten ziekenhuizen, huisartsen.
685
00:38:40,039 --> 00:38:43,479
Dus ook uit het oude systeem zitten daar mensen en organisaties bij.
686
00:38:44,619 --> 00:38:49,159
Voordat wij zeg maar de hele financieringssysteem en alles veranderd hebben.
687
00:38:49,219 --> 00:38:49,879
Dat duurt nog wel even.
688
00:38:50,219 --> 00:38:55,979
En met dat financieringssysteem krijg je denk ik ook te maken met dat het niet mis mag gaan.
689
00:38:57,499 --> 00:39:00,739
Hoe zie je, want dit zijn best wel hele grote veranderingen.
690
00:39:00,899 --> 00:39:03,579
Nou die kan je niet vaak in één keer goed doen.
691
00:39:03,739 --> 00:39:05,319
Dus dan moet je gaan experimenteren.
692
00:39:06,019 --> 00:39:09,839
Dus hoe zouden we nou zeg maar dat je dat vertrouwen krijgt.
693
00:39:09,999 --> 00:39:14,199
dat experimenten ook zouden mogen, tussen aanhalingstekens mislukken,
694
00:39:14,299 --> 00:39:17,139
laten we zeggen dat je mag leren van experimenten.
695
00:39:18,279 --> 00:39:22,039
Nou ja, ook dat is weer vanuit toch weer de overheid,
696
00:39:22,259 --> 00:39:25,999
of in het geval van de zorg zul je naar de zorgverzekeraars moeten kijken.
697
00:39:26,879 --> 00:39:30,299
En ziekenhuis Bernhoven in Brabant,
698
00:39:32,799 --> 00:39:34,819
daar zat toen Peter Bennemeer als bestuurder.
699
00:39:36,019 --> 00:39:38,919
En die had een visie, dat heet De Droom.
700
00:39:39,199 --> 00:39:40,839
Daar heeft hij ook een heel mooi boek over geschreven.
701
00:39:42,259 --> 00:39:46,239
En daar hebben ze het voor elkaar gekregen om de financiering vanuit de zorgverzekeraars...
702
00:39:46,239 --> 00:39:47,959
dus niet op basis van ieder jaar te doen.
703
00:39:48,779 --> 00:39:51,259
Maar die hebben voor vijf jaar financiering gekregen...
704
00:39:51,259 --> 00:39:55,119
om binnen die vijf jaar ook een aantal grote experimenten op te pakken.
705
00:39:55,219 --> 00:39:55,839
Dat hebben ze ook gedaan.
706
00:39:56,099 --> 00:39:59,959
Dat hebben ook laten zien dat ze door dingen fundamenteel anders te organiseren...
707
00:39:59,959 --> 00:40:01,439
echt structureel goedkoper waren.
708
00:40:02,059 --> 00:40:03,999
Helaas is daar corona overheen gekomen.
709
00:40:04,089 --> 00:40:07,599
En dat heeft natuurlijk met name in Brabant een enorme impact gehad.
710
00:40:08,479 --> 00:40:14,119
Maar het is interessant om mensen als Peter Bennemeer, wat hij heeft gedaan.
711
00:40:14,359 --> 00:40:16,739
Dat heeft uiteindelijk dus laten zien dat het kan.
712
00:40:17,259 --> 00:40:20,839
Maar we moeten veel meer van dit soort grote experimenten toelaten.
713
00:40:20,979 --> 00:40:24,199
En dat begint toch echt bij, waar komt het geld vandaan?
714
00:40:24,239 --> 00:40:26,939
Is dat het ministerie? Zijn dat de zorgverzekeraars?
715
00:40:27,599 --> 00:40:31,539
In het geval van de politie zou je eigenlijk het ministerie van Justitie...
716
00:40:32,019 --> 00:40:37,219
daar zou je eigenlijk de ruimte moeten krijgen om een aantal van dit soort hele grote experimenten te doen.
717
00:40:38,179 --> 00:40:46,199
Door bijvoorbeeld te kijken van we kunnen wel, een van de grootste aandachtsgebieden binnen de politie is het oppakken van verwarde personen.
718
00:40:47,419 --> 00:40:52,219
En in sommige steden 50% van de capaciteit gaat daar naartoe.
719
00:40:53,239 --> 00:40:59,959
Terwijl aan de andere kant zou je kunnen zeggen van, hé maar hoe kunnen we nou voorkomen dat we zoveel verwarde personen in Nederland hebben?
720
00:41:00,639 --> 00:41:03,019
En dan zit je toch weer op hele andere treinen...
721
00:41:03,019 --> 00:41:05,199
dat misschien niet alleen te maken heeft met de politie...
722
00:41:05,199 --> 00:41:09,379
maar het heeft ook te maken met buurtwerk, onderwijs, noem maar op.
723
00:41:09,819 --> 00:41:11,379
Al die mensen bij elkaar...
724
00:41:11,559 --> 00:41:14,379
die zouden dus een aantal jaren de ruimte moeten krijgen...
725
00:41:14,779 --> 00:41:16,379
om een aantal van dit soort experimenten te doen.
726
00:41:16,919 --> 00:41:21,739
En dan is het wel interessant dat AI daar een hele grote rol in kan spelen.
727
00:41:22,039 --> 00:41:26,319
Door dingen goed te analyseren en te voorspellen.
728
00:41:28,619 --> 00:41:32,019
En we zitten ook nog best wel veel pilots die we in de praktijk zien.
729
00:41:32,459 --> 00:41:37,099
Hoe ga je dadelijk van zo'n grote pilot naar productie?
730
00:41:37,419 --> 00:41:39,359
Want dat zijn vaak uitdagingen bij bedrijven.
731
00:41:39,539 --> 00:41:40,159
Heel veel pilots.
732
00:41:40,399 --> 00:41:42,719
Pilot moeheid wordt ook wel gezegd.
733
00:41:43,199 --> 00:41:45,219
Hoe ga je van die pilot naar productie?
734
00:41:45,539 --> 00:41:47,299
Dit is wel een interessante.
735
00:41:47,559 --> 00:41:51,219
Want als je het hebt, toch weer terug naar digitalisering, digitale transformatie.
736
00:41:52,279 --> 00:41:55,999
Wat je in organisaties ziet is dat er vaak...
737
00:41:57,299 --> 00:42:00,599
Digitalisering, ik zeg ook dat het van A naar B gaat, dan weet je waar je naartoe gaat.
738
00:42:01,539 --> 00:42:04,379
En dat is in feite, daar kan je een technisch project van maken.
739
00:42:04,449 --> 00:42:07,539
Daar kun je KPIs aan hangen, daar kun je een business case voor uitrekenen.
740
00:42:07,579 --> 00:42:11,439
Je kunt je capaciteit inzetten, je geld, middelen, tijd.
741
00:42:12,979 --> 00:42:18,039
Maar waar we het hier over hebben, dat is van A naar anders, waarbij we niet exact weten waar we naartoe gaan.
742
00:42:18,879 --> 00:42:21,559
En dat betekent dus dat je dat op een hele andere manier moet aansturen.
743
00:42:21,739 --> 00:42:25,959
Dus wat we kunnen doen is ruimte creëren voor dit soort experimenten.
744
00:42:26,739 --> 00:42:30,839
En pas op het moment dat we die experimenten hebben gedaan, kunnen we ook zeggen wat wordt dan een volgende stap.
745
00:42:31,639 --> 00:42:35,279
Dus de vraag die jij nu zegt is, dat kan ik nu namelijk nog niet.
746
00:42:36,499 --> 00:42:38,899
Dat vinden mensen wel lastig als je niet weet waar je naartoe gaat.
747
00:42:39,759 --> 00:42:40,299
Dat is ook zo.
748
00:42:43,019 --> 00:42:48,759
Maar het is wel een interessante, een mooi verhaal over de Hatsa's.
749
00:42:50,159 --> 00:42:53,739
De Hadza's, dat zijn die inheemse stammen in Afrika.
750
00:42:53,809 --> 00:42:54,999
Ik weet niet of jullie ze kennen.
751
00:42:55,799 --> 00:42:56,559
Tanzania bijvoorbeeld.
752
00:42:58,159 --> 00:43:00,719
En daar hebben ze jaren geleden al experimenten gedaan...
753
00:43:00,719 --> 00:43:04,219
van hoe zij overleven in gebieden...
754
00:43:04,219 --> 00:43:07,919
waar als wij daar worden losgelaten, zijn wij binnen een paar uur dood.
755
00:43:09,019 --> 00:43:10,279
Dus hoe doen zij dat daar?
756
00:43:10,619 --> 00:43:13,059
Niet alleen op verweken de gevaarlijke dieren...
757
00:43:13,059 --> 00:43:15,459
maar ook het vinden van eten, et cetera.
758
00:43:16,619 --> 00:43:19,859
En daar hebben ze op een gegeven moment die Hadza's gevolgd.
759
00:43:19,979 --> 00:43:20,719
Hoe ze dat doen.
760
00:43:20,959 --> 00:43:24,039
En zij zijn dus op een gegeven moment op een bepaalde plek.
761
00:43:24,599 --> 00:43:26,959
Dus dat hebben ze met GPS gecoördineerd.
762
00:43:26,959 --> 00:43:30,139
Van hoe zij dan daar rondlopen door dat gebied heen.
763
00:43:31,139 --> 00:43:36,199
En het interessante is dat dat een soort van chaotisch patroon lijkt.
764
00:43:36,259 --> 00:43:38,699
Hoe zij door die wildernis heen lopen.
765
00:43:39,299 --> 00:43:41,879
En op een gegeven moment zie je dus een hele streep.
766
00:43:42,199 --> 00:43:43,799
Dat ze een grotere afstand aflekken.
767
00:43:44,219 --> 00:43:47,919
En dan weer chaotisch rondom een bepaald punt.
768
00:43:48,119 --> 00:43:49,899
En dan weer een grotere afstand.
769
00:43:50,919 --> 00:43:56,259
En het interessante is dat de Hadza's als die in een rechte lijn op hun doel afgaan.
770
00:43:56,359 --> 00:43:57,319
Dat is eigenlijk dodelijk.
771
00:43:58,179 --> 00:44:00,639
En wat je ziet is dat zij allemaal kleine experimenten aan het doen zijn.
772
00:44:00,899 --> 00:44:02,719
Totdat ze op een gegeven moment zien van hier moeten we naartoe.
773
00:44:03,299 --> 00:44:05,199
Dat kan het volgen van een vogel zijn.
774
00:44:05,459 --> 00:44:06,639
Of dat ze iets hebben ontdekt.
775
00:44:07,119 --> 00:44:08,799
Dit is de richting die we opmaken.
776
00:44:08,839 --> 00:44:10,239
En dan maken ze een grotere sprong.
777
00:44:11,579 --> 00:44:12,719
Dat is interessant.
778
00:44:13,319 --> 00:44:18,779
Dit soort inheemse volkeren, hoe zij overleven in een...
779
00:44:18,819 --> 00:44:20,019
En dat is geen rechte lijn.
780
00:44:20,099 --> 00:44:21,279
Zij gaan niet van A naar B.
781
00:44:22,059 --> 00:44:23,079
Zij gaan van A naar anders.
782
00:44:23,169 --> 00:44:25,919
En zij weten echt niet waar zij morgen terechtkomen.
783
00:44:27,038 --> 00:44:31,699
Dat principe zouden wij eigenlijk in de westerse samenleving ook veel meer moeten hebben.
784
00:44:31,799 --> 00:44:34,719
Gewoon zoeken welke richting moeten we op.
785
00:44:35,259 --> 00:44:38,739
En dan op een gegeven moment hebben we iets gevonden van dat werkt die kant op.
786
00:44:39,779 --> 00:44:40,479
Lijkt me een mooie.
787
00:44:42,219 --> 00:44:50,239
Wat zou je mensen die nu zitten, die het gevoel hebben dat ze nog aan het ronddwalen zijn.
788
00:44:52,278 --> 00:44:53,499
Nou deden ze dat maar.
789
00:44:53,859 --> 00:44:56,099
O ja, dat is dan het mooie toch? Gaan gaan dwalen.
790
00:44:56,419 --> 00:44:57,379
Daar begint het al mee.
791
00:44:58,119 --> 00:45:02,759
De meeste mensen die op dit moment AI inzetten, die zetten het in wat ze nu aan het doen zijn.
792
00:45:02,849 --> 00:45:04,019
Om dat efficiënter te doen.
793
00:45:04,539 --> 00:45:06,819
Dat kan goedkoper, sneller, efficiënter.
794
00:45:07,598 --> 00:45:08,999
Dat is nog helemaal niet dwalen.
795
00:45:09,049 --> 00:45:11,319
Dat is gewoon van een rechte lijn van A naar B.
796
00:45:11,999 --> 00:45:13,319
ze willen gewoon B halen
797
00:45:13,319 --> 00:45:15,139
en dat zo goedkoop en snel mogelijk
798
00:45:15,739 --> 00:45:17,679
dus als we een afsluitende tip
799
00:45:17,879 --> 00:45:19,359
mogen geven, ga dwalen
800
00:45:20,199 --> 00:45:21,019
nou ja dat is
801
00:45:21,759 --> 00:45:21,899
ja
802
00:45:23,119 --> 00:45:25,279
en het is misschien wel mooi om te eindigen
803
00:45:25,499 --> 00:45:27,279
met de quote waar ik aan het eind
804
00:45:27,279 --> 00:45:29,539
van mijn colleges eigenlijk ook altijd mee eindig
805
00:45:29,599 --> 00:45:30,679
ik vind de term
806
00:45:31,479 --> 00:45:33,459
digitale transformatie eigenlijk een verschrikkelijke term
807
00:45:33,639 --> 00:45:35,199
omdat het suggereert dat het gaat over
808
00:45:35,379 --> 00:45:36,099
digitale technologie
809
00:45:37,059 --> 00:45:39,179
terwijl het eigenlijk gaat over hoe kunnen wij
810
00:45:39,459 --> 00:45:41,459
nu op een hele andere manier naar onze eigen
811
00:45:41,479 --> 00:45:43,419
werk uitdaging
812
00:45:43,679 --> 00:45:43,839
kijken.
813
00:45:45,039 --> 00:45:47,059
En ik ben het dus ook anders gaan noemen.
814
00:45:47,859 --> 00:45:49,179
Een mentale transformatie
815
00:45:49,299 --> 00:45:50,739
in een digitale netwerksamenleving.
816
00:45:51,359 --> 00:45:53,299
Dus hoe kunnen wij onze eigen mindset,
817
00:45:53,519 --> 00:45:54,039
onze eigen
818
00:45:55,519 --> 00:45:57,039
manier waarop we naar dingen kijken
819
00:45:57,149 --> 00:45:58,419
echt fundamenteel gaan veranderen.
820
00:45:58,449 --> 00:46:00,419
En ik zou eigenlijk iedereen willen uitdagen.
821
00:46:01,439 --> 00:46:02,959
Ga je daarin trainen
822
00:46:03,009 --> 00:46:04,979
door alles wat je doet, om heel even
823
00:46:05,169 --> 00:46:07,359
te reflecteren van, is dit wel het goede
824
00:46:08,039 --> 00:46:09,139
wat ik nu eigenlijk moet gaan doen?
825
00:46:09,269 --> 00:46:10,659
Of zou ik het ook anders kunnen doen?
826
00:46:10,899 --> 00:46:12,779
Zou er ook een andere richting kunnen zijn?
827
00:46:13,439 --> 00:46:14,679
Probeer je daar eens in te trainen.
828
00:46:14,799 --> 00:46:20,159
Dus niet blind een ChatGPT te gebruiken om je stukje tekst samen te watten of te schrijven.
829
00:46:20,819 --> 00:46:26,299
Maar eerst stilstaan bij de vraag van wat is eigenlijk hier de opgave en zou ik dat op een andere manier kunnen doen?
830
00:46:26,819 --> 00:46:28,359
Mooi, mooi. Dankjewel.
831
00:46:28,819 --> 00:46:32,979
Dankjewel dat we zo'n mooi gesprek hadden over AI-leiderschap.
832
00:46:33,719 --> 00:46:36,079
En dat je naar de studio wilde komen.
833
00:46:38,639 --> 00:46:41,039
Leuk dat je weer luisterde naar deze aflevering van AIToday Live.
834
00:46:41,579 --> 00:46:44,039
Vergeet je niet te abonneren via je favoriete podcast app.
835
00:46:44,129 --> 00:46:45,159
Dan mis je geen aflevering.
836
00:46:45,519 --> 00:46:46,059
Tot de volgende keer.
837
00:46:46,139 --> 00:46:46,899
Tot de volgende keer.