
AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S07E53 - De verborgen kosten van AI: een filosofische benadering met Piek Knijff
Piek Knijff, directeur van Filosofie in actie, deelt haar inzichten over de ethische kant van AI in de podcast AIToday Live. Ze vertelt hoe haar achtergrond in filosofie en taalbeheersing haar leidde naar een rol als data-ethicus. Knijff legt uit hoe ze organisaties helpt bij het opstellen van waardekaders voor AI-projecten. Ze bespreekt ook haar onderzoek naar data-ethiek binnen de Belastingdienst. Tot slot geeft ze praktische vragen mee voor een kritische benadering van AI-implementatie.
Onderwerpen
- Data-ethiek en de rol van filosofie
- Fundamentele datavraagstukken
- Ethische overwegingen bij AI-implementatie
- Waardekaders voor digitalisering en AI-projecten
- Impact van AI op de maatschappij en milieu
Links
- Podcast: AIToday Live podcast
- Organisatie: Filosofie in actie
- Artikel: Impact Assessment op Mensenrechten en Algorithmen (IAMA)
- Filosoof: Jürgen Habermas
- Filosoof: Hans Jonas
- Onderwijs: Opleiding Gespreksleider Data Ethiek
- Documentaire: Klokhuis over AI
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: Filosofie in actie - Luciano Floridi - Belastingdienst - Eindhoven - Groningen - Leeuwarden - Nijmegen - Tilburg - Interprovinciaal Overleg - big tech
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:04,920
In deze aflevering praten we met Piek Knijff, directeur van Filosofie in Actie, over de
2
00:00:04,920 --> 00:00:10,320
ethische kant van AI, van haar onderzoek bij de Belastingdienst tot waarom ChatGPT misschien
3
00:00:10,320 --> 00:00:12,120
niet zo onschuldig is als het lijkt.
4
00:00:12,120 --> 00:00:17,639
We bespreken waarom organisaties niet alleen moeten vragen kunnen we dit, maar ook moeten
5
00:00:17,639 --> 00:00:18,639
we dit willen.
6
00:00:18,639 --> 00:00:21,719
En hoe gemeenten waardekaders ontwikkelen voor AI-projecten.
7
00:00:21,719 --> 00:00:26,879
Een gesprek vol verrassende inzichten over de verborgen kosten van AI die je anders doet
8
00:00:26,879 --> 00:00:28,600
nadenken over technologie.
9
00:00:28,600 --> 00:00:30,040
Dus blijf luisteren.
10
00:00:32,180 --> 00:00:46,580
Hoi, leuk dat je luistert naar AIToday Live. Mijn naam Joop Snijder, CTO bij Aigency
11
00:01:00,460 --> 00:01:03,120
Mijn naam is Piek Knijff. Ik ben directeur van Filosofie en Actie.
12
00:01:04,040 --> 00:01:06,040
Filosofie in Actie bestaat bijna 14 jaar.
13
00:01:06,440 --> 00:01:09,360
Ik ben ook filosoof van huis uit en ook Neerlandicus trouwens.
14
00:01:09,380 --> 00:01:10,840
En uit een onderwijskundige achtergrond.
15
00:01:10,840 --> 00:01:11,220
Zo dan.
16
00:01:11,360 --> 00:01:12,120
Via een hele
17
00:01:12,120 --> 00:01:17,700
ingewikkelde weg ben ik uiteindelijk mijn eigen onderneming gestart.
18
00:01:18,020 --> 00:01:21,040
Aanvankelijk in mijn eentje en nu met een klein team filosofen.
19
00:01:21,620 --> 00:01:26,500
En we houden ons bezig met de ethische reflectie op de inzet van technologie bij organisaties.
20
00:01:26,920 --> 00:01:27,440
En we helpen
21
00:01:27,440 --> 00:01:33,540
ze daar op heel veel verschillende manieren bij om het goede gesprek daarover te voeren en zorgvuldige afwegingen daarin te maken.
22
00:01:34,220 --> 00:01:38,540
En hoe ben je van de filosofie, zeg maar, beland in de wereld van AI?
23
00:01:39,420 --> 00:01:44,140
Ja, nou ja, dan moet ik misschien toch iets over dat traject voor mijn onderneming vertellen.
24
00:01:45,220 --> 00:01:49,260
Want achteraf is het altijd makkelijk praten. Ik weet niet of jullie dat kennen, maar dat je zo denkt, hoe ben ik hier naar terecht
25
00:01:49,260 --> 00:01:49,640
gekomen?
26
00:01:49,680 --> 00:01:52,240
Dat is eigenlijk hartstikke logisch.
27
00:01:52,840 --> 00:01:54,220
Want ik heb dus Nederlands gestudeerd.
28
00:01:54,360 --> 00:01:58,500
En mijn afstudeerrichting was taalbeheersing, argumentatie, theorie en retorica.
29
00:01:59,610 --> 00:01:59,900
En toen
30
00:01:59,900 --> 00:02:05,680
heb ik me bezig gehouden al met de argumentatie in een ethische discussie over medische innovatie.
31
00:02:06,900 --> 00:02:09,900
Dus dat is eigenlijk heel erg vergelijkbaar met wat ik nu doe.
32
00:02:09,990 --> 00:02:13,320
Maar ik vond dat toen gewoon een interessant debat.
33
00:02:13,500 --> 00:02:16,700
Ik dacht ik ga daar gewoon meer mee bezighouden.
34
00:02:17,180 --> 00:02:19,560
Uiteindelijk heb ik politieke en sociale filosofie gestudeerd.
35
00:02:20,540 --> 00:02:24,880
ook wel met andere vraagstukken bezig houden, maar wel heel veel met de trends van de tijd.
36
00:02:25,300 --> 00:02:28,980
Dus wat is er nu maatschappelijk gezien interessant of wat zorgt voor onrust?
37
00:02:29,520 --> 00:02:32,260
Waar houden mensen zich mee bezig en hoe kan de filosofie daarin helpen?
38
00:02:33,660 --> 00:02:36,160
Nou, een onderwijskundige uitstap gemaakt.
39
00:02:37,770 --> 00:02:40,680
En op een gegeven moment ben ik begonnen met filosofie in actie heel erg met het idee
40
00:02:41,040 --> 00:02:44,140
dat ik een brug zou kunnen slaan tussen de academische filosofie
41
00:02:44,280 --> 00:02:47,140
en eigenlijk de professionele praktijk binnen organisaties.
42
00:02:47,900 --> 00:02:52,340
Want ik kreeg in mijn eerste baan bij een NGO, kreeg ik te horen, je bent veel te academisch.
43
00:02:52,960 --> 00:02:54,940
En ik deed ook nog wel wat klussen aan de universiteit.
44
00:02:55,100 --> 00:02:56,720
En daar zeiden ze, je bent veel te praktisch.
45
00:02:57,280 --> 00:02:58,980
En toen dacht ik, oh nee, ik
46
00:02:58,980 --> 00:03:00,600
ben echt nergens op mijn plek.
47
00:03:01,959 --> 00:03:05,100
En toen heb ik bedacht, nee, maar wacht eens, is dit niet gewoon een talent?
48
00:03:05,180 --> 00:03:06,500
Dat ik dus beide talen weet te spreken.
49
00:03:06,580 --> 00:03:09,680
Ik spreek ze alleen nog niet op de juiste plek, op de juiste tijd.
50
00:03:10,480 --> 00:03:12,420
Dus met filosofie in actie heb ik heel erg beoogd.
51
00:03:12,960 --> 00:03:18,360
Om te denken van de filosofie heeft echt iets te bieden aan de alledaagse praktijk binnen organisaties.
52
00:03:20,880 --> 00:03:24,280
Maar dat gebeurt nog niet voldoende.
53
00:03:24,280 --> 00:03:26,720
En ik kan daar dus wellicht iets in betekenen.
54
00:03:26,800 --> 00:03:28,880
Omdat ik beide talen spreek.
55
00:03:29,540 --> 00:03:30,900
Dus dat ben ik gaan doen.
56
00:03:30,900 --> 00:03:33,140
En in eerste instantie echt in hele brede zin.
57
00:03:33,260 --> 00:03:37,720
Dus voor accountants en fysiotherapeuten, huisartsen, juristen.
58
00:03:37,780 --> 00:03:39,580
Wie er maar iets met filosofie wilde.
59
00:03:39,580 --> 00:03:41,540
En dan met name de praktische filosofie.
60
00:03:41,700 --> 00:03:43,400
Dus rondom morele vraagstukken.
61
00:03:43,980 --> 00:03:45,220
Maar ook wel verdiepende gesprekken.
62
00:03:45,340 --> 00:03:48,000
Dus kan je aannames bevragen, kritische denkvaardigheden trainen.
63
00:03:48,920 --> 00:03:50,980
En ik kwam, ik denk dat ik twee jaar onderweg was.
64
00:03:51,010 --> 00:03:53,020
Dus nog helemaal niet zo lang met mijn onderneming.
65
00:03:53,520 --> 00:03:56,380
Steeds meer in aanraking met data vraagstukken.
66
00:03:56,760 --> 00:03:58,620
En dan met name vanuit de privacy hoek.
67
00:04:00,480 --> 00:04:01,240
En dat vond ik heel interessant.
68
00:04:01,450 --> 00:04:06,500
Ik dacht, privacy was toen een beetje, de AVG was in
69
00:04:06,500 --> 00:04:07,420
ontwerpfase.
70
00:04:07,880 --> 00:04:07,940
Dus
71
00:04:07,940 --> 00:04:10,760
organisaties werden onrustig en dachten, daar moeten we iets mee.
72
00:04:11,859 --> 00:04:13,800
kunnen we niet nu al houvast zoeken?
73
00:04:13,960 --> 00:04:15,580
En dan kwamen ze uit bij een filosoof.
74
00:04:16,779 --> 00:04:17,079
Dat is wel
75
00:04:17,079 --> 00:04:17,579
grappig, toch?
76
00:04:18,180 --> 00:04:19,620
Weet je waarom?
77
00:04:19,760 --> 00:04:23,600
Want voor mij zou dat niet de eerste logische denkstap zijn, als ik heel eerlijk ben.
78
00:04:23,610 --> 00:04:23,720
Nee,
79
00:04:23,720 --> 00:04:24,520
dat denk ik ook.
80
00:04:26,020 --> 00:04:28,020
Ik moet zeggen, daar heb ik ook wel wat hulp bij gehad.
81
00:04:28,880 --> 00:04:32,220
Ik heb wat keuzes gemaakt en keuzes natuurlijk ook gekregen,
82
00:04:32,270 --> 00:04:34,120
of kansen gekregen van mensen die zeiden,
83
00:04:34,680 --> 00:04:40,360
we zijn bezig met een opleiding voor juristen over de privacywetgeving,
84
00:04:40,520 --> 00:04:41,680
Nu en wat eraan komt.
85
00:04:41,790 --> 00:04:43,360
Wil jij daar een rol in spelen als ethicus?
86
00:04:43,520 --> 00:04:46,779
Omdat het misschien ook goed is om dat wat breder aan te vliegen dan alleen maar juridisch.
87
00:04:48,320 --> 00:04:50,160
Nou ja, dan kom je in contact met organisaties.
88
00:04:50,260 --> 00:04:51,180
En die zien dan wat jij doet.
89
00:04:51,600 --> 00:04:53,740
En kan betekenen in het vinden van hou vast.
90
00:04:53,920 --> 00:04:55,940
Wat is voor onze organisatie hierin belangrijk?
91
00:04:56,620 --> 00:04:58,960
Gaan we het echt sec alleen maar op gegevensbescherming?
92
00:04:59,500 --> 00:05:03,200
Daar naar kijken of kijken we naar privacy als een bredere maatschappelijke waarde?
93
00:05:03,820 --> 00:05:04,540
Nou ja, die werden daar
94
00:05:04,540 --> 00:05:05,300
enthousiast van.
95
00:05:06,900 --> 00:05:09,280
En ik ben daar dus verder in gaan bekwamen.
96
00:05:09,440 --> 00:05:11,440
aanvankelijk heel erg vanuit die privacy hoek.
97
00:05:12,180 --> 00:05:13,660
En toen kwam ik er eigenlijk al vrij snel
98
00:05:13,940 --> 00:05:15,540
achter. Ja, maar als je bezig bent met gegevens,
99
00:05:16,800 --> 00:05:17,540
dan is eigenlijk
100
00:05:17,920 --> 00:05:19,480
privacy één van de vraagstukken.
101
00:05:19,560 --> 00:05:21,540
Er komen gewoon veel meer andere vraagstukken bij kijken.
102
00:05:22,240 --> 00:05:23,240
Ik noemde mezelf toen,
103
00:05:23,980 --> 00:05:25,580
ik ben filosoof en ik hou me bezig
104
00:05:25,580 --> 00:05:27,620
met privacy en ethiek. Inmiddels noem ik
105
00:05:27,700 --> 00:05:29,440
mezelf data-ethicus. Dat was een term
106
00:05:29,600 --> 00:05:31,460
die was er toen nog niet, maar ik was er eigenlijk
107
00:05:31,660 --> 00:05:32,480
al wel mee bezig.
108
00:05:34,500 --> 00:05:35,900
Nou, jij vroeg, hoe ben je bij AIT?
109
00:05:35,960 --> 00:05:37,180
Dit is een hele lange aanloop.
110
00:05:37,360 --> 00:05:37,680
Hoe ben je
111
00:05:37,680 --> 00:05:38,560
erbij terechtgekomen?
112
00:05:38,620 --> 00:05:39,400
Nou, long story
113
00:05:39,420 --> 00:05:41,580
short. Ik kwam achter daar eens meer te doen.
114
00:05:42,160 --> 00:05:43,200
Ik ben me daarin gaan verdiepen.
115
00:05:43,430 --> 00:05:45,500
In de andere ethische aspecten van de omgang met
116
00:05:45,580 --> 00:05:47,360
gegevens. En ondertussen nam ik natuurlijk de
117
00:05:47,500 --> 00:05:48,580
technologische ontwikkelingen toe.
118
00:05:49,460 --> 00:05:51,400
En van het een kwam het ander. Dus van
119
00:05:51,820 --> 00:05:53,300
data toepassingen wat simpeler.
120
00:05:53,350 --> 00:05:55,180
Of datadelingen of verwerkingen.
121
00:05:55,380 --> 00:05:57,300
Naar algoritmes, analytics,
122
00:05:57,800 --> 00:05:59,240
modellen. En toen
123
00:05:59,400 --> 00:06:01,060
naar bredere
124
00:06:01,530 --> 00:06:02,740
AI en generatieve AI.
125
00:06:03,720 --> 00:06:05,380
En wat zijn nu dan de...
126
00:06:05,480 --> 00:06:05,780
Sorry.
127
00:06:08,160 --> 00:06:09,320
We hebben zoveel te vragen.
128
00:06:09,380 --> 00:06:09,480
Ja,
129
00:06:10,020 --> 00:06:14,300
wat zijn nu dan eigenlijk de beginvragen waar ze bij je komen?
130
00:06:15,300 --> 00:06:16,960
Ja, dat hangt er vanaf wie er komt.
131
00:06:17,460 --> 00:06:19,320
Wij doen heel erg veel voor overheid.
132
00:06:19,620 --> 00:06:21,660
Ik moet zeggen, ook wel een beetje in de financiële sector.
133
00:06:22,020 --> 00:06:24,780
Dus banken, verzekeraars, pensioenfondsen.
134
00:06:25,240 --> 00:06:26,180
Maar heel veel overheid.
135
00:06:26,300 --> 00:06:32,620
Dus dan moet je denken aan ministeries, uitvoeringsorganisaties, waterschappen, provincies, gemeenten.
136
00:06:34,060 --> 00:06:34,460
Uitvoeringsorganisaties,
137
00:06:34,480 --> 00:06:34,980
had ik al gezegd.
138
00:06:36,540 --> 00:06:37,260
Nou ja, heel breed.
139
00:06:37,880 --> 00:06:40,220
Maar ook wel andere partijen in het maatschappelijk domein.
140
00:06:40,340 --> 00:06:42,780
Voor ons is het belangrijk dat er een maatschappelijk engagement is.
141
00:06:42,920 --> 00:06:45,020
Dus organisaties die puur voor profit gaan.
142
00:06:46,020 --> 00:06:48,460
Ik vind dan dat ethiek heel erg lastig wordt.
143
00:06:50,060 --> 00:06:52,380
Althans, ik vraag me af of ik dan mijn werk goed kan doen.
144
00:06:52,880 --> 00:06:54,680
En mijn collega's zijn het daar tot nu toe mee eens.
145
00:06:55,280 --> 00:06:57,100
Jij vroeg met wat voor vragen komen ze dan?
146
00:06:57,480 --> 00:07:00,640
Nou, bij de overheid kan je je voorstellen dat veelal een vraag is.
147
00:07:01,700 --> 00:07:04,620
Wij willen iets gaan doen met een algoritme of een model of iets.
148
00:07:05,780 --> 00:07:07,800
Maar we willen natuurlijk geen toeslagen schandaal.
149
00:07:08,280 --> 00:07:09,120
Dat is echt wel heel
150
00:07:09,120 --> 00:07:09,780
vaak een vraag.
151
00:07:11,480 --> 00:07:16,800
En dat is dan heel vaak, als deze vraag komt, heel erg gericht op een heel specifiek project.
152
00:07:17,200 --> 00:07:17,440
Dus we
153
00:07:17,440 --> 00:07:18,200
willen deze
154
00:07:18,200 --> 00:07:19,280
toepassing gaan doen.
155
00:07:20,160 --> 00:07:22,100
Maar we willen natuurlijk wel dat zorgvuldig doen.
156
00:07:22,640 --> 00:07:25,860
Het vertrouwen in de overheid is kwetsbaar, dus hoe doen we dat goed?
157
00:07:26,780 --> 00:07:28,740
Daarnaast doen we ook adviesopdrachten.
158
00:07:28,980 --> 00:07:32,560
Bijvoorbeeld nu op dit moment bij twee gemeenten en een ministerie.
159
00:07:34,100 --> 00:07:37,640
Waarbij de vraag is, hoe kunnen we hier nou goede gesprekken over voeren?
160
00:07:37,760 --> 00:07:39,980
En dan kom je echt bij inrichtingsvraagstukken uit.
161
00:07:40,120 --> 00:07:43,880
Dus bij twee gemeenten gaat het nu over het vormgeven van een waardekader.
162
00:07:44,320 --> 00:07:46,660
Dus dan ga je bepaalde waarden, dus een waardenset eigenlijk.
163
00:07:46,840 --> 00:07:48,260
Dus een set aan waarden definiëren.
164
00:07:48,940 --> 00:07:52,660
Van waaruit je eigenlijk elk digitaliseringsproject, dus dat is breder dan alleen AI.
165
00:07:53,959 --> 00:07:55,480
Gaat afwegen langs die waarden.
166
00:07:55,660 --> 00:08:00,240
Als wij deze waarden belangrijk vinden, hoe zorgen we dan dat we die in dit project mee kunnen nemen?
167
00:08:00,240 --> 00:08:03,440
En je kan ook tot de conclusie komen, dat kan dan eigenlijk niet, dat klopt niet.
168
00:08:04,260 --> 00:08:06,080
Dan moeten we daar nog eens even heel goed over nadenken.
169
00:08:06,540 --> 00:08:11,520
Dat zijn dan de kernwaarden van de organisatie of de afdeling die daar naar boven komen?
170
00:08:11,780 --> 00:08:14,140
Nee, dat zijn nieuwe waardes.
171
00:08:15,020 --> 00:08:16,020
En dit is wel interessant.
172
00:08:16,220 --> 00:08:20,200
Ik heb daar toevallig deze week heel veel gesprekken over gevoerd met waar gaat dit nou heen.
173
00:08:20,280 --> 00:08:22,420
Want dan heb je dus binnen een organisatie al kernwaarden.
174
00:08:23,020 --> 00:08:24,360
Dus een gemeente staat ergens voor.
175
00:08:24,980 --> 00:08:26,240
Er zijn er vaak drie of vier.
176
00:08:27,700 --> 00:08:29,100
En dan zeggen ze, ja, maar wacht eens even.
177
00:08:29,140 --> 00:08:32,840
Als het gaat om digitaliseringsprojecten, zijn die belangrijk?
178
00:08:33,440 --> 00:08:37,159
Maar wellicht ook wel andere waarden die we daarin toch ook wel echt mee willen nemen.
179
00:08:37,500 --> 00:08:38,740
Zou je daar een voorbeeld van kunnen noemen?
180
00:08:39,460 --> 00:08:40,299
Ja, zeker.
181
00:08:41,340 --> 00:08:44,640
Er is bijvoorbeeld onderzoek gedaan door het Raternau Instituut echt al jaren geleden.
182
00:08:45,780 --> 00:08:51,000
Naar welke waarden er eigenlijk in digitaliseringsprojecten bij gemeenten belangrijk worden gevonden in de afweging.
183
00:08:51,000 --> 00:08:52,360
Het is een beetje descriptief onderzoek.
184
00:08:52,360 --> 00:08:55,100
Het is beschrijvend wat komen we tegen in die afwegingen.
185
00:08:55,940 --> 00:08:58,160
En dat wordt ook wel een publieke waardeset genoemd.
186
00:08:58,220 --> 00:09:01,560
Dus dat zijn eigenlijk waarden die ongeacht welke gemeente waar die is in het land.
187
00:09:01,940 --> 00:09:02,920
Eigenlijk wel belangrijk worden
188
00:09:02,920 --> 00:09:03,240
gevonden.
189
00:09:03,420 --> 00:09:06,900
Zoals rechtvaardigheid, autonomie, transparantie.
190
00:09:07,180 --> 00:09:08,019
Nou dat soort waarden.
191
00:09:08,440 --> 00:09:08,820
Veel
192
00:09:08,820 --> 00:09:09,060
meer.
193
00:09:09,620 --> 00:09:13,360
En je ziet nu dat als zo'n gemeente komt met die vraag rondom een waardeset.
194
00:09:14,400 --> 00:09:16,680
Dan willen ze op zich iets met die publieke waarden.
195
00:09:16,740 --> 00:09:19,140
Maar daar moet ook nog iets eigens in
196
00:09:19,140 --> 00:09:19,440
zitten.
197
00:09:19,800 --> 00:09:20,440
Want het is jouw
198
00:09:20,440 --> 00:09:21,100
organisatie.
199
00:09:21,280 --> 00:09:22,280
En die staat ergens voor.
200
00:09:23,040 --> 00:09:26,960
Dus dan gaan wij via verschillende sessies in een adviestraject kijken.
201
00:09:27,040 --> 00:09:31,780
naar hoe kunnen we een soort weg vinden die aansluit enerzijds bij dat eigen geluid en die kernwaarde.
202
00:09:31,790 --> 00:09:32,380
En anderzijds
203
00:09:32,380 --> 00:09:35,120
ook wel die publieke waarde voldoende vertegenwoordigt.
204
00:09:35,760 --> 00:09:39,240
En dan zie je wel waardekaders ontstaan die best wel op elkaar lijken.
205
00:09:40,060 --> 00:09:44,280
Dus ik ben in 2020 was het geloof ik bij de gemeente Eindhoven betrokken.
206
00:09:44,720 --> 00:09:46,780
Dat was toen een van de eerste gemeenten in Nederland.
207
00:09:47,980 --> 00:09:49,540
Utrecht was er al wel mee bezig toen ook.
208
00:09:49,910 --> 00:09:50,420
En Amsterdam.
209
00:09:50,890 --> 00:09:54,600
Maar Eindhoven was ook een van de eerste die zo'n waardekader ging vormgeven.
210
00:09:54,740 --> 00:09:57,900
En daar kregen andere gemeenten natuurlijk van te horen.
211
00:09:57,940 --> 00:09:58,680
En die dachten, willen dat ook?
212
00:09:58,820 --> 00:10:02,100
En dan zie je, daarna zijn we bij Groningen, Leeuwarden.
213
00:10:02,880 --> 00:10:04,640
Nu bij Nijmegen en Tilburg betrokken.
214
00:10:04,980 --> 00:10:07,700
Dat lijkt allemaal een beetje op elkaar, maar dan krijg je een lokaal sausje.
215
00:10:07,780 --> 00:10:11,320
Dus Groningen wil de per se de waarden nuchterheid erin.
216
00:10:11,600 --> 00:10:11,960
Oké.
217
00:10:12,400 --> 00:10:13,720
Ja, want dat past bij Groningen.
218
00:10:14,400 --> 00:10:17,080
Dus dat betekent dat ze niet met elke hype meelopen.
219
00:10:17,280 --> 00:10:17,560
En
220
00:10:17,560 --> 00:10:22,400
dat zag je heel erg duidelijk terug toen de ethische commissie iets ging zeggen over het ChatGPT.
221
00:10:22,660 --> 00:10:22,860
Dus de
222
00:10:22,860 --> 00:10:23,340
oproep van het
223
00:10:23,340 --> 00:10:24,400
ChatGPT bij de gemeente.
224
00:10:25,180 --> 00:10:30,540
Nou, daar werd natuurlijk door ambtenaren, waar wij ook kwamen, heel veelvuldig mee geëxperimenteerd en mee gewerkt.
225
00:10:31,220 --> 00:10:34,280
En Groningen zei, maar wacht eens even, bij ons pas nuchterheid.
226
00:10:34,370 --> 00:10:39,680
Wij gaan toch een soort, behoudend is misschien niet helemaal het goede woord, maar daar nuchter mee om.
227
00:10:39,940 --> 00:10:41,740
Dus we springen niet meteen op die trein.
228
00:10:41,770 --> 00:10:45,340
We willen eens even kijken wat dat precies doet en wat daar precies de overwegingen zijn.
229
00:10:46,040 --> 00:10:48,520
Alvorens dat breed te gaan omarmen.
230
00:10:48,880 --> 00:10:49,660
Oh ja, en
231
00:10:49,660 --> 00:10:50,080
Eindhoven
232
00:10:50,080 --> 00:10:52,780
dan? Dat zitten we een heel stuk zuidelijker.
233
00:10:53,000 --> 00:10:56,840
Ja, bij Eindhoven zijn de...
234
00:10:57,370 --> 00:11:02,500
Nou ja, voor mij is dat een beetje de eerste versie waarmee ik heb
235
00:11:02,500 --> 00:11:02,880
gewerkt.
236
00:11:03,380 --> 00:11:06,540
Ik kan daar niet echt een lokaal sausje ontdekken.
237
00:11:07,260 --> 00:11:11,520
Die lijkt eigenlijk best wel op die waarde die het Ratenauw Instituut heeft vormgegeven.
238
00:11:11,600 --> 00:11:14,540
Alleen hebben we die wel heel erg sterk getoetst aan de waarde.
239
00:11:16,140 --> 00:11:20,040
Die in casussen binnen de organisatie zelf naar voren kwamen.
240
00:11:20,240 --> 00:11:22,720
En bij de gemeenteraad, want die was er ook bij betrokken.
241
00:11:23,140 --> 00:11:25,260
Want uiteindelijk is het door de gemeenteraad ook ingestemd.
242
00:11:28,439 --> 00:11:30,940
Dus daar is er niet zo eentje waarvan ik zeg.
243
00:11:31,020 --> 00:11:31,760
Dat is typisch
244
00:11:31,760 --> 00:11:32,620
Eindhoven's.
245
00:11:32,620 --> 00:11:36,200
Ik weet wel dat Leeuwarden, die heeft Mienskip daarin.
246
00:11:37,160 --> 00:11:37,560
Fries.
247
00:11:38,320 --> 00:11:40,900
Dit is niet mijn beste Fries, sorry voor de Friese luisteraars.
248
00:11:41,000 --> 00:11:43,120
Maar dat gaat over gemeenschap.
249
00:11:43,240 --> 00:11:46,300
Zij zeggen, bij ons is gemeenschapszin heel erg belangrijk.
250
00:11:47,220 --> 00:11:50,460
Dus als we digitaliseringsprojecten vormgeven,
251
00:11:50,640 --> 00:11:53,460
dan moet iets van dat aspect er ook in terugkomen.
252
00:11:53,530 --> 00:11:53,740
Oh ja.
253
00:11:54,410 --> 00:11:54,500
Ja.
254
00:11:55,640 --> 00:11:58,519
En uiteindelijk voor bedrijven is het natuurlijk minstens net zo interessant...
255
00:11:59,110 --> 00:12:03,420
dat je je kernwaardes uiteindelijk doorlaat zijpelen in je AI-beleid...
256
00:12:03,420 --> 00:12:04,680
en eigenlijk in alles wat je doet.
257
00:12:05,300 --> 00:12:06,860
Ja, en daar zie je dus echt een kloof.
258
00:12:06,870 --> 00:12:08,900
Dat zie ik echt bij heel veel organisaties.
259
00:12:08,910 --> 00:12:13,900
Dus je hebt dan mensen die, noem willekeurig wat functietitels...
260
00:12:13,900 --> 00:12:16,120
met innovatie erin of AI of wat dan ook.
261
00:12:16,290 --> 00:12:18,640
Dus een beetje de voortrekkers op dit gebied.
262
00:12:19,960 --> 00:12:22,180
Die gaan natuurlijk heel erg denken vanuit de mogelijkheden.
263
00:12:22,240 --> 00:12:25,220
Dus wat heeft deze toepassing ons te bieden als organisatie?
264
00:12:26,100 --> 00:12:27,880
En als je dan inderdaad aankomt wat ik dan doe.
265
00:12:27,890 --> 00:12:31,300
Ja, maar hoe zit het dan met de kernwaarden en sluit dat daar dan lekker op aan?
266
00:12:32,000 --> 00:12:34,000
Dan is dat niet het eerste waaraan is gedacht.
267
00:12:34,720 --> 00:12:36,540
En kennen de mensen de kernwaarden?
268
00:12:36,580 --> 00:12:36,900
Heel
269
00:12:36,900 --> 00:12:37,560
vaak ook niet.
270
00:12:38,410 --> 00:12:40,140
Nee, ik was ook een keer bij een organisatie.
271
00:12:40,370 --> 00:12:41,460
En toen was het heel grappig.
272
00:12:41,580 --> 00:12:43,820
Toen werd er zo koffie binnengebracht op nieuw servies.
273
00:12:44,940 --> 00:12:45,780
En toen zeiden ze.
274
00:12:46,500 --> 00:12:48,200
Ja, want we hebben een nieuwe branding.
275
00:12:49,120 --> 00:12:50,300
En nieuwe kernwaarden.
276
00:12:50,310 --> 00:12:53,120
En dit servies past dan ook helemaal bij de look and feel van de
277
00:12:53,120 --> 00:12:53,960
organisatie.
278
00:12:55,160 --> 00:12:55,680
En toen vroeg ik.
279
00:12:55,820 --> 00:12:56,960
Oh, ik ben wel benieuwd dan.
280
00:12:57,100 --> 00:12:59,520
Ik zit hier natuurlijk om dat gesprek te voeren.
281
00:12:59,660 --> 00:13:00,960
Wat zijn dan nu de nieuwe kernwaarden?
282
00:13:01,080 --> 00:13:02,760
Ja, dat wisten ze eigenlijk ook niet precies.
283
00:13:03,250 --> 00:13:05,660
Want de afdeling communicatie had die vorm gegeven.
284
00:13:05,960 --> 00:13:06,360
En
285
00:13:06,360 --> 00:13:07,460
dat is natuurlijk wel tricky.
286
00:13:08,560 --> 00:13:09,700
Als in ergens heel goed.
287
00:13:09,840 --> 00:13:12,240
Afdeling communicatie moet erbij betrokken zijn.
288
00:13:12,780 --> 00:13:15,220
Maar het moet niet alleen maar iets voor naar buiten zijn.
289
00:13:15,350 --> 00:13:18,440
Het moet natuurlijk doorleefd en doorvoeld worden in de hele organisatie.
290
00:13:18,600 --> 00:13:22,260
Niet alleen maar kijk, dit is hoe wij ons presenteren.
291
00:13:22,310 --> 00:13:22,400
Nee,
292
00:13:22,540 --> 00:13:23,580
dit is ook echt wat wij doen.
293
00:13:24,800 --> 00:13:25,920
Van en door, voor elkaar.
294
00:13:26,860 --> 00:13:27,220
Ja, toch?
295
00:13:27,940 --> 00:13:28,300
Absoluut.
296
00:13:28,900 --> 00:13:30,160
En dat heeft ook tijd nodig.
297
00:13:30,360 --> 00:13:32,040
Dus ik kan me voorstellen als zoiets wordt gepresenteerd.
298
00:13:32,100 --> 00:13:33,900
Ik weet, ik ben daarna niet meer geweest.
299
00:13:33,900 --> 00:13:34,820
Ik zou nog eens moeten vragen.
300
00:13:34,940 --> 00:13:35,080
En?
301
00:13:35,320 --> 00:13:36,060
Kent iedereen ze nu?
302
00:13:37,640 --> 00:13:38,220
Ken jij ze, Niels?
303
00:13:38,960 --> 00:13:41,800
Ja, passie, vakmanschap, integriteit en solidariteit.
304
00:13:42,860 --> 00:13:43,220
Solidariteit.
305
00:13:43,920 --> 00:13:44,280
Solidariteit.
306
00:13:45,640 --> 00:13:45,960
Dus
307
00:13:45,960 --> 00:13:49,180
wij bieden naast die innovatieve
308
00:13:49,180 --> 00:13:50,600
zaken.
309
00:13:51,120 --> 00:13:52,020
Dat klinkt allemaal heel mooi.
310
00:13:52,460 --> 00:13:54,360
Maar wij zeggen, maar dat moet ook solide
311
00:13:54,360 --> 00:13:54,980
zijn.
312
00:13:55,860 --> 00:13:56,400
Bestendig ook.
313
00:13:56,940 --> 00:13:57,660
Bestendig, precies.
314
00:13:58,580 --> 00:13:59,860
Niet alleen maar gaan rennen.
315
00:14:00,240 --> 00:14:00,500
Je
316
00:14:00,500 --> 00:14:02,580
moet ook die marathon vol kunnen houden.
317
00:14:02,820 --> 00:14:02,980
Inderdaad.
318
00:14:03,170 --> 00:14:03,940
Dat is een
319
00:14:03,940 --> 00:14:05,060
marathon, het is geen sprint.
320
00:14:05,130 --> 00:14:05,840
Je kan sprints doen.
321
00:14:06,130 --> 00:14:07,240
Ja, maar dan hou je je, dan red je het niet.
322
00:14:07,240 --> 00:14:07,940
Het is voor de marathon.
323
00:14:09,420 --> 00:14:09,780
Heel
324
00:14:09,780 --> 00:14:10,020
goed.
325
00:14:10,300 --> 00:14:13,020
Wij zijn net bezig met de verandering van onze kernwaarden.
326
00:14:13,090 --> 00:14:15,260
Dus ik kan ze niet zo opleveren, want ze zijn nog work in progress.
327
00:14:17,540 --> 00:14:18,840
Ik heb twee vragen.
328
00:14:19,170 --> 00:14:22,640
Ik begin even met de eerste vraag toen Joop inderdaad even nog zo'n vraag wilde stellen.
329
00:14:23,640 --> 00:14:24,900
Je noemde net data-ethicus.
330
00:14:25,180 --> 00:14:25,460
Toen was het
331
00:14:25,460 --> 00:14:28,500
wel geen woord, maar even voor mij en ook voor de luisteraars.
332
00:14:28,780 --> 00:14:31,240
Wat versta jij onder data-ethiek?
333
00:14:31,920 --> 00:14:32,760
Ja, een hele goede vraag.
334
00:14:33,440 --> 00:14:42,420
Ik hanteer eigenlijk nog steeds het onderscheid dat Floridi, hoogleraar, maakte in 2015 of 2016 was het geloof ik.
335
00:14:44,220 --> 00:14:45,640
En hij heeft een IT-achtergrond.
336
00:14:45,740 --> 00:14:47,600
Volgens mij is hij hoogleraar computerwetenschap.
337
00:14:48,859 --> 00:14:50,240
Dat zeg ik vast niet helemaal goed.
338
00:14:50,960 --> 00:14:53,720
Maar hij houdt zich ook bezig met ethische kwesties rondom...
339
00:14:53,780 --> 00:14:57,560
Althans zo gaandeweg is hij zich daar steeds meer bezig gehouden rondom technologie.
340
00:14:58,419 --> 00:15:02,740
En hij is een van de eerste, dus eigenlijk rond 2016, die zegt...
341
00:15:02,740 --> 00:15:03,500
Hé, maar wacht eens even.
342
00:15:03,660 --> 00:15:08,240
We hebben ethiek van de zorg en van allerlei andere domeinen.
343
00:15:09,080 --> 00:15:11,319
Maar moeten we dat eigenlijk ook niet hebben rondom technologie...
344
00:15:12,140 --> 00:15:14,400
En dan met name data gedreven toepassingen.
345
00:15:14,540 --> 00:15:16,500
Hij zag daar echt wel ethische vraagstukken.
346
00:15:16,500 --> 00:15:18,520
En hij heeft dan in een wetenschappelijk artikel.
347
00:15:19,960 --> 00:15:22,220
Rond 2016 heeft hij eigenlijk onderscheid gemaakt.
348
00:15:22,280 --> 00:15:23,600
En ik hanteer dat onderscheid nog steeds.
349
00:15:23,740 --> 00:15:25,660
Dus ik kan dat nu vertellen.
350
00:15:26,300 --> 00:15:30,680
Hij zegt eigenlijk zijn er drie verschillende type vraagstukken.
351
00:15:31,040 --> 00:15:32,160
Als je bezig bent met data.
352
00:15:33,380 --> 00:15:35,040
De eerste is heel fundamenteel.
353
00:15:35,080 --> 00:15:36,800
Het zijn echt fundamentele data vraagstukken.
354
00:15:36,900 --> 00:15:39,180
Dus hoe komen de gegevens tot stand?
355
00:15:39,360 --> 00:15:39,720
Of waar
356
00:15:39,720 --> 00:15:40,540
komen ze vandaan?
357
00:15:40,540 --> 00:15:41,400
Wat zijn de bronnen?
358
00:15:41,660 --> 00:15:43,840
Kloppen die wel of zijn die wel betrouwbaar?
359
00:15:46,400 --> 00:15:48,960
Gegevensdeling, verwerking en simpele datatoepassingen.
360
00:15:49,840 --> 00:15:50,580
Dat is één.
361
00:15:50,790 --> 00:15:52,540
Wie ook wie hebben er toegang, wordt ermee gewerkt.
362
00:15:53,760 --> 00:15:57,680
Tweede is dan ethiek van algoritmes en modellen.
363
00:15:58,740 --> 00:16:02,460
Dat is inmiddels een beetje ook een apart vakgebied.
364
00:16:02,620 --> 00:16:05,000
Ik vind eigenlijk dat dat geïntegreerd moet zijn met elkaar.
365
00:16:05,150 --> 00:16:06,700
Dus dataethiek en AI-ethiek.
366
00:16:07,840 --> 00:16:08,840
Maar dat gaat dus heel erg over.
367
00:16:08,980 --> 00:16:11,460
En als je dan die gegevens weer gaat toepassen in een model.
368
00:16:12,060 --> 00:16:14,500
Dan voeg je eigenlijk een extra complexiteit in het vraagstuk.
369
00:16:14,600 --> 00:16:16,000
Want je bent met gegevens aan het werk.
370
00:16:16,120 --> 00:16:17,040
Daar zijn al allerlei
371
00:16:17,040 --> 00:16:17,840
vraagstukken over.
372
00:16:18,160 --> 00:16:18,940
Dus waar komen ze vandaan?
373
00:16:19,000 --> 00:16:20,200
Zijn ze wel representatief, et cetera.
374
00:16:22,120 --> 00:16:24,240
Maar zo'n model, hoe bouw je dat goed?
375
00:16:24,310 --> 00:16:26,740
En hoe zorg je dat dat inderdaad ook jou gaat leveren?
376
00:16:26,900 --> 00:16:27,620
Wat je ervan wil?
377
00:16:29,020 --> 00:16:31,920
Ik vind dat zelf bijna wetenschapsfilosofische vraagstukken.
378
00:16:31,930 --> 00:16:35,120
Maar goed, daar hangen zeker wel ethische consequenties aan.
379
00:16:35,180 --> 00:16:36,800
Want als dat natuurlijk niet helemaal doet wat je wil.
380
00:16:37,640 --> 00:16:39,460
Of zitten er vertekeningen in of wat dan ook.
381
00:16:39,460 --> 00:16:41,140
Dan heeft dat natuurlijk ethische consequenties.
382
00:16:41,420 --> 00:16:42,380
Dus dat beschrijft hij.
383
00:16:44,020 --> 00:16:44,840
En daarnaast zegt hij.
384
00:16:44,940 --> 00:16:46,840
Dan hebben we het eigenlijk alleen maar over de materie.
385
00:16:47,060 --> 00:16:49,040
Dus ofwel de gegevens ofwel de modellen.
386
00:16:49,140 --> 00:16:50,660
Maar er zijn natuurlijk ook mensen bij het trokken.
387
00:16:51,280 --> 00:16:52,240
En veel al ontstaan.
388
00:16:52,580 --> 00:16:53,900
Nou ja, de mensen maken het ook.
389
00:16:54,000 --> 00:16:55,340
Dus daar ontstaan ook veel vraagstukken.
390
00:16:55,380 --> 00:16:57,360
Want je bent natuurlijk met allemaal vertaalslagen bezig.
391
00:16:57,440 --> 00:16:58,920
Van de complexe werkelijkheid naar iets.
392
00:17:00,000 --> 00:17:00,300
Wat een
393
00:17:00,300 --> 00:17:00,740
gegeven
394
00:17:00,740 --> 00:17:00,900
wordt.
395
00:17:00,950 --> 00:17:02,960
Wat natuurlijk nooit helemaal gaat representeren.
396
00:17:03,020 --> 00:17:04,540
Wat je daadwerkelijk waarneemt of ziet.
397
00:17:04,859 --> 00:17:06,400
En het model doet natuurlijk hetzelfde.
398
00:17:06,560 --> 00:17:09,700
Dus een hulpmiddel, maar de map is not the territory, zeg maar.
399
00:17:10,180 --> 00:17:11,560
Maar hij zegt, er zijn ook mensen mee aan het werk.
400
00:17:11,630 --> 00:17:13,819
En wat mag je eigenlijk van mensen daarin verwachten?
401
00:17:14,040 --> 00:17:15,260
Dus wie hebben er toegang tot de gegevens?
402
00:17:15,290 --> 00:17:16,140
Of wie maken het?
403
00:17:17,040 --> 00:17:18,339
Is dat dan wel representatief?
404
00:17:18,520 --> 00:17:21,099
Hoe beïnvloedt dat het werken?
405
00:17:21,640 --> 00:17:25,060
Dus daar zitten ook weer allerlei ethische vraagstukken in.
406
00:17:25,119 --> 00:17:26,440
Dus hij maakt eigenlijk die driedeling.
407
00:17:26,470 --> 00:17:28,119
En ik vind die zelf heel behulpzaam.
408
00:17:28,960 --> 00:17:31,980
Omdat je dan eigenlijk die verschillende niveaus uit elkaar kan trekken.
409
00:17:32,040 --> 00:17:34,159
Als je dan binnen een organisatie komt, dan kan je zeggen...
410
00:17:34,180 --> 00:17:37,580
Nou, wat voor vraagstukken hebben jullie? Langs welke lijnen ligt dat?
411
00:17:37,729 --> 00:17:38,400
En er is overlap.
412
00:17:39,499 --> 00:17:44,040
En je geeft aan data-ethiek en AI-ethiek zie je nu een beetje als een losse
413
00:17:44,040 --> 00:17:44,760
erbij gekomen.
414
00:17:44,850 --> 00:17:46,040
Ja, dat zie ik ook als gevaar.
415
00:17:46,180 --> 00:17:47,840
Ja, wat voor gevaar zie je dan?
416
00:17:48,540 --> 00:17:52,780
Nou, wat ik veel al zie, en dat heb ik ook geconstateerd.
417
00:17:52,780 --> 00:17:56,700
Ik heb onderzoek gedaan bij de Belastingdienst met Filosofie en Actie in 2023.
418
00:17:56,960 --> 00:17:58,860
2024 is het rapport daarover verschenen.
419
00:17:58,900 --> 00:18:00,820
Is ook openbaar een raad te plegen overigens.
420
00:18:01,300 --> 00:18:07,940
Dat is een schets hoe data-ethiek eigenlijk wordt gezien en gedaan binnen de Belastingdienst.
421
00:18:07,940 --> 00:18:10,240
En dan moet ik wel even zeggen de Blauwe Belastingdienst.
422
00:18:10,790 --> 00:18:12,480
Dus niet toeslagen, want dat denken mensen.
423
00:18:12,910 --> 00:18:13,500
Oh, spannend, spannend.
424
00:18:13,800 --> 00:18:15,560
Ja, maar dat is wel een apart onderdeel.
425
00:18:15,780 --> 00:18:17,480
En wat is dan de Blauwe Belastingdienst?
426
00:18:17,520 --> 00:18:17,580
Ja,
427
00:18:17,690 --> 00:18:19,720
dus die doen de inkomstenbelasting en de
428
00:18:19,720 --> 00:18:20,140
BTW.
429
00:18:21,160 --> 00:18:21,740
Die de blauwe
430
00:18:21,740 --> 00:18:22,200
enveloppen.
431
00:18:22,510 --> 00:18:22,600
Ja,
432
00:18:22,810 --> 00:18:22,900
precies.
433
00:18:23,620 --> 00:18:24,640
Die de blauwe enveloppen, sorry.
434
00:18:24,900 --> 00:18:25,800
En dan heb je ook nog de douane.
435
00:18:27,160 --> 00:18:29,480
Jij vroeg, wat is het
436
00:18:29,480 --> 00:18:30,080
gevaar, toch?
437
00:18:30,390 --> 00:18:31,240
Als je dat lostrekt.
438
00:18:31,680 --> 00:18:32,860
Wat we hebben gezien.
439
00:18:32,950 --> 00:18:36,160
Ik heb dat dan bij de Belastingdienst niet zo als zodanig gezien.
440
00:18:36,190 --> 00:18:38,420
Maar wel toen realiseerde ik het me.
441
00:18:39,960 --> 00:18:42,240
Dat als je heel erg uitgaat van AI-ethiek.
442
00:18:43,520 --> 00:18:46,580
Dan ben je heel erg bezig met de ethiek van de modellen.
443
00:18:46,630 --> 00:18:48,180
Dus bijvoorbeeld zit daar bias in.
444
00:18:48,360 --> 00:18:49,800
Zit er een bepaalde vertekening in.
445
00:18:49,870 --> 00:18:53,560
Die we misschien moeten corrigeren of anders aanpakken.
446
00:18:54,280 --> 00:18:56,960
Maar dat gaat vaak heel erg uit van de beschikbaarheid van gegevens.
447
00:18:57,580 --> 00:19:02,420
Dus die fundamentele datavraagstukken worden dan niet echt gesteld.
448
00:19:02,440 --> 00:19:05,860
En nogmaals, dit is niet per se een van de conclusies bij de Belastingdienst,
449
00:19:05,860 --> 00:19:09,640
maar wel iets wat ik me toen realiseerde en waar ik sindsdien heel erg op ben gaan letten.
450
00:19:11,120 --> 00:19:13,960
Dus als je heel erg sec alleen maar naar modellen kijkt,
451
00:19:14,000 --> 00:19:17,140
ga je vooral kijken naar hoe kunnen die modellen het goed doen.
452
00:19:17,280 --> 00:19:21,120
En heel veel mensen staan dan ook stil bij natuurlijk de databronnen.
453
00:19:21,580 --> 00:19:22,060
Maar het
454
00:19:22,060 --> 00:19:25,300
wordt soms ook wel een beetje, nou dit zijn gewoon de bronnen die we hebben,
455
00:19:25,320 --> 00:19:26,340
dus daar doen we het mee.
456
00:19:27,080 --> 00:19:30,500
Ja, dus als ik het zo even vertel en corrigeer me vooral zoals het daar standaard bedoeld is.
457
00:19:31,100 --> 00:19:34,720
De focus ligt op de implementatie of het bouwen met behulp van AI.
458
00:19:35,440 --> 00:19:38,820
Terwijl eigenlijk is het vraagstuk breder en is het maar een onderdeel van
459
00:19:38,820 --> 00:19:40,760
de organisatie
460
00:19:40,760 --> 00:19:41,360
waar ze mee bezig zijn.
461
00:19:41,410 --> 00:19:43,460
En de focus ligt te veel op dat ene onderdeel.
462
00:19:43,560 --> 00:19:45,380
Want volgens mij ethische vraagstukken gaan juist om meerdere
463
00:19:45,380 --> 00:19:46,440
perspectieven en breder.
464
00:19:46,810 --> 00:19:46,940
En
465
00:19:46,940 --> 00:19:51,920
door dat los te trekken is de kans groter dat er niet naar het bredere plaatje gekeken wordt.
466
00:19:52,100 --> 00:19:52,280
Precies,
467
00:19:52,360 --> 00:19:55,940
en wat ik daar dan ook heel moeilijk aan vind en dat is ook iets wat ik heel breed zie.
468
00:19:56,600 --> 00:19:59,380
Want je hebt nu echt de opkomst van AI-ethiek.
469
00:19:59,380 --> 00:20:01,140
En dan heb je een soort vertakking daarvan.
470
00:20:01,170 --> 00:20:02,580
Dat heet dan Responsible AI.
471
00:20:04,100 --> 00:20:05,220
En dan ga je eens heel erg kijken.
472
00:20:05,270 --> 00:20:06,660
Nou, we willen AI in gaan zetten.
473
00:20:06,910 --> 00:20:08,640
En dat willen we verantwoord gaan doen.
474
00:20:09,300 --> 00:20:10,880
En de vraag die wij altijd stellen is.
475
00:20:11,080 --> 00:20:13,000
Is het verantwoord om hier AI in te zetten?
476
00:20:13,380 --> 00:20:15,780
Dus er moet nou echt nog een vraag vooraf worden gesteld.
477
00:20:16,480 --> 00:20:18,000
Dus niet alleen maar wat ik eerder zei.
478
00:20:18,100 --> 00:20:19,660
Er zijn mogelijkheden en die gaan verkennen.
479
00:20:19,690 --> 00:20:23,120
Maar ook verkennen binnen welke context is dit ook verantwoord om in te zetten.
480
00:20:23,180 --> 00:20:24,700
En dan vervolgens natuurlijk wel de vraag stellen.
481
00:20:24,840 --> 00:20:27,520
En als we dat dan doen, hoe doen we dat dan verantwoord?
482
00:20:27,580 --> 00:20:27,720
Maar dat
483
00:20:27,720 --> 00:20:28,800
is dus echt
484
00:20:28,800 --> 00:20:32,640
breder dan alleen maar dat technische perspectief erop.
485
00:20:33,500 --> 00:20:37,280
Zou je nog iets meer kunnen vertellen over die casus van de Belastingdienst?
486
00:20:37,400 --> 00:20:37,520
Ja.
487
00:20:38,460 --> 00:20:41,900
En dan vooral, ik was heel erg benieuwd van de start.
488
00:20:43,780 --> 00:20:45,300
Wat was dan eigenlijk het vraagstuk?
489
00:20:46,800 --> 00:20:47,820
Ja, dat is een hele goeie.
490
00:20:47,940 --> 00:20:53,120
Het vraagstuk was, ze kwamen oorspronkelijk bij mij met de vraag,
491
00:20:54,580 --> 00:20:57,420
Zouden we iets met data-ethiek kunnen doen binnen de Belastingdienst?
492
00:20:59,440 --> 00:21:00,640
Want er gebeurt wel wat.
493
00:21:00,960 --> 00:21:02,860
En toen zei ik, volgens mij gebeurt er echt al heel veel.
494
00:21:04,280 --> 00:21:06,840
Dus is het niet wellicht handig dat we dat eerst even in kaart gaan brengen?
495
00:21:06,840 --> 00:21:07,760
Nou, dat werd de opdracht.
496
00:21:09,340 --> 00:21:10,600
En dan met aanbevelingen doen.
497
00:21:10,620 --> 00:21:14,640
Want je moet weten, de Belastingdienst is echt een hele grote organisatie.
498
00:21:15,460 --> 00:21:16,880
Met heel veel verschillende afdelingen.
499
00:21:17,000 --> 00:21:18,980
Het is een vrij complexe organisatie.
500
00:21:19,080 --> 00:21:21,019
Dus het is niet gek dat mijn opdrachtgever...
501
00:21:22,200 --> 00:21:24,100
Of willekeurig wie je vraagt binnen de Belastingdienst.
502
00:21:24,120 --> 00:21:24,660
Als je iemand kent.
503
00:21:24,780 --> 00:21:25,400
Wat gebeurt hier.
504
00:21:25,460 --> 00:21:29,000
Dat niet iedereen daar natuurlijk een volledig overzicht van heeft.
505
00:21:29,580 --> 00:21:30,580
Dus ons is toen gevraagd.
506
00:21:30,660 --> 00:21:33,340
Willen jullie in kaart brengen wat er gebeurt aan data-ethiek.
507
00:21:34,060 --> 00:21:37,720
En toen zijn wij gaan praten met mensen.
508
00:21:37,880 --> 00:21:40,300
Eigenlijk eerst de instantie gewoon onderzoeken.
509
00:21:41,599 --> 00:21:43,220
Wat verstaan mensen daaronder.
510
00:21:43,880 --> 00:21:45,240
En als je zo'n woord noemt.
511
00:21:46,200 --> 00:21:47,760
Terecht werd mij net de vraag gesteld.
512
00:21:47,760 --> 00:21:48,520
Wat betekent het dan?
513
00:21:49,500 --> 00:21:50,640
Want niet iedereen.
514
00:21:52,100 --> 00:21:54,940
Mensen zullen het doen zonder dat ze weten dat ze ermee bezig zijn.
515
00:21:55,160 --> 00:21:56,500
Dus die hebben daar nog niet de juiste woorden voor.
516
00:21:56,660 --> 00:21:58,280
Dus we zijn met mensen gaan praten over...
517
00:21:58,840 --> 00:22:01,860
wat voor vraagstukken kom je nou tegen en hoe ga je daarmee om.
518
00:22:02,980 --> 00:22:07,440
Maar ook heel erg gaan kijken naar wat voor hulpmiddelen gebruik je daarbij.
519
00:22:07,480 --> 00:22:09,140
Dus stel je voor je komt ineens je vraagstuk tegen...
520
00:22:09,940 --> 00:22:10,880
wat doe je daar dan mee?
521
00:22:11,160 --> 00:22:11,340
Ga je
522
00:22:11,340 --> 00:22:12,320
daar met mensen over praten?
523
00:22:12,660 --> 00:22:15,780
Of heb je daar gespreksmodellen of assessments bij?
524
00:22:15,980 --> 00:22:18,680
Of technische tooling die je daarbij helpt?
525
00:22:18,780 --> 00:22:19,940
Hoe is dit georganiseerd?
526
00:22:20,080 --> 00:22:21,200
Zijn er bepaalde frameworks?
527
00:22:21,780 --> 00:22:24,820
Of kaders die gehanteerd worden binnen de Belastingdienst.
528
00:22:26,300 --> 00:22:27,700
Nou, die wij in kaart kunnen brengen.
529
00:22:28,420 --> 00:22:31,900
En wat wij zagen was dat het best wel gefragmenteerd was.
530
00:22:32,020 --> 00:22:35,080
Dus mensen wisten inderdaad niet zo goed van andere afdelingen wat ze deden.
531
00:22:35,160 --> 00:22:37,480
Dus ik denk dat ons onderzoek daar heel erg bij heeft geholpen.
532
00:22:38,260 --> 00:22:42,220
Om aan te tonen dat er eigenlijk langs verschillende lijnen best wel wat aanwezig was.
533
00:22:42,500 --> 00:22:44,900
En ook daar een aantal voortrekkers in waren.
534
00:22:46,380 --> 00:22:49,520
En nou ja, even aanvullend op mijn eerdere opmerking.
535
00:22:50,200 --> 00:22:55,500
Vooral rondom modellen was er echt al superveel aanwezig.
536
00:22:55,960 --> 00:22:58,040
In de manier waarop ze daar naar keken en mee omgingen.
537
00:22:58,400 --> 00:23:00,740
En als we keken naar data-fundamentele vraagstukken.
538
00:23:00,740 --> 00:23:03,200
Dus eigenlijk die eerste pijler van Floridi die ik net noemde.
539
00:23:03,760 --> 00:23:06,420
Dan hadden wij de indruk, ja het wordt wel gesignaleerd.
540
00:23:07,120 --> 00:23:09,180
Maar daar mag nog wel wat meer aandacht voor komen.
541
00:23:10,260 --> 00:23:14,260
En dat heeft ook wel te maken met, dat is ook iets wat wij hebben geconstateerd.
542
00:23:14,940 --> 00:23:18,620
Is dat mensen eigenlijk een verschillende perspectieven hadden op hoe je ethiek eigenlijk doet.
543
00:23:18,800 --> 00:23:20,260
rondom dit soort vraagstukken.
544
00:23:21,400 --> 00:23:24,640
Dus we hebben daar eigenlijk drie typen grofweg in onderscheiden.
545
00:23:24,740 --> 00:23:27,420
En ik moet even zeggen, het was geen wetenschappelijk kwantitatief onderzoek.
546
00:23:27,480 --> 00:23:28,200
We hebben echt een schets
547
00:23:28,200 --> 00:23:28,460
gemaakt.
548
00:23:28,600 --> 00:23:30,540
We hebben natuurlijk ook lang niet iedereen kunnen spreken.
549
00:23:31,240 --> 00:23:33,400
Maar we hebben daar ons wel een beetje een beeld van kunnen vormen.
550
00:23:34,020 --> 00:23:35,900
En je hebt al mensen binnen de Belastingdienst die zeggen...
551
00:23:36,000 --> 00:23:38,000
ja, we hebben gewoon de Belastingwet uit te voeren.
552
00:23:38,140 --> 00:23:40,480
En er is allerlei aanpalende wetgeving.
553
00:23:40,960 --> 00:23:43,100
Dus wij doen het juiste als we gewoon die procedures
554
00:23:43,100 --> 00:23:43,880
netjes vormen.
555
00:23:44,480 --> 00:23:46,980
En dat is iets wat ik herken ook bij heel veel andere organisaties.
556
00:23:47,920 --> 00:23:51,380
Dat eigenlijk, ja, wij noemden dat hier procedurele ethiek.
557
00:23:51,480 --> 00:23:54,540
Maar je kan ook zeggen, het is eigenlijk een soort legalistische ethiek.
558
00:23:54,980 --> 00:23:58,160
Waarbij je eigenlijk zegt, ja, de wet is gewoon ons morele kader.
559
00:23:58,720 --> 00:24:00,480
En daar is heel veel voor te zeggen.
560
00:24:01,200 --> 00:24:02,580
Maar ook heel veel op af te dingen.
561
00:24:03,460 --> 00:24:05,320
Het is in ieder geval een heel goed uitgangspunt.
562
00:24:05,580 --> 00:24:07,720
Dus dat is helemaal niet verkeerd dat dat zo werd gezegd.
563
00:24:08,560 --> 00:24:11,280
Maar we zagen ook wel andere perspectieven die daarop aanvullend waren.
564
00:24:12,020 --> 00:24:15,200
Namelijk het tweede perspectief als dat technische perspectief op ethiek.
565
00:24:15,340 --> 00:24:16,280
Dus we hebben een model gebouwd.
566
00:24:16,420 --> 00:24:19,600
oh, daar zit een vertekening in, dan gaan we dus weer een andere tool gebruiken...
567
00:24:19,600 --> 00:24:21,360
die mogelijk die vertekening kan herstellen.
568
00:24:22,220 --> 00:24:25,360
Ofwel andere tools die heel erg gericht zijn, zoals...
569
00:24:25,580 --> 00:24:27,600
het is inmiddels niet echt een tool, maar meer een assessment.
570
00:24:28,160 --> 00:24:31,420
Zoals de IAMA, de Impact Assessment op Mensenrechten en Algorithmen.
571
00:24:31,960 --> 00:24:33,780
Dat is natuurlijk een reflectieve tool.
572
00:24:34,400 --> 00:24:36,180
Wij vinden hem zelf vrij technisch.
573
00:24:37,760 --> 00:24:42,160
Hij raakt ook wel aan ethiek, want mensenrechten raken natuurlijk aan bepaalde waarden...
574
00:24:42,160 --> 00:24:45,540
die wij hier in het West als universeel ervaren.
575
00:24:47,460 --> 00:24:49,760
maar is wel heel erg gericht op het model.
576
00:24:51,560 --> 00:24:52,640
Daar zou ik misschien later nog meer
577
00:24:52,640 --> 00:24:53,440
over kunnen zeggen,
578
00:24:53,540 --> 00:24:54,280
over de IAMA.
579
00:24:54,960 --> 00:24:56,780
Daarnaast onderscheiden wij een derde perspectief.
580
00:24:57,880 --> 00:24:59,540
En dat is dan meer het reflectieve perspectief.
581
00:24:59,540 --> 00:25:01,540
En dat is eigenlijk waar wij ons bij filosofie en actie
582
00:25:02,300 --> 00:25:03,600
het meest van de tijd mee bezighouden.
583
00:25:03,620 --> 00:25:06,540
En dat is, hoe creëer je nou ruimte en tijd voor reflectie en gesprek?
584
00:25:07,300 --> 00:25:09,700
Over niet alleen hoe doe je dit op de juiste manier,
585
00:25:09,820 --> 00:25:11,140
maar ben je ook wel het juiste aan het doen?
586
00:25:12,460 --> 00:25:14,580
En we hebben geconstateerd,
587
00:25:14,720 --> 00:25:17,480
En dat is ook iets wat breed binnen de Rijksoverheid.
588
00:25:17,550 --> 00:25:21,320
Ook wel via onderzoek van INO Research en zo is aangetoond.
589
00:25:21,330 --> 00:25:23,280
Dat daar eigenlijk best wel weinig ruimte voor is.
590
00:25:23,380 --> 00:25:25,080
Mensen hebben gewoon veel te doen.
591
00:25:25,800 --> 00:25:27,940
En ik kan me ook voorstellen dat mensen denken.
592
00:25:28,260 --> 00:25:30,040
Zeker waar het gaat over innovatie.
593
00:25:30,250 --> 00:25:31,460
Je noemde het straks zelf al.
594
00:25:31,820 --> 00:25:33,560
Ja, maar we willen door.
595
00:25:34,800 --> 00:25:36,820
Dit soort gesprekken remmen met innovatie.
596
00:25:37,220 --> 00:25:39,020
Kan je je daar iets bij voorstellen dat mensen dat zeggen?
597
00:25:39,220 --> 00:25:39,860
Dat kan ik me voorstellen.
598
00:25:39,960 --> 00:25:43,120
Dat was binnen de Belastingdienst overigens niet iets wat meteen werd gezegd.
599
00:25:43,200 --> 00:25:45,720
Maar herken ik wel van andere organisaties.
600
00:25:48,160 --> 00:25:49,500
Dus laat ik daar even op ingaan.
601
00:25:49,600 --> 00:25:50,820
Laat ik het Belastingdienst even liggen.
602
00:25:53,320 --> 00:25:55,220
Het idee dat het innovatie remt.
603
00:25:56,040 --> 00:25:57,760
Ik denk dat dat niet klopt.
604
00:25:57,770 --> 00:25:59,780
Ik kan me wel voorstellen dat het zo wordt ervaren.
605
00:25:59,850 --> 00:26:01,960
Ik denk dat als je aan de voorkant bezig bent met.
606
00:26:02,190 --> 00:26:04,800
Wat betekent het nou als we deze technologie gaan inzetten.
607
00:26:04,940 --> 00:26:06,980
Voor dit bepaalde vraagstuk.
608
00:26:07,980 --> 00:26:08,580
Dat je dan eigenlijk.
609
00:26:08,910 --> 00:26:10,760
Het is een investering in zorgvuldigheid.
610
00:26:11,240 --> 00:26:12,860
Dus eigenlijk voorkom je dat je mogelijk.
611
00:26:12,940 --> 00:26:16,940
met hele lelijke krantenkoppen in het nieuws komt.
612
00:26:17,130 --> 00:26:19,920
Of dat je toch merkt, oh dit werkt eigenlijk helemaal niet voor ons.
613
00:26:20,020 --> 00:26:23,780
Omdat je er echt wat extra zorgvuldig naar hebt gekeken.
614
00:26:24,220 --> 00:26:29,480
Maar hoe creëer je dan ruimte als toch deze sfeer misschien heerst?
615
00:26:29,980 --> 00:26:32,980
Ja, wij doen dat gewoon door het vaak gewoon maar te gaan doen.
616
00:26:33,120 --> 00:26:36,360
Dus dan zeggen we, nou oké, je wilt het misschien niet bij elk project doen.
617
00:26:36,410 --> 00:26:39,280
Maar wat nou als we, noem gewoon eens een casus.
618
00:26:39,380 --> 00:26:41,360
Waar nu ook even niet zo heel veel druk op staat.
619
00:26:41,840 --> 00:26:43,380
Maar iets wat je misschien wel wil verkennen.
620
00:26:44,740 --> 00:26:46,020
Zullen we daar gewoon eens naar gaan kijken.
621
00:26:46,130 --> 00:26:48,700
En dan gaan we een gesprek voeren.
622
00:26:50,180 --> 00:26:51,000
Dat doen we langs.
623
00:26:51,740 --> 00:26:53,440
Ethiek is systematische reflectie.
624
00:26:53,550 --> 00:26:55,620
Dus je gaat het echt heel systematisch.
625
00:26:55,900 --> 00:26:56,740
Analytisch gaan we dat langs.
626
00:26:56,780 --> 00:26:57,880
Dus niet een heel vrij gesprek.
627
00:26:57,920 --> 00:26:59,640
Best wel strak gestructureerd.
628
00:26:59,650 --> 00:27:01,560
Maar heel veel ruimte voor overdenkingen.
629
00:27:01,600 --> 00:27:03,060
Overpijzingen en overwegingen.
630
00:27:03,160 --> 00:27:04,240
En morele intuïtie.
631
00:27:05,040 --> 00:27:07,260
En dan wat ik heb ervaren.
632
00:27:07,290 --> 00:27:09,120
Dat is ook bijvoorbeeld zo bij de gemeente Eindhoven.
633
00:27:09,120 --> 00:27:10,700
Daar stond ook echt niet iedereen te springen.
634
00:27:10,840 --> 00:27:12,880
Maar het was nou eenmaal, dat zeg ik niet helemaal goed.
635
00:27:13,000 --> 00:27:14,540
Want het is niet dat niet iedereen stond te stricken.
636
00:27:14,680 --> 00:27:16,320
Dat is ook gewoon, we weten eigenlijk niet wat het is.
637
00:27:16,380 --> 00:27:18,060
Maar de gemeenteraad geeft de opdracht.
638
00:27:18,620 --> 00:27:19,480
Dus oh, wij moeten hier.
639
00:27:20,040 --> 00:27:20,380
Het was
640
00:27:20,380 --> 00:27:21,840
niet eens, er was helemaal geen weerstand.
641
00:27:22,180 --> 00:27:23,860
Het is meer van, oh, we moeten hier nu iets mee.
642
00:27:24,420 --> 00:27:26,660
Maar jeetje, we hebben ook al de DPIA.
643
00:27:26,880 --> 00:27:29,380
Dat is ook iets wat breed binnen organisaties is.
644
00:27:29,640 --> 00:27:30,540
We hebben al een DEPIA.
645
00:27:30,920 --> 00:27:32,240
En dan zeker nu ook de IAMA.
646
00:27:32,320 --> 00:27:33,000
Dat was toen nog niet.
647
00:27:33,660 --> 00:27:34,960
Er zijn allemaal andere verplichtingen.
648
00:27:34,980 --> 00:27:36,660
Maar komt dit er ook nog eens bij?
649
00:27:36,760 --> 00:27:38,700
Dus dat is dan het gevoel van de rem.
650
00:27:39,180 --> 00:27:40,940
Toen zijn we ook gewoon casussen gaan doen.
651
00:27:42,000 --> 00:27:46,160
Heel erg met het idee, laten we dat eens proberen.
652
00:27:46,660 --> 00:27:48,640
En dan gaan we gewoon eens kijken wat het jou oplevert.
653
00:27:48,760 --> 00:27:50,240
Als je nikt, oplevert ook goed.
654
00:27:51,520 --> 00:27:53,840
En dan zien mensen toch, ook projectleiders...
655
00:27:53,840 --> 00:27:55,900
die dan aanvankelijk inderdaad een beetje zitten...
656
00:27:56,400 --> 00:27:58,040
ofwel een beetje weerstand...
657
00:27:58,340 --> 00:28:01,040
of gewoon, ik weet niet helemaal goed wat ik hiervan moet verwachten.
658
00:28:02,420 --> 00:28:04,600
Zoals bij Eindhoven, dat was niet voor iedereen duidelijk.
659
00:28:04,620 --> 00:28:07,960
Die zien dan toch, ik heb nu op een andere manier naar mijn project gekeken.
660
00:28:08,780 --> 00:28:14,680
Wat waarschijnlijk heel erg waardevol gaat zijn verderop als we het echt daadwerkelijk gaan implementeren of live
661
00:28:14,680 --> 00:28:14,800
gaan.
662
00:28:15,080 --> 00:28:18,340
Wat zou je een voorbeeld kunnen noemen van wat ze dan concreet oplevert?
663
00:28:19,959 --> 00:28:23,200
Wanneer zijn zij tevreden?
664
00:28:23,300 --> 00:28:25,460
Dat je zegt van, hier hebben we nu wat.
665
00:28:27,220 --> 00:28:30,380
Ja, dat is dus heel erg wisselend per project.
666
00:28:30,940 --> 00:28:31,320
Snap ik.
667
00:28:31,500 --> 00:28:34,840
Even kijken of ik daar een concreet voorbeeld van kan geven.
668
00:28:35,780 --> 00:28:42,900
Nou, wat ik merk is vaak dat dit soort projecten beginnen heel erg vanuit de technologische mogelijkheid.
669
00:28:43,030 --> 00:28:44,180
Dus, oh, er kan opeens.
670
00:28:44,240 --> 00:28:46,360
Dus we kunnen dit gaan implementeren of doen.
671
00:28:48,400 --> 00:28:54,180
En dan wordt gekeken naar waar is dat dan een leuke, interessante of relevante plek waar we dat kunnen implementeren.
672
00:28:54,900 --> 00:28:55,980
En dan wordt dat verkend.
673
00:28:56,080 --> 00:28:57,740
Dus heel erg vanuit de technische mogelijkheid.
674
00:28:57,880 --> 00:29:00,940
En dan vervolgens wordt er wel juridisch vaak ook wel naar gekeken.
675
00:29:01,060 --> 00:29:01,780
Nou ja, meestal wel.
676
00:29:02,300 --> 00:29:02,480
Naar
677
00:29:02,480 --> 00:29:04,940
gekeken, dus wat zijn hier de randvoorwaarden.
678
00:29:05,180 --> 00:29:07,640
En ik ben al heel lang aan het roepen.
679
00:29:07,640 --> 00:29:08,640
Je moet altijd de vraag stellen.
680
00:29:08,770 --> 00:29:10,200
Kan het? Mag het? En is het wenselijk?
681
00:29:11,060 --> 00:29:13,680
En heel lang begon het gewoon bij de technische mogelijkheid.
682
00:29:13,680 --> 00:29:15,560
En werd er naar het juridische kader gekeken.
683
00:29:15,570 --> 00:29:16,360
En dat was het.
684
00:29:17,000 --> 00:29:19,700
En inmiddels weten we wel dat als iets ook juridisch...
685
00:29:19,720 --> 00:29:21,760
De wet is natuurlijk gestoelde ethiek.
686
00:29:22,380 --> 00:29:23,600
Zeker als het gaat om technologie.
687
00:29:23,600 --> 00:29:24,660
Die loopt altijd achter.
688
00:29:26,100 --> 00:29:28,700
Als in, dat hebben we gezien rondom de AI Act.
689
00:29:28,940 --> 00:29:31,460
Dus die was bijna klaar.
690
00:29:31,560 --> 00:29:33,680
En toen kwam openen met je GPT.
691
00:29:33,880 --> 00:29:36,340
Want er moest er op het laatste moment nog even wat in worden gefietst.
692
00:29:36,800 --> 00:29:38,700
Dat zal blijven, maar die wet ligt er nu.
693
00:29:38,880 --> 00:29:39,380
Ja, precies.
694
00:29:40,260 --> 00:29:42,520
Dus we zien, je moet ook altijd nog die vraag stellen.
695
00:29:42,640 --> 00:29:43,460
Maar wat betekent dit?
696
00:29:43,520 --> 00:29:44,540
Dus is dit wel wenselijk?
697
00:29:45,420 --> 00:29:47,980
En die vraag, die wordt heel vaak overgeslagen.
698
00:29:48,380 --> 00:29:52,960
En die wordt ook niet altijd vanuit een soort breed perspectief bekeken.
699
00:29:53,980 --> 00:29:56,280
Dus er wordt wel gekeken naar, dit is voor ons heel wenselijk.
700
00:29:56,380 --> 00:29:57,580
Want wij gaan efficiënter werken.
701
00:29:57,780 --> 00:29:58,160
Bijvoorbeeld door
702
00:29:58,160 --> 00:30:01,000
de implementatie van een taalmodel of een chatbot of wat dan ook.
703
00:30:01,780 --> 00:30:03,680
Maar wat betekent dit nou voor onze klanten?
704
00:30:04,060 --> 00:30:04,200
bijvoorbeeld.
705
00:30:04,800 --> 00:30:05,800
En dan kan je nog verschillende
706
00:30:05,880 --> 00:30:07,700
onderscheid maken tussen verschillende groepen
707
00:30:07,760 --> 00:30:09,820
klanten. En wat is daarin
708
00:30:09,850 --> 00:30:11,680
voor hun belangrijk? En hoe raakt het dan weer aan
709
00:30:11,800 --> 00:30:13,960
dat wat voor... Want je hebt niet zelf als organisatie
710
00:30:13,990 --> 00:30:15,660
alleen waarde waar je voor staat, maar
711
00:30:16,320 --> 00:30:17,880
jouw klanten verwachten misschien ook
712
00:30:18,000 --> 00:30:19,540
iets staan ergens voor een bepaalde behoefte.
713
00:30:19,600 --> 00:30:21,340
Sluit dat dan wel aan in die
714
00:30:21,340 --> 00:30:21,700
beleving?
715
00:30:21,960 --> 00:30:23,580
Heb je in die zin een voorbeeld
716
00:30:23,630 --> 00:30:25,520
en die hoeft niet bij naam hoor.
717
00:30:26,080 --> 00:30:27,740
Maar dat er dan ook besloten
718
00:30:27,940 --> 00:30:29,600
is om iets niet te gaan doen, omdat
719
00:30:29,650 --> 00:30:30,920
je dit uit gesprek hebt gehad?
720
00:30:31,440 --> 00:30:33,080
Wel enige voorzichtigheid.
721
00:30:33,740 --> 00:30:35,620
Dat heeft ook weer met ChatGPT te maken.
722
00:30:35,940 --> 00:30:36,760
Ga je wel even verzitten.
723
00:30:36,900 --> 00:30:37,220
Ja hoor.
724
00:30:39,600 --> 00:30:42,460
Dat heeft met ChatGPT kwam natuurlijk...
725
00:30:43,179 --> 00:30:45,920
December 2022 kwam dat op.
726
00:30:46,440 --> 00:30:49,160
En toen was er net bij het interprovinciaal overleg.
727
00:30:49,820 --> 00:30:52,100
Dus dat is een soort vereniging van de verschillende provincies.
728
00:30:52,280 --> 00:30:54,320
Tezamen was er net een ethische commissie gestart.
729
00:30:55,000 --> 00:30:59,440
Die ging adviseren op zaken rondom digitalisering en ethiek.
730
00:31:00,140 --> 00:31:01,260
Voor de verschillende provincies.
731
00:31:01,300 --> 00:31:03,040
En ze wilden heel erg graag casuïstiek.
732
00:31:03,120 --> 00:31:05,120
willen ze nog steeds. Casuïstiek behandelen die
733
00:31:05,220 --> 00:31:07,120
voor alle provincies relevant is.
734
00:31:07,160 --> 00:31:07,620
Dus niet,
735
00:31:07,680 --> 00:31:09,080
Gelderland heeft een vraagstuk,
736
00:31:09,200 --> 00:31:11,060
maar dat is voor Groningen niet interessant. Nee, echt gewoon
737
00:31:11,300 --> 00:31:12,600
breed. En toen kwam
738
00:31:13,400 --> 00:31:14,320
er een cadeautje.
739
00:31:14,480 --> 00:31:15,020
Toen kwam
740
00:31:15,100 --> 00:31:15,760
ChatGPT.
741
00:31:16,640 --> 00:31:17,280
En zij waren
742
00:31:17,420 --> 00:31:18,660
net geïnstalleerd en
743
00:31:19,160 --> 00:31:21,300
zij moesten er advies over gaan uitbrengen.
744
00:31:21,820 --> 00:31:23,320
Maar zoals dat bij heel veel ethische commissies
745
00:31:23,460 --> 00:31:25,180
gaat, niet alleen bij het IPO, maar ook bij
746
00:31:25,320 --> 00:31:27,260
gemeenten en allerlei andere organisaties, daar zitten
747
00:31:27,380 --> 00:31:29,180
vaak mensen in. Die doen dat gewoon naast hun werk. Dus
748
00:31:29,180 --> 00:31:30,840
denk aan hoogleraren, wetenschappers.
749
00:31:32,160 --> 00:31:35,200
Mensen met enige expertise die het gewoon druk genoeg hebben.
750
00:31:35,940 --> 00:31:38,220
Dus toen is aan ons gevraagd, dus aan filosofie in actie.
751
00:31:38,250 --> 00:31:40,020
Van willen jullie anders het vooronderzoek doen?
752
00:31:40,090 --> 00:31:43,880
Dus jullie leggen als het ware een rapport neer met alle ethische overwegingen.
753
00:31:44,500 --> 00:31:51,480
En op basis daarvan gaat dan de ethische commissie advies uitbrengen aan die verschillende provincies.
754
00:31:52,260 --> 00:31:56,520
En wat er toen gebeurde was, de VNG was hiermee bezig.
755
00:31:57,100 --> 00:32:00,340
Het ministerie van Binnenlandse Zaken en Koninkrijksrelaties was ermee bezig.
756
00:32:00,480 --> 00:32:03,220
Iedereen wilde een handreiking of iets van, wat moet dit?
757
00:32:03,320 --> 00:32:05,880
Want ambtenaren waren er al mee bezig, we moeten hier iets mee.
758
00:32:05,890 --> 00:32:08,220
Die waren toch allemaal, oh die wisten, er komt iets bij het IPO.
759
00:32:08,480 --> 00:32:10,020
Althans, zo heb ik dat een beetje begrepen.
760
00:32:10,620 --> 00:32:12,880
En dat heeft dus uiteindelijk wel iets in beweging gezet.
761
00:32:13,460 --> 00:32:18,660
En ik heb wel gemerkt dat door ons rapport, maar dan met name natuurlijk het advies dat daarop volgde,
762
00:32:18,670 --> 00:32:24,900
dat er echt wel enige voorzichtigheid, vooral binnen de overheid, en dat is natuurlijk niet gek, is betracht.
763
00:32:25,060 --> 00:32:29,900
ten aanzien van de implementatie van met name een taalmodel zoals ChatGPT...
764
00:32:29,900 --> 00:32:31,560
die natuurlijk bij Big Tech ligt.
765
00:32:31,760 --> 00:32:32,520
Ja, logisch.
766
00:32:33,560 --> 00:32:35,600
En jij vroeg, dit is een hele lange aanloop...
767
00:32:35,600 --> 00:32:36,540
want jij vroeg naar de...
768
00:32:37,080 --> 00:32:38,440
van wat levert dat dan op?
769
00:32:38,980 --> 00:32:42,000
Nou, wij hebben eigenlijk onze analyse toen gebaseerd op die drie vragen.
770
00:32:42,050 --> 00:32:43,540
Dus kan het, mag het en is het wenselijk?
771
00:32:43,720 --> 00:32:45,360
Waarbij we eerst zijn gaan kijken naar...
772
00:32:45,360 --> 00:32:46,840
wat doet een
773
00:32:46,840 --> 00:32:47,600
taalmodel
774
00:32:47,600 --> 00:32:47,900
eigenlijk?
775
00:32:48,800 --> 00:32:51,200
En dat is nu misschien heel grappig om over na te denken...
776
00:32:51,200 --> 00:32:53,499
maar dat was, nou ja, twee jaar geleden...
777
00:32:53,520 --> 00:32:55,100
Was dat echt nog lang niet voor iedereen.
778
00:32:55,320 --> 00:32:57,120
En trouwens, dat is nog steeds niet voor iedereen bekend.
779
00:32:57,140 --> 00:32:59,940
Maar in mijn bubbel weet iedereen inmiddels wel ongeveer wat een taalmodel doet.
780
00:33:00,860 --> 00:33:02,160
Bijvoorbeeld, het is een taalmodel.
781
00:33:02,380 --> 00:33:03,300
Het is geen kennismodel.
782
00:33:03,740 --> 00:33:03,800
Dus
783
00:33:03,800 --> 00:33:04,860
het doet iets met
784
00:33:04,860 --> 00:33:05,100
taal.
785
00:33:05,220 --> 00:33:08,120
Maar je ziet dat het nu veelvuldig als zoekmachine wordt gebruikt.
786
00:33:08,300 --> 00:33:08,780
Toen nog niet.
787
00:33:09,580 --> 00:33:12,160
Maar de vraag is of je het daar wel voor moet gebruiken.
788
00:33:12,600 --> 00:33:15,660
Natuurlijk, de vraagstukken rondom hallucinaties waren er toen al wel.
789
00:33:16,620 --> 00:33:17,280
Ook het black box.
790
00:33:17,640 --> 00:33:20,460
Dus gewoon meer, wat zijn nou de mogelijkheden en de beperkingen van zo'n model?
791
00:33:21,820 --> 00:33:24,300
We hebben toen ook gekeken naar langs verschillende as.
792
00:33:24,400 --> 00:33:27,080
Als een ambtenaar hem nou gebruikt, dan is het ook wel de vraag...
793
00:33:27,080 --> 00:33:28,920
hoeveel autonomie leg je nog bij de ambtenaar?
794
00:33:29,740 --> 00:33:34,820
Dus gaat een ambtenaar een tekst laten herschrijven door een taalmodel?
795
00:33:35,080 --> 00:33:36,140
Of laat hij hem genereren?
796
00:33:36,280 --> 00:33:39,420
Dat is echt nog wel een verschil als het gaat om ethische vraagstukken.
797
00:33:39,860 --> 00:33:41,540
En dus ook hoeveel autonomie leg je bij het
798
00:33:41,540 --> 00:33:41,740
model?
799
00:33:43,130 --> 00:33:45,480
Dus laat je die dus echt zelf iets doen.
800
00:33:46,520 --> 00:33:50,020
We zagen verschillende toepassingen binnen de provincies.
801
00:33:50,300 --> 00:33:55,260
Dus het werd inderdaad gebruikt om bijvoorbeeld toespraken te schrijven of beleidsmemo's.
802
00:33:55,840 --> 00:33:58,880
Maar ook wel code te genereren, dus ook wel voor programmeren.
803
00:34:00,180 --> 00:34:01,300
Of code te verbeteren.
804
00:34:01,410 --> 00:34:05,540
Dus dan zie je ook weer langs die verschillende assen van autonomie dat daar verschillend mee om werd gegaan.
805
00:34:05,990 --> 00:34:09,320
Nou, vervolgens zijn we naar de juridische kaders, dus die mag het vraag gaan kijken.
806
00:34:10,239 --> 00:34:13,179
Nou, er was toen heel veel onduidelijk, dat is er eigenlijk nog steeds.
807
00:34:13,389 --> 00:34:19,420
De AI-act is er wel inmiddels, maar rondom copywriters, daar wordt nog allerlei rechtszaken om gevoerd.
808
00:34:19,980 --> 00:34:20,260
Zeker.
809
00:34:20,719 --> 00:34:22,540
Wat zijn eigenlijk de bronnen van het model?
810
00:34:23,400 --> 00:34:24,880
Het zijn natuurlijk privacy vraagstukken.
811
00:34:24,900 --> 00:34:26,080
Waren er ook bij de provincie.
812
00:34:26,179 --> 00:34:28,080
Dus wat kan je dan wel en niet in zo'n model invoeren?
813
00:34:28,239 --> 00:34:29,120
Wat gebeurt ermee?
814
00:34:30,239 --> 00:34:31,120
Er zijn inmiddels.
815
00:34:31,480 --> 00:34:33,000
Toen was het alleen nog bij OpenAI.
816
00:34:33,260 --> 00:34:34,739
Bij ChatGPT alleen nog het open model.
817
00:34:34,980 --> 00:34:35,699
Dus een gratis variant.
818
00:34:35,900 --> 00:34:38,840
Inmiddels zijn er alweer allerlei variaties.
819
00:34:38,840 --> 00:34:42,000
En ook afgeschermde varianten van.
820
00:34:42,360 --> 00:34:43,780
Dus daar is ook ontwikkeling natuurlijk.
821
00:34:44,699 --> 00:34:46,400
Dus we hebben de juridische kaders verkend.
822
00:34:47,458 --> 00:34:48,500
Met name rondom copyright.
823
00:34:49,300 --> 00:34:52,800
privacy, maar ook wel gekeken naar de provinciewet.
824
00:34:53,760 --> 00:34:55,860
Want ja, de provincie heeft een taak.
825
00:34:57,060 --> 00:34:58,340
En wat hoort daar precies bij?
826
00:34:58,520 --> 00:35:01,020
En ook gekeken naar waar is de ambtenaar toe verplicht?
827
00:35:01,120 --> 00:35:04,340
Nou, de ambtenaar is bijvoorbeeld verplicht tot zorgvuldige omgang met informatie.
828
00:35:05,679 --> 00:35:09,439
En volgens mij ook iets met het verstrekken van wel waarheidsgetrouwe informatie.
829
00:35:09,580 --> 00:35:10,480
Zoiets hebben we eruit gehad.
830
00:35:10,480 --> 00:35:11,040
Wel nuttig.
831
00:35:12,660 --> 00:35:16,880
En bij de provincie kwamen we uit, en dat kwam vooral dan bij de wenselijkheidsvraag terug,
832
00:35:16,980 --> 00:35:19,040
maar ook uit bij de plicht tot natuurbehoud.
833
00:35:20,199 --> 00:35:22,080
Dan denk je nu misschien, hé, hoe zit dit?
834
00:35:22,660 --> 00:35:24,439
Nou, de provincie heeft de plicht tot natuurbehoud.
835
00:35:24,560 --> 00:35:27,520
Dus een van de taken van de provincie is dus flora en fauna.
836
00:35:28,120 --> 00:35:31,360
Dan kan je zeggen, ja, maar de provincie Gelderland heeft dat gewoon te doen bij
837
00:35:31,360 --> 00:35:32,060
de Hoge Veluwe.
838
00:35:32,600 --> 00:35:33,360
En daar houdt het op.
839
00:35:33,720 --> 00:35:36,020
Maar als je gaat kijken naar het taalmodel en de klimaatimpact,
840
00:35:36,080 --> 00:35:38,959
daar zijn we dan vooral op ingezoomd bij de wenselijkheidsvraag.
841
00:35:39,600 --> 00:35:41,100
Ook op heel veel andere aspecten.
842
00:35:41,500 --> 00:35:43,580
We hebben gekeken naar wat betekent het voor de provincie,
843
00:35:44,720 --> 00:35:47,240
De maatschappij en voor de ambtenaar.
844
00:35:47,340 --> 00:35:49,260
Langs die lijnen hebben we die wenselijkheid.
845
00:35:49,420 --> 00:35:51,200
Dus is het wel wenselijk? Wat betekent dit bekeken?
846
00:35:51,760 --> 00:35:53,580
Maar ook op het gebied van externaliteit.
847
00:35:53,800 --> 00:35:56,740
Dus dan ben je niet zozeer bezig met wat doet dit taalmodel en wat roept dat op.
848
00:35:57,120 --> 00:36:00,340
Maar ook wat gaat er eigenlijk gepaard met dit taalmodel.
849
00:36:00,460 --> 00:36:03,200
En het gebruik daarvan waar als je vanuit de ethiek ernaar kijkt.
850
00:36:03,320 --> 00:36:04,740
Toch ook echt rekening mee moet houden.
851
00:36:04,740 --> 00:36:07,260
En een van die aspecten was dus klimaatimpact.
852
00:36:08,120 --> 00:36:10,440
Daar was op dat moment nog niet zo heel veel aandacht voor.
853
00:36:10,600 --> 00:36:11,700
Inmiddels gelukkig wel.
854
00:36:12,080 --> 00:36:13,600
Dus om zo'n taalmodel te gebruiken.
855
00:36:14,360 --> 00:36:16,900
Dat kost heel veel servercapaciteit, dus ook energie.
856
00:36:17,020 --> 00:36:18,980
En dan wordt er gezegd, ja, maar maak ik gebruik van groene energie?
857
00:36:19,060 --> 00:36:22,060
Ja, maar omdat Microsoft of weet ik veel wie dat windpark opkoopt...
858
00:36:22,619 --> 00:36:24,300
kunnen huishoudens daar weer geen gebruik van maken.
859
00:36:24,340 --> 00:36:26,400
Dus dat is gewoon verplaatsen van het vraagstuk eigenlijk.
860
00:36:27,100 --> 00:36:28,480
Dat is iets waar je rekening mee moet houden.
861
00:36:28,640 --> 00:36:32,020
Natuurlijk ook de hoeveelheid water die er nodig is om die service te koelen.
862
00:36:32,500 --> 00:36:34,380
Dus het heeft een enorme klimaatimpact.
863
00:36:35,420 --> 00:36:37,240
Wij dachten wel van, ja, wacht eens even.
864
00:36:37,240 --> 00:36:39,979
Als de provincie de plicht heeft tot natuurbehoud...
865
00:36:40,920 --> 00:36:42,440
Dan is dit toch wel even iets
866
00:36:42,440 --> 00:36:43,220
waar
867
00:36:43,220 --> 00:36:44,900
je over na moet denken.
868
00:36:45,220 --> 00:36:47,160
We moeten dit op zijn minst even aanstippen.
869
00:36:47,240 --> 00:36:49,660
Hier is mogelijk iets wat ingewikkeld is.
870
00:36:50,380 --> 00:36:52,980
En daarnaast hebben we ook gekeken naar andere externaliteiten.
871
00:36:53,100 --> 00:36:54,800
Zoals bijvoorbeeld de afhankelijkheid van big tech.
872
00:36:55,010 --> 00:36:55,700
Dus moet je dat willen?
873
00:36:56,130 --> 00:36:58,760
Dat was toen voor ons al een evidente vraag.
874
00:36:58,810 --> 00:37:00,060
Maar natuurlijk in tijden van Trump.
875
00:37:01,540 --> 00:37:02,200
Heel actueel.
876
00:37:02,260 --> 00:37:02,620
Heel
877
00:37:02,620 --> 00:37:03,080
actueel.
878
00:37:03,150 --> 00:37:08,240
En we hebben ook gekeken naar de sociale en economische ongelijkheid.
879
00:37:08,240 --> 00:37:10,080
Die ontstaat door gebruik van taalmodellen.
880
00:37:10,620 --> 00:37:14,980
Dus heel veel van dit soort grote systemen worden getraind in lage lonenlanden.
881
00:37:15,090 --> 00:37:18,440
Die eigenlijk parasiteren op ons koloniale verleden.
882
00:37:18,550 --> 00:37:21,080
Dat is allemaal iets wat we niet meer willen, volgens mij.
883
00:37:21,250 --> 00:37:25,380
Dus we willen dat iedereen op de wereld gelijk en in welvaart leeft.
884
00:37:25,580 --> 00:37:30,100
En dan zie je dat wij in het Westen heel welvarend zijn.
885
00:37:30,110 --> 00:37:32,820
En denken, oh wij kunnen efficiënter werken als we zo'n taalmodel gebruiken.
886
00:37:32,880 --> 00:37:37,380
Maar ondertussen is dat taalmodel niet een soort magische iets wat je uit je hoog hoedje tovert.
887
00:37:37,480 --> 00:37:40,000
Maar dat is gewoon iets wat wordt getraind in lage lonenlanden.
888
00:37:40,800 --> 00:37:43,060
onder niet al te zonnige omstandigheden.
889
00:37:43,520 --> 00:37:45,240
Met click farms en click workers.
890
00:37:47,000 --> 00:37:49,520
Daar hebben we ook een aantal bronnen voor gevonden.
891
00:37:50,680 --> 00:37:55,180
Ik ben zelf ook te gast geweest een keer in het podcast van het College voor de Recht van de Mens hierover.
892
00:37:55,180 --> 00:38:00,040
En er was ook een andere onderzoeker aanwezig die daar ook onderzoek naar had gedaan.
893
00:38:01,480 --> 00:38:02,960
En ook bij click farms was geweest.
894
00:38:03,110 --> 00:38:05,300
Dat is echt allemaal niet heel zonnig wat je daarvan hoort.
895
00:38:05,460 --> 00:38:10,060
En dan denk je, als je als provincie dus bezig bent met de vraag, willen wij dit doen?
896
00:38:10,060 --> 00:38:13,540
Dan moet je dus niet alleen maar kijken naar wat levert het ons op en wat zijn onze juridische kaders.
897
00:38:14,460 --> 00:38:18,900
Want dan is zo'n vraagstuk van efficiëntie, want daar komt het bij zo'n taalmodel toch echt wel op neer.
898
00:38:19,140 --> 00:38:20,800
Dus we kunnen iets efficiënter gaan inrichten.
899
00:38:20,940 --> 00:38:25,660
Bijvoorbeeld, ik kan mijn tekst snel laten nakijken of redigeren of iets opzetten of een memo schrijven.
900
00:38:26,360 --> 00:38:29,480
Maar eigenlijk is het een mythe van efficiëntie, want de last wordt gewoon verlegd.
901
00:38:29,600 --> 00:38:31,340
Ofwel naar toekomstige generaties.
902
00:38:32,060 --> 00:38:34,500
Dit is overigens niet hoe dat letterlijk in het rapport stond.
903
00:38:34,620 --> 00:38:35,320
Hier hoor je een stukje
904
00:38:35,320 --> 00:38:36,420
van mijn eigen opinie.
905
00:38:37,100 --> 00:38:38,800
Maar ofwel naar toekomstige generaties.
906
00:38:39,040 --> 00:38:40,200
Omdat er een klimaatimpact is.
907
00:38:40,300 --> 00:38:41,480
Daar hebben wij nu mee te dealen.
908
00:38:41,480 --> 00:38:42,720
Maar ook toekomstige generaties.
909
00:38:43,700 --> 00:38:45,200
Maar ook andere delen van de wereld.
910
00:38:45,380 --> 00:38:48,140
Dus ik vind dat je als provincie dan niet alleen maar mag zeggen.
911
00:38:48,820 --> 00:38:50,140
Ja, maar dit is onze provincie.
912
00:38:50,360 --> 00:38:51,840
En dit levert het ons op.
913
00:38:51,900 --> 00:38:53,280
Nee, er is ook een last.
914
00:38:54,160 --> 00:38:55,500
Iemand betaalt ergens hun
915
00:38:55,500 --> 00:38:55,960
prijzen.
916
00:38:57,180 --> 00:38:58,580
Vond je daar gehoor in?
917
00:38:59,160 --> 00:39:00,540
Daar vond ik zeker gehoor in.
918
00:39:00,660 --> 00:39:01,860
Ja, en het mooie is ook.
919
00:39:02,100 --> 00:39:02,780
Want dat zei ik net al.
920
00:39:02,780 --> 00:39:04,020
Er werd er een beetje gekeken.
921
00:39:05,420 --> 00:39:07,400
vanuit overheidsland, wie is hier nu mee bezig?
922
00:39:08,180 --> 00:39:11,160
Ministerie van Binnenlandse Zaken en Koninkrijksrelaties...
923
00:39:11,160 --> 00:39:13,300
was toen bezig met de handreiking, generatieve AI.
924
00:39:14,540 --> 00:39:18,360
Daar ben ik toen ook wel als een van de vele experts...
925
00:39:18,360 --> 00:39:20,620
bij betrokken geweest, dus daar kon ik dit ook adresseren.
926
00:39:20,700 --> 00:39:23,040
En natuurlijk ook met dat rapport en advies
927
00:39:23,040 --> 00:39:23,620
onder de
928
00:39:23,620 --> 00:39:23,800
arm.
929
00:39:24,160 --> 00:39:25,120
Dat hadden zij natuurlijk ook.
930
00:39:26,260 --> 00:39:28,140
Kon ik dat daar aangeven.
931
00:39:29,740 --> 00:39:32,220
En daar zijn ook wel verschillende gemeenten...
932
00:39:32,220 --> 00:39:33,420
ook weer mee aan de slag gegaan.
933
00:39:34,060 --> 00:39:36,660
Dus dat is wel iets wat bij iedereen op de radar is.
934
00:39:37,260 --> 00:39:38,940
Maar je ziet toch gemak dient de mens.
935
00:39:39,220 --> 00:39:40,200
Dus mensen zijn toch ook
936
00:39:40,200 --> 00:39:42,840
geneigd om...
937
00:39:43,399 --> 00:39:44,680
Dan kijk ik maar naar mezelf.
938
00:39:45,380 --> 00:39:46,580
De afweging is snel gemaakt.
939
00:39:46,820 --> 00:39:47,420
Wat het lastige
940
00:39:47,420 --> 00:39:49,260
is hierbij vind ik echt wel.
941
00:39:49,440 --> 00:39:50,660
Ik vind als we kijken naar ethiek.
942
00:39:50,700 --> 00:39:51,660
Dan moet je dus niet alleen maar zeggen.
943
00:39:51,720 --> 00:39:53,660
Ja maar dit is moreel juist of onjuist.
944
00:39:53,680 --> 00:39:54,720
Of we moeten dit wel of niet doen.
945
00:39:54,840 --> 00:39:58,180
Voor mij is het belangrijk dat er een soort totaal aan overwegingen wordt meegenomen.
946
00:39:59,200 --> 00:40:00,860
Dat je in ieder geval kan verantwoorden wat je doet.
947
00:40:01,100 --> 00:40:02,960
En dat je misschien ook wel weet wat de prijs is.
948
00:40:03,080 --> 00:40:05,420
Maar dat je zegt, ik ben bereid hier in deze prijs te betalen.
949
00:40:05,520 --> 00:40:07,360
Of ik ben bereid de prijs te verzachten.
950
00:40:08,380 --> 00:40:09,840
Of je zegt, ik wacht het dus even af.
951
00:40:10,020 --> 00:40:11,520
Want ik vind die prijs het nog niet waard.
952
00:40:11,740 --> 00:40:12,280
Dat past
953
00:40:12,280 --> 00:40:12,820
niet bij ons.
954
00:40:13,050 --> 00:40:14,180
Dus niet bij onze kernwaarden.
955
00:40:14,660 --> 00:40:17,320
Wat ik heb gezien bij sommige organisaties.
956
00:40:17,470 --> 00:40:19,380
Is dat ze bijvoorbeeld hebben ingezet op een verbod.
957
00:40:21,160 --> 00:40:22,420
Op bijvoorbeeld ChatGPT.
958
00:40:23,380 --> 00:40:25,080
En dan sprak ik medewerkers.
959
00:40:25,180 --> 00:40:26,320
Hoe gaat dat dan?
960
00:40:26,420 --> 00:40:26,860
Het wordt
961
00:40:26,860 --> 00:40:27,540
gewoon gebruikt.
962
00:40:27,650 --> 00:40:27,740
Ik
963
00:40:27,740 --> 00:40:30,360
zet gewoon naast mijn werkplek op mijn privélaptop.
964
00:40:31,660 --> 00:40:33,900
En dat vind ik ingewikkeld.
965
00:40:33,910 --> 00:40:35,320
En ik denk, daar moeten we dan iets mee.
966
00:40:35,500 --> 00:40:39,200
Hoe creëer je een cultuur waarin iedereen zich bewust is van dit soort vraagstukken?
967
00:40:40,040 --> 00:40:42,640
Maar ook dat je verantwoordelijkheid neemt als organisatie.
968
00:40:42,930 --> 00:40:44,520
Want ik denk, dit kan je weten.
969
00:40:44,680 --> 00:40:46,520
Zodra je het gaat verbieden, gaan mensen het toch gebruiken.
970
00:40:47,300 --> 00:40:50,660
En ik denk dat je moet een cultuur organiseren waarin dit dan ook weer bespreekbaar wordt.
971
00:40:50,730 --> 00:40:52,880
En dat je samen gaat zoeken naar een oplossing.
972
00:40:53,340 --> 00:40:57,500
Want blijkbaar is de druk hoog en voelen mensen de behoefte om een efficiëntie
973
00:40:57,500 --> 00:40:58,040
slaan te maken.
974
00:40:58,060 --> 00:41:01,800
Het leuke is, er gaat een gast komen in de aankomende weken.
975
00:41:03,120 --> 00:41:07,940
Die aan het nadenken is van hoe zou je nou dit kunnen visualiseren.
976
00:41:08,440 --> 00:41:11,780
Dus dat je eigenlijk als gebruiker ook geconfronteerd wordt.
977
00:41:12,360 --> 00:41:13,320
Op een goede manier.
978
00:41:14,480 --> 00:41:15,800
Met wat het uiteindelijk kost.
979
00:41:16,160 --> 00:41:19,280
Het lijkt een beetje als een pakje sigaretten waar die long op zijn afgebeeld.
980
00:41:19,300 --> 00:41:19,940
Ja precies.
981
00:41:20,300 --> 00:41:23,920
En de vraag is, we gaan het met hem erover hebben.
982
00:41:24,040 --> 00:41:27,340
Wat het betekent of het wat oplevert.
983
00:41:27,400 --> 00:41:33,460
Maar ik kan me wel voorstellen, als je er op geen enkele wijze meer ziet wat bijeffecten zijn.
984
00:41:33,870 --> 00:41:34,120
Dat het
985
00:41:34,120 --> 00:41:34,960
ook best wel lastig is
986
00:41:34,960 --> 00:41:35,280
om
987
00:41:35,280 --> 00:41:37,740
die
988
00:41:37,740 --> 00:41:38,820
afweging ook te maken.
989
00:41:38,960 --> 00:41:39,020
Je
990
00:41:39,020 --> 00:41:39,700
weet het gewoon niet.
991
00:41:39,940 --> 00:41:44,020
Dus je klapt zelf je laptop open en je gaat gewoon naar zo'n applicatie toe.
992
00:41:44,680 --> 00:41:46,900
Je hebt gewoon niet door wat daarachter zit.
993
00:41:47,130 --> 00:41:48,020
Het voelt voor mij heel veel.
994
00:41:48,020 --> 00:41:50,520
Ik trek ook vaak de verbinding met fast fashion.
995
00:41:50,920 --> 00:41:54,720
Dus ik kan bij de Primark binnenlopen en denken wat een leuk bloesje.
996
00:41:54,740 --> 00:41:55,780
En dan zie ik niet
997
00:41:55,780 --> 00:41:57,320
kinderhandjes of zo.
998
00:41:57,460 --> 00:41:58,660
Ik weet eigenlijk niet precies wat
999
00:41:58,660 --> 00:41:59,300
de Primark doet.
1000
00:41:59,480 --> 00:42:02,580
Sorry Primark, maar dat beeld heb ik er, als ik er langer over nadenk,
1001
00:42:02,740 --> 00:42:06,900
bij hele goedkope fashion die ook dus niet heel lang stand houdt,
1002
00:42:07,440 --> 00:42:09,760
heb ik toch wel, dat is in ieder geval vervuilend,
1003
00:42:09,940 --> 00:42:11,160
want je moet het snel weer weg gaan gooien.
1004
00:42:11,600 --> 00:42:15,500
Maar ook hoe is dit tot stand gekomen dat het zo ongelooflijk goedkoop is.
1005
00:42:16,100 --> 00:42:17,960
Dus dat is altijd, in mijn begintijd,
1006
00:42:18,200 --> 00:42:19,760
dus toen ik net begon met filosofie en actie,
1007
00:42:19,780 --> 00:42:21,160
was al wel een beetje het credo.
1008
00:42:21,400 --> 00:42:23,760
Ook zeker binnen privacyland, als iets gratis is,
1009
00:42:24,400 --> 00:42:25,080
Dan ben jij het
1010
00:42:25,080 --> 00:42:25,240
product.
1011
00:42:25,520 --> 00:42:25,680
Ik
1012
00:42:25,680 --> 00:42:26,900
denk als iets goedkoop is.
1013
00:42:27,420 --> 00:42:29,240
Dan mag je je echt afvragen wie de prijs
1014
00:42:29,240 --> 00:42:29,760
betaalt.
1015
00:42:30,080 --> 00:42:30,800
Dat is een hele mooie.
1016
00:42:32,060 --> 00:42:34,620
Ik wil toch even naar ons kaartspel.
1017
00:42:34,840 --> 00:42:36,220
Want wat wij doen is.
1018
00:42:36,640 --> 00:42:37,520
We hebben een kaartspel.
1019
00:42:37,770 --> 00:42:38,820
AI Game Changer.
1020
00:42:39,280 --> 00:42:39,720
Generatieve
1021
00:42:39,720 --> 00:42:40,480
AI editie.
1022
00:42:41,620 --> 00:42:44,500
Juist om gesprekken in organisaties op gang te brengen.
1023
00:42:44,620 --> 00:42:47,880
Over allerlei vraagstukken rondom AI.
1024
00:42:48,420 --> 00:42:51,200
Er zit ook een categorie ethieke maatschappij in.
1025
00:42:51,700 --> 00:42:51,960
Maar
1026
00:42:51,960 --> 00:42:53,780
Niels schudt altijd keurig.
1027
00:42:54,380 --> 00:42:55,300
Dus laten we eens even kijken
1028
00:42:55,300 --> 00:42:56,560
wat er uitkijkt.
1029
00:42:56,590 --> 00:42:56,720
Ja,
1030
00:42:56,980 --> 00:42:57,200
precies.
1031
00:43:11,660 --> 00:43:13,120
Ik zie je kijken.
1032
00:43:13,990 --> 00:43:16,080
Nee, het is niet de ethiek categorie.
1033
00:43:16,480 --> 00:43:17,720
Dat is misschien wel goed juist.
1034
00:43:18,420 --> 00:43:19,220
Daag mij maar uit.
1035
00:43:19,570 --> 00:43:19,680
De
1036
00:43:19,680 --> 00:43:21,420
categorie is technologie en innovatie.
1037
00:43:22,720 --> 00:43:23,780
En de stelling luidt als volgt.
1038
00:43:24,540 --> 00:43:30,960
Bedrijven die generatieve AI integreren in hun bedrijfsvoering zullen een aanzienlijke concurrentievoordeel hebben.
1039
00:43:32,180 --> 00:43:33,340
Dus ik zal het nog even herhalen.
1040
00:43:34,040 --> 00:43:40,060
Bedrijven die generatieve AI integreren in hun bedrijfsvoering zullen een aanzienlijke concurrentievoordeel hebben.
1041
00:43:40,780 --> 00:43:42,880
En waar moet ik denken aan bij bedrijfsvoering?
1042
00:43:43,820 --> 00:43:47,860
Op welke niveaus hebben we het dan over financiële administratie?
1043
00:43:49,160 --> 00:43:50,300
De core processen van een
1044
00:43:50,300 --> 00:43:50,860
organisatie.
1045
00:43:51,600 --> 00:43:53,380
Ja, dat is afhankelijk van het type organisatie.
1046
00:43:53,620 --> 00:43:54,280
Maar echt in de koor.
1047
00:43:55,280 --> 00:43:57,220
Ja, ik denk natuurlijk niet zwart-wit.
1048
00:43:57,340 --> 00:43:58,300
Want ik ben een filosoof.
1049
00:43:59,760 --> 00:44:02,320
Ik denk dat het in eerste instantie lijkt dat dat zo is.
1050
00:44:03,320 --> 00:44:04,440
Dus ik kan me voorstellen dat je denkt.
1051
00:44:04,540 --> 00:44:09,140
Als we dat nou gewoon lekker efficiënt gaan inrichten.
1052
00:44:11,300 --> 00:44:12,140
Dat scheelt een heleboel.
1053
00:44:12,240 --> 00:44:13,580
Kunnen wij ons focussen op de kerntaak?
1054
00:44:13,620 --> 00:44:15,480
Ik denk dat dat over het algemeen toch de afweging is.
1055
00:44:16,080 --> 00:44:17,320
Wij willen ons focussen op de kern.
1056
00:44:17,380 --> 00:44:17,940
Op de inhoud.
1057
00:44:18,160 --> 00:44:19,880
En dan zijn die processen geregeld.
1058
00:44:21,300 --> 00:44:24,600
Ik, ja, concurrentievoordeel.
1059
00:44:24,820 --> 00:44:25,900
Ja, ik vind het heel lastig.
1060
00:44:25,920 --> 00:44:27,240
Want ik ben zelf natuurlijk ondernemer.
1061
00:44:28,760 --> 00:44:31,280
Maar wel maatschappelijk impact ondernemer.
1062
00:44:31,300 --> 00:44:34,060
Dus ik probeer er niet zo naar te kijken.
1063
00:44:34,220 --> 00:44:36,020
En ik denk altijd dat de taart groot genoeg is.
1064
00:44:36,020 --> 00:44:37,220
En het gaat niet om schaarste.
1065
00:44:37,260 --> 00:44:39,620
Een beetje anti-kapitalistisch wat dat betreft.
1066
00:44:40,799 --> 00:44:42,940
Dus zo kan ik hem niet naar mezelf vertalen.
1067
00:44:43,440 --> 00:44:46,020
Ik moet heel erg denken aan een filmpje van Klokhuis.
1068
00:44:46,980 --> 00:44:48,820
Die laat ik hem wel eens zien in lezingen.
1069
00:44:49,120 --> 00:44:49,440
Oh, leuk.
1070
00:44:49,720 --> 00:44:51,180
Een heel leuk filmpje over AI.
1071
00:44:51,480 --> 00:44:52,980
Sowieso, het klokhuis heeft een hele leuke
1072
00:44:52,980 --> 00:44:54,040
reeks over AI.
1073
00:44:54,460 --> 00:44:57,660
Je mag kinderen hebben om er naar te kijken, maar je mag er ook gewoon zelf naar
1074
00:44:57,660 --> 00:44:57,840
kijken.
1075
00:44:58,740 --> 00:45:00,740
En ze doen natuurlijk heel veel met sketches en liedjes ook.
1076
00:45:01,090 --> 00:45:01,180
Los
1077
00:45:01,180 --> 00:45:01,520
van de
1078
00:45:01,520 --> 00:45:02,020
informatie.
1079
00:45:02,050 --> 00:45:05,680
En er is één sketch waarbij Ellen Parren, een actrice,
1080
00:45:06,219 --> 00:45:09,960
die begeleidt een groepje kinderen door het AI Museum in 2097.
1081
00:45:10,550 --> 00:45:12,100
Ja, ik ken hem. Ja, fantastisch.
1082
00:45:12,300 --> 00:45:14,960
En zij ziet er ook een beetje futuristisch uit.
1083
00:45:15,030 --> 00:45:16,660
Met een pruik en een zilveren pakje en zo.
1084
00:45:16,840 --> 00:45:18,840
En ze loopt dan met kinderen die er ook futuristisch uitzien.
1085
00:45:18,940 --> 00:45:20,960
Door het, zegt hij welkom in het Nederlandse AI Museum.
1086
00:45:22,660 --> 00:45:24,940
En dan ga je zien eigenlijk de geschiedenis van AI.
1087
00:45:25,060 --> 00:45:27,560
En dan zegt hij, nou in 2020 liet Eentje Meintje Klinker.
1088
00:45:27,680 --> 00:45:28,820
Ik ken hem denk ik helemaal uit mijn hoofd.
1089
00:45:29,960 --> 00:45:30,280
Maar
1090
00:45:30,280 --> 00:45:33,820
liet haar eerste werkstuk maken door generatieve AI over Ed Sheeran.
1091
00:45:33,820 --> 00:45:36,120
En dan zeggen die kinderen, wat ziet een werkstuk er zo uit?
1092
00:45:36,220 --> 00:45:38,140
Wat is dat? Papier, geen hologrammen en zo.
1093
00:45:38,140 --> 00:45:39,020
Dus allemaal heel grappig.
1094
00:45:39,800 --> 00:45:42,200
En dan zie je, eigenlijk wat zij doet, is zij laat zien.
1095
00:45:44,420 --> 00:45:46,400
Althans het gevoel dat je als kijker bekruipt is.
1096
00:45:46,560 --> 00:45:50,600
Wat zijn wij ontzettend dom bezig waar wij dit voor inzetten.
1097
00:45:50,740 --> 00:45:51,820
Want hoezo
1098
00:45:51,820 --> 00:45:52,520
werkstukken?
1099
00:45:52,540 --> 00:45:53,400
Dat zeggen die kinderen ook.
1100
00:45:53,540 --> 00:45:55,060
Maar zo leer je er toch helemaal niks
1101
00:45:55,060 --> 00:45:55,420
van.
1102
00:45:55,620 --> 00:45:56,360
En dan laten
1103
00:45:56,360 --> 00:45:57,600
ze een kunstwerk zien.
1104
00:45:57,840 --> 00:45:59,200
En dan zeggen die kinderen ook.
1105
00:45:59,300 --> 00:46:01,680
Waarom zou je het enige leuke in het leven?
1106
00:46:01,800 --> 00:46:02,700
Dat je iets kan creëren.
1107
00:46:02,800 --> 00:46:03,380
Waarom zou je dat nou
1108
00:46:03,380 --> 00:46:04,100
uitbesteden
1109
00:46:04,100 --> 00:46:04,640
aan AI?
1110
00:46:05,640 --> 00:46:08,560
En is kunst ook niet eigenlijk bedoeld om iets van jezelf te laten zien?
1111
00:46:08,660 --> 00:46:09,580
Dat kan dan toch helemaal niet.
1112
00:46:09,940 --> 00:46:10,260
Zo
1113
00:46:10,260 --> 00:46:11,260
worden we een beetje meegenomen.
1114
00:46:11,380 --> 00:46:12,400
Wat zijn we eigenlijk aan het doen?
1115
00:46:13,600 --> 00:46:15,380
Dit is een omweg om te vertellen.
1116
00:46:15,840 --> 00:46:23,740
Ik vraag me echt af of wij ons nu heel erg bewust zijn van waar we AI nou precies heel erg goed voor kunnen inzetten.
1117
00:46:24,040 --> 00:46:30,640
Dus wat ik zou doen, trouwens wat ik niet doe, want ik gebruik geen generatieve AI in mijn onderneming, heel bewust.
1118
00:46:31,280 --> 00:46:36,580
Ook bij sollicitaties zeggen wij ook, als je dit met generatieve AI maakt, dan pas je gewoon niet bij ons.
1119
00:46:37,240 --> 00:46:37,900
Dus doe maar niet.
1120
00:46:38,000 --> 00:46:42,960
Er zijn ook onze sollicitatieprocessen daarop anders aan het inrichten dat dat ook niet uitnodigt om dat te doen natuurlijk.
1121
00:46:44,860 --> 00:46:47,060
Maar ik vraag me echt af aan de hand van dat filmpje.
1122
00:46:48,160 --> 00:46:51,680
Hoe denken wij over 10, 15 jaar terug op waar we nu allemaal AI voor
1123
00:46:51,680 --> 00:46:52,220
aan het gebruiken
1124
00:46:52,220 --> 00:46:52,400
zijn.
1125
00:46:52,580 --> 00:47:00,440
En zijn wij eigenlijk nu nog zoekend in waar dit nou precies nuttig, handig, wenselijk, goed voor is.
1126
00:47:00,940 --> 00:47:03,920
Dus ik zou denken, even vanuit die stelling gedacht.
1127
00:47:04,600 --> 00:47:08,640
Ik zou niet alle core processen overlaten.
1128
00:47:09,140 --> 00:47:09,840
Zeker niet.
1129
00:47:10,880 --> 00:47:15,300
Maar ik weet wel, dus daarom begon ik ook over die financiële afhandeling.
1130
00:47:15,900 --> 00:47:20,420
Er zijn natuurlijk processen die zich makkelijker voor automatiseren lenen dan anderen.
1131
00:47:21,120 --> 00:47:24,080
Ik kan me voorstellen dat daar wat winst in te behalen is.
1132
00:47:24,080 --> 00:47:26,500
Maar dan gaat het mij vooral ook om de betekenis van werk.
1133
00:47:26,860 --> 00:47:28,940
Dus ik probeer dan ook natuurlijk naar de menselijke kant te kijken.
1134
00:47:31,140 --> 00:47:35,700
Want als iemand nou heel veel betekenis haalt uit zijn werk, moet je dat dan afnemen.
1135
00:47:36,020 --> 00:47:42,700
Ik probeer ook met mijn team heel erg te kijken naar dat iedereen bijdraagt op diens eigen manier aan dat wat we aan het doen zijn.
1136
00:47:43,779 --> 00:47:46,420
En dat betekent niet dat we eindeloos contempleren.
1137
00:47:46,480 --> 00:47:47,760
Dat denk je dan bij filosofen natuurlijk.
1138
00:47:47,880 --> 00:47:49,020
Die mogen dan heel lang over dingen doen.
1139
00:47:49,060 --> 00:47:50,240
Nee hoor, ik zit ook echt wel.
1140
00:47:50,560 --> 00:47:53,860
Er zijn gewoon tijd en budgetten en zo beschikbaar voor dingen.
1141
00:47:55,460 --> 00:47:58,040
Maar ik vind die zingeving en betekenis ook heel erg belangrijk.
1142
00:47:58,200 --> 00:48:00,140
En ik kan me dus even voorstellen naar de andere kant toe.
1143
00:48:00,540 --> 00:48:03,680
Sommige taken geven natuurlijk helemaal geen zin en geen betekenis.
1144
00:48:03,700 --> 00:48:04,120
en
1145
00:48:04,120 --> 00:48:06,020
die zijn eindeloos repetitief.
1146
00:48:06,620 --> 00:48:10,540
Ja, ik kan me voorstellen dat het daar heel nuttig en handig voor is.
1147
00:48:10,680 --> 00:48:13,400
Maar concurrentievoordeel, want dan krijg je natuurlijk het argument
1148
00:48:13,500 --> 00:48:15,420
ja, want alle anderen doen het, dus moeten wij het misschien ook doen,
1149
00:48:15,510 --> 00:48:16,240
anders lopen we achter.
1150
00:48:16,930 --> 00:48:20,920
En dat is een beetje het narratief wat we volgens mij echt bewust van moeten zijn,
1151
00:48:20,970 --> 00:48:22,840
van waar komt dat nou precies vandaan?
1152
00:48:23,880 --> 00:48:25,420
Dat als je nu niet op die trein
1153
00:48:25,420 --> 00:48:26,420
spreekt, dan gaat
1154
00:48:26,420 --> 00:48:27,340
er echt van alles mis.
1155
00:48:27,430 --> 00:48:29,140
En dat is een soort angstnarratief.
1156
00:48:29,170 --> 00:48:32,599
En ik vind dit echt heel ingewikkeld, want het wordt vaak heel erg dus
1157
00:48:32,620 --> 00:48:35,700
Dus wij noemen dit een beetje de AI-jubelaars.
1158
00:48:35,980 --> 00:48:38,160
Dus die worden heel erg van, oh, AI, fantastie, fantastie.
1159
00:48:38,180 --> 00:48:38,940
Je kan het overal kijken.
1160
00:48:39,050 --> 00:48:42,820
Ook inderdaad voor de core business praktijk kun je het ook gebruiken.
1161
00:48:44,260 --> 00:48:45,680
Ik denk altijd immers angst gedreven.
1162
00:48:45,690 --> 00:48:47,480
Dat is dus niet vanuit een hoop en innovatie.
1163
00:48:47,480 --> 00:48:51,860
Het is gewoon pure angst dat als je dat niet doet, dat je dan achter komt te liggen.
1164
00:48:52,560 --> 00:48:56,380
En ik zou willen, ja, ik ben zelf meer van met vertrouwen en liefde naar de wereld kijken.
1165
00:48:56,960 --> 00:48:57,820
Komt allemaal wel goed.
1166
00:48:58,760 --> 00:49:02,360
Vooral als we heel erg stilstaan bij van waaruit wij zelf opereren.
1167
00:49:02,920 --> 00:49:05,120
Dus als je dan gaat kijken naar concurrentiepositie.
1168
00:49:05,120 --> 00:49:06,620
Ben je vooral zo bezig met die anderen.
1169
00:49:07,659 --> 00:49:09,080
En binnen mijn tak van sport.
1170
00:49:09,160 --> 00:49:10,440
Misschien is het ook een luxe positie.
1171
00:49:10,540 --> 00:49:11,120
Want wij zijn best
1172
00:49:11,120 --> 00:49:11,720
wel uniek.
1173
00:49:12,420 --> 00:49:13,320
In Nederland en in Europa.
1174
00:49:14,140 --> 00:49:15,640
Dus misschien is dat het ook.
1175
00:49:15,700 --> 00:49:17,900
Dat ik dat gehijg in mijn nek niet zo voel.
1176
00:49:18,400 --> 00:49:19,020
Dat is heel fijn.
1177
00:49:19,240 --> 00:49:19,920
Dat is heel fijn.
1178
00:49:19,960 --> 00:49:20,820
Maar ik
1179
00:49:20,820 --> 00:49:21,520
vind dat lastig.
1180
00:49:21,580 --> 00:49:23,060
Want dan ben je zo bezig met anderen.
1181
00:49:23,200 --> 00:49:25,100
Terwijl je hebt gewoon zelf een kern waar je voor staat.
1182
00:49:25,380 --> 00:49:25,500
Daar
1183
00:49:25,500 --> 00:49:25,780
komen we eigenlijk
1184
00:49:25,780 --> 00:49:26,140
terug bij.
1185
00:49:26,180 --> 00:49:26,820
Waar sta je voor?
1186
00:49:27,380 --> 00:49:28,300
Van waaruit doe je dingen?
1187
00:49:28,440 --> 00:49:32,220
Welke klassieke filosoof zou nou heel erg tegen AI zijn geweest?
1188
00:49:33,680 --> 00:49:34,480
Jeetje, wat een vraag.
1189
00:49:42,719 --> 00:49:43,760
Ik weet niet.
1190
00:49:44,170 --> 00:49:44,680
Hij leeft
1191
00:49:44,680 --> 00:49:44,980
nog.
1192
00:49:46,280 --> 00:49:46,640
Habermas.
1193
00:49:46,900 --> 00:49:47,300
Leeft hij nog?
1194
00:49:47,330 --> 00:49:48,800
Nee, dat twijfel ik.
1195
00:49:48,870 --> 00:49:49,360
Volgens mij wel.
1196
00:49:49,620 --> 00:49:50,100
Zoek hem op.
1197
00:49:51,500 --> 00:49:52,500
Als hij nog leeft is
1198
00:49:52,500 --> 00:49:53,220
hij heel oud.
1199
00:49:56,739 --> 00:49:57,460
Hij heeft...
1200
00:49:57,680 --> 00:49:58,540
Ik kan er wel twee
1201
00:49:58,540 --> 00:49:58,860
noemen.
1202
00:49:59,440 --> 00:50:01,200
Noem de naam nog eens, want het ging heel snel.
1203
00:50:01,340 --> 00:50:01,640
Jürgen
1204
00:50:01,640 --> 00:50:02,220
Habermas.
1205
00:50:02,680 --> 00:50:04,280
ik moet heel vaak aan hem denken
1206
00:50:04,330 --> 00:50:06,480
ik weet niet wat hij ervan zou zeggen of zegt
1207
00:50:06,640 --> 00:50:08,220
ik schaam er een beetje voor
1208
00:50:08,230 --> 00:50:09,720
dat ik even niet weet of hij leeft trouwens
1209
00:50:09,850 --> 00:50:11,420
sorry Jurgen Habermas
1210
00:50:14,399 --> 00:50:15,120
hoe dan ook
1211
00:50:15,440 --> 00:50:16,680
hij heeft het heel erg over
1212
00:50:18,659 --> 00:50:19,380
de instrumentalisering
1213
00:50:19,610 --> 00:50:20,480
nee ik gebruik het heel veel
1214
00:50:20,660 --> 00:50:23,000
we hebben een opleiding gespreksleider data ethiek
1215
00:50:23,080 --> 00:50:25,160
waarin we mensen opleiden om dit soort gesprekken
1216
00:50:25,240 --> 00:50:25,840
binnen een organisatie
1217
00:50:25,840 --> 00:50:26,220
te voeren
1218
00:50:26,680 --> 00:50:28,280
wil ik toch ook even zeggen dat hij genomineerd was
1219
00:50:28,350 --> 00:50:29,300
voor de Nederlandse privacy
1220
00:50:29,300 --> 00:50:29,680
awards
1221
00:50:31,879 --> 00:50:32,240
gefeliciteerd
1222
00:50:32,260 --> 00:50:33,940
Waarin we dus heel erg vanuit waarde dat gesprek voeren.
1223
00:50:34,060 --> 00:50:36,800
En daarin leer ik ook de deelnemers over Jürgen Habermas.
1224
00:50:37,300 --> 00:50:39,400
Die zegt, je hebt eigenlijk open communicatie.
1225
00:50:41,620 --> 00:50:41,760
Pardon.
1226
00:50:42,280 --> 00:50:44,000
Open communicatie is strategische communicatie.
1227
00:50:44,480 --> 00:50:47,060
En als je open communicatie hebt, dan is dat eigenlijk machtsvrij.
1228
00:50:47,400 --> 00:50:48,800
Dus dan ga ik met jou in gesprek.
1229
00:50:49,320 --> 00:50:50,940
Zonder dat ik daar verdere bedoelingen bij heb.
1230
00:50:51,020 --> 00:50:53,420
Of dat ik jou ergens in een bepaalde richting wil krijgen.
1231
00:50:54,680 --> 00:50:59,440
En hij zegt, de markt is eigenlijk heel erg vergeven van juist die strategische communicatie.
1232
00:51:00,040 --> 00:51:03,940
Want ik wil mensen verleiden iets te kopen of iets te doen of wat dan ook.
1233
00:51:04,580 --> 00:51:07,640
En hij beschrijft heel mooi en daar gebruik ik het ook voor.
1234
00:51:07,670 --> 00:51:13,160
Hoe eigenlijk steeds meer die strategecommunicatie ook eigenlijk onze privésfeer benadert.
1235
00:51:13,640 --> 00:51:16,880
Dus je ziet ook, nou je kan ook wel eens ervaren van.
1236
00:51:17,160 --> 00:51:19,500
Goh is dit nou echt een open en eerlijk en machtsvrij gesprek.
1237
00:51:19,560 --> 00:51:21,180
Of word ik hier nou gewoon in een hoekje geduwd.
1238
00:51:21,270 --> 00:51:22,580
Ik hou er zelf helemaal niet van.
1239
00:51:22,770 --> 00:51:24,000
Dus van de instrumentalisering.
1240
00:51:24,700 --> 00:51:27,060
En ik denk daar heel vaak aan in termen van AI.
1241
00:51:27,420 --> 00:51:30,200
Zijn we dan niet iets wat heel menselijk is.
1242
00:51:30,290 --> 00:51:31,140
En heel open is.
1243
00:51:31,170 --> 00:51:32,320
En eerlijk en authentiek.
1244
00:51:32,480 --> 00:51:34,100
Heel erg aan het instrumentaliseren.
1245
00:51:34,560 --> 00:51:36,320
Want het is zo gericht op efficiëntie.
1246
00:51:36,960 --> 00:51:38,960
En ik moet ook meteen denken aan het voorbeeld van Klarna.
1247
00:51:39,060 --> 00:51:40,180
Hebben jullie misschien ook wel gehoord.
1248
00:51:40,940 --> 00:51:42,260
Die die chatbots inzetten.
1249
00:51:42,360 --> 00:51:43,900
En dat ze daarmee zijn gestopt.
1250
00:51:45,260 --> 00:51:47,300
Die wilden eigenlijk geen mensen meer aannemen.
1251
00:51:48,659 --> 00:51:50,460
Ieder nieuw werk moest door en jij gedaan moet.
1252
00:51:50,600 --> 00:51:50,660
Precies.
1253
00:51:51,490 --> 00:51:52,980
En ook rondom de klantenservice.
1254
00:51:53,160 --> 00:51:54,120
En dat ze er toen achter kwamen.
1255
00:51:54,280 --> 00:51:55,300
Maar wacht eens even.
1256
00:51:56,180 --> 00:51:59,340
Binnen de klantenservice komen mensen niet alleen maar om een antwoord te krijgen op een vraag.
1257
00:51:59,540 --> 00:52:05,620
Het is ook contact, een gevoel bij de organisatie krijgen, een menselijk gezicht, een stukje aandacht, een beetje vriendelijkheid op de dag.
1258
00:52:07,240 --> 00:52:08,740
Dus daar moet ik dan vaak aan denken.
1259
00:52:08,800 --> 00:52:11,960
Het is meer dan alleen maar het instrument, ik wil iets van jou.
1260
00:52:13,220 --> 00:52:15,280
Dus de AI slaat het op een of andere manier zo plat.
1261
00:52:15,920 --> 00:52:16,860
Dat is één waar ik aan moet denken.
1262
00:52:17,060 --> 00:52:19,240
De ander wil ik ook nog even noemen, want die gebruik ik ook heel veel.
1263
00:52:19,340 --> 00:52:21,120
Dat is Hans Jonas, een techniekfilosoof.
1264
00:52:22,460 --> 00:52:24,200
Die heeft in de jaren zeventig een boek geschreven.
1265
00:52:24,380 --> 00:52:27,700
En ik zeg wel eens, als iedereen dat boek had gelezen destijds,
1266
00:52:27,780 --> 00:52:30,800
dan waren we niet enorm in die welvaartsfuik terechtgekomen,
1267
00:52:30,880 --> 00:52:33,520
waar we nu dan die enorme klimaatcrisis aan te danken hebben.
1268
00:52:34,440 --> 00:52:37,700
Die natuurlijk al veel eerder is begonnen met de industriele revolutie en zo.
1269
00:52:37,760 --> 00:52:40,400
Maar goed, het heel enorme denken van het moet allemaal sneller,
1270
00:52:40,560 --> 00:52:44,080
we moeten meer en meer een bepaalde gretigheid.
1271
00:52:45,060 --> 00:52:47,280
Hij zegt eigenlijk, als we bezig zijn met technologie,
1272
00:52:47,340 --> 00:52:52,060
dan moeten we ons altijd de vraag stellen wat dit betekent voor toekomstige generaties.
1273
00:52:52,300 --> 00:52:54,180
Dus niet alleen maar wat levert het ons hier en nu op.
1274
00:52:54,280 --> 00:52:56,860
We hebben gewoon een morele plicht aan toekomstige generaties.
1275
00:52:57,540 --> 00:53:02,480
Wat hij heel mooi doet is dat hij eigenlijk twee ethische denkwijzen of perspectieven.
1276
00:53:02,580 --> 00:53:04,140
Namelijk gevolgen, ethiek en de deontologie.
1277
00:53:04,420 --> 00:53:06,400
Misschien voert het misschien te ver om die uit te
1278
00:53:06,400 --> 00:53:06,560
leggen.
1279
00:53:06,560 --> 00:53:07,020
Maar die
1280
00:53:07,020 --> 00:53:08,160
maakt Binti samen.
1281
00:53:08,200 --> 00:53:09,960
Dus hij zegt we moeten nadenken over de gevolgen.
1282
00:53:10,000 --> 00:53:11,360
Dat is heel vaak iets wat mensen doen.
1283
00:53:11,620 --> 00:53:13,920
Dus AI is heel nuttig want dat levert ons iets op.
1284
00:53:14,340 --> 00:53:15,060
Namelijk dit en dit en dit.
1285
00:53:15,080 --> 00:53:15,820
En dat vinden we belangrijk.
1286
00:53:16,020 --> 00:53:16,560
Dus dat moeten we doen.
1287
00:53:18,020 --> 00:53:19,700
Versus nee, we moeten dat misschien niet doen.
1288
00:53:19,820 --> 00:53:22,440
Want dat is inherent misschien niet goed of juist wel goed.
1289
00:53:22,980 --> 00:53:25,440
Hij combineert die twee denkwijzen eigenlijk met elkaar.
1290
00:53:25,530 --> 00:53:28,460
Dus de een is gericht op de gevolgen en de ander op de aard van de handelingen.
1291
00:53:28,460 --> 00:53:32,240
Hij zegt, als we hier nu een beslissing maken, hebben we een plicht naar die toekomst toe.
1292
00:53:33,140 --> 00:53:36,040
En ik denk wel eens, en ik noem het ook heel vaak in praatjes,
1293
00:53:36,180 --> 00:53:40,880
als we nou naar AI kijken of naar generatief AI of naar willekeurig welk voorbeeld.
1294
00:53:41,520 --> 00:53:45,800
Als we nou Hans Jonas gebruiken als inspiratiebron, dan denk ik wel dat we er anders naar gaan kijken.
1295
00:53:46,600 --> 00:53:52,680
Dus als wij nu inderdaad alles laten vervangen door bots of zo, zoals Klarna dan inderdaad bedacht.
1296
00:53:53,540 --> 00:53:58,300
wat betekent dat niet alleen nu, maar laten we eens kijken naar termijn 10, 15 jaar.
1297
00:53:58,430 --> 00:54:02,640
Wij kijken ook heel vaak in onze ethische analyse naar perspectieven 100, 150 jaar.
1298
00:54:03,780 --> 00:54:05,040
En dat weten we, weten het
1299
00:54:05,040 --> 00:54:05,320
niet.
1300
00:54:06,460 --> 00:54:08,360
Maar het is denk ik wel goed om even na te denken,
1301
00:54:08,810 --> 00:54:11,280
is er mogelijk bijvoorbeeld weer een last die we verschuiven?
1302
00:54:12,290 --> 00:54:15,200
Ja, dus ik hoor ook heel erg kritisch blijven en
1303
00:54:15,200 --> 00:54:15,680
breder
1304
00:54:15,680 --> 00:54:18,280
kijken dan het hier en nu en het gemak.
1305
00:54:18,840 --> 00:54:22,480
Precies, ja, en ook vooral niet, kijk die trein die we eerder noemden,
1306
00:54:23,080 --> 00:54:25,900
We worden gewoon gevoed door Silicon Valley met een verhaal.
1307
00:54:26,520 --> 00:54:28,680
En met grote beloften wat het ons allemaal kan brengen.
1308
00:54:29,520 --> 00:54:31,620
En ik denk dat het gewoon belangrijk is om je bewust te zijn.
1309
00:54:31,740 --> 00:54:34,080
Dat dat een narratief is dat ons wordt voorgeschoteld.
1310
00:54:34,240 --> 00:54:37,320
Maar waar je gewoon kritisch naar mag kijken.
1311
00:54:37,420 --> 00:54:39,380
En dat betekent niet, we moeten het afschieten.
1312
00:54:40,540 --> 00:54:42,740
Of het is allemaal niet waar, het kan helemaal niks.
1313
00:54:42,780 --> 00:54:44,520
Maar laten we er realistisch naar kijken.
1314
00:54:44,720 --> 00:54:45,560
Oké, dit is wat big tech.
1315
00:54:45,740 --> 00:54:47,800
En ze proberen ons te verleiden het te gebruiken.
1316
00:54:47,900 --> 00:54:48,780
Dus dat is weer
1317
00:54:48,780 --> 00:54:49,580
instrumenteel.
1318
00:54:49,720 --> 00:54:51,320
Dat is niet het oprechte verhaal.
1319
00:54:51,980 --> 00:54:55,600
Wat kan het ons werkelijk bieden en in hoeverre sluit het dan aan bij wat wij belangrijk vinden?
1320
00:54:55,960 --> 00:54:57,200
Ik zie Joop al mijn hand gaan.
1321
00:54:57,230 --> 00:54:59,400
Ik wil nog één vraag nog echt even stellen inderdaad.
1322
00:54:59,900 --> 00:55:00,680
Want het gaat heel snel.
1323
00:55:00,770 --> 00:55:01,760
De ontwikkeling gaat heel snel.
1324
00:55:01,880 --> 00:55:02,820
De technologie gaat heel snel.
1325
00:55:03,120 --> 00:55:03,880
Het komt op je af.
1326
00:55:04,110 --> 00:55:06,620
De verhalen komen vanuit Silicon Valley en andere kanten.
1327
00:55:07,260 --> 00:55:12,300
Hoe en wat kunnen we mensen meegeven en ook onze luisteraars om kritisch te blijven?
1328
00:55:12,330 --> 00:55:15,620
Want er zijn al genoeg vraagstukken waar mensen druk mee zijn.
1329
00:55:15,880 --> 00:55:16,480
Hoe zorgen
1330
00:55:16,480 --> 00:55:17,520
we dat we kritisch blijven?
1331
00:55:18,080 --> 00:55:18,800
Heb je daar een tip van?
1332
00:55:19,420 --> 00:55:21,960
Nou ja, ik denk dat je sowieso die drie vragen altijd stellen.
1333
00:55:22,140 --> 00:55:23,120
Dus wat kan het?
1334
00:55:23,960 --> 00:55:25,380
En dan moet je ook echt afvragen.
1335
00:55:26,040 --> 00:55:26,780
Dus dat is dat technisch.
1336
00:55:27,000 --> 00:55:28,760
Kan het, mag het, is het wenselijk zijn die drie vragen.
1337
00:55:29,200 --> 00:55:30,500
Kan het is echt, wat kan het?
1338
00:55:30,530 --> 00:55:31,760
Maar wat kan het ook vooral niet?
1339
00:55:32,100 --> 00:55:32,500
Dus zoals
1340
00:55:32,500 --> 00:55:35,020
ik net zei, een taalmodel is een taalmodel en geen kennismodel.
1341
00:55:35,260 --> 00:55:37,580
Dus je kan het voor het een wel gebruiken, voor het ander niet.
1342
00:55:37,800 --> 00:55:41,220
Je moet nadenken over de mate van autonomie die je dan toekent aan zo'n systeem.
1343
00:55:41,300 --> 00:55:43,980
Zo, Mireille Hildebrand zei heel mooi.
1344
00:55:44,100 --> 00:55:44,900
Dat zijn nog drie vragen.
1345
00:55:44,950 --> 00:55:46,060
Die krijg je even nog tussendoor.
1346
00:55:47,060 --> 00:55:48,200
Welk probleem lost het op?
1347
00:55:48,480 --> 00:55:49,600
Welk probleem lost het niet op?
1348
00:55:49,680 --> 00:55:51,200
En welke problemen veroorzaakt
1349
00:55:51,200 --> 00:55:51,360
het?
1350
00:55:51,640 --> 00:55:52,660
Oh, die laatste is heel mooi.
1351
00:55:52,760 --> 00:55:53,620
Ja, want dan blijf
1352
00:55:53,620 --> 00:55:54,340
je ook breder kijken.
1353
00:55:54,380 --> 00:55:56,960
Want anders denk je meteen, oh, probleem, oplossing, mooi, gefixt, leuk.
1354
00:55:57,120 --> 00:55:57,600
En we gaan weer door.
1355
00:55:57,900 --> 00:55:58,980
Nee, breder.
1356
00:55:59,420 --> 00:56:01,320
Dus dat is die kan het vraag, die mag het vragen.
1357
00:56:01,799 --> 00:56:05,820
Blijf kritisch ook op de juridische kaders en randvoorwaarden.
1358
00:56:06,300 --> 00:56:07,339
Soms is er ook sprake van zelfregulering.
1359
00:56:07,920 --> 00:56:09,060
Kan je ook zelf creëren natuurlijk.
1360
00:56:09,800 --> 00:56:10,800
En de wenselijkheidsvraag.
1361
00:56:10,860 --> 00:56:13,600
Dus wat betekent dit nou precies voor ons als organisatie?
1362
00:56:14,640 --> 00:56:16,120
Voor de mensen waar we voor het doen?
1363
00:56:16,300 --> 00:56:17,680
Voor de maatschappij als geheel?
1364
00:56:17,940 --> 00:56:21,320
Nou ja, en ik zou daar ook nog aan toevoegen aan die toekomstige generaties.
1365
00:56:23,200 --> 00:56:26,660
Zo, ik denk dat dat al heel erg helpt als je langs die drie lijnen...
1366
00:56:26,660 --> 00:56:30,280
met dan de subvragen van Mireille Hildebrand daarover na gaat denken.
1367
00:56:30,380 --> 00:56:31,520
En met elkaar over in gesprek gaat.
1368
00:56:32,620 --> 00:56:33,940
Mooi. Hele mooie.
1369
00:56:34,860 --> 00:56:36,920
Dankjewel, Pieke, voor al je inzichten.
1370
00:56:37,220 --> 00:56:39,780
Ik wil nog wel even melden dat je ook je eigen podcast hebt.
1371
00:56:40,040 --> 00:56:40,340
Klopt.
1372
00:56:40,560 --> 00:56:41,360
Stilisofie in actie.
1373
00:56:41,600 --> 00:56:41,740
Ja.
1374
00:56:42,860 --> 00:56:46,140
Dus als je meer van Pieke wil horen, er staat genoeg.
1375
00:56:46,460 --> 00:56:47,960
Nieuwe seizoen had je net verteld.
1376
00:56:48,240 --> 00:56:48,820
Is gestart.
1377
00:56:51,120 --> 00:56:51,520
Dankjewel.
1378
00:56:51,680 --> 00:56:53,240
Voor alles wat je verteld hebt.
1379
00:56:54,820 --> 00:56:56,300
Je hebt het over reflectie.
1380
00:56:56,500 --> 00:56:59,220
Ik denk dat wij daar ook even de tijd voor moeten nemen.
1381
00:56:59,960 --> 00:57:01,240
Voor wat je allemaal verteld hebt.
1382
00:57:01,700 --> 00:57:02,340
Buitengewoon interessant.
1383
00:57:02,840 --> 00:57:03,200
Dankjewel.
1384
00:57:03,960 --> 00:57:04,360
Dankjewel.
1385
00:57:07,340 --> 00:57:09,540
Leuk dat je weer luisterde naar een aflevering.
1386
00:57:09,820 --> 00:57:12,200
Vergeet je niet te abonneren via je favoriete podcast app.
1387
00:57:12,340 --> 00:57:13,920
Dan mis je geen aflevering.
1388
00:57:14,280 --> 00:57:14,920
Tot de volgende keer.