AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S04E01 - Hoe starten met Ethiek en AI - Jonne Maas - TU Delft
Seizoen 4 is van start! We beginnen met een terugblik op de summer challenge: waar ben je tijdens je vakantie AI tegengekomen?
In deze aflevering spreken we met Jonne Maas, PhD kandidaat bij de TU Delft op het gebied van ethiek, filosofie en techniek. We spreken over haar onderzoek gericht op Ethics-by-design methodologieën met betrekking tot de verantwoorde ontwikkeling van AI-systemen. Ze legt uit waarom begrip voor machtsdynamiek bij ontwikkelen van AI-systeem belangrijk is.
Waarbij we in het gesprek uiteraard ook in gaan op het thema van seizoen 4 #hoedan.
Links
- Paper - Machine learning and power relations
- De Nationale AI en Ethiek cursus (gratis)
- TU Delft Digital Ethics Centre
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:10,600
Welkom, leuk dat je weer luistert naar het nieuwe seizoen van de AI Today Live.
2
00:00:10,600 --> 00:00:13,720
Alweer het vierde seizoen en we hebben er weer zin in.
3
00:00:13,720 --> 00:00:18,840
Ik ben Niels Naglé, chapter lead, Data&AI en samen met Joop Snijder, CTO van Aigency beginnen
4
00:00:18,840 --> 00:00:23,320
we met een dosis energie en een mooie lijst van gasten aan het nieuwe seizoen.
5
00:00:23,320 --> 00:00:25,920
Het was rooie draad, weet je hem nog Joop?
6
00:00:25,920 --> 00:00:26,920
Zeker, hoe dan?
7
00:00:26,920 --> 00:00:27,920
Inderdaad, #hoedan.
8
00:00:27,920 --> 00:00:28,920
#HoeDan.
9
00:00:28,920 --> 00:00:38,420
Goed, fijn om weer na de vakantie aan tafel te kunnen zitten.
10
00:00:38,420 --> 00:00:42,460
#HoeDan, het thema van seizoen 4.
11
00:00:42,460 --> 00:00:46,340
Maar we hebben ook nog afgesloten, Joop, als je je nog goed herinnert, voor de vakantie
12
00:00:46,340 --> 00:00:48,300
met een summer challenge voor de luisteraars.
13
00:00:48,300 --> 00:00:49,300
Ja, zeker.
14
00:00:49,300 --> 00:00:50,860
Wat was hem ook alweer?
15
00:00:50,860 --> 00:00:54,540
Wat ben je aan AI tegengekomen in de vakantie, toch?
16
00:00:54,540 --> 00:00:56,060
Was de summer challenge.
17
00:00:56,060 --> 00:00:57,060
Zeker.
18
00:00:57,060 --> 00:01:03,140
Wat heb jij in de vakantie meegemaakt waar je dacht van AI hier?
19
00:01:03,140 --> 00:01:05,860
Nou dat kan ik je wel vertellen.
20
00:01:05,860 --> 00:01:09,780
Ik was naar Frankrijk op vakantie en ik neem altijd mijn honden mee.
21
00:01:09,780 --> 00:01:10,780
Ik heb twee honden.
22
00:01:10,780 --> 00:01:13,500
En de oudste is 13 jaar en die werd heel ziek.
23
00:01:13,500 --> 00:01:18,380
En op een zondag moesten wij in Frankrijk een dierenarts vinden.
24
00:01:18,380 --> 00:01:25,580
Mijn Frans houdt ongeveer op bij Je n'est comprend pas
25
00:01:25,580 --> 00:01:33,580
Dus ik belde de assistente en ik vroeg of zij Engels sprak.
26
00:01:33,580 --> 00:01:36,580
En het antwoord was heel duidelijk, non!
27
00:01:36,580 --> 00:01:40,580
Maar ik was erop voorbereid.
28
00:01:40,580 --> 00:01:42,580
Dus ik belde met de telefoon van mijn vrouw.
29
00:01:42,580 --> 00:01:46,580
Op mijn eigen mobiel had ik de app DeepL.
30
00:01:46,580 --> 00:01:51,580
Dat is een andere vertaalapp dan Google.
31
00:01:51,580 --> 00:01:52,580
Dat doet heel goed.
32
00:01:52,580 --> 00:01:59,300
tekst opnemen, krijg je live vertaald wat de receptionist tegen mij zei. Want dat ging natuurlijk
33
00:01:59,300 --> 00:02:06,260
in een 'ooww'-vorm van Frans. En daar haalde ik uit hoe laat we langs konden komen. Dus dat scheelde
34
00:02:06,260 --> 00:02:08,580
heel erg. - Ah, mooi. Mooi voorbeeld inderdaad.
35
00:02:08,580 --> 00:02:15,500
- Ja toch? Dus dat was echt speech-to-text. - Ja, eigenlijk wel bijzonder dat we dat toch
36
00:02:15,500 --> 00:02:19,340
zo kunnen inzetten en dat het eigenlijk ons zoveel helpt in het dagelijkse leven inderdaad.
37
00:02:19,340 --> 00:02:26,140
Ja, ikzelf was het een vakantie voor mijn laptop uit af en toe Netflixen, want daar
38
00:02:26,140 --> 00:02:27,540
kom ik vaak niet aan toe.
39
00:02:27,540 --> 00:02:32,380
En daar kwam voorbij mij The Future of… en dat was The Future of Pets.
40
00:02:32,380 --> 00:02:35,700
Ik heb zelf geen huisdieren, ik ben allergisch en mijn zoontje ook.
41
00:02:35,700 --> 00:02:39,380
Dus we hebben daar geen huisdieren en zelf ervaring mee op dit moment.
42
00:02:39,380 --> 00:02:47,060
Maar dat ging dus over de toekomst van honden en de samenleving tussen mens en hond.
43
00:02:47,060 --> 00:02:49,300
En hoe dat in de toekomst zou kunnen gaan.
44
00:02:49,300 --> 00:02:54,580
Want ze zijn namelijk bezig met het trainen van modellen om te weten hoe het met de hond
45
00:02:54,580 --> 00:02:55,580
gaat.
46
00:02:55,580 --> 00:02:56,580
Ja, cool.
47
00:02:56,580 --> 00:03:00,700
Dus als je tegen ze praat, dat ze denken van "ja, ik vind het ook echt leuk" in plaats
48
00:03:00,700 --> 00:03:02,700
van alleen kwispelen en dat soort zaken.
49
00:03:02,700 --> 00:03:10,100
En dat doen ze op basis van oorbeweging, kwispelen, maar met name ook geur.
50
00:03:10,100 --> 00:03:14,980
Dus ze zijn er echt bezig om dat allemaal in kaart te brengen, een soort van honden-internet
51
00:03:14,980 --> 00:03:20,020
maken om eigenlijk allemaal punten te verzamelen over het gedrag van honden. En dat ze volgens om
52
00:03:20,020 --> 00:03:23,780
te kunnen gaan zetten dat we meer kunnen leren van hoe ze het eigenlijk vinden met ons.
53
00:03:23,780 --> 00:03:28,420
Het is net alsof we dit hebben afgestemd. We doen dat expres helemaal niet.
54
00:03:28,420 --> 00:03:32,940
En we hebben een gast vandaag. Een speciale gast.
55
00:03:32,940 --> 00:03:39,420
Ja, Jonne Maas. We hebben elkaar leren kennen op de AI Just Got Bigger event van Aigency.
56
00:03:39,420 --> 00:03:41,260
Klopt, inderdaad.
57
00:03:41,260 --> 00:03:47,740
En daar sprak je over je PhD van de TU Delft University, wat je momenteel aan het doen bent.
58
00:03:47,740 --> 00:03:48,240
Ja.
59
00:03:48,240 --> 00:03:52,580
En ik was echt geïntrigeerd door je verhaal en past ook mooi in het thema 'Hoe dan?'
60
00:03:52,580 --> 00:03:56,300
Maar voordat we verder gaan, zou je even kort voor willen stellen voor de luisteraars?
61
00:03:56,300 --> 00:04:01,300
Zeker. Nou, ik ben dus Jonne inderdaad. Ik doe een promotieonderzoek aan de TU Delft.
62
00:04:01,300 --> 00:04:04,660
En ja, nou ten eerste super bedankt voor de uitnodiging.
63
00:04:04,660 --> 00:04:09,460
Heel leuk om zo over mijn onderzoek te kunnen praten met twee AI-experts.
64
00:04:09,460 --> 00:04:15,540
Ja, en mijn onderzoek gaat over de verantwoorde ontwikkeling van kunstmatige intelligentie.
65
00:04:15,540 --> 00:04:20,980
Waarbij ik kijk naar kunnen we democratische theorieën gebruiken voor de ontwikkeling,
66
00:04:20,980 --> 00:04:24,980
echt specifiek voor de design, development fases.
67
00:04:24,980 --> 00:04:34,900
Dus ja, het is een PhD die vanuit de filosofie eigenlijk ethiek bekijkt, dus politieke filosofie.
68
00:04:34,900 --> 00:04:42,500
En mijn eigen achtergrond is, mijn bachelor is in kunstmatige intelligentie aan de UvA.
69
00:04:42,500 --> 00:04:46,500
En toen kwam ik erachter dat het programmeren toch wel lastig was.
70
00:04:46,500 --> 00:04:48,500
En misschien toch niet helemaal iets voor mij.
71
00:04:48,500 --> 00:04:52,900
Dus toen ben ik filosofie van technologie in Twente gaan doen, aan de Universiteit van Twente.
72
00:04:52,900 --> 00:04:58,300
En ja, dus nu doe ik eigenlijk een beetje een combinatie van beide in deze PhD.
73
00:04:58,300 --> 00:05:00,300
De ethiek van kunstmatige intelligentie.
74
00:05:00,300 --> 00:05:03,700
En waarom heb je specifiek voor ethiek gekozen? Kan je dat uitleggen?
75
00:05:03,700 --> 00:05:09,420
Een soort van levensvraag, dat is niet iets wat ik met deze pitch zie gaan oplossen.
76
00:05:09,420 --> 00:05:13,740
Maar hoe kan je het rechtvaardigen om technologieën de maatschappij in te sturen...
77
00:05:13,740 --> 00:05:18,780
waarvan je weet dat er nadelige effecten gaan zijn...
78
00:05:18,780 --> 00:05:21,380
die je niet van tevoren kunt anticiperen.
79
00:05:21,380 --> 00:05:28,540
En bij kunstmatig intelligentie, dat is natuurlijk zo groot, zo overal wordt dat gebruikt.
80
00:05:28,540 --> 00:05:32,900
Dat heeft zo'n significant effect op de maatschappij.
81
00:05:33,020 --> 00:05:37,820
Dus ik denk, daar moeten we mee. Daar kan je niet zomaar dat loslaten in de maatschappij.
82
00:05:37,820 --> 00:05:40,220
Dat wordt dan vanzelf wel iets.
83
00:05:40,220 --> 00:05:42,620
Nee, daar moet je inderdaad wel kijken naar.
84
00:05:42,620 --> 00:05:45,620
Oké, wat zijn die effecten die het heeft op de maatschappij?
85
00:05:45,620 --> 00:05:48,820
En dat is eigenlijk die interesse in ethiek.
86
00:05:48,820 --> 00:05:50,420
Hoe gaan we daarmee om?
87
00:05:50,420 --> 00:05:58,620
Hoe gaan we dit voor de maatschappij op zo'n fijn mogelijke manier ontwikkelen?
88
00:06:00,020 --> 00:06:05,860
Zie je dat er ook meer, hoe zeg ik dat, meer aandacht komt voor de ethische vraagstukken?
89
00:06:05,860 --> 00:06:06,860
Ja, zeker.
90
00:06:06,860 --> 00:06:13,560
Ik was toevallig gisteren bij de nationale AI en ethiek cursus, de lancering van die
91
00:06:13,560 --> 00:06:19,900
cursus, onder andere door Jim Stolzen, dankzij wie ik jullie heb ontmoet.
92
00:06:19,900 --> 00:06:27,540
En inderdaad, daar hadden we het ook heel erg over, het wordt duidelijk steeds meer
93
00:06:27,540 --> 00:06:35,220
een ding in eigenlijk elk sector, zowel academisch als in bedrijven, als in non-profit, wordt
94
00:06:35,220 --> 00:06:38,380
het nu echt wel duidelijk van oké, nee, we moeten hier ook wat mee.
95
00:06:38,380 --> 00:06:44,780
Dus er was ook een professor Maarten de Rijcke, dat is hoogleraar kunstmatige intelligentie
96
00:06:44,780 --> 00:06:49,620
aan de UvA, en die zei ook van ja, we zagen om ons heen dat heel veel landen al een soort
97
00:06:49,620 --> 00:06:56,860
van strategie hadden om met AI om te gaan, maar dus dit was rond 2018, een paar jaar
98
00:06:56,860 --> 00:07:03,100
daarvoor. Maar Nederland miste dat eigenlijk nog. Dus toen is daar ook heel veel support
99
00:07:03,100 --> 00:07:08,260
vanuit de overheid voor gekomen. En ja, je ziet het aan de hoeveelheid ethical guidelines
100
00:07:08,260 --> 00:07:15,700
die er nu online steeds meer en meer en meer worden gepost. Ja, nee, dus absoluut. Ik denk
101
00:07:15,700 --> 00:07:24,500
ethiek, dat is ondertussen wel, zowel in het publiek als in private domeinen, een topic,
102
00:07:24,500 --> 00:07:25,500
En dat is een hot topic.
103
00:07:25,500 --> 00:07:27,780
Heb je wel eens naar die ethical guidelines gekeken?
104
00:07:27,780 --> 00:07:28,780
Van de verschillende...
105
00:07:28,780 --> 00:07:29,780
Ja, ze komen...
106
00:07:29,780 --> 00:07:33,180
Want het is als paddenstoelen uit de grond, zou je al zeggen.
107
00:07:33,180 --> 00:07:35,100
Want het is deze tijd van het jaar.
108
00:07:35,100 --> 00:07:39,660
Maar het is echt onwaarschijnlijk hoeveel van dat soort ethical guidelines er verschijnen.
109
00:07:39,660 --> 00:07:45,140
Ja, je ziet dat ze eigenlijk allemaal heel erg samenkomen over hoe gaan we om met...
110
00:07:45,140 --> 00:07:51,020
Of hoe kunnen we de preventie van harm voorkomen.
111
00:07:51,020 --> 00:07:52,980
Dus van het kwaad doen.
112
00:07:52,980 --> 00:07:58,820
En dat komt eigenlijk allemaal samen.
113
00:07:58,820 --> 00:08:02,940
Dus je hebt de bioethische principes, hoe je een experiment moet opzetten.
114
00:08:02,940 --> 00:08:07,740
Benvolence, non-malefence, autonomy respecting.
115
00:08:07,740 --> 00:08:10,980
Dat zijn vijf van die richtlijnen.
116
00:08:10,980 --> 00:08:14,660
Wij komen er niet zo uit, zou je dat kunnen toelichten?
117
00:08:14,660 --> 00:08:16,660
Ja, nee, sorry.
118
00:08:16,660 --> 00:08:26,660
Ja, nee, dus eigenlijk wat je ziet is dat de meest voorkomende richtlijnen nu van de ethische guidelines,
119
00:08:26,660 --> 00:08:33,660
die gaan er inderdaad om dat je goed moet doen, je moet niet harm doen, je moet privacy respecteren,
120
00:08:33,660 --> 00:08:37,660
het moet transparant zijn, deze systemen.
121
00:08:37,660 --> 00:08:49,500
Het moet autonomie, dus eigenlijk democratische waarden, die wij hier in Westerse landen erg hoog hebben zitten,
122
00:08:49,500 --> 00:08:54,260
die moeten voornamelijk ook worden gesupport.
123
00:08:54,260 --> 00:08:56,660
Dus vrijheid, autonomie, et cetera.
124
00:08:56,660 --> 00:09:02,660
En dat is dus ook inderdaad interessant aan deze guidelines, dat ze dus voornamelijk in de Westerse landen,
125
00:09:02,660 --> 00:09:07,220
Je hebt ze ook wel in niet-westerse landen, maar het grootste deel komt toch wel echt
126
00:09:07,220 --> 00:09:08,380
uit westerse landen.
127
00:09:08,380 --> 00:09:11,660
Dus het heeft ook hele erge westerse principes die in die guidelines zitten.
128
00:09:11,660 --> 00:09:16,660
Ja, en dat gaat dus eigenlijk allemaal om 'how to prevent harm'.
129
00:09:16,660 --> 00:09:17,660
Ja, duidelijk.
130
00:09:17,660 --> 00:09:21,260
En wat ik me dan afvraag is van, wat is dan harm?
131
00:09:21,260 --> 00:09:23,260
Hoe classificeer je harm in dit verhaal?
132
00:09:23,260 --> 00:09:28,540
Ja, ik denk dat dat op verschillende manieren vaak wordt besproken.
133
00:09:28,540 --> 00:09:39,340
Een voorbeeld is duidelijk het niet discrimineren, want dat heeft een effect op een mensenrecht,
134
00:09:39,340 --> 00:09:42,420
dat iedereen gelijk staat voor de wet natuurlijk.
135
00:09:42,420 --> 00:09:47,620
Of dat je niet privacy zomaar mag...
136
00:09:47,620 --> 00:09:52,500
Violaten? Sorry, ik zeg af en toe wat Engelse woorden.
137
00:09:52,500 --> 00:09:56,500
Dit is natuurlijk allemaal in het Engels in mijn dagelijkse werkdag.
138
00:09:56,500 --> 00:10:01,500
Dus dat soort ideeën zitten daar heel erg in.
139
00:10:01,500 --> 00:10:06,500
En wat ik zelf dan heel interessant vind om naar te kijken is,
140
00:10:06,500 --> 00:10:11,500
want wat mij opvalt aan deze guidelines is dus,
141
00:10:11,500 --> 00:10:16,500
ze worden al bekritiseerd omdat het dus eigenlijk allemaal gaat dat de bedrijven zelf,
142
00:10:16,500 --> 00:10:23,500
en de mensen die die systemen zelf ontwikkelen, dat dan maar moeten navolgen.
143
00:10:23,500 --> 00:10:26,180
Het is niet duidelijk in hoeverre dat verplicht wordt.
144
00:10:26,180 --> 00:10:28,980
Het zijn guidelines, maar het is nog geen wet.
145
00:10:28,980 --> 00:10:31,180
We zien natuurlijk wel dat er nu ook wetten komen.
146
00:10:31,180 --> 00:10:33,180
De Europese Commissie is daarmee bezig.
147
00:10:33,180 --> 00:10:38,940
Maar dat vind ik dus inderdaad interessant, want in hoeverre gaat het dan over...
148
00:10:38,940 --> 00:10:45,460
Wat ik mis in die guidelines is een beetje het gesprek over de machtsongelijkheid.
149
00:10:45,460 --> 00:10:50,460
Want wat ik al zei, een KI-systeem heeft natuurlijk heel erg veel effect op de maatschappij.
150
00:10:50,460 --> 00:10:54,460
Dus ook de mensen die dat ontwikkelen, die door de keuze te maken van...
151
00:10:54,460 --> 00:10:58,460
'hé, wij vinden dat hier een KI-systeem voor nodig is en dat gaan we toepassen.'
152
00:10:58,460 --> 00:11:00,460
Dat heeft wel een effect op mensen.
153
00:11:00,460 --> 00:11:05,460
En dat is iets wat ik zelf in de guidelines nog mis.
154
00:11:05,460 --> 00:11:10,460
Dat daar ook expliciet aandacht voor wordt gevraagd.
155
00:11:10,460 --> 00:11:12,460
En ik neem aan dat dat onderdeel is van je onderzoek...
156
00:11:12,460 --> 00:11:14,460
wat je aan het uitvoeren bent voor de TU Delft.
157
00:11:14,460 --> 00:11:17,460
Ja, klopt inderdaad. Hoe kunnen we beter...
158
00:11:17,460 --> 00:11:20,020
Hoe kunnen we kijken naar die machtsverhouding?
159
00:11:20,020 --> 00:11:22,020
Hoe komt die machtsverhouding tot stand?
160
00:11:22,020 --> 00:11:26,260
En vervolgens, hoe kunnen we zorgen dat die machtsverhouding gebalanceerd is?
161
00:11:26,260 --> 00:11:28,780
Zou je iets over die machtsverhouding kunnen vertellen?
162
00:11:28,780 --> 00:11:31,140
Hoe ziet die machtsverhouding eruit?
163
00:11:31,140 --> 00:11:40,740
Ja, dus hoe ik dat zelf zie, is dat als jij een systeem ontwikkelt, maak je bepaalde keuzes.
164
00:11:40,740 --> 00:11:47,140
Dus het is niet alleen de programmeur, het is vanaf al het businesslevel waarvan dus wordt besloten,
165
00:11:47,140 --> 00:11:52,620
we gaan dit systeem doen. Dat is ook keuzenummer, ja eigenlijk question zero, hoe dat wordt genoemd.
166
00:11:52,620 --> 00:11:59,900
Maar goed, dat systeem komt er en dan ga je dus kijken naar, oké het systeem moet rechtvaardig
167
00:11:59,900 --> 00:12:04,780
zijn. Maar hoe definieer je rechtvaardig? En afhankelijk van hoe jij rechtvaardigheid
168
00:12:04,780 --> 00:12:10,500
definieert, heeft dat een effect op hoe het systeem werkt. Absoluut. En daarmee heeft dus
169
00:12:10,500 --> 00:12:17,700
een effect op hoe het systeem de eindgebruikers van het systeem beïnvloedt. Dus weliswaar indirect,
170
00:12:17,700 --> 00:12:24,340
maar er is dus een relatie tussen de ontwikkelaars van het systeem en zij die een systeem vorm geven
171
00:12:24,340 --> 00:12:30,540
en dus de eindgebruikers van het systeem. Ja dus dan heb je eigenlijk al drie hele grote groepen,
172
00:12:30,540 --> 00:12:36,660
die je onderscheidt waarbij je zegt, daar zit een verschil in machtsverhouding. Ja,
173
00:12:36,660 --> 00:12:40,660
Dus wat is voor jou de derde groep?
174
00:12:40,660 --> 00:12:50,660
Je zegt, zoals ik het interpreteer, je hebt de business, of degene die besluit van ik wil dit systeem hebben.
175
00:12:50,660 --> 00:12:54,660
Dat zijn een soort van opdrachtgevers, noem ik het maar eventjes.
176
00:12:54,660 --> 00:12:57,660
Je hebt de bouwers en je hebt de gebruikers.
177
00:12:57,660 --> 00:13:04,660
Ja, en dan kan je zelfs dan nog, als je het op zo'n manier zegt, ik zelf doe dat samen als de developing site.
178
00:13:04,660 --> 00:13:07,940
Maar inderdaad, dat kan je wel echt als verschillende groepen zien.
179
00:13:07,940 --> 00:13:13,100
Maar je kan daarbij dus ook nog differentiëren tussen de gebruiker en de eindgebruiker.
180
00:13:13,100 --> 00:13:17,700
De eindgebruiker is echt het individu waar het systeem een effect op heeft.
181
00:13:17,700 --> 00:13:18,700
Ja, is een hele goeie.
182
00:13:18,700 --> 00:13:22,820
Ja, en de gebruiker dus inderdaad, stel je voor een bank kiest ervoor om een systeem
183
00:13:22,820 --> 00:13:27,420
te maken, maar wil dat niet zelf ontwikkelen, dan is de bank niet de developing, maar misschien
184
00:13:27,420 --> 00:13:28,420
meer de gebruiker.
185
00:13:28,420 --> 00:13:34,260
Ja, en de klant van de bank is eigenlijk wat jij noemt de eindgebruiker, dat is wel over
186
00:13:34,260 --> 00:13:39,020
wie het gaat. Waar de besluit over wordt genomen of de voorspelling over wordt gedaan.
187
00:13:39,020 --> 00:13:47,820
Dus dit zijn dan de groepen de developers, de users en de end users die ook in de Europese
188
00:13:47,820 --> 00:13:57,860
Commissie zo worden gedifferentieerd. Ja en kijk naar je onderzoek. Wat zijn de takeaways die je
189
00:13:57,860 --> 00:14:00,300
je daaruit hebt kunnen opdoen.
190
00:14:00,300 --> 00:14:07,420
Ja, tot nu toe heb ik dus in ieder geval één paper geschreven over hoe dus die machtsverhouding
191
00:14:07,420 --> 00:14:08,420
tot stand komt.
192
00:14:08,420 --> 00:14:11,540
Dus dat is eigenlijk wat ik net zei, er is een afhankelijkheid van eindgebruiker op het
193
00:14:11,540 --> 00:14:16,100
systeem en daarmee indirect ook op de ontwikkelaar van het systeem.
194
00:14:16,100 --> 00:14:23,060
En dan wil ik nu in het vervolg van mijn onderzoek gaan kijken van oké, want voor de duidelijkheid
195
00:14:23,060 --> 00:14:26,340
Ik kijk dus vanuit een bepaalde politiek-filosofische theorie.
196
00:14:26,340 --> 00:14:32,340
En volgens die theorie is op dit moment de machtsverhouding moreel problematisch.
197
00:14:32,340 --> 00:14:36,940
Dat houdt in dat de machtsverhouding...
198
00:14:36,940 --> 00:14:39,340
Het is lastig voor eindgebruikers van een systeem...
199
00:14:39,340 --> 00:14:45,140
om verantwoording te kunnen krijgen voor waarom een bepaald besluit is genomen.
200
00:14:45,140 --> 00:14:48,340
Zowel door technische limitaties van een systeem...
201
00:14:48,460 --> 00:14:56,460
alswel door het ontbreken van wetten of ander soort manieren.
202
00:14:56,460 --> 00:15:00,220
Een technische limitaat is denk ik dat je bedoelt op uitlegbaarheid,
203
00:15:00,220 --> 00:15:03,020
-transparantie, dat soort zaken. -Ja, precies.
204
00:15:03,020 --> 00:15:07,420
Ja, en ook, want ik kijk voornamelijk naar machine learning,
205
00:15:07,420 --> 00:15:11,940
dus dat het ook zelf leert en zelf connecties maakt.
206
00:15:11,940 --> 00:15:14,540
Waardoor je dus wel...
207
00:15:14,660 --> 00:15:19,220
Daardoor ontstaat er een verantwoordelijkheid, hoe dat wordt genoemd in de literatuur, de
208
00:15:19,220 --> 00:15:20,220
responsibility gap.
209
00:15:20,220 --> 00:15:21,220
Ja.
210
00:15:21,220 --> 00:15:26,580
Ja, in hoeverre kan je dan nog echt iemand, als je niet alles terug te herleiden is naar
211
00:15:26,580 --> 00:15:28,780
keuzes, van wie is er dan eigenlijk verantwoordelijk?
212
00:15:28,780 --> 00:15:35,020
Dus wie kan je niet alleen wettelijk, maar ook moreel verantwoordelijk houden voor hoe
213
00:15:35,020 --> 00:15:36,020
het systeem werkt?
214
00:15:36,020 --> 00:15:37,020
Ja.
215
00:15:37,020 --> 00:15:38,020
Dat wordt lastig.
216
00:15:38,020 --> 00:15:39,020
Zeker.
217
00:15:39,020 --> 00:15:42,860
En voor mij is dit dus een reden om te kijken naar echt het ontwikkelingsproces ook, omdat
218
00:15:42,860 --> 00:15:48,620
ik dus denk van ja die nadat het systeem is ontwikkeld is het dus lastig want misschien
219
00:15:48,620 --> 00:15:55,220
wordt het nog wel transparant maar in ieder geval denk ik ja als zo'n systeem effect heeft op mij
220
00:15:55,220 --> 00:16:00,060
dan zou ik eigenlijk van tevoren ook al input willen geven over die beslissingen die daar aan
221
00:16:00,060 --> 00:16:07,140
vooraf gaan dat is een eigen gevoel eigen intuïtie wat ik zelf heb dat is wel iets wat je steeds
222
00:16:07,140 --> 00:16:12,340
meer ziet ook de Europese Commissie heeft natuurlijk de EU social pillar of human rights waarin ook
223
00:16:12,340 --> 00:16:18,420
ook echt steeds meer nadruk wordt gelegd op autonomie en als iets jou beïnvloedt, dan
224
00:16:18,420 --> 00:16:21,460
is daar een reden voor dat jij dan ook iets te zeggen moet hebben.
225
00:16:21,460 --> 00:16:24,980
Ja, als ik het voor mezelf even vertaal of ik je goed begrijp hoor.
226
00:16:24,980 --> 00:16:30,740
Ik hoorde zeggen dat er dus eigenlijk meer invloed is als je eerder in dit proces dus
227
00:16:30,740 --> 00:16:35,660
iets van invloed of betrokkenheid kan creëren voor de eindgebruikers, omdat tijdens het
228
00:16:35,660 --> 00:16:39,900
design nog meer invloed toe te passen is op het systeem.
229
00:16:39,900 --> 00:16:43,420
Dat waarom het design van SCO belangrijk is om daar al te doen?
230
00:16:43,420 --> 00:16:44,460
Ja.
231
00:16:44,460 --> 00:16:48,660
Heb je een soort van beeld, droom, hoe dat eruit zou zien?
232
00:16:48,660 --> 00:16:52,900
Er zijn bepaalde manieren, methodes,
233
00:16:52,900 --> 00:16:56,500
die worden Design for Values approach genoemd.
234
00:16:56,500 --> 00:17:00,780
Dat is hier bij de TU Delft ongeveer het ding.
235
00:17:00,780 --> 00:17:03,580
We hebben de Design for Values instituut.
236
00:17:03,580 --> 00:17:08,700
En dat is afgelopen april, of mei geloof ik, officieel was de launch.
237
00:17:08,740 --> 00:17:12,020
is er nu ook een Delft Digital Ethics Center,
238
00:17:12,020 --> 00:17:15,700
waarbij dus inderdaad wordt gekeken naar de manier waarop dat moet.
239
00:17:15,700 --> 00:17:20,660
En deze approaches, Design for Values, dat gaat vaak over...
240
00:17:20,660 --> 00:17:24,180
We willen ontwikkelen voor een bepaalde waarde,
241
00:17:24,180 --> 00:17:28,180
dus je wil iets ontwikkelen voor de waarde privacy, bijvoorbeeld.
242
00:17:28,180 --> 00:17:30,100
Nou, hoe kunnen we dat doen?
243
00:17:30,100 --> 00:17:34,900
En ik wil dus eigenlijk ontwikkelen voor de waarde van die machtsverhouding.
244
00:17:35,020 --> 00:17:42,020
En dan zijn er inderdaad in die theorieën, oké, dan heb je bijvoorbeeld de meest bekende,
245
00:17:42,020 --> 00:17:44,020
is denk ik value-sensitive design.
246
00:17:44,020 --> 00:17:47,020
Value-sensitive design bestaat uit drie stappen.
247
00:17:47,020 --> 00:17:51,020
Je hebt de conceptual, de empirical en de technical investigation.
248
00:17:51,020 --> 00:17:58,020
En in elke, zeg maar, de conceptual investigation, empirical investigation,
249
00:17:58,020 --> 00:18:01,020
bijvoorbeeld kijk naar wat stakeholders belangrijk vinden.
250
00:18:01,020 --> 00:18:03,020
Waar zijn stakeholders mee bezig?
251
00:18:03,020 --> 00:18:09,580
En hoe definiëren stakeholders bepaalde waarden?
252
00:18:09,580 --> 00:18:12,740
En welke waarden vinden zij belangrijk dat worden meegenomen?
253
00:18:12,740 --> 00:18:18,860
Zoiets zit ik dus aan te denken. Hoe kunnen we dit doen?
254
00:18:18,860 --> 00:18:22,060
Door die stakeholders mee te nemen.
255
00:18:22,060 --> 00:18:28,420
En dan niet alleen de stakeholders aan de kant van de ontwikkeling,
256
00:18:28,420 --> 00:18:31,380
maar dus met name specifiek de eindgebruikers.
257
00:18:31,500 --> 00:18:35,500
van hoe zou jij het vinden als dit systeem zou worden ontwikkeld?
258
00:18:35,500 --> 00:18:41,500
Wil jij door een KI-systeem worden gemonitord in een ziekenhuis?
259
00:18:41,500 --> 00:18:44,500
Dat soort vragen. En wat zou dat voor jou betekenen?
260
00:18:44,500 --> 00:18:52,500
Dat er dus vanaf het begin af aan al inspraak is van de eindgebruiker in de ontwikkeling.
261
00:18:52,500 --> 00:18:56,500
Ja, mooi. Ik denk dat dat heel waardevol zou zijn.
262
00:18:56,500 --> 00:19:02,340
Uiteindelijk geldt dat natuurlijk voor, denk ik, alle software systemen dat dat zo zou moeten.
263
00:19:02,340 --> 00:19:07,540
Wat je ziet is dat er op de een of andere manier bij kunstmatige intelligentie natuurlijk nog
264
00:19:07,540 --> 00:19:14,100
meer aandacht aan wordt besteed. Juist misschien wat jij zegt, door de zelflerendheid. Maar ik
265
00:19:14,100 --> 00:19:19,380
denk dat het een hele goede ontwikkeling is. Ja, want uiteindelijk gaat het over jou als persoon,
266
00:19:19,380 --> 00:19:24,020
er worden besluiten genomen, dus dan is het wel fijn als je daar gevoel bij hebt,
267
00:19:24,020 --> 00:19:27,260
Dat je ook snapt en weet wat er gebeurt en wat de impact is.
268
00:19:27,260 --> 00:19:30,620
Maar ook wat als het niet goed gaat.
269
00:19:30,620 --> 00:19:33,380
Dat je de risico's daarvan begrijpt.
270
00:19:33,380 --> 00:19:36,340
Ja, en het zou wel helpen als je ergens een loket hebt.
271
00:19:36,340 --> 00:19:38,860
Ook als het nog niet gedaan is, maar er is nu wel een oplossing.
272
00:19:38,860 --> 00:19:39,860
Dat je daar terecht kan.
273
00:19:39,860 --> 00:19:44,620
Heel vaak is het niet bekend van "dit gebeurt er met mij" of "dit heeft dat effect op mij".
274
00:19:44,620 --> 00:19:47,980
Maar hoe kan ik daar vervolgens bij iemand terecht?
275
00:19:47,980 --> 00:19:49,460
Over waarom is dit eigenlijk?
276
00:19:49,460 --> 00:19:51,700
Nou, ik zie daar wel de vergelijking bij.
277
00:19:51,700 --> 00:19:56,200
Stel als jij een operatie krijgt en je zit bij de arts in de wachtkamer.
278
00:19:56,200 --> 00:19:58,200
In de wachtkamer? In de behandelkamer.
279
00:19:58,200 --> 00:20:00,200
Anders praat hij niet tegen je.
280
00:20:00,200 --> 00:20:01,200
Eerst even wachten.
281
00:20:01,200 --> 00:20:03,700
Ja, altijd wachten.
282
00:20:03,700 --> 00:20:07,700
Je bent uiteindelijk in die behandelkamer en die zegt dat je een operatie nodig hebt.
283
00:20:07,700 --> 00:20:11,700
Dan wordt er ook verteld dat er een risico aan zit.
284
00:20:11,700 --> 00:20:15,700
Dit kan misgaan, dat kan misgaan.
285
00:20:15,700 --> 00:20:21,700
En dan betekent dat op een gegeven moment ligt er een keuze bij jezelf.
286
00:20:21,700 --> 00:20:24,700
Van ga ik dit aan, ja of nee?
287
00:20:24,700 --> 00:20:29,700
En zoiets zou ook meer, denk ik, moeten bij sommige systemen.
288
00:20:29,700 --> 00:20:32,700
Het zal niet bij alle KAI-systemen zo zijn.
289
00:20:32,700 --> 00:20:39,700
Dat je ook bewust bent van, nou ja, daar kunnen ook dingen niet goed gaan.
290
00:20:39,700 --> 00:20:41,700
Aanvaard je die risico's?
291
00:20:41,700 --> 00:20:45,100
Nou ja, precies. Het is niet aan...
292
00:20:45,100 --> 00:20:51,100
vind ik dus, het is niet aan anderen om dat voor jou te beslissen.
293
00:20:51,100 --> 00:20:53,900
Want jij bent er vervolgens de dupe van.
294
00:20:53,900 --> 00:20:54,500
Ja.
295
00:20:54,500 --> 00:20:58,900
Als jij ineens als fraudeur wordt bestempeld omdat je...
296
00:20:58,900 --> 00:21:03,100
Dit is wel een moeilijk geval, hè.
297
00:21:03,100 --> 00:21:08,300
Want als er wordt gevraagd, zou je getoetst willen worden als fraudeur?
298
00:21:08,300 --> 00:21:10,300
Nee, doe maar niet.
299
00:21:10,300 --> 00:21:12,300
Het lijkt me een goed signaal.
300
00:21:12,300 --> 00:21:15,300
Nee, maar inderdaad dat je die vragen krijgt.
301
00:21:15,300 --> 00:21:20,300
En ik denk dat dat ook belangrijk is, de question zero van moet dit systeem überhaupt worden ontwikkeld.
302
00:21:20,300 --> 00:21:23,300
Want KI heeft heel veel mogelijkheden.
303
00:21:23,300 --> 00:21:29,300
Dus ik denk inderdaad helemaal niet dat we per se bang moeten zijn en alleen maar negatief gaan denken.
304
00:21:29,300 --> 00:21:36,300
Want dan mis je dus ook de benefits die het wel kan hebben.
305
00:21:36,300 --> 00:21:50,300
Je ziet ook in de geneeskunde hoe ontzettend handig het kan zijn en hoe erg het kan helpen bij de diagnoses.
306
00:21:50,300 --> 00:21:52,300
Ja, zeker.
307
00:21:52,300 --> 00:22:02,300
Ja, dus inderdaad. Het is een beetje lastig, dus het is iets wat ik over twee jaar duidelijker hoef te beantwoorden.
308
00:22:02,300 --> 00:22:06,300
Dit is wel oké en dit is niet oké.
309
00:22:06,300 --> 00:22:09,300
Waar richt je je op dit moment op?
310
00:22:09,300 --> 00:22:15,300
Wat zijn de vraagstukken waar je je vandaag, morgen over buigt?
311
00:22:15,300 --> 00:22:26,300
Ik ben nu bezig met het schrijven van een paper wat gaat over hoe kunstmatige intelligentie is binnengeslopen in de maatschappij.
312
00:22:26,300 --> 00:22:32,300
Dus met het idee van de move fast, break things mentaliteit van, oh ja, maakt niet uit.
313
00:22:32,300 --> 00:22:37,060
Ik bedoel, er was ook helemaal geen regulering en dat komt nu pas allemaal een beetje op gang.
314
00:22:37,060 --> 00:22:46,500
En ja, in de literatuur horen we veel over legitimate AI. Is er iets nodig om...
315
00:22:46,500 --> 00:22:55,220
Dus er wordt namelijk wel echt zeker erkend dat er dus zo'n macht is bij de developers.
316
00:22:55,220 --> 00:22:58,500
En dat is ook een van de dingen die ik heel erg ben benieuwd.
317
00:22:58,500 --> 00:23:00,300
Ik denk dat het ook een beetje een vraag is,
318
00:23:00,300 --> 00:23:02,820
hoe kan je dat dan ook in de realiteit kunnen ontwikkelen?
319
00:23:02,820 --> 00:23:05,300
En dat is ook een van de dingen die ik heel erg ben benieuwd.
320
00:23:05,300 --> 00:23:07,820
En dat is ook een van de dingen die ik heel erg ben benieuwd.
321
00:23:07,820 --> 00:23:10,340
En dat is ook een van de dingen die ik heel erg ben benieuwd.
322
00:23:10,340 --> 00:23:13,340
En dat is ook een van de dingen die ik heel erg ben benieuwd.
323
00:23:13,340 --> 00:23:16,340
En dat is ook een van de dingen die ik heel erg ben benieuwd.
324
00:23:16,340 --> 00:23:19,340
En dat is ook een van de dingen die ik heel erg ben benieuwd.
325
00:23:19,340 --> 00:23:22,340
En dat is ook een van de dingen die ik heel erg ben benieuwd.
326
00:23:22,340 --> 00:23:24,340
dat het voor een tijdje niet meer nodig is.
327
00:23:24,340 --> 00:23:29,340
En dat is ook een van de redenen waarom ik het zo wil doen.
328
00:23:29,340 --> 00:23:32,340
Ik denk dat het ook een beetje een
329
00:23:32,340 --> 00:23:34,340
verantwoordelijkheid is.
330
00:23:34,340 --> 00:23:36,340
Ik denk dat het ook een beetje een
331
00:23:36,340 --> 00:23:38,340
verantwoordelijkheid is.
332
00:23:38,340 --> 00:23:40,340
Ik denk dat het ook een beetje een
333
00:23:40,340 --> 00:23:42,340
verantwoordelijkheid is.
334
00:23:42,340 --> 00:23:44,340
Ik denk dat het ook een beetje een
335
00:23:44,340 --> 00:23:46,340
verantwoordelijkheid is.
336
00:23:46,340 --> 00:23:48,340
Ik denk dat het ook een beetje een
337
00:23:48,340 --> 00:23:50,340
verantwoordelijkheid is.
338
00:23:50,340 --> 00:23:56,700
En dat het voornamelijk over macht moet gaan in de oplossing.
339
00:23:56,700 --> 00:24:00,780
Dus over machtsongelijkheid.
340
00:24:00,780 --> 00:24:07,700
Maar wat ik al eerder zei, toen we nog niet bezig waren met het opnemen van foto's,
341
00:24:07,700 --> 00:24:11,180
is het nog niet helemaal work in progress.
342
00:24:11,180 --> 00:24:15,380
Het is nog niet helemaal duidelijk precies waar, hoe dit zit.
343
00:24:15,380 --> 00:24:18,340
En het zit ook heel erg diep in de literatuur.
344
00:24:18,340 --> 00:24:20,340
Dat maakt het lastig.
345
00:24:20,340 --> 00:24:22,340
Dat snap ik ook.
346
00:24:22,340 --> 00:24:28,340
Er zijn natuurlijk heel veel bedrijven bezig met het maken van modellen en AI systemen.
347
00:24:28,340 --> 00:24:34,340
Wat zou je die mee willen geven aan de hand van wat je hebt onderzocht?
348
00:24:34,340 --> 00:24:37,340
Denk hier eens over en daar eens over na.
349
00:24:37,340 --> 00:24:43,340
We begonnen eigenlijk van dit hele seizoen gaat in de teken staan van hoe dan?
350
00:24:43,340 --> 00:24:45,340
Hoe pak je iets aan?
351
00:24:45,340 --> 00:24:48,740
Dus we hebben nu best wel een theoretisch deel gehad.
352
00:24:48,740 --> 00:24:50,540
Hoe zou ik dit in de praktijk...
353
00:24:50,540 --> 00:24:54,740
Ik ben data scientist of ik ben opdrachtgever van zo'n systeem.
354
00:24:54,740 --> 00:24:57,340
Wat zou je aan zo'n iemand mee willen geven?
355
00:24:57,340 --> 00:25:07,860
Ja, dus echt nodig de eindgebruikers uit tijdens het ontwikkelingsproces.
356
00:25:07,860 --> 00:25:11,180
En heb het met ze over waarvoor het systeem dient.
357
00:25:11,300 --> 00:25:16,900
en kijken of het nodig is, is er niet een andere manier waardoor we het ook kunnen bereiken?
358
00:25:16,900 --> 00:25:21,100
Want KI is ook een buzzword. Iedereen denkt "Oh, we hebben dit nodig."
359
00:25:21,100 --> 00:25:23,020
Maar misschien is er een andere mogelijkheid en zo niet.
360
00:25:23,020 --> 00:25:28,100
Dan, oké, wat is dan belangrijk? Moeten we meer letten op...
361
00:25:28,100 --> 00:25:33,900
Je hebt dan vaak een error rate, false positives of false negatives.
362
00:25:33,900 --> 00:25:37,020
Nou, wat is belangrijk? In de medische wereld is dat natuurlijk...
363
00:25:37,020 --> 00:25:38,900
Ja, daar hadden jullie het in de vorige podcast over.
364
00:25:38,900 --> 00:25:42,180
Is dat anders dan in een ander... - Absoluut.
365
00:25:42,180 --> 00:25:44,260
En...
366
00:25:44,260 --> 00:25:49,500
Ja, dat is eigenlijk wat ik mee zou willen geven.
367
00:25:49,500 --> 00:25:51,500
Van besef je dat dat natuurlijk niet...
368
00:25:51,500 --> 00:25:56,380
voor iedereen hetzelfde is, dus hou daar rekening mee.
369
00:25:56,380 --> 00:26:02,500
En kijk inderdaad naar wat meerdere groepen belangrijk vinden en willen.
370
00:26:02,500 --> 00:26:03,500
Ja.
371
00:26:06,060 --> 00:26:15,300
En zou je dan ook uitkomsten van voor willen leggen, inclusief bijvoorbeeld die uitleg die eruit zou kunnen komen,
372
00:26:15,300 --> 00:26:23,100
dat je die voorlegt aan de gebruiker, dat je hem op de een of andere manier laat ervaren wat de impact is van het systeem,
373
00:26:23,100 --> 00:26:30,700
of gaat het vooraf vragen wat vind je ervan en hoe zou je daarnaar kijken?
374
00:26:35,100 --> 00:26:39,380
Ja, ik denk dat dat voor mij nu nog niet duidelijk is.
375
00:26:39,380 --> 00:26:40,380
Ja?
376
00:26:40,380 --> 00:26:42,380
Dat is wel een goede vraag.
377
00:26:42,380 --> 00:26:47,140
Ik denk dat dat eigenlijk over twee jaar, hoop ik daar een goed antwoord op te kunnen geven.
378
00:26:47,140 --> 00:26:50,940
Ja, komende twee jaar ga ik echt bezig zijn met de praktische ook vooral.
379
00:26:50,940 --> 00:26:57,380
Dus inderdaad, ik heb die paar ideeën van, oh ja, gebruik, invite the stakeholders en dat soort dingen.
380
00:26:57,380 --> 00:27:04,060
Maar hoe precies en wat de eisen vervolgens zijn om dat dan te doen
381
00:27:04,060 --> 00:27:11,060
en wat daarvan het resultaat moet zijn, dat kan ik nu helaas nog niet zeggen.
382
00:27:11,060 --> 00:27:12,060
Waarom ben ik dat aan het vragen?
383
00:27:12,060 --> 00:27:17,020
Ik ben jaren geleden product owner geweest van een kennis management systeem waar we
384
00:27:17,020 --> 00:27:19,180
heel veel AI modellen in gebruikten.
385
00:27:19,180 --> 00:27:23,460
Search, clustering, netjes verlengen wat je proces neemt.
386
00:27:23,460 --> 00:27:24,620
Je kan het zo gek allemaal niet verzinnen.
387
00:27:24,620 --> 00:27:32,420
En niet voor de techniek hoor, maar dat hadden we gewoon nodig om bepaalde zaken aan te kunnen
388
00:27:32,420 --> 00:27:33,420
bieden.
389
00:27:33,420 --> 00:27:40,020
Wij gebruikten wel heel veel user testing, maar dat lijkt hier een beetje op.
390
00:27:40,020 --> 00:27:47,620
Maar waar het om gaat, is als vergelijk, wat we daar probeerden was...
391
00:27:47,620 --> 00:27:52,020
dat er een heel groot verschil zat tussen als je vroeg wat iemand wilde...
392
00:27:52,020 --> 00:27:57,020
ten opzichte van als we daadwerkelijk het geïmplementeerd hadden en de testen deden.
393
00:27:57,020 --> 00:28:00,020
Daar zaten zoveel verschillen in.
394
00:28:00,020 --> 00:28:09,820
Dat maakte het wel eens lastig dat wij op een gegeven moment ook wel besloten om bijvoorbeeld juist die vragen over te slaan en alleen maar te gaan op de resultaten.
395
00:28:09,820 --> 00:28:11,820
Dus de impact laten voelen.
396
00:28:11,820 --> 00:28:13,820
De proof of value.
397
00:28:13,820 --> 00:28:17,820
Dus we hadden wel heel helder het doel wat we wilden bereiken.
398
00:28:17,820 --> 00:28:22,820
Dit gaat helemaal niet over ethiek of dat soort zaken, maar we hadden bijvoorbeeld een...
399
00:28:22,820 --> 00:28:25,820
Je kon kennis daarin zetten.
400
00:28:25,820 --> 00:28:31,540
Er zat een autotagger op die zei van het gaat over deze deze onderwerpen.
401
00:28:31,540 --> 00:28:38,700
Wat wij wilden is dat dat zo nauwkeurig mogelijk was maar ook dat de gebruikers dat heel snel
402
00:28:38,700 --> 00:28:40,900
konden ingeven.
403
00:28:40,900 --> 00:28:43,340
Er waren eigenlijk twee KPIs waar we op meten.
404
00:28:43,340 --> 00:28:48,580
We hadden echt een geweldig model met een hele hoge F1 score.
405
00:28:48,580 --> 00:28:56,340
En toen we dat uiteindelijk mensen lieten doen, wat we zagen is, op lange stukken tekst
406
00:28:56,340 --> 00:29:01,620
kwamen bijvoorbeeld ook heel veel tekst uit, dus heel veel onderwerpen, dat ze dat allemaal
407
00:29:01,620 --> 00:29:02,980
aan het nakijken waren.
408
00:29:02,980 --> 00:29:05,820
Dus wat hadden we gecreëerd?
409
00:29:05,820 --> 00:29:11,300
Dat we kwalitatief hele goede onderwerpen kregen, maar het werd heel lang duren voor
410
00:29:11,300 --> 00:29:13,420
de gebruiker om het in te geven.
411
00:29:13,420 --> 00:29:19,020
Dus uiteindelijk moesten we een soort van middenweg gaan vinden van waar het dan lag.
412
00:29:19,020 --> 00:29:21,700
Waarom vertel ik dit verhaal?
413
00:29:21,700 --> 00:29:27,980
Er zat een heel groot verschil in wat wordt er van tevoren gezegd, maar hoe wordt het
414
00:29:27,980 --> 00:29:28,980
uiteindelijk ervaren?
415
00:29:28,980 --> 00:29:31,180
Met ervaren zit het...
416
00:29:31,180 --> 00:29:39,180
Daar komen ook een soort van onderbuikgevoelens, emoties, dingen die wij in ieder geval van
417
00:29:39,180 --> 00:29:41,620
tevoren niet in kaart konden brengen.
418
00:29:41,620 --> 00:29:46,700
Ja, precies. Maar dus die users die jullie in eerste instantie hadden uitgenodigd...
419
00:29:46,700 --> 00:29:49,900
ook dus nog niet in kaart konden brengen voordat het...
420
00:29:49,900 --> 00:29:52,500
Nee, die konden dat niet...
421
00:29:52,500 --> 00:29:54,100
Ja, interessant inderdaad.
422
00:29:54,100 --> 00:29:56,540
Dan had je het daarover en toen dacht je, ja dat lijkt me echt...
423
00:29:56,540 --> 00:29:58,340
Ja, zo en zo zou het moeten.
424
00:29:58,340 --> 00:30:00,980
En ook inderdaad, je wil natuurlijk zoveel mogelijk...
425
00:30:00,980 --> 00:30:03,580
zo duidelijk mogelijk al die onderwerpen, weet je.
426
00:30:03,580 --> 00:30:05,220
Maar dan kom je ermee...
427
00:30:05,220 --> 00:30:07,580
dan moet je er zelf mee aan het werk.
428
00:30:07,580 --> 00:30:11,420
En dan denk je, oh jeetje, dan komen er hele andere dingen bij kijken.
429
00:30:11,420 --> 00:30:17,780
Ja, en dan hadden jullie vervolgens weer een nieuw design.
430
00:30:17,780 --> 00:30:25,020
Ja, verschillende iteraties gingen daar overheen om dan dat evenwicht te vinden.
431
00:30:25,020 --> 00:30:30,020
Want de nauwkeurigheid ging dus naar beneden, dus we kregen uiteindelijk minder onderwerpen.
432
00:30:30,020 --> 00:30:33,300
Maar het werd wel veel sneller.
433
00:30:33,300 --> 00:30:38,660
En de gebruikers waren eerder bereid om daarmee te werken dan met het andere.
434
00:30:38,660 --> 00:30:44,940
Dus je komt in compromissen en daar wil ik eigenlijk ook de brug maken naar het ethische verhaal.
435
00:30:44,940 --> 00:30:47,620
Hoe kom je zo direct?
436
00:30:47,620 --> 00:30:50,140
Je moet volgens mij altijd een compromis gaan sluiten.
437
00:30:50,140 --> 00:30:51,700
Heb je daar ideeën over?
438
00:30:51,700 --> 00:31:04,980
Ja, ik denk inderdaad niet dat het mogelijk is om iedereen volledig 100% in hun wil toe te zeggen.
439
00:31:06,900 --> 00:31:18,100
Dus wat belangrijk is voor die theorie die ik gebruik, is dat er manieren zijn om bepaalde beslissingen aan te vechten.
440
00:31:18,100 --> 00:31:18,600
- Oh ja.
441
00:31:18,600 --> 00:31:25,740
- Ja, dus als er geen compromis is, maar jij voelt je gewoon echt heel erg benadeeld,
442
00:31:25,740 --> 00:31:27,860
dat je dus in ieder geval wel de kans hebt om dat aan te vechten,
443
00:31:27,860 --> 00:31:31,300
en dat er dan vervolgens nog naar een individuele zaak kan worden gekeken.
444
00:31:31,300 --> 00:31:32,660
- Ja, precies.
445
00:31:32,660 --> 00:31:38,100
Dat loket waar ik net aan redde, dat soort mechanismen, dat is dan eentje die in de theorie
446
00:31:38,100 --> 00:31:42,260
naar voren komt die je zou kunnen inzetten om niet het compromis, wat je zegt, als we
447
00:31:42,260 --> 00:31:46,180
het allemaal nog niet weten om daar naartoe te gaan werken en dan niet iedereen mee te
448
00:31:46,180 --> 00:31:47,180
kunnen nemen.
449
00:31:47,180 --> 00:31:49,580
Want dat was eigenlijk nog een onderwerp die bij mij een beetje aan de achterhoofd, terwijl
450
00:31:49,580 --> 00:31:53,900
jullie mooi aan het discussiëren waren over het onderwerp verder gingen, die bleef knagen.
451
00:31:53,900 --> 00:31:56,700
Hoe ga je nou eigenlijk de goede klankgroep hiervan zoeken?
452
00:31:56,700 --> 00:32:02,660
We zien heel vaak vraagstukken die bij bedrijven, maar ook bij eindgebruikers leven, waarbij
453
00:32:02,660 --> 00:32:08,460
de oplossing nog niet helder is en eigenlijk dus nog, je ook niet weet wat de echte benefit
454
00:32:08,460 --> 00:32:11,140
gaat zijn of wat het effect daadwerkelijk gaat zijn.
455
00:32:11,140 --> 00:32:15,940
Ja, maar dat is eigenlijk de vraag, what are you optimizing for?
456
00:32:15,940 --> 00:32:20,740
Als je dat nog niet helemaal helder hebt, dan ik denk wel, dan moet je misschien eerst
457
00:32:20,740 --> 00:32:22,180
heel even goed over gaan nadenken.
458
00:32:22,180 --> 00:32:26,180
Dat zie je wel vaak, dat mensen veel data hebben en die denken,
459
00:32:26,180 --> 00:32:29,180
oh hier kunnen we vast wat leuks mee, we doen het maar.
460
00:32:29,180 --> 00:32:33,180
Daar ben ik dan misschien wel een beetje terughoudend in,
461
00:32:33,180 --> 00:32:37,180
dat ik denk, oké maar denk wel heel even naar wat je precies aan het doen,
462
00:32:37,180 --> 00:32:39,180
wat je hiermee gaat doen.
463
00:32:39,180 --> 00:32:42,180
Want inderdaad, de vraag, what are you optimizing for,
464
00:32:42,180 --> 00:32:45,180
is best wel belangrijk voor vervolgens,
465
00:32:45,180 --> 00:32:50,180
wie op wat voor manier wordt beïnvloed.
466
00:32:50,180 --> 00:32:55,940
Ja en volgens mij raak je echt een kernpunt wat heel vaak wordt overgeslagen.
467
00:32:55,940 --> 00:33:00,620
Niet alleen in AI projecten maar ongeveer in een beetje alle projecten.
468
00:33:00,620 --> 00:33:03,580
Van waar doen we het voor en wat wil je inderdaad optimaliseren.
469
00:33:03,580 --> 00:33:08,460
Met de optimalisatie verander je als het goed is bepaald gedrag.
470
00:33:08,460 --> 00:33:11,580
En als je dus niet weet waar je op optimaliseert,
471
00:33:11,580 --> 00:33:14,780
weet je dus ook niet wat het veranderende gedrag is.
472
00:33:14,780 --> 00:33:19,660
Laat staan dat je weet welke impact je maakt en of dat goede is of slechte.
473
00:33:19,660 --> 00:33:25,540
Jij zegt van 'no harm', maar dan moet je wel weten wat het beginpunt is.
474
00:33:25,540 --> 00:33:27,540
Ja, precies.
475
00:33:27,540 --> 00:33:30,180
Dus daar ben ik dan denk ik nou...
476
00:33:30,180 --> 00:33:32,180
Misschien nog heel even aan de tekenaar gezet.
477
00:33:32,180 --> 00:33:34,180
Heel goed, heel goed.
478
00:33:34,180 --> 00:33:36,180
Dat zou...
479
00:33:36,180 --> 00:33:40,300
Ik denk dat heel veel luisteraars hier eigenlijk denken van 'ja, dat ligt toch zo voor de hand'.
480
00:33:40,300 --> 00:33:47,060
Maar dat we in de praktijk zien inderdaad dat het stapje terugnemen in plaats van te gaan rennen vaak niet gedaan wordt.
481
00:33:47,060 --> 00:33:49,060
Ja, ik hoor dat inderdaad veel om me heen.
482
00:33:49,060 --> 00:33:53,340
Maar ja, dat is natuurlijk ook het idee van KI.
483
00:33:53,340 --> 00:33:57,060
Het is iets magisch of zo, iets van wat alles kan.
484
00:33:57,060 --> 00:34:00,060
Maar het is natuurlijk gewoon helemaal niet intelligent.
485
00:34:00,060 --> 00:34:02,060
Het is gewoon wiskundig.
486
00:34:02,060 --> 00:34:05,540
We zijn daar nog niet, als misschien nooit.
487
00:34:05,540 --> 00:34:09,540
En dat wordt heel veel vergeten.
488
00:34:09,540 --> 00:34:14,380
Precies wat je zegt van als we maar een bak data hebben, het is intelligent.
489
00:34:14,380 --> 00:34:19,260
Dus dan komt er vanzelf wel uit wat we ergens in ons hoofd hebben.
490
00:34:19,260 --> 00:34:21,260
Ja, op een magische wijze.
491
00:34:21,260 --> 00:34:23,740
Ja, en dat is dus inderdaad...
492
00:34:23,740 --> 00:34:27,540
En dat is ook eigenlijk waar het paper over gaat.
493
00:34:27,540 --> 00:34:30,980
Maar wie kiest dat dan?
494
00:34:30,980 --> 00:34:36,100
Als het vervolgens over mij gaat en jullie hebben maar wat besloten met die data te doen als programmeurs,
495
00:34:36,100 --> 00:34:40,900
dan denk ik van, ja, maar dat voelt niet helemaal oké.
496
00:34:40,900 --> 00:34:43,260
Wat zouden nou eerst de vragen zijn?
497
00:34:43,260 --> 00:34:49,620
Ik heb vanuit onze bedrijf een AI experiment canvas ontwikkeld.
498
00:34:49,620 --> 00:34:54,100
En wat we daarop doen is, daar beginnen we met de strategie.
499
00:34:54,100 --> 00:35:01,220
Precies met de vraag, waar ben je als organisatie op weg?
500
00:35:01,220 --> 00:35:03,660
Welke vraagstukken heb je?
501
00:35:03,660 --> 00:35:10,660
En is dat vraagstuk mogelijk op te lossen met machine learning of AI in het algemeen?
502
00:35:10,660 --> 00:35:17,500
En als de uitkomst is, dan moet je dat wat mij betreft absoluut niet gebruiken, want
503
00:35:17,500 --> 00:35:19,620
dat is geen doel op zich.
504
00:35:19,620 --> 00:35:22,140
En zo pellen we dat eigenlijk af.
505
00:35:22,140 --> 00:35:29,260
Hoe gaan we dan die impact meten, waar moet je op letten, wat zijn stopcriteria, allemaal
506
00:35:29,260 --> 00:35:30,260
dat soort zaken.
507
00:35:30,260 --> 00:35:34,740
Tot aan datatechniek zit het in één kant vast.
508
00:35:34,740 --> 00:35:41,180
Maar nu we dit gesprek hebben, denk ik van, we hebben nergens een hokje met ethiek.
509
00:35:41,180 --> 00:35:52,700
Wat zouden nou eerste vragen zijn, voor zo'n eerste, als het ware, brainstormsessie?
510
00:35:52,700 --> 00:35:55,820
Daar moeten we over nadenken.
511
00:35:55,820 --> 00:36:02,460
En het kan best wel zo zijn dat er acties uitkomen die je moet uitzoeken, waar je niet zomaar ja of nee op kan antwoorden.
512
00:36:02,460 --> 00:36:07,060
Zou je daar wat voor hebben? Dat je denkt, dit zijn de eerste dingen waar je aan moet denken.
513
00:36:07,060 --> 00:36:12,100
Dus bij zo'n impact assessment waar je aan moet denken?
514
00:36:12,100 --> 00:36:13,220
Ja.
515
00:36:13,220 --> 00:36:19,100
Dan zou ik eigenlijk wel kijken naar de ethische richtlijnen,
516
00:36:19,100 --> 00:36:23,980
want in principe zijn die daarin toch wel vrij coherent met...
517
00:36:23,980 --> 00:36:30,940
oké, is het mogelijk voor de gebruiker bijvoorbeeld om te opt-outen?
518
00:36:31,060 --> 00:36:34,460
Dus dat je inderdaad zegt "Hé, ik wil dit helemaal niet, dus ik ga weg."
519
00:36:34,460 --> 00:36:34,960
Ja.
520
00:36:34,960 --> 00:36:43,620
Voor mij zijn dat inderdaad, zijn de vrijheid en de autonomie, dat is waar mijn onderzoek zich op focust.
521
00:36:43,620 --> 00:36:53,100
Dus dat zou mijn eerste idee hierbij zijn in hoeverre het systeem zo'n effect heeft op het individu,
522
00:36:53,100 --> 00:37:01,540
Dat dit individu wel of niet nog een keus heeft om op een andere manier iets te doen.
523
00:37:01,540 --> 00:37:04,420
Dan wordt het individu echt geforceerd om...
524
00:37:04,420 --> 00:37:06,220
Precies, ja ik snap wat je bedoelt.
525
00:37:06,220 --> 00:37:08,220
Dat is wel een mooie.
526
00:37:08,220 --> 00:37:15,660
Ja, maar dingen als privacy enzo, dat is ook waar ik aan denk.
527
00:37:15,660 --> 00:37:18,820
Of het discriminerend is.
528
00:37:18,820 --> 00:37:20,060
Ja.
529
00:37:20,060 --> 00:37:22,060
Maar dat staat niet in die...
530
00:37:22,060 --> 00:37:26,060
Het zit er een beetje in verweven, maar... - Niet helemaal waar.
531
00:37:26,060 --> 00:37:34,660
Er zit een deel in waarbij we zeggen, je gaat nadenken over wat de criteria zouden zijn,
532
00:37:34,660 --> 00:37:39,060
dat als je dat tegenkomt in je experiment, dat je zegt, dan moet je gewoon stoppen.
533
00:37:39,060 --> 00:37:48,660
Ah ja, dus altijd... - Dus je komt erachter dat je qua wetgeving iets aan het doen bent wat niet mag.
534
00:37:48,660 --> 00:37:52,940
privacy zitten. Dat zijn overwegingen die ik dan ook meegeef.
535
00:37:52,940 --> 00:37:54,940
Dat je zegt, dit zijn vraagstukken.
536
00:37:54,940 --> 00:38:01,900
Maar ik moet wel bekennen dat de ethische vraagstukken niet heel expliciet genoeg zijn.
537
00:38:01,900 --> 00:38:06,660
Als we hem er al gewoon opzetten met ethiek als een vierkantje erin,
538
00:38:06,660 --> 00:38:09,140
dat de discussie misschien al wel eerder gevoerd wordt.
539
00:38:09,140 --> 00:38:11,140
Want je ziet wel vaak in dat soort sessies inderdaad,
540
00:38:11,140 --> 00:38:13,540
dat er over alle facetten wel na wordt gedacht,
541
00:38:13,540 --> 00:38:15,540
maar misschien wat minder expliciet
542
00:38:15,540 --> 00:38:17,540
dan dat we hem inderdaad daar aan toe zouden voegen.
543
00:38:17,540 --> 00:38:19,540
Ja, een beetje een...
544
00:38:19,540 --> 00:38:21,540
Ja...
545
00:38:21,540 --> 00:38:23,540
Niet echt een antwoord waar je heel veel aan hebt, maar...
546
00:38:23,540 --> 00:38:25,540
Ik denk dat wanneer het wel of niet stopt,
547
00:38:25,540 --> 00:38:29,540
zozet, hangt ook echt heel erg af van de context waarin het systeem zich plaats gaat vinden.
548
00:38:29,540 --> 00:38:31,540
Dus ja...
549
00:38:31,540 --> 00:38:35,540
Afhankelijk daarvan denk ik dat bepaalde dingen meer gepermitteerd zijn dan...
550
00:38:35,540 --> 00:38:38,540
Nee, en dat hangt ook helemaal van wat jij zegt, van de context af.
551
00:38:38,540 --> 00:38:42,540
Kijk, wij doen ook projecten waar je modellen maakt,
552
00:38:42,540 --> 00:38:44,540
bijvoorbeeld predictive maintenance modellen,
553
00:38:44,540 --> 00:38:53,540
waar het gaat over van moeten wel of niet draaideuren gerepareerd worden of zijn er karretjes in een kassen of zo die gerepareerd moeten worden.
554
00:38:53,540 --> 00:38:56,540
Ja, daar hebben we helemaal geen ethische vraagstukken.
555
00:38:56,540 --> 00:38:58,540
Nee, maar dat is ook wel logisch.
556
00:38:58,540 --> 00:39:00,540
Ja, precies.
557
00:39:00,540 --> 00:39:04,540
Nee, nee. Maar als je inderdaad kijkt naar...
558
00:39:07,540 --> 00:39:14,540
Ja, dan denk ik inderdaad dat het vaak meer high-risk systemen zijn zoals dat in de AI-Act wordt genoemd.
559
00:39:14,540 --> 00:39:24,540
Ja, dan is het wel een beetje een beetje een verschil tussen de mensen die in de AI-Act werken en de mensen die in de AI-Act werken.
560
00:39:24,540 --> 00:39:31,540
En dan is het ook wel een beetje een verschil tussen de mensen die in de AI-Act werken en de mensen die in de AI-Act werken.
561
00:39:31,540 --> 00:39:34,540
zoals dat in de AI-act wordt genoemd.
562
00:39:34,540 --> 00:39:40,540
Ja, dan zijn die stopmomenten...
563
00:39:40,540 --> 00:39:43,540
Zouden er eerder zijn?
564
00:39:43,540 --> 00:39:46,540
En dan zou ik inderdaad denken...
565
00:39:46,540 --> 00:39:53,540
Ja, eigenlijk wat ik net zei.
566
00:39:53,540 --> 00:39:55,540
Dan moet ik heel erg snel zeggen, dan denk ik er toch weer aan.
567
00:39:55,540 --> 00:39:57,540
Gewoon decriteren. Ja, heel duidelijk.
568
00:39:57,540 --> 00:39:59,540
Hoi, dankjewel.
569
00:39:59,540 --> 00:40:04,780
Maar ja, ik vind het dan ook wel verbazing dat er niet zo'n vakje ethiek bij...
570
00:40:04,780 --> 00:40:08,380
Je moet je voorstellen van...
571
00:40:08,380 --> 00:40:12,780
Het hangt ook een beetje af natuurlijk van waar we vandaan komen.
572
00:40:12,780 --> 00:40:19,780
Dit is een versie die denk ik al een jaar of drie oud is.
573
00:40:19,780 --> 00:40:24,580
En dan moet je bedenken dat dingen als privacy staan er wel letterlijk op.
574
00:40:24,580 --> 00:40:31,420
Daar moesten wij echt wel op drukken, om bedrijven op te laten letten.
575
00:40:31,420 --> 00:40:36,420
Je mag niet zomaar alle data zomaar gebruiken.
576
00:40:36,420 --> 00:40:43,820
Dat was eigenlijk eerder aan de hand dan de ethische vraagstukken.
577
00:40:43,820 --> 00:40:47,620
Er zit ook een groei in, en gelukkig ook een soort van volwassenheidsgroei.
578
00:40:47,620 --> 00:40:52,540
Dat is precies het term die ik had. Volwassenheid, niet alleen van onszelf, van de technologie.
579
00:40:52,540 --> 00:40:58,140
Maar eigenlijk ook van de organisaties die het AI-systeem willen gaan laten implementeren
580
00:40:58,140 --> 00:40:59,860
of aan het bedenken zijn.
581
00:40:59,860 --> 00:41:04,980
Daar zie je ook dat de volwassenheid nu echt pas een beetje begint te komen.
582
00:41:04,980 --> 00:41:11,100
Ook daar nog niet de discussies lopen, maar nu we drie jaar verder zijn dan deze versie,
583
00:41:11,100 --> 00:41:15,820
is het zeker wel tijd om die er wat explicieter op te gaan zetten.
584
00:41:15,820 --> 00:41:24,820
Wel nog één ding daarover is dat ik daarbij ook altijd een beetje bang ben dat het gewoon
585
00:41:24,820 --> 00:41:27,940
een hokje wordt om te krassen en dan that's it.
586
00:41:27,940 --> 00:41:37,020
We hebben het nu over een heel afgekaderd experiment van is een model wat je in je gedachten
587
00:41:37,020 --> 00:41:41,860
hebt, dus de oplossing die je in je gedachten hebt, is die waardevol genoeg voor je organisatie
588
00:41:41,860 --> 00:41:42,940
en is die haalbaar?
589
00:41:42,940 --> 00:41:45,340
Dat is eigenlijk wat we aan het doen zijn.
590
00:41:45,340 --> 00:41:46,580
En ik ben het helemaal met je eens.
591
00:41:46,580 --> 00:41:52,940
Als je zegt, als het daaruit komt, ja, dan is het vanaf dag 1, is het dat je,
592
00:41:52,940 --> 00:41:57,620
net als privacy by design, hebben we zo direct ook ethics by design, denk ik.
593
00:41:57,620 --> 00:42:00,940
Ja, contestability by design is nu ook een ding.
594
00:42:00,940 --> 00:42:01,940
Hoe zeg je?
595
00:42:01,940 --> 00:42:02,940
Contestability by design.
596
00:42:02,940 --> 00:42:04,940
O, daar moeten we het eens even over...
597
00:42:04,940 --> 00:42:06,940
Zou je het kunnen toelichten?
598
00:42:06,940 --> 00:42:09,940
Ja, dat gaat dus over hoe je een systeem kunt ontwikkelen,
599
00:42:09,940 --> 00:42:16,940
dat het nog mogelijk is om te contesten. Dus om beslissingen aan te vechten.
600
00:42:16,940 --> 00:42:20,940
Oh zo, oké. Aanvechten by design.
601
00:42:20,940 --> 00:42:21,940
Ja, precies.
602
00:42:21,940 --> 00:42:23,940
Oké, die had ik nog nooit gehoord. Jij?
603
00:42:23,940 --> 00:42:25,940
Nee, die had ik nog nooit gehoord inderdaad.
604
00:42:25,940 --> 00:42:29,940
Wel een stukje van ik wil als gebruiker invloed kunnen oefenen, maar echt contesten.
605
00:42:29,940 --> 00:42:33,940
En je hebt ethics by design al, maar je hebt ook ethics in design.
606
00:42:33,940 --> 00:42:46,820
Ethics in design is geloof ik ethiek in het systeem.
607
00:42:46,820 --> 00:42:51,700
Dus hoe doet het systeem aan bepaalde waarden?
608
00:42:51,700 --> 00:43:02,460
Eén van de twee gaat over dat het systeem bepaalde waarden goed doet.
609
00:43:02,460 --> 00:43:05,460
Het andere is dat het systeem op een aids manier wordt ontwikkeld.
610
00:43:05,460 --> 00:43:11,460
Dus dat zijn het ene is wat doet het systeem zelf en het andere is wat doen wij met het systeem.
611
00:43:11,460 --> 00:43:12,460
Snap het.
612
00:43:12,460 --> 00:43:13,460
Ja, maar goed.
613
00:43:13,460 --> 00:43:17,460
Nou ja grappig, sowieso een hele nieuwe term geleerd.
614
00:43:17,460 --> 00:43:21,460
Dus dat is sowieso heel erg interessant.
615
00:43:21,460 --> 00:43:26,460
Er schoot me nog iets erbinnen met wat jij net zei.
616
00:43:26,460 --> 00:43:30,460
Toch nog even terugkomen op waarom dat er niet in zat.
617
00:43:30,460 --> 00:43:35,060
Een aantal van de projecten die ik gedaan had, die liepen al stuk op privacy.
618
00:43:35,060 --> 00:43:40,700
Dus wat je zag, is dat, weet je, ethiek was echt wel een stap verder.
619
00:43:40,700 --> 00:43:44,260
We zaten al tegen het probleem van de wetgeving aan.
620
00:43:44,260 --> 00:43:45,460
Dat is lekker duidelijk.
621
00:43:45,460 --> 00:43:54,580
En kijk, de ethische waardes, die zijn natuurlijk ook nog eens een keer nog moeilijker te leggen.
622
00:43:54,580 --> 00:43:56,220
Waar ligt de grens?
623
00:43:56,220 --> 00:44:04,980
Ik denk dat het ook wel iets is waar we qua volwassenheid in bedrijfsleven, om maar even
624
00:44:04,980 --> 00:44:10,940
heel generie te trekken, nu pas echt zien dat bedrijven met ethische kant als afdelingen,
625
00:44:10,940 --> 00:44:13,900
als organisaties dat helemaal meegaan nemen in hun projecten.
626
00:44:13,900 --> 00:44:17,700
Laat staan in hun kleine prototype daar al mensen bij te kunnen betrekken.
627
00:44:17,700 --> 00:44:23,300
Zie ik zelf nu pas echt de bewegingen wat meer concreet worden binnen organisaties.
628
00:44:23,300 --> 00:44:29,740
de taskforce hebben die dan bij de projecten langs gaan en meekomen, om over de ethische
629
00:44:29,740 --> 00:44:32,060
privacy vraagstukken echt te gaan kijken.
630
00:44:32,060 --> 00:44:39,620
Ja, dus je ziet ook wel dat het meer in ontwikkeling is, maar nog zeker niet is waar we over vijf
631
00:44:39,620 --> 00:44:40,620
jaar staan.
632
00:44:40,620 --> 00:44:41,620
Hoop ik in ieder geval.
633
00:44:41,620 --> 00:44:47,700
Ja, nee en dat is wat we bij de TU Delft doen, is echt de ethiek al bij beginnende studenten,
634
00:44:47,700 --> 00:44:59,340
Bij de bachelorstudenten geven wij ethiek vakken aan elke engineering, maar ja, elke engineering studie, computer science.
635
00:44:59,340 --> 00:45:07,540
Zodat het gewoon vanaf meteen is al van, oké, wat je doet heeft consequenties. Laten we even daarop.
636
00:45:07,540 --> 00:45:10,740
Eigenlijk raar toch, als je er zo naar kijkt, dat we dat vroeger niet deden.
637
00:45:10,740 --> 00:45:15,700
Ik heb daar niet heel veel op mijn hoogschooltijd over meegekregen, over ethiek.
638
00:45:15,700 --> 00:45:22,300
Privacy, security. De vraag wordt wel gesteld van is het goed wat we hiermee bereiken?
639
00:45:22,300 --> 00:45:26,700
Dan sluit het aan bij de business case, bij het bedrijf. Maar echt de ethische kant.
640
00:45:26,700 --> 00:45:32,340
Wij moesten dat wel altijd. - Ik had het zelf ook niet bij mijn bachelor.
641
00:45:32,340 --> 00:45:35,660
Ik heb dat toevallig dan wel gehad. - Mooi.
642
00:45:35,660 --> 00:45:39,300
Maar eerlijk gezegd zeg maar. - Wat doe je er nu mee Joop?
643
00:45:39,300 --> 00:45:42,780
Toen dacht ik echt, wat een gedoe.
644
00:45:42,780 --> 00:45:48,220
Ja, maar precies, dat is het ook. Ik denk dat veel studenten dat hier ook zeker wel...
645
00:45:48,220 --> 00:45:52,100
Dat ik ook wel snap, maar ik denk het is niet gewoon een zaadje misschien wat je plant.
646
00:45:52,100 --> 00:45:55,180
Nee, zeker. En vooral dat het nodig is.
647
00:45:55,180 --> 00:46:01,140
Maar ik denk dat je wel in de praktijk ofzo eerst het besef moet krijgen van waarom.
648
00:46:01,140 --> 00:46:06,060
Toen was het heel theoretisch en moest je daar een verhaal van maken.
649
00:46:06,060 --> 00:46:08,060
Van waarom dan ethisch wel of niet.
650
00:46:08,060 --> 00:46:12,060
En dan gaat het nog niet over jezelf ofzo op de een of andere manier.
651
00:46:12,060 --> 00:46:16,940
En dan misschien ben je er dan toch ook minder mee bezig.
652
00:46:16,940 --> 00:46:19,420
En dan de andere kant, weet je, we leven ook...
653
00:46:19,420 --> 00:46:23,140
Ja, ik ben toch nu al ietsje ouder.
654
00:46:23,140 --> 00:46:31,540
Dat ik denk, ethische dingen als privacy en ethiek worden ook steeds belangrijker.
655
00:46:31,540 --> 00:46:34,140
Juist omdat de techniek voortschrijdt en dat soort zaken.
656
00:46:34,140 --> 00:46:40,420
Wordt het ook steeds belangrijker om het in zo'n vroeg mogelijk stadium daar over na te denken, denk ik.
657
00:46:40,420 --> 00:46:45,860
Als we even afronden van de hoe dan.
658
00:46:45,860 --> 00:46:50,140
Ik denk dat je ons heel veel tips hebt meegegeven.
659
00:46:50,140 --> 00:46:54,660
Als ik het mag samenvatten zeg je, gebruik de Ethical Guidelines.
660
00:46:54,660 --> 00:47:01,540
Denk goed na over machtsverhoudingen en dan vooral eigenlijk van als je dingen wil aanvechten,
661
00:47:01,540 --> 00:47:02,540
bij wie moet je dan zijn?
662
00:47:02,540 --> 00:47:06,700
Dat helder is als het over personen gaat, de modellen.
663
00:47:06,700 --> 00:47:13,700
En denk daar vanaf het begin af over na. Mis ik dan niet?
664
00:47:13,700 --> 00:47:22,060
Ja, en dan over twee jaar hoop ik jullie een goede samenvatting te geven van wat er echt
665
00:47:22,060 --> 00:47:27,060
is uitgekomen. Maar toch, inderdaad, betrek ik toch ook wel.
666
00:47:27,060 --> 00:47:32,580
Oh ja, die eindsluur. Ondanks wat je zegt, dat is wel interessant
667
00:47:32,580 --> 00:47:34,580
Dus daar moet ik even over gaan nadenken.
668
00:47:34,580 --> 00:47:35,580
Ja.
669
00:47:35,580 --> 00:47:37,580
Hoe ik dat zelf ga meenemen.
670
00:47:37,580 --> 00:47:42,580
Maar toch, ik bedoel ook als je kijkt naar gewoon een ander soort voorbeeld,
671
00:47:42,580 --> 00:47:44,580
een kerncentrale.
672
00:47:44,580 --> 00:47:48,580
Ik bedoel de ene groep zegt we willen dit wel, want het bespaart heel veel energie.
673
00:47:48,580 --> 00:47:49,580
En het is gewoon prima.
674
00:47:49,580 --> 00:47:54,580
Een andere groep die heeft duidelijk, die zegt nee, het is te gevaarlijk.
675
00:47:54,580 --> 00:47:56,580
Maar tuurlijk, de kans dat het misgaat is klein.
676
00:47:56,580 --> 00:47:59,580
Maar als het misgaat is het heel groot.
677
00:47:59,580 --> 00:48:03,580
Dat zijn wel allebei verhalen waar je naar moet luisteren.
678
00:48:03,580 --> 00:48:06,580
Ik ben helemaal voor.
679
00:48:06,580 --> 00:48:09,580
Alles wat je met gebruikers valideert, ben ik voor.
680
00:48:09,580 --> 00:48:12,580
Ja, dus dat ook vooral.
681
00:48:12,580 --> 00:48:17,580
Goeie. We hebben vier hele mooie, belangrijke tips van je gekregen. Dank je wel.
682
00:48:17,580 --> 00:48:20,580
Jullie enorm bedankt. Ook veel van jullie geleerd.
683
00:48:20,580 --> 00:48:23,580
Kijk, ik moet het ook horen.
684
00:48:23,580 --> 00:48:26,580
Dank je wel. Wie sluit af?
685
00:48:26,580 --> 00:48:28,580
En we mogen hem afsluiten hier op NAMA.
686
00:48:28,580 --> 00:48:30,580
Hartstikke goed.
687
00:48:30,580 --> 00:48:33,580
Dankjewel dat je weer luisterde naar de EETD Live podcast.
688
00:48:33,580 --> 00:48:36,580
Jonne, dankjewel dat je mee wilde doen.
689
00:48:36,580 --> 00:48:40,580
Wil je geen aflevering missen, zorg dan eventjes dat je ons volgt.
690
00:48:40,580 --> 00:48:46,580
Op Spotify heb je zo'n alarmknopje en dan als er een nieuwe aflevering live staat,
691
00:48:46,580 --> 00:48:48,580
dan krijg je daar direct berichten over.
692
00:48:48,580 --> 00:48:49,580
Leuk dat je luistert.
693
00:48:49,580 --> 00:48:50,580
Vertel het voor het.
694
00:48:50,580 --> 00:48:51,580
En tot de volgende keer.
695
00:48:51,580 --> 00:48:55,580
[Muziek]