AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S05E15 - De kracht van diversiteit in kunstmatige intelligentie
In deze aflevering van AIToday Live, duiken we dieper in het belang van ethiek en diversiteit in de wereld van kunstmatige intelligentie. Onze gasten Samaa Mohammad, oprichter van de Dutch AI Ethics Community, en Noëlle Cecilia, oprichter van Brush AI, bespreken hoe ethiek cruciaal is om AI ten dienste van de mens te stellen en waarom diversiteit leidt tot betere modellen en beslissingen in AI.
We onderzoeken de uitdagingen in organisatieculturen die vaak gedomineerd worden door mannen, het belang van vrouwelijk leiderschap en het doorbreken van stereotypen in een meer inclusieve AI-sector. We bespreken tevens het betrekken van ethici en andere belanghebbenden bij impact assessments voor een weloverwogen besluitvorming en de balans tussen mensenrechten.
Samaa en Noëlle delen praktische tips over hoe organisaties een ethische commissie kunnen instellen en tools, zoals de IAMA-checklist, kunnen gebruiken om een ethisch kader te scheppen voor AI-initiatieven. Tot slot benadrukken zij het belang van het monitoren en verzorgen van AI als een "plantje" om het effectief te houden, en aanpassen aan veranderingen in de wereld.
Luister naar AIToday Live Deel 2 voor een boeiend gesprek over verantwoorde AI-ontwikkeling in Nederland en de stappen die we samen kunnen zetten richting een toekomst waarin AI ten goede komt aan iedereen.
Links
- Dutch AI Ethics Community: https://www.linkedin.com/company/daiec/
- Women in AI Diversity Leader Award voor Samaa: https://www.linkedin.com/posts/wai-netherlands_nn-group-and-women-in-ai-netherlands-are-activity-7036637467503939584-H5gl/
- Impact Assessment Mensenrechten en Algoritmes (IAMA): https://www.rijksoverheid.nl/documenten/rapporten/2021/02/25/impact-assessment-mensenrechten-en-algoritmes
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:09,780
Hoi, welkom bij een nieuwe aflevering van AIToday Live. Vandaag deel 2 van het gesprek met
2
00:00:09,780 --> 00:00:14,980
Samaa Mohammad en Noëlle Cecilia. Heb je deel 1 nog niet geluisterd? Doe dat absoluut.
3
00:00:14,980 --> 00:00:23,520
We praten verder met de twee dames over ethiek vooral. Nou ja, en wat ik zei,
4
00:00:23,520 --> 00:00:27,480
heb je de eerste nog niet geluisterd? Is absoluut interessant om wel te doen.
5
00:00:28,040 --> 00:00:30,480
Mijn naam is Joop Snijder, CTO bij Aigency.
6
00:00:30,480 --> 00:00:33,600
Mijn naam Niels Naglé, Chapter Lead Data & AI bij Info Support.
7
00:00:33,600 --> 00:00:38,400
Samaa en Noëlle, welkom in deze aflevering.
8
00:00:38,400 --> 00:00:40,200
We praten verder, deel 2.
9
00:00:40,200 --> 00:00:44,640
Zou je voor de luisteraars je toch nog even kort willen introduceren, Samaa?
10
00:00:44,640 --> 00:00:46,840
Ja, tuurlijk. Mijn naam is Samaa Mohammad.
11
00:00:46,840 --> 00:00:50,880
Ik ben 23 jaar en ik ben de oprichter van de Dutch AI Ethics Community.
12
00:00:50,880 --> 00:00:56,320
Ik ben Noëlle Cicilia. Ik ben de oprichter van Brush AI.
13
00:00:56,440 --> 00:00:59,440
en ik doe een engineering doctorate in data science,
14
00:00:59,440 --> 00:01:02,460
waar ik onderzoek doe naar algorithmisch fairness.
15
00:01:02,460 --> 00:01:03,880
Heel erg interessant.
16
00:01:03,880 --> 00:01:08,080
En Sama, ik was jou op het spoor gekomen,
17
00:01:08,080 --> 00:01:12,600
omdat jij een prijs had verdiend binnen de Women in AI.
18
00:01:12,600 --> 00:01:14,360
Zou je daar iets over kunnen vertellen?
19
00:01:14,360 --> 00:01:16,760
Welke prijs heb je gehad en wat houdt die in?
20
00:01:16,760 --> 00:01:22,520
Ja, ik had de Women in AI Diversity Leader Award gewonnen.
21
00:01:22,520 --> 00:01:23,540
-Waar?
22
00:01:23,540 --> 00:01:26,240
Gefeliciteerd. -Dank je wel.
23
00:01:26,260 --> 00:01:31,260
En dat houdt in, die kreeg ik vanuit mijn inzet voor de Dutch Aeoretics Community.
24
00:01:31,260 --> 00:01:40,460
Dus het promoten van inclusief AI en een betere sociale impact voor algoritmes.
25
00:01:40,460 --> 00:01:47,180
En ja, dus dat was echt wel een hele eer.
26
00:01:47,180 --> 00:01:52,100
En ook fijn gewoon dat dat erkend werd, dat mijn werk voor de community,
27
00:01:52,100 --> 00:01:55,420
dat ik op het juiste spoor sta daarvoor.
28
00:01:55,420 --> 00:02:01,420
Onderdeel van mijn speech op het podium, ik moet een speech geven.
29
00:02:01,420 --> 00:02:02,420
Spannend.
30
00:02:02,420 --> 00:02:03,420
Een hele mooie speech.
31
00:02:03,420 --> 00:02:10,420
Ik vertelde over dat ik op de basisschool gepest werd voor hoe ik eruit zag.
32
00:02:10,420 --> 00:02:14,420
Dat liep ook eigenlijk door tot aan de middelbare school, maar op de basisschool was het wel het meest.
33
00:02:14,420 --> 00:02:18,420
Want ik was de enige Irakees in de klas.
34
00:02:18,420 --> 00:02:22,420
En ook de enige die er zo uitziet als ik.
35
00:02:22,420 --> 00:02:26,420
Met echt een duidelijke bruine huidskleur.
36
00:02:26,420 --> 00:02:34,420
En ik zag altijd dan, wie ik ben, mijn diversiteit is daarom dus een zwakte.
37
00:02:34,420 --> 00:02:40,420
Maar naarmate ik steeds ouder werd en begreep dat diversiteit juist heel goed is.
38
00:02:40,420 --> 00:02:45,420
Bijvoorbeeld uit onderzoek bleek dat diverse teams betere beslissingen maken.
39
00:02:45,420 --> 00:02:50,660
dat mijn diversiteit me eigenlijk uniek maakt en dat daar eigenlijk ook kracht in zit.
40
00:02:50,660 --> 00:02:58,900
Ik probeerde dat dus om te draaien naar dat ik dat niet meer zag als een zwakte, maar als een kracht.
41
00:02:58,900 --> 00:03:06,380
En onderdeel, die award gaf dus eigenlijk een soort van duwtje in de juiste richting van
42
00:03:06,380 --> 00:03:11,220
een bevestiging van ik zit wel op de juiste richting, het is goed juist om ook zichtbaar te zijn.
43
00:03:11,220 --> 00:03:17,140
En ook aan andere diverse mensen, mensen die misschien in hetzelfde schuitje zaten als ik toen ik nog jong was,
44
00:03:17,140 --> 00:03:21,460
te laten zien van, ja, je diversiteit is gewoon jouw kracht.
45
00:03:21,460 --> 00:03:23,460
Ja, wat mooi. Heel mooi.
46
00:03:23,460 --> 00:03:35,500
Dus als er misschien mensen in het, al die luisteraars zijn die, ja, die twijfelen misschien over een carrière in IT,
47
00:03:35,500 --> 00:03:37,500
go for it.
48
00:03:37,500 --> 00:03:44,500
Want onderdeel van de prijs was ook dat ik mee mocht doen aan een rolmodelcampagne van Equals.
49
00:03:44,500 --> 00:03:50,500
Dat is een organisatie in Amsterdam die zich inzet voor vrouwenrepresentatie in de IT.
50
00:03:50,500 --> 00:03:55,500
Dus ik mocht met mijn hoofd heel groot in zo'n paal in Amsterdam staan.
51
00:03:55,500 --> 00:04:01,500
En daarvan was de boodschap, deze vrouwen, het waren 166 vrouwen die meereden,
52
00:04:01,500 --> 00:04:04,500
dit zijn allemaal rolmodellen in de IT.
53
00:04:04,500 --> 00:04:10,100
En als je dan naar ze kijkt, besef dan dat jij ook hen kan zijn.
54
00:04:10,100 --> 00:04:15,100
Het zijn niet per se mensen die ver van je bed zitten, maar jij kan dat ook zijn.
55
00:04:15,100 --> 00:04:20,820
Dus vrouwen zijn er wel in IT en het punt is dat ze gewoon zichtbaarder moeten worden.
56
00:04:20,820 --> 00:04:26,420
Ja mooi, en dan juist weet je, kijk diversiteit is sowieso belangrijk,
57
00:04:26,420 --> 00:04:30,340
maar in het vakgebied waar we het nu over hebben, AI, is het essentieel.
58
00:04:30,340 --> 00:04:36,700
Ja, toch? Ik bedoel, zonder diversiteit hebben we gewoon geen goede modellen.
59
00:04:36,700 --> 00:04:43,060
Volgens mij probeer je de, wat het woord zegt, de wereld te modelleren.
60
00:04:43,060 --> 00:04:44,060
Ja, precies.
61
00:04:44,060 --> 00:04:46,860
En daar hoort iedereen bij, toch?
62
00:04:46,860 --> 00:04:49,460
Daarom vind ik het ook zo'n mooie campagne.
63
00:04:49,460 --> 00:04:55,820
Het motiveert hopelijk dus ook meer vrouwen en jonge meisjes om een carrière in IT te maken.
64
00:04:55,820 --> 00:05:02,820
Want uiteindelijk maak je echt een verschil als je die teams ingaat, die de modellen maken.
65
00:05:02,820 --> 00:05:10,120
Je hebt echt daadwerkelijk invloed op hoe biased bijvoorbeeld het model zal zijn.
66
00:05:10,120 --> 00:05:15,220
Want je hebt een andere kijk dan de gemiddelde team die daar zit.
67
00:05:15,220 --> 00:05:17,220
Mag ik het zeggen? - Ja, tuurlijk.
68
00:05:17,220 --> 00:05:21,220
Witte, hetero, middle-aged man.
69
00:05:21,220 --> 00:05:23,220
Ik ben wel een beetje aanschroken.
70
00:05:23,220 --> 00:05:25,220
Klopt.
71
00:05:25,220 --> 00:05:27,220
Dat is gewoon zo.
72
00:05:27,220 --> 00:05:29,220
Ik behoor tot die groep.
73
00:05:29,220 --> 00:05:31,220
Maar uiteindelijk,
74
00:05:31,220 --> 00:05:33,220
veel teams bestaan daar uit.
75
00:05:33,220 --> 00:05:35,220
Daar hoeven we niet moeilijk over te doen, toch?
76
00:05:35,220 --> 00:05:37,220
Nee.
77
00:05:37,220 --> 00:05:39,220
Het gaat om het vertegenwoordigen van zoveel mogelijk wereldbeelden.
78
00:05:39,220 --> 00:05:41,220
Dat gebeurt nu gewoon niet.
79
00:05:41,220 --> 00:05:43,220
Ik vind het ook jammer,
80
00:05:43,220 --> 00:05:45,220
want er is nu juist zoveel aandacht
81
00:05:45,220 --> 00:05:47,220
voor bijvoorbeeld vrouwenrechten,
82
00:05:47,220 --> 00:05:49,220
of rechten van de LHBTQ community.
83
00:05:49,220 --> 00:05:57,220
community. En zeg maar, we zijn al nu een soort van in de maatschappij bezig met het vechten voor die rechten,
84
00:05:57,220 --> 00:06:02,220
maar tegelijkertijd zijn we wel allemaal technologie aan het ontwikkelen waar we eigenlijk niet vechten voor die rechten.
85
00:06:02,220 --> 00:06:07,220
En dat is super jammer, want dan hebben we straks wel een maatschappij waar dat allemaal super goed gaat,
86
00:06:07,220 --> 00:06:11,220
maar we hebben wel nog allemaal algoritme waar dat niet op die manier goed gaat.
87
00:06:11,220 --> 00:06:15,220
Terwijl algoritme een veel groter onderdeel gaan worden van die maatschappij.
88
00:06:15,220 --> 00:06:17,220
Ja, die gaan de maatschappij beïnvloeden.
89
00:06:17,220 --> 00:06:19,220
Die gaan het bepalen.
90
00:06:19,220 --> 00:06:21,220
Absoluut.
91
00:06:21,220 --> 00:06:24,220
En zie je daar al wel iets van een verschuiving in plaats vinden?
92
00:06:24,220 --> 00:06:28,220
Of is het nog steeds een mannenfeestje?
93
00:06:28,220 --> 00:06:32,220
Nou, ik zie wel steeds meer diversiteit gelukkig op de werkvloer.
94
00:06:32,220 --> 00:06:37,220
En ik denk dat over de jaren heen, bijvoorbeeld op de universiteit,
95
00:06:37,220 --> 00:06:42,220
ik deed de bachelor AI in Utrecht.
96
00:06:42,220 --> 00:06:44,220
Daar hadden we 40% vrouwen.
97
00:06:44,220 --> 00:06:56,940
kwam misschien ook omdat het bij humanities zat en ook wat psychologievakken en taalkundervakken bij zaten die over het algemeen vrouwen meer aantrokken.
98
00:06:56,940 --> 00:07:03,900
Maar uiteindelijk was dat wel een mooi opzetje voor vrouwen om dan ook meer de techniek kant op te gaan binnen de bachelor.
99
00:07:03,900 --> 00:07:12,820
En dat is fijn, want op dit moment denk ik dat veel, dat andere studies zoals informatica en informatie kunnen vrouwen simpelweg afschrikken
100
00:07:12,820 --> 00:07:15,220
vanwege de dominante cultuur van mannen.
101
00:07:15,220 --> 00:07:18,340
Dus ik denk dat...
102
00:07:18,340 --> 00:07:20,980
Ik hoop dat daar ook een verschuiving in plaatsvindt.
103
00:07:20,980 --> 00:07:22,660
Ik kijk even Noëlle aan.
104
00:07:22,660 --> 00:07:25,580
Ik wil graag heel positief zijn.
105
00:07:25,580 --> 00:07:28,580
Ik was heel positief toen ik net klaar was met studeren.
106
00:07:28,580 --> 00:07:32,420
Want op de studies vind ik dat het echt supergoed gaat wel.
107
00:07:32,420 --> 00:07:37,660
Omdat daar de cultuur is, is daar ook echt wel gewoon goed, vind ik.
108
00:07:37,660 --> 00:07:41,340
Ik merk wel dat nu ik meer vrienden heb,
109
00:07:41,380 --> 00:07:45,380
bijvoorbeeld die ook aan het werk zijn. Ik heb zelf een start-up, dus ik kan zelf de cultuur verpalen.
110
00:07:45,380 --> 00:07:52,580
Maar dat ik wel merk rondom in mijn kring, zeg maar met mijn vriendinnen, dat die het wel lastig vinden soms.
111
00:07:52,580 --> 00:07:58,380
Omdat er gewoon een hele erge mannencultuur is. En ook al zijn er dan steeds meer vrouwen,
112
00:07:58,380 --> 00:08:02,380
de cultuur die daar dan al jaren heerst, is heel erg gericht op mannen.
113
00:08:02,380 --> 00:08:09,380
Dus ik probeer zelf in mijn eigen bedrijf dat heel anders aan te pakken en ervoor te zorgen dat wij dat niet...
114
00:08:09,380 --> 00:08:13,380
Hoe doe je dat? Wat doe je anders?
115
00:08:13,380 --> 00:08:18,380
Nou ja, ik vind het belangrijkste, denk ik, is dat ik me niet ga aanpassen aan mannen.
116
00:08:18,380 --> 00:08:30,380
Ik denk dat heel veel vrouwen denken van, oh, ik moet mij als man gedragen, bijvoorbeeld, om succesvol te zijn in het bedrijfsleven.
117
00:08:30,380 --> 00:08:38,380
Of, ik mag nooit bijvoorbeeld over mijn menstruatie praten, want daar zitten mannen niet op te wachten.
118
00:08:38,380 --> 00:08:42,380
Ja, ik denk dan, sorry, het kan mij niet zoveel schelen of je er niet op zit te wachten of niet.
119
00:08:42,380 --> 00:08:43,380
Ja, het is er.
120
00:08:43,380 --> 00:08:45,380
Ja, het is er en ik moet ermee dealen.
121
00:08:45,380 --> 00:08:50,380
En als dat mijn werkzaamheden beïnvloedt, dan vind ik dat ik daar gewoon, als ik ziek was, had ik dat ook gezegd.
122
00:08:50,380 --> 00:08:52,380
Weet je, waarom zou ik het niet mogen zeggen?
123
00:08:52,380 --> 00:08:56,380
Dus zo probeer ik daar wel een beetje verandering in te brengen.
124
00:08:56,380 --> 00:09:05,380
Maar ja, ik vind het zelf als ondernemer soms best wel lastig, omdat wat we als goed ondernemerschap zien,
125
00:09:05,380 --> 00:09:11,780
of de kwaliteiten daarvan, dat zijn allemaal kwaliteiten die in mijn opzicht soms best mannelijk zijn,
126
00:09:11,780 --> 00:09:16,980
of die niet per se bij mij passen. Dus ik moet daar ook meer mijn eigen invulling aan geven.
127
00:09:16,980 --> 00:09:24,300
En ik vind zelf dat vrouwelijk leiderschap of vrouwelijk ondernemerschap net zo legit is,
128
00:09:24,300 --> 00:09:30,180
als mannelijk ondernemerschap of leiderschap. Kijk bijvoorbeeld naar de premier van Nieuw-Zeeland.
129
00:09:30,180 --> 00:09:35,180
Ik denk dat zij een heel goed voorbeeld is van dat leiderschap ook op een andere manier kan.
130
00:09:35,180 --> 00:09:42,180
terwijl hoe we dat zien in de maatschappij is dat dan meteen allemaal te gevoelig en dat hoort niet bij een leider.
131
00:09:42,180 --> 00:09:46,380
En dan denk ik, wie bepaalt eigenlijk wat dan goede kwaliteiten voor een leider zijn?
132
00:09:46,380 --> 00:09:49,580
Dat bepalen altijd mannen en dat vind ik stom.
133
00:09:49,580 --> 00:09:51,780
Dat kan ik me alles bij voorstellen.
134
00:09:51,780 --> 00:09:58,380
Ik heb me ook geërgerd aan alle kritiek, bijvoorbeeld op die Finse minister-president,
135
00:09:58,380 --> 00:10:03,380
de premier, omdat ze een feestje aan het dansen was, dat dat iets met tekent.
136
00:10:03,380 --> 00:10:05,580
Ja, precies. En dat ze dan gaan vragen van...
137
00:10:05,580 --> 00:10:10,780
"Oh, gaan jullie ook veel los met elkaar om met die Nieuw-Zeelandse premier?"
138
00:10:10,780 --> 00:10:13,860
En zij dan... "Ja, chillen jullie ook buiten werktijd?"
139
00:10:13,860 --> 00:10:16,980
En dan zeggen ze "Hallo", alleen omdat ze dan allebei groes zijn of zo.
140
00:10:16,980 --> 00:10:19,000
Ja, het is gewoon heel raar. - Ja, bijzonder.
141
00:10:19,000 --> 00:10:25,180
Ik zie echt twee dames met heel veel passie voor ethics en AI en dat soort zaken.
142
00:10:25,180 --> 00:10:27,300
En jullie stralen gewoon energie uit als ik naar jullie kijk.
143
00:10:27,300 --> 00:10:28,320
Dat is heel mooi om te zien.
144
00:10:28,340 --> 00:10:35,340
Wat zouden jullie toekomstige volgers na jullie mee willen geven waarom dit vak zo mooi is?
145
00:10:35,340 --> 00:10:42,340
Het is gewoon super interessant. Het is ook heel dynamisch, dus het verandert steeds.
146
00:10:42,340 --> 00:10:49,340
Ik denk oprecht dat geen aandacht hiervoor hebben dat dat gewoon onhoudbaar is.
147
00:10:49,340 --> 00:10:57,340
Dus ik denk dat als we toekomstbestendige AI willen ontwikkelen, dat dit gewoon bovenaan moet staan.
148
00:10:57,340 --> 00:11:03,820
aan moet staan. Maar wat het denk ik vooral heel interessant maakt, is dat het heel erg gaat om
149
00:11:03,820 --> 00:11:11,500
de vertaalslag tussen de mens en de techniek. En techniek op zich is heel interessant, maar hoe
150
00:11:11,500 --> 00:11:16,580
zorgen we ervoor dat de techniek een soort van ten dienste zaait van de mens? En een soort van die
151
00:11:16,580 --> 00:11:23,380
interactie daartussen, dat is gewoon heel tof. En omdat het ook steeds verandert, zeg maar de wereld
152
00:11:23,380 --> 00:11:28,960
om ons heen verandert steeds. Dus zeg maar je baan, als je je hierin gaat verdiepen,
153
00:11:28,960 --> 00:11:33,440
verandert steeds. Veel meer, denk ik, dan als je alleen op de techniek... Ik bedoel,
154
00:11:33,440 --> 00:11:38,000
als je alleen op de techniek focust, verandert je baan ook wel enigszins. Maar de kern blijft
155
00:11:38,000 --> 00:11:43,440
wel hetzelfde, terwijl ik denk dat bij AI-ethiek dat wel echt anders is. Het is een heel dynamisch
156
00:11:43,440 --> 00:11:50,120
veld. En je kan ook gewoon hele grote bijdragen leveren natuurlijk. - Ja, en daar wilde ik dan
157
00:11:50,120 --> 00:11:56,600
juist inderdaad, dat wilde ik benadrukken van iedereen kan een bijdrage leveren. Dus of je
158
00:11:56,600 --> 00:12:04,560
nou AI hebt gestudeerd of of je meer, ik noem maar iets randoms, bedrijfskunde hebt gedaan of
159
00:12:04,560 --> 00:12:10,560
iedereen heeft te maken met AI op dit moment. Elke burger, iedereen in het werkveld, elke
160
00:12:10,560 --> 00:12:16,760
onderzoeker misschien wel. En je komt het hoe dan ook tegen in je dagelijks leven. Dus iedereen heeft
161
00:12:16,760 --> 00:12:22,860
ook een bepaalde perspectief op ethiek of je daar nou bewust van bent of niet en ik vind ook dat
162
00:12:22,860 --> 00:12:30,780
iedereen dat ook moet kunnen delen en iedereen moet ook invloed kunnen uitoefenen op onze
163
00:12:30,780 --> 00:12:36,140
maatschappelijke kijk of onze maatschappelijke definitie van deze ethiek. Ja wat ik zelf mooi
164
00:12:36,140 --> 00:12:42,140
vond is wij zijn bij het AI annotatielab geweest daar hebben we over gesproken in de vorige podcast
165
00:12:42,140 --> 00:12:45,140
Dus als je die aflevering niet gehoord hebt, luister die even terug.
166
00:12:45,140 --> 00:12:50,700
Maar er gaat even heel kort over mensen met afstand tot de arbeidsmarkt, labelen data.
167
00:12:50,700 --> 00:12:54,180
Wat ik daar mooi aan vind, is want als we het hebben over etiek,
168
00:12:54,180 --> 00:12:56,660
voor sommige mensen zijn dat ook best wel dure woorden.
169
00:12:56,660 --> 00:12:59,300
Dus hebben het al vrij snel over hoogopgeleide.
170
00:12:59,300 --> 00:13:04,220
Maar daar zag je juist typisch mensen die laag opgeleid zijn,
171
00:13:04,220 --> 00:13:07,780
als ik dat zo mag noemen, zijn er dus dan ook mee bezig.
172
00:13:07,780 --> 00:13:13,420
Want dat is ook een ethische kant en het meedoen aan de kunstmatige intelligentie...
173
00:13:13,420 --> 00:13:16,380
en het verderbrengen van dit vakgebied.
174
00:13:16,380 --> 00:13:18,380
Dus het is niet...
175
00:13:18,380 --> 00:13:23,900
Ik ben soms ook bang dat het een soort van uitsluitend, hoogopgeleid feestje wordt.
176
00:13:23,900 --> 00:13:27,540
Absoluut niet, want dan heb je weer die diversiteit niet.
177
00:13:27,540 --> 00:13:28,140
Precies.
178
00:13:28,140 --> 00:13:31,140
Ja, je wilt juist al die verschillende perspectieven bij elkaar brengen.
179
00:13:31,140 --> 00:13:37,180
Je kan daar per definitie gewoon geen mensen bij uitsluiten.
180
00:13:37,180 --> 00:13:39,180
Geen groepen in ieder geval.
181
00:13:39,180 --> 00:13:44,180
En daar moet je dus juist ook burgers meenemen.
182
00:13:44,180 --> 00:13:49,180
Gewoon echt de meest representatieve groep mensen die er is.
183
00:13:49,180 --> 00:13:52,180
Dat zal je nooit hebben, maar in ieder geval om dat te proberen.
184
00:13:52,180 --> 00:13:56,180
En die mensen dan ook mee te nemen in beslissingen die we maken over AI.
185
00:13:56,180 --> 00:14:02,180
Ja, en ik denk ook dat het heel belangrijk is dat AI wat toegankelijker wordt.
186
00:14:02,180 --> 00:14:09,180
Heel veel als ik met mijn oma over AI praat, die denkt dat ik een soort genius ben.
187
00:14:09,180 --> 00:14:11,180
Dat ik een hacker ben.
188
00:14:11,180 --> 00:14:14,180
Trouwens niet alleen mijn oma, ook gewoon vrienden van mij.
189
00:14:14,180 --> 00:14:19,180
Maar de principes achter AI zijn super simpel.
190
00:14:19,180 --> 00:14:26,180
Dus ik zou ook graag willen dat we veel meer gaan nadenken, oké, wat is het principe hierachter nou?
191
00:14:26,180 --> 00:14:29,180
In plaats van, wat zijn alle technische details?
192
00:14:29,180 --> 00:14:33,580
We hebben heel lang gedaan alsof AI een soort hocus pocus was,
193
00:14:33,580 --> 00:14:35,460
want dat komt ons natuurlijk allemaal super goed uit.
194
00:14:35,460 --> 00:14:37,940
Want hocus pocus, wie wil dat niet? Dat verkoopt lekker.
195
00:14:37,940 --> 00:14:39,660
Dan kan je zeggen, ik ben heel slim.
196
00:14:39,660 --> 00:14:44,220
Maar uiteindelijk is de technologie zelf helemaal niet zo heel ingewikkeld.
197
00:14:44,220 --> 00:14:47,420
En ik vind dus dat als we dit soort gesprekken voeren over,
198
00:14:47,420 --> 00:14:49,820
nou, wat vinden we wel oké en wat vinden we niet oké,
199
00:14:49,820 --> 00:14:54,260
dat we niet gaan praten over allerlei ingewikkelde technische details,
200
00:14:54,260 --> 00:14:57,180
maar gewoon heel simpel, wat betekent dit voor jou?
201
00:14:57,180 --> 00:15:00,580
En heb je daar een goed gevoel bij of heb je daar geen goed gevoel bij?
202
00:15:00,580 --> 00:15:04,380
Of als jij deze persoon was, of je je in die situatie zou verplaatsen,
203
00:15:04,380 --> 00:15:09,060
of als het om jouw dochter of zoon zou gaan, wat vind je daar dan van?
204
00:15:09,060 --> 00:15:16,180
Ja, en hoe impact de technologie jou op jouw morele waarden, zoals bijvoorbeeld,
205
00:15:16,180 --> 00:15:24,380
hoe vind je dat het gaat op het geval van jouw welzijn, privacy, jouw community gevoel,
206
00:15:24,380 --> 00:15:29,880
al dat soort dingen en dat zijn niet alleen dingen die je vanuit een technisch oogpunt hoeft te beschrijven,
207
00:15:29,880 --> 00:15:34,680
maar ook vanuit meer persoonlijke kant en ik vind dat iedereen daar getrokken bij moet zijn.
208
00:15:34,680 --> 00:15:45,480
En daarom dus als je een AI bouwt, dat je dan dus een zo divers mogelijke stakeholder groep moet betrekken bij alle beslissingen die je maakt.
209
00:15:45,480 --> 00:15:49,320
Zet mij even aan het denken, dus ik probeer even te voren, misschien dat er jabberish uitkomt,
210
00:15:49,320 --> 00:15:51,320
dat gebeurt wel vaker bij mij, maar ik ga het toch proberen.
211
00:15:51,320 --> 00:15:55,620
Wat ik je eigenlijk wil zeggen is, zorg voor een diverse groep aan mensen...
212
00:15:55,620 --> 00:15:59,680
om te komen tot een gedeeld perspectief...
213
00:15:59,680 --> 00:16:02,920
om de impact helder te krijgen.
214
00:16:02,920 --> 00:16:04,920
Want eigenlijk hebben we de impact niet altijd helder...
215
00:16:04,920 --> 00:16:07,120
en focussen we ons misschien maar op een deel van de impact.
216
00:16:07,120 --> 00:16:09,120
Misschien wat hetgene wat in de data zit...
217
00:16:09,120 --> 00:16:11,720
en niet zozeer wat er in de context eromheen zit.
218
00:16:11,720 --> 00:16:16,720
Dus volgens mij proberen we dus eigenlijk de impact breder in kaart te brengen...
219
00:16:16,720 --> 00:16:19,120
door te zorgen dat er zo veel mogelijke perspectieven zijn...
220
00:16:19,140 --> 00:16:24,140
dat we de grootste kans hebben dat er geen bias of complete bias is op een vlak.
221
00:16:24,140 --> 00:16:28,660
- Ja, je kan ook zeg maar vaak als je een AI ergens in een proces ofzo introduceert,
222
00:16:28,660 --> 00:16:33,980
is het niet zo van, oh we hebben nu een deel van dat proces geautomatiseerd en verdienen we meer geld.
223
00:16:33,980 --> 00:16:37,060
Het verandert ook gewoon het proces eromheen.
224
00:16:37,060 --> 00:16:42,220
En dat vergeten we vaak, dat het niet alleen zo is dat er ineens een AI is,
225
00:16:42,220 --> 00:16:44,340
maar mensen gaan zich ook verhouden tot die AI.
226
00:16:44,340 --> 00:16:46,220
En hoe verhouden ze zich dan tot die AI?
227
00:16:46,220 --> 00:16:48,980
vertrouwen mensen, bijvoorbeeld de AI wel.
228
00:16:48,980 --> 00:16:52,420
Dat zijn ook dingen waar je over na moet denken.
229
00:16:52,420 --> 00:16:56,660
Daarvoor moet je dus wel zo veel mogelijk blikken meenemen,
230
00:16:56,660 --> 00:16:59,460
zodat je die verschillende actoren die er eigenlijk zijn,
231
00:16:59,460 --> 00:17:04,600
dat je weet wat voor een verhouding zij hebben met de technologie.
232
00:17:04,600 --> 00:17:11,560
Ja, ik hoorde een aanvalkeer het woordje impact.
233
00:17:11,560 --> 00:17:15,900
Dus ik moest meteen denken aan een impact assessment,
234
00:17:15,920 --> 00:17:22,520
Op mensenrechten en algoritmes, die nu bij de overheid leeft, Yama.
235
00:17:22,520 --> 00:17:27,160
Ik zie Sama ziek heel bedenkelijk kijken. Heb je daar een mening over?
236
00:17:27,160 --> 00:17:29,160
[GELACH]
237
00:17:29,160 --> 00:17:31,160
[GELACH]
238
00:17:31,160 --> 00:17:33,160
[GELACH]
239
00:17:33,160 --> 00:17:35,920
Dit is een hele moeilijke vraag, vind ik altijd.
240
00:17:35,920 --> 00:17:41,320
Ik vind het ten eerste super nice dat ze dit naar de Tweede Kamer hebben kunnen brengen.
241
00:17:41,320 --> 00:17:43,320
Ik volgte die motie.
242
00:17:43,320 --> 00:17:47,920
Ik vond het alleen al echt heel stoer dat ze de Tweede Kamer hebben kunnen...
243
00:17:47,920 --> 00:17:52,320
eindelijk kunnen overtuigen dat dit een onderwerp is waar ze zich mee bezig moeten houden...
244
00:17:52,320 --> 00:17:55,120
en dat er ook concrete plannen voor zijn.
245
00:17:55,120 --> 00:17:58,920
Alleen denk ik dat dit bij lange na niet genoeg is.
246
00:17:58,920 --> 00:18:01,120
Ik denk dat...
247
00:18:01,120 --> 00:18:03,120
Kan je even schetsen voor degene...
248
00:18:03,120 --> 00:18:06,720
Wat houdt het assessment in en wat dekt het wel?
249
00:18:06,720 --> 00:18:08,720
Want dan kan je denk ik ook vertellen wat het niet...
250
00:18:08,720 --> 00:18:11,320
Ik zit er natuurlijk niet in.
251
00:18:11,320 --> 00:18:18,120
Ik heb dit alleen maar vanuit mijn eigen interesse doorgelezen, van 90 pagina's.
252
00:18:18,120 --> 00:18:19,760
90 pagina's.
253
00:18:19,760 --> 00:18:25,200
En daarin kwam ik achter dat...
254
00:18:25,200 --> 00:18:29,120
Ja, het houdt volgens mij...
255
00:18:29,120 --> 00:18:31,520
Correct me if I'm wrong,
256
00:18:31,520 --> 00:18:35,320
in dat je een gesprek gaat met verschillende stakeholders,
257
00:18:35,320 --> 00:18:38,320
en dat er verschillende stappen zijn in het proces.
258
00:18:38,360 --> 00:18:44,200
en bij elke stap betrek je ook andere stakeholders en ga je ook op een andere manier langs de impact
259
00:18:44,200 --> 00:18:52,640
van het algoritme op mensenrechten. Maar wat ik dus, het ontvat dan dus wel dat je dus praat met
260
00:18:52,640 --> 00:19:01,160
juristen, met beslissingsmakers, met allemaal mensen in het bedrijfsleven, dus dat betreft goed,
261
00:19:01,160 --> 00:19:06,240
maar wat ik heel erg miste was dat er weinig gesprekken gegaan waren met data scientists.
262
00:19:06,240 --> 00:19:11,520
En ook heel weinig, eigenlijk bijna nooit met daadwerkelijke ethici.
263
00:19:11,520 --> 00:19:13,240
En ik denk dat ik dat heel erg mis.
264
00:19:13,240 --> 00:19:16,280
Dat het veel te veel vanuit een juridisch oogpunt gebeurt...
265
00:19:16,280 --> 00:19:21,880
en te weinig, zeg maar, in context gebracht wordt van ethiek.
266
00:19:21,880 --> 00:19:24,760
Ik weet niet hoe ik dit goed uitleg, maar...
267
00:19:24,760 --> 00:19:27,720
En ook zonder te discrediten wat het allemaal is.
268
00:19:27,720 --> 00:19:31,120
Want ik vind het verder echt supergoede stappen in de juiste richting.
269
00:19:32,640 --> 00:19:39,240
Maar ik mis daarbij heel erg te kijken naar normatieve overwegingen van het algoritme.
270
00:19:39,240 --> 00:19:48,440
In plaats van dit is hoe het is, dit is hoe mensenrechten impact, vanuit een compliance manier om er naar te kijken.
271
00:19:48,440 --> 00:19:59,160
Wat ik daarvan begrepen heb, ik ben met de training geweest over de IAMA en onder andere de professor die bij betrokken is geweest,
272
00:19:59,160 --> 00:20:03,720
die het geschreven heeft, die heeft daar ook een soort van gaslezing gegeven.
273
00:20:03,720 --> 00:20:09,200
Wat mij afdronken daarvan was, is dat het ook heel moeilijk normatief te maken is,
274
00:20:09,200 --> 00:20:10,800
omdat het gaat juist over ethiek.
275
00:20:10,800 --> 00:20:14,000
Dat je niet te maken hebt met wetgeving.
276
00:20:14,000 --> 00:20:15,880
Dus dat het ook heel...
277
00:20:15,880 --> 00:20:20,400
Kijk, als er één van de vragen die erin zit, gaat over wetgeving.
278
00:20:20,400 --> 00:20:24,760
En als je die zou kunnen invullen, dan heb je je fundament voor je beslissingen.
279
00:20:24,760 --> 00:20:27,520
En ben je eigenlijk als goed als klaar.
280
00:20:27,560 --> 00:20:34,060
Het probleem is juist waar geen wetgeving is, welke afweging je dan maakt en dan wordt het echt heel erg lastig.
281
00:20:34,060 --> 00:20:40,820
Precies en vandaar dat ik het dus jammer vind dat het voornamelijk vanuit juridisch oogpunt wordt bekeken en niet vanuit ethisch oogpunt.
282
00:20:40,820 --> 00:20:47,740
Dat er zo weinig, ja dat er geen ruimte voor is in die gesprekken daar, dat hele assessment.
283
00:20:47,740 --> 00:20:49,740
Klopt dat?
284
00:20:49,740 --> 00:20:57,620
Nou ja, ik had juist het idee, omdat je dus dan heel erg bezig bent met welke mensenrechten raak je.
285
00:20:57,620 --> 00:21:02,620
Je raakt altijd een hele waslijst aan mensenrechten.
286
00:21:02,620 --> 00:21:06,620
En sommige beïnvloed je positief, sommige beïnvloed je negatief.
287
00:21:06,620 --> 00:21:13,220
En dat het daar vooral over gaat van ben je daar überhaupt bewust van?
288
00:21:13,220 --> 00:21:15,580
Dat je die mensenrechten beïnvloedt.
289
00:21:15,580 --> 00:21:27,900
En hoe is die afweging en hoe, met die hele context, besluit je of je dat moreel acceptabel vindt dat je aan die mensenrechten zit te sleutelen.
290
00:21:27,900 --> 00:21:30,940
Denk je dan ook na over bepaalde trade-offs die je maakt?
291
00:21:30,940 --> 00:21:33,860
Ja, zeker. Nee, want dat is het juist.
292
00:21:33,860 --> 00:21:40,540
Als je bijvoorbeeld gaat voor veiligheid, we hebben allemaal een recht op een veilige leefomgeving,
293
00:21:40,540 --> 00:21:44,540
kom je vaak heel snel in de kluie met privacy.
294
00:21:44,540 --> 00:21:50,540
Ik heb bijvoorbeeld daar geleerd dat je meer dan 200 mensenrechten schijnt te hebben.
295
00:21:50,540 --> 00:21:56,540
Dus als je aan het één sleutelt, zit je waarschijnlijk aan het andere.
296
00:21:56,540 --> 00:22:01,540
En daar ging het wat mij betreft heel veel over, juist over die trade-offs.
297
00:22:01,540 --> 00:22:05,540
Maar het deel waarvan jij zegt, daar heb ik niet goed genoeg naar gekeken,
298
00:22:05,540 --> 00:22:09,540
want er is inderdaad een lijstje van wie je allemaal betrekt, of daar inderdaad ethici bij zitten.
299
00:22:09,540 --> 00:22:12,540
zitten. Dat zou zomaar eens kunnen missen.
300
00:22:12,540 --> 00:22:23,540
Wat ik wel vind, ik wil vooropstellen dat het absoluut niet genoeg is, maar vanuit een soort van, ik denk dat de basis van Responsible AI is wel discussie.
301
00:22:23,540 --> 00:22:32,540
En hoewel je met zo'n soort check denk ik nooit alles kan vatten, denk ik dat het wel een goed punt, startpunt is van discussie.
302
00:22:32,540 --> 00:22:39,820
En juist het feit dat verschillende mensenrechten botsen is super interessant.
303
00:22:39,820 --> 00:22:47,180
Ik bedoel, dat is ook, kijk naar het recht op vrijheid van meningsuiting en antidiscriminatie.
304
00:22:47,180 --> 00:22:50,900
Dat is ook altijd, daar voeren we als maatschappij ook heel veel discussies over.
305
00:22:50,900 --> 00:22:53,620
Ik denk dat dat met AI ook moet gebeuren.
306
00:22:53,620 --> 00:22:58,580
Het alternatief is dat we hier niet over nadenken en dat we het niet eens doorhebben
307
00:22:58,580 --> 00:23:04,580
dat we conflicterende mensenrechten aan het raken zijn.
308
00:23:04,580 --> 00:23:07,580
En ik had wel het idee dat dat de insteek is van dit assessment.
309
00:23:07,580 --> 00:23:10,580
Het is een soort van de bare minimum wat mij betreft.
310
00:23:10,580 --> 00:23:13,580
Maar het is ook geen checklist hè, het is absoluut niet iets wat je kan afvinken.
311
00:23:13,580 --> 00:23:17,580
Dat was inderdaad mijn angst, maar gelukkig dat je dat...
312
00:23:17,580 --> 00:23:22,580
Nee, het zijn allemaal vragen waar je antwoord op geeft.
313
00:23:22,580 --> 00:23:27,580
Het zijn allemaal open vakken waar je allemaal je afweging inschrijft, je keuzes inschrijft.
314
00:23:27,580 --> 00:23:31,580
Het zou ook een levend document moeten zijn. Dat vind ik wat lastiger.
315
00:23:31,580 --> 00:23:34,580
Wie controleert dat dan?
316
00:23:34,580 --> 00:23:44,580
Nog niet. Maar ik heb wel begrepen dat het een optie is, een hele reële optie, dat de IAMA uiteindelijk de standaard wordt voor de nieuwe Europese wet.
317
00:23:44,580 --> 00:23:51,580
Want daar komt wel een Human Rights Assessment verplicht in en dan wordt het waarschijnlijk de IAMA.
318
00:23:51,580 --> 00:23:55,580
Ik vind het juist super goed dat het een levend document is.
319
00:23:55,580 --> 00:24:01,420
Ik ook, alleen ik ben bang dat je dat eenmalig invult.
320
00:24:01,420 --> 00:24:05,820
Juist omdat het, jij zegt al, 90 pagina's, dat zijn echt ontzettend veel vragen.
321
00:24:05,820 --> 00:24:16,620
Hoe zorg je? En daar werd in mijn ogen vrij makkelijk gezegd, dat moet je gewoon regelmatig herhalen.
322
00:24:16,620 --> 00:24:19,180
Maar hoe makkelijk is het om het eenmalig in te vullen?
323
00:24:19,180 --> 00:24:23,420
Een soort van met z'n allen blij zijn, schouderklopjes, jeum, ingevuld.
324
00:24:23,420 --> 00:24:25,420
En dan de Lidl-Doki.
325
00:24:25,420 --> 00:24:28,700
Ja, want daaromheen vraag ik me gewoon een aantal dingen af.
326
00:24:28,700 --> 00:24:30,060
Wie vult het in?
327
00:24:30,060 --> 00:24:32,060
Wat voor soort mensen zijn dat?
328
00:24:32,060 --> 00:24:41,100
Mag het bedrijf of de organisatie erachter zelf bepalen wie er benaderd wordt om mee te denken in dat IAMA?
329
00:24:41,100 --> 00:24:43,900
In die assessments, zeg maar.
330
00:24:43,900 --> 00:24:47,660
Wie controleert dat dan achteraf?
331
00:24:47,660 --> 00:24:49,660
Is er misschien een auditcommissie eroverheen?
332
00:24:49,660 --> 00:24:54,760
of een ethische commissie die dan kijkt naar de vragen of ze goed zijn ingevuld,
333
00:24:54,760 --> 00:25:04,760
of ze misschien niet afgeraffeld zijn, of de beslissing die gemaakt is met die groep dan ook ethisch te verantwoorden is.
334
00:25:04,760 --> 00:25:08,960
Zoals ik het nu zag, moet je dat gewoon regelen binnen je organisatie.
335
00:25:08,960 --> 00:25:13,560
Dus dan zou dit de juiste tip zijn van jou, dat je zorgt dat je zo'n ethische commissie hebt.
336
00:25:13,560 --> 00:25:18,260
Zorg dat dat regelmatig gedaan wordt, zorg dat dat van buitenaf gecontroleerd wordt.
337
00:25:18,260 --> 00:25:21,100
En hoe zorg je ervoor dat het ook een duurzame oplossing is?
338
00:25:21,100 --> 00:25:23,840
Dat je niet alleen maar eenmalig zo'n assessment invult,
339
00:25:23,840 --> 00:25:30,320
maar dat je ook weet van welke skills heb ik verder nodig om dit voort te bouwen.
340
00:25:30,320 --> 00:25:35,560
Want het ideale is eigenlijk dat je niet zo'n iama hoeft in te vullen
341
00:25:35,560 --> 00:25:40,060
en gewoon inherent vanzelfsprekend is dat je responsibel aan jouw IT-process is.
342
00:25:40,060 --> 00:25:44,420
En dat je gewoon mensen hebt binnen een organisatie die daar gewoon verantwoordelijk voor zijn.
343
00:25:44,440 --> 00:25:49,640
Maar ik denk dat we ook de manier waarop we naar AI kijken, moeten we veranderen.
344
00:25:49,640 --> 00:25:52,380
Want ik denk dat we nu zoiets hebben, heel veel bedrijven denken,
345
00:25:52,380 --> 00:25:57,840
oh ik moet iets met AI, ik koop ergens een AI, die implementeer ik en dan ben ik klaar.
346
00:25:57,840 --> 00:26:02,720
Maar ik denk dat die mindset moet veranderen. Dat moet een soort, een AI is net als een kind.
347
00:26:02,720 --> 00:26:05,720
Dat is misschien een beetje overdreven.
348
00:26:05,720 --> 00:26:07,720
Laten we het niet vermenselijker nemen Jan.
349
00:26:07,720 --> 00:26:08,920
Nee, nee, nee, dat is waar.
350
00:26:08,920 --> 00:26:09,920
Net als een huisje.
351
00:26:09,920 --> 00:26:10,920
Een plantje.
352
00:26:10,920 --> 00:26:13,920
Het is een plantje en dat plantje moet in leven blijven.
353
00:26:13,920 --> 00:26:17,480
en je moet ervoor zorgen, je moet dat monitoren, kijk hoe het met AI gaat,
354
00:26:17,480 --> 00:26:23,160
kijk hoe de wereld om ons heen verandert en of die AI nog wel goed is afgesteld op die wereld om ons heen.
355
00:26:23,160 --> 00:26:27,640
En daar valt het, wat mij betreft, het updaten van dit soort checks,
356
00:26:27,640 --> 00:26:34,760
misschien niet alle 90 pagina's, maar in ieder geval wel het bewust bezig zijn met de onderwerpen die in deze check dan besproken worden,
357
00:26:34,760 --> 00:26:42,800
om die ook te blijven monitoren van oké, twee jaar geleden vonden we dat deze en deze mensenrechten werden geraakt,
358
00:26:42,800 --> 00:26:44,680
Nu hebben we ineens een dictator in dit land.
359
00:26:44,680 --> 00:26:46,000
Is dat nog steeds wel zo?
360
00:26:46,000 --> 00:26:47,800
Ik hoop niet dat we ooit een dictator krijgen.
361
00:26:47,800 --> 00:26:52,880
Maar de wereld om ons heen, tijdens corona kregen we ook heel andere discussies...
362
00:26:52,880 --> 00:26:55,280
over mensenrechten, de wereld om ons heen veranderd.
363
00:26:55,280 --> 00:26:58,600
Dus ook hoe die AI zich verhoudt tot die wereld.
364
00:26:58,600 --> 00:27:04,480
En dat blijven monitoren is wat mij betreft wel cruciaal voor Responsible AI.
365
00:27:04,480 --> 00:27:07,560
En als ik een beetje advocaat mag zijn voor IAMA...
366
00:27:07,560 --> 00:27:10,280
Het is denk ik een hele mooie stap.
367
00:27:10,320 --> 00:27:16,240
Eigenlijk gaat het over het volwassen worden, waar we mee bezig zijn.
368
00:27:16,240 --> 00:27:19,000
En dat gaat nou eenmaal met baby stapjes.
369
00:27:19,000 --> 00:27:21,280
En ik denk dat dit wel een hele belangrijke is.
370
00:27:21,280 --> 00:27:22,880
Weet je, de baby kan kruipen.
371
00:27:22,880 --> 00:27:23,880
Oh nee, we deden geen baby.
372
00:27:23,880 --> 00:27:24,880
Nee, nee, nee.
373
00:27:24,880 --> 00:27:25,880
De bolletje dat ontkient.
374
00:27:25,880 --> 00:27:26,880
Ja, precies.
375
00:27:26,880 --> 00:27:30,000
We zien de eerste bloemetjes denk ik ontstaan.
376
00:27:30,000 --> 00:27:32,200
En dat is wel heel belangrijk.
377
00:27:32,200 --> 00:27:35,400
Ik denk als land, ik ben echt niet heel nationalistisch,
378
00:27:35,400 --> 00:27:37,480
maar ik denk dat we als land best trots op mogen zijn,
379
00:27:37,480 --> 00:27:40,120
dat dit een discussie is die gewoon in de politiek al speelt.
380
00:27:40,120 --> 00:27:44,120
Want ik heb niet het gevoel dat dat in veel andere landen ook zo is.
381
00:27:44,120 --> 00:27:46,920
En daarbij is het gewoon heel belangrijk...
382
00:27:46,920 --> 00:27:49,600
dat bedrijven en organisaties er gewoon bewust van zijn...
383
00:27:49,600 --> 00:27:51,800
dat dit gewoon niet het enige is wat je moet doen.
384
00:27:51,800 --> 00:27:52,820
Ja, zeker. - Precies.
385
00:27:52,820 --> 00:27:54,760
En ik denk ook, nu die checklist...
386
00:27:54,760 --> 00:27:58,120
We gaan afronden inderdaad, maar ik wil toch nog even wat zeggen.
387
00:27:58,120 --> 00:28:02,120
Bij grote organisaties zou je willen dat het al vaker wordt besproken...
388
00:28:02,120 --> 00:28:05,580
maar ik denk dat voor kleine organisaties die misschien aan het groeien zijn...
389
00:28:05,580 --> 00:28:08,080
dit wel een heel goed hulpmiddel is, die vanuit de IAMA...
390
00:28:08,100 --> 00:28:11,500
om even, ja, niet die hele grote diverse groep om je heen te hebben,
391
00:28:11,500 --> 00:28:16,200
maar wel al zo'n checklist of raamwerk met vragen door kan gaan,
392
00:28:16,200 --> 00:28:19,040
om die perspectieven die je misschien niet in de groep hebt,
393
00:28:19,040 --> 00:28:20,740
wel al een beetje kan hebben uit te vragen.
394
00:28:20,740 --> 00:28:21,740
Dus ik denk dat is wel heel mooi.
395
00:28:21,740 --> 00:28:24,420
- Ja, ik denk dat het veel inspiratie kan geven voor dingen die je nog kan doen,
396
00:28:24,420 --> 00:28:26,060
als je er nog niet aan had gedacht.
397
00:28:26,060 --> 00:28:27,420
Dus een mooie eerste stap.
398
00:28:27,420 --> 00:28:29,100
- Inderdaad, eerste stap.
399
00:28:29,100 --> 00:28:32,260
- Ik heb vandaag geleerd, AI is een plantje waar je goed voor moet zorgen.
400
00:28:32,260 --> 00:28:33,780
En daar heb je heel wat voor nodig.
401
00:28:33,780 --> 00:28:36,740
En als de omgeving verandert,
402
00:28:36,760 --> 00:28:39,200
dan beïnvloedt dat ook dat plantje, toch?
403
00:28:39,200 --> 00:28:40,740
Precies, niet andersom.
404
00:28:40,740 --> 00:28:41,740
Nee, precies.
405
00:28:41,740 --> 00:28:43,740
Je moet ons niet aanpassen aan de AI, het moet andersom.
406
00:28:43,740 --> 00:28:45,140
Heel mooi, heel mooi.
407
00:28:45,140 --> 00:28:47,160
Noëlle, dank je wel. Samen, dank je wel.
408
00:28:47,160 --> 00:28:50,060
We zijn wijzer geworden, denk ik.
409
00:28:50,060 --> 00:28:51,080
Zeker weten.
410
00:28:51,080 --> 00:28:56,860
Fijn dat je weer luisterde naar een aflevering van AI TD Live.
411
00:28:56,860 --> 00:29:00,080
Zorg dat je je abonneert binnen je favoriete podcast app.
412
00:29:00,080 --> 00:29:05,020
Binnen Spotify kan je een duimpje geven, inderdaad.
413
00:29:05,040 --> 00:29:07,040
Doe dat, dat helpt ons enorm.
414
00:29:07,040 --> 00:29:09,040
Dus als je dat zou willen doen, heel graag.