AIToday Live
AIToday Live is een boeiende Nederlandstalige podcast voor iedereen die geïnteresseerd is in de wereld van kunstmatige intelligentie, ongeacht hun technische achtergrond. Hier zijn een paar redenen waarom je misschien wilt luisteren naar AIToday Live:
- Expert Inzichten: De podcast biedt gesprekken met Nederlandse en Belgische experts op het gebied van AI, waardoor luisteraars waardevolle inzichten en meningen rechtstreeks van leiders en vernieuwers in de industrie krijgen.
- Toegankelijk voor een Breed Publiek: Of je nu diep in de technische details zit of gewoon nieuwsgierig bent naar AI, de podcast presenteert informatie op een manier die zowel begrijpelijk als boeiend is voor zowel zakelijke als IT-professionals.
- Laatste Nieuws en Trends: Blijf op de hoogte van de nieuwste ontwikkelingen en innovaties in AI. De podcast dekt AI for Good en andere belangrijke trends die invloed kunnen hebben op verschillende industrieën en de samenleving als geheel.
Gepresenteerd door Joop Snijder, CTO van Aigency, en Niels Naglé, Area Lead Data & AI van Info Support, biedt de podcast een uniek perspectief op de praktische toepassing van AI binnen organisaties. Het duo bespreekt de (on)mogelijkheden van AI, de impact ervan op bedrijfsprocessen en hoe organisaties deze technologie kunnen inzetten om hun doelstellingen te bereiken.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Met deskundige gasten uit de industrie en academische wereld, biedt de AIToday Live podcast een platform voor het delen van best practices, innovaties en belangrijke inzichten in de wereld van AI. Van de nieuwste algoritmen en modellen tot de impact van AI op de toekomst van werk, de podcast biedt waardevolle informatie voor iedereen die geïnteresseerd is in AI en de rol die het speelt in organisaties.
Voor exclusieve content over de podcast achter de schermen, aankondiging van gasten en exclusieve artikelen, schrijf je dan in voor de nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S05E53 - Ethics for People Who Work in Tech: hoe pas je dit toe in de praktijk?
In deze aflevering hebben we het genoegen om Marc Steen te verwelkomen, senior onderzoeker bij TNO en auteur van het boek 'Ethics for People Who Work in Tech'. Marc deelt zijn inzichten over ethiek in de technologie-industrie en geeft praktische tips over hoe je deze inzichten kunt toepassen.
Marc legt uit dat TNO, als toegepast wetenschappelijk onderzoeksinsituut, zich richt op het toepasbaar maken van kennis. Hij benadrukt het belang van ethiek in de tech-industrie, hoewel het soms een uitdaging kan zijn voor bedrijven die alleen gericht zijn op winst. Hij deelt strategieën, zoals het in kaart brengen van de plus- en minpunten van technologische ontwikkelingen en het samenwerken met anderen, om ethische overwegingen een plek te geven in projecten.
Daarnaast bespreken we het concept van 'wicked problems', complexe problemen waarvan de aard pas duidelijk wordt tijdens het proces van oplossingen bedenken. Marc legt uit dat het begrijpen van het probleem essentieel is voordat je aan oplossingen werkt en benadrukt het belang van het betrekken van verschillende perspectieven. Ook komt het belang van iteratie, feedback en het ontwikkelen van de juiste deugden aan bod.
Marc benadrukt dat ethiek geen statisch gegeven is, maar een continu proces van reflectie en actie. Aan het einde van de aflevering benadrukt hij dat ethiek geen lijst met regels is, maar een proces dat voortdurend moet evolueren en aangepast moet worden aan de situatie.
Wil je meer leren over ethiek in de tech-industrie en praktische tips van Marc Steen? Luister dan nu naar deze boeiende aflevering van AIToday Live!
Links
- Boek "Ethics for People Who Work in Tech" van Marc Steen (https://www.managementboek.nl/boek/9780367542436/ethics-for-people-who-work-in-tech-marc-steen)
- Documentaire "Coded Bias" op Netflix (https://www.netflix.com/title/81328723)
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:03,000
[Muziek]
2
00:00:03,000 --> 00:00:06,000
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van de AI Today Live.
3
00:00:06,000 --> 00:00:09,000
Met vandaag hebben we te gast Marc Steen.
4
00:00:09,000 --> 00:00:13,000
We praten verder over zijn boek 'Ethics for People Who Work in Tech'.
5
00:00:13,000 --> 00:00:16,000
Heb je deel 1 nog niet geluisterd? Doe dat dan eventjes.
6
00:00:16,000 --> 00:00:20,000
Hele interessante aflevering toch?
7
00:00:20,000 --> 00:00:21,000
Zeker.
8
00:00:21,000 --> 00:00:24,000
Dus we praten verder met Marc.
9
00:00:24,000 --> 00:00:28,000
Marc, dankjewel dat je in onze podcast aanwezig wil zijn.
10
00:00:28,000 --> 00:00:31,560
Praat over je boek. We hebben het erover gehad.
11
00:00:31,560 --> 00:00:37,800
Voordat we daarmee verder gaan, zou je voor de luisteraar die misschien deel 1 niet geluisterd heeft, je toch nog even willen voorstellen?
12
00:00:37,800 --> 00:00:41,680
Ja, dat is een goede. Marc Steen. Ik werk bij TNO als senior researcher.
13
00:00:41,680 --> 00:00:49,200
Al de hele tijd. TNO is een mooie organisatie met 3000 plus experts op allerlei gebieden.
14
00:00:49,200 --> 00:00:53,000
Energie, mobiliteit, ICT en nog honderden onderwerpen.
15
00:00:53,000 --> 00:00:56,080
En we doen toegepast wetenschappelijk onderzoek.
16
00:00:56,080 --> 00:00:58,320
Dus iets praktischer dan universiteiten.
17
00:00:58,320 --> 00:01:00,720
En iets, ja hoe moet je dat zeggen?
18
00:01:00,720 --> 00:01:02,120
Je moet zeggen iets theoretischer.
19
00:01:02,120 --> 00:01:04,280
Iets grommiger dan de industrie soms.
20
00:01:04,280 --> 00:01:05,760
Dus om die link te kunnen leggen.
21
00:01:05,760 --> 00:01:08,080
Kennis toepasbaar maken.
22
00:01:08,080 --> 00:01:09,080
Ja, mooi.
23
00:01:09,080 --> 00:01:11,600
Ik heb jouw boek gelezen.
24
00:01:11,600 --> 00:01:16,680
Nu wil ik dat meenemen naar mijn project.
25
00:01:16,680 --> 00:01:19,080
Dus ik heb nu theoretische kennis opgedaan.
26
00:01:19,080 --> 00:01:22,120
En je zegt overal, we zitten tussen theorie en praktijk in.
27
00:01:22,120 --> 00:01:27,120
Hoe pas ik nou de dingen die ik hier gelezen heb in jouw boek in de praktijk toe?
28
00:01:27,120 --> 00:01:29,120
Ja, dat is een mooie vraag.
29
00:01:29,120 --> 00:01:35,120
Ik heb in heel veel hoofdstukken, sluit ik af, ook met een soort cursiefje met een uitnodiging,
30
00:01:35,120 --> 00:01:40,120
een opdracht van hoe je de inzichten in het boek in de praktijk kunt toepassen.
31
00:01:40,120 --> 00:01:47,120
Dus het hoofdstuk wat gaat over gevolgenethiek, de plus en min in kaart te brengen, dat heeft een hele eenvoudige uitnodiging.
32
00:01:47,120 --> 00:01:50,120
In het project waar je nu in zit, doe dat dus.
33
00:01:50,120 --> 00:01:55,520
Testnotes voor jezelf, misschien met iemand samen, misschien heel oppervlakkig, misschien
34
00:01:55,520 --> 00:01:56,520
iets grondiger.
35
00:01:56,520 --> 00:02:00,680
De plus en min in kaart brengen van zelfde het project een groot succes wordt, het komt
36
00:02:00,680 --> 00:02:03,520
in de wereld, het komt in de maatschappij, het komt in mensen dagelijks leven.
37
00:02:03,520 --> 00:02:05,760
Wat zijn dan zoal de plus en minnen?
38
00:02:05,760 --> 00:02:10,640
Dus er staan altijd soort opdrachten in, maar ik denk dat je ook bedoelt met ja, oké, in
39
00:02:10,640 --> 00:02:13,960
mijn hoofd heb ik het al wel gedaan, in het verleiden heb ik het al wel gedaan, maar nou
40
00:02:13,960 --> 00:02:18,800
zeg maar, the proof of the pudding. Je zit in een project met een deadline en een budget en een
41
00:02:18,800 --> 00:02:23,760
projectmanager die zegt, jongens het moet wel vooral technisch werken en er zijn nog compliance dingen
42
00:02:23,760 --> 00:02:32,120
en ja, hoe breng je dan de inzichten naar de praktijk. Ja, precies. Kan uitdagend zijn. Ja,
43
00:02:32,120 --> 00:02:40,400
ja, je hebt natuurlijk verschillende contexten. Het ene bedrijf is veel moeilijker om dat soort
44
00:02:40,400 --> 00:02:45,320
te sprake brengen. Ik kan me ook wel bedrijven voorstellen waarbij het juist makkelijker is relatief.
45
00:02:45,320 --> 00:02:49,500
Dat zijn bijvoorbeeld bedrijven die zich ook profileren met, we doen privacy by design,
46
00:02:49,500 --> 00:02:55,360
of wij vinden bijvoorbeeld diversiteit en inclusie belangrijk, ook hoe we mensen aannemen en de
47
00:02:55,360 --> 00:02:59,760
producten en de systemen die op de markt brengen, ja daarmee willen we bekend zijn als betrouwbaar
48
00:02:59,760 --> 00:03:06,080
en ook ondersteunend aan goede dingen. Dan zit je al in de goede richting. En dan maak je een scherp
49
00:03:06,080 --> 00:03:11,240
contrast met als je bij een bedrijf zit wat beursgenoteerd is in de slechte zin van het woord in zin van
50
00:03:11,240 --> 00:03:17,080
kortetermijn financiële winst is het enige wat telt.
51
00:03:17,080 --> 00:03:23,680
Ja, dat is gewoon soms heel moeilijk om dan te sprake te brengen dingen als zullen we ethiek grondig aanpakken?
52
00:03:23,680 --> 00:03:25,360
Want ja, hoe betaalt het uit?
53
00:03:25,360 --> 00:03:29,360
Ja, sommige dingen kun je juist moeilijk in kortetermijn financieel uitdrukken.
54
00:03:29,360 --> 00:03:32,760
Ik kan me zelfs voorstellen in bedrijven die het echt willen,
55
00:03:32,760 --> 00:03:39,160
Als er druk erop komt, deadlines komen eraan, er zijn net van allerlei dingen misgegaan,
56
00:03:39,160 --> 00:03:44,080
dat er echte druk erop komt en dat je erachter komt.
57
00:03:44,080 --> 00:03:50,280
Je bent op je project en je komt erachter dat in de trainingsset toch echt wel bijvoorbeeld bepaalde problemen zitten.
58
00:03:50,280 --> 00:03:55,360
Hoe ga je daar? Welke tips zou jij dan willen geven aan zo iemand?
59
00:03:55,360 --> 00:03:57,360
Van waar je begint, hoe doe je dat?
60
00:03:57,360 --> 00:04:01,360
Ja, mooie vraag. En ik pak hem ook terug waar we vorige keer ook even te spraken brachten.
61
00:04:01,360 --> 00:04:05,720
Namelijk deugdethiek is een manier van tegen ethiek aan kijken wat het gaat over welke
62
00:04:05,720 --> 00:04:09,640
deugden hebben we nodig in onszelf om samen goed samen te leven.
63
00:04:09,640 --> 00:04:11,160
Het goed leven samen te leven.
64
00:04:11,160 --> 00:04:16,040
Het mooie van deugdethiek vind ik dat het ook meteen kan toepassen naar jezelf toe.
65
00:04:16,040 --> 00:04:19,720
Dus de IT professional die kan een analyse maken van deugdethiek.
66
00:04:19,720 --> 00:04:23,960
Hoe kan deze technologie, die applicatie, mensen helpen om deugd te ontwikkelen.
67
00:04:23,960 --> 00:04:25,840
Maar die kan ook vooral naar zichzelf kijken.
68
00:04:25,840 --> 00:04:27,200
Welke deugden heb ik dan nodig.
69
00:04:27,200 --> 00:04:28,440
Terug naar jouw voorbeeld.
70
00:04:28,440 --> 00:04:33,620
Diegene zou dan baat kunnen hebben bij het ontwikkelen van de deugd van moed.
71
00:04:33,620 --> 00:04:34,620
Van moedigheid.
72
00:04:34,620 --> 00:04:35,620
Oh zo moet.
73
00:04:35,620 --> 00:04:40,000
Ja, want je hebt wel lef nodig om met de deadline in zich en een gedoeotje en nog wat
74
00:04:40,000 --> 00:04:42,780
en nog wat te zeggen, hoor eens, ik wil toch even een punt maken.
75
00:04:42,780 --> 00:04:47,040
En dan zie je ook het mooie van deugdetict, het is ook niet iets wat je in je eentje doet.
76
00:04:47,040 --> 00:04:50,480
Want als diegene het in zijn eentje moet doen, dan kunnen de andere 5, 6 rond de tafel om
77
00:04:50,480 --> 00:04:52,520
zo mee waaren gaan kijken, dat dacht het niet.
78
00:04:52,520 --> 00:04:55,200
Dus er is ook een inbedding en een samenwerking voor nodig.
79
00:04:55,200 --> 00:05:01,000
En een projectleider bijvoorbeeld zegt van, oké, goed, laten we het er wel even over hebben op zijn minst.
80
00:05:01,000 --> 00:05:04,640
En dat iemand anders zegt van, ja, ik kan me iets meer voorstellen wat je zegt.
81
00:05:04,640 --> 00:05:07,040
Dus dan wordt het meer gedeeld.
82
00:05:07,040 --> 00:05:12,640
Dit is ook wel eens zeg maar het beeld van één iemand die het moedig moet zijn.
83
00:05:12,640 --> 00:05:13,960
En dan de rest, nee dat werkt niet.
84
00:05:13,960 --> 00:05:15,080
Je moet het ook samen op willen.
85
00:05:15,080 --> 00:05:18,880
- Nou en zeker dat moet, want ik was even bang dat jij moet met een T bedoelde.
86
00:05:18,880 --> 00:05:20,280
Of je bedoelt moet met een D.
87
00:05:20,280 --> 00:05:24,400
Ik heb best wel in een hoop projecten gezeten, Niels ook.
88
00:05:24,400 --> 00:05:31,200
En als we dit terugbrengen naar discussies die we gehad hebben over privacy,
89
00:05:31,200 --> 00:05:32,720
van een aantal jaren geleden,
90
00:05:32,720 --> 00:05:35,720
er werd namelijk heel vaak gesproken over 'moet' met een 't'.
91
00:05:35,720 --> 00:05:40,040
En dan krijg je meteen enorme tegenstellingen.
92
00:05:40,040 --> 00:05:42,680
Dus 'moet' met een 'd' vind ik eigenlijk wel een hele mooie.
93
00:05:42,680 --> 00:05:44,040
Die heb je inderdaad wel nodig.
94
00:05:44,040 --> 00:05:46,840
Je hebt wel een moedige iemand nodig die dan even opstaat,
95
00:05:46,840 --> 00:05:48,360
zeker waar de druk zo hoog is.
96
00:05:48,360 --> 00:05:50,720
Ja, en ook, dat wil ik toch ook bij nadrukken,
97
00:05:50,720 --> 00:05:53,800
om die deugden ook meer als iets gezamenlijks te zien.
98
00:05:54,080 --> 00:05:56,080
Als één iemand lukt dat gewoon veel moeilijker.
99
00:05:56,080 --> 00:06:00,400
Diegene heeft wel een soort van backup, support nodig van bijvoorbeeld de projectmanager...
100
00:06:00,400 --> 00:06:03,880
of degene die de agenda bewaakt van de projectmeeting.
101
00:06:03,880 --> 00:06:05,880
Dat er wel even ruimte voor kan zijn.
102
00:06:05,880 --> 00:06:11,280
Ja, voor mezelf is het een stukje cultuur en hoe zit het binnen de organisatie, hoe is de cultuur.
103
00:06:11,280 --> 00:06:14,880
En cultuur kan natuurlijk heel veel begrippen zijn, maar een stukje professionaliteit...
104
00:06:14,880 --> 00:06:18,880
in het al dat je eigenlijk bijna verplicht bent om dit soort dingen die gewoon de kwaliteit niet te goed te komen...
105
00:06:18,880 --> 00:06:23,480
of risico's met zich meebrengt, moet kenbaar maken.
106
00:06:23,480 --> 00:06:29,640
Wel met een T inderdaad, omdat dat moeten gewoon om die professionaliteit te kunnen waarborgen en de kwaliteit te kunnen waarborgen.
107
00:06:29,640 --> 00:06:33,360
Maar ja, daar komt heel veel ook cultuur en organisatie in.
108
00:06:33,360 --> 00:06:40,320
Ja, mooi ook Niels, de associatie die ik ook vaak leg, die leg je ook van, het heeft ook met kwaliteit te maken, met professionaliteit.
109
00:06:40,320 --> 00:06:47,000
Want hallo, hoe ben je nou een professionaliteitsontwikkelaar als je zeg maar maling zou hebben aan privacy...
110
00:06:47,000 --> 00:06:51,240
of maling zou hebben aan de gevolgen van het toepassen van de applicatie waarin je werkt.
111
00:06:51,240 --> 00:06:56,280
Dat hoort er ook bij. Je ziet het ook in codes of conduct, bijvoorbeeld van de ACM of de IEEE.
112
00:06:56,280 --> 00:07:01,360
Daar staat het ook. Ik ben verantwoordelijk, ik pak mijn verantwoordelijkheid voor de gevolgen van waar ik aan werk.
113
00:07:01,360 --> 00:07:06,240
Dus professionaliteit, ook betrouwbaarheid, dat zijn ook hele mooie...
114
00:07:06,240 --> 00:07:09,240
Die liggen in dezelfde richting als ethiek.
115
00:07:09,240 --> 00:07:11,640
Ja, zelf ben je bijna plichtsbesef.
116
00:07:11,640 --> 00:07:17,120
Ik heb een plicht om hier gewoon een red flag omhoog te doen van, hé, er is een risico inderdaad.
117
00:07:17,120 --> 00:07:20,120
De plichtethiek, dat was het nummertje twee waar we vorige keer over gesproken hebben.
118
00:07:20,120 --> 00:07:22,120
Dat vind ik heel belangrijk.
119
00:07:22,120 --> 00:07:27,840
Kom je ook in de praktijk dingen tegen dat mensen zeggen van stop er nou mee,
120
00:07:27,840 --> 00:07:34,320
want stop deze discussie, het is wettelijk, mogen we dit, dus door.
121
00:07:34,320 --> 00:07:38,120
Nee, zo hard ben ik dat gelukkig niet tegengekomen.
122
00:07:38,120 --> 00:07:39,120
Oké, kijk.
123
00:07:39,120 --> 00:07:46,120
Nee, dat is ook bijna wel, ik zou bijna zeggen een beetje een ouderwetse manier.
124
00:07:46,120 --> 00:07:49,120
Alsof je legal en ethical als twee losse dingen hebt.
125
00:07:49,120 --> 00:07:55,880
Er wordt vaak voorbeeld gegeven, dat geef ik ook in mijn boek, er zijn dingen die vroeger
126
00:07:55,880 --> 00:07:59,720
op een bepaald moment illegaal waren, maar die we nu moreel het juiste vinden.
127
00:07:59,720 --> 00:08:05,560
Dat was Rosa Parks, tijden van de rassenwetgeving in de Verenigde Staten, die ging op de verkeerde
128
00:08:05,560 --> 00:08:06,640
plaats in de bus zitten.
129
00:08:06,640 --> 00:08:07,640
Dat was illegaal.
130
00:08:07,640 --> 00:08:12,360
Maar een paar jaar later waren er gelukkig betere wetten, die meer moreel kloppen.
131
00:08:12,360 --> 00:08:14,960
En ook andersom kan het ook.
132
00:08:14,960 --> 00:08:20,960
Het was weliswaar illegaal, maar een paar jaar later is het moreel het juiste en ook legaal gemaakt door de wet aan te passen.
133
00:08:20,960 --> 00:08:23,960
En ook andersom zie je dat bijvoorbeeld met belastingontduiking.
134
00:08:23,960 --> 00:08:28,960
Als je op een gegeven moment een groot bedrijf bent en je hebt tig lawyers in dienst om al die belastingen...
135
00:08:28,960 --> 00:08:35,960
Ja, het kan wel, maar in toenemende mate is daar maatschappelijk minder geduld en minder acceptatie voor.
136
00:08:35,960 --> 00:08:38,960
Dus over vijf jaar zijn die wetten weer beter.
137
00:08:38,960 --> 00:08:46,960
Dus dan heeft zeg maar, wat weliswaar legal mocht, gingen we een ethisch afkeuren om ook het legal weer terug aan te passen.
138
00:08:46,960 --> 00:08:50,960
Ik denk dat meteen aan de mondkapjesdeal van onze SeaWorld.
139
00:08:50,960 --> 00:08:55,960
Het legaal, nou dat moet nog blijken of het legaal was, maar het lijkt legaal.
140
00:08:55,960 --> 00:09:00,960
Maar we vinden het in ieder geval breedmaatschappelijk, we vinden het moreel niet afvaardbaar.
141
00:09:00,960 --> 00:09:05,960
En dan zie je ook de interactie tussen legal en ethical, want ja, die beïnvloeden elkaar.
142
00:09:05,960 --> 00:09:12,960
Je triggerde mij nog wel, want we hebben het pas gehad over de angst voor AI in een aflevering.
143
00:09:12,960 --> 00:09:21,960
En daarbij hadden we het ook over de maatschappij en dat we zelf ook een hand hebben om de ontwikkelingen die gaande zijn en eraan zitten te komen, dat we daar invloed op hebben.
144
00:09:21,960 --> 00:09:27,960
Hoe zie je in de praktijk dat de maatschappij wordt betrokken bij organisaties? Zie je dat al?
145
00:09:27,960 --> 00:09:34,960
Ja, wat is jouw, heb jij er voorbeelden van? We zien dat mensen, ik bedoel je mensen als IT ontwikkelaar?
146
00:09:34,960 --> 00:09:37,960
Nee, de echte consumenten, de burgers die er last van hebben.
147
00:09:37,960 --> 00:09:40,960
Dan komen we bij fraude detectie en dat soort zaken natuurlijk.
148
00:09:40,960 --> 00:09:46,960
Maar zien we het ook in andere scenario's, al dat de eindgebruikers vaker betrokken worden bij bijvoorbeeld die ethische vraagstukken.
149
00:09:46,960 --> 00:09:50,960
Willen we dit eigenlijk wel als product, eigenschap of feature?
150
00:09:50,960 --> 00:09:54,960
Ik denk dat je het relatief weinig ziet en ik denk dat je het te weinig ziet.
151
00:09:54,960 --> 00:09:58,960
We lopen er denk ik in Europa in voorop.
152
00:09:58,960 --> 00:10:03,960
Ik maak wel een soort onderscheid, dus in de VS mogen bedrijven alles en zijn ook bedrijven eigenlijk te machtig.
153
00:10:03,960 --> 00:10:06,800
China is machten staat alles niet is de staat dan machtig.
154
00:10:06,800 --> 00:10:10,360
In de EU, in de Europese Unie hebben we een soort alternatief daarvoor dat we
155
00:10:10,360 --> 00:10:15,560
zeg maar publieke waarde of maatschappelijke belangen, die vinden we dan belangrijk.
156
00:10:15,560 --> 00:10:17,480
En natuurlijk een schipper tussen die verschillende dingen.
157
00:10:17,480 --> 00:10:21,960
Dus daar hoort ook heel veel bij.
158
00:10:21,960 --> 00:10:27,200
Burgers een stem geven of via democratische processen of via wat meer
159
00:10:27,200 --> 00:10:30,920
laagdrempelige inspraakdingen of rond de tafel gesprekken.
160
00:10:32,000 --> 00:10:35,240
Een organisatie is ALAI, A-L-L-A-I.
161
00:10:35,240 --> 00:10:35,740
Ja.
162
00:10:35,740 --> 00:10:40,540
Vijf, zes jaar geleden was ze opgericht door Catalijne Jonker, of ik zeg haar naam verkeerd.
163
00:10:40,540 --> 00:10:41,540
Catalijne Muller.
164
00:10:41,540 --> 00:10:43,380
Oef, dan zeg ik het bijna verkeerd.
165
00:10:43,380 --> 00:10:44,380
Zet me in de show notes.
166
00:10:44,380 --> 00:10:46,380
Ja, zet me in de show notes, dat sowieso.
167
00:10:46,380 --> 00:10:47,880
In ieder geval, ALAI is het goede woord.
168
00:10:47,880 --> 00:10:53,080
Zij zeggen dus van, zij zijn een NGO in Nederland en Amsterdam,
169
00:10:53,080 --> 00:11:00,380
ja, het maatschappelijk nut, de maatschappelijke plussen en minnen goed in beeld te brengen.
170
00:11:00,380 --> 00:11:08,580
En dus ook het onderwerp wat jij zegt, burgers of maatschappelijke actoren, een rol, een stem erbij te geven, een plaats aan tafel.
171
00:11:08,580 --> 00:11:13,780
Wij doen toevallig vanuit het TNO, niet toevallig, dat zijn de dingen die we ook belangrijk vinden, maar ik zit er ook in,
172
00:11:13,780 --> 00:11:15,780
een Europees project dat heet Transcend.
173
00:11:15,780 --> 00:11:23,980
Het gaat over methodes waarmee we letterlijk burgers mee kunnen laten doen in het ontwikkelen van technologieën,
174
00:11:23,980 --> 00:11:27,980
Zelfs nog een beetje spannere technologie in de security domein.
175
00:11:27,980 --> 00:11:31,740
Zo van camera's, gezichtsherkenning, border control, tot en met dat soort.
176
00:11:31,740 --> 00:11:37,260
Dus dat zijn best wel onderwerpen die je normaal in negatieve zin in de krant ziet staan van jemig.
177
00:11:37,260 --> 00:11:39,420
Het ging weer eens mis of het dreigt mis te gaan.
178
00:11:39,420 --> 00:11:40,940
Om dat juist voor te zijn.
179
00:11:40,940 --> 00:11:46,900
Maar dat het een Europees onderzoeksproject is, wil al zeggen dat we daar nog stappen in kunnen maken.
180
00:11:46,900 --> 00:11:50,500
Ik ben al blij om te horen dat je het voor mij perspectief even breed zet.
181
00:11:50,500 --> 00:11:54,500
Ik kijk vooral naar Europa en de omgeving waar ik vaak voor klanten ook actief ben.
182
00:11:54,500 --> 00:12:00,500
Dat het in VS al anders is en China al anders is, is goed voor mij om dat perspectief ook mee te nemen.
183
00:12:00,500 --> 00:12:02,500
Dit wordt dus heel grove penseels, denk ik.
184
00:12:02,500 --> 00:12:06,500
Je hebt vast ook wel NGOs in VS en China weten we het niet van.
185
00:12:06,500 --> 00:12:11,500
Dat het binnen Europa al wel wat meer besproken wordt.
186
00:12:11,500 --> 00:12:20,420
Maar als je de guidelines voor Trustworthy AI, Mariana Mazzucato met Mission Driven Innovation,
187
00:12:20,420 --> 00:12:22,820
die heeft ook veel advies gegeven aan de Europese Commissie,
188
00:12:22,820 --> 00:12:27,620
voor de maatschappij en ook voor een deel door de maatschappij,
189
00:12:27,620 --> 00:12:31,100
om innoveren zo te organiseren, is wel iets van de EU.
190
00:12:31,100 --> 00:12:33,380
Ja, dat kan ik op die manier wel zeggen, onderbouwen.
191
00:12:33,380 --> 00:12:35,460
Ja, dat is in ieder geval mooi om te horen inderdaad.
192
00:12:35,460 --> 00:12:38,580
En ik denk dat we daar veel meer mee moeten doen in de toekomst, zeker.
193
00:12:38,580 --> 00:12:47,980
Ik had een vraag aan jou. Ik geef ook trainingen en workshops en ambdatsen en dingen schrijven ook graag.
194
00:12:47,980 --> 00:12:51,860
En als je dan, dan moet je dingen gaan structureren.
195
00:12:51,860 --> 00:12:57,660
Soms vallen er puzzelstukjes die je wel in je hoofd had, maar eigenlijk niet wist dat er een verbinding in zat.
196
00:12:57,660 --> 00:13:02,780
Welk inzicht heb je zelf gekregen op het gebied van AI of AI ethiek?
197
00:13:02,780 --> 00:13:09,620
Waarvan je zegt, dat is me eigenlijk opgevallen door het schrijven van dit boek.
198
00:13:09,620 --> 00:13:12,620
Leuke vraag.
199
00:13:12,620 --> 00:13:18,860
Ik denk wel dat, ik heb het aangestipt, ethiek is aan één kant iets persoonlijks.
200
00:13:18,860 --> 00:13:24,340
Het speelt zich af in iemand zijn hoofd, of zelfs, dat doe ik ook wel vaak in het boek,
201
00:13:24,340 --> 00:13:26,580
dat heeft ook een van de reviewers achterop ook opgemerkt,
202
00:13:26,580 --> 00:13:29,420
hoofd, hart en handen.
203
00:13:29,420 --> 00:13:35,420
Ethiek is ook iets van niet alleen denken, het is ook denken en analyseren van dingen, maar ook voelen.
204
00:13:35,420 --> 00:13:39,920
En waardes kunnen erkennen in jezelf, wat vind ik van waarde.
205
00:13:39,920 --> 00:13:47,920
En ook handelen en doen. Tot actie overkomen, het juiste doen, het project in de goede kant opsturen, wat we ook in de vorige podcast hadden uitgelegd.
206
00:13:47,920 --> 00:13:51,920
Hoofd handen, hoofd hart handen, mooi.
207
00:13:51,920 --> 00:13:55,420
Ja, dus dat en dat is dus nog maar één lijf.
208
00:13:55,420 --> 00:13:58,100
Maar dat vroeg ik ook net over moedigheid.
209
00:13:58,100 --> 00:13:59,580
Het is ook iets gedeels.
210
00:13:59,580 --> 00:14:01,340
Ethiek is ook iets wat je in je eentje doet.
211
00:14:01,340 --> 00:14:02,140
Zo werkt het niet.
212
00:14:02,140 --> 00:14:04,460
Ethiek is ook in context.
213
00:14:04,460 --> 00:14:06,140
Daar heb je ook support van anderen bij nodig.
214
00:14:06,140 --> 00:14:07,540
Of ruimte van anderen.
215
00:14:07,540 --> 00:14:09,340
Dus dat inzicht.
216
00:14:09,340 --> 00:14:10,740
Ethiek is een proces.
217
00:14:10,740 --> 00:14:13,220
Ethiek speelt zich af in je hele lijf.
218
00:14:13,220 --> 00:14:14,780
Hoofd, hart, handen.
219
00:14:14,780 --> 00:14:16,220
En er gebeurt ook tussen mensen.
220
00:14:16,220 --> 00:14:17,220
Heeft ook anderen nodig.
221
00:14:17,220 --> 00:14:18,460
Het is ook een gezamenlijk iets.
222
00:14:18,460 --> 00:14:20,940
En daarmee denk ik dat ik een heel aantal, zeg maar,
223
00:14:20,940 --> 00:14:26,640
vooroordelen of stereotypen over ethiek heb achterhaald.
224
00:14:26,640 --> 00:14:29,940
Is ethiek alleen maar ingewikkelde analyses in je hoofd en je eentje?
225
00:14:29,940 --> 00:14:31,940
Nee.
226
00:14:31,940 --> 00:14:34,940
Dat is gaandeweg het boek wel helder voor me geworden.
227
00:14:34,940 --> 00:14:36,140
Ja, mooi.
228
00:14:36,140 --> 00:14:38,140
Ja, dat zijn mooie inzichten.
229
00:14:38,140 --> 00:14:42,640
Die wat je zegt, hoofd, hart, handen, die ga ik niet meer vergeten.
230
00:14:42,640 --> 00:14:44,640
Denken, doen, voeden.
231
00:14:44,640 --> 00:14:46,640
Ja, ook dat. Absoluut.
232
00:14:46,640 --> 00:14:47,640
Oh, mooi.
233
00:14:47,640 --> 00:14:52,880
Eentje die ik nogal uit het boek interessant vond, was de term die je noemde "wicked problems".
234
00:14:52,880 --> 00:14:56,760
Zou je in je eigen woorden willen toelichten, wat is eigenlijk een wicked problem?
235
00:14:56,760 --> 00:14:58,480
Uberhaupt de term, klinkt al lekker.
236
00:14:58,480 --> 00:15:01,680
Het is een term uit, oh dan ga ik weer een referentie uit de hoofd zeggen.
237
00:15:01,680 --> 00:15:03,160
Ik ben beter in schrijven, hart op.
238
00:15:03,160 --> 00:15:08,760
Ik denk 1973, Rittel en Weber, maar die zullen we in de show noot zetten.
239
00:15:08,760 --> 00:15:10,480
Die hadden het over wicked problems.
240
00:15:10,480 --> 00:15:15,000
En dan zeggen ze, dat zijn problemen, ingewikkelde problemen vaak.
241
00:15:15,000 --> 00:15:17,000
En ook op een bepaalde manier ingewikkeld.
242
00:15:17,000 --> 00:15:23,000
Namelijk niet alleen maar dat het heel veel elementen heeft, maar het is behalve 'complicated' is het ook 'complex'.
243
00:15:23,000 --> 00:15:31,000
En dan werken ze dat verder uit van, dat zijn van die problemen waarin je in het begin nog niet precies weet wat nou het probleem precies is.
244
00:15:31,000 --> 00:15:34,000
Daarvoor heb je nodig dat je het probleem begint beter te kennen.
245
00:15:34,000 --> 00:15:37,000
En dat beter kennen doe je door te beginnen met oplossingen verzinnen.
246
00:15:37,000 --> 00:15:40,000
'Oh, en dan wordt het probleem helderder.'
247
00:15:40,000 --> 00:15:42,000
En dan kun je verder met oplossen.
248
00:15:42,000 --> 00:15:47,000
En dat begrip spreekt me ook aan, want ik heb een achtergrond in Industrial Design Engineering in Delft.
249
00:15:47,000 --> 00:15:49,000
En dat is heel erg het design proces.
250
00:15:49,000 --> 00:15:53,000
Ook in deel 1 van deze podcast was het ook van ja, ethiek als proces.
251
00:15:53,000 --> 00:15:55,000
Dat komt ook daar vandaan.
252
00:15:55,000 --> 00:15:57,000
En het is ook iteratief en het is ook participatief.
253
00:15:57,000 --> 00:16:05,000
En in design thinking, in het proces, dan maken we ook onderscheiden tussen problem setting en solution finding.
254
00:16:05,000 --> 00:16:12,360
En dat is voor mij een manier, ook als een reminder, je kan heel vaak met ingewikkelde
255
00:16:12,360 --> 00:16:16,240
dingen niet in één keer doorstoten naar de oplossing.
256
00:16:16,240 --> 00:16:19,200
Want heb je het probleem wel goed begrepen?
257
00:16:19,200 --> 00:16:23,760
En belangrijk, dan kan je ook met verschillende disciplines, transdisciplinaires samenwerken,
258
00:16:23,760 --> 00:16:28,000
hebben we verschillende experts van verschillende disciplines de kans gegeven om vanuit hun
259
00:16:28,000 --> 00:16:31,760
verschillende expertise's, disciplines, naar het probleem te kijken.
260
00:16:31,760 --> 00:16:34,400
Covid, dat kwam daar straks al kort in sprake.
261
00:16:34,400 --> 00:16:36,120
Wat was dat eigenlijk?
262
00:16:36,120 --> 00:16:41,640
Het was gezondheid, het was ook veiligheid, het was ook welzijn, het was ook werkgelegenheid,
263
00:16:41,640 --> 00:16:44,960
het waren ook mondkapjes, het waren ook statistieken.
264
00:16:44,960 --> 00:16:48,120
Dus ja, dan heb je al acht mensen die het rond de tafel nodig hebben.
265
00:16:48,120 --> 00:16:49,120
Wat is nou het probleem?
266
00:16:49,120 --> 00:16:52,400
En waarschijnlijk is het nooit één probleem, het is een samenstelsel van problemen.
267
00:16:52,400 --> 00:16:54,680
En voor dat kan je een oplossing bedenken.
268
00:16:54,680 --> 00:16:57,440
Maar ja, die oplossing veroorzaakt juist weer een ander probleem.
269
00:16:57,440 --> 00:17:01,400
Of die oplossing is goed voor die twee problemen, maar slecht voor die andere twee problemen.
270
00:17:01,400 --> 00:17:06,400
Dat hele samenspel zou je, denk ik, Wicked Problems als meervoud kunnen noemen.
271
00:17:06,400 --> 00:17:08,900
Van, ja, het is niet helder, wat nou precies.
272
00:17:08,900 --> 00:17:12,400
En als je denkt dat je helder precies het probleem is, dan heb je misschien niet goed genoeg gekeken.
273
00:17:12,400 --> 00:17:13,400
Ben je te snel gestopt.
274
00:17:13,400 --> 00:17:17,400
Ben je te snel gestopt met mensen uitnodigen om daar van verschillende kanten naar te laten kijken.
275
00:17:17,400 --> 00:17:22,400
Dus Wicked Problems is voor mij een manier om ruimte te maken in een project,
276
00:17:22,400 --> 00:17:25,400
om nog eens het probleem van verschillende kanten te bekijken.
277
00:17:25,400 --> 00:17:27,400
En om dan pas te beginnen met oplossingen te verzinnen.
278
00:17:27,400 --> 00:17:33,400
En om gaandeweg oplossingen te verzinnen, ook ruimte te maken om de probleemstelling nog eens opnieuw te doen.
279
00:17:33,400 --> 00:17:36,400
Dit klinkt misschien abstract, omdat ik vaak van abstracte beschrijving hou.
280
00:17:36,400 --> 00:17:40,400
Maar we willen in de praktijk zeggen dat je drie maanden gaande, drie maanden in het project zeg maar,
281
00:17:40,400 --> 00:17:44,400
nog eens een vraag kan stellen over de initiële probleemstelling.
282
00:17:44,400 --> 00:17:52,400
En drie maanden later nog eens een keer kan zeggen, we willen misschien een stapje terug om daarna twee stappen in een goede, betere richting te kunnen doen.
283
00:17:52,400 --> 00:17:57,400
En dus alles zeg maar om niet bam van ANWB te willen, maar om...
284
00:17:57,400 --> 00:18:01,400
Ik zie jou heel erg denken, dit is jullie vak, want jullie weten hoe je ontwikkelprocesen organiseert.
285
00:18:01,400 --> 00:18:05,400
Ik kan zeggen, het is het mooie namelijk, dat het zo erg koppelt aan innovatie,
286
00:18:05,400 --> 00:18:07,400
zaken die we kunnen oplossen of denken te kunnen oplossen,
287
00:18:07,400 --> 00:18:09,400
waarbij we eigenlijk al heel snel naar de solution gaan.
288
00:18:09,400 --> 00:18:13,400
En even niet stilstaan bij het probleem, hebben we nou echt een probleem,
289
00:18:13,400 --> 00:18:16,400
of hebben we gewoon een gave oplossing, daar we aan aan het ontwikkelen zijn.
290
00:18:16,400 --> 00:18:19,400
En daarnaast het stukje van, hey, question everything.
291
00:18:19,400 --> 00:18:26,400
niet continu, maar wel blijf niet bij die ene probleemoplossing, maar kijk of het probleem ook heel simpel te lossen is.
292
00:18:26,400 --> 00:18:33,400
Door niet AI in te zetten, gewoon regelgebaseerd, of door eigenlijk misschien gewoon een proces in te richten zonder een heel technische oplossing ervoor neer te zetten.
293
00:18:33,400 --> 00:18:36,400
Ja, maar Marc zag inderdaad bij mij hele diepe denkringen tot.
294
00:18:36,400 --> 00:18:47,400
En dat komt namelijk door dat je zegt van, dat een wicked problem een probleem is dat je niet weet.
295
00:18:47,400 --> 00:18:51,080
Hoe identificeer je dan een wicked problem?
296
00:18:51,080 --> 00:18:53,400
Wanneer is iets een wicked problem?
297
00:18:53,400 --> 00:18:56,960
Is het sowieso belangrijk om te identificeren, als zijn een wicked problem?
298
00:18:56,960 --> 00:18:58,960
Ik ga het precies proberen te herinneren uit mijn definitie.
299
00:18:58,960 --> 00:19:05,000
Waarbij de problem niet op voorhand helemaal helder is.
300
00:19:05,000 --> 00:19:11,000
En waarbij gedurende het denken aan oplossingen, het werk aan oplossingen, het probleem helderder krijgt.
301
00:19:11,000 --> 00:19:13,580
Dat is volgens mij... - Dus je begint eigenlijk wel ergens...
302
00:19:13,580 --> 00:19:15,840
Iemand heeft wel een probleem, zeg maar, gezegd van...
303
00:19:15,840 --> 00:19:17,840
'Hé, maar dit lijkt een probleem.'
304
00:19:17,840 --> 00:19:21,620
En je gaat daarmee aan de slag met het proces wat jij beschrijft...
305
00:19:21,620 --> 00:19:24,840
en je komt er eigenlijk achter dat het probleem misschien...
306
00:19:24,840 --> 00:19:26,840
of groter of ergens anders ligt.
307
00:19:26,840 --> 00:19:29,140
En dat is zo'n wicked problem.
308
00:19:29,140 --> 00:19:32,000
En ik kan me zo voorstellen dat het op een gegeven moment zo aan het schuiven is...
309
00:19:32,000 --> 00:19:35,820
dat je af en toe helemaal zoekend bent van...
310
00:19:35,820 --> 00:19:39,240
'Wat zijn nou de echte problemen?'
311
00:19:39,260 --> 00:19:42,860
Ja, en je krijgt ook nog iets van, hier ligt natuurlijk voor het hele team wat er aan werkt,
312
00:19:42,860 --> 00:19:46,060
maar ook al voor de projectmanager best wel een taak van,
313
00:19:46,060 --> 00:19:51,860
oké, ik wil ruimte inbouwen om de initiële problemenstelling in vragen te stellen, te questionen.
314
00:19:51,860 --> 00:19:54,260
Maar niet de hele tijd altijd overal.
315
00:19:54,260 --> 00:19:55,660
En daar moet je ook ruimte voor maken.
316
00:19:55,660 --> 00:19:58,860
Dus dat is best een kunst om dat zo te managen,
317
00:19:58,860 --> 00:20:02,660
dat het project wel degelijk voortgang blijft houden op een goede manier.
318
00:20:02,660 --> 00:20:04,360
Maar op een gegeven moment is er ook iets voor te zeggen,
319
00:20:04,360 --> 00:20:07,260
wij komen dat, ik ga straks bijvoorbeeld van een Europese project,
320
00:20:07,260 --> 00:20:09,260
Europese projecten zijn een aparte manier.
321
00:20:09,260 --> 00:20:12,980
Dan doe je zeg maar in jaar nul een proposal indienen.
322
00:20:12,980 --> 00:20:16,780
In jaar twee gaat die echt van start.
323
00:20:16,780 --> 00:20:18,780
En dat is bijvoorbeeld vier jaar.
324
00:20:18,780 --> 00:20:23,380
Dus dan zit je in jaar vier van je project, dat is zes jaar nadat je hebt zet die passie nog kan volgen.
325
00:20:23,380 --> 00:20:26,980
En daar staat dan, oh ja, wat gingen we precies doen?
326
00:20:26,980 --> 00:20:27,980
Ja.
327
00:20:27,980 --> 00:20:31,980
Ook best wel in detail soms, wat er in die deliverable moet staan.
328
00:20:31,980 --> 00:20:36,980
Op dat moment wil je ruimte inbouwen om dat aan te passen.
329
00:20:36,980 --> 00:20:42,280
op basis van voorschijn en inzicht wat redelijk is, op basis van veranderingen in de buitenwereld wat redelijk is.
330
00:20:42,280 --> 00:20:44,280
Dus je moet vaak wel op zoek naar...
331
00:20:44,280 --> 00:20:48,080
Je gaat als projectleider niet blij zijn met de hele tijd alles over en om verder gooien.
332
00:20:48,080 --> 00:20:53,280
Maar als er goede redenen zijn, dan is het ook zot om die niet te nemen, de mogelijkheid om te veranderen.
333
00:20:53,280 --> 00:20:56,780
Wij zijn typisch systeemontwikkelaars.
334
00:20:56,780 --> 00:21:01,280
Wij bouwen dit soort systemen, machine learning systemen, maar ook andere software systemen.
335
00:21:01,280 --> 00:21:06,980
En het probleem wat je daar hebt, is dat je dingen maakt waarvan je denkt...
336
00:21:06,980 --> 00:21:11,420
...dat een gebruiker het op een bepaalde manier gaat gebruiken of nodig heeft.
337
00:21:11,420 --> 00:21:20,020
Als ik deze analogie gebruik voor ethiek, en dus dan hebben we dat binnen een projectteam besproken...
338
00:21:20,020 --> 00:21:24,660
...denken we dat we de oplossing hebben tussen aanhalingstekens.
339
00:21:24,660 --> 00:21:31,940
Weet jij gevallen van hoe je die ethische keuzes die je hebt gemaakt,
340
00:21:31,940 --> 00:21:37,380
hoe je die test voor de groep waar het uiteindelijk ook voor bedoelde als het product?
341
00:21:37,380 --> 00:21:38,900
Ja, dat is een goede vraag.
342
00:21:38,900 --> 00:21:42,900
Ik heb mijn opleiding dus gehad in Delft, zei ik al.
343
00:21:42,900 --> 00:21:45,300
Human-centered design is daarbij een centraal begrip.
344
00:21:45,300 --> 00:21:48,340
Op het einde van het boek doe ik ook een paar van dat soort methodes.
345
00:21:48,340 --> 00:21:51,540
Human-centered design, value-sensitive design en responsible innovation.
346
00:21:51,540 --> 00:21:53,780
Wat meer een benadering is en niet een methode.
347
00:21:53,780 --> 00:21:56,780
Human-Centered Design, dat is een manier om dat beter te doen.
348
00:21:56,780 --> 00:22:02,280
In een vroeg stadium, de toekomst of mogelijke eindgebruikers aan het woord laten, aan het werk te zien,
349
00:22:02,280 --> 00:22:05,280
te bevragen, hé, wat doe je, zou dit je kunnen helpen?
350
00:22:05,280 --> 00:22:09,280
Om dus dat gaandeweg te kunnen evalueren al vanaf heel vroeg.
351
00:22:09,280 --> 00:22:10,780
Hetzelfde kun je doen met ethiek.
352
00:22:10,780 --> 00:22:15,780
Dus je kan liever niet binnen je projectteam blijven, maar liever al redelijk vroeg,
353
00:22:15,780 --> 00:22:19,280
mensen vanuit buiten, dat zijn mensen vanuit de praktijk, de werkvloer,
354
00:22:19,280 --> 00:22:25,780
degene die de applicatie zal gebruiken of zal ondergaan, om die ook te betrekken bij het gesprek van...
355
00:22:25,780 --> 00:22:29,280
wat zijn de plus en minder die je ziet, wat zijn de plichten en rechten, et cetera.
356
00:22:29,280 --> 00:22:35,780
Ja, en ik denk ook niet bij die ene keer houden, maar ook als het, want dat zien we ook vaak,
357
00:22:35,780 --> 00:22:39,780
dan is het uitgerold, het wordt gebruikt en daarna, it's gone viral.
358
00:22:39,780 --> 00:22:43,780
Iedereen gaat het gebruiken, iedereen op een andere manier, om het dan ook eigenlijk wel weer met elkaar te bespreken.
359
00:22:43,780 --> 00:22:47,280
Maar willen we dat het zo gebruikt wordt? Want we zien het de kant op gaan.
360
00:22:47,280 --> 00:22:55,080
Ja, dat is een begrip dat kwam ik ook tegen in een klassieker weapons of math instruction van K.T. O'Neill.
361
00:22:55,080 --> 00:23:00,680
Aan het begin van het boek en ook aan het einde van het boek, dan legt ze ook best wel een mooi vind ik de nadruk op de feedback loop.
362
00:23:00,680 --> 00:23:08,000
Dus je denkt dat je algoritme het lekker doet, dat doet hij misschien ook wel, maar alsjeblieft bouw een edel van de feedback loop in.
363
00:23:08,000 --> 00:23:11,280
Of technisch, of qua proces, of op wat voor manier dan ook.
364
00:23:11,280 --> 00:23:16,580
om ervoor te zorgen dat als het een maandje of twee, drie werkt, dat je dan weer checkt.
365
00:23:16,580 --> 00:23:19,420
Doet hij het nog in de goede richting of is hij aan het ontsporen?
366
00:23:19,420 --> 00:23:21,420
Is hij de verkeerde kant op aan het lopen?
367
00:23:21,420 --> 00:23:23,420
Dus dat is superbelangrijk.
368
00:23:23,420 --> 00:23:27,980
Ja, ik denk dat dat een hele belangrijke is, die feedback loop.
369
00:23:27,980 --> 00:23:30,780
Die heb je niet alleen nodig voor het bijtrainen van je systeem,
370
00:23:30,780 --> 00:23:34,820
maar vooral ook inderdaad kijken van blijft hij doen wat je vindt dat hij zou moeten doen?
371
00:23:34,820 --> 00:23:38,580
Ja, vooral vindt dat hij zou moeten doen en hoe het gebruikt zou moeten worden.
372
00:23:38,580 --> 00:23:47,080
Naast jouw boek, mensen wat meer willen weten over mogelijke problemen rondom...
373
00:23:47,080 --> 00:23:50,180
Nee, we praten heel snel in problemen.
374
00:23:50,180 --> 00:23:52,480
Laat ik eerst een andere vraag stellen.
375
00:23:52,480 --> 00:23:58,180
Heb jij ergens een positief voorbeeld van een organisatie of een project waarin je hebt gewerkt...
376
00:23:58,180 --> 00:24:04,080
...die zegt van, hier is eigenlijk de ethiek, was misschien zelfs wel ethics by design...
377
00:24:04,080 --> 00:24:06,080
en vloeide dat zo door.
378
00:24:06,080 --> 00:24:09,240
En weet je, dat was de happy flow.
379
00:24:09,240 --> 00:24:11,240
Zo zou ik het graag willen zien.
380
00:24:11,240 --> 00:24:14,360
Ik heb wel een paar voorbeelden.
381
00:24:14,360 --> 00:24:16,760
Vaak word ik erbij gevraagd trouwens,
382
00:24:16,760 --> 00:24:19,680
als het zich afvragen zou het mis kunnen.
383
00:24:19,680 --> 00:24:21,680
Dat is toch wel een beetje een associatie.
384
00:24:21,680 --> 00:24:25,080
Vandaar ook dat ik erg houd van dat perspectief van deugdethiek,
385
00:24:25,080 --> 00:24:26,240
wat ik al eerder noemde.
386
00:24:26,240 --> 00:24:28,840
Het gaat toch over goed samenleven,
387
00:24:28,840 --> 00:24:30,840
het goede leven leven,
388
00:24:30,840 --> 00:24:36,840
Dat mensen de mogelijkheden krijgen, de daadwerkelijke mogelijkheden, om betere versies van zichzelf te worden.
389
00:24:36,840 --> 00:24:38,340
Daar komt het ook ongeveer op neer.
390
00:24:38,340 --> 00:24:39,840
Dus dat is een hele positieve insteek.
391
00:24:39,840 --> 00:24:40,840
Hoe kunnen we goed samenleven?
392
00:24:40,840 --> 00:24:42,840
Maar terug naar jouw opmerking.
393
00:24:42,840 --> 00:24:46,340
Het is vaak vanuit een denken in wat zou er mis kunnen gaan.
394
00:24:46,340 --> 00:24:49,840
Ik denk dat dat ook komt doordat we het zo vaak hebben zien misgaan.
395
00:24:49,840 --> 00:24:51,340
Social media was leuk.
396
00:24:51,340 --> 00:24:53,840
Op een gegeven moment helemaal niet meer naar Cambridge Analytica.
397
00:24:53,840 --> 00:24:56,840
AI is nu, is dat nu leuk?
398
00:24:56,840 --> 00:24:58,840
ChatGTP als voorbeeld.
399
00:24:58,840 --> 00:25:01,840
Mensen gaan redelijk snel over de risico's, toch?
400
00:25:01,840 --> 00:25:02,840
Ja.
401
00:25:02,840 --> 00:25:05,840
Het hoort er ook gewoon bij dat ze iets nieuws aan het maken zijn.
402
00:25:05,840 --> 00:25:07,840
Zo van, wow, wat zou er mis gaan?
403
00:25:07,840 --> 00:25:12,840
Zeker wat jij al zei, bij die opkomende technologieën, dan zijn we heel snel geneigd om te kijken van,
404
00:25:12,840 --> 00:25:14,840
waar kan die ontsporen, waar stort iets neer?
405
00:25:14,840 --> 00:25:16,840
We gaan met z'n allen dood.
406
00:25:16,840 --> 00:25:19,840
Ja, die 'we gaan met z'n allen dood', dat doet niet aan mij.
407
00:25:19,840 --> 00:25:21,840
Nee, ik ook niet, gelukkig.
408
00:25:21,840 --> 00:25:27,840
Tenminste, eerder aan de klimaatcrisis.
409
00:25:27,840 --> 00:25:29,840
Ja, we gaan wel met z'n allen dood.
410
00:25:29,840 --> 00:25:35,680
En stuk voor stuk gaan we allemaal in de keer binnen 80, 90 jaar, wat onze gegevens al zijn, et cetera.
411
00:25:35,680 --> 00:25:41,560
Ja, zelf wat ik een erg goede documentaire vind,
412
00:25:41,560 --> 00:25:45,480
als je in de AI-machine learning wereld zit,
413
00:25:45,480 --> 00:25:49,320
om hier bewust van te worden, is ook de coded bias van Netflix.
414
00:25:49,320 --> 00:25:54,440
Dat geeft niet alleen aan waar het allemaal mis kan gaan,
415
00:25:54,440 --> 00:25:59,760
maar vooral eigenlijk ook wat het kan betekenen voor jou als individu als je daar onderwerp van bent.
416
00:25:59,760 --> 00:26:03,440
En dat kunnen we allemaal zijn, als je die documentaire hebt gezien.
417
00:26:03,440 --> 00:26:11,320
Heb jij ook, zeg maar, zoiets wat je aan onze luisteraars nog zou kunnen aanbieden, naast je boek uiteraard,
418
00:26:11,320 --> 00:26:19,560
om bewust te worden van hoe ethiek eigenlijk in je dagelijks leven een rol speelt?
419
00:26:22,520 --> 00:26:26,280
Toen was ik even stil. Ik heb zo mijn eigen inspiratieberonden.
420
00:26:26,280 --> 00:26:29,800
Waar die zijn soms wat... Ik kijk bijvoorbeeld...
421
00:26:29,800 --> 00:26:32,400
Ja, er zijn best hele mooie TED-talks ook.
422
00:26:32,400 --> 00:26:32,900
Ja.
423
00:26:32,900 --> 00:26:35,680
Al ben ik op een gegeven moment wel gestopt bij TED-talks, Tijken.
424
00:26:35,680 --> 00:26:38,160
Want op een gegeven moment werd het een beetje een chabloon, zeg maar.
425
00:26:38,160 --> 00:26:38,660
Ja.
426
00:26:38,660 --> 00:26:43,360
Op de website die bij het boek hoort, ethicsforpeoplewhoworkintech.com,
427
00:26:43,360 --> 00:26:43,860
Ja.
428
00:26:43,860 --> 00:26:47,400
Daar heb je op een gegeven moment ook een hele pagina met wat ik exemplars noem.
429
00:26:47,400 --> 00:26:47,900
Ja.
430
00:26:47,900 --> 00:26:52,080
Dat zijn mensen die ik bewonder vanwege de deugden die zij belichamen.
431
00:26:52,080 --> 00:27:03,880
16 stuks, keurig man-vrouw, zoveel mogelijk ook wel diversiteit in andere opzichten gezocht.
432
00:27:03,880 --> 00:27:14,320
En dat zijn mooi voorbeelden van mensen die een goed punt maken over wat je zegt, hoe kun je bias voorkomen en al die dingen meer.
433
00:27:14,320 --> 00:27:15,320
Mooi.
434
00:27:15,320 --> 00:27:18,600
Je vroeg ook nog op een gegeven moment van bedrijven.
435
00:27:18,600 --> 00:27:20,600
Die vraag werd me eerder gesteld.
436
00:27:20,600 --> 00:27:25,160
Zijn er ook bedrijven of projecten of bedrijven die dat helemaal goed doen al?
437
00:27:25,160 --> 00:27:28,200
En ik vind het soms jammer dat ik daar niet heel veel voorbeelden van heb.
438
00:27:28,200 --> 00:27:31,240
Ik kan wel zeggen, nou Fairphone is volgens mij een aansprekende.
439
00:27:31,240 --> 00:27:36,920
Amsterdam is tien jaar geleden, vijf jaar geleden, al een heel aantal jaar in ieder geval.
440
00:27:36,920 --> 00:27:42,960
Die maken dus hardware, mobiele phones, die zoveel mogelijk op een goede manier de grondstoffen
441
00:27:42,960 --> 00:27:43,960
zijn gewonnen.
442
00:27:43,960 --> 00:27:47,400
De Fairphone, en die is dan ook goed repareerbaar.
443
00:27:47,400 --> 00:27:50,800
Dus je kan zelf maar open schroeven en één dingetje vervangen in plaats van het hele ding.
444
00:27:50,800 --> 00:27:51,800
Oh, mooi.
445
00:27:51,800 --> 00:27:52,800
Ja, dat moet je vervangen.
446
00:27:52,800 --> 00:27:57,120
Patagonia is ook eentje die geregeld in het nieuws is, ook door zijn manier waarop die
447
00:27:57,120 --> 00:28:00,560
winsten terugstopt in het bedrijf.
448
00:28:00,560 --> 00:28:05,720
En onlangs heeft hij het hele bedrijf in een stichting gedaan om ervoor te zorgen dat het
449
00:28:05,720 --> 00:28:09,400
altijd een b-corp of iets dergelijks blijft.
450
00:28:09,400 --> 00:28:12,040
En ook bijvoorbeeld de praktijk van Patagonia.
451
00:28:12,040 --> 00:28:15,560
Spullen, je jas, die kun je terugbrengen en dan repareer je ze en dan krijg je hem terug.
452
00:28:15,560 --> 00:28:18,440
Want ja, waarom zou je mensen aanmoedigen om nieuwe spullen te kopen,
453
00:28:18,440 --> 00:28:20,440
als de vorige prima te repareren zijn?
454
00:28:20,440 --> 00:28:25,560
En in die richting zou ik het echt superleuk vinden,
455
00:28:25,560 --> 00:28:27,560
kan ik misschien ook de luisteraars toe oproepen,
456
00:28:27,560 --> 00:28:31,520
als je die voorbeelden weet van een mooi bedrijf in Nederland,
457
00:28:31,520 --> 00:28:34,440
dat het goed doet, of een leuk project, ik hoor het graag.
458
00:28:34,440 --> 00:28:36,720
Ook om elkaar te inspireren.
459
00:28:36,720 --> 00:28:39,120
Ik denk dat het misschien ook wel een mooie is,
460
00:28:39,120 --> 00:28:43,120
Want wij als podcast willen namelijk jouw boek eigenlijk ook...
461
00:28:43,120 --> 00:28:49,120
Ja, winnen is dan misschien niet het juiste woord, maar aan een luisteraar geven.
462
00:28:49,120 --> 00:28:53,120
En degene die met een mooi voorbeeld komt op dit gebied,
463
00:28:53,120 --> 00:28:56,620
die krijgt van ons het boek opgestuurd.
464
00:28:56,620 --> 00:28:59,620
En dan zorgen we dat het bij je komt.
465
00:28:59,620 --> 00:29:02,620
Ja, wat leuk. - Ja, toch?
466
00:29:02,620 --> 00:29:03,620
Ja, super. - Ja.
467
00:29:03,620 --> 00:29:07,620
En we hebben ook nog, net als in de vorige aflevering,
468
00:29:07,620 --> 00:29:11,620
een afsluitende vraag van onze co-host, onze AI co-host.
469
00:29:11,620 --> 00:29:13,620
Ja, ben benieuwd.
470
00:29:13,620 --> 00:29:15,620
Het is fijn om je hier te hebben.
471
00:29:15,620 --> 00:29:17,620
Als je me nog niet kent.
472
00:29:17,620 --> 00:29:19,620
Ik ben Aisha.
473
00:29:19,620 --> 00:29:21,620
De AI van deze podcast.
474
00:29:21,620 --> 00:29:23,620
Mag ik je een vraag stellen?
475
00:29:23,620 --> 00:29:24,620
Ja?
476
00:29:24,620 --> 00:29:27,620
Als een AI een fictief personage zou kunnen zijn,
477
00:29:27,620 --> 00:29:29,620
wie zou het dan moeten zijn?
478
00:29:29,620 --> 00:29:36,620
Oeh, ik zit allemaal tekenfilm figuurtjes aan het denken.
479
00:29:36,620 --> 00:29:40,620
Ik denk zo'n geest uit de fles achtig type die zo...
480
00:29:40,620 --> 00:29:44,320
...wat zijn je wensen? En dan moet je goed nadenken wat je gaat wensen.
481
00:29:44,320 --> 00:29:46,820
Oh mooi.
482
00:29:46,820 --> 00:29:50,760
Ik waardeer je zorgvuldige uitleg, bedankt.
483
00:29:50,760 --> 00:29:53,760
Nou, dat is een mooie afsluiter, een geest uit de fles.
484
00:29:53,760 --> 00:29:56,920
En wat ik in ieder geval echt blijf onthouden is...
485
00:29:56,920 --> 00:29:58,920
...hoofd, hart, handen.
486
00:29:58,920 --> 00:30:00,920
Dankjewel, Marc.
487
00:30:00,920 --> 00:30:05,620
Je luistert weer naar een aflevering van AIToday Live.
488
00:30:05,620 --> 00:30:07,620
Zorg dat je geen aflevering mist.
489
00:30:07,620 --> 00:30:10,540
In je favoriete podcast app kun je je abonneren.
490
00:30:10,540 --> 00:30:14,060
En dan krijg je vanzelf een seintje als er een nieuwe aflevering live staat.
491
00:30:14,060 --> 00:30:16,060
Dankjewel.
492
00:30:16,060 --> 00:30:38,860
(C) TV GELDERLAND 2021