AIToday Live

S05E59 - Succesvolle AI in de industrie: Een voortdurend proces van leren en aanpassen

Info Support AIToday Season 5 Episode 59

In deze aflevering van AIToday Live gaan we verder met onze gast Nienke Vergeer, Digital Innovation Manager bij Siemens Digital Industries. 

We bespreken de rode draad voor het succes van AI in de industrie en de redenen waarom AI-initiatieven vaak falen.

Nienke benadrukt het belang van het niet slechts benaderen van AI als een project, maar als een verandering in de organisatie. Ze legt uit dat communicatie tussen IT en operationele technologie essentieel is, evenals het creëren van een open en transparante cultuur.

Verandering kost tijd, dus het is belangrijk om te leren van fouten en te blijven experimenteren. 

Luister mee voor waardevolle inzichten over het succesvol implementeren van AI in de industrie.

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:06,000
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van de AIToday Live.

2
00:00:06,000 --> 00:00:09,680
Vandaag deel 2 met onze gast Nienke Vergeer.

3
00:00:09,680 --> 00:00:13,360
Mijn naam is Joop Snijder, CTO bij ATC.

4
00:00:13,360 --> 00:00:16,120
Mijn naam Niels Naglé, Chapter Lead, Data & AI bij Info Support.

5
00:00:16,120 --> 00:00:17,840
En Nienke, welkom terug.

6
00:00:17,840 --> 00:00:21,400
Leuk dat je deze tweede aflevering met ons ook doet.

7
00:00:21,400 --> 00:00:25,920
We hebben in de eerste aflevering hebben we het natuurlijk gehad over AI in de industrie.

8
00:00:25,920 --> 00:00:28,200
Heb je die nog niet geluisterd als luisteraar?

9
00:00:28,200 --> 00:00:29,160
Doe dat zeker.

10
00:00:29,160 --> 00:00:34,000
Het is een hele interessante inkijk, denk ik, in deze industrie.

11
00:00:34,000 --> 00:00:39,520
Voor degene die deel 1 gemist heeft, zou je je daar toch nog even voor willen voorstellen?

12
00:00:39,520 --> 00:00:43,400
Ik ben Digital Innovation Manager binnen Siemens Digital Industries.

13
00:00:43,400 --> 00:00:46,600
Zoals ik net ook verteld, niet de vaatwassers.

14
00:00:46,600 --> 00:00:51,000
Maar de fabrieken van deze wereld loop ik veel rond.

15
00:00:51,000 --> 00:00:57,240
Waarbij productie voor onder andere voedsel, maar ook water, van alles, chemisch, farma...

16
00:00:57,360 --> 00:00:59,360
Ga zo maar door.

17
00:00:59,360 --> 00:01:04,000
En daar gaat hopelijk AI een grote rol in spelen.

18
00:01:04,000 --> 00:01:06,000
Ja.

19
00:01:06,000 --> 00:01:14,600
Zou jij een rode draad kunnen noemen van wat AI tot een succes zou kunnen maken in de industrie,

20
00:01:14,600 --> 00:01:16,600
of misschien zelfs wel sectorbreed?

21
00:01:16,600 --> 00:01:20,960
Want we horen best wel vaak dat initiatieven falen.

22
00:01:20,960 --> 00:01:23,360
Heb je daar ideeën bij?

23
00:01:23,360 --> 00:01:25,360
Zeker.

24
00:01:25,360 --> 00:01:26,960
Daar heb ik zeker ideeën bij.

25
00:01:26,960 --> 00:01:35,400
Een van de eerste redenen waarom het vaak faalt, is dat het een aanpak als een project is.

26
00:01:35,400 --> 00:01:37,400
Ja?

27
00:01:37,400 --> 00:01:42,680
Ja. Dus als je bijvoorbeeld kijkt in de historie van de industrie,

28
00:01:42,680 --> 00:01:46,960
als je bijvoorbeeld het automatiseringsstuk, dan pakte je gewoon een mooi stukje technologie,

29
00:01:46,960 --> 00:01:51,680
daar ging je mee aan de slag, je bouwde iets innovatiefs, je implementeerde het in je productieproces.

30
00:01:51,680 --> 00:01:54,680
Strikt om je heen, hartstikke mooi.

31
00:01:54,680 --> 00:02:02,560
Dus we gaan AI en elke digitale transformatie technologie pakken we op dezelfde manier vast.

32
00:02:02,560 --> 00:02:05,640
Alleen vergeten wij dat de wereld om ons heen veranderd is.

33
00:02:05,640 --> 00:02:11,280
Dus dat je niet meer alleen antwoord geeft, oké, ik wil dat mijn productiemachine sneller draait.

34
00:02:11,280 --> 00:02:14,800
Nee, je geeft ook antwoord op die maatschappelijke vraagstukken.

35
00:02:14,800 --> 00:02:18,720
Waarbij ook de wereld groter geworden is dan de industrie.

36
00:02:18,720 --> 00:02:22,960
Het is complexer en je gaat ook vaak, als je bijvoorbeeld over data gaat praten,

37
00:02:22,960 --> 00:02:28,800
waar van historie gezien die machines en fabrieken helemaal dichtgetimmerd zaten,

38
00:02:28,800 --> 00:02:30,800
ga je nu met de buitenwereld praten.

39
00:02:30,800 --> 00:02:33,920
En dat betekent dus dat je ook met cybersecurity rekening moet gaan halen.

40
00:02:33,920 --> 00:02:35,920
- Maar wat bedoel je met de buitenwereld praten?

41
00:02:35,920 --> 00:02:41,760
- Nou, je hebt eigenlijk een hele harde muur zitten,

42
00:02:41,760 --> 00:02:44,240
een soort Berlijnse muur,

43
00:02:44,240 --> 00:02:47,920
zitten tussen de IT en de OT.

44
00:02:47,920 --> 00:02:48,640
- Oh zo, ja.

45
00:02:48,640 --> 00:02:50,320
- Dus IT, nou, IT kennen jullie.

46
00:02:50,320 --> 00:02:54,360
OTs, Operaties en hele technologie en eigenlijk dus alles wat in de fabriek draait.

47
00:02:54,360 --> 00:03:03,400
Dus alles wat computers, industriële computers, PC's, PLC's en alles waar al die machines op functioneren.

48
00:03:03,400 --> 00:03:05,760
Dat is eigenlijk één wereldje op zichzelf.

49
00:03:05,760 --> 00:03:09,360
Dat communiceert niet met de kantooromgeving.

50
00:03:09,360 --> 00:03:13,160
En dat gaan we ook niet doen vanuit origine.

51
00:03:13,160 --> 00:03:16,320
En die twee mensen communiceren ook niet.

52
00:03:16,320 --> 00:03:17,880
- O ja, spannend.

53
00:03:17,880 --> 00:03:21,480
Dus dat zijn echt twee eilanden op zichzelf.

54
00:03:21,480 --> 00:03:26,800
En als je bijvoorbeeld nu zo'n project aanvliegt, normaal gesproken met technologie,

55
00:03:26,800 --> 00:03:31,200
dan heb je een groepje engineers die gaan er hartstikke mee aan slag,

56
00:03:31,200 --> 00:03:33,200
maar die zitten vast in die OT-wereld.

57
00:03:33,200 --> 00:03:36,200
En die blijft in dat bubbeltje, maar nu ga je het over je AA hebben,

58
00:03:36,200 --> 00:03:38,200
en nu ga je opeens over de schutting kijken.

59
00:03:38,200 --> 00:03:40,200
En dat maakt het in één keer lastig.

60
00:03:40,200 --> 00:03:44,280
En dan ga je ook kijken, het gaat ook over wat is het voortbestaan van mijn bedrijf.

61
00:03:44,280 --> 00:03:48,200
en niet meer alleen over, weet ik veel, een of andere kwaliteitsprobleem.

62
00:03:48,200 --> 00:03:49,220
Ja, precies.

63
00:03:49,220 --> 00:03:52,960
Dus het is een hele ander type uitdaging waar je dan mee moet dealen

64
00:03:52,960 --> 00:03:55,960
en waar je dus ook op een hele andere manier mee om moet gaan.

65
00:03:55,960 --> 00:03:58,180
En ook veel strategischer moet nadenken,

66
00:03:58,180 --> 00:04:01,080
in plaats van alleen technologisch moet nadenken.

67
00:04:01,080 --> 00:04:02,660
Want dat is vaak wat er gebeurt.

68
00:04:02,660 --> 00:04:05,180
Je ziet, nou ik heb gewoon,

69
00:04:05,180 --> 00:04:07,960
gelukkig komen ze hun bedrijven er nu een beetje achter,

70
00:04:07,960 --> 00:04:10,920
maar gewoon heel veel bedrijven gezien waar,

71
00:04:10,940 --> 00:04:21,780
Als je het over technologieën als AI, maar alle hype technologieën, lijkt op blockchain, digital twins, AR, VR, een hele lijstje.

72
00:04:21,780 --> 00:04:22,780
Een hele bingo kaart.

73
00:04:22,780 --> 00:04:24,280
Een hele bullshit bingo kaart.

74
00:04:24,280 --> 00:04:26,280
Noem er maar op.

75
00:04:26,280 --> 00:04:29,080
Natuurlijk, ze hebben gewoon slimme koppen.

76
00:04:29,080 --> 00:04:32,780
We hebben superslimme engineers en die worden super enthousiast van dat soort technologieën.

77
00:04:32,780 --> 00:04:35,280
En die pakken dat op, gaan ermee aan de slag, bouwen iets.

78
00:04:35,280 --> 00:04:38,280
En dat is f*cking cool wat ze bouwen.

79
00:04:38,280 --> 00:04:40,280
Maar vervolgens staat het in de hoek.

80
00:04:40,280 --> 00:04:45,440
Ja, te verstoffen. - Te verstoffen, want ze krijgen het niet geïmplementeerd in het bedrijfsproces.

81
00:04:45,440 --> 00:04:50,080
En wat zou jouw advies zijn om dat wel bij elkaar te brengen? Hoe doe je dat?

82
00:04:50,080 --> 00:04:56,120
Nou ja, het is waar veel bedrijven nu, in ieder geval ook mkb, maar ook de grote bedrijven,

83
00:04:56,120 --> 00:05:00,840
je moet beginnen vanuit, leuk die technologie, maar parkeer hem nog even.

84
00:05:00,840 --> 00:05:06,240
Het gaat eerst vanuit de top kijken, vanuit de managementlaag, oké, waar willen we dat bedrijf heen gaan?

85
00:05:06,240 --> 00:05:07,760
Waar willen we in gaan investeren?

86
00:05:07,760 --> 00:05:13,640
Hoe willen we dat onze organisatie gaat omgaan met bepaalde uitdagingen die wij hebben?

87
00:05:13,640 --> 00:05:16,480
Het is heel erg geredeneerd vanuit een doel.

88
00:05:16,480 --> 00:05:18,440
Ja, heel erg vanuit een doel en waar wil je naartoe.

89
00:05:18,440 --> 00:05:21,240
En ook vanuit een roadmap, van waar ga je naartoe?

90
00:05:21,240 --> 00:05:23,880
Want je ziet ook heel veel, bijvoorbeeld AI-toepassingen...

91
00:05:23,880 --> 00:05:26,120
en ook allerlei andere digitaliseringstoepassingen.

92
00:05:26,120 --> 00:05:31,600
De eerste projecten of de eerste toepassingen, die leven je geen stuiver op.

93
00:05:31,600 --> 00:05:33,560
Die kost je meestal alleen maar geld.

94
00:05:33,560 --> 00:05:36,040
Maar dat is omdat je een fundatie moet bouwen voor de rest.

95
00:05:36,040 --> 00:05:43,040
En of het juist iets anders levert op dan dat je gewend bent, dat kan ook nog.

96
00:05:43,040 --> 00:05:45,060
- En waar denk je dan aan?

97
00:05:45,060 --> 00:05:49,340
- Nou, bijvoorbeeld, ik had een tijdje geleden gesprek met een machinebouwer.

98
00:05:49,340 --> 00:05:53,540
Die wilde heel graag virtual commissioning implementeren.

99
00:05:53,540 --> 00:05:55,560
Dat hebben ze ook gedaan. - Wat is dat?

100
00:05:55,560 --> 00:05:58,780
- Sorry, het virtueel in bedrijf stellen van een productiemachine.

101
00:05:58,780 --> 00:06:03,500
Dus de fouten eruit halen voordat je dat in het echt doet.

102
00:06:03,520 --> 00:06:05,920
Dus dan, waar ik noemde, de FAT en de SAT-testen.

103
00:06:05,920 --> 00:06:11,120
Dus de Factory Acceptance Test en de Site Acceptance Test.

104
00:06:11,120 --> 00:06:14,540
Dus op het moment dat je op de knop gaat drukken,

105
00:06:14,540 --> 00:06:17,040
nu gaat hij echt produceren, daar heb je nog een paar testen voor.

106
00:06:17,040 --> 00:06:19,420
Om te kijken of het daadwerkelijk wel functioneert.

107
00:06:19,420 --> 00:06:23,100
En daar kunnen maanden overheen gaan, omdat er bijvoorbeeld fouten kunnen zijn.

108
00:06:23,100 --> 00:06:27,180
Die tijd wil je verkorten, zodat zo'n klant zo snel mogelijk kan produceren.

109
00:06:27,180 --> 00:06:28,700
En jij als bijvoorbeeld machinebouwer,

110
00:06:28,700 --> 00:06:31,380
sneller een nieuwe machine kan gaan bouwen, verkopen.

111
00:06:31,380 --> 00:06:32,820
En daardoor kan je meer omzet draaien.

112
00:06:32,840 --> 00:06:36,240
Dus die tijd voor je limiteren.

113
00:06:36,240 --> 00:06:40,440
Maar die hadden dat gedacht, we gaan die tijd limiteren, dat is gelukt, hartstikke mooi.

114
00:06:40,440 --> 00:06:46,440
Maar daar kwam eigenlijk uit dat ze op die manier zijn gaan werken, zijn ze ook modulairder gaan werken.

115
00:06:46,440 --> 00:06:52,440
Zijn ze ook 3D voorstellingen kunnen gaan maken van die productiemachine.

116
00:06:52,440 --> 00:06:55,440
En kon ze ook heel duidelijk laten zien, dit gaat hij dus doen.

117
00:06:55,440 --> 00:06:59,040
Dus ze konden opeens in het verkooptraject al even een schetsje maken,

118
00:06:59,040 --> 00:07:02,880
door middel van bepaalde configuraties en een AI-dingetje eroverheen,

119
00:07:02,880 --> 00:07:06,440
waarbij ze eigenlijk een voordeel hadden,

120
00:07:06,440 --> 00:07:09,120
omdat ze eigenlijk al konden schetsen van 'Oké, dit gaan we bouwen.'

121
00:07:09,120 --> 00:07:12,240
En dit gaat eruit komen, dit gaan we verkopen.

122
00:07:12,240 --> 00:07:14,840
Hierom moeten we dus meer investering nodig.

123
00:07:14,840 --> 00:07:18,080
En niet halverwege dat er changes komen,

124
00:07:18,080 --> 00:07:20,360
omdat je waarschijnlijk vast wel dat plaatje met die schommel,

125
00:07:20,360 --> 00:07:24,520
met die band door die boom heen, etcetera.

126
00:07:24,520 --> 00:07:28,360
Daar verkochten we, ja, dat gewoon minder.

127
00:07:28,400 --> 00:07:31,040
Daardoor bespaarden ze eigenlijk heel veel geld en ze hadden ook nog...

128
00:07:31,040 --> 00:07:34,080
dat ze een grotere kans hadden dat ze de deal wonnen.

129
00:07:34,080 --> 00:07:36,180
Ja, precies. Dat is inderdaad een heel mooi voorbeeld...

130
00:07:36,180 --> 00:07:38,640
dat je dus eigenlijk andere uitkomsten krijgt...

131
00:07:38,640 --> 00:07:42,600
dan alleen maar de waarde van dat stukje techniek.

132
00:07:42,600 --> 00:07:46,880
Wat ze achteraf veel meer waard vonden dan wat ze eigenlijk opgeleverd hadden.

133
00:07:46,880 --> 00:07:49,600
En dat is eigenlijk heel mooi, maar dat zijn dus de onverwachte dingen...

134
00:07:49,600 --> 00:07:50,880
die daar dus uitkomen.

135
00:07:50,880 --> 00:07:54,000
Waar je dus wel voor open moet staan als je na die veranderingen gaat kijken...

136
00:07:54,000 --> 00:07:57,640
en niet hyper-focust blijft op het stukje wat je gaat implementeren.

137
00:07:57,660 --> 00:08:00,100
Dus inderdaad, daar neem ik het dan even uit op.

138
00:08:00,100 --> 00:08:02,580
Inderdaad, keep open mind tot oplossing.

139
00:08:02,580 --> 00:08:04,720
Wat brengt het wel, wat brengt het niet.

140
00:08:04,720 --> 00:08:06,860
- Maar brengt dat dan ook die...

141
00:08:06,860 --> 00:08:09,280
Want het was nog steeds die O2/I2.

142
00:08:09,280 --> 00:08:12,800
Brengt dat bij elkaar?

143
00:08:12,800 --> 00:08:14,100
- Mwa.

144
00:08:14,100 --> 00:08:16,520
- Ja, zo'n vermoeden had ik ook.

145
00:08:16,520 --> 00:08:17,540
- Mwa.

146
00:08:17,540 --> 00:08:20,040
Nee, nog niet heel erg.

147
00:08:20,040 --> 00:08:23,440
Maar je ziet wel, ze gaan al een beetje de bergjes over.

148
00:08:23,440 --> 00:08:25,360
Dus je gaat al de combinatie maken.

149
00:08:25,360 --> 00:08:27,280
Bijvoorbeeld sales en engineering.

150
00:08:27,300 --> 00:08:29,860
dat vaak al wat verder van elkaar afstaat.

151
00:08:29,860 --> 00:08:33,700
En de productie en inderdaad het voortrekt,

152
00:08:33,700 --> 00:08:36,200
die komen al dichter bij elkaar,

153
00:08:36,200 --> 00:08:40,700
maar het blijft nog steeds van elkaar afstaan.

154
00:08:40,700 --> 00:08:43,440
- Met de hoop van als één schaap over de dam is,

155
00:08:43,440 --> 00:08:47,180
dat je misschien makkelijker dan de brug hebt.

156
00:08:47,180 --> 00:08:49,560
- Maar als je bijvoorbeeld over cybersecurity hebt,

157
00:08:49,560 --> 00:08:51,700
dat is wel een uitdaging.

158
00:08:51,700 --> 00:08:55,620
Want hoe ga je dat, de cybersecurity van de meeste bedrijven

159
00:08:55,640 --> 00:08:59,320
of is de cybersecurity redelijk geregeld op de kantooromgeving.

160
00:08:59,320 --> 00:09:04,400
Op de omgeving van je fabriek is echt wel een andere uitdaging.

161
00:09:04,400 --> 00:09:07,040
Want wat ik in de vorige aflevering ook vertelde,

162
00:09:07,040 --> 00:09:10,540
er staan gewoon machines van Windows, Vista, dat soort spul.

163
00:09:10,540 --> 00:09:12,080
Dat staat nog allemaal te draaien.

164
00:09:12,080 --> 00:09:16,000
Er staan dan post-its overal met wachtwoorden opgeplakt.

165
00:09:16,000 --> 00:09:18,480
Duw over maar een USB-stick aan.

166
00:09:18,480 --> 00:09:22,400
Dus als je daar de deur open gaat zetten, dat is echt wel een uitdaging.

167
00:09:22,420 --> 00:09:27,620
Ja, want dat leunde allemaal op fysieke toegangscontrole.

168
00:09:27,620 --> 00:09:31,380
En nu heb je dan in één keer een virtuele toegang.

169
00:09:31,380 --> 00:09:33,880
Ja, en alles dicht timmeren is ook niet de oplossing.

170
00:09:33,880 --> 00:09:34,540
Nee.

171
00:09:34,540 --> 00:09:37,140
Dus het is inderdaad, en dat is zeg maar de IT-respons,

172
00:09:37,140 --> 00:09:42,840
je denkt, oh my god, deze wereld, timmer 'm dicht, ik ga er mee aan de slag.

173
00:09:42,840 --> 00:09:45,820
Wij doen dat dezelfde manier als in de IT-wereld.

174
00:09:45,820 --> 00:09:49,060
Maar moet je eens voorstellen, je hebt bijvoorbeeld een productiemachine,

175
00:09:49,080 --> 00:09:52,560
en die staat te draaien, dan komt er ineens een Windows-update.

176
00:09:52,560 --> 00:09:56,680
Ja. - Grapjas. Dat kan niet, hè?

177
00:09:56,680 --> 00:09:59,700
Zo. Dat kan wel, maar dat wil je niet.

178
00:09:59,700 --> 00:10:02,240
Nee, maar dat is echt inderdaad een andere mindset.

179
00:10:02,240 --> 00:10:05,020
Dus ik denk dat daar ook cultuur, kennisoverdracht...

180
00:10:05,020 --> 00:10:10,080
en het meenemen en verandermanagement daar ook wel een sjoel belang is.

181
00:10:10,080 --> 00:10:12,180
Heel erg. - Want dat is natuurlijk een goede reden...

182
00:10:12,180 --> 00:10:13,880
dat ze bij het OT zo ver dicht hebben zitten.

183
00:10:13,880 --> 00:10:16,340
Want daar draait het om productie draaien, die machines moeten het goed doen...

184
00:10:16,340 --> 00:10:18,880
en alles draait om dat draaien en het houden.

185
00:10:18,900 --> 00:10:21,300
Terwijl, ja, dat willen we gaan verbeteren.

186
00:10:21,300 --> 00:10:25,200
En dat geeft ook mooi aan dat we bij elkaar moeten komen, dat je die data gaat gebruiken.

187
00:10:25,200 --> 00:10:28,480
Maar dat betekent ook inderdaad dat we daar anders naar moeten gaan kijken.

188
00:10:28,480 --> 00:10:30,580
Ja, de kracht is heel groot, de samenwerking.

189
00:10:30,580 --> 00:10:33,280
Maar de samenwerking is echt, echt heel lastig, omdat we altijd van...

190
00:10:33,280 --> 00:10:35,220
zijn we helemaal niet gewend? Dat kunnen we helemaal niet.

191
00:10:35,220 --> 00:10:37,520
We spreken elkaar taal niet eens.

192
00:10:37,520 --> 00:10:40,120
En dat is een uitdaging.

193
00:10:40,120 --> 00:10:42,860
Ja, heb je nog een andere succesfactor?

194
00:10:42,860 --> 00:10:46,460
Nou ja, je ziet in elke cultuur.

195
00:10:46,460 --> 00:10:48,460
Dat is ook echt wel een hele grote.

196
00:10:48,480 --> 00:10:52,480
Je ziet vaak dat monteurs als het laatste meegenomen worden,

197
00:10:52,480 --> 00:10:55,320
terwijl die eigenlijk ook van het begin af aan meegenomen worden.

198
00:10:55,320 --> 00:10:57,200
En we moeten op een andere manier,

199
00:10:57,200 --> 00:11:00,200
we moeten het niet alleen met de mensen die we met elkaar samen hebben,

200
00:11:00,200 --> 00:11:02,040
maar ook met de mensen die we samen hebben.

201
00:11:02,040 --> 00:11:03,920
En dat is ook een van de grote dingen.

202
00:11:03,920 --> 00:11:05,480
En dat is ook een van de grote dingen.

203
00:11:05,480 --> 00:11:07,040
En dat is ook een van de grote dingen.

204
00:11:07,040 --> 00:11:08,560
En dat is ook een van de grote dingen.

205
00:11:08,560 --> 00:11:10,120
En dat is ook een van de grote dingen.

206
00:11:10,120 --> 00:11:11,520
En dat is ook een van de grote dingen.

207
00:11:11,520 --> 00:11:12,840
En dat is ook een van de grote dingen.

208
00:11:12,840 --> 00:11:14,160
En dat is ook een van de grote dingen.

209
00:11:14,160 --> 00:11:15,360
En dat is ook een van de grote dingen.

210
00:11:15,360 --> 00:11:16,560
En dat is ook een van de grote dingen.

211
00:11:16,600 --> 00:11:19,600
En we moeten op een andere manier meegenomen gaan worden...

212
00:11:19,600 --> 00:11:21,600
en ook moeten begrijpen waar het bedrijf naartoe gaat...

213
00:11:21,600 --> 00:11:23,600
in plaats van dat hetgene wat ze aan het doen zijn...

214
00:11:23,600 --> 00:11:25,600
repeterend moeten blijven doen.

215
00:11:25,600 --> 00:11:27,600
Dat er dus ander gedrag bij hoort.

216
00:11:27,600 --> 00:11:31,600
Dat klinkt heel logisch, maar dat schijnt altijd een enorm probleem te zijn.

217
00:11:31,600 --> 00:11:38,600
Ik zou dat ook niet leuk vinden als er zomaar over mijn hoofd alles besloten wordt.

218
00:11:38,600 --> 00:11:41,600
En dat heeft echt directe invloed op je dagelijkse werk.

219
00:11:41,600 --> 00:11:44,600
Ja, maar moet je je eens voorstellen als ik bijvoorbeeld tegen jou zeg...

220
00:11:44,600 --> 00:11:49,980
"Oké, afgelopen tien jaar heb je fantastisch werk geleverd. Ik heb jou elk jaar een bonus gegeven.

221
00:11:49,980 --> 00:11:54,380
En ik kom nu binnenstampen. Het is niet goed meer. Wat je nu doet, kan echt niet.

222
00:11:54,380 --> 00:11:58,640
Afgelopen tien jaar was het toch fantastisch. Waarom is het nu opeens niet meer goed wat ik doe?"

223
00:11:58,640 --> 00:12:02,040
Leg dat maar eens uit. - Ja, dat is niet uit te leggen.

224
00:12:02,040 --> 00:12:05,240
Dus hoe ga je daarmee dealen en hoe ga je als leider daarmee om?

225
00:12:05,240 --> 00:12:12,340
En hoe ga je zo'n organisatie dus meenemen op de juiste manier naar zo'n toekomst toe?

226
00:12:12,340 --> 00:12:14,340
En dat betekent dat je iedereen mee moet nemen.

227
00:12:14,340 --> 00:12:17,180
En dat moet je op andere manieren doen.

228
00:12:17,180 --> 00:12:22,340
Heb je een tip voor de luisteraars om een eerste stapje daar in die richting te zetten?

229
00:12:22,340 --> 00:12:25,740
Van, 'God, dit hebben we ervaren.' Of, 'Dit zien we gebeuren.'

230
00:12:25,740 --> 00:12:29,340
Nou, ik heb wel een aantal inspirerende leiders gezien die inderdaad wel...

231
00:12:29,340 --> 00:12:34,740
Het is heel makkelijk, maar gewoon het menselijke aspect.

232
00:12:34,740 --> 00:12:40,740
Gewoon het op de fabrieksvloer zijn, af en toe je neus laten zien, meedoen, met je poot in de klei.

233
00:12:40,740 --> 00:12:44,740
Vertel wat je het noemt, communiceren.

234
00:12:44,740 --> 00:12:46,740
Ja, ja.

235
00:12:46,740 --> 00:12:54,740
Ja, als ik het zo zeg is het heel simpel, maar communiceren doen we echt niet af en toe bij bedrijven.

236
00:12:54,740 --> 00:12:58,740
Het blijft in zo'n managementlaag hangen, dan blijven we dat doen.

237
00:12:58,740 --> 00:13:02,740
Maar als zo'n hele club meegaat, dat geeft zoveel kracht.

238
00:13:02,740 --> 00:13:07,740
Er was zo'n programma, ik weet niet meer of ik de juiste titel noem hoor,

239
00:13:07,740 --> 00:13:12,820
Het was iets van baas op de vloer of zo. - Oh ja, die undercover boss.

240
00:13:12,820 --> 00:13:14,360
Dat was hem. - Undercover boss.

241
00:13:14,360 --> 00:13:16,700
Geweldig, want wat je daar dan inderdaad...

242
00:13:16,700 --> 00:13:20,620
Dan gaat ook iemand ervaren welke drempels er allemaal zijn...

243
00:13:20,620 --> 00:13:24,120
in je dagelijks werk waar je dan gewoon constant tegenaan loopt.

244
00:13:24,120 --> 00:13:27,000
En vervolgens waren die er natuurlijk ook zo weg.

245
00:13:27,000 --> 00:13:29,700
Ja, tuurlijk. - Want die heeft beslissingsbevoegdheid.

246
00:13:29,700 --> 00:13:33,680
Dus dat zou inderdaad dichter op elkaar kunnen moeten.

247
00:13:33,680 --> 00:13:35,680
Ja, dat soort zaken.

248
00:13:35,700 --> 00:13:42,140
En inderdaad ook dicht op elkaar, veel communiceren, maar ook duidelijk...

249
00:13:42,140 --> 00:13:44,860
Het geeft mij het gevoel van overcommuniceren.

250
00:13:44,860 --> 00:13:48,940
Dus als jij het gevoel hebt... Ik sprak toen met zijn CEO en die zei ook...

251
00:13:48,940 --> 00:13:53,780
"Ja, weet je wat het is? Als ik het gevoel heb dat ik echt aan het overcommuniceren ben...

252
00:13:53,780 --> 00:13:56,980
en dat ik zoiets heb van 'Jezus, moet ik dat nu nog een keer gaan vertellen?'

253
00:13:56,980 --> 00:13:58,740
Dan zit het goed." - Oh ja, precies.

254
00:13:58,740 --> 00:14:00,780
Want dan sijpelt het door de lagen pas heen.

255
00:14:00,780 --> 00:14:05,260
Want voor mij en de mensen die om me heen zijn, die worden er ondertussen wel beu van.

256
00:14:05,300 --> 00:14:08,140
Die kennen het ondertussen wel, die hebben ook de helpen verzinnen.

257
00:14:08,140 --> 00:14:12,140
Maar die hele laag eronder, die moet het ook in doorsijpelen.

258
00:14:12,140 --> 00:14:15,540
En het liefst wil je dat zij helpen met dat verzinnen.

259
00:14:15,540 --> 00:14:19,500
En dat de problemen naar voren kaart, wat het bedrijf echt pijn doet.

260
00:14:19,500 --> 00:14:20,620
Want dat zie je vaak helemaal niet.

261
00:14:20,620 --> 00:14:24,500
Dat is eigenlijk wel een hele mooie metafoor die je gebruikt.

262
00:14:24,500 --> 00:14:30,460
Want dat betekent dus dat je van bovenaf inderdaad emmers, emmers, emmers moet kiepen...

263
00:14:30,480 --> 00:14:35,240
aan visie, aan waar je heen toe wil, aan uitleg, aan duidelijkheid,

264
00:14:35,240 --> 00:14:40,340
waarbij het uiteindelijk helemaal doorsijpelt, zoals je het ook noemt,

265
00:14:40,340 --> 00:14:43,080
in alle haarvaten van de organisatie.

266
00:14:43,080 --> 00:14:44,920
En het moet echt gedragen worden.

267
00:14:44,920 --> 00:14:47,500
Het moet niet zoiets zijn, oh die gasten van boven,

268
00:14:47,500 --> 00:14:50,060
die hebben dit verdacht en oké, we gevolgen ze wel.

269
00:14:50,060 --> 00:14:51,580
Nee, het moet iets van iedereen zijn.

270
00:14:51,580 --> 00:14:55,780
Iedereen moet er geloven in dat het ze beter maakt,

271
00:14:55,780 --> 00:14:59,220
en dat het werk en het bedrijf en het werkplezier beter van wordt,

272
00:14:59,240 --> 00:15:01,240
en dat de organisatie blijft voortbestaan.

273
00:15:01,240 --> 00:15:07,140
Ja, en ik geloof er ook zelf heilig in, want vaak wordt alles wat er dan uit moet komen,

274
00:15:07,140 --> 00:15:10,140
dat de systemen zijn weer een rapportage voor management,

275
00:15:10,140 --> 00:15:15,940
en juist geen uitleg voor degene die het gebruikt, van waarom wordt een bepaalde voorspelling gemaakt.

276
00:15:15,940 --> 00:15:18,340
In de vorige aflevering had je het over predictive maintenance,

277
00:15:18,340 --> 00:15:21,340
het voorspellen van mogelijke uitval van machines.

278
00:15:21,340 --> 00:15:25,140
Als daar alleen maar rapportages uit komen van, ja, zoveel procent is uitgevallen,

279
00:15:25,140 --> 00:15:26,940
dit hebben we opgelost, dat soort zaken.

280
00:15:26,940 --> 00:15:32,780
Maar niet voor een mogelijke monteur die er naartoe wordt gestuurd met een hele exacte reden waarom...

281
00:15:32,780 --> 00:15:34,300
en dat die erop kan vertrouwen.

282
00:15:34,300 --> 00:15:38,780
Als je dat soort dingen niet bij elkaar brengt, dan heb je die wereld ook niet bij elkaar.

283
00:15:38,780 --> 00:15:40,780
Nee, klopt.

284
00:15:40,780 --> 00:15:44,700
En je moet natuurlijk ook kijken, niet sturen op fouten.

285
00:15:44,700 --> 00:15:51,740
Want wat een angst natuurlijk ook is met bijvoorbeeld AI-algoritme of andere digitaliseringstechnologieën...

286
00:15:51,740 --> 00:15:52,740
het wordt transparant.

287
00:15:52,740 --> 00:15:57,500
Dus die gaan zo opeens zeggen, ja oké, maar die machine zegt opeens dat het ging jaren goed...

288
00:15:57,500 --> 00:15:59,500
en dat was deze productie aantal aan goed.

289
00:15:59,500 --> 00:16:01,500
En nu wordt het opeens zichtbaar hoeveel fouten gemaakt worden.

290
00:16:01,500 --> 00:16:02,500
En dan staat mijn naam erbij.

291
00:16:02,500 --> 00:16:05,500
En dan komt de leidinggevende even vertellen dat ik mijn werk niet goed doe.

292
00:16:05,500 --> 00:16:08,500
Ja, hoo even. Ik ga geen data mee invoeren.

293
00:16:08,500 --> 00:16:09,500
Ja, terecht.

294
00:16:09,500 --> 00:16:10,500
Mij niet gezien.

295
00:16:10,500 --> 00:16:13,500
Ja, herkenbaar.

296
00:16:13,500 --> 00:16:15,500
Zeker, zeker herkenbaar.

297
00:16:15,500 --> 00:16:17,500
En eentje die ook niet heel makkelijk tackled.

298
00:16:17,500 --> 00:16:21,500
Dus het haak je weer naar, het is geen project, het is een verandering.

299
00:16:21,500 --> 00:16:26,460
Het is inderdaad iets waarom doen we het van de organisatie van belang dat we van bovenaf

300
00:16:26,460 --> 00:16:29,660
en over nadenken en van onderaf over nadenken waarom willen we het bereiken waarom doen we

301
00:16:29,660 --> 00:16:34,260
wat we doen en waarom gaan we het anders doen en wat brengt het ons inderdaad komt wel mooi

302
00:16:34,260 --> 00:16:38,420
bij elkaar inderdaad ja dat is dat is niet makkelijk en dat gaat ook gewoon tijd overeen

303
00:16:38,420 --> 00:16:43,260
we zijn allemaal gewend aan onze dagelijkse routines en ja dat verander je ook niet zomaar

304
00:16:43,260 --> 00:16:49,420
en daar moeten we regelmaten dit is ook zo'n verandering ja ja als je niet weet waarom je

305
00:16:49,420 --> 00:16:55,540
dat doet ja. Waarom zou je dat dan doen? Verandering doet pijn. Ik heb hem vanochtend ook nog moeten

306
00:16:55,540 --> 00:16:59,780
zeggen. Nou, ik zei keuzes maken, want dat heeft natuurlijk met verandering te maken.

307
00:16:59,780 --> 00:17:05,060
We maken van keuzes. Als het niet pijn doet, dan is het ook geen keus geweest. Toch? Ja,

308
00:17:05,060 --> 00:17:12,140
dit is succes. Ja, andere kant mag je ook op redden eerder. Zeker. Heb je een soort van

309
00:17:12,140 --> 00:17:17,420
succesverhaal waar dit goed is gegaan?

310
00:17:17,420 --> 00:17:29,420
Ja en nee. Meer omdat ik zie, er is er nog niet eentje waar ik zoiets heb van,

311
00:17:29,420 --> 00:17:33,740
oh daar heb je echt de heilige graal uitgevonden, die is helemaal digitaal

312
00:17:33,740 --> 00:17:37,460
getransformeerd. Dat bedrijf bestaat nog helemaal niet.

313
00:17:37,460 --> 00:17:41,740
Maar er zijn natuurlijk wel bedrijven die gewoon delen heel goed doen en die

314
00:17:41,740 --> 00:17:46,580
heel mooi op gang zijn. Je ziet gewoon dat de reis is nu begonnen, laat het zo zijn.

315
00:17:46,580 --> 00:17:50,700
Ja precies. Maar als je bijvoorbeeld een aantal jaar terug kijkt, dus misschien nog drie, vier jaar terug,

316
00:17:50,700 --> 00:17:55,340
zaten we echt wel een beetje tegen het randje aan en we hangen nu een beetje over die tipping point

317
00:17:55,340 --> 00:18:00,340
of het mainstream wordt, ja of nee. Het heeft bijvoorbeeld, nou zo'n ChatGPT heeft erbij geholpen,

318
00:18:00,340 --> 00:18:06,820
het wordt allemaal wat. De corona heeft er heel erg bij geholpen. Dat was echt, nou ja, kan je je bijvoorbeeld

319
00:18:06,820 --> 00:18:12,060
voorstellen. Het is natuurlijk altijd een beetje gevaarlijk om over vaccinaties te gaan praten,

320
00:18:12,060 --> 00:18:18,380
maar bijvoorbeeld die fabrieken die daar toen de grond uitgestampt zijn, die zijn er met een

321
00:18:18,380 --> 00:18:25,860
snelheid de grond uitgestampt. En ook met digital twins, hun enige optie was dat helemaal digitaal

322
00:18:25,860 --> 00:18:32,340
te simuleren en daar snelheid in te creëren en dan van tevoren helemaal door te rekenen en

323
00:18:32,340 --> 00:18:35,820
en helemaal het digitaler dan digitaal te maken.

324
00:18:35,820 --> 00:18:39,340
Want anders was nooit op tijd die vaccinatie er gekomen.

325
00:18:39,340 --> 00:18:41,740
- Nee, want die productie moest natuurlijk echt enorm...

326
00:18:41,740 --> 00:18:45,140
- Die productie is van nul naar miljarden gegaan.

327
00:18:45,140 --> 00:18:48,940
In korte tijd maar uit een gelimiteerd aantal bedrijven.

328
00:18:48,940 --> 00:18:52,020
Dus die hebben daardoor die versnelling...

329
00:18:52,020 --> 00:18:55,260
en die vroegen dat dus, dat heeft gewoon een heel rimpel effect gecreëerd.

330
00:18:55,260 --> 00:18:58,340
Zij hadden zo'n supersolide fabriek staan.

331
00:18:58,340 --> 00:19:02,580
Maar ze vroegen dat dus ook van alle leveranciers die onderin die keten zaten.

332
00:19:02,580 --> 00:19:05,340
En daardoor zie je dat mensen daarin veranderd zijn.

333
00:19:05,340 --> 00:19:10,520
En je ziet ook in die coronatijd zijn er grote supply chain problemen ontstaan,

334
00:19:10,520 --> 00:19:11,740
de chip tekorten.

335
00:19:11,740 --> 00:19:15,140
Hoe ga je daarmee om? Hoe moet je daarmee dealen?

336
00:19:15,140 --> 00:19:17,300
Dus hoe ga je je fabriek daar op een andere manier inrichten,

337
00:19:17,300 --> 00:19:19,360
zodat je flexibeler wordt?

338
00:19:19,360 --> 00:19:25,080
En daardoor zijn veel digitale technologieën gepushed en normaal geworden,

339
00:19:25,080 --> 00:19:27,100
naast natuurlijk de teamsverhalen.

340
00:19:27,120 --> 00:19:31,760
Maar Urgentie is natuurlijk een hele sterke drijvende kracht voor verandering.

341
00:19:31,760 --> 00:19:36,080
Zeker, dat is echt wel een hele vervelende push geweest.

342
00:19:36,080 --> 00:19:39,880
Maar het is voor de industrie echt wel een game changer geweest.

343
00:19:39,880 --> 00:19:41,880
Ja, ik kan me er iets meer voorstellen.

344
00:19:41,880 --> 00:19:43,880
Maar we zijn er nog niet hoor.

345
00:19:43,880 --> 00:19:49,600
Nee, maar het laat wel zien dat het mogelijk is en dat we als mensen die verandering kunnen doen.

346
00:19:49,600 --> 00:19:52,320
Dat we ondersteund kunnen worden in de verandering.

347
00:19:52,320 --> 00:19:57,320
En dat we elkaar nodig hebben, de technologie, de mensen, en dat bij elkaar brengen daarvan.

348
00:19:57,320 --> 00:20:01,320
En als de druk hoog is, als er geen druk op staat, dan gaat het allemaal wat langzamer.

349
00:20:01,320 --> 00:20:03,320
Het is geen leuke druk geweest, maar wel een...

350
00:20:03,320 --> 00:20:05,320
Ja, het is wel een interessante druk geweest.

351
00:20:05,320 --> 00:20:06,320
Ja, inderdaad.

352
00:20:06,320 --> 00:20:12,320
Krijg je ook nog vragen over de uitleg van het begrip AI?

353
00:20:12,320 --> 00:20:14,320
Oh ja, zeker.

354
00:20:14,320 --> 00:20:18,320
Zeker, maar dan zie je vaak de combinatie met...

355
00:20:18,320 --> 00:20:25,080
met wat is het in deze specifieke niche? Of bijvoorbeeld, wat is AI in de industrie zelf?

356
00:20:25,080 --> 00:20:29,320
Wat zijn dan de toepassingen? Waar we de vorige podcast ook over gehad hebben.

357
00:20:29,320 --> 00:20:31,800
- Use cases. - Use cases, hoe ga je ermee om?

358
00:20:31,800 --> 00:20:35,360
Wat voor type AI gebruik je dan daadwerkelijk?

359
00:20:35,360 --> 00:20:43,640
Als bijvoorbeeld een voorbeeld, neural networks, daar houden we niet zo van in de industrie.

360
00:20:43,640 --> 00:20:45,160
- Want? - Want dat zijn black boxes.

361
00:20:45,160 --> 00:20:48,000
We moeten transparant zijn. We willen weten wat er gebeurt.

362
00:20:48,000 --> 00:20:49,400
De risico's moeten naar beneden.

363
00:20:49,400 --> 00:20:52,680
We gaan niet iets magischerwijs laten gebeuren.

364
00:20:52,680 --> 00:20:53,940
Dat kan gewoon niet.

365
00:20:53,940 --> 00:20:55,560
Dus dat soort dingen...

366
00:20:55,560 --> 00:21:00,040
Als je een normale data scientist in zo'n industrie zou ploppen...

367
00:21:00,040 --> 00:21:02,040
Dan denk je, ga lekker een neural networkje bouwen.

368
00:21:02,040 --> 00:21:04,400
Lekker aan de slag. Ik ga dit en dit bouwen.

369
00:21:04,400 --> 00:21:10,080
Nou, kan ik je vertellen dat dit ongeveer in alle sectoren gebeurt.

370
00:21:10,080 --> 00:21:13,880
Want het is, nou ja, ik noem het de weg van de minste weerstand.

371
00:21:13,900 --> 00:21:17,060
Dus je pakt inderdaad even een neuronetwork.

372
00:21:17,060 --> 00:21:20,140
"Hé, lijkt de werker cool. We gaan ermee aan de slag."

373
00:21:20,140 --> 00:21:24,100
Dus ik ben ook groot voorstander van interpreteerbare modellen.

374
00:21:24,100 --> 00:21:29,120
Maar dat, nou ja, de vaste luisteraar zal dat wel weten.

375
00:21:29,120 --> 00:21:32,180
Over emmers en doordruppelen gesproken.

376
00:21:32,180 --> 00:21:38,860
Maar dat blijft, dat je ook met interpreteerbare modellen...

377
00:21:38,860 --> 00:21:43,540
dat daar inherent aan machine learning modellen zit...

378
00:21:43,560 --> 00:21:48,800
dat er fouten uitkomen. Hoe wordt daar dan op gereageerd?

379
00:21:48,800 --> 00:21:52,600
Ja, fouten zitten erin.

380
00:21:52,600 --> 00:21:56,400
Fouten vinden we lastig. Fouten kunnen eigenlijk niet.

381
00:21:56,400 --> 00:22:02,800
En daardoor maakt ook de adoptie van AI en predictive maintenance lastig.

382
00:22:02,800 --> 00:22:06,320
Want als je bijvoorbeeld naar predictive maintenance kijkt,

383
00:22:06,320 --> 00:22:08,440
dat is de meest gehoorde term in de industrie.

384
00:22:08,440 --> 00:22:10,440
Dat zijn als je over digitalisering hebt,

385
00:22:10,480 --> 00:22:12,280
"Oh, ik moet predictive maintenance hebben."

386
00:22:12,280 --> 00:22:14,600
Maar het is een van de moeilijkste te implementeren.

387
00:22:14,600 --> 00:22:16,460
Vanwege inderdaad dit soort problemen.

388
00:22:16,460 --> 00:22:19,480
Vanwege dat we de machine niet kapot willen gaan.

389
00:22:19,480 --> 00:22:24,180
En dan kan je natuurlijk wel gesynthesized AI data gebruiken.

390
00:22:24,180 --> 00:22:26,800
Maar dat is... Ja, goed.

391
00:22:26,800 --> 00:22:28,620
Dat.

392
00:22:28,620 --> 00:22:31,920
Maar ook in combinatie van, "Goh, dan gaat het al fout.

393
00:22:31,920 --> 00:22:34,180
Oké, dan gaat die kapot. Nou, dat kost gewoon gelijk geld."

394
00:22:34,180 --> 00:22:36,300
Of het is een veiligheidsrisico.

395
00:22:36,300 --> 00:22:38,500
Nou ja, dat vinden we moeilijk.

396
00:22:38,520 --> 00:22:40,520
En dan de false positives, false negatives.

397
00:22:40,520 --> 00:22:43,520
Ja, dus dat is best wel een dingetje.

398
00:22:43,520 --> 00:22:47,520
Dus daar, hoe gaan we erom? Moeilijk.

399
00:22:47,520 --> 00:22:51,520
Maar zeg je daarmee van...

400
00:22:51,520 --> 00:22:52,520
Dat adoptie...

401
00:22:52,520 --> 00:23:00,520
Ja, dus dat je nog aan de early adopters kant zit of aan de innovators kant als je het over die curve hebt.

402
00:23:00,520 --> 00:23:04,520
Dat je nog nu bedrijven hebt die het aandurven.

403
00:23:04,520 --> 00:23:10,640
- Early adopters, early majority, hoek zit je op, en afhankelijk van waar je het over hebt.

404
00:23:10,640 --> 00:23:14,240
Bijvoorbeeld vision is al veel meer geaccepteerd.

405
00:23:14,240 --> 00:23:22,440
Dat is al veel, ik wil niet zeggen makkelijker, maar daardoor is dat een minder risicovol concept.

406
00:23:22,440 --> 00:23:27,600
Dus die zie je al veel meer komen, dus daar zie je al veel meer in plaats vinden.

407
00:23:27,600 --> 00:23:29,600
Nou, predictive maintenance hebben we het gewoon met z'n allen veel over.

408
00:23:29,600 --> 00:23:33,840
Is weinig exact fantastisch geïmplementeerd.

409
00:23:33,840 --> 00:23:36,280
willen we wel met z'n allen door.

410
00:23:36,280 --> 00:23:40,560
Maar zo zijn er een aantal, afhankelijk van de toepassing,

411
00:23:40,560 --> 00:23:42,360
hoe verder of minder ver die is.

412
00:23:42,360 --> 00:23:44,960
En dat is vaak met het risicoprofiel te maken.

413
00:23:44,960 --> 00:23:47,480
Of de complexiteit, wat je ervan vraagt.

414
00:23:47,480 --> 00:23:50,880
Ja, en daar krijg je natuurlijk ook zeker bij, bijvoorbeeld een...

415
00:23:50,880 --> 00:23:53,560
Kan ik me voorstellen, bijvoorbeeld negatief.

416
00:23:53,560 --> 00:23:56,680
Dus dan stuur je iemand daar naartoe en dan blijkt zo'n machine...

417
00:23:56,680 --> 00:23:58,960
dat daar helemaal niets meer aan de hand is.

418
00:23:58,960 --> 00:24:00,200
Motivator drain.

419
00:24:00,200 --> 00:24:02,800
Ja, en je hoeft maar één zo'n geval te hebben.

420
00:24:03,400 --> 00:24:06,640
Dat is een beetje inderdaad, vertrouwen komt te voet, gaat de paard.

421
00:24:06,640 --> 00:24:11,000
Ja, daar moet gewoon een ambassadeur, iemand die ook ziet dat dit een verandering is,

422
00:24:11,000 --> 00:24:14,360
waar het niet altijd goed gaat, mee moet nemen inderdaad in die verandering.

423
00:24:14,360 --> 00:24:17,640
Mee moet nemen in van, ja, kan zijn dat dit nog niet de juiste route is,

424
00:24:17,640 --> 00:24:20,320
maar dit doen we om in de toekomst dat wel met elkaar te bepalen.

425
00:24:20,320 --> 00:24:25,300
Dus het stukje mensen daarin meenemen, zoeken naar de mensen die het a) technisch

426
00:24:25,300 --> 00:24:28,880
of de outcome heel erg interessant vinden, zodat die van zichzelf

427
00:24:28,880 --> 00:24:33,080
wat extra effort erin willen steken om de majority dadelijk mee te gaan krijgen.

428
00:24:33,100 --> 00:24:36,980
Dat is mijn persoonlijke ervaring. Zoek die mensen op in de organisatie, binnen een team.

429
00:24:36,980 --> 00:24:40,500
En ga daarmee die eerste implementatie doen.

430
00:24:40,500 --> 00:24:43,180
Die ook besef hebben dat het niet allemaal goed gaat.

431
00:24:43,180 --> 00:24:44,580
En dat we moeten leren.

432
00:24:44,580 --> 00:24:46,380
Terug bij cultuur en leiderschap.

433
00:24:46,380 --> 00:24:47,540
Daar zijn we weer, toch?

434
00:24:47,540 --> 00:24:48,880
Zijn we zo'n beetje rond.

435
00:24:48,880 --> 00:24:50,880
Behalve onze vaste rubriek.

436
00:24:50,880 --> 00:24:52,780
En dat is namelijk Aisha.

437
00:24:52,780 --> 00:24:55,540
Het is een eer om je te ontmoeten.

438
00:24:55,540 --> 00:24:59,740
Ik ben Aisha, de AI-assistent van deze podcast.

439
00:24:59,740 --> 00:25:01,300
Mag ik je een vraag stellen?

440
00:25:01,320 --> 00:25:03,320
Ga ervoor.

441
00:25:03,320 --> 00:25:08,320
Op welke manier kan AI bijdragen aan het versterken van vrouwen?

442
00:25:08,320 --> 00:25:11,320
[GELACH]

443
00:25:11,320 --> 00:25:16,320
Op welke manier kan AI bijdragen aan het versterken van vrouwen?

444
00:25:16,320 --> 00:25:18,320
Ja, ja.

445
00:25:18,320 --> 00:25:20,320
Het algoritme is deze vraag gekregen.

446
00:25:20,320 --> 00:25:21,320
[GELACH]

447
00:25:21,320 --> 00:25:23,320
Het is volstrekt willekeurig.

448
00:25:23,320 --> 00:25:25,320
Ja, ja. Versterken van vrouwen.

449
00:25:25,320 --> 00:25:29,320
Of als we hem in de sector plaatsen misschien, binnen industrie.

450
00:25:29,320 --> 00:25:36,200
Hoe zou daar een bijdrage kunnen leveren om meer vrouwen in de industrie werkzaam te

451
00:25:36,200 --> 00:25:37,200
hebben?

452
00:25:37,200 --> 00:25:38,200
Om even wat concreet te maken misschien.

453
00:25:38,200 --> 00:25:39,200
Ja op die manier.

454
00:25:39,200 --> 00:25:45,920
Nou je ziet wel, als je naar de industrie kijkt, het vooroordeel is wel met je klauwen

455
00:25:45,920 --> 00:25:46,920
in het vet.

456
00:25:46,920 --> 00:25:49,920
En gewoon vies.

457
00:25:49,920 --> 00:25:56,320
En als ik naar mezelf kijk bijvoorbeeld, ik had ook niet zo'n zin in zo'n wereldje.

458
00:25:56,320 --> 00:26:01,800
Maar ik ben wel van de industrie gaan houden, omdat ik gewoon zie wat voor...

459
00:26:01,800 --> 00:26:06,400
Het heeft zo'n impact op ons leven, op onze wereld.

460
00:26:06,400 --> 00:26:08,560
En je kan er zo'n verschil maken.

461
00:26:08,560 --> 00:26:12,160
Maar ook zeker als vrouw. En niet alleen...

462
00:26:12,160 --> 00:26:16,920
Als je naar de technische, nou ik heb natuurlijk wel een technisch beroep,

463
00:26:16,920 --> 00:26:20,520
maar de super technische functies kijkt,

464
00:26:20,520 --> 00:26:23,020
die veelal door mannen gedaan worden.

465
00:26:23,040 --> 00:26:26,480
En je ziet daar als AI, zie je vaak ook wel als tool,

466
00:26:26,480 --> 00:26:31,000
je ziet bijvoorbeeld ook wel interesse vanuit AI nu door meiden op de opleiding komen.

467
00:26:31,000 --> 00:26:35,960
Het is een heel ander concept waardoor je toch zo'n industrie inkomt.

468
00:26:35,960 --> 00:26:40,320
Omdat je met een heel ander functieprofiel die industrie inkomt.

469
00:26:40,320 --> 00:26:42,080
En dat maakt het wel interessant.

470
00:26:42,080 --> 00:26:44,600
En dat zie je nu met al dit soort digitaliseringstechnologieën.

471
00:26:44,600 --> 00:26:47,160
Je ziet echt wel daar interesse uitkomen.

472
00:26:47,160 --> 00:26:50,760
En ja, er zijn er na nogal heel veel jongens die ermee bezig zijn,

473
00:26:50,800 --> 00:26:53,800
maar je ziet ook de meiden opkomen.

474
00:26:53,800 --> 00:26:55,160
En dat is wel tof.

475
00:26:55,160 --> 00:26:57,860
Wij begeleiden ook heel veel studenten,

476
00:26:57,860 --> 00:26:59,520
WO-studenten, Data Science.

477
00:26:59,520 --> 00:27:05,440
En nou, misschien is de verhouding al bijna inderdaad frauw.

478
00:27:05,440 --> 00:27:07,800
Dus dat is heel fijn om te zien.

479
00:27:07,800 --> 00:27:08,820
Ja.

480
00:27:08,820 --> 00:27:10,080
Ja, nee, die...

481
00:27:10,080 --> 00:27:11,940
Kan je een paar doorsturen?

482
00:27:11,940 --> 00:27:13,960
[GELACH]

483
00:27:13,960 --> 00:27:15,480
Ik kan niks beloven.

484
00:27:15,480 --> 00:27:19,140
Maar in ieder geval, ze studeren af.

485
00:27:19,160 --> 00:27:23,680
komen ook niet allemaal per se in dienst, maar ik vind dat wel belangrijk.

486
00:27:23,680 --> 00:27:29,560
Wij komen natuurlijk ook uit een IT-wereld wat behoorlijk eenzijdig is.

487
00:27:29,560 --> 00:27:34,320
Dus ik ben ook blij met dit soort veranderingen.

488
00:27:34,320 --> 00:27:38,280
We zijn heel lang bezig geweest van, hoe krijg je dat nou voor elkaar?

489
00:27:38,280 --> 00:27:42,960
En dan blijkt gewoon een deel interesse, verandering.

490
00:27:42,960 --> 00:27:46,320
Dus dat we een nieuwe technologie hebben die gelukkig interesse van...

491
00:27:47,240 --> 00:27:48,880
-Vrede publiekheid. -Precies, dat.

492
00:27:48,880 --> 00:27:52,420
En meer voorbeelden die in de praktijk het verschil maken.

493
00:27:52,420 --> 00:27:54,340
Dat helpt er ook bij. Dus dat is mooi om te zien.

494
00:27:54,340 --> 00:27:58,500
En daar moeten we ook wel aandacht voor blijven houden en door blijven gaan.

495
00:27:58,500 --> 00:27:59,840
Ja, zeker.

496
00:27:59,840 --> 00:28:03,780
Leuk om zo'n doordacht antwoord op mijn vraag van je te krijgen.

497
00:28:03,780 --> 00:28:09,120
Nou, Nienke, hartstikke bedankt voor je inzichten.

498
00:28:09,120 --> 00:28:12,140
Wat ik er in ieder geval uit heb gehaald is cultuur.

499
00:28:12,140 --> 00:28:15,580
Die je bij elkaar brengen van OT/IT.

500
00:28:15,600 --> 00:28:18,000
Ik heb geleerd wat OT is. Dat is wel heel wat.

501
00:28:18,000 --> 00:28:20,020
- Afhankelijk erbij.

502
00:28:20,020 --> 00:28:22,040
- Projecten. Het is geen project.

503
00:28:22,040 --> 00:28:23,560
- Het is geen project, precies.

504
00:28:23,560 --> 00:28:26,380
Dat zijn de dingen die we mee kunnen nemen...

505
00:28:26,380 --> 00:28:28,500
en die de luisteraar hopelijk ook meeneemt.

506
00:28:28,500 --> 00:28:30,520
Dank je wel. - Graag gedaan.

507
00:28:30,520 --> 00:28:35,040
Fijn dat je weer luisterde.

508
00:28:35,040 --> 00:28:37,060
Wil je geen aflevering missen?

509
00:28:37,060 --> 00:28:40,080
Abonneer je dan via je favoriete podcast-app.

510
00:28:40,080 --> 00:28:42,100
En tot snel.

511
00:28:42,100 --> 00:28:43,620
 
512
00:28:43,620 --> 00:29:06,420
 

People on this episode