AIToday Live

S05E12 - AI met een Hart: Het verbinden van maatschappelijk verantwoord ondernemen en innovatie

Info Support AIToday Season 5 Episode 12

Stuur ons een bericht

In deze aflevering duiken we in het inspirerende verhaal van het AI Annotatielab, een initiatief dat maatschappelijk verantwoord ondernemen combineert met het ontwikkelen van ethische en inclusieve AI.

Luister hoe het AI Annotatielab mensen met een afstand tot de arbeidsmarkt kansen biedt om data te annoteren voor bedrijven zoals RTL en tegelijkertijd hun loopbaanvaardigheden en toekomstmogelijkheden vergroten.

Ontdek hoe de deelnemers worden begeleid en welke impact dit project heeft op hun leven en zelfvertrouwen. Ook werpen we een blik op de toekomstige hackathon en de samenwerkingen met bedrijven. En voor iedereen die geïnteresseerd is in soortgelijke initiatieven, delen we hoe je hieraan kunt bijdragen en samen kunt werken aan een meer ethische en verantwoorde AI-wereld.

Links


Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:02,800
[Muziek]

2
00:00:02,800 --> 00:00:06,000
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van de AI Today Live.

3
00:00:06,000 --> 00:00:08,200
Mijn naam is Joop Snijder, CTO bij Aigency.

4
00:00:08,200 --> 00:00:11,400
Mijn naam Niels Naglé, chapter lead Data & AI bij Info Support.

5
00:00:11,400 --> 00:00:17,400
En we zitten weer met Daan en Muriel van het AI Annotatielab.

6
00:00:17,400 --> 00:00:20,800
Als je de vorige aflevering niet geluisterd hebt, doe dat alsjeblieft.

7
00:00:20,800 --> 00:00:26,400
Daar leggen we uit, of zij leggen uit, met z'n allen denk ik, waarom het zo belangrijk is.

8
00:00:26,400 --> 00:00:36,400
En we praten even verder, vooral eigenlijk van hoe je als bedrijf, welke drempels moet je misschien overen om dit te gaan doen.

9
00:00:36,400 --> 00:00:41,400
Daan, jullie hebben hiervoor gekozen als RTL.

10
00:00:41,400 --> 00:00:49,400
Zijn er tegenwerpingen geweest binnen de organisatie om te zeggen van, nou zouden we dit wel moeten doen?

11
00:00:49,400 --> 00:00:57,400
Na tegenwerpingen zijn er niet zo heel erg geweest. Ik denk wel dat we relatief voorzichtig zijn begonnen.

12
00:00:57,400 --> 00:01:03,400
We zagen gelijk de potentie wel ervan, maar zijn gaan kijken van welke taken zijn er interessant om mee te gaan starten.

13
00:01:03,400 --> 00:01:10,400
En dat waren niet onze bedrijfskritieke processen, die we gelijk in de annotatielab hebben neergezet.

14
00:01:10,400 --> 00:01:12,400
Mariaal kijkt me ondertussen heel verbazend aan.

15
00:01:12,400 --> 00:01:21,760
Misschien nog even, sommigen zullen er in deze aflevering in invallen, wat is de AI Annotatielab?

16
00:01:21,760 --> 00:01:29,760
Dat is een plek waar mensen met een afstand tot de arbeidsmarkt zes maanden de kans krijgen om zich weer te ontwikkelen naar die arbeidsmarkt toe.

17
00:01:29,760 --> 00:01:39,600
En daar krijgen zij individuele begeleiding bij en daarna doen zij werk en dat werk is het labelen van data voor verschillende bedrijven, waaronder RTL.

18
00:01:39,600 --> 00:01:48,600
Ja, en we roepen eigenlijk op bedrijven van maak je gebruik van, want het is en maatschappelijk verantwoord ondernemen en je krijgt geweldige data.

19
00:01:48,600 --> 00:01:51,600
Daar zijn we op gekomen.

20
00:01:51,600 --> 00:02:01,600
Het is natuurlijk nog wat, want je geeft gevoelsmatig wel je data weg. Hoe hebben jullie dat ervaren?

21
00:02:01,600 --> 00:02:03,200
Ja, we geven natuurlijk niet onze data weg.

22
00:02:03,200 --> 00:02:07,400
We laten onze data annoteren, waardoor het een waardevollere data wordt.

23
00:02:07,400 --> 00:02:10,640
Dat is denk ik vooral wat...

24
00:02:10,640 --> 00:02:13,040
Ik denk wat een drempel is om hiermee te gaan starten.

25
00:02:13,040 --> 00:02:14,320
Wat ik me kan voorstellen is dat het...

26
00:02:14,320 --> 00:02:19,560
vaak heel lastig te zien is waar dit soort labelwerk gebeurt.

27
00:02:19,560 --> 00:02:22,880
Als het alternatief is om het naar een crowdsourcing platform te sturen,

28
00:02:22,880 --> 00:02:24,880
is het denk ik heel makkelijk om te bedenken, want dat gaan we hier doen.

29
00:02:24,880 --> 00:02:27,000
Maar ik denk dat heel vaak, bij ons in ieder geval,

30
00:02:27,000 --> 00:02:29,400
dit ook voor een deel verborgen werk is geweest.

31
00:02:30,480 --> 00:02:32,040
of dingen waar we niet aan toe kwamen.

32
00:02:32,040 --> 00:02:35,160
En dat doordat we hier kunnen annoteren,

33
00:02:35,160 --> 00:02:37,760
dat we een aantal use case kunnen oplossen,

34
00:02:37,760 --> 00:02:39,560
die we daarvoor niet hebben kunnen doen ook.

35
00:02:39,560 --> 00:02:45,680
Ja, ik heb zelf, dat vertelde ik in de vorige aflevering natuurlijk ook,

36
00:02:45,680 --> 00:02:48,880
van, moest ik 10.000 plaatjes,

37
00:02:48,880 --> 00:02:50,960
en dat waren er zelfs nog iets meer dan 10.000,

38
00:02:50,960 --> 00:02:52,360
ik rondel het even naar beneden af.

39
00:02:52,360 --> 00:02:56,400
Dus wel heel jammer dat ik niet wist dat dit bestond.

40
00:02:58,160 --> 00:03:00,900
Waarom ben je dat dan zelf gaan doen? Waarom ben je dat dan zelf gaan labellen?

41
00:03:00,900 --> 00:03:04,660
Nou, ik wilde het niet uitbesteden aan lage loonlanden.

42
00:03:04,660 --> 00:03:08,060
Ik weet niet, dat voelt toch niet zo goed.

43
00:03:08,060 --> 00:03:10,360
Dat Mechanical Turk, weet je, daar zit Amazon tussen.

44
00:03:10,360 --> 00:03:15,960
Volgens mij romen die het meeste af en dan houden die mensen in het buitenland helemaal niks aan over.

45
00:03:15,960 --> 00:03:21,860
Dus het was bij gebrek aan kennis en dan denk je, ja, het moet gebeuren.

46
00:03:21,860 --> 00:03:28,660
De teamleden waren druk met het ontwikkelen van de modellen, waren andere dingen aan het doen.

47
00:03:28,660 --> 00:03:33,660
Dus ik dacht van, dan doe ik het maar het was niet het leukste werk.

48
00:03:33,660 --> 00:03:36,860
Ik had begrepen dat ze het hier wel heel erg leuk vinden toch?

49
00:03:36,860 --> 00:03:40,060
Ja ze vinden het hartstikke leuk en vooral ook als er afwisseling is.

50
00:03:40,060 --> 00:03:46,060
Ze willen ook niet 10.000 plaatjes achter elkaar doen, maar als ze een uurtje plaatjes doen...

51
00:03:46,060 --> 00:03:52,900
en daarna een uurtje video's kijken en daar dingen in aangeven en dan weer een stuk tekst moeten lezen.

52
00:03:52,900 --> 00:03:57,140
Dan houden we het ook gewoon divers wat ze kunnen doen.

53
00:03:57,140 --> 00:04:02,420
Wat ik me nogal vraag, we zitten nu heel vaak bij organisaties,

54
00:04:02,420 --> 00:04:08,860
juist data is het nieuwe goud en waarom zouden we het inderdaad uit handen gaan geven?

55
00:04:08,860 --> 00:04:12,500
Wat zijn de overwegingen geweest voor jullie om het niet zozeer uit handen te geven,

56
00:04:12,500 --> 00:04:14,620
maar die werkzaamheden toch hier te beleggen?

57
00:04:15,700 --> 00:04:21,580
Dus ik denk dat wij het ook vaak zien als een goede eerste stap naar iets automatiseren.

58
00:04:21,580 --> 00:04:28,620
We hebben dit vaak gedaan op nieuwe taken gestart op een terrein waar we nog niet AI modellen hadden ook.

59
00:04:28,620 --> 00:04:35,220
Dus eerst verkennen van hoe goed kunnen we daar data van krijgen en wat voor kwaliteit heeft die data.

60
00:04:35,220 --> 00:04:40,340
Zodat we ook weten hoe moeilijk het probleem is en hoe vaak verschillende categorieën voorkomen.

61
00:04:40,340 --> 00:04:42,340
Bijvoorbeeld dat soort dingen.

62
00:04:42,340 --> 00:04:45,060
Oeh, dat is mooi. Dus eigenlijk al een soort van eerste validatie.

63
00:04:45,060 --> 00:04:51,140
Ja, eigenlijk wel inderdaad. Voordat we aan AI-modellen gaan maken, gaan kijken van kan het eigenlijk wel?

64
00:04:51,140 --> 00:04:54,140
Kunnen we er wel een taak van maken? Zouden we dat een mens kunnen laten doen?

65
00:04:54,140 --> 00:04:57,740
Voordat we beginnen met het aan de machine uit te gaan.

66
00:04:57,740 --> 00:05:02,620
Dat is wel mooi, want de workshops die ik doe bij bedrijven gaat eigenlijk bijna altijd over van,

67
00:05:02,620 --> 00:05:07,300
begin pas met machine learning als het überhaupt iets van een business case is.

68
00:05:07,300 --> 00:05:10,900
En daarna proberen we dan, wij noemen dat een 'proof of value',

69
00:05:10,900 --> 00:05:15,300
dat je een hele korte periode eigenlijk kijkt van het idee wat je hebt,

70
00:05:15,300 --> 00:05:18,060
is dat haalbaar met de techniek en dat soort daken.

71
00:05:18,060 --> 00:05:20,780
En dan zou dit dus heel mooi erbij kunnen dat je zegt van,

72
00:05:20,780 --> 00:05:25,020
oh ja, maar is je data ook niet alleen kwalitatief goed,

73
00:05:25,020 --> 00:05:26,740
maar waar loop je tegen aan?

74
00:05:26,740 --> 00:05:29,420
Ja, en kunnen we het aan mensen uitleggen?

75
00:05:29,420 --> 00:05:31,340
Zijn mensen het met elkaar eens op deze taak?

76
00:05:31,340 --> 00:05:32,980
Dat zijn allemaal hele goede signalen.

77
00:05:32,980 --> 00:05:33,900
Oh, mooi.

78
00:05:33,900 --> 00:05:35,100
Vervolgens zijn er een model daarvoor.

79
00:05:35,100 --> 00:05:36,120
Ja.

80
00:05:36,120 --> 00:05:38,500
Ja, en ik heb ook al gezien dat het wel belangrijk is,

81
00:05:38,500 --> 00:05:40,420
ook dat je echt een goede taak creëert.

82
00:05:40,440 --> 00:05:43,680
Want daar kregen we ook feedback op dat het niet ging.

83
00:05:43,680 --> 00:05:47,180
En je hebt ook wel andere bedrijven geholpen met van,

84
00:05:47,180 --> 00:05:49,800
hoe zet je dat nou goed op?

85
00:05:49,800 --> 00:05:53,080
Want daar moet je ook wel even goed over nadenken.

86
00:05:53,080 --> 00:05:55,920
Want je kan niet zomaar je data erin gooien en succes.

87
00:05:55,920 --> 00:05:59,620
Dus daar zit wel een stukje werk in wat je moet doen.

88
00:05:59,620 --> 00:06:01,080
Maar als je dat gewoon goed doet,

89
00:06:01,080 --> 00:06:03,360
dan heb je daarna enorm veel profijt van.

90
00:06:03,360 --> 00:06:07,060
Dus eigenlijk bepaalt dat dan een beetje wat gelabeld moet worden,

91
00:06:07,060 --> 00:06:08,240
wat de opties zijn.

92
00:06:08,240 --> 00:06:10,340
Moet ik daar dan aan denken als taakzijnde?

93
00:06:10,360 --> 00:06:11,360
Ja, zeker.

94
00:06:11,360 --> 00:06:16,860
Dus we beginnen te denken vanuit de business case...

95
00:06:16,860 --> 00:06:18,880
wat zouden we met deze data kunnen gaan doen?

96
00:06:18,880 --> 00:06:22,380
En dan terugreduceren van welke data hebben we dan beschikbaar?

97
00:06:22,380 --> 00:06:24,400
Welke video content bijvoorbeeld?

98
00:06:24,400 --> 00:06:27,120
En wat voor vragen daaromheen zou je kunnen stellen...

99
00:06:27,120 --> 00:06:31,260
die een goed signaal geven om een model op te trainen...

100
00:06:31,260 --> 00:06:33,880
om die businesswaarde uiteindelijk te kunnen creëren.

101
00:06:33,880 --> 00:06:37,000
En dat stukje validatie, want ik neem aan dat je...

102
00:06:37,000 --> 00:06:39,120
dat ga je niet over je hele data doen.

103
00:06:39,140 --> 00:06:41,460
Dus je maakt daar een selectie in, denk ik.

104
00:06:41,460 --> 00:06:45,340
Ja, dat hangt denk ik heel erg van de taak af.

105
00:06:45,340 --> 00:06:49,340
Dus bijvoorbeeld, in de vorige podcast noemden we ook het voorbeeld

106
00:06:49,340 --> 00:06:54,500
waar we nu naar kijken, waarbij er gekeken wordt naar korte clips van rtl.nl,

107
00:06:54,500 --> 00:06:57,780
waar we categorieën vragen.

108
00:06:57,780 --> 00:07:00,900
Is het entertainment, is het nieuws?

109
00:07:00,900 --> 00:07:04,300
Van allerlei verschillende vormen content die we hebben daar.

110
00:07:06,220 --> 00:07:10,620
voor zo'n taak, welke modellen we ook gaan maken,

111
00:07:10,620 --> 00:07:14,420
het meeste impact zullen de video's hebben die het meest populair zijn.

112
00:07:14,420 --> 00:07:16,820
Dus we hebben daar de meest populaire video's geselecteerd,

113
00:07:16,820 --> 00:07:18,220
en dat is wat ze hier annoteren.

114
00:07:18,220 --> 00:07:21,620
En nu we een eerste lading labels hebben,

115
00:07:21,620 --> 00:07:24,420
zien we dat er een behoorlijk aantal categorieën onder vertegenwoordigd zijn.

116
00:07:24,420 --> 00:07:27,420
Dus daar gaan we nu actief naar op zoek,

117
00:07:27,420 --> 00:07:30,220
om die weer extra te laten labelen,

118
00:07:30,220 --> 00:07:33,020
zodat we een goede diverse data set hebben.

119
00:07:33,020 --> 00:07:35,420
En als bedrijven nu luisteren, Muriel,

120
00:07:35,420 --> 00:07:37,820
en niet zeggen van dit lijkt me wel wat.

121
00:07:37,820 --> 00:07:41,420
Zou je iets van een orde van grootte van kosten?

122
00:07:41,420 --> 00:07:46,740
Is het heel veel duurder dan als ik het zou laten doen in het buitenland?

123
00:07:46,740 --> 00:07:49,620
Ik weet niet wat het allemaal in het buitenland kost.

124
00:07:49,620 --> 00:07:54,820
Het ligt erbij welk land je in Afrika of Azië gaat selecteren.

125
00:07:54,820 --> 00:08:01,820
Maar wat wij doen is, het kost ongeveer 25 euro per uur, gewerkt uur.

126
00:08:01,820 --> 00:08:07,540
En daar heb je goede mensen voor die ook begeleid worden.

127
00:08:07,540 --> 00:08:13,020
Dus ja, je kan het goedkoper ergens anders krijgen, maar dan heb je niet dat sociale aspect eraan.

128
00:08:13,020 --> 00:08:16,500
En waarschijnlijk ook niet de kwaliteit die wij kunnen leveren.

129
00:08:16,500 --> 00:08:18,780
Dus dat is eigenlijk hoe we het...

130
00:08:18,780 --> 00:08:22,780
En daarmee proberen we kostendekkend dit neer te zetten.

131
00:08:22,780 --> 00:08:26,860
- In 25 euro per uur echt een hele schappelijke prijs.

132
00:08:26,860 --> 00:08:29,060
- Ja, en belangrijk daarbij te zeggen denk ik ook,

133
00:08:29,060 --> 00:08:32,260
dat het annotatielab wordt gerund door Media Perspective, dat is een stichting,

134
00:08:32,260 --> 00:08:38,100
is er geen winstopmerk hier verder. Het is bedoeld om dit te kunnen faciliteren.

135
00:08:38,100 --> 00:08:40,420
Ja. -Ja, en wij doen het in samenwerking.

136
00:08:40,420 --> 00:08:43,580
Het zou niet kunnen zonder Regio Gooi en Veststreek, want daar...

137
00:08:43,580 --> 00:08:48,340
Die zorgen eigenlijk voor de begeleiding van de kandidaten...

138
00:08:48,340 --> 00:08:52,180
en ook zorgen dat er vanuit de gemeentes hieruit in de regio...

139
00:08:52,180 --> 00:08:55,500
kandidaten op dit project komen. En dat gaat nu heel goed.

140
00:08:55,500 --> 00:08:57,420
We hebben zelfs een wachtlijst op dit moment.

141
00:08:57,540 --> 00:09:02,380
Dus dat is heel mooi. Er willen meer mensen aan de slag.

142
00:09:02,380 --> 00:09:05,380
Maar dat kan alleen als we meer bedrijven hebben en meer taken.

143
00:09:05,380 --> 00:09:07,780
Zodat we een beetje diversiteit erin kunnen houden.

144
00:09:07,780 --> 00:09:10,580
Dus er is echt wel ruimte tot groei.

145
00:09:10,580 --> 00:09:13,580
En de doorstroming, je noemde in het begin zes maanden.

146
00:09:13,580 --> 00:09:15,380
Is het na zes maanden gewoon klaar?

147
00:09:15,380 --> 00:09:17,540
Zijn ze dan klaar om ander werk te gaan doen?

148
00:09:17,540 --> 00:09:20,780
Of is er nog wat dat ze kunnen verlengen en nog door kunnen gaan?

149
00:09:20,780 --> 00:09:23,380
In principe is het zes maanden.

150
00:09:23,380 --> 00:09:27,180
En heel af en toe blijft iemand om bepaalde redenen nog wat langer.

151
00:09:27,180 --> 00:09:34,180
En voor een deel van de mensen is het streven echt dat ze de arbeidsmarkt op gaan en dat lukt ook met regelmaat.

152
00:09:34,180 --> 00:09:47,180
Maar voor andere mensen is dat nog gewoon een brug te ver en zijn ze al heel blij dat we goed in kaart hebben waar zit hun potentie of welk pad moeten ze verder volgen om uiteindelijk op die arbeidsmarkt te komen.

153
00:09:47,180 --> 00:09:51,180
En voor sommige mensen wordt ook gewoon geconcludeerd dat het er gewoon niet meer in zal zitten.

154
00:09:51,180 --> 00:09:56,180
Maar dan worden ze ook niet meer lastig gevallen met continu een baan moeten zoeken.

155
00:09:56,180 --> 00:09:59,180
Terwijl ze eigenlijk dat gewoon niet in zich hebben.

156
00:09:59,180 --> 00:10:02,180
- Hebben jullie dan ook samenwerking met UWV of zoiets?

157
00:10:02,180 --> 00:10:04,180
- Ja, dus vanuit de regio Goeien-Vegstreek.

158
00:10:04,180 --> 00:10:07,180
We hebben een jobcoach die de mensen begeleidt.

159
00:10:07,180 --> 00:10:14,180
Maar er zijn ook allemaal jobhunters, heet het geloof ik, die met deze mensen individueel aan de slag gaan.

160
00:10:14,180 --> 00:10:18,180
Ook met CV's opstellen en kijken wat past bij jou.

161
00:10:18,180 --> 00:10:25,060
wat past bij jou en vervolgens ook gaan zoeken naar bedrijven om hen te plaatsen.

162
00:10:25,060 --> 00:10:27,260
- Oh, zo gedurende het proces dat ze hier zijn.

163
00:10:27,260 --> 00:10:29,380
- Ja, dus dat is onderdeel van het programma.

164
00:10:29,380 --> 00:10:31,980
Dus de mensen zitten niet de hele dag te labelen.

165
00:10:31,980 --> 00:10:35,620
Nee, ze moeten ook aan hun eigen ontwikkeling, ze moeten ook hun cv gaan maken.

166
00:10:35,620 --> 00:10:36,620
- Mooi, mooi.

167
00:10:36,620 --> 00:10:39,420
- Ze moeten ook andere ontwikkelingsgesprekken hebben.

168
00:10:39,420 --> 00:10:45,020
Dus dat hoort er echt allemaal bij voor hun.

169
00:10:45,020 --> 00:10:47,940
Het is een heel volledig programma in dat omzicht.

170
00:10:47,940 --> 00:10:52,420
En krijgen ze een opleiding voordat ze hier aan de slag gaan?

171
00:10:52,420 --> 00:10:55,820
Of is dat gedurende dat je werkt?

172
00:10:55,820 --> 00:10:56,780
Nee, ze krijgen niet van tevoren iets.

173
00:10:56,780 --> 00:11:01,140
Ze komen binnen en de een komt binnen en die is meteen al een uur te laat.

174
00:11:01,140 --> 00:11:04,380
Want die moet nog leren, negen uur is negen uur.

175
00:11:04,380 --> 00:11:08,380
De ander komt binnen en heeft nooit ontbeten.

176
00:11:08,380 --> 00:11:11,980
Weer een ander komt binnen die al een tijdje bezig is, die gaat gewoon lekker aan de bak.

177
00:11:11,980 --> 00:11:16,220
Weer een ander komt binnen en die vindt het doodeng omdat er andere mensen zijn...

178
00:11:16,220 --> 00:11:18,220
waar je sociaal mee moet doen.

179
00:11:18,220 --> 00:11:21,820
Dus ze komen vaak heel kwetsbaar binnen.

180
00:11:21,820 --> 00:11:25,020
En gaan weg met vol zelfvertrouwen.

181
00:11:25,020 --> 00:11:28,620
En in het ultieme geval met een baan.

182
00:11:28,620 --> 00:11:31,620
Dat is natuurlijk helemaal mooi.

183
00:11:31,620 --> 00:11:34,620
Wat betekent het voor jullie persoonlijk eigenlijk?

184
00:11:34,620 --> 00:11:36,620
Want dit is best wel...

185
00:11:36,620 --> 00:11:38,620
Je werkt met een speciale groep.

186
00:11:38,620 --> 00:11:41,420
Het is echt superbelangrijk werk.

187
00:11:41,420 --> 00:11:43,420
Wat doet het met jullie persoonlijk?

188
00:11:43,420 --> 00:11:49,420
Ja, ik vind het fantastisch. Ik vind het echt fantastisch dat we dit neerzetten.

189
00:11:49,420 --> 00:11:53,420
En zeker ook de jobcoach die we erop hebben.

190
00:11:53,420 --> 00:12:02,420
Die vrouw is zo fantastisch met hun en weet echt van mensen die in hun schulp zitten, weer mooie bloemen te maken.

191
00:12:02,420 --> 00:12:06,420
En je ziet het gewoon aan degenen die hier zitten.

192
00:12:06,420 --> 00:12:09,420
En ook gewoon dat we steeds meer mensen aan het werk krijgen.

193
00:12:09,420 --> 00:12:13,820
aan het werk krijg. Ja, hoe mooi is het dat je door het labellen van data, hoe saai is

194
00:12:13,820 --> 00:12:18,660
dat, dat is data, dat je gewoon mensen een hele nieuwe toekomst biedt. Ja, ik vind dat

195
00:12:18,660 --> 00:12:26,620
fantastisch. Ja, voor mij ook. Dit labellen is toch iets wat meestal anoniem gebeurt en

196
00:12:26,620 --> 00:12:29,420
wat heel makkelijk is om gewoon ergens op een platform neer te zetten en op een gegeven

197
00:12:29,420 --> 00:12:35,140
moment terug te krijgen. En dat is echt heel anders met dit project, waar we een directe

198
00:12:35,140 --> 00:12:42,140
link hebben aan deze mensen, daar ook direct zien wat voor impact het heeft, wat wij hier

199
00:12:42,140 --> 00:12:44,140
doen ook in dit project.

200
00:12:44,140 --> 00:12:50,900
En het is ook gewoon heel leerzaam om aan de andere kant te zien van een hoop dingen die

201
00:12:50,900 --> 00:12:56,740
bij ons heel vanzelfsprekend zijn en heel gewoon zijn in hoe ik uitleg wat voor nieuwe

202
00:12:56,740 --> 00:12:57,740
taken we hebben.

203
00:12:57,740 --> 00:13:00,860
Dat ik eventjes rondkijk en denk van nee, dit moet ik even opnieuw doen.

204
00:13:00,860 --> 00:13:02,860
Ik denk dat het een heel mooi project is.

205
00:13:02,860 --> 00:13:04,860
Ik denk dat het een heel mooi project is.

206
00:13:04,860 --> 00:13:06,860
Ik denk dat het een heel mooi project is.

207
00:13:06,860 --> 00:13:08,860
Ik denk dat het een heel mooi project is.

208
00:13:08,860 --> 00:13:10,860
Ik denk dat het een heel mooi project is.

209
00:13:10,860 --> 00:13:12,860
Ik denk dat het een heel mooi project is.

210
00:13:12,860 --> 00:13:14,860
Ik denk dat het een heel mooi project is.

211
00:13:14,860 --> 00:13:16,860
Ik denk dat het een heel mooi project is.

212
00:13:16,860 --> 00:13:18,860
Ik denk dat het een heel mooi project is.

213
00:13:18,860 --> 00:13:20,860
Ik denk dat het een heel mooi project is.

214
00:13:20,860 --> 00:13:22,860
Ik denk dat het een heel mooi project is.

215
00:13:22,860 --> 00:13:24,860
Ik denk dat het een heel mooi project is.

216
00:13:24,860 --> 00:13:26,860
Ik denk dat het een heel mooi project is.

217
00:13:26,860 --> 00:13:28,860
Ik denk dat het een heel mooi project is.

218
00:13:28,860 --> 00:13:31,380
Dat is helemaal mooi, als ze al wat anders hebben gevonden.

219
00:13:31,380 --> 00:13:33,700
Dat is heel erg top om te zien.

220
00:13:33,700 --> 00:13:36,360
Ja. -En dat maakt je ook wel bewust...

221
00:13:36,360 --> 00:13:39,800
ja, hoe geprivileerd wij zijn.

222
00:13:39,800 --> 00:13:45,560
Dat je hoog opgeleid bent en dat je in een stabiele omgeving bent opgegroeid.

223
00:13:45,560 --> 00:13:47,400
In een stabiele omgeving woont.

224
00:13:47,400 --> 00:13:53,680
Maar er is ook echt een andere kant in onze maatschappij.

225
00:13:53,680 --> 00:13:57,120
En ik kwam hem in mijn normale leven eigenlijk niet tegen.

226
00:13:57,580 --> 00:14:03,580
En nu zie je andere mensen en je denkt, oh jemig, dat heb ik het ook goed eigenlijk.

227
00:14:03,580 --> 00:14:07,580
Voor de luisteraars niet zichtbaar, maar ze zitten allebei echt te stralen.

228
00:14:07,580 --> 00:14:11,580
Als ze dit even vertellen met vol passie, dus ik denk dat het voor de luisteraars wel heel goed om te weten.

229
00:14:11,580 --> 00:14:17,580
Er zitten hier twee stralende gasten bij ons aan tafel die echt laten zien hoeveel het met hun doet.

230
00:14:17,580 --> 00:14:21,580
En ook hoeveel mooie dingen er voor de maatschappij naar voren komen.

231
00:14:21,580 --> 00:14:25,580
Want Joop, we hadden het hier over, toen we dit hoorden dacht ik van, waarom is dit dit nog niet?

232
00:14:25,580 --> 00:14:31,940
of waarom wisten wij dit nog niet? Wat waren de gedachten die jij kreeg toen je dit hoorde?

233
00:14:31,940 --> 00:14:38,420
Nou, nu dat we... want we praten al een tijdje. Wat ik eigenlijk wel heel erg mooi vind is dat...

234
00:14:38,420 --> 00:14:46,900
we hebben het heel vaak over allerlei ethische bezwaren, problemen, weet je. Er wordt er zoveel

235
00:14:46,900 --> 00:14:54,180
over gesproken. En als je nu dit bekijkt, dat is ook een ethisch aspect aan het verhaal rondom AI.

236
00:14:54,180 --> 00:14:57,860
Er zitten ook zoveel mooie kanten aan.

237
00:14:57,860 --> 00:15:01,100
En dan vind ik dit wel echt een heel geweldig initiatief.

238
00:15:01,100 --> 00:15:02,300
Zo zie ik dat.

239
00:15:02,300 --> 00:15:04,740
Dat is waar.

240
00:15:04,740 --> 00:15:08,940
Het is een hele mooie praktische invulling van de ethische kant van AI.

241
00:15:08,940 --> 00:15:12,940
Ik denk dat wij dat ook zeker bij de StartFund project heel leuk vonden hieraan.

242
00:15:12,940 --> 00:15:19,140
De eigenlijk soort van bijna tegenstrijdige mix van hoogtechnologische ontwikkelingen,

243
00:15:19,140 --> 00:15:21,780
gecombineerd met mensen die af en toe naar de arbeidsmarkt willen.

244
00:15:21,780 --> 00:15:23,100
En dat toch bij elkaar brengen.

245
00:15:23,100 --> 00:15:26,100
En daar kansen vinden voor allebei eigenlijk.

246
00:15:26,100 --> 00:15:33,100
Ja, want er wordt allemaal heel veel gesproken over ethical AI en allemaal guidelines en allemaal dat soort zaken.

247
00:15:33,100 --> 00:15:37,100
Dat gaat allemaal over het afdekken van risico's.

248
00:15:37,100 --> 00:15:44,100
Hier hebben we het gewoon over iets wat in zijn hele wezen gewoon positief is.

249
00:15:44,100 --> 00:15:49,100
Ja, we hebben het goed uitgelicht.

250
00:15:49,100 --> 00:15:51,100
Ja, prachtig.

251
00:15:51,100 --> 00:15:53,660
Ja, echt mooi inderdaad. En we mochten net ook even bij ze kijken.

252
00:15:53,660 --> 00:15:58,540
Met passie zaten ze ook gewoon te labellen en lichten ze het graag toe wat ze aan het doen.

253
00:15:58,540 --> 00:16:04,380
Dus ze zien ook, je ziet ook dat het wat met ze doet, dat ze die impact kunnen maken en dit mogen doen inderdaad.

254
00:16:04,380 --> 00:16:06,300
Dat vond ik wel mooi om mee te krijgen.

255
00:16:06,300 --> 00:16:13,060
En vooral met de verhalen inderdaad, dat ze vervolgens ook weer het werkleven in kunnen stappen en de volgende baan op kunnen pakken.

256
00:16:13,060 --> 00:16:17,940
Want ja, we hebben niet genoeg werklui in Nederland om de klussen te klaren.

257
00:16:17,940 --> 00:16:20,420
Dus alle hulp kunnen we goed gebruiken.

258
00:16:20,420 --> 00:16:24,420
Ja, en het leuke is ook wel dat het vaak deze doelgroep...

259
00:16:24,420 --> 00:16:26,820
Daar wordt natuurlijk wel heel veel gemeentes mee kijken van...

260
00:16:26,820 --> 00:16:29,140
hoe krijgen we mensen aan de slag?

261
00:16:29,140 --> 00:16:32,540
Maar dan met de moeilijke doelgroepen, dan mogen ze in de groenvoorziening...

262
00:16:32,540 --> 00:16:37,540
of mogen ze in een fabriek iets doen wat niet te ingewikkeld is.

263
00:16:37,540 --> 00:16:40,420
Maar achter een computer op een kantoor...

264
00:16:40,420 --> 00:16:44,060
dat werk is er eigenlijk niet in dit soort trajecten.

265
00:16:44,060 --> 00:16:47,460
En ja, we doen het nu in de regio GroenVegststreek...

266
00:16:47,580 --> 00:16:52,500
maar dat kunnen andere gemeentes, andere regio's ook zomaar doen.

267
00:16:52,500 --> 00:16:54,540
En daardoor krijg je ook weer een andere manier...

268
00:16:54,540 --> 00:16:57,220
en krijg je dat mensen ook weer andere kansen krijgen.

269
00:16:57,220 --> 00:16:59,220
Want niet iedereen is geschikt voor de groenvoorziening.

270
00:16:59,220 --> 00:17:00,980
Maar wel achter een computer zitten.

271
00:17:00,980 --> 00:17:02,700
Ik heb ook twee linkerhanden hoor.

272
00:17:02,700 --> 00:17:05,100
Klussen en groen is ook allemaal niks voor mij.

273
00:17:05,100 --> 00:17:06,620
Toetsenbord is goed, maar...

274
00:17:06,620 --> 00:17:08,220
En ook voor onze mensen hier niet.

275
00:17:08,220 --> 00:17:11,660
Dus dat is heel mooi dat er gewoon ook andersoortig werk is...

276
00:17:11,660 --> 00:17:12,940
om hier naar die markt te komen.

277
00:17:12,940 --> 00:17:14,820
Ja, en diversiteit ook.

278
00:17:14,820 --> 00:17:17,340
Diverse groep mensen die hier voorbij komen.

279
00:17:17,360 --> 00:17:22,120
Jong, oud, leeftijd, mannen, vrouwen, verschillende achtergronden.

280
00:17:22,120 --> 00:17:25,900
Dat is ook iets wat je nog niet binnen alle organisaties tot je beschikking hebt.

281
00:17:25,900 --> 00:17:28,380
Dus wil je dat meenemen in jouw data labeling,

282
00:17:28,380 --> 00:17:32,600
dan is dit wel een ideale groep om dat soort werkzaamheden bij te beleggen.

283
00:17:32,600 --> 00:17:35,380
Heel mooie punt die erbij komt.

284
00:17:35,380 --> 00:17:38,260
Ja, dus wil je maatschappelijk verantwoord ondernemen,

285
00:17:38,260 --> 00:17:41,080
neem dan ook, onderneem dan ook actie denk ik, hè?

286
00:17:41,080 --> 00:17:43,600
Dus neem contact op met Muriel.

287
00:17:43,620 --> 00:17:47,620
Wil jij nog mensen een oproep doen?

288
00:17:47,620 --> 00:17:51,620
Ik neem contact op, kijk ook even op annotatielab.nl.

289
00:17:51,620 --> 00:17:56,620
Daar vind je ook mijn gegevens, maar daar zie je ook allemaal voorbeelden, use cases van verschillende bedrijven.

290
00:17:56,620 --> 00:17:59,620
Zie je ook wat voorbeelden van de mensen die we hebben.

291
00:17:59,620 --> 00:18:04,620
En als je daarna denkt, ja dit is het, dan stuur me een berichtje.

292
00:18:04,620 --> 00:18:12,620
Met onze ervaring van de afgelopen twee jaar, denk ook heel graag mee met andere bedrijven over wat voor hun kan helpen, welke vragen wel en niet werken.

293
00:18:12,620 --> 00:18:18,100
We gaan inderdaad nog een hackathon organiseren.

294
00:18:18,100 --> 00:18:23,740
Waarbij bedrijven denken, ik heb een idee van een taak.

295
00:18:23,740 --> 00:18:27,220
Die kunnen dan komen met hun idee.

296
00:18:27,220 --> 00:18:30,380
En dan gaan wij op die dag, hopelijk ergens in mei,

297
00:18:30,380 --> 00:18:33,580
gaan wij ze helpen die taak te creëren.

298
00:18:33,580 --> 00:18:40,380
En als dat allemaal goed gaat, ook aan het eind van de dag al te beginnen met labelen door onze mensen.

299
00:18:40,380 --> 00:18:42,580
zodat ze ook meteen al zien, hé het werkt.

300
00:18:42,580 --> 00:18:47,140
Dus, ja was ik helemaal vergeten te zeggen, maar daar zijn we nog mee bezig.

301
00:18:47,140 --> 00:18:50,420
De datum kondig, maar misschien geef ik die daarna nog wel door,

302
00:18:50,420 --> 00:18:52,420
dat het nog in de show notes erbij kan komen.

303
00:18:52,420 --> 00:18:54,540
- En het idee is echt dat we dat heel hands-on doen.

304
00:18:54,540 --> 00:18:56,140
Dat we aan het einde van de dag een taak hebben staan,

305
00:18:56,140 --> 00:18:59,260
dat we eventueel afspraken kunnen maken om dat verder te gaan ontwikkelen.

306
00:18:59,260 --> 00:19:02,900
En vanuit het team bij RTL hebben we een stuk of vijf mensen,

307
00:19:02,900 --> 00:19:04,500
denk ik, die inmiddels ervaring hebben met dit soort taken,

308
00:19:04,500 --> 00:19:08,620
die die dag komen meehelpen en Angder ook gaan verder helpen om hierin te starten.

309
00:19:08,620 --> 00:19:10,220
Mooi. -Mooi.

310
00:19:10,220 --> 00:19:15,000
Mooi, ja zeker. En ook jouw aanbod dat je zegt van, weet je, ik ben bereid om te helpen.

311
00:19:15,000 --> 00:19:16,520
Geweldig. -Ja.

312
00:19:16,520 --> 00:19:21,220
Spring nog een dingetje er binnen Joop, die wil ik niet vergeten om niet te noemen.

313
00:19:21,220 --> 00:19:24,520
Dit initiatief hebben wij niet op onze raden gehad.

314
00:19:24,520 --> 00:19:28,720
Zijn er nog meer van dit soort initiatieven luisteraars waar wij echt van moeten weten?

315
00:19:28,720 --> 00:19:33,420
Neem dan alsjeblieft contact met ons op, want dit soort pareltjes,

316
00:19:33,420 --> 00:19:36,320
die moeten we gewoon met elkaar bespreken.

317
00:19:36,340 --> 00:19:39,340
Dus neem contact met een van ons twee op. - Hele goede.

318
00:19:39,340 --> 00:19:40,340
Super.

319
00:19:40,340 --> 00:19:44,840
Leuk dat je weer luisterde naar een aflevering.

320
00:19:44,840 --> 00:19:48,340
Muriel, Daan, hartstikke bedankt dat jullie hier aan mee wilden doen.

321
00:19:48,340 --> 00:19:51,840
Belangrijk onderwerp, dus meld je aan.

322
00:19:51,840 --> 00:19:54,840
En tot de volgende aflevering. - Ja.

323
00:19:54,840 --> 00:19:58,000
[Muziek]


People on this episode