AIToday Live

S06E15 - AI for Good met Fruitpunch AI

February 19, 2024 Aigency by Info Support Season 6 Episode 15
AIToday Live
S06E15 - AI for Good met Fruitpunch AI
Show Notes Transcript

We spreken met Sako Arts, CTO bij Fruitpunch AI, en verkennen we het veelbelovende terrein van AI for Good. Samen met Arts duiken de hosts in hoe artificial intelligence wordt ingezet voor positieve doeleinden en bieden luisteraars inzichten in projecten die zich richten op kritieke mondiale uitdagingen conform de Sustainable Development Goals van de Verenigde Naties.

Fruitpunch AI, onder leiding van Sako Arts, speelt een cruciale rol in het verenigen van een wereldwijde gemeenschap rond het thema AI for Good. De organisatie is actief in het aansturen van "AI for Good Challenge\", waarbij samen wordt gewerkt met partners om AI-oplossingen te ontwikkelen gericht op verbetering van de wereld.

Dit gesprek belicht ook het unieke platform van Fruitpunch AI dat geïnteresseerden de kans biedt om bij te dragen aan maatschappelijke projecten door middel van deelname aan diverse challenges. Highlights van deze aflevering omvatten de internationale reikwijdte en samenstelling van de teams, en de mogelijkheid voor bedrijven om hun eigen uitdagingen voor te stellen die bij kunnen dragen aan de Sustainable Development Goals.

Luisteraars worden aangemoedigd om via deze aflevering dieper in te gaan op de relatie tussen technologie en sociale impact, en hoe men actief kan deelnemen aan initiatieven die streven naar het gebruiken van AI voor een betere wereld. 


Links

Met onze podcast AIToday Live zijn we genomineerd voor de Belgian Podcast Awards ! 🏆🤩 Belgisch? Ja, een Belgische award, want er is een speciale categorie voor Nederlandse podcasts: Prijs van Oranje.

Wil je ons steunen? 🙏❤️ Stem op ons!

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Wil je toegang tot exclusieve toegang voor onze luisteraars? Schrijf je in voor de nieuwsbrief 'AI versterkt de Mens'

Contact AIToday Live


We zijn altijd op zoek naar nieuwe gasten die over AI willen spreken.

1
00:00:00,000 --> 00:00:07,000
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van de AIToday Live.

2
00:00:07,000 --> 00:00:10,520
Vandaag deel 2 met Sako Arts van Fruitpunch AI.

3
00:00:10,520 --> 00:00:17,120
Ik ben heel erg benieuwd, want we gaan even horen hoe je je kan opgeven als je wil werken

4
00:00:17,120 --> 00:00:18,240
met AI for Good.

5
00:00:18,240 --> 00:00:19,240
Zeker.

6
00:00:19,240 --> 00:00:21,120
Mijn naam Joop Snijder, CTO bij Aigency.

7
00:00:21,120 --> 00:00:23,840
Mijn naam Niels Naglé, Chapter Lead, Data & AI bij Info Support.

8
00:00:23,840 --> 00:00:25,640
Sako, welkom terug.

9
00:00:25,640 --> 00:00:26,640
Dankjewel, dankjewel.

10
00:00:26,640 --> 00:00:32,120
Zou je voor degene die deel 1 hebben gemist, eigenlijk moeten we zeggen van ga die luisteren,

11
00:00:32,120 --> 00:00:36,840
maar zou je even in het heel kort jezelf even willen introduceren en ook even vertellen

12
00:00:36,840 --> 00:00:38,360
wat Fruitpunch AI doet?

13
00:00:38,360 --> 00:00:39,360
Zeker.

14
00:00:39,360 --> 00:00:42,240
Mijn naam is Sako Arts, ik ben de CTO van Fruitpunch AI.

15
00:00:42,240 --> 00:00:47,160
Wij zijn een wereldwijde AI for Good community die als doel heeft om mensen te educeren in

16
00:00:47,160 --> 00:00:49,560
AI en AI voor goede doelen toe te passen.

17
00:00:49,560 --> 00:00:53,480
Onze hoofdmanier om dat te doen zijn onze AI for Good challenges, waarbij we op zoek

18
00:00:53,480 --> 00:00:58,320
gaan naar organisaties wereldwijd die een dataset hebben en een probleem dat ze op zouden

19
00:00:58,320 --> 00:01:05,080
willen lossen waarvan de doelen van die oplossing in alignment liggen met de Sustainable Development

20
00:01:05,080 --> 00:01:06,520
Goals van United Nations.

21
00:01:06,520 --> 00:01:13,120
En dat gebruiken we als manier om zowel mensen te educeren in AI in de praktijk als dus om

22
00:01:13,120 --> 00:01:16,800
goede dingen de wereld in te brengen door ze te vautomatiseren met AI.

23
00:01:16,800 --> 00:01:23,520
In de vorige aflevering hebben we het gehad over hoe je stropers herkent, hoe je zelfs

24
00:01:23,520 --> 00:01:27,400
zeehonden, Balou van Berry kan onderscheiden.

25
00:01:27,400 --> 00:01:34,040
Maar waar ik eigenlijk benieuwd naar ben is van als mensen nu luisteren, AI for Good,

26
00:01:34,040 --> 00:01:36,600
en die zeggen van ja maar dit is zo gaaf, ik wil me opgeven.

27
00:01:36,600 --> 00:01:37,600
Hoe doen ze dat?

28
00:01:37,600 --> 00:01:43,560
We hebben een platform, daar kun je gewoon naar toe, dat is app.fruitpunch.ai of via fruitpunch.ai

29
00:01:43,560 --> 00:01:45,040
kom je daar ook vanzelf terecht.

30
00:01:45,040 --> 00:01:49,920
Daar hebben we alle challenges staan die wij open hebben staan, maar natuurlijk ook die

31
00:01:49,920 --> 00:01:50,920
we in het verleden hebben gedaan.

32
00:01:50,920 --> 00:01:53,760
Dus ik nodig iedereen natuurlijk uit om er even naar te kijken, om te kijken van hé

33
00:01:53,760 --> 00:01:58,840
dit is inderdaad interessant of dat matcht met de technologieën waar ik over wil leren.

34
00:01:58,840 --> 00:02:03,320
Maar daar staan dus ook de challenges die binnenkort van start gaan.

35
00:02:03,320 --> 00:02:07,960
Wat je kan doen is je kunt je daar opgeven om in een mentor track te gaan.

36
00:02:07,960 --> 00:02:13,600
En dat betekent dat als jij je daar opgeeft dan gaan wij echt samen met je kijken van

37
00:02:13,600 --> 00:02:18,360
hé wat zijn jouw leerdoelen, waar wil jij naar toe, welk type technologie wil jij mee

38
00:02:18,360 --> 00:02:23,800
gaan werken, wil jij projectmanagement skills op doen of product owners skills of echt puur

39
00:02:23,800 --> 00:02:25,200
aan die technische kant blijven.

40
00:02:25,200 --> 00:02:30,320
Op die manier kijken we naar jouw profiel en dan nemen we je mee in een specifieke challenge

41
00:02:30,320 --> 00:02:34,120
waar we je dan begeleiden van begin tot eind om ook echt die vaardigheden op te doen.

42
00:02:34,120 --> 00:02:38,360
Dus alle deelnemers die meedoen in onze challenges die krijgen ook echt een certificaat aan

43
00:02:38,360 --> 00:02:41,880
het einde waar niet op staat hé je gefeliciteerd, je hebt leren gered.

44
00:02:41,880 --> 00:02:43,360
Dat staat er ook op.

45
00:02:43,360 --> 00:02:47,720
Maar er wordt echt op een heel individueel niveau jouw skills geaccrediteerd.

46
00:02:47,720 --> 00:02:52,240
Dus als jij hebt laten zien van hé jij kan heel goed met TensorFlow omgaan of computer

47
00:02:52,240 --> 00:02:53,680
vision is echt jouw ding.

48
00:02:53,680 --> 00:02:57,640
Dan word je ook voor die unieke skills wordt jij geïdentificeerd en zo bouwen we ook

49
00:02:57,640 --> 00:03:00,080
een skills rapport op van iedereen.

50
00:03:00,080 --> 00:03:01,080
Mooi.

51
00:03:01,080 --> 00:03:05,720
En dat kun je dus behalen door je in te schrijven in onze betaalde mentor track.

52
00:03:05,720 --> 00:03:08,640
Maar we hebben ook openingen voor experts.

53
00:03:08,640 --> 00:03:13,440
Dus mensen die heel veel weten van het type technologie waarmee we aan de slag gaan of

54
00:03:13,440 --> 00:03:17,400
mensen die heel veel van het domein weten waar de challenge zich in afspeelt.

55
00:03:17,400 --> 00:03:20,040
Die twee groepen die combineren we eigenlijk.

56
00:03:20,040 --> 00:03:23,160
Dus zo promoten we ook heel erg peer-to-peer learning.

57
00:03:23,160 --> 00:03:26,720
Oftewel dat mensen van de experts kunnen leren en andersom.

58
00:03:26,720 --> 00:03:30,960
En op die manier laten we mensen dus echt leren in de praktijk.

59
00:03:30,960 --> 00:03:31,960
Oh mooi.

60
00:03:31,960 --> 00:03:37,480
Ik was er eigenlijk van uitgegaan, je aannames natuurlijk altijd fout, dat je ook een achtergrond

61
00:03:37,480 --> 00:03:38,480
in AI moest hebben.

62
00:03:38,480 --> 00:03:40,840
Maar eigenlijk zeg je dat is helemaal niet nodig.

63
00:03:40,840 --> 00:03:46,480
Nee, dus zeker in de educationele track onboarden we ook mensen die vaak dus wel in het gebied

64
00:03:46,480 --> 00:03:49,800
van AI natuurlijk maar echt meer professional skills op willen doen.

65
00:03:49,800 --> 00:03:53,960
Dus dan kan het een projectmanager, scrum master, product owner, dat soort rollen zien we.

66
00:03:53,960 --> 00:04:00,200
En aan de andere kant hoef je ook niet een AI expert te zijn of een Python programmeerkoning.

67
00:04:00,200 --> 00:04:04,200
Je kan meendoen aan zo'n challenge zodra je iets van programmeren kan.

68
00:04:04,200 --> 00:04:09,640
Zolang jij een klein beetje JavaScript of voor mijn part heb je Matlab geleerd toen je

69
00:04:09,640 --> 00:04:10,640
studeerde.

70
00:04:10,640 --> 00:04:12,520
Dat is in principe voldoende.

71
00:04:12,520 --> 00:04:15,640
Zolang je maar programmerentaal kan lezen dan kunnen wij je meenemen door zo'n challenge

72
00:04:15,640 --> 00:04:16,640
traject.

73
00:04:16,640 --> 00:04:18,760
En dus leren over state of the art AI.

74
00:04:18,760 --> 00:04:19,760
Mooi, cool.

75
00:04:19,760 --> 00:04:21,120
Dus eigenlijk het hele team.

76
00:04:21,120 --> 00:04:24,400
De vorige aflevering hebben we gehad, zo'n vijftig man die meedoen naast zo'n challenge.

77
00:04:24,400 --> 00:04:25,960
Het bestaat dus ook uit alle andere rollen.

78
00:04:25,960 --> 00:04:29,440
Ik had ook even de aanname dat heel veel AI experts bij elkaar in de hok en die gaan hier

79
00:04:29,440 --> 00:04:30,600
even flink mee op los.

80
00:04:30,600 --> 00:04:33,960
Maar ook alle andere rollen zitten dus in die vijftig personen die daar aan werken.

81
00:04:33,960 --> 00:04:34,960
Zeker.

82
00:04:34,960 --> 00:04:37,000
We delen die groep van vijftig man dan ook op in sub teams.

83
00:04:37,000 --> 00:04:40,040
Dus dat zijn teams van ergens tussen de vijf en de tien man.

84
00:04:40,040 --> 00:04:42,680
En daar zitten dus ook mensen met specifieke rollen bij.

85
00:04:42,680 --> 00:04:47,000
Dus je kunt ook product owner van zo'n team worden of de scrum master van zo'n team.

86
00:04:47,000 --> 00:04:49,600
Op die manier organiseren die teams zich ook een beetje zelf.

87
00:04:49,600 --> 00:04:53,320
Natuurlijk begeleiden wij die ook zowel vanuit een technisch oogpunt als vanuit een organisatorisch

88
00:04:53,320 --> 00:04:54,320
oogpunt.

89
00:04:54,320 --> 00:04:56,480
Maar in principe zijn al die teams zelf organiseren.

90
00:04:56,480 --> 00:04:59,240
En die hebben vaak een sub doel waar ze naartoe werken.

91
00:04:59,240 --> 00:05:04,320
We hebben het in de vorige aflevering gehad over de beren challenge.

92
00:05:04,320 --> 00:05:06,520
Daar had ik al gezegd dat dat eigenlijk drie stappen heeft.

93
00:05:06,520 --> 00:05:09,080
Een classificatiestap van is er een beer?

94
00:05:09,080 --> 00:05:13,480
Een gezichtsherkenning stap waar je alleen maar zegt hier zit een berengezicht.

95
00:05:13,480 --> 00:05:15,480
En als laatste de identificatie.

96
00:05:15,480 --> 00:05:19,280
Dat zijn typische sub groepen waarin we zo'n project dan ook opdelen.

97
00:05:19,280 --> 00:05:22,680
Die allemaal verschillende technologieën dan weer gaan gebruiken.

98
00:05:22,680 --> 00:05:26,920
Nog weer kleinere sub groepen van wij gaan convolutional neural networks gebruiken of

99
00:05:26,920 --> 00:05:28,480
wij gaan transformers gebruiken.

100
00:05:28,480 --> 00:05:33,640
En ze proberen heel veel verschillende technieken uit om die sub doel te bereiken.

101
00:05:33,640 --> 00:05:38,280
En dan worden ze dus inderdaad ook weer zelf organizing met van die product owners aan boord.

102
00:05:38,280 --> 00:05:39,880
Wow, mooie aanpak.

103
00:05:39,880 --> 00:05:42,200
Dus ook allemaal hun eigen sub doelen per team.

104
00:05:42,200 --> 00:05:45,200
En daar streven ze naar om met elkaar dat doel te bereiken.

105
00:05:45,200 --> 00:05:48,760
Om je bijdrage aan het grotere doel bij elkaar te kunnen brengen aan het einde.

106
00:05:48,760 --> 00:05:49,760
Ja, zeker.

107
00:05:49,760 --> 00:05:53,200
Ik neem aan dat mensen dit doen naast hun dagelijkse werkzaamheden.

108
00:05:53,200 --> 00:05:55,120
Hoeveel tijd zijn ze hiermee kwijt?

109
00:05:55,120 --> 00:05:59,120
Ja, dus we vragen velen al zo'n acht uur per week per deelnemer.

110
00:05:59,120 --> 00:06:00,960
En dat is ook iets wat we getest hebben in het verleden.

111
00:06:00,960 --> 00:06:04,080
Kijk, in vier uur kun jij je net inlezen voor die week.

112
00:06:04,080 --> 00:06:07,880
En dan het moment dat je tegen één klein programmeerprobleempje aanloopt,

113
00:06:07,880 --> 00:06:12,080
dan lig je al uit de running en je gaat waarschijnlijk tegen twintig programmeerproblemen aanlopen.

114
00:06:12,080 --> 00:06:14,080
Dat is een beetje het doel van challenge-based learning.

115
00:06:14,080 --> 00:06:17,080
Dat je twee problemen aanloopt en ze dan oplost.

116
00:06:17,080 --> 00:06:19,480
Dus daar hebben we gezegd acht uur.

117
00:06:19,480 --> 00:06:23,000
En wat we velen al met bedrijven doen, is dat die vier uur vanuit het bedrijf krijgen.

118
00:06:23,000 --> 00:06:27,000
Dus krijgen we bijvoorbeeld een vrijdagmiddag om aan het project te werken, ook samen met de collega's.

119
00:06:27,000 --> 00:06:32,000
En dan vervolgens besteden die nog in de avonduur of in de weekenden die andere vier uur.

120
00:06:32,000 --> 00:06:35,000
Maar we hebben ook mensen in de challenge die er twintig uur per week aan besteden.

121
00:06:35,000 --> 00:06:37,000
En dat ze het gewoon heel vet vinden.

122
00:06:37,000 --> 00:06:39,000
Ja, dat snap ik.

123
00:06:39,000 --> 00:06:42,000
Als je hier in het begin met induikt, omdat je het niet meer los kan laten.

124
00:06:42,000 --> 00:06:44,000
Zeker omdat het voorgoed is.

125
00:06:44,000 --> 00:06:47,000
Dus als het goed is maak je impact.

126
00:06:47,000 --> 00:06:49,000
Wat leuk, maar wat ook leuk.

127
00:06:49,000 --> 00:06:53,000
Ik blijf nog steeds hangen bij dat je zoveel rollen eromheen hebt.

128
00:06:53,000 --> 00:06:56,000
Wat eigenlijk ook wel weer logisch is.

129
00:06:56,000 --> 00:06:58,000
We doen het nu al een paar jaar.

130
00:06:58,000 --> 00:07:02,000
Het klinkt heel makkelijk, hackathon XL, dat je zo georganiseerd.

131
00:07:02,000 --> 00:07:09,000
Maar uiteindelijk door het meer dan drie jaar te doen, kom je toch wel achter dat er veel verschillende manieren zijn om het aan te pakken.

132
00:07:09,000 --> 00:07:14,000
Dat hebben we over de jaren geoptimaliseerd om zowel mensen zoveel mogelijk te laten leren.

133
00:07:14,000 --> 00:07:18,000
Dat we echt iets nuttigs kunnen doen voor die organisaties waar we mee samenwerken.

134
00:07:18,000 --> 00:07:24,000
En dat iedereen daar samen aan zo'n project aanwerkend gevoel heeft dat ze iets bijgedragen hebben.

135
00:07:24,000 --> 00:07:27,000
Je zei in de vorige aflevering dat het wereldwijd is.

136
00:07:27,000 --> 00:07:31,000
Dus in zo'n challenge doen ook wereldwijd mensen mee om een team te vormen.

137
00:07:31,000 --> 00:07:33,000
Dus veel digitaal dan dat ze bij elkaar komen?

138
00:07:33,000 --> 00:07:36,000
Ja, we doen vrijwel alles digitaal.

139
00:07:36,000 --> 00:07:40,000
We hebben een lancerend evenement en een eindevenement.

140
00:07:40,000 --> 00:07:42,000
Die willen we nog wel eens hybride doen.

141
00:07:42,000 --> 00:07:44,000
Dat we met een deel samenkomen.

142
00:07:44,000 --> 00:07:46,000
Met name als we dit samen met een bedrijf zo'n challenge oppakken.

143
00:07:46,000 --> 00:07:48,000
Maar in principe is alles digitaal.

144
00:07:48,000 --> 00:07:50,000
Dus alle meetings zijn digitaal.

145
00:07:50,000 --> 00:07:52,000
En we doen het ook met mensen van over de hele wereld.

146
00:07:52,000 --> 00:07:57,000
Dus we hebben een gewicht in West-Europa, India, Zuid-Afrika en Noord-Amerika.

147
00:07:57,000 --> 00:08:00,000
Dat zijn echt wel waar de meeste mensen vandaan komen.

148
00:08:00,000 --> 00:08:03,000
Maar uiteindelijk hebben ze ook wel eens vanuit Nieuw-Zeeland.

149
00:08:03,000 --> 00:08:05,000
Dat is tijd zonder techniek gezien.

150
00:08:05,000 --> 00:08:06,000
Is dat vaak wat lastig.

151
00:08:06,000 --> 00:08:08,000
Indonesië, hetzelfde verhaal.

152
00:08:08,000 --> 00:08:10,000
Maar ook Honduras, Oost-Europa.

153
00:08:10,000 --> 00:08:12,000
We hebben eigenlijk elk continent wel gehad.

154
00:08:12,000 --> 00:08:14,000
Behalve Antarctica.

155
00:08:14,000 --> 00:08:17,000
Mocht iemand luisteren in het Nederlands.

156
00:08:17,000 --> 00:08:19,000
In Antarctica wezen.

157
00:08:19,000 --> 00:08:21,000
Alsjeblieft schrijf je in voor de challenge.

158
00:08:21,000 --> 00:08:23,000
Dan kan ik zeggen alle continenten.

159
00:08:23,000 --> 00:08:24,000
Geweldig.

160
00:08:24,000 --> 00:08:26,000
En als bedrijf.

161
00:08:26,000 --> 00:08:28,000
Ik zou zo iets willen.

162
00:08:28,000 --> 00:08:31,000
Wat vraag je van de bedrijven?

163
00:08:31,000 --> 00:08:34,000
We hebben twee verschillende typen.

164
00:08:34,000 --> 00:08:36,000
Mogelijkheden om eraan mee te doen.

165
00:08:36,000 --> 00:08:38,000
Om hem als leertrack te gebruiken.

166
00:08:38,000 --> 00:08:40,000
Eentje is eigenlijk het basis traject.

167
00:08:40,000 --> 00:08:42,000
Daarmee koop je toegang tot de challenge.

168
00:08:42,000 --> 00:08:43,000
Data, et cetera.

169
00:08:43,000 --> 00:08:47,000
Dan kun je meedoen in het peer-to-peer learning traject.

170
00:08:47,000 --> 00:08:50,000
Daar vragen we 250 euro per persoon voor.

171
00:08:50,000 --> 00:08:52,000
Om door zo'n traject heen te doen.

172
00:08:52,000 --> 00:08:55,000
Wanneer we dit doen met mentoring.

173
00:08:55,000 --> 00:08:57,000
Oftewel dat we heel specifiek met die persoon gaan kijken.

174
00:08:57,000 --> 00:08:59,000
Waar wil jij naartoe groeien?

175
00:08:59,000 --> 00:09:01,000
En ze dan ook persoonlijk begrijpen.

176
00:09:01,000 --> 00:09:05,000
Dan is dat 500 euro per deelnemer.

177
00:09:05,000 --> 00:09:08,000
Hier hebben we maandelijkse en jaarlijkse abonnementen voor.

178
00:09:08,000 --> 00:09:11,000
Dan krijg je korting wanneer je dat maandelijks doet.

179
00:09:11,000 --> 00:09:13,000
Of wanneer je voor een traject gaat.

180
00:09:13,000 --> 00:09:16,000
Dan krijg je 20% korting over de hele koers.

181
00:09:16,000 --> 00:09:18,000
Op die manier doen we dat met bedrijven.

182
00:09:18,000 --> 00:09:20,000
We doen ook nog wel grotere deals.

183
00:09:20,000 --> 00:09:24,000
Dus dat we zeggen van jullie onboarden dit jaar 50 man.

184
00:09:24,000 --> 00:09:27,000
En dat we daar dan een custom prijs van maken.

185
00:09:27,000 --> 00:09:28,000
Ja precies.

186
00:09:28,000 --> 00:09:32,000
Mogen bedrijven ook challenges aandragen?

187
00:09:32,000 --> 00:09:34,000
Absoluut. Iedereen mag challenges aandragen.

188
00:09:34,000 --> 00:09:36,000
Eén ding is daar heel belangrijk bij.

189
00:09:36,000 --> 00:09:38,000
Wij verzinnen nooit challenges zelf.

190
00:09:38,000 --> 00:09:41,000
Je kunt je voorstellen dat ik tegen genoeg datasets aanloop.

191
00:09:41,000 --> 00:09:43,000
En problemen in de wereld. Dat doen we niet.

192
00:09:43,000 --> 00:09:44,000
Met als belangrijkste reden.

193
00:09:44,000 --> 00:09:46,000
Wij kunnen niet al die projecten in leven houden.

194
00:09:46,000 --> 00:09:48,000
Helaas. Dat zou ik heel graag doen.

195
00:09:48,000 --> 00:09:51,000
Dus als er geen organisatie is waar onze oplossing in kan landen.

196
00:09:51,000 --> 00:09:52,000
Dan maken we geen impact.

197
00:09:52,000 --> 00:09:54,000
Want dan gaat niemand het gebruiken of implementeren.

198
00:09:54,000 --> 00:09:56,000
Dus we verzinnen geen.

199
00:09:56,000 --> 00:09:58,000
Er zijn altijd organisaties die naar ons toe komen.

200
00:09:58,000 --> 00:09:59,000
Van hé dit is een probleem.

201
00:09:59,000 --> 00:10:01,000
Hier is een dataset.

202
00:10:01,000 --> 00:10:03,000
Kunnen jullie ons daarmee helpen?

203
00:10:03,000 --> 00:10:04,000
En zo doen de bedrijven dat zeker.

204
00:10:04,000 --> 00:10:07,000
Dat hoeven helemaal geen non-profits of zo te zijn.

205
00:10:07,000 --> 00:10:09,000
Je hoeft geen stichting te zijn.

206
00:10:09,000 --> 00:10:12,000
Zolang het probleem maar naar iets goeds toe werkt.

207
00:10:12,000 --> 00:10:14,000
En je data hebt waarmee we aan de slag kunnen.

208
00:10:14,000 --> 00:10:18,000
Dus als je het kan koppelen aan die Sustainable Development Goals.

209
00:10:18,000 --> 00:10:19,000
Dan mag je ons bellen.

210
00:10:19,000 --> 00:10:21,000
O ja. Dat wordt goed.

211
00:10:21,000 --> 00:10:23,000
Wat ik me nog afvroeg.

212
00:10:23,000 --> 00:10:24,000
Er is ook een leertraject.

213
00:10:24,000 --> 00:10:28,000
Dus misschien allemaal nieuwe tooling die ook mensen eigen gaan maken.

214
00:10:28,000 --> 00:10:31,000
Hebben jullie een platform waarop jullie dat ontwikkelen?

215
00:10:31,000 --> 00:10:34,000
Is dat software die mensen zelf mee moeten nemen?

216
00:10:34,000 --> 00:10:35,000
Hoe werkt dat?

217
00:10:35,000 --> 00:10:37,000
Ja dat is een software die wij hebben.

218
00:10:37,000 --> 00:10:38,000
We hebben een eigen platform.

219
00:10:38,000 --> 00:10:41,000
Maar dat is met name om de challenge te organiseren.

220
00:10:41,000 --> 00:10:44,000
Er zitten organisatorische management functionaliteiten bij.

221
00:10:44,000 --> 00:10:46,000
En veel accreditatie functionaliteiten.

222
00:10:46,000 --> 00:10:49,000
Dus die dingen die echt bepalen welke skills jij hebt.

223
00:10:49,000 --> 00:10:50,000
En je daar dan ook voor accrediteert.

224
00:10:50,000 --> 00:10:51,000
En een profiel voor hebben.

225
00:10:51,000 --> 00:10:54,000
Daar zitten in principe geen AI ontwikkeltools in.

226
00:10:54,000 --> 00:10:56,000
En dat zou ook niet heel nuttig zijn.

227
00:10:56,000 --> 00:10:58,000
Want kijk uiteindelijk moet jij het gaan doen.

228
00:10:58,000 --> 00:11:00,000
Met dat het in de wereld leeft.

229
00:11:00,000 --> 00:11:03,000
Dus wij doen onze challenges ook technologisch agnostisch.

230
00:11:03,000 --> 00:11:06,000
Dat betekent dat eigenlijk dat open staat aan het begin van elke challenge.

231
00:11:06,000 --> 00:11:10,000
Kijk maar wat nu het beste is om dit probleem mee op te lossen.

232
00:11:10,000 --> 00:11:12,000
Nou kom je vaak al bij Python uit.

233
00:11:12,000 --> 00:11:14,000
PyTorch als deep learning framework.

234
00:11:14,000 --> 00:11:17,000
De YOLO familie voor object detectie.

235
00:11:17,000 --> 00:11:20,000
We zien natuurlijk wel daar een bepaalde standaard lijn in.

236
00:11:20,000 --> 00:11:22,000
Maar in principe staat dat open bij elke challenge.

237
00:11:22,000 --> 00:11:25,000
En zo doen we ook de compute infrastructuur.

238
00:11:25,000 --> 00:11:27,000
Soms moet je nogal behoorlijk rekenen.

239
00:11:27,000 --> 00:11:32,000
Daar hebben wij van HP wat on-premise hardware.

240
00:11:32,000 --> 00:11:35,000
Dus we hebben een eigen computer daarvoor.

241
00:11:35,000 --> 00:11:37,000
Waar een aantal GPU's in zitten.

242
00:11:37,000 --> 00:11:39,000
Die we daarvoor kunnen gebruiken.

243
00:11:39,000 --> 00:11:41,000
Maar we hebben ook een samenwerking met Snellius.

244
00:11:41,000 --> 00:11:43,000
De Nederlandse supercomputer.

245
00:11:43,000 --> 00:11:45,000
Waarbij we echt ook de A100's aan kunnen schakelen.

246
00:11:45,000 --> 00:11:47,000
Om hem binnen deze projecten te gebruiken.

247
00:11:47,000 --> 00:11:50,000
En zo hebben we ook partnerships met AWS, Google, IBM.

248
00:11:50,000 --> 00:11:54,000
Om ook in hun clouds aan te kunnen draaien.

249
00:11:54,000 --> 00:11:56,000
Dus we kijken eigenlijk per challenge.

250
00:11:56,000 --> 00:11:58,000
Hé wat gaan we nodig hebben hier?

251
00:11:58,000 --> 00:12:01,000
Welke order grote infrastructuur?

252
00:12:01,000 --> 00:12:04,000
En op die manier gebruiken we dat in de challenge.

253
00:12:04,000 --> 00:12:06,000
Het mooie is dat het ook echt open is.

254
00:12:06,000 --> 00:12:08,000
Vanuit zo'n bedrijf die dat aanbiedt.

255
00:12:08,000 --> 00:12:10,000
Die geven geen requirements.

256
00:12:10,000 --> 00:12:13,000
Het moet in deze taal op die platform draaien.

257
00:12:13,000 --> 00:12:15,000
Nee, nee.

258
00:12:15,000 --> 00:12:17,000
Het is wel eens gebeurd.

259
00:12:17,000 --> 00:12:18,000
Bijvoorbeeld bij het ziekenhuis.

260
00:12:18,000 --> 00:12:21,000
We doen ook veel challenges in de geneeskunde hoek.

261
00:12:21,000 --> 00:12:24,000
Dan heb je natuurlijk al veel vrij gevoelige data.

262
00:12:24,000 --> 00:12:28,000
En die data wil je het liefst niet uit hun infrastructuur halen.

263
00:12:28,000 --> 00:12:30,000
Dus als het ziekenhuis in Azure werkt.

264
00:12:30,000 --> 00:12:32,000
Dan betekent dat wij dan dus ook in Azure werken.

265
00:12:32,000 --> 00:12:33,000
Ja, precies.

266
00:12:33,000 --> 00:12:35,000
We werken wel eens met die limitaties.

267
00:12:35,000 --> 00:12:37,000
Maar over het algemeen is dat niet nodig.

268
00:12:37,000 --> 00:12:40,000
Nee, maar dat zijn dan eigenlijk meer wettelijke limitaties.

269
00:12:40,000 --> 00:12:41,000
Zou je kunnen zeggen.

270
00:12:41,000 --> 00:12:43,000
Dan technologische.

271
00:12:43,000 --> 00:12:44,000
Nee, zeker.

272
00:12:44,000 --> 00:12:46,000
Het doel is gewoon om de beste techniek uit te gebruiken.

273
00:12:46,000 --> 00:12:48,000
En vaker is dat natuurlijk open source.

274
00:12:48,000 --> 00:12:51,000
Zowel laat ons dat toe om ze voor een tal van doelen in te zetten.

275
00:12:51,000 --> 00:12:55,000
Maar dat zijn tegenwoordig ook gewoon de beste tools in dit gebied.

276
00:12:55,000 --> 00:12:57,000
Is er wel eens een opdracht geweest?

277
00:12:57,000 --> 00:12:58,000
Een challenge?

278
00:12:58,000 --> 00:13:00,000
Die langs gekomen is waarvan je dacht.

279
00:13:00,000 --> 00:13:03,000
Tien weken, dat kan niet.

280
00:13:03,000 --> 00:13:06,000
Ja, dat gebeurt wel eens.

281
00:13:06,000 --> 00:13:09,000
Wat we het meeste doen is knippen het op in meerdere challenges.

282
00:13:09,000 --> 00:13:12,000
Zo hebben we vandaag een nieuwe challenge gelanceerd.

283
00:13:12,000 --> 00:13:14,000
AI for Nepali Farmers.

284
00:13:14,000 --> 00:13:16,000
En wat we daar gaan doen.

285
00:13:16,000 --> 00:13:22,000
We hebben documenten die hun boeren beschrijven.

286
00:13:22,000 --> 00:13:24,000
En dat gaat dus over financiële documenten.

287
00:13:24,000 --> 00:13:27,000
Dus leningen die ze aangegaan zijn om bepaalde dingen te financieren.

288
00:13:27,000 --> 00:13:30,000
Maar ook informatie over de acties die ze gedaan hebben.

289
00:13:30,000 --> 00:13:32,000
Wanneer ze dingen geplant hebben.

290
00:13:32,000 --> 00:13:33,000
Wanneer ze ze geharvest hebben.

291
00:13:33,000 --> 00:13:34,000
En allemaal dat soort zaken.

292
00:13:34,000 --> 00:13:36,000
Dat doen ze daar allemaal op papier.

293
00:13:36,000 --> 00:13:42,000
En dat laat ze vervolgens niet toe om de digitale tooling te gebruiken.

294
00:13:42,000 --> 00:13:43,000
Die er tegenwoordig voor beschikbaar is.

295
00:13:43,000 --> 00:13:46,000
Maar ook financiering van extern te halen.

296
00:13:46,000 --> 00:13:49,000
Dat gaat niet als je in Nepalese geschreven documenten.

297
00:13:49,000 --> 00:13:52,000
Met een fotootje over WhatsApp zeg maar.

298
00:13:52,000 --> 00:13:55,000
Dus dat is wel wat er gebeurt nu.

299
00:13:55,000 --> 00:13:57,000
Dus om die voornamelijk vrouwen in dit geval.

300
00:13:57,000 --> 00:13:59,000
We doen dat samen met Hyperlabs.

301
00:13:59,000 --> 00:14:02,000
Dus het gaat over het algemeen over Women Run Farms.

302
00:14:02,000 --> 00:14:04,000
Zoals ze dat dan zelf noemen.

303
00:14:04,000 --> 00:14:07,000
Gaan we kijken of we die documenten eerst kunnen digitaliseren.

304
00:14:07,000 --> 00:14:09,000
En daarna kunnen structureren.

305
00:14:09,000 --> 00:14:11,000
En dat hebben we dus opgeknipt in twee challenges.

306
00:14:11,000 --> 00:14:13,000
Omdat we in de eerste gaan Nepali tackeln.

307
00:14:13,000 --> 00:14:15,000
Dat is een relatief obscure taal.

308
00:14:15,000 --> 00:14:18,000
Waar niet heel veel tooling voor bestaat.

309
00:14:18,000 --> 00:14:20,000
Om dat te kunnen vertalen al.

310
00:14:20,000 --> 00:14:22,000
Vertalen gaat nog wel.

311
00:14:22,000 --> 00:14:24,000
Zo moet je OCR doen.

312
00:14:24,000 --> 00:14:26,000
Optical Character Recognition.

313
00:14:26,000 --> 00:14:30,000
Je moet de taal kunnen lezen digitaal.

314
00:14:30,000 --> 00:14:32,000
Veel daarvan is ook handgeschreven.

315
00:14:32,000 --> 00:14:34,000
Dus dan moet je handgeschreven OCR doen.

316
00:14:34,000 --> 00:14:37,000
Op het Nepali schrift.

317
00:14:37,000 --> 00:14:39,000
Dat is een vrij grote uitdaging.

318
00:14:39,000 --> 00:14:43,000
Dus dat hebben we als eerste challenge gepakt.

319
00:14:43,000 --> 00:14:46,000
We gaan dus Nepali digitaliseren.

320
00:14:46,000 --> 00:14:48,000
Zowel handgeschreven en dan meteen vertalen.

321
00:14:48,000 --> 00:14:51,000
En de tweede stap is dan echt structuur uit die documenten trekken.

322
00:14:51,000 --> 00:14:54,000
Want als je alleen maar alle tekst uit zo'n document trekt.

323
00:14:54,000 --> 00:14:56,000
Dan heb je een hele lange lijst met woorden.

324
00:14:56,000 --> 00:14:58,000
Maar dan staat er nog geen informatie in.

325
00:14:58,000 --> 00:15:01,000
En in die tweede challenge zullen we dan ook veel meer met GenAI en dergelijke aan de slag.

326
00:15:01,000 --> 00:15:05,000
Kunnen we kijken of we die ook echt nuttige informatie uit de structuur kunnen halen.

327
00:15:05,000 --> 00:15:08,000
Zodat we die informatie ook direct kunnen digitaliseren.

328
00:15:08,000 --> 00:15:12,000
Het gaat dan over honderden dan niet duizenden verschillende boerderijen.

329
00:15:12,000 --> 00:15:15,000
Dus op die manier kunnen we dan ook die informatie aggregeren.

330
00:15:15,000 --> 00:15:18,000
En informatie geven over hoe goed ze bezig zijn in bepaalde gebieden.

331
00:15:18,000 --> 00:15:20,000
En daar dan ook voorspellingen en dergelijke mee kunnen doen.

332
00:15:20,000 --> 00:15:21,000
Mooi.

333
00:15:21,000 --> 00:15:22,000
Ja, wauw.

334
00:15:22,000 --> 00:15:25,000
Als ik dat alleen al hoor, dan denk ik van ja, iedereen heeft waarschijnlijk zijn eigen aanpak.

335
00:15:25,000 --> 00:15:27,000
Wat hij wel opschrijft, hoe hij het opschrijft.

336
00:15:27,000 --> 00:15:29,000
Wat hij vastlegt en wat hij anders vastlegt.

337
00:15:29,000 --> 00:15:31,000
Dus dat klinkt als een flinke challenge.

338
00:15:31,000 --> 00:15:33,000
Dus daarom hebben we hem opgesplitst in twee challenges.

339
00:15:33,000 --> 00:15:35,000
De data engineer in je.

340
00:15:35,000 --> 00:15:37,000
Ik zit al een beetje te knippen.

341
00:15:37,000 --> 00:15:39,000
Hoe gaat dat wel samen komen inderdaad.

342
00:15:39,000 --> 00:15:40,000
Maar dat is inderdaad een flinke challenge.

343
00:15:40,000 --> 00:15:43,000
Ook zelfs als je hem in tweeën knipt, heb je al een mooie flinke challenge te pakken.

344
00:15:43,000 --> 00:15:46,000
Ja, de reden dat ik het aangedurfd heb eigenlijk.

345
00:15:46,000 --> 00:15:50,000
Dat eerste deel, dat gaat ook heel nuttig los zijn.

346
00:15:50,000 --> 00:15:53,000
Je kunt op die manier dan, dat Nepalisch schrift vertaald wordt.

347
00:15:53,000 --> 00:15:55,000
Dat hoeft niet alleen maar voor deze use case gebruikt te worden.

348
00:15:55,000 --> 00:15:58,000
Dat tweede, daar zou ik vroeger van teruggedeisd zijn.

349
00:15:58,000 --> 00:16:00,000
Ik weet niet of dat dan...

350
00:16:00,000 --> 00:16:03,000
Kijk, als het heel gestructureerd is, die documenten, dan gaat het.

351
00:16:03,000 --> 00:16:06,000
Maar dat is het waarschijnlijk niet, laten we eerlijk zijn.

352
00:16:06,000 --> 00:16:12,000
Maar dat is dus wel wat, zeg maar, Vision Gen AI nu mogelijk maakt.

353
00:16:12,000 --> 00:16:16,000
Zodat ze die afbeelding en die structuur eruit kunnen extraheren.

354
00:16:16,000 --> 00:16:19,000
Ik heb dat al getest met een aantal proxy problemen.

355
00:16:19,000 --> 00:16:21,000
Dus dingen die erop lijken.

356
00:16:21,000 --> 00:16:23,000
En daar kun je best wel veel mee doen.

357
00:16:23,000 --> 00:16:27,000
Dus in dit geval hoop ik dat we dat zo ook voor elkaar kunnen krijgen.

358
00:16:27,000 --> 00:16:29,000
Ja, gaaf.

359
00:16:29,000 --> 00:16:32,000
Ik heb een heel ander type vraag.

360
00:16:32,000 --> 00:16:36,000
Want we zijn natuurlijk deze aflevering zo head on erin gegaan.

361
00:16:36,000 --> 00:16:42,000
De diepte in van, maar wat heeft jou daartoe bewogen?

362
00:16:42,000 --> 00:16:47,000
Had je eigenlijk altijd al een iets om voor good te doen?

363
00:16:47,000 --> 00:16:50,000
Met waar je nu mee bezig bent?

364
00:16:50,000 --> 00:16:55,000
Ja, ik ben altijd, diep van binnen ben ik gewoon een nerd.

365
00:16:55,000 --> 00:16:59,000
Dus we zijn al echt van vroeger uit al met computers bezig.

366
00:16:59,000 --> 00:17:03,000
En ooit dan die gedachte gehad van waarom kan een computer niet zelf...

367
00:17:03,000 --> 00:17:06,000
allemaal relaties doorregelen, dat moet toch kunnen?

368
00:17:06,000 --> 00:17:09,000
Maar toen een zeer beperkte begrip van hoe ingewikkeld dat kan zijn.

369
00:17:09,000 --> 00:17:12,000
Dan ben ik informatica mee gaan studeren.

370
00:17:12,000 --> 00:17:15,000
En het is vooral de educatiehoek waar ik altijd al een passie voor gehad heb.

371
00:17:15,000 --> 00:17:19,000
Dus waar ik ook op de universiteit heel veel betrokken ben geweest.

372
00:17:19,000 --> 00:17:24,000
Direct ook bij het oprichten van de eerste AI & Data Science opleidingen in Nederland.

373
00:17:24,000 --> 00:17:30,000
En mijn passie zit hem daarmee echt in de techniek en de educatiehoek.

374
00:17:30,000 --> 00:17:35,000
Wat is nou beter dan die passie combineren met daadwerkelijk impact maken in de wereld?

375
00:17:35,000 --> 00:17:39,000
Dat is waar ik eigenlijk mijn eigen niche gevonden heb.

376
00:17:39,000 --> 00:17:41,000
Geef je ook nog les?

377
00:17:41,000 --> 00:17:45,000
Ik begeleid wat lesprogramma's op de universiteit.

378
00:17:45,000 --> 00:17:49,000
Vanuit Fruitpunch doen we sowieso masterclasses, cursussen en dat soort dingen...

379
00:17:49,000 --> 00:17:51,000
om aan te vullen op de challenge.

380
00:17:51,000 --> 00:17:54,000
En dat verzorgen we ook voor de universiteiten.

381
00:17:54,000 --> 00:17:56,000
Leuk.

382
00:17:56,000 --> 00:18:00,000
We hebben nog een vraag van Aisha voor jou.

383
00:18:00,000 --> 00:18:08,000
Hartelijk welkom. Ik ben Aisha, de AI van deze podcast. Mag ik je een vraag stellen?

384
00:18:08,000 --> 00:18:10,000
Jazeker.

385
00:18:10,000 --> 00:18:20,000
Kun je een moment beschrijven waarop AI je een onverwacht resultaat gaf dat beter bleek te zijn dan het beoogde resultaat?

386
00:18:20,000 --> 00:18:26,000
Dat AI... Ik heb verschillende voorbeelden.

387
00:18:26,000 --> 00:18:31,000
Er zijn bepaalde technieken waarvan ik dacht dat dit toch wel was.

388
00:18:31,000 --> 00:18:34,000
Andersom, dat je dacht dat dit wel gaat worden.

389
00:18:34,000 --> 00:18:36,000
Dat laatste.

390
00:18:36,000 --> 00:18:39,000
Dat is allebei. Maar dat AI...

391
00:18:39,000 --> 00:18:49,000
Ik heb in de vorige podcast verteld over een challenge waarbij we informatie extra heerden uit facturen.

392
00:18:49,000 --> 00:18:52,000
En op die manier de carbon impact inschatting deden.

393
00:18:52,000 --> 00:18:58,000
Wat mij daar uiteindelijk verrast was de eerste keer dat we op schaal op deze manier large language models inzetten.

394
00:18:58,000 --> 00:19:03,000
Hoe goed en gestructureerd die antwoord kunnen geven.

395
00:19:03,000 --> 00:19:10,000
Dus niet alleen maar een vrij fluffy antwoord wat je in eerste instantie verwacht van zo'n probabilistisch model, zo'n large language model.

396
00:19:10,000 --> 00:19:13,000
Van ongeveer is het in de richting waar je moet zijn.

397
00:19:13,000 --> 00:19:15,000
Want in de natuurlijke taal werkt dat zo.

398
00:19:15,000 --> 00:19:17,000
Ongeveer is goed genoeg voor een beschrijving.

399
00:19:17,000 --> 00:19:20,000
Maar als je hem vraagt om exacte JSON uit te poeten.

400
00:19:20,000 --> 00:19:23,000
En dan gewoon precies van oké ik wil op deze regel dit hebben.

401
00:19:23,000 --> 00:19:24,000
En ik wil het zo gestructureerd hebben.

402
00:19:24,000 --> 00:19:26,000
En je mag maximaal zoveel woorden gebruiken.

403
00:19:26,000 --> 00:19:28,000
Mag het lang, mag het kort, mag het Engels, mag het Spaans.

404
00:19:28,000 --> 00:19:31,000
Dat dat gewoon allemaal zo gestructureerd perfect werkte.

405
00:19:31,000 --> 00:19:34,000
Dat je dat met duizenden samples kan doen.

406
00:19:34,000 --> 00:19:36,000
En vervolgens dat in één keer in kan laden in een database.

407
00:19:36,000 --> 00:19:38,000
Zonder dat daar één foutje tussen zit.

408
00:19:38,000 --> 00:19:43,000
Ik was daar de eerste keer wel door verrast dat dat zo goed werkte met large language models.

409
00:19:43,000 --> 00:19:44,000
Ja, waanzinnig hè.

410
00:19:44,000 --> 00:19:48,000
Ja, juist ook met het begrip van hoe zo'n model eigenlijk werkt onderin.

411
00:19:48,000 --> 00:19:53,000
Dacht ik juist wat nou dit is precies wat die modellen eigenlijk niet zo goed in zouden moeten zijn.

412
00:19:53,000 --> 00:19:54,000
Want die werken dan perfect.

413
00:19:54,000 --> 00:19:56,000
Dus dat verrast hem wel heel erg.

414
00:19:56,000 --> 00:20:00,000
Ja, wat ik nu ook fijn vind is als je, nou gaan we echt nerd talken.

415
00:20:00,000 --> 00:20:03,000
Als je de API aanspreekt dat je tegenwoordig gewoon kan zeggen.

416
00:20:03,000 --> 00:20:05,000
Dat je gewoon onze optie mee kan geven.

417
00:20:05,000 --> 00:20:07,000
Ik wil alleen maar JSON outputen.

418
00:20:07,000 --> 00:20:08,000
Ja, geweldig.

419
00:20:08,000 --> 00:20:09,000
Ja, heel vet.

420
00:20:09,000 --> 00:20:14,000
En dat was ook wel toen meemakende hoe de large language models groeiden.

421
00:20:14,000 --> 00:20:17,000
Zijn de mensen van ja, programmeren daar zijn ze juist goed in.

422
00:20:17,000 --> 00:20:18,000
Want het is een computer.

423
00:20:18,000 --> 00:20:20,000
Ik vond dat eigenlijk precies niet hoe ze werken zelf.

424
00:20:20,000 --> 00:20:24,000
Wat hij probeert te doen is ongeveer het goede te zeggen.

425
00:20:24,000 --> 00:20:29,000
Dus de kans is best wel groot dat je een foutje maakt in een haakje te veel of te weinig.

426
00:20:29,000 --> 00:20:30,000
En dan heb je een computer crash dan.

427
00:20:30,000 --> 00:20:32,000
Zoals elke programmeur weet.

428
00:20:32,000 --> 00:20:34,000
Dus ik dacht juist dit gaat juist het moeilijkste zijn om te tackelen.

429
00:20:34,000 --> 00:20:37,000
Volgens mij twee, drie maanden later of zo.

430
00:20:37,000 --> 00:20:39,000
Ik wil niet zeggen dat het perfect werkt.

431
00:20:39,000 --> 00:20:40,000
Maar hij werkte dat aardig.

432
00:20:40,000 --> 00:20:41,000
Dus dan was ik ook wel door verrast.

433
00:20:41,000 --> 00:20:42,000
Ja.

434
00:20:42,000 --> 00:20:46,000
Je gedetailleerde reactie heeft veel helderheid gebracht.

435
00:20:46,000 --> 00:20:47,000
Bedankt.

436
00:20:47,000 --> 00:20:48,000
Heel graag gedaan.

437
00:20:48,000 --> 00:20:49,000
En je noemde ook nog de andersom.

438
00:20:49,000 --> 00:20:51,000
Want andersom is minstens net zo leuk.

439
00:20:51,000 --> 00:20:52,000
Die herkennen wij ook.

440
00:20:52,000 --> 00:20:55,000
Dat je denkt van ja, maar met de huidige stand van de techniek.

441
00:20:55,000 --> 00:20:56,000
Appeltje, eitje.

442
00:20:56,000 --> 00:21:00,000
En dan blaast het op in je gezicht zeg maar.

443
00:21:00,000 --> 00:21:01,000
Ja.

444
00:21:01,000 --> 00:21:02,000
Heb je daar een voorbeeld van?

445
00:21:02,000 --> 00:21:04,000
Ja, een leuk voorbeeld dat we daar wel mee hadden.

446
00:21:04,000 --> 00:21:10,000
We hebben samen gewerkt met een Franse organisatie die met overspoelende rivieren met name werkte.

447
00:21:10,000 --> 00:21:12,000
In Nederland zien we dat probleem ook.

448
00:21:12,000 --> 00:21:18,000
En dat is in de langere, vooral langere rivieren die Frankrijk heeft, ook al een zeer groot probleem.

449
00:21:18,000 --> 00:21:24,000
En wat deze club deed is, die had al sensoren hangen door de hele lengte van die rivieren.

450
00:21:24,000 --> 00:21:29,000
En ons doel was voorspellen welke hoogte de rivieren op een bepaald punt hadden.

451
00:21:29,000 --> 00:21:32,000
Dus wat daarmee uiteindelijk natuurlijk het doel is, dat jij een paar uur van tevoren kan zeggen.

452
00:21:32,000 --> 00:21:36,000
Hé, daar gaat dadelijk de rivier zijn oevers uit, omdat we weten dat de oevers zo hoog is.

453
00:21:36,000 --> 00:21:39,000
En dan moeten mensen geëvacueerd worden of zandzakken neergelegd worden.

454
00:21:39,000 --> 00:21:43,000
En hoe eerder je dat weet, hoe meer je kan doen om de schade te voorkomen.

455
00:21:43,000 --> 00:21:53,000
En daar ga je als nerd meteen denken, oh ja, dat gaan we, deep reinforcement learning, recurrent neural networks, transformers, dat gooien we allemaal tegenaan.

456
00:21:53,000 --> 00:21:56,000
En dat werkte allemaal.

457
00:21:56,000 --> 00:21:58,000
Nou, bijna niet.

458
00:21:59,000 --> 00:22:03,000
En vervolgens hebben we Facebook Profit gebruikt.

459
00:22:03,000 --> 00:22:08,000
Dat is een model dat eigenlijk gebaseerd is op klassieke statistische methoden als moving average.

460
00:22:08,000 --> 00:22:15,000
En dat is eigenlijk niet meer dan gewoon kijken, ik heb twee punten en drie, vier, vijf, zes punten.

461
00:22:15,000 --> 00:22:17,000
En dan ga ik daar een soort van lineaire lijn doorheen trekken.

462
00:22:17,000 --> 00:22:21,000
En dan doe ik nog wat slimme trucjes om daar seasonality en zo in te verwerken.

463
00:22:21,000 --> 00:22:24,000
Maar goed, niet veel ingewikkelder dan dat.

464
00:22:24,000 --> 00:22:27,000
En dit is een wederom een beetje getweakte variant daarvan.

465
00:22:27,000 --> 00:22:29,000
En dat werkte echt uitstekend.

466
00:22:29,000 --> 00:22:32,000
We konden zes uur van tevoren voorspellen hoe hoog het water ging zijn.

467
00:22:32,000 --> 00:22:36,000
En dat is echt een significante groei van hoe ze dat nu ook met experts kunnen.

468
00:22:36,000 --> 00:22:44,000
Bij ons ook, gaat Rijkswaterstaat iemand daar naar de rivier staan staren en dan kijken van, nou, ik denk dat het straks zo laat is.

469
00:22:44,000 --> 00:22:47,000
Ja, dat werkt niet helemaal altijd.

470
00:22:47,000 --> 00:22:51,000
En dat konden we dus met zes uur van tevoren voorspellen.

471
00:22:51,000 --> 00:22:55,000
Met die klassieke, echt klassieke forecasting technologie.

472
00:22:55,000 --> 00:22:58,000
Want je hebt het over die overstromingen.

473
00:22:58,000 --> 00:23:02,000
Die hebben we natuurlijk nu ook weer, tenminste, ja, het was...

474
00:23:02,000 --> 00:23:03,000
De schade was beperkt.

475
00:23:03,000 --> 00:23:05,000
Was beperkt, maar je las inderdaad overal.

476
00:23:05,000 --> 00:23:08,000
De ene die zei van, nee, het wordt 14,5 meter.

477
00:23:08,000 --> 00:23:10,000
Die anderen zei, nee, het wordt wel 16 meter.

478
00:23:10,000 --> 00:23:13,000
Maar het is allemaal zo uit de duim getrokken.

479
00:23:13,000 --> 00:23:16,000
En ja, als je dat met zo'n model kan doen, geweldig.

480
00:23:16,000 --> 00:23:22,000
Hoe ben je tot die stap gekomen om eigenlijk weer die andere, versimpele aanpak te gaan hanteren?

481
00:23:22,000 --> 00:23:25,000
Ik zal heel eerlijk gezegd, ik zeg wel dat we dit niet zagen aankomen,

482
00:23:25,000 --> 00:23:27,000
maar ik persoonlijk zag het wel aankomen.

483
00:23:27,000 --> 00:23:31,000
Ik had het al vaker met forecasting problematiek ook voor bedrijven gewerkt in mijn vorige baan.

484
00:23:31,000 --> 00:23:34,000
En daar was ik al tegen ditzelfde aangelopen.

485
00:23:34,000 --> 00:23:36,000
Van, hé, ja, we gaan deep learning doen.

486
00:23:36,000 --> 00:23:38,000
En toen ben ik, nou, daar ben ik eigenlijk toch voor gemeten.

487
00:23:38,000 --> 00:23:40,000
Dus ik zei al van vroeg punt tegen de deelnemers van,

488
00:23:40,000 --> 00:23:43,000
nou, je moet echt niet vergeten om die klassieke technologie ook te gebruiken.

489
00:23:43,000 --> 00:23:45,000
En dan vergeten ze in het begin dan natuurlijk toch.

490
00:23:45,000 --> 00:23:49,000
Maar dat is toevallig omdat ik er zelf zo'n keer eerder tegen aangelopen was,

491
00:23:49,000 --> 00:23:52,000
dat ik ze in de goede richting kon sturen.

492
00:23:52,000 --> 00:23:55,000
En dat dat inderdaad bleek ook hier weer het beste te werken.

493
00:23:55,000 --> 00:23:59,000
Soms is de simpelste oplossing toch het simpelste en het beste.

494
00:23:59,000 --> 00:24:04,000
Het beste, het goedkoopste, het makkelijkste, het beste onderhouden.

495
00:24:04,000 --> 00:24:07,000
Dus AI is niet de oplossing voor alles.

496
00:24:07,000 --> 00:24:09,000
Nee, zeker niet.

497
00:24:09,000 --> 00:24:10,000
Nee, dat wordt wel vergeten.

498
00:24:10,000 --> 00:24:14,000
Zeker in de tijd nu met de generatieve AI, de large language models.

499
00:24:14,000 --> 00:24:16,000
Dat wordt gedacht, daar kan je nu alles mee.

500
00:24:16,000 --> 00:24:18,000
Dus de magie.

501
00:24:18,000 --> 00:24:21,000
Ja, mensen dachten dat al bij AI.

502
00:24:21,000 --> 00:24:25,000
Heel vaak mensen uit het hoofd praten van, ja, sorry, dat gaat echt niet meer.

503
00:24:25,000 --> 00:24:28,000
Maar ja, dat wordt eigenlijk alleen maar erger eigenlijk.

504
00:24:28,000 --> 00:24:32,000
Per nieuwe AI hype krijg je weer een nieuwe golf van mensen die denken dat het magie is.

505
00:24:32,000 --> 00:24:38,000
Ja, misschien is dat nog een leuke afsluiter, als we het dan toch hebben over de hype.

506
00:24:38,000 --> 00:24:41,000
Zo direct is de hype weg van die large language models.

507
00:24:41,000 --> 00:24:42,000
Wat houden we dan over?

508
00:24:42,000 --> 00:24:47,000
Ja, ik denk, kijk, het is een beetje mijn eigen lees natuurlijk.

509
00:24:47,000 --> 00:24:52,000
Ik heb dat altijd met de crypto en zo gehad, dacht van ja, dat is leuk en aardig,

510
00:24:52,000 --> 00:24:57,000
maar dat is voor hele specifieke doeleinden heel nuttig en niet dat hele Web 3, iedereen gaat erop.

511
00:24:57,000 --> 00:24:59,000
Dat geloof ik daar niks van.

512
00:24:59,000 --> 00:25:05,000
Hierbij, ik was zelf wel bijzonder impressed met de eerste varianten al, die echt tekst konden schrijven en zo.

513
00:25:05,000 --> 00:25:11,000
Dus ik denk dat eigenlijk in heel veel van onze applicaties dit toch wel terecht gaat komen.

514
00:25:11,000 --> 00:25:16,000
En bij verschillende mensen gaat dat niet de AI zijn die je zelf als bedrijf moet gaan bouwen,

515
00:25:16,000 --> 00:25:18,000
want dat is in de meeste gevallen niet nuttig.

516
00:25:18,000 --> 00:25:24,000
Je ziet nu ook heel veel van die startups ontstaan die eigenlijk gewoon prompt engineering bovenop open AI doen

517
00:25:24,000 --> 00:25:26,000
en daar een leuke UI op heen plakken.

518
00:25:26,000 --> 00:25:29,000
Dat gaat het ook niet zijn, die gaan het ook niet redden.

519
00:25:29,000 --> 00:25:34,000
Maar uiteindelijk gaan wel zoveel systemen echt goed gekoppeld worden.

520
00:25:34,000 --> 00:25:38,000
Dus denk aan je bestaande boekhoudingssysteem of je bestaande mailclient,

521
00:25:38,000 --> 00:25:41,000
dat die op een goede manier aan zo'n model gekoppeld kunnen worden,

522
00:25:41,000 --> 00:25:43,000
dat die daadwerkelijk heel veel van je werk gaan automatiseren.

523
00:25:43,000 --> 00:25:48,000
En dan zie je met name dat ik denk dat dingen als bijvoorbeeld advocatuur,

524
00:25:48,000 --> 00:25:52,000
kijk ik deed stiekem zelf al wel eens wat van onze legal spullen,

525
00:25:52,000 --> 00:25:54,000
dat ik dacht van ja zo ingewikkeld is het eigenlijk niet.

526
00:25:54,000 --> 00:25:57,000
Die advocaten doen allemaal alsof het heel ingewikkeld is.

527
00:25:57,000 --> 00:25:59,000
En of het heel belangrijk is dat je perfect opschrijft,

528
00:25:59,000 --> 00:26:01,000
maar volgens Nederlandse wetgeving valt dat wel nee.

529
00:26:01,000 --> 00:26:05,000
En dus de intentie is heel belangrijk, dus dat je het opschrijft komt eigenlijk niet zo heel nauw.

530
00:26:05,000 --> 00:26:09,000
Maar ja tegenwoordig kan ik gewoon vragen aan ChatGPT,

531
00:26:09,000 --> 00:26:14,000
hey ik wil een data sharing agreement met deze partij, dit vinden ze belangrijk,

532
00:26:14,000 --> 00:26:16,000
doe mij een data sharing agreement.

533
00:26:16,000 --> 00:26:19,000
En dan staat dan niet alleen maar die paar punten die ik aangegeven heb,

534
00:26:19,000 --> 00:26:21,000
die relevant zijn in legal speak in,

535
00:26:21,000 --> 00:26:24,000
maar er staan ook al die dingen eromheen die erin moeten staan,

536
00:26:24,000 --> 00:26:29,000
van hoort bij de rechtbank in Den Haag en partij x wonende op adres i.

537
00:26:29,000 --> 00:26:33,000
Al dat soort fluffiness eromheen die wel echt moet,

538
00:26:33,000 --> 00:26:36,000
en je anders een advocaat voor betaalt omdat die uit zijn hoofd weet dat dat moet,

539
00:26:36,000 --> 00:26:38,000
dat doet nou ChatGPT ook.

540
00:26:38,000 --> 00:26:42,000
En ik denk dat vooral dat soort banen echt geautomatiseerd gaan worden

541
00:26:42,000 --> 00:26:45,000
voor een belangrijk deel door AI.

542
00:26:45,000 --> 00:26:47,000
En die beweging zie je ook al.

543
00:26:47,000 --> 00:26:49,000
Die zie je zeker, die zie je zeker.

544
00:26:49,000 --> 00:26:56,000
Even terug naar Fruit Punch, mensen zitten te luisteren, wat moeten ze gaan doen?

545
00:26:56,000 --> 00:27:00,000
Nou allereerst vind ons op LinkedIn, volg ons,

546
00:27:00,000 --> 00:27:04,000
en dan ga je elke challenge die wij doen meemaken.

547
00:27:04,000 --> 00:27:06,000
Dus we gaan dan niet alleen posten, hey deze challenge komt eraan,

548
00:27:06,000 --> 00:27:09,000
maar ook zo gaat het ermee, hier heb je de final presentatie en hier de blog.

549
00:27:09,000 --> 00:27:14,000
En op die manier kun je de mooie initiatieven meekrijgen waar wij ons mee bezighouden.

550
00:27:14,000 --> 00:27:18,000
Denk je nou van na deze podcast, hey ik wil ook meedoen aan zo'n project,

551
00:27:18,000 --> 00:27:21,000
ik wil leren over AI en ik doe dat het liefst in de praktijk.

552
00:27:21,000 --> 00:27:26,000
Ga naar onze website, daar kun je meer lezen over de verschillende manieren hoe je dat bij ons kan doen.

553
00:27:26,000 --> 00:27:29,000
En dan nodig je van harte uit om dat ook met je baas te bespreken.

554
00:27:29,000 --> 00:27:32,000
Uiteindelijk heeft die de profit van als jij meer leert over AI.

555
00:27:32,000 --> 00:27:35,000
Dus de meeste mensen die dit bij ons doen, wordt het van het self-development budget betaald.

556
00:27:35,000 --> 00:27:42,000
Dus op die manier nodigen we iedereen uit om met ons mee te doen en onderdeel te worden van onze AI for Good community.

557
00:27:42,000 --> 00:27:44,000
Duidelijk. Zeker.

558
00:27:44,000 --> 00:27:48,000
Sako, dankjewel dat je onze gast wilde zijn. Ontzettend interessant.

559
00:27:48,000 --> 00:27:53,000
Ook alles wat erachter zit, vooral de challenges, spreken me erg aan.

560
00:27:53,000 --> 00:27:58,000
Dus ja, ik zou zeggen haast je toch? Haast je om je op te geven.

561
00:27:58,000 --> 00:28:00,000
Dankjewel weer voor het luisteren.

562
00:28:00,000 --> 00:28:06,000
Wil je ons steunen? Vergeet dan niet om bijvoorbeeld eens vijf sterren te geven op Spotify.

563
00:28:06,000 --> 00:28:08,000
En tot de volgende keer.

564
00:28:08,000 --> 00:28:10,000
Tot de volgende keer.

565
00:28:10,000 --> 00:28:12,000