AIToday Live

S06E11 - Baloe of Berry? Challenges for Good

Aigency by Info Support Season 6 Episode 11

In deze aflevering van AIToday Live staat Sako Arts, CTO bij Fruitpunch AI, centraal. Arts deelt zijn expertise over AI for Good.

Dit initiatief richt zich op het aanpakken van grote maatschappelijke uitdagingen met  kunstmatige intelligentie, in lijn met de duurzaamheid doelstellingen van de Verenigde Naties. Een specifiek voorbeeld dat naar voren komt, is het inzetten van AI voor de bescherming van wilde dieren in Zuid-Afrika, waar technologie en ecologie hand in hand gaan.

Het gesprek biedt naast praktijkcases ook inzicht in de uitdagingen en mogelijke oplossingen binnen de wereld van AI for Good, waarmee het luisteraars meeneemt in de impactvolle reis van technologische innovatie naar maatschappelijk nut. 


Links

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:05,800
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van de AIToday Live.

2
00:00:05,800 --> 00:00:10,920
Dit keer vanaf locatie Eindhoven. Hartstikke leuk om dat ook weer eens te doen.

3
00:00:10,920 --> 00:00:14,440
Mijn naam Joop Snijder, CTO bij Aigency. Mijn naam Niels Naglé,

4
00:00:14,440 --> 00:00:19,520
chapter lead, data AI bij Info Support. En we hebben vandaag de gast Sako Arts.

5
00:00:19,520 --> 00:00:25,400
Sako, zou je je kunnen voorstellen aan de luisteraars?

6
00:00:25,400 --> 00:00:32,480
Ja natuurlijk, aangenaam. Iedereen die luistert, Sako Arts, ik ben de CTO van Fruitpunch AI.

7
00:00:32,480 --> 00:00:35,600
En wij bouwen samen de wereldwijde AI for Good community.

8
00:00:35,600 --> 00:00:38,680
Ja, en wat is dat? AI for Good?

9
00:00:38,680 --> 00:00:42,680
Nou, AI for Good definiëren wij zelf door de projecten die wij doen,

10
00:00:42,680 --> 00:00:46,840
daarvan de doelen te koppelen aan een van de Sustainable Development Goals van de United Nations.

11
00:00:46,840 --> 00:00:49,080
Dus dit is hoe we die koppeling ook echt formeel proberen te maken.

12
00:00:49,080 --> 00:00:54,120
Oké, mooi. En hoe gaat dat in zijn werking?

13
00:00:54,120 --> 00:00:58,520
Ja, nou dus, zoals ik al zei, wij zijn een AI for Good community,

14
00:00:58,520 --> 00:01:02,160
maar onze hoofddoelen zijn het educeren en toepassen van AI for Good.

15
00:01:02,160 --> 00:01:05,200
En ons mechanisme om dat te doen zijn onze AI for Good challenges.

16
00:01:05,200 --> 00:01:11,040
Dus wat we daar doen, we gaan op zoek naar organisaties wereldwijd die een dataset en een probleem hebben,

17
00:01:11,040 --> 00:01:16,400
waarvan dus die doelen van dat probleem oplossen, alignen met de Sustainable Development Goals.

18
00:01:16,400 --> 00:01:16,880
Oh, mooi.

19
00:01:16,880 --> 00:01:21,240
Ja, wanneer we dat dus geïdentificeerd hebben, dan maken we daar een AI for Good challenge van,

20
00:01:21,240 --> 00:01:25,080
en dan halen wij mensen uit onze community, die crowdsourcen we, zoals je dat noemt,

21
00:01:25,080 --> 00:01:28,080
om samen in tien weken dat project op te lossen.

22
00:01:28,080 --> 00:01:32,520
Dus op die manier kunnen we zowel voor zo'n organisatie echt een probleem oplossen met AI,

23
00:01:32,520 --> 00:01:36,240
maar aan de andere kant kunnen we ook mensen leren over hoe je AI in de praktijk toepast.

24
00:01:36,240 --> 00:01:41,440
Want zoals jullie allebei als engineers weten, de enige manier om technische dingen echt onder de smiezen te krijgen,

25
00:01:41,440 --> 00:01:43,680
is door ze in het echt te doen, en dat faciliteren wij.

26
00:01:43,680 --> 00:01:47,400
Ah, oké. En waarom die tien weken? Sorry, ik heb het vandaag echt niet.

27
00:01:47,400 --> 00:01:48,400
Is daar reis?

28
00:01:48,400 --> 00:01:50,400
Ja, tien weken.

29
00:01:50,400 --> 00:01:53,520
Ja, dat is eigenlijk een geoptimaliseerde hoeveelheid tijd.

30
00:01:53,520 --> 00:01:57,600
We doen het nu sinds 2020, dus we doen het wel meer dan drie jaar.

31
00:01:57,600 --> 00:02:00,200
En we hebben geëxperimenteerd met kortere tijden.

32
00:02:00,200 --> 00:02:04,880
Mensen besteden hier ongeveer acht uur per week aan, dus je doet het typisch naast je werk bijvoorbeeld.

33
00:02:04,880 --> 00:02:09,800
En dan hebben we echt gekeken, oké, hoe kunnen we nou daadwerkelijk output krijgen?

34
00:02:09,800 --> 00:02:13,160
Want het concept dat veel mensen wel kennen is de hackathon, weet je wel.

35
00:02:13,160 --> 00:02:15,560
Dan zit je één dag, soms twee, drie dagen.

36
00:02:15,560 --> 00:02:17,640
Maar daar bereik je eigenlijk nooit echt iets in.

37
00:02:17,640 --> 00:02:20,640
Want je bent aan het spelen met een bepaalde technologie,

38
00:02:20,640 --> 00:02:23,520
maar een implementatie die iemand kan gebruiken, komt daar nooit uit.

39
00:02:23,520 --> 00:02:25,520
En hoe groot is zo'n team dan?

40
00:02:25,520 --> 00:02:30,920
Dus het totale team, we crowdsourcen ze 30 tot 50 man.

41
00:02:30,920 --> 00:02:32,120
Oh, dat is een flink groepsvergelijking.

42
00:02:32,120 --> 00:02:35,640
Ja, dus we proberen echt heel veel verschillende perspectieven daarbij mekaar te halen,

43
00:02:35,640 --> 00:02:37,840
maar we delen ze uiteraard wel op in kleinere subteams.

44
00:02:37,840 --> 00:02:41,640
Want één groot team van 50 man, dat is niet echt managebaar.

45
00:02:41,640 --> 00:02:45,640
En zo delen we ze op in kleinere subteams, en die laten we dan dat probleem eigenlijk tackelen.

46
00:02:45,640 --> 00:02:50,120
Kun je één voorbeeld geven van zo'n afgeronde challenge?

47
00:02:50,120 --> 00:02:53,120
Zeker, ja. Mijn favoriet is juist voor wild life.

48
00:02:53,120 --> 00:02:56,120
Dat heeft ook mee te maken dat ik langs ben geweest in Zuid-Afrika,

49
00:02:56,120 --> 00:02:59,120
bij de rangers om dit project te bekijken.

50
00:02:59,120 --> 00:03:02,640
Maar wat we daar doen, ze hadden daar een fixed wing drone,

51
00:03:02,640 --> 00:03:05,640
die over de wild life reservaten van Zuid-Afrika vliegt.

52
00:03:05,640 --> 00:03:09,120
Dan hebben we dus niet over zo'n quadcopter met vier van die rotoren,

53
00:03:09,120 --> 00:03:10,640
maar echt een klein vliegtuigje.

54
00:03:10,640 --> 00:03:13,640
En de reden daarvoor is omdat die 's nachts vliegt en heel stil moet zijn,

55
00:03:13,640 --> 00:03:16,640
het doel van het vliegtuig is het detecteren van pootjes.

56
00:03:16,640 --> 00:03:18,640
Wat ze daar voorheen deden... -Stropers, denk ik hè?

57
00:03:18,640 --> 00:03:20,640
Stropers, sorry.

58
00:03:20,640 --> 00:03:24,640
En soms wil ik even live vertalen, want meestal vertel ik het verhaal aan het Engels.

59
00:03:24,640 --> 00:03:26,640
Maar inderdaad, naast stropers.

60
00:03:26,640 --> 00:03:30,640
Maar wat er dan gebeurde, dan waren die mensen van die rangers,

61
00:03:30,640 --> 00:03:34,640
die zaten in zo'n cabine eigenlijk, een mobiele cabine.

62
00:03:34,640 --> 00:03:37,640
En die zaten de hele nacht naar een zwart-wit beeld te staren.

63
00:03:37,640 --> 00:03:42,640
Een infrarood beeld dat die drone direct live terugstreamt naar dat studiootje.

64
00:03:42,640 --> 00:03:45,640
En het probleem daarmee is, dat je heel veel human error krijgt.

65
00:03:45,640 --> 00:03:48,640
Als jij de hele nacht naar een zwart-wit beeld staat te staren,

66
00:03:48,640 --> 00:03:50,640
dan hou je op met opletten.

67
00:03:50,640 --> 00:03:54,640
Dan komt er ook nog bij kijken dat dat vliegtuig zo langzaam mogelijk vliegt.

68
00:03:54,640 --> 00:03:57,640
Maar ja, dat is nog steeds 40 km/u.

69
00:03:57,640 --> 00:04:01,640
Dus je vliegt nog steeds vrij snel over een potentieel interessante target heen.

70
00:04:01,640 --> 00:04:05,640
Dat waren dus significante problemen, waardoor het ook niet schaalbaar was.

71
00:04:05,640 --> 00:04:07,640
En dat is waar we, in het moment dat wij ingestapt zijn,

72
00:04:07,640 --> 00:04:10,640
aan het zeggen, kunnen wij dit automatiseren met AI?

73
00:04:10,640 --> 00:04:14,640
Kunnen wij een AI bouwen die automatisch mensen detecteert op die infrarood beelden?

74
00:04:14,640 --> 00:04:19,640
En met de huidige staat van technologie is dat nog een stuk makkelijker dan dat het toen was.

75
00:04:19,640 --> 00:04:22,640
Maar ook toen was dat wel aardig te doen.

76
00:04:22,640 --> 00:04:26,640
Object detection is hoe je dat in het veld van AI veelal noemt.

77
00:04:26,640 --> 00:04:28,640
Dus het is vrij makkelijk om daar mensen mee te detecteren.

78
00:04:28,640 --> 00:04:31,640
Maar de leuke extra uitdaging is, dat moest draaien op die drone.

79
00:04:31,640 --> 00:04:38,640
Want zo'n drone die heeft geen cellular connection, die heeft geen 4G, geen 5G.

80
00:04:38,640 --> 00:04:40,640
Dat zit ook helemaal niet in die wild life reservaten.

81
00:04:40,640 --> 00:04:42,640
Dus ze kunnen alleen maar terugpraten met die cabine.

82
00:04:42,640 --> 00:04:45,640
Dus we moeten op een of andere manier een signaal terug naar de grond krijgen,

83
00:04:45,640 --> 00:04:48,640
in het moment dat er zo'n stroper gedetecteerd wordt.

84
00:04:48,640 --> 00:04:52,640
Dus het moest echt draaien op, in dit geval hebben we Jetson Nano,

85
00:04:52,640 --> 00:04:56,640
een platform van NVIDIA, echt op de drone geïnstalleerd.

86
00:04:56,640 --> 00:05:01,640
En zorgen dat er eigenlijk een mini-GPU aanwezig was om die AI live op te draaien.

87
00:05:01,640 --> 00:05:08,640
Zaaf, dus je had eigenlijk een mini-computertje onder de drone hangen, die het zware werk deed.

88
00:05:08,640 --> 00:05:09,640
Ja, die echt het zware werk deed.

89
00:05:09,640 --> 00:05:12,640
En toen kwamen we er ook nog achter dat dat mini-computertje,

90
00:05:12,640 --> 00:05:15,640
daar zat toch echt wel een vrij heftige proces nog in.

91
00:05:15,640 --> 00:05:18,640
En dat betekende dat als we dat model constant draaiden,

92
00:05:18,640 --> 00:05:21,640
dan was de range van hoever het vliegtuig kon vliegen,

93
00:05:21,640 --> 00:05:27,640
dat was ongeveer vier uur voordat wij dit ding erin schroefden,

94
00:05:27,640 --> 00:05:29,640
maar dat werd toen ineens anderhalf uur.

95
00:05:29,640 --> 00:05:31,640
Zo veel meer stroom gebruikte dit.

96
00:05:31,640 --> 00:05:34,640
En toen kwamen we dus, liepen we eigenlijk tegen het volgende probleem aan.

97
00:05:34,640 --> 00:05:36,640
Dat kan eigenlijk niet, weet je wel.

98
00:05:36,640 --> 00:05:41,640
Het ging van zes naar twee, maar er kon nog een batterij bij.

99
00:05:41,640 --> 00:05:46,640
Uiteindelijk moesten we toch echt nog wel zorgen dat we veel minder stroom gingen gebruiken.

100
00:05:46,640 --> 00:05:49,640
En toen hebben we een nog veel kleiner AI-model gebouwd,

101
00:05:49,640 --> 00:05:54,640
dat niet detecteert of er een mens is, maar detecteert of er iets interessants in het beeld is.

102
00:05:54,640 --> 00:05:57,640
En alleen maar op het moment dat dat hele kleine stroombesparende netwerk,

103
00:05:57,640 --> 00:06:01,640
je zou je eigenlijk kunnen zeggen, detecteert van hier is iets interessants,

104
00:06:01,640 --> 00:06:04,640
dan pas schakelde je dat zware model in die je mensen kan detecteren.

105
00:06:04,640 --> 00:06:07,640
En zo hebben we dus eigenlijk een twee-traps AI-model gebouwd,

106
00:06:07,640 --> 00:06:11,640
dat zowel stroom-efficiënt is, en echt op die drone zelf kan draaien.

107
00:06:11,640 --> 00:06:13,640
Dus dat is wel een van mijn favoriete projecten.

108
00:06:13,640 --> 00:06:18,640
- Moest er dan ook gelijk een signaal zodat de mensen op af konden?

109
00:06:18,640 --> 00:06:22,640
Omdat die mensen eerst live zaten te kijken, en als er wat was, dat ze gingen bellen of zo.

110
00:06:22,640 --> 00:06:24,640
Hoe werkte dat? Moesten er dan mensen...

111
00:06:24,640 --> 00:06:28,640
- Dus we sturen dan via een radiografisch signaal het signaal direct terug naar de grond.

112
00:06:28,640 --> 00:06:32,640
En dan gingen er alarmbellen in die... Het scherm ging dan flitsen.

113
00:06:32,640 --> 00:06:35,640
En dan kreeg je dus een kleine boxje, werd er dan getekend om een mens.

114
00:06:35,640 --> 00:06:39,640
We hebben in de tweede iteratie van de challenge ook techniek toegevoegd,

115
00:06:39,640 --> 00:06:42,640
zodat de drone dat stuk ook echt gaat cirkelen.

116
00:06:42,640 --> 00:06:44,640
Dat is de hele reden dat we voor object detection gegaan waren,

117
00:06:44,640 --> 00:06:49,640
zodat we dus konden pinpointen in het beeld, hier is het point of interest, de persoon.

118
00:06:49,640 --> 00:06:52,640
En dat de drone daar ook omheen kan cirkelen.

119
00:06:52,640 --> 00:06:56,640
En op die manier gaat hij op dat moment dan dus af eigenlijk.

120
00:06:56,640 --> 00:06:58,640
En dan kunnen de rangers erop afgestuurd worden.

121
00:06:58,640 --> 00:06:59,640
- Want dat was daarvoor dus niet.

122
00:06:59,640 --> 00:07:01,640
Toen de mensen daar zaten te kijken en ze zagen wat,

123
00:07:01,640 --> 00:07:04,640
dan ging die vliegtuig gewoon door en ze moesten dan maar een signaal geven.

124
00:07:04,640 --> 00:07:05,640
Dat was het moment, ga daar maar kijken.

125
00:07:05,640 --> 00:07:08,640
En nu gaat hij dus echt terug en verder.

126
00:07:08,640 --> 00:07:11,640
- Wat dan eigenlijk gebeurde, dan moesten ze de drone pilot wakker maken.

127
00:07:11,640 --> 00:07:14,640
Want die drones die vliegen een soort van standaard patroon.

128
00:07:14,640 --> 00:07:17,640
En dan hoef je dus, als die eenmaal in de lux zit,

129
00:07:17,640 --> 00:07:19,640
hoef je als dronepiloot daar niet meer zo veel mee te doen.

130
00:07:19,640 --> 00:07:23,640
Op het moment dat hij dus iets vond, dan was hij met zijn antenne uit.

131
00:07:23,640 --> 00:07:24,640
En dan naar buiten, weet je wel.

132
00:07:24,640 --> 00:07:26,640
En dan moest hij dat ding gaan besturen.

133
00:07:26,640 --> 00:07:27,640
- Geweldig.

134
00:07:27,640 --> 00:07:30,640
- En wat was de reden waarom je bij deze mee ging?

135
00:07:30,640 --> 00:07:36,640
- Ja, hier was, er waren een aantal projecten die wij draaien in de regio Zuid-Afrika.

136
00:07:36,640 --> 00:07:39,640
Een aantal partnerbedrijven waar we daar mee zaten, universiteiten.

137
00:07:39,640 --> 00:07:43,640
En toen hadden we dus een oproep gedaan, ook via een paar van die kanalen,

138
00:07:43,640 --> 00:07:45,640
van hé, weet u nog een gaaf, even een good challenge.

139
00:07:45,640 --> 00:07:47,640
En ze kwamen bij hun uit.

140
00:07:47,640 --> 00:07:50,640
En toen hebben we dat natuurlijk mooi allemaal gecombineerd om ook echt een trip te doen.

141
00:07:50,640 --> 00:07:52,640
En dat was wel heel cool.

142
00:07:52,640 --> 00:07:56,640
Met de rangers dus echt in van die ouderwetse barakken slapen,

143
00:07:56,640 --> 00:07:58,640
die echt midden in het wild life reservaat.

144
00:07:58,640 --> 00:08:02,640
Dus het zijn niet de resorts met grote hekken eromheen, maar echt barakken.

145
00:08:02,640 --> 00:08:05,640
Waar het water ook niet stroomde,

146
00:08:05,640 --> 00:08:08,640
want een olifant was een dag eerder op één van de zonnepanelen gaan staan.

147
00:08:08,640 --> 00:08:13,640
En daardoor werkte de pomp niet en daarmee was er geen water, geen lopend water.

148
00:08:13,640 --> 00:08:14,640
Dus dat was wel ...

149
00:08:14,640 --> 00:08:15,640
- Oh, geweldig.

150
00:08:15,640 --> 00:08:18,640
En wat is dan de meerwaarde dat je echt fysiek bent?

151
00:08:18,640 --> 00:08:21,640
Want ik heb altijd het beeld dat het heel waardevol is om on-site te zijn,

152
00:08:21,640 --> 00:08:25,640
maar wat heeft het jullie meer gebracht door daar echt aanwezig te zijn,

153
00:08:25,640 --> 00:08:27,640
ten opzichte van remote challenges te doen?

154
00:08:27,640 --> 00:08:30,640
- Ja, kijk, bij de meeste challenges doen we dat eigenlijk niet,

155
00:08:30,640 --> 00:08:32,640
want daar die extra kosten van.

156
00:08:32,640 --> 00:08:33,640
We doen ze echt wereldwijd.

157
00:08:33,640 --> 00:08:37,640
In Australië, Noord-Europa, Afrika, India.

158
00:08:37,640 --> 00:08:40,640
Dus dat past niet binnen een challenge budget.

159
00:08:40,640 --> 00:08:43,640
Maar in dit geval was er dus al een hardware platform.

160
00:08:43,640 --> 00:08:46,640
En dat was die drone.

161
00:08:46,640 --> 00:08:48,640
Dus daar hielp het wel heel erg om mee te gaan kijken van

162
00:08:48,640 --> 00:08:51,640
"Hé, wat is nou de problematiek? Hoeveel ruimte is er nou in dat ding?

163
00:08:51,640 --> 00:08:53,640
Wat kunnen we daar wel en niet in installeren?"

164
00:08:53,640 --> 00:08:56,640
Ook echt helpen met die installatie en daar brainstormen.

165
00:08:56,640 --> 00:09:01,640
We moesten bij een aantal van die apparaten uiteindelijk de mensen van buiten bij kunnen,

166
00:09:01,640 --> 00:09:04,640
remote in kunnen loggen op die apparatuur die ze daar hadden.

167
00:09:04,640 --> 00:09:08,640
Dus ja, ze hadden allemaal niet zo'n verstand van netwerkinstellingen en zo.

168
00:09:08,640 --> 00:09:10,640
Het helpt ook wel even als je dat daar fysiek kan doen.

169
00:09:10,640 --> 00:09:15,640
Dus zodoende was dat uiteindelijk, omdat er al een fysiek platform was,

170
00:09:15,640 --> 00:09:17,640
was dat wel heel handig om even langs te kunnen komen.

171
00:09:17,640 --> 00:09:19,640
Ja, cool. Echt even te zien.

172
00:09:19,640 --> 00:09:24,640
En ben jij weer vanaf het begin betrokken bij Fruitpunch AI AI?

173
00:09:24,640 --> 00:09:28,640
Ja, Fruitpunch AI heeft bestaan een tijd als alleen maar een studententeam.

174
00:09:28,640 --> 00:09:32,640
Dus dat is eigenlijk de origine ook hier op de universiteit in Eindhoven.

175
00:09:32,640 --> 00:09:35,640
Maar vanaf het moment dat het naar een startup overgegaan is,

176
00:09:35,640 --> 00:09:37,640
ik was betrokken bij het Fruitpunch AI studententeam.

177
00:09:37,640 --> 00:09:41,640
Ik werkte toen al als AI-specialist, waar ik een data science afdeling had.

178
00:09:41,640 --> 00:09:46,640
Rond die tijd vroeg op een gegeven moment mijn nieuwe co-founder mij het best aan.

179
00:09:46,640 --> 00:09:50,640
Van 'Hey, kun je een leuke presentatie geven voor ons, voor de studenten?'

180
00:09:50,640 --> 00:09:53,640
Dat heb ik toen gedaan en zodoende was ik betrokken bij het studententeam.

181
00:09:53,640 --> 00:09:57,640
En toen op een gegeven moment het idee kwam van 'Hé, volgens mij kunnen we dit proberen te schalen.'

182
00:09:57,640 --> 00:10:01,640
'We kunnen het proberen groot te maken, buiten Eindhoven.'

183
00:10:01,640 --> 00:10:05,640
Maar dan moeten we er wel echt een bedrijf van maken.

184
00:10:05,640 --> 00:10:09,640
Want als non-profit, als stichting, is groei echt heel lastig natuurlijk.

185
00:10:09,640 --> 00:10:14,640
Dan ben je 100% afhankelijk van donaties en dan word je heel snel eigenlijk gewoon een marketingclub.

186
00:10:14,640 --> 00:10:16,640
Om die donaties nog binnen te schrapen.

187
00:10:16,640 --> 00:10:21,640
Dus toen zijn we voor het VC-funded startup gegaan.

188
00:10:21,640 --> 00:10:25,640
Dus dat je bij investeerders geld ophaalt om zo je organisatie te kunnen groeien.

189
00:10:25,640 --> 00:10:30,640
En vanaf dat moment ben ik ook aangesloten toen we echt voor als bedrijf doorgingen.

190
00:10:30,640 --> 00:10:31,640
Cool.

191
00:10:32,640 --> 00:10:36,640
Wat was de eerste opdracht die jullie gedaan hebben?

192
00:10:36,640 --> 00:10:41,640
Heel erg tijd geleden zijn we ook begonnen met een stukje serious gaming.

193
00:10:41,640 --> 00:10:45,640
Daar ging het echt over 'Hey, kunnen wij reinforcement learning agents zelf bouwen?'

194
00:10:45,640 --> 00:10:50,640
Om te trainen op virtuele omgevingen die we zelf bouwen.

195
00:10:50,640 --> 00:10:56,640
Maar de eerste paar 'for good' projecten waren in deze AI for Wildlife space.

196
00:10:56,640 --> 00:11:03,640
Dus we zijn al heel erg sterk in ecologie, het identificeren van dieren.

197
00:11:03,640 --> 00:11:06,640
En dan hebben we het niet over 'Hey, er is een hond in beeld.'

198
00:11:06,640 --> 00:11:10,640
Nee, we doen dat bijvoorbeeld met zeehonden in de baaien van New York.

199
00:11:10,640 --> 00:11:15,640
Dat we daar foto's van binnen krijgen en dan kunnen zien 'Hey, dit is Perry de zeehond.'

200
00:11:15,640 --> 00:11:17,640
En daarmee kunnen ze dus de populatie trekken.

201
00:11:17,640 --> 00:11:20,640
Want dan weet je dus precies welke op elke foto opnieuw terugstaan.

202
00:11:20,640 --> 00:11:23,640
Dus dan kun je over de verschillende jaren heen kijken hoe het met de populatie gaat.

203
00:11:23,640 --> 00:11:25,640
Dat zijn wel echt het type projecten.

204
00:11:25,640 --> 00:11:27,640
Dat is denk ik ook mijn grootste diploma tot nu toe.

205
00:11:27,640 --> 00:11:30,640
Een van die zeehonden die daar rondzwemt die heet Sako.

206
00:11:30,640 --> 00:11:32,640
Dat is een hond vernoemd naar...

207
00:11:32,640 --> 00:11:38,640
Kijk, waar herken je het verschil aan?

208
00:11:38,640 --> 00:11:41,640
Gezichtsherkenning is het uiteindelijk natuurlijk.

209
00:11:41,640 --> 00:11:44,640
Dus het zijn technieken die uit die space komen.

210
00:11:44,640 --> 00:11:49,640
Dat verschilt een beetje per dier welke hoek van technologie daar het beste in werkt.

211
00:11:49,640 --> 00:11:51,640
We hebben dat nu met zeehonden gedaan.

212
00:11:51,640 --> 00:11:55,640
Maar we hebben het ook met zeeschildpadden gedaan.

213
00:11:55,640 --> 00:11:57,640
En dan zie je weer dat een hele andere techniek effectief is.

214
00:11:57,640 --> 00:12:00,640
Omdat je die herkent op de basis van het patroon en het zeggert van een gezicht.

215
00:12:00,640 --> 00:12:04,640
En dat is een mozaïek en die heeft dus heel duidelijk contrast.

216
00:12:04,640 --> 00:12:09,640
Dus dat is wat dat betreft makkelijker om features uit te extracten.

217
00:12:09,640 --> 00:12:12,640
Dus om daar herkenningspunten uit te halen.

218
00:12:12,640 --> 00:12:16,640
Bij zo'n mozaïek is dat makkelijker dan bij iets subtiels als een gezicht.

219
00:12:16,640 --> 00:12:18,640
En nu gaan we dat dus ook weer met beren doen.

220
00:12:18,640 --> 00:12:21,640
En daar hebben we een nieuwe uitdaging met zich mee.

221
00:12:21,640 --> 00:12:24,640
Omdat die heel veel veranderen over een jaar heen.

222
00:12:24,640 --> 00:12:28,640
En die worden behoorlijk dik als ze heel veel zalm gegeten hebben voor de winterslaap.

223
00:12:28,640 --> 00:12:30,640
Dan vallen die heel erg af over een jaar.

224
00:12:30,640 --> 00:12:36,640
En dan hebben ze wintervacht en zomervacht.

225
00:12:36,640 --> 00:12:38,640
En zo veranderen die heel veel ook in het gezicht.

226
00:12:38,640 --> 00:12:39,640
En kleur.

227
00:12:39,640 --> 00:12:42,640
Zoals de volgende uitdaging op dat gebied.

228
00:12:42,640 --> 00:12:45,640
En gaat dat dan ook om het trekken van de populatie?

229
00:12:45,640 --> 00:12:47,640
Dat je weet hoe de populatie eruit ziet?

230
00:12:47,640 --> 00:12:50,640
Ja, dat gaat bij deze om twee zaken.

231
00:12:50,640 --> 00:12:52,640
Dus één is echt dat trekken van de populatie.

232
00:12:52,640 --> 00:12:55,640
Maar ook op die manier het trekken van waar ze zich begeven.

233
00:12:55,640 --> 00:12:59,640
En dat kan dan heel erg helpen met het managen van het landschap.

234
00:12:59,640 --> 00:13:03,640
Dus nu is er een vraag van, kunnen we wel of niet een bepaald stuk bos kappen?

235
00:13:03,640 --> 00:13:05,640
Dan kunnen ze nu zeggen, dat kan niet.

236
00:13:05,640 --> 00:13:07,640
Want hier zijn die beren actief.

237
00:13:07,640 --> 00:13:09,640
Dat soort dingen zijn er onderdeel van.

238
00:13:09,640 --> 00:13:11,640
We weten hoeveel individuen er zijn.

239
00:13:11,640 --> 00:13:14,640
Maar aan de andere kant ook een stukje wat ze dan veelal human wildlife conflict noemen.

240
00:13:14,640 --> 00:13:17,640
Oftewel daar waar dieren en mensen populaties botsen.

241
00:13:17,640 --> 00:13:20,640
En wat je ziet bij beren is dat die...

242
00:13:20,640 --> 00:13:25,640
Op een gegeven moment kan het gebeuren dat zo'n beer inbreekt in een boerderij.

243
00:13:25,640 --> 00:13:30,640
En dan slagt die de lammetjes of de koeien of de schapen.

244
00:13:30,640 --> 00:13:35,640
Of misschien wel gewoon herden en andere voedselvoorraad die die te grazen neemt.

245
00:13:35,640 --> 00:13:37,640
En in eerste instantie is het natuurlijk niet zo'n ramp.

246
00:13:37,640 --> 00:13:39,640
Maar het probleem met beren is dat die heel intelligent zijn.

247
00:13:39,640 --> 00:13:42,640
Dus zo'n beer wordt heel snel wat ze dan weer een probleembeer noemen.

248
00:13:42,640 --> 00:13:44,640
Want die leert dat gedrag uit.

249
00:13:44,640 --> 00:13:46,640
Die denkt zo kan ik een snelle snack halen.

250
00:13:46,640 --> 00:13:48,640
Dat heeft natuurlijk als probleem dat één zo'n beer op dat moment...

251
00:13:48,640 --> 00:13:52,640
gewoon alleen maar in gaat breken bij alle boerderijen die die kan vinden.

252
00:13:52,640 --> 00:13:56,640
Dan wordt het natuurlijk ook wel een serieus risico voor de volksgezondheid.

253
00:13:56,640 --> 00:13:59,640
En dan moeten ze zo'n beer uiteindelijk afschieten.

254
00:13:59,640 --> 00:14:00,640
En dat willen we natuurlijk voorkomen.

255
00:14:00,640 --> 00:14:04,640
Dus dit soort technologie wordt dan ook gebouwd om op tijd zo'n beer te weten detecteren op camera's.

256
00:14:04,640 --> 00:14:07,640
En dan afstotende systemen te activeren.

257
00:14:07,640 --> 00:14:09,640
Dus dat kan van die beer spray zijn.

258
00:14:09,640 --> 00:14:11,640
Dat hebben we in Nederland niet.

259
00:14:11,640 --> 00:14:12,640
In Amerika is dat een ding.

260
00:14:12,640 --> 00:14:16,640
Maar ook harde geluiden of flitsende lichten of zo.

261
00:14:16,640 --> 00:14:19,640
Om dan die beren maar af te schrikken en te zorgen dat ze niet dit gedrag aanwezen.

262
00:14:19,640 --> 00:14:21,640
Ja, wat goed. En waar vindt dit plaats?

263
00:14:21,640 --> 00:14:23,640
Dit doen we met twee verschillende organisaties.

264
00:14:23,640 --> 00:14:27,640
Eentje in Noord-Amerika waar we voornamelijk bruine grizzlyberen.

265
00:14:27,640 --> 00:14:29,640
En eentje in Noord-Europa.

266
00:14:29,640 --> 00:14:31,640
Of Noord- en Oost-Europa.

267
00:14:31,640 --> 00:14:34,640
Dus Roemenië is één van de hotspots daar.

268
00:14:34,640 --> 00:14:36,640
En dat zijn allebei bruine beren.

269
00:14:36,640 --> 00:14:39,640
Maar ook dat kun je alweer met AI in mekaar halen.

270
00:14:39,640 --> 00:14:41,640
Dus dat is wel heel leuk.

271
00:14:41,640 --> 00:14:43,640
En dan is er ook nog één.

272
00:14:43,640 --> 00:14:45,640
Dat is een van de allerleukste.

273
00:14:47,640 --> 00:14:49,640
En dat is een van de allerleukste.

274
00:15:35,640 --> 00:15:37,640
En een van de dingen die hij aangaf,

275
00:15:37,640 --> 00:15:39,640
en misschien kan jij daar iets meer over uitweiden,

276
00:15:41,640 --> 00:15:43,640
dat het best wel lastig is om beren überhaupt te herkennen.

277
00:15:45,640 --> 00:15:47,640
Jij zei net hele specifieke beren,

278
00:15:47,640 --> 00:15:49,640
maar dat het heel lastig is om een beer

279
00:15:51,640 --> 00:15:53,640
te onderscheiden met bestaande modellen.

280
00:15:53,640 --> 00:15:55,640
Ja, dat is een probleem waar Thijs tegen aangelopen is

281
00:15:55,640 --> 00:15:57,640
met de technieken die hij geprobeerd heeft.

282
00:15:59,640 --> 00:16:01,640
Nu is dat zeker mogelijk, maar een van de problemen daar

283
00:16:01,640 --> 00:16:03,640
zit hem ook echt wel in de data.

284
00:16:03,640 --> 00:16:05,640
Dat is wel vaak bij dit soort problemen.

285
00:16:07,640 --> 00:16:09,640
Er zat relatief weinig data.

286
00:16:11,640 --> 00:16:13,640
En wanneer je een classifier in dit geval

287
00:16:13,640 --> 00:16:15,640
vanaf de grond af traint,

288
00:16:15,640 --> 00:16:17,640
dan moet je best wel veel data hebben om dat goed te kunnen doen.

289
00:16:17,640 --> 00:16:19,640
Dus de dataset was beperkt, maar had ook geen andere dieren.

290
00:16:21,640 --> 00:16:23,640
Wat dan inhoudt, dan is het leuk dat die beer kan herkennen,

291
00:16:23,640 --> 00:16:25,640
maar dan denkt hij heel gauw dat een hond ook een beer is.

292
00:16:25,640 --> 00:16:27,640
Precies, dan is alles een beer.

293
00:16:29,640 --> 00:16:31,640
Dus zodoende hebben wij naast de data

294
00:16:31,640 --> 00:16:33,640
die we via Thijs Hack the Planet binnenkregen hebben,

295
00:16:33,640 --> 00:16:35,640
hebben we van Sense Incluse,

296
00:16:35,640 --> 00:16:37,640
een organisatie hier ook in Nederland die met verschillende Europese organisaties samenwerkt,

297
00:16:39,640 --> 00:16:41,640
ook om dieren te beschermen, hebben we een data set gekregen

298
00:16:41,640 --> 00:16:43,640
met daarin beren.

299
00:16:43,640 --> 00:16:45,640
We hebben een data set van de, ja eigenlijk de

300
00:16:45,640 --> 00:16:47,640
Wageningen Universiteit Tegenhanger in Zweden,

301
00:16:47,640 --> 00:16:49,640
de SLU, waar we van heel veel

302
00:16:49,640 --> 00:16:51,640
verschillende dieren,

303
00:16:51,640 --> 00:16:53,640
van everzwijnen tot

304
00:16:53,640 --> 00:16:55,640
herten, camerabeelden hebben

305
00:16:55,640 --> 00:16:57,640
gekregen. En we hebben dus die uit Amerika,

306
00:16:57,640 --> 00:16:59,640
waar we uit Noord-Amerika

307
00:16:59,640 --> 00:17:01,640
hebben verschillende beren. Dus zodoende hebben we een veel

308
00:17:01,640 --> 00:17:03,640
grotere data set weten te verzamelen en

309
00:17:03,640 --> 00:17:05,640
verwachten we dat eigenlijk, want eigenlijk moet zo'n classifier

310
00:17:05,640 --> 00:17:07,640
die beren kan herkennen of niet,

311
00:17:07,640 --> 00:17:09,640
dat ligt zeker binnen

312
00:17:09,640 --> 00:17:11,640
de scoop van technologie.

313
00:17:11,640 --> 00:17:13,640
Dat kan zeker. Maar ja, als je

314
00:17:13,640 --> 00:17:15,640
gewoon niet voldoende data hebt, dan kan het nog wel eens een uitdaging zijn.

315
00:17:15,640 --> 00:17:17,640
Precies.

316
00:17:17,640 --> 00:17:19,640
En dat is dus data die ook door professionals

317
00:17:19,640 --> 00:17:21,640
gelabeld is, allemaal voorzien is

318
00:17:21,640 --> 00:17:23,640
van de juiste tags en aangegeven

319
00:17:23,640 --> 00:17:25,640
hoekjes en...

320
00:17:25,640 --> 00:17:27,640
Ja, delen, dat is altijd natuurlijk,

321
00:17:27,640 --> 00:17:29,640
want we werken met vier verschillende data sets.

322
00:17:29,640 --> 00:17:31,640
En die hebben ook allemaal variërende kwaliteiten.

323
00:17:31,640 --> 00:17:33,640
De ene zijn zeg maar telefoon of

324
00:17:33,640 --> 00:17:35,640
camerafoto's en de andere zijn camera traps,

325
00:17:35,640 --> 00:17:37,640
dus van die doosjes die tegen een boom aan hangen

326
00:17:37,640 --> 00:17:39,640
en een foto maken als ze iets langs zien komen.

327
00:17:39,640 --> 00:17:41,640
En die hebben ook allemaal andere kwaliteiten

328
00:17:41,640 --> 00:17:43,640
en dergelijke. Dus één set is heel goed

329
00:17:43,640 --> 00:17:45,640
gelabeld met echt de gezichten van de beren,

330
00:17:45,640 --> 00:17:47,640
erop geselecteerd. En de

331
00:17:47,640 --> 00:17:49,640
reden dat je dat wil doen is omdat je zoveel mogelijk

332
00:17:49,640 --> 00:17:51,640
er eigenlijk uit wil snijden voordat jij overgaat

333
00:17:51,640 --> 00:17:53,640
te proberen een dier te identificeren.

334
00:17:53,640 --> 00:17:55,640
Dan kan het model niet afgeleid worden van de

335
00:17:55,640 --> 00:17:57,640
achtergrond of allemaal dat soort dingen.

336
00:17:57,640 --> 00:17:59,640
Maar bij de anderen hebben we dat allemaal niet.

337
00:17:59,640 --> 00:18:01,640
Dan hebben we de beren in zich geheel.

338
00:18:01,640 --> 00:18:03,640
En dat is in ons geval,

339
00:18:03,640 --> 00:18:05,640
dus we hebben dat er toch uit moeten snijden. Maar zeker in de

340
00:18:05,640 --> 00:18:07,640
laatste jaren zijn er een aantal technieken uitgekomen,

341
00:18:07,640 --> 00:18:09,640
hebben we ook bewezen in

342
00:18:09,640 --> 00:18:11,640
bijvoorbeeld de zeeschildpad challenge,

343
00:18:11,640 --> 00:18:13,640
die je heel goed vrijwel

344
00:18:13,640 --> 00:18:15,640
unsupervised kan gebruiken. Oftewel,

345
00:18:15,640 --> 00:18:17,640
zonder die te trainen, of veel te trainen

346
00:18:17,640 --> 00:18:19,640
in ieder geval met dit soort data, dat je die

347
00:18:19,640 --> 00:18:21,640
vrijwel meteen kan zeggen van 'hé,

348
00:18:21,640 --> 00:18:23,640
knip het berengezicht eruit.'

349
00:18:23,640 --> 00:18:25,640
Dat hebben we toevallig van de week getest. Dat werkt echt wel

350
00:18:25,640 --> 00:18:27,640
heel goed. Het model heet

351
00:18:27,640 --> 00:18:29,640
SUM, Segment Anything, is van

352
00:18:29,640 --> 00:18:31,640
Meta, Facebook.

353
00:18:31,640 --> 00:18:33,640
En daar kun je tegenwoordig ook een tekst prompt.

354
00:18:33,640 --> 00:18:35,640
Dus een van de mooie dingen aan het model,

355
00:18:35,640 --> 00:18:37,640
het doel is dus om iets te segmenteren,

356
00:18:37,640 --> 00:18:39,640
oftewel echt uit te snijden, niet alleen maar om

357
00:18:39,640 --> 00:18:41,640
een bokje eromheen te tekenen.

358
00:18:41,640 --> 00:18:43,640
En dus het doel daar is om

359
00:18:43,640 --> 00:18:45,640
automatisch dat te kunnen doen vanaf de grond. Maar je hebt

360
00:18:45,640 --> 00:18:47,640
een aantal verschillende inputs die je dat model kan geven

361
00:18:47,640 --> 00:18:49,640
om tot die segmentatie te komen. Dus je kunt zeggen

362
00:18:49,640 --> 00:18:51,640
'ik heb helemaal niks', en dan gaat die zelf gewoon

363
00:18:51,640 --> 00:18:53,640
het meest relevante wat

364
00:18:53,640 --> 00:18:55,640
je kan vinden voor je segmenteren.

365
00:18:55,640 --> 00:18:57,640
Maar je kunt ook point labels,

366
00:18:57,640 --> 00:18:59,640
zoals je dat noemt, dus kun je puntjes aangeven van 'ik

367
00:18:59,640 --> 00:19:01,640
klik hier drie keer op het object dat ik interessant vind',

368
00:19:01,640 --> 00:19:03,640
en dan neemt die dat als input en gebruikt die

369
00:19:03,640 --> 00:19:05,640
dat om dan een segmentatie te doen.

370
00:19:05,640 --> 00:19:07,640
Je kunt ook een bounding box meegeven.

371
00:19:07,640 --> 00:19:09,640
En dan teken je dus een vierkantje om dit object,

372
00:19:09,640 --> 00:19:11,640
en dan weet die dus binnen dat vierkantje

373
00:19:11,640 --> 00:19:13,640
het juiste ding uit te snijden. Maar

374
00:19:13,640 --> 00:19:15,640
wat dus bij de beren toevallig heel goed werkte

375
00:19:15,640 --> 00:19:17,640
ook, is de tekst prompt. Dus je kunt ook letterlijk

376
00:19:17,640 --> 00:19:19,640
zeggen 'bear face'.

377
00:19:19,640 --> 00:19:21,640
Als tekst meegeven

378
00:19:21,640 --> 00:19:23,640
als input van het model. En dan weet die dus

379
00:19:23,640 --> 00:19:25,640
inderdaad, dan pakt die zowel

380
00:19:25,640 --> 00:19:27,640
de beer, maar ook los nog het

381
00:19:27,640 --> 00:19:29,640
gezicht. Dus dan weet die die gewoon eigenlijk perfect uit te snijden

382
00:19:29,640 --> 00:19:31,640
in de foto's die ik getest heb. Ik zal niet

383
00:19:31,640 --> 00:19:33,640
beweren dat het 100% accuraat is voor de hele dataset.

384
00:19:33,640 --> 00:19:35,640
- Maar het helpt je al in een eentje

385
00:19:35,640 --> 00:19:37,640
op weg. - Ja, dus op die manier kunnen wij

386
00:19:37,640 --> 00:19:39,640
automatisch je labeling, en

387
00:19:39,640 --> 00:19:41,640
kijk, het gaat om duizenden foto's,

388
00:19:41,640 --> 00:19:43,640
maar we hebben ook een team van vijftig man, dus om die allemaal

389
00:19:43,640 --> 00:19:45,640
met de hand te laten segmenteren, dat is heel veel werk.

390
00:19:45,640 --> 00:19:47,640
Maar om door al die foto's, die

391
00:19:47,640 --> 00:19:49,640
segmentatie een keer heen te klikken en te kijken,

392
00:19:49,640 --> 00:19:51,640
'hé, is dit accuraat?' - Klopt dit. - Dat is

393
00:19:51,640 --> 00:19:53,640
eigenlijk goed te doen natuurlijk met zo'n team.

394
00:19:53,640 --> 00:19:55,640
Dus op die manier kunnen we dat doen. - Geweldig.

395
00:19:55,640 --> 00:19:57,640
En heb je dan nou ook nog last van,

396
00:19:57,640 --> 00:19:59,640
want je hebt te maken met dag

397
00:19:59,640 --> 00:20:01,640
en nachtfoto's, en

398
00:20:01,640 --> 00:20:03,640
daar zit natuurlijk wel een enorm verschil tussen.

399
00:20:03,640 --> 00:20:05,640
- Ja, dat is

400
00:20:05,640 --> 00:20:07,640
wel, daar zullen we gewoon allebei

401
00:20:07,640 --> 00:20:09,640
een groot genoeg dataset van moeten

402
00:20:09,640 --> 00:20:11,640
verzamelen. Dus we hebben van allebei, hebben we

403
00:20:11,640 --> 00:20:13,640
data in de dataset, maar ik weet op dit moment

404
00:20:13,640 --> 00:20:15,640
nog niet wat het percentage is

405
00:20:15,640 --> 00:20:17,640
aan nachtfoto's. Dus daar zijn we

406
00:20:17,640 --> 00:20:19,640
ook wel benieuwd naar of dat lukt. Het enige

407
00:20:19,640 --> 00:20:21,640
probleem daarin wel is dat de identificatie

408
00:20:21,640 --> 00:20:23,640
die we hebben van de

409
00:20:23,640 --> 00:20:25,640
beren,

410
00:20:25,640 --> 00:20:27,640
waarvan we echt dus de idee weten,

411
00:20:27,640 --> 00:20:29,640
waarbij we weten van 'hé, dit is Berrie de beer',

412
00:20:29,640 --> 00:20:31,640
die zijn

413
00:20:31,640 --> 00:20:33,640
allemaal overdag gemaakt. Dus dat

414
00:20:33,640 --> 00:20:35,640
deel van het netwerk, dus uiteindelijk wordt het

415
00:20:35,640 --> 00:20:37,640
een drie-traps raket. Dus eentje die herkent

416
00:20:37,640 --> 00:20:39,640
'is er een beer?' Eentje die herkent 'wat is het

417
00:20:39,640 --> 00:20:41,640
gezicht van de beer?' En eentje die dan zegt dan 'dit is

418
00:20:41,640 --> 00:20:43,640
Berrie de beer.' - Ja, of Balou.

419
00:20:43,640 --> 00:20:45,640
- Ja, of Balou de beer.

420
00:20:45,640 --> 00:20:47,640
Waarschijnlijk iets met een been in ieder geval.

421
00:20:47,640 --> 00:20:49,640
Maar dat laatste stapje, dat zullen we dus nog niet

422
00:20:49,640 --> 00:20:51,640
voor Berrie de

423
00:20:51,640 --> 00:20:53,640
nacht kunnen doen. Maar met dit soort

424
00:20:53,640 --> 00:20:55,640
projecten kun je natuurlijk ook wel heel makkelijk bewijzen

425
00:20:55,640 --> 00:20:57,640
wat wel werkt, wat niet werkt. Want we

426
00:20:57,640 --> 00:20:59,640
proberen daarmee ook allemaal verschillende

427
00:20:59,640 --> 00:21:01,640
technieken. En zeker een model

428
00:21:01,640 --> 00:21:03,640
of een

429
00:21:03,640 --> 00:21:05,640
vakgebied zoals identificatie,

430
00:21:05,640 --> 00:21:07,640
dat is echt niet uitgespeeld op het gebied van AI.

431
00:21:07,640 --> 00:21:09,640
Betekent dat je ook heel veel verschillende,

432
00:21:09,640 --> 00:21:11,640
compleet andere type algoritmen hebt,

433
00:21:11,640 --> 00:21:13,640
die dit in theorie kunnen.

434
00:21:13,640 --> 00:21:15,640
Zoek dan nog maar eens uit welke het beste gaat

435
00:21:15,640 --> 00:21:17,640
werken. Het kan dus nogal verschillen, ook

436
00:21:17,640 --> 00:21:19,640
per diersoort. En dat is dus echt wat we

437
00:21:19,640 --> 00:21:21,640
bij die challenge ook doen. Dat is ook hoe we die 50

438
00:21:21,640 --> 00:21:23,640
man effectief gebruiken. Door ze allemaal verschillende

439
00:21:23,640 --> 00:21:25,640
algoritmische hoeken uit te laten proberen.

440
00:21:25,640 --> 00:21:27,640
- En je komt weer tot

441
00:21:27,640 --> 00:21:29,640
wat is dan de ontbrekende data die je nog

442
00:21:29,640 --> 00:21:31,640
niet hebt, of mindere kwaliteit data is. Dus

443
00:21:31,640 --> 00:21:33,640
eigenlijk heb je daar ook al learning om vervolg

444
00:21:33,640 --> 00:21:35,640
acties op te gaan zetten. - Ja, exact.

445
00:21:35,640 --> 00:21:37,640
En dat dan in een mooi tien weken traject.

446
00:21:37,640 --> 00:21:39,640
Het heeft een duidelijk begin en een eind

447
00:21:39,640 --> 00:21:41,640
en dan kunnen ze weer even starten.

448
00:21:41,640 --> 00:21:43,640
- Je zegt dat je

449
00:21:43,640 --> 00:21:45,640
veel in de wild life zit. Daar hebben we

450
00:21:45,640 --> 00:21:47,640
denk ik nu een paar voorbeelden van gehoord.

451
00:21:47,640 --> 00:21:49,640
Heb je er eentje die daar buiten valt?

452
00:21:49,640 --> 00:21:51,640
- Ja, we doen dus ook best wel veel in de

453
00:21:51,640 --> 00:21:53,640
carbon emission. Dus dat we in proberen te schatten

454
00:21:53,640 --> 00:21:55,640
hoeveel carbon gebruikt wordt.

455
00:21:55,640 --> 00:21:57,640
De laatste tijd zijn we daar grote

456
00:21:57,640 --> 00:21:59,640
stappen mee kunnen maken met echt die

457
00:21:59,640 --> 00:22:01,640
de gen AI hype nu. Dus die large

458
00:22:01,640 --> 00:22:03,640
language models. Dus we hebben

459
00:22:03,640 --> 00:22:05,640
het zowel op

460
00:22:05,640 --> 00:22:07,640
persoonlijke finance als op bedrijfs finance

461
00:22:07,640 --> 00:22:09,640
gedaan dat we de

462
00:22:09,640 --> 00:22:11,640
transacties die jij doet, dus als

463
00:22:11,640 --> 00:22:13,640
eerste die van jouw eigen bank. Nou, dat staat

464
00:22:13,640 --> 00:22:15,640
echt heel grof beschreven

465
00:22:15,640 --> 00:22:17,640
waar die transactie over gedaan

466
00:22:17,640 --> 00:22:19,640
is. Dat is als mens al bijna niet te vertalen

467
00:22:19,640 --> 00:22:21,640
naar wat er nou ook weer echt was.

468
00:22:21,640 --> 00:22:23,640
En dan gebruiken we die large language models

469
00:22:23,640 --> 00:22:25,640
om context toe te voegen op basis van andere

470
00:22:25,640 --> 00:22:27,640
informatie die we hebben over die transactie.

471
00:22:27,640 --> 00:22:29,640
Dus alle informatie wat erin gevoed wordt.

472
00:22:29,640 --> 00:22:31,640
En dan weten die modellen daar context bij

473
00:22:31,640 --> 00:22:33,640
te trekken die vaak genoeg informatie is om

474
00:22:33,640 --> 00:22:35,640
dan de transactie te categoriseren.

475
00:22:35,640 --> 00:22:37,640
En hetzelfde hebben we ook voor bedrijven gedaan.

476
00:22:37,640 --> 00:22:39,640
We hebben gekeken naar de facturen die zij betalen.

477
00:22:39,640 --> 00:22:41,640
En ook voor facturen staat vaak

478
00:22:41,640 --> 00:22:43,640
vijf woorden of zo beschreven wat een product

479
00:22:43,640 --> 00:22:45,640
is wat er gekocht wordt.

480
00:22:45,640 --> 00:22:47,640
En vroeger, ik doe data

481
00:22:47,640 --> 00:22:49,640
science al de afgelopen

482
00:22:49,640 --> 00:22:51,640
acht jaar minstens.

483
00:22:51,640 --> 00:22:53,640
En als iemand dan vroeg van hey, ik wil iets met

484
00:22:53,640 --> 00:22:55,640
deze data doen. En dan zeg ik ja, dat

485
00:22:55,640 --> 00:22:57,640
kan niet, want die data zit niet in jouw

486
00:22:57,640 --> 00:22:59,640
database. Dus dan heb je pech.

487
00:22:59,640 --> 00:23:01,640
Maar dat is niet meer zo, want die

488
00:23:01,640 --> 00:23:03,640
large language models kunnen zoveel context

489
00:23:03,640 --> 00:23:05,640
toevoegen. Dus met die vijf woorden

490
00:23:05,640 --> 00:23:07,640
die daar staan en dan de plek van waar de

491
00:23:07,640 --> 00:23:09,640
factuur uit verstuurd is, kan die op basis

492
00:23:09,640 --> 00:23:11,640
van het Duitse woord

493
00:23:11,640 --> 00:23:13,640
vervarken, kan die dan al bedenken van hey,

494
00:23:13,640 --> 00:23:15,640
dit is waarschijnlijk een bepaald type verpakte

495
00:23:15,640 --> 00:23:17,640
ham, want dat wordt veel in de regio gemaakt.

496
00:23:17,640 --> 00:23:19,640
Dus dat is deze ham, dat wordt normaal

497
00:23:19,640 --> 00:23:21,640
in 100 gram verpakkingen verkocht.

498
00:23:21,640 --> 00:23:23,640
Dus waarschijnlijk is het dit product.

499
00:23:23,640 --> 00:23:25,640
En op basis daarvan kunnen we dat dan koppelen aan

500
00:23:25,640 --> 00:23:27,640
een carbon impact. En zodoende kun je dus op basis

501
00:23:27,640 --> 00:23:29,640
van het financiële systeem van het bedrijf

502
00:23:29,640 --> 00:23:31,640
in één keer helemaal doorrekenen. -Zo je hele

503
00:23:31,640 --> 00:23:33,640
tweeën missie rapportage maakt.

504
00:23:33,640 --> 00:23:35,640
-Ja, kunnen we dan zo doorrekenen. -Mooi,

505
00:23:35,640 --> 00:23:37,640
heel mooi voorbeeld.

506
00:23:37,640 --> 00:23:39,640
Ja, en we hebben

507
00:23:39,640 --> 00:23:41,640
nog iemand, want wij stellen wel de vragen,

508
00:23:41,640 --> 00:23:43,640
maar we hebben ook onze virtuele co-host

509
00:23:43,640 --> 00:23:45,640
en die wil ook eigenlijk altijd de vraag

510
00:23:45,640 --> 00:23:47,640
stellen. -Spannend.

511
00:23:47,640 --> 00:23:49,640
[muziek]

512
00:23:49,640 --> 00:23:51,640
Aisha.

513
00:23:55,640 --> 00:23:57,640
Een intelligente vraag van Aisha.

514
00:23:57,640 --> 00:23:59,640
[muziek]

515
00:23:59,640 --> 00:24:03,640
Ik ben blij om

516
00:24:03,640 --> 00:24:05,640
deel te nemen aan dit gesprek.

517
00:24:05,640 --> 00:24:07,640
Ik ben Aisha, de AI

518
00:24:07,640 --> 00:24:09,640
hier. Zou je het goed vinden

519
00:24:09,640 --> 00:24:11,640
als ik je een vraag stel?

520
00:24:11,640 --> 00:24:13,640
Zeker.

521
00:24:13,640 --> 00:24:15,640
Wat zijn goede manieren om transparantie

522
00:24:15,640 --> 00:24:17,640
en uitlegbaarheid van AI-systemen

523
00:24:17,640 --> 00:24:19,640
te vergroten?

524
00:24:19,640 --> 00:24:21,640
Dat is een interessante vraag. Ik ben

525
00:24:21,640 --> 00:24:23,640
altijd zelf wel fan van

526
00:24:23,640 --> 00:24:25,640
toch ook wel de geautomatiseerde.

527
00:24:25,640 --> 00:24:27,640
Want wat je veel ziet in het

528
00:24:27,640 --> 00:24:29,640
gebied van ethiek is dat uiteindelijk

529
00:24:29,640 --> 00:24:31,640
de conclusie toch wel is, ja, dat is leuk

530
00:24:31,640 --> 00:24:33,640
dat je daar van alles van kan automatiseren, maar uiteindelijk

531
00:24:33,640 --> 00:24:35,640
zul je de use case toch echt helemaal moeten doorgronden

532
00:24:35,640 --> 00:24:37,640
en dat met de hand moeten doen.

533
00:24:37,640 --> 00:24:39,640
En ik denk dat dat klopt, maar daardoor

534
00:24:39,640 --> 00:24:41,640
vind ik het minder interessant, want dan

535
00:24:41,640 --> 00:24:43,640
kun je het moeilijk opschalen en automatiseren.

536
00:24:43,640 --> 00:24:45,640
Dus vanuit ons perspectief

537
00:24:45,640 --> 00:24:47,640
waar wij dat voor veel verschillende gebruikers

538
00:24:47,640 --> 00:24:49,640
tegelijk willen kunnen doen,

539
00:24:49,640 --> 00:24:51,640
zijn de technieken waarmee je echt inzicht krijgt

540
00:24:51,640 --> 00:24:53,640
in waar het model naar gekeken heeft.

541
00:24:53,640 --> 00:24:55,640
En dat kun je klassiek bij visiemodellen

542
00:24:55,640 --> 00:24:57,640
kun je dat vaak inzien, van

543
00:24:57,640 --> 00:24:59,640
oké, hier let het

544
00:24:59,640 --> 00:25:01,640
model heel erg veel op. Zo kun je

545
00:25:01,640 --> 00:25:03,640
inzicht krijgen in wat je

546
00:25:03,640 --> 00:25:05,640
model doet. Maar het ook gebruiken op

547
00:25:05,640 --> 00:25:07,640
externe datasets om zo te testen

548
00:25:07,640 --> 00:25:09,640
van hé, oké, leuk dat het op mijn

549
00:25:09,640 --> 00:25:11,640
trainingsset werkt, maar kan ik

550
00:25:11,640 --> 00:25:13,640
dat ook valideren met een paar afbeeldingen

551
00:25:13,640 --> 00:25:15,640
die ik van Google trek.

552
00:25:15,640 --> 00:25:17,640
Dat is wel ook iets dat je veel gevallen

553
00:25:17,640 --> 00:25:19,640
aan zou raden om met de hand te doen.

554
00:25:19,640 --> 00:25:21,640
Uiteindelijk is dat toch wel waar je die conclusies

555
00:25:21,640 --> 00:25:23,640
op kan trekken. Maar die technieken

556
00:25:23,640 --> 00:25:25,640
die je op die manier uit

557
00:25:25,640 --> 00:25:27,640
een model weten te trekken van, ja, hier heeft

558
00:25:27,640 --> 00:25:29,640
hij opgelet, en dat is met die attention mechanism

559
00:25:29,640 --> 00:25:31,640
die in de GenAI

560
00:25:31,640 --> 00:25:33,640
model ingebouwd zit, is dat ook mogelijk.

561
00:25:33,640 --> 00:25:35,640
Is dat wel echt een eerste

562
00:25:35,640 --> 00:25:37,640
stap om te kijken van, om die modellen

563
00:25:37,640 --> 00:25:39,640
die zich klassiek black box noemen, om die

564
00:25:39,640 --> 00:25:41,640
grey box te maken, om daar

565
00:25:41,640 --> 00:25:43,640
een bepaald inzicht in te krijgen.

566
00:25:43,640 --> 00:25:45,640
Dat vind ik een belangrijke

567
00:25:45,640 --> 00:25:47,640
stap die wij vrijwel elke challenge doen,

568
00:25:47,640 --> 00:25:49,640
om even te valideren van, hé,

569
00:25:49,640 --> 00:25:51,640
heeft ons model nu iets

570
00:25:51,640 --> 00:25:53,640
nuttigs geleerd, of is hij eigenlijk

571
00:25:53,640 --> 00:25:55,640
zware aan het overfitten.

572
00:25:55,640 --> 00:25:57,640
Precies, dan zit hij alleen maar te halen

573
00:25:57,640 --> 00:25:59,640
wat hij gezien heeft.

574
00:25:59,640 --> 00:26:01,640
Je diepgaande

575
00:26:01,640 --> 00:26:03,640
inzichten zijn erg gewaardeerd.

576
00:26:03,640 --> 00:26:05,640
Dank je wel. Graag gedaan.

577
00:26:05,640 --> 00:26:07,640
Kijk aan.

578
00:26:07,640 --> 00:26:09,640
Sako, ik denk dat wij heel veel inzichten

579
00:26:09,640 --> 00:26:11,640
hebben gekregen in wat jullie

580
00:26:11,640 --> 00:26:13,640
doen, dus dank je wel

581
00:26:13,640 --> 00:26:15,640
daarvoor.

582
00:26:15,640 --> 00:26:17,640
Fijn dat we hier mochten komen.

583
00:26:17,640 --> 00:26:19,640
Ja, zeker.

584
00:26:19,640 --> 00:26:21,640
Tot de volgende, want we gaan er nog eentje maken.

585
00:26:21,640 --> 00:26:23,640
Ja, zeker. Top, dank je wel.

586
00:26:23,640 --> 00:26:27,640
Leuk dat je weer luistert

587
00:26:27,640 --> 00:26:29,640
naar een aflevering van AIToday Live.

588
00:26:29,640 --> 00:26:31,640
Vergeet je niet te abonneren, want we

589
00:26:31,640 --> 00:26:33,640
hebben het natuurlijk nu gehad over

590
00:26:33,640 --> 00:26:35,640
ja, wat... Over proberen.

591
00:26:35,640 --> 00:26:37,640
Wat zeg je? Over proberen

592
00:26:37,640 --> 00:26:39,640
Proberen. Precies, ja.

593
00:26:39,640 --> 00:26:41,640
En ik ben eigenlijk wel benieuwd

594
00:26:41,640 --> 00:26:43,640
hoe je je kan opgeven en

595
00:26:43,640 --> 00:26:45,640
wat je als bedrijf hiermee

596
00:26:45,640 --> 00:26:47,640
zou kunnen. Dus

597
00:26:47,640 --> 00:26:49,640
als je je abonneert, dan komt

598
00:26:49,640 --> 00:26:51,640
de volgende aflevering en dan hoor je dat

599
00:26:51,640 --> 00:26:53,640
vanzelf.

600
00:26:53,640 --> 00:27:16,440
 

People on this episode