AIToday Live

S07E71 - LengaGPT: uitdagingen van taalmodellen bouwen zonder Big Tech-middelen

Aigency by Info Support Season 7 Episode 71

Gabi Ras, data scientist bij KeyGene, was te gast bij AIToday Live om te praten over haar project: een taalmodel voor Papiamento. Geboren op Curaçao en opgeleid in Nederland, combineert Gabi haar expertise in AI met haar passie voor haar moedertaal.

Het project LengaGPT, een GPT-2 model getraind op Papiamento teksten, vormt de eerste stap in het digitaliseren en behouden van deze minderheidstaal. Gabi benadrukt de uitdagingen bij het verzamelen van data en het trainen van het model.

Naast haar werk aan Papiamento, past Gabi AI toe in biotechnologie bij KeyGene, waar ze zich richt op eiwitinteracties in planten. Ze ziet een toenemend belang van bestaande AI-tools in plaats van het bouwen van nieuwe modellen.

Onderwerpen

  • Ontwikkeling van een taalmodel voor Papiamento
  • Uitdagingen bij het verzamelen van data voor minderheidstalen
  • Misverstanden over de betrouwbaarheid van taalmodellen
  • AI-toepassingen in de biotechnologie
  • Toekomstplannen voor Linga GPT

Links

Genoemde entiteiten: KeyGene - Papiamento - Curaçao - Hugging Face - AlphaFold

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:06,600
In deze aflevering hoor je Gabi Ras, data scientist bij biotechbedrijf K-Gene, over

2
00:00:06,600 --> 00:00:10,400
haar project om een taalmodel voor Papiamento te ontwikkelen.

3
00:00:10,400 --> 00:00:14,720
Een uniek initiatief dat digitale inclusie bevordert voor minderheidstalen.

4
00:00:14,720 --> 00:00:20,120
Gabi deelt haar expertise over de technische uitdagingen bij het bouwen van taalmodellen

5
00:00:20,120 --> 00:00:26,480
voor kleinere talen en analyseert kritisch hoe AI in taaltechnologie als biotechnologie

6
00:00:26,480 --> 00:00:30,360
nieuwe mogelijkheden creëren voor voorheen onoplosbare vraagstukken.

7
00:00:30,360 --> 00:00:32,320
Veel plezier met deze aflevering!

8
00:00:34,340 --> 00:00:37,200
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

9
00:00:38,420 --> 00:00:39,940
Mijn naam Joop Snijder, CTO bij Aigency.

10
00:00:40,180 --> 00:00:42,660
Mijn naam Niels Naglé, Area Lead, Data  & AI bij Info Support.

11
00:00:42,980 --> 00:00:45,540
En vandaag een buitengewoon interessante gast.

12
00:00:46,110 --> 00:00:52,340
Want we gaan het hebben over taalmodellen, maar niet de taalmodellen zomaar ChatGPT waar we het vaak over hebben.

13
00:00:52,980 --> 00:00:56,120
Maar iets heel anders, dus blijf daar vooral naar luisteren.

14
00:00:56,880 --> 00:01:02,100
Maar voordat we daarin duiken, Gabi hebben wij in de studio, Gabi Ras.

15
00:01:02,620 --> 00:01:05,078
Zou je jezelf eerst willen voorstellen aan de luisteraars?

16
00:01:05,450 --> 00:01:07,640
Ja, hallo iedereen. Ik ben Gabi Ras.

17
00:01:08,220 --> 00:01:11,600
Ik ben op Curaçao geboren en toen ik 18 was verhuisde ik naar Nederland.

18
00:01:13,160 --> 00:01:19,940
Ik heb veel plekken op Nederland gewoond omdat ik best veel studies heb gedaan.

19
00:01:20,900 --> 00:01:24,440
Het begon eerst in Eindhoven met de industrieel ontwerpen.

20
00:01:25,180 --> 00:01:29,560
Daarin deed ik een vak over AI en daar wist ik eerst niks van.

21
00:01:29,840 --> 00:01:35,920
Maar dat vond ik geweldig en ik zag meteen de potentie voor de toekomst en hoe belangrijk dat kan zijn.

22
00:01:36,659 --> 00:01:41,280
En toen dacht ik na een jaartje van nee, ik wil niet doorgaan met industrieel ontwerpen.

23
00:01:42,380 --> 00:01:44,280
Dus ik ben toen naar Maastricht verhuisd.

24
00:01:44,780 --> 00:01:46,920
Daar heb ik kennistechnologie gedaan als bachelor.

25
00:01:47,900 --> 00:01:49,820
En daar heb ik wel vier jaar over gedaan.

26
00:01:51,000 --> 00:01:56,360
En toen, ja, dat is wat wij misschien tegenwoordig echt hardcore machine learning zouden noemen.

27
00:01:58,520 --> 00:02:00,040
Maar heel weinig neurale netwerken.

28
00:02:00,200 --> 00:02:01,620
En dat vond ik op zich wel interessant.

29
00:02:01,790 --> 00:02:03,460
Want ik wil daar meer over weten.

30
00:02:04,000 --> 00:02:07,880
Dus toen ben ik daar niet de master AI gaan doen.

31
00:02:09,060 --> 00:02:11,320
Maar ben ik naar Nijmegen verhuisd.

32
00:02:11,380 --> 00:02:12,540
Naar de Radboud Universiteit.

33
00:02:12,610 --> 00:02:18,340
Want daar specialiseerden ze zich in een soort van brain-inspired artificial intelligence.

34
00:02:19,779 --> 00:02:22,220
En ja, dat was ook gelijk een hit.

35
00:02:22,580 --> 00:02:23,420
Vond ik hartstikke leuk.

36
00:02:23,900 --> 00:02:30,580
En zo leuk dat ik daarna nog eventjes op de uni wou blijven rondspoken.

37
00:02:32,300 --> 00:02:35,500
Dus ik heb wat rondgekeken voor PhD's.

38
00:02:35,500 --> 00:02:37,880
Uiteindelijk een PhD bij het Radboud zelf gevonden.

39
00:02:38,960 --> 00:02:41,760
Het was eerst in effective computing.

40
00:02:42,079 --> 00:02:47,140
Dus hoe ga je met AI emoties detecteren?

41
00:02:49,540 --> 00:02:53,660
Ja, op een of andere manier werd het hem toch niet.

42
00:02:54,100 --> 00:02:57,280
Na het eerste jaar dacht ik van, ja, dit is interessant,

43
00:02:57,640 --> 00:02:59,540
maar er kwam ook wat andere dingen op mijn pad,

44
00:02:59,780 --> 00:03:01,080
waaronder explainable AI.

45
00:03:01,590 --> 00:03:02,740
Dat vond ik veel leuker.

46
00:03:03,500 --> 00:03:06,680
En toen heb ik samen met mijn promoters en co-promoters

47
00:03:06,740 --> 00:03:09,380
afgesproken dat ik dan van onderwerp switch.

48
00:03:10,619 --> 00:03:13,860
En ja, het eindproduct is een thesis geworden

49
00:03:14,160 --> 00:03:16,000
op explainable deep learning.

50
00:03:17,420 --> 00:03:21,360
En ja, dat duurde vier jaar.

51
00:03:22,580 --> 00:03:25,540
En dat is het zo'n beetje voor mijn achtergrond.

52
00:03:25,900 --> 00:03:31,460
Tegenwoordig werk ik als data scientist bij een biotechbedrijf in Wageningen, dat KeyGene heet.

53
00:03:32,240 --> 00:03:40,060
En daar hoor ik me veel bezig met vooral data, maar ook AI-modellen trainen op agrarische datasets.

54
00:03:41,260 --> 00:03:44,200
Voornamelijk voor de veredeling van gewassen.

55
00:03:45,820 --> 00:03:50,060
Gaaf. Wat triggerde je zo in het stukje explainable AI?

56
00:03:53,760 --> 00:03:56,300
Mijn promotor kwam een keertje langs van...

57
00:03:56,300 --> 00:04:01,440
ik heb een opdracht gekregen om een boekhoofdstuk te schrijven daarover.

58
00:04:02,400 --> 00:04:04,380
Ik heb daar geen tijd voor. Vind jij dat misschien wat?

59
00:04:04,980 --> 00:04:06,760
Dan dacht ik van ja, maar ik weet daar niks over.

60
00:04:07,240 --> 00:04:09,660
Dat geeft niet. Je hebt alle tijd om wat te doen.

61
00:04:10,600 --> 00:04:11,380
Toen dacht ik, oké.

62
00:04:11,900 --> 00:04:16,980
Dus het werd een soort van introductieverkenning.

63
00:04:17,180 --> 00:04:18,140
Ook voor mezelf ook.

64
00:04:18,399 --> 00:04:21,519
Maar vooral dat resultaten ervan opschrijven als een boekhoofdstuk.

65
00:04:23,980 --> 00:04:27,060
En ook een beetje vanuit de user perspective kijken.

66
00:04:27,520 --> 00:04:30,140
Naar wat het eigenlijk betekent om explainable AI te hebben.

67
00:04:33,440 --> 00:04:37,100
Een van mijn promoters is een filosoof, Pim Haselager.

68
00:04:38,300 --> 00:04:41,560
Hij heeft best wel invloed gehad op de manier waarop ik denk.

69
00:04:41,840 --> 00:04:47,540
Dat het niet allemaal heel technisch is, maar dat het vooral ook gaat om de juiste vragen stellen.

70
00:04:49,399 --> 00:04:53,440
De interactie met de samenleving goed in de gaten te houden.

71
00:04:53,559 --> 00:04:57,480
En over nadenken van wat betekent het als we bepaalde technologieën ontwikkelen.

72
00:04:57,620 --> 00:05:02,040
En hoe gaan ze zich in de realiteit instantiëren.

73
00:05:02,860 --> 00:05:04,900
Dat heb je niet altijd in de handen, vaak niet.

74
00:05:06,080 --> 00:05:09,760
En dat vond ik wel belangrijk om dat soort vragen te stellen.

75
00:05:10,830 --> 00:05:14,560
Ja, op zo'n manier, AI was niet meer nieuw tijdens mijn PhD.

76
00:05:16,959 --> 00:05:21,120
Maar dat soort vragen stellen vanuit niet een puur technisch perspectief,

77
00:05:21,170 --> 00:05:25,740
dat was wel nieuw en dat vond ik heel, hoe zeg je dat,

78
00:05:26,860 --> 00:05:29,940
het geeft je een andere kijk op de wereld en waar je je mee bezig bent.

79
00:05:30,740 --> 00:05:37,660
Dus dat vond ik wat mij het meeste eraan aantrok.

80
00:05:40,799 --> 00:05:43,400
Je bent ook bezig met taalmodellen.

81
00:05:43,750 --> 00:05:44,860
Kan je daar iets over vertellen?

82
00:05:46,480 --> 00:05:47,660
Ja, dus taalmodellen.

83
00:05:49,620 --> 00:05:50,940
Het was een tijdje geleden begonnen.

84
00:05:51,820 --> 00:05:55,020
Toen ik nog in het laatste jaar van mijn PhD zat.

85
00:05:57,240 --> 00:06:06,480
Toen kwam ik een wetenschappelijk artikel tegen over het vertalen van een Afrikaanse taal.

86
00:06:07,260 --> 00:06:08,980
Volgens mij was dat de taal Bimbe.

87
00:06:11,560 --> 00:06:17,720
Het ging mij niet per se om het vertalen zelf, maar dat er iets werd gedaan met AI en een kleine taal.

88
00:06:18,640 --> 00:06:22,380
Omdat ik uit Curaçao kom, ik spreek Papiamento, dat is mijn moedertaal.

89
00:06:26,780 --> 00:06:30,660
Ik werd ook ooit door een masterstudent benaderd die vroeg van,

90
00:06:30,880 --> 00:06:36,660
zijn jullie met AI bezig op Curaçao en kan ik daar een stageplek vinden?

91
00:06:36,720 --> 00:06:37,620
Kan je dat voor me regelen?

92
00:06:37,940 --> 00:06:42,700
Dus toen ging ik in mijn netwerk vragen en niemand hield zich bezig met AI.

93
00:06:44,400 --> 00:06:47,900
Dus door die ervaringen kwam op een gegeven moment de vraag in me op van,

94
00:06:48,100 --> 00:06:50,840
oké, maar wat zou het kosten?

95
00:06:51,920 --> 00:06:57,240
niet alleen maar qua geld, maar hoe ziet de pad naar AI voor Papiomintu uit?

96
00:06:58,440 --> 00:06:59,860
En dat was eerst gewoon een idee.

97
00:07:01,040 --> 00:07:06,140
En toen leerde ik ondertussen wel mensen kennen die iets met AI deden op het eiland.

98
00:07:06,980 --> 00:07:11,220
En kwamen we samen op het idee van laten we dit echt proberen te doen.

99
00:07:11,360 --> 00:07:12,920
En dit was nog voor ChatGPT.

100
00:07:13,660 --> 00:07:18,900
Dus het was een veel groter vraagstuk dan het nu is.

101
00:07:19,400 --> 00:07:22,460
Hoe zou je dat voor elkaar kunnen krijgen?

102
00:07:23,940 --> 00:07:28,800
En wat waren dan de eerste hobbels waar je tegen aan liep?

103
00:07:29,540 --> 00:07:32,460
Oh, de eerste hobbels? Die hobbels heb ik nog steeds.

104
00:07:33,540 --> 00:07:37,980
Dat gaat vooral om de resources eigenlijk.

105
00:07:38,640 --> 00:07:44,760
Vooral de data, maar ook mensen die zich mee bezig kunnen houden.

106
00:07:44,880 --> 00:07:47,720
Mensen die de modellen kunnen trainen.

107
00:07:49,100 --> 00:07:50,060
evaluatie kunnen doen.

108
00:07:51,080 --> 00:07:53,120
Want ik doe dit naast mijn baan.

109
00:07:53,180 --> 00:07:54,140
Naast mijn fulltime baan.

110
00:07:54,760 --> 00:07:56,260
Dus ik heb er niet heel veel tijd voor.

111
00:07:56,640 --> 00:07:57,600
Ik vind het wel super leuk.

112
00:07:57,860 --> 00:07:58,300
Heel interessant.

113
00:08:00,860 --> 00:08:01,660
Heel waardevol.

114
00:08:02,060 --> 00:08:02,460
Betekenisvol.

115
00:08:04,980 --> 00:08:07,120
Maar ja, het begon eerst met de data.

116
00:08:09,760 --> 00:08:11,580
Ja, dat was gelijk al een dingetje.

117
00:08:12,480 --> 00:08:13,700
Dus we hebben eerst data

118
00:08:14,740 --> 00:08:16,200
die we konden vinden op het internet.

119
00:08:16,380 --> 00:08:18,820
We hebben een heleboel gescraped.

120
00:08:20,520 --> 00:08:21,640
dat was niet super ethisch

121
00:08:22,700 --> 00:08:23,060
maar

122
00:08:24,120 --> 00:08:25,500
het ging ons meer om te kijken

123
00:08:25,580 --> 00:08:27,700
niet om een commercieel product te maken

124
00:08:27,730 --> 00:08:29,660
maar om te kijken van oké, hoe ver kunnen we

125
00:08:29,820 --> 00:08:31,600
komen met wat

126
00:08:31,650 --> 00:08:33,120
we nu kunnen ophalen vanuit het internet

127
00:08:33,240 --> 00:08:34,120
wat er beschikbaar is

128
00:08:35,140 --> 00:08:37,440
en was er dan vrij weinig gedigitaliseerd

129
00:08:37,760 --> 00:08:39,400
want het lijkt me dat er toch wel heel veel teksten

130
00:08:39,559 --> 00:08:41,299
geschreven zijn en beschikbaar zijn

131
00:08:41,390 --> 00:08:43,620
in de bibliotheken, maar was het dan niet digitaal

132
00:08:43,760 --> 00:08:45,560
of wat was de uitdaging daarin

133
00:08:45,980 --> 00:08:46,600
ja dus

134
00:08:47,880 --> 00:08:54,400
Dus in vergelijking met bijvoorbeeld Engels is papimento een minderheidsstaal.

135
00:08:55,280 --> 00:09:01,500
En je hebt dan heel weinig bestaande teksten op het internet.

136
00:09:02,080 --> 00:09:07,880
Omdat, zoals je het al zegt, heel veel boeken zijn fysiek beschikbaar in een bibliotheek.

137
00:09:08,530 --> 00:09:11,260
Of zitten in een privécollectie van iemand thuis.

138
00:09:11,570 --> 00:09:13,900
Of in een privébibliotheek.

139
00:09:14,400 --> 00:09:16,140
Dus dat was ook onderdeel van het probleem.

140
00:09:16,260 --> 00:09:18,420
is dat we niet goed wisten waar we moeten kijken.

141
00:09:19,080 --> 00:09:20,620
Dus we weten wel van het bestaat.

142
00:09:21,659 --> 00:09:23,020
Maar waar is het?

143
00:09:23,420 --> 00:09:26,460
En hoe krijgen we er toegang tot?

144
00:09:27,500 --> 00:09:32,120
Dat is ook een van de grote problemen waar we tegenaan botsten.

145
00:09:32,700 --> 00:09:35,420
Kan je iets vertellen over, want je zegt van...

146
00:09:35,420 --> 00:09:38,820
ik vind het heel betekenisvol en het heeft heel veel waarde voor me.

147
00:09:39,300 --> 00:09:40,140
Waar dat in zit?

148
00:09:42,900 --> 00:09:48,120
Waar zit die waarde voor jou in om zo'n kleine taal een model van te maken?

149
00:09:51,120 --> 00:09:55,500
Ten eerste, het is heel subjectief, maar heel dicht bij mijn hart.

150
00:09:55,620 --> 00:09:58,120
Omdat ik ben opgevoed in het papiamento.

151
00:09:59,200 --> 00:10:08,940
Dus het is niet gek, maar niet standaard om die taal tegen te komen.

152
00:10:09,620 --> 00:10:15,440
Misschien op het internet of tijdens het gebruik van allerlei digitale tools.

153
00:10:17,340 --> 00:10:20,840
En ik vind dat toch interessant om waar te maken.

154
00:10:20,890 --> 00:10:29,080
Want het geeft je dan een andere interactieervaring met de tools waar je mee bezig bent.

155
00:10:31,100 --> 00:10:34,620
En daarnaast zijn er ook andere vraagstukken die belangrijk zijn.

156
00:10:34,960 --> 00:10:43,080
Maar ze geven mij geen hele grote motivatie, maar ze zijn wel belangrijk.

157
00:10:44,340 --> 00:10:45,980
Eentje daarvan is de behoud van de taal natuurlijk.

158
00:10:47,040 --> 00:10:53,480
Als je met AI bezig bent, ben je ook als bijproduct bezig met het digitaliseren,

159
00:10:53,750 --> 00:11:00,260
met het maken van infrastructuur, aan het nadenken over hoe dit past binnen de samenleving op Curaçao.

160
00:11:00,340 --> 00:11:04,760
Wat zijn dingen die misschien wat meer automatisch kunnen, meer streamlined.

161
00:11:05,920 --> 00:11:15,440
Dus ik zag vooral ook de meerwaarde van de activiteiten die je dan zou moeten doen om tot AI voor papiemento te komen.

162
00:11:16,800 --> 00:11:18,240
En hoe ver zijn jullie nu?

163
00:11:21,620 --> 00:11:29,440
Als je erover nadenkt als een soort van iteratief proces, dan hebben we de eerste iteratie voltooid.

164
00:11:30,500 --> 00:11:32,840
En dat is gewoon vanuit het niks beginnen.

165
00:11:33,680 --> 00:11:35,580
En dan kijken van waar kunnen we data vinden.

166
00:11:35,900 --> 00:11:37,380
Wat voor modellen zijn er beschikbaar.

167
00:11:38,200 --> 00:11:40,860
Wat voor hardware hebben we nodig.

168
00:11:42,600 --> 00:11:46,020
En wat is het resultaat als je dat allemaal samenbrengt.

169
00:11:46,020 --> 00:11:47,420
Dan hebben we daar nu het product van.

170
00:11:47,700 --> 00:11:48,960
Dat heet Linga GPT.

171
00:11:49,560 --> 00:11:51,380
En dat is een GPT-2 model.

172
00:11:52,500 --> 00:11:56,500
En die is dan getraind op de dataset die wij hebben.

173
00:11:59,540 --> 00:12:07,740
Sorry dat ik je interumpeer, maar heb je dan alleen de data uit het papiamento?

174
00:12:08,380 --> 00:12:11,740
Of heb je daar nog meer talen onder?

175
00:12:12,340 --> 00:12:13,160
Nee, laat ik het anders zeggen.

176
00:12:13,260 --> 00:12:14,700
Ben je met een basismodel begonnen?

177
00:12:15,260 --> 00:12:17,040
Of is het echt helemaal vanaf scratch?

178
00:12:17,420 --> 00:12:18,280
Ik snap wat je bedoelt.

179
00:12:18,940 --> 00:12:21,100
Het idee was om ze te vergelijken.

180
00:12:21,420 --> 00:12:23,300
om te kijken naar de...

181
00:12:24,260 --> 00:12:26,380
Wat is het verschil als je begint van scratch

182
00:12:27,760 --> 00:12:30,100
versus met een basismodel beginnen?

183
00:12:30,100 --> 00:12:33,380
Dus je pakt een bestaand model dat al kennis in zich heeft

184
00:12:33,400 --> 00:12:38,120
en je traint dat verder op je Papiamento-corpus, je dataset.

185
00:12:40,360 --> 00:12:45,360
Uiteindelijk was de MVP van dit initiële project,

186
00:12:45,580 --> 00:12:46,960
dat was gewoon een taalmodel.

187
00:12:48,720 --> 00:12:53,500
Ik werkte ook samen met mensen die het meer interessant vonden om het van scratch te trainen.

188
00:12:54,160 --> 00:12:55,360
Dus de voorkeur ging daarnaartoe.

189
00:12:55,370 --> 00:12:56,640
Dus we hebben nu een van scratch.

190
00:12:57,500 --> 00:12:59,600
Maar dat is inderdaad een van de grootste vragen die je krijgt.

191
00:12:59,700 --> 00:13:03,040
Maar waarom heb je het niet met een basismodel gedaan?

192
00:13:03,160 --> 00:13:05,140
Dat staat nog steeds op de to-do-lijstje.

193
00:13:05,920 --> 00:13:10,620
Maar in principe hebben we een MVP binnen het project geleverd.

194
00:13:15,020 --> 00:13:17,620
Het moet wel aankomen, maar we zijn er daar nog niet.

195
00:13:17,760 --> 00:13:18,380
Nee, precies.

196
00:13:19,040 --> 00:13:21,580
En kan je iets zeggen over de infrastructuur?

197
00:13:22,600 --> 00:13:25,380
Ik krijg best wel eens regelmatig vragen van...

198
00:13:26,260 --> 00:13:29,900
Wat moet je eigenlijk allemaal doen om een eigen taalmodel te maken?

199
00:13:31,620 --> 00:13:34,400
Ja, eigenlijk niet zo superveel.

200
00:13:35,960 --> 00:13:38,140
Het grootste zit hem in de dataset.

201
00:13:41,340 --> 00:13:51,800
Ja, stel je handelt in een taal of een subdomein waarbij je een goede kwaliteit, redelijk grote dataset hebt.

202
00:13:52,360 --> 00:13:54,080
Dan ben je al meer dan de helft van de weg daar.

203
00:13:56,600 --> 00:13:58,920
En daarnaast heb je ook nog wat hardware nodig.

204
00:13:59,320 --> 00:14:04,100
Tegenwoordig is het niet echt meer noodzakelijk om iets per se te kopen.

205
00:14:05,560 --> 00:14:16,020
Wij hebben dat wel gedaan, omdat wij dachten van oké, als wij de hardware zelf hebben, dan hebben we er wat meer controle over.

206
00:14:16,620 --> 00:14:23,380
Dan hebben we niet te maken met subscriptions en we weten niet precies hoe lang dit gaat duren en uiteindelijk hoeveel het gaat kosten.

207
00:14:23,480 --> 00:14:31,320
Dus het investeren in hardware, dat was een keuze die we hebben gemaakt, omdat die keuze dan, ja het is een one time cost.

208
00:14:31,380 --> 00:14:33,480
Het is niet iets wat blijvend is.

209
00:14:35,060 --> 00:14:38,540
Daar hebben we nu bijvoorbeeld baat bij, want die Linger GPT draait gewoon op die server.

210
00:14:40,440 --> 00:14:43,120
Dat staat gewoon eigenlijk in mijn kantoortje thuis.

211
00:14:45,660 --> 00:14:49,720
Het vreet wel elektriciteit, maar dat wel.

212
00:14:50,480 --> 00:14:52,580
Maar als de zon schijnt is dat niet zo erg.

213
00:14:54,840 --> 00:14:55,900
Wat heb je nog meer verder?

214
00:14:56,170 --> 00:14:59,300
Je hebt ook mensen nodig, developers.

215
00:15:00,580 --> 00:15:04,800
We hebben het geluk gehad dat we zelf mee zijn begonnen.

216
00:15:05,100 --> 00:15:09,360
Maar het grootste deel van het werk werd gedaan door een stel freelancers eigenlijk.

217
00:15:12,260 --> 00:15:15,780
En die hebben de software-infrastructuur gemaakt.

218
00:15:16,120 --> 00:15:18,680
Maar het was eigenlijk heel erg simpel.

219
00:15:18,860 --> 00:15:23,240
Gebruik maken van heel veel functionaliteit vanuit de Hugging Face.

220
00:15:25,280 --> 00:15:30,500
En dat maakte het eigenlijk heel simpel om een model te trainen en ook later te fine-tunen.

221
00:15:31,460 --> 00:15:32,480
En het trainen zelf.

222
00:15:32,780 --> 00:15:36,360
Dus dan heb je je hardware, je hebt je data, je hebt je software infrastructure.

223
00:15:37,540 --> 00:15:42,160
En dan moet je nog alles gaan inladen en gaan kijken.

224
00:15:42,710 --> 00:15:44,660
Dus iteratief spelen met de...

225
00:15:44,700 --> 00:15:51,300
In dit geval niet, want ze had dan de stagiaire vanuit de Radboud Universiteit.

226
00:15:52,000 --> 00:16:01,780
en die heeft dan met een automatische hyperparameter tuning,

227
00:16:02,760 --> 00:16:06,000
dat heeft ze dus in elkaar gezet, dus daarbij gezet.

228
00:16:08,020 --> 00:16:11,580
En dan een beetje dat model gebabysit tijdens het trainen,

229
00:16:11,760 --> 00:16:15,240
kijken naar de resultaten, iets veranderen.

230
00:16:16,540 --> 00:16:18,279
Ik ben wel nieuwsgierig, je had ook een studie gedaan

231
00:16:18,300 --> 00:16:20,680
Een explainable AI voor neural networks.

232
00:16:21,300 --> 00:16:24,740
Heb je dat ook toegepast op deze oplossing?

233
00:16:25,720 --> 00:16:25,840
Nee.

234
00:16:27,500 --> 00:16:28,920
Staat die nog op de to-do-lijst?

235
00:16:30,100 --> 00:16:36,600
Ik denk later, want we zijn nu nog steeds niet in een toepassingsgebied.

236
00:16:38,440 --> 00:16:45,060
Ook een dingetje van explainable AI is dat je model wel een beetje moet werken voordat je ermee kan beginnen.

237
00:16:46,800 --> 00:16:50,840
En als je heel experimenteel bezig bent, is dat niet zo heel handig.

238
00:16:51,480 --> 00:16:57,100
Je kan het wel gebruiken, maar het vertrouwen in je resultaten, dat heb je dan niet.

239
00:16:59,139 --> 00:17:00,580
Als je model niet goed werkt.

240
00:17:02,560 --> 00:17:04,240
En hoe goed werkt het model nu dan?

241
00:17:05,020 --> 00:17:06,079
Als je dat zou moeten uitdrukken.

242
00:17:06,079 --> 00:17:06,760
Ja, niet zo goed.

243
00:17:07,319 --> 00:17:08,980
Qua spelling is het wel perfect.

244
00:17:10,638 --> 00:17:13,300
Want hij kent alleen maar de woorden in de dataset.

245
00:17:13,359 --> 00:17:15,579
Die zijn heel goed gespeld.

246
00:17:16,099 --> 00:17:18,380
Heel goed opgeschreven met de accenten op de juiste plek.

247
00:17:18,940 --> 00:17:24,020
Maar de zinnen, het is een soort van spaghetti.

248
00:17:25,520 --> 00:17:29,080
En omdat die heel veel op kranten...

249
00:17:29,120 --> 00:17:33,440
Het grootste deel van de dataset zijn toch krantenartikelen geworden.

250
00:17:35,320 --> 00:17:39,100
Dus het is nu gewoon een soort van mengelmoes van woorden

251
00:17:39,100 --> 00:17:41,019
die je in een typische Curaçaoze krant zou vinden.

252
00:17:42,200 --> 00:17:44,080
Maar er is weinig structuur.

253
00:17:46,779 --> 00:17:49,200
Wat is daarvoor nodig om dat beter te maken?

254
00:17:52,320 --> 00:17:55,240
Dus het fine-tunen zou enorm helpen.

255
00:17:55,519 --> 00:17:59,100
Het heeft voornamelijk te maken met de manier waarop we het hebben getraind.

256
00:17:59,200 --> 00:18:00,100
Dus vanaf scratch.

257
00:18:01,310 --> 00:18:08,920
Dus als ik nu een paar jaar geleden terug zou gaan naar de Gabi in 2023,

258
00:18:09,820 --> 00:18:13,620
zou ik zeggen van, luister niet naar je collega.

259
00:18:15,820 --> 00:18:17,320
Doe gewoon een fine tuning.

260
00:18:18,420 --> 00:18:19,620
Want daar leer je eigenlijk meer van.

261
00:18:21,080 --> 00:18:21,400
Maar goed.

262
00:18:22,360 --> 00:18:23,640
En wat leer je daar meer van dan?

263
00:18:23,800 --> 00:18:26,320
Want wat is dat inzicht dat je hebt opgedaan nu,

264
00:18:26,880 --> 00:18:29,380
dat je terug zou willen geven aan de Gabi van twee jaar geleden?

265
00:18:29,880 --> 00:18:33,920
Ja, dus er is gewoon puur genoeg niet de data die wij hebben,

266
00:18:34,260 --> 00:18:36,780
de kwaliteit en de hoeveelheid is gewoon niet genoeg

267
00:18:36,900 --> 00:18:39,700
om tot een goede basismodel te komen.

268
00:18:40,220 --> 00:18:41,660
Als je dat vanaf scratch wil trainen.

269
00:18:41,790 --> 00:18:49,300
Als je begint met bijvoorbeeld een model in het Portugees of Spaans,

270
00:18:50,300 --> 00:18:53,260
dan is dat getraind op veel meer data.

271
00:18:55,140 --> 00:19:00,540
En de zinsstructuren zijn veel beter geleerd en gecodeerd in dat model.

272
00:19:01,140 --> 00:19:02,920
En daar kan je direct op bouwen.

273
00:19:03,110 --> 00:19:07,620
Dus dan is je model minder bezig met wat is taal,

274
00:19:07,820 --> 00:19:10,180
Wat is de juiste volgorde van een zin?

275
00:19:11,160 --> 00:19:13,020
Maar dat bestaat al zo'n beetje in dat model.

276
00:19:13,340 --> 00:19:15,360
En dan kan hij zich meer focussen op...

277
00:19:15,620 --> 00:19:19,000
Oké, de woorden zijn soortgelijk, maar net anders.

278
00:19:19,850 --> 00:19:21,640
Dus ik moet nu gewoon nieuwe regels leren...

279
00:19:25,480 --> 00:19:31,440
waarbij we de huidige PapiMintu-dataset beter kunnen mappen...

280
00:19:31,620 --> 00:19:36,180
in het model die al getraind is op een soort van verwante taal.

281
00:19:36,620 --> 00:19:41,140
Dus eigenlijk een taal bijleren in plaats van scratch een taal helemaal leren.

282
00:19:41,500 --> 00:19:44,160
Dat is in die zin makkelijker omdat je de contexten weet.

283
00:19:44,280 --> 00:19:45,620
Je weet hoe een zin zo bouwen moet.

284
00:19:45,760 --> 00:19:47,500
Je weet bepaalde structuren.

285
00:19:48,020 --> 00:19:50,460
En dat is makkelijker te vertalen naar een andere taal.

286
00:19:50,920 --> 00:19:52,140
Dus daar heb je eigenlijk een boost van.

287
00:19:52,640 --> 00:19:52,940
Zeker.

288
00:19:53,940 --> 00:19:55,460
En wat je denk ik ook niet moet vergeten is.

289
00:19:55,480 --> 00:19:59,520
We zijn nu zo gewend aan de werking van de huidige taalmodellen.

290
00:20:00,220 --> 00:20:01,680
Dat is niet alleen maar het model zelf.

291
00:20:01,940 --> 00:20:05,920
Je hebt het hele laag eromheen van reinforcement learning with human feedback.

292
00:20:06,340 --> 00:20:13,120
Dat er een alignment is tussen wat uit het model komt en hoe wij graag de output zien.

293
00:20:13,460 --> 00:20:16,560
Er zit nu zoveel meer omheen rondom dat model.

294
00:20:17,420 --> 00:20:19,560
En jullie hebben eigenlijk vooral het model.

295
00:20:21,680 --> 00:20:22,500
Wat doe je daarmee?

296
00:20:24,979 --> 00:20:27,160
Dus dat er omheen zit, dat hebben wij niet?

297
00:20:27,240 --> 00:20:27,340
Nee.

298
00:20:27,500 --> 00:20:27,960
Dat klopt, ja.

299
00:20:28,640 --> 00:20:30,680
Dat wordt ons ook vaag gevraagd.

300
00:20:31,520 --> 00:20:34,700
Maar kan ik jullie niet gewoon helpen door met dat model te spreken?

301
00:20:34,960 --> 00:20:36,640
En te zeggen van dit is goed of dat is fout.

302
00:20:37,460 --> 00:20:41,840
En dan moet ik altijd uitleggen van ja, dat kan als het bestaat.

303
00:20:42,800 --> 00:20:43,660
Maar het bestaat niet.

304
00:20:45,040 --> 00:20:48,440
Dus eigenlijk wat wij willen bereiken is best wel ambitieus.

305
00:20:49,080 --> 00:20:55,460
Niet omdat het heel innovatief is, maar omdat je meer mensen nodig hebt.

306
00:20:59,460 --> 00:21:04,920
En aan de andere kant heeft dat ook direct te maken met dat wij dit niet als komende.

307
00:21:04,940 --> 00:21:06,900
commercieel project benaderen. Dus dan

308
00:21:07,560 --> 00:21:08,840
heb je eigenlijk vrijwilligers nodig.

309
00:21:09,160 --> 00:21:10,920
En daar zit het probleem eigenlijk,

310
00:21:11,000 --> 00:21:12,240
want iedereen is heel erg druk.

311
00:21:14,140 --> 00:21:14,920
Ik denk dat het heel

312
00:21:15,120 --> 00:21:16,940
mooi is wat je zegt, want er is

313
00:21:16,940 --> 00:21:18,060
een belevenis dat

314
00:21:18,660 --> 00:21:20,600
het maken van dit soort modellen

315
00:21:21,160 --> 00:21:22,400
eigenlijk vrij eenvoudig is.

316
00:21:23,300 --> 00:21:25,020
Er zit zoveel mensenwerk

317
00:21:25,260 --> 00:21:26,520
in, uren,

318
00:21:27,080 --> 00:21:27,780
energie, tijd,

319
00:21:28,880 --> 00:21:30,160
dat dat wordt heel erg vergeten.

320
00:21:31,240 --> 00:21:32,840
Ja, nee, inderdaad.

321
00:21:34,700 --> 00:21:34,900
Want

322
00:21:34,920 --> 00:21:42,880
Het is niet moeilijk, omdat er juist aan de andere kant van de wereld,

323
00:21:43,040 --> 00:21:46,700
overal eigenlijk, mensen mee bezig zijn.

324
00:21:48,200 --> 00:21:50,120
Dus wij bouwen daarop voort.

325
00:21:53,200 --> 00:21:55,820
Je moet je bewust zijn van wat er bestaat,

326
00:21:57,920 --> 00:22:03,040
zodat je gewoon werkt met de beste technologie die jou het beste boost geeft.

327
00:22:03,660 --> 00:22:07,900
Ja, om inderdaad mee het mogelijk te maken wat je wil met de minimale resources die er zijn.

328
00:22:08,100 --> 00:22:09,900
Omdat dat gewoon beperkte resources zijn.

329
00:22:10,370 --> 00:22:14,400
Dus op dit moment is de feedback van de gebruikers nog niet mogelijk.

330
00:22:14,940 --> 00:22:17,200
Maar dat zou wel een enorme boost kunnen geven aan het model.

331
00:22:18,140 --> 00:22:18,960
Uiteindelijk wel, ja.

332
00:22:20,980 --> 00:22:26,720
Je bent data scientist, wat je dagelijks doet.

333
00:22:27,260 --> 00:22:32,860
Wat heb je meegenomen uit wat je geleerd hebt uit het project rondom het maken van een taalmodel?

334
00:22:33,580 --> 00:22:34,800
in je dagelijkse werk?

335
00:22:36,600 --> 00:22:36,820
Ja,

336
00:22:38,980 --> 00:22:39,640
het is wel,

337
00:22:40,820 --> 00:22:42,740
dat vraag ik mezelf ook af.

338
00:22:43,840 --> 00:22:44,100
Maar,

339
00:22:45,840 --> 00:22:46,420
ja, ik denk,

340
00:22:47,680 --> 00:22:48,440
het is gewoon puur,

341
00:22:49,010 --> 00:22:50,100
ik weet nog tijdens mijn

342
00:22:51,220 --> 00:22:52,580
interview daar, mijn eerste

343
00:22:52,700 --> 00:22:54,400
gesprek daar, stelde

344
00:22:54,620 --> 00:22:56,280
een nieuwe collega, die vroeg dan,

345
00:22:57,080 --> 00:22:58,600
ben je bekend met large language mods?

346
00:22:59,130 --> 00:22:59,280
Ja.

347
00:22:59,650 --> 00:23:00,660
Dan kon ik wel ja zeggen.

348
00:23:02,660 --> 00:23:06,760
Dus misschien was dat ook een van de redenen dat ik werd aangenomen.

349
00:23:08,000 --> 00:23:13,300
Maar het geeft je gewoon heel veel algemene kennis over dit gebied eigenlijk.

350
00:23:15,739 --> 00:23:19,960
Het toepassingsgebied binnen KeyGene is natuurlijk heel erg anders.

351
00:23:22,460 --> 00:23:24,880
Ik weet niet of jullie het daar nu over willen hebben.

352
00:23:25,120 --> 00:23:27,560
We gaan het zo direct.

353
00:23:27,740 --> 00:23:29,180
Ik ben namelijk wel benieuwd.

354
00:23:30,480 --> 00:23:36,300
Wat is nou eigenlijk een misverstand met de kennis die jij hebt opgedaan die mensen hebben over taalmodellen?

355
00:23:42,540 --> 00:23:44,820
Ja, want het ontwikkelt zich heel erg snel.

356
00:23:45,680 --> 00:23:52,760
Maar wat ik nog steeds vaak zie is dat mensen blindelings vertrouwen op de output van die taalmodellen.

357
00:23:53,760 --> 00:23:56,500
Het is inmiddels wel bekend dat je dat niet moet doen.

358
00:23:57,800 --> 00:24:02,780
Dus vergeleken met bijvoorbeeld twee jaar geleden, er is gewoon veel meer kennis over.

359
00:24:02,850 --> 00:24:08,480
En ook bij, hoe zeg je dat, gewoon de normale persoon.

360
00:24:08,700 --> 00:24:12,600
Ja, brede doelgroep inderdaad in de maatschappij, die weten er nu meer van.

361
00:24:13,480 --> 00:24:18,180
Inderdaad, het zit nu niet meer alleen maar bij mensen die zich mee bezighouden.

362
00:24:18,340 --> 00:24:23,580
Dus ja, mijn moeder en al haar vriendinnen gebruiken ook JTBT.

363
00:24:24,080 --> 00:24:26,700
Als ik mijn moeder vraag van hoe werkt, dit kan ze het een beetje uitleggen.

364
00:24:27,280 --> 00:24:42,960
Dus ja, maar ik lees wel dagelijks artikelen waarbij iemand die misschien mentaal niet super sterk is,

365
00:24:43,380 --> 00:24:51,560
die vertrouwen nog steeds wel blindelings in de output van deze LLMs.

366
00:24:51,800 --> 00:24:55,840
Maar het ligt ook niet helemaal bij de gebruiker zelf.

367
00:24:57,240 --> 00:25:02,260
Want de LLM's geven ook best wel vaak iets terug waarbij je denkt van...

368
00:25:02,260 --> 00:25:03,760
Oh ja, die zeggen zo van...

369
00:25:03,760 --> 00:25:05,040
Oh, that's a great question.

370
00:25:05,100 --> 00:25:06,240
Dat was echt een geweldige vraag.

371
00:25:06,400 --> 00:25:08,200
Of oh, wat een goede inzicht.

372
00:25:09,020 --> 00:25:12,500
En dan merk ik bij mezelf dat ik ook denk van...

373
00:25:12,500 --> 00:25:12,700
Ja, ja.

374
00:25:13,620 --> 00:25:13,960
Ammer op.

375
00:25:14,320 --> 00:25:14,800
Ja, ja.

376
00:25:15,420 --> 00:25:15,940
I get it.

377
00:25:17,300 --> 00:25:22,180
Maar ja, als je daar vatbaar voor bent, dan kan ik me heel goed voorstellen...

378
00:25:22,180 --> 00:25:23,800
dat het dan juist...

379
00:25:24,400 --> 00:25:26,400
Het vormt een soort van vicieuze cirkel.

380
00:25:26,600 --> 00:25:31,180
Dat je dan in een loop terechtkomt waarbij je bepaalde dingen denkt.

381
00:25:31,400 --> 00:25:36,680
En dat de LLM dat reinforced, dat versterkt.

382
00:25:41,200 --> 00:25:43,780
Ik merk ook soms dat als je...

383
00:25:45,240 --> 00:25:46,580
Het gebeurt ook bij mezelf.

384
00:25:46,670 --> 00:25:52,640
Als ik een vraag stel waarbij ik zelf niet echt kan controleren of het antwoord goed is.

385
00:25:53,620 --> 00:25:55,420
Dat ik het op zich wel vertrouw.

386
00:25:55,520 --> 00:26:00,000
Dus als ik denk van, ja, dit ziet er een beetje logisch uit.

387
00:26:00,280 --> 00:26:01,120
Ja, oké.

388
00:26:02,480 --> 00:26:05,440
Ik probeer heel vaak dat juist te checken.

389
00:26:05,530 --> 00:26:09,660
Door gewoon even heel snel op Wikipedia kijken.

390
00:26:13,440 --> 00:26:18,920
Maar ik kan me wel voorstellen dat er mensen zijn die denken van, oké, dit ziet er gewoon heel goed uit.

391
00:26:19,100 --> 00:26:19,940
Ik gebruik het meteen.

392
00:26:21,660 --> 00:26:31,100
Kan je vanuit de techniek aangeven waarom het zo lastig is dat het taalmodel niet onzeker kan zijn?

393
00:26:34,740 --> 00:26:38,900
Volgens mij heeft dat te maken met de manier waarop het getraind is.

394
00:26:39,220 --> 00:26:50,200
Het doel van het taalmodel is om een bepaald cijfertje omhoog te halen.

395
00:26:52,380 --> 00:26:53,560
en dat cijfertje heeft

396
00:26:53,840 --> 00:26:55,100
heel veel te maken met

397
00:26:55,500 --> 00:26:57,460
wat er in je dataset wordt gezegd

398
00:26:58,020 --> 00:26:59,400
stel wordt er in je dataset

399
00:26:59,800 --> 00:27:00,420
gezegd van

400
00:27:01,620 --> 00:27:03,180
de lucht is rood

401
00:27:03,620 --> 00:27:05,180
dan wordt dat heel vaak gezegd

402
00:27:05,400 --> 00:27:07,600
heel erg vaak, en soms staat er wel de lucht is blauw

403
00:27:08,260 --> 00:27:08,500
maar

404
00:27:09,360 --> 00:27:11,140
90% staat er de lucht is rood

405
00:27:13,420 --> 00:27:14,760
de taalmodel wordt

406
00:27:16,720 --> 00:27:17,200
beloond

407
00:27:17,620 --> 00:27:18,519
als die ook zei van

408
00:27:18,920 --> 00:27:20,780
Ja, inderdaad, de lucht is rood.

409
00:27:24,960 --> 00:27:27,920
En dan zit er eigenlijk heel weinig ruimte

410
00:27:30,160 --> 00:27:32,540
dat die kan zeggen van de lucht is rood.

411
00:27:33,080 --> 00:27:36,040
Maar er zijn ook mensen die zeggen dat die blauw is.

412
00:27:36,340 --> 00:27:37,640
Dus ik weet het eigenlijk niet.

413
00:27:38,800 --> 00:27:40,860
En om dat ook te formuleren,

414
00:27:41,250 --> 00:27:45,920
want in een taalmodel is gewoon heel erg veel wiskunde.

415
00:27:47,180 --> 00:27:50,160
Dus alles wat je eigenlijk aan een taalmodel geeft,

416
00:27:50,780 --> 00:27:53,700
moet vervormd worden tot iets wat wiskunde voorstelt.

417
00:27:54,460 --> 00:27:59,400
En als je nou wilt zeggen van, ik wil dat jij meer onzeker bent,

418
00:28:00,660 --> 00:28:05,100
maar toch dat je goed kan oppakken wat er in je dataset zit,

419
00:28:05,840 --> 00:28:07,160
dat is ook lastig.

420
00:28:09,160 --> 00:28:12,660
En ik denk wel dat men mee bezig is,

421
00:28:12,660 --> 00:28:15,020
of er zijn zeker mensen die mee bezig zijn,

422
00:28:17,460 --> 00:28:23,560
Maar ik weet ook niet vanuit een commerciële perspectief of dat iets is dat interessant is.

423
00:28:23,860 --> 00:28:24,240
Oh ja.

424
00:28:25,280 --> 00:28:30,320
Dat is wel een interessante gedachte, dat het commercieel niet wenselijk wordt.

425
00:28:30,740 --> 00:28:38,720
Als ik dan als gebruiker iets vraag aan, dat wordt het geval van voorbeeld ChatGPT zeggen.

426
00:28:39,640 --> 00:28:42,360
Als ik de hele tijd iets aan ChatGPT vraag en die zegt van,

427
00:28:42,820 --> 00:28:46,060
Oh ja, nee, misschien is het dit of dat.

428
00:28:46,780 --> 00:28:49,180
Op een gegeven moment denk ik ook van, ja, maar die weet het gewoon niet.

429
00:28:49,460 --> 00:28:53,220
En dan kan ik het net zo goed ook zelf gokken.

430
00:28:53,800 --> 00:28:54,880
Wat moet ik ermee?

431
00:28:55,600 --> 00:28:58,380
Dus het heeft ook denk ik te maken met de psychologie van de mens.

432
00:28:59,800 --> 00:29:01,260
Er zijn bepaalde verwachtingen.

433
00:29:01,500 --> 00:29:02,500
Ze hebben heel veel studies gedaan.

434
00:29:02,640 --> 00:29:03,820
Nu worden ze ook gedaan voor chatbox.

435
00:29:03,980 --> 00:29:05,740
Maar vooral ook op robots.

436
00:29:06,820 --> 00:29:10,040
Dat als je dan iets ziet wat heel slik eruit ziet.

437
00:29:10,340 --> 00:29:13,700
heel erg af, heel erg technologisch.

438
00:29:15,280 --> 00:29:18,360
Dat je vanzelf een soort van vertrouwen eraan geeft,

439
00:29:18,460 --> 00:29:20,260
zonder dat je daar bewust van bent.

440
00:29:21,440 --> 00:29:24,420
En dat je denkt van, oké, de algoritme, de computer, de robot,

441
00:29:25,060 --> 00:29:27,880
die weet het vast beter, want die is niet moe.

442
00:29:28,280 --> 00:29:32,180
Die heeft geen ruzie gehad met de partner.

443
00:29:34,340 --> 00:29:35,920
Ja, die is gewoon heel erg objectief.

444
00:29:36,080 --> 00:29:38,120
En objectief is goed, objectief klopt.

445
00:29:38,580 --> 00:29:40,820
En kent geen twijfel, zeg je eigenlijk dan ook nog.

446
00:29:42,920 --> 00:29:44,620
Er is geen simpel antwoord op.

447
00:29:44,690 --> 00:29:45,300
Het is complex.

448
00:29:45,520 --> 00:29:46,320
Dus om het samen te vatten.

449
00:29:46,460 --> 00:29:47,920
Het heeft te maken met de psychologie van de mens.

450
00:29:48,130 --> 00:29:49,640
De commerciële interesses.

451
00:29:50,200 --> 00:29:53,780
En ook de technische challenges.

452
00:29:54,050 --> 00:29:56,360
Van hoe je dit eigenlijk überhaupt verhoort.

453
00:29:57,640 --> 00:29:58,980
Ik vind het wel een hele interessante gedachte.

454
00:29:59,280 --> 00:30:00,780
Vanuit het commerciële perspectief inderdaad.

455
00:30:00,880 --> 00:30:03,360
Hoeveel waarde zit er dan in om onzeker te zijn.

456
00:30:03,540 --> 00:30:05,680
Terwijl eigenlijk zou ik het wel fijn vinden.

457
00:30:05,910 --> 00:30:06,860
Als er twijfel is.

458
00:30:06,890 --> 00:30:08,360
En er zijn meerdere wegen naar Rome.

459
00:30:08,460 --> 00:30:10,280
in het taalmodel ook, allemaal verschillende regen

460
00:30:10,360 --> 00:30:12,220
om een antwoord te geven. Als er

461
00:30:12,440 --> 00:30:14,160
heel veel zijn en waar een bepaalde

462
00:30:14,580 --> 00:30:16,220
variatie zit in de wiskunde dan,

463
00:30:16,760 --> 00:30:18,500
dat ik daar in ieder geval verschillende smaken

464
00:30:18,500 --> 00:30:20,580
van krijg. Dat gevoel krijg ik nu niet

465
00:30:21,040 --> 00:30:22,060
van ChatGPT.

466
00:30:22,240 --> 00:30:24,020
Dit is het en zo moet het.

467
00:30:24,920 --> 00:30:26,020
In gesprekken zoals dit

468
00:30:26,250 --> 00:30:27,760
zijn er altijd meerdere wegen naar Rome.

469
00:30:27,850 --> 00:30:30,760
Ik zou eigenlijk wel AI willen die dat zou ondersteunen.

470
00:30:32,580 --> 00:30:33,380
Een twijfelende AI.

471
00:30:34,060 --> 00:30:34,800
Raar dat ik dat eigenlijk vraag.

472
00:30:37,720 --> 00:30:39,880
Ik had nog een vraag.

473
00:30:40,740 --> 00:30:42,920
Als we even mogen vooruitkijken.

474
00:30:43,720 --> 00:30:45,880
Hoe zie jij je taalmodel dadelijk gebruikt worden.

475
00:30:46,000 --> 00:30:46,840
Waar je nu mee bezig bent.

476
00:30:47,060 --> 00:30:48,420
En waar zou jij echt blij zijn.

477
00:30:48,660 --> 00:30:50,260
Als dit wordt toegepast in de praktijk.

478
00:30:50,270 --> 00:30:50,700
Dan denk ik van.

479
00:30:50,780 --> 00:30:51,300
Oh wauw.

480
00:30:54,620 --> 00:30:55,360
Eén plek.

481
00:30:57,740 --> 00:30:58,300
Waarbij er.

482
00:30:59,160 --> 00:31:00,540
Echt concreet vraag naar is.

483
00:31:00,960 --> 00:31:02,580
Is bij het gebruik in het overheid.

484
00:31:04,660 --> 00:31:06,500
Ik gok ook op Aruba en Bonaire.

485
00:31:06,920 --> 00:31:09,180
Maar ik heb concreet gesproken met mensen uit Curaçao.

486
00:31:10,380 --> 00:31:16,720
En die zeggen zeker iets te willen die samen kan vatten in het Papier Mintu.

487
00:31:17,020 --> 00:31:20,020
En ook gesprekken beluisteren en opschrijven.

488
00:31:20,980 --> 00:31:23,360
Dus dat is gewoon iets heel concreets.

489
00:31:24,080 --> 00:31:29,080
Maar bij het algemeen publiek zou het fijn zijn als men op hun telefoon,

490
00:31:29,380 --> 00:31:34,239
in plaats van dat ze naar de ChatGPT-app gaan, dat ze naar bijvoorbeeld LingardGPT gaan

491
00:31:34,260 --> 00:31:36,840
en daar hun vraag gewoon in het papiamento stellen.

492
00:31:37,760 --> 00:31:39,120
Dat zou heel mooi zijn.

493
00:31:39,330 --> 00:31:40,640
Ja, zeker heel mooi inderdaad.

494
00:31:40,830 --> 00:31:44,060
Want je raakt dan ook een gebied die misschien anders niet de tools kunnen gebruiken,

495
00:31:44,220 --> 00:31:47,640
die wat minder Engels of andere talen vaardig zijn.

496
00:31:48,220 --> 00:31:49,380
Dus bereikt eigenlijk het publiek.

497
00:31:49,380 --> 00:31:52,800
Ik denk dat het heel mooi is voor talen die niet zoveel data digitaal hebben,

498
00:31:52,980 --> 00:31:54,720
om dit als toepassing te zien.

499
00:31:55,260 --> 00:31:55,600
Zeker.

500
00:31:56,600 --> 00:31:59,140
We hebben ook een kaartspel met stellingen.

501
00:31:59,340 --> 00:32:02,200
En we willen graag ook een stelling aan jou voorleggen.

502
00:32:03,260 --> 00:32:03,920
Ja, oké.

503
00:32:04,280 --> 00:32:04,480
Leuk?

504
00:32:15,760 --> 00:32:16,960
De stapel werd steeds kleiner.

505
00:32:17,320 --> 00:32:18,400
Ja, maar tijd voor de volgende.

506
00:32:21,540 --> 00:32:24,660
De categorie van deze keer is gebruik en toepassingen.

507
00:32:25,100 --> 00:32:26,260
En de stelling luidt.

508
00:32:26,940 --> 00:32:30,880
Generatieve AI verrijkt menselijke creativiteit.

509
00:32:35,720 --> 00:32:36,120
Het kan

510
00:32:36,680 --> 00:32:41,300
Ik heb het ook gezien

511
00:32:42,680 --> 00:32:43,240
Bijvoorbeeld

512
00:32:44,379 --> 00:32:46,100
Een goede kennis van mij

513
00:32:46,699 --> 00:32:48,040
Die hebben jullie ook als gast

514
00:32:49,020 --> 00:32:50,120
Hier gehad, Jeroen van der Most

515
00:32:50,520 --> 00:32:52,700
Die gebruikt AI

516
00:32:53,160 --> 00:32:54,540
Dat is echt de core van zijn werk

517
00:32:54,720 --> 00:32:56,600
Die gebruikt het ook om tot nieuwe

518
00:32:58,060 --> 00:32:58,859
Kunstwerken te komen

519
00:33:00,700 --> 00:33:02,200
dus ja, het kan ook zeker

520
00:33:02,200 --> 00:33:03,940
ik heb ook zelf een project met hem gedaan

521
00:33:04,380 --> 00:33:05,080
enkele jaren terug

522
00:33:05,920 --> 00:33:06,860
en het heeft geleid tot een

523
00:33:09,760 --> 00:33:11,340
quote generating system

524
00:33:11,890 --> 00:33:14,060
die tot een jaar geleden

525
00:33:14,160 --> 00:33:16,680
dacht ik hangt bij de Radboud Universiteit

526
00:33:16,690 --> 00:33:17,380
als je binnenloopt

527
00:33:19,940 --> 00:33:22,520
maar ja, ik kom ook vaak

528
00:33:23,480 --> 00:33:24,900
de stem tegen die zegt van

529
00:33:25,400 --> 00:33:27,679
nee, dat is

530
00:33:27,700 --> 00:33:29,980
dat steelt alleen maar.

531
00:33:31,140 --> 00:33:35,140
Het is niet verrijken, want het is niet ethisch.

532
00:33:39,219 --> 00:33:43,120
Dus ik denk, het zit hem in hoe je het benadert,

533
00:33:43,960 --> 00:33:48,060
maar ook hoeveel je kennis is over dit soort systemen,

534
00:33:48,800 --> 00:33:50,360
wat ze kunnen, hoe ze werken.

535
00:33:53,760 --> 00:33:55,840
En waar kan je het eigenlijk?

536
00:33:56,120 --> 00:33:58,340
Want dat is ook even zoeken, even uitpuzzelen.

537
00:33:58,420 --> 00:34:02,280
Want ik denk dat Jeroen die begon niet gelijk op dag één met een LLM.

538
00:34:03,500 --> 00:34:08,679
Maar het is ook even uitpluizen van, ja, wat doe ik nou als kunstenaar?

539
00:34:08,830 --> 00:34:12,320
En waar gebruik ik de AI voor?

540
00:34:12,650 --> 00:34:16,179
Wat doet de AI? Hoe transformeert die de data?

541
00:34:16,670 --> 00:34:18,400
Of wat voegt de AI toe?

542
00:34:19,060 --> 00:34:23,280
Ik denk dat als je het benadert als een soort van samenwerking tussen mens en AI,

543
00:34:24,080 --> 00:34:28,360
Dat je echt hele interessante kunstwerken kan maken.

544
00:34:29,800 --> 00:34:30,020
Leuk.

545
00:34:31,460 --> 00:34:34,719
En Nielse, jij was ook nog heel erg geïnteresseerd natuurlijk vanuit jouw achtergrond.

546
00:34:34,900 --> 00:34:36,560
Vanuit de agri- en foodsector.

547
00:34:36,560 --> 00:34:41,699
Ik was wel nieuwsgierig van wat voor AI-toepassingen ben je zoal dagelijks mee bezig.

548
00:34:41,699 --> 00:34:43,440
En zie je daar ook al veel LLMs?

549
00:34:43,440 --> 00:34:48,520
Of is het met name echt de harde machine learning?

550
00:34:48,580 --> 00:34:51,478
Ja, ik heb collega's die zich bezighouden met de harde machine learning.

551
00:34:53,120 --> 00:34:54,320
Maar die houden zich meer...

552
00:34:54,978 --> 00:34:59,680
Er zijn binnen Kijgin, grof gezegd, misschien twee soorten projecten.

553
00:35:00,400 --> 00:35:04,620
Eén is een heel groot project dat misschien tien jaar duurt.

554
00:35:04,760 --> 00:35:10,340
En het is een cutting-edge project, want de technologie bestaat misschien gewoon niet.

555
00:35:11,199 --> 00:35:15,440
Of de technologie bestaat wel, maar het is niet heel duidelijk hoe je hem toepast.

556
00:35:16,199 --> 00:35:17,520
Daar werk ik voornamelijk aan.

557
00:35:18,320 --> 00:35:22,780
En ik heb ook collega's die werken aan een kort project met een heel concreet vraagstuk.

558
00:35:22,800 --> 00:35:27,479
van een andere agritechbedrijf.

559
00:35:27,530 --> 00:35:29,060
Die hebben dan een hele concrete vraagstuk.

560
00:35:29,180 --> 00:35:30,960
Dat leveren ze dan aan Keygene.

561
00:35:31,550 --> 00:35:37,040
En hij werkt dan met normale klassieke machine learning modellen.

562
00:35:38,440 --> 00:35:39,520
Om tot inzichten te komen.

563
00:35:40,040 --> 00:35:41,660
Kan je iets vertellen over wat voor toepassingen?

564
00:35:41,730 --> 00:35:42,640
Ik weet niet of je het kan zeggen.

565
00:35:42,800 --> 00:35:48,500
Maar wat is jouw beeld van wat er nu in de markt van agri en food met AI wordt ingevuld?

566
00:35:48,580 --> 00:35:51,280
En waar je eigenlijk nog zegt, waarom zijn we er daar nog niet mee bezig?

567
00:35:53,120 --> 00:35:54,280
Ik kan wel even vertellen

568
00:35:54,460 --> 00:35:56,220
heel globaal

569
00:35:56,220 --> 00:35:57,500
waar ik zelf mee bezig ben

570
00:35:58,360 --> 00:36:00,120
Ik besteed het grootste deel

571
00:36:00,120 --> 00:36:01,760
van mijn tijd nu om een

572
00:36:02,480 --> 00:36:03,740
het wordt wel heel

573
00:36:04,100 --> 00:36:04,780
biologisch, maar

574
00:36:05,860 --> 00:36:07,800
om te voorspellen

575
00:36:08,690 --> 00:36:09,640
of twee eiwitten

576
00:36:09,650 --> 00:36:12,280
met elkaar kunnen interacteren

577
00:36:16,800 --> 00:36:17,960
Waarom is dat belangrijk?

578
00:36:19,940 --> 00:36:21,300
Goeie vraag

579
00:36:21,760 --> 00:36:28,100
Ja, dus een eiwit is echt een heel breed concept eigenlijk.

580
00:36:29,560 --> 00:36:34,440
Maar eiwitten zijn structuren binnen onze lichaam die echt een heleboel dingen doen.

581
00:36:38,020 --> 00:36:44,540
En kern van waarom ze belangrijk zijn, is omdat ze gewoon helpen met heel veel cruciale processen in het lichaam.

582
00:36:44,840 --> 00:36:46,500
Dus bij ons, maar ook bij planten.

583
00:36:50,200 --> 00:36:54,200
Bijvoorbeeld de herkenning van een patogeen.

584
00:36:54,680 --> 00:36:57,800
Een patogeen is een soort van ziekte voor een plant.

585
00:36:57,880 --> 00:36:59,980
Dat is een virus of wat dan ook.

586
00:37:00,880 --> 00:37:06,560
En eigenlijk hoe die dingen met de plant interacteren, dat is heel erg biologisch.

587
00:37:06,560 --> 00:37:08,920
Dat zit echt op molecuulniveau.

588
00:37:09,760 --> 00:37:12,180
En dan heb je al gauw te maken met eiwitten.

589
00:37:12,320 --> 00:37:17,740
Dus de eiwitten moeten dan de eiwit van de virus herkennen.

590
00:37:17,940 --> 00:37:23,800
Als hij dat niet doet, dan drinkt de virus binnen en dan verstoort hij de werking van de plant.

591
00:37:25,420 --> 00:37:32,700
En in het algemeen, dus niet bij planten alleen maar, maar ook voor het ontwikkelen van medicijnen bijvoorbeeld,

592
00:37:33,440 --> 00:37:36,200
of kankeronderzoek, wat dan ook.

593
00:37:37,880 --> 00:37:40,540
Daar heb je in het algemeen ook te maken met eiwitten.

594
00:37:40,590 --> 00:37:42,580
Het zijn andere, misschien kortere eiwitten.

595
00:37:43,060 --> 00:37:45,800
Misschien hele specifieke soorten eiwitten, dan worden ze iets anders genoemd.

596
00:37:46,280 --> 00:37:49,500
Maar dan hebben die ook een bepaalde functie.

597
00:37:49,880 --> 00:37:55,280
En de kern is dat de vorm van de eiwit de functie bepaalt.

598
00:37:57,340 --> 00:38:02,380
En wij hebben lang niet, nu meer dan enkele jaar terug,

599
00:38:02,740 --> 00:38:09,740
maar voor een hele lange tijd wisten we niet zo goed hoe we van een beschrijving van het eiwit

600
00:38:10,000 --> 00:38:12,000
moesten gaan naar de structuur ervan.

601
00:38:12,920 --> 00:38:15,960
En zoals ik al eerder zei, structuur bepaalt functie.

602
00:38:16,340 --> 00:38:21,180
Dus als je van structuur naar functie kan gaan, kan je dan van beschrijving naar functie gaan.

603
00:38:22,340 --> 00:38:28,660
En dat is eigenlijk een idee wat heel erg innovatief is.

604
00:38:29,780 --> 00:38:31,980
Want de structuur is heel moeilijk.

605
00:38:32,400 --> 00:38:36,940
Dat was tot nu toe echt heel erg moeilijk om dat te voorspellen.

606
00:38:38,680 --> 00:38:43,700
Mensen die spenderen misschien iets van tien jaar om één eiwit,

607
00:38:44,060 --> 00:38:45,880
dat structuur, om dat erachter te komen.

608
00:38:46,740 --> 00:38:47,820
Dus dat was echt niet scalable.

609
00:38:48,950 --> 00:38:53,840
Maar nu heb je bijvoorbeeld AlphaVolt en een heleboel andere varianten.

610
00:38:54,120 --> 00:38:55,740
We zitten nu op AlphaVolt 3.

611
00:38:56,640 --> 00:39:00,460
En die zijn echt heel goed geworden in het voorspellen van structuren.

612
00:39:01,720 --> 00:39:05,740
Dus wij hebben nu ook een soort van golden moment in biologie.

613
00:39:05,920 --> 00:39:06,860
Omdat we nu echt heel veel...

614
00:39:06,860 --> 00:39:08,900
We zitten op een moment waar we heel veel data hebben.

615
00:39:09,960 --> 00:39:11,420
De AI-modellen zijn ook heel goed.

616
00:39:11,540 --> 00:39:16,700
En ik weet die cijfers eigenlijk niet zo heel goed,

617
00:39:16,700 --> 00:39:21,860
maar volgens mij waren er iets van meer dan 20 miljoen eiwitstructuren bijgekomen door Alphavolt.

618
00:39:24,280 --> 00:39:27,120
Dus ja, dat is één project waar ik me mee bezig ben.

619
00:39:27,120 --> 00:39:30,100
We maken ook gebruik van Alphavolt.

620
00:39:33,500 --> 00:39:35,240
Tot we het zover mogen gebruiken.

621
00:39:35,340 --> 00:39:42,040
Want we komen heel vaak tegen dat we modellen niet mogen gebruiken omdat ze dan de verkeerde licentie hebben.

622
00:39:42,180 --> 00:39:44,340
Niet de verkeerde, maar een soort van beperkende licentie hebben.

623
00:39:44,660 --> 00:39:45,800
Een niet-commerciële licentie.

624
00:39:47,040 --> 00:39:49,260
Dus dan moeten wij creatief zijn en hoe we daarmee omgaan.

625
00:39:49,680 --> 00:39:49,860
Oh ja.

626
00:39:51,880 --> 00:39:57,980
En de andere zaken in de agri-food, met deze kennis die eraan komt.

627
00:39:58,420 --> 00:40:02,220
Hoe zie jij over drie tot vijf jaar, wat doen we anders met behulp van AI?

628
00:40:04,280 --> 00:40:10,480
Dus ik beantwoord dat door te vergelijken met wat ik drie jaar geleden deed.

629
00:40:11,060 --> 00:40:16,480
Drie jaar geleden werkte ik zelf aan de modellen.

630
00:40:16,720 --> 00:40:19,300
Dus ging ik zelf aan de slag, bouwde ik zelf de modellen.

631
00:40:20,580 --> 00:40:21,640
Tegenwoordig doe ik dat niet meer.

632
00:40:23,720 --> 00:40:29,100
We houden gewoon goed in de gaten wat er ontwikkeld wordt in het publiek termijn.

633
00:40:29,520 --> 00:40:30,440
Wat wij mogen gebruiken.

634
00:40:30,700 --> 00:40:35,560
En dan gaan we die uittesten en kijken of we hiervan gebruik kunnen we afhankelijk van wat wij nodig hebben.

635
00:40:36,410 --> 00:40:45,560
En ik denk dat dat proces nog meer in die richting opgaat.

636
00:40:45,810 --> 00:40:53,560
Dat wij dan steeds minder zelf hoeven te doen qua het bouwen.

637
00:40:54,000 --> 00:40:57,820
Maar dat het dan meer gaat om de interessante vraagstukken.

638
00:41:00,580 --> 00:41:03,720
Om je gewoon goed in de gaten te houden van wat is het veld?

639
00:41:03,860 --> 00:41:04,780
Wat is er mogelijk?

640
00:41:05,070 --> 00:41:08,120
Wat waren de grote vraagstukken die we eerst totaal niet konden oplossen?

641
00:41:10,460 --> 00:41:12,680
En hebben we nu de tools om dat te doen?

642
00:41:12,940 --> 00:41:14,340
Zo ja, laten we daarmee beginnen.

643
00:41:14,820 --> 00:41:23,540
Dus ik denk dat we heel veel vooruitgang zullen boeken in de komende drie jaar.

644
00:41:25,260 --> 00:41:27,340
Omdat de tools er nu wel zijn.

645
00:41:27,560 --> 00:41:29,600
En nu is het gewoon een kwestie van even kijken.

646
00:41:29,740 --> 00:41:31,220
Hoe moeten we ze gebruiken?

647
00:41:31,780 --> 00:41:33,180
Waar hebben we nu heel veel baat aan?

648
00:41:33,420 --> 00:41:35,720
En wat zijn de nieuwe vraagstukken die we kunnen beantwoorden?

649
00:41:35,880 --> 00:41:36,740
Of waar we aan kunnen werken?

650
00:41:37,100 --> 00:41:40,420
Ja, ik hoor dan inderdaad het stukje van nieuwe toepassingen.

651
00:41:41,000 --> 00:41:43,020
Die worden nog wel gemaakt, maar er ligt wat binnen de focus.

652
00:41:43,080 --> 00:41:47,480
Dus we gaan eigenlijk beter uitnutten van de AI-modellen en de tools die er nu zijn.

653
00:41:48,880 --> 00:41:51,660
Om dat verder toe te gaan passen bij het juiste toepassingsgebied.

654
00:41:52,860 --> 00:41:52,980
Ja.

655
00:41:54,120 --> 00:41:58,040
En wat betekent dat voor mensen die hiermee aan de slag gaan?

656
00:41:58,200 --> 00:41:59,640
Hoe hou jij bijvoorbeeld bij?

657
00:41:59,730 --> 00:42:02,080
Want die modellen en ontwikkelingen gaan vrij hard.

658
00:42:02,080 --> 00:42:04,120
Maar hoe kunnen mensen bijblijven in dit vak dan?

659
00:42:08,960 --> 00:42:21,440
Ja, ik hou het bij door bijvoorbeeld, op Google Scholar kan je alerts zetten, maar je hebt ook systemen of programma's zoals Zeta-Alpha.

660
00:42:22,900 --> 00:42:29,720
Daar kan je ook gebaseerd op je likes en je interesses biedt het ook nieuwe papers aan die je dan interessant zou kunnen vinden.

661
00:42:31,420 --> 00:42:36,300
Ik heb meerdere newsletters die ik volg, ook specifiek op het gebied van biologie.

662
00:42:37,740 --> 00:42:42,200
Als ik naar congressen ga, dan ga ik ook naar biologische workshops en dat soort dingen.

663
00:42:42,420 --> 00:42:51,860
En wat eigenlijk heel veel helpt, is als je iemand binnen het bedrijf hebt die zich eigenlijk grotendeels mee bezighoudt.

664
00:42:53,900 --> 00:43:00,800
Ik heb letterlijk een collega binnen Kijgin en een groot deel van zijn werk is het volgen van dat nieuws.

665
00:43:01,020 --> 00:43:02,280
dus nog dichterbij dan ik.

666
00:43:03,420 --> 00:43:04,940
En hij zit in verschillende projecten.

667
00:43:05,860 --> 00:43:09,360
Bijvoorbeeld in de Teams-channels, dan dropt hij elke week van

668
00:43:09,460 --> 00:43:12,500
hé, dit zijn drie papers die interessant lijken voor ons.

669
00:43:13,320 --> 00:43:16,480
En dan is het mijn taak om dat echt door te lezen.

670
00:43:17,700 --> 00:43:20,060
En dan kijken van oké, is dit echt iets wat wij kunnen gebruiken?

671
00:43:20,500 --> 00:43:21,600
Hoe zit het met de licentie?

672
00:43:22,040 --> 00:43:24,740
Staat de code? Is dat op een fatsoenlijke manier beschikbaar?

673
00:43:25,300 --> 00:43:26,160
Is er support voor?

674
00:43:26,660 --> 00:43:28,720
En dan ga ik een lijstje af om te kijken van oké,

675
00:43:29,220 --> 00:43:31,160
En is dit überhaupt wat we nodig hebben?

676
00:43:31,320 --> 00:43:34,520
Wat is het verschil tussen dat paper en wat we nu aan het gebruiken zijn?

677
00:43:35,020 --> 00:43:37,740
En dan maak ik gewoon een soort van keuze, een overweging van...

678
00:43:37,740 --> 00:43:41,120
Oké, is dit het waard om nu meer tijd te gaan spenderen aan dit ding?

679
00:43:41,260 --> 00:43:43,960
Of moet ik gewoon blijven doorgaan met waar ik eerst mee bezig was?

680
00:43:44,140 --> 00:43:44,260
Ja.

681
00:43:45,119 --> 00:43:47,800
Heel goed de markt in de gaten houden met alle ontwikkelingen die er zijn.

682
00:43:49,179 --> 00:43:56,900
Als er luisteraars zijn die mee zouden willen werken aan jouw project rond het taalmodel, Lenga, GPT.

683
00:43:57,980 --> 00:43:59,060
Hoe zouden die dat kunnen doen?

684
00:44:01,280 --> 00:44:05,280
Ja, we hebben een website, papiamentu.ai.

685
00:44:05,700 --> 00:44:08,260
Dus papiamentu met een u.ai.

686
00:44:08,500 --> 00:44:09,920
We zullen hem in de show notes zetten.

687
00:44:10,780 --> 00:44:17,760
En als je daar gaat, dan heb je een contribute menu item.

688
00:44:18,660 --> 00:44:23,040
En dat brengt je naar een formulier.

689
00:44:23,360 --> 00:44:24,500
En die kan je dan invullen.

690
00:44:24,980 --> 00:44:29,260
We hebben daarop dan gespecificeerd wat de verschillende rollen zijn die we naar op zoek zijn.

691
00:44:30,000 --> 00:44:34,360
En je wordt dan ook gevraagd hoeveel tijd kan je dan per week aan spenderen.

692
00:44:34,480 --> 00:44:42,920
Dus als je dat invult, dan hebben wij gelijk een idee van deze persoon met deze skills en deze beschikbaarheid, die wil ons helpen.

693
00:44:44,020 --> 00:44:44,940
En dan nemen we contact op.

694
00:44:45,600 --> 00:44:45,880
Kijk aan.

695
00:44:45,940 --> 00:44:46,160
Mooi.

696
00:44:47,060 --> 00:44:50,280
Nou, het lijkt me mooi om mee af te sluiten.

697
00:44:50,540 --> 00:44:56,680
Ik vond het ontzettend interessant om een kijkje te krijgen in het ontwikkelen van die taalmodellen.

698
00:44:57,760 --> 00:45:00,280
Uiteindelijk is Big Tech daar vooral heel veel mee bezig.

699
00:45:00,760 --> 00:45:02,680
En jullie als een soort van smalltech.

700
00:45:05,300 --> 00:45:07,420
Dus geweldig dat je dat met ons wilde delen.

701
00:45:07,580 --> 00:45:09,700
En ook wat je doet in de Agri Food. Dank je wel.

702
00:45:10,320 --> 00:45:13,820
Ja, bedankt. Ook bedankt voor de uitnodiging en voor het gesprek.

703
00:45:14,260 --> 00:45:14,640
Zeker.

704
00:45:17,160 --> 00:45:18,140
Leuk dat je weer luisterde.

705
00:45:18,620 --> 00:45:20,160
we hebben een hele leuke nieuwsbrief

706
00:45:20,340 --> 00:45:22,200
dus daar kan je je op abonneren, krijg je eens in de maand

707
00:45:22,240 --> 00:45:22,880
krijg je ook

708
00:45:24,140 --> 00:45:26,080
exclusieve content, precies, kijk je achter

709
00:45:26,120 --> 00:45:28,140
de schermen, we hebben hele leuke

710
00:45:28,340 --> 00:45:29,200
content deze keer

711
00:45:29,960 --> 00:45:31,940
ook die link staat in de show notes

712
00:45:32,500 --> 00:45:33,420
en tot de volgende keer

713
00:45:33,740 --> 00:45:34,360
tot de volgende keer


People on this episode