AIToday Live

S06E39 - Kunnen AI-assistenten echt de HR wereld veranderen?

Aigency by Info Support Season 6 Episode 39

In deze aflevering van AIToday Live is Bart Slaets te gast, oprichter van Paybix. Hij deelt inzichten over het gebruik van AI binnen zijn start-up, specifiek gericht op het vereenvoudigen van internationale payroll processen.

Bart vertelt over de ontwikkeling van een AI-assistent die bedrijven helpt met lokale wetgeving en payrollvraagstukken in verschillende landen. Luister naar de uitdagingen, oplossingen en de toekomstvisie van AI in de HR-sector.


Links

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:07,040
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van de AIToday Live. Mijn naam is

2
00:00:07,040 --> 00:00:11,800
Joop Snijder, CTO bij Aigency. Mijn naam Niels Naglé, Area Lead, Data & AI bij Info Support.

3
00:00:11,800 --> 00:00:19,040
En vandaag een gast van over de grens, Bart Slaets. Bart, welkom in deze aflevering.

4
00:00:19,040 --> 00:00:22,280
Voordat we gaan starten, zou je jezelf willen voorstellen aan de luisteraars?

5
00:00:22,280 --> 00:00:28,360
Oké, ik ben Bart Slaets. Ik ben 50 jaar geworden, dus dat is dan heel erg.

6
00:00:28,360 --> 00:00:28,960
Gefeliciteerd.

7
00:00:28,960 --> 00:00:35,400
Dank je wel, nog maar pas. Ik heb 25 jaar bij SD Worxs gewerkt, dus een grote

8
00:00:35,400 --> 00:00:40,640
sociaal secretariat zoals we dat in België noemen. Waarvan de laatste acht jaar bij

9
00:00:40,640 --> 00:00:45,720
ProTime en sinds twee jaar mijn eigen start-up begonnen, Paybix, samen met twee co-founders.

10
00:00:45,720 --> 00:00:47,640
Ja, en wat doet Paybix?

11
00:00:47,640 --> 00:00:53,360
Paybix is een bedrijf dat zorgt dat bedrijven die internationaal gaan,

12
00:00:53,360 --> 00:00:57,640
dus bedrijven die niet zo groot zijn dat ze SAP kunnen aankopen,

13
00:00:57,640 --> 00:01:01,960
maar dat ze eigenlijk hun payroll in al die landen moeten gaan regelen.

14
00:01:01,960 --> 00:01:07,960
Daar zorgen wij dat we een platform hebben gemaakt dat boven die lokale payroll engines

15
00:01:07,960 --> 00:01:12,920
ligt, zodat ze toch centrale invoer en centrale rapportering kunnen doen over hun hele populatie,

16
00:01:12,920 --> 00:01:15,120
ja, wereldwijd eigenlijk.

17
00:01:15,120 --> 00:01:19,880
Ja, precies. En jullie zijn gestart met een eigen AI-assistent, hè?

18
00:01:19,880 --> 00:01:21,040
Ja, onlangs.

19
00:01:21,040 --> 00:01:21,480
Klopt.

20
00:01:21,480 --> 00:01:27,360
En daar gaan we het vandaag over hebben. Hoe zijn jullie erop gekomen om hiermee te beginnen?

21
00:01:27,360 --> 00:01:34,320
Ja, wel, het is wel een verhaal. Het is op zich zo dat je moet je voorstellen,

22
00:01:34,320 --> 00:01:40,080
die bedrijven, onze klanten dus, dat zijn de kleinere bedrijven die dus multi-country

23
00:01:40,080 --> 00:01:44,200
payroll moeten runnen, wat op zich niet evident is, want je hebt in elk land een

24
00:01:44,200 --> 00:01:50,040
andere sociale wetgeving en andere regels. En wat zo'n bedrijf dan typisch gaat doen,

25
00:01:50,040 --> 00:01:54,080
is, een voorbeeld, we hebben een bedrijf en die zitten in zes landen met ongeveer

26
00:01:54,080 --> 00:01:58,680
80 medewerkers en er is één dame in Brussel die die zes payrolls moet doen.

27
00:01:58,680 --> 00:01:59,200
Oh ja.

28
00:01:59,200 --> 00:02:05,080
En ze deed dat dus tot hiertoe, of voor ons, gewoon, het zei, met het lokale payrollpakket,

29
00:02:05,080 --> 00:02:10,240
ze ging dat gewoon invoeren in Spanje, in Polen, in Tsjechië, ook in België en in Nederland.

30
00:02:10,240 --> 00:02:16,480
Maar, ja, op zich is het dus heel moeilijk om dan al die lokale regels te kennen.

31
00:02:16,480 --> 00:02:20,960
Sommigen deed ze zelfs gewoon via mail en dan moest ze gewoon doorsturen,

32
00:02:20,960 --> 00:02:25,840
die verdient zoveel, die heeft vakantie gehad enzo, om eigenlijk de impact op de payroll te

33
00:02:25,840 --> 00:02:33,400
gaan regelen. En dan, ja, dus dat was het ene, het fenomeen, dat mensen eigenlijk dan de sociale

34
00:02:33,400 --> 00:02:38,480
regels lokaal moeten kennen en er moeten we voor opzoeken. En langs de andere kant,

35
00:02:38,480 --> 00:02:45,080
ja, kwam ik dus in contact met Tim Mahy, Tim Mahy van Info Support, dus dat is iemand die ik al heel

36
00:02:45,080 --> 00:02:49,040
lang ken en een goeie relatie mee heb. En wij spreken elke drie, vier maanden nog eens af,

37
00:02:49,040 --> 00:02:55,640
sinds ik in mijn start-up zit. En dus die triggerde mij eigenlijk wel van, ja, zeg,

38
00:02:55,640 --> 00:03:00,440
en AI, en heb je daar al mee bezig geweest? Ik zeg, ja, AI op zich, ja, ik ben IT'er,

39
00:03:00,440 --> 00:03:04,240
dus het interesseert me sowieso wel en ik ben er wel mee bezig, maar nu ook niet helemaal in de

40
00:03:04,240 --> 00:03:08,280
diepte. Het komt er vooral op neer dat ik de businessmensen op mijn voeten op de grond moet

41
00:03:08,280 --> 00:03:12,640
zetten over wat AI kan zijn, want ze denken dat het alles zal overnemen en alles zal kunnen,

42
00:03:12,640 --> 00:03:19,600
terwijl het op zich een algoritme is. En dus hij zei, ja, maar ja, kan je dat niet inzetten voor

43
00:03:19,600 --> 00:03:25,720
bijvoorbeeld die kennisopbouw te gaan doen bij jullie klanten? En zo zijn we dan beginnen nadenken

44
00:03:25,720 --> 00:03:34,520
en hebben we dus twee POCs gedefinieerd, die we dan samen hebben uitgevoerd ook. En de eerste POC

45
00:03:34,520 --> 00:03:42,160
ging er eigenlijk over dat de klanten hun documenten, dus bijvoorbeeld lokale policies,

46
00:03:42,160 --> 00:03:46,720
dus als je terugdenkt aan die lokale wetgeving, ja, je hebt een car policy, maar ja, die is wel

47
00:03:46,720 --> 00:03:53,000
wat verschillend in al die verschillende landen. En je hebt de vakantieregelingen en een hoop van

48
00:03:53,000 --> 00:03:57,600
die dingen waar je typisch policy documenten voor hebt. Ja, als je in één land zit, dan heb je

49
00:03:57,600 --> 00:04:02,080
misschien al zeven, acht policies voor een medewerker. Je kan je voorstellen dat dat er

50
00:04:02,080 --> 00:04:06,520
heel veel worden als je dus in verschillende landen zit. En om als HR dan nog te gaan weten,

51
00:04:06,520 --> 00:04:13,360
ja, die medewerker zit in dat land, dus die heeft die policies, wouden we een test doen waarbij

52
00:04:13,360 --> 00:04:22,480
dat we dus eigenlijk policy documenten opladen in AI en dat je dan aan AI kon vragen, ik heb een

53
00:04:22,480 --> 00:04:26,240
ongeluk met mijn wagen, wat moet ik doen? Of wie moet ik contacteren? Of wie mag er met mijn

54
00:04:26,240 --> 00:04:32,080
bedrijfswagen rijden? Of wat is onze bonusplan? Hoe werkt dat? Bijvoorbeeld van die zaken. En dus

55
00:04:32,080 --> 00:04:36,560
dat hebben we gedaan. We hebben op zich wel maar voor één land getest. We hebben onze eigen policy

56
00:04:36,560 --> 00:04:42,000
documenten opgeladen als test en dan konden we dus vragen stellen aan de AI. En dat hebben we dan

57
00:04:42,000 --> 00:04:48,480
effectief ook gedaan en dat hebben we dan in de PoC-fase afgewerkt. Dus dat werkte eigenlijk wel

58
00:04:48,480 --> 00:04:54,040
goed. Ja. En dus dat was de eerste PoC en de tweede PoC ging dan, dus dit was dan eigenlijk

59
00:04:54,040 --> 00:04:59,480
interne kennis die moest opgebouwd worden. Het andere is dan de externe kennis over de sociale

60
00:04:59,480 --> 00:05:05,960
wetgeving lokaal. En daar had ik dan terug met Tim een babbel over. Ik zei van ja maar ja,

61
00:05:05,960 --> 00:05:12,560
zo'n search engines en die zoeken maar en je bent niet zeker dat het helemaal juist is. En van waar

62
00:05:12,560 --> 00:05:17,480
komt die data dan? Dat is op zich wel belangrijk voor een payrollpersoon waarbij dat het over

63
00:05:17,480 --> 00:05:24,240
juridische data gaat. Dus toen zei hij, en dat wist ik dus nog niet, ja maar je kan helemaal scopen.

64
00:05:24,240 --> 00:05:28,920
Je kan die search gaan scopen met een Bing search. Kan je dan gaan aangeven over welke

65
00:05:28,920 --> 00:05:33,840
sites hij mag gaan zoeken. En op die manier zijn we daar dan dieper op ingegaan. Dat was onze PoC-2,

66
00:05:33,840 --> 00:05:40,960
waar we dan gezegd hebben van kijk je kiest eerst een land, een scope dus, en binnen die scope gaan

67
00:05:40,960 --> 00:05:46,120
wij websites opgeven waarbinnen de Bing search dan mag gaan zoeken. Waarbij je een vraag kan

68
00:05:46,120 --> 00:05:51,320
stellen in je eigen taal. Dus je terug die Brusselse dame die Frans-talig op zich is,

69
00:05:51,320 --> 00:05:56,760
die kan dus een vraag stellen in het Frans en wij gaan dan bij wijze van spreken als het dan over een

70
00:05:56,760 --> 00:06:02,360
Spaanse wetgeving gaat. Dan duidt ze eerst aan ik wil de Spaanse scope kiezen omdat het over een

71
00:06:02,360 --> 00:06:06,920
Spaanse vraag gaat. En dan kan ze bijvoorbeeld zeggen, ik zeg maar iets, ik zit met een ontslag

72
00:06:06,920 --> 00:06:11,960
in Spanje. Wat zijn de regels in Spanje om aan een ontslag, wat moet ik dan allemaal doen bijvoorbeeld?

73
00:06:11,960 --> 00:06:17,760
En die wetgeving? En die wetgeving staat op de Spaanse sites uiteraard van de overheid en van

74
00:06:17,760 --> 00:06:25,360
ja werk en welke sites heb je er allemaal. Dus sociaal-juridische sites en je hebt een hele hoop

75
00:06:25,360 --> 00:06:31,760
van die van die government sites die officieel onderhouden wordt. Waar je dus van mag uitgaan

76
00:06:31,760 --> 00:06:38,160
dat ze juist zijn en daar ga ik het dan over. En daardoor hebben we die dus opgelijst. Een tiental

77
00:06:38,160 --> 00:06:44,760
zeg maar iets per land. En daar en dus als ze nu een vraag stelt in het Frans dan gaan wij dat

78
00:06:44,760 --> 00:06:49,080
vertalen in het Spaans. Want die sites zijn in het Spaans dat kan hij ja heel goed. En dan gaat

79
00:06:49,080 --> 00:06:55,840
hij dan dat zoeken met die Bing search op die lokale sites, al die sites. En dan gaat hij het

80
00:06:55,840 --> 00:07:00,440
antwoord mergen uit verschillende antwoorden die hij dan gevonden heeft. Om dan eigenlijk zo tot een

81
00:07:00,440 --> 00:07:05,200
algemeen antwoord te komen. Maar wat we daar dan belangrijk bij vonden was wel dat we daar een

82
00:07:05,200 --> 00:07:10,360
bronverwijzing terug bij kregen. Zodat ze eventueel kunnen verder gaan zoeken. Ook al is het dan in

83
00:07:10,360 --> 00:07:15,600
het Spaans, je kan met je browser wel wat vertalen en zo. En dan wat hij dus nu doet, dat staat

84
00:07:15,600 --> 00:07:20,440
effectief. Dus dit hebben we verder uitgewerkt. Die zit ook effectief in onze in onze applicatie

85
00:07:20,440 --> 00:07:25,520
nu. En dus je kan die vraag stellen en dan geeft hij daaronder het antwoord, het gemerged antwoord,

86
00:07:25,520 --> 00:07:33,040
van de... Dan geeft hij het gemerged antwoord van al die antwoorden die hij dan binnen gekregen heeft.

87
00:07:33,040 --> 00:07:37,120
En dan geeft hij daaronder een vijftal bronvermeldingen. Hij geeft die dan in die tekst

88
00:07:37,120 --> 00:07:44,040
tot de bronvermeldingen en dan van waar hij dat gehaald heeft. Ja. Mooi. We kregen al een melding

89
00:07:44,040 --> 00:07:53,360
binnen net alsof het bericht binnenkwam vanuit Spanje. Ja geweldig. Want uiteindelijk heb je een

90
00:07:53,360 --> 00:07:59,560
soort van... In plaats van dat je de kennisbank gebruikt die je vaak intern in je organisatie

91
00:07:59,560 --> 00:08:05,720
hebt. Zeggen jullie van, ja maar de overheden, de diverse overheden, die hebben de laatste

92
00:08:05,720 --> 00:08:10,680
informatie, hebben ze online staan. Die gebruik je. Dus je gebruikt eigenlijk externe informatie.

93
00:08:10,680 --> 00:08:18,160
Klopt. Om je eigen antwoorden te verrijken. Gebruik je daar dan ook nog die eerste documenten

94
00:08:18,160 --> 00:08:25,960
waar je het over had van... De interne policies. Ja. Die pok hebben we niet verder uitgewerkt.

95
00:08:25,960 --> 00:08:31,600
Dus we hebben die wel in onze demo-testomgeving hebben we die wel staan. Maar als ik dan met

96
00:08:31,600 --> 00:08:36,800
klanten erover begon te praten, omdat we vandaag, zoals ik zei, we hebben een aantal kleinere klanten

97
00:08:36,800 --> 00:08:43,520
van 80 medewerkers. En die zeiden dan van, goh witte, die informatie externe in al die landen,

98
00:08:43,520 --> 00:08:48,360
dat is vandaag voor mij de grootste prioriteit. Ja precies. Alhoewel, ik vertelde gewoon van,

99
00:08:48,360 --> 00:08:52,760
kijk we zijn die twee Proof-of-Concepts aan het doen, wat zou jou interesseren om klantfeedback te krijgen.

100
00:08:52,760 --> 00:08:58,400
En dan zeiden zij over die PoC 2, ja maar dat betrouw ik niet. Dat je eigenlijk een vraag

101
00:08:58,400 --> 00:09:04,520
externe stelt. Want ja, ik gebruik geen ChatGPT bijvoorbeeld om zo'n vragen te stellen over

102
00:09:04,520 --> 00:09:08,480
Sociaal-juridische kennis, omdat ik daar niet zeker van ben. En toen moest ik eigenlijk uitleggen,

103
00:09:08,480 --> 00:09:13,520
maar wacht, we doen dat juist anders. We gaan eigenlijk alleen echte bronnen, officiële bronnen

104
00:09:13,520 --> 00:09:18,320
raadplegen. En toen switchte dat plots. En was dat eigenlijk de grootste interesse van de twee.

105
00:09:18,320 --> 00:09:22,720
Dat is eigenlijk de reden dat we de tweede eerst nu hebben uitgewerkt. En dat die nu in productie

106
00:09:22,720 --> 00:09:26,960
staat. De eerste hebben we nog in de kast zitten. Ja precies. Totdat we, ja, waarschijnlijk de

107
00:09:26,960 --> 00:09:31,520
grotere bedrijven zullen daar meer interesse voor hebben vermoed ik. Ja en je bent dus twee

108
00:09:31,520 --> 00:09:37,080
PoCs ingedoken. Ja. Wat waren de zaken waar je tegen aanliep tijdens de PoC? Waar je zegt van,

109
00:09:37,080 --> 00:09:43,600
ah daar heb ik echt wel wat van geleerd en dat wil ik meegeven. Wel, ik moet zeggen dat ik daar

110
00:09:43,600 --> 00:09:51,440
toch wel van geschrokken ben van de complexiteit om dat te maken. Dus ook ik als gebruiker van

111
00:09:51,440 --> 00:09:57,640
ChatGPT lijkt dat allemaal super simpel. Je stelt een vraag en dan stel je een tweede vraag die

112
00:09:57,640 --> 00:10:03,160
gebaseerd is op jouw eerste vraag. Ja dat blijkt dus al geen evidentie te zijn. En blijkt dus echt

113
00:10:03,160 --> 00:10:09,880
typisch chatgpt gerelateerde, ja, kennis te zijn. Die ze dan daar hebben ingestoken. Als je dat zelf

114
00:10:09,880 --> 00:10:15,320
wil genereren, ja dat is gewoon, ja, dat kan allemaal. Maar dan zou de pok ontploffen qua

115
00:10:15,320 --> 00:10:19,240
complexiteit. En vandaar hebben wij bijvoorbeeld gekozen. We hebben een invoerveld, een tekstveld,

116
00:10:19,240 --> 00:10:23,760
waar de gebruiker zijn vraag kan instellen. En als hij dan een tweede vraag wil stellen,

117
00:10:23,760 --> 00:10:28,280
dan maken wij eigenlijk alles terug leeg. Waardoor hij genoodzaakt is om de volledige

118
00:10:28,280 --> 00:10:31,960
context terug mee te geven. Omdat we dat dus gewoon niet wilden implementeren in deze fase.

119
00:10:31,960 --> 00:10:39,200
Dat is bijvoorbeeld een… En heeft dat dan te maken met dat het model dingen gaat combineren

120
00:10:39,200 --> 00:10:45,000
die dan niet meer juist zijn, waardoor je geen exact antwoord krijgt? Ja, op de duur, ja, je krijgt

121
00:10:45,000 --> 00:10:50,440
op de duur de kans dat er eigenlijk dingen insluipen, context van voorgaande vragen,

122
00:10:50,440 --> 00:10:56,560
wat je eigenlijk niet meer wil. En we, vanwege het feit dat we het heel juist wilden creëren,

123
00:10:56,560 --> 00:11:02,400
of het antwoord moet heel juist zijn, hebben we nu gekozen voor, nee, geef maar terug de context op

124
00:11:02,400 --> 00:11:06,720
en we beginnen gewoon elke keer van nul af. Dan moet je de hele vraag maar terugstellen,

125
00:11:06,720 --> 00:11:12,800
ofzo, met de nodige context. Dus dat was toch iets waar ik niet wist, dat dat eigenlijk toch

126
00:11:12,800 --> 00:11:17,800
niet zo evident is om dat mee te pakken. Context. Wel slim, want op een gegeven moment loopt,

127
00:11:17,800 --> 00:11:23,360
want zelfs die context loopt ergens eruit, maar er is een bepaald venster aan wat meegenomen kan

128
00:11:23,360 --> 00:11:29,760
worden. Dus je bent ook niet zeker van wat allemaal exact aan wordt meegenomen. Dus dat is wel een

129
00:11:29,760 --> 00:11:33,680
slimme manier om dat op die manier zo aan te pakken. Ja, voor nu. We hadden ook een beperkt budget

130
00:11:33,680 --> 00:11:38,640
natuurlijk voor die POC, dus daarvoor moest ik dan wel die keuzes maken. Maar je hebt heel goed

131
00:11:38,640 --> 00:11:45,360
dan nagedacht over risico's, hoe los je dit op en hoe kan je dit veilig uitvoeren? Ja, maar dat is

132
00:11:45,360 --> 00:11:51,400
denk ik ook wat we constant moeten doen in een start-up. Als je twee jaar bezig bent, je hebt

133
00:11:51,400 --> 00:11:56,640
een heel klein budget en je moet een product of een platform maken, dan is voor mij key product

134
00:11:56,640 --> 00:12:04,160
management. En product management is slim kiezen. En dat moesten we gewoon hier ook doen. Maar ik

135
00:12:04,160 --> 00:12:08,560
moet ook zeggen dat daar dan weer wel Tim kwam elke week langs om te kijken hoe het dan met de

136
00:12:08,560 --> 00:12:13,680
POC stond en daar kon ik dan ook wel met hem over discussiëren om de complexiteit in te schatten,

137
00:12:13,680 --> 00:12:18,000
want dat was dan niet altijd makkelijk. Maar ik denk dat het eigenlijk misschien wel een zege is

138
00:12:18,000 --> 00:12:22,800
dat je niet zo'n groot budget hebt, want dan moet je ook deze keuzes maken. Ik denk door het maken

139
00:12:22,800 --> 00:12:28,640
van deze keuze dat je een veiliger, beter betrouwbaarheid weet te krijgen. Ja, ik denk

140
00:12:28,640 --> 00:12:38,440
het ook. Slim. En heb je ook afwegingen moeten maken? Want ik neem aan dat soms als je iets zoekt,

141
00:12:38,440 --> 00:12:44,960
dat je geen antwoord krijgt of dat misschien de betrouwbaarheid, de zoekresultaten te laag zijn

142
00:12:44,960 --> 00:12:50,800
ten opzichte van de vraag die je stelt. Moest je daar ook keuzes in maken van wat je daarmee doet?

143
00:12:50,800 --> 00:12:55,960
Goh, dat heb ik nog niet helemaal opgelost. Dat doet hij soms. Hij zegt soms ik heb geen

144
00:12:55,960 --> 00:13:05,040
antwoord. En dan we zijn ook in het begin begonnen, omdat we coveren nu met dat ding de 30 Europese

145
00:13:05,040 --> 00:13:09,760
landen. Op zich kan het platform globaal, maar daar was niet aan te beginnen. Dus we hebben gewoon

146
00:13:09,760 --> 00:13:15,280
de 30 landjes toegevoegd en dan moesten we per in Bing search kan je dan per land de sites aanduiden

147
00:13:15,280 --> 00:13:21,360
waarop je mag zoeken. Maar dat is niet zo evident om die sites te vinden. Want ja, in Tsjechië of

148
00:13:21,360 --> 00:13:27,160
in ik weet niet waar, begin maar hoe dat die sites allemaal heten. Dus op zich hebben we daar twee

149
00:13:27,160 --> 00:13:33,320
manieren voor. Dus op zich vragen we aan onze lokale partners. We hebben in elk land een lokale

150
00:13:33,320 --> 00:13:39,000
partner. Van welke sites gebruiken jullie eigenlijk? Maar die antwoorden komen toch niet zo vlot. Die

151
00:13:39,000 --> 00:13:43,160
mensen zijn ook heel druk bezig en dus dat is niet zo evident. Dus gebruik ik daar dan weer wel

152
00:13:43,160 --> 00:13:49,960
ChatGPT voor. Dus ik zeg dan ik ben een payroll tax consultant en ik zoek een betrouwbare site met

153
00:13:49,960 --> 00:13:55,720
accurate informatie. Geef mij voor Tsjechië de vijf belangrijkste sites. En dan geeft hij eigenlijk

154
00:13:55,720 --> 00:14:03,520
wel ja typisch de government sites en en sociaal-juridische en misschien wel van een zeg maar een vakbond

155
00:14:03,520 --> 00:14:08,720
of zo. Een hele grote vakbond die kan er dan ook tussen zitten. En dan dat ik zo aan acht of tien

156
00:14:08,720 --> 00:14:15,000
sites kom die ik dan per land kan toekennen. En natuurlijk als het als de lokale partij nog

157
00:14:15,000 --> 00:14:21,680
bijkomende sites geeft dan voegen we die ook nog toe. Waardoor dat we nu toch wel al wat meer context

158
00:14:21,680 --> 00:14:27,800
hebben en wat meer kans hebben dat het goed komt. Maar ja dat die soms het niet weet ja dat is wel

159
00:14:27,800 --> 00:14:34,400
zo. Als je kijkt naar tien sites of alle sites in heel de wereld. Ja de kans dat je dan is een

160
00:14:34,400 --> 00:14:40,920
antwoord die is er natuurlijk wel. Wat ook bijvoorbeeld is is als je zoekt hoeveel vakantiedagen

161
00:14:40,920 --> 00:14:47,160
heeft een werknemer in Spanje of hoeveel vakantiedagen heeft een medewerker in Spanje. Ja kan

162
00:14:47,160 --> 00:14:51,880
gewoon het een kan gewoon zijn dat die het niet vindt omdat die het woord medewerker om een of

163
00:14:51,880 --> 00:14:55,840
andere reden niet goed vertaald krijgt of zo. En dat dat dan juist zo niet benoemd wordt op die

164
00:14:55,840 --> 00:15:01,200
lokale sites. Dus er zit zo nog wel een kantje aan dat we nog niet helemaal opgelost hebben.

165
00:15:01,200 --> 00:15:07,160
Nee want daar raak je inderdaad wel wat. Dat is wel een hele interessante denk ik ook. Want dat is

166
00:15:07,160 --> 00:15:12,560
een heel genuanceerd verschil. Dus die taalmodellen die kunnen heel goed als je een medewerker,

167
00:15:12,560 --> 00:15:19,040
werknemer. Want dan weet die zeg maar die woorden liggen zo dicht bij elkaar. Daar kan ik wat mee.

168
00:15:19,040 --> 00:15:23,920
Maar in de zoektechnologie heb je dat een heel stuk minder. Daar proberen ze dat ook wel een

169
00:15:23,920 --> 00:15:28,880
beetje. Ja maar is echt wel minder. Om daar onderscheid in te maken van je gebruikt search

170
00:15:28,880 --> 00:15:34,840
om iets te zoeken. Ja je hebt het taalmodel om het uiteindelijk als antwoord weer terug te vertalen.

171
00:15:34,840 --> 00:15:41,560
Ja ja ja ja ja en dan loop je tegen dat soort synoniemen. Dat zullen nog oplossingen misschien

172
00:15:41,560 --> 00:15:46,480
zijn. Als we hebben stellen een vraag in de lokale taal. Die wordt vertaald of de taal van

173
00:15:46,480 --> 00:15:51,200
de medewerker die wordt dan vertaald naar de lokale taal van de sites. Ja en daar zouden we kunnen

174
00:15:51,200 --> 00:15:57,760
bij wijze van spreken een aantal pogingen nog doen. We doen nu één poging. Je zou kunnen kiezen om

175
00:15:57,760 --> 00:16:03,400
om dan te zeggen ja herformuleer je vraag en probeer het nog eens. En zo zou je maar dat is dan al wat

176
00:16:03,400 --> 00:16:10,280
advanced. Daar zijn we nog niet. Hoe was het voor de gebruiker om met het systeem in aanraak te

177
00:16:10,280 --> 00:16:14,880
komen? Want daarvoor moest hij waarschijnlijk alles zelf op zoeken. En hoe bevalt dat? Ja wel

178
00:16:14,880 --> 00:16:21,520
dit heb ik nu. Het is echt nieuw. Dus ik heb nog niet heel veel feedback. Op zich hebben we, zijn

179
00:16:21,520 --> 00:16:27,840
we maar in eind van het jaar begonnen. Dus december en november hebben we de nog beginnen beslissen

180
00:16:27,840 --> 00:16:33,800
wat we gaan doen. We hebben dan in december de twee PoCs gemaakt. December en januari. Om dan

181
00:16:33,800 --> 00:16:38,440
eigenlijk te beslissen dat we met PoC 2 gingen doorgaan. Dus op zich ik denk dat het nog maar

182
00:16:38,440 --> 00:16:45,240
een maand anderhalf maand of zo effectief in de toepassing zit. En dan is het ook nog zo dat niet

183
00:16:45,240 --> 00:16:51,680
elke gebruiker dat heel intensief aan het gebruiken is. Dus ik heb nog niet zo heel veel feedback van

184
00:16:51,680 --> 00:16:57,160
dus daar moeten we nog echt wel stapjes zetten om met klanten te beginnen praten. Wat is nu? Dus

185
00:16:57,160 --> 00:17:03,000
nee daar zijn we nog niet. Ja ik denk wel alle hele mooie en ook een hele mooie voorloper. Er zijn

186
00:17:03,000 --> 00:17:07,480
heel veel bedrijven die hierover spreken dit zouden willen. Jullie hebben dit daadwerkelijk

187
00:17:07,480 --> 00:17:13,440
in productie. Dus dat is al sowieso waanzinnig. Ja dat wilde we ja. Het was op zich zoals ik zei

188
00:17:13,440 --> 00:17:20,000
een klein ding. Als je hoort op vier maanden tijd met met één developer van Info Support en eentje van

189
00:17:20,000 --> 00:17:25,320
mij. Ja viel het dan eigenlijk wel mee. Het was dan ook niet eens vol tijd. Er kwam maar een dagje

190
00:17:25,320 --> 00:17:29,560
per week langs. Dan valt dat eigenlijk wel mee qua budget om dat te doen. En dan wouden we wel

191
00:17:29,560 --> 00:17:33,600
ook weer als start-up kunnen zeggen kijk we hebben zoiets. Het is dan wel leuk om je dan wat te

192
00:17:33,600 --> 00:17:38,760
differentiëren van de grotere bedrijven. Heb je al een beetje inzicht in de operationele kosten

193
00:17:38,760 --> 00:17:47,040
hiervan? Want je weet nu niet hoeveel vragen er gesteld gaan worden en iedere vraag kost geld.

194
00:17:47,040 --> 00:17:53,480
Klopt. Dus je zei daarnet zijn er dingen die je geleerd hebt. Eén complexiteit. Twee dat kost toch

195
00:17:53,480 --> 00:17:59,960
wel wat geld. Dus de hele wereld denkt oh chatgpt is gratis. En ze maken iedereen verslaafd.

196
00:17:59,960 --> 00:18:06,920
Zal ik maar zeggen. Maar ja de bedrijven die gaan dit betalen. Dus ik denk dat wij, ik ben heel,

197
00:18:06,920 --> 00:18:13,120
dus wij zitten nu in de Microsoft founders hub. Dus wij hebben nog Azure credits. Waardoor ik

198
00:18:13,120 --> 00:18:18,680
gelukkig nog tot november credits heb om dit allemaal uit te testen. Oh zo die heb je van

199
00:18:18,680 --> 00:18:24,560
Microsoft gekregen. Ja dus de Microsoft founders hub is eigenlijk een manier om gedurende vier jaar,

200
00:18:24,560 --> 00:18:31,280
maar dat lukt niet. Want het eerste je krijgt duizend euro bij de start van je startup. En

201
00:18:31,280 --> 00:18:36,000
dan als je dan zegt ik ga product maken. Dan moet je er iets over vertellen. Dan krijg je vijfduizend

202
00:18:36,000 --> 00:18:42,720
dollar is het zeker. En dan als je dan, dat geldt ook maar twaalf maanden. Dus als je met die duizend

203
00:18:42,720 --> 00:18:46,680
zou toekomen wat niemand doet. Dan zou je in totaal vier jaar door kunnen. Want je hebt zo

204
00:18:46,680 --> 00:18:55,800
vier fases. En in fase drie krijg je 25.000 denk ik. En dan nu hebben we 150.000. Dus dat is eigenlijk

205
00:18:55,800 --> 00:19:01,160
wel veel. We hebben van belang zoveel niet nodig. Ik probeer ook heel erg budgetbewust onze Azure

206
00:19:01,160 --> 00:19:06,040
opzet te doen. Om dat in november niet te moeten downsizen. Dan doe je het alleen maar pijn. Dus

207
00:19:06,040 --> 00:19:10,840
ik probeer enkel te gebruiken wat we nodig hebben. En dus die Azure zit daar nu mee in. Maar ik denk

208
00:19:10,840 --> 00:19:15,200
dat we een component moesten activeren die wel 300 euro was denk ik. Als ik het me goed herinner.

209
00:19:15,200 --> 00:19:24,800
En dus ja dat. Per maand denk ik. Ja per maand uiteraard. Plus dan die tokens nog eens en zo.

210
00:19:24,800 --> 00:19:31,600
Dus ja het kost wel wat geld. En als je de vraag krijgt, kan je er geld voor vragen. En daar zijn

211
00:19:31,600 --> 00:19:35,600
we ook nog niet helemaal uit hoor. Hoe dat we daarmee gaan omgaan. Want het is een dure grap.

212
00:19:35,600 --> 00:19:40,400
En die POC 1 die zou nog veel meer gekost hebben. Dus dat is ook een beetje de reden waarom we,

213
00:19:40,400 --> 00:19:45,040
omdat we, één van de feedback van de klanten. Maar die eerste POC, als je al die documenten

214
00:19:45,040 --> 00:19:49,600
moet opladen. Dan heb je nog extra componenten die je helemaal gaat opkappen in al die. Ja en

215
00:19:49,600 --> 00:19:54,360
dan zijn het al de technische termen. En dan gaat hij dat eigenlijk helemaal opkappen in die,

216
00:19:54,360 --> 00:19:59,960
ja soort tokens bij wijze van spreken. Die dan opgeslagen worden in dat netwerk. Waar hij dan

217
00:19:59,960 --> 00:20:05,040
kan in gaan zoeken. En dan moet je eigenlijk per klant ja een pak data beginnen bijhouden. Wat dan

218
00:20:05,040 --> 00:20:12,680
ook weer een kost heeft. En dan search erop. En ja dus het is een lopende rekening. Ja. En net wat

219
00:20:12,680 --> 00:20:16,800
je zegt. Dat wordt gewoon heel vaak vergeten. Dat er allerlei operationele kosten aan zitten.

220
00:20:16,800 --> 00:20:23,480
Die ook best wel heel moeilijk te voorspellen zijn. Want je wil dat dat deze vragen nu veel

221
00:20:23,480 --> 00:20:29,600
makkelijker gesteld gaan worden. Dus het idee is denk ik ook dat er meer vragen. Toename van

222
00:20:29,600 --> 00:20:36,760
vragen. Maar toename van vragen betekent ook een toename. En vooral variabele kosten. Ja daar zit

223
00:20:36,760 --> 00:20:41,800
het in mijn naam inderdaad. Variabele kosten. Hoe ga je daar rekening mee houden? Ja. Dat is waar.

224
00:20:41,800 --> 00:20:48,520
Dus ja dat is iets waar we ook nog geen beeld over hebben. Dus dat zullen we nog moeten afwachten.

225
00:20:48,520 --> 00:20:55,440
Maar ja dat dus dat is ook het punt. Dus nu ook in startup fase wil ik het nu natuurlijk wat testen

226
00:20:55,440 --> 00:21:01,280
en zo. Ja het zou kunnen dat we als het succesvoller wordt. Dat we daar toch een betaalde versie van

227
00:21:01,280 --> 00:21:07,400
moeten gaan maken. En dan wij hebben onze onze prijs is altijd per persoon per maand. Dus omdat we

228
00:21:07,400 --> 00:21:13,480
in de p-roll zitten. En ik zeg maar je hebt 200 of 400 of 1000 medewerkers in je bedrijf. Dan rekenen

229
00:21:13,480 --> 00:21:17,760
wij een kost per medewerker per maand. Omdat je natuurlijk dat management van die mensen doet om

230
00:21:17,760 --> 00:21:21,960
hun p-roll te gaan bepalen. En dan kunnen wij er bij wijze van speken gemakkelijk zeggen. We doen dat

231
00:21:21,960 --> 00:21:26,960
gemakkelijk. We zouden dan kunnen zeggen we doen er een halve euro bij per medewerker. En dan spreid

232
00:21:26,960 --> 00:21:32,080
je die kost waardoor er dan toch wel een stuk van betaald wordt. Omdat je kan verwachten hoe meer

233
00:21:32,080 --> 00:21:35,960
medewerkers hoe meer soorten vragen je krijgt. En dus je zou het daar wat kunnen relateren. Precies.

234
00:21:35,960 --> 00:21:43,520
Ja dat is nog dat is ook wat sales. Ja en dan hebben jullie ook nog een keuze gemaakt in welk

235
00:21:43,520 --> 00:21:50,120
model je eronder hebt. Ik neem aan je zit in Microsoft technologie geef je aan. Dus het betekent

236
00:21:50,120 --> 00:21:57,640
dat je de Azure OpenAI services hebt. En dan heb je keuzes in in ieder geval GPT 3.5, 4, Mistral is

237
00:21:57,640 --> 00:22:03,480
er nu bij gekomen. Die hebben allemaal een verschillende pricing operationeel. Dus 3.5 is

238
00:22:03,480 --> 00:22:08,760
heel veel goedkoper dan 4. Hebben jullie daar nog een keuze in gemaakt? Ja omdat we nu enkel de

239
00:22:08,760 --> 00:22:13,560
vertaling nog maar gebruiken. Die hielden eigenlijk wel mee en hebben niet te hoog moeten gaan. Omdat

240
00:22:13,560 --> 00:22:17,000
we dan die Bing search gebruiken. Die doet eigenlijk het werk om te gaan zoeken. En dan gaan we dat

241
00:22:17,000 --> 00:22:28,160
wel terug mergen. Dus we moeten niet zo heel veel zoeken via chat. Maar ook daar bleek dan, wist ik

242
00:22:28,160 --> 00:22:33,880
ook niet, dat je ook wel inderdaad verschillende manieren hebt om die merge enzo. Je hebt open

243
00:22:33,880 --> 00:22:40,760
source verhalen en je hebt inderdaad het Microsoft ja de componenten in Azure dan wel eens waren. En

244
00:22:40,760 --> 00:22:47,280
daar hebben we nu nog wel gekozen voor een open source. Puur vanwege kost. Maar ik moet zeggen

245
00:22:47,280 --> 00:22:52,200
dat ook daar is een maand of twee geleden ik in de term niet meer. En dat hebben dan mijn twee

246
00:22:52,200 --> 00:22:58,840
developers geregeld. Maar daar heb je ook keuzes gemaakt om die operationele kosten eigenlijk zo

247
00:22:58,840 --> 00:23:06,280
laag mogelijk te maken. Ja. Want heel veel denken van ja maar we moeten GPT 4, het allernieuwste

248
00:23:06,280 --> 00:23:14,320
model. Wat ook meteen het allerduurste is. Er zit een factor in die is echt waanzinnig. Ja. Dat is

249
00:23:14,320 --> 00:23:18,720
ook zo. Ja. En wat dat bijvoorbeeld ook is. Hij was traag. Op een gegeven moment werd hij traag.

250
00:23:18,720 --> 00:23:24,960
Ja. Ja. En dus dan waren we aan het praten van ja maar als je dan ook weer hier als voorbeeld

251
00:23:24,960 --> 00:23:30,680
ChatGPT. Je stelt een vraag en dan begint die zo woordjes te zetten. Ja. Waardoor het precies

252
00:23:30,680 --> 00:23:37,080
niet zo lang duurt om een antwoord te krijgen. Maar als je dat dus wil dan heb je dus weer een

253
00:23:37,080 --> 00:23:42,000
extra complexiteit. Dus bij ons gaat die nu heel hard rekenen en dan komt hij met een antwoord.

254
00:23:42,000 --> 00:23:47,200
Maar dat kan dus vijf, zes, zeven seconden duren. En dan gaat die het antwoord in één keer geven.

255
00:23:47,200 --> 00:23:52,400
Dat was ook iets waar ik dacht ah ja, dat is iets wat je verwacht dat die dat doet. Maar toch weer

256
00:23:52,400 --> 00:23:57,280
niet evident is. Precies. Er zitten veel kantjes aan die als je dieper erop ingaat toch heel

257
00:23:57,280 --> 00:24:03,840
complex. Ja. En waar je als developer problemen over na moet denken. Maar ook qua kosten over na

258
00:24:03,840 --> 00:24:08,120
moet denken. Klopt. Want het is de beleving van langere doorlooptijd. Want waarschijnlijk

259
00:24:08,120 --> 00:24:12,240
het volledige antwoord is misschien wel even snel als dat ChatGPT mee toe. Misschien is dat wel

260
00:24:12,240 --> 00:24:17,760
sneller. Ja. Dus dat hebben ze heel slim gedaan qua interface. Ja. Zwaar. Om al woorden terug te

261
00:24:17,760 --> 00:24:23,520
geven. Ja. Gaandeweg. We hebben dat opgelost door dan een upgrade te doen van onze app service.

262
00:24:23,520 --> 00:24:28,400
Want ja, als we dan eentje hoger namen met meer CPU en meer memory. Dan ging hij wel gedeeld door

263
00:24:28,400 --> 00:24:32,840
drie of zo. Want we zaten eerst echt veel langer. En nu zitten we op een seconde of vijf, zes. Wat

264
00:24:32,840 --> 00:24:39,400
nog wel doenbaar is. We hebben er dan een spinnetje en zo en een spinnetje bij gestoken. Sava. Ja.

265
00:24:39,400 --> 00:24:44,400
En uiteindelijk, als je het gaat vertalen naar waarvoor je het nu toepast. Als je zelf handmatig

266
00:24:44,400 --> 00:24:49,560
moet gaan zoeken. Dan zou de tijd nog vele malen hoger liggen dan hiermee. Dus wat dat betreft zit

267
00:24:49,560 --> 00:24:53,280
er al een hele efficiënt slag in. Maar dat zijn wel de zaken waar je dan in terecht gaat komen. Om

268
00:24:53,280 --> 00:24:57,720
die optimalisatie te gaan doen. En kosten en performance af te gaan wegen. Ja. Dat zijn wel

269
00:24:57,720 --> 00:25:01,680
allemaal keuzes waar je in het begin niet over nadenkt. Nee. Wat we nu gewoon gewend zijn. Ik

270
00:25:01,680 --> 00:25:06,280
vraag het of ik zet het ergens aan en het is er. Ja. Maar dat is geen magie. Er komt zoveel

271
00:25:06,280 --> 00:25:11,240
achterkijken die. Ja. Dat is wat gewoon weggeschoven is. Dus ja. Inderdaad. Ik had

272
00:25:11,240 --> 00:25:18,720
onder wel eventjes de pricing opgezocht. Van OpenAI. Dus nu de GPT4 Turbo. Dat is het aller

273
00:25:18,720 --> 00:25:27,400
allernieuwste model. Als je daar de output tokens betaal je 30 euro per 1 miljoen tokens. 30 dollar.

274
00:25:27,400 --> 00:25:33,720
Sorry. 30 dollar per 1 miljoen tokens. Ja. En dat in vergelijking. En een token voor de luisteraar.

275
00:25:33,720 --> 00:25:38,520
Dat kunnen ook delen van woorden zijn. Dat kan ook gewoon de punt zijn. Achter een zin. Dat is

276
00:25:38,520 --> 00:25:47,480
ook gewoon één token. Ja. Dus per per miljoen 30 dollar. Kijk je naar 3.5. Dan hebben we het over

277
00:25:47,480 --> 00:25:55,240
1 dollar 50 per 1 miljoen tokens. Ja. Dus daar zit echt een enorme factor in. Van wat de keuze is.

278
00:25:55,240 --> 00:26:01,120
Wat je je onderzet aan operationele kosten. Ongelooflijk. Ja. Klopt. Dus als je op je kosten

279
00:26:01,120 --> 00:26:05,240
en je operationele kosten gaat letten. Doe hier alsjeblieft onderzoek naar. En ga niet altijd

280
00:26:05,240 --> 00:26:09,080
voor het nieuwste. Test het wel natuurlijk. Van wat is de kwaliteit en performance die je haalt.

281
00:26:09,080 --> 00:26:13,720
En is dat noodzakelijk ja of nee. Ja. Niet altijd maar het nieuwste van het nieuwste. Omdat.

282
00:26:13,720 --> 00:26:25,560
Dat is waar. Klopt. Ja. Wat zou zeg maar als je mag dromen. Over een jaar zeg maar. Waar zou dit

283
00:26:25,560 --> 00:26:31,920
staan. Ja. Het punt is dat ik nog wel een hoop andere ideeën heb erover. Die we zouden willen

284
00:26:31,920 --> 00:26:38,880
kunnen maken. En dan is het ook weer afwegen. Bijvoorbeeld vandaag terug in die perelwereld.

285
00:26:38,880 --> 00:26:45,520
Want elke perel engine heeft een lijst van perelcodes. En dat in België bijvoorbeeld. In

286
00:26:45,520 --> 00:26:51,360
ons perelsysteem in België. Of hetgeen dat wij gebruiken. Zijn er pak 500. Voor verschillende

287
00:26:51,360 --> 00:26:56,760
perelcodes. Dat gaat dan over een bonus. Dat gaat over een vakantiedag. Feestdag. Klein verlet.

288
00:26:56,760 --> 00:27:03,240
Ouderschapsverlof. Moederschapsverlof. Borstvoedingsverlof. Je hebt van alles. Maar evengoed.

289
00:27:03,240 --> 00:27:08,400
Werkloosheid en heel veel glooncodes. En dus omdat wij in ons systeem. In ons platform.

290
00:27:08,400 --> 00:27:12,680
Willen wij eigenlijk over al die landen heen. Appelen met appelen vergelijken. En de invoer

291
00:27:12,680 --> 00:27:18,200
heel eenvoudig gaan doen. Waardoor wij al die codes mappen op een set van onze eigen groepen.

292
00:27:18,200 --> 00:27:22,960
Subgroepen. En een soort van codelijst. Waarvoor het voor de gebruiker transparant is. Ik geef ik

293
00:27:22,960 --> 00:27:27,680
een loon in voor iemand van in Tsjechië terug. Of in Spanje. Dan kies ik eigenlijk uit de lijst.

294
00:27:27,680 --> 00:27:32,800
En die lijst wordt dan super beperkt. We gebruiken achterliggende reële looncode weliswaar. Maar voor

295
00:27:32,800 --> 00:27:39,040
de gebruiker is het heel gemakkelijk om die te vinden. Maar dat verrijst natuurlijk dat je bij

296
00:27:39,040 --> 00:27:45,840
de opstart die looncodes mapt op onze lijst. En dus dat is op zich wel een werkje. En ofwel doet de

297
00:27:45,840 --> 00:27:50,880
lokale HR dienst dat. Maar we merken dat dat toch geen evident werkje is. En dus meestal moeten wij

298
00:27:50,880 --> 00:27:59,800
dat zelf doen. Bij onze operations name. En dus zei een van mijn co-founders. Goh Bart. Kan AI dat

299
00:27:59,800 --> 00:28:06,360
niet oplossen? En dus daar ben ik nu de voorbije weken maar weliswaar tussendoor mee bezig geweest.

300
00:28:06,360 --> 00:28:11,400
Om te kijken in hoeverre kan hij eigenlijk die looncodelijst mappen op onze looncodelijst.

301
00:28:11,400 --> 00:28:17,360
Pure basis van de omschrijving. Die soms nogal cryptisch is. Maar daar ben ik redelijk ver

302
00:28:17,360 --> 00:28:22,080
in gelukt eigenlijk. Want ik had. Oké. Ik moet wel. We zijn op het punt dat ik eigenlijk elke

303
00:28:22,080 --> 00:28:26,120
looncode wel een categorie moet geven. Is het een betaalde code of een onbetaalde code? Of is het

304
00:28:26,120 --> 00:28:32,360
een bonus of is het een parameter? Want je hebt ook parameters. En als je die categorie

305
00:28:32,360 --> 00:28:36,960
bij wijze van spreken meegeeft. En dan moet die natuurlijk in een kleinere set gaan zoeken. Dat

306
00:28:36,960 --> 00:28:41,120
is dan het effect ervan. Maar dat maakt dat ik toch. Voor bijvoorbeeld de Nederlandse. Daar had

307
00:28:41,120 --> 00:28:49,240
ik 77 pdl-codes. En daar had hij er 72 van juist. Oh ja. Dus dat was al een goede vooruitgang. Om

308
00:28:49,240 --> 00:28:55,320
dat natuurlijk voor onze platform. Omdat we natuurlijk de iets kleinere bedrijven willen

309
00:28:55,320 --> 00:29:01,720
targetten. Is de opstartkost belangrijk. En als we die natuurlijk kunnen laten zakken door te zeggen.

310
00:29:01,720 --> 00:29:07,800
Kijk geef ons de looncodelijst. En wij gaan die voor preppen. Door er eigenlijk al eens met AI

311
00:29:07,800 --> 00:29:12,680
door te gaan. En dan een hele. Dan moet je eigenlijk nog maar wat corrigeren bij de foutjes die je dan

312
00:29:12,680 --> 00:29:17,080
gemaakt hebt. Maar je hebt al een hele goede preset. Dat is bijvoorbeeld iets waar we nu

313
00:29:17,080 --> 00:29:23,080
mee bezig zijn om te kijken. Kunnen we daar niks mee doen? Mooi. Maar het gaat ook. En dat is dan ook

314
00:29:23,080 --> 00:29:29,320
weer dan in de discussies met Tim. Dat zijn echt wel leuke discussies. Bijvoorbeeld een van de dingen

315
00:29:29,320 --> 00:29:34,520
die we daar nog hadden. Is mailtjes sturen. Is super evident. Maar we hebben een self-service.

316
00:29:34,520 --> 00:29:40,520
En een self-service. Daar heb je het feit van. Ik heb een vakantie aangevraagd gedaan. En mijn

317
00:29:40,520 --> 00:29:44,200
chef moet weten dat ik een vakantie aangevraagd gedaan heb. En dan moet die die goedkeuren. En

318
00:29:44,200 --> 00:29:47,480
dan krijgt de medewerker terug een mailtje. Ja het is goed gekeurd. Maar het kan ook zijn dat

319
00:29:47,480 --> 00:29:53,760
dat ietsje harder van op de hoogte moet gehouden worden. Of dat het een work from home is. Die dus

320
00:29:53,760 --> 00:29:59,200
een zelfgoedkeuring krijgt. Maar dat de medewerker. Dat de chef wel op de hoogte moet gebracht worden.

321
00:29:59,200 --> 00:30:04,240
En dus je hebt heel veel soorten mailtjes met heel veel variabelen in. En nu hebben we dus. Ja.

322
00:30:04,240 --> 00:30:10,960
Sendgrid gebruikt typisch. Met een hoop templates. Maar je zou ook kunnen zeggen. Kijk. Genereer een

323
00:30:10,960 --> 00:30:15,760
mailtje met deze parameters. Met die bestemmeling. In deze taal. En in zijn lokale taal nog eens. Van

324
00:30:15,760 --> 00:30:23,440
die medewerker. En genereer eigenlijk dan de tekst voor mij. Ja. Dat zou eigenlijk. Ja. Dan heb je

325
00:30:23,440 --> 00:30:29,920
eigenlijk alle varianten in één keer meegenomen. Ja. Dat is een superleuk ding. Alleen is daar direct

326
00:30:29,920 --> 00:30:36,800
bij mij de kost. Ja. Want dan ga je wel wat tokens genereren. En puur voor een mailtje. Dus. We gaan

327
00:30:36,800 --> 00:30:40,040
het nog even houden bij de templates denk ik. Maar dat zijn. Er zijn zeker een hoop ideeën die

328
00:30:40,040 --> 00:30:45,480
wel nog spelen. Die het interessant zou kunnen maken. Ja. Nou wat daar misschien nog wel interessant

329
00:30:45,480 --> 00:30:51,080
is. Want ik denk dat het een hele mooie case is. Juist omdat die taalmodellen zo goed met taal om

330
00:30:51,080 --> 00:30:56,960
kunnen gaan. Ja. En de verschillende talen. Maar er is ook best al wat onderzoek naar. Wat ze dan

331
00:30:56,960 --> 00:31:04,800
noemen. Caching. Dat is iets wat qua betekenis op elkaar lijkt. Dus dan kan het zeg maar net iets

332
00:31:04,800 --> 00:31:11,080
anders ingegeven zijn. Maar is uiteindelijk het uiteindelijke mailtje. Zou eigenlijk hetzelfde

333
00:31:11,080 --> 00:31:15,600
kunnen zijn als wat al eens een keer eerder is gestuurd. En dan hoef je dus niet naar je taalmodel.

334
00:31:15,600 --> 00:31:22,680
Heb je dus niet die operational kost. Oké. Dat wist ik niet. Ja. En dan lijken dingen dus semantisch

335
00:31:22,680 --> 00:31:27,560
op elkaar. En als ze dan zo erg semantisch op elkaar lijken. Kun je dus eigenlijk wat je al

336
00:31:27,560 --> 00:31:32,800
had opgeslagen. Herbruiken. Kan je gewoon herbruiken. Ah ja. Cool. Oké. Dus daar. Dat

337
00:31:32,800 --> 00:31:37,000
zou toch misschien eens bekijken. Toch? Ja. Ja. Absoluut. Ja. En die mailtjes worden waarschijnlijk

338
00:31:37,000 --> 00:31:41,280
nu ook al gestuurd. Dus wat je ook vaak nu ziet is dat de mailtjes die allemaal verstuurd worden.

339
00:31:41,280 --> 00:31:45,680
Dat daar eigenlijk gekeken wordt naar wat voor categorisering kan je op die mailtjes al loslaten.

340
00:31:45,680 --> 00:31:50,360
Om eigenlijk te komen tot inzichten op wat er nu al verstuurd wordt. En of daar al patronen in te

341
00:31:50,360 --> 00:31:55,400
herkennen zijn. Maar dan ga je wel grasduinen in de data. En daar zit tijd en kosten in. En dan kijken

342
00:31:55,400 --> 00:32:01,080
wat je kan organiseren. Ik denk dat die semantische gelijkheid. Heel veel. Dat je daar best wel heel

343
00:32:01,080 --> 00:32:07,400
veel in zou kunnen halen. Bart, we hebben ook een virtuele co-host. En zij wil ook eigenlijk

344
00:32:07,400 --> 00:32:29,480
altijd een vraag stellen. Oké. Aisha. Aisha. Goed je hier te zien. Ik ben Aisha. De AI-assistent

345
00:32:29,480 --> 00:32:36,880
van deze show. Zou je het goed vinden als ik je een vraag stel? Uiteraard. Hoe kunnen we AI trainen

346
00:32:36,880 --> 00:32:45,080
met data die representatief is voor de hele bevolking? Hoe kunnen we AI trainen? Hoe kunnen

347
00:32:45,080 --> 00:32:51,720
we AI trainen met de data die representatief is voor de hele bevolking? Oké. Oei. Dat is geen

348
00:32:51,720 --> 00:33:01,240
gemakkelijke vraag. Ik denk dat we, ja, als ik kijk naar HR, dan is dat op zich wel een gevaarlijk

349
00:33:01,240 --> 00:33:08,360
iets. Wat dat, als je dan zegt 'trainen met data', ja, iets waar natuurlijk de HR-mensen en wijzelf

350
00:33:08,360 --> 00:33:14,580
grote bang van hebben, is het feit dat het over superpersoonlijke data gaat. En dus de eerste

351
00:33:14,580 --> 00:33:19,920
vraag die ik ook wel krijg is, en dan niet met het zoeken van die juridische info, want dat is

352
00:33:19,920 --> 00:33:22,800
sowieso extern, maar bijvoorbeeld die eerste vraag is, ja, waar wordt dat dan eigenlijk allemaal

353
00:33:22,800 --> 00:33:27,080
opgeslagen? En waar gaat die data naartoe? En hoe werkt dat dan met die search engine? Dus je hebt

354
00:33:27,080 --> 00:33:35,840
eigenlijk nog wel wat uitleg, educatie nodig bij de klanten eventueel, als je zoiets zou gaan doen.

355
00:33:35,840 --> 00:33:45,240
En dus ik denk dat er zeker interessante trends te trekken zijn, zeker over die HR-data en over al

356
00:33:45,240 --> 00:33:52,680
die afwezigheden. En zeker vandaag in het wellbeing-verhaal hebben we superveel data vanuit

357
00:33:52,680 --> 00:33:59,960
Perel en alles wat eraan gerelateerd is. En evengoed ook loonkosten en equal pay en ESG en

358
00:33:59,960 --> 00:34:06,920
al die zaken, injuries, we houden allemaal bij. Dus er zijn zeker trends in te trekken, maar ik weet

359
00:34:06,920 --> 00:34:12,360
niet dat, als ik vandaag zou zeggen, ja, die data gaan we ook gebruiken om trends te trekken voor

360
00:34:12,360 --> 00:34:18,520
de ganse bevolking. Dat weet ik niet zo goed. Dus het zou zeker kunnen, maar dan is de databeveiliging

361
00:34:18,520 --> 00:34:24,120
key, volgens mij. Als dat een beetje een antwoord is op haar vraag, want het was echt een moeilijke

362
00:34:24,120 --> 00:34:29,360
vraag. Zullen we eens even kijken? Hartelijk dank voor je grondige en verhelderende uitleg.

363
00:34:29,360 --> 00:34:39,680
Kijk eens aan. Ja, heel interessant. En vooral, weet je, zo'n mooi inzicht over wat je in de

364
00:34:39,680 --> 00:34:44,560
praktijk eigenlijk, dat je dit hebt lopen. Als je nou terug zou kijken, zou er iets zijn,

365
00:34:44,560 --> 00:34:49,560
wat je, want je hebt nu veel meer kennis, wat je anders zou doen met de kennis die je nu hebt?

366
00:34:49,560 --> 00:34:54,440
Stel dat je dit traject over zou moeten doen, bijvoorbeeld die POC 2, dus wat je nu in productie

367
00:34:54,440 --> 00:35:01,600
hebt. Zou je anders beginnen? Ik denk het niet. Nee, ik heb niet het gevoel dat we daar ergens

368
00:35:01,600 --> 00:35:08,960
heel veel tijd zijn verloren of dat we ergens onbedoelde kosten hebben gemaakt of zo. In mijn

369
00:35:08,960 --> 00:35:14,840
ogen is het heel efficiënt verlopen. Ik heb ook wel direct afgesproken dat we dat dus niet al zien

370
00:35:14,840 --> 00:35:20,920
van "we gaan nu twee weken vol tijds daaraan programmeren", omdat ik ondertussen ook wel weet

371
00:35:20,920 --> 00:35:27,480
dat inzichten groeien door tijd. En soms moet je gewoon even iets doen en dan het een week

372
00:35:27,480 --> 00:35:31,800
laten liggen om erover na te denken en dan eigenlijk het volgende stapje te zetten. En

373
00:35:31,800 --> 00:35:36,400
het feit dat we dus die track, zoals ik zei, een halve dag tot een dag in de week deden,

374
00:35:36,400 --> 00:35:43,400
elke week, dus elke week dezelfde dag was dat, hebben we er twee, drie maanden over gedaan. Dus

375
00:35:43,400 --> 00:35:50,040
een dag of acht, twaalf, daartussen zal het ergens liggen. Als je die achter elkaar zou doen, dan

376
00:35:50,040 --> 00:35:55,000
zou je niet het resultaat halen, denk ik, dat we nu hebben gedaan. Puur omdat we elke keer die

377
00:35:55,000 --> 00:36:02,280
reflectie konden maken. Ja, tijd om na te denken. Dus ik heb niet het gevoel dat we daar enige tijd

378
00:36:02,280 --> 00:36:07,040
verloren zijn eigenlijk. Misschien eigenlijk wel gewonnen door het rustig aan te doen. Ik denk het

379
00:36:07,040 --> 00:36:12,640
wel. Dat is een mooie. Dat is een mooie inderdaad. Want vaak werken we ook heel snel inderdaad. Ja,

380
00:36:12,640 --> 00:36:17,640
ja dat is niet altijd. Ik zie dat nu ook weer, als ik teruggrijp naar het product management. Ik heb

381
00:36:17,640 --> 00:36:23,440
toch het meest, ik kom van vroeger had ik een product management team, nu moet ik zelf de

382
00:36:23,440 --> 00:36:28,640
schermpjes terug tekenen. Dat is super leuk, maar ik zie toch dat ik zelf een drie tot vier

383
00:36:28,640 --> 00:36:32,760
iteraties nodig heb om een scherm te tekenen. Dus ik teken een scherm, ik probeer dat helemaal

384
00:36:32,760 --> 00:36:37,920
conceptueel uit te denken. De logica moet er ook in zitten. Hoe past het in het groter geheel? Ik

385
00:36:37,920 --> 00:36:42,920
teken dat en dan laat ik dat eigenlijk liggen. Ik moet echt twee maanden voor zijn op de developers

386
00:36:42,920 --> 00:36:47,760
om dat goed te krijgen, want ik moet dat dan twee, drie weken laten liggen. Dan heel de logica terug

387
00:36:47,760 --> 00:36:51,880
afchecken en dan kom ik gegarandeerd dingen tegen die niet kloppen of die niet dat ik dacht,

388
00:36:51,880 --> 00:36:55,920
olle, wat heb ik dan nu getekend? Dat klopt toch niet meer? En dan heb ik toch echt wel een drietal

389
00:36:55,920 --> 00:37:01,360
iteraties nodig. En je ziet dat tijd op dat moment belangrijk is. Ik zou niet kunnen zeggen,

390
00:37:01,360 --> 00:37:06,120
ik teken dat en begin er morgen maar aan. Dat zou niet goed zijn. Het leuke is, we hebben

391
00:37:06,120 --> 00:37:12,240
aflevering hiervoor met Willem Meints, architect op het gebied van AI en gesproken large language

392
00:37:12,240 --> 00:37:18,560
models over de OWASP top 10 voor large language models. En dat gaat over beveiliging van dit soort

393
00:37:18,560 --> 00:37:25,560
modellen. En het begin, de inleiding van die OWASP top 10 voor large language models,

394
00:37:25,560 --> 00:37:32,600
die zegt van we hebben een checklist gemaakt voor degene die overhaast AI in productie wil

395
00:37:32,600 --> 00:37:37,160
brengen. En daarom is jouw verhaal juist wel mooi. Die zegt van, ja even een stapje terug,

396
00:37:37,160 --> 00:37:43,440
rustig aan. Maar met die rust ben je eigenlijk eerder op je eindbestemming. Eigenlijk de haas

397
00:37:43,440 --> 00:37:50,480
en de schildpad. De haas en de schildpad is uiteindelijk eerder aan de finish door goed

398
00:37:50,480 --> 00:37:57,440
na te denken over welke stappen je neemt. Ja mooi. Wat ik mooi vind om te horen is dat je

399
00:37:57,440 --> 00:38:02,440
eigenlijk bij de problematiek AI gewoon meeneemt in, is de potentiële oplossing. Waar ik nieuwsgierig

400
00:38:02,440 --> 00:38:07,840
aan ben is, wat zijn voor jou de criteria van, ga ik het met AI oplossen? Ga ik het traditioneel

401
00:38:07,840 --> 00:38:20,320
met software oplossen? Heb je daar een? Wanneer zou ik AI kiezen? Ja soms is het gewoon super

402
00:38:20,320 --> 00:38:26,320
moeilijk om het algoritme te bedenken of te schrijven in conventionele programmeertalen,

403
00:38:26,320 --> 00:38:34,400
denk ik. En ik denk dat zoals dat mailtje of zoals het zoeken naar de juiste, die perelcode mapping

404
00:38:34,400 --> 00:38:40,400
bijvoorbeeld, ja begin maar eens aan een label te matchen met een ander label, met alle opties die

405
00:38:40,400 --> 00:38:45,000
daarbij zijn. Daar kan je gewoon niet van winnen, dat moment. En ik denk dat in zo'n gevallen,

406
00:38:45,000 --> 00:38:51,880
dat je inderdaad AI moet bekijken, weliswaar de kost ernaast leggen, maar ja dan denk ik dat het

407
00:38:51,880 --> 00:38:56,120
interessant is. Ik denk dat het in heel veel gevallen ook nog gewoon beter is om het gewoon

408
00:38:56,120 --> 00:39:02,880
te programmeren. Dus maar ja, dus ik denk dat het een beetje in die trend is. Hoe complex is om

409
00:39:02,880 --> 00:39:09,960
het te maken zelf en en wat is de tegenhanger en wat is de kost in AI? En als startup moet je kiezen

410
00:39:09,960 --> 00:39:15,960
wat denk ik goed is. We hebben het al over gehad, over operationele kosten. Hoe zorg je dat je bij

411
00:39:15,960 --> 00:39:20,640
blijft op wat de ontwikkelingen zijn met AI en wat zou je andere mensen aan willen raden die

412
00:39:20,640 --> 00:39:24,760
ook bij willen blijven? Want ja, je wil top of the game zijn in je startup, maar je hebt ook genoeg

413
00:39:24,760 --> 00:39:33,480
andere aandachtsgebieden. Hoe blijf je bij? Ja, er zijn altijd meer features verwacht dan tijd. Nu ja,

414
00:39:33,480 --> 00:39:42,280
hoe blijf je bij? Wel, ik blijf bij door veel externe mensen te kennen, denk ik. En dat komt

415
00:39:42,280 --> 00:39:48,760
natuurlijk omdat ik al heel lang in de IT management zit. Zelf ooit lang geleden developer was geweest,

416
00:39:48,760 --> 00:39:53,920
dus ik bedoel ik begrijp die concepten wel heel goed, denk ik. Ik zou niet meer zelf kunnen

417
00:39:53,920 --> 00:39:58,480
zoiets maken, maar ik begrijp wel waarover het gaat. We kunnen aan een bord gaan staan en beginnen

418
00:39:58,480 --> 00:40:06,440
tekenen. En dan natuurlijk, ja, al tien jaar CTO, dus ik heb een gigantisch netwerk dat ik probeer

419
00:40:06,440 --> 00:40:11,760
wel goed in ere te houden. En door dus zoals met een aantal mensen elke drie, vier maand is een

420
00:40:11,760 --> 00:40:16,960
lunchje te doen of is af te spreken of is ja, de vraag is echt, heb je iets gemaakt? Wat denk je ervan?

421
00:40:16,960 --> 00:40:22,840
Ik denk dat dat wel helpt om zo aan nieuwe ideeën en aan nieuwe trends te komen. Want

422
00:40:22,840 --> 00:40:27,600
iemand zegt iets wat je gewoon triggert om er beginnen over na te denken. En als je dan open

423
00:40:27,600 --> 00:40:34,800
staat voor feedback en kritiek, dan dat is het leraarste eigenlijk. Mooi, mooi. Ik denk dat we

424
00:40:34,800 --> 00:40:40,960
heel wat inzichten van je hebben gekregen. Super bedankt. Ik heb in ieder geval, weet je, de haas

425
00:40:40,960 --> 00:40:47,400
en de schildpad. Dat is een mooie om mee te eindigen. Maar vooral eigenlijk van de stappen die jullie

426
00:40:47,400 --> 00:40:52,600
hebben gezet om dit daadwerkelijk in productie te krijgen. Overig goed over nagedacht. Super

427
00:40:52,600 --> 00:40:59,560
bedankt dat je dit met ons wilde delen. Ja, graag gedaan. Leuk dat je er weer luisterde naar een

428
00:40:59,560 --> 00:41:07,200
aflevering van AIToday Live. Bart, nogmaals bedankt voor alles wat je ons verteld hebt. Wil je meer

429
00:41:07,200 --> 00:41:13,320
weten, meer horen over het onderwerp AI in het algemeen? Vergeet je dan niet te abonneren via

430
00:41:13,320 --> 00:41:18,240
je favoriete podcast app. Druk op het knopje volg en dan krijg je vanzelf een seintje bij

431
00:41:18,240 --> 00:41:21,040
de volgende aflevering. Dank je wel. Tot de volgende keer.

432
00:41:21,040 --> 00:41:21,540
[Muziek]

433
00:41:21,540 --> 00:41:41,940
[Muziek]


People on this episode