AIToday Live

S07E15 - Van test naar code: Zo stuur je AI bij het programmeren

Aigency by Info Support Season 7 Episode 15

Bouke Nijhuis, CTO bij CINQ ICT, is te gast in de nieuwste aflevering van AIToday Live. Hij bespreekt het gebruik van AI bij het schrijven van code.

Nijhuis combineert test-driven development met AI voor code-generatie. Hij schrijft eerst tests, geeft deze aan de AI en controleert de gegenereerde code.

Hij experimenteert met verschillende AI-modellen, zowel cloud-gebaseerd als lokaal. Nijhuis merkt op dat grotere cloud-modellen vaak in één keer de juiste code produceren.

Voor programmeurs die willen beginnen met AI, adviseert Nijhuis om specifiek te zijn in de input en zich niet te veel zorgen te maken over kosten. Hij verwacht dat menselijke programmeurs voorlopig niet overbodig worden, maar ziet AI als een efficiëntie-bevorderende tool.

Onderwerpen

  • Effectief inzetten van AI bij het schrijven van code
  • Test-driven development gecombineerd met AI
  • Verschillende AI-modellen voor code-generatie
  • Tips voor programmeurs om met AI te werken
  • Toekomst van programmeren met AI als ondersteuning
Links

Genoemde entiteiten: CINQ ICT - ChatGPT - Anthropic - Ollama - Llama 3.1

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:10,500
In deze aflevering hoor je Bouke Nijhuis, CTO bij CINQ ICT, die een verrassende techniek onthult om AI precies te laten doen wat jij wilt bij het schrijven van code.

2
00:00:11,500 --> 00:00:22,500
Bouke deelt waardevolle inzichten over het samenwerken met verschillende AI-assistenten, hoe je hun output kunt vertrouwen en hoe zijn aanpak ook waardevol kan zijn in andere vakgebieden.

3
00:00:22,501 --> 00:00:26,500
[Muziek]

4
00:00:26,500 --> 00:00:29,980
Hoi, leuk dat je luistert naar een nieuwe aflevering van AIToday Live.

5
00:00:29,980 --> 00:00:32,020
En dit keer live, hè Niels?

6
00:00:32,020 --> 00:00:36,100
Vanavond podium vanuit De Fabrique in Utrecht.

7
00:00:36,100 --> 00:00:40,180
En we zitten op het hoofdpodium.

8
00:00:40,180 --> 00:00:40,900
Heel leuk.

9
00:00:40,900 --> 00:00:43,760
Samen met een ontzettend interessante gast.

10
00:00:43,760 --> 00:00:48,420
Want we hebben namelijk Bouke Nijhuis, CTO bij CINQ ICT.

11
00:00:48,420 --> 00:00:49,740
Of ICT, moet ik zeggen.

12
00:00:49,740 --> 00:00:54,480
En hij is een veel gevraagd spreker in de internationale developers community.

13
00:00:55,480 --> 00:00:59,040
Bouke heeft ontdekt hoe je AI inzet om precies te doen wat jij wilt.

14
00:00:59,040 --> 00:01:01,260
En in dit geval is dat het schrijven van code.

15
00:01:01,260 --> 00:01:04,620
Hij gebruikt daarvoor een techniek die Test Driven Development heet.

16
00:01:04,620 --> 00:01:07,360
Eerst omschrijft je namelijk precies wat je wilt bereiken.

17
00:01:07,360 --> 00:01:08,980
En daarna gaat de AI aan de slag.

18
00:01:08,980 --> 00:01:12,700
Dat klinkt als een interessante aanpak.

19
00:01:12,700 --> 00:01:16,400
Deze aanpak is eerst helder omschrijven van wat je wilt bereiken.

20
00:01:16,400 --> 00:01:18,180
En dan AI in het werk laten doen.

21
00:01:18,180 --> 00:01:20,460
Het is interessant voor iedereen die met AI werkt.

22
00:01:20,460 --> 00:01:23,340
Of je nu in de marketing teksten schrijft, financiële analyses maakt.

23
00:01:23,720 --> 00:01:24,880
Of HR-processen verbeterd.

24
00:01:24,880 --> 00:01:28,940
Bouke's ervaringen laten zien hoe je AI effectief kunt inzetten als assistent.

25
00:01:28,940 --> 00:01:32,640
Vandaag details aan inzichten over het samenwerken met verschillende AI-assistenten.

26
00:01:32,640 --> 00:01:34,280
Hoe je hun output kunt vertrouwen.

27
00:01:34,280 --> 00:01:37,300
En hoe zijn aanpak ook waardevol kan zijn in andere vakgebieden.

28
00:01:37,300 --> 00:01:38,940
We hebben 45 minuten.

29
00:01:38,940 --> 00:01:43,280
Waarvan 30 minuten even gewoon zo met jou een op een.

30
00:01:43,280 --> 00:01:44,820
En daarna hebben we een kwartier van vragen.

31
00:01:44,820 --> 00:01:46,940
Dus let's go.

32
00:01:48,180 --> 00:01:48,960
Laten we beginnen.

33
00:01:48,960 --> 00:01:50,660
Voor niet-technische luisteraars.

34
00:01:50,660 --> 00:01:53,780
Kun je als eerste eens uitleggen wat test-driven development is?

35
00:01:53,780 --> 00:01:56,360
En waarom het zo belangrijk is in de softwareontwikkeling?

36
00:01:56,360 --> 00:01:57,840
Hele goede vraag.

37
00:01:57,840 --> 00:02:01,360
Test-driven development is een techniek om software te ontwikkelen.

38
00:02:01,360 --> 00:02:02,920
Vroeger.

39
00:02:02,920 --> 00:02:03,800
Vroeger.

40
00:02:04,400 --> 00:02:07,200
In het verleden schreef men software.

41
00:02:07,200 --> 00:02:09,199
En ging men vaak daarna testen schrijven.

42
00:02:09,199 --> 00:02:10,840
Ik weet niet hoe lang geleden.

43
00:02:10,840 --> 00:02:13,620
Maar een tijdje geleden is de test-driven development bedacht.

44
00:02:13,620 --> 00:02:14,720
En daar is het idee andersom.

45
00:02:14,720 --> 00:02:15,860
Je schrijft eerst je testen.

46
00:02:15,860 --> 00:02:17,620
En dan schrijf je je software.

47
00:02:17,620 --> 00:02:20,980
En vervolgens gebruik je je testen om te kijken of je de juiste software hebt geschreven.

48
00:02:20,980 --> 00:02:23,720
Er zijn heel veel redenen om dit te doen.

49
00:02:23,720 --> 00:02:28,060
Maar er zijn twee redenen die ik echt goede redenen vind.

50
00:02:28,480 --> 00:02:32,940
En de eerste is dat je als je eerst je implementatie schrijft en daarna je testen.

51
00:02:32,940 --> 00:02:36,080
Dan zijn je testen beïnvloed door je eigen implementatie.

52
00:02:36,080 --> 00:02:38,600
Dus dat gaan altijd minder goede testen zijn.

53
00:02:38,600 --> 00:02:39,920
Dus andersom is beter.

54
00:02:39,920 --> 00:02:42,560
En de tweede is, ik geloof echt in het volgende.

55
00:02:42,560 --> 00:02:46,060
Hoe meer je nadenkt over iets, hoe beter het eindresultaat zal zijn.

56
00:02:46,060 --> 00:02:49,580
Als je eerst je testen schrijft, denk je goed na over je implementatie.

57
00:02:49,580 --> 00:02:52,320
En daarom zul je vervolgens ook een betere implementatie schrijven.

58
00:02:52,320 --> 00:02:55,740
En hoe bepaal je dan wat je gaat testen?

59
00:02:55,740 --> 00:02:57,500
Dat is een hele goede vraag.

60
00:02:57,600 --> 00:03:00,520
Maar als het goed is, voordat je iets gaat bouwen, weet je al ongeveer wat je wil bouwen.

61
00:03:00,520 --> 00:03:01,840
Je weet al wat de software moet gaan doen.

62
00:03:01,840 --> 00:03:05,440
Dus je kan opschrijven.

63
00:03:05,440 --> 00:03:08,060
Als ik deze input geef, verwacht ik dat de software deze output geeft.

64
00:03:08,060 --> 00:03:10,520
Want de voorjaar zou je daar al een beeld bij moeten hebben.

65
00:03:10,520 --> 00:03:14,500
Ik geloof ook heilig, als je eenmaal de testen hebt gedaan en dan je implementatie,

66
00:03:14,500 --> 00:03:16,360
dat je dan nieuwe testen erbij gaat schrijven.

67
00:03:16,360 --> 00:03:17,380
Want je krijgt nieuwe inzichten.

68
00:03:17,380 --> 00:03:20,540
Je bent eigenlijk heel erg bezig met de waarom vraag, toch?

69
00:03:20,540 --> 00:03:23,280
Waarom wil ik iets? Hoe kom ik daar?

70
00:03:23,280 --> 00:03:25,280
En wat heb ik er dan voor nodig?

71
00:03:26,220 --> 00:03:28,180
Je kan testen ook zien als een vorm van specificatie.

72
00:03:28,180 --> 00:03:29,580
Dus een specificatie in software.

73
00:03:29,580 --> 00:03:31,200
Dat deden we vroeger heel veel.

74
00:03:31,200 --> 00:03:33,920
Gingen mensen van tevoren heel het boekwerk schrijven van dit moet de software doen.

75
00:03:33,920 --> 00:03:36,560
Maar ja, in de praktijk, niemand ging die boeken lezen.

76
00:03:36,560 --> 00:03:38,320
En de software werd dus anders, ook door nieuwe inzichten.

77
00:03:39,080 --> 00:03:40,480
Tegenwoordig doen we dat vaak in de vorm van testen.

78
00:03:40,480 --> 00:03:42,960
Dus je kan de test zien als een vorm van specificeren.

79
00:03:42,960 --> 00:03:44,420
Wat zou mijn programma moeten doen?

80
00:03:44,420 --> 00:03:46,780
En dan heb je dat gespecificeerd.

81
00:03:46,780 --> 00:03:48,720
Maar hoe komt AI dan hier om de hoek?

82
00:03:48,720 --> 00:03:49,980
Ja, een hele goede vraag.

83
00:03:49,980 --> 00:03:53,320
Ik zal even een kleine introductie geven.

84
00:03:53,320 --> 00:03:56,880
Jullie hebben allemaal ondertussen met AI gespeeld.

85
00:03:56,880 --> 00:03:58,920
Anders zou je waarschijnlijk niet naar deze podcast luisteren.

86
00:03:59,420 --> 00:04:01,800
En dan weet je dus ook dat AI doet het eigenlijk...

87
00:04:01,800 --> 00:04:03,680
Ik persoonlijk vind het heel lekker werken.

88
00:04:03,680 --> 00:04:06,460
Alleen af en toe verzint AI dingen.

89
00:04:06,460 --> 00:04:07,760
En dat is een probleem.

90
00:04:07,760 --> 00:04:10,480
Dat is overal een probleem, maar vooral in de software development.

91
00:04:10,480 --> 00:04:13,760
Dus als je de AI gebruikt voor software development.

92
00:04:13,760 --> 00:04:16,140
En hij gaat dingen verzinnen, krijg je dus verkeerde implementaties.

93
00:04:16,140 --> 00:04:19,640
De reden dat ik hierover na ging denken is als volgt.

94
00:04:19,640 --> 00:04:20,600
Ga ik even een jaartje terug.

95
00:04:20,600 --> 00:04:23,600
Een jaartje terug stond ik op conferenties met een praatje genaamd

96
00:04:23,600 --> 00:04:25,360
The Battle of the AI Coding Assistance.

97
00:04:25,360 --> 00:04:29,320
In dit praatje vergeleek ik features van verschillende AI Coding Assistance.

98
00:04:29,320 --> 00:04:31,360
En dan kun je denken aan GitHub Copilot.

99
00:04:31,360 --> 00:04:33,760
Kun je denken aan JetBrains AI System, maar ook ChatGPT.

100
00:04:33,760 --> 00:04:39,160
En een van de features die ik daar liet zien was het feit dat deze assistance assistenten

101
00:04:39,160 --> 00:04:42,360
best wel goed waren in het genereren van testcases.

102
00:04:42,360 --> 00:04:42,940
Hoe werkt dat?

103
00:04:42,940 --> 00:04:46,460
Jij schrijft implementatie, je geeft aan AI en je vraagt om testcases.

104
00:04:46,460 --> 00:04:49,160
In bijna alle gevallen komt hij met de happy flow.

105
00:04:49,160 --> 00:04:51,020
In meeste gevallen komen er wel wat edge cases.

106
00:04:51,020 --> 00:04:54,300
En als je dan nog niet blij bent, kan je gewoon van meer vragen totdat je een volledige testfeed hebt.

107
00:04:54,300 --> 00:04:58,520
Na een van deze presentaties kwam dus iemand naar me toe en zei

108
00:04:58,520 --> 00:04:59,940
hé, waarom doe je niet andersom?

109
00:04:59,940 --> 00:05:01,020
Ik zei andersom?

110
00:05:01,020 --> 00:05:02,440
Wat bedoel je met andersom?

111
00:05:02,440 --> 00:05:06,820
Nou, jij schrijft de testen, je geeft ze aan AI en dan vraag je om implementatie.

112
00:05:06,820 --> 00:05:08,420
En dan zeg ik, wow, dat is een leuk idee zeg.

113
00:05:08,420 --> 00:05:11,140
Maar ik weet niet of het werd, nooit gedaan, maar ik ga het uitzoeken.

114
00:05:11,140 --> 00:05:13,780
En dat uitzoeken, dat heeft geleid tot mijn nieuwe praatje.

115
00:05:13,780 --> 00:05:18,080
En daar kijk ik dus, hoe kan je testdriven development combineren met AI?

116
00:05:18,660 --> 00:05:23,280
En wat is dan het inzicht, waarom zei je eigenlijk oeh?

117
00:05:23,280 --> 00:05:28,460
Wat is het inzicht wat je gekregen hebt, die zegt van ja, maar nou moet ik ook deze aanpak

118
00:05:28,460 --> 00:05:30,240
gaan volgen en blijven volgen.

119
00:05:30,240 --> 00:05:32,760
Ja, ik wil heel even afmaken hoe we dat dan doen.

120
00:05:32,760 --> 00:05:33,580
Ik wil daarna kijken.

121
00:05:33,580 --> 00:05:34,080
Ja, graag.

122
00:05:34,560 --> 00:05:40,180
Dus toen ging ik daar dus over nadenken en toen kwam ik erachter tot testdriven development,

123
00:05:40,180 --> 00:05:43,020
dus van tevoren testen schrijven en Gen AI een leuke combi is.

124
00:05:43,020 --> 00:05:44,580
Dus hoe is het proces?

125
00:05:44,580 --> 00:05:46,240
Dat ga ik nu uitleggen, dan heb je een idee hoe het werkt.

126
00:05:46,240 --> 00:05:51,460
Je schrijft dus testen, je geeft deze aan Gen AI, dan zeg je, hey, kom, geef mij de implementatie,

127
00:05:51,460 --> 00:05:52,520
die deze testen laat slagen.

128
00:05:52,520 --> 00:05:57,160
Dan komt er dus een implementatie uit Gen AI en als dit een goede, vervolgens draai je daar

129
00:05:57,160 --> 00:06:02,200
de testen tegen en als die testen slagen, dan heb je productiecode, tenminste als je je testen

130
00:06:02,200 --> 00:06:02,560
vertrouwt.

131
00:06:02,560 --> 00:06:04,820
Nou is dit de theorie natuurlijk.

132
00:06:04,820 --> 00:06:08,300
In de praktijk gaan er ook dingen mis, want in de praktijk is de theorie, dan gaat het

133
00:06:08,300 --> 00:06:09,180
een beetje anders.

134
00:06:09,180 --> 00:06:15,820
Maar dus soms vraag je de AI om een implementatie en dan krijg je een uitleg of je krijgt code

135
00:06:15,820 --> 00:06:16,620
die niet compileert.

136
00:06:16,620 --> 00:06:19,560
Nou dan moet je dus blijven vragen totdat je compileren en de code krijgt, zodat je

137
00:06:19,560 --> 00:06:20,600
er testen tegenaan kan draaien.

138
00:06:20,600 --> 00:06:22,520
En soms slagen niet alle testen.

139
00:06:22,520 --> 00:06:27,160
Als dat het geval is, dan pak je de testen die niet slagen, die geef je terug in AI en

140
00:06:27,160 --> 00:06:29,740
je zegt, hey, deze test slagen niet, kom nu met implementatie waarvoor deze testen

141
00:06:29,740 --> 00:06:30,260
ook slagen.

142
00:06:30,260 --> 00:06:31,660
Dus je krijgt een soort van feedback loop.

143
00:06:32,200 --> 00:06:34,880
En in principe, dat blijf je doen tot de max natuurlijk.

144
00:06:34,880 --> 00:06:36,660
En dan komt de code uit.

145
00:06:36,660 --> 00:06:41,120
En dus ik meen serieus, als je je testen vertrouwt, vertrouw je dus ook de code die uit deze

146
00:06:41,120 --> 00:06:41,740
aanpak komt.

147
00:06:41,740 --> 00:06:46,960
Dus kortweg gezegd laat je eigenlijk de AI steeds de problemen oplossen net zolang

148
00:06:46,960 --> 00:06:48,300
totdat de testen slagen.

149
00:06:48,880 --> 00:06:49,020
Ja.

150
00:06:49,020 --> 00:06:51,420
Dat lijkt me een hele mooie manier.

151
00:06:51,420 --> 00:06:56,940
Dus je laat AI de problemen creëren en daarna ze oplossen door de juiste definitie van

152
00:06:56,940 --> 00:06:57,340
de test.

153
00:06:57,340 --> 00:07:02,260
Nou, ik denk de kracht van deze methode, jij vroeg net waarom sloeg je hierop aan, is je

154
00:07:02,260 --> 00:07:03,560
kan de AI controleren.

155
00:07:03,560 --> 00:07:08,020
En dat is dus, ik zou zeggen tegenwoordig als ik een AI gebruik, 80 tot 90% van de antwoorden

156
00:07:08,020 --> 00:07:08,600
zijn gewoon goed.

157
00:07:08,600 --> 00:07:11,460
Maar die laatste 10 tot 20%, daar zit het probleem.

158
00:07:11,840 --> 00:07:16,540
En met deze methode die ik net uitleg, heb je dus een geautomatiseerde manier om de

159
00:07:16,540 --> 00:07:17,680
AI te controleren.

160
00:07:17,680 --> 00:07:20,740
En dat maakt deze, dit idee, dit concept zo krachtig.

161
00:07:20,740 --> 00:07:24,180
Ja, nee, ga je aan.

162
00:07:24,180 --> 00:07:25,440
Dat klinkt heel logisch.

163
00:07:25,440 --> 00:07:29,720
En gebruik je dit dan altijd als je met AI aan de slag gaat?

164
00:07:29,720 --> 00:07:32,420
Of in bepaalde doelstellingen nu voor softwareontwikkeling?

165
00:07:32,420 --> 00:07:33,700
Of eigenlijk altijd deze aanpak?

166
00:07:33,700 --> 00:07:34,500
Nee, hele goede vraag.

167
00:07:34,500 --> 00:07:35,880
Het is echt de conceptfase.

168
00:07:35,880 --> 00:07:39,820
Dus ik heb gekeken, ik heb een aantal testen gemaakt.

169
00:07:40,160 --> 00:07:41,460
Ik heb die AI gegeven.

170
00:07:41,460 --> 00:07:43,560
Ik heb ook een tool geschreven die dit doet.

171
00:07:43,560 --> 00:07:45,840
Want in de presentatie laat ik het eerst handmatig zien.

172
00:07:45,840 --> 00:07:49,700
Dus dan knip ik code vanuit mijn IDE, ga ik naar mijn browser.

173
00:07:49,700 --> 00:07:51,360
Maar dat is heel veel werk, heel handmatig werk.

174
00:07:51,360 --> 00:07:52,680
Dus ik heb een tooltje gemaakt.

175
00:07:52,680 --> 00:07:55,160
Die zeg je, daar staat de test en ga je ding doen.

176
00:07:55,160 --> 00:07:58,060
En die tool gaat dan met AI praten en die gaat die loopjes allemaal doen.

177
00:07:58,060 --> 00:08:00,500
Totdat de code uitkomt en die zet je op de goede plek en dan ben je klaar.

178
00:08:00,500 --> 00:08:06,000
Ik heb het, ja dus, om je vraag te beantwoorden gebruik ik elke dag nee.

179
00:08:06,000 --> 00:08:07,240
Maar ik programmeer ook niet meer zoveel.

180
00:08:08,520 --> 00:08:11,560
Maar ik heb bijvoorbeeld wel deze tool gebruikt om de tool te verbeteren.

181
00:08:11,560 --> 00:08:14,660
Oh, kan je daar wat verder over uitweiden?

182
00:08:14,660 --> 00:08:15,140
Ja, zeker.

183
00:08:15,140 --> 00:08:17,340
Dus één, er zit iets in de tool.

184
00:08:17,340 --> 00:08:20,700
Dat moet, dat heet de code container.

185
00:08:20,700 --> 00:08:21,820
Nou, die heeft een aantal features.

186
00:08:21,820 --> 00:08:26,840
Als de LLM met een antwoord komt, dan wordt die bewaart in deze container.

187
00:08:27,240 --> 00:08:28,860
Vervolgens, ik heb hem in Java gemaakt.

188
00:08:28,860 --> 00:08:30,200
Ik ben van origine Java programmer.

189
00:08:30,200 --> 00:08:35,320
Er zijn ook mensen, zeg maar, die niet in de software development zitten.

190
00:08:35,320 --> 00:08:37,240
Die luisteren, die denken in een container.

191
00:08:37,240 --> 00:08:40,020
Die denken misschien in een zeecontainer of een container buiten.

192
00:08:40,020 --> 00:08:41,020
De afvalcontainer.

193
00:08:41,020 --> 00:08:41,659
Waar hebben we het over?

194
00:08:41,659 --> 00:08:42,380
Ja, goede vraag.

195
00:08:42,380 --> 00:08:44,220
Het is een Java klasse.

196
00:08:44,220 --> 00:08:45,900
Dus een module in een programmeertaal.

197
00:08:45,900 --> 00:08:46,140
Oh ja.

198
00:08:46,700 --> 00:08:48,080
En deze moet twee dingen doen.

199
00:08:48,080 --> 00:08:50,960
Dus hij heeft een implementatie, een stuk tekst, een stuk code.

200
00:08:50,960 --> 00:08:54,740
En dan moet hij de naam van de klasse eruit halen.

201
00:08:54,740 --> 00:08:57,120
In Java heb je dat nodig om de juiste file naam te pakken.

202
00:08:57,120 --> 00:08:58,920
En in Java kan je packages gebruiken.

203
00:08:58,920 --> 00:09:00,400
Dus hij moet het package keyword opzoeken.

204
00:09:00,400 --> 00:09:02,480
En hij moet de tekst die erachter staat, moet hij eruit halen.

205
00:09:02,480 --> 00:09:04,020
Nou, dat zijn technische redenen.

206
00:09:04,020 --> 00:09:04,880
Daar ga ik nu niet op in.

207
00:09:04,880 --> 00:09:06,880
Want dat is de mensen die het niet programmeren.

208
00:09:06,880 --> 00:09:10,140
Maar wat je dus moet doen, is tekst uit tekst extraheren.

209
00:09:10,140 --> 00:09:13,220
En in heel veel gevallen, de beste manier om dat te doen,

210
00:09:13,220 --> 00:09:15,200
weer een moeilijk woord, is een reguliere expressie.

211
00:09:15,200 --> 00:09:17,620
Dus een manier in de informatica om tekst uit tekst te halen.

212
00:09:17,620 --> 00:09:19,580
Die vind ik heel moeilijk als mens.

213
00:09:19,580 --> 00:09:21,900
Ik vind het echt moeilijk om een reguliere expressie te schrijven.

214
00:09:21,900 --> 00:09:25,540
Dus je schrijft allemaal punten, sterretjes, haakjes.

215
00:09:25,540 --> 00:09:27,220
Je wordt er helemaal gek van.

216
00:09:27,220 --> 00:09:29,600
Het is voor computers fantastisch, maar voor mensen iets moeilijker.

217
00:09:29,600 --> 00:09:33,040
Dus ik had een hele slechte andere oplossing geschreven.

218
00:09:33,040 --> 00:09:34,100
Ik wist van tevoren, die is niet goed.

219
00:09:34,100 --> 00:09:34,900
Maar ja, ik moest erg beginnen.

220
00:09:34,900 --> 00:09:37,080
En vervolgens zat ik in die...

221
00:09:37,080 --> 00:09:39,080
Ja, ik had mijn slechte oplossing, die de hele tijd stuk ging.

222
00:09:39,080 --> 00:09:41,080
Ik moest iets beters hebben, maar ik had wel de testen.

223
00:09:41,080 --> 00:09:43,540
Dus ik heb testen gevoerd aan mijn tool.

224
00:09:43,740 --> 00:09:47,040
En vervolgens kwam die mijn implementatie met reguliere expressies, zoals het hoort.

225
00:09:47,040 --> 00:09:47,420
Kijk.

226
00:09:47,420 --> 00:09:48,800
En die kon ik even in de tool stoppen.

227
00:09:48,800 --> 00:09:49,340
Heel mooi.

228
00:09:49,340 --> 00:09:49,540
Ja.

229
00:09:49,540 --> 00:09:50,920
Dus dat is toch hoe het gaat.

230
00:09:50,920 --> 00:09:55,520
En hoe zou je dit kunnen vertalen naar de luisteraar die denkt van...

231
00:09:55,520 --> 00:09:56,940
Oh, dit is best allemaal een technisch verhaal.

232
00:09:57,380 --> 00:10:01,480
Hoe zou ik dit nou in mijn andere werk kunnen gebruiken?

233
00:10:01,480 --> 00:10:04,720
Is jouw vraag nu, hoe kun je dit in niet-programmeercontext gebruiken?

234
00:10:04,720 --> 00:10:05,300
Ja.

235
00:10:05,300 --> 00:10:07,620
Ja, dat vind ik een hele goede vraag en daar heb ik helaas geen goed antwoord op.

236
00:10:07,620 --> 00:10:09,240
Maar dat is wel iets waar ik nu veel meer bezig ben.

237
00:10:09,240 --> 00:10:15,460
Dus dit probleem is in principe, lost dit het genereren van code, niet vertrouwen van LLM en genereren van code op.

238
00:10:15,460 --> 00:10:18,360
Maar ja, je wilt het eigenlijk dus inderdaad breder inzetten.

239
00:10:19,740 --> 00:10:22,480
Wat is een unit test in het schrijven van een marketing tekst?

240
00:10:22,480 --> 00:10:25,500
Als jij mij die vraag kan beantwoorden, dan heb ik de oplossing voor jou.

241
00:10:25,500 --> 00:10:31,220
Ik denk niet dat daar geautomatiseerde dingen voor zijn, maar ik ben wel steeds meer...

242
00:10:31,220 --> 00:10:36,240
Nou, wat je daar natuurlijk wel hebt, is dat je ook nadenkt over de waarom, over...

243
00:10:36,240 --> 00:10:42,220
Wat verwacht ik? Wat vind ik kwaliteit? Wat moet eruit? Wat is je einddoel wat je wil bereiken?

244
00:10:42,220 --> 00:10:45,480
Kan je dat uitdrukken in getallen? Iets wat je kan meten?

245
00:10:45,480 --> 00:10:48,720
Nou, je zou er cijfers aan kunnen geven.

246
00:10:49,200 --> 00:10:54,700
Dat je zegt van, als je bijvoorbeeld je vraagt, iets moet heel actief geschreven worden.

247
00:10:54,700 --> 00:10:56,280
Kan je daar een cijfer aan hangen.

248
00:10:56,280 --> 00:11:01,720
En als dat cijfer onder een bepaald niveau is, kan je zeggen van, ja, maak het dan nog actiever.

249
00:11:01,720 --> 00:11:05,660
Volgens mij kom je dan in zo'n zelde loop zeg maar uit als waar jij in zit.

250
00:11:05,660 --> 00:11:09,760
Dat je net zo lang die cijfers hebt bereikt eigenlijk.

251
00:11:09,760 --> 00:11:14,240
Wat je voor deze methode hebt, is een manier om te meten of het antwoord goed genoeg is.

252
00:11:14,240 --> 00:11:16,300
En als je dat hebt, dan kan het.

253
00:11:16,300 --> 00:11:17,020
Ja, mooi.

254
00:11:18,660 --> 00:11:18,880
Zeker.

255
00:11:18,880 --> 00:11:20,440
Zo, zijn we een stukje verder gekomen.

256
00:11:20,440 --> 00:11:28,760
Ik had ook nog wel een vraag van, ja, toch nog wel de eye-opener.

257
00:11:28,760 --> 00:11:33,760
Weet je, waar zit, waar zat nou zeg maar in dit hele proces?

258
00:11:33,760 --> 00:11:37,280
Dat je dacht van, ja, maar nu moet ik het echt wel doorzetten.

259
00:11:37,280 --> 00:11:40,320
Want dit maakt mijn werk makkelijker.

260
00:11:41,440 --> 00:11:43,220
Dit is ook iets voor mijn collega's.

261
00:11:43,220 --> 00:11:47,520
Ik denk dat het iets meer is dan individueel hoe jij nu een aanpak hebt.

262
00:11:47,520 --> 00:11:50,640
Ja, ik denk dat het voor mij de eye-opener is.

263
00:11:50,640 --> 00:11:55,420
Vroeger toen ik AI gebruikte en er kwam antwoorden uit, moest ik altijd controleren, is dat antwoord correct?

264
00:11:55,420 --> 00:11:56,400
Heeft hij niet wat verzonnen?

265
00:11:56,800 --> 00:12:01,800
En het feit dat ik nu een geautomatiseerde manier heb om dit te doen, dat was voor mij de eye-opener.

266
00:12:01,800 --> 00:12:08,220
Dus het feit dat je, ja, je stopt ergens iets in, je gaat een kop koffie drinken, je komt terug en je hebt een antwoord.

267
00:12:08,360 --> 00:12:09,740
En je weet dat het antwoord goed is.

268
00:12:09,740 --> 00:12:13,640
Je hoeft het niet meer te controleren, want je hebt zelf al een manier gegeven om te controleren.

269
00:12:13,640 --> 00:12:14,720
En dat was voor mij de eye-opener.

270
00:12:14,720 --> 00:12:15,580
Mooi.

271
00:12:15,580 --> 00:12:18,320
Ja, je hebt meerdere assistenten.

272
00:12:18,320 --> 00:12:21,140
En de tijd, als ik je zo wil praten, want je praat al over vroeger.

273
00:12:21,140 --> 00:12:22,720
Ik weet niet wat vroeger in deze term is.

274
00:12:22,720 --> 00:12:25,980
Volgens mij gaan we heel snel al naar vroeger als we met deze technologie aan de slag gaan.

275
00:12:25,980 --> 00:12:27,180
Eerst even die vraag.

276
00:12:27,180 --> 00:12:28,000
Wat is vroeger?

277
00:12:28,000 --> 00:12:30,380
Ja, heel goed.

278
00:12:30,380 --> 00:12:35,520
Vroeger, dus voordat ik deze tool, voordat ik deze idee had en voordat ik deze tool ontwikkeld had,

279
00:12:35,520 --> 00:12:36,980
kan ik ook wel even iets over vertellen.

280
00:12:36,980 --> 00:12:40,620
Ik heb begin van het jaar ben ik hier eigenlijk een beetje mee begonnen.

281
00:12:40,620 --> 00:12:43,140
En toen was ik vooral bezig met ChatGPT.

282
00:12:43,140 --> 00:12:45,300
JetGPT heeft een API, net als alle andere LLMs.

283
00:12:45,300 --> 00:12:46,740
En die heb ik toen gebruikt.

284
00:12:46,740 --> 00:12:50,660
Wat ik steeds meer hoorde en steeds interessanter werd,

285
00:12:50,660 --> 00:12:53,520
was het feit dat tegenwoordig kan je ook lokale modellen draaien.

286
00:12:53,520 --> 00:12:55,640
Dus daar ben ik ook mee gaan spelen.

287
00:12:55,640 --> 00:13:02,420
Dus in de tool die ik ontwikkeld heb, kan je dus gebruiken of het lokale model gewoon op mijn MacBook,

288
00:13:02,420 --> 00:13:04,200
wat trouwens verrassend goed werd.

289
00:13:05,040 --> 00:13:09,420
Maar als je dan toch meer rekenkracht nodig hebt, dan kan je altijd nog zeggen, ga naar ChatGPT.

290
00:13:09,420 --> 00:13:10,700
En tegenwoordig doe ik ook Anthropic.

291
00:13:10,700 --> 00:13:15,020
Er zijn redelijk wat mensen in mijn community, zeg maar de mensen waar ik mee om ga,

292
00:13:15,020 --> 00:13:17,420
die zeggen dat Anthropic de beste code genereert.

293
00:13:17,420 --> 00:13:19,140
Oké.

294
00:13:19,140 --> 00:13:20,620
En wat is dan de beste?

295
00:13:20,620 --> 00:13:23,480
Wat zijn dan een beetje die verschillen, die smaakjes die je ertussen hebt?

296
00:13:23,480 --> 00:13:24,860
Waar loop je dan tegenaan?

297
00:13:24,980 --> 00:13:25,420
Ja, dat is heel goed.

298
00:13:25,420 --> 00:13:29,600
Ik kan niet zeggen, ChatGPT doet dit beter of Anthropic doet dat beter.

299
00:13:29,600 --> 00:13:30,900
Dit is wat mensen zeggen.

300
00:13:30,900 --> 00:13:32,360
Beide werken voor mij.

301
00:13:32,360 --> 00:13:35,080
Ik heb nog niet echt een use case kunnen vinden dat de ene het beter doet dan de ander.

302
00:13:35,080 --> 00:13:36,760
Natuurlijk hebben ze beide ook al wel modellen.

303
00:13:36,760 --> 00:13:41,180
En modellen zijn hun ene model specifiek goed daar, en de andere model specifiek daar goed in.

304
00:13:41,500 --> 00:13:45,540
Ik ben nog wel geïnteresseerd in het lokale model, open source neem ik aan.

305
00:13:45,540 --> 00:13:47,100
Wat gebruik je daarvoor?

306
00:13:47,100 --> 00:13:48,840
Ja, technisch, Ollama.

307
00:13:48,840 --> 00:13:50,860
Dat is een tool die je kan gewoon downloaden.

308
00:13:50,860 --> 00:13:53,360
Dat is een beetje de docker voor de LLMs, voor de large language models.

309
00:13:53,360 --> 00:13:57,000
Ja, ik dacht echt dat is veel ingewikkelder.

310
00:13:57,000 --> 00:14:00,580
Dus ik dacht echt, ik moet wat downloaden, 20 moeilijke stappen doen, hopen dat het werkt.

311
00:14:00,580 --> 00:14:03,580
Het bleek gewoon één tooltje te zijn met twee commandos en draait.

312
00:14:03,580 --> 00:14:04,220
Ja.

313
00:14:04,220 --> 00:14:08,560
En dan kan je allerlei open source modellen gewoon lokaal draaien.

314
00:14:09,520 --> 00:14:12,360
Maar heb je daar een favoriet in, voor het programmeren?

315
00:14:12,360 --> 00:14:14,320
Welke van de open source modellen gebruik je?

316
00:14:14,320 --> 00:14:18,560
Ik gebruik Llama 3.1, dat is van Meta, zeg maar het oude Facebook.

317
00:14:18,560 --> 00:14:22,500
Ik heb er meer dan tien geprobeerd, maar deze is gewoon goed.

318
00:14:22,500 --> 00:14:25,260
Ik weet dat het tegenwoordig ook een 3.2 versie is.

319
00:14:25,260 --> 00:14:28,900
Alleen die bestond uit een aantal kleine modellen die het minder goed deden.

320
00:14:28,900 --> 00:14:31,000
Een aantal grote modellen die waren multimodaal.

321
00:14:31,000 --> 00:14:32,880
Ja, dat heb ik niet nodig als ik aan het programmeren ben.

322
00:14:32,880 --> 00:14:36,660
Zeker nog, doe mij een LLM die alleen maar code genereert, in één taal.

323
00:14:36,660 --> 00:14:38,640
Ik zie daar wel toekomst in.

324
00:14:38,640 --> 00:14:42,220
Ik denk dat daar ook nog wel heel interessante ontwikkelingen kunnen plaatsvinden bij je toekomst.

325
00:14:42,220 --> 00:14:46,880
Dus meer specifieke modellen voor de use case die jij dan in ieder geval hebt, is code genereren.

326
00:14:46,880 --> 00:14:50,600
In plaats van ook nog plaatjes erbij maken, maar dat werkt niet zo lekker in je code.

327
00:14:50,600 --> 00:14:53,380
Ja, sterker nog, Llama 3.1 is nu ook gewoon tekst.

328
00:14:53,380 --> 00:14:56,620
Ik weet niet hoe ze doen, maar voor mij is half internet wordt die opgetraind.

329
00:14:57,280 --> 00:15:00,120
Het is allemaal overbodig informatie als je code wil genereren.

330
00:15:00,120 --> 00:15:02,500
En hoe heb je dat getest?

331
00:15:02,500 --> 00:15:04,060
Want je hebt het over testen.

332
00:15:04,060 --> 00:15:05,200
En hoe heb je dit dan getest?

333
00:15:05,200 --> 00:15:07,840
En wat kunnen mensen daarvan, andere vakgebieden daarvan leren?

334
00:15:07,840 --> 00:15:08,660
Goeie vraag.

335
00:15:10,000 --> 00:15:11,920
Dit is puur, ik heb gekeken.

336
00:15:11,920 --> 00:15:15,720
Dus als ik een presentatie geef, heb ik een aantal standaard voorbeelden en die probeer ik dan.

337
00:15:15,720 --> 00:15:18,800
En ik zag dus gewoon dat Lama 3.1 het beste deed.

338
00:15:19,480 --> 00:15:24,640
Ik heb geen wetenschappelijke goede manier om te bewijzen dat dit mijn beste model is.

339
00:15:24,640 --> 00:15:25,880
Maar goed, hij doet het gewoon lekker voor mij.

340
00:15:25,880 --> 00:15:29,880
Ja, dus blijven kwaliteit, blijven monitoren, kijken of de gewenste output er is.

341
00:15:29,880 --> 00:15:32,940
Nou, nu je dit zegt, je triggert wel iets bij mij.

342
00:15:32,940 --> 00:15:35,700
Dus ik vertelde jullie net over loops, over feedback loops.

343
00:15:35,700 --> 00:15:39,040
Als een model snel antwoorden geeft, dan heeft hij dus een weinig loops nodig.

344
00:15:39,040 --> 00:15:41,120
Dus ik zie in de output hoe snel hij met een antwoord komt.

345
00:15:41,120 --> 00:15:42,460
Ik zie het aantal loops dat is geweest.

346
00:15:42,460 --> 00:15:44,820
Als het aantal loops lager is, dan is het meestal een beter model.

347
00:15:44,820 --> 00:15:48,060
Ik zie ook als ik cloud modellen gebruik, dan zijn het vaak one-shot solutions.

348
00:15:48,180 --> 00:15:50,540
In ieder geval de aantal loops die hij maakt zijn kleiner.

349
00:15:50,540 --> 00:15:54,040
En daaraan kan je een beetje meten wat het beste model voor mij is.

350
00:15:54,040 --> 00:15:59,740
En die verschillende modellen zouden andere mensen kunnen zien als van,

351
00:15:59,740 --> 00:16:04,620
je gebruikt ChatGPT of je gebruikt Claude of je gebruikt Gemini van Google.

352
00:16:04,620 --> 00:16:09,840
Maar zo heb jij ook gekeken naar verschillende programmeerassistenten.

353
00:16:09,840 --> 00:16:14,920
Dus dat je verschillende smaken hebt voor het genereren van code.

354
00:16:14,920 --> 00:16:17,160
Ja, klopt. Dat heb ik vorig jaar vooral gedaan.

355
00:16:17,160 --> 00:16:22,480
En dan keek ik vooral naar AI-assistenten die in je browser draaiden.

356
00:16:22,480 --> 00:16:24,320
Dus dan hebben we het over GitHub Copilot.

357
00:16:24,320 --> 00:16:26,240
In het begin deed ik het ook al met ChatGPT.

358
00:16:26,240 --> 00:16:29,180
Maar we hebben ook JetBrains AI systemen.

359
00:16:29,180 --> 00:16:30,180
Dat is de technische voor je, denk ik.

360
00:16:30,180 --> 00:16:31,240
En dan heb je nog iets dat je hebt naar.

361
00:16:31,240 --> 00:16:32,620
Maar daar heb ik gekeken naar de verschillen.

362
00:16:33,080 --> 00:16:36,800
En eigenlijk, wat ik daar geleerd heb, is dat het eigenlijk niet zoveel uitmaakt

363
00:16:36,800 --> 00:16:39,360
welk model je gebruikt. Ze zijn allemaal best wel oké.

364
00:16:39,360 --> 00:16:42,960
Maar het is vooral de integratie met je programmeeromgeving,

365
00:16:42,960 --> 00:16:44,260
die het lekker maakt werken.

366
00:16:44,260 --> 00:16:46,140
Die ervoor zorgt dat je hem blijft en blijft gebruiken.

367
00:16:46,140 --> 00:16:47,460
Dat je verslaafd raakt.

368
00:16:47,460 --> 00:16:50,220
Moest je ook je aanpak aanpassen?

369
00:16:50,220 --> 00:16:53,780
Van hoe je hiervoor aan het programmeren was?

370
00:16:54,460 --> 00:16:55,660
En hoe je dat nu doet?

371
00:16:55,660 --> 00:16:56,520
Goeie vraag.

372
00:16:56,520 --> 00:17:00,640
Ik heb dit niet bewust gedaan.

373
00:17:00,640 --> 00:17:04,540
Maar nu je dit vraagt, wat ik merk wat ik nu doe, vroeger.

374
00:17:04,540 --> 00:17:07,440
Dus voor de interviertje van ChatGPT.

375
00:17:07,440 --> 00:17:11,599
Was ik aan het tikken, enter, en dan tikte ik gewoon door.

376
00:17:11,599 --> 00:17:14,780
Nu geef ik even de IDE een tel, pauze.

377
00:17:14,780 --> 00:17:16,200
Dan komt hij met een voorstel.

378
00:17:16,200 --> 00:17:19,339
En mijn ervaring is, zelfs met de simpelste modellen,

379
00:17:19,339 --> 00:17:20,760
doet hij de helft op goed.

380
00:17:20,760 --> 00:17:22,480
Dus heel vaak weet hij wel, dat heb ik nodig.

381
00:17:22,480 --> 00:17:24,280
Het scheelt me gewoon heel veel tikwerk.

382
00:17:24,280 --> 00:17:27,319
Dus ik wacht een tel en ik win tien tellen.

383
00:17:27,319 --> 00:17:28,900
Want ik maak natuurlijk nog tik fouten, ik ben een mens.

384
00:17:28,900 --> 00:17:32,780
En ja, dus het AI gewoon maar laten genereren,

385
00:17:32,780 --> 00:17:33,980
heeft meestal minder fouten,

386
00:17:33,980 --> 00:17:35,960
is sowieso tik fouten dan ik ze maak.

387
00:17:35,960 --> 00:17:40,680
En die seconde, geeft die ook tijd om extra na te denken?

388
00:17:40,680 --> 00:17:42,760
Ja, doe ik dat ook?

389
00:17:42,760 --> 00:17:44,440
Goeie vraag, goeie vraag.

390
00:17:44,440 --> 00:17:46,260
Ja, misschien wel, weet ik niet.

391
00:17:46,260 --> 00:17:48,300
Ik denk dat mijn brein nooit stil staat eigenlijk.

392
00:17:48,300 --> 00:17:49,400
Ik weet niet hoe jullie brein werken,

393
00:17:49,400 --> 00:17:52,840
maar die van mij gaat altijd maar door, maar door, maar door.

394
00:17:53,000 --> 00:17:56,540
Nou, wat ik bij mezelf merk is, ik begin meestal met het commentaar.

395
00:17:56,540 --> 00:17:57,660
Ja, heel goed.

396
00:17:57,660 --> 00:18:01,440
En net als jij, dus er zit een mate van vertraging in,

397
00:18:01,440 --> 00:18:04,420
en dat zou dezelfde mate van vertraging zijn als de ChatGPT,

398
00:18:04,420 --> 00:18:06,180
dat als je het nog eens doorleest,

399
00:18:06,180 --> 00:18:08,440
dus ik heb eigenlijk even de tijd om nog een keer door te lezen,

400
00:18:08,440 --> 00:18:11,740
ik denk, oh, maar hier kan ik eigenlijk misschien nog iets specifieker zijn.

401
00:18:13,680 --> 00:18:16,740
Ja, ik weet niet of ik dat ook heb.

402
00:18:16,740 --> 00:18:19,120
Wat ik wel interessant vind wat je zegt, als je commentaar tikt,

403
00:18:19,120 --> 00:18:21,620
dan heeft de AI meestal voldoende informatie om aan de slag te gaan.

404
00:18:21,620 --> 00:18:21,940
Ja.

405
00:18:21,940 --> 00:18:23,620
Het stuurt hem gewoon, hè.

406
00:18:23,620 --> 00:18:25,960
Ik neem aan dat je af en toe programmeert.

407
00:18:25,960 --> 00:18:26,360
Ja, zeker.

408
00:18:26,760 --> 00:18:30,040
Dus als je commentaar intikt, ja, dan weet hij de volgende regel,

409
00:18:30,040 --> 00:18:31,180
moet daar iets mee te maken hebben.

410
00:18:31,180 --> 00:18:32,080
Dus dat is een geweldig input.

411
00:18:32,080 --> 00:18:32,440
Ja.

412
00:18:32,440 --> 00:18:36,360
En commentaar is dan neem ik aan de commentaar van wat voor code wil ik gaan creëren,

413
00:18:36,360 --> 00:18:39,700
zodat we applicaties maken voor de luisteraars die niet zoveel in de softwareontwikkeling zitten.

414
00:18:39,700 --> 00:18:42,860
Dus daar definiëren we eigenlijk wat het programma moet gaan doen.

415
00:18:42,860 --> 00:18:45,340
En dat zetten we in de commentaar, een pseudo code,

416
00:18:45,340 --> 00:18:47,420
oftewel vertellen wat de code zou moeten gaan doen.

417
00:18:47,420 --> 00:18:48,920
En eigenlijk filter aan je erin.

418
00:18:48,920 --> 00:18:51,960
Ik was nog wel nieuwsgierig, maar dat heeft jouw werkproces aangepast.

419
00:18:51,960 --> 00:18:54,360
Maar ik neem aan dat je niet de enige bent die het gebruikt,

420
00:18:54,360 --> 00:18:56,800
dat je collega's hebt, organisaties die het gebruiken.

421
00:18:56,800 --> 00:18:59,080
Bedoel je nu de tool die ik ontwikkeld heb?

422
00:18:59,080 --> 00:18:59,440
Ja, de tool.

423
00:18:59,440 --> 00:19:00,840
Nee, dat is allemaal nog in beginfase.

424
00:19:00,840 --> 00:19:01,200
Oké.

425
00:19:01,200 --> 00:19:03,620
Wat ik heel graag, het is een beetje hobby.

426
00:19:03,620 --> 00:19:08,080
Dus wat ik heel graag wil is er iets blijvends van maken.

427
00:19:08,280 --> 00:19:10,520
Maar goed, uiteindelijk, eigenlijk heb ik twee doelen.

428
00:19:10,520 --> 00:19:13,260
Mijn persoonlijke doel is er een plugin van te maken,

429
00:19:13,260 --> 00:19:14,500
dus voor mijn ontwikkelomgeving.

430
00:19:14,500 --> 00:19:18,140
En wat ik dan voor me zie is, ik schrijf mijn implementatie,

431
00:19:18,140 --> 00:19:20,500
rechterknop, genereer de oplossing.

432
00:19:20,500 --> 00:19:22,260
Ik ga een kop koffie drinken en ik kom terug.

433
00:19:22,260 --> 00:19:23,760
En het is klaar, fantastisch.

434
00:19:23,760 --> 00:19:25,880
Maar goed, eigenlijk zou het niet een aparte plugin moeten zijn.

435
00:19:25,880 --> 00:19:29,080
Tegenwoordig hebben we allerlei AI-tools die rechtstreeks draaien in onze ontwikkelomgeving.

436
00:19:29,080 --> 00:19:30,780
Het moet daar onderdeel van worden.

437
00:19:30,780 --> 00:19:34,160
Dus het moet onderdeel worden van GitHub Copilot of van JetBrains AI-system.

438
00:19:34,160 --> 00:19:36,420
Eén kleine detail daarover.

439
00:19:37,480 --> 00:19:42,900
Er zijn tegenwoordig ook open source plugins voor je op de programmeeromgeving.

440
00:19:42,900 --> 00:19:44,920
Bijvoorbeeld Devox Genie, ik weet niet of jullie dat wat zegt.

441
00:19:44,920 --> 00:19:45,640
Nee, mij niet.

442
00:19:45,640 --> 00:19:48,700
Dus gewoon mensen maken dat en dan kan je gewoon aan het mee ontwikkelen.

443
00:19:48,700 --> 00:19:51,020
En ik ken toevallig de maker daarvan.

444
00:19:51,020 --> 00:19:52,980
En die wil het heel graag in hebben.

445
00:19:52,980 --> 00:19:55,060
Ik kan alleen de vrije tijd niet vinden om het erin te krijgen.

446
00:19:55,060 --> 00:20:00,380
Maar ja, het is een kwestie van tijd voor dit soort dingen standaard in je AI-assistens.

447
00:20:00,520 --> 00:20:04,400
Ik denk dat dit de toekomst is, want nu hebben we een geautomatiseerde manier om de AI te controleren.

448
00:20:04,400 --> 00:20:09,840
Je hebt nu een leerproces gehad dat dit jouw aanpak heeft aangepast.

449
00:20:09,840 --> 00:20:15,620
Wat wil je daar bij de mensen meegeven wat ze zelf kunnen aanpassen om hier alvast aan te gaan wennen?

450
00:20:15,620 --> 00:20:17,000
Om op deze manier te gaan werken?

451
00:20:18,140 --> 00:20:20,400
Het makkelijke antwoord is test-driven development gaan doen.

452
00:20:20,400 --> 00:20:24,180
Dus je eerst je testen schrijven, zodat je vervolgens ook een manier hebt om je AI te controleren.

453
00:20:24,180 --> 00:20:26,280
Maar er zit nog een stap voor.

454
00:20:26,280 --> 00:20:35,000
Want kijk, tot nu toe, ook weer vroeger voor ChatGPT, was het de superkracht om te kunnen programmeren.

455
00:20:35,000 --> 00:20:39,820
Was je misschien de held in een organisatie waar je ingehuurd werd?

456
00:20:39,820 --> 00:20:41,840
Dat gaat verdwijnen.

457
00:20:41,840 --> 00:20:44,040
Of dat wordt in ieder geval minder, laat ik het zo zeggen.

458
00:20:44,040 --> 00:20:44,640
Dat wordt minder.

459
00:20:44,640 --> 00:20:47,460
En dat vindt niet iedereen even leuk.

460
00:20:47,460 --> 00:20:48,960
Weer je de vraag.

461
00:20:48,960 --> 00:20:50,500
Is het schrijven van een test programmeren?

462
00:20:50,500 --> 00:20:57,420
Wat mij betreft is het een vaste onderdeel van programmeren.

463
00:20:57,420 --> 00:21:00,580
Zonder testen gaat er hopelijk niks in productie.

464
00:21:00,580 --> 00:21:05,660
Ik denk dus dat de werkzaamheden van een ontwikkelaar gaat veranderen.

465
00:21:05,660 --> 00:21:06,580
Dat zien we eigenlijk nu al.

466
00:21:06,580 --> 00:21:09,560
We moeten nu leren werken met AI Systems.

467
00:21:09,560 --> 00:21:12,060
Want AI is een tool.

468
00:21:12,060 --> 00:21:13,480
We hebben een extra tool in onze toolbox.

469
00:21:13,480 --> 00:21:14,980
Dus we moeten onze werkwijze aanpassen.

470
00:21:14,980 --> 00:21:19,620
Zodat we beter, sneller, efficiënter, mogelijk kunnen leveren.

471
00:21:19,620 --> 00:21:23,400
Hetzelfde geldt voor het concept wat ik hier probeer te vertellen.

472
00:21:23,400 --> 00:21:26,100
Het programmeren gaat niet weg.

473
00:21:26,100 --> 00:21:29,000
Het schrijven van een test is nog steeds programmeren, denk ik.

474
00:21:29,000 --> 00:21:36,000
En ik denk ook, weet je, die AI Systems en deze tool, die brengen je tot een bepaald niveau.

475
00:21:36,000 --> 00:21:38,380
En ik denk niet dat ze op korte termijn 100% gaan brengen.

476
00:21:38,380 --> 00:21:40,980
Dus we zullen altijd mensen nodig hebben voor het laatste stukje.

477
00:21:41,440 --> 00:21:44,780
Dus je moet nog steeds, er zijn twee varianten.

478
00:21:44,780 --> 00:21:46,100
Of je vertrouwt het helemaal.

479
00:21:46,100 --> 00:21:47,840
En je zit helemaal niet in de implementatie.

480
00:21:47,840 --> 00:21:49,460
Je vertrouwt die AI.

481
00:21:49,460 --> 00:21:53,360
Als we testen draaien, dan heb ik productie, rijpe code.

482
00:21:53,360 --> 00:21:56,580
Of je gaat een gulden midden weg.

483
00:21:56,580 --> 00:21:58,460
En dan heb je nog steeds mensen nodig die de code begrijpen.

484
00:21:58,460 --> 00:22:01,360
Nog even, ik weet niet waarom.

485
00:22:01,360 --> 00:22:02,620
Maar dat triggerde wat in mijn brein.

486
00:22:02,620 --> 00:22:04,300
Die zei van, deze vraag moet ik toch even stellen.

487
00:22:04,300 --> 00:22:05,500
Misschien een beetje in depth.

488
00:22:06,020 --> 00:22:09,640
Maar werkende code wil niet per se zijn efficiënte code.

489
00:22:09,640 --> 00:22:10,760
Hele goede vraag.

490
00:22:10,760 --> 00:22:16,460
Dus hoe zorg je dat dat ook meegenomen wordt in de oplossing die eigenlijk met behulp van AI dan wordt gecreëerd?

491
00:22:16,460 --> 00:22:17,620
Ja, dat is vraag recht vaker.

492
00:22:17,620 --> 00:22:22,500
Als we voor het gemak even efficiënte code plat slaan naar performante code.

493
00:22:22,500 --> 00:22:23,740
Dus code die snel executeert.

494
00:22:23,740 --> 00:22:27,300
Behalve unit test heb je ook iets dat heet een performance test.

495
00:22:27,300 --> 00:22:31,040
Dus die gaat meten hoe snel de code wordt, de oplossing wordt gegenereerd.

496
00:22:31,360 --> 00:22:34,140
Als je een paar van die testen meeneemt in de input naar de tool.

497
00:22:34,140 --> 00:22:36,260
Ja, dan gaat hij die meenemen in de testcyclus.

498
00:22:36,260 --> 00:22:38,180
En dan valt hij dus als hij niet snel genoeg is.

499
00:22:38,180 --> 00:22:40,820
En zo kan je ook, dit kan je breder trekken.

500
00:22:40,820 --> 00:22:44,240
Je kan, want code is meer dan, je kan code niet alleen vatten in unit test.

501
00:22:44,240 --> 00:22:45,420
Er zijn ook andere aspecten.

502
00:22:45,420 --> 00:22:49,800
Maar ik denk dat je eigenlijk al die andere aspecten ook kan platslaan in testen.

503
00:22:49,800 --> 00:22:53,160
Misschien een ander soort testen, maar je wilt wel geautomatiseerde testen.

504
00:22:54,440 --> 00:23:02,100
Zijn er nou andere skills, vaardigheden die je moet ontwikkelen om goed met AI om te kunnen gaan?

505
00:23:02,100 --> 00:23:06,180
Zeker in het vak van software engineer, van programmeur.

506
00:23:06,180 --> 00:23:08,420
Goeie vraag weer.

507
00:23:08,420 --> 00:23:16,400
Ik denk dat het nog steeds, zolang we nog niet in het tijdperk zitten, dat we de AI alles laten genereren.

508
00:23:16,400 --> 00:23:18,040
En we zelf de implementatie niet meer aanraken.

509
00:23:18,040 --> 00:23:19,620
Zul je zelf code moeten kunnen lezen.

510
00:23:19,620 --> 00:23:22,700
Dus zul je ook gewoon moeten begrijpen wat die doet.

511
00:23:22,700 --> 00:23:26,960
Dus ik denk dat de huidige opleidingen zoals we ze nu hebben, die opleiden tot programmeur prima zijn.

512
00:23:26,960 --> 00:23:29,940
Want je snapt vervolgens wat eruit de AI komt.

513
00:23:29,940 --> 00:23:32,540
Maar even als advocaat van de duivel.

514
00:23:32,540 --> 00:23:34,260
Dus ik kan gewoon een stukje code geven.

515
00:23:34,260 --> 00:23:37,800
En dan zeg ik tegen zo'n taalmodel, leg me dit even uit.

516
00:23:37,800 --> 00:23:39,040
Ja, dat kan.

517
00:23:39,040 --> 00:23:41,320
Dus hoeft niet meer te weten wat het doet.

518
00:23:41,320 --> 00:23:43,980
Ja, dat klopt.

519
00:23:43,980 --> 00:23:44,480
Dat is waar.

520
00:23:44,480 --> 00:23:50,280
Maar ik denk dat heel veel kennis en skills van programmeurs komen gewoon door te doen.

521
00:23:50,700 --> 00:23:52,820
Je kan mij uitleggen hoe ik moet fietsen.

522
00:23:52,820 --> 00:23:55,320
Maar als ik nog nooit gefietst heb, denk ik niet dat het me lukt aan de hand van je uitleg.

523
00:23:55,320 --> 00:23:56,960
Dat is typisch iets wat je moet doen.

524
00:23:56,960 --> 00:23:58,780
En dat verleer je dan ook niet meer.

525
00:23:58,780 --> 00:24:00,460
En ik denk dat hetzelfde geldt voor programmeren.

526
00:24:00,460 --> 00:24:04,720
Dus als je dat, voor mij zeggen ze, als je iets 10.000 uur doet, dan kan je het goed.

527
00:24:04,720 --> 00:24:06,200
Volgens mij moet je even die 10.000.

528
00:24:06,200 --> 00:24:06,560
Even.

529
00:24:08,040 --> 00:24:11,740
Je moet door de code through the motions.

530
00:24:11,740 --> 00:24:12,700
Zo gaan de beweringen.

531
00:24:12,700 --> 00:24:13,420
Je moet wel.

532
00:24:13,420 --> 00:24:14,200
Want anders, ja.

533
00:24:14,200 --> 00:24:18,880
Als ik iets lees, wat ik nog nooit zelf gedaan heb, dan onthoud ik het heel even.

534
00:24:18,880 --> 00:24:19,720
En dan is het weer weg.

535
00:24:19,720 --> 00:24:19,920
Ja.

536
00:24:19,920 --> 00:24:22,480
Ik vind het wel heel mooi wat je zegt met het fietsen.

537
00:24:22,480 --> 00:24:24,760
Als je dat zo uitlegt, dat je niet kan fietsen.

538
00:24:24,760 --> 00:24:27,740
Ik kijk heel veel films, maar dat maakt mij geen regisseur.

539
00:24:27,740 --> 00:24:28,020
Nee.

540
00:24:28,020 --> 00:24:29,860
Er schijnt trouwens zo'n boek te zijn over hoe je moet fietsen.

541
00:24:29,860 --> 00:24:31,140
Geschreven door een Engelsman of zo.

542
00:24:31,140 --> 00:24:31,620
Oké.

543
00:24:32,680 --> 00:24:34,460
Ik heb het niet meer geleerd, kan ik je zeggen.

544
00:24:34,460 --> 00:24:35,680
Nee, precies.

545
00:24:35,680 --> 00:24:36,840
Dat doe je met vallen en opstanden.

546
00:24:36,840 --> 00:24:37,400
Ja, inderdaad.

547
00:24:37,400 --> 00:24:39,840
Ik denk dat het voor heel veel skills in het leven geldt.

548
00:24:39,840 --> 00:24:41,160
En dus ook voor programmeren.

549
00:24:41,160 --> 00:24:45,520
Ja, laten we toch deze analogie nog heel even door volgen.

550
00:24:45,520 --> 00:24:47,940
Want waar moet je dan tegen aanstoten?

551
00:24:47,940 --> 00:24:52,440
Hoe hard moet je vallen om toch nieuwe vaardigheden?

552
00:24:52,440 --> 00:24:54,840
Want ik geloof niet, zeg maar, dat je met de...

553
00:24:54,840 --> 00:25:00,140
Als we gewoon door blijven doen, zoals je nu doet met je softwareontwikkeling,

554
00:25:00,140 --> 00:25:02,440
dat je dan toekomstbestendig bent.

555
00:25:02,440 --> 00:25:04,800
Dus er moet een verandering gaan plaatsvinden.

556
00:25:04,800 --> 00:25:08,320
Waar moet je je tegen aan gaan stoten?

557
00:25:08,320 --> 00:25:12,260
Ook als je misschien wat lichte weerstand hebt tegen het ontwikkelen met AI.

558
00:25:12,260 --> 00:25:14,680
Om uiteindelijk dat te overwinnen.

559
00:25:14,680 --> 00:25:17,240
Dat je zegt van, ja, maar ik moet deze stap gewoon maken.

560
00:25:17,240 --> 00:25:20,020
Dit triggert een aantal dingen bij mij.

561
00:25:20,020 --> 00:25:24,220
Ik zei net al, je moet leren werken met die nieuwe tools die we hebben.

562
00:25:24,220 --> 00:25:26,880
Want anders word je ingehaald door mensen die ze wel gebruiken.

563
00:25:26,880 --> 00:25:28,620
Dat is voor mij een gevleugelde uitspraak.

564
00:25:28,620 --> 00:25:33,120
Je wordt niet vervangen door AI, maar je wordt vervangen door iemand die AI gebruikt.

565
00:25:33,120 --> 00:25:34,820
Daar geloof ik heilig in.

566
00:25:34,820 --> 00:25:38,780
Het tweede wat het triggerde was...

567
00:25:38,780 --> 00:25:41,860
Maar dit is nog heel erg extern, heel erg extern gedreven.

568
00:25:41,860 --> 00:25:43,200
Dan doe je het eigenlijk voor een ander.

569
00:25:43,200 --> 00:25:45,240
Maar waarom zou je het voor jezelf moeten doen?

570
00:25:46,240 --> 00:25:50,300
Ik denk dat de meeste ontwikkelaars vinden alle nieuwe shiny tools interessant.

571
00:25:50,300 --> 00:25:52,520
Dus je gaat bijna vanzelf.

572
00:25:52,520 --> 00:25:54,740
Maar waarom zou je het moeten willen?

573
00:25:54,740 --> 00:25:57,680
Nou ja, de wereld verandert.

574
00:25:57,680 --> 00:25:59,080
Ik denk als jij niet mee verandert.

575
00:25:59,080 --> 00:26:01,640
Zeker in de softwareontwikkeling, alles gaat super snel.

576
00:26:01,640 --> 00:26:04,360
Ik denk dat je op een bepaald moment wordt je obsolite.

577
00:26:04,360 --> 00:26:06,240
Even terug naar de...

578
00:26:06,240 --> 00:26:10,620
Wat kan je niet leren door iets te lezen?

579
00:26:11,360 --> 00:26:16,020
In de softwareontwikkeling, ik denk als je het tien jaar gedaan hebt of zo, dan heb je echt wel een idee van dit gaat de goede kant op.

580
00:26:16,020 --> 00:26:16,560
Of je ziet code.

581
00:26:16,560 --> 00:26:19,800
En dan kan je al zeggen van, dit is volgens mij niet de manier hoe het moet.

582
00:26:19,800 --> 00:26:22,060
Ik gaf net het voorbeeld van text-extraheerder-text.

583
00:26:22,060 --> 00:26:25,680
Ik weet gewoon, de manier die ik had gekozen was makkelijk en vies.

584
00:26:25,680 --> 00:26:27,560
Het was even snel, ik had even iets nodig.

585
00:26:27,560 --> 00:26:29,260
Ik weet, dit kan beter, dit moet beter.

586
00:26:29,260 --> 00:26:33,320
En als je dat gevoel hebt, dat krijg je dus niet door alleen maar AI.

587
00:26:33,320 --> 00:26:37,740
Je zult ergens nog steeds je knieën moeten vallen.

588
00:26:37,740 --> 00:26:38,920
Ja, ervaring op doen.

589
00:26:38,920 --> 00:26:41,840
Ja, dat denk ik ook.

590
00:26:41,840 --> 00:26:42,600
Mooi.

591
00:26:42,600 --> 00:26:44,960
Ik weet niet of ik je vraag heb, ander.

592
00:26:44,960 --> 00:26:46,860
Het was ook een lange vraag.

593
00:26:46,860 --> 00:26:49,780
Ja, en ik wil nog een kleine aanvulling.

594
00:26:49,780 --> 00:26:57,900
Als het goed is zijn we als consultant, als iemand die software schrijft of ontwerpt, van nature lui.

595
00:26:57,900 --> 00:27:04,780
Ik denk dat mens van nature lui is en dat we dus efficiëntie nodig gaan hebben om het onszelf makkelijker te gaan maken.

596
00:27:04,780 --> 00:27:08,600
Ja, ik weet niet of we van nature lui zijn.

597
00:27:08,600 --> 00:27:10,520
Ik denk dat programmeurs vooral graag willen automatiseren.

598
00:27:10,520 --> 00:27:13,340
We hebben een hekel aan herhalende, repetieve werkzaamheden.

599
00:27:13,340 --> 00:27:15,460
Ik denk dat het het juiste soort lui is.

600
00:27:15,460 --> 00:27:17,020
Ik vind alleen lui een eng woord.

601
00:27:17,020 --> 00:27:18,880
Daarom zeg ik het ook.

602
00:27:18,880 --> 00:27:21,480
Om even wat te prikkelen inderdaad.

603
00:27:21,480 --> 00:27:24,320
Want inderdaad de goede manier van luiheid.

604
00:27:24,320 --> 00:27:26,800
Dus dat is denk ik de mooie verwoording inderdaad.

605
00:27:27,260 --> 00:27:30,600
Maar wat zijn valkuilen waar je zelf tegenaan bent gelopen?

606
00:27:30,600 --> 00:27:32,440
Met die ervaring die je nu opgedaan hebt.

607
00:27:32,440 --> 00:27:35,400
Wauw, die vraag heb ik nog nooit gehad.

608
00:27:35,400 --> 00:27:38,400
Wat zijn valkuilen waar ik tegenaan ben gelopen?

609
00:27:38,400 --> 00:27:41,940
Ik heb helaas geen goed antwoord op.

610
00:27:41,940 --> 00:27:47,880
Ik denk dat we moeten de grenzen van dit concept, dit idee, moeten we nog gaan bereiken.

611
00:27:47,880 --> 00:27:48,940
En die zijn er vast.

612
00:27:48,940 --> 00:27:53,760
Maar goed, elke week komen er nieuwe modellen uit.

613
00:27:53,760 --> 00:27:54,900
Elke week worden ze goedkoper.

614
00:27:54,900 --> 00:27:56,020
Elke week worden ze sneller.

615
00:27:56,020 --> 00:27:59,200
Ik denk dat die modellen zich sneller ontwikkelen dan ik.

616
00:27:59,200 --> 00:28:00,940
Dat weet ik eigenlijk wel zeker.

617
00:28:00,940 --> 00:28:05,540
Ik heb misschien daar wel zelf een persoonlijk antwoord op.

618
00:28:05,540 --> 00:28:07,540
Is dat zeker in het begin.

619
00:28:07,540 --> 00:28:09,720
Met het programmeren.

620
00:28:09,720 --> 00:28:11,880
Met ook het schrijven van testen.

621
00:28:11,880 --> 00:28:13,760
Eventueel zelfs functionele testen.

622
00:28:13,760 --> 00:28:17,200
Dat op het moment dat de AI met de dingen terugkwam.

623
00:28:17,200 --> 00:28:19,920
Dat ik dacht dat ding doet het niet goed.

624
00:28:20,940 --> 00:28:27,540
En de valkuil was dus dat ik niet reflecteerde op wat ik zelf gaf.

625
00:28:27,540 --> 00:28:28,640
Wat ik zelf schreef.

626
00:28:28,640 --> 00:28:31,840
Dat dat eigenlijk ambigu, tweeledig was.

627
00:28:31,840 --> 00:28:34,980
Dus hoe specifieker je uiteindelijk bent.

628
00:28:34,980 --> 00:28:39,040
Hoe duidelijker, hoe makkelijker het taalmodel jou kan begrijpen.

629
00:28:40,040 --> 00:28:44,500
Dus ben ik in mijn hoofd gaan schakelen van als ik niet een goed antwoord krijg.

630
00:28:44,500 --> 00:28:48,760
Wat moet ik dan aanpassen aan de vraag die ik stel.

631
00:28:49,380 --> 00:28:50,280
Ik herken dit.

632
00:28:50,280 --> 00:28:51,500
Dit heb ik inderdaad ook.

633
00:28:51,500 --> 00:28:52,580
Dus een super mooi voorbeeld.

634
00:28:52,580 --> 00:28:54,320
Dus als ik de tool gebruik.

635
00:28:54,320 --> 00:28:56,280
En er komen dus niet de code uit die ik verwacht.

636
00:28:56,280 --> 00:28:58,140
Dan heb ik dus niet de juiste testen.

637
00:28:58,140 --> 00:29:00,220
En meestal niet voldoende testen geschreven.

638
00:29:00,220 --> 00:29:02,220
Maar goed, ik herken het ook uit mijn tijd.

639
00:29:02,220 --> 00:29:03,660
Voordat deze tool er was.

640
00:29:03,660 --> 00:29:05,340
En dus dat ik AI-assisters gebruikte.

641
00:29:05,340 --> 00:29:08,320
Hoe specifieker je bent, hoe beter het antwoord.

642
00:29:08,320 --> 00:29:09,000
Dat is echt wel.

643
00:29:09,000 --> 00:29:11,960
Hoe meer input die heeft, hoe beter het antwoord eruit komt.

644
00:29:11,960 --> 00:29:12,740
Dat heb ik ook geleerd.

645
00:29:12,740 --> 00:29:14,880
Ja, en er wordt natuurlijk heel veel gezegd.

646
00:29:14,880 --> 00:29:15,900
Dus het lijkt een dooddoener.

647
00:29:15,900 --> 00:29:18,240
Maar het gaat mij er eigenlijk dan ook om.

648
00:29:18,240 --> 00:29:20,700
Dat je dan zelf eigenlijk gaat nadenken.

649
00:29:20,700 --> 00:29:22,300
Van wat moet ik anders doen.

650
00:29:22,300 --> 00:29:26,000
Ja, dus wat voor collega heb ik tegenover me.

651
00:29:26,000 --> 00:29:28,800
En dan collega in de zin van AI-collega.

652
00:29:28,800 --> 00:29:30,260
Waar is die goed in?

653
00:29:30,260 --> 00:29:30,980
Wat kan die wel?

654
00:29:30,980 --> 00:29:33,560
En hoe moet ik eigenlijk de juiste vraag stellen.

655
00:29:33,560 --> 00:29:35,200
Om het resultaat te beantwoorden.

656
00:29:35,200 --> 00:29:36,640
En wat hier aan raakt.

657
00:29:36,640 --> 00:29:38,920
Eén van de moeilijkste dingen denk ik in softwareontwikkeling.

658
00:29:38,920 --> 00:29:40,320
Is weten wat je wil.

659
00:29:40,320 --> 00:29:42,940
Elke consultant kent dit verhaal.

660
00:29:42,940 --> 00:29:44,040
Je hebt klanten die willen iets.

661
00:29:44,040 --> 00:29:45,680
Maar klanten weten meestal niet wat je wil.

662
00:29:45,680 --> 00:29:47,200
En dat is heel normaal.

663
00:29:47,200 --> 00:29:48,440
Ook als ik zelf iets wil.

664
00:29:48,440 --> 00:29:49,500
Ik begin aan iets.

665
00:29:49,500 --> 00:29:51,660
En gedurende het traject verandert wat ik wil.

666
00:29:51,660 --> 00:29:53,680
Het is heel normaal om niet gelijk te weten wat je wil.

667
00:29:53,680 --> 00:29:57,040
En dat maakt ook zeg maar dat we niet echt bang hoeven te zijn.

668
00:29:57,040 --> 00:29:58,880
Dat voorlopig AI onze taak overnemen.

669
00:29:58,880 --> 00:30:00,300
Want daarom moet je weten wat je wil namelijk.

670
00:30:00,300 --> 00:30:02,800
Als we dan toch even de toekomst in kijken.

671
00:30:02,800 --> 00:30:06,380
Wat zie je dan veranderen in die rol van de professional?

672
00:30:06,380 --> 00:30:07,500
Weten wat je wil.

673
00:30:07,500 --> 00:30:09,400
Maar nog andere veranderingen?

674
00:30:10,020 --> 00:30:11,540
Ja die vraag stelde jij ook al.

675
00:30:11,540 --> 00:30:13,000
Dit is een andere bewoording.

676
00:30:13,000 --> 00:30:20,020
Dus de vraag is wat gaat veranderen in de rol van een professioneel softwareontwikkeling?

677
00:30:20,020 --> 00:30:20,340
Ja.

678
00:30:20,340 --> 00:30:21,600
Ik kom, sorry.

679
00:30:21,600 --> 00:30:23,540
Ik kom jullie keer terug op hetzelfde antwoord.

680
00:30:23,540 --> 00:30:25,780
En dat is gebruik maken van de nieuwe tools die er zijn.

681
00:30:25,780 --> 00:30:28,280
Leer de AI gebruiken.

682
00:30:28,280 --> 00:30:29,680
Het is een nieuwe tool in je toolbox.

683
00:30:29,680 --> 00:30:31,080
En ga ermee spelen.

684
00:30:31,080 --> 00:30:32,760
Zorg dat je weet wat die kan.

685
00:30:32,760 --> 00:30:34,120
Maar weet ook wat die niet kan.

686
00:30:35,160 --> 00:30:36,420
Het is zeker nog niet perfect.

687
00:30:36,420 --> 00:30:39,360
En ik twijfel ook of we binnen 10 jaar een perfecte AI gaan krijgen.

688
00:30:39,360 --> 00:30:40,900
Ik hoorde laatst ook een mooie.

689
00:30:40,900 --> 00:30:44,380
En dat is ook zo eentje die rondgaat.

690
00:30:44,380 --> 00:30:47,040
Dit zijn op dit moment ook de slechtste modellen.

691
00:30:47,040 --> 00:30:49,940
Waar je tot nu toe mee gewerkt hebt.

692
00:30:49,940 --> 00:30:52,340
Dus in die zin het wordt ook gewoon nog beter.

693
00:30:52,340 --> 00:30:53,620
Ja.

694
00:30:53,620 --> 00:30:55,420
Dus de grote vraag voor mij is.

695
00:30:55,420 --> 00:30:56,960
Gaat dit plateauen?

696
00:30:56,960 --> 00:30:58,220
En waar gaat het dan plateauen?

697
00:30:58,220 --> 00:31:02,000
Want ik denk niet dat we binnen nu en 10 jaar.

698
00:31:02,000 --> 00:31:03,080
Dat noemen ze geloof ik AGI.

699
00:31:03,080 --> 00:31:05,780
Dus echt een computer hebben die net zo slim is als wij.

700
00:31:05,780 --> 00:31:09,560
Ik denk dat er nog wel een paar plateautjes tussen komen.

701
00:31:09,560 --> 00:31:10,540
De vraag is waar gaat het plateau.

702
00:31:10,540 --> 00:31:12,700
En ik lees ook wel signalen.

703
00:31:12,700 --> 00:31:14,040
De informatie is op.

704
00:31:14,040 --> 00:31:14,720
De internet is op.

705
00:31:14,720 --> 00:31:16,860
Ja.

706
00:31:16,860 --> 00:31:21,140
En dus AI's worden nu getraind op data gegenereerd door AI.

707
00:31:21,140 --> 00:31:24,520
Dus we gaan nu een soort van negatief spiraal naar beneden.

708
00:31:24,520 --> 00:31:26,460
Misschien zitten we nu op de hoogtepunt.

709
00:31:26,460 --> 00:31:26,900
Ik weet het niet.

710
00:31:26,900 --> 00:31:28,180
Dat zou ook nog kunnen.

711
00:31:28,180 --> 00:31:28,460
Ja.

712
00:31:28,460 --> 00:31:35,180
Wordt dan niet juist het goed kunnen schrijven van code van essentieel belang om de toekomstige plateaus aan te kunnen?

713
00:31:35,180 --> 00:31:35,640
Ja.

714
00:31:35,640 --> 00:31:36,140
Nou ja.

715
00:31:36,140 --> 00:31:39,900
Ik geloof wel in het labelen van wat is door mensen gemaakt en wat is door AI's gemaakt.

716
00:31:39,900 --> 00:31:40,820
Maar goed.

717
00:31:40,820 --> 00:31:40,940
Ja.

718
00:31:40,940 --> 00:31:42,400
Ik denk dat het te makkelijk om een zeilen is.

719
00:31:42,400 --> 00:31:44,300
Maar er zit iets in die hoek.

720
00:31:44,460 --> 00:31:48,920
Ik denk dat iedereen snapt als je AI voert met dingetjes van AI.

721
00:31:48,920 --> 00:31:50,420
Daar zijn ook echt experimenten mee gedaan.

722
00:31:50,420 --> 00:31:52,660
Dan zie je het gewoon rap tempo omlaag gaan.

723
00:31:52,660 --> 00:31:55,140
Dus ergens zullen we moeten kunnen aangeven.

724
00:31:55,140 --> 00:31:56,720
Dit is kwalitatief goede input.

725
00:31:56,720 --> 00:31:58,200
En dit is kwalitatief slechte input.

726
00:31:58,200 --> 00:31:59,740
Ik weet nog niet hoe we dat doen.

727
00:31:59,740 --> 00:32:00,440
Nee.

728
00:32:00,440 --> 00:32:01,120
Nou ja.

729
00:32:01,120 --> 00:32:02,820
Datakwaliteit is altijd een uitdaging.

730
00:32:02,820 --> 00:32:05,740
Het zit al een hele werkzaam leven in de data.

731
00:32:05,740 --> 00:32:06,820
En dat blijft altijd de crux.

732
00:32:06,820 --> 00:32:10,240
Wat is goede kwaliteit van de data om inderdaad mee aan de slag te gaan?

733
00:32:10,240 --> 00:32:11,000
Ja.

734
00:32:11,000 --> 00:32:13,920
We zitten hier live natuurlijk bij AI Community Day in Utrecht.

735
00:32:14,100 --> 00:32:14,940
Zoals Joop al zei.

736
00:32:14,940 --> 00:32:16,800
We hebben ook vragen vanuit het publiek.

737
00:32:16,800 --> 00:32:20,040
Dus ik wil de eerste vraag graag aan je voorleggen.

738
00:32:20,040 --> 00:32:21,560
De vraag komt van Willem Meins.

739
00:32:21,560 --> 00:32:22,100
Dankjewel.

740
00:32:22,100 --> 00:32:24,180
Chief AI Architect bij Aigency.

741
00:32:24,180 --> 00:32:26,100
En zijn vraag luidt.

742
00:32:26,100 --> 00:32:29,280
Je had het over tests als specificaties.

743
00:32:29,280 --> 00:32:33,400
Hoe kijk je tegen specification by example met feature files aan?

744
00:32:33,400 --> 00:32:38,820
En dan ook graag nog even toelichten voor de luisteraars die misschien wat minder bekend zijn met de materie.

745
00:32:38,820 --> 00:32:42,020
Ik moet zelfs toegeven dat ik minder bekend ben met de materie.

746
00:32:42,020 --> 00:32:42,940
Maar ik kan een aanname doen.

747
00:32:43,020 --> 00:32:45,940
Dus ik zal mijn aanname uitspreken en dan hebben we gelijk een uitlegging.

748
00:32:45,940 --> 00:32:46,700
Dan gaan we kijken of het klopt.

749
00:32:46,700 --> 00:32:49,860
Feature tests.

750
00:32:49,860 --> 00:32:51,880
Feature files.

751
00:32:51,880 --> 00:32:54,640
En het gaat om het stukje specification by example.

752
00:32:54,640 --> 00:32:54,860
Ja.

753
00:32:55,860 --> 00:33:00,920
Dus ik denk dat specification by example, dat lijkt heel erg op wat ik doe.

754
00:33:00,920 --> 00:33:04,680
Dus ik maak testen, die geef ik aan AI en ik vraag om implementatie.

755
00:33:04,680 --> 00:33:06,100
Dus daar geloof ik wel in.

756
00:33:06,100 --> 00:33:11,560
Alleen je moet wel voldoende voorbeelden hebben.

757
00:33:11,560 --> 00:33:16,560
Als je niet voldoende voorbeelden hebt, dan krijg je een te generieke oplossing die dus niet goed genoeg is.

758
00:33:16,740 --> 00:33:19,980
Maar aan de andere kant, als je te veel voor wil hebben, dan krijg je iets dat heet overfitting.

759
00:33:19,980 --> 00:33:23,880
Dan krijg je dus een antwoord dat te specifiek is gemaakt op jou.

760
00:33:23,880 --> 00:33:25,700
Dus je wil altijd een soort dat midden van bereiken.

761
00:33:25,700 --> 00:33:27,820
Ik twijfel of ik de vraag heb aan de antwoord.

762
00:33:28,440 --> 00:33:35,200
Een specification by example is een techniek waarbij je op een gestructureerde manier,

763
00:33:35,200 --> 00:33:41,980
die ken je misschien wel, de given when then, dus gegeven, het volgende, als dit gebeurt, dan verwacht ik deze uitkomst.

764
00:33:41,980 --> 00:33:50,680
En daar kun je als gevallen, kun je daar examples, voorbeelden, ik moet ze ook zelf naar een Nederlandse woord zoeken,

765
00:33:50,680 --> 00:33:56,300
voorbeelden aangeven, dat zijn die randgevallen waar je het over had, die geef je eigenlijk meteen mee.

766
00:33:57,880 --> 00:34:00,500
Ja, ik ken dit als BDD.

767
00:34:00,500 --> 00:34:01,740
Ja, precies.

768
00:34:01,740 --> 00:34:04,300
Ja, dat zit allemaal in diezelfde hoek.

769
00:34:04,300 --> 00:34:04,740
Ja, ja.

770
00:34:04,740 --> 00:34:08,659
En wat was de exacte vraag nu?

771
00:34:08,659 --> 00:34:09,300
Sorry.

772
00:34:09,300 --> 00:34:11,199
Pak je de kaart er even mee.

773
00:34:11,199 --> 00:34:13,800
Je had het over tests als specificaties.

774
00:34:13,800 --> 00:34:16,780
Hoe kijk je tegen specification by example aan het featurefase?

775
00:34:16,780 --> 00:34:20,239
Ja, dus deze testen zijn volgens mij ook runbaar.

776
00:34:20,239 --> 00:34:20,739
Ja.

777
00:34:20,739 --> 00:34:22,100
Nou ja, dan kan je het gebruiken.

778
00:34:22,100 --> 00:34:24,219
Dus dan heb je weer dezelfde feedback loop.

779
00:34:24,219 --> 00:34:29,100
Dus je geeft deze testen, dit soort testen geef je aan AI.

780
00:34:29,100 --> 00:34:30,219
Je vraagt om implementatie.

781
00:34:30,219 --> 00:34:31,679
Vervolgens run je deze testen.

782
00:34:31,679 --> 00:34:33,540
Het principe werkt ook.

783
00:34:33,540 --> 00:34:35,060
Klinkt mooi.

784
00:34:35,060 --> 00:34:35,580
Zeker.

785
00:34:35,580 --> 00:34:40,400
We hebben ook een vast onderdeel in de show, zeg maar.

786
00:34:40,659 --> 00:34:45,679
En dat gaat er over van, ja, als je nou een systeem, een AI systeem zou mogen bedenken.

787
00:34:45,679 --> 00:34:52,100
Die helemaal vrij is van techniek, van beperkingen, wat dat zou kunnen zijn.

788
00:34:52,100 --> 00:34:55,940
En om je eventjes wat denktijd te geven, hebben we daarvoor een jingle.

789
00:34:55,940 --> 00:35:20,360
Ik heb twee voorbeelden.

790
00:35:20,840 --> 00:35:21,820
Moet het software zijn?

791
00:35:21,820 --> 00:35:22,860
Nee hoor, nee.

792
00:35:22,860 --> 00:35:23,760
Het is helemaal vrij.

793
00:35:23,760 --> 00:35:27,480
Ja, dan zou ik heel graag een robot in mijn huis willen die alle irritante klusjes doet.

794
00:35:27,480 --> 00:35:27,940
Ja.

795
00:35:27,940 --> 00:35:28,840
Maar goed.

796
00:35:28,840 --> 00:35:29,160
Ik ook.

797
00:35:29,160 --> 00:35:31,160
Ik denk dat dat nog redelijk ver weg is.

798
00:35:31,160 --> 00:35:32,460
Nou ja, nee, goed.

799
00:35:32,460 --> 00:35:34,820
Nou ja, we gaan meemaken, hoop ik.

800
00:35:34,820 --> 00:35:37,380
Het tweede is, als je alleen maar over software hebt.

801
00:35:37,380 --> 00:35:40,200
Ik zou heel graag software hebben zoals we in science fiction films hebben.

802
00:35:40,200 --> 00:35:42,480
Zodat ik gewoon zeg, hé, doe dit.

803
00:35:42,480 --> 00:35:44,700
En dan komt hij met een antwoord en zegt, nee, ik bedoelde dat.

804
00:35:45,320 --> 00:35:47,800
En ik denk dat we daar steeds dichterbij komen.

805
00:35:47,800 --> 00:35:52,600
We zijn hem nog niet, maar het zou wel mooi zijn als we dat ergens in de komende tien jaar zouden bereiken.

806
00:35:52,600 --> 00:35:55,340
Nou, dat klinkt heel fijn.

807
00:35:55,340 --> 00:35:56,820
Allebei zeg ik ja graag op.

808
00:35:56,820 --> 00:35:59,640
Welk probleem zou dat oplossen?

809
00:35:59,640 --> 00:36:02,020
Nou ja, dus een heel simpel voorbeeld.

810
00:36:02,020 --> 00:36:03,060
Ik zoek een mailtje.

811
00:36:03,060 --> 00:36:04,920
Ik weet dat het ongeveer drie weken geleden is.

812
00:36:04,920 --> 00:36:06,740
Ik weet dat die persoon hem gemaild heeft.

813
00:36:06,740 --> 00:36:07,680
En ik weet dat dit woord erin zit.

814
00:36:07,680 --> 00:36:08,280
Dat ga ik zoeken.

815
00:36:08,280 --> 00:36:11,520
Ja, en dan ben ik, als ik geluk heb, vind ik het binnen tientallen.

816
00:36:11,520 --> 00:36:13,040
Maar als ik pech heb, ben ik minuut aan het zoeken.

817
00:36:13,040 --> 00:36:14,500
En dan heb ik dat mailtje.

818
00:36:14,500 --> 00:36:16,620
Maar dat had ik natuurlijk nodig voor een andere vraag.

819
00:36:16,620 --> 00:36:20,500
En zo schakel ik allemaal informatie aan elkaar in mijn hoofd.

820
00:36:20,500 --> 00:36:22,820
En voor je het weet ben je tien minuten tot uren bezig.

821
00:36:22,820 --> 00:36:24,980
Als je dat een AI kan laten doen, dan lijkt het me echt fantastisch.

822
00:36:24,980 --> 00:36:28,000
Ja, en die is waarschijnlijk nog vele malen snel weer even erin te zoeken.

823
00:36:28,000 --> 00:36:33,320
Maar inderdaad, nu zijn we aan het chainen van al die activiteiten om te komen tot het doel dat we willen bereiken.

824
00:36:33,320 --> 00:36:36,720
En eigenlijk willen we die chain, als ik je zo zeg, eigenlijk weghalen.

825
00:36:36,720 --> 00:36:38,360
En eigenlijk van A naar Z.

826
00:36:38,360 --> 00:36:39,820
Ja, heel simpel.

827
00:36:39,820 --> 00:36:43,560
Dus ik zat vanochtend, hier moet ik om drie uur een podcast opnemen.

828
00:36:43,560 --> 00:36:45,060
Hoe laat moet ik dan vertrekken?

829
00:36:45,060 --> 00:36:46,520
Hou rekening met de files.

830
00:36:46,520 --> 00:36:48,120
Nou, dan kan ik normaal gesproken kijken op Google Maps.

831
00:36:48,120 --> 00:36:49,620
Maar goed, ik moet eerst weten waar ik moest zijn.

832
00:36:49,620 --> 00:36:50,420
Dat was de fabriek.

833
00:36:50,420 --> 00:36:51,400
Dan tik ik de fabriek in.

834
00:36:51,400 --> 00:36:53,080
Zou die de goede fabriek hebben gepakt?

835
00:36:53,080 --> 00:36:55,600
Allemaal van dat soort dingen.

836
00:36:55,600 --> 00:36:57,260
Ja, ik vind dat echt heel erg fijn.

837
00:36:57,260 --> 00:36:59,180
Als je dat soort problemen voor mij kan oplossen.

838
00:36:59,180 --> 00:36:59,920
En dit zijn maar kleintjes.

839
00:36:59,920 --> 00:37:02,940
En als je dat helemaal kan, dan kan je langzaam grotere problemen oplossen.

840
00:37:02,940 --> 00:37:03,820
Tot aan wereldvrede.

841
00:37:03,820 --> 00:37:04,420
Wereldvrede.

842
00:37:04,420 --> 00:37:04,900
Oh.

843
00:37:04,900 --> 00:37:06,380
Nee, dat was een grapje.

844
00:37:06,380 --> 00:37:09,820
Maar goed, klein beginnen en langzaam uitbreiden.

845
00:37:09,820 --> 00:37:11,480
Mooie antwoord.

846
00:37:11,480 --> 00:37:12,180
Ja, zeker.

847
00:37:12,180 --> 00:37:19,680
Wat zouden nou drie mogelijke tips zijn voor luisteraars die nu luisteren en die zeggen van

848
00:37:19,680 --> 00:37:24,780
ik sta eigenlijk op het punt om te beginnen met het gebruik van AI, AI bij programmeren.

849
00:37:24,780 --> 00:37:29,260
Wat zouden jou drie tips zijn die je aan jezelf had willen geven voordat je hiermee begon?

850
00:37:29,260 --> 00:37:33,460
Even nadenken hoor.

851
00:37:33,460 --> 00:37:39,200
De eerste die gaf jij net eigenlijk al.

852
00:37:39,200 --> 00:37:41,200
Wees specifiek in wat je wil.

853
00:37:41,200 --> 00:37:44,660
Hoe specifieker jij bent richting de AI, hoe duidelijk die weet wat jij wil, hoe beter

854
00:37:44,660 --> 00:37:45,480
zijn antwoord zal zijn.

855
00:37:45,480 --> 00:37:47,740
Dat is echt wel een dingetje.

856
00:37:47,740 --> 00:37:50,080
Ik geloof het ook nooit zo in prompt engineering.

857
00:37:50,080 --> 00:37:56,780
Maar ik geloof nu hoe geavanceerder het model, hoe groter het model, hoe beter het werkt.

858
00:37:56,780 --> 00:37:58,900
Dus met een lokaal model hoef je daar niet je best voor te doen.

859
00:37:58,900 --> 00:38:01,740
Maar voor de grotere cloud modellen heeft dat echt wel zin.

860
00:38:02,160 --> 00:38:03,880
Dat is eigenlijk meer van hetzelfde.

861
00:38:03,880 --> 00:38:04,860
Wees specifiek.

862
00:38:04,860 --> 00:38:09,580
Maak je niet zoveel zorgen voor de kosten?

863
00:38:09,580 --> 00:38:11,100
Oeh.

864
00:38:11,100 --> 00:38:12,100
Bij bands toelichten?

865
00:38:12,100 --> 00:38:13,480
Ja, die kan ik zeker toelichten.

866
00:38:13,480 --> 00:38:18,360
Dus toen ik begon dacht ik, oh, APIs, prijzen, dat gaat een hoop geld kosten.

867
00:38:19,220 --> 00:38:22,160
Ik heb in het afgelopen jaar minder dan 11 euro verstookt.

868
00:38:22,160 --> 00:38:24,160
Dat was niet veel.

869
00:38:24,160 --> 00:38:26,160
Nee, terwijl ik van tevoren dacht, oh, moet ik dit wel doen?

870
00:38:26,160 --> 00:38:27,040
Gevaarlijk.

871
00:38:27,040 --> 00:38:28,300
Nou, er zitten allemaal limieten op.

872
00:38:28,300 --> 00:38:29,600
Dus je kan er gewoon een tientje op zetten.

873
00:38:29,600 --> 00:38:31,820
En daar heb ik eigenlijk bijna een heel jaar mee kunnen spelen.

874
00:38:31,820 --> 00:38:38,360
Daarnaast, geloof ik ook echt, maar goed, het is misschien iets hoger niveau dan voor mensen.

875
00:38:38,360 --> 00:38:43,020
Het duurste onderdeel van een software project zijn de uren gemaakt door programmeurs.

876
00:38:43,020 --> 00:38:43,680
Veruit.

877
00:38:43,680 --> 00:38:48,380
Dus elk uur dat je daar kan besparen, leeft gewoon geld op.

878
00:38:48,380 --> 00:38:52,620
Dus de kosten van een AI, wat is het duurste abonnement tegenwoordig?

879
00:38:52,620 --> 00:38:53,920
200 euro per maand, las ik.

880
00:38:53,920 --> 00:38:55,920
Volgens mij is dat twee uurtjes software schrijven.

881
00:38:55,920 --> 00:38:56,600
Ja.

882
00:38:56,900 --> 00:38:58,720
Dus ja, volgens mij is dat een no-brainer.

883
00:38:58,720 --> 00:38:59,980
Die twee uur heb je er zo uit.

884
00:38:59,980 --> 00:39:02,680
Dus ja, maak je niet te veel zorgen over de kosten.

885
00:39:02,680 --> 00:39:03,820
Mooi.

886
00:39:03,820 --> 00:39:04,280
Mooi punt.

887
00:39:04,280 --> 00:39:05,160
Maar ik moest eigenlijk drie.

888
00:39:05,160 --> 00:39:06,540
Derde.

889
00:39:06,540 --> 00:39:07,840
Ja.

890
00:39:07,840 --> 00:39:09,880
Zelfs wel heel specifiek, die drie.

891
00:39:09,880 --> 00:39:10,940
Ja, ja.

892
00:39:10,940 --> 00:39:11,840
Laten we bij twee jaar.

893
00:39:11,840 --> 00:39:14,520
Anders krijgen we die ongemakkelijke lange stilte zien in de podcast.

894
00:39:14,520 --> 00:39:18,400
Nou, volgens mij...

895
00:39:18,400 --> 00:39:20,300
Oh ja, we hebben ook nog stellingen.

896
00:39:20,300 --> 00:39:20,520
Ja.

897
00:39:20,520 --> 00:39:24,300
Want rondom AI, dat zul je misschien wel herkennen.

898
00:39:24,300 --> 00:39:27,540
Je werkt ook voor grote organisaties waar je komt.

899
00:39:27,540 --> 00:39:31,400
Dan hebben we natuurlijk ook altijd te maken met AI-beleid.

900
00:39:31,400 --> 00:39:33,240
Hoe ga je hiermee om?

901
00:39:33,240 --> 00:39:36,020
Zeker ook voor mag je deze tooling inzetten, ja of nee?

902
00:39:36,020 --> 00:39:39,260
En Niels en ik hebben een kaartspel ontworpen,

903
00:39:39,260 --> 00:39:42,360
waarin best wel een hele hoop van dit soort vraagstukken zitten.

904
00:39:42,360 --> 00:39:46,400
Met het idee, met een stelling die je met elkaar bediscussieert.

905
00:39:46,400 --> 00:39:48,680
Dus er is geen goed of fout.

906
00:39:48,680 --> 00:39:53,140
Maar we zijn wel benieuwd als we een stelling aan jou voorleggen.

907
00:39:53,140 --> 00:39:54,100
Kom maar op.

908
00:39:54,100 --> 00:40:09,820
Even voordat je de vraag stelt, we hadden een coole jingle.

909
00:40:09,820 --> 00:40:10,680
Dankjewel.

910
00:40:10,680 --> 00:40:12,460
Wel AI-gegenereerd.

911
00:40:12,460 --> 00:40:13,520
Ah, wauw.

912
00:40:13,520 --> 00:40:14,740
Ook zelfs dat kan AI.

913
00:40:14,740 --> 00:40:15,880
Zeker.

914
00:40:15,880 --> 00:40:17,320
En daar gaan wij niet zingen, Joop.

915
00:40:18,680 --> 00:40:21,060
De categorie is ethiek en maatschappij.

916
00:40:21,060 --> 00:40:23,140
En de stelling luidt.

917
00:40:23,140 --> 00:40:26,680
Het klonen van mijn stem is voor mij persoonlijk acceptabel.

918
00:40:26,680 --> 00:40:29,680
Wauw.

919
00:40:31,020 --> 00:40:37,940
Ik heb geen moeite met het klonen van stemmen als degene waarvan de stem is toestemming geeft.

920
00:40:37,940 --> 00:40:40,000
Maar goed, dat wordt het snel grijs.

921
00:40:40,000 --> 00:40:41,620
Dus ik kan me heel goed voorstellen dat je...

922
00:40:41,620 --> 00:40:45,560
En stel dat we, volgens mij kan je tegenwoordig ook podcast maken op basis met AI.

923
00:40:45,560 --> 00:40:46,040
Ja.

924
00:40:46,040 --> 00:40:48,880
Dan neem je onze drie stemmen en dan stop je er wat input in.

925
00:40:48,880 --> 00:40:51,040
En ja, had ik toch niet naar Utrecht hoeven komen.

926
00:40:51,980 --> 00:40:57,940
Maar ja, ik denk dat het prima is als, zoals ik al zei, als de persoon waarvan de stem is toestemming geeft.

927
00:40:57,940 --> 00:40:59,740
Maar dat dat ook alleen daarvoor wordt gebruikt.

928
00:40:59,740 --> 00:41:01,320
En daar wordt het snel eng, vind ik altijd.

929
00:41:01,320 --> 00:41:04,600
Dat is ook een beetje, als je AI gebruikt, waar gaat die data allemaal heen?

930
00:41:04,600 --> 00:41:05,660
Dat vind ik echt heel spannend.

931
00:41:05,660 --> 00:41:06,980
Dus ik zou...

932
00:41:06,980 --> 00:41:09,880
Mijn eerste antwoord is ja, het mag.

933
00:41:09,880 --> 00:41:14,060
Mijn tweede antwoord is alleen als ik het bedrijf vertrouw die er wat mee doet.

934
00:41:14,060 --> 00:41:15,140
Oké, mooi.

935
00:41:15,140 --> 00:41:16,700
Ik ben wel heel nieuwsgierig.

936
00:41:16,700 --> 00:41:17,440
Je bent ook spreker.

937
00:41:17,440 --> 00:41:20,560
Dus je gaat ook de wereld over om sessies te geven.

938
00:41:21,080 --> 00:41:27,240
Zou je het zelf toestaan dat ze jouw stem gebruiken voor een sessie op het onderwerp waar je zelf ook actief in bent?

939
00:41:27,240 --> 00:41:28,300
Of ga je dan toch liever zelf?

940
00:41:28,300 --> 00:41:29,560
Nee, ik ga het liever zelf.

941
00:41:29,560 --> 00:41:30,660
Dat is toch heerlijk om...

942
00:41:30,660 --> 00:41:31,800
Ja, ik vind het heerlijk.

943
00:41:31,800 --> 00:41:33,780
Conferenties vind ik hier een beetje...

944
00:41:33,780 --> 00:41:36,860
Dat is misschien een beetje gek, maar een beetje ontsnappen uit de normale dagelijkse werkzaamheden.

945
00:41:36,860 --> 00:41:38,340
Dus ik vind het heerlijk om naar conferenties te gaan.

946
00:41:38,340 --> 00:41:39,420
Zeker als het ergens in het buitenland is.

947
00:41:39,420 --> 00:41:42,520
En op het moment dat ik woon in een klein plaats, als ik in de bus stap,

948
00:41:42,520 --> 00:41:46,180
dan begint voor mij een soort van vakantiegevoel.

949
00:41:46,180 --> 00:41:49,100
Dan moet ik erbij vertellen, ik heb kinderen, een gezin, een druk thuis.

950
00:41:49,780 --> 00:41:51,720
Even de druk thuis. Even doen wat ik zelf zit in.

951
00:41:51,720 --> 00:41:54,780
Ja, en wat mij dan helpt als ik naar de conferentie ga,

952
00:41:54,780 --> 00:41:58,060
is de rust en de tijd om even over zaken na te denken

953
00:41:58,060 --> 00:42:01,800
waar je dagelijks niet aan toekomt, of niet altijd aan toekomt,

954
00:42:01,800 --> 00:42:03,720
en die tijd te pakken en te netwerken.

955
00:42:05,600 --> 00:42:09,680
Het is niet het onderwerp van de podcast, maar de conferenties hebben zin omdat je mensen...

956
00:42:09,680 --> 00:42:10,600
Het is fysieke conferenties.

957
00:42:10,600 --> 00:42:10,680
Ja.

958
00:42:10,680 --> 00:42:12,320
Virtuele vind ik heel moeilijk.

959
00:42:12,320 --> 00:42:16,560
En ik hoop dat wij het publiek ook een reden hebben gegeven om na te denken.

960
00:42:17,880 --> 00:42:23,100
Dus heel erg bedankt, Bouke, dat je dit wilde komen doen bij ons hier live op het podium.

961
00:42:23,100 --> 00:42:26,660
Ja, zelf ook weer een aantal dingen geleerd hebt.

962
00:42:26,660 --> 00:42:32,260
Dus testdriven, net zolang de AI laten fouten laten oplossen,

963
00:42:32,260 --> 00:42:35,880
net zolang dat je test slaagt, omdat je de test vertrouwt,

964
00:42:35,880 --> 00:42:37,980
zou die als het ware in productie kunnen.

965
00:42:37,980 --> 00:42:38,420
Toch?

966
00:42:38,700 --> 00:42:38,980
Eens.

967
00:42:38,980 --> 00:42:40,820
En ook dank jullie wel voor het feit dat ik hier mocht zijn.

968
00:42:40,820 --> 00:42:41,740
Dank je wel.

969
00:42:41,740 --> 00:42:49,900
Oh ja, die nemen we even op de wee op.

970
00:42:49,900 --> 00:42:50,600
Dank jullie wel.

971
00:42:50,600 --> 00:42:53,980
Dank jullie wel dat jullie in het publiek wilden zitten.

972
00:42:53,980 --> 00:42:56,320
Ons ook wilden steunen hierin.

973
00:42:56,320 --> 00:42:57,280
Dank voor de vragen.

974
00:42:57,280 --> 00:43:01,880
Je kan ons vinden via Spotify, Apple Podcast,

975
00:43:01,880 --> 00:43:04,180
eigenlijk al je favoriete podcast app.

976
00:43:04,180 --> 00:43:08,100
Dus als je je daarop abonneert, komt deze aflevering vanzelf tevoorschijn.

977
00:43:08,360 --> 00:43:09,780
Dankjewel, tot de volgende keer.

978
00:43:09,780 --> 00:43:11,460
[Muziek]


People on this episode