
AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S07E57 - De kracht van voorspellende modellen in bedrijfskritische processen met Bas Niesink
Bas Niesink, AI-consultant bij Unpredictable.ai, was te gast in een recente aflevering van AIToday Live. Hij besprak de toegevoegde waarde van machine learning naast generatieve AI.
Niesink legde uit hoe machine learning specifieke bedrijfsproblemen kan oplossen, met name in de energiesector. Hij illustreerde dit met voorbeelden van het voorspellen van energieverbruik en -opwekking.
Als data scientist bouwt Niesink modellen die bedrijfsproblemen oplossen, waarbij hij benadrukt dat domeinkennis essentieel is. Hij ging ook in op de uitdagingen van machine learning en het belang van MLOps voor het beheren van modellen.
Onderwerpen
- Verschil tussen machine learning en generatieve AI
- Toepassingen van machine learning in de energiesector
- Rol en verantwoordelijkheden van een data scientist
- Uitdagingen en complexiteit van machine learning
- MLOps en het beheer van machine learning-modellen
- Podcast: AIToday Live podcast
- Website: Kaggle
- Boek: Co-intelligence: : Living and Working with AI
- Podcast: Dwarkash podcast
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: Unpredictable.ai - Bas Niesink
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:04,800
In deze aflevering hoor je Bas Niesink, AI consultant bij Unpredictable.ai,
2
00:00:04,800 --> 00:00:09,400
die uitlegt hoe machine learning modellen specifieker en vaak kosteneffectiever zijn
3
00:00:09,400 --> 00:00:14,600
dan generatieve AI voor voorspellingen en klassificaties in bedrijfscritische processen.
4
00:00:14,600 --> 00:00:17,799
Met praktijkvoorbeelden uit de energiesector laat hij zien
5
00:00:17,799 --> 00:00:20,400
hoe data scientists complexe modellen bouwen
6
00:00:20,400 --> 00:00:25,200
die bedrijven helpen betere beslissingen te nemen zonder onnodige complexiteit.
7
00:00:25,200 --> 00:00:27,200
Dus, blijf luisteren!
8
00:00:29,700 --> 00:00:32,600
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.
9
00:00:32,960 --> 00:00:34,420
Mijn naam is Joop Snijder, CTO bij Aigency.
10
00:00:34,800 --> 00:00:37,180
Mijn naam Niels Naglé, Area Lead, Data & AI bij Info Support.
11
00:00:37,580 --> 00:00:40,260
En welkom terug Bas Niesink.
12
00:00:40,740 --> 00:00:43,880
Bas, je bent al eens een keer eerder bij ons in de uitzending geweest.
13
00:00:44,300 --> 00:00:47,900
Maar voor degene die dat niet gehoord hebben, zou je jezelf eerst even willen voorstellen?
14
00:00:48,380 --> 00:00:49,460
Ik ben Bas Niesink.
15
00:00:49,860 --> 00:00:52,980
Ik heb hiervoor zes en een half jaar bij Info Support gewerkt.
16
00:00:53,100 --> 00:00:57,580
Dus vandaar dat ik Joop en Niels vanuit die hoek goed ken en ook al een keer het gast ben geweest.
17
00:00:58,700 --> 00:01:05,120
Nu ben ik bezig voor mezelf vanuit een klein freelance bedrijfje, een man zaakje, Unpredictable.ai.
18
00:01:05,980 --> 00:01:08,320
En vanuit daar ben ik bezig met een stukje AI consultancy.
19
00:01:08,620 --> 00:01:12,140
En dat op het vlak van eigenlijk alles dat met data AI te maken heeft.
20
00:01:12,760 --> 00:01:16,580
MLOps, een stukje data science, data engineering, architectuur.
21
00:01:16,660 --> 00:01:19,300
Alles dat met data AI te maken heeft, gewoon lekker mee aan het nerden.
22
00:01:20,140 --> 00:01:22,600
En ooit hoop ik iets van een product te maken.
23
00:01:22,800 --> 00:01:24,220
Maar ja, wat? Het gaat zo rap.
24
00:01:24,520 --> 00:01:26,400
En als je iets bouwt, is het niet volgend jaar achterhaald.
25
00:01:26,600 --> 00:01:29,120
Dus dat staat even in de ijskast misschien.
26
00:01:29,440 --> 00:01:31,360
Maar gewoon lekker data-AI.
27
00:01:31,840 --> 00:01:35,380
Ja, en het leuke is, je bent vooral heel erg gespecialiseerd in de machine learning.
28
00:01:36,020 --> 00:01:37,740
Daar hebben we je ook vooruit genodigd.
29
00:01:37,940 --> 00:01:41,300
Want de markt heeft nu oogkleppen op.
30
00:01:42,500 --> 00:01:46,060
Er wordt alleen maar gekeken naar generatieve AI.
31
00:01:46,560 --> 00:01:50,160
Zou jij het verschil kunnen uitleggen voor niet-technische luisteraars?
32
00:01:50,600 --> 00:01:54,140
Wat het verschil is tussen machine learning en de generatieve AI?
33
00:01:54,700 --> 00:01:54,940
Tuurlijk.
34
00:01:55,720 --> 00:02:03,040
Als je denkt de generatieve AI, dan denkt iedereen nu on ChatGPT, een Claude, Perplexity en andere modellen die vooral dingen genereren.
35
00:02:03,280 --> 00:02:07,020
Tekst genereren, afbeeldingen genereren, muziek, audio, spraak enzovoort.
36
00:02:08,660 --> 00:02:10,139
Allemaal super gave dingen die heel veel kunnen.
37
00:02:10,400 --> 00:02:12,200
Vaak AI-assistenten of programmeer helpen.
38
00:02:12,720 --> 00:02:16,500
Maar allemaal dingen die heel breed zijn qua kennis.
39
00:02:17,260 --> 00:02:19,000
En die vooral dingen genereren.
40
00:02:19,140 --> 00:02:20,620
Dus maken, teksten, dat soort zaken.
41
00:02:21,340 --> 00:02:25,960
Als je kijkt naar de machine learning kant, dan heb je van oudsher meer de statistische modellen.
42
00:02:26,300 --> 00:02:28,680
Waar je een soort geautomatiseerde statistiek toepast.
43
00:02:29,460 --> 00:02:31,160
Om daar een bepaalde taak op te lossen.
44
00:02:31,240 --> 00:02:32,900
Een kleine afgebakende taak vaak.
45
00:02:33,780 --> 00:02:37,200
Bijvoorbeeld het voorspellen hoeveel energie mensen gaan verbruiken of opwekken.
46
00:02:37,860 --> 00:02:40,920
Of hoeveel klanten gaan deze maand potentieel weg bij een bedrijf.
47
00:02:40,920 --> 00:02:43,240
En moeten we met een mooie marketingcampagne erbij houden.
48
00:02:44,680 --> 00:02:46,780
Veel specifiekere, specialistische modellen.
49
00:02:47,800 --> 00:02:52,340
Dus generatief, heel breed en het maakt vooral dingen.
50
00:02:52,490 --> 00:02:57,280
En machine learning vaker voorspellend of classificerend dingen in bakjes delen.
51
00:02:58,110 --> 00:03:00,100
En veel meer voor één bepaalde toepassing.
52
00:03:00,550 --> 00:03:03,360
Ja, je noemde net al twee toepassingen.
53
00:03:04,170 --> 00:03:06,120
Je bent werkzaam in de energiesector.
54
00:03:06,500 --> 00:03:06,660
Klopt.
55
00:03:06,840 --> 00:03:12,900
Zou je daar een typisch machine learning probleem of oplossing kunnen benoemen?
56
00:03:13,380 --> 00:03:15,180
Zo'n typisch is dus wat ik net noemde.
57
00:03:16,160 --> 00:03:18,760
Stel je bent een energiebedrijf of je bent een netbeheerder.
58
00:03:18,760 --> 00:03:20,080
Of dat dat maakt verder niet of uit.
59
00:03:21,480 --> 00:03:26,160
Je moet in proberen te schatten afhankelijk van historische verbruiksgegevens,
60
00:03:26,980 --> 00:03:28,580
opwekgegevens, het weer enzovoort.
61
00:03:29,260 --> 00:03:31,460
Hoeveel stroom men gaat opwekken, verbruiken.
62
00:03:32,460 --> 00:03:35,140
Kan je je voorstellen die zonnepanelen die we tegenwoordig allemaal hebben.
63
00:03:35,140 --> 00:03:36,560
Die zorgen dat het heel erg grillig is.
64
00:03:36,660 --> 00:03:38,500
Schijnt de zon dan heb je opeens heel veel opwek.
65
00:03:39,020 --> 00:03:40,620
Komt er een wolk voor dan is die opeens weg.
66
00:03:41,320 --> 00:03:43,420
Maar je moet wel genoeg capaciteit op het net hebben.
67
00:03:43,560 --> 00:03:45,420
Genoeg stroom inkopen, verkopen.
68
00:03:45,700 --> 00:03:49,720
Misschien moeten zonneparken uitgeschakeld worden als er opeens even te veel belasting is.
69
00:03:50,760 --> 00:03:55,520
Dus dat is een typisch model waarbij je een forecast maakt voor het lange termijn, korte termijn,
70
00:03:55,540 --> 00:03:59,060
van hoeveel stroom gaat er verbruikt en opgewekt worden.
71
00:04:00,620 --> 00:04:03,600
En je bent data scientist. Wat houdt dat in?
72
00:04:04,840 --> 00:04:09,000
Eigenlijk dat je bezig bent om vaak dit soort modellen te maken.
73
00:04:09,760 --> 00:04:13,160
Dus je hebt een bepaald probleem, een bepaalde use case, je moet iets gaan oplossen.
74
00:04:13,920 --> 00:04:16,240
En je hebt daarvoor datasets ter beschikking.
75
00:04:16,380 --> 00:04:18,480
Bijvoorbeeld die historische verbruiksgegevens.
76
00:04:19,480 --> 00:04:21,560
Of misschien een heel ander voorbeeld.
77
00:04:22,660 --> 00:04:23,680
Bedenk dan maar eens een voorbeeld.
78
00:04:24,180 --> 00:04:25,300
Stel je bent ijsjesboer.
79
00:04:25,440 --> 00:04:26,660
Hoeveel ijsjes ga je verkopen op de dag?
80
00:04:26,740 --> 00:04:30,140
Dan heb je misschien een mooie dataset van allerlei historische ijs verkopen.
81
00:04:31,780 --> 00:04:33,080
Je wil dat goed kunnen inkopen.
82
00:04:33,100 --> 00:04:35,240
Dus je gaat een model proberen te maken.
83
00:04:35,680 --> 00:04:36,440
Statistische modellen.
84
00:04:37,060 --> 00:04:40,720
Om gegeven die dataset die je hebt met historische gegevens.
85
00:04:42,320 --> 00:04:44,659
gegeven wat nieuwe data, zoals de weersvoorspelling.
86
00:04:44,719 --> 00:04:45,840
Kijken hoeveel ijs moeten we inkopen.
87
00:04:46,630 --> 00:04:48,640
En als data scientist ben je daarmee bezig.
88
00:04:48,640 --> 00:04:50,220
Dus je bouwt die modellen.
89
00:04:51,260 --> 00:04:53,900
Je bent ook bezig met die datastromen verzamelen.
90
00:04:53,930 --> 00:04:55,940
Maar ook kijken wat is de kwaliteit van die modellen.
91
00:04:56,180 --> 00:04:57,420
Deugt het wat je aan het maken bent?
92
00:04:58,400 --> 00:04:59,680
Kun je die modellen uitleggen?
93
00:05:00,040 --> 00:05:01,840
Als in hoe werken die modellen onder de motorkap?
94
00:05:02,960 --> 00:05:04,560
Allerlei zaken die erbij komen kijken.
95
00:05:04,820 --> 00:05:08,180
Ook wel heel veel bedrijfskennis die je nodig hebt als ik het zo hoor.
96
00:05:08,280 --> 00:05:10,660
Dus context van waarin opereer ik?
97
00:05:10,980 --> 00:05:13,280
Wat zijn de uitdagingen die er zijn binnen organisaties?
98
00:05:13,580 --> 00:05:16,280
Zeker, want als je dat niet hebt, dan kun je echt de mist ingaan.
99
00:05:16,840 --> 00:05:19,140
Dan is het heel makkelijk om blind op een model te vertrouwen.
100
00:05:19,280 --> 00:05:23,120
Terwijl met wat meer domeinkennis weet je dat een voorspelling die gemaakt wordt misschien helemaal niet klopt.
101
00:05:24,140 --> 00:05:29,060
En dan kom je pas achter door te praten met de business owners of door zelf die kennis te hebben.
102
00:05:30,340 --> 00:05:33,420
Om kaas te maken van de voorspellingen en te valideren of dingen kloppen.
103
00:05:33,620 --> 00:05:39,260
Dus dat je echt de kennis van de personen en inderdaad statistische modellen bij elkaar gaat brengen.
104
00:05:39,400 --> 00:05:40,660
Om de juiste conclusies te trekken.
105
00:05:41,100 --> 00:05:42,260
Ja, inderdaad.
106
00:05:42,560 --> 00:05:43,940
Wat heeft je aangetrokken tot dit vakgebied?
107
00:05:45,920 --> 00:05:47,480
Dat is eigenlijk een beetje organisch zo gegaan.
108
00:05:47,840 --> 00:05:51,880
In mijn studie moest ik een master kiezen met een specialisatie.
109
00:05:52,140 --> 00:05:53,460
En toen was het eigenlijk 50-50.
110
00:05:53,520 --> 00:05:55,740
Ga ik de security kant op of ga ik de data science kant op?
111
00:05:56,520 --> 00:05:58,100
En toen dacht ik, data science, dat klinkt wel gaaf.
112
00:05:58,120 --> 00:06:00,740
Je bent bezig met allerlei analyses en je kan modelletjes maken.
113
00:06:01,080 --> 00:06:02,620
En die kunnen dan allerlei dingen voor je gaan doen.
114
00:06:03,480 --> 00:06:05,720
Dus ik had wel van die hele futuristische beelden in mijn hoofd.
115
00:06:06,160 --> 00:06:08,180
Uiteindelijk viel dat tijdens de master nog een beetje tegen.
116
00:06:09,040 --> 00:06:13,360
Want het voelt nog als beginfase stenen tijdperk machine learning.
117
00:06:13,720 --> 00:06:17,840
Waar je als het ging om teksten echt puur aan het kijken bent.
118
00:06:17,940 --> 00:06:21,140
Je hebt een set met woordparen en wat voor kansen op een volgend woord.
119
00:06:21,200 --> 00:06:23,440
En als je ziet hoe dat nu de laatste jaren sneller gegaan is.
120
00:06:24,060 --> 00:06:25,720
Dan voelt het echt als stenen tijdperk.
121
00:06:26,900 --> 00:06:30,660
Maar het idee dat je daar dingen in kan analyseren en werken met Big Data.
122
00:06:31,020 --> 00:06:36,620
En daar allerlei gave tools mee kan maken die ook waarschijnlijk geautomatiseerd werken.
123
00:06:36,700 --> 00:06:37,720
Dat sprak me heel erg aan.
124
00:06:37,900 --> 00:06:40,120
Dus ik ben die kant op gedoken en dat bevalt nog steeds goed.
125
00:06:42,179 --> 00:06:49,120
En je vertelt, je hebt data, daar maak je met een algoritme een model van.
126
00:06:50,090 --> 00:06:54,580
Ik kan me zo voorstellen dat een gemiddelde luisteraar denkt, oh dat is eigenlijk heel eenvoudig.
127
00:06:58,140 --> 00:07:01,800
Het kan eenvoudig zijn als je een mooie hapklare schone dataset hebt.
128
00:07:02,780 --> 00:07:06,380
Die je in zo'n model stopt en er komen mooie rekenregels en dingen uit.
129
00:07:07,060 --> 00:07:09,220
Maar vaak moet je data eerst nog netjes opschonen.
130
00:07:09,560 --> 00:07:15,380
Moet je de features, dus de dingen waarop zo'n model werkt, moet je gaan afleiden uit de dataset.
131
00:07:16,540 --> 00:07:19,000
Stel je bent aan het kijken naar die energievoorspellingen.
132
00:07:19,180 --> 00:07:23,260
Je hebt te maken met time series, dus tijdreeksen van meetgegevens.
133
00:07:24,060 --> 00:07:25,220
Maar dat zegt nog niet zoveel.
134
00:07:25,240 --> 00:07:27,260
Je moet kijken wat waren de dagen van de week.
135
00:07:27,460 --> 00:07:29,420
Wat is het voor per uur, per dag.
136
00:07:30,280 --> 00:07:32,140
Je moet een soort van rolling features gaan maken.
137
00:07:32,220 --> 00:07:36,860
Dat je uit zo'n lange tijdreeks verschillende waardes gaat halen.
138
00:07:37,580 --> 00:07:38,620
waar zo'n model iets mee kan.
139
00:07:39,020 --> 00:07:42,140
Je moet iets hebben dat hap klaargemaakt wordt voor zo'n model
140
00:07:42,380 --> 00:07:43,400
om die statistiek te doen.
141
00:07:44,320 --> 00:07:46,120
Er zijn ook allemaal dingen die erbij komen kijken.
142
00:07:46,960 --> 00:07:49,300
Dat lijkt het, we hebben een hele grote CSV
143
00:07:49,500 --> 00:07:51,420
en we knallen die in een model en we hebben een output.
144
00:07:51,660 --> 00:07:54,000
Maar dat is helemaal niet zo, want je bent heel veel bezig
145
00:07:54,000 --> 00:07:57,120
om die data te bewerken, verwerken, dingen eruit te halen
146
00:07:57,160 --> 00:07:59,040
om überhaupt er iets zinnigs mee te kunnen doen.
147
00:07:59,940 --> 00:08:03,340
En hoe maak je de besluiten wat je wel neemt en wat je niet meeneemt?
148
00:08:04,380 --> 00:08:05,440
Voor een deel gewoon domeinkennis.
149
00:08:06,240 --> 00:08:11,560
Dus weten wat het probleem is en ook weten wat zijn dingen die je hebt op dit moment nu je aan het trainen bent.
150
00:08:11,660 --> 00:08:14,580
Maar ook wat heb je straks in een scenario waarbij je echt een voorspelling moet maken.
151
00:08:14,760 --> 00:08:15,880
Want daar kan een verschil tussen zitten.
152
00:08:17,200 --> 00:08:19,260
Soms ook gewoon modellen zelf het werk laten doen.
153
00:08:19,540 --> 00:08:24,100
Dus je hebt allerlei technieken om het model eigenlijk zelf te laten bedenken.
154
00:08:24,160 --> 00:08:25,960
Wat zijn goede features, wat zijn minder goede features.
155
00:08:26,240 --> 00:08:27,700
Wat heeft wel impact, wat geen impact.
156
00:08:28,460 --> 00:08:29,300
Dus wat ga je meenemen.
157
00:08:30,340 --> 00:08:31,860
Je wil ook niet teveel dingen meenemen.
158
00:08:31,900 --> 00:08:34,059
Dus soms ga je daar weer in snoeien of dingen combineren.
159
00:08:34,100 --> 00:08:37,460
Het blijft echt wel vrij specialistisch werk.
160
00:08:39,159 --> 00:08:43,980
Je triggerde mij met het stukje van, bij de analyse en bij de voorspelling ben je het aan het bouwen het model.
161
00:08:44,340 --> 00:08:47,360
Maar dat is soms anders dan in de praktijk als je de voorspelling gaat doen.
162
00:08:48,480 --> 00:08:50,540
Kan je die wat meer toelichten? Wat bedoel je daar precies mee?
163
00:08:51,400 --> 00:08:54,880
Het is moeilijk om een specifiek voorbeeld te bedenken.
164
00:08:55,160 --> 00:08:57,480
Maar ik heb een keer gewerkt aan een predictive maintenance project.
165
00:08:58,480 --> 00:09:04,660
Daarbij hadden we allerlei inspectiedata van verschillende energiecentrales.
166
00:09:06,400 --> 00:09:09,580
Tijdens het trainen had je alle data ter beschikking.
167
00:09:09,739 --> 00:09:14,420
Je wist al precies wat waren alle uitkomsten, wat had een monteur allemaal gezien met het oog.
168
00:09:15,640 --> 00:09:21,960
Maar als je een voorspelling gaat maken over de vraag van moet er een nieuwe inspectie plaatsvinden, dan heb je die data niet.
169
00:09:22,140 --> 00:09:23,740
Dus dan kun je daar ook geen voorspelling mee doen.
170
00:09:23,740 --> 00:09:25,200
Dat zijn dingen die je wist pas achteraf.
171
00:09:26,560 --> 00:09:33,140
En soms is het best venijnig hoe dat soort dingen die je pas achteraf had geweten in de dataset al verwerkt zijn.
172
00:09:33,770 --> 00:09:36,920
Die zijn dan toch weer verwerkt in bepaalde variabelen over een bepaalde toestand.
173
00:09:37,040 --> 00:09:41,060
En die zou je niet hebben op het moment dat je nu een nieuwe voorspelling zou gaan maken.
174
00:09:42,060 --> 00:09:45,940
Dus dan moet je echt even goed de data doorspitten en kijken van klopt dit wel? Lekt er geen data weg?
175
00:09:46,640 --> 00:09:56,000
Ja, en zijn er zaken inderdaad die je op het moment van voorspelling dus niet hebt en in een tijdslijn uitzet van wat heb ik dan wel tot mijn beschikking om eigenlijk het advies of de voorspelling te kunnen gaan creëren?
176
00:09:56,180 --> 00:09:56,280
Exact.
177
00:09:57,220 --> 00:09:57,460
Oké.
178
00:09:59,440 --> 00:10:03,820
Je gaf aan, met de machine learning kun je de voorspellingen maken.
179
00:10:03,980 --> 00:10:05,520
Maar er zijn ook classificaties.
180
00:10:06,860 --> 00:10:09,660
Daar is het ook heel goed en bruikbaar voor.
181
00:10:11,200 --> 00:10:14,680
Maar wat we zien, is dat daar ook steeds meer taalmodellen voor gebruikt worden.
182
00:10:14,980 --> 00:10:18,040
Dus de taalmodellen kunnen ook best wel redelijk goed classificeren.
183
00:10:18,880 --> 00:10:21,460
Waar leg jij de grens?
184
00:10:21,500 --> 00:10:22,860
Ik weet niet of je dat zou kunnen zeggen.
185
00:10:23,680 --> 00:10:28,280
Waar heeft machine learning eigenlijk de voorkeur boven de generatieve AI?
186
00:10:28,570 --> 00:10:31,620
Als je aan de slag gaat met classificatie.
187
00:10:32,020 --> 00:10:32,440
Goeie vraag.
188
00:10:33,420 --> 00:10:36,460
Ik zou sowieso zeggen, waar mogelijk en waar het goed werkt.
189
00:10:36,520 --> 00:10:38,600
Gebruik machine learning, want dat zijn simpelere modellen.
190
00:10:38,800 --> 00:10:41,700
Beter uitlegbaar, makkelijker te trainen enzovoort.
191
00:10:42,350 --> 00:10:43,240
Maar stel je hebt dingen...
192
00:10:43,240 --> 00:10:44,240
Goedkoper waarschijnlijk ook.
193
00:10:44,330 --> 00:10:45,420
Goedkoper waarschijnlijk, zeker.
194
00:10:47,580 --> 00:10:52,040
Stel je dingen hebben die echt gaan over diepgaande tekstmodellen bijvoorbeeld.
195
00:10:52,300 --> 00:10:53,820
Dan zou ik voorheen machine learning pakken.
196
00:10:54,030 --> 00:10:55,400
Voor een sentimentanalyse bijvoorbeeld.
197
00:10:56,440 --> 00:11:00,360
En tegenwoordig denk ik toch meer een wat breder model.
198
00:11:01,010 --> 00:11:03,880
Die daar veel meer trainingsdata voor gezien heeft.
199
00:11:04,010 --> 00:11:04,920
En goed mee uit de voeten kan.
200
00:11:05,300 --> 00:11:07,560
Ja, maar eigenlijk zijn het al hele goede criteria wat je zegt.
201
00:11:07,640 --> 00:11:12,179
Dus kosten, eenvoud, onderhoudbaarheid, uitlegbaarheid.
202
00:11:12,790 --> 00:11:18,020
Nou, dat zijn al, ik telde zo al vier criteria die je er zo even uit de mouw schudt.
203
00:11:18,060 --> 00:11:19,800
Je hebt toch een paar mooi aangevuld, maar inderdaad.
204
00:11:21,380 --> 00:11:21,740
Ja.
205
00:11:22,660 --> 00:11:25,400
Maar het blijft altijd een moeilijke vraag, denk ik.
206
00:11:25,540 --> 00:11:28,440
Dus ML waar mogelijk, dus machine learning waar mogelijk.
207
00:11:29,940 --> 00:11:33,400
Maar ook niet schuw om die andere modellen te gebruiken als dat echt veel meer waarde.
208
00:11:33,960 --> 00:11:35,780
Ja, en dan kom ik denk ik ook weer bij die oogkleppen.
209
00:11:36,460 --> 00:11:39,400
Weet je, er is nu zoveel focus op die generatieve AI,
210
00:11:39,800 --> 00:11:43,660
dat er zo snel daarna wordt gekeken, daarna wordt gegrepen.
211
00:11:44,240 --> 00:11:47,780
Dat het jammer af en toe is dat de machine learning vergeten wordt,
212
00:11:48,840 --> 00:11:51,100
omdat die soms ook gewoon krachtiger is.
213
00:11:52,680 --> 00:11:56,480
Ja, en ook specifieker ingezet kan worden voor de vraagstukken die je hebt inderdaad.
214
00:11:56,530 --> 00:11:57,940
Dus van generiek naar specifiek.
215
00:11:58,080 --> 00:12:03,780
Wil je dat reproduceren en wil je die kwaliteit kunnen waarborgen, dan is machine learning daarin gewoon een hele goede toepassing.
216
00:12:04,380 --> 00:12:10,640
Wat ik me afvraag is, je had verteld, wat komt er een beetje voorbereidingen bij kijken voor het maken van zo'n machine learning model.
217
00:12:11,280 --> 00:12:12,900
Maar het model is er. En dan?
218
00:12:14,000 --> 00:12:17,500
Ja, dan krijg je meerdere fases.
219
00:12:18,160 --> 00:12:20,280
Waarbij je natuurlijk eerst gaat kijken van werkt het model goed?
220
00:12:20,620 --> 00:12:24,440
Dus als het goed is heb je al zo'n model gemaakt en getraind en zie je daar een bepaalde score uit komen.
221
00:12:25,020 --> 00:12:26,980
Maar je moet ook kijken, werkt zo'n model in de praktijk?
222
00:12:27,600 --> 00:12:31,080
Vaak heb je daarvoor een datasetje achter de hand gehouden die het model nog nooit gezien heeft.
223
00:12:31,220 --> 00:12:32,180
Een hold-out set heet dat.
224
00:12:32,880 --> 00:12:36,320
Om te kijken van werkt zo'n model goed, maar je gaat het ook toepassen in de praktijk.
225
00:12:36,580 --> 00:12:41,280
Misschien met een kleine casus, misschien iets AB testen.
226
00:12:41,340 --> 00:12:43,480
Dus dat je een oud model en een nieuw model vergelijkt.
227
00:12:44,340 --> 00:12:49,020
Of dat je het gewoon in de praktijk probeert en er zelf misschien nog in de loop zit als mens.
228
00:12:49,780 --> 00:12:52,180
Maar je gaat kijken, werkt zo'n model goed in de praktijk?
229
00:12:52,520 --> 00:12:54,920
Vaak zie je dingen waar het nog niet zo goed in is.
230
00:12:55,620 --> 00:12:56,740
Die kennis neem je weer mee.
231
00:12:57,200 --> 00:12:58,780
Dan ga je eigenlijk weer terug naar de voorkant.
232
00:12:59,420 --> 00:13:00,700
Ga je weer aan het model sleutelen.
233
00:13:01,400 --> 00:13:04,060
Ga je zorgen dat het model hopelijk beter is, valideer je het weer.
234
00:13:04,500 --> 00:13:06,880
Ga je steeds zo'n soort van cyclus door.
235
00:13:07,960 --> 00:13:10,680
Een beetje zo'n MLOps cyclus wordt het ook wel genoemd.
236
00:13:11,480 --> 00:13:15,760
Waar je doorgaat om steeds de kwaliteit van zo'n model te monitoren, dingen uit te leggen, te verbeteren.
237
00:13:15,940 --> 00:13:18,600
Je blijft steeds daar aan sleutelen, het is nooit afgelopen.
238
00:13:18,980 --> 00:13:21,860
Dus continu verbeteren, leren en weer toepassen.
239
00:13:22,240 --> 00:13:22,360
Ja.
240
00:13:22,960 --> 00:13:24,320
Kan je uitleggen wat ML OPS is?
241
00:13:25,020 --> 00:13:26,980
ML OPS staat voor Machine Learning Operations.
242
00:13:27,940 --> 00:13:29,940
En dat is eigenlijk een soort van afgeleide van DevOps.
243
00:13:30,340 --> 00:13:36,120
Dus bij programmeren gaan developers, dev, ook zo'n soort van cyclus door.
244
00:13:36,960 --> 00:13:42,520
En bij ML OPS heb je het eigenlijk over zo'n cyclus van het begin van zo'n machine learning traject.
245
00:13:42,600 --> 00:13:45,180
Van het verzamelen van data en dergelijke en het trainen van zo'n model.
246
00:13:45,420 --> 00:13:50,000
maar ook als een model uitgerold is, de kwaliteit daarvan waarborgen.
247
00:13:50,160 --> 00:13:54,640
Misschien ga je tests implementeren om te checken geautomatiseerd of zo'n model goed werkt.
248
00:13:56,120 --> 00:14:02,440
Vaak zit er ook iets bij aan pipelines om te zorgen dat heel veel dingen automatisch gaan voor de data scientists.
249
00:14:02,900 --> 00:14:06,360
Dus ik ben nu allerlei pipelines aan het bouwen die zorgen dat als er een nieuw model is,
250
00:14:06,420 --> 00:14:08,440
wordt eerst helemaal gecheckt, wordt helemaal door de molen gehaald.
251
00:14:09,080 --> 00:14:12,560
Daarna wordt hij uitgerold naar een acceptatieomgeving.
252
00:14:13,220 --> 00:14:14,760
Daar worden integratietests gedraaid.
253
00:14:14,880 --> 00:14:17,720
Volledig end-to-end flow van het model die doorlopen wordt.
254
00:14:17,880 --> 00:14:19,500
Kijken van, zit dat ook goed in elkaar?
255
00:14:20,300 --> 00:14:21,840
Dan wordt die uitgerold naar productie.
256
00:14:21,980 --> 00:14:25,060
Dan wordt er een rapportje ergens neergezet met de testkwaliteit.
257
00:14:25,540 --> 00:14:29,820
Allemaal dingen die geautomatiseerd zijn om die cyclus, die MLB-cyclus, makkelijk te kunnen doorlopen.
258
00:14:30,860 --> 00:14:34,620
En die cyclus omvalt dan dus trainen, blijven verbeteren, uitleggen enzovoort.
259
00:14:35,240 --> 00:14:37,360
Dus je hebt steeds heel snel feedback.
260
00:14:37,980 --> 00:14:41,440
Ja, en met al die MLB-dingen probeer je zo snel mogelijk die lust door te gaan.
261
00:14:41,660 --> 00:14:46,060
Om dat zo kwalitatief mogelijk hoog te houden allemaal.
262
00:14:47,340 --> 00:14:51,340
Ik was ook nog wel een beetje geprikkeld door de naam van je bedrijf.
263
00:14:51,520 --> 00:14:52,700
Unpredictable.ai.
264
00:14:55,840 --> 00:14:58,580
En voor een gedeelte is dat natuurlijk ook zo.
265
00:14:59,020 --> 00:15:02,720
De uitkomst van AI is ook af en toe onvoorspelbaar.
266
00:15:04,220 --> 00:15:07,860
Hoe zorg je er nou voor dat je...
267
00:15:09,420 --> 00:15:10,860
Laat ik het zo verwoorden.
268
00:15:10,900 --> 00:15:15,720
Hoe stem je eigenlijk met de klant af hoe fout een model mag zijn?
269
00:15:16,600 --> 00:15:17,720
Hoeveel fouten die mag maken?
270
00:15:19,180 --> 00:15:20,520
Dat is altijd een gesprek, denk ik.
271
00:15:20,960 --> 00:15:22,080
Op dit moment doe ik dat niet.
272
00:15:22,190 --> 00:15:25,920
Op dit moment zijn data scientists van de klant waar ik een opdracht doe zelf.
273
00:15:26,120 --> 00:15:28,840
Zijn daarmee bezig en ik faciliteer ze met alles rondom envelop,
274
00:15:29,050 --> 00:15:29,980
zo'n structuur, dat soort dingen.
275
00:15:32,020 --> 00:15:34,820
Maar als ik zoiets zou aangaan, dan zou ik echt een gesprek gaan voeren
276
00:15:34,900 --> 00:15:37,340
en daarmee heel erg kritisch zo'n klant challenge je om te kijken van
277
00:15:37,610 --> 00:15:38,840
wat is nou echt realistisch.
278
00:15:39,500 --> 00:15:43,360
Je kan natuurlijk streven naar we willen 5 negens on accuracy hebben en dergelijke.
279
00:15:43,900 --> 00:15:44,800
Achter de komma bedoel je.
280
00:15:44,900 --> 00:15:48,140
Achter de comma, dat is gewoon echt super precies model.
281
00:15:49,380 --> 00:15:50,260
99,9999.
282
00:15:50,660 --> 00:15:51,360
Precies, ja.
283
00:15:52,080 --> 00:15:54,780
Maar dat hoeft helemaal niet het enige te zijn dat waarde oplevert.
284
00:15:55,080 --> 00:15:59,560
Stel je bent een webwinkel met kleine onderdeeltjes.
285
00:15:59,610 --> 00:16:02,320
Dat is een casus uit mijn studie, daar gingen we een soort van zoekmachine voor maken.
286
00:16:03,180 --> 00:16:08,279
Om te kijken hoe je zo snel mogelijk weet dat een o-ring 5 mm binnen, 6 mm buiten...
287
00:16:08,300 --> 00:16:11,040
naar een bepaald artikel verwijst.
288
00:16:11,620 --> 00:16:15,280
Dan kun je zeggen van we willen daar 100% accuracy hebben.
289
00:16:15,480 --> 00:16:20,940
Zodat iedere zoekopdracht van de klant precies leidt tot het product dat diegene zocht.
290
00:16:21,860 --> 00:16:24,660
Maar stel je geeft vijf zoekresultaten terug en je zit altijd in je top vijf.
291
00:16:24,660 --> 00:16:27,160
Dan heb je het al veel makkelijker voor zijn klant gemaakt om dingen te doen.
292
00:16:27,900 --> 00:16:33,100
Dus dan kan je misschien ook met een accuracy van 70% of top vijf bij zoekopdrachten.
293
00:16:33,410 --> 00:16:34,560
Dat soort dingen ook goed uit de voeten.
294
00:16:35,340 --> 00:16:37,160
En er zijn heel veel dingen die ook gewoon heel veel waarde hebben.
295
00:16:37,320 --> 00:16:38,580
Ook al zijn ze niet 100% goed.
296
00:16:38,730 --> 00:16:39,460
Ze helpen de mens.
297
00:16:39,570 --> 00:16:41,220
Je checkt zelf nog misschien wat laatste dingen.
298
00:16:41,290 --> 00:16:42,440
Je programmeert er iets omheen.
299
00:16:43,920 --> 00:16:45,700
Dus vaak ligt die lat veel lager dan mensen denken.
300
00:16:46,360 --> 00:16:48,240
Dus dan is het echt een kwestie van gesprek aangaan.
301
00:16:48,400 --> 00:16:49,200
En ze daarop wijzen.
302
00:16:49,560 --> 00:16:51,000
Net als met computerbeveiliging.
303
00:16:51,680 --> 00:16:55,140
Men wil ook dat alles dan bijvoorbeeld helemaal perfect beveiligd is.
304
00:16:55,210 --> 00:16:58,100
Of dat systemen volledig redundant zijn uitgevoerd.
305
00:16:58,170 --> 00:17:02,040
Met een uptime van 7, 9's achter de koma enzovoort.
306
00:17:02,660 --> 00:17:03,980
Totdat je ze vertelt hoe duur dat is.
307
00:17:04,089 --> 00:17:05,760
En hoeveel complexiteit dat kost.
308
00:17:05,900 --> 00:17:07,099
En hoeveel werk dat gaat kosten.
309
00:17:07,280 --> 00:17:11,859
En dan zijn opeens de business requirements een stuk meer fluide dan de vooraf leek.
310
00:17:12,500 --> 00:17:13,300
En zo zit het hierbij ook.
311
00:17:13,680 --> 00:17:14,000
Precies.
312
00:17:14,599 --> 00:17:15,700
Dus je moet ze gewoon meenemen daarin.
313
00:17:16,200 --> 00:17:16,260
Ja.
314
00:17:17,920 --> 00:17:19,560
Ja, en de afwegingen daarin maken.
315
00:17:19,560 --> 00:17:23,460
Want ik hoor je kosten zeggen, accuracy, dat soort zaken.
316
00:17:23,460 --> 00:17:26,160
Wat voor afwegingen zitten er zoal in, in die vraagstukken?
317
00:17:26,920 --> 00:17:27,880
Dat zijn een paar goede.
318
00:17:28,780 --> 00:17:31,639
Dus wanneer ga je gewoon de businesswaarde gebruiken.
319
00:17:31,659 --> 00:17:36,120
En hoe lang blijf je doorgaan met nog verder trainen, verbeteren, er geld tegenaan gooien enzovoort.
320
00:17:36,860 --> 00:17:38,840
Kijken of je de casus misschien anders kan framen.
321
00:17:39,450 --> 00:17:42,360
Om te zorgen dat je er sowieso meer waarde uithaalt.
322
00:17:44,539 --> 00:17:45,940
Dus dan heb je dingen met...
323
00:17:46,500 --> 00:17:48,380
Andere is misschien hoeveel dingen ga je zelf doen.
324
00:17:48,500 --> 00:17:50,300
Hoeveel dingen haal je van off-to-shelf modellen.
325
00:17:50,899 --> 00:17:53,380
Dus je kan zelf data scientist ergens opzetten.
326
00:17:53,480 --> 00:17:54,360
Dan heb je die mensen nodig.
327
00:17:54,470 --> 00:17:55,120
Die zijn schaars.
328
00:17:55,700 --> 00:17:57,060
En die gaan dan een model voor je bouwen.
329
00:17:57,840 --> 00:17:59,780
Of je kijkt wat is er off-to-shelf al beschikbaar.
330
00:17:59,880 --> 00:18:02,480
Kunnen we misschien toch iets met een ChatGPT-achtig iets.
331
00:18:02,620 --> 00:18:03,900
Of een ander off-to-shelf model.
332
00:18:04,280 --> 00:18:07,900
Of een product die Automated ML doet.
333
00:18:08,220 --> 00:18:10,220
AutoML, geautomatiseerde machine in de modellen.
334
00:18:11,420 --> 00:18:11,960
Wat is dat?
335
00:18:13,120 --> 00:18:16,980
Eigenlijk zijn dat producten waar je een data set instopt.
336
00:18:16,980 --> 00:18:18,700
Je geeft aan wat je eruit wil hebben.
337
00:18:18,720 --> 00:18:22,380
Dus wat is hetgeen dat voorspeld moet worden.
338
00:18:23,380 --> 00:18:27,480
En je hebt allerlei code die gaat aan de slag om continu een model opnieuw te trainen.
339
00:18:27,640 --> 00:18:31,360
Om te zorgen dat die score uiteindelijk heel goed wordt van hetgeen je wil voorspellen.
340
00:18:31,920 --> 00:18:34,640
Maar je hebt zelf geen invloed meer op wat hij nou precies voor een model bouwt.
341
00:18:35,360 --> 00:18:37,600
Dus je hebt heel veel verschillende type modellen.
342
00:18:38,340 --> 00:18:39,600
En hij pakt gewoon het beste model.
343
00:18:39,760 --> 00:18:41,660
Dat in dit geval toevallig het beste werkt.
344
00:18:41,700 --> 00:18:44,340
Met een bepaalde set parameters die de hoogste score opleveren.
345
00:18:45,260 --> 00:18:50,460
Dus eigenlijk alsof je AI doet of machine learning met wat hulp, wat zijbandjes.
346
00:18:50,660 --> 00:18:52,060
Maar dat werkt vaak heel goed.
347
00:18:52,300 --> 00:18:56,220
Ik heb een keer een hackathon gehad bij een energieleverancier.
348
00:18:57,060 --> 00:18:58,400
En daar had je allemaal data scientists zitten.
349
00:18:58,920 --> 00:19:01,000
Tientallen data scientists die modellen gingen bouwen.
350
00:19:01,260 --> 00:19:04,260
Uiteindelijk won een architect die AutoML gebruikte met een scriptje.
351
00:19:04,820 --> 00:19:06,480
En had hij een CSV'tje ingeknald in een JSON.
352
00:19:07,220 --> 00:19:08,280
En daar kwam de hoogste score uit.
353
00:19:08,400 --> 00:19:12,040
En dan had je al die hele scientists heel druk bezig geweest.
354
00:19:12,260 --> 00:19:16,460
Dan laat je eigenlijk de machine uitzoeken welk algoritme het beste past bij jouw data.
355
00:19:16,460 --> 00:19:17,560
Ja, die gaat gewoon heel veel proberen.
356
00:19:18,720 --> 00:19:20,400
En dat kan verrassend goed werken.
357
00:19:20,920 --> 00:19:24,920
Dus dan moet ik echt wel lachen als je ziet dat iedereen er heel veel tijd in effort in staat.
358
00:19:24,990 --> 00:19:27,260
En uiteindelijk wint iemand die dat geautomatiseerd doet.
359
00:19:27,860 --> 00:19:30,120
Dus daar is helemaal niks mis mee om zo'n model te pakken.
360
00:19:30,220 --> 00:19:31,400
Dat kan juist hartstikke goed werken.
361
00:19:31,640 --> 00:19:31,820
Zeker.
362
00:19:32,740 --> 00:19:34,700
Het ding die me wel afvraagt op dat moment is.
363
00:19:35,160 --> 00:19:37,980
Dat is natuurlijk met die CSV die op dat moment wordt aangeboden.
364
00:19:38,120 --> 00:19:39,160
Daar past het model bij.
365
00:19:39,960 --> 00:19:41,720
Dus als daar wat variatie in gaat komen.
366
00:19:41,790 --> 00:19:43,700
Dan heb je daar denk ik misschien wel meer uitdagingen.
367
00:19:43,800 --> 00:19:46,700
Met andere performance bij zo'n gegenereerd model.
368
00:19:46,820 --> 00:19:48,980
Want het is niet dat hij iedere keer een nieuw model genereert.
369
00:19:49,060 --> 00:19:49,880
Want de output is het model.
370
00:19:50,840 --> 00:19:51,800
De output is het model.
371
00:19:51,930 --> 00:19:53,700
Maar je kan natuurlijk wel zo'n model opnieuw trainen.
372
00:19:53,860 --> 00:19:56,300
Als je CSV zou wijzigen in de handmatige wereld.
373
00:19:56,340 --> 00:19:57,720
Moet je ook opnieuw een model trainen.
374
00:19:59,760 --> 00:20:00,760
Maar je moet wel weten wat je doet.
375
00:20:01,020 --> 00:20:04,700
Dus niet dat je denkt, dan komen we toch weer terug op die business kennis en dat soort zaken.
376
00:20:04,760 --> 00:20:06,940
Je moet wel blijven weten wat je doet.
377
00:20:07,920 --> 00:20:14,020
Ja, en in dat kader, want bij generatieve AI wordt nu gezegd dat je bepaalde vaardigheden moet gaan opdoen.
378
00:20:14,280 --> 00:20:21,760
Zoals dat je prompt engineering moet kunnen, dat je kritisch moet kunnen nadenken, dat je bronnen verifieert.
379
00:20:22,280 --> 00:20:25,920
Wat zijn nou speciale vaardigheden op het gebied van machine learning?
380
00:20:26,840 --> 00:20:29,240
Dan zou ik vooral zeggen het model kunnen uitleggen.
381
00:20:30,239 --> 00:20:31,920
Een model is een soort van blackbox.
382
00:20:32,520 --> 00:20:36,600
Die is allemaal dingen aan het doen onder de motorkap om tot een bepaald antwoord te komen.
383
00:20:37,300 --> 00:20:38,280
Maar ja, wat gebeurt er nou echt?
384
00:20:38,480 --> 00:20:39,840
Naar welke factoren kijkt hij echt?
385
00:20:39,840 --> 00:20:41,400
En is het goed dat hij daarnaar kijkt of niet?
386
00:20:42,320 --> 00:20:44,680
Dus dat zijn allemaal dingen die hebben te maken met uitlegbaarheid.
387
00:20:44,880 --> 00:20:45,640
Explainable AI.
388
00:20:46,940 --> 00:20:49,940
Dat is heel belangrijk om te kijken of er dus wel het goede gebeurt.
389
00:20:50,120 --> 00:20:53,140
En je niet een model hebt die stiekem een heel andere ding aan het kijken is.
390
00:20:54,680 --> 00:20:58,420
Andere is weten wat voor...
391
00:20:58,420 --> 00:21:01,740
En stiekem voor de mensen is niet dat hij...
392
00:21:01,760 --> 00:21:03,500
Het is niet malicious of zoiets.
393
00:21:03,520 --> 00:21:07,200
Nee, toch? Het is uiteindelijk dat je iets traint...
394
00:21:07,859 --> 00:21:10,220
wat niet het juiste resultaat oplevert.
395
00:21:10,400 --> 00:21:14,680
Het is niet dat een machine learning model daadwerkelijk stiekem iets doet.
396
00:21:14,860 --> 00:21:15,240
Nee, nee, nee.
397
00:21:15,900 --> 00:21:19,000
Maar het kan zijn dat hij naar andere factoren kijkt dan je daadwerkelijk zou willen.
398
00:21:19,640 --> 00:21:23,520
Dan kom je ook een beetje bij dingen die met console inference te maken hebben.
399
00:21:23,620 --> 00:21:27,280
Dus met de vraag heb je te maken met causale verbanden of niet.
400
00:21:28,280 --> 00:21:30,440
Dus je hebt ook heel veel van die correlaties erbij.
401
00:21:31,120 --> 00:21:35,300
Ik weet niet veel wat het aantal films waarin, noem eens even iemand,
402
00:21:36,130 --> 00:21:38,440
Jean-Claude van Dalmen zit en het aantal mensen die van een brug springt,
403
00:21:38,440 --> 00:21:39,580
dat daar misschien een correlatie in zit.
404
00:21:40,800 --> 00:21:43,020
Maar dan heb je ook andere verbanden.
405
00:21:43,600 --> 00:21:46,180
Bijvoorbeeld mensen die veel kaviaar eten zijn heel gezond.
406
00:21:46,460 --> 00:21:49,200
En dan kun je denken van, oh we moeten iedereen zes kilo kaviaar per dag geven.
407
00:21:49,320 --> 00:21:52,239
Maar dat komt er dan door dat het vaak mensen zijn met meer geld
408
00:21:52,260 --> 00:21:56,920
die dan vaak ook meer tijd of mogelijkheden of opvoeding hebben, patronen,
409
00:21:57,000 --> 00:21:59,640
om ook meer te gaan sporten en die dat als een beter deel zien van hun leven
410
00:21:59,710 --> 00:22:00,680
en gezond aan het eten zijn.
411
00:22:01,680 --> 00:22:02,800
En dan gaat het meer daarom.
412
00:22:02,940 --> 00:22:06,820
En niet om het feit dat je zes kilo kaviaar per dag je muid door aan het proppen bent.
413
00:22:09,040 --> 00:22:10,480
Dus dat zijn er wel...
414
00:22:10,700 --> 00:22:12,660
Ja, dus dat zijn correlaties.
415
00:22:12,790 --> 00:22:16,840
En je zegt van, ja, daar zoekt eigenlijk de machine op.
416
00:22:17,400 --> 00:22:20,560
Maar je bent op zoek naar causale verbanden, oorzaak en gevolg.
417
00:22:20,580 --> 00:22:23,500
Ja, en zo kan ook zo'n model gewoon de verkeerde afslag nemen.
418
00:22:23,700 --> 00:22:26,740
Dus je moet wel scherp blijven van wat doet een model nou echt.
419
00:22:27,400 --> 00:22:28,740
En zit hij echt naar de goede dingen te kijken.
420
00:22:28,800 --> 00:22:30,220
En is daar causaliteit of niet?
421
00:22:30,780 --> 00:22:31,680
En hoe bepaal je dat?
422
00:22:32,620 --> 00:22:35,020
Ja, dat is nog weer een heel vakgebied aan zich.
423
00:22:35,200 --> 00:22:37,580
Met allerlei tools en dat soort dingen erbij.
424
00:22:38,680 --> 00:22:40,540
Maar dan kom je toch bij allerlei statistische tests.
425
00:22:40,700 --> 00:22:42,160
Om te kijken of er dat soort verbanden zijn.
426
00:22:42,400 --> 00:22:43,400
Of nadenken over dingen.
427
00:22:43,500 --> 00:22:46,760
Want zo met die kaviaar kunnen we zelf in een minuutje uitvogelen.
428
00:22:46,760 --> 00:22:47,820
Dat er iets anders aan de hand is.
429
00:22:48,840 --> 00:22:49,700
Een ander voorbeeld is.
430
00:22:50,680 --> 00:22:52,580
een bedrijf die had een bepaalde tool die ze aanboden
431
00:22:52,700 --> 00:22:54,660
en ze zagen op het moment dat ze een training
432
00:22:54,900 --> 00:22:56,840
gaven over dat product of een training aanboden
433
00:22:57,920 --> 00:22:58,720
dan zeiden
434
00:22:58,720 --> 00:22:59,820
heel veel mensen een abonnement op
435
00:23:00,520 --> 00:23:01,800
die tool, dan denk je ook van nou dat is gek
436
00:23:02,460 --> 00:23:04,520
maar dan ga je even praten en dan blijkt dat zo'n
437
00:23:04,780 --> 00:23:06,540
salesmanager die erbij betrokken is al ziet
438
00:23:06,840 --> 00:23:08,480
dat een klant het product weinig gebruikt
439
00:23:08,500 --> 00:23:10,320
en die bieden dan als last
440
00:23:11,759 --> 00:23:12,560
effort, laatste
441
00:23:12,780 --> 00:23:14,600
poging bieden ze een training aan
442
00:23:15,100 --> 00:23:16,200
dus dan heb je daar ook alweer een enorme
443
00:23:16,460 --> 00:23:18,640
vertekening van je dataset doordat in de echte wereld
444
00:23:18,660 --> 00:23:20,660
de account manager al zag dat het de verkeerde kant op ging.
445
00:23:21,200 --> 00:23:23,080
Dus dan helpt het al gewoon door de organisatie
446
00:23:23,200 --> 00:23:24,680
in te gaan, samen
447
00:23:24,860 --> 00:23:26,640
uit te puzzelen en te denken wat er aan de hand is.
448
00:23:27,040 --> 00:23:28,800
En als je zou vertrouwen op die
449
00:23:28,980 --> 00:23:30,800
uitkomst van die training,
450
00:23:31,220 --> 00:23:32,840
dan stop je met de training.
451
00:23:34,200 --> 00:23:34,560
Dus
452
00:23:35,620 --> 00:23:36,540
zelf blijven kijken
453
00:23:37,220 --> 00:23:38,960
en een hele set aan statistische
454
00:23:39,140 --> 00:23:40,440
test en dat soort zaken om daar
455
00:23:40,920 --> 00:23:41,580
meer kaas van te maken.
456
00:23:43,060 --> 00:23:44,320
Ondanks dat we het hebben over
457
00:23:44,690 --> 00:23:46,640
machine learning, we hebben een kaartspel
458
00:23:46,660 --> 00:23:48,800
over generatieve AI met stellingen.
459
00:23:49,620 --> 00:23:50,580
En daarvan willen we
460
00:23:50,590 --> 00:23:52,480
jou er ook eentje bij voorleggen.
461
00:23:52,700 --> 00:23:54,680
Juist om ook te kijken
462
00:23:54,730 --> 00:23:56,540
van, weet je, hoe denken mensen
463
00:23:56,990 --> 00:23:58,080
over bepaalde onderwerpen?
464
00:24:18,520 --> 00:24:21,540
Ja, en deze keer is het thema ethiek en maatschappij.
465
00:24:21,950 --> 00:24:22,320
O jee.
466
00:24:23,190 --> 00:24:24,440
Ja, komt goed.
467
00:24:25,300 --> 00:24:26,320
En de stelling luidt als volgt.
468
00:24:26,860 --> 00:24:31,680
Organisaties moeten transparant zijn over het gebruik van AI in hun besluitvormingsprocessen.
469
00:24:33,280 --> 00:24:33,880
Goeie vraag.
470
00:24:36,040 --> 00:24:36,500
Een goeie vraag.
471
00:24:37,220 --> 00:24:37,620
Besluitvorming.
472
00:24:39,720 --> 00:24:42,140
Voor een heel groot deel zou ik zeggen, ja daar ben ik het mee eens.
473
00:24:42,200 --> 00:24:46,860
Als het gaat om, er is een hypotheek van iemand afgewezen en diegene wil weten hoe komt dat.
474
00:24:46,940 --> 00:24:49,960
En er blijkt een model achter te zitten of toeslagenaffaire, dat soort zaken.
475
00:24:50,940 --> 00:24:53,180
Ja dan is het fijn om te weten dat er een AI model achter zit.
476
00:24:54,100 --> 00:24:56,620
Als het erom gaat van ga ik zelf een nieuwe computer kopen ja of nee.
477
00:24:56,710 --> 00:24:59,400
En ik heb daarvoor AI gebruikt om die vraag te beantwoorden.
478
00:24:59,520 --> 00:25:01,480
Dan gaat dat de rest van de wereld wat mij betreft niet aan.
479
00:25:03,640 --> 00:25:05,060
Dus het hangt er weer vanaf.
480
00:25:05,780 --> 00:25:07,180
Het standaard flauwe antwoord.
481
00:25:07,780 --> 00:25:09,220
Maar in heel veel gevallen denk ik het wel.
482
00:25:10,560 --> 00:25:16,160
Wij zijn ook bezig met het kaartspel te ontwikkelen in een specifieke versie voor de zorgsector.
483
00:25:17,120 --> 00:25:19,800
En dat doen we ook met het ETZ.
484
00:25:21,220 --> 00:25:22,400
Ziekenhuis uit Tilburg.
485
00:25:23,160 --> 00:25:26,060
Er komt later in een andere podcast wel meer over.
486
00:25:27,400 --> 00:25:30,180
Maar ik wil het dilemma iets groter maken namelijk.
487
00:25:31,300 --> 00:25:38,140
Want daar wordt gekeken van, ja maar wat nou als de arts ter ondersteuning van zijn werk,
488
00:25:39,500 --> 00:25:43,360
dus ter ondersteuning van het besluit nemen, AI zou gebruiken,
489
00:25:44,080 --> 00:25:46,880
vind je dan dat je dat als patiënt zou moeten weten?
490
00:25:48,860 --> 00:25:51,040
Dat vind ik wederom een lastige.
491
00:25:51,680 --> 00:25:57,240
Ergens denk ik van wel, want er wordt AI gebruikt en je wil, daar kunnen altijd fouten gemaakt worden.
492
00:25:57,500 --> 00:26:01,960
Mensen kunnen ook fouten maken, maar je wil dan toch weten dat zoiets gebruikt is.
493
00:26:02,660 --> 00:26:06,540
Omdat zo'n model er misschien naast kan zitten en je dat moet rapporteren en dan misschien iets gaat gebeuren.
494
00:26:08,000 --> 00:26:13,120
Maar aan de andere kant is het gewoon een tool die iemand gebruikt en die dingen makkelijker kan maken.
495
00:26:13,220 --> 00:26:17,120
Iemand heeft nu ook ondersteuning in tal van dingen of iemand vraagt misschien aan een collega iets of wat dan ook.
496
00:26:18,300 --> 00:26:21,280
En zolang iemand zelf daarvoor verantwoordelijk blijft.
497
00:26:21,400 --> 00:26:26,200
En zelf met goed vertrouwen de laatste beslissing blijft maken.
498
00:26:27,500 --> 00:26:30,280
Dan vind ik ook wel dat die verantwoordelijkheid voor een deel bij die persoon ligt.
499
00:26:30,500 --> 00:26:33,560
En dat het niet per se gedeeld hoeft te worden.
500
00:26:34,020 --> 00:26:35,000
Ik ga hem nog lastiger maken.
501
00:26:35,640 --> 00:26:36,980
Ik ga hem nog lastiger maken.
502
00:26:38,080 --> 00:26:39,120
Laten we het met z'n drieën doen.
503
00:26:39,400 --> 00:26:40,300
Want het gaat niet alleen om jou.
504
00:26:43,520 --> 00:26:47,620
Want een zoekmachine gebruikt machine learning.
505
00:26:48,320 --> 00:26:49,080
onderdeel van AI.
506
00:26:50,620 --> 00:26:52,000
Dus de arts
507
00:26:52,000 --> 00:26:52,600
die heeft
508
00:26:53,860 --> 00:26:54,600
of dat zeg maar
509
00:26:55,680 --> 00:26:57,720
opgezocht in een intern systeem
510
00:26:58,320 --> 00:26:59,120
of opgezocht
511
00:26:59,800 --> 00:27:00,640
met Google,
512
00:27:01,560 --> 00:27:02,520
zou die dat dan moeten
513
00:27:03,520 --> 00:27:05,260
en de uitkomsten daarvan,
514
00:27:05,380 --> 00:27:06,360
ze heeft die dingen gelezen,
515
00:27:07,680 --> 00:27:09,640
moet die dan gaan aangeven
516
00:27:10,360 --> 00:27:11,800
dat AI onderdeel
517
00:27:11,960 --> 00:27:13,420
geweest is van een besluitvormingsproces.
518
00:27:13,660 --> 00:27:14,800
Omdat die wat opgezocht heeft.
519
00:27:15,480 --> 00:27:17,000
Kijk, wat ik,
520
00:27:17,280 --> 00:27:18,660
Als je het mij persoonlijk vraagt.
521
00:27:19,380 --> 00:27:20,300
Ik hoorde de vraag ook net.
522
00:27:20,500 --> 00:27:22,020
Dus we waren dood nog aan het processen.
523
00:27:22,120 --> 00:27:23,600
Maar voor mij is het denk ik van belang.
524
00:27:24,640 --> 00:27:25,520
Om A. te weten.
525
00:27:26,180 --> 00:27:28,020
Hoe doet het advies het?
526
00:27:28,560 --> 00:27:29,600
Dus hoeveel ervaring heeft hij?
527
00:27:29,760 --> 00:27:31,960
En zijn er hulpmiddelen die hij in terecht gebruikt?
528
00:27:32,340 --> 00:27:34,080
Maar hoe is hij gekomen tot de beslissing?
529
00:27:34,160 --> 00:27:37,180
Wat waren belangrijke factoren die hij heeft afgewogen?
530
00:27:37,840 --> 00:27:38,860
Om tot het besluit te komen?
531
00:27:38,890 --> 00:27:39,920
Dat zou ik interessant vinden.
532
00:27:40,040 --> 00:27:41,560
Zou ik in ieder geval als het over de gezondheidszorg.
533
00:27:41,630 --> 00:27:43,040
In mijn dossier terug willen zien.
534
00:27:43,680 --> 00:27:45,680
Ik heb tools gebruikt.
535
00:27:45,740 --> 00:27:47,000
Tools kan van alles zijn.
536
00:27:47,460 --> 00:27:53,980
Maar wat zijn nou voor mij echt belangrijke factoren die zijn van essentieel belang geweest waarom ik deze keuze gemaakt heb?
537
00:27:54,310 --> 00:27:56,740
En hoe je dan komt tot die essentiële onderdelen?
538
00:27:56,740 --> 00:27:59,880
Ja, dat vind ik interessant omdat ik van de data en de proces erachter hou.
539
00:28:00,320 --> 00:28:02,120
Maar ik denk dat dat voor veel mensen teveel gaat zijn.
540
00:28:02,800 --> 00:28:05,140
Maar wel op welke richtingen, welke afslagen zijn er genomen?
541
00:28:05,700 --> 00:28:10,200
Maar zeg je dan wel wanneer bijvoorbeeld bij een CT-scan, stel je bent radioloog,
542
00:28:11,080 --> 00:28:17,000
dat een AI-model daarbij geholpen heeft om een beslissing te maken en niet bij een zoekopdracht.
543
00:28:17,180 --> 00:28:18,920
Of zeg je daarbij ook, waar ligt die grens?
544
00:28:19,700 --> 00:28:20,380
Ja, dat is een goeie.
545
00:28:22,740 --> 00:28:24,440
AI is een technisch hulpmiddel.
546
00:28:25,980 --> 00:28:29,900
En daarvoor hadden we misschien ook wel heel veel mensen die ernaar keken waar ook de fouten in zitten.
547
00:28:30,800 --> 00:28:33,500
Dus ik zou dan meer de uitkomst willen weten en hoe is het proces geweest.
548
00:28:33,540 --> 00:28:38,620
Maar dat is eigenlijk meer om vertrouwen te krijgen, merk ik zelf nu ik het zo uitspreek,
549
00:28:39,660 --> 00:28:43,640
dan echt een nut en noodzaak voor die beslissing.
550
00:28:44,660 --> 00:28:45,180
En jij Joop?
551
00:28:46,000 --> 00:28:52,040
Nou kijk, als het gaat om daadwerkelijk besluiten die mij raken als patiënt.
552
00:28:52,220 --> 00:28:56,480
Volgens mij moeten ze dan aan allerlei regelgeving voldoen.
553
00:28:56,660 --> 00:28:59,540
Dus dan heb je het over de medical device regulation.
554
00:29:00,420 --> 00:29:05,480
En daar is eigenlijk volgens mij dan zeg maar in afgedekt.
555
00:29:06,760 --> 00:29:08,680
Daar zou je dan het vertrouwen in moeten hebben.
556
00:29:09,160 --> 00:29:15,460
En maakt het mij zelf niet zoveel uit welke bronnen en hoe iemand tot een besluit is gekomen.
557
00:29:16,500 --> 00:29:17,160
als hij het maar aan mij
558
00:29:19,180 --> 00:29:20,540
heel duidelijk kan uitleggen
559
00:29:21,820 --> 00:29:22,980
waarom het op mij past
560
00:29:23,140 --> 00:29:24,720
en waarom het een goed idee is
561
00:29:25,040 --> 00:29:26,540
om met dat besluit verder te gaan.
562
00:29:26,920 --> 00:29:28,440
Dat zijn die punten die ik bedoel.
563
00:29:28,870 --> 00:29:30,000
Wat zijn dan die beslissingen?
564
00:29:30,570 --> 00:29:33,040
Maar ik hoef niet te weten of het met AI gedaan is of niet.
565
00:29:33,700 --> 00:29:33,800
Nee.
566
00:29:35,120 --> 00:29:36,860
Ik zou het zelf op z'n minst interessant vinden.
567
00:29:36,990 --> 00:29:38,120
Ja, dat is wat anders.
568
00:29:38,920 --> 00:29:39,740
Dat vind ik ook.
569
00:29:40,360 --> 00:29:42,440
Uiteindelijk vind ik dat een mens verantwoordelijk blijft
570
00:29:42,800 --> 00:29:43,560
voor alle beslissingen.
571
00:29:44,180 --> 00:29:46,860
Maar ik zou het wel heel interessant vinden om te weten hoe dingen zitten.
572
00:29:47,200 --> 00:29:49,860
Ik zou het misschien wel willen weten, want als het niet in overweging is genomen,
573
00:29:50,460 --> 00:29:52,360
die technologie die misschien wel enorm kan helpen,
574
00:29:52,460 --> 00:29:54,700
dat het juist zoiets is van, maar waarom niet?
575
00:29:55,840 --> 00:29:56,580
Als een mond draaien.
576
00:29:58,700 --> 00:30:01,160
Wat je eigenlijk tegen de radioloog gaat zeggen van, joh, ik heb hier een model.
577
00:30:01,800 --> 00:30:06,300
Maar waarom wordt deze technologie nog niet ingezet om dit soort ondersteuning te doen?
578
00:30:06,720 --> 00:30:10,940
Als we dat dan nou doortrekken naar jouw sector, waar je nu in bezig bent, die energie sector.
579
00:30:11,540 --> 00:30:19,720
Waar is het eigenlijk misschien wel bizar dat er nog geen AI machine learning gebruikt wordt?
580
00:30:21,000 --> 00:30:22,540
Ik wil geen collega's voor de voeten schoppen.
581
00:30:22,560 --> 00:30:26,800
Maar je hebt heel veel dingen die nog handmatig gebeuren bij bedrijven.
582
00:30:27,040 --> 00:30:28,460
En dat is niet uniek per bedrijf.
583
00:30:28,460 --> 00:30:30,940
Maar heel veel mensen die handmatig waardes aan het checken zijn.
584
00:30:31,040 --> 00:30:33,480
Die handmatig andere dingen aan het checken zijn.
585
00:30:34,620 --> 00:30:36,620
Heel veel dat gewoon handmatig gebeurt.
586
00:30:37,200 --> 00:30:39,940
Waarvan ik denk, daar kan AI supergoed in assisteren.
587
00:30:39,980 --> 00:30:43,680
en je daar misschien de outliers in meegeven of een rapportje van dingen,
588
00:30:43,790 --> 00:30:46,220
dat je daar zelf nog de laatste hamerslag op geeft.
589
00:30:46,920 --> 00:30:50,420
Maar heel veel dingen die gewoon in die zin weggeautomatiseerd kunnen worden.
590
00:30:51,760 --> 00:30:53,860
Veel dingen die ook logisch zijn, dus als je kijkt naar die forecast,
591
00:30:54,290 --> 00:30:56,860
dan gaan mensen ook nog zelf even kijken met hun eigen pet op.
592
00:30:57,320 --> 00:31:00,820
Ja, maar hier zit het model misschien naast, want het is weer een bepaalde feestdag
593
00:31:00,940 --> 00:31:02,220
en die is niet iedere vijf jaar.
594
00:31:02,450 --> 00:31:05,980
Of we weten dat een centrale toevallig uit is voor onderhoud, dat soort dingen.
595
00:31:06,620 --> 00:31:09,220
Maar heel veel dingen kunnen gewoon geautomatiseerd worden.
596
00:31:09,420 --> 00:31:10,400
En dat gebeurt niet genoeg.
597
00:31:10,980 --> 00:31:21,620
Heb ik ook, dat is dan akelig specifiek, maar bij een zeker energiebedrijf de afdeling die mij als IT'er moet helpen om dingen binnen de grote organisatie en groepen regel te krijgen.
598
00:31:23,140 --> 00:31:26,660
Daar ben ik niet altijd even enthousiast over.
599
00:31:27,960 --> 00:31:33,320
Omdat het gaat om een loket en die gaat bij andere loketjes weer informatie aanleveren.
600
00:31:33,320 --> 00:31:37,820
Maar ik moet eigenlijk al weten wat ze bij het laatste loketje moeten hebben om bij dat eerste loketje een aanvraag te kunnen doen.
601
00:31:37,900 --> 00:31:39,860
Laten ze mij helpen om dat samen in te vullen.
602
00:31:40,800 --> 00:31:41,380
Dat denk ik ook.
603
00:31:42,080 --> 00:31:44,040
Daar kan AI best wel flink in helpen.
604
00:31:44,040 --> 00:31:45,220
Om daar dingen in te verbeteren.
605
00:31:46,320 --> 00:31:47,300
Zo niet te vervangen.
606
00:31:48,520 --> 00:31:49,760
Maar ik moet mensen te vriend houden.
607
00:31:51,100 --> 00:31:53,020
Nee, maar procesoptimalisatie hoor ik hier.
608
00:31:53,860 --> 00:31:54,640
Ja, dat is mooi verwoord.
609
00:31:55,879 --> 00:31:56,860
Dat helpt enorm.
610
00:31:57,620 --> 00:32:02,340
En wat in je huidige werk hoop je dat dat nooit vervangen gaat worden door AI?
611
00:32:03,400 --> 00:32:06,120
Ik hoop zelf nog in een forum een eigen baan te houden.
612
00:32:06,860 --> 00:32:08,460
Dat is ik me soms ook heel erg af te vragen.
613
00:32:09,200 --> 00:32:09,860
Maar dat kan alles zijn.
614
00:32:10,000 --> 00:32:12,820
Dat kan ook zijn het aanvegen van de straat.
615
00:32:13,140 --> 00:32:13,500
Kan ook.
616
00:32:13,650 --> 00:32:17,840
Of we in de mijn op zoek gaan naar mineralen die nodig zijn om chips te bouwen.
617
00:32:17,920 --> 00:32:18,560
Het kan van alles zijn.
618
00:32:19,340 --> 00:32:21,820
Maar even afhankelijk van hoe ver je hem dystopisch doortrekt.
619
00:32:22,800 --> 00:32:26,580
Maar ik zou het leuk vonden om iets van werk te hebben en dingen te kunnen doen.
620
00:32:26,740 --> 00:32:29,900
En zelf nog een soort van menselijke expertise te kunnen hebben ergens over.
621
00:32:30,140 --> 00:32:31,160
En mee te kunnen sparren.
622
00:32:31,170 --> 00:32:33,120
En niet blind te volgen wat er uit modellen komt.
623
00:32:33,780 --> 00:32:35,060
En daar volledig op te vertrouwen.
624
00:32:35,620 --> 00:32:37,660
En zelf nog die set ogen zijn.
625
00:32:38,100 --> 00:32:40,200
En die hersenen om goede beslissingen te maken.
626
00:32:40,350 --> 00:32:41,440
En klanten daarbij te helpen.
627
00:32:42,080 --> 00:32:43,180
Welke risico's zie je erin?
628
00:32:43,250 --> 00:32:46,820
Als mensen het wel gewoon volledig op de uitkomst van een model aan de slag gaan?
629
00:32:46,900 --> 00:32:48,020
Een model heeft het niet per se goed.
630
00:32:48,020 --> 00:32:50,300
Dus je kan volledig de plank misslaan natuurlijk.
631
00:32:51,340 --> 00:32:54,140
Het kan ook zijn dat je zelf helemaal niet meer creatief bent daardoor.
632
00:32:54,150 --> 00:32:56,440
Als je altijd maar volgt wat er uit een model komt.
633
00:32:56,600 --> 00:32:58,360
Dat je een soort van slaaf wordt van het model.
634
00:32:59,140 --> 00:33:01,640
Maar dan wel met een hart en hersenen en dat soort zaken.
635
00:33:03,560 --> 00:33:04,800
Je moet zelf gewoon heel kritisch blijven.
636
00:33:05,300 --> 00:33:09,880
Er worden fouten gemaakt en er wordt je een bepaalde set aan opties gegeven.
637
00:33:10,760 --> 00:33:15,000
Stel je zou volledig leven in je Netflix, YouTube, Spotify filterbubbel.
638
00:33:15,120 --> 00:33:16,460
Dan zie je altijd alleen maar de recommendations.
639
00:33:17,540 --> 00:33:21,100
Dan ben je altijd maar de TikTok feed aan het swipen die je toegewezen krijgt.
640
00:33:21,140 --> 00:33:25,660
Dan heb je zelf helemaal geen initiatief of autonomie meer over de dingen die je aan het doen bent.
641
00:33:26,240 --> 00:33:33,220
En als je klakkeloos alle generalistische AI-modellen gaat volgen, dan zie ik dat wel als een grote valkuil.
642
00:33:34,080 --> 00:33:42,260
Dat je zelf niet meer nadenkt, maar volledig eigenlijk een pionnetje bent van de AI bedrijven, van de andere tech corporates en je daar maar in meegaat.
643
00:33:42,700 --> 00:33:47,240
Ik zie daar wel een relatie met ML Ops, het vertrouwen van het model, maar het toetsen van het model.
644
00:33:50,260 --> 00:33:54,320
Wat voor karakteristieken neem je mee in het geautomatiseerd testen van de machine learning modellen die je maakt?
645
00:33:54,400 --> 00:33:58,440
Want daar moet je ook kritisch zijn, is het beter, is het niet beter? Wat komt daar zo al bij kijken?
646
00:33:59,820 --> 00:34:00,580
Ja, meerdere dingen.
647
00:34:00,880 --> 00:34:02,480
Voor een groot deel gewoon op software niveau.
648
00:34:02,770 --> 00:34:03,160
Alle tests.
649
00:34:03,540 --> 00:34:04,240
Werken daar dingen?
650
00:34:04,400 --> 00:34:05,460
Werken al je integraties?
651
00:34:06,480 --> 00:34:09,060
Maar qua model komen er voorspellingen uit.
652
00:34:09,340 --> 00:34:10,920
Die gegeven een vaste dataset.
653
00:34:11,860 --> 00:34:13,940
En nog binnen de bandbreedte zitten die je meegegeven hebt.
654
00:34:14,060 --> 00:34:17,580
Dus je ziet het er vrij sensible uit wat er uit een model komt.
655
00:34:17,699 --> 00:34:19,659
Zijn er niet opeens grote outliers die ontstaan.
656
00:34:20,659 --> 00:34:22,800
Als een model altijd een waarde van 6 voorspelt.
657
00:34:22,940 --> 00:34:24,820
En op een andere dag opeens min 2.
658
00:34:25,060 --> 00:34:26,560
Dan is er toch iets aan de hand.
659
00:34:26,820 --> 00:34:27,900
Dus dan moet er een alarmbel afgaan.
660
00:34:27,900 --> 00:34:29,179
Dan moet je kijken wat er aan de hand is.
661
00:34:30,199 --> 00:34:31,800
Dus dat soort dingen geef je mee.
662
00:34:32,360 --> 00:34:36,920
Dus de technische dingen en de modelperformance criteria.
663
00:34:37,760 --> 00:34:39,440
Dan hoop je dat daar zinnige dingen uitkomen.
664
00:34:39,900 --> 00:34:41,400
En de uitlegbaarheid moet je zelf maar naar kijken.
665
00:34:41,739 --> 00:34:47,040
En dat is ten tijde van het model verder opbouwen, testen en dat soort zaken.
666
00:34:47,079 --> 00:34:49,739
Maar in productie, het model wordt gebruikt.
667
00:34:50,579 --> 00:34:51,500
Monitor je dat dan ook continu?
668
00:34:53,420 --> 00:34:54,420
Zeker, ja zeker.
669
00:34:54,659 --> 00:34:57,579
Dus bij de teams waar ik nu dingen voor doe,
670
00:34:58,020 --> 00:35:01,599
Dan heb je iedere dag wel iets van een stand-up of een daily, dat soort dingen.
671
00:35:01,960 --> 00:35:03,680
Eerst gaat het P&L-bord erop.
672
00:35:04,359 --> 00:35:04,599
Wat dat?
673
00:35:04,599 --> 00:35:05,379
De profit en loss.
674
00:35:05,680 --> 00:35:07,020
En dan zie je van, gaat het goed?
675
00:35:07,240 --> 00:35:07,940
Werkt het model goed?
676
00:35:08,780 --> 00:35:09,660
Je doet voorspellingen.
677
00:35:09,839 --> 00:35:12,000
Je weet al wat er daadwerkelijk gebeurd is.
678
00:35:12,220 --> 00:35:13,859
Een dag later, twee dagen later, wat dan ook.
679
00:35:14,579 --> 00:35:17,260
En dan kun je gewoon zien van hoe goed waren we aan het performen.
680
00:35:18,339 --> 00:35:20,700
Waren de voorspellingen goed of zien we opeens een grote afwijking?
681
00:35:21,060 --> 00:35:21,859
En dat kan van alles zijn.
682
00:35:21,960 --> 00:35:24,960
Het kan zijn dat er opeens iets bij de weerdataprovider mis is.
683
00:35:25,480 --> 00:35:28,400
En dat je op een snel een andere weerdataprovider moet gebruiken.
684
00:35:28,440 --> 00:35:28,880
Dat gebeurt.
685
00:35:29,660 --> 00:35:31,460
En dan zie je dat heel snel als je op die bal blijft zitten.
686
00:35:32,500 --> 00:35:35,720
Of dat je bent aan het sturen met zonneparken.
687
00:35:36,000 --> 00:35:38,300
Dus gewoon zon, windparken en dergelijke die je aanstuurt.
688
00:35:38,900 --> 00:35:41,720
En je ziet er opeens een heel grote piek of een heel groot dal.
689
00:35:41,860 --> 00:35:43,060
Dan is er misschien iets mis met een sensor.
690
00:35:43,400 --> 00:35:45,920
Of er is misschien iets van onderhoud dat plaatsvindt.
691
00:35:46,560 --> 00:35:50,000
Of er is iets anders aan de hand waar je snel op moet ingrijpen en dingen moet aanpassen.
692
00:35:50,820 --> 00:35:52,680
Dus ja, zeker. Die dingen worden gemonitord.
693
00:35:53,180 --> 00:35:56,300
Juist om te zien of ze goed blijven werken of dat er aanpassingen gemaakt moeten worden.
694
00:35:57,280 --> 00:36:03,900
En doordat het goed gemonitord wordt, zijn er al heel wat dingen die heel erg mis hadden kunnen lopen, heel goed voorkomen.
695
00:36:05,680 --> 00:36:09,140
En heb je ook te maken met fairness, barriers?
696
00:36:09,980 --> 00:36:13,880
Dat je daar op moet letten bij het maken van die modellen?
697
00:36:14,420 --> 00:36:17,320
In mijn projecten in de energiesector niet.
698
00:36:18,420 --> 00:36:20,500
In andere situaties zou je dat natuurlijk wel hebben.
699
00:36:20,960 --> 00:36:22,740
Als je bijvoorbeeld in de zorg zou zitten.
700
00:36:23,200 --> 00:36:24,780
Is dat misschien al iets dat sneller voorbij komt.
701
00:36:25,440 --> 00:36:26,800
Of wanneer je hypotheken verstrekt.
702
00:36:26,880 --> 00:36:27,700
Leningen verstrekt.
703
00:36:29,260 --> 00:36:30,960
Dingen doet rondom uitkeringen.
704
00:36:32,420 --> 00:36:34,400
Dan is het veel logischer om daar dingen mee te doen.
705
00:36:34,920 --> 00:36:36,120
In dit geval eigenlijk niet.
706
00:36:37,160 --> 00:36:38,860
Allemaal gewoon dingen met machine data.
707
00:36:39,880 --> 00:36:40,360
Medata.
708
00:36:41,140 --> 00:36:41,600
Dat soort dingen.
709
00:36:42,460 --> 00:36:42,880
Duidelijk.
710
00:36:44,260 --> 00:36:45,520
We zijn eigenlijk ook wel benieuwd.
711
00:36:45,600 --> 00:36:48,160
Dat als je helemaal vrij zou mogen denken.
712
00:36:48,860 --> 00:36:50,620
Wat jouw ultieme droom zou zijn.
713
00:36:50,900 --> 00:36:53,200
wat AI zou kunnen betekenen voor jezelf.
714
00:36:53,640 --> 00:36:55,340
Of misschien voor de maatschappij.
715
00:36:55,500 --> 00:36:56,700
Of misschien voor anderen.
716
00:36:57,440 --> 00:36:59,540
En dan geven we je eventjes wat de denktijd.
717
00:37:14,580 --> 00:37:15,560
Ja, eigenlijk weet ik hem wel.
718
00:37:16,180 --> 00:37:19,900
Want het is iets wat ik jaren geleden ook al had, dat idee.
719
00:37:20,500 --> 00:37:21,840
En toen leek het volledig onhaalbaar.
720
00:37:21,980 --> 00:37:23,860
En nu is het opeens super haalbaar.
721
00:37:23,880 --> 00:37:24,480
Oh, interessant.
722
00:37:24,850 --> 00:37:26,140
Maar dat zit wel een beetje in de clichés.
723
00:37:26,150 --> 00:37:28,280
Dus dat gaat toch de AGI kant op.
724
00:37:28,620 --> 00:37:32,800
Het hebben van een persoonlijk assistent die business cases kan bedenken, kan uitwerken.
725
00:37:33,360 --> 00:37:37,640
Die bedrijfjes kan managen met honderden agents eronder die allemaal dingen aan het doen zijn.
726
00:37:38,920 --> 00:37:40,160
Toch de one man unicorn.
727
00:37:41,940 --> 00:37:44,020
Zonder te focussen op het geld erbij.
728
00:37:44,160 --> 00:37:49,480
Maar in je eentje echt wel veel impact kunnen maken door een gaaf bedrijf met gave producten.
729
00:37:50,160 --> 00:37:50,920
Dat ze dingen op te zetten.
730
00:37:51,360 --> 00:37:53,620
Maar dan dingen volledig AI geautomatiseerd.
731
00:37:53,960 --> 00:37:55,020
In mijn auto zitten.
732
00:37:55,380 --> 00:37:56,620
Lekker sparren met AI.
733
00:37:56,780 --> 00:37:58,140
Dus AI als sparringspartner.
734
00:37:58,780 --> 00:38:02,040
Echt volledig de AGI kant.
735
00:38:02,420 --> 00:38:05,040
Hoe moet ik dat zien met de straks zijde van.
736
00:38:05,240 --> 00:38:06,760
Ik wil nog wel werken.
737
00:38:07,300 --> 00:38:08,200
En nu zeg je ja.
738
00:38:08,420 --> 00:38:09,140
Je hebt een andere rol.
739
00:38:09,280 --> 00:38:11,760
Je bent minder de techneut die bezig is.
740
00:38:12,020 --> 00:38:14,620
En misschien meer de baas van een bedrijf.
741
00:38:14,860 --> 00:38:17,500
Die een legertje AI agents aan het handen sturen is.
742
00:38:18,200 --> 00:38:19,980
Met samen je AI sparringspartner.
743
00:38:20,100 --> 00:38:21,900
aan je zijde. Een beetje als in de film Heur, dat
744
00:38:22,060 --> 00:38:23,560
iemand een relatie opbouwt met
745
00:38:23,900 --> 00:38:26,020
in wezen Siri. Maar dat je
746
00:38:26,020 --> 00:38:27,780
op zo'n manier ermee aan het sparren bent.
747
00:38:27,860 --> 00:38:30,120
Nadenken, wat kunnen we doen? Zie je nog gave business opportunities?
748
00:38:30,340 --> 00:38:31,180
Oké, bouw maar.
749
00:38:32,140 --> 00:38:33,560
Hier heb je mijn creditcard. Ga maar doen.
750
00:38:34,360 --> 00:38:35,000
Toch een beetje die kant.
751
00:38:35,940 --> 00:38:38,080
De keerzijde is, als het dubbeltje de andere kant opvalt,
752
00:38:38,160 --> 00:38:39,640
dan kom je in een volledige dystopie terecht.
753
00:38:39,880 --> 00:38:42,020
En hebben wij geen baan meer. En wat voegen we dan nog toe?
754
00:38:42,160 --> 00:38:43,920
Omdat AI alle white collar jobs,
755
00:38:44,020 --> 00:38:45,860
alle kantoorbanen, makkelijk kan
756
00:38:46,240 --> 00:38:47,299
automatiseren. Of met een
757
00:38:47,820 --> 00:38:50,480
een generalistisch model heel makkelijk specifieke modellen kan maken.
758
00:38:50,580 --> 00:38:51,980
Of features en daar dingen mee doen.
759
00:38:52,960 --> 00:38:54,860
Ook een scenario waarbij ik denk van...
760
00:38:54,860 --> 00:38:55,720
Of een ander scenario.
761
00:38:56,460 --> 00:39:00,060
Het is nu heel makkelijk geworden om een of andere gave start-up te bedenken.
762
00:39:00,180 --> 00:39:01,460
Misschien een soort van wrapper.
763
00:39:01,680 --> 00:39:04,120
Een laagje om Chagip-T-achtige modellen heen.
764
00:39:04,640 --> 00:39:05,320
Maar dat kunnen anderen ook.
765
00:39:05,960 --> 00:39:08,980
Dus als ik nu denk, ik kan nu heel makkelijk een tool maken...
766
00:39:08,980 --> 00:39:14,280
die architecten helpt om samen de architectuur over een project te brainstormen.
767
00:39:14,280 --> 00:39:14,940
En alles te helpen.
768
00:39:15,040 --> 00:39:15,960
Vastleggen en documentatie.
769
00:39:15,990 --> 00:39:16,720
Kan ik nu bouwen?
770
00:39:17,140 --> 00:39:18,180
Dus dat is gedemocratiseerd.
771
00:39:18,760 --> 00:39:19,340
Maar dat kan iedereen.
772
00:39:19,520 --> 00:39:21,140
Dus wat is dan nog mijn unique selling point?
773
00:39:22,680 --> 00:39:24,040
Blijven wij dan wel in controle?
774
00:39:24,140 --> 00:39:28,500
Of zijn het toch de Antropic, de OpenAI en de andere techbedrijven...
775
00:39:28,500 --> 00:39:29,980
die daar nu marktleider in zijn...
776
00:39:30,260 --> 00:39:34,320
die uiteindelijk daar de zak met geld mee vangen en in controle blijven?
777
00:39:35,060 --> 00:39:40,020
Waarbij wij als mensheid verder toch een beetje het onderspit delven.
778
00:39:40,020 --> 00:39:41,220
Dus ik vind het echt...
779
00:39:41,860 --> 00:39:43,680
Het kan alle kanten op gaan en ik weet het niet.
780
00:39:44,080 --> 00:39:46,680
En de ene half van mijn hoofd zit in de dystopische modus.
781
00:39:46,820 --> 00:39:48,860
En de andere denkt, we kunnen nu allemaal super gaaf.
782
00:39:50,080 --> 00:39:50,580
Ik weet het niet.
783
00:39:50,660 --> 00:39:51,760
Maar ik zou het zelf heel vet vinden.
784
00:39:52,060 --> 00:39:55,220
Om toch volledig AI assistenten om me heen te hebben.
785
00:39:55,860 --> 00:39:57,420
Die ook echt dingen kunnen uitwerken.
786
00:39:58,240 --> 00:40:02,360
Volledig de agent modus inslaan.
787
00:40:03,300 --> 00:40:05,480
Dat ik zelf duizend van die AI's heb zitten.
788
00:40:05,600 --> 00:40:06,560
In een mixture of experts.
789
00:40:06,600 --> 00:40:08,260
Die allemaal gave dingen aan het doen zijn.
790
00:40:10,800 --> 00:40:12,100
Een beetje een goed cliché.
791
00:40:13,360 --> 00:40:13,940
Hartstikke goed.
792
00:40:14,100 --> 00:40:16,260
Het is jouw droom.
793
00:40:17,760 --> 00:40:24,300
Welke ontwikkelingen vind je hoopvol of zorgwekkend op het gebied van AI en de energiesector?
794
00:40:25,960 --> 00:40:28,780
Alle dingen die op de hele maatschappij van toepassing zijn, dat sowieso.
795
00:40:29,780 --> 00:40:35,440
Maar verder in de energiesector vind ik het heel hoopvol dat er steeds meer geautomatiseerd en voorspeld kan worden.
796
00:40:36,140 --> 00:40:41,760
Als je kijkt naar de uitdagingen binnen het energienet nu, dan heb je dingen als netcongestie, veel meer duurzame energie.
797
00:40:41,980 --> 00:40:45,700
Maar die zorgt ook weer natuurlijk voor grilligere opwekpatronen.
798
00:40:45,800 --> 00:40:47,320
Want alleen als je zon hebt, heb je stroom.
799
00:40:47,450 --> 00:40:48,540
Of als je wind hebt, heb je stroom.
800
00:40:48,590 --> 00:40:49,100
Dat soort zaken.
801
00:40:50,019 --> 00:40:51,900
Net congestie is dat...
802
00:40:52,060 --> 00:40:53,480
Het net zit vol qua capaciteit.
803
00:40:53,750 --> 00:40:55,120
En je moet er slimmer mee omgaan.
804
00:40:55,170 --> 00:40:58,280
Om toch te zorgen dat het net in balans blijft.
805
00:40:58,480 --> 00:40:59,440
Dus dat er stroom is voor iedereen.
806
00:40:59,980 --> 00:41:01,200
En dat we dat kunnen gebruiken.
807
00:41:01,390 --> 00:41:05,340
Dus dat betekent keuzes maken voor het wel terug kunnen leveren van de zonnepanelen.
808
00:41:05,390 --> 00:41:09,760
Maar ook mensen geen stroom kunnen leveren om andere dingen wel stroom te faciliteren.
809
00:41:09,760 --> 00:41:12,420
Bijvoorbeeld of op momenten misschien een batterij in een wijk gaan opladen.
810
00:41:12,540 --> 00:41:13,700
Of een springveer indrukken.
811
00:41:13,960 --> 00:41:15,840
Of wat waterstofgas van overproductie maken.
812
00:41:15,980 --> 00:41:17,320
Dus tig dingen die je kan doen.
813
00:41:18,040 --> 00:41:22,300
Maar allemaal dingen die zorgen dat we een veel slimmer energienet moeten krijgen.
814
00:41:23,040 --> 00:41:25,340
En bij dat slimme kan AI heel erg helpen.
815
00:41:26,100 --> 00:41:30,620
Dus dat je over het hele land heen of juist per regio, per wijk gaat kijken.
816
00:41:30,880 --> 00:41:32,700
Waar moeten we energie instoppen?
817
00:41:32,730 --> 00:41:33,840
Waar moeten we energie uithalen?
818
00:41:33,900 --> 00:41:35,220
Welke energie moeten we opslaan?
819
00:41:35,880 --> 00:41:38,500
Om te zorgen dat alles in balans blijft en dat alles blijft werken.
820
00:41:39,090 --> 00:41:39,680
En dat zijn dingen.
821
00:41:40,290 --> 00:41:42,340
Ga er zelf maar eens met pen en papier aanstaan.
822
00:41:42,420 --> 00:41:42,960
Dat gaat niet lukken.
823
00:41:43,080 --> 00:41:46,400
Als je nou allerlei AI-modellen hebt die daarbij helpen en die alles meenemen,
824
00:41:47,280 --> 00:41:50,800
dan geef ik dat best veel kans om veel meer uit het huidige net te halen dan dat nu kan.
825
00:41:51,520 --> 00:41:52,600
Dus dat vind ik heel erg hoopvol.
826
00:41:54,100 --> 00:41:55,800
Wat is dan minder hoopvol?
827
00:41:57,560 --> 00:42:02,280
Het kost allemaal meer stroom, dus in die zin leeft het ook weer een potentieel.
828
00:42:02,440 --> 00:42:04,960
Maar dat misschien terzijde.
829
00:42:05,030 --> 00:42:07,000
Die bedrijven gaan uiteindelijk zelf wel kerncentrales bouwen.
830
00:42:07,080 --> 00:42:08,480
Dan los je dat ook weer een beetje op.
831
00:42:11,520 --> 00:42:12,280
Misschien is dat wel.
832
00:42:13,600 --> 00:42:15,540
Er zit een rare tegenstelling in.
833
00:42:17,840 --> 00:42:20,180
Dat je heel veel energie zo direct nodig hebt.
834
00:42:20,240 --> 00:42:22,100
Om misschien het energieprobleem op te lossen.
835
00:42:23,760 --> 00:42:24,360
Ja, inderdaad.
836
00:42:25,360 --> 00:42:27,640
En hopelijk doet hij dan meer dan het energieprobleem oplossen.
837
00:42:27,700 --> 00:42:29,520
Anders gaat er heel wat energie tegenaan.
838
00:42:30,120 --> 00:42:31,520
Maar ik zie vooral voordelen eigenlijk.
839
00:42:32,160 --> 00:42:33,000
En minder nadelen.
840
00:42:33,920 --> 00:42:34,260
Heel goed.
841
00:42:36,000 --> 00:42:39,240
Wat zou je iemand mee willen geven die aan het luisteren is?
842
00:42:40,840 --> 00:42:43,300
En die zou bijvoorbeeld willen starten met machine learning.
843
00:42:45,540 --> 00:42:46,340
Ga ermee aan de slag.
844
00:42:48,320 --> 00:42:49,020
En waar begin je dan?
845
00:42:49,340 --> 00:42:49,840
Dat is een goede vraag.
846
00:42:50,440 --> 00:42:51,200
Zit ik over na te denken.
847
00:42:51,280 --> 00:42:55,020
Want van oudsher leer je al die kennis in de studieboeken.
848
00:42:55,700 --> 00:42:56,680
Dus bij een studie bijvoorbeeld.
849
00:42:57,020 --> 00:42:58,200
En dat is nog steeds een super goede basis.
850
00:42:58,400 --> 00:42:59,620
En dat kan heel goed.
851
00:43:00,320 --> 00:43:02,780
Maar je kan tegenwoordig ook met een AI-assistent gaan sparren.
852
00:43:03,260 --> 00:43:05,620
Wat zijn alle ins en outs van machine learning tegenwoordig?
853
00:43:05,680 --> 00:43:06,320
Hoe begin ik daarmee?
854
00:43:06,520 --> 00:43:06,840
Help me.
855
00:43:07,620 --> 00:43:09,440
En dan samen interactief een dialoog aangaan.
856
00:43:11,040 --> 00:43:13,480
en AI gebruiken om jouw AI te leren.
857
00:43:13,650 --> 00:43:14,700
Of machine learning in dit geval.
858
00:43:14,790 --> 00:43:15,040
Wat goed.
859
00:43:15,310 --> 00:43:17,140
Dus dat werkt tegenwoordig heel goed.
860
00:43:17,230 --> 00:43:19,120
Je hebt een soort van persoonlijke tutor.
861
00:43:19,380 --> 00:43:21,720
Je persoonlijke studentassistent die zit naast je
862
00:43:21,730 --> 00:43:22,720
aan de andere kant van de chat.
863
00:43:23,320 --> 00:43:25,100
En die kun je vragen stellen en die helpt je met vakgebieden.
864
00:43:25,700 --> 00:43:26,880
En ga dan ook lekker aan de slag.
865
00:43:27,020 --> 00:43:28,800
Dus echt hands-on dingen programmeren
866
00:43:28,890 --> 00:43:31,940
of uit laten programmeren door de AI-assistent.
867
00:43:32,160 --> 00:43:33,420
Lekker vibe-coden.
868
00:43:33,600 --> 00:43:35,840
Dus zelf geen regelcode programmeren.
869
00:43:35,920 --> 00:43:37,340
Maar kijk wat eruit komt.
870
00:43:37,500 --> 00:43:39,260
Maar ga er echt hands-on mee aan de slag.
871
00:43:40,239 --> 00:43:42,160
probeer dingen. Je hebt allerlei
872
00:43:42,260 --> 00:43:43,960
wedstrijden online. Bijvoorbeeld een website
873
00:43:44,140 --> 00:43:45,680
die heet Kaggle. Daar kun je
874
00:43:45,980 --> 00:43:48,060
data science wedstrijden doen tegen elkaar.
875
00:43:48,270 --> 00:43:50,100
Machine learning wedstrijden. Je probeert het beste
876
00:43:50,230 --> 00:43:52,100
model te bouwen. Kun je nog geld winnen ook.
877
00:43:52,800 --> 00:43:54,060
Daar staan ook superveel
878
00:43:54,140 --> 00:43:56,080
tutorials op. Daar zijn allemaal
879
00:43:56,300 --> 00:43:57,980
gaaf challenges die je kan proberen. En juist door
880
00:43:58,130 --> 00:43:59,860
echt mee aan de slag te gaan, zie je ook waar de
881
00:43:59,920 --> 00:44:01,540
valkuilen zitten. En de dingen
882
00:44:02,140 --> 00:44:03,620
waar je beter in moet worden.
883
00:44:04,360 --> 00:44:06,040
Maar eigenlijk zou ik zeggen dat het tegenwoordig
884
00:44:06,070 --> 00:44:07,860
ook niet uitmaakt wat voor achtergrond je hebt.
885
00:44:08,060 --> 00:44:09,400
Of het nou een AI-achtergrond is.
886
00:44:09,510 --> 00:44:13,000
Of dat je een achtergrond hebt in natuurkunde misschien.
887
00:44:13,480 --> 00:44:14,180
Voordat het liggend.
888
00:44:14,300 --> 00:44:16,480
Maar misschien heb je kunstgeschiedenis gedaan.
889
00:44:17,040 --> 00:44:19,900
Ook dan kun je met machine learning aan de slag.
890
00:44:19,960 --> 00:44:21,180
Kun je met AI aan de slag.
891
00:44:21,290 --> 00:44:22,600
Met de hulp die er tegenwoordig is.
892
00:44:22,690 --> 00:44:24,660
Op het programmeervlak of het uitlegvak.
893
00:44:25,520 --> 00:44:26,400
Ga het gewoon doen.
894
00:44:26,920 --> 00:44:27,560
Super goede podcast.
895
00:44:27,920 --> 00:44:28,460
Luister jullie podcast.
896
00:44:29,080 --> 00:44:30,100
Dat is sowieso een goede tip.
897
00:44:30,290 --> 00:44:30,420
Een andere podcast.
898
00:44:31,900 --> 00:44:32,500
Ja, er is heel veel.
899
00:44:32,780 --> 00:44:35,620
Heb je nog een tip voor de luisteraars voor een boek?
900
00:44:35,710 --> 00:44:36,820
Of iemand die je bewondert.
901
00:44:36,900 --> 00:44:39,640
om eens verder in te duiken om kennis op te doen op dit vak.
902
00:44:40,660 --> 00:44:40,880
Oeh.
903
00:44:41,840 --> 00:44:44,240
Ja, dat is specifiek een boek.
904
00:44:45,380 --> 00:44:47,500
Ja, of een rolmodel waar je naar kijkt,
905
00:44:47,580 --> 00:44:50,480
waar jij dan veel kennis van opdoet binnen de omgeving.
906
00:44:50,500 --> 00:44:51,340
Ja, maar dat zijn er eigenlijk heel veel.
907
00:44:51,460 --> 00:44:54,440
Dus je hebt heel veel mensen die heel gave dingen aan het doen zijn.
908
00:44:54,600 --> 00:44:56,800
En sommigen zijn het heel erg aan het doen in het bedrijfsleven.
909
00:44:56,860 --> 00:44:59,420
Anderen zijn het aan het doen voor de agent kant.
910
00:45:00,400 --> 00:45:02,720
Als ik zelf wat meer de diepte in wil gaan qua podcast bijvoorbeeld,
911
00:45:03,060 --> 00:45:04,820
dan luister ik naar de Dwarcash podcast.
912
00:45:05,760 --> 00:45:08,780
Iemand uit Silicon Valley die allemaal andere nerds interviewt.
913
00:45:08,990 --> 00:45:11,600
Die bijvoorbeeld echt werken aan Claude of dat soort modellen.
914
00:45:11,780 --> 00:45:13,380
En daar gaan ze heel erg de technische diepte in.
915
00:45:14,760 --> 00:45:17,960
Maar het kan ook weer zoiets zijn dat meer helpt in het bedrijfsleven.
916
00:45:18,700 --> 00:45:21,420
Zoals dat boek waar Alexander Klubing het voorwoord voor gemaakt heeft.
917
00:45:21,840 --> 00:45:22,760
Co-intelligence.
918
00:45:23,760 --> 00:45:26,120
Dat zou bijvoorbeeld één kunnen zijn om mee te beginnen.
919
00:45:27,040 --> 00:45:33,560
Het boek over de generative adversarial networks is een goede om mee te starten.
920
00:45:34,420 --> 00:45:36,580
Maar eigenlijk stom, het is veel te breed.
921
00:45:36,820 --> 00:45:38,040
En het is veel te veel mensen die gave dingen doen.
922
00:45:38,990 --> 00:45:41,900
En je verdrinkt in alle gave materie die er is.
923
00:45:42,660 --> 00:45:44,460
Maar kijk vanuit jouw perspectief dan inderdaad.
924
00:45:44,510 --> 00:45:46,320
Want ik hoor eigenlijk technisch heb je bepaalde bronnen.
925
00:45:46,330 --> 00:45:50,020
In het bedrijfsleven heb je bronnen allemaal op deze technologie en mogelijkheden.
926
00:45:50,200 --> 00:45:51,400
En kijk welke past bij jou.
927
00:45:52,240 --> 00:45:53,640
Ja, voor mij zijn dat een handjevol podcast.
928
00:45:54,000 --> 00:45:55,260
Een handjevol YouTube tutorials.
929
00:45:55,720 --> 00:45:58,340
Een handje gewoon sparren met Claude.
930
00:46:01,040 --> 00:46:02,420
Ja, van alles passeert er even.
931
00:46:02,480 --> 00:46:02,820
Super.
932
00:46:03,620 --> 00:46:06,400
Hé, hartstikke bedankt dat je je inzichten wilde delen.
933
00:46:06,800 --> 00:46:09,180
Ik denk dat we heel mooi het hebben afgepeild.
934
00:46:09,420 --> 00:46:12,340
Van wat is nou machine learning ten opzichte van de generatieve AI?
935
00:46:12,520 --> 00:46:13,520
Wat komt er allemaal bij kijken?
936
00:46:14,080 --> 00:46:15,300
En hoe zou je ermee kunnen starten?
937
00:46:15,780 --> 00:46:19,140
Dus ja, heel erg bedankt dat je weer in de studio wilde zijn.
938
00:46:19,240 --> 00:46:19,900
Dank voor de uitdaging.
939
00:46:20,180 --> 00:46:21,180
Ja, graag gedaan.
940
00:46:22,890 --> 00:46:23,580
Nou, dat was hem weer.
941
00:46:24,280 --> 00:46:27,420
Zorg dat je je abonneert via je favoriete podcast app.
942
00:46:27,660 --> 00:46:30,440
En er staat een linkje in de show notes.
943
00:46:30,720 --> 00:46:32,480
Kan je je aanmelden voor onze nieuwsbrief.
944
00:46:32,640 --> 00:46:34,180
krijg je ook een kijkje achter de schermen.
945
00:46:34,420 --> 00:46:34,660
Altijd leuk.
946
00:46:35,200 --> 00:46:35,460
Zeker.
947
00:46:35,700 --> 00:46:36,240
Tot de volgende keer.
948
00:46:36,380 --> 00:46:36,900
Tot de volgende keer.