AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is uitgeroepen tot AI Podcast of the Year 2025 en is drie keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S08E18 - AIToday Live wint Nationale AI Award 2025
In de podcast AIToday Live is een bijzondere mijlpaal bereikt: de podcast is uitgeroepen tot Nederlandse AI-podcast van het jaar 2025 tijdens de Nationale AI Awards. Deze erkenning komt na acht seizoenen en meer dan 330 afleveringen waarin consistente en betrouwbare informatie over kunstmatige intelligentie wordt geboden.
Marc van Meel, uitgeroepen tot AI Person of the Year, deelde zijn visie dat AI niet langer een innovatie is maar onderdeel van producten wordt. Hij benadrukt het belang van doelgericht AI-gebruik: "Ga het niet inzetten omdat je het kan, maar kijk waar je een efficiëntieslag kunt bewerkstelligen."
De focus in het AI-veld verschuift volgens de podcast van technologische mogelijkheden naar menselijke impact. Terwijl consumenten AI breed omarmen, is er in de zakelijke wereld nog werk aan de winkel om weerstand tegen verandering te overwinnen.
Onderwerpen
- Erkenning van AIToday Live als AI-podcast van het jaar
- Verschuiving van focus van technologie naar de menselijke kant van AI
- Adoptie en weerstand tegen AI in de zakelijke markt
- De rol van AI in het Nederlandse ecosysteem
- Visie van Marc van Meel op de integratie van AI in producten
- Evenement: Nationale AI Awards 2025
- Persoon: Bouke Vlierhuis - AI-boek van het jaar
- Persoon: Marc van Meel - AI Person of the Year 2025
- Persoon: Martin van Kranenburg - AI-spreker van het jaar
Genoemde entiteiten: AIMAZE - Marc van Meel - Bouke Vlierhuis - Martin van Kranenburg - Bas Prins - Computrain - Artific
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:02,560 --> 00:00:07,039
Hoi, leuk dat je luistert naar een nieuwe aflevering van AIToday Live.
2
00:00:07,039 --> 00:00:12,800
Mijn naam is Joop Snijder, CTO bij Aigency en je gaat straks ga je Niels ook nog horen.
3
00:00:13,280 --> 00:00:14,640
En misschien denk je nu.
4
00:00:15,199 --> 00:00:18,239
Dit is toch de dag dat we altijd een gast hebben.
5
00:00:18,240 --> 00:00:19,519
Nou, vandaag niet.
6
00:00:19,519 --> 00:00:23,199
Dus daarom wil ik voordat we beginnen even een kleine disclaimer geven.
7
00:00:23,199 --> 00:00:28,879
Deze aflevering gaat namelijk over de podcast zelf en over de nationale AI awards.
8
00:00:28,879 --> 00:00:32,719
En denk je nu ja, zeg, daar luister ik deze podcast niet voor.
9
00:00:32,719 --> 00:00:33,679
No worries.
10
00:00:33,679 --> 00:00:37,200
De volgende inhoudelijke aflevering staat ook al klaar.
11
00:00:37,200 --> 00:00:44,960
Maar nu met deze aflevering nemen we je even mee bij een moment om stil te staan, namelijk bij iets bijzonders.
12
00:00:44,960 --> 00:00:47,119
Want we hebben nieuws.
13
00:00:47,759 --> 00:00:58,079
Maar laten we eerst even beginnen bij afgelopen donderdag donderdag 15 januari werden in Eindhoven namelijk de Nationale AI Awards 2025 uitgereikt.
14
00:00:58,079 --> 00:01:00,000
En dat is de derde editie.
15
00:01:00,000 --> 00:01:08,479
En tijdens die middag werd één ding heel duidelijk: de impact van kunstmatige intelligentie komt al lang niet meer alleen uit Silicon Valley of China.
16
00:01:08,480 --> 00:01:14,799
Nee, ook Nederland is een volwassen AI-ecosysteem aan het ontwikkelen.
17
00:01:14,880 --> 00:01:21,119
Met professionals, bedrijven, onderwijsinstellingen en media die samenwerken aan verantwoorden adoptie van AI.
18
00:01:21,120 --> 00:01:25,679
En de Nationale AI Awards zijn de initiatief van AIMAZE.
19
00:01:26,080 --> 00:01:31,120
Het doel wat ze zeggen, is om Nederlandse AI-initiatieven zichtbaar te maken.
20
00:01:31,120 --> 00:01:37,439
En dan niet als abstracte technologie, maar als praktische toepassingen die je dagelijks kunt inzetten.
21
00:01:37,599 --> 00:01:40,239
Binnen organisaties, onderwijs en overheid.
22
00:01:40,239 --> 00:01:43,599
De focus ligt dan op impact, toepasbaarheid en verantwoordelijkheid.
23
00:01:43,599 --> 00:01:45,359
Best wel heel mooi, toch.
24
00:01:45,679 --> 00:01:52,640
De winnaars van deze awards werden bepaald op basis van publiek stemmen en een jurybeoordeling.
25
00:01:52,959 --> 00:01:57,359
Meer dan 7000 stemmen zijn uitgebracht door het publiek.
26
00:01:57,360 --> 00:01:59,439
Vond ik best een hele hoop.
27
00:01:59,600 --> 00:02:08,560
Daarnaast beoordeelden een onafhankelijke vakjury alle genomineerd op impact onderscheidend vermogen, kwaliteit en praktische toepasbaar.
28
00:02:08,560 --> 00:02:14,000
En één van de categorieën was de beste AI podcast.
29
00:02:14,240 --> 00:02:18,639
AI podcast award of the year zoiets.
30
00:02:18,640 --> 00:02:24,079
Voor makers die consistent betrouwbaar en praktisch over AI informeren.
31
00:02:25,199 --> 00:02:27,200
En we hebben gewonnen.
32
00:02:27,200 --> 00:02:28,079
Yes.
33
00:02:28,079 --> 00:02:29,759
Je raadt het misschien al.
34
00:02:29,760 --> 00:02:33,759
Maar laten we eerst even naar Niels luisteren.
35
00:02:34,560 --> 00:02:45,599
Vorige week donderdag hebben we te horen gekregen tijdens een heel mooi evenement in eindhoven dat we AI-podcast van het jaar 2025 zijn geworden.
36
00:02:46,080 --> 00:02:51,919
Fantastisch om met deze verrassing het podium op te mogen.
37
00:02:52,240 --> 00:02:58,159
Onvoorbereid Joop hele mooie woorden en een speech gegeven waarvoor dank Joop.
38
00:02:59,039 --> 00:03:03,119
Ik moet eerlijk zeggen, toen ik het hoorde, moest ik het ook even laten bezinken.
39
00:03:03,120 --> 00:03:10,399
En niet omdat we er niet op gehoopt hadden, maar omdat het voelt als erkenning voor iets waar we nu al bijna zes jaar aan bouwen.
40
00:03:10,399 --> 00:03:13,439
Eerst een magazine en daarna als podcast.
41
00:03:13,439 --> 00:03:17,199
Want ik denk dat heel weinig mensen dat weten.
42
00:03:17,199 --> 00:03:22,079
Waar het echt begon, is namelijk in mei 2019 al.
43
00:03:22,719 --> 00:03:27,600
Want toen verscheen het allereerste AIToday magazine.
44
00:03:27,600 --> 00:03:29,280
Digital magazine.
45
00:03:29,280 --> 00:03:35,439
En het grappige is het voorwoord dat ik toen schreef, het allereerste wat ik daarover schreef.
46
00:03:35,599 --> 00:03:39,840
Dat lees nu bijna zeven jaar later nog verrassend actueel.
47
00:03:39,840 --> 00:03:43,120
Ik zal in die zin even mezelf citeren.
48
00:03:43,120 --> 00:03:47,439
Vandaag de dag lijkt alles om artificial intelligence te draaien.
49
00:03:47,439 --> 00:03:49,600
Voor mij is dat aan de ene kant heel gaaf.
50
00:03:49,600 --> 00:03:52,560
Maar aan de andere kant zorgt het voor veel misverstanden.
51
00:03:52,560 --> 00:03:56,879
En die misverstanden komen door het benadrukken van extremen.
52
00:03:56,879 --> 00:04:02,959
Of de technologie wordt zo geprezen dat het lijkt of alles oplost met AI.
53
00:04:02,959 --> 00:04:06,159
Of doemscenario's worden als feiten gepresenteerd.
54
00:04:06,159 --> 00:04:14,320
Ik schreef toen beide stoort mij, omdat het in de weg staat om naar de technologie te kijken zoals die is.
55
00:04:14,319 --> 00:04:15,199
Krachtig.
56
00:04:15,199 --> 00:04:17,439
Net zoals we kijken naar bijvoorbeeld vuur.
57
00:04:17,439 --> 00:04:20,800
En je kunt je huizen mee verwarmen of mee afbranden.
58
00:04:20,799 --> 00:04:23,840
Het middel is niet goed of slecht is krachtig.
59
00:04:24,160 --> 00:04:26,720
Bij die kracht hoort verantwoordelijkheid.
60
00:04:26,720 --> 00:04:28,959
Dat was toen al mijn overtuiging.
61
00:04:29,120 --> 00:04:32,960
Bijvoorbeeld de verantwoordelijkheid om besluiten die een AI maakt uit te leggen.
62
00:04:32,959 --> 00:04:37,680
Als je een hypotheek aanvraag en je wordt geweigerd, dan is computer says no niet voldoende.
63
00:04:37,680 --> 00:04:39,840
We moeten die zwarte doos openen.
64
00:04:39,840 --> 00:04:43,199
Uitleg krijgen hoe een beslissing tot stand is gekomen.
65
00:04:44,160 --> 00:04:54,160
Een ander misverstand dat ik toen al benoemde in dat voorwoord is dat je maar veel data moet hebben en dat de machine er dan wel chocola van kan maken.
66
00:04:54,480 --> 00:04:55,680
Dat klopt niet.
67
00:04:55,680 --> 00:04:59,680
Data moet van goede kwaliteit zijn, anders wordt de uitkomst waardeloos.
68
00:04:59,680 --> 00:05:06,040
Maar schreef ik toen al, je hoeft niet eerst je hele datahuishouding perfect te hebben om te starten.
69
00:05:06,040 --> 00:05:11,480
Sterker nog, door een concrete case te hebben, leer je snel wat goede datakwaliteit inhoudt.
70
00:05:11,480 --> 00:05:15,879
Daarom adviseerden we organisaties om te experimenteren met AI.
71
00:05:15,879 --> 00:05:19,880
Want AI is er belangrijk om het niet zelf te kunnen.
72
00:05:20,120 --> 00:05:25,160
Met experimenten leer je veel over het vakgebied en waar je rekening mee moet houden.
73
00:05:25,480 --> 00:05:28,840
En dat advies geven we dus nog steeds.
74
00:05:29,399 --> 00:05:35,160
Wat ook leuk is, is de hoofdonderwerpen van dat eerste magazine zijn nog steeds actueel.
75
00:05:35,159 --> 00:05:39,560
En dat relativeert misschien ook wel de echte snelheid van verandering.
76
00:05:40,120 --> 00:05:46,519
We schreven toen over Explainable AI, over waarom de uitlegbaarheid van kunstmatige intelligentie zo belangrijk is.
77
00:05:46,519 --> 00:05:49,400
En dat gesprek voeren we vandaag de dag nog steeds.
78
00:05:49,399 --> 00:05:59,240
We schreven over datakwaliteit dat je niet moet wachten tot alles perfect is, maar dat je juist door te starten met AI je datakwaliteit verbeterd, dat is ook nog steeds waar.
79
00:05:59,480 --> 00:06:04,680
En we beschreven de drie valkuilen van AI-experimenten en eerlijk.
80
00:06:05,000 --> 00:06:08,920
De experimenten bestaan nog, die valkuilen bestaan nog steeds.
81
00:06:11,639 --> 00:06:16,120
En toen naar 28 april 2020.
82
00:06:16,120 --> 00:06:25,399
De eerste podcast van magazine naar podcast op 28 april 2020 verscheen de eerste aflevering van AIToday Live, midden in coronatijd.
83
00:06:25,399 --> 00:06:33,319
Een periode waarin veel dingen onzeker waren, maar waarin de behoefte aan toegankelijke informatie over technologie alleen maar groter werd.
84
00:06:35,079 --> 00:06:40,199
Het digitale magazine bereikte toch niet dat wat we wilden.
85
00:06:40,759 --> 00:06:47,639
Al we daarmee deden, voelde nog niet dat we precies de informatie konden brengen op een manier zoals we dat wilden.
86
00:06:48,120 --> 00:07:02,839
Dus we zijn toen een podcast gestart van AIToday, zoals het magazine heten naar iets wat we live van begin tot eind als we dat opgenomen hadden, brachten, dus vandaar de naam AIToday Live.
87
00:07:03,639 --> 00:07:08,840
Ons doel, dat hebben we echt wel heel vast liggen ook, waar we iedere keer naar kijken.
88
00:07:08,840 --> 00:07:17,319
Ons doel met AIToday Live is om een brug te slaan tussen de complexe wereld van kunstmatige intelligentie en de dagelijkse praktijk van professionals.
89
00:07:17,319 --> 00:07:19,880
En dat dan in de breedste zin van het woord.
90
00:07:19,879 --> 00:07:23,000
We willen een betrouwbare bron van informatie zijn.
91
00:07:23,000 --> 00:07:31,800
Een plek waar luisteraars niet alleen maar leren over AI, maar ook geprikkeld worden om na te denken over de impact ervan op hun werk en leven.
92
00:07:32,040 --> 00:07:34,599
En ons waarom is in die zin tweeledig.
93
00:07:34,600 --> 00:07:36,920
Enerzijds gewoon passie voor het onderwerp.
94
00:07:36,920 --> 00:07:38,920
En anderzijds een gevoel van noodzaak.
95
00:07:38,919 --> 00:07:44,200
En we voelen de verantwoordelijkheid om bij te dragen aan een beter begrip van AI.
96
00:07:44,200 --> 00:07:48,680
Zodat mensen met vertrouwen en kennis deze technologie kunnen omarmen.
97
00:07:48,679 --> 00:07:56,680
En door diverse perspectieven en diepgaande gesprekken aan te bieden, willen we aan de ene kant hoop, maar ook duidelijkheid bieden.
98
00:07:56,680 --> 00:08:01,160
In een veld dat vaak als moeilijk en soms bedreigend wordt ervaren.
99
00:08:02,040 --> 00:08:11,480
En vanuit die gesprekken in de podcast, gecombineerd met mijn eigen ervaringen, is ook nog eens een keer afgelopen jaar het boek Doeltreffend met AI-agents ontstaan.
100
00:08:11,480 --> 00:08:15,000
Het boek is een direct verlengstuk wat we hier elke week proberen te doen.
101
00:08:15,000 --> 00:08:20,599
Praktische kennisdelen over AI op een manier die je echt verder helpt.
102
00:08:20,759 --> 00:08:24,120
Nu weer terug naar die Nationale AI Awards.
103
00:08:24,120 --> 00:08:31,479
Want dat voelt gewoon als een bevestiging dat we op de goede weg zitten en niet als eindpunt hoor, maar als aanmoediging om door te gaan.
104
00:08:31,720 --> 00:08:43,240
En het leuke is namelijk dat we direct na de prijsuitreiking stonden we in Domus Dela, een voormalige kerk in Eindhoven dat nu een evenementenlocatie onderhandig is.
105
00:08:43,879 --> 00:08:46,600
Een plek voor reflectie, zou je kunnen zeggen.
106
00:08:46,600 --> 00:08:49,480
En dat bleek best wel een passende setting.
107
00:08:49,799 --> 00:08:54,919
Want naast onze podcast was er nog een winnaar die ons bijzonder raakten.
108
00:08:55,240 --> 00:08:57,160
Dat is namelijk Marc van Meel.
109
00:08:57,160 --> 00:09:04,600
Marc werd uitgeroepen tot AI Person of the Year en Marc is we noemen hem altijd eigenlijk de vriend van de show.
110
00:09:04,840 --> 00:09:09,240
Was al meerdere keren te gast, deelt onze visie.
111
00:09:09,240 --> 00:09:12,600
AI gaat uiteindelijk over mensen, niet over technologie.
112
00:09:12,759 --> 00:09:16,360
Het grappige was, dan moet ik toch wel eerst even vertellen voordat we naar hem gaan.
113
00:09:16,600 --> 00:09:24,519
Toen Marc het podium opkwam, een pak met vlinderdas, duurde het geen 10 seconden voordat hij al begon over de vraag die je echt toe doet.
114
00:09:24,519 --> 00:09:32,320
En niet wat de technologie kan, maar wat wij ermee willen.
115
00:09:30,519 --> 00:09:34,959
Ja, leuk komt het heel slecht op fantastisch.
116
00:09:37,079 --> 00:09:41,159
Voordat we beginnen, want de opname loopt al.
117
00:09:42,639 --> 00:09:45,280
We staan in, hoe heette het hier ook alweer?
118
00:09:45,519 --> 00:09:46,560
Domus Dela.
119
00:09:46,799 --> 00:09:51,280
En daar had jij echt een geweldige ding in voor de speech, dat voor zo direct.
120
00:09:51,440 --> 00:09:53,680
Want het leuke is, luisteraars.
121
00:09:54,000 --> 00:09:58,960
We zaten in Eindhoven op de Nationale AI Award.
122
00:09:58,960 --> 00:10:09,680
Niels en ik gingen er in ieder geval naartoe van hey, leuk, we zijn finalist, hebben een leuke middag en wat denk je gewonnen, we zijn gewoon podcast van het jaar geworden.
123
00:10:09,679 --> 00:10:14,160
En het leuke is, een aantal van onze podcastgasten was erbij.
124
00:10:14,399 --> 00:10:15,600
Maar nog leuker.
125
00:10:15,600 --> 00:10:20,560
We hebben namelijk de persoon van het jaar, de AI-persoon van het jaar, is geworden.
126
00:10:20,879 --> 00:10:22,320
Marc van Meel.
127
00:10:22,320 --> 00:10:26,959
Marc van Meel, hallo voor de luisteraars, vriend van de show.
128
00:10:26,960 --> 00:10:28,799
Vriend van de show zeker.
129
00:10:28,799 --> 00:10:35,919
En Marc, je had echt een geweldige speech, zou je een klein beetje kunnen vertellen wat je daar verteld hebt.
130
00:10:35,919 --> 00:10:38,000
Ik vond het sowieso, ik begin eigenlijk.
131
00:10:38,319 --> 00:10:43,520
Overal werd verteld, werd gevraagd, had je het verwacht en jij zegt gewoon ja.
132
00:10:44,159 --> 00:10:46,639
Als ik er zelf niet in geloof, gaat het niet gebeuren.
133
00:10:47,440 --> 00:10:50,720
Nee, dat kunnen luisteraars niet zien, maar ik sta hier in pak.
134
00:10:50,720 --> 00:10:57,520
Vlinderdas, en ik dacht, als ik hier met pyjama aankomt zetten, dan gaat het nooit gebeuren, het is allemaal goed gekomen.
135
00:10:57,519 --> 00:10:59,680
En natuurlijk gefeliciteerd aan jullie.
136
00:10:59,680 --> 00:11:04,240
Te recht de beste AI podcast van 2025.
137
00:11:04,559 --> 00:11:06,879
En ik vind de titel vriend van de show.
138
00:11:07,759 --> 00:11:10,080
Misschien nog wel meer gewicht dragen.
139
00:11:11,360 --> 00:11:12,879
Dat is ontzettend aardig.
140
00:11:12,879 --> 00:11:19,680
Want uiteindelijk is het natuurlijk ook heel mooi, je mag je dus een jaar lang AI Person of the Year noemen.
141
00:11:19,680 --> 00:11:21,519
Moet je toch wel wat doen, of niet?
142
00:11:21,679 --> 00:11:27,440
Ik moet denk ik mijn LinkedIn en mijn cv updaten, daar moet ik wel een jaar lang gebruik van maken.
143
00:11:28,639 --> 00:11:29,600
Wat ga je ermee doen?
144
00:11:29,600 --> 00:11:30,720
Wat gaat er op je afkomen?
145
00:11:30,720 --> 00:11:32,240
Heb je een beeld erbij?
146
00:11:34,159 --> 00:11:37,040
Nou, nee, niet echt eigenlijk.
147
00:11:37,279 --> 00:11:42,800
Je hebt de vorige winnaar gesproken, had hij nog tips voor je eigenlijk ook niet.
148
00:11:43,120 --> 00:11:46,399
Daar hebben we het eigenlijk helemaal niet over gehad, hij heeft wel een boek geschreven.
149
00:11:47,200 --> 00:11:49,200
Wellicht is dat een leuke ambitie.
150
00:11:50,079 --> 00:11:52,479
Ik kan het je aanraden om dat te doen.
151
00:11:52,480 --> 00:11:55,279
Ja, dan weet je alles slimmer werken met agents, toch?
152
00:11:55,279 --> 00:11:57,680
Doeltreffend met AI-agents.
153
00:11:57,680 --> 00:11:58,399
Excuus.
154
00:11:58,399 --> 00:12:00,000
Nee, dat geeft niks.
155
00:12:01,279 --> 00:12:03,760
Wij wilden daadwerkelijk iets meegeven.
156
00:12:03,759 --> 00:12:06,000
Je bent niet voor niks persoon van het jaar geworden.
157
00:12:06,000 --> 00:12:15,200
En het mooie wat ik vond, volgens mij stond je nog geen tien seconden op het podium en begon je al te vertellen van wat betekent nou eigenlijk deze technologie.
158
00:12:15,200 --> 00:12:18,240
En hoe zouden we het tegenaan moeten kijken?
159
00:12:18,480 --> 00:12:22,000
Ja, klopt, ook voor de luisteraars, leuk om te weten, we staan hier eigenlijk in een kerk.
160
00:12:22,240 --> 00:12:23,759
Ja, worden geen diensten meer gegeven.
161
00:12:23,759 --> 00:12:25,199
Het is nu een evenementcentrum.
162
00:12:27,680 --> 00:12:30,080
En een collega van mij zei tegen mij.
163
00:12:30,079 --> 00:12:34,400
AI is no longer an innovation, it's part of the product.
164
00:12:34,399 --> 00:12:39,039
Dus we hebben het niet meer over innoveren, we hebben het nu echt over producten, waar AI in geïntegreerd is.
165
00:12:39,039 --> 00:12:41,519
Dus de volgende vraag wordt: hoe gaan we daarmee om?
166
00:12:41,519 --> 00:12:42,560
Wat willen we wel doen?
167
00:12:42,559 --> 00:12:45,200
Willen we niet doen met artificial intelligence.
168
00:12:45,200 --> 00:12:47,680
En het is natuurlijk ook een spiegel.
169
00:12:47,920 --> 00:12:50,559
Hoe we die technologie inzetten, zegt iets over ons.
170
00:12:50,559 --> 00:12:55,439
Willen we het voor goede doeleinden gebruiken, of willen we het gebruiken om deepfakes te maken.
171
00:12:55,440 --> 00:12:58,799
Of andere questionable doeleinden.
172
00:12:58,799 --> 00:13:02,080
Da gaan wij de komende jaren achter komen, welke kant het op gaat.
173
00:13:02,079 --> 00:13:08,720
En als jij wat mag meegeven in die beweging, wat is dan de richting die jij wil voor deze technologie om naartoe te gaan?
174
00:13:10,079 --> 00:13:14,479
Ik ben ook wel fan van de uitspraken, AI is een middel en geen doel op zich.
175
00:13:14,480 --> 00:13:17,440
Dus ga niet inzetten omdat je het kan.
176
00:13:17,440 --> 00:13:24,080
Kijk, oké, wat zijn nou businessprocessen die ik waar ik een efficiëntieslag kan bewerkstelligen.
177
00:13:24,240 --> 00:13:28,159
Wat kan ik beter slimmer doen met behulp van AI?
178
00:13:28,480 --> 00:13:30,719
En blijf vooral gewoon ook nadenken.
179
00:13:30,720 --> 00:13:34,000
Alleen omdat het kan, betekent niet dat het ook hoeft.
180
00:13:34,000 --> 00:13:36,560
Of dat het mag, volgens de wet ook.
181
00:13:36,879 --> 00:13:39,360
Dat zou ik de luisteraars willen meegeven.
182
00:13:39,360 --> 00:13:42,959
Dat lijkt me een heel mooi mooi boodschap.
183
00:13:42,960 --> 00:13:44,160
Het leuke is, jij zegt.
184
00:13:44,240 --> 00:13:49,439
Misschien nog toevoeging elektriciteit, je kan er een elektrische auto mee maken.
185
00:13:49,440 --> 00:13:51,280
Je kan er ook een elektrische stoel mee maken.
186
00:13:51,519 --> 00:13:54,480
Dat heeft natuurlijk een heel ander effect.
187
00:13:54,480 --> 00:13:56,719
Waar zijn wij nou als samenleving beter mee af?
188
00:13:56,720 --> 00:13:58,000
Welke van de twee?
189
00:13:58,000 --> 00:13:58,959
Ja, heel mooi.
190
00:13:58,960 --> 00:14:03,759
En dat is eigenlijk ook, kijk, we zijn in 2020 zijn we deze podcast begonnen.
191
00:14:04,080 --> 00:14:06,639
Omdat heel veel fantasie leefden.
192
00:14:06,639 --> 00:14:08,239
Wat kan er wel, wat kan er niet.
193
00:14:08,240 --> 00:14:15,280
De fantasie was vaak misschien groter nog dan de belofte en de belofte nog groter dan de daadwerkelijke stand van de techniek.
194
00:14:16,240 --> 00:14:20,000
En dit soort verhalen helpen daar volgens mij ook heel erg mee.
195
00:14:22,000 --> 00:14:26,000
De keuze is ook aan ons als maatschappij.
196
00:14:26,159 --> 00:14:33,000
Misschien denk je dat je daar maar een klein raadje in bent, maar als wij allemaal juiste keuzes maken, dan denk ik dat dat heel belangrijk is.
197
00:14:30,000 --> 00:14:37,000
En ik hoop dat wij met de podcast dat ook regelmatig uitdragen.
198
00:14:37,559 --> 00:14:49,480
Het leuke is wel, jij zegt van het kerk niet meer in bedrijf, maar wij kwamen straks wij kwamen vanmiddag binnen en wij dachten wel even dat wij de gang maken op het verkeerde feest waren.
199
00:14:49,879 --> 00:14:51,639
Want dit is inderdaad van Domus Dela.
200
00:14:51,639 --> 00:14:58,039
En er liep dus net een uitvaartlied leeg.
201
00:14:58,039 --> 00:15:02,520
Dus we waren er wel even in de war van zitten we wel goed.
202
00:15:03,080 --> 00:15:06,519
Dat waren de verkeerde toepassingen van de AI die we afgevoerd.
203
00:15:06,679 --> 00:15:10,280
Laten we nu gaan kijken wat willen we ermee, hoe willen we dat gaan toepassen.
204
00:15:10,840 --> 00:15:17,079
Dat vind ik heel mooi dat je dat zegt, want ik ook aan te geven, eigenlijk, het gaat niet alleen maar meer om de technologie.
205
00:15:17,080 --> 00:15:19,720
Je merkt dat de focus veel meer verschuift naar de mens.
206
00:15:19,720 --> 00:15:21,879
Oké, die technologie, die is er nu, dat weten we nu.
207
00:15:21,879 --> 00:15:24,360
We weten nu wat die taalmodellen kunnen, wat ze niet kunnen.
208
00:15:24,360 --> 00:15:26,840
Nou, dat is allemaal niet zo niet zo spannend meer.
209
00:15:26,840 --> 00:15:31,960
De agents, nou ook allemaal prima, moet nog een beetje uitvogelen hoe die veilig te laten werken met elkaar.
210
00:15:31,960 --> 00:15:37,959
En moeten die hallucinaties misschien nog even nog één procent beter maken, maar eigenlijk is dat allemaal zo spannend.
211
00:15:37,960 --> 00:15:41,480
Maar het gaat veel meer om de vraag: oké, wat doet het met ons als mens zijn?
212
00:15:41,480 --> 00:15:45,960
Wat betekent het voor ons, voor ons werk, voor de relaties die wij hebben.
213
00:15:46,200 --> 00:15:51,799
Dus ik zie juist steeds meer een verschuiving van een focus op de technologie naar de focus op de mens.
214
00:15:52,200 --> 00:15:53,960
Het gaat uiteindelijk over ons.
215
00:15:57,559 --> 00:15:59,079
Hoe zie jij nu de adoptie?
216
00:15:59,080 --> 00:16:04,279
En zie je weerstand op de adoptie, of zie je juist omarming, zie je allebei.
217
00:16:04,519 --> 00:16:08,440
Ja, ik denk B2C is het denk ik wel vrij breed geadopteerd.
218
00:16:08,600 --> 00:16:11,959
B2B is er nog steeds wel werk aan de winkel.
219
00:16:11,960 --> 00:16:19,240
En laten we eerlijk zijn, er zijn ook binnen bedrijven groepen medewerkers die in meer of mindere mate profiteren van AI.
220
00:16:19,240 --> 00:16:21,879
Het zijn ook mensen die het waarschijnlijk gewoon niet gaan omarmen.
221
00:16:22,039 --> 00:16:27,480
Het is toch een verandering en iedere verandering gaat gepaard met weerstand, zullen jullie ook weten.
222
00:16:28,440 --> 00:16:32,840
Maar met de tijd wordt het natuurlijk breed geadopteerd.
223
00:16:35,079 --> 00:16:37,080
Ik vraag het echt zo out of the blue.
224
00:16:37,080 --> 00:16:39,319
Maar heb je zo een grappig voorbeeld?
225
00:16:39,639 --> 00:16:46,039
Het is eigenlijk een heel grappig voorbeeld waarbij iemand in een soort van weerstand schiet en een gedrag vertoont.
226
00:16:46,279 --> 00:16:54,520
Waarbij je eigenlijk wel weet van oh ja, wat gezegd wordt of wat gedaan wordt, heeft eigenlijk te maken met van ik wil het eigenlijk gewoon niet.
227
00:16:54,759 --> 00:16:58,200
Ik heb wel mensen meegemaakt die zeggen, nee, we hebben het altijd zo gedaan.
228
00:16:58,200 --> 00:16:59,159
Of het kan niet.
229
00:16:59,159 --> 00:17:00,520
Je kan dit niet automatiseren.
230
00:17:00,519 --> 00:17:07,240
Die agent kan dit niet doen, want we zijn bijvoorbeeld gebonden aan bepaalde bronsystemen en die ondersteunen het niet, blablabla.
231
00:17:07,240 --> 00:17:12,519
Maar dat geeft eigenlijk aan dat mensen denken vanuit een specifiek kader, een box, inderdaad.
232
00:17:12,519 --> 00:17:18,199
Maar het vergt ook wel moet ook een beetje dromen om eigenlijk vanaf scratch te beginnen, vanaf nul.
233
00:17:18,200 --> 00:17:21,960
Dus denk nog eens even, denk nog eens na van, wat zijn we nou eigenlijk aan het doen?
234
00:17:21,960 --> 00:17:24,759
Welke klantbehoeften willen we voorzien?
235
00:17:24,759 --> 00:17:27,960
En hoe doen we dat op de beste efficiëntste manier.
236
00:17:27,960 --> 00:17:30,439
En het vergt moet om uit die box te stappen.
237
00:17:30,519 --> 00:17:32,839
En hoeveel technologie hebben we daarvoor?
238
00:17:35,880 --> 00:17:38,679
We zijn toch weer de diepte ingegaan.
239
00:17:38,680 --> 00:17:41,000
Heerlijk.
240
00:17:41,400 --> 00:17:47,799
Dankjewel, en gefeliciteerd en genieten van dit jaar en ook met het gezin, inderdaad, je bent vader geworden.
241
00:17:47,799 --> 00:17:52,520
Hele mooie tijd, heel veel prijzen die je erbij hebben, dat is denk ik de mooiste, maar ja, dat is echt een mooi vooruitzicht.
242
00:17:52,519 --> 00:17:55,559
Ja, zeker, dat is de mooiste en ik hoop vooral op een heel mooi jaar.
243
00:17:55,559 --> 00:18:01,800
En wat jij ook zei, laten we vooral ons focussen ook op wat we in onze nabije omgeving kunnen doen en onze naasten.
244
00:18:01,799 --> 00:18:11,079
En als vooral niet te veel laten afleiden door geopolitieke bewegingen waar wij zelf toch geen invloed op hebben en eigenlijk alleen maar weemoedig van worden.
245
00:18:11,079 --> 00:18:14,599
Ik hoop dat 2026 in dat opzicht een mooi jaar wordt.
246
00:18:14,599 --> 00:18:21,079
En daar refereer je eigenlijk een beetje aan wat ik gezegd heb op het podium, wat wij overvallen, wil je iets zeggen.
247
00:18:22,039 --> 00:18:23,880
Er wordt zoveel gesproken over.
248
00:18:24,599 --> 00:18:29,240
Het gaat snel, de wereld voelt alsof die onder je voeten vandaan gaat.
249
00:18:29,880 --> 00:18:35,799
Maar uiteindelijk weet je, als we morgen opstaan, lijkt het heel erg op de dag van gisteren.
250
00:18:35,799 --> 00:18:37,560
Tuurlijk is er van alles aan de hand.
251
00:18:37,559 --> 00:18:43,479
Maar ik denk dat we het ook met iets rustiger blik best wel kunnen bekijken.
252
00:18:44,119 --> 00:18:46,519
Een heel mooi principe in de touwen ook.
253
00:18:46,519 --> 00:18:51,400
Het concept van vertragen, versnellen is vaak makkelijk, vertragen, dat is pas moeilijk.
254
00:18:53,400 --> 00:18:55,160
Nou lijkt me een hele mooie afscheid.
255
00:18:55,159 --> 00:18:57,480
Dankjewel.
256
00:18:58,200 --> 00:18:59,080
Leuk toch?
257
00:18:59,079 --> 00:19:00,360
En het mooie is.
258
00:19:01,000 --> 00:19:05,799
Ik kan deze podcast niet maken zonder mijn goede collega en co-host Niels Naglé.
259
00:19:05,799 --> 00:19:08,279
En die wil ik nog uitgebreider aan het woord laten.
260
00:19:08,279 --> 00:19:14,720
Niels heeft nog wat opgenomen zonder dat ik dat wist en mij opgestuurd was en dat wil ik je wel laten horen.
261
00:19:14,360 --> 00:19:19,679
Het mooie is natuurlijk, deze prijs is echt van ons samen, en zo voelt het ook.
262
00:19:14,519 --> 00:19:21,119
Hier komt Niels dan.
263
00:19:22,079 --> 00:19:26,319
Wakker met een hele brede glimlach op mijn gezicht.
264
00:19:26,640 --> 00:19:39,840
En ook een stukje gevoel van dankbaarheid, dankrijk dat we dit kunnen doen, maar ook zeker richting alle gasten die de afgelopen tijd hun kennis en ervaringen, perspectieven met ons hebben gedeeld, gelachen hebben, kritisch zijn geweest.
265
00:19:40,240 --> 00:19:42,880
Heerlijke gesprekken met elkaar hebben gevoerd.
266
00:19:42,880 --> 00:19:45,279
En daar wil ik ook gewoon even bij stilstaan.
267
00:19:45,279 --> 00:19:51,359
Want inmiddels hebben we meer dan 330 afleveringen gemaakt.
268
00:19:51,359 --> 00:19:54,240
En zijn we alweer beland in seizoen 8.
269
00:19:54,240 --> 00:19:57,440
En nee, dit is niet het moment dat we gaan zeggen dat het minder.
270
00:19:57,440 --> 00:20:01,440
Nee, we blijven doorgaan, maar het is een moment om toch even bij stil te staan.
271
00:20:01,839 --> 00:20:06,160
En gewoon trots en blijdschap met iedereen te delen.
272
00:20:06,400 --> 00:20:18,480
En het mooie vind ik zelf ook is dat die gesprekken met zoveel verschillende mensen met allemaal verschillende achtergronden zijn, van wetenschappers, CEO's, docenten, beleidsmakers, kinderen.
273
00:20:18,640 --> 00:20:20,399
Ze zijn allemaal langs geweest.
274
00:20:20,400 --> 00:20:26,399
En we hebben nog veel meer perspectieven die we in de toekomst verder willen gaan belichten.
275
00:20:26,960 --> 00:20:32,000
We hebben het over heel veel verschillende thema's gehad de afgelopen jaren.
276
00:20:32,319 --> 00:20:34,559
Natuurlijk de Responsible AI.
277
00:20:34,559 --> 00:20:42,959
Maar ook verantwoorde AI, praktische implementaties, experimenten die fout zijn gelopen, waar we van geleerd hebben.
278
00:20:42,960 --> 00:20:51,839
De juridische kant, de wetgeving die gevormd is en van kracht is en hoe dat allemaal is ontstaan en waar het heen gaat.
279
00:20:52,160 --> 00:20:57,200
Maar al met al dus mooie open en eerlijke gesprekken tijdens de podcast.
280
00:20:57,680 --> 00:21:08,000
Ik was ook wel heel trots toen we te horen kregen in de aankondiging dat we werden genoemd het betrouwbare kompas in een snel veranderlijk landschap.
281
00:21:08,240 --> 00:21:10,640
Eerlijk over successen en mislukkingen.
282
00:21:10,639 --> 00:21:24,640
En ja, dat is ook precies wat we willen bereiken, we willen no-nonsense, willen we vertellen waar staat het nu met de technologie, wat kan er wel, wat kan er niet om weg te blijven bij de droombeelden, maar eigenlijk gewoon praktisch te houden.
283
00:21:24,640 --> 00:21:25,839
Waar staan we nu?
284
00:21:25,839 --> 00:21:28,000
Wat kunnen we nu en waar gaan we naartoe.
285
00:21:28,000 --> 00:21:30,959
En hoe kunnen we daar mensen bij helpen.
286
00:21:32,319 --> 00:21:39,759
Heel mooie onderwerpen en hele mooie complimenten dat we dus de prijs AI podcast van het jaar hebben geworden.
287
00:21:40,720 --> 00:21:42,560
Ik wil toch ook even een momentje pakken.
288
00:21:42,559 --> 00:21:44,000
Ik weet dat je ook dit niet weet.
289
00:21:45,440 --> 00:21:51,200
Ik wil ook jou even bedanken voor de fijne samenwerking die we al jaren hebben.
290
00:21:51,200 --> 00:21:56,079
Ik waardeer enorm je kritische blik en het scherp blijven.
291
00:21:56,319 --> 00:21:58,720
Het continu blijven vernieuwen.
292
00:21:59,200 --> 00:22:06,160
Zoveel mooie creatieve ideeën die je hebt altijd te vragen: wat kunnen we nog meer?
293
00:22:06,160 --> 00:22:07,680
Kunnen iets nieuws proberen?
294
00:22:07,680 --> 00:22:08,640
Kan dit beter.
295
00:22:08,640 --> 00:22:12,559
En als het niet goed genoeg is, dan spreken we dat ook naar elkaar uit.
296
00:22:13,039 --> 00:22:13,839
Dat vind ik mooi.
297
00:22:13,839 --> 00:22:15,199
Dat vind ik fijne samenwerking.
298
00:22:15,200 --> 00:22:22,159
En ik kan je echt zeggen, ik krijg energie om met jou samen te werken en ik hoop dat nog heel lang te mogen doen.
299
00:22:22,160 --> 00:22:23,759
Dus dank je wel daarvoor.
300
00:22:24,079 --> 00:22:27,040
En op naar nog heel veel mooie gesprekken.
301
00:22:27,920 --> 00:22:29,199
Dat wilde ik gewoon even kwijt.
302
00:22:29,200 --> 00:22:36,879
En dan wil ik eigenlijk ook nog even een momentje nemen om toch even één aflevering naar boven te laten die mij persoonlijk heeft geraakt.
303
00:22:36,880 --> 00:22:41,039
En wat ook wel persoonlijke hoogtepunt was van het afgelopen jaar.
304
00:22:41,039 --> 00:22:45,519
En dat is eigenlijk een hele onverwachte special die we samen gemaakt hebben.
305
00:22:45,839 --> 00:22:50,000
Dat is die met mijn eigen kinderen, mijn zoon Sam en mijn dochter Tess.
306
00:22:50,319 --> 00:22:53,679
Die meegingen naar een podcastopname.
307
00:22:53,680 --> 00:22:58,000
En eigenlijk wilden we voor de grap ook hun laten ervaren.
308
00:22:58,000 --> 00:23:01,119
En dat is eigenlijk een hele mooie podcast opname uitgekomen.
309
00:23:01,119 --> 00:23:04,720
En dat maakt me echt als vader ook heel erg trots.
310
00:23:04,720 --> 00:23:10,480
En toen we thuiskwamen, toen ik had verteld over de AI award, zag je gewoon hoe trots ze waren.
311
00:23:10,480 --> 00:23:13,359
En ja, dat raakte mij echt diep van binnen.
312
00:23:14,000 --> 00:23:17,599
Harder dan ik had verwacht en ik vond het zo mooi om te zien.
313
00:23:17,599 --> 00:23:25,200
En dat dat teweegbrengt met wat wij dagelijks met veel plezier bespreken en hoe we de podcast opnemen.
314
00:23:25,360 --> 00:23:27,919
Dat is echt voor mij een speciaal moment.
315
00:23:28,159 --> 00:23:31,200
Die deze podcast ook voor mij mogelijk gemaakt heeft.
316
00:23:31,840 --> 00:23:35,039
Prachtige woorden van Niels, erg geweldig.
317
00:23:36,000 --> 00:23:41,680
Ik wil ook nog wel een moment stilstaan bij de andere winnaars van de Nationale AI Awards.
318
00:23:41,920 --> 00:23:48,319
Want het mooie van zo'n middag is dat je ziet hoeveel talent en toewijding er is in Nederland op het gebied van AI.
319
00:23:48,639 --> 00:23:52,799
Leuk om te noemen is het AI-boek van het jaar ging naar Bouke Vlierhuis.
320
00:23:52,799 --> 00:23:56,960
En ik moet zeggen, zijn boek heeft mij persoonlijk veel plezier en inzichten gebracht.
321
00:23:56,960 --> 00:23:58,920
Dus een welverdiende winnaar.
322
00:23:58,639 --> 00:24:03,799
AI-spreker van het jaar is Martin van Kranenburg, ook een vaste gast.
323
00:24:04,359 --> 00:24:09,559
Martin, ja, is fantastisch om te zien dat zijn werk zo wordt erkend.
324
00:24:09,559 --> 00:24:12,519
AI-trainer van het jaar is Bas Prins geworden.
325
00:24:12,519 --> 00:24:16,040
AI Educator van het jaar ging naar Computrain.
326
00:24:16,039 --> 00:24:19,480
En AI Company of the Year is Artific.
327
00:24:19,480 --> 00:24:21,720
Aan al deze winnaars ook gefeliciteerd.
328
00:24:21,720 --> 00:24:28,039
Het is mooi om te zien dat de Nederlandse AI-gemeenschap zo bruist van talent en initiatief.
329
00:24:28,680 --> 00:24:35,960
Maar we kunnen dit natuurlijk niet doen zonder de gasten, zonder de luisteraars en zonder de steun.
330
00:24:36,680 --> 00:24:40,839
In ieder geval vanuit mij alvast ontzettend bedankt voor het luisteren.
331
00:24:41,079 --> 00:24:44,759
En Niels, die wil namelijk ook nog even wat daarover zeggen.
332
00:24:44,920 --> 00:24:47,640
Dus iedereen die heeft gestemd, dankjewel.
333
00:24:47,640 --> 00:24:53,799
De jury die voor het vertrouwen in ons en de nominatie heeft mogelijk gemaakt.
334
00:24:53,799 --> 00:25:01,159
Een mooie erkenning hoe we hier inhoud, eerlijke gesprekken en impact met elkaar mogen verwoorden.
335
00:25:01,160 --> 00:25:03,159
Dus iedereen dank daarvoor.
336
00:25:03,799 --> 00:25:09,319
Andere mensen die ik ook nog even graag wil bedanken, is Info Support.
337
00:25:09,319 --> 00:25:10,200
Aigency.
338
00:25:10,200 --> 00:25:19,880
Die het ook voor ons mogelijk maken, die ons ondersteunen, het vertrouwen geven, maar ook vooral de vrijheid om deze podcast volledig redactioneel vrij te kunnen maken.
339
00:25:19,880 --> 00:25:21,960
Zelfde gasten, onderwerpen.
340
00:25:21,960 --> 00:25:27,799
Allemaal zelf te kunnen regelen, maar ons wel te ondersteunen om het mogelijk te maken dat we opnames kunnen doen.
341
00:25:27,799 --> 00:25:34,200
Dus hartstikke bedankt voor jullie samenwerkingen en op nou nog heel veel meer afleveringen.
342
00:25:35,480 --> 00:25:37,480
Genoeg sentiment en plezier.
343
00:25:37,799 --> 00:25:40,839
Hartstikke gaaf dat we dit mogen meemaken.
344
00:25:41,319 --> 00:25:46,120
En ja, ik kan ik zeggen heel veel dank aan iedereen.
345
00:25:46,119 --> 00:25:51,960
En tot de volgende aflevering, want wij gaan er nog zeker vele malen volgen.
346
00:25:51,960 --> 00:25:57,159
En dat doen ze zeker, want ze was gezegd: een nieuwe inhoudelijke aflevering staat al klaar.
347
00:25:57,160 --> 00:26:00,120
Dus voor nu bedankt aan iedereen die op ons heeft gestemd.
348
00:26:00,119 --> 00:26:04,759
Bedankt aan de jury en bedankt aan jou als luisteraar voor je trouw aan deze podcast.
349
00:26:05,079 --> 00:26:10,039
En bedenk AI is niet de oplossing voor elk probleem, maar onmisbaar waar het past.
350
00:26:10,039 --> 00:26:15,160
Tot de volgende.