
AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S07E43 - AI-innovatie van NVIDIA: een exclusief verslag
Vink van den Bosch, IT-consultant bij Info Support België, deelt zijn inzichten over de recente NVIDIA-conferentie in de nieuwste aflevering van AIToday Live. Hij bespreekt de opkomst van Digital Twins, digitale replica's van fysieke objecten voor simulaties en analyses.
Vink belicht ook de toepassing van AI in de biologie, met name bij het voorspellen van eiwitstructuren. Technologische verbeteringen zoals fotonica en waterkoeling in datacenters komen aan bod.
De podcast behandelt ethische kwesties rond AI, waaronder stemklonen en privacybescherming. Vink sluit af met zijn visie op de ideale AI-assistent voor thuis.
Onderwerpen
- Digital Twins en simulaties
- AI in de biologie
- Technologische verbeteringen door NVIDIA
- Ethische overwegingen rond AI
- Toekomstvisie op AI-assistenten
Links
- Podcast: AIToday Live podcast
- Bedrijf: NVIDIA
- Technologie: Digital Twins
- Technologie: GPU's
- AI Model: AlphaFold
- AI Model: ElevenLabs
- AI Model: Runway ML
- Technologie: Diffusiemodellen
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: NVIDIA - AlphaFold
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:04,800
In deze aflevering hoor je Vink van den Bosch, IT-consultant bij Info Support België,
2
00:00:04,800 --> 00:00:11,000
die exclusief verslag doet van de nieuwste NVIDIA-technologieën die hij op afstand volgde tijdens de NVIDIA-conferentie.
3
00:00:11,000 --> 00:00:18,000
Fink vertelt over digitale simulaties van de echte wereld en hoe AI helpt bij complexe biologische vraagstukken.
4
00:00:18,000 --> 00:00:27,000
Met zijn achtergrond als technologische duizendpoot deelt hij hoe deze AI-toepassingen hun weg vinden in alles van scheefstaande torens tot oceaanbodemonderzoek.
5
00:00:27,001 --> 00:00:33,480
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.
6
00:00:33,480 --> 00:00:35,980
Mijn naam Joop Snijder, CTO bij Aigency.
7
00:00:35,980 --> 00:00:38,860
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support.
8
00:00:38,860 --> 00:00:42,940
En vandaag helemaal vanuit België, onze gast, Vink van den Bosch.
9
00:00:42,940 --> 00:00:46,080
Vink, hartstikke leuk dat je hier bent bij ons.
10
00:00:46,080 --> 00:00:46,740
Hey, hallo.
11
00:00:46,740 --> 00:00:50,100
Ja, zou je jezelf eerst willen voorstellen aan de luisteraars?
12
00:00:50,100 --> 00:00:51,620
Ja, ik zal mij snel eens even voorstellen.
13
00:00:51,620 --> 00:00:53,260
Ik ben Vink van den Bosch.
14
00:00:53,260 --> 00:00:58,700
Ik ben eigenlijk gewoon IT-consultant, zoals iedereen in Info Support, maar dan in België.
15
00:00:58,700 --> 00:01:05,220
En eigenlijk ben ik sinds 2018 begonnen met AI en ben ik er zo op die manier in contact mee gekomen.
16
00:01:05,220 --> 00:01:09,980
En met de volledige hypecycle ben ik op die manier eigenlijk in de AI-wereld verder gerold.
17
00:01:09,980 --> 00:01:12,980
En even een beetje wat meer over mijzelf.
18
00:01:12,980 --> 00:01:17,160
Ik zie mijzelf een beetje als een technologische duizendpoot.
19
00:01:17,160 --> 00:01:19,440
Ik probeer overal wel wat mee te spelen.
20
00:01:19,440 --> 00:01:22,320
Zo ben ik de laatste tijd bezig met 3D-printing, modelleren.
21
00:01:22,320 --> 00:01:25,780
Ik ben bezig met Arduino.
22
00:01:25,780 --> 00:01:29,080
Ik heb een tijd aan video-editing gedaan enzovoort.
23
00:01:29,080 --> 00:01:32,380
En ik probeer gewoon overal wat mee te spelen en mee te experimenteren.
24
00:01:32,380 --> 00:01:39,080
En dan vooral nu met de volledige AI-hype ben ik daar ook gewoon volledig mee aan de slag gegaan.
25
00:01:39,080 --> 00:01:40,700
Om eens te zien van wat kan ik ermee doen.
26
00:01:40,700 --> 00:01:42,440
Wat is er allemaal gewoon nieuw.
27
00:01:42,900 --> 00:01:45,960
Dat is eigenlijk hetgeen dat ik heel tof vind.
28
00:01:45,960 --> 00:01:48,400
Gewoon zo dat experimenteren, zien van wat kan ik ermee doen.
29
00:01:48,400 --> 00:01:56,780
En vanuit dat kader, vanuit Info Support België, wilden jullie naar NVIDIA?
30
00:01:56,780 --> 00:01:57,360
Ja.
31
00:01:57,360 --> 00:01:58,600
Wilden jullie toe?
32
00:01:58,600 --> 00:02:00,940
Nou, dat is een hele tour geworden eigenlijk.
33
00:02:00,940 --> 00:02:06,060
Maar voordat we daarover gaan beginnen, eerst misschien even uitleggen.
34
00:02:06,060 --> 00:02:12,120
Wat is het bedrijf NVIDIA en waarom zijn die zo belangrijk op het gebied van kunstmatige intelligentie?
35
00:02:12,120 --> 00:02:18,020
Wel, NVIDIA is het volledige bedrijf dat momenteel echt koploper is op vlak van het maken van de GPU.
36
00:02:18,020 --> 00:02:19,060
Dus grafische kaarten.
37
00:02:19,060 --> 00:02:23,400
En grafische kaarten worden heel hard gebruikt in de AI-wereld.
38
00:02:23,400 --> 00:02:26,760
Omdat die gewoon zeer goed zijn in het paralleliseren van verschillende taken.
39
00:02:26,760 --> 00:02:34,600
En qua computatie zijn ze dus veel beter voor bijvoorbeeld de trainen van AI-modellen.
40
00:02:34,600 --> 00:02:40,840
Eens dat dan de AI-modellen getraind zijn, dan worden die ook vaak gebruikt voor vervolgens die modellen verder te runnen enzovoort.
41
00:02:40,840 --> 00:02:47,740
Op die manier is NVIDIA eigenlijk zeer sterk gegroeid, omdat er gewoon een grote vraag was naar grafische kaarten.
42
00:02:49,640 --> 00:03:01,580
In de afgelopen meerdere jaren, ik weet niet hoe lang dat nu al is, zijn zij ook gewoon heel hard aan het inzetten op hun eigen zaken, te ontwikkelen hun eigen software, extra hardware.
43
00:03:01,580 --> 00:03:06,720
Verder aan het inzetten op dus echt alles van computatie, van serverracks enzovoort.
44
00:03:06,720 --> 00:03:10,360
En daarmee hebben zij er ook gewoon echt veel over te vertellen.
45
00:03:10,360 --> 00:03:17,000
Want afhankelijk van eigenlijk de producten die zij leveren, gaat de AI-wereld bijna in een bepaalde richting uit.
46
00:03:17,000 --> 00:03:23,540
Ja, dat is echt wel richtinggevend in de innovatie van de GPU's en de toepassing daarvoor voor AI.
47
00:03:23,540 --> 00:03:27,600
Ja, en voor die reden wilden wij eigenlijk ook gewoon echt graag naar daar gaan.
48
00:03:27,600 --> 00:03:33,380
Natuurlijk bij NVIDIA gaat een heel groot deel natuurlijk over hun hardware.
49
00:03:33,380 --> 00:03:36,940
Dat is niet zozeer hetgeen waar wij als IT-consultant in geïnteresseerd zijn.
50
00:03:36,940 --> 00:03:43,200
Maar alles dat ze ernaast doen, alles van opdrachten en de sprekers die er naartoe komen, dat is dan wel op een top interessant.
51
00:03:43,320 --> 00:03:48,540
Wanneer we het hebben over, er waren verschillende talks, ik ga er nu een paar gewoon voor noemen.
52
00:03:48,540 --> 00:03:51,200
Maar bijvoorbeeld de volledige opkomst van Digital Twins.
53
00:03:51,200 --> 00:03:57,020
Het idee dat we via gewoon videomateriaal even een ruimte kunnen 3D mappen.
54
00:03:57,020 --> 00:03:59,800
En daar dan van alles doen met die ruimte.
55
00:03:59,800 --> 00:04:02,260
Bijvoorbeeld simulaties daarin uitvoeren.
56
00:04:02,260 --> 00:04:06,260
Die ruimte gewoon, die koppelen aan sensoren.
57
00:04:06,920 --> 00:04:09,800
Zo was er een verhaal van de Garicentatoren in Bologna.
58
00:04:09,800 --> 00:04:15,040
Dat is net zoals de toren van Pisa, een toren die ongeveer 4 graden scheef staat.
59
00:04:15,040 --> 00:04:17,279
En ze hebben die eigenlijk gewoon volgezet met sensoren.
60
00:04:17,279 --> 00:04:19,680
Dus om alles te kunnen opmeten van wat gebeurt er met die toren.
61
00:04:19,680 --> 00:04:24,340
Heilt die afhankelijk van de wind, hoe die een beetje heen en weer zwaait enzovoort.
62
00:04:24,340 --> 00:04:28,780
En ze hebben dat dan ook gewoon in Men & Digital Twin omgezet.
63
00:04:28,780 --> 00:04:32,480
Dus een volledig 3D model dat je kan kijken van oké, wat gebeurt er in die toren.
64
00:04:32,600 --> 00:04:34,100
Even kijken afhankelijk van tijd.
65
00:04:34,100 --> 00:04:38,180
En met als doel dus ook om vooral ons simulaties erop te kunnen uitvoeren.
66
00:04:38,180 --> 00:04:39,860
Van wat gebeurt er als er meer wind is.
67
00:04:39,860 --> 00:04:41,900
Nu, daar zijn ze nog niet helemaal.
68
00:04:41,900 --> 00:04:46,200
Maar zo die volledige beweging, ik vind dat wel heel boeiend.
69
00:04:46,200 --> 00:04:49,260
Een andere groep was bijvoorbeeld bezig met dezelfde technologie,
70
00:04:49,260 --> 00:04:51,760
de volledige oceaanvloer uit de mappen.
71
00:04:51,760 --> 00:04:53,480
Nu, ze zijn klein begonnen met de Beringzee.
72
00:04:53,480 --> 00:04:56,040
Maar ze hebben daar wel serieus wat vooruitgang gemaakt.
73
00:04:56,040 --> 00:04:58,600
En het doel is daar dan ook weer van wat gebeurt er.
74
00:04:58,600 --> 00:05:01,920
Afhankelijk van als er warm water komt, wat voor invloed heeft dat op de rest.
75
00:05:02,400 --> 00:05:04,880
En dat soort simulaties, dat boeit mij echt wel enorm.
76
00:05:04,880 --> 00:05:06,120
Mooi.
77
00:05:06,120 --> 00:05:11,200
Maar jullie waren van plan om naar Amerika te gaan.
78
00:05:11,200 --> 00:05:11,400
Ja.
79
00:05:11,400 --> 00:05:12,940
En dat is niet helemaal gelukt, hè?
80
00:05:12,940 --> 00:05:14,720
Nee, alles stond helemaal klaar.
81
00:05:14,720 --> 00:05:16,040
We hadden de tickets geboekt.
82
00:05:16,040 --> 00:05:21,200
We stonden op het punt, we hadden ondertussen al gekeken van welke Airbnbs dat we gingen boeken.
83
00:05:21,200 --> 00:05:23,820
En welke vliegtuigen hadden we allemaal geregeld.
84
00:05:23,820 --> 00:05:25,960
Het was ook een beetje een lange vlucht natuurlijk.
85
00:05:25,960 --> 00:05:28,720
Wel met ongeveer 18 uur om tot daar te geraken in Los Angeles.
86
00:05:29,240 --> 00:05:31,240
Maar we dachten van, sure, we gaan ervoor.
87
00:05:31,240 --> 00:05:32,120
Dat gaat tof worden.
88
00:05:32,720 --> 00:05:35,420
En dan begon alles een beetje te escaleren.
89
00:05:35,420 --> 00:05:43,260
Nu, ik wil niet te verduiken in politiek en zo, maar plotseling vielen er twee vliegtuigen uit de lucht op een week tijd.
90
00:05:43,260 --> 00:05:48,340
En dat is zoiets van, ja oké, statistisch gezien is de kans heel klein dat ons vliegtuig neerstort.
91
00:05:48,340 --> 00:05:49,980
Daar maak ik mij nu ook echt geen zorgen over.
92
00:05:50,980 --> 00:05:53,100
Maar hoe gaat het verder escaleren?
93
00:05:53,100 --> 00:05:55,800
Wat is de kans dat wij gedeporteerd worden?
94
00:05:55,800 --> 00:05:58,340
Dat was een vraagteken die we op dat moment nog niet hadden.
95
00:05:58,340 --> 00:06:02,880
We moesten me vandaag de dag stellen, dan zou ik er toch ook even iets langer over nadenken.
96
00:06:02,880 --> 00:06:03,440
Ja, precies.
97
00:06:03,440 --> 00:06:09,420
Dus jullie hebben eigenlijk van afstand alle praatjes die daar gehouden werden bekeken?
98
00:06:09,420 --> 00:06:11,760
Ja, alle praatjes is jammer genoeg net iets te veel.
99
00:06:11,760 --> 00:06:15,080
Er zijn ongeveer 1200 sessies die worden gegeven op een week tijd.
100
00:06:15,940 --> 00:06:18,880
Veel daarvan zijn ook, die worden gegeven remote vanuit Europa.
101
00:06:18,880 --> 00:06:21,080
Veel daarvan zijn ook op locatie zelf.
102
00:06:21,080 --> 00:06:27,440
Dus dat is eigenlijk echt gewoon een volledige dag lang door dat er bijna op elk uur wel een sessie ingepland staat.
103
00:06:27,440 --> 00:06:31,700
Nu, we hebben wel geprobeerd om de meeste die interessant zijn allemaal te volgen.
104
00:06:31,700 --> 00:06:35,800
En we hebben er dan ook echt wel van tussenuit zitten, kiezen van welke nemen we, welke nemen we niet.
105
00:06:35,800 --> 00:06:41,360
En ja, we hebben dus op die manier ongeveer een dikke vier dagen gevuld aan dus allemaal sessies bekijken.
106
00:06:41,360 --> 00:06:45,400
Ja, en daarom dachten wij ook van, hé, dan moeten we Fink uitnodigen.
107
00:06:45,820 --> 00:06:49,220
Ja, jij hebt nu, zeg maar, van alles daar gehoord.
108
00:06:49,220 --> 00:06:57,080
En nogmaals, hè, dus Nvidia, zeg maar zonder de grafische kaarten, daar kunnen we niks met AI.
109
00:06:57,080 --> 00:06:59,900
Dus zonder de hardware, geen taalmodellen.
110
00:06:59,900 --> 00:07:03,060
Ja, er zijn natuurlijk ook nog andere bedrijven zoals AMD.
111
00:07:03,060 --> 00:07:09,460
Maar wanneer dat echt gaat over zo die cutting edge toepassingen en echt, daar loopt Nvidia gewoon iets verder voor.
112
00:07:09,460 --> 00:07:17,020
Maar als ze echt zelf die drivers produceren die nu overal gebruikt worden, dan spreken we over natuurlijk de CUDA drivers die heel populair zijn en heel in trek.
113
00:07:17,020 --> 00:07:24,600
En ja, AMD is wel bezig met een eigen variatie erop te maken of een soort van translatielaag bovenop die CUDA drivers.
114
00:07:24,980 --> 00:07:27,380
Maar momenteel is dat er gewoon nog niet op hetzelfde punt.
115
00:07:27,380 --> 00:07:27,700
Ja.
116
00:07:27,700 --> 00:07:29,500
Ja, zeg maar.
117
00:07:29,500 --> 00:07:38,500
Ja, ik ben wel benieuwd inderdaad, na die vier dagen, als je daar terugkijkt, wat zijn de drie grootste topics waar jullie voor gekozen hebben om echt verder de diepte in te duiken?
118
00:07:38,880 --> 00:07:46,520
Wel, ik heb samen met een andere collega, Ismael, zijn wij samen de trackers van de AI-groep in België.
119
00:07:46,520 --> 00:07:50,720
En wij hebben dan eigenlijk geprobeerd om allebei op wat verschillende topics aan te sluiten.
120
00:07:50,720 --> 00:07:55,360
Waaronder dat we het dan echt hebben over dus de large language models en onder andere agents.
121
00:07:55,360 --> 00:07:57,180
Kijken in welke richting gaat dat.
122
00:07:57,180 --> 00:07:59,620
Dat zijn zaken dat Ismael vooral is naar gaan kijken.
123
00:07:59,620 --> 00:08:04,360
Van zien van oké, hoe kunnen we het nu echt toepassen als software engineer en wat is er daar interessant, wat is er upcoming.
124
00:08:05,080 --> 00:08:11,680
Ik heb mij vooral eigenlijk proberen te focussen op de andere zaken, alles van simulaties, waaronder digital twins, robotics.
125
00:08:11,680 --> 00:08:20,200
Voorbeeld ook nog, dat is gewoon eigenlijk een persoonlijk interesse, maar ben ik naar veel zaken gaan kijken, alles rondom genomen en proteïnen en zo.
126
00:08:20,200 --> 00:08:25,740
Dat is een beetje het verhaal van AlphaFold 3 van de afgelopen maanden, waarvoor ze ook trouwens een Nobelprijs hebben gekregen.
127
00:08:25,740 --> 00:08:27,360
Dat is altijd leuk om te vermelden.
128
00:08:27,360 --> 00:08:31,640
Maar zo dat verhaal van wat is er daar aan het gebeuren, vind ik ook gewoon heel boeiend.
129
00:08:32,280 --> 00:08:35,400
Zou je daar wat meer over kunnen vertellen, want dat is natuurlijk wel heel interessant.
130
00:08:35,400 --> 00:08:40,740
Welke rol speelt eigenlijk AI dan rondom eiwitten en proteïne?
131
00:08:40,740 --> 00:08:43,059
Dat is een...
132
00:08:43,059 --> 00:08:45,240
Wacht, ik ga even moeten...
133
00:08:45,240 --> 00:08:51,140
Dus proteïnefolding is een topic die al heel lang speelt in de wereld van biologie.
134
00:08:51,140 --> 00:08:53,640
De vraag van wat gebeurt er met een proteïne?
135
00:08:53,640 --> 00:08:57,280
Nu, we hebben een volledige keten, maar hoe ziet die eruit als 3D-structuur?
136
00:08:57,600 --> 00:09:01,960
Afhankelijk van hoe dat hieruit ziet als 3D-structuur, kunnen daar andere eigenschappen aan hangen.
137
00:09:01,960 --> 00:09:04,840
En dan gaat die ook op een andere manier interacteren met andere proteïne.
138
00:09:04,840 --> 00:09:08,460
Dus wat is nu het verhaal van AlphaFold eigenlijk?
139
00:09:08,460 --> 00:09:09,800
Dat is...
140
00:09:09,800 --> 00:09:12,200
Dat wordt ook wel iets te hard opgeblazen.
141
00:09:12,200 --> 00:09:13,660
Dat is een heel interessant verhaal.
142
00:09:14,040 --> 00:09:19,600
Maar die structuur voorspellen, dat is een lang en duur en zwaar proces.
143
00:09:19,600 --> 00:09:22,140
Dat vroeger echt vooral manueel werd gedaan.
144
00:09:22,140 --> 00:09:25,780
En waar er ook wedstrijden voor werden gehouden, waar er teams tegen elkaar kwamen te staan,
145
00:09:25,780 --> 00:09:29,540
om te proberen die proteïne-structuur zo snel mogelijk te kunnen mappen.
146
00:09:29,540 --> 00:09:30,640
En dan vervolgens...
147
00:09:30,640 --> 00:09:34,360
Wat hebben we eraan als we zo'n mapping hebben dan?
148
00:09:34,360 --> 00:09:39,880
Wel, eens dat we die mapping hebben, dan kunnen we daar vervolgens echt meer die eigenschappen aan beginnen toe te wijden.
149
00:09:39,880 --> 00:09:43,260
en zien van, oké, hoe ziet dat er nu uit en wat zijn de verwachtingen daarom?
150
00:09:43,260 --> 00:09:47,440
Ik ben zelf geen bioloog, dus de volgende stap en hoe we die informatie gebruiken,
151
00:09:47,440 --> 00:09:54,020
bijvoorbeeld het maken van nieuwe medicatie, begrijpen hoe dat ziektes invloed hebben op bepaalde ziektes.
152
00:09:54,020 --> 00:09:57,520
Niet elke ziekte natuurlijk, maar hoe dat bepaalde ziektes, enzymen beïnvloeden,
153
00:09:57,520 --> 00:09:59,340
hoe dat bacteriën beïnvloed worden.
154
00:09:59,340 --> 00:10:02,580
Dat zijn allemaal een beetje de vraagtekens die daaruit kunnen voortkomen.
155
00:10:02,580 --> 00:10:04,060
En de volgende stappen.
156
00:10:04,060 --> 00:10:07,560
Nu, AlphaFold, dat lijkt als een keigrote explosie.
157
00:10:07,820 --> 00:10:11,640
We gaan kijken naar de volledige building blocks of life itself.
158
00:10:11,640 --> 00:10:16,280
Dat is natuurlijk ook echt wel speciaal.
159
00:10:16,280 --> 00:10:20,660
En dat volledig proces vroeger, dat dus manueel werd gedaan, dat is nu veel versneld.
160
00:10:20,660 --> 00:10:22,320
Maar dat is natuurlijk nog niet de eindstap.
161
00:10:22,320 --> 00:10:27,200
En dit is een volgende stap, dat versnelt een bepaald deel van het proces,
162
00:10:27,200 --> 00:10:30,280
waardoor dat nu dus de mensen die daarmee bezig zijn,
163
00:10:30,280 --> 00:10:32,520
op een makkelijker manier voorspellingen kunnen maken.
164
00:10:32,520 --> 00:10:35,880
En bijvoorbeeld sneller is iets kunnen simuleren, is kijken van wat gaat er gebeuren.
165
00:10:35,880 --> 00:10:39,840
Hoe zou dit mogelijk iets kunnen beïnvloeden.
166
00:10:39,840 --> 00:10:41,320
Is dat de eindstap?
167
00:10:41,320 --> 00:10:44,920
Nee, we hebben nog altijd die biologen heel hard nodig om alle vervolgstappen te doen.
168
00:10:44,920 --> 00:10:47,360
En ik zie het een beetje, om er snel op terug te komen,
169
00:10:47,360 --> 00:10:51,880
dat is de volledige, hoe wij als programmeur nu overweg gaan met bijvoorbeeld large language models.
170
00:10:51,880 --> 00:10:53,340
Het is niet dat dat ons vervangt.
171
00:10:53,340 --> 00:10:56,080
Het augmenteert ons proces, het versnelt bepaalde stappen.
172
00:10:56,080 --> 00:10:57,840
Het vertraagt sommige anderen dan weer.
173
00:10:58,240 --> 00:11:02,140
Maar het geeft ons dan op andere vlakken weer helemaal opties die er vroeger niet waren.
174
00:11:02,140 --> 00:11:07,900
En op eenzelfde manier is AlphaFold eigenlijk daar een mini-revolutie aan het starten,
175
00:11:07,900 --> 00:11:10,060
dat we nu vandaag de dag nog niet gaan zien.
176
00:11:10,060 --> 00:11:14,800
Maar dat is vooral door het volledige proces van dus medicijnen die ontwikkeld worden,
177
00:11:14,800 --> 00:11:15,880
de tijd die daarin zit.
178
00:11:15,880 --> 00:11:20,060
Maar ik vermoed wel dat als dit verder evolueert en dat dit ook sterker wordt,
179
00:11:20,060 --> 00:11:24,180
dat we echt wel binnen dit en tien jaar daar serieuze invloed van gaan zien.
180
00:11:24,180 --> 00:11:25,220
Wat gaaf.
181
00:11:27,140 --> 00:11:27,840
Wauw, ja.
182
00:11:27,840 --> 00:11:31,140
En ook een Nobelprijs dus, die ze daarmee gewonnen hebben.
183
00:11:31,140 --> 00:11:32,560
Ja, fun fact.
184
00:11:32,560 --> 00:11:35,520
Er zijn twee Nobelprijzen gegeven voor AI afgelopen jaar.
185
00:11:35,520 --> 00:11:38,200
Niet iedereen ging er even hard mee akkoord.
186
00:11:38,200 --> 00:11:44,440
De vraag van de Nobelprijs voor Fysica voor AI,
187
00:11:44,440 --> 00:11:47,060
ik vind persoonlijk dat ze dat wel zeker hebben verdiend.
188
00:11:47,060 --> 00:11:48,960
Maar daar was er dan heel veel rumoer over,
189
00:11:48,960 --> 00:11:50,660
van verdiend is het echt of verdiend is het niet echt.
190
00:11:50,660 --> 00:11:53,380
Maar die voor AlphaFold ga ik honderd procent mee akkoord.
191
00:11:53,500 --> 00:11:57,400
Dat was op en top iets dat we op aan het wachten waren.
192
00:11:57,400 --> 00:11:57,820
Ja.
193
00:11:57,820 --> 00:12:03,520
En de Nobelprijs niet alleen van AI, maar een combinatie waar AI dus een bijdrage heeft geleverd aan de Nobelprijs.
194
00:12:03,520 --> 00:12:06,720
En ook vernoemd is inderdaad in de Nobelprijs.
195
00:12:09,100 --> 00:12:11,880
En andere, volgens mij vroeg je daarom?
196
00:12:11,880 --> 00:12:12,320
Drie.
197
00:12:12,320 --> 00:12:12,660
Ja.
198
00:12:12,660 --> 00:12:13,960
Dus er was één.
199
00:12:13,960 --> 00:12:14,780
Er was één.
200
00:12:14,780 --> 00:12:16,080
Wat heb ik allemaal gezegd?
201
00:12:16,080 --> 00:12:19,800
Ja, als topic zeg maar, die eiwitten proteïne.
202
00:12:19,800 --> 00:12:22,020
Ja, dan gaan we nog verder.
203
00:12:22,020 --> 00:12:25,500
Het verhaal van de Digital Twins heb ik hier net al een beetje uitgelegd,
204
00:12:25,500 --> 00:12:29,520
met het volledig verhaal van de Garry Senna Toren en het mappen van onder andere de zee.
205
00:12:29,980 --> 00:12:36,020
Maar een interessante topic dat daar ook voor gebruikt wordt is het trainen van zelfrijdende auto's.
206
00:12:36,020 --> 00:12:36,660
Ja.
207
00:12:36,660 --> 00:12:39,420
We hebben heel veel materiaal, maar eigenlijk ook weer niet.
208
00:12:39,420 --> 00:12:43,660
We hebben veel materiaal van auto's die rondrijden in bepaalde gebieden en zo.
209
00:12:44,160 --> 00:12:51,740
Maar om dan nu vervolgens te extrapoleren, kunnen we synthetische data produceren met behulp van Digital Twins op die data.
210
00:12:51,740 --> 00:12:54,140
Ja, dus als ik even voor mezelf vertaal.
211
00:12:54,140 --> 00:12:59,160
We hebben nu auto's die zijn zelflerend in Amerika, op de straten in Amerika.
212
00:12:59,160 --> 00:13:00,000
Maar zelfrijdend.
213
00:13:00,000 --> 00:13:01,340
Zelfrijdend inderdaad, wat zei ik?
214
00:13:01,340 --> 00:13:02,000
Zelflerend.
215
00:13:02,000 --> 00:13:03,880
Zelflerend, nee zelfrijdend inderdaad.
216
00:13:03,880 --> 00:13:11,620
Rijden ze op basis van de wegen in Amerika, waarbij we in Amsterdam en in Nederland best wel wat andere omstandigheden hebben.
217
00:13:12,540 --> 00:13:18,640
Dat maakt het, zoals ik het goed begrijp, mogelijk om te gaan simuleren met wat we al hebben van Street View of andere bronnen.
218
00:13:18,640 --> 00:13:22,220
Nu, in eerste instantie gaat het echt over de data die we al hebben.
219
00:13:22,220 --> 00:13:26,420
Dus dat is dan vooral die Amerikaanse data van de auto's die nu aangetraind worden.
220
00:13:26,420 --> 00:13:31,620
Maar stel nu dat we dat model beter willen maken in bijvoorbeeld mistige toestanden.
221
00:13:31,620 --> 00:13:34,380
We hebben heel veel materiaal van waarschijnlijk zonnige toestanden.
222
00:13:34,380 --> 00:13:36,520
Mistige toestanden komen we gewoon minder vaak voor.
223
00:13:36,520 --> 00:13:42,400
En dan kunnen we via dus eerst die Digital Twin die data dus omzetten naar een gesimuleerde omgeving.
224
00:13:42,400 --> 00:13:47,900
En dan in die gesimuleerde omgeving bijvoorbeeld mist toevoegen, regen toevoegen enzovoort.
225
00:13:47,900 --> 00:13:53,460
Sneeuw, we kunnen de kleuren helemaal aanpassen, donkerder maken, lichter maken, ruis toevoegen.
226
00:13:53,460 --> 00:13:57,120
En op die manier augmenteren we die data zoals we vaker doen in AI.
227
00:13:57,640 --> 00:14:06,040
En kunnen we veel meer, kunnen we dat model beter trainen op allemaal die uitzonderlijke situaties.
228
00:14:06,040 --> 00:14:09,240
Ja, situaties waar nog niet heel veel van in de data terug te vinden is inderdaad.
229
00:14:10,700 --> 00:14:16,820
En daar helpt de Nvidia grafische kaarten bij voor die simulatie en die rekening.
230
00:14:16,820 --> 00:14:21,360
Ja, dat is inderdaad echt die software dat ze nu aan het ontwikkelen zijn voor die Digital Twins.
231
00:14:21,360 --> 00:14:24,600
Dus dat is het volledige verhaal van Gaussian Splatting dan ook weer.
232
00:14:24,600 --> 00:14:27,880
Waar we gewoon met camerabeelden een omgeving creëren.
233
00:14:27,880 --> 00:14:29,560
Een puntenwolk waar we doorbewegen.
234
00:14:30,400 --> 00:14:33,620
Heb je naast, want we hebben nou gebouwen en een auto.
235
00:14:33,620 --> 00:14:37,120
Heb je nog andere voorbeelden van Digital Twins?
236
00:14:37,120 --> 00:14:40,440
Ik ben even aan het nadenken.
237
00:14:40,440 --> 00:14:46,760
In robotica komt het ook meer en meer voor waar er nu Digital Twins worden gebruikt.
238
00:14:46,760 --> 00:14:51,420
Met bijvoorbeeld het aanleren van een robot die een blokje moet oppakken ofzovoort.
239
00:14:51,420 --> 00:14:56,340
Dat we Digital Twins gebruiken om eigenlijk twee situaties naast elkaar te bekijken.
240
00:14:56,340 --> 00:14:59,080
De real-life variant en de gesimuleerde variant.
241
00:14:59,260 --> 00:15:03,580
Waar dat eigenlijk de real-life variant, wat er daar gebeurt aan de hand van de sensoren,
242
00:15:03,580 --> 00:15:08,160
invloed heeft op de Digital Twin variant waar dat dus alles van berekeningen op uitgevoerd worden.
243
00:15:08,160 --> 00:15:08,680
Oh ja.
244
00:15:08,680 --> 00:15:14,280
Dus om op die manier proberen robotica beter te kunnen laten omgaan met bijvoorbeeld situaties
245
00:15:14,280 --> 00:15:15,800
waar het niet op getraind is.
246
00:15:15,800 --> 00:15:18,540
Wat moet je je daarbij voorstellen?
247
00:15:18,540 --> 00:15:21,380
Stel nu dat er in de real-life variant een persoon dichterbij komt.
248
00:15:21,380 --> 00:15:24,940
In die gesimuleerde variant, die weet niet wat een persoon is.
249
00:15:24,940 --> 00:15:26,140
Die kent dat niet specifiek.
250
00:15:26,140 --> 00:15:28,520
Die kan daar niet jou plotseling tevoorschijn laten komen.
251
00:15:29,000 --> 00:15:31,500
Maar dat die wel informatie kan eruit halen.
252
00:15:31,500 --> 00:15:36,680
En dan via via natuurlijk wel bijvoorbeeld object detection herkennen dat er een hand is.
253
00:15:36,680 --> 00:15:40,040
En misschien dat dan feeden aan de Digital Twin.
254
00:15:40,040 --> 00:15:42,180
Van hier is een plaats waar we iets kunnen opleggen.
255
00:15:42,180 --> 00:15:46,600
Om dan het model, de robot te zeggen van hier kan je een blokje ook leggen.
256
00:15:46,600 --> 00:15:47,520
Ja, precies.
257
00:15:47,920 --> 00:15:51,040
Is dat nu zover als ik het nu beschrijf?
258
00:15:51,040 --> 00:15:53,720
Nee, maar op die manier worden Digital Twins ook gebruikt.
259
00:15:53,720 --> 00:15:55,300
Ook wanneer we kijken naar warehouses.
260
00:15:55,300 --> 00:15:58,860
Waar we bijvoorbeeld een Digital Twin zouden maken van ons volledig warenhuis.
261
00:15:58,860 --> 00:16:02,300
Om bijvoorbeeld te kijken van waar zitten mijn zelfrijdende voertuigjes.
262
00:16:02,300 --> 00:16:04,880
Wat gebeurt er als er iets op de grond valt enzo.
263
00:16:05,080 --> 00:16:08,000
Simulaties doen, het kortste pad berekenen enzovoort.
264
00:16:08,000 --> 00:16:11,240
Ja, en vooral ook uitzonderingssituaties hier denk ik ook.
265
00:16:11,240 --> 00:16:15,500
Het gaat er precies om van een schap afvalt.
266
00:16:15,500 --> 00:16:17,600
En je hebt zelfrijdende karretjes.
267
00:16:17,600 --> 00:16:19,220
Wat dan?
268
00:16:19,360 --> 00:16:20,020
Ja, precies.
269
00:16:20,020 --> 00:16:20,800
Wat gebeurt er dan?
270
00:16:20,800 --> 00:16:22,980
Er is trouwens ook nog iets interessants over te zeggen.
271
00:16:22,980 --> 00:16:25,340
Ik zag het overlaatst voorbij komen.
272
00:16:25,340 --> 00:16:28,420
Een model op GitHub genaamd SpatialLM.
273
00:16:28,420 --> 00:16:33,500
Waar je op basis van je camerabeelden een 3D-omgeving kan mappen.
274
00:16:33,500 --> 00:16:34,780
Zelf via Gaussian Splatting.
275
00:16:34,780 --> 00:16:36,300
Maar dan vervolgens die...
276
00:16:36,300 --> 00:16:37,000
Via wat?
277
00:16:37,000 --> 00:16:38,760
SpatialLM noemt.
278
00:16:38,760 --> 00:16:39,380
Het is gewoon...
279
00:16:39,380 --> 00:16:40,880
Nee, maar je zei...
280
00:16:40,880 --> 00:16:42,740
Sorry, je neemt je camerabeelden.
281
00:16:42,740 --> 00:16:45,460
Dan Gaussian Splatting is het proces dat noemt.
282
00:16:45,460 --> 00:16:49,260
Dan probeert je eigenlijk een puntenwolk te creëren van de omgeving waar je in zit.
283
00:16:49,260 --> 00:16:50,660
Dus dat is gewoon dat hij...
284
00:16:50,660 --> 00:16:53,140
Een 3D-model eigenlijk creëert.
285
00:16:53,140 --> 00:16:57,900
Op basis van hoe je camera beweegt, schat hij in van wat de afstand is van bijvoorbeeld een schap.
286
00:16:57,900 --> 00:17:02,260
En dan geeft hij in die omgeving die je aan het creëren is, een puntje met de kleur van je schap.
287
00:17:02,260 --> 00:17:05,900
Dus dan heb je ook niet meer per se 3D-camera nodig.
288
00:17:05,900 --> 00:17:09,560
Dan kan je met een gewone camera deze functie mogelijk maken.
289
00:17:09,560 --> 00:17:10,099
Ja, exact.
290
00:17:10,099 --> 00:17:13,619
En dus dat je gewoon met je camera door je eigen omgeving rondloopt.
291
00:17:13,619 --> 00:17:15,960
Dat allemaal steekt in SpatialLM.
292
00:17:16,400 --> 00:17:20,760
En dan eigenlijk met de kracht van een large language model ook nog vragen kan stellen over die omgeving.
293
00:17:20,760 --> 00:17:25,240
Bijvoorbeeld, daar zijn we nog helemaal niet, maar dat zijn de voorbeelden die ze aangeven.
294
00:17:25,240 --> 00:17:27,400
Want stel nu dat we een zelf...
295
00:17:27,400 --> 00:17:32,020
Ja, een typisch zelfrijde stofzuiger hebben die door de omgeving gaat.
296
00:17:32,020 --> 00:17:35,380
Die de vraag krijgt van bijvoorbeeld, hoe geraak ik nu naar de badkamer?
297
00:17:36,860 --> 00:17:46,700
Ik heb dat je een soort van home assistant hebt en dat je zegt tegen je robot van, hey, ik zou graag hebben dat de badkamer even gestofzuigd wordt.
298
00:17:46,700 --> 00:17:48,960
Dat die dat kan begrijpen, dat commando.
299
00:17:48,960 --> 00:17:51,320
En vervolgens zijn eigen pad naar daar kan het vinden.
300
00:17:51,320 --> 00:17:52,860
Ah, wat grappig.
301
00:17:52,860 --> 00:17:58,720
En haalden ze daar ook richting bedrijven daar ook nog use cases voor?
302
00:17:58,720 --> 00:18:00,680
Hoe bedoel je, bij NVIDIA?
303
00:18:01,180 --> 00:18:03,000
Ja, in die praatjes.
304
00:18:03,000 --> 00:18:07,080
Of, nee, dit heb je natuurlijk gezien, zei je net via GitHub.
305
00:18:07,080 --> 00:18:08,080
Ja, speciale lens is nog iets apart.
306
00:18:08,080 --> 00:18:09,180
Oh ja, sorry.
307
00:18:09,180 --> 00:18:10,900
Ik ga even de dingen door elkaar.
308
00:18:10,900 --> 00:18:13,840
Ja, daar weet ik nog niet direct van welke situaties dat we er gaan bij hebben.
309
00:18:13,840 --> 00:18:21,260
Maar ik kan me dan voorstellen, stel ik om toe in het gemeentehuis en ik heb een vraag van bijvoorbeeld, hoe geraak ik bij kantoor nummer B?
310
00:18:21,260 --> 00:18:21,700
Ja.
311
00:18:21,700 --> 00:18:24,580
Ah ja, kantoor B of kantoor C, hoe dan ook.
312
00:18:24,580 --> 00:18:25,780
Hoe geraak ik daar?
313
00:18:26,020 --> 00:18:32,720
En dat we dan bijvoorbeeld ergens een monitor zouden zetten, waar je de vraag aan kan stellen en dat die gewoon even aantoont op de map van, hey, volg dit pad.
314
00:18:32,720 --> 00:18:36,420
Nou ja, die uitdaging zie ik in supermarkten die ook steeds meer in apps terecht gaan komen.
315
00:18:36,420 --> 00:18:36,820
Ja, exact.
316
00:18:36,820 --> 00:18:39,500
Is inderdaad, ik ben op zoek naar de hagelslag van dit merk.
317
00:18:39,500 --> 00:18:42,520
Ik zit in deze winkel, op deze locatie.
318
00:18:42,520 --> 00:18:43,880
Is het product er?
319
00:18:43,880 --> 00:18:45,500
En zo, ja, waar ligt het op dit moment?
320
00:18:45,500 --> 00:18:46,940
En help maar even daarnaar toe.
321
00:18:46,940 --> 00:18:51,000
Dat zijn ontwikkelingen die we in de praktijk ook steeds vaker zien gebeuren inderdaad.
322
00:18:51,000 --> 00:18:52,060
Dus dat zijn wel echt toepassingen.
323
00:18:52,060 --> 00:18:52,280
Ja.
324
00:18:52,280 --> 00:18:53,620
En ik was ook al geïntrigeerd.
325
00:18:53,620 --> 00:18:57,720
Volgens mij stappen we er heel snel overheen.
326
00:18:57,720 --> 00:19:01,300
Dus dat je vragen stelt aan een ruimte of een gebouw.
327
00:19:01,300 --> 00:19:06,080
Dat is wel een concept waar ik eventjes aan moet wennen, toch?
328
00:19:06,080 --> 00:19:07,500
Ik bedoel, het is heel cool dat het kan.
329
00:19:07,500 --> 00:19:09,880
Ja, wat betekent het eigenlijk?
330
00:19:09,880 --> 00:19:11,060
Wat ben je eigenlijk aan het doen?
331
00:19:11,060 --> 00:19:13,480
Ik kan wel eens praten met een gebouw.
332
00:19:13,480 --> 00:19:13,740
Ja.
333
00:19:14,960 --> 00:19:17,360
Ik heb het zelf nog niet up and running gekregen.
334
00:19:17,360 --> 00:19:20,080
Maar ik ga er in de komende weken eens mee experimenteren.
335
00:19:20,080 --> 00:19:21,820
En zien van waar liggen die limitaties nu.
336
00:19:21,820 --> 00:19:24,900
Dat is nu ook weer echt op en top een upcoming evolutie.
337
00:19:24,900 --> 00:19:29,620
Maar als dit soort zaken werken, dan zie ik weer op en top keiveel situaties.
338
00:19:29,620 --> 00:19:31,180
Bijvoorbeeld zoals in de supermarkt.
339
00:19:31,180 --> 00:19:33,740
Ziekenhuizen hebben hier natuurlijk ook altijd mee te maken.
340
00:19:33,740 --> 00:19:35,320
Hoe kom je nou bij poli?
341
00:19:35,320 --> 00:19:36,180
Huppel de pup.
342
00:19:36,700 --> 00:19:41,140
Ja, en vooral met situaties waar standaard het gebouwen is en de paden zijn.
343
00:19:41,140 --> 00:19:43,480
Maar er staan altijd wel objecten ook op de weg.
344
00:19:43,480 --> 00:19:46,900
En dat is het eigenlijk als daar ook weer inzichten en simulaties voor mogelijk zijn.
345
00:19:46,900 --> 00:19:50,500
Dan als je daar weer robots gaat hebben, dan heb je daar ook weer mee te maken.
346
00:19:50,500 --> 00:19:54,280
En vooral eigenlijk de wegwijzering is vaak vanaf de hoofdingang.
347
00:19:54,280 --> 00:20:02,080
Maar als jij op poli X bent en ze zeggen van ja, je moet je even onderzoekje doen van poli A naar poli B.
348
00:20:02,080 --> 00:20:05,360
Ja, dan werken dat soort dingen dan helemaal niet zo goed.
349
00:20:06,220 --> 00:20:08,640
Of de situatie van je auto terug te vinden in de parking.
350
00:20:08,640 --> 00:20:09,880
Oh ja, nou.
351
00:20:09,880 --> 00:20:12,960
Heb jij daar ervaring mee?
352
00:20:12,960 --> 00:20:16,340
Nee, ik heb er gelukkig nog niet al te veel ervaring mee.
353
00:20:16,340 --> 00:20:18,860
Maar ik heb het al genoeg meegemaakt.
354
00:20:18,860 --> 00:20:20,260
Op zelfs kleine parkingen.
355
00:20:20,260 --> 00:20:22,380
Mijn vrouw die luistert dit niet.
356
00:20:22,380 --> 00:20:23,460
Dus ik had het gerust zeggen.
357
00:20:23,460 --> 00:20:25,260
Die is regelmatig de auto kwijt.
358
00:20:25,260 --> 00:20:27,320
Dat zou het geweldig zijn inderdaad.
359
00:20:27,320 --> 00:20:29,480
Ik hou even mijn mond.
360
00:20:29,480 --> 00:20:31,180
Ik ben hem ook wel eens kwijt geweest.
361
00:20:31,180 --> 00:20:33,280
Ja.
362
00:20:33,280 --> 00:20:35,440
In ieder geval herkenbaar.
363
00:20:35,440 --> 00:20:35,840
Ja.
364
00:20:35,840 --> 00:20:39,340
En als we dan even terug gaan naar de conferentie van Nvidia.
365
00:20:39,340 --> 00:20:47,140
Wat zijn echt trends en ontwikkelingen die je zelf nog niet zag aankomen waar ze het wel over gehad hebben op de conferentie?
366
00:20:47,960 --> 00:20:50,880
Ik had niet verwacht dat Digital Twins al zo ver gebruikt.
367
00:20:50,880 --> 00:20:52,840
Ja, zoveel gebruikt worden.
368
00:20:52,840 --> 00:20:56,160
Alle toepassingen dat ze momenteel aanbrachten in bijvoorbeeld de warehouse en zo.
369
00:20:56,160 --> 00:21:00,340
Zelfs bij klanten waar wij werken, dat ik niet eens wist dat ze bezig waren met Digital Twins.
370
00:21:00,340 --> 00:21:01,580
Dat ik dacht van oké, dat is wel cool.
371
00:21:01,580 --> 00:21:04,300
Dat is een trend dat ik niet direct had verwacht.
372
00:21:04,740 --> 00:21:09,720
Een trend die ik ook niet direct zag opkomen is bijvoorbeeld in de richting waar Nvidia probeert te gaan met hun hardware.
373
00:21:09,720 --> 00:21:12,700
Waar ze nu heel hard aan het inzetten op fotonica.
374
00:21:12,700 --> 00:21:13,840
Oké.
375
00:21:13,840 --> 00:21:14,960
Kan je daar wat meer over vertellen?
376
00:21:15,880 --> 00:21:20,260
Dus typisch in elektronica hebben we gewoon een kabel waar we een elektron oversturen.
377
00:21:20,260 --> 00:21:26,400
Een elektron gaat al razendsnel, maar dat gaat nog altijd veel trager, veelmalen trager dan lichtsnelheid.
378
00:21:26,400 --> 00:21:33,300
Dus wanneer we proberen zaken te versnellen, bijvoorbeeld in een serverrack waar we meerdere racks,
379
00:21:33,300 --> 00:21:37,060
meerdere computers hebben die we voor ons met elkaar moeten linken,
380
00:21:37,060 --> 00:21:44,260
dan gaan die paar halve meters aan elektronica wel zorgen dat uiteindelijk alles trager en trager gaat.
381
00:21:44,960 --> 00:21:50,500
En nu zijn ze aan het kijken om die connectie tussen de verschillende reks te versnellen aan de hand van fotonica.
382
00:21:50,500 --> 00:21:53,400
Dus fotonica sturen we gewoon een lichtstraal.
383
00:21:53,400 --> 00:21:56,440
Dat is het snelste dat we hebben in het universum.
384
00:21:56,440 --> 00:21:57,920
Met de snelheid van het licht.
385
00:21:57,920 --> 00:21:58,720
Ja, exact.
386
00:21:58,720 --> 00:22:01,280
En dat we gewoon een iets sneller connectie hebben.
387
00:22:01,280 --> 00:22:03,420
En op die paar milliseconden dat zij kunnen sparen,
388
00:22:03,420 --> 00:22:09,880
wanneer we ook praten over dat we meer en meer tegen die limieten aan het opbotsen zijn op vlak van quantum mechanica,
389
00:22:11,020 --> 00:22:18,900
dan zijn die snelheden, die hebben we gewoon nodig om nog iets, net die paar kleine stappen verder te kunnen gaan en nog net iets sneller.
390
00:22:18,900 --> 00:22:23,060
Waar denk je dat dat significante verschillen gaat opleveren?
391
00:22:23,060 --> 00:22:30,460
Want als je ChatGPT aan het doen bent, maakt het niet uit of je het antwoord hebt binnen 30 seconden of binnen een minuut.
392
00:22:30,460 --> 00:22:31,460
Nee, inderdaad.
393
00:22:31,460 --> 00:22:34,420
De snelheid van het licht gaat daar geen...
394
00:22:34,420 --> 00:22:37,760
Nee, voor mijzelf als persoon gaat dat geen invloed hebben.
395
00:22:37,760 --> 00:22:40,560
Maar voor de bedrijven die alles aan het runnen zijn,
396
00:22:40,560 --> 00:22:44,240
dan betekent dat zij een paar serverracks minder nodig hebben.
397
00:22:44,240 --> 00:22:48,480
Omdat er gewoon, bijvoorbeeld, in plaats van één persoon die gebruik maakt van die ene GPU,
398
00:22:48,480 --> 00:22:52,700
dat misschien geparalleliseerd kan worden naar meerdere personen die diezelfde GPU gebruiken.
399
00:22:52,700 --> 00:22:55,300
Omdat het net die paar cycles sneller kan gaan.
400
00:22:55,300 --> 00:22:59,000
Oh ja, dus dan zit het in kostenbesparing.
401
00:22:59,700 --> 00:23:06,180
Ja, kostenbesparing is ook een vraag, want die fotonica, de transceivers die ze gebruiken,
402
00:23:06,180 --> 00:23:12,120
dus de transmitters die het licht uitstralen, die gebruiken ook natuurlijk wel veel stromen.
403
00:23:12,120 --> 00:23:17,320
Dus dat is natuurlijk een high-powered laser die dat signaal stuurt.
404
00:23:17,320 --> 00:23:20,060
Dus daar is altijd de vraag van, gaat het meer stroom kosten?
405
00:23:20,060 --> 00:23:22,700
Waar ligt daar het evenwicht?
406
00:23:22,700 --> 00:23:24,480
Ja, want is daar nog veel over gezegd?
407
00:23:24,720 --> 00:23:31,200
De ontwikkeling van hoeveel stroomconsumptie NVIDIA met zich meebrengt om AI mogelijk te maken,
408
00:23:31,200 --> 00:23:33,360
is een thema die steeds...
409
00:23:33,360 --> 00:23:37,440
Ja, dus op vlak van hardware zijn ze daar zeker echt wel best over gehad.
410
00:23:37,440 --> 00:23:41,160
Met dus één, die trend richting fotonica, één richting de trend,
411
00:23:41,160 --> 00:23:44,580
om dus bijvoorbeeld waterkoeling te steken in een serverracks in plaats van luchtkoeling.
412
00:23:44,800 --> 00:23:48,180
Is dat echt nodig? Dat weet ik zelf niet. Daar ben ik geen expert in.
413
00:23:48,180 --> 00:23:51,320
Maar dat zorgt wel dat zij alles veel kleiner kunnen houden.
414
00:23:51,320 --> 00:23:56,100
Dus dat zij per grote serverrack, dat zij meerdere racks er kunnen insteken.
415
00:23:56,100 --> 00:23:59,800
Dus waar je voorheen misschien, zeg maar, iets een stuk of tiener zou kunnen insteken,
416
00:23:59,800 --> 00:24:02,880
dat ze nu op diezelfde hoeveelheid er twee keer zoveel mee kunnen insteken.
417
00:24:02,880 --> 00:24:09,300
Dus die plaatsbesparing is éénhandig, maar gaat het minder stroom kosten?
418
00:24:09,300 --> 00:24:14,020
Nee, maar als we kijken naar bedrijven, wat gaan bedrijven er dan aan hebben,
419
00:24:14,020 --> 00:24:16,740
is op de optimalisatie, dus levering.
420
00:24:16,740 --> 00:24:21,540
Dus dat zou potentiële een lagere prijs kunnen zijn op de oplossingen die er bovenop gebouwd kunnen worden.
421
00:24:21,540 --> 00:24:24,240
Er zijn minder componenten nodig, alles is iets simpeler.
422
00:24:24,240 --> 00:24:27,920
Waarschijnlijk ook minder maintenance, normaal gezien.
423
00:24:27,920 --> 00:24:30,600
Ja, misschien gaat je tokenprijs...
424
00:24:30,600 --> 00:24:33,760
Nee, daarom proberen we even te vertalen van hoe, want dit klinkt heel ver weg natuurlijk,
425
00:24:33,760 --> 00:24:36,120
als we het bij bedrijven toepassen AI.
426
00:24:36,120 --> 00:24:37,900
En is dit eigenlijk iets wat er moet zijn?
427
00:24:38,480 --> 00:24:39,540
Wat zou dan het effect zijn?
428
00:24:39,540 --> 00:24:44,540
Dus het gebruik van een taalmodel zou dan eventueel mogelijk goedkoper kunnen zijn.
429
00:24:44,540 --> 00:24:45,500
Ik denk...
430
00:24:45,500 --> 00:24:49,300
Ze hadden natuurlijk ook heel erg, of dat is nog steeds,
431
00:24:49,300 --> 00:24:51,680
wel erg veel tekorten aan hardware.
432
00:24:51,680 --> 00:24:53,460
Dus die GPU's die hebben we nodig.
433
00:24:53,460 --> 00:24:58,040
Met de komst van de large language models is dat geëxplodeerd.
434
00:24:58,040 --> 00:25:02,420
Dus mensen hebben zeker, die vroeg instapten met ChatGPT,
435
00:25:02,420 --> 00:25:06,660
merkten dat je bijvoorbeeld maar zoveel vragen mocht stellen per uur.
436
00:25:06,980 --> 00:25:08,540
Dus daar zaten gewoon limieten op.
437
00:25:08,540 --> 00:25:12,040
En niet omdat OpenEye vond dat je er maar weinig mocht doen,
438
00:25:12,040 --> 00:25:17,800
maar omdat er gewoon aan de achterkant er niet genoeg rekenkracht was om alles te ondersteunen.
439
00:25:17,800 --> 00:25:18,840
Ja.
440
00:25:18,840 --> 00:25:20,380
Hebben ze daar nog iets over gezegd?
441
00:25:20,380 --> 00:25:22,000
Daar is er niets meer over gezegd.
442
00:25:22,000 --> 00:25:22,480
Oké.
443
00:25:22,520 --> 00:25:25,440
Ik vermoed dat dat voor hun een heel mooi verhaal is.
444
00:25:25,440 --> 00:25:30,380
Want als er een tekort is aan aanbod en een veel te grote vraag,
445
00:25:30,380 --> 00:25:33,120
dan betekent dat de prijzen gewoon verder omhoog kunnen gaan, rustig aan.
446
00:25:33,120 --> 00:25:36,740
En zolang dat mensen ervoor willen betalen, is dat voor hun een heel voordelige situatie.
447
00:25:36,740 --> 00:25:36,940
Ja.
448
00:25:36,940 --> 00:25:39,860
We hadden natuurlijk even last toen DeepSeq voorbij kwam.
449
00:25:39,860 --> 00:25:43,180
Het Chinese taalmodel die zei van ja, maar wij kunnen dat zoveel goedkoper,
450
00:25:43,180 --> 00:25:47,360
dat ze op de beurs in de stressgrote dachten van oh,
451
00:25:47,460 --> 00:25:50,500
en dan dumpen we al die aandelen van Nvidia.
452
00:25:50,500 --> 00:25:54,400
Ja, maar dat is ook alweer terug opgekrabbeld,
453
00:25:54,400 --> 00:25:56,600
want daar weten we ook, als het efficiënt wordt,
454
00:25:56,600 --> 00:25:58,020
gaan we het ook waarschijnlijk weer meer gebruiken.
455
00:25:58,020 --> 00:25:59,760
Ik ben even de term daarvoor kwijt inderdaad.
456
00:25:59,760 --> 00:26:01,880
De Jevons paradox is dat zeker?
457
00:26:01,880 --> 00:26:02,420
De?
458
00:26:02,420 --> 00:26:04,180
De paradox van Jevons.
459
00:26:04,180 --> 00:26:05,100
Ja, precies.
460
00:26:05,100 --> 00:26:05,980
Klopt, ja.
461
00:26:05,980 --> 00:26:09,340
Dus dat zal hier ook, verwacht ik, wel van toepassing zijn.
462
00:26:09,340 --> 00:26:12,140
Ja, we zaten nog bij nummer twee.
463
00:26:12,140 --> 00:26:13,380
Ja, oké, heel goed.
464
00:26:13,380 --> 00:26:14,500
Nummer drie.
465
00:26:14,500 --> 00:26:15,600
Dus je hebt proteïne gehad.
466
00:26:15,600 --> 00:26:17,260
Digital Twins.
467
00:26:17,260 --> 00:26:19,640
Ik heb daar ongeveer zowel robotics mee aangegeven.
468
00:26:19,640 --> 00:26:20,420
Ja, ja, ja.
469
00:26:20,420 --> 00:26:22,400
Ik ben aan het denken, was er, wat is dat?
470
00:26:22,400 --> 00:26:23,800
Wacht, ik ga nog eens even kijken.
471
00:26:23,800 --> 00:26:24,920
Heb ik er wat opgeschreven?
472
00:26:24,920 --> 00:26:26,980
Ah.
473
00:26:26,980 --> 00:26:29,540
Splatting.
474
00:26:29,540 --> 00:26:31,480
En als het er niet is, dan is het er niet.
475
00:26:31,480 --> 00:26:33,440
Nee, ik denk dat ik het daarbij ga houden.
476
00:26:33,440 --> 00:26:37,440
Ik vind voor die drie topics, de opkomst van agents en zo is er ook altijd.
477
00:26:37,440 --> 00:26:40,980
Maar dat is echt veel zo, dat is op en top het LLM verhaal.
478
00:26:40,980 --> 00:26:41,780
Ja, precies.
479
00:26:41,780 --> 00:26:45,700
Ja, dat wilde ik nog wel even, want dat als je collega had daar wat mee ingedoken.
480
00:26:45,700 --> 00:26:47,060
Heb je al met hem gespart?
481
00:26:47,060 --> 00:26:48,500
Ik heb nog niet meer met hem gespart over.
482
00:26:48,500 --> 00:26:51,200
Oké, dan moeten we daar nog ziens een keer later op terugkomen inderdaad.
483
00:26:51,200 --> 00:26:54,840
Want dan ben ik ook wel nieuwsgierig naar wat ze daarop bij Nvidia over te melden hadden.
484
00:26:54,840 --> 00:26:55,680
Ja.
485
00:26:55,680 --> 00:27:01,480
Wat we wel, we hebben een kaartspel met allerlei stellingen op allerlei categorieën.
486
00:27:01,480 --> 00:27:04,700
En wij willen zo'n stelling eigenlijk ook eventjes aan jou voorleggen.
487
00:27:05,120 --> 00:27:07,200
Ik heb de meeste wel al gelezen ondertussen.
488
00:27:07,200 --> 00:27:09,740
Oh ja, dan wordt het leuk.
489
00:27:09,740 --> 00:27:10,860
Jazeker.
490
00:27:10,860 --> 00:27:12,700
Maar wij weten niet wat jij ervan vindt.
491
00:27:12,700 --> 00:27:12,880
Nee.
492
00:27:12,880 --> 00:27:14,260
Dus dat...
493
00:27:14,260 --> 00:27:30,660
Ah, dat is wel een leuke.
494
00:27:30,660 --> 00:27:32,300
Ik denk ook een stukje persoonlijk.
495
00:27:32,300 --> 00:27:33,000
Dat is ook wel mooi.
496
00:27:33,400 --> 00:27:36,720
Het thema van deze keer is ethiek en maatschappij.
497
00:27:36,720 --> 00:27:37,220
Ah.
498
00:27:37,900 --> 00:27:39,000
En de stelling luidt als volgt.
499
00:27:39,000 --> 00:27:43,280
Het klonen van mijn stem is voor mij persoonlijk acceptabel.
500
00:27:43,280 --> 00:27:45,200
Oeh.
501
00:27:45,200 --> 00:27:46,200
Oké, wacht.
502
00:27:46,200 --> 00:27:47,620
Dat is een heel interessant topic.
503
00:27:47,620 --> 00:27:53,180
Ik ben met de volledige opkomst van diffusiemodellen, was ik heel geïnteresseerd in alles er rondom.
504
00:27:53,180 --> 00:27:54,620
En hoe makkelijk dat was.
505
00:27:54,620 --> 00:27:55,060
Ja, sorry.
506
00:27:55,060 --> 00:27:57,080
Diffusiemodellen, misschien even kort toelichten.
507
00:27:57,080 --> 00:27:57,820
Ja, diffusiemodellen.
508
00:27:57,820 --> 00:28:03,140
Dat zijn alle modellen die we kennen over het genereren van foto's, het genereren van muziek, het genereren van video's.
509
00:28:03,140 --> 00:28:03,360
Ja.
510
00:28:03,360 --> 00:28:04,980
En ik had daar een heel groot interesse in.
511
00:28:04,980 --> 00:28:07,780
Omdat ik ook ergens wel zo de spooky kant ervan in zag.
512
00:28:07,780 --> 00:28:09,640
van, wat gaan we doen met deepfakes?
513
00:28:09,640 --> 00:28:11,440
En het klonen van mijn stem.
514
00:28:11,440 --> 00:28:12,560
Oeh.
515
00:28:12,560 --> 00:28:18,580
Toen dat ongeveer uitkwam in 2023, ElevenLabs, die zeer goed was in het klonen van stemmen.
516
00:28:18,580 --> 00:28:26,040
Heb je daar meerdere vragen over gehad van, dit gaat een grote invloed hebben op de maatschappij op vlak van scams.
517
00:28:26,040 --> 00:28:32,760
Het volledige verhaal dat we nu al zien met grootmoeders die worden opgebeld door een fake Microsoft account.
518
00:28:32,760 --> 00:28:35,960
Om dan ergens een giftcard van Google over te schrijven.
519
00:28:37,240 --> 00:28:39,980
Ja, dit gaat alleen maar accelereren.
520
00:28:39,980 --> 00:28:42,040
Met alle informatie die we hebben van ons online.
521
00:28:42,040 --> 00:28:46,240
Hoeveel mensen zijn er wel niet die bijvoorbeeld een video van hun hebben staan online waarin hun stem op staat.
522
00:28:46,240 --> 00:28:52,380
Om dus nu op de vraag te antwoorden of ik het ethisch vind om mijn stem te klonen.
523
00:28:53,320 --> 00:28:59,540
Zolang dat ik het zelf de controle erover hou, dan vind ik dat zeer etens en dan vind ik dat ik daarmee zou mogen doen wat ik wil.
524
00:28:59,540 --> 00:29:02,360
Vind ik het een angstaanjagende situatie?
525
00:29:02,360 --> 00:29:03,400
Ja, op een top.
526
00:29:03,400 --> 00:29:04,660
Niet zozeer voor mij.
527
00:29:04,660 --> 00:29:06,220
Toch nog niet op dit moment.
528
00:29:06,220 --> 00:29:11,180
Ik ben nog net goed genoeg erin dat ik het waarschijnlijk wel zou kunnen herkennen.
529
00:29:11,700 --> 00:29:15,320
Maar ik vrees voor wat dat toekomst gaat bieden wanneer ik niet meer goed genoeg ben.
530
00:29:15,320 --> 00:29:21,380
En voor alle andere mensen die slechter zijn in het herkennen van fake news en van valse informatie.
531
00:29:21,380 --> 00:29:22,780
Hoe dat zij ermee gaan omgaan.
532
00:29:22,780 --> 00:29:23,420
Ja.
533
00:29:23,420 --> 00:29:25,180
Mooi antwoord.
534
00:29:25,180 --> 00:29:26,140
Je triggerde mij wel.
535
00:29:26,140 --> 00:29:30,120
We hebben eerder een aflevering met Jim Stolze gehad over de digitale weerbaarheid.
536
00:29:30,180 --> 00:29:32,280
Waar ik gelijk even aan moest denken toen je zei over scannen.
537
00:29:32,280 --> 00:29:33,500
Heb je die nog niet geluisterd?
538
00:29:33,500 --> 00:29:35,700
Echt even aanraden om terug te luisteren.
539
00:29:35,700 --> 00:29:38,640
Want inderdaad, dit is wel de keerzijde die ervan is.
540
00:29:38,640 --> 00:29:43,300
En mooi om te horen is, eigenlijk sta je ervoor open zolang je controle houdt over wat er mee gebeurt.
541
00:29:43,300 --> 00:29:47,540
Ik heb meerdere stemmen gehad en ook die van Joop gehoord.
542
00:29:47,540 --> 00:29:49,940
En ik moet zeggen, als ik...
543
00:29:49,940 --> 00:29:50,940
De gekloonde stem van mij bedoel je?
544
00:29:50,940 --> 00:29:52,220
De gekloonde stem van Joop inderdaad.
545
00:29:52,220 --> 00:29:55,540
En als ik in de auto zit, nou ja, ik vond hem toch heel goed erop lijken inderdaad.
546
00:29:55,540 --> 00:29:59,900
Dus als de familie wat verder weg zou staan, ik denk dat ze er ook best wel in zouden kunnen geloven.
547
00:29:59,900 --> 00:30:01,080
dat je net zou zijn.
548
00:30:01,080 --> 00:30:03,700
Dus die ontwikkeling gaat heel hard.
549
00:30:03,700 --> 00:30:07,780
Ja, en zeker als we kijken naar gewoon echt die opkomst van die videomodellen nu.
550
00:30:07,780 --> 00:30:10,260
Als je bijvoorbeeld kijkt naar Runway ML.
551
00:30:10,260 --> 00:30:12,920
Een van de bedrijven die daar zeer ver mee stond een paar maanden geleden.
552
00:30:12,920 --> 00:30:15,580
Zij hadden ook al gewoon lip syncing.
553
00:30:15,580 --> 00:30:18,980
Dus dat wanneer bijvoorbeeld een video van jou gegenereerd wordt,
554
00:30:18,980 --> 00:30:21,740
dat je lippen meebewegen op de tekst die er wordt opgezet.
555
00:30:21,740 --> 00:30:25,220
Waardoor je het ook in een andere taal kan spreken.
556
00:30:25,220 --> 00:30:26,880
Dus ik praat in het Nederlands.
557
00:30:27,700 --> 00:30:30,620
Kan het qua audi, dus mijn stem wordt gekloond.
558
00:30:30,620 --> 00:30:33,600
En dat kan in de taal die ik niet beheers.
559
00:30:33,600 --> 00:30:35,620
Is het dan lip sync?
560
00:30:35,620 --> 00:30:37,940
Ik denk niet dat we het zo ver...
561
00:30:37,940 --> 00:30:43,060
Ja, ik denk in de situatie van Scams is het interessant om het gewoon in je huidige taal te houden.
562
00:30:43,060 --> 00:30:45,500
Want anders gaat je grootmoeder er misschien niet in geloven.
563
00:30:45,500 --> 00:30:47,980
Nee, als ik in een keer in het Frans begin.
564
00:30:49,560 --> 00:30:51,380
Maar je haalt daar wel iets interessants aan.
565
00:30:51,380 --> 00:30:54,360
Het volledige verhaal van zo, eigenlijk de instant tolk.
566
00:30:54,360 --> 00:30:57,040
Het was redelijk vroeg in de volledige hypecycle.
567
00:30:57,040 --> 00:30:58,860
Ik denk ergens eind 2022.
568
00:30:58,860 --> 00:31:00,860
Dat ik iemand zijn GitHub zag voorbij komen.
569
00:31:00,860 --> 00:31:02,800
Die dat volledig spel eigenlijk had...
570
00:31:02,800 --> 00:31:04,140
Ah nee, sorry, het was begin 2023.
571
00:31:04,140 --> 00:31:05,800
Die het voor elkaar had gekregen.
572
00:31:05,800 --> 00:31:08,160
En dus gewoon allemaal die stappen aan elkaar had gerijgd.
573
00:31:08,160 --> 00:31:14,580
Dus één zijn stem opnemen en dan met behulp van de whisper omzetten van voice naar tekst.
574
00:31:14,580 --> 00:31:19,140
Dan die tekst vertalen aan de hand van DeepL of bijvoorbeeld een LLM.
575
00:31:19,140 --> 00:31:22,800
Tegenwoordig zou ik eerder een large language model gebruiken in plaats van DeepL.
576
00:31:22,800 --> 00:31:28,260
En dan vervolgens de vertaalde tekst weer om te zetten met behulp van ElevenLabs naar een andere taal.
577
00:31:28,260 --> 00:31:29,740
Dus bijvoorbeeld Japans.
578
00:31:29,740 --> 00:31:34,640
En dat hele proces, afhankelijk van hoe lang dan natuurlijk de tekst is die wordt ingesproken,
579
00:31:34,640 --> 00:31:37,420
duurt eigenlijk niet veel langer dan twee seconden.
580
00:31:37,980 --> 00:31:38,760
Ja, waanzinnig toch?
581
00:31:38,760 --> 00:31:39,420
Ja.
582
00:31:39,420 --> 00:31:43,020
Ja, maar je kan je ook voorstellen dat het heel veel kansen biedt.
583
00:31:43,020 --> 00:31:43,820
Ik wou dat zeggen.
584
00:31:43,820 --> 00:31:46,640
Mensen die hun stem kwijtraken, maar ook inderdaad een taal.
585
00:31:46,640 --> 00:31:51,880
Dus beschikbaarheid van kennis die je anders niet in jouw eigen natuurlijke taal hebt,
586
00:31:51,880 --> 00:31:52,940
die nu beschikbaar komt.
587
00:31:52,940 --> 00:31:56,760
En dan zou het wel fijn zijn als de lippen enigszins in zink zijn.
588
00:31:56,760 --> 00:32:00,080
Want anders moet ik toch weer even aan de oude films, de Duitse series die je keek,
589
00:32:00,080 --> 00:32:04,040
waar heel erg slechte vertalingen bij werk kwamen.
590
00:32:04,040 --> 00:32:06,040
Dus dat biedt echt wel heel veel kansen.
591
00:32:06,040 --> 00:32:07,620
Daar zijn ze ook volop mee bezig.
592
00:32:07,800 --> 00:32:08,660
Niet zozeer die vertaling.
593
00:32:08,660 --> 00:32:13,680
Maar wat je daar zegt, die videoediten, daar zitten heel spooky, heel angstaanjagende,
594
00:32:13,680 --> 00:32:15,820
vreemde, uncanny-dingen in.
595
00:32:15,820 --> 00:32:17,520
Ik weet niet of jullie het hebben zien voorbij.
596
00:32:17,520 --> 00:32:21,780
Ik kom een tijd geleden, ik denk dat er een video was, die voorbeeld dat wanneer je op Teams zit,
597
00:32:21,780 --> 00:32:26,180
dat ze je ogen willen corrigeren dat je altijd kijkt naar de camera.
598
00:32:26,180 --> 00:32:29,480
Dat je altijd een zeer intens oogcontact behoudt.
599
00:32:29,580 --> 00:32:31,700
Ja, dat is niet prettig.
600
00:32:31,700 --> 00:32:33,540
Dat hoeft voor mij niet.
601
00:32:35,460 --> 00:32:37,180
Ja, oogcontact is natuurlijk heel belangrijk.
602
00:32:37,180 --> 00:32:38,060
Dat doen wij hier ook.
603
00:32:38,060 --> 00:32:40,620
Maar ja, als we de hele tijd elkaar zo...
604
00:32:40,620 --> 00:32:43,640
Ja, maar als ik dan wegdraai en dan die ogen zo blijven, dat...
605
00:32:43,640 --> 00:32:44,160
Nee, nee.
606
00:32:44,160 --> 00:32:45,940
Laten we dat lekker natuurlijk houden.
607
00:32:45,940 --> 00:32:48,240
Een ander onderwerp.
608
00:32:48,240 --> 00:32:52,140
Je bent er vanuit je studie ingerold en je houdt heel erg van experimenteren.
609
00:32:52,560 --> 00:32:58,560
Hoe zie je de adoptie bij bedrijven en hoe die dat oppakken en hoe je dat zelf oppakt?
610
00:32:58,560 --> 00:33:00,720
De adoptie van AI in jouw werkzaamheden.
611
00:33:00,720 --> 00:33:03,360
Ja, dus even nog een beetje een kanttekening.
612
00:33:03,360 --> 00:33:05,980
Ismaël Nix, die trekker van die AI-groep.
613
00:33:05,980 --> 00:33:07,100
Waarom hebben wij...
614
00:33:07,100 --> 00:33:08,300
Wat trekken wij daar nu eigenlijk?
615
00:33:08,300 --> 00:33:12,600
Dat is een initiatief dat is opgestart een paar jaar geleden.
616
00:33:12,600 --> 00:33:16,000
En daar zaten eigenlijk vier pijlers.
617
00:33:16,000 --> 00:33:18,780
Vier doelen voor Info Support België dat wij hebben opgenomen.
618
00:33:18,780 --> 00:33:25,760
En één daarvan was, kunnen wij het verschil maken als Info Support met behulp van AI tegen 2028?
619
00:33:25,760 --> 00:33:30,740
Dus dat is eigenlijk hetgeen dat Ismaël en ik nu vooruit trekken om proberen het verschil te maken.
620
00:33:30,740 --> 00:33:36,920
Hoe zien wij dan nu om dat verschil te maken op vlak van adoptie in?
621
00:33:36,920 --> 00:33:42,780
En wij proberen dus eigenlijk mensen te stimuleren om één ermee te experimenteren en dat ook leuk te houden.
622
00:33:42,780 --> 00:33:44,660
We zien het meer en meer.
623
00:33:44,660 --> 00:33:45,840
We zaten nu de volledige...
624
00:33:45,840 --> 00:33:50,060
En we zitten nu al tweeënhalf jaar lang in de peak of inflated expectations.
625
00:33:50,060 --> 00:33:53,760
Nu sinds augustus is dat nu de trough of disillusionment volgens Gartner.
626
00:33:53,760 --> 00:33:55,440
Dus gaat het even wat trager aan.
627
00:33:55,440 --> 00:33:58,780
Maar je merkt ook dat daar een soort van vermoeidheid komt.
628
00:33:58,780 --> 00:34:01,560
Altijd dan nieuws en altijd meer en meer en meer.
629
00:34:01,560 --> 00:34:04,520
En het is heel makkelijk om mensen te verliezen hierin.
630
00:34:04,520 --> 00:34:07,260
En dat die adoptie bijvoorbeeld verloren gaat.
631
00:34:07,260 --> 00:34:09,920
Hoe is het wij daar dus in?
632
00:34:09,920 --> 00:34:15,940
En wij proberen eigenlijk met als inzet die fun hoog te houden en gewoon af en toe maar eens te delen.
633
00:34:15,940 --> 00:34:18,280
Af en toe is iets leuks te delen wanneer er een goede vernieuwing is.
634
00:34:18,280 --> 00:34:21,139
En ook mensen gewoon niet te overstelpen.
635
00:34:21,139 --> 00:34:23,400
Hoe gaan bedrijven daar nu mee over weg?
636
00:34:23,400 --> 00:34:25,199
Dat is iets dat we meer en meer zien.
637
00:34:25,199 --> 00:34:29,860
Zo de bedrijven die zeker van hogerop ineens de klik maken van we moeten er iets mee doen.
638
00:34:29,860 --> 00:34:32,560
En dan een gigantische uitrol doen en iedereen pushen.
639
00:34:33,100 --> 00:34:37,840
En ik vrees dat er daar mogelijk een verlies gaat gemaakt worden.
640
00:34:37,840 --> 00:34:39,800
Dat er een soort van keerbeweging komt.
641
00:34:39,800 --> 00:34:42,360
De mensen die het vinden dat te hard gepusht wordt.
642
00:34:42,360 --> 00:34:44,000
En het is een heel lastige.
643
00:34:44,000 --> 00:34:47,920
Er moet van twee kanten worden ingezet worden op die adoptie.
644
00:34:47,920 --> 00:34:50,940
Eén, een soort van vertrouwen vanuit management.
645
00:34:50,940 --> 00:34:55,159
En dit is iets goed en dit is iets waar we jullie mee willen laten spelen.
646
00:34:55,480 --> 00:34:58,520
Maar ook tegelijkertijd zo'n beetje die grassroots.
647
00:34:58,520 --> 00:35:03,480
De developers zelf die ermee experimenteren en zeggen van ik kan hier iets cools mee doen.
648
00:35:03,480 --> 00:35:05,900
En hoe hou je het leuk dan?
649
00:35:05,900 --> 00:35:09,520
Ik vind het zelf nog een heel lastige om het echt altijd leuk te houden.
650
00:35:09,520 --> 00:35:11,280
Want het is ook gewoon echt vermoeiend.
651
00:35:11,280 --> 00:35:16,340
De afgelopen volledige hypecycle nu duurt al lang en elke week nieuw nieuws.
652
00:35:16,340 --> 00:35:19,260
En continu bijbenen, continu opvolgen.
653
00:35:19,260 --> 00:35:22,360
Hoe houd ik het leuk?
654
00:35:22,360 --> 00:35:25,440
Ik probeer altijd in te stellen op toffe voorbeelden.
655
00:35:25,440 --> 00:35:28,720
Wanneer ik bijvoorbeeld inspiratiestessies geef bij allerlei bedrijven.
656
00:35:28,720 --> 00:35:34,860
Dan is mijn eerste voorbeeld dat ik altijd toon van we gaan eens een flappy bird maken in tien minuten.
657
00:35:34,860 --> 00:35:37,380
Dat is het zelf programmeren?
658
00:35:37,380 --> 00:35:38,080
Ja, nee.
659
00:35:38,080 --> 00:35:40,660
Als inspiratiestessie probeer ik het zelf voor te tonen.
660
00:35:40,660 --> 00:35:43,300
En dan vraag ik wel voor ideeën en features vanuit het publiek.
661
00:35:43,300 --> 00:35:49,700
Als het een langere training is, dan proberen we echt die mensen zelf daarmee aan de slag te laten gaan.
662
00:35:49,700 --> 00:35:55,240
Maar voor die inspirerende stukken is dat echt van ik doe het even zelf.
663
00:35:55,240 --> 00:36:01,860
En in die eerste sessie dat ik gaf, dat dateert nu ondertussen al van 2023 in juli.
664
00:36:01,860 --> 00:36:05,720
En dat was het nog met behulp van, ik denk, was het al GPT 4?
665
00:36:05,720 --> 00:36:06,100
Of was het?
666
00:36:06,100 --> 00:36:07,880
Ik denk dat het nog GPT 3.5 was net.
667
00:36:07,880 --> 00:36:09,780
Ja, dat zal erom spannen, ja.
668
00:36:10,620 --> 00:36:14,560
Maar ik herinner mij, die eerste sessie dat ik gaf, dat ging niet vlot.
669
00:36:14,560 --> 00:36:15,700
Maar dat was ook het deel van de fun.
670
00:36:15,700 --> 00:36:18,680
Ik stelde een vraag, ik gooi de code er gewoon in.
671
00:36:18,680 --> 00:36:19,820
De code werkt niet.
672
00:36:19,820 --> 00:36:22,240
En ik probeerde zo even aan te tonen van dat heen en weer.
673
00:36:22,240 --> 00:36:24,280
En gewoon dingen te fixen, dingen toe te voegen.
674
00:36:24,280 --> 00:36:26,560
Zelf even manueel aanpassingen te maken en zo.
675
00:36:26,560 --> 00:36:27,880
Dat dat een leuke manier was.
676
00:36:27,880 --> 00:36:29,880
En dat duurde dan ook net iets meer dan tien minuten.
677
00:36:29,880 --> 00:36:32,820
Ik heb er toen in totaal een dikke veertien à vijftien minuten over gedaan.
678
00:36:32,820 --> 00:36:39,020
Elke keer dat ik die sessie opnieuw heb gegeven, heb ik datzelfde voorbeeld opnieuw en opnieuw en opnieuw gegeven.
679
00:36:39,020 --> 00:36:42,900
Nu, dat large language model, dat houdt niks bij.
680
00:36:42,900 --> 00:36:44,580
Dat heeft geen kennis van mijn vorige sessie.
681
00:36:44,580 --> 00:36:46,300
Dus dat is een nieuwe chat elke keer.
682
00:36:46,300 --> 00:36:52,920
Maar met dat die modellen sterker en sterker werden, heb ik nu op de laatste sessie, was er helemaal geen heen en weer meer.
683
00:36:52,920 --> 00:36:54,540
Het was gewoon direct van de eerste keer correct.
684
00:36:54,540 --> 00:36:57,240
Dus ik ben beginnen te zoeken achter een toffer voorbeeld.
685
00:36:57,240 --> 00:36:58,420
Iets dat weer complexer is.
686
00:36:58,900 --> 00:37:03,260
Want anders is die volledige demo van dat heen en weer spar er nog niet.
687
00:37:03,260 --> 00:37:04,740
Ja, grappig.
688
00:37:04,740 --> 00:37:08,960
Ja, en daar zie je dus ook de voortgang van de modellen en wat ze kunnen en wat ze niet kunnen.
689
00:37:08,960 --> 00:37:10,380
Maar ook wel mooi wat je zegt.
690
00:37:10,380 --> 00:37:14,360
Dus kijk uit met het doseren van nieuwe informatie.
691
00:37:14,360 --> 00:37:17,140
En de ene zal dat meer aan kunnen dan de ander.
692
00:37:17,140 --> 00:37:20,240
Maar wees ervan bewust dat het ook te veel kan zijn wat tegelijkertijd komt.
693
00:37:20,240 --> 00:37:21,360
Ja, inderdaad wat je zegt.
694
00:37:21,360 --> 00:37:25,400
Iedere dag, je moet het niet eens de week zeggen, misschien zelfs iedere halve dag,
695
00:37:25,400 --> 00:37:28,080
is er alweer een nieuwe tool, een nieuwe toepassing.
696
00:37:28,320 --> 00:37:29,680
Een uitbreiding daarop.
697
00:37:29,680 --> 00:37:33,700
Heb je al een idee dan voor een nieuwe, wat inspirerend is?
698
00:37:33,700 --> 00:37:34,620
Ik ben er nog niet aan oud.
699
00:37:34,620 --> 00:37:38,580
Ik heb beginnen te experimenteren met bijvoorbeeld een kleine roguelike ineen te steken.
700
00:37:38,580 --> 00:37:39,040
Een?
701
00:37:39,040 --> 00:37:42,000
Maar een roguelike, dat is een typische dungeon crawler,
702
00:37:42,000 --> 00:37:45,160
waar je gewoon met je ventje heen en weer gaat op vakjesbasis.
703
00:37:45,160 --> 00:37:47,220
Oké, dit klinkt voor mij als Chinees.
704
00:37:47,220 --> 00:37:48,680
Ik ken het ook niet.
705
00:37:48,680 --> 00:37:52,480
Ik ben nog aan het zoeken achter een leuk voorbeeld dat spannend is en waar dan mensen...
706
00:37:52,480 --> 00:37:54,540
Mocht je een idee hebben ervoor, laten we zeker iets weten.
707
00:37:54,540 --> 00:37:55,320
Oké, leuk.
708
00:37:55,320 --> 00:37:56,700
Ja, zeker leuk.
709
00:37:57,600 --> 00:38:03,800
Wat zijn nou eigenlijk typische vragen die jij bij zo'n inspiratiesessie krijgt over deze technologie?
710
00:38:03,800 --> 00:38:06,620
Dat varieert heel hard van bedrijf tot bedrijf.
711
00:38:06,620 --> 00:38:09,680
Dat is de typische vragen gaan vaak over de veiligheid.
712
00:38:09,680 --> 00:38:11,260
Van welke modellen kan ik gebruiken?
713
00:38:11,260 --> 00:38:13,600
Wat gebeurt er met de data die ik erin steek?
714
00:38:13,940 --> 00:38:19,140
En dan komt natuurlijk het verhaal van de enterprise-modellen naar boven van: ja, steek er niet gewoon eender welke data in.
715
00:38:19,140 --> 00:38:24,960
Gebruik, if possible, een enterprise-model waar je die garanties hebt dat er niet op je data wordt verder getraind.
716
00:38:24,960 --> 00:38:25,960
Dat is de typische vraag.
717
00:38:25,960 --> 00:38:28,560
Dat is ook vragen rondom ethiek komen naar boven.
718
00:38:28,560 --> 00:38:32,660
Stroomgebruik is er ook wel een die afhankelijk van bedrijf tot bedrijf naar boven komt.
719
00:38:32,660 --> 00:38:36,200
Is dat wel ethisch verantwoord dat wij daar volledig op inzetten?
720
00:38:36,200 --> 00:38:37,740
Of moeten we dat op een andere manier aanpakken?
721
00:38:37,740 --> 00:38:42,500
Er is een grote variatie aan vragen die je krijgt daarover.
722
00:38:42,500 --> 00:38:46,840
En ik vind dat altijd wel boeiend, want dat is eigenlijk juist het punt waar die sessie tot leven komt.
723
00:38:46,840 --> 00:38:52,640
Waar mensen ineens tot de conclusie komen van: ah, ik kan hier eender wat vragen en er komt hier een antwoord op.
724
00:38:52,640 --> 00:38:56,980
Wij gaan namelijk ook nog een vraag aan jou stellen.
725
00:38:56,980 --> 00:39:00,960
En dat is: stel je bent helemaal vrij van beperkingen.
726
00:39:00,960 --> 00:39:04,520
Hoe zou jouw ideale AI-systeem eruit zien?
727
00:39:04,520 --> 00:39:05,520
Wat doet die?
728
00:39:05,520 --> 00:39:09,000
En dat mag werkgerelateerd zijn, dat mag persoonlijk zijn.
729
00:39:09,000 --> 00:39:13,440
Maar we geven in ieder geval even wat denktijd daarvoor.
730
00:39:13,440 --> 00:39:14,440
*Muziek*
731
00:39:14,440 --> 00:39:15,440
*Muziek*
732
00:39:15,440 --> 00:39:16,440
*Muziek*
733
00:39:16,440 --> 00:39:17,440
*Muziek*
734
00:39:17,440 --> 00:39:18,440
*Muziek*
735
00:39:18,440 --> 00:39:19,440
*Muziek*
736
00:39:19,440 --> 00:39:20,440
*Muziek*
737
00:39:20,440 --> 00:39:21,440
*Muziek*
738
00:39:21,440 --> 00:39:22,440
*Muziek*
739
00:39:22,440 --> 00:39:23,440
*Muziek*
740
00:39:23,440 --> 00:39:24,440
*Muziek*
741
00:39:24,440 --> 00:39:28,440
Ja, ik kan daar wel iets over zeggen.
742
00:39:28,440 --> 00:39:30,440
*Muziek*
743
00:39:30,440 --> 00:39:38,440
Voor mij, het typische beeld dat we altijd in science fiction zien, bijvoorbeeld de Jarvis, de centrale computer*
744
00:39:38,440 --> 00:39:40,880
die alles doen voor jou.
745
00:39:40,880 --> 00:39:44,320
Voor mij is dat niet zozeer mijn droom situatie.
746
00:39:44,320 --> 00:39:47,880
Maar dat is wel een situatie waar ik zeer hart in geïnteresseerd ben.
747
00:39:47,880 --> 00:39:54,880
Als mijn vriendin en ik samen koken in de keuken, hebben we specifiek voor die reden een Google Hubje gekocht, een paar jaar geleden.
748
00:39:54,880 --> 00:39:56,880
Nog voor de volledige hype cycle van AI opkwam.
749
00:39:56,880 --> 00:40:00,320
Dat ik AI opkwam met het idee van gewoon makkelijk een timer te kunnen zetten.
750
00:40:00,320 --> 00:40:06,320
Terwijl we aan het koken zijn, dat we snel eens even iets kunnen zeggen van: zoek eens een recept of zet eens een timer, zet meerdere timers naast elkaar.
751
00:40:06,320 --> 00:40:12,320
Dat we, terwijl we aan het koken zijn, dat we handsfree gewoon dat kunnen doen zonder dat we onze gsm er altijd moeten bijhalen.
752
00:40:12,320 --> 00:40:18,320
Toen kwam de volledige hype cycle van AI en dat ik iets van: damn, gemiste kans.
753
00:40:18,320 --> 00:40:21,760
Dit had veel toffer geweest, want hier kan gewoon veel meer mee.
754
00:40:21,760 --> 00:40:27,760
En voor mij is dat eigenlijk een beetje het idee van een soort van central home assistant, waar ik eender wat aan kan vragen.
755
00:40:27,760 --> 00:40:38,760
Bijvoorbeeld een timer te zetten, of de lichten ergens te dimmen, of dingen toe te voegen aan mijn lijstje voor zaken die ik moet gaan kopen in de winkel.
756
00:40:38,760 --> 00:40:44,000
En voor mij, echt de ideale variant, is dan vervolgens ook nog dat hij bijvoorbeeld de bestelling kan doorvoeren.
757
00:40:44,000 --> 00:40:46,800
Dat ik naar daar zou kunnen gaan, dat ik gewoon een mandje moet ophalen.
758
00:40:46,800 --> 00:40:47,920
Dat soort zaken.
759
00:40:47,920 --> 00:40:51,840
Dat hij bijhoudt van wat er nog in mijn koelkast zit, enzovoort.
760
00:40:51,840 --> 00:40:56,320
Daar zijn allemaal verschillende apps wel voor, die allemaal die stukken apart doen.
761
00:40:56,320 --> 00:41:06,640
En dat is nu ook wel die opkomst van de model context protocol, waar we AI agents eigenlijk makkelijker toegang geven tot allemaal third party applicaties.
762
00:41:06,640 --> 00:41:11,360
En ik geloof wel dat we op korte tijd daar gaan staan, dat we gewoon kunnen zeggen tegen ons model:
763
00:41:11,360 --> 00:41:14,160
Weet je? Doe dat voor mij.
764
00:41:14,160 --> 00:41:15,160
Ja.
765
00:41:15,160 --> 00:41:20,400
Nu, ik geloof nog niet dat we direct op het punt staan waar de robot voor mij gaat beginnen koken enzo.
766
00:41:20,400 --> 00:41:25,840
Maar met die special alarm kunnen we wel al zeggen tegen onze zelfrijdende stofzuiger om naar een bepaalde kamer te gaan.
767
00:41:25,840 --> 00:41:26,880
Ja, precies.
768
00:41:26,880 --> 00:41:27,880
Ja.
769
00:41:27,880 --> 00:41:30,520
En zou je het willen dat een robot voor je gaat koken?
770
00:41:30,520 --> 00:41:31,520
Nee.
771
00:41:31,520 --> 00:41:36,160
Ik vind het zelf tof om met mijn vrienden samen in de keuken te staan.
772
00:41:36,160 --> 00:41:37,200
Dat is een leuk moment.
773
00:41:37,200 --> 00:41:38,200
Dat is gezellig.
774
00:41:38,200 --> 00:41:39,200
Ja.
775
00:41:39,200 --> 00:41:40,240
Ik wil dat niet luisteren enzovoort.
776
00:41:40,240 --> 00:41:41,240
Ja.
777
00:41:41,240 --> 00:41:45,920
En als we dat doortrekken naar je huidige werk, want jij gebruikt natuurlijk ook heel veel…
778
00:41:45,920 --> 00:41:52,560
Welk deel zou jij op dit moment niet graag willen overdragen aan AI?
779
00:41:52,560 --> 00:41:55,280
Gewoon met datzelfde idee van het koken?
780
00:41:55,280 --> 00:41:56,280
Ja.
781
00:41:56,280 --> 00:41:57,320
Dat vind ik eigenlijk te leuk.
782
00:41:57,320 --> 00:41:58,320
Ja.
783
00:41:58,320 --> 00:42:04,000
Wanneer het gaat over wat wij zijn als software engineer, dan zie ik ons eerder als een problem solver.
784
00:42:04,000 --> 00:42:05,360
Ik zie mijzelf niet…
785
00:42:05,360 --> 00:42:10,360
Ik ben een programmeur, ik schrijf code, maar ik vind dat is niet de essentie van mijn opdracht.
786
00:42:10,360 --> 00:42:18,400
Als software engineer zijnde, vind ik de kern, waar ik ook mijn meeste fun uit haal, is het probleem oplossen.
787
00:42:18,400 --> 00:42:22,040
En dat is hetgeen dat ik eigenlijk hoop dat ik voor gewoon jaren kan blijven doen.
788
00:42:22,040 --> 00:42:27,600
En dat er geen AI is die slim genoeg is, die voor mij de oplossing al kan geven.
789
00:42:27,600 --> 00:42:27,880
Ja.
790
00:42:27,880 --> 00:42:34,740
Nu, ik geloof dat dat wel echt zo gaat blijven evolueren, naarmate dat AI sterker wordt en bepaalde zaken voor ons automatiseert.
791
00:42:35,060 --> 00:42:40,500
Zeker wanneer we kijken naar de volledige voorspelling van agents, waar we eerder in een orkestrerende rol zitten.
792
00:42:40,500 --> 00:42:44,620
Ik geloof dat wij altijd wel die problem solving rol zullen opnemen.
793
00:42:44,620 --> 00:42:48,160
Waar wij altijd een probleem gaan oplossen.
794
00:42:48,160 --> 00:42:50,900
Gaat de manier hoe we dat probleem oplossen evolueren?
795
00:42:50,900 --> 00:42:51,380
Zeker.
796
00:42:51,380 --> 00:42:56,800
Maar zolang ik die funner kan uithalen en ergens iemands probleem kan oplossen, dat is voor mij het belangrijkste.
797
00:42:56,800 --> 00:43:00,380
Dus de problemen gaan misschien veranderen en hoe je die gaat oplossen gaat veranderen.
798
00:43:00,380 --> 00:43:03,980
Maar dat je met de problemen aan de slag mag om die op te gaan lossen op een goede, efficiënte manier.
799
00:43:04,060 --> 00:43:07,740
De kaders die wij als mensen eraan stellen, dat blijft jouw essentie.
800
00:43:07,740 --> 00:43:10,820
Ja, de challenge, de nieuwe zaken bijleren enzovoort.
801
00:43:10,820 --> 00:43:13,960
Dat is voor mij echt waar ik het meeste fun uit haal.
802
00:43:13,960 --> 00:43:14,840
Duidelijk.
803
00:43:14,840 --> 00:43:17,680
Ik heb eigenlijk nog een afsluitende vraag voor je.
804
00:43:17,680 --> 00:43:27,680
En dat is, heb je nog iets opmerkelijks, iets grappigs, iets gehoord bij NVIDIA, bij al die sessies die je gevolgd hebt?
805
00:43:27,680 --> 00:43:30,480
Dat moet ik nog eigenlijk wel even noemen.
806
00:43:31,120 --> 00:43:33,800
Daar moet ik even over nadenken, was er iets speciaal opmerkelijk?
807
00:43:33,800 --> 00:43:36,700
Wat je misschien niet verwacht had?
808
00:43:36,700 --> 00:43:37,000
Ja.
809
00:43:37,000 --> 00:43:39,000
Of humor, een echte...
810
00:43:39,000 --> 00:43:39,140
Ja.
811
00:43:40,140 --> 00:43:42,820
Nee, ik heb niet speciaal nog iets dat ik zeg van...
812
00:43:42,820 --> 00:43:50,440
Misschien nog een leuke kleine anekdote van NVIDIA, zeker dat we het hier net hadden over de prijzen van de GPU's enzovoort.
813
00:43:51,360 --> 00:43:56,500
Ze hadden een stand staan, net zoals je een foodstand hebt, bij de meeste conventies waar ze GPU's verkochten.
814
00:43:56,500 --> 00:43:57,600
Oh.
815
00:43:57,600 --> 00:44:00,520
Dus daar kon je ze gewoon aanschaffen, kon je ze mee naar huis nemen.
816
00:44:00,520 --> 00:44:00,700
Ja, exact.
817
00:44:00,700 --> 00:44:01,540
Aan marktprijs.
818
00:44:01,540 --> 00:44:10,640
Dus waar we nu, als je gaat gaan kijken op bijvoorbeeld Alternate of Gecko, waar je veel meer betaalt, werden daar aan marktprijs dus gewoon verkocht.
819
00:44:10,640 --> 00:44:11,420
Oh.
820
00:44:11,420 --> 00:44:13,180
Heb je wat meegenomen?
821
00:44:13,460 --> 00:44:14,260
Nee, ik was er niet.
822
00:44:14,260 --> 00:44:14,720
Oh, nee.
823
00:44:14,720 --> 00:44:15,800
Ach ja, stomme vraag.
824
00:44:15,800 --> 00:44:16,880
Wat een stomme vraag.
825
00:44:16,880 --> 00:44:18,620
Had ik de digitale variant gekregen.
826
00:44:18,620 --> 00:44:21,820
Dat was het moment dat ik dacht van, damn, had ik er maar niet.
827
00:44:21,820 --> 00:44:22,500
Ja.
828
00:44:22,500 --> 00:44:25,820
Je kreeg je digital twin van...
829
00:44:25,820 --> 00:44:33,700
Ik vind het ontzettend bedankt dat je helemaal vanuit België hier naartoe wilde komen om dit met ons te delen.
830
00:44:33,700 --> 00:44:38,180
Ja, echt gaaf om te horen waar NVIDIA mee bezig is.
831
00:44:38,180 --> 00:44:40,200
Je eigen persoonlijke verhaal.
832
00:44:40,200 --> 00:44:41,080
Dus dank daarvoor.
833
00:44:41,080 --> 00:44:41,820
Graag gedaan.
834
00:44:41,820 --> 00:44:42,960
Ik vond het heel leuk om hier te zijn.
835
00:44:42,960 --> 00:44:49,120
Leuk dat je weer luisterde naar deze aflevering van AIToday Live.
836
00:44:49,120 --> 00:44:51,560
Schrijf je eens in voor onze nieuwsbrief.
837
00:44:51,560 --> 00:44:55,460
Krijg je ook wat exclusieve content over dingen achter de schermen.
838
00:44:55,460 --> 00:44:58,580
We gaan zo direct nog een vraag stellen aan Fink.
839
00:44:58,580 --> 00:45:01,420
Het is eigenlijk een soort van vraag van de maand.
840
00:45:01,420 --> 00:45:05,100
En dan krijg je van de gasten van de maand allemaal het antwoord.
841
00:45:05,100 --> 00:45:06,400
Dus doe dat bijvoorbeeld.
842
00:45:06,400 --> 00:45:08,920
En die staat in de show notes natuurlijk.
843
00:45:08,920 --> 00:45:09,440
De link, hè?
844
00:45:09,440 --> 00:45:09,960
Ja, inderdaad.
845
00:45:09,960 --> 00:45:10,300
Zeker.
846
00:45:10,300 --> 00:45:11,060
Tot de volgende keer.
847
00:45:11,060 --> 00:45:11,840
Tot de volgende keer.