AIToday Live

S06E37 - AI Communities: Omdat zelfs robots vrienden nodig hebben

Aigency by Info Support Season 6 Episode 37

Stuur ons een bericht

In deze aflevering van AIToday Live bespreken we de impact en ontwikkeling van AI communities met Henk Boelman, Senior Cloud Advocate bij Microsoft. Henk deelt zijn ervaringen met het opzetten van de Global AI community en de verschuivingen binnen de AI-wereld sinds de komst van ChatGPT.

Ook wordt er vooruitgeblikt naar de AI Community Day op 14 mei in Utrecht, waar de diversiteit en de groei van AI-toepassingen centraal staan. Henk en de hosts verkennen de toekomst van AI, met name op het gebied van generatieve AI en multimodale modellen, en bespreken hoe deze technologieën de manier waarop we leren, werken en creëren kunnen veranderen.


LinksAigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:06,000
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

2
00:00:06,000 --> 00:00:08,000
Mijn naam Joop Snijder, CTO bij Aigency.

3
00:00:08,000 --> 00:00:11,000
Mijn naam Niels Naglé, Area Lead, Data & AI bij Info Support.

4
00:00:11,000 --> 00:00:14,000
En we hebben vandaag een hele leuke aflevering.

5
00:00:14,000 --> 00:00:18,000
We gaan het namelijk hebben over communities en wel te verstaan AI communities.

6
00:00:18,000 --> 00:00:21,000
En daarvoor hebben we Henk Boelman in de studio.

7
00:00:21,000 --> 00:00:24,000
Henk, hartstikke leuk dat je naar onze studio wilde komen.

8
00:00:24,000 --> 00:00:27,000
Zou je je eerst willen voorstellen aan onze luisteraars?

9
00:00:27,000 --> 00:00:30,000
Ja, hallo allemaal. Mijn naam is Henk Boelman.

10
00:00:30,000 --> 00:00:33,000
Ik ben Senior Cloud Advocate bij Microsoft.

11
00:00:33,000 --> 00:00:41,000
En in mijn vrije tijd en gedurende mijn werk natuurlijk heel erg veel bezig met community en vooral AI community.

12
00:00:41,000 --> 00:00:43,000
Dus dankjewel dat ik hier mag zijn vandaag.

13
00:00:43,000 --> 00:00:48,000
Ja, en dat doe je eigenlijk al lang, want er is een soort van voor en na ChatGPT.

14
00:00:48,000 --> 00:00:55,000
Dus we zijn zeg maar na november, hebben we, laten we zeggen de community is heel veel groter geworden.

15
00:00:55,000 --> 00:01:01,000
Maar jij zat al in de community ruim voor dat gebeuren.

16
00:01:01,000 --> 00:01:09,000
Ja, ik ben in 2017 begonnen met de AI community.

17
00:01:09,000 --> 00:01:15,000
Met de Global AI community, met de welbekende van jullie, Willem Meints.

18
00:01:15,000 --> 00:01:27,000
En eigenlijk ons idee daar was, omdat er toen nog zo weinig beschikbare content was voor mensen om te verspreiden binnen communities.

19
00:01:27,000 --> 00:01:30,000
Om dat eigenlijk makkelijker te maken.

20
00:01:30,000 --> 00:01:35,000
Dus centraal content neerzetten, centraal presentaties neerzetten.

21
00:01:35,000 --> 00:01:42,000
En andere mensen te helpen om dat te geven en te presenteren in hun communities.

22
00:01:42,000 --> 00:01:50,000
En dat is eigenlijk het idee waarmee de global AI community in 2017 begonnen is.

23
00:01:50,000 --> 00:01:54,000
En global was daadwerkelijk global, he? Het was echt de wereld rond.

24
00:01:54,000 --> 00:01:56,000
Het was inderdaad de wereld rond.

25
00:01:56,000 --> 00:02:04,000
Iedereen op een vaste dag kon een evenement organiseren met de content die wij dan beschikbaar stelden.

26
00:02:04,000 --> 00:02:09,000
En dat deden toen zo'n 50, 60 locaties rond de wereld.

27
00:02:09,000 --> 00:02:12,000
En daar kwamen echt veel mensen op af.

28
00:02:12,000 --> 00:02:19,000
En de allereerste, die hebben we samen gedaan toen nog met een andere technologie, Mixed Reality.

29
00:02:19,000 --> 00:02:25,000
Dus we hadden de global Mixed Reality bootcamp samen met de global AI bootcamp.

30
00:02:25,000 --> 00:02:27,000
Cool. Ja.

31
00:02:27,000 --> 00:02:34,000
En die community, dat groeit.

32
00:02:34,000 --> 00:02:38,000
Waar richt je je nu vooral eigenlijk op?

33
00:02:38,000 --> 00:02:43,000
Eigenlijk is het concept nog niet zo heel veel veranderd.

34
00:02:43,000 --> 00:02:54,000
We zijn nog steeds bezig om met de Global AI community, om andere communities de kans en de mogelijkheden te geven om evenementen te organiseren.

35
00:02:54,000 --> 00:03:02,000
Door middel van het platform wat we bieden met de Global AI community, met Meetup Pro en content.

36
00:03:02,000 --> 00:03:05,000
En dat ze hun evenementen daar kunnen registreren.

37
00:03:05,000 --> 00:03:10,000
We zijn wel wat uitgebreider met content nu.

38
00:03:10,000 --> 00:03:15,000
We hebben nu ook workshops, heel veel presentaties over allemaal verschillende onderwerpen.

39
00:03:15,000 --> 00:03:23,000
Maar wat we eigenlijk voornamelijk nu zien is dat de doelgroep veel groter geworden is voor deze community event.

40
00:03:23,000 --> 00:03:28,000
Eerst was het veel meer op de data science gericht.

41
00:03:28,000 --> 00:03:32,000
Er is machine learning bijvoorbeeld. Hoe train je nou zelf je modellen?

42
00:03:32,000 --> 00:03:38,000
En we zien nu dat eigenlijk de interesse verschuift naar eigenlijk elke developer.

43
00:03:38,000 --> 00:03:46,000
Die wil leren hoe die dat kan gebruiken in de applicaties die ze maken.

44
00:03:46,000 --> 00:03:48,000
Ja, want er gaat natuurlijk een hoop veranderen.

45
00:03:48,000 --> 00:03:55,000
Niet alleen in de applicaties die je maakt, maar ook hoe je zelf met software omgaat.

46
00:03:55,000 --> 00:03:57,000
Dus hoe je software ontwikkelt.

47
00:03:57,000 --> 00:04:00,000
Is dat ook een onderwerp daarvan?

48
00:04:00,000 --> 00:04:10,000
Ja, ik denk dat je nu de codepart is bedoeld die je helpt om code te genereren, code makkelijk te maken.

49
00:04:10,000 --> 00:04:13,000
En dat is natuurlijk wel een hele shift.

50
00:04:13,000 --> 00:04:17,000
Ik maak zelf ook heel veel demos.

51
00:04:17,000 --> 00:04:22,000
En ik merk ook zelf dat ik het steeds meer ga gebruiken.

52
00:04:22,000 --> 00:04:26,000
En steeds minder naar mijn browser ga om snippets op te zoeken.

53
00:04:26,000 --> 00:04:31,000
Maar dat ik een soort van leer om met mijn developer-IDA nou te praten.

54
00:04:31,000 --> 00:04:35,000
Zo van, hé, ik wil dit bereiken. Hoe doe ik dat?

55
00:04:35,000 --> 00:04:39,000
En dan, nou ja, dat is goede code. Dat had ik zelf niet bedacht.

56
00:04:39,000 --> 00:04:44,000
Het is wel grappig dat je dat zegt, hè. Dat je na gaat denken over je doel.

57
00:04:44,000 --> 00:04:49,000
Terwijl misschien eerst bij het programmeren was je misschien wat taakgerichter.

58
00:04:49,000 --> 00:04:51,000
Je denkt van, ik moet dit doen, ik moet dat doen, ik moet dat doen.

59
00:04:51,000 --> 00:04:55,000
En dan programmeer ik uit. En nu heb je een doel voor ogen en dat beschrijf je.

60
00:04:55,000 --> 00:04:58,000
Waardoor het programmeren makkelijker wordt.

61
00:04:58,000 --> 00:05:06,000
Ja, absoluut. Je zit niet meer te denken van, welk if statement of welke reguliere expressie heb ik hier nu voor deze lijncode nodig?

62
00:05:06,000 --> 00:05:07,000
En dat ga je opzoeken.

63
00:05:07,000 --> 00:05:16,000
Maar inderdaad van, ik wil links actief maken in mijn chatgesprek. Schrijf maar.

64
00:05:16,000 --> 00:05:22,000
Denk je dat het daardoor ook toegankelijker wordt voor mensen om te gaan programmeren?

65
00:05:22,000 --> 00:05:29,000
Ik denk dat het antwoord op is ja. Ik denk het wel.

66
00:05:29,000 --> 00:05:39,000
Ik denk wel dat we nog steeds ontwikkelaars nodig hebben die moeten kunnen controleren of de code daadwerkelijk doet wat het moet doen.

67
00:05:39,000 --> 00:05:45,000
Want ik krijg soms ook suggesties die zijn gewoon fout. Dat is niet hoe je programmeert.

68
00:05:45,000 --> 00:05:52,000
Ik denk dat we heel erg moeten oppassen in hoe we applicaties neer gaan zetten.

69
00:05:52,000 --> 00:06:00,000
Het framework bouwen voor die applicaties net zoals dat we MVC hebben en hoe we dat op een goede manier implementeren.

70
00:06:00,000 --> 00:06:07,000
Ik kan niet mijn Co-pilot vragen schrijf eventjes zo'n structuur of hou die structuur nog in de gaten.

71
00:06:07,000 --> 00:06:11,000
Dus de taak van de developer verschuift.

72
00:06:11,000 --> 00:06:21,000
Zie je dat ook terug in de content van die AI Community dagen dat die dat nu meer gaan bevatten en dat er dus daardoor ook ander publiek opkomt?

73
00:06:21,000 --> 00:06:30,000
En wat ik vooral zie is dat een shift in de sessies, vooral nu met de opkomende AI Community Day,

74
00:06:30,000 --> 00:06:39,000
is dat we veel meer sessies zien over hoe je daadwerkelijk iets bouwt in de echte wereld.

75
00:06:39,000 --> 00:06:43,000
Terwijl het een jaar geleden allemaal was dit is hoe je de API aanroept.

76
00:06:43,000 --> 00:06:47,000
Dit is wat je ermee kan en dit is hoe je het installeert.

77
00:06:47,000 --> 00:06:53,000
Dus ik vind dat persoonlijk heel erg leuk want daarvan leer je echt hoe mensen het zelf hebben toegepast.

78
00:06:53,000 --> 00:06:58,000
We hebben het erover, hij komt eraan. We hebben volgens mij nog niet genoemd wanneer hij eraan komt.

79
00:06:58,000 --> 00:07:04,000
Want het is korte termijn, want je hebt het nu over sessies die ingediend zijn, die denk ik bekeken worden. Dus hij is ook binnenkort?

80
00:07:04,000 --> 00:07:09,000
Hij is binnenkort, hij is op 14 mei. Dat is inderdaad net na de vakantie.

81
00:07:09,000 --> 00:07:12,000
14 mei Utrecht hè?

82
00:07:12,000 --> 00:07:17,000
Ja, in de fabriek in Utrecht. Prachtige oude fabriekslocatie, altijd lekker eten.

83
00:07:17,000 --> 00:07:24,000
Drie tot vier zalen zijn er waar mensen naar verschillende soorten sessies kunnen.

84
00:07:24,000 --> 00:07:35,000
En kan je nog even aangeven hoe mensen zich kunnen aanmelden, wat de tijden zijn? Even gewoon heel praktisch.

85
00:07:35,000 --> 00:07:43,000
Zodra mensen, nadat jij dit vertelt, even op de pauzeknop drukken en zeggen van ik meld me even aan voor de AI Community Day.

86
00:07:43,000 --> 00:07:45,000
Daarna gaan we weer verder.

87
00:07:45,000 --> 00:07:51,000
Helemaal goed. De AI Community Day is op 14 mei van 3 tot 9 uur 's avonds.

88
00:07:51,000 --> 00:07:58,000
Er zijn twee sessies voor het eten, na het eten is er een keynote en dan zijn er nog twee sessies.

89
00:07:58,000 --> 00:08:03,000
En dan is er natuurlijk nog de gelegenheid om nog even te blijven hangen om nog wat te drinken.

90
00:08:03,000 --> 00:08:10,000
Het is in een fabriek in Utrecht, makkelijk bereikbaar met het OV. Zeker als het zo'n lekker weer is als vandaag.

91
00:08:10,000 --> 00:08:17,000
Is het een prima stukje lopen met het openbaar vervoer, maar er gaat ook een pendelbusje op en neer vanaf het station.

92
00:08:17,000 --> 00:08:24,000
En er zijn 900 parkeerplekken. Dus er is ruimte genoeg voor iedereen.

93
00:08:24,000 --> 00:08:27,000
Ruimte zat. En de doelgroep? Wie is de doelgroep?

94
00:08:27,000 --> 00:08:36,000
De doelgroep is eigenlijk heel erg divers. Ik zeg altijd, het is voor iedereen die wat wil leren over AI.

95
00:08:36,000 --> 00:08:42,000
Sommige talks zijn waarschijnlijk te technisch voor sommige mensen. Voor sommige mensen niet technisch genoeg.

96
00:08:42,000 --> 00:08:46,000
Dus ik denk dat er voor iedereen, iedereen wat is.

97
00:08:46,000 --> 00:08:52,000
En wat ik altijd fijn vind van zo'n community dag is dat er ook altijd tijd is om te praten met mensen.

98
00:08:52,000 --> 00:09:02,000
We hebben 15 communities uitgenodigd. En die zijn er ook met een banner, met de communityleden, met de organizers van de meetups.

99
00:09:02,000 --> 00:09:06,000
Dus daarmee kunnen mensen kennis maken om verder te leren bijvoorbeeld.

100
00:09:06,000 --> 00:09:11,000
Maar ook om in discussie te gaan met elkaar over wat doe jij met AI? Wat heb jij gebouwd?

101
00:09:11,000 --> 00:09:15,000
Waarom ben jij hier? Waar werk jij? Bij welke community ben jij hier gekomen?

102
00:09:15,000 --> 00:09:18,000
Wat werkt wel? Wat werkt niet? Vooral ook wat werkt niet?

103
00:09:18,000 --> 00:09:22,000
In deze tak van sport is dat ook heel belangrijk om te weten.

104
00:09:22,000 --> 00:09:30,000
En dan de vraag, hoe kom je daar? Hoe kan je je aanmelden? Op ai.communityday.nl

105
00:09:30,000 --> 00:09:34,000
Kijk, die zullen we opnemen in de show notes. En wat kost het?

106
00:09:34,000 --> 00:09:35,000
Helemaal niks.

107
00:09:35,000 --> 00:09:38,000
Kijk, dus er is geen reden om niet te komen.

108
00:09:38,000 --> 00:09:45,000
En leuke content, lekker eten, mooie locatie en je steekt er ook nog wat van op.

109
00:09:45,000 --> 00:09:46,000
Ja, wat wil je nog meer?

110
00:09:46,000 --> 00:09:48,000
Toch? Klinkt hartstikke goed.

111
00:09:48,000 --> 00:09:51,000
Nou, wat wil je nog meer? Wij staan er ook, toch?

112
00:09:51,000 --> 00:09:52,000
Ja, zeker.

113
00:09:52,000 --> 00:10:00,000
Dus wij geven een sessie over hoe generatieve AI ons helpt bij twee wekelijks, nee ik zeg het verkeerd,

114
00:10:00,000 --> 00:10:06,000
om iedere week twee afleveringen de deur uit te krijgen.

115
00:10:06,000 --> 00:10:09,000
Daar gebruiken we heel veel generatieve AI ook voor.

116
00:10:09,000 --> 00:10:13,000
Leuk. Ik ben natuurlijk heel benieuwd naar die sessie.

117
00:10:13,000 --> 00:10:17,000
Want ik heb ook een applicatie gebouwd die dat doet.

118
00:10:17,000 --> 00:10:20,000
Dus ik ben heel benieuwd naar hoe jullie dat doen.

119
00:10:20,000 --> 00:10:22,000
Kunnen jullie er wat over vertellen?

120
00:10:22,000 --> 00:10:24,000
Jazeker, zeker.

121
00:10:24,000 --> 00:10:26,000
Nou, een van de dingen, dat ga je straks merken,

122
00:10:26,000 --> 00:10:30,000
we hebben bijvoorbeeld een virtuele co-host, Aisha.

123
00:10:30,000 --> 00:10:34,000
En Aisha hebben we onder andere gecreëerd met generatieve AI.

124
00:10:34,000 --> 00:10:42,000
Dus voor een deel, Aisha is, een profiel is eerst geschreven.

125
00:10:42,000 --> 00:10:46,000
Van hoe zouden we Aisha zien?

126
00:10:46,000 --> 00:10:50,000
Dus we hebben gezegd, Aisha is uiteraard een vrouw,

127
00:10:50,000 --> 00:10:54,000
heeft een bepaalde achtergrond hebben meegegeven,

128
00:10:54,000 --> 00:10:57,000
waar ze vooral in geïnteresseerd is.

129
00:10:57,000 --> 00:11:02,000
Daar hebben we een profiel laten genereren met ChatGPT uiteraard.

130
00:11:02,000 --> 00:11:07,000
En vervolgens ook gezegd, geef nou eens echt een hele lijst van vragen,

131
00:11:07,000 --> 00:11:11,000
die interessant zouden kunnen zijn voor de podcast,

132
00:11:11,000 --> 00:11:15,000
die wij typisch, zeg maar, als de twee mannen die hier zitten,

133
00:11:15,000 --> 00:11:17,000
niet zouden stellen.

134
00:11:17,000 --> 00:11:19,000
We hebben een hele lijst van vragen gekregen.

135
00:11:19,000 --> 00:11:24,000
En vervolgens hebben we die vragen ook omgezet naar spraak uiteraard.

136
00:11:24,000 --> 00:11:26,000
Dus mensen moeten dingen luisteren.

137
00:11:26,000 --> 00:11:29,000
Dus je krijgt straks ook spraak te horen.

138
00:11:29,000 --> 00:11:33,000
Dus dat is met generatieve AI bijvoorbeeld opgezet.

139
00:11:33,000 --> 00:11:36,000
We hebben ook gekozen voor een robotstem.

140
00:11:36,000 --> 00:11:40,000
Je hebt natuurlijk nu hele mooie, goede stemmen.

141
00:11:40,000 --> 00:11:42,000
Deze podcast, hè.

142
00:11:42,000 --> 00:11:46,000
Ik denk wel dat ik Niels vervang of zo.

143
00:11:46,000 --> 00:11:49,000
Dat kan. Iedereen is vervangbaar.

144
00:11:49,000 --> 00:11:51,000
Of dat ik vervangen word met mijn stemmen.

145
00:11:51,000 --> 00:11:55,000
Dus we hebben gezegd, we willen dat het ook heel transparant is.

146
00:11:55,000 --> 00:12:01,000
Dat het een vraag is die gegenereerd met een gegenereerde stem.

147
00:12:01,000 --> 00:12:03,000
Dus dat is een van de dingen.

148
00:12:03,000 --> 00:12:08,000
En de postproductie, dat is eigenlijk het allermeeste werk.

149
00:12:08,000 --> 00:12:12,000
Daar hebben we namelijk ook heel veel generatieve AI in gezet.

150
00:12:12,000 --> 00:12:14,000
Waaronder bijvoorbeeld de transcripties.

151
00:12:14,000 --> 00:12:18,000
Dus we praten zo direct, ik weet nog niet hoe lang, 35, 45 minuten.

152
00:12:18,000 --> 00:12:25,000
Als je dat zou moeten uittypen, dan word je daar niet vrolijk van.

153
00:12:25,000 --> 00:12:30,000
Dus uiteraard gebruiken we daar ook generatieve AI voor.

154
00:12:30,000 --> 00:12:34,000
Maar ook om daar dan weer informatie uit te halen.

155
00:12:34,000 --> 00:12:37,000
Dus wat zou de interessante quotes van jou zijn?

156
00:12:37,000 --> 00:12:41,000
Wat zouden we kunnen gebruiken in onze LinkedIn berichten?

157
00:12:41,000 --> 00:12:46,000
Waar wordt gesproken over wat we in de show notes gaan zetten?

158
00:12:46,000 --> 00:12:50,000
Want als ik 35 tot 45 minuten moet terugluisteren,

159
00:12:50,000 --> 00:12:54,000
moet ik naar mezelf luisteren wat ik niet fijn vind?

160
00:12:54,000 --> 00:12:57,000
Nou, dat stuk kan ik dan nog doen, maar ik ga niet naar mezelf luisteren.

161
00:12:57,000 --> 00:12:59,000
Dus dat wordt wat lastig.

162
00:12:59,000 --> 00:13:03,000
Dus zo pikken we er ook uit, waar worden interessante dingen genoemd

163
00:13:03,000 --> 00:13:05,000
die dan ook daadwerkelijk in de show notes komen.

164
00:13:05,000 --> 00:13:09,000
En zo hebben we nog een heel set aan andere activiteiten.

165
00:13:09,000 --> 00:13:13,000
Maar daar vertellen we tijdens de sessie natuurlijk veel meer over.

166
00:13:13,000 --> 00:13:15,000
Wordt het meer het technische, toch?

167
00:13:15,000 --> 00:13:17,000
Met welke modellen je dan hebt gebruikt?

168
00:13:17,000 --> 00:13:21,000
Of meer van dit is nu mogelijk?

169
00:13:21,000 --> 00:13:26,000
Ik was van plan om daar van alles, eigenlijk een beetje.

170
00:13:26,000 --> 00:13:31,000
Dus waarom bijvoorbeeld zetten we wel of geen generatieve AI in?

171
00:13:31,000 --> 00:13:33,000
Dus hebben we ook echt keuzes in gemaakt.

172
00:13:33,000 --> 00:13:35,000
Dus ethisch vraagstukken komen aan bod.

173
00:13:35,000 --> 00:13:40,000
Wat ik net al zei, bijvoorbeeld dat het ook transparant is

174
00:13:40,000 --> 00:13:45,000
dat Aisha niet een mens is die een vraag stelt.

175
00:13:45,000 --> 00:13:49,000
En ik vertel ook in het uit welke tools, welke modellen.

176
00:13:49,000 --> 00:13:53,000
En bijvoorbeeld ook hoe we dat testen.

177
00:13:53,000 --> 00:13:56,000
Hoe we ook zorgen dat ook de prompts blijven werken.

178
00:13:56,000 --> 00:13:59,000
Heel gaaf. Nou, ik ben benieuwd.

179
00:13:59,000 --> 00:14:03,000
Ga je zelf nog een praatje houden?

180
00:14:03,000 --> 00:14:10,000
Nee, eigenlijk doe ik geen praatjes op events die ik zelf organiseer.

181
00:14:10,000 --> 00:14:12,000
Ja, snap ik.

182
00:14:12,000 --> 00:14:16,000
Nee, we hebben een hele leuke keynote van Gabriella.

183
00:14:16,000 --> 00:14:23,000
Die werkt bij Microsoft over Small Language Models en over Green AI.

184
00:14:23,000 --> 00:14:25,000
Geweldig.

185
00:14:25,000 --> 00:14:31,000
Dus ik ben heel benieuwd. En zij werkt ook dagelijks met allemaal klanten die dat toepassen.

186
00:14:31,000 --> 00:14:36,000
Zij heeft een hele berg ervaring en een hele berg verhalen om te delen.

187
00:14:36,000 --> 00:14:39,000
Dus ik ben heel erg benieuwd naar.

188
00:14:39,000 --> 00:14:41,000
Mooi onderwerp.

189
00:14:41,000 --> 00:14:47,000
Zeker. Kan je iets, ik weet niet of je daar antwoord op kan geven, over die Small Language Models.

190
00:14:47,000 --> 00:14:54,000
Want als je dit nu luistert, een paar dagen daarvoor heb ik namelijk iets verteld over Small Language Models.

191
00:14:54,000 --> 00:15:01,000
Wat is jouw blik daarop? Zou je eerst kunnen uitleggen, wat is het?

192
00:15:01,000 --> 00:15:07,000
Ik moet eerlijk zeggen dat ik weinig ervaring heb met Small Language Models.

193
00:15:07,000 --> 00:15:22,000
Maar, zover ik begrepen heb, zijn dat, geen Large Language Models, maar Small Language Models die op veel minder hardware zouden kunnen draaien.

194
00:15:22,000 --> 00:15:32,000
Waardoor ze veel minder energie verbruiken en je ze ook, als het ware, zelf kan hosten.

195
00:15:32,000 --> 00:15:38,000
Waardoor je niet naar de clouds hoeft enzovoort. Dus je latency wordt een stuk minder.

196
00:15:38,000 --> 00:15:40,000
Want de modellen staan dichterbij.

197
00:15:40,000 --> 00:15:48,000
Ja, latency is eigenlijk de vertraging tussen je antwoord en, of tenminste de vraag die je stelt en het antwoord dat je krijgt.

198
00:15:48,000 --> 00:16:02,000
Ja, absoluut. En de belofte is dat ze in de buurt komen van de kwaliteiten van de Large Language Models.

199
00:16:02,000 --> 00:16:13,000
Ik heb het voor de rest nog niet kunnen testen. Er zijn natuurlijk net weer een aantal nieuwe uitgekomen en beschikbaar in het SJRI Studio.

200
00:16:13,000 --> 00:16:18,000
Maar ja, je kan ze dus ook lokaal draaien, wat wel weer heel gaaf is.

201
00:16:18,000 --> 00:16:25,000
Ik doe dat bijvoorbeeld zelf met Whisper voor mijn transcripties, voor mijn video's die ik maak.

202
00:16:25,000 --> 00:16:30,000
Dat is toch wel gaaf, dat het allemaal op je eigen machine draait.

203
00:16:30,000 --> 00:16:37,000
En je hoeft niet al je audio te streamen of te uploaden, maar dat het gewoon in je notebook op je laptop kan draaien.

204
00:16:37,000 --> 00:16:44,000
Maar ook handig voor je cost control en dat soort zaken, wat ook meer binnen handen bereik komt op deze manier.

205
00:16:44,000 --> 00:16:54,000
Wat als mensen nou zouden willen beginnen, dus we hebben best wel een heel breed publiek aan luisteraars.

206
00:16:54,000 --> 00:17:04,000
Als mensen nou willen beginnen en onderdeel zouden willen worden van een community om te gaan leren, om je beter in te worden.

207
00:17:04,000 --> 00:17:07,000
Wat zouden jouw tips daarin zijn?

208
00:17:07,000 --> 00:17:19,000
Dat is een hele goede vraag. Ik persoonlijk leer het meeste van naar evenementen gaan en echt de tijd te nemen om te luisteren naar een tolk, dat te volgen.

209
00:17:19,000 --> 00:17:27,000
En dan waarschijnlijk met een collega of twee of drie met wie je gaat daar een gesprek over te hebben. Dat is hoe ik leer.

210
00:17:27,000 --> 00:17:38,000
Er zijn natuurlijk ook mensen die leren van video's. Bijvoorbeeld op de Global AI Community hebben we een paar duizend video's staan.

211
00:17:38,000 --> 00:17:47,000
Elke keer en elke week wordt iets uitgelegd over hoe werkt deze technologie, hoe werkt deze technologie, wat heb jij ermee gebouwd.

212
00:17:47,000 --> 00:18:00,000
Andere mensen leren meer van artikelen lezen. Dus ja, het is heel persoonlijk natuurlijk wat de beste manier is.

213
00:18:00,000 --> 00:18:08,000
Dus voor mij, om te leren, ik bezoek evenementen en dan zou ik naar de Global AI Community meet-up gaan.

214
00:18:08,000 --> 00:18:15,000
En daar zie je allerlei meet-ups van over de hele wereld, maar ook nu in Nederland, waar je naartoe kan.

215
00:18:15,000 --> 00:18:21,000
Dat beantwoord eigenlijk mijn vraag die ik de ene keer oppopte. Maar hoe kom ik achter welke communities te zijn?

216
00:18:21,000 --> 00:18:24,000
Door inderdaad naar zo'n community te gaan waar dat weer gedeeld wordt.

217
00:18:24,000 --> 00:18:36,000
En dat is ook een van de bedoelingen van de AI Community Day. Als je daarheen gaat, maak je gelijk kennis met 10, 15 communities in Nederland.

218
00:18:36,000 --> 00:18:44,000
En we hebben bijvoorbeeld .NET Zuid, die ook natuurlijk AI-sessies aanbiedt. En die zitten meestal in Eindhoven, Helmond.

21
00:18:44,000 --> 00:18:50,000
Maar we hebben ook DevNetNoord, die zit in Groningen. Dus je hebt ook je lokale community.

220
00:18:50,000 --> 00:19:00,000
En ik denk dat dat heel belangrijk is om te leren. Je zoekt een community die jouw onderwerp heeft, die in de buurt van jou zit,

221
00:19:00,000 --> 00:19:03,000
waar je dus mensen uit je omgeving kan ontmoeten.

222
00:19:03,000 --> 00:19:06,000
En dat is ook een van de bedoelingen van de AI Community Day.

223
00:20:48,000 --> 00:20:51,000
En dat tijdens de Global AI Bootcamp is het in Utrecht, misschien in Nieuwegein,

224
00:20:51,000 --> 00:20:54,000
maar als zich dat zou verspreiden over Nederland.

225
00:20:54,000 --> 00:20:57,000
Voor de Global AI Community hebben we wel een plan.

226
00:20:57,000 --> 00:21:01,000
Daar zit wel een jaarplanning aan vast.

227
00:21:01,000 --> 00:21:06,000
En wat we daar eigenlijk mee bezig zijn, eerst hoe het werkte was,

228
00:21:06,000 --> 00:21:11,000
je hebt een community, een .NET community, een Azure community, een Google community,

229
00:21:11,000 --> 00:21:13,000
het maakt allemaal niet uit.

230
00:21:13,000 --> 00:21:18,000
En je pakt ons content op en je organiseert een event.

231
00:21:18,000 --> 00:21:22,000
Dus dan ben je eigenlijk een soort associate community.

232
00:21:22,000 --> 00:21:26,000
En dat was prima, omdat zeven jaar geleden,

233
00:21:26,000 --> 00:21:34,000
het was prima als je als .NET community iets met AI Day een keer per jaar.

234
00:21:34,000 --> 00:21:36,000
Maar dat is nu natuurlijk veranderd.

235
00:21:36,000 --> 00:21:40,000
En dat zien we ook. En we zien ook dat mensen nieuwe communities willen starten.

236
00:21:40,000 --> 00:21:45,000
Of nieuwe evenementen, nieuwe plekken om andere mensen te ontmoeten.

237
00:21:45,000 --> 00:21:49,000
Dus wat we dit jaar eigenlijk gaan promoten,

238
00:21:49,000 --> 00:21:53,000
is dat je Global AI chapters kan starten.

239
00:21:53,000 --> 00:21:56,000
Dus in plaats van dat we bijvoorbeeld de Azure Thursday zijn,

240
00:21:56,000 --> 00:22:01,000
die de Global AI Bootcamp organiseert, wordt er nu een nieuwe chapter gestart.

241
00:22:01,000 --> 00:22:04,000
Global AI London is er bijvoorbeeld eentje.

242
00:22:04,000 --> 00:22:08,000
Eigenlijk Global AI United Kingdom. Die zit in Londen.

243
00:22:08,000 --> 00:22:11,000
En die nemen dan onze branding over.

244
00:22:11,000 --> 00:22:18,000
En die presenteren zich daadwerkelijk als Global AI United Kingdom.

245
00:22:18,000 --> 00:22:21,000
En gaan vanuit die naam dingen organiseren.

246
00:22:21,000 --> 00:22:27,000
Dus dat helpt natuurlijk met de bekendheid van de Global AI community over de hele wereld.

247
00:22:27,000 --> 00:22:31,000
Maar het centraliseert ook alle efforts.

248
00:22:31,000 --> 00:22:34,000
We hebben bijvoorbeeld één YouTube kanaal.

249
00:22:34,000 --> 00:22:36,000
Één plek waar we content publiceren.

250
00:22:36,000 --> 00:22:42,000
Dus in plaats van nu alleen vanuit Nederland, van wat wij deden,

251
00:22:42,000 --> 00:22:47,000
en vanuit Frankrijk en Duitsland, komt er nu ook content vanuit de UK.

252
00:22:47,000 --> 00:22:49,000
Op hetzelfde kanaal.

253
00:22:49,000 --> 00:22:52,000
En hopen, er is er ook eentje begonnen in Thailand,

254
00:22:52,000 --> 00:22:55,000
er is er eentje begonnen in Katmandu, er is er eentje begonnen in India.

255
00:22:55,000 --> 00:22:57,000
En al die content komt samen.

256
00:22:57,000 --> 00:23:02,000
En samen is het natuurlijk in dit geval veel, veel, veel beter.

257
00:23:02,000 --> 00:23:07,000
En dan bouwen we inderdaad een globale community in.

258
00:23:07,000 --> 00:23:09,000
Iedereen draagt er zijn stukje aan bij.

259
00:23:09,000 --> 00:23:15,000
En dat is eigenlijk het plan waar we naar toe willen met de Global AI community.

260
00:23:15,000 --> 00:23:21,000
Dat overal ter wereld Global AI community chapters zijn die dat doen.

261
00:23:21,000 --> 00:23:25,000
Ja, mooi. Want dan zie je ook de ontwikkelingen op misschien wel mondiaal gebied, inderdaad, die verschillen.

262
00:23:25,000 --> 00:23:28,000
En daar kunnen we weer lering uithalen.

263
00:23:28,000 --> 00:23:32,000
En andere manieren van talks of, ja, mooi.

264
00:23:32,000 --> 00:23:35,000
Is de hele wereld bezig met generatieve AI?

265
00:23:35,000 --> 00:23:40,000
Nou, we hadden natuurlijk de Global AI bootcamp in maart.

266
00:23:40,000 --> 00:23:45,000
En daar hadden we 120 locaties in een maand.

267
00:23:45,000 --> 00:23:47,000
Ja, zo.

268
00:23:47,000 --> 00:23:52,000
En ik denk niet dat er op een agenda geen generatieve AI stond.

269
00:23:52,000 --> 00:23:53,000
Nee.

270
00:23:53,000 --> 00:24:00,000
Hoe zie jij dat ontwikkelen, het gebied van generatieve AI?

271
00:24:00,000 --> 00:24:06,000
Je zit dicht bij het vuur. Microsoft, OpenAI hebben een behoorlijk stevige relatie.

272
00:24:06,000 --> 00:24:09,000
Correct. Voor mezelf?

273
00:24:09,000 --> 00:24:10,000
Ja.

274
00:24:10,000 --> 00:24:12,000
Er gebeurt gewoon zoveel dat het gewoon bijna niet bij te houden is.

275
00:24:12,000 --> 00:24:14,000
Het is gewoon niet bij te houden.

276
00:24:14,000 --> 00:24:20,000
De handen eromheen hebben we natuurlijk alle tooling die constant in ontwikkeling is.

277
00:24:20,000 --> 00:24:25,000
Er is geen moment om, laat maar zeggen, even adem te halen.

278
00:24:25,000 --> 00:24:28,000
En je zit erin te verdiepen in zoveel.

279
00:24:28,000 --> 00:24:32,000
Oké, dit is het nu, nu kan ik het.

280
00:24:32,000 --> 00:24:34,000
Er is elke keer weer wat nieuws.

281
00:24:34,000 --> 00:24:37,000
Een nieuwe model, een nieuwe manier om dingen te doen.

282
00:24:37,000 --> 00:24:41,000
Wat hadden we? We hebben natuurlijk Rack.

283
00:24:41,000 --> 00:24:42,000
Dat was heel erg populair.

284
00:24:42,000 --> 00:24:45,000
Nu hebben we weer wat nieuws.

285
00:24:45,000 --> 00:24:49,000
Dat we bijvoorbeeld RAFT.

286
00:24:49,000 --> 00:24:52,000
Oh, die heb ik nog niet eens gehoord. Waar staat dat voor?

287
00:24:52,000 --> 00:24:53,000
Weet je dat?

288
00:24:53,000 --> 00:24:55,000
Moeten we even opzoeken.

289
00:24:55,000 --> 00:24:58,000
Daar is ook collega van bij, dus de hele tijd mee bezig geweest.

290
00:24:58,000 --> 00:25:03,000
Onderzoek gepresenteerd samen met de Universiteit van Berkeley.

291
00:25:03,000 --> 00:25:10,000
Je moet me er niet op vastpinnen, maar het was iets dat je een model, een soort van finetunet.

292
00:25:10,000 --> 00:25:14,000
Dus dat je finetuning en Rack combineert.

293
00:25:14,000 --> 00:25:16,000
Ik kan me er iets bij voorstellen.

294
00:25:16,000 --> 00:25:17,000
In iets.

295
00:25:17,000 --> 00:25:24,000
Dus de Rack is dat je je knowledge base, je documenten, dat je daar dingen uit zoekt.

296
00:25:24,000 --> 00:25:28,000
Aan de andere kant, finetunen, is dat je een model, dat je voorbeelden kan geven.

297
00:25:28,000 --> 00:25:34,000
En dat je die eigenlijk iets bijgeleerd is op een heel specifieke taken.

298
00:25:34,000 --> 00:25:35,000
En dat dan in een combinatie.

299
00:25:35,000 --> 00:25:38,000
Oh ja, lijkt me op zich wel logisch.

300
00:25:38,000 --> 00:25:40,000
Ja, dan bijvoorbeeld.

301
00:25:40,000 --> 00:25:44,000
Je hoort het al aan mij. Dan hoor je dat zo langskomen.

302
00:25:44,000 --> 00:25:49,000
Nee, dan kost het toch weer een paar dagen om daar helemaal in te duiken enzovoort.

303
00:25:49,000 --> 00:25:52,000
En er zijn natuurlijk allemaal dat soort tooling.

304
00:25:52,000 --> 00:25:56,000
Bijvoorbeeld als Microsoft Research heeft Guidance.

305
00:25:56,000 --> 00:25:57,000
Bijvoorbeeld.

306
00:25:57,000 --> 00:26:06,000
Dat is een pakket of een framework om te zorgen dat je model minder tokens verbruikt.

307
00:26:06,000 --> 00:26:07,000
Ja.

308
00:26:07,000 --> 00:26:08,000
Super cool.

309
00:26:08,000 --> 00:26:09,000
Heel cool.

310
00:26:09,000 --> 00:26:12,000
Zo zie je eigenlijk overal al die dingen maar komen en komen en komen.

311
00:26:12,000 --> 00:26:16,000
Dus het is echt een wervelwind wat er over je heen komt.

312
00:26:16,000 --> 00:26:23,000
Zeg je hiermee eigenlijk ook van, misschien moet je ook een beetje achteroverleunen in de stoel.

313
00:26:23,000 --> 00:26:28,000
Je kan inderdaad niet alles voorbij laten komen.

314
00:26:28,000 --> 00:26:33,000
Dat je even kijkt, wat zit er dan eigenlijk in die hele stroom waar je dingen uitpikt.

315
00:26:33,000 --> 00:26:36,000
En dat je zegt, dat is interessant voor mij, dat is interessant voor mij.

316
00:26:36,000 --> 00:26:43,000
Ja, ik denk dat je vooral nu moet begrijpen waar het toe in staat is.

317
00:26:43,000 --> 00:26:49,000
En waar je het zou kunnen inzetten om je leven makkelijker te maken.

318
00:26:49,000 --> 00:26:54,000
Want daar is de hoop denk ik redelijk voor.

319
00:26:54,000 --> 00:26:55,000
Dat ook.

320
00:26:55,000 --> 00:26:58,000
Net zoals met GitHub Copilot.

321
00:26:58,000 --> 00:27:01,000
Ga het gebruiken, zie waar het toe in staat is.

322
00:27:01,000 --> 00:27:09,000
Gebruik chatgpt om te zien, Bing chat, om te zien wat het allemaal kan.

323
00:27:09,000 --> 00:27:11,000
En dat, vooral ga het doen.

324
00:27:11,000 --> 00:27:13,000
Je wordt er ook beter in.

325
00:27:13,000 --> 00:27:18,000
Wat ik nou wel eens zie, is als mensen zeggen van, ik krijg alleen maar gekke dingen eruit.

326
00:27:18,000 --> 00:27:23,000
Dat ze het even hebben geprobeerd, je krijgt er niet uit wat je wil, leg je het aan de kant.

327
00:27:23,000 --> 00:27:28,000
Het is echt wel handig om, je moet daar gewoon een bepaalde vaardigheid in krijgen.

328
00:27:28,000 --> 00:27:29,000
Dus doe het.

329
00:27:29,000 --> 00:27:33,000
Het is net zoals sporten, als muziek leren spelen.

330
00:27:33,000 --> 00:27:35,000
Je moet er gewoon continu even mee bezig zijn.

331
00:27:35,000 --> 00:27:39,000
Het voelt een beetje ongemakkelijk in het begin, maar je wordt er steeds beter in.

332
00:27:39,000 --> 00:27:43,000
En als je die tijd er niet in investeert, dan kan je misschien ook beter niet starten.

333
00:27:43,000 --> 00:27:45,000
Want dan zijn er genoeg andere zaken die je kan oppakken.

334
00:27:45,000 --> 00:27:50,000
Dus je moet er continu wel proberen en kijken wat wel werkt en wat niet werkt.

335
00:27:50,000 --> 00:27:54,000
Ik had al wat uitgelegd over Aisha.

336
00:27:54,000 --> 00:27:56,000
Zullen we eens luisteren?

337
00:27:56,000 --> 00:28:15,000
*muziek speelt*

338
00:28:15,000 --> 00:28:19,000
Zetten we het er wel even aan.

339
00:28:19,000 --> 00:28:23,000
Dat is het mooie van een virtuele assistent, die kan je ook uitzetten.

340
00:28:23,000 --> 00:28:26,000
*gelach*

341
00:28:26,000 --> 00:28:28,000
Zo gaan dat soort dingen.

342
00:28:28,000 --> 00:28:34,000
De sessie die we gaan geven is misschien wel leuk.

343
00:28:34,000 --> 00:28:37,000
Die heet 'de robot achter de knoppen'.

344
00:28:37,000 --> 00:28:40,000
Dat is eigenlijk niet, dat is een mens achter de knoppen.

345
00:28:40,000 --> 00:28:42,000
Dat ben ik in dit geval.

346
00:28:42,000 --> 00:28:44,000
Dit is even een foutje.

347
00:28:44,000 --> 00:28:47,000
Ik ben verheugd om je hier te hebben.

348
00:28:47,000 --> 00:28:49,000
Ik ben Aisha.

349
00:28:49,000 --> 00:28:52,000
De AI van deze podcast, mag ik je een vraag stellen?

350
00:28:52,000 --> 00:28:55,000
Ja.

351
00:28:55,000 --> 00:29:01,000
Wat is het meest verrassende of indrukwekkende dat je een eenvoudig AI systeem hebt zien doen?

352
00:29:01,000 --> 00:29:05,000
Goeie vraag.

353
00:29:05,000 --> 00:29:21,000
Ik denk dat het video genereren met Sora, dat dat wel een van de meest indrukwekkende dingen is die ik heb gezien in de afgelopen tijd.

354
00:29:21,000 --> 00:29:25,000
Afbeeldingen genereren kan ik.

355
00:29:25,000 --> 00:29:30,000
Ik weet niet of het jullie gelukt is om twee dezelfde afbeeldingen naar elkaar te genereren.

356
00:29:30,000 --> 00:29:32,000
Nee.

357
00:29:32,000 --> 00:29:35,000
Maar zo'n systeem kan dat dan wel.

358
00:29:35,000 --> 00:29:37,000
Ja, waanzinnig.

359
00:29:37,000 --> 00:29:38,000
Ik vind het echt heel gaaf.

360
00:29:38,000 --> 00:29:42,000
Ja, dat is echt prompt ingeving. Je krijgt gewoon een heel stuk video.

361
00:29:42,000 --> 00:29:43,000
Ja.

362
00:29:44,000 --> 00:29:54,000
Zie je daar ook toepassingen in voor het spreken of bij het organiseren van jouw community days?

363
00:29:54,000 --> 00:30:03,000
Nou, ik zou inderdaad wel dingen genereren voor commercials, voor social media posts, voor andere dingen.

364
00:30:03,000 --> 00:30:07,000
Ik heb voor de AI community day bijvoorbeeld ook even een achtergrondje nodig.

365
00:30:07,000 --> 00:30:15,000
Ik heb eentje met een raccoon met een vlag erin. Als dat kan bewegen is dat natuurlijk echt helemaal gaaf.

366
00:30:15,000 --> 00:30:19,000
Inderdaad, dat trekt gelijk toch meer de aandacht die beweging moet ik zeggen.

367
00:30:19,000 --> 00:30:21,000
Jij was nog wel benieuwd naar die wasbeer toch?

368
00:30:21,000 --> 00:30:24,000
Ja, ik was wel benieuwd. Wat is het verhaal achter de wasbeer? Is er een verhaal achter?

369
00:30:24,000 --> 00:30:28,000
Er is geen verhaal achter de wasbeer, nee.

370
00:30:28,000 --> 00:30:35,000
Nou, de Microsoft Developer Advocates hebben een mascotte, een raccoon.

371
00:30:35,000 --> 00:30:42,000
Die gebruik ik al toen Dali 3 kwam, gebruik ik die in mijn presentaties.

372
00:30:42,000 --> 00:30:50,000
Dat die raccoon van alles doet. Die houdt dan een kubus vast wat dan vector space representeert en dat soort dingen.

373
00:30:50,000 --> 00:30:53,000
Maar die raccoon die gaat door mijn hele presentatie heen. Super leuk.

374
00:30:53,000 --> 00:30:58,000
Zeker als je op een bioscoop scherm mag presenteren is dat gewoon echt heel erg gaaf.

375
00:30:58,000 --> 00:31:02,000
En nu voor de community had ik mijn prompt natuurlijk al klaar.

376
00:31:02,000 --> 00:31:06,000
Dus heb ik hem een vlag gegeven en een cape aan latentrekken.

377
00:31:06,000 --> 00:31:12,000
En de raccoon is altijd op een verlaten planeet die Nura heet.

378
00:31:12,000 --> 00:31:14,000
Want die moet toch een verhaal hebben.

379
00:31:14,000 --> 00:31:20,000
En ook voor een demo heb ik de hele planeet Nura gegenereerd met steden en provincies.

380
00:31:20,000 --> 00:31:23,000
En daar heel leuk rekening over doen.

381
00:31:23,000 --> 00:31:27,000
Maar ja, die plaatjes komen er wel vierkant uit.

382
00:31:27,000 --> 00:31:29,000
En dat is natuurlijk altijd wel een dingetje.

383
00:31:29,000 --> 00:31:31,000
Vierkant, je bedoelt vierkant formaat.

384
00:31:31,000 --> 00:31:39,000
Ja, vierkant formaat. Dus ik had nu voor het eerst eigenlijk Adobe gebruikt om een achtergrond te genereren.

385
00:31:39,000 --> 00:31:43,000
En ik had een heel klein stukje, misschien 50 pixels gegenereerd.

386
00:31:43,000 --> 00:31:45,000
En gezegd, doe dat over de hele achterkant.

387
00:31:45,000 --> 00:31:51,000
En toen maakte hij de hele planeet netjes vormen met nieuwe sterren en helemaal in dezelfde kleuren.

388
00:31:51,000 --> 00:31:53,000
Dat was echt heel gaaf.

389
00:31:53,000 --> 00:31:57,000
Ja, creativiteit kan je er gelijk bij lossen inderdaad.

390
00:31:57,000 --> 00:32:02,000
Wat een fascinerend antwoord. Bedankt voor het delen.

391
00:32:02,000 --> 00:32:03,000
Nou, graag gedaan.

392
00:32:03,000 --> 00:32:06,000
En meteen een extra tool erbij natuurlijk inderdaad.

393
00:32:06,000 --> 00:32:12,000
Van Photoshop, daar zitten ook heel veel van die generatieve mogelijkheden in.

394
00:32:12,000 --> 00:32:16,000
Ik vergeet dat soms nog wel eens om dat te gebruiken.

395
00:32:16,000 --> 00:32:18,000
Dus dit is wel een goeie wat jij zegt.

396
00:32:18,000 --> 00:32:20,000
Ja, ik heb er zelf ook inderdaad.

397
00:32:20,000 --> 00:32:23,000
Iedere keer loop ik vast als ik een mooie powerpoint gemaakt heb met een hele mooie achtergrond.

398
00:32:23,000 --> 00:32:26,000
En dan passen die dimensies net niet lekker en ga je hem oprekken.

399
00:32:26,000 --> 00:32:31,000
En hij zou, dat kost best wel veel tijd. Dus ik ga hem ook toepassen inderdaad.

400
00:32:31,000 --> 00:32:36,000
En wat leuk inderdaad. Wat ik zelf wel voor verrast was, is ook het stukje muziek.

401
00:32:36,000 --> 00:32:37,000
Dus het muziek genereren.

402
00:32:37,000 --> 00:32:40,000
Ik vind het ook altijd wel leuk om vlak voor de presentatie ook een stukje muziek aan te hebben.

403
00:32:40,000 --> 00:32:46,000
Als mensen binnenkomen en daar zie je ook steeds meer toepassingen om daar toch wat meer customs te maken.

404
00:32:46,000 --> 00:32:47,000
En de muziek te genereren.

405
00:32:47,000 --> 00:32:49,000
Dat was ik ook wel verbaasd.

406
00:32:49,000 --> 00:32:51,000
Je merkt het nog wel.

407
00:32:51,000 --> 00:32:55,000
Nog niet helemaal soepel, maar hoe krachtig dat ook is.

408
00:32:55,000 --> 00:32:56,000
Nee, zeker.

409
00:32:56,000 --> 00:33:02,000
Ja, ik heb van de week met een van de kleindochters een tekst laten maken.

410
00:33:02,000 --> 00:33:06,000
En die dan inderdaad op muziek laten zetten.

411
00:33:06,000 --> 00:33:10,000
Ik gebruikte Suno, dat krijg je.

412
00:33:10,000 --> 00:33:12,000
En dan krijg je twee minuten muziek.

413
00:33:12,000 --> 00:33:13,000
En dat kan je dan uitbreiden.

414
00:33:13,000 --> 00:33:15,000
En vervolgens liep ik helemaal een beetje vast.

415
00:33:15,000 --> 00:33:17,000
Hoe krijg je dat dan weer aan elkaar?

416
00:33:17,000 --> 00:33:19,000
En in dezelfde stijl?

417
00:33:19,000 --> 00:33:23,000
Maar dat was in het kader van toch even snel uitproberen.

418
00:33:23,000 --> 00:33:25,000
Het lukte nog niet helemaal.

419
00:33:25,000 --> 00:33:27,000
En dan heb ik het toch afgevonden.

420
00:33:27,000 --> 00:33:29,000
En heb je het weer losgelaten.

421
00:33:29,000 --> 00:33:33,000
Maar ja, dat zijn wel hele gave dingen die je nu kan doen.

422
00:33:33,000 --> 00:33:35,000
Waar je eerst heel veel tijd voor nodig had.

423
00:33:35,000 --> 00:33:39,000
Ja, en eerst ging ik vaak naar een beeldbank of iets.

424
00:33:39,000 --> 00:33:42,000
Om daar dan een afbeelding te zoeken die het net niet was.

425
00:33:42,000 --> 00:33:45,000
En nu kan je het helemaal zelf maken.

426
00:33:45,000 --> 00:33:48,000
Ik vind het echt heel erg gaaf.

427
00:33:48,000 --> 00:33:49,000
Mooi is dat toch?

428
00:33:49,000 --> 00:33:52,000
Ik moet zeggen, af en toe toch nog wel lastig is om een beetje te sturen.

429
00:33:52,000 --> 00:33:55,000
Dan heb je toch een plaatje in je hoofd waar je een beetje naartoe wil werken.

430
00:33:55,000 --> 00:33:57,000
Dat je dan toch nog wel een tijdje zoet bent.

431
00:33:57,000 --> 00:34:02,000
Maar het zorgt wel voor een richting en een stukje creatie waarin je ondersteund wordt.

432
00:34:02,000 --> 00:34:07,000
Maar ik heb vaak nog wel redelijk wat prompts nodig om het plaatje dat ik dan in mijn hoofd heb eruit te komen.

433
00:34:07,000 --> 00:34:11,000
Bijvoorbeeld, het was de laatste conferentie in Engeland.

434
00:34:11,000 --> 00:34:14,000
En toen wilde ik toch even stroopwafels en dat soort zaken hebben.

435
00:34:14,000 --> 00:34:17,000
Maar toen heb ik ook geprobeerd de tekststroopwafels erop te zetten.

436
00:34:17,000 --> 00:34:20,000
En allemaal van dat soort zaken eruit te krijgen.

437
00:34:20,000 --> 00:34:24,000
Dus het is nog wel wat werk, maar het geeft ook plezier vind ik zelf.

438
00:34:24,000 --> 00:34:30,000
Henk, jij zit al lang in de technologie van kunstmatige intelligentie.

439
00:34:30,000 --> 00:34:32,000
Waar gaat het zich naartoe bewegen?

440
00:34:32,000 --> 00:34:35,000
Ook weer een goede vraag.

441
00:34:35,000 --> 00:34:44,000
Laten we eerst eens kijken naar de aankomende drie maanden.

442
00:34:44,000 --> 00:34:49,000
Zes, zeven maanden vooruit.

443
00:34:49,000 --> 00:34:52,000
Heel ver.

444
00:34:52,000 --> 00:34:55,000
Boom, Sora was daar.

445
00:34:55,000 --> 00:34:58,000
Ik had het nooit verwacht natuurlijk.

446
00:34:59,000 --> 00:35:03,000
Ik denk dat wat we deze zes, zeven maanden of drie tot zes maanden gaan zien,

447
00:35:03,000 --> 00:35:08,000
is dat multimodality, dat dat een heel stuk groter en meer ingezet gaat worden.

448
00:35:08,000 --> 00:35:15,000
Dat je een type T4 Turbo met Vision en afbeeldingen en tekst enzovoort,

449
00:35:15,000 --> 00:35:19,000
allemaal binnen kan krijgen, dat kan verwerken en daar overheen kan praten.

450
00:35:19,000 --> 00:35:23,000
Ik denk dat dat, we hebben één versie gezien.

451
00:35:23,000 --> 00:35:28,000
Dus ik denk dat dat echt heel veel nu gaat kopen.

452
00:35:28,000 --> 00:35:33,000
Zelf ook bezig met een demo voor Bilt.

453
00:35:33,000 --> 00:35:35,000
Dat mag ik dan wel zeggen, want het is mijn demo.

454
00:35:35,000 --> 00:35:45,000
Is waar we een Retrieval Augmented Generation applicatie gaan bouwen op afbeeldingen.

455
00:35:45,000 --> 00:35:50,000
En dan kun je zowel zoeken met tekst als met afbeeldingen.

456
00:35:50,000 --> 00:35:55,000
Dus je kan, geef me een rode tent en alle rode tenten komen terug.

457
00:35:55,000 --> 00:36:00,000
Maar dus puur gebaseerd op alleen afbeeldingen in vectors.

458
00:36:00,000 --> 00:36:01,000
In een vector store.

459
00:36:01,000 --> 00:36:09,000
Oké, dus je hebt niet het gelabeld, hier staat een rode tent op de foto,

460
00:36:09,000 --> 00:36:15,000
maar dat hij dat zelf in die zin herkent, dat hij dat op dat moment nodig heeft

461
00:36:15,000 --> 00:36:17,000
voor het beantwoorden van jouw vraag.

462
00:36:17,000 --> 00:36:20,000
Ja, alleen maar op basis van afbeeldingen.

463
00:36:20,000 --> 00:36:25,000
Waarom? - Omdat we een multimodaal embeddingmodel gebruiken.

464
00:36:25,000 --> 00:36:29,000
Kun je er zowel in tekst als met afbeeldingen tegenaan praten.

465
00:36:29,000 --> 00:36:34,000
Dus ik kan vragen om een rode tent, maar ik kan hem ook een afbeelding geven van een rode tent.

466
00:36:34,000 --> 00:36:37,000
En zeggen, een tent zoals dit.

467
00:36:37,000 --> 00:36:43,000
En dan kijkt hij ernaar of zoek me alle items die op deze afbeelding staan.

468
00:36:43,000 --> 00:36:47,000
En dat werkt natuurlijk omdat je normaal gesproken zou kunnen vragen,

469
00:36:47,000 --> 00:36:50,000
wat staat er op de foto? En dan kan hij antwoorden,

470
00:36:50,000 --> 00:36:54,000
er staat een rode tent op een camping, op een gras of zo.

471
00:36:54,000 --> 00:36:58,000
Het scheelt wel wat tagging zeg. - Ja, inderdaad.

472
00:36:58,000 --> 00:37:02,000
Er is natuurlijk heel veel werk waar best wel wat uitdaging in zit.

473
00:37:02,000 --> 00:37:07,000
Dus ik denk dat dit echt het beginnetje is waar we nu aan staan.

474
00:37:07,000 --> 00:37:11,000
En dan hopelijk komt er ook audio en video en allemaal dat soort dingen bij.

475
00:37:11,000 --> 00:37:17,000
Dan zouden wij gewoon onze podcast kunnen laten bevragen.

476
00:37:17,000 --> 00:37:23,000
Waar vertelt iemand iets over multimodale modellen?

477
00:37:23,000 --> 00:37:26,000
En dan komt hij precies met het stukje wat we net gehad hebben.

478
00:37:26,000 --> 00:37:28,000
Ja, dat zou wel cool zijn. - Top.

479
00:37:28,000 --> 00:37:31,000
Ja, en wat we natuurlijk ook gaan zien is,

480
00:37:31,000 --> 00:37:35,000
waar we laatst ook mee bezig geweest zijn om een demootje van te bouwen,

481
00:37:35,000 --> 00:37:40,000
is dat als je een podcast hebt, kan je de transcript doen.

482
00:37:40,000 --> 00:37:43,000
Maar als je een video hebt, wat we heel vaak doen,

483
00:37:43,000 --> 00:37:47,000
is ook alleen maar een transcript maken en dan social media posten.

484
00:37:47,000 --> 00:37:53,000
Er gebeurt zoveel andere dingen in de video die je er eigenlijk ook weer in wil hebben.

485
00:37:53,000 --> 00:38:02,000
Nu met GPTV Turbohead Vision kan je dit ook de afbeeldingen geven van frames van de video.

486
00:38:02,000 --> 00:38:09,000
Dus je geeft dat plus een transcript en dan vraag je, maak een YouTube description.

487
00:38:09,000 --> 00:38:14,000
En dan krijg je natuurlijk, als er alleen maar hallo of doei ingezegd wordt,

488
00:38:14,000 --> 00:38:19,000
en er gebeurt wat anders in de video, dan krijg je daadwerkelijk wel het hele concept.

489
00:38:19,000 --> 00:38:22,000
Je kan hem ook vragen, wat gebeurt er over tijd?

490
00:38:22,000 --> 00:38:25,000
Ja, dat is ook krachtig. Over tijd, ja.

491
00:38:25,000 --> 00:38:27,000
Niet alleen voor video's, maar ook voor presentaties.

492
00:38:27,000 --> 00:38:29,000
Het is altijd lastig om feedback te krijgen.

493
00:38:29,000 --> 00:38:31,000
Ik ben ook wel benieuwd hoe jullie dat in de community ook doen.

494
00:38:31,000 --> 00:38:33,000
Dat is een challenge die ik altijd wel vaak zie.

495
00:38:33,000 --> 00:38:34,000
Hoe krijg je feedback?

496
00:38:34,000 --> 00:38:40,000
Hoe krijg je inderdaad je improvements voor de presentatie, je verhaal?

497
00:38:40,000 --> 00:38:42,000
En daar zie ik dan ook heel veel waarde inderdaad.

498
00:38:42,000 --> 00:38:46,000
Van wanneer heb ik wat gezegd? Wat was de reactie? En dat soort zaken allemaal.

499
00:38:46,000 --> 00:38:47,000
Ja.

500
00:38:47,000 --> 00:38:51,000
Ga even daarop doorpakken. Hoe pakken jullie dat binnen de global community aan?

501
00:38:51,000 --> 00:38:55,000
Voor de sprekers en de sessiegevers, om feedback en weer van elkaar te leren?

502
00:38:55,000 --> 00:39:03,000
Ja, dat is altijd bij elke conferentie die we organiseren, is dat altijd super moeilijk.

503
00:39:03,000 --> 00:39:07,000
Hoe krijg je feedback? Ga je dat doen via formulier na afloop?

504
00:39:07,000 --> 00:39:11,000
Wat heel weinig mensen invullen, maar heel uitgebreid kan zijn?

505
00:39:11,000 --> 00:39:19,000
Of kies je voor de manier dat, ik noem het altijd maar de drie sleutelkaartjes of de smileys,

506
00:39:19,000 --> 00:39:22,000
bij de uitgang dat je veel feedback hebt?

507
00:39:22,000 --> 00:39:28,000
Ik denk, als je feedback over een presentatie wil, wat ik geleerd heb,

508
00:39:28,000 --> 00:39:34,000
is dat je één of twee collega's vraagt, die bij jou in de zaal zitten, aantekeningen maken

509
00:39:34,000 --> 00:39:38,000
en dan je de feedback geven. Dat is het beste.

510
00:39:38,000 --> 00:39:46,000
En van het publiek leer je meer van hoe het gevallen is, of ze het leuk vonden, of het interessant vonden,

511
00:39:46,000 --> 00:39:54,000
of het waardevol voor hen was. Maar mensen geven nooit echt daadwerkelijke feedback op je slide.

512
00:39:54,000 --> 00:39:59,000
Hoe je dat precies verwoorde, weet jij dat nog na een uur?

513
00:39:59,000 --> 00:40:04,000
Als je daarna uitloopt, dan denk je, oh dat woordje zou ik veranderd hebben als ik een presentatie had gegeven.

514
00:40:04,000 --> 00:40:05,000
Nee, daarom.

515
00:40:05,000 --> 00:40:12,000
Als ik een nieuwe presentatie doe, dan vraag ik meestal een collega om even mee in de zaal te gaan zitten,

516
00:40:12,000 --> 00:40:16,000
of vraag ik van tevoren, of sompteams, of ik even een drijven mag doen.

517
00:40:16,000 --> 00:40:24,000
En dan kijken ze inderdaad naar je woorden, naar wat er op de slide staat, match dat verhaal.

518
00:40:24,000 --> 00:40:31,000
En zelf help je er ook bij, als je zelf geen collega hebt die even naar je kan kijken, kan je ook wel geholpen worden.

519
00:40:31,000 --> 00:40:33,000
Dat is ook wel een mooie omgeving.

520
00:40:33,000 --> 00:40:38,000
Maar toch zegt hij, neem de analoge oplossing in dit geval.

521
00:40:38,000 --> 00:40:40,000
Ja, mooi.

522
00:40:40,000 --> 00:40:46,000
En een mooi tip inderdaad, ga je bij een collega in zijn sessie zitten, hou de rekening mee, hou de notities.

523
00:40:46,000 --> 00:40:50,000
Dat is heel waardevol om dat weer te delen, daar worden we allemaal weer beter van.

524
00:40:50,000 --> 00:40:54,000
Dankjewel Henk, weer mooie inzichten.

525
00:40:54,000 --> 00:40:57,000
Nog even, één keer, AI Community Day.

526
00:40:57,000 --> 00:41:00,000
Wanneer, waar, hoe laat?

527
00:41:00,000 --> 00:41:07,000
AI Community Day, 14 mei, in de fabriek, in Utrecht, van 3 tot 9.

528
00:41:07,000 --> 00:41:10,000
Gratis op te geven.

529
00:41:10,000 --> 00:41:13,000
Gratis op te geven op aicommunityday.nl

530
00:41:13,000 --> 00:41:15,000
Hartstikke mooi.

531
00:41:15,000 --> 00:41:19,000
Dankjewel dat je in onze studio wilde zijn.

532
00:41:19,000 --> 00:41:25,000
Als je nou geen aflevering wilt missen, zorg dan dat je even op de volgknop drukt in je favoriete podcast app.

533
00:41:25,000 --> 00:41:29,000
En dan krijg je vanzelf een seintje als er een nieuwe aflevering beschikbaar is.

534
00:41:29,000 --> 00:41:32,000
Eigenlijk altijd maandag, donderdag.

535
00:41:32,000 --> 00:41:34,000
Zo makkelijk is het.

536
00:41:34,000 --> 00:41:37,000
Dankjewel weer voor het luisteren.

537
00:41:37,000 --> 00:41:59,800
[Muziek]

538
00:41:59,800 --> 00:41:59,800
[Muziek]


People on this episode