AIToday Live

S05E73 - AI assistenten en de toekomst van werk: mogelijkheden en uitdagingen

Aigency by Info Support Season 5 Episode 73

In deze aflevering van AIToday Live spreken Joop Snijder en Niels Naglé met Willem Meints over AI assistenten. Willem, Chief AI Architect bij Aigency, heeft een AI assistent gebouwd voor Info Support genaamd Ricardo.

Deze assistent maakt gebruik van het generatieve AI-model ChatGPT en het Guidance Framework van Info Support. Willem deelt zijn inzichten over de uitdagingen, veiligheid en privacy aspecten, en mogelijke toepassingen van AI assistenten.

Luister naar de volledige aflevering voor meer inzichten en interessante discussies!


Links

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:05,720
Hi, welkom bij een nieuwe aflevering van AIToday Live.

2
00:00:05,720 --> 00:00:08,040
Mijn naam is Joop Snijder, CTO bij Aigency.

3
00:00:08,040 --> 00:00:11,200
Mijn naam Niels Naglé, chapter lead Data & AI bij Info Support.

4
00:00:11,200 --> 00:00:14,000
En vandaag hebben we te gast Willem Meints.

5
00:00:14,000 --> 00:00:17,920
Willem is Chief AI Architect bij Aigency.

6
00:00:17,920 --> 00:00:24,640
En ik wil hem namelijk graag zelf introduceren, want anders is hij daar misschien wat te bescheiden over.

7
00:00:24,640 --> 00:00:30,840
Willem is namelijk een van de eerste AI MVP's in Nederland.

8
00:00:30,840 --> 00:00:35,000
Dat is een erkenning vanuit Microsoft voor alle werkzaamheden die hij doet.

9
00:00:35,000 --> 00:00:39,600
Hij is auteur van een deep learning boek, spreker.

10
00:00:39,600 --> 00:00:45,600
Erg ingevoerd in de Microsoft wereld, wat er allemaal gebeurt.

11
00:00:45,600 --> 00:00:46,800
Mis ik nog wat Willem?

12
00:00:46,800 --> 00:00:52,040
Oh, ik moet echt heel hard nadenken. Ik spreek heel veel natuurlijk, internationaal.

13
00:00:52,040 --> 00:00:55,320
Ik heb een blog, die we misschien nog even in het deel laten zien.

14
00:00:55,320 --> 00:00:56,800
Zetten we in de show notes.

15
00:00:56,800 --> 00:00:59,280
Oh, echt te veel om op te noemen eerlijk gezegd.

16
00:00:59,280 --> 00:01:05,760
En samen met Willem ben ik zo'n 10 jaar bezig rondom alles met kunstmatige intelligentie.

17
00:01:05,760 --> 00:01:07,760
Nou, dat lijkt me een mooie introductie, toch?

18
00:01:07,760 --> 00:01:09,280
Ja, zeker. Dankjewel.

19
00:01:09,280 --> 00:01:12,040
En om helemaal af te sluiten.

20
00:01:12,040 --> 00:01:17,760
Willem, jij hebt een AI assistent gebouwd voor Info Support.

21
00:01:17,760 --> 00:01:20,040
En daar gaan we het vandaag over hebben.

22
00:01:20,040 --> 00:01:24,920
Kan je daar misschien iets over introduceren? Wat heb je gedaan?

23
00:01:24,920 --> 00:01:31,320
Ja, ik heb een ChatGPT-instantie gebouwd voor Info Support en voor Aigency.

24
00:01:31,320 --> 00:01:34,680
Maar die is helemaal intern, die is helemaal afgesloten van het internet.

25
00:01:34,680 --> 00:01:38,160
Onze data wordt ook niet meer gebruikt om te trainen, dat lukt niet.

26
00:01:38,160 --> 00:01:42,120
En daarom zijn mijn collega's tegenwoordig in staat om allerlei dingen daarin te stoppen...

27
00:01:42,120 --> 00:01:45,520
die ze anders niet zouden willen delen met het internet.

28
00:01:45,520 --> 00:01:47,640
En wat bedoel je daar specifiek mee?

29
00:01:47,640 --> 00:01:51,880
Nou ja, ik moet altijd even vragen aan mijn collega's wat ze ermee doen.

30
00:01:51,880 --> 00:01:53,120
Want ze doen er van alles mee.

31
00:01:53,120 --> 00:01:58,240
Bijvoorbeeld projectvoorstellen schrijven met geheime informatie van klanten daarin.

32
00:01:58,240 --> 00:01:59,960
Dat kan met onze assistent wel.

33
00:01:59,960 --> 00:02:03,520
En dat kan op het chatpunt openen en je AI-punt komt niet, want daar wordt je data opgeslagen.

34
00:02:03,520 --> 00:02:05,520
Ja, het kan wel, maar het is niet verstandig.

35
00:02:05,520 --> 00:02:11,040
Ja, ik zeg altijd het kan niet, anders krijg ik de legal-afdeling achter mij aan.

36
00:02:11,040 --> 00:02:12,120
Moet je niet willen.

37
00:02:12,120 --> 00:02:14,120
Moet je niet willen, nee.

38
00:02:16,120 --> 00:02:22,520
Ja, dat is denk ik een hele mooie toevoeging, want daarmee heb je inderdaad een veilige omgeving.

39
00:02:22,520 --> 00:02:27,720
Wat heb je daarvoor nodig gehad om dat voor elkaar te krijgen?

40
00:02:27,720 --> 00:02:30,120
Inmiddels drie maanden tijd.

41
00:02:30,120 --> 00:02:35,560
Waar ik gebruik van maak is van Azure Open AI Service.

42
00:02:35,560 --> 00:02:39,120
Dat is een versie van ChatGPT bij Microsoft.

43
00:02:39,120 --> 00:02:45,720
Microsoft gaat erom dat het ding op een eigen netwerk uitgerold kan worden binnen Azure.

44
00:02:45,720 --> 00:02:47,720
Het kan niet op je eigen hardware, helaas.

45
00:02:47,720 --> 00:02:54,720
En daarnaast heb ik zelf code daaromheen moeten schrijven in de vorm van .NET-code, dus C#.

46
00:02:54,720 --> 00:02:57,520
In dit geval om daar een echt werkende applicatie van te maken.

47
00:02:57,520 --> 00:02:59,520
Het is echt het kale model wat je krijgt.

48
00:02:59,520 --> 00:03:05,720
En heb je nog extra informatie eraan toegevoegd om het meer voor de organisatie te maken?

49
00:03:05,720 --> 00:03:06,720
Zeker.

50
00:03:06,720 --> 00:03:10,720
Het begon eigenlijk als een soort van stunt in de weekend.

51
00:03:10,720 --> 00:03:15,720
De CTO van Info Support zei tegen mij, wedder dat jij niet in drie dagen dat ding aan de praat kan krijgen.

52
00:03:15,720 --> 00:03:17,720
Ik zei, nou hou even mijn Cola Light vast.

53
00:03:17,720 --> 00:03:19,720
Ik fix die handel even.

54
00:03:19,720 --> 00:03:21,720
Dat is gelukt in een weekend.

55
00:03:21,720 --> 00:03:26,720
Daarna dacht ik, maar nu heb ik hetzelfde als bij ChatGPT op het grote boze internet.

56
00:03:26,720 --> 00:03:29,720
Dat kan vast slimmer.

57
00:03:29,720 --> 00:03:32,720
Ik heb het Guidance Framework van Info Support gepakt.

58
00:03:32,720 --> 00:03:38,720
Dat is onze knowledge base met aller soorten kennis over hoe bouw je software op een goede manier.

59
00:03:38,720 --> 00:03:41,720
Hoe zet je je architectuur goed op, security, dat soort dingen.

60
00:03:41,720 --> 00:03:43,720
Die heb ik eraan vastgekoppeld.

61
00:03:43,720 --> 00:03:48,720
Wat je nu dus kan doen, je kan aan ChatGPT of Ricardo, zoals wij hem genoemd hebben.

62
00:03:48,720 --> 00:03:55,720
Kun je vragen, hey Ricardo, hoe schrijf ik een goede automatische test voor mijn Python code?

63
00:03:55,720 --> 00:03:59,720
Dan zal hij niet een algemeen antwoord geven, maar dan zal hij zeggen...

64
00:03:59,720 --> 00:04:04,720
ik weet dat Info Support één bepaald framework daarvoor gebruikt, een bibliotheek.

65
00:04:04,720 --> 00:04:08,720
Dan geeft hij antwoord in die bibliotheek, omdat hij dat weet dat wij dat gebruiken.

66
00:04:08,720 --> 00:04:12,720
Als je dat hetzelfde zou doen op chat.openai.com, dan geeft hij een algemeen antwoord.

67
00:04:12,720 --> 00:04:14,720
Dat hij zegt, doe maar wat.

68
00:04:14,720 --> 00:04:21,720
Dan kan hij ook zeggen, als je deze vraag stelt, dan zegt hij gebruik Python unit test.

69
00:04:21,720 --> 00:04:26,720
De volgende keer zegt hij, gebruik Python test of een willekeurig andere.

70
00:04:26,720 --> 00:04:32,720
Omdat daar een mate van willekeur in zit, komen er dus ook andere type antwoorden uit.

71
00:04:32,720 --> 00:04:38,720
Nu is hij heel gericht, dit is het feitelijke antwoord en komt hij daarmee terug.

72
00:04:38,720 --> 00:04:43,720
Is het daarmee ook mogelijk om de medewerkers terug te geven, waar komt dit vandaan?

73
00:04:43,720 --> 00:04:45,720
Nog niet.

74
00:04:45,720 --> 00:04:51,720
Toen ik dit eenmaal had gebouwd, toen kreeg ik binnen 24 uur zoveel vragen binnen.

75
00:04:51,720 --> 00:04:55,720
Daar schrok ik zelf ook een beetje van.

76
00:04:55,720 --> 00:04:58,720
Toen was de vraag, hoe komt hij nou aan dit antwoord?

77
00:04:58,720 --> 00:05:02,720
Daar zijn we nu nog even mee bezig, met de laatste dingetjes ervan te repareren.

78
00:05:02,720 --> 00:05:08,720
Hij kan zometeen aangeven, je zou Python test moeten gebruiken, dat is wat wij adviseren.

79
00:05:08,720 --> 00:05:10,720
Dat staat hier.

80
00:05:10,720 --> 00:05:14,720
Dat is natuurlijk helemaal krachtig, want chat-gpt is niet zo goed in feitelijkheden.

81
00:05:14,720 --> 00:05:16,720
Hij genereert een stuk tekst.

82
00:05:16,720 --> 00:05:21,720
Toevallig omdat wij hem bijsturen met die kennis uit het Guidance Framework, geeft hij een nuttige tekst.

83
00:05:21,720 --> 00:05:25,720
Maar dat is niet het volledige antwoord natuurlijk.

84
00:05:25,720 --> 00:05:30,720
Soms vraag je je af, het is prima dat hij dit wil, maar ik heb nog wat meer informatie nodig.

85
00:05:30,720 --> 00:05:33,720
Dan is het wel leuk als je een link erbij krijgt van hier staat het.

86
00:05:33,720 --> 00:05:37,720
Je zei van, ik heb het Guidance Framework toegevoegd.

87
00:05:37,720 --> 00:05:41,720
Is dat zoiets als met een één druk op de knop en dan zit het erin?

88
00:05:41,720 --> 00:05:43,720
Nee, helaas niet.

89
00:05:43,720 --> 00:05:46,720
De eerste drie dagen was assistent bouwen en de rest van de drie maanden was dit.

90
00:05:46,720 --> 00:05:48,720
Om het voor elkaar te krijgen.

91
00:05:48,720 --> 00:05:51,720
Dat zit hem eigenlijk in twee dingen.

92
00:05:51,720 --> 00:05:59,720
Aan de ene kant moet je een stuk integratie bouwen tussen twee systemen, namelijk de kennisbron waar het uitkomt en de applicatie waar het naartoe gaat.

93
00:05:59,720 --> 00:06:02,720
In dit geval de Ricardo applicatie.

94
00:06:02,720 --> 00:06:09,720
De manier waarop ik dit doe is met een speciale database, een vector database.

95
00:06:09,720 --> 00:06:13,720
Dus ik moet ook nog die teksten op een specifieke manier gaan opslaan.

96
00:06:13,720 --> 00:06:15,720
Ik moet daar vectoren van maken.

97
00:06:15,720 --> 00:06:18,720
Dat zijn hetzelfde soort vectoren als waar OpenAI mee rekent.

98
00:06:18,720 --> 00:06:20,720
Dat noemen ze embedding vectors.

99
00:06:20,720 --> 00:06:26,720
Ik geef een soort semantische betekenis aan die tekst die uit die Guidance Framework komt.

100
00:06:26,720 --> 00:06:30,720
Ik pak jouw vraag en daar maak ik ook een semantische betekenis van.

101
00:06:30,720 --> 00:06:33,720
Die leg ik naast elkaar en dan zeg ik dit lijkt er het meeste op.

102
00:06:33,720 --> 00:06:36,720
En dan gebruik ik die vectoren weer om mee verder te rekenen.

103
00:06:36,720 --> 00:06:43,720
Dus je moet aan die tekst gaan sleutelen voordat hij überhaupt bruikbaar is voor de chatbot.

104
00:06:43,720 --> 00:06:45,720
Ja, absoluut.

105
00:06:45,720 --> 00:06:47,720
En daar zit heel veel fine tuning in.

106
00:06:47,720 --> 00:06:51,720
Want als je een heel grote document erin geeft, krijg je een soort algemeen antwoord.

107
00:06:51,720 --> 00:06:53,720
Maar dat willen wij natuurlijk niet.

108
00:06:53,720 --> 00:06:57,720
Dus we hebben wel wat trucjes uitgehaald om die informatie specifiek genoeg te maken voor ons.

109
00:06:57,720 --> 00:07:01,720
En kun je ook andere type informatie toevoegen?

110
00:07:01,720 --> 00:07:04,720
Ja, dat kan.

111
00:07:04,720 --> 00:07:10,720
De experimenten die ik nu aan het doen ben, dat gaat vooral over PowerPoint presentaties.

112
00:07:10,720 --> 00:07:16,720
We hebben echt mega veel trainingen, presentaties van collega's die super nuttig zijn.

113
00:07:16,720 --> 00:07:21,720
Maar wat daar de uitdaging is, het is in PowerPoint en het zijn heel veel foto's.

114
00:07:21,720 --> 00:07:23,720
Dus daar ga ik een ander trucje uit halen.

115
00:07:23,720 --> 00:07:27,720
Dan ga ik ook images semantische betekenis geven.

116
00:07:27,720 --> 00:07:33,720
En dan hoop ik dat ik met een aantal maanden, hebben we het over, ik denk een maand of twee of zo,

117
00:07:33,720 --> 00:07:35,720
dat we plaatjes kunnen teruggeven.

118
00:07:35,720 --> 00:07:39,720
Dat we ook kunnen zeggen tegen degene die de vraag stelt van ik heb een heel mooi slide gevonden.

119
00:07:39,720 --> 00:07:42,720
Daar zit ik al echt jaren op te wachten.

120
00:07:42,720 --> 00:07:46,720
Nu heb ik mijn eigen repository met al mijn PowerPoints, met al mijn sessies die ik geef.

121
00:07:46,720 --> 00:07:48,720
Waar ik iedere keer weer in grasduin.

122
00:07:48,720 --> 00:07:50,720
Ik heb ook een keer een initiatief gehad met collega's.

123
00:07:50,720 --> 00:07:53,720
En daar maken we een generieke repository voor.

124
00:07:53,720 --> 00:07:57,720
Maar dit, als het drie maanden is, dan vind ik het ook nog goed.

125
00:07:57,720 --> 00:08:01,720
Dat gaat me echt heel veel efficiency brengen.

126
00:08:01,720 --> 00:08:06,720
En dat is denk ik ook waardoor deze oplossingen in de praktijk ook vaak gevraagd zien worden.

127
00:08:06,720 --> 00:08:11,720
Omdat iedereen die, je zei het zelf, er komen heel veel vragen in één keer direct op Ricardo af.

128
00:08:11,720 --> 00:08:15,720
Omdat het gewoon ons helpt om efficiënter te worden in de zaken die we toch moeten doen.

129
00:08:15,720 --> 00:08:18,720
En dat maakt het ons makkelijker.

130
00:08:18,720 --> 00:08:23,720
En want je hebt nu dus een kennisbank, je bent bezig met presentaties.

131
00:08:23,720 --> 00:08:28,720
Wat voor type, want kennisbanken leven denk ik bij heel veel organisaties.

132
00:08:28,720 --> 00:08:34,720
Wat voor andere type use cases zie jij nog meer voor dit?

133
00:08:34,720 --> 00:08:37,720
Het is vooral heel erg knowledge driven.

134
00:08:37,720 --> 00:08:39,720
Dus als je je eigen bedrijfsdata kan koppelen,

135
00:08:39,720 --> 00:08:43,720
dan moet je denken aan inderdaad kennisbanken vooral.

136
00:08:43,720 --> 00:08:47,720
Maar iemand kwam ook al bij me, die zei tegen mij,

137
00:08:47,720 --> 00:08:51,720
wat als ik nou bijvoorbeeld experts zou kunnen vinden via dat apparaat?

138
00:08:51,720 --> 00:08:54,720
Dat is een ander soort kennisbank.

139
00:08:54,720 --> 00:08:58,720
Dat gaat meer over gebruikersprofielen en wat mensen doen en interessant vinden.

140
00:08:58,720 --> 00:09:00,720
Dus daar zijn we ook over aan het nadenken.

141
00:09:00,720 --> 00:09:04,720
Hoe kun je dat dan doen? Expert informatie eruit halen.

142
00:09:04,720 --> 00:09:08,720
Ja, en eentje die bij mij dan nogal popt is,

143
00:09:08,720 --> 00:09:11,720
bij bedrijven heel veel data die door de organisatie heen gaat.

144
00:09:11,720 --> 00:09:14,720
De stromen van informatie, dus de processen in combinatie met data.

145
00:09:14,720 --> 00:09:16,720
Als dat voor organisaties zou kunnen.

146
00:09:16,720 --> 00:09:18,720
Word documenten, contracten.

147
00:09:18,720 --> 00:09:20,720
Ja, je kan zo iets bedenken.

148
00:09:20,720 --> 00:09:24,720
Ja, toch? Alles wat eigenlijk een tekstformaat is, zou je eraan toe kunnen voegen.

149
00:09:24,720 --> 00:09:29,720
Wat ook nog wel leuk is om daar nog aan toe te voegen, want dat kan sinds kort.

150
00:09:29,720 --> 00:09:32,720
Daar hebben we zelf nu heel beperkt mee geëxperimenteerd.

151
00:09:32,720 --> 00:09:36,720
Dat je open AI modellen kun je functies laten aanroepen.

152
00:09:36,720 --> 00:09:39,720
Dat is een wat technisch verhaal, maar wat je dus zou kunnen doen,

153
00:09:39,720 --> 00:09:43,720
is detecteren of iemand een adres zoekt van een persoon of een e-mailadres.

154
00:09:43,720 --> 00:09:48,720
En dan kan die je functie aanroepen en dan kun je gewoon in een normale database,

155
00:09:48,720 --> 00:09:53,720
een relationele database of een CRM systeem, een adres opzoeken.

156
00:09:53,720 --> 00:09:55,720
Die die weer kan gebruiken.

157
00:09:55,720 --> 00:09:59,720
Die kan je weer teruggeven, gewoon als een feitelijkheid in het response.

158
00:09:59,720 --> 00:10:02,720
Dus die gaat je niet transformeren, maar dan wordt het letterlijk teruggegeven.

159
00:10:02,720 --> 00:10:07,720
Ja, oké. Dus als je echt inderdaad van het generatieve even af wil stappen,

160
00:10:07,720 --> 00:10:11,720
om de feiten op te halen en alleen die feiten terug te geven voor dat soort functies,

161
00:10:11,720 --> 00:10:14,720
waarvan je weet, dit is gewoon de regel die je terug moet geven.

162
00:10:14,720 --> 00:10:19,720
Dan kan die naar buiten stappen uit die context en dan weer terugkomen daarmee.

163
00:10:19,720 --> 00:10:20,720
Ja.

164
00:10:20,720 --> 00:10:24,720
En dat gebruiken in het antwoord wat die genereert.

165
00:10:24,720 --> 00:10:27,720
Dus het is een combinatie van inderdaad.

166
00:10:27,720 --> 00:10:30,720
Een stukje gegenereerd, een stukje vanuit de functie en dan weer gegeneerd

167
00:10:30,720 --> 00:10:34,720
om het weer inderdaad makkelijk leesbaar te kunnen gebruiken.

168
00:10:34,720 --> 00:10:38,720
Ja, dus dat is ook nog een experiment die op het programma staat om uit te gaan proberen.

169
00:10:38,720 --> 00:10:41,720
Hoeveel werk is het eigenlijk? Want dat is steeds de puzzel.

170
00:10:41,720 --> 00:10:46,720
We hebben het hier over een generatief model, maar dat model is maar 30% van mijn code.

171
00:10:46,720 --> 00:10:50,720
70% zit hem daadwerkelijk in data pre-processen.

172
00:10:50,720 --> 00:10:53,720
Zorgen dat de user interface er een beetje voldoende uit ziet,

173
00:10:53,720 --> 00:10:55,720
dat hij de tekst ook goed rendert.

174
00:10:55,720 --> 00:10:58,720
Wij mensen zijn gewend aan kopjes, opsommingen, dat soort dingen.

175
00:10:58,720 --> 00:11:00,720
Dat doet ChatGPT allemaal niet.

176
00:11:00,720 --> 00:11:05,720
Dat is iets wat ik erachteraan heb geprogrammeerd om het mooi te maken.

177
00:11:05,720 --> 00:11:09,720
Dus voor iedereen die nu ChatGPT gebruikt, die ziet dat allemaal wel,

178
00:11:09,720 --> 00:11:14,720
maar dat heeft OpenAI in hun user interface zelf gebouwd.

179
00:11:14,720 --> 00:11:17,720
En als je het zelf wil, moet je dat ook weer zelf bouwen.

180
00:11:17,720 --> 00:11:21,720
Ja, ik zei het al, ik krijg een kaal model en dat model accepteert tekst

181
00:11:21,720 --> 00:11:24,720
en dat geeft mij tekst terug. Dat is alles wat het doet.

182
00:11:24,720 --> 00:11:29,720
Je moet er zelf heel veel machinery omheen bouwen om het cool te maken.

183
00:11:29,720 --> 00:11:34,720
En mogen alle medewerkers, mogen die alle vragen stellen?

184
00:11:34,720 --> 00:11:39,720
Nee, dat is wel interessant natuurlijk. Wat doe je dan eigenlijk met zo'n chatbot?

185
00:11:39,720 --> 00:11:43,720
Als je het model pakt en je stelt een vraag aan hem, dan geeft hij je altijd antwoord.

186
00:11:43,720 --> 00:11:45,720
Ook over onveilige onderwerpen.

187
00:11:45,720 --> 00:11:48,720
Dan kun je wel voorstellen en bedenken wat je dan kan doen.

188
00:11:48,720 --> 00:11:51,720
Wat wij bij Info Support de afspraak hebben,

189
00:11:51,720 --> 00:11:55,720
is dat Ricardo bijvoorbeeld niet over gezondheid praat.

190
00:11:55,720 --> 00:11:59,720
We hebben voorbeelden gezien van met name psychische gezondheid,

191
00:11:59,720 --> 00:12:01,720
dat mensen dat ding gaan gebruiken als een soort therapeut.

192
00:12:01,720 --> 00:12:04,720
Maar dat is het niet, het is een talking parrot.

193
00:12:04,720 --> 00:12:07,720
Dus we hebben dat gewoon dichtgezet, gezegd van nee, dat willen we niet.

194
00:12:07,720 --> 00:12:11,720
Dat doen we in de system prompt. Dat zie je niet in OpenAI.

195
00:12:11,720 --> 00:12:13,720
Op chat.openai.com zie je die ook niet.

196
00:12:13,720 --> 00:12:18,720
Dat is een soort verborgen instructie, die wordt al gegeven aan dat model,

197
00:12:18,720 --> 00:12:20,720
voordat jouw tekst erachteraan wordt gependeld.

198
00:12:20,720 --> 00:12:23,720
En daar hebben wij in staan dat hij Ricardo heet,

199
00:12:23,720 --> 00:12:25,720
vandaar dat ik hem ook Ricardo noem.

200
00:12:25,720 --> 00:12:28,720
Maar we hebben daar ook veiligheidsrails in staan, een soort vangrails.

201
00:12:28,720 --> 00:12:32,720
Dus eigenlijk, als ik het even product thinking doe,

202
00:12:32,720 --> 00:12:35,720
dat stukje van de system prompt maakt dat het product zo acteert,

203
00:12:35,720 --> 00:12:37,720
zoals jij wil dat het product acteert.

204
00:12:37,720 --> 00:12:40,720
Ja, in dit geval dat hij dus ook snapt dat hij voor Aigency en voor Info Support werkt,

205
00:12:40,720 --> 00:12:42,720
en niet voor een ander bedrijf.

206
00:12:42,720 --> 00:12:45,720
Dat bepaalt ook in grote mate hoe hij met dat guidance framework omgaat.

207
00:12:45,720 --> 00:12:48,720
Dat hij snapt, dat guidance framework is van Info Support.

208
00:12:48,720 --> 00:12:51,720
Die relatie heb ik aangebracht in die system prompt.

209
00:12:51,720 --> 00:12:55,720
ChatGPT wordt ook gebruikt voor klantenservice toepassingen.

210
00:12:55,720 --> 00:12:58,720
En daar zie je juist dat ze bijvoorbeeld heel erg willen dat hij vriendelijk is,

211
00:12:58,720 --> 00:13:01,720
en dat hij alleen maar klantenservice taken uitvoert.

212
00:13:01,720 --> 00:13:03,720
Dat is ook een soort vangrails die je kan toevoegen.

213
00:13:03,720 --> 00:13:06,720
Dat hebben wij dus niet, want bij ons gebruikt iedereen hem voor van alles.

214
00:13:06,720 --> 00:13:08,720
Codegeneratie ook.

215
00:13:08,720 --> 00:13:10,720
Dus ik heb hem maar minimale instructies gegeven,

216
00:13:10,720 --> 00:13:13,720
zodat hij zoveel mogelijk alle kanten uit kan.

217
00:13:13,720 --> 00:13:17,720
Ja, maar je kan dat zelf kaderen, hoe nauw of hoe breed dat is.

218
00:13:17,720 --> 00:13:19,720
Ja, absoluut.

219
00:13:19,720 --> 00:13:21,720
Cool.

220
00:13:21,720 --> 00:13:23,720
Nou, en dat is denk ik heel erg interessant,

221
00:13:23,720 --> 00:13:27,720
vooral als je ook HR informatie erin geeft,

222
00:13:27,720 --> 00:13:30,720
waar het wel over van alles en nog wat gaat.

223
00:13:30,720 --> 00:13:34,720
Dat je inderdaad geen medische adviezen bijvoorbeeld wil hebben uit je bot,

224
00:13:34,720 --> 00:13:37,720
omdat hij dat wel kan geven,

225
00:13:37,720 --> 00:13:40,720
maar dat je dat absoluut niet wil dat hij dat doet.

226
00:13:40,720 --> 00:13:44,720
Ja, en wat wel speciaal is aan het model van Microsoft dat wij gebruiken,

227
00:13:44,720 --> 00:13:48,720
is dat er eigenlijk een soort tweetrapsraket in die veiligheidsinstructies zitten.

228
00:13:48,720 --> 00:13:50,720
Namelijk de system prompt, dat kan ik zelf doen.

229
00:13:50,720 --> 00:13:53,720
Maar ze hebben ook nog een content filter ervoor staan.

230
00:13:53,720 --> 00:13:55,720
En dat is ook een AI model uiteindelijk.

231
00:13:55,720 --> 00:13:58,720
Die kan namelijk detecteren of een woord wel of niet is toegestaan,

232
00:13:58,720 --> 00:13:59,720
volgens dat filter.

233
00:13:59,720 --> 00:14:00,720
Maar die kan ik instellen.

234
00:14:00,720 --> 00:14:05,720
Daar kan ik zelf zeggen, nou, ik vind gewelddadigheden,

235
00:14:05,720 --> 00:14:08,720
dat moet je heel hoog opvatten.

236
00:14:08,720 --> 00:14:09,720
En andere dingen...

237
00:14:09,720 --> 00:14:10,720
En wat is hoog?

238
00:14:10,720 --> 00:14:13,720
Ja, dat is een beetje moeilijk inschatten.

239
00:14:13,720 --> 00:14:16,720
Daar heb ik zelf heel lang op lopen puzzelen van, wat is dat dan?

240
00:14:16,720 --> 00:14:20,720
Als het al mild richting gewelddadigheden gaat,

241
00:14:20,720 --> 00:14:23,720
dus als het woord al een klein beetje op geweld lijkt,

242
00:14:23,720 --> 00:14:25,720
dan vlagt hij hem al af als hij hoog staat.

243
00:14:25,720 --> 00:14:28,720
Maar wat dan precies hoog en laag is,

244
00:14:28,720 --> 00:14:30,720
dat varieert echt per woord wat hij er dan van maakt.

245
00:14:30,720 --> 00:14:35,720
Als ik dat zo hoor, dan neem ik aan dat er ook wat monitoring op de achtergrond is,

246
00:14:35,720 --> 00:14:38,720
van wat wordt er gevraagd, wat verantwoorden geven erop,

247
00:14:38,720 --> 00:14:40,720
is dat nog hetgeen wat we willen?

248
00:14:40,720 --> 00:14:43,720
Nee, dat doe ik niet.

249
00:14:43,720 --> 00:14:46,720
Dat is misschien wel het meest verrassende aan deze toepassing,

250
00:14:46,720 --> 00:14:47,720
ik sla helemaal niks op.

251
00:14:47,720 --> 00:14:49,720
En dat doe ik heel bewust.

252
00:14:49,720 --> 00:14:53,720
Want iedereen weet wel, in het kader van de AVG

253
00:14:53,720 --> 00:14:56,720
zijn er gewoon een aantal dingen die je moet organiseren,

254
00:14:56,720 --> 00:14:59,720
voordat je gegevens mag gaan opslaan en koppelen aan personen.

255
00:14:59,720 --> 00:15:04,720
En ik dacht, ik blijf daar gewoon helemaal vandaan.

256
00:15:04,720 --> 00:15:06,720
Ik maak het onszelf heel erg makkelijk.

257
00:15:06,720 --> 00:15:09,720
En voor iedereen creëert het ook een bepaald gevoel van veiligheid.

258
00:15:09,720 --> 00:15:13,720
Ik kan zeggen wat ik wil tegen het ding en het wordt niet gedeeld met mijn collega's.

259
00:15:13,720 --> 00:15:15,720
Ja, op geen enkele wijze.

260
00:15:15,720 --> 00:15:17,720
Nee, echt niet. Ik heb die data gewoon niet.

261
00:15:17,720 --> 00:15:22,720
Het enige wat ik kan zien, is hoeveel users er gebruik van maken,

262
00:15:22,720 --> 00:15:25,720
hoeveel requests ik krijg en foutmeldingen.

263
00:15:25,720 --> 00:15:28,720
Maar in die foutmeldingen staat niet de prompt of het respons.

264
00:15:28,720 --> 00:15:30,720
Die zie ik allemaal niet.

265
00:15:30,720 --> 00:15:34,720
Dat is soms lastig, dat geef ik ook wel toe.

266
00:15:34,720 --> 00:15:38,720
Maar meestal is het ook echt voldoende voor mij om dingen te kunnen debuggen,

267
00:15:38,720 --> 00:15:40,720
van wat gaat hier nou eigenlijk mis.

268
00:15:40,720 --> 00:15:42,720
Goed om te weten.

269
00:15:42,720 --> 00:15:46,720
En zijn er situaties waarin je dat wel zou doen,

270
00:15:46,720 --> 00:15:48,720
en wanneer je dan toch zou zeggen, ik ga toch loggen?

271
00:15:48,720 --> 00:15:50,720
Heb je daar een beeld bij?

272
00:15:50,720 --> 00:15:53,720
Nou, ik ben dus nu nieuwe dingen aan het uitproberen,

273
00:15:53,720 --> 00:15:55,720
met het guidance framework onder andere.

274
00:15:55,720 --> 00:15:57,720
En dan vraag ik aan mensen heel specifiek,

275
00:15:57,720 --> 00:15:59,720
wil je even naar deze instantie toe gaan,

276
00:15:59,720 --> 00:16:01,720
naar deze deployment in mijn omgeving?

277
00:16:01,720 --> 00:16:04,720
Dat is dus een andere versie van de assistent.

278
00:16:04,720 --> 00:16:06,720
Daar staat logging aan.

279
00:16:06,720 --> 00:16:10,720
Die kan ik dan aanzetten, en dan krijg ik wel alles te zien.

280
00:16:10,720 --> 00:16:13,720
Maar dat zijn hele gerichte oefeningen die we doen met elkaar,

281
00:16:13,720 --> 00:16:15,720
want dan ben ik ook echt op zoek naar bepaalde informatie.

282
00:16:15,720 --> 00:16:20,720
En het is een scenario bijvoorbeeld, geeft die de juiste zoekresultaten terug?

283
00:16:20,720 --> 00:16:22,720
Is die snel genoeg met antwoord geven?

284
00:16:22,720 --> 00:16:25,720
Dat soort zaken probeer ik dan uit.

285
00:16:25,720 --> 00:16:28,720
Ja, oké, dan zit je dus echt in de development testfase,

286
00:16:28,720 --> 00:16:30,720
en dan weten mensen waar ze ook toestemming voor geven,

287
00:16:30,720 --> 00:16:33,720
dat ze daaraan meewerken, en wat daarmee gebeurt inderdaad.

288
00:16:33,720 --> 00:16:35,720
Oké, mooie aanpak.

289
00:16:35,720 --> 00:16:41,720
Wat heeft je eigenlijk het meest verrast in deze periode bij het maken hiervan?

290
00:16:41,720 --> 00:16:49,720
Nou, vooral dat het soms hele verrassende antwoorden geeft.

291
00:16:49,720 --> 00:16:52,720
Dat is echt, daar krijg ik soms commentaar van mensen,

292
00:16:52,720 --> 00:16:55,720
en dan denk ik, huh? Hoe kan dat dan?

293
00:16:55,720 --> 00:16:58,720
Dat de ene keer zegt hij, oh ja prima, ik geef je een antwoord,

294
00:16:58,720 --> 00:17:01,720
en de andere keer zegt hij, nee, daar mag ik geen antwoord op geven.

295
00:17:01,720 --> 00:17:05,720
Er zitten mensen blijkbaar op een soort grensgebied te werken,

296
00:17:05,720 --> 00:17:07,720
waarbij de bot zoiets heeft van,

297
00:17:07,720 --> 00:17:10,720
ah, daar weet ik niet helemaal meer wat ik hier nou van moet vinden.

298
00:17:10,720 --> 00:17:14,720
Dus dat is wel heel erg raar, dat heb ik al een aantal keren gezien.

299
00:17:14,720 --> 00:17:16,720
In positieve zin, wat mij ook is opgevallen,

300
00:17:16,720 --> 00:17:21,720
is hoe goed eigenlijk die ontwikkelomgeving al in elkaar zit van Microsoft.

301
00:17:21,720 --> 00:17:24,720
Het was echt drie dagen werk om die eerste versie te maken,

302
00:17:24,720 --> 00:17:26,720
daar had ik echt helemaal nooit gedacht.

303
00:17:26,720 --> 00:17:28,720
Dat was natuurlijk super brutaal naar onze CTO,

304
00:17:28,720 --> 00:17:30,720
toen ik zei, dat lukt me wel in drie dagen.

305
00:17:30,720 --> 00:17:33,720
Het viel me toch 100% mee, dat het gelukt is.

306
00:17:33,720 --> 00:17:41,720
En waar ik me ook nog afvroeg, is, even kijken hoe ik dit,

307
00:17:41,720 --> 00:17:44,720
kijk, Microsoft komt met Copilot uit,

308
00:17:44,720 --> 00:17:50,720
Copilot voor Windows, voor van alles, kunnen we het zo direct nog even over hebben.

309
00:17:50,720 --> 00:17:54,720
En die gaat zo direct ook documenten,

310
00:17:54,720 --> 00:17:58,720
als jij in een Microsoft Office 365 omgeving werkt,

311
00:17:58,720 --> 00:18:02,720
gaat hij alles scannen en dan hebben we het eigenlijk,

312
00:18:02,720 --> 00:18:06,720
lijkt het je ook op, alleen hoef je het dan maar niet zelf te bouwen.

313
00:18:06,720 --> 00:18:12,720
Nee, het grote vraagteken hier is, hoe doen ze dat dan?

314
00:18:12,720 --> 00:18:17,720
Waar ik zelf achter ben gekomen, is dat de meeste mensen,

315
00:18:17,720 --> 00:18:19,720
die zo'n oplossing als dit aan het bouwen zijn,

316
00:18:19,720 --> 00:18:23,720
die pakken eigenlijk hun documenten en die gaan alles op dezelfde manier

317
00:18:23,720 --> 00:18:26,720
opknippen in stukjes en beschikbaar maken voor die bot.

318
00:18:26,720 --> 00:18:29,720
En dat opknippen in stukjes is echt noodzakelijk,

319
00:18:29,720 --> 00:18:32,720
omdat als je een heel grote hoeveelheid tekst erin stopt,

320
00:18:32,720 --> 00:18:34,720
dan geeft die een soort vage betekenis eraan.

321
00:18:34,720 --> 00:18:36,720
Als je een klein stukje tekst stopt, dan wordt het heel specifiek.

322
00:18:36,720 --> 00:18:39,720
En je wilt hem specifiek, daar wordt hij gewoon een stuk beter van.

323
00:18:39,720 --> 00:18:43,720
Er zijn onderzoeken geweest, die gekeken hebben van,

324
00:18:43,720 --> 00:18:45,720
hoe doen verschillende taalmodellen het,

325
00:18:45,720 --> 00:18:48,720
en hoe grootte uiteindelijk het geheugen van een taalmodel,

326
00:18:48,720 --> 00:18:51,720
dat lijkt heel positief,

327
00:18:51,720 --> 00:18:55,720
maar hoe meer hij in het midden vergeet.

328
00:18:55,720 --> 00:18:57,720
Dus het generaliseert eigenlijk dan.

329
00:18:57,720 --> 00:19:01,720
Ja, dan zit eigenlijk alleen nog maar de betekenis aan het begin en het eind van je tekst.

330
00:19:01,720 --> 00:19:05,720
En daartussenin is het een beetje net alsof jij snel leest.

331
00:19:05,720 --> 00:19:06,720
Ja.

332
00:19:06,720 --> 00:19:10,720
Ik lees even het begin en het eind, dan geloof ik het wel.

333
00:19:10,720 --> 00:19:13,720
Ja, en ik denk dat Microsoft diezelfde manier gebruikt.

334
00:19:13,720 --> 00:19:17,720
Dus gewoon niet kijkend naar wat jouw domein is,

335
00:19:17,720 --> 00:19:19,720
en niet kijkend naar wat jouw bedrijf eigenlijk doet,

336
00:19:19,720 --> 00:19:21,720
maar gewoon in hele algemene termen,

337
00:19:21,720 --> 00:19:25,720
die documenten opknippen, verwerken en dan beschikbaar maken.

338
00:19:25,720 --> 00:19:29,720
Ja, als ik hem even voor mezelf probeer doorheen te lopen van wat je net zegt,

339
00:19:29,720 --> 00:19:31,720
is het dus eigenlijk een generale oplossing,

340
00:19:31,720 --> 00:19:36,720
generieke oplossing, om zoveel mogelijk vindbaar en wat meer generiek terug te kunnen geven.

341
00:19:36,720 --> 00:19:42,720
Dus misschien voor, zeg ik, 60, 70 procent al prima om mee aan de slag te gaan.

342
00:19:42,720 --> 00:19:46,720
Maar ben je op zoek naar net even wat extra detail of detaillering,

343
00:19:46,720 --> 00:19:50,720
dan is de stap die je dan gemaakt hebt met bijvoorbeeld een Ricardo,

344
00:19:50,720 --> 00:19:52,720
dan een stap die je moet overwegen?

345
00:19:52,720 --> 00:19:54,720
Ja, dat is op dit moment in ieder geval mijn verwachting.

346
00:19:54,720 --> 00:19:58,720
Ik moet ook zeggen, we zijn in een soort gebied terechtgekomen,

347
00:19:58,720 --> 00:20:00,720
waarbij we niet precies weten wat de uitslag gaat worden.

348
00:20:00,720 --> 00:20:03,720
Dus het zou best mee kunnen vallen bij Microsoft.

349
00:20:03,720 --> 00:20:06,720
Het zou ook heel erg tegen kunnen vallen, dat is even de gok.

350
00:20:06,720 --> 00:20:10,720
Maar wat ik tot nog toe weet, en ik weet dat Ricardo,

351
00:20:10,720 --> 00:20:14,720
onze pipeline om die content in te lezen, het programma wat het laat,

352
00:20:14,720 --> 00:20:18,720
die heb ik zo gemaakt dat hij echt wel weet van,

353
00:20:18,720 --> 00:20:22,720
oh, dit is een guideline en dit is gewoon algemene informatie.

354
00:20:22,720 --> 00:20:24,720
Dus daar zit meer betekenis aan vast.

355
00:20:24,720 --> 00:20:26,720
Ik heb in de praktijk ook bij meerdere klanten al gezien,

356
00:20:26,720 --> 00:20:30,720
hoe de search werkt met Bing en dat die workgescand heeft.

357
00:20:30,720 --> 00:20:33,720
En dat werkt op zich al heel fijn. Het maakt het zoeken al veel makkelijker.

358
00:20:33,720 --> 00:20:36,720
En het komt ook best wel goed met de juiste documenten terug.

359
00:20:36,720 --> 00:20:39,720
Niet zozeer op de specifieke antwoorden die je verwacht,

360
00:20:39,720 --> 00:20:43,720
maar wel al met de juiste linkjes en dus de search daarachter

361
00:20:43,720 --> 00:20:47,720
met meer context erbij. Dat is wat mij betreft wel enorm verbeterd.

362
00:20:47,720 --> 00:20:50,720
Ja, maar er is een verschil natuurlijk tussen search en het juiste document vinden,

363
00:20:50,720 --> 00:20:53,720
of het zeg maar de kennis die daarin zit gebruiken,

364
00:20:53,720 --> 00:20:56,720
als jij teksten genereert of dat soort zaken.

365
00:20:56,720 --> 00:21:02,720
En wat Willem vertelt, is dat hij natuurlijk een gecontroleerde datastroom heeft.

366
00:21:02,720 --> 00:21:04,720
Dus je bepaalt zelf wat erin komt en niet.

367
00:21:04,720 --> 00:21:07,720
En daar ben ik straks wel benieuwd naar hoe dat,

368
00:21:07,720 --> 00:21:10,720
nou ja, in je systemen moet je dan zelf gaan aangeven.

369
00:21:10,720 --> 00:21:14,720
Je gebruikt dit wel, gebruikt dit niet? Hoe gaat die met meerdere versies om?

370
00:21:14,720 --> 00:21:19,720
Wat doe je met verouderde documenten?

371
00:21:19,720 --> 00:21:22,720
Daar ben ik wel heel benieuwd naar.

372
00:21:22,720 --> 00:21:24,720
Ja, wij hebben daar gewoon maximaal grip op.

373
00:21:24,720 --> 00:21:27,720
Microsoft heeft daar een stuk minder grip op, daar kun je wel van uitgaan.

374
00:21:27,720 --> 00:21:29,720
Dus ja, het wordt gewoon heel spannend.

375
00:21:29,720 --> 00:21:33,720
Het is een soort wapenwetloop, zou ik kunnen zeggen, van de AI's.

376
00:21:33,720 --> 00:21:35,720
Wij zijn hier ook gewoon ingestapt als experiment.

377
00:21:35,720 --> 00:21:38,720
Ik ben gewoon echt benieuwd hoe mensen het gaan ervaren.

378
00:21:38,720 --> 00:21:42,720
Tot nog toe gebruikt ongeveer de helft van ons bedrijf hem gelijktijdig door de week.

379
00:21:42,720 --> 00:21:44,720
Dat is echt behoorlijk.

380
00:21:44,720 --> 00:21:47,720
We vinden het echt boven verwachting goed.

381
00:21:47,720 --> 00:21:50,720
Dus voorlopig zitten we denk ik nog aan de goede kant.

382
00:21:50,720 --> 00:21:52,720
Interessant hè?

383
00:21:52,720 --> 00:21:56,720
Hey Willem, we hebben ook nog een co-host.

384
00:21:56,720 --> 00:21:59,720
En die gaat jou ook een vraag stellen.

385
00:22:00,720 --> 00:22:02,720
Aisha.

386
00:22:08,720 --> 00:22:10,720
Een intelligente vrouw.

387
00:22:10,720 --> 00:22:12,720
Aisha.

388
00:22:12,720 --> 00:22:18,720
Laat me mezelf introduceren.

389
00:22:18,720 --> 00:22:22,720
Ik ben Aisha, de AI die deze gesprekken ondersteunt.

390
00:22:22,720 --> 00:22:24,720
Mag ik je een vraag stellen?

391
00:22:24,720 --> 00:22:26,720
Zeker.

392
00:22:26,720 --> 00:22:33,720
Wat is het meest belachelijke AI concept dat je ooit hebt gehoord dat echt haalbaar bleek te zijn?

393
00:22:33,720 --> 00:22:36,720
Oh man.

394
00:22:36,720 --> 00:22:40,720
Dat is een hele pittige.

395
00:22:40,720 --> 00:22:44,720
Ik weet niet hoe belachelijk het eigenlijk is.

396
00:22:44,720 --> 00:22:50,720
Maar ik probeer ook even na te denken van recente gevallen waar we aan gewerkt hebben.

397
00:22:50,720 --> 00:22:58,720
Ik dacht altijd van kassen plannen bij kwekers.

398
00:22:58,720 --> 00:23:02,720
Ik hoorde wat ze dan allemaal voor beperkingen hadden.

399
00:23:02,720 --> 00:23:05,720
Om het even uit te leggen wat we daar gedaan hebben.

400
00:23:05,720 --> 00:23:13,720
We hebben voor een klant van ons een algoritme ontwikkeld om planten automatisch te plannen in kassen.

401
00:23:13,720 --> 00:23:15,720
Die kwekers die komen binnen met zaden.

402
00:23:15,720 --> 00:23:17,720
Dat moet geplant worden.

403
00:23:17,720 --> 00:23:21,720
Bij een bepaalde temperatuur en luchtvochtigheid.

404
00:23:21,720 --> 00:23:24,720
Je kan het zo gek niet bedenken of daar wel weer regels voor zijn.

405
00:23:24,720 --> 00:23:27,720
Je mag bepaalde planten niet bij elkaar hebben staan.

406
00:23:27,720 --> 00:23:29,720
Meer van dat soort spannende taferelen.

407
00:23:29,720 --> 00:23:32,720
Ze lieten het zien en ze begonnen even een lijstje te maken.

408
00:23:32,720 --> 00:23:34,720
Ja, je moet het dan voldoen.

409
00:23:34,720 --> 00:23:36,720
Dit moet hij doen en dat moet hij doen.

410
00:23:36,720 --> 00:23:38,720
Ik dacht echt never, nooit, niet.

411
00:23:38,720 --> 00:23:40,720
Dat gaat helemaal niet vliegen dit verhaal.

412
00:23:40,720 --> 00:23:42,720
Maar het is wel gelukt.

413
00:23:42,720 --> 00:23:48,720
Het is toch grappig dat je begint eraan en je denkt van oh help.

414
00:23:48,720 --> 00:23:50,720
Wat hebben we nou weer aan onze fiets hangen.

415
00:23:50,720 --> 00:23:52,720
Maar het werkt.

416
00:23:52,720 --> 00:23:55,720
En nu, en dat is misschien nog wel de grootste verrassing.

417
00:23:55,720 --> 00:23:58,720
We lieten het zien en ze zeiden tegen ons dat is te veel magic.

418
00:23:58,720 --> 00:24:01,720
Toen dacht ik oké dan.

419
00:24:01,720 --> 00:24:03,720
Dit kan dus ook nog gebeuren met AI.

420
00:24:03,720 --> 00:24:05,720
Dat het te veel magic is.

421
00:24:05,720 --> 00:24:08,720
En nu zeggen ze van ja, maar kan ik ook een klein beetje AI krijgen.

422
00:24:08,720 --> 00:24:09,720
Ja, dat kan ook.

423
00:24:09,720 --> 00:24:11,720
Daar worden ons leven wel veel makkelijker van.

424
00:24:11,720 --> 00:24:14,720
En wat ik me dan afvraag is, wat was het stukje van magic?

425
00:24:14,720 --> 00:24:17,720
Moest dat explainability?

426
00:24:17,720 --> 00:24:20,720
Waar zat het in dat het gevoel van magic er was?

427
00:24:20,720 --> 00:24:22,720
Nou ja, hij was 30 seconden aan het rekenen.

428
00:24:22,720 --> 00:24:26,720
Aan een taak waar een planner meerdere dagen mee bezig was.

429
00:24:26,720 --> 00:24:28,720
En daar schrokken ze wel een klein beetje van.

430
00:24:28,720 --> 00:24:31,720
Want hij kwam ook best wel aardig in de buurt van wat je zou kunnen verwachten.

431
00:24:31,720 --> 00:24:34,720
En dat vonden ze toch echt te veel magic.

432
00:24:34,720 --> 00:24:36,720
Ze voelden alsof ze vervangen werden.

433
00:24:36,720 --> 00:24:37,720
Dat was ook nooit onze bedoeling.

434
00:24:37,720 --> 00:24:41,720
Maar dat bleek dus toch wel echt dat gevoel weer naar boven te komen.

435
00:24:41,720 --> 00:24:42,720
Ja.

436
00:24:42,720 --> 00:24:47,720
Wat ik laatst gezien heb is, wat mij eigenlijk, laten we zeggen,

437
00:24:47,720 --> 00:24:53,720
een jaar, misschien twee jaar geleden echt als iets belachelijks zou bestempelen.

438
00:24:53,720 --> 00:24:57,720
Is van een prompt naar video.

439
00:24:57,720 --> 00:24:58,720
Oh ja.

440
00:24:58,720 --> 00:25:02,720
En van de week heb ik daar een demonstratie van gezien.

441
00:25:02,720 --> 00:25:05,720
Van stability.ai.

442
00:25:05,720 --> 00:25:07,720
Die maken ook stable diffusion en zo.

443
00:25:07,720 --> 00:25:14,720
Als je nu al ziet hoe realistisch die videobeelden zijn op gewoon één regeltje tekst.

444
00:25:14,720 --> 00:25:15,720
Ja.

445
00:25:15,720 --> 00:25:18,720
Nou ja, daar had ik echt een jaar, anderhalf jaar geleden gezegd,

446
00:25:18,720 --> 00:25:21,720
dat is krankzinnig, dat gaat nooit gebeuren.

447
00:25:21,720 --> 00:25:22,720
Dat is er.

448
00:25:22,720 --> 00:25:23,720
Absurd.

449
00:25:23,720 --> 00:25:24,720
Ja.

450
00:25:24,720 --> 00:25:25,720
De ontwikkelingen gaan zo snel.

451
00:25:25,720 --> 00:25:28,720
Ja, voor mij, dat is wel grappig aan dat voorbeeld.

452
00:25:28,720 --> 00:25:33,720
Ik zit al een hele tijd tot aan mijn nek in de generatieve AI.

453
00:25:33,720 --> 00:25:37,720
En allerlei vormen om diepte in te schatten, om sonarbeelden te analyseren,

454
00:25:37,720 --> 00:25:39,720
en meer van dat soort taferelen.

455
00:25:39,720 --> 00:25:44,720
Dus voor mij was die video, ja, het is eigenlijk gewoon een logische volgende stap.

456
00:25:44,720 --> 00:25:47,720
Maar het voelt echt als magie wat we er nou uit krijgen.

457
00:25:47,720 --> 00:25:48,720
Dat is echt cool.

458
00:25:48,720 --> 00:25:51,720
Je boeiende inzichten zijn zeer gewaardeerd.

459
00:25:51,720 --> 00:25:53,720
Dank je wel.

460
00:25:53,720 --> 00:25:55,720
Ik heb daar nog een kleine aanvulling op.

461
00:25:55,720 --> 00:25:57,720
A, we gaan heel snel.

462
00:25:57,720 --> 00:26:00,720
En B, we gaan op heel veel sectoren snel.

463
00:26:00,720 --> 00:26:04,720
Waardoor het gevoel van snelheid nog een keer enorm toeneemt daarin.

464
00:26:04,720 --> 00:26:08,720
Omdat we in alle verschillende sectoren zie je die implementaties en de toepassingen.

465
00:26:08,720 --> 00:26:11,720
Dus zelfs binnen één sector laat je je verrassen.

466
00:26:11,720 --> 00:26:13,720
Laat staan als je meerdere sectoren aan het bekijken bent,

467
00:26:13,720 --> 00:26:16,720
wat er allemaal wordt toegepast en wat de waarde daarvan oplevert.

468
00:26:16,720 --> 00:26:20,720
Ja, en die snelheid van generatieve AI is wel duidelijk uitlegbaar.

469
00:26:20,720 --> 00:26:27,720
Wat je daar hebt is dat, voor zeg maar de techniek die hieronder ligt,

470
00:26:27,720 --> 00:26:31,720
die noemen ze dan de transformers, daarom heet het ook GPT,

471
00:26:31,720 --> 00:26:34,720
Generative Pre-trained Transformers.

472
00:26:34,720 --> 00:26:39,720
Voor die techniek had je eigenlijk allemaal silo's aan onderzoek.

473
00:26:39,720 --> 00:26:46,720
Dus mensen waren bezig met of met tekst, of met spraak, of met beeld, of met video.

474
00:26:46,720 --> 00:26:48,720
Dus dat waren gescheiden werelden.

475
00:26:48,720 --> 00:26:50,720
Die hielden zich ook niet met elkaar bezig.

476
00:26:50,720 --> 00:26:54,720
Omdat nu alles een soort van taal is geworden,

477
00:26:54,720 --> 00:26:59,720
is dat op één hoop gekomen en is al dat onderzoek,

478
00:26:59,720 --> 00:27:05,720
dus wat op tekst nu van toepassing is, is dat dus ook op video en is dat ook op spraak.

479
00:27:05,720 --> 00:27:11,720
Waardoor dat ook een dusdanige exponentiële groei heeft gemaakt.

480
00:27:11,720 --> 00:27:15,720
Het is ook echt in de stroomversnelling geraakt.

481
00:27:15,720 --> 00:27:16,720
Ja, absoluut.

482
00:27:16,720 --> 00:27:19,720
Ja, mooi. Voor mij gaat er nu een hele rader in m'n hoofd.

483
00:27:19,720 --> 00:27:23,720
Maar eigenlijk wat we dus eigenlijk zeggen is, silo's stoppen mee.

484
00:27:23,720 --> 00:27:28,720
Ook binnen je organisaties komen we natuurlijk nog vaak genoeg tegen dat afdelingen of processen in silo's zitten.

485
00:27:28,720 --> 00:27:34,720
Neem hiervan aan, doorbreek die silo's, ga samenwerken en dan kom je er sneller vooruit.

486
00:27:34,720 --> 00:27:38,720
En als je die silo's dan samen weet te brengen, dan hebben we hem helemaal rond.

487
00:27:38,720 --> 00:27:42,720
In een AI-assistent, waar Willem het over heeft gehad,

488
00:27:42,720 --> 00:27:48,720
dan heb je dus ook de kennisuitwisseling en de kennisborging heb je dan nu in een systeem zitten.

489
00:27:48,720 --> 00:27:50,720
Hoe cool is dat?

490
00:27:50,720 --> 00:27:54,720
Het leuke is nog, we gaan hier dus open source mee verder binnen ons bedrijf.

491
00:27:54,720 --> 00:27:59,720
Ik heb gewoon Microsoft-developers, mensen die C-sharp programmeren, die echt niet weten wat AI is.

492
00:27:59,720 --> 00:28:01,720
Die gaan hieraan verder bouwen.

493
00:28:01,720 --> 00:28:04,720
Die vroegen aan mij, ja, maar dan moet ik toch weten hoe die wiskunde werkt?

494
00:28:04,720 --> 00:28:07,720
Nee hoor, het is gewoon een API en het is gewoon een frontend.

495
00:28:07,720 --> 00:28:09,720
Dus, don't worry.

496
00:28:09,720 --> 00:28:11,720
Niet anders dan een andere API-call.

497
00:28:11,720 --> 00:28:12,720
Echt niet.

498
00:28:12,720 --> 00:28:17,720
Nou Willem, dankjewel. Ik denk dat dat mooie inzichten zijn.

499
00:28:17,720 --> 00:28:24,720
Vooral ook laten zien wat het betekent als je een AI-assistent specifiek zou maken voor je eigen organisatie.

500
00:28:24,720 --> 00:28:27,720
Dat het van heel veel toegevoegde waarden kan zijn.

501
00:28:27,720 --> 00:28:30,720
Met de kanttekening, dus niet druk op de knop.

502
00:28:30,720 --> 00:28:34,720
Dan heb je het, dus er moet best wel wat voor worden gedaan.

503
00:28:34,720 --> 00:28:35,720
Dankjewel.

504
00:28:35,720 --> 00:28:40,720
Zo, die klapte erin.

505
00:28:40,720 --> 00:28:43,720
Dat heb je soms.

506
00:28:43,720 --> 00:28:47,720
Nou, fijn dat je weer luisterde naar een aflevering van de AIToday Live.

507
00:28:47,720 --> 00:28:51,720
Vergeet je niet te abonneren via je favoriete podcast-app en mis geen aflevering.

508
00:28:51,720 --> 00:28:54,880
 

People on this episode