AIToday Live

S05E23 - De toekomst van ChatGPT na de hype

Info Support AIToday / Marc van Meel Season 5 Episode 23

In deze boeiende aflevering gaan Marc van Meel, AI & Ethics Lead KPMG, Joop Snijder en Niels Naglé en Marc van Meel dieper in op de potentie en toekomst van generatieve AI-modellen zoals ChatGPT. 

Luister mee en kom erachter hoe bedrijven zich kunnen voorbereiden op een post-hype generatieve AI-wereld door integratie in dienstverlening en workflow, het overwegen van de impact op werkzaamheden van anderen en de ethische dilemma's zoals plagiaat en intellectueel eigendom. Verken samen met ons de vele mogelijkheden van generatieve AI en leer hoe ze op verantwoorde en effectieve wijze kunnen worden ingezet in verschillende omgevingen. 

Kwaliteitscontrole, gepersonaliseerde trainingsroutes en de juiste balans tussen grote en kleine AI-modellen zijn enkele van de besproken onderwerpen.

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:05,000
Leuk dat je weer luistert naar een nieuwe aflevering van de AIToday Live.

2
00:00:05,000 --> 00:00:08,000
Mijn naam is Joop Snijder, CTO bij Aigency.

3
00:00:08,000 --> 00:00:11,000
En mijn naam Niels Naglé, chapter lead, Data & AI bij Info Support.

4
00:00:11,000 --> 00:00:18,000
En we hebben een deel 2 met Marc van Meel, vriend van de show noemde ik hem in het eerste deel.

5
00:00:18,000 --> 00:00:21,000
Dus als je die nog niet geluisterd hebt, luister daar terug.

6
00:00:21,000 --> 00:00:27,000
We hebben het over ChatGPT en dan niet eigenlijk over de huidige hype.

7
00:00:27,000 --> 00:00:30,000
Maar we proberen daar juist overheen te kijken.

8
00:00:30,000 --> 00:00:32,500
En wat nou als die hype is gaan liggen?

9
00:00:32,500 --> 00:00:36,800
Waar komen we dan op uit? Heb je deel 1 nog niet geluisterd? Doe dat absoluut.

10
00:00:36,800 --> 00:00:38,900
We praten door met Mark.

11
00:00:38,900 --> 00:00:45,300
Nou Mark, we hadden al een aantal dingen besproken, maar waar ik nog wel benieuwd naar ben,

12
00:00:45,300 --> 00:00:51,000
is, zie jij ontwikkeling op dit gebied,

13
00:00:51,000 --> 00:00:55,500
waarbij ChatGPT bijvoorbeeld ook veel meer uitleg gaat geven

14
00:00:55,500 --> 00:00:58,620
over hoe die tot een bepaalde redenatie gaat komen.

15
00:00:58,620 --> 00:01:06,200
Ja dat vind ik een goede. We hebben nu al voorbeelden gezien dat ChatGPT ook bronnen

16
00:01:06,200 --> 00:01:15,940
kan verzinnen. Ja zeker. Hij kan papers verzinnen, scientific citations die niet bestaan. In

17
00:01:15,940 --> 00:01:22,580
die zin is hij niet betrouwbaar, zou je kunnen zeggen. En dat heeft natuurlijk te maken,

18
00:01:22,580 --> 00:01:32,580
Misschien voor de meer technische luisteraars dat het in principe een model is wat niks anders doet dan voorspellingen maken over welke woorden naar jouw prompt zouden moeten komen.

19
00:01:32,580 --> 00:01:37,580
Dus heel kort gezegd, het vult gewoon woorden eigenlijk voor je in.

20
00:01:37,580 --> 00:01:42,580
Het nadeel is, is dat niet alle combinaties van woorden te vinden zijn op het internet.

21
00:01:42,580 --> 00:01:45,580
Hij is getraind op het internet, dat is heel veel data.

22
00:01:45,580 --> 00:01:51,580
En als je googelt wat is 2+2, dan ga je legio voorbeelden vinden van 4 als antwoord.

23
00:01:51,580 --> 00:01:59,560
woord maar alle combinaties van woorden of misschien een combinatie van 10 woorden,

24
00:01:59,560 --> 00:02:04,240
alle mogelijke combinaties dat is al meer dan het aantal atomen in het universum. Dus daarom

25
00:02:04,240 --> 00:02:11,920
gebruikt het een model wat voorspellingen doet over welke tekst gaat volgen. Ook al is die tekst

26
00:02:11,920 --> 00:02:16,160
nog nooit, heeft die tekst nog nooit de revue gepasseerd in de menselijke geschiedenis.

27
00:02:16,160 --> 00:02:22,160
Ja, dus het is al heel erg... Ja, daar kleeft een klein gevaar aan, om het zo maar te zeggen.

28
00:02:22,160 --> 00:02:27,400
Ja, en het gevaar zit er met name in de gebruik, wat mij betreft, namelijk het aannemen voor waarheid.

29
00:02:27,400 --> 00:02:38,120
Klopt, ja dat komt dat, ze noemen dat hallucineren, zo hebben ze dat gedoped. Dat die inderdaad heel

30
00:02:38,120 --> 00:02:44,360
overtuigend met antwoorden op de prop komt die niet per definitie waar zijn. Ik had hem bijvoorbeeld

31
00:02:44,360 --> 00:02:50,480
Ik was een weekendje weg naar Düsseldorf en ik vroeg aan Chachipiti wat zijn de beste

32
00:02:50,480 --> 00:02:51,480
parkeergarages.

33
00:02:51,480 --> 00:02:52,480
Waar kan ik het beste parkeren?

34
00:02:52,480 --> 00:02:54,960
En drie van de vijf bestonden niet.

35
00:02:54,960 --> 00:02:58,080
Maar ik kon wel zien waar hij de data vandaan had gehaald.

36
00:02:58,080 --> 00:03:03,160
Want het waren een soort van samenraapsels van parkeergarages die wel bestonden of niet

37
00:03:03,160 --> 00:03:04,160
meer bestonden.

38
00:03:04,160 --> 00:03:08,880
In dat soort geval kan ik jullie aanraden nog wel even een quality check te doen voordat

39
00:03:08,880 --> 00:03:13,280
je gaat vragen waar je het beste kan parkeren of hoe laat je vliegtuig vertrekt.

40
00:03:13,280 --> 00:03:19,800
ook even googelen. Ja laten we daar inderdaad een ander model voor gebruiken of inderdaad

41
00:03:19,800 --> 00:03:25,720
even zelf naslaan en de kwaliteit controleren. Ja en wat ook interessant is, we hadden het

42
00:03:25,720 --> 00:03:30,360
in de vorige aflevering al even over die super prompts, dus die heel erg ingewikkelde prompts

43
00:03:30,360 --> 00:03:38,080
die je meegeeft. Chachapiti is, je zou het creatief kunnen noemen. Het is een zeer creatief

44
00:03:38,080 --> 00:03:45,660
model. Dat heeft voor- en nadelen. Kijk bijvoorbeeld wetenschappelijke feiten, 2+2=4, kan je vrij

45
00:03:45,660 --> 00:03:52,580
makkelijk controleren. Maar ik heb hem ook wel eens prompt meegegeven met de vraag, geef mij een

46
00:03:52,580 --> 00:03:57,740
filosofische beschouwing van deze en deze filosoof op dit en dit onderwerp. Bijvoorbeeld,

47
00:03:57,740 --> 00:04:03,740
wat vindt Jean-Paul Sartre van de metaverse bijvoorbeeld. Dat kan niemand weten, want die

48
00:04:03,740 --> 00:04:07,540
persoon is laast overleden en hij weet niet wat de metaverse is, dat was het toen nog niet. Maar

49
00:04:07,540 --> 00:04:10,820
maar dan komt hij met een antwoord op de propel dat heel erg moeilijk te controleren is.

50
00:04:10,820 --> 00:04:13,540
En dat is geen wetenschappelijk antwoord natuurlijk.

51
00:04:13,540 --> 00:04:17,540
Dus dan moet je al redelijk gespecialiseerd zijn in filosofie of psychologie

52
00:04:17,540 --> 00:04:22,540
om überhaupt vast te kunnen stellen of dit antwoord ergens op slaat.

53
00:04:22,540 --> 00:04:23,540
Ja.

54
00:04:23,540 --> 00:04:25,040
Nou en als je...

55
00:04:25,040 --> 00:04:31,540
We hebben natuurlijk ook al een klein beetje gehad over hoe zou je het toe kunnen passen in het bedrijfsleven.

56
00:04:31,540 --> 00:04:35,540
Wat ik daar ook nog wel zie is van...

57
00:04:35,540 --> 00:04:40,500
Juist omdat die... Kijk, bij de vraag die je stelt krijg je niet altijd hetzelfde antwoord.

58
00:04:40,500 --> 00:04:42,260
Dat kan een dingetje zijn.

59
00:04:42,260 --> 00:04:46,500
Maar ook het formaat om te dwingen om een bepaald formaat terug te krijgen.

60
00:04:46,500 --> 00:04:50,860
En zeker als je iets wil automatiseren is het wel fijn als je iets in eenzelfde formaat krijgt.

61
00:04:50,860 --> 00:04:52,860
Daar moet je echt heel erg je best voor doen.

62
00:04:52,860 --> 00:04:59,020
En hopen dat er niet iets bijgetraind wordt, anders getraind wordt, dat dat model verandert.

63
00:04:59,020 --> 00:05:02,020
Dat daarmee ook het hele formaat verandert van je antwoord.

64
00:05:02,020 --> 00:05:04,700
En dat bedoel ik niet zeg maar in technische termen.

65
00:05:04,700 --> 00:05:06,720
Een aantal lengtes.

66
00:05:06,720 --> 00:05:09,420
Ja, de Jason die je terugkrijgt, die kan je wel uitlezen.

67
00:05:09,420 --> 00:05:10,940
Maar de ene keer...

68
00:05:10,940 --> 00:05:13,780
Voor onze podcast vraag ik bijvoorbeeld een overzicht.

69
00:05:13,780 --> 00:05:17,460
Mark die geeft misschien zo direct een geweldige tip voor een boek.

70
00:05:17,460 --> 00:05:19,480
Die mensen kunnen lezen.

71
00:05:19,480 --> 00:05:22,880
Om niet de hele podcast terug te hoeven luisteren,

72
00:05:22,880 --> 00:05:25,380
heb ik chat GPT, vraag ik op onze transcript.

73
00:05:25,380 --> 00:05:28,480
Wat wordt allemaal genoemd aan boeken, dat soort dingen.

74
00:05:28,480 --> 00:05:29,620
Zet dat in een tabel.

75
00:05:29,640 --> 00:05:32,640
De ene keer krijg ik wel een tabel, de andere keer niet.

76
00:05:32,640 --> 00:05:34,640
De andere keer krijg ik gewoon een lijstje, een bullet list.

77
00:05:34,640 --> 00:05:38,640
Je kan het op de gekste manieren.

78
00:05:38,640 --> 00:05:43,640
Als ik op een gegeven moment denk van deze prompt heb ik en nu doet hij het echt in een tabel.

79
00:05:43,640 --> 00:05:47,640
En de volgende keer word ik weer verbaasd en dan staat hij weer op een hele andere manier.

80
00:05:47,640 --> 00:05:49,640
Herken je dat?

81
00:05:49,640 --> 00:05:52,640
Ja, dat is eigenlijk ook de kracht van het model.

82
00:05:52,640 --> 00:05:57,640
Ik zei al eerder dat hij probeert een zin af te maken, zou je kunnen zeggen.

83
00:05:57,640 --> 00:06:04,920
En het woord waarmee die op de proppen komt is tegelijkertijd weer de input voor het volgende woord.

84
00:06:04,920 --> 00:06:07,200
Voor de woordzetting van de tekst.

85
00:06:07,200 --> 00:06:11,120
Hij is een soort van autogeneratief zou je kunnen zeggen.

86
00:06:11,120 --> 00:06:14,960
En hij pakt inderdaad niet altijd hetzelfde woord.

87
00:06:14,960 --> 00:06:16,200
Hij is dus niet deterministisch.

88
00:06:16,200 --> 00:06:19,600
Dat kan je voor de data scientist reguleren met die temperatuur setting.

89
00:06:19,600 --> 00:06:20,960
Temperature noemen ze dat.

90
00:06:20,960 --> 00:06:23,880
En daarmee kan je zeggen hoe creatief die is.

91
00:06:23,880 --> 00:06:25,200
Heel simpel voorbeeld.

92
00:06:25,200 --> 00:06:27,200
Ik laat mijn puntje puntje uit.

93
00:06:27,200 --> 00:06:30,200
Dat zal misschien 9 van de 10 keer hond zijn.

94
00:06:30,200 --> 00:06:33,040
Dat zal vaak in de trainingsdata voorkomen.

95
00:06:33,040 --> 00:06:35,560
Maar af en toe wil je misschien ook wel iets anders.

96
00:06:35,560 --> 00:06:38,600
Misschien ik laat mijn kavia uit ofzo, of mijn kat.

97
00:06:38,600 --> 00:06:42,240
Met die temperatuur setting kan je eigenlijk de kans aanpassen.

98
00:06:42,240 --> 00:06:49,800
Je kan de kans groter of kleiner maken dat die voor een wat creatiever of minder vaak voorkomend wordt gaat.

99
00:06:49,800 --> 00:06:51,400
En dat bouwt zich natuurlijk op.

100
00:06:51,400 --> 00:06:54,080
Omdat die output ook weer de input is voor het vervolg.

101
00:06:54,080 --> 00:06:58,920
En op die manier kan je radicaal andere outputs genereren.

102
00:06:58,920 --> 00:07:01,680
Ik denk persoonlijk dat dat juist de kracht is van dit model.

103
00:07:01,680 --> 00:07:03,360
Dus daar moet je hem ook juist voor gebruiken.

104
00:07:03,360 --> 00:07:06,880
Om even een connectie te maken naar het bedrijf.

105
00:07:06,880 --> 00:07:10,720
Ik denk dat dit uitermate geschikt is voor bijvoorbeeld trainingsdoeleinden.

106
00:07:10,720 --> 00:07:15,240
Om een voorbeeld te geven bij KPMG en natuurlijk ook andere organisaties.

107
00:07:15,240 --> 00:07:16,920
We hebben redelijk veel trainingen.

108
00:07:16,920 --> 00:07:20,040
Een groot deel daarvan zijn compliance trainingen bijvoorbeeld.

109
00:07:20,040 --> 00:07:24,340
Niet je laptop aan laten staan, dat soort dingen.

110
00:07:24,340 --> 00:07:27,040
En ik zat ook wel eens te denken, zou het niet elegant zijn,

111
00:07:27,040 --> 00:07:29,640
want die trainingen zijn in principe voor iedereen hetzelfde.

112
00:07:29,640 --> 00:07:31,840
Iedereen moet ze doen, ongeacht je niveau,

113
00:07:31,840 --> 00:07:34,040
ongeacht of je de antwoorden nog weet van volgend jaar,

114
00:07:34,040 --> 00:07:36,840
ongeacht of je partner bent. - Van vorig jaar denk ik, of niet?

115
00:07:36,840 --> 00:07:40,840
Ja, sorry, dat zei je? - Volgend jaar.

116
00:07:40,840 --> 00:07:45,840
Je zit zo in de voorspellingen dat je zei, de antwoorden van volgend jaar.

117
00:07:45,840 --> 00:07:46,840
Oh, sorry.

118
00:07:46,840 --> 00:07:52,440
Nou ja, dan kan ik verklappen dat het vaak dezelfde is.

119
00:07:52,440 --> 00:07:55,040
Maar ja, je verneemt de antwoorden natuurlijk een beetje.

120
00:07:55,040 --> 00:07:57,240
Dus daarom is het goed dat ze die trainingen doen.

121
00:07:57,240 --> 00:07:59,320
Maar de een wat meer dan de ander.

122
00:07:59,320 --> 00:08:06,280
Dus zou het niet elegant zijn als je eigenlijk gepersonaliseerde trainingsroutines kan maken?

123
00:08:06,280 --> 00:08:12,160
Dus dat op basis van de input die jij geeft, dat je eigenlijk andere scenario's voorgeschetst

124
00:08:12,160 --> 00:08:13,160
krijgt.

125
00:08:13,160 --> 00:08:16,960
Je zou het zeggen getailored, aangepast op jouw niveau waar jij je bevindt.

126
00:08:16,960 --> 00:08:20,480
Dit is natuurlijk een grote probleem in het onderwijs algemeen.

127
00:08:20,480 --> 00:08:24,940
Dat iedereen in de klas op dezelfde snelheid dezelfde materie krijgt.

128
00:08:24,940 --> 00:08:28,240
Maar je hebt natuurlijk altijd mensen die zijn wat sneller,

129
00:08:28,240 --> 00:08:30,880
anderen zijn wat langzamer, anderen weten het al.

130
00:08:30,880 --> 00:08:34,720
Daarom geloof ik heel erg in het gebruik van dit soort modellen

131
00:08:34,720 --> 00:08:37,200
voor gepersonaliseerde trainings- en coachingsdoelheinden.

132
00:08:37,200 --> 00:08:38,220
Ja.

133
00:08:38,220 --> 00:08:42,460
En een andere is over die hype kijken.

134
00:08:42,480 --> 00:08:48,480
Wat ik zie is dat er best wel wat open source nu aan het ontstaan is.

135
00:08:48,480 --> 00:08:52,480
Ik denk dat die ook overblijven zo direct naar de hype.

136
00:08:52,480 --> 00:08:54,480
Wat denk jij?

137
00:08:54,480 --> 00:08:57,480
Gaan we naar grotere modellen?

138
00:08:57,480 --> 00:08:59,480
Gaan we naar kleinere modellen?

139
00:08:59,480 --> 00:09:01,480
Welke ontwikkeling zie jij?

140
00:09:01,480 --> 00:09:10,480
Volgens mij had ik vorig jaar de voorspelling gemaakt dat we juist kleinere modellen zouden krijgen.

141
00:09:10,480 --> 00:09:17,200
Trouwens, een heel leuke discipline of een leuke tak van sport, het prunen van neurale netwerken.

142
00:09:17,200 --> 00:09:18,800
Als je in de praktijk kijkt...

143
00:09:18,800 --> 00:09:20,800
Snoei hè, voor de luisteraars.

144
00:09:20,800 --> 00:09:22,120
Dus echt het kleine maken.

145
00:09:22,120 --> 00:09:29,520
Dus je traint het model en dan ga je de stukjes eruit halen die uiteindelijk niks bijdragen aan je uitkomst.

146
00:09:29,520 --> 00:09:31,280
Ja, klopt.

147
00:09:31,280 --> 00:09:35,640
Het is een van de minst sexy, underrated velden vind ik in machine learning.

148
00:09:35,640 --> 00:09:40,040
Maar als je in de praktijk kijkt naar van die grote modellen, dan zijn het vaak kleinere subsets.

149
00:09:40,040 --> 00:09:47,320
van de neurale netwerken die daadwerkelijk het overgrote gedeelte bijdragen aan het voorspelresultaat.

150
00:09:47,320 --> 00:09:50,520
Dus je hebt heel veel neuronen die zou je in principe kunnen wegnippen.

151
00:09:50,520 --> 00:09:53,800
En er is een spocht natuurlijk om dit soort modellen kleiner te maken.

152
00:09:53,800 --> 00:10:00,440
Ik moet wel constateren dat over de afgelopen maanden, afgelopen half jaar de modellen alleen maar grotere zijn geworden.

153
00:10:00,440 --> 00:10:06,040
Ik weet niet, volgens mij heeft Chatty Tepidina 175 miljard programma's.

154
00:10:06,040 --> 00:10:10,240
Ja, maar dat was GPT-3. Van 4 weten we het niet.

155
00:10:10,240 --> 00:10:11,740
Dat is niet bekendgemaakt.

156
00:10:11,740 --> 00:10:16,940
Volgens mij heeft de CEO wel gezegd dat hij wel groter is, maar zeker niet...

157
00:10:16,940 --> 00:10:21,040
Ze hadden het over toen die 1000 miljard of zo...

158
00:10:21,040 --> 00:10:24,240
wat op social media gezegd werd. Daarvan heeft hij gezegd dat dat niet is.

159
00:10:24,240 --> 00:10:27,040
Dus het zal ergens daartussenin zitten.

160
00:10:27,040 --> 00:10:33,340
Ja, het lijkt toch een beetje bigger is better te zijn de afgelopen...

161
00:10:33,840 --> 00:10:38,340
Ja, maar ik ben wel betwijfeld dat het echt zo blijft.

162
00:10:38,340 --> 00:10:41,980
Het is natuurlijk fijn dat je één model hebt die heel veel voor jouw zaken zou kunnen oplossen.

163
00:10:41,980 --> 00:10:47,420
Maar of we daarmee één mega, one model to rule them all, zeg maar, gaan krijgen, ik denk het niet.

164
00:10:47,420 --> 00:10:51,780
Ik zie wel meer heil in kleinere modellen voor specifieke zaken die je wil bereiken.

165
00:10:51,780 --> 00:10:57,340
Met misschien een façade daarvoor, waarin je logica hebt wanneer je wat het beste kan gebruiken.

166
00:10:57,340 --> 00:11:03,220
Zodat we ook kostenefficiënt en ook voor het dilemma en het intent wat we hebben...

167
00:11:03,620 --> 00:11:07,060
terechtkomen bij het juiste model dat we daarvoor vertrouwen en willen inzetten.

168
00:11:07,060 --> 00:11:09,220
Daar zie ik meer de toekomst in.

169
00:11:09,220 --> 00:11:12,060
Je ziet natuurlijk al wat open source initiatieven.

170
00:11:12,060 --> 00:11:16,340
En omdat zij niet zoveel data hebben, niet zoveel rekenkracht en dat soort zaken,

171
00:11:16,340 --> 00:11:20,300
dat ze al in ieder geval redelijke performance kunnen halen.

172
00:11:20,300 --> 00:11:22,660
Redelijk ten opzichte van bijvoorbeeld GPT-3.

173
00:11:22,660 --> 00:11:26,800
Met veel minder parameters, veel minder groot,

174
00:11:26,800 --> 00:11:31,900
grotere dataset die ze dan nodig hebben ook voor de training.

175
00:11:31,920 --> 00:11:33,480
En ik denk dat dat een goede ontwikkeling is.

176
00:11:33,480 --> 00:11:38,040
En dat bedrijven zijn die ongeveer hetzelfde willen bereiken...

177
00:11:38,040 --> 00:11:41,960
dat moeten we ook zeker mogelijk blijven maken in de maatschappij met elkaar.

178
00:11:41,960 --> 00:11:44,920
Want daarmee challengen we hoe groot moeten we het maken.

179
00:11:44,920 --> 00:11:46,280
En is dat ook echt nodig?

180
00:11:46,280 --> 00:11:48,600
Het kan dus ook kleiner voor bepaalde doeleinden.

181
00:11:48,600 --> 00:11:51,000
Dus ik denk dat een hele belangrijke ontwikkeling is...

182
00:11:51,000 --> 00:11:53,680
dat die open source zaken ook diezelfde performance willen...

183
00:11:53,680 --> 00:11:55,640
en zo veel mogelijk bij die resultaten komen...

184
00:11:55,640 --> 00:12:01,000
maar met kleinere of andere technieken daarin de toepassing willen gaan ontwikkelen.

185
00:12:01,000 --> 00:12:03,740
Ik ben het helemaal met jullie eens.

186
00:12:03,740 --> 00:12:06,940
Want als je erover nadenkt, dan zijn die parameters natuurlijk...

187
00:12:06,940 --> 00:12:09,720
Je zou het kunnen vergelijken met knoppen waar je aan kan draaien.

188
00:12:09,720 --> 00:12:16,120
Je zou het zelfs allemaal mini-regressie knopjes kunnen noemen in de context van een raal netwerk.

189
00:12:16,120 --> 00:12:20,360
Natuurlijk, de taal is tot op zekere hoogte eindig.

190
00:12:20,360 --> 00:12:25,080
Dus je kan natuurlijk het argument maken dat we niet oneindig parameters nodig hebben.

191
00:12:25,080 --> 00:12:29,320
En zeker als je toegaat naar een toepassing van bijvoorbeeld een taalmodel...

192
00:12:29,320 --> 00:12:32,640
voor een gespecialiseerde vorm van gebruik.

193
00:12:32,640 --> 00:12:38,240
Waarom zou je dan zoveel miljarden parameters nodig hebben?

194
00:12:38,240 --> 00:12:39,920
Daar maak je een heel goed punt.

195
00:12:39,920 --> 00:12:44,960
En volgens mij is het een leuke tak van sport, inderdaad ook marktgedreven, om te gaan naar

196
00:12:44,960 --> 00:12:50,440
modellen die kleiner zijn, maar misschien net zoveel, misschien ook wel meer kunnen in een

197
00:12:50,440 --> 00:12:51,960
bepaalde afgebakende context.

198
00:12:51,960 --> 00:12:53,600
Volgens mij is dat nog een goed iets.

199
00:12:53,600 --> 00:13:00,640
Ook een van de ethische dilemma's die je nou ziet is, wat zijn de kosten van een trainingsiteratie,

200
00:13:00,640 --> 00:13:02,440
van een chat GPT.

201
00:13:02,440 --> 00:13:07,360
Dus wat is de impact op sustainability, op een ESG factor.

202
00:13:07,360 --> 00:13:11,040
Wat is een ESG factor?

203
00:13:11,040 --> 00:13:15,400
Dat is een vorm van reporting.

204
00:13:15,400 --> 00:13:26,400
Dus je hebt organisaties die rapporteren niet alleen financieel, maar ook op wat het creëren van hun producten bijvoorbeeld,

205
00:13:26,400 --> 00:13:34,400
of het verlenen van hun diensten, hoe dat scoort op social responsibility.

206
00:13:34,400 --> 00:13:39,400
Oh ja, Environment, Social Goals, iets in die hoe danigheid.

207
00:13:39,400 --> 00:13:40,900
Ik moet het nog even opzoeken.

208
00:13:40,900 --> 00:13:44,280
Ik pin me er niet op vast, maar die hoedanigheid zien we ook inderdaad.

209
00:13:44,280 --> 00:13:48,720
Ook in de huidige cloud-ontwikkelingen zien we ook steeds meer rapportages daarop komen.

210
00:13:48,720 --> 00:13:52,600
Van, goh, wat is eigenlijk de footprint van de oplossingen die we neerzetten...

211
00:13:52,600 --> 00:13:54,000
waarbij dat ook meegenomen wordt.

212
00:13:54,000 --> 00:13:57,420
Ik denk in deze wereld dat dat ook heel erg van belang gaat zijn in de toekomst.

213
00:13:57,420 --> 00:14:02,900
Nou, en zeker natuurlijk het trainen van deze modellen.

214
00:14:02,900 --> 00:14:06,100
En zodra je dit gaat fine-tunen binnen je organisatie...

215
00:14:06,120 --> 00:14:11,920
Dus dat je mee gaat trainen op data van jezelf, zal dat inderdaad wel impact gaan hebben.

216
00:14:11,920 --> 00:14:12,960
Ja, inderdaad.

217
00:14:12,960 --> 00:14:17,360
En kijk, als je het één keer groots traint en dan veel kan gebruiken, dan is dat nog één ding.

218
00:14:17,360 --> 00:14:20,440
Maar als je hem continu van grote hoeveelheden veel laat trainen,

219
00:14:20,440 --> 00:14:22,960
dan heb je dus best wel wat impact die je maakt.

220
00:14:22,960 --> 00:14:25,360
En is dat nodig om je doel te bereiken.

221
00:14:25,360 --> 00:14:30,820
Mark, wordt jouw taak als auditor makkelijker of moeilijker?

222
00:14:30,840 --> 00:14:38,960
Dus je komt ergens en deze technologie heeft een bedrijf geïmplementeerd.

223
00:14:38,960 --> 00:14:41,440
Wat betekent dat voor jou als ordertor?

224
00:14:41,440 --> 00:14:44,560
Ja, dat is een spannende ontwikkeling.

225
00:14:44,560 --> 00:14:49,560
We hadden het al even gehad over de AI-act natuurlijk, in de vorige aflevering.

226
00:14:49,560 --> 00:14:58,920
Dat er heel veel organen zijn die op versneld rap tempo ook iets moeten vinden van generatieve AI.

227
00:14:58,920 --> 00:15:05,960
Wat natuurlijk al lang bestaat, maar niemand zag het aankomen dat het zo hard zou gaan.

228
00:15:05,960 --> 00:15:12,660
Ik merk in de praktijk dat heel veel van onze klanten, organisaties die wij helpen, maken

229
00:15:12,660 --> 00:15:18,440
in de praktijk al vaak een afweging tussen een uitlegbaar model en een onuitlegbaar model.

230
00:15:18,440 --> 00:15:23,760
Dus als jij iets moet uitleggen aan een auditor, een accountant, of misschien is jouw stakeholder

231
00:15:23,760 --> 00:15:33,640
wel de politiek of burgers dan zal in de praktijk vaak een keuze of een voorliefde wil ik niet

232
00:15:33,640 --> 00:15:41,600
zeggen maar voorkeur misschien ja een voorkeur zijn voor een iets uitlegbaarder model dus echt

233
00:15:41,600 --> 00:15:46,680
de de norale netwerken die die kom je weinig tegen buiten natuurlijk de bekende settings

234
00:15:46,680 --> 00:15:49,920
Image recognition, dat soort zaken.

235
00:15:49,920 --> 00:15:53,120
Ik denk wel dat, stel jij gebruikt bijvoorbeeld een chatbot.

236
00:15:53,120 --> 00:15:58,480
De chatbots van nu of tot op heden zijn niet zo goed.

237
00:15:58,480 --> 00:16:03,640
Meestal als je op een website een vraag stelde, dan leidt het alleen maar tot frustratie.

238
00:16:03,640 --> 00:16:08,960
Ik denk wel dat de komst van dit soort taalmodellen, laten we het zeggen, de bar hebben verhoogd op dat gebied.

239
00:16:08,960 --> 00:16:13,080
Ik denk niet dat je meer als website kan wegkomen met een slechte chatbot.

240
00:16:13,080 --> 00:16:18,480
Ik denk wel dat je ervoor moet zorgen dat die chatbot jouw klanten niet gaat beledigen.

241
00:16:18,480 --> 00:16:28,280
En ook omdat de CEO van OpenAI ook had opgeroepen tot externe audits,

242
00:16:28,280 --> 00:16:32,480
daar zie ik daar wel een leuke tak van sport voor ons ook weggelegd.

243
00:16:32,480 --> 00:16:33,480
Ja, absoluut.

244
00:16:33,480 --> 00:16:36,880
En vanuit jouw persoonlijke gedachte,

245
00:16:36,880 --> 00:16:41,480
zouden er dingen zijn waarvan jij vindt dat die verboden zouden moeten worden?

246
00:16:41,480 --> 00:16:47,040
In algemene zin of even specifiek op taalmodellen?

247
00:16:47,040 --> 00:16:50,640
Ja laten we naar generatieve AI dan.

248
00:16:50,640 --> 00:16:55,040
Dus dan kunnen ook plaatjes, muziek, ja geen idee.

249
00:16:55,040 --> 00:16:56,720
Alles wat daar binnen valt.

250
00:16:56,720 --> 00:16:59,880
Ja het is een interessante discussie.

251
00:16:59,880 --> 00:17:05,440
Je ziet nu eigenlijk al volgens mij wat rechtzaken op het gebied van artiesten.

252
00:17:05,440 --> 00:17:10,080
Volgens mij was er een song van Drake of zo gegenereerd die niet echt Drake was.

253
00:17:10,080 --> 00:17:17,680
Volgens mij had David Guetta al M&M stem gebruikt in een van zijn liedjes, wat niet M&M was natuurlijk.

254
00:17:17,680 --> 00:17:18,680
Of niet zelf.

255
00:17:18,680 --> 00:17:22,960
Volgens mij zijn er op heel veel horen ook al restricties.

256
00:17:22,960 --> 00:17:28,960
Je mag niet pornografisch materiaal genereren natuurlijk met dit soort image recognition

257
00:17:28,960 --> 00:17:33,000
of image generation tooling.

258
00:17:33,000 --> 00:17:38,160
Ik denk dat het lastig is om het, ja je kan het wel verbieden, maar het wordt heel lastig

259
00:17:38,160 --> 00:17:39,520
om het tegen te gaan.

260
00:17:39,520 --> 00:17:44,960
Zeker als jij een lokale versie bijvoorbeeld gebruikt, dan ben je vaak niet gebonden aan

261
00:17:44,960 --> 00:17:49,320
de restricties die de online versie wel kan opleggen.

262
00:17:49,320 --> 00:17:53,120
Met betrekking tot de input, het prompt dat jij meegeeft.

263
00:17:53,120 --> 00:17:58,800
Er zijn een taal van zaken waarvan ik liever niet zie waar ze voor gebruikt worden.

264
00:17:58,800 --> 00:18:01,120
Ik wil niet dat criminelen dit soort tooling gaan gebruiken.

265
00:18:01,120 --> 00:18:05,240
Maar ik zie meer in de handhaving een uitdaging eigenlijk.

266
00:18:05,240 --> 00:18:08,040
En ook de plagiat discussie is heel erg interessant.

267
00:18:08,040 --> 00:18:13,540
In het verleden, als jij plagiaat pleegt, dan pak je iets van een ander en je doet alsof het van jezelf is.

268
00:18:13,540 --> 00:18:19,440
Maar met het gebruik van chat GPT, ja je doet alsof het van jezelf is.

269
00:18:19,440 --> 00:18:24,340
Als je bijvoorbeeld een opstel inlevert, maar dan krijg je de discussie, heb je het wel gestolen van iemand?

270
00:18:24,340 --> 00:18:26,340
Of niet?

271
00:18:26,340 --> 00:18:31,640
Volgens mij was er ook een tijd terug iemand die een boek had geschreven met behulp van Generative AI.

272
00:18:31,640 --> 00:18:35,240
En daarbij is wel gezegd van, ja sorry, maar het intellectual property is toch niet van jou?

273
00:18:35,240 --> 00:18:38,600
Er is te weinig van jezelf toegevoegd om dat eigen te maken.

274
00:18:38,600 --> 00:18:43,120
Ja, ik zie ook in het bedrijfsleven, om even terug te komen,

275
00:18:43,120 --> 00:18:45,320
op het bedrijfsleven een interessante uitdaging.

276
00:18:45,320 --> 00:18:48,680
Als je daar niet transparant over bent, bijvoorbeeld jij wordt ingehuurd voor een

277
00:18:48,680 --> 00:18:55,480
duur uurtarief of misschien een fixed price en je gaat dit soort tooling gebruiken.

278
00:18:55,480 --> 00:18:57,400
En misschien heb je het in de helft van de tijd klaar.

279
00:18:57,400 --> 00:18:58,840
Dan denk je dat is mooi verdiend.

280
00:18:58,840 --> 00:19:01,280
Maar wat als de klant daar achter komt bijvoorbeeld?

281
00:19:01,280 --> 00:19:03,200
Misschien gebruikt de klant ook wel dat soort tooling.

282
00:19:03,720 --> 00:19:07,200
op een gegeven moment zijn ze ook bij en die komt erachter van "hé, wat zullen we nou

283
00:19:07,200 --> 00:19:08,200
krijgen?

284
00:19:08,200 --> 00:19:10,720
Ik heb dezelfde output met mijn eigen model.

285
00:19:10,720 --> 00:19:14,680
Ze hebben me een stuk gegeven wat door een AI is gegenereerd."

286
00:19:14,680 --> 00:19:20,560
Wat op zich niet erg hoeft niet erg te zijn, maar als je daar niet transparant over bent,

287
00:19:20,560 --> 00:19:21,720
zou je je best bekocht kunnen voelen.

288
00:19:21,720 --> 00:19:24,360
Dat soort vragen worden heel erg relevant.

289
00:19:24,360 --> 00:19:27,560
Ja, een leuke opmerking inderdaad.

290
00:19:27,560 --> 00:19:29,360
Die laat ik even resoneren inderdaad.

291
00:19:29,360 --> 00:19:32,760
Dan kom ik op een tijdje nog eens even terug.

292
00:19:32,760 --> 00:19:36,760
Ja, dat is wel een belangrijk element.

293
00:19:36,760 --> 00:19:49,040
Als jij nou mensen, de luisteraars van ons, een tip 1, 2, 3 zou willen geven van hoe bereiden

294
00:19:49,040 --> 00:19:52,480
we ons voor na de hype?

295
00:19:52,480 --> 00:19:53,600
Heb je daar een idee bij?

296
00:19:53,600 --> 00:19:57,280
Post hype.

297
00:19:57,280 --> 00:19:59,720
Ja, de post hype tip.

298
00:19:59,720 --> 00:20:04,720
Ja, maar iets wat toekomstbestendig is, laat ik het zo zeggen.

299
00:20:04,720 --> 00:20:12,920
Ik denk niet dat dit soort modellen weggaan.

300
00:20:12,920 --> 00:20:17,920
Ik zie juist een hele grote kans om dit soort,

301
00:20:17,920 --> 00:20:20,320
dan heb ik het even over taalmodellen, heel bijzonder,

302
00:20:20,320 --> 00:20:22,920
te integreren in je dienstverlening.

303
00:20:22,920 --> 00:20:27,620
Ik zou bedrijven of organisaties, maar ook individuen,

304
00:20:27,720 --> 00:20:33,000
We willen aanraden om eens te kijken wat zijn de CRTs in jouw werk.

305
00:20:33,000 --> 00:20:35,720
En daarmee bedoel ik Cognitive Repetitive Tasks.

306
00:20:35,720 --> 00:20:36,720
Oh ja.

307
00:20:36,720 --> 00:20:40,560
Dus dat zijn bijvoorbeeld slides maken, e-mails versturen.

308
00:20:40,560 --> 00:20:46,720
Kan je dat niet op de een of andere manier automatiseren of laten ondersteunen door dit

309
00:20:46,720 --> 00:20:47,720
soort tooling?

310
00:20:47,720 --> 00:20:55,120
Tegelijkertijd moet je denk ik ook nadenken over wat je kan verwachten als input van andere

311
00:20:55,120 --> 00:20:57,760
organisaties, wat ik net ook aangaf.

312
00:20:57,760 --> 00:21:04,880
Misschien een leuk voorbeeld te noemen, een leuke use case zou kunnen zijn zo'n tool

313
00:21:04,880 --> 00:21:06,480
bouwen die voor jou in beroep gaat.

314
00:21:06,480 --> 00:21:09,320
Misschien heb je al een bekeuring gekregen of je bent het ergens niet mee eens.

315
00:21:09,320 --> 00:21:12,400
Die tool kan natuurlijk heel erg efficiënt de voorwaarden doorspitten.

316
00:21:12,400 --> 00:21:17,160
En een lege team grond vinden om jouw geld terug te krijgen.

317
00:21:17,160 --> 00:21:21,880
Dan kan je als organisatie die dit soort tickets binnenkrijgt, misschien kan je wel

318
00:21:21,880 --> 00:21:22,960
veel meer tickets gaan verwachten.

319
00:21:22,960 --> 00:21:24,960
Nou ben je daar überhaupt op ingesteld?

320
00:21:24,960 --> 00:21:26,960
Ik denk bijvoorbeeld aan de overheid.

321
00:21:26,960 --> 00:21:31,960
Is de overheid wel ingesteld op een overbloed aan bezwaarschriften die bijvoorbeeld binnen gaat komen?

322
00:21:31,960 --> 00:21:37,960
Misschien gaan ze zelf dan ook wel eens een soort taalmodel daarvoor moeten integreren.

323
00:21:37,960 --> 00:21:41,960
Dit zijn fundamentele vraagstukken.

324
00:21:41,960 --> 00:21:43,960
Vind ik wel een hele mooie.

325
00:21:43,960 --> 00:21:47,960
Dat je inderdaad ook nadenkt van niet alleen hoe je je in het in kan zetten,

326
00:21:47,960 --> 00:21:53,640
Maar ook, zeg maar, hoe het jou kan gaan beïnvloeden, wat daar op je af gaat komen.

327
00:21:53,640 --> 00:21:55,340
Ja, mooi.

328
00:21:55,340 --> 00:22:00,360
Er wordt natuurlijk vaak gedacht aan wat kan ik de deur uit doen.

329
00:22:00,360 --> 00:22:03,360
Maar ik zou ook eens nadenken over wat je allemaal binnen kan gaan krijgen.

330
00:22:03,360 --> 00:22:05,560
Natuurlijk hadden we het al even kort over spam natuurlijk.

331
00:22:05,560 --> 00:22:09,440
Je kan ook veel betere spam nu gaan verwachten.

332
00:22:09,440 --> 00:22:12,760
Maar ik denk dat we de luisteraar mooi achter kunnen laten.

333
00:22:12,760 --> 00:22:16,600
Dat je ze direct eens even nadenkt van, ja, wat kan je inderdaad binnen krijgen?

334
00:22:16,720 --> 00:22:20,520
binnen jouw organisatie. Een hele mooie afsluiter.

335
00:22:20,520 --> 00:22:22,020
Dank je wel, Mark. - Dank je.

336
00:22:22,020 --> 00:22:24,520
Dank je wel dat je weer onze gast wilde zijn.

337
00:22:24,520 --> 00:22:27,920
Mis geen aflevering van ons.

338
00:22:27,920 --> 00:22:32,120
Abonneer je met je boel in je favoriete podcast-app.

339
00:22:32,120 --> 00:22:36,020
En mis geen aflevering. Je krijgt vanzelf een seintje zodra je geabonneerd bent,

340
00:22:36,020 --> 00:22:38,020
als er een nieuwe aflevering online staat.

341
00:22:38,020 --> 00:22:39,720
Nogmaals, Mark, dank je wel.

342
00:22:39,720 --> 00:22:42,520
Leuk dat je weer aanwezig wilde zijn.

343
00:22:42,520 --> 00:22:45,320
Geniet er altijd van jouw input.



People on this episode