AIToday Live

S05E20 - Een blik op de toekomst van AI en ChatGPT - Marc van Meel

Info Support AIToday Season 5 Episode 20

In deze aflevering van de AIToday Live podcast duiken Joop Snijder, Niels Naglé en Marc van Meel (AI & Ethics Leads, KPMG) in de actuele ontwikkelingen rondom ChatGPT en generatieve AI. 

Ze bespreken de noodzaak van regulering en verantwoord gebruik, de rol van prompt engineering en de uitdagingen op het gebied van authenticatie en beveiliging. 

Daarnaast gaan ze in op ethische vraagstukken zoals digitale tweelingen en de verschuiving naar meer lokale en gespecialiseerde AI-systemen. 

Luister mee en krijg een dieper inzicht in de toekomst van AI en hoe we een symbiotische relatie tussen mens en machine kunnen bevorderen!

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:01,000
Let's go!

2
00:00:01,000 --> 00:00:06,800
Leuk dat je weer luistert naar een nieuwe aflevering van de AIToday Live.

3
00:00:06,800 --> 00:00:09,700
Mijn naam is Joop Snijder, CTO bij Aigency.

4
00:00:09,700 --> 00:00:13,100
En mijn naam Niels Naglé, Chapter Lead Data & AI bij Info Support.

5
00:00:13,100 --> 00:00:18,300
En we hebben een vriend van de show, mag ik wel zeggen, in de aflevering, Marc van Meel.

6
00:00:18,300 --> 00:00:23,000
Online, want je kon helaas er even niet bij zijn in de studio.

7
00:00:23,000 --> 00:00:27,100
Marc, zou je je misschien nog even willen voorstellen aan de luisteraars...

8
00:00:27,100 --> 00:00:30,580
die misschien de eerste twee delen met jou niet gehoord hebben.

9
00:00:30,580 --> 00:00:35,540
Ja, natuurlijk. Vriend van de show, dat vind ik een hele eer. Dank jullie wel.

10
00:00:35,540 --> 00:00:42,780
Inderdaad, heel erg kort. Mijn naam is Marc van Meel en ik werk voor KPMG.

11
00:00:42,780 --> 00:00:49,100
En eigenlijk heel erg kort gezegd helpen wij organisaties met hun AI-systemen

12
00:00:49,100 --> 00:00:51,140
en algoritmes betrouwbaar maken.

13
00:00:51,140 --> 00:00:53,700
Dat doen wij in de vorm van audit, maar ook adviesopdrachten.

14
00:00:54,020 --> 00:01:02,820
Ja, en we hadden jou uitgenodigd om eens te kijken of wij over de hype van ChatGPT kunnen spreken.

15
00:01:02,820 --> 00:01:06,220
Jij gaf aan van, zijn we al voorbij de hype?

16
00:01:06,220 --> 00:01:07,220
Toch?

17
00:01:07,220 --> 00:01:09,220
Ja, klopt.

18
00:01:09,220 --> 00:01:14,020
Trouwens, voordat we beginnen, wil ik me even van het moment gebruikmaken om jullie te feliciteren.

19
00:01:14,020 --> 00:01:19,820
Ik zag dat jullie 50 afleveringen gemaakt hadden en dat vond ik toch wel een compliment waard.

20
00:01:19,820 --> 00:01:20,820
Ja, dank je wel.

21
00:01:20,820 --> 00:01:24,820
Dat was ook een leuke verrassing voor ons inderdaad, dat het voor ons georganiseerd is.

22
00:01:24,820 --> 00:01:30,820
Ja, absoluut. Wij werden vandaag verrast in onze organisatie met taart, met een award, met alles erop en eraan.

23
00:01:30,820 --> 00:01:33,820
We zeiden net wel, we voelen ons wel een beetje jarig.

24
00:01:33,820 --> 00:01:37,820
Dus we zijn 50 geworden.

25
00:01:37,820 --> 00:01:40,820
Dat is nog even gelukkig.

26
00:01:40,820 --> 00:01:42,820
Oh, sorry.

27
00:01:42,820 --> 00:01:46,820
Waren het 50 afleveringen of 50 jarigen?

28
00:01:46,820 --> 00:01:48,820
Ja, afleveringen.

29
00:01:48,820 --> 00:01:49,820
Ja, 50 afleveringen.

30
00:01:49,820 --> 00:01:51,820
Ja, plus inmiddels alweer.

31
00:01:51,820 --> 00:01:53,820
Maar voorbij de hype.

32
00:01:53,820 --> 00:01:57,820
We zitten volgens mij inderdaad, wat Niels zegt, nog niet op de top.

33
00:01:57,820 --> 00:02:01,820
Maar we wilden eens even kijken of we met z'n drieën erover zouden kunnen hebben van

34
00:02:01,820 --> 00:02:04,820
stel, deze hype moet een keer overgaan.

35
00:02:04,820 --> 00:02:06,820
Wat houden we dan over?

36
00:02:06,820 --> 00:02:08,820
Heb jij enig idee?

37
00:02:08,820 --> 00:02:11,820
Ja, dat is een goede vraag.

38
00:02:11,820 --> 00:02:15,820
Ik denk dat we nog steeds in de hype zitten.

39
00:02:15,820 --> 00:02:21,060
Dat is ook een van de redenen waarom ik bijvoorbeeld nu nog even geen blogpost schrijf.

40
00:02:21,060 --> 00:02:26,020
Die gaan verloren in de zee van Chet GPT artikelen natuurlijk.

41
00:02:26,020 --> 00:02:29,060
En generatieve AI nieuws.

42
00:02:29,060 --> 00:02:34,620
Ik denk wel als je ook het nieuws een beetje volgt dat de hype nog niet afgekoeld is.

43
00:02:34,620 --> 00:02:40,340
Maar je ziet nu wel steeds meer een shift naar misschien wel de noodzaak voor regulering.

44
00:02:40,340 --> 00:02:47,140
Je ziet allerlei memo's oppoppen bij organisaties over verantwoord gebruik van dit soort tooling.

45
00:02:47,140 --> 00:02:55,940
Dus ja nogmaals, je ziet een soort shift naar hoe kunnen we deze technologie nou verantwoord inzetten.

46
00:02:55,940 --> 00:03:02,060
Volgens mij is dat een heel erg logische reactie op natuurlijk al het geweld van de mogelijkheden.

47
00:03:02,060 --> 00:03:08,540
Ja, want zelfs bij de EU-act hebben ze wat aanpassingen gedaan, klopt dat?

48
00:03:08,540 --> 00:03:14,900
Ik weet dat meerdere vlakken ermee bezig zijn, ook vanuit Europa.

49
00:03:14,900 --> 00:03:18,740
Ik zat toevallig deze week te kijken naar een hearing in Amerika.

50
00:03:18,740 --> 00:03:22,100
Die zijn over het algemeen erg vermakelijk om naar te kijken.

51
00:03:22,100 --> 00:03:26,580
Dat weten jullie misschien ook wel met TikTok, natuurlijk, recent.

52
00:03:26,580 --> 00:03:35,420
Waar ook de CEO van OpenAI, Sam Altman, opriep tot regulering en zelfs ook audits van dit

53
00:03:35,420 --> 00:03:37,620
soort modellen door derde partijen.

54
00:03:37,620 --> 00:03:40,900
Cool, wat was zijn redenatie daarachter?

55
00:03:40,900 --> 00:03:41,900
Waarom dat nodig wordt?

56
00:03:41,900 --> 00:03:48,780
Volgens mij is zijn redenatie kortweg gezegd, gelooft hij nog steeds dat de benefits, de

57
00:03:48,780 --> 00:03:54,260
mogelijkheden, veel zwaarder wegen dan de potentiële gevaren, om het zo maar te zeggen.

58
00:03:54,260 --> 00:04:00,580
Maar hij is wel van mening en ik denk meerdere partijen dat het wel op een verantwoorde manier

59
00:04:00,580 --> 00:04:01,580
ingezet moet worden.

60
00:04:01,580 --> 00:04:06,180
We hebben natuurlijk afgelopen tijd, het zijn er nog niet legio, maar wel al een aantal,

61
00:04:06,180 --> 00:04:11,180
zou het schandalen kunnen noemen gezien bijvoorbeeld bij Samsung meen ik mij te herinneren.

62
00:04:11,180 --> 00:04:17,980
Een aantal medewerkers, toch wel schematics meen ik, een semiconductor of bedrijfsgevoelige

63
00:04:17,980 --> 00:04:20,940
informatie hadden geüpload in de publieke versie.

64
00:04:20,940 --> 00:04:29,300
Volgens mij ook kort nadat Samsung, laten we het zeggen, de ban had weggehaald op het

65
00:04:29,300 --> 00:04:30,300
gebruik van chatgpt.

66
00:04:30,300 --> 00:04:31,300
Dat was natuurlijk weer jammer.

67
00:04:31,300 --> 00:04:33,740
Ik meen dat ze hem daarna weer ingevoerd hadden.

68
00:04:33,740 --> 00:04:34,740
Ja, begrijpelijk.

69
00:04:34,740 --> 00:04:41,460
begrijpelijk. Je kan je er wat bij voorstellen. Ja, dat was erg jammer natuurlijk voor de alle andere

70
00:04:41,460 --> 00:04:48,340
collega's bij Samsung natuurlijk. In Italië kwam ook even natuurlijk recent te sprake. Ja, die ook

71
00:04:48,340 --> 00:04:55,380
een ban hadden gezet op het gebruik van en volgens mij nog steeds hebben. Ja, klopt. Volgens mij hadden

72
00:04:55,380 --> 00:05:03,220
ze OpenAI een deadline gegeven om transparant te zijn over wat er exact met de data gebeurt.

73
00:05:03,220 --> 00:05:12,220
Ja, dus je ziet steeds meer en het is ook uit het bedrijfsleven zelf de oproep naar duidelijkheid eigenlijk.

74
00:05:12,220 --> 00:05:19,220
Ja, en daar zijn we denk ik wel naartoe aan het bewegen dat we dat inderdaad steeds meer nodig hebben.

75
00:05:19,220 --> 00:05:25,220
Omdat je uiteindelijk afwegingen wil maken van welke applicaties je uiteindelijk wil gaan ontwikkelen natuurlijk.

76
00:05:25,220 --> 00:05:30,820
Ja, en het gebruik ook enorm toeneemt met die hype die nog steeds bezig is...

77
00:05:30,820 --> 00:05:33,020
en we nog naar de piek toe moeten volgens mij met die hype...

78
00:05:33,020 --> 00:05:35,420
is dat we ook steeds meer mensen het zien gebruiken.

79
00:05:35,420 --> 00:05:38,320
Dus dat de noodzaak van degenen die wat verder van de techniek staan...

80
00:05:38,320 --> 00:05:40,820
niet helemaal begrijpen wanneer je hem wel of niet zou moeten toepassen...

81
00:05:40,820 --> 00:05:42,020
het ook gaan gebruiken.

82
00:05:42,020 --> 00:05:47,020
Dus daarbij regulering ook wel van essentieel belang is dat hij er gaat komen.

83
00:05:47,020 --> 00:05:51,120
Ja, ik vond het wel opvallend, want Google Bart is natuurlijk nu uitgekomen.

84
00:05:51,120 --> 00:05:53,120
Daar mogen wij geen gebruik van maken...

85
00:05:53,140 --> 00:05:59,340
omdat Google eigenlijk al de inschatting heeft gemaakt van dit voldoet niet aan het GDPR, aan onze AVG.

86
00:05:59,340 --> 00:06:02,140
Dat is natuurlijk best wel veelzeggend.

87
00:06:02,140 --> 00:06:06,940
Ja klopt, daar heb je gelijk in.

88
00:06:06,940 --> 00:06:13,340
Ik denk wel, ZGPT heeft wel een soort first movement of first runner advantage.

89
00:06:13,340 --> 00:06:17,340
Ik denk als ik Google zou zijn, zou ik me ook echt wel druk maken.

90
00:06:17,340 --> 00:06:20,740
Google is natuurlijk eigenlijk een information broker.

91
00:06:20,740 --> 00:06:25,780
Maar zoeken, query is ook een groot deel van hun business model natuurlijk.

92
00:06:25,780 --> 00:06:29,220
Ik meen dat ze in het verleden ook al zo'n code rood memo hadden.

93
00:06:29,220 --> 00:06:31,980
Die was uitgelekt, meen ik.

94
00:06:31,980 --> 00:06:37,740
Je ziet andere partijen nu ook met, volgens mij ook Facebook, met Lama en andere partijen

95
00:06:37,740 --> 00:06:38,940
met dit soort modellen komen.

96
00:06:38,940 --> 00:06:45,940
Ik denk dat een genuanceerde discussie, dus inderdaad hoe kunnen we een verantwoord inzetten,

97
00:06:45,940 --> 00:06:48,740
ethisch verantwoord en in overigens stemming met regulering.

98
00:06:48,740 --> 00:06:56,100
dat dat de juiste discussie is. In de media zie je twee kampen. Dus je ziet de doomsayers,

99
00:06:56,100 --> 00:07:02,780
die willen het verbennen. Natuurlijk die brief van Elon Musk die hij had ondertekend komt in

100
00:07:02,780 --> 00:07:08,060
mijn gedachte op. En aan de andere uiterste heb je natuurlijk de mensen die, laten we het zeggen,

101
00:07:08,060 --> 00:07:12,660
bijna een grotelijke general artificial intelligence mogelijkheden toedichten aan

102
00:07:12,660 --> 00:07:20,420
dit soort systemen. Ik denk dat die polarisatie in de media op LinkedIn etc niet helpt. Ik denk

103
00:07:20,420 --> 00:07:24,140
dat we veel beter een genuanceerde discussie kunnen voeren over hoe kunnen we inderdaad op

104
00:07:24,140 --> 00:07:30,940
een betrouwbare verantwoorde manier dit soort taalmodellen en generatieve AI in het algemeen

105
00:07:30,940 --> 00:07:37,100
inzetten. Zodat bedrijven daar verantwoord mee om kunnen gaan en het niet te kosten gaat van

106
00:07:37,100 --> 00:07:39,740
van medewerkers, burgers, etc.

107
00:07:39,740 --> 00:07:45,940
En hoe kijk je aan tegen de ontwikkeling rondom de promptengineering?

108
00:07:45,940 --> 00:07:48,700
Want daar zie je natuurlijk heel veel in ontstaan.

109
00:07:48,700 --> 00:07:52,460
Zelf denk ik, maar dan ben ik heel erg benieuwd hoe jij er tegen aankijkt,

110
00:07:52,460 --> 00:07:55,660
dat het van tijdelijke aard is dat we het hier over hebben.

111
00:07:55,660 --> 00:08:02,100
Dus op social media worden allemaal van de ene naar de andere lijsten van prompts gedeeld.

112
00:08:02,100 --> 00:08:04,980
Van dit moet je doen en zo pak je dat aan.

113
00:08:04,980 --> 00:08:12,540
Denk je niet dat we over, nou ja, weet ik veel, een jaar, twee jaar of zo, dat we het er helemaal niet meer over hebben...

114
00:08:12,540 --> 00:08:18,060
dat de intentie van wat wij willen van dat systeem, dat het zover is aangeleerd...

115
00:08:18,060 --> 00:08:23,260
dat dat hele promptengineering voor jou als gebruiker eigenlijk niet meer zo heel erg relevant is?

116
00:08:23,260 --> 00:08:27,700
Ja, je zei zelf dat je er niet in geloofde. Klopt dat?

117
00:08:27,700 --> 00:08:29,700
Ben ik wel benieuwd naar...

118
00:08:29,700 --> 00:08:33,700
Nee, ik geloof er dus niet in dat je al die promptengineering...

119
00:08:33,700 --> 00:08:37,900
Kijk, nu heb je dan even een voorsprong, maar ik denk dat dat afneemt...

120
00:08:37,900 --> 00:08:40,900
en dat we dat straks veel minder nodig hebben.

121
00:08:40,900 --> 00:08:45,100
Waarom denk je dat? Ik ben gewoon even benieuwd hoor.

122
00:08:45,100 --> 00:08:48,300
Ik heb een idee, maar ik ben ook wel benieuwd wat jullie denken.

123
00:08:48,300 --> 00:08:54,100
Nou, zeg maar, zowel aan de voorkant als de achterkant van dit soort taalmodellen...

124
00:08:54,100 --> 00:08:55,500
wordt steeds meer getraind.

125
00:08:55,500 --> 00:09:05,060
Dus we zien aan de achterkant dat OpenAI zet natuurlijk heel veel effort in,

126
00:09:05,060 --> 00:09:10,460
steekt er heel veel geld in om de juiste antwoorden te geven bij de vragen die gesteld worden.

127
00:09:10,460 --> 00:09:12,940
En dat wordt heel veel mensenwerk.

128
00:09:12,940 --> 00:09:17,780
Dus er worden antwoorden gegenereerd en mensen zitten allemaal te beoordelen van

129
00:09:17,780 --> 00:09:20,020
dit vind ik wel goed, dit vind ik niet goed.

130
00:09:20,020 --> 00:09:30,700
Er worden mensen ingehuurd om zelfs Q&A, echt vraag-antwoord-paren, op te geven in het domein waar ze expert in zijn.

131
00:09:30,700 --> 00:09:33,820
Ik denk dat we dat aan de voorkant eigenlijk ook gaan krijgen.

132
00:09:33,820 --> 00:09:41,500
Dus dat de vragen, van minder complexe vragen, voorzien worden van extra informatie door mensen,

133
00:09:41,500 --> 00:09:49,780
waardoor je met eenvoudigere vragen nog steeds, zeg maar, vertaald wordt naar complexe pronts.

134
00:09:49,780 --> 00:09:53,180
en daardoor dus ook goede duidelijke antwoorden krijgt.

135
00:09:53,180 --> 00:09:55,580
Is dat een beetje begrijpelijk?

136
00:09:55,580 --> 00:09:59,340
Het is een lange weg naar het punt dat je wilde maken.

137
00:09:59,340 --> 00:10:03,900
Ik denk dat ik dat beeld wel beaam.

138
00:10:03,900 --> 00:10:08,660
Waardoor het eigenlijk makkelijker wordt om een vraag te stellen...

139
00:10:08,660 --> 00:10:10,580
zonder dat je al die complexe prompts nodig hebt...

140
00:10:10,580 --> 00:10:13,660
omdat we eigenlijk steeds meer weten waarvoor we het model kunnen gebruiken...

141
00:10:13,660 --> 00:10:16,620
maar dat ook de modelontwikkelingen zo goed zijn...

142
00:10:16,640 --> 00:10:19,760
dat ze de kern kunnen komen tot wat je wilt bereiken.

143
00:10:19,760 --> 00:10:21,840
Dat is mijn hypothese in ieder geval.

144
00:10:21,840 --> 00:10:23,640
Hoe zie jij dat, Marc?

145
00:10:23,640 --> 00:10:26,840
Ja, ik vind dat je heel goed punt aanraakt.

146
00:10:26,840 --> 00:10:29,640
Dus het heeft te maken met eigenlijk het feit...

147
00:10:29,640 --> 00:10:33,960
als je dit soort modellen, en laten we even ChatGPT als voorbeeld pakken...

148
00:10:33,960 --> 00:10:38,360
een simpele vraag stelt, dus een simpele prompt meegeeft...

149
00:10:38,360 --> 00:10:40,640
dan krijg je ook vaak een heel simpel antwoord.

150
00:10:40,640 --> 00:10:44,680
Dus eigenlijk is het zonde om ChatGPT simpele vragen te stellen...

151
00:10:44,720 --> 00:10:50,680
want er zit inderdaad een neuraal netwerk achter en die doen het over het algemeen veel beter op

152
00:10:50,680 --> 00:10:57,280
complexe vragen, dus lange prompts. Voor de data scientist out there, waarom zou je een

153
00:10:57,280 --> 00:11:02,640
neuraal netwerk lastig vallen met linearity, met lineaire simpele data? Hij is juist gebouwd om

154
00:11:02,640 --> 00:11:08,240
complexe verbanden te vinden. Dus wat je nou bijvoorbeeld ziet, dat noemen ze super prompts.

155
00:11:08,240 --> 00:11:15,600
Dus dat zijn inderdaad heel erg lange, heel erg complexe prompts die het model dus dwingen,

156
00:11:15,600 --> 00:11:22,320
zou je kunnen zeggen, te zoeken naar een bepaalde oplossing in de gigantische grote solution

157
00:11:22,320 --> 00:11:23,920
space van het model.

158
00:11:23,920 --> 00:11:27,000
Dus complexe vragen geven ook meer complexe antwoorden.

159
00:11:27,000 --> 00:11:29,200
En dat is vaak wat je wil.

160
00:11:29,200 --> 00:11:33,320
Niet die generieke Google vragen, die moet je juist niet stellen aan het model.

161
00:11:33,320 --> 00:11:40,720
Ik heb wel voorbeelden gezien van iemand neefje die kan een veel betere prompt bedenken

162
00:11:40,720 --> 00:11:41,720
dan ik.

163
00:11:41,720 --> 00:11:44,440
Ook met Mid Journey bijvoorbeeld.

164
00:11:44,440 --> 00:11:48,120
Dus modellen die tekst naar plaatjes omzetten.

165
00:11:48,120 --> 00:11:52,160
Ik heb jongeren gezien die krijgen al veel betere resultaten dan ik.

166
00:11:52,160 --> 00:11:56,160
Jij stelt een interessante vraag.

167
00:11:56,160 --> 00:12:03,640
Eigenlijk stel je de vraag, gaan wij in de toekomst zelf die complexe prompts allemaal

168
00:12:03,640 --> 00:12:04,640
maken?

169
00:12:04,640 --> 00:12:09,000
Of komt daar nog een soort van vereenvoudigingsstap tussen?

170
00:12:09,000 --> 00:12:11,200
Als ik je goed begrijp.

171
00:12:11,200 --> 00:12:13,840
Ja, dat is eigenlijk wat ik vraag.

172
00:12:13,840 --> 00:12:19,200
Ik denk dat we van prompts niet zo snel afkomen.

173
00:12:19,200 --> 00:12:25,960
In de zin dat prompts de enige manier zijn die we nu hebben om te interacteren met taalmodellen.

174
00:12:25,960 --> 00:12:30,260
Dus je zou kunnen zeggen dit is de manier om die TAM-modellen te programmeren.

175
00:12:30,260 --> 00:12:38,460
Ik weet ook dat ze bijvoorbeeld allerlei safety en allerlei restricties van tevoren ook meegeven in de vorm van een prompt.

176
00:12:38,460 --> 00:12:41,560
Dus dat is een soort prompt achter de schermen, die zie jij niet.

177
00:12:41,560 --> 00:12:46,760
Maar die hebben ze al meegegeven aan ChatGPT voordat jij zelf kan prompten.

178
00:12:46,760 --> 00:12:50,660
Het heeft natuurlijk een Q&A interface, question answer interface.

179
00:12:50,660 --> 00:12:55,460
Dus in dat opzicht is het heel erg logisch dat het ook op die manier gebeurt.

180
00:12:55,460 --> 00:12:59,180
Ik vergelijk het zelf een beetje met low-code.

181
00:12:59,180 --> 00:13:06,440
Het idee is wel eens dat je low-code wil marketen aan mensen die zelf niet kunnen programmeren

182
00:13:06,440 --> 00:13:07,440
bijvoorbeeld.

183
00:13:07,440 --> 00:13:13,460
Maar in mijn opinie is low-code juist uitermate geschikt voor mensen die al wel kunnen programmeren,

184
00:13:13,460 --> 00:13:17,260
maar juist een extra assistent of een hulpje zouden kunnen gebruiken.

185
00:13:17,260 --> 00:13:23,540
Dus mensen die zelf in staat zijn om wel degelijk uit te drukken, al dan niet in de vorm van

186
00:13:23,540 --> 00:13:29,620
complexe input wat ze eigenlijk willen en ook de output kunnen beoordelen.

187
00:13:29,620 --> 00:13:32,220
Misschien om je vraag, ik ga nog even een stap verder als ik mag.

188
00:13:32,220 --> 00:13:33,220
Ja graag.

189
00:13:33,220 --> 00:13:38,140
Op het level van de organisatie denk ik, je zou aan de ene kant kunnen denken, organisaties

190
00:13:38,140 --> 00:13:40,780
worden nou generalistischer, want je kan nou meer zelf.

191
00:13:40,780 --> 00:13:46,260
Ik denk juist dat organisaties nog gespecialiseerder worden in de zin van dat ze nog beter hun

192
00:13:46,260 --> 00:13:55,020
core competenties kunnen uitvoeren met behulp van AI en niet zelf allerlei dingen kunnen.

193
00:13:55,020 --> 00:13:57,100
Dus juist meer dingen gaan outsourcen eigenlijk.

194
00:13:57,100 --> 00:13:59,740
Kun je daar een voorbeeld van geven om het concreet te maken?

195
00:13:59,740 --> 00:14:04,820
Ja, bijvoorbeeld stel je bent een logistiek bedrijf en waar ben jij goed in?

196
00:14:04,820 --> 00:14:06,980
Jouw core competentie is logistiek.

197
00:14:06,980 --> 00:14:11,740
Dus jij zou best een model kunnen gebruiken om jouw routes nog te optimaliseren.

198
00:14:11,740 --> 00:14:17,740
Maar misschien heb je niet zoveel kaas gegeten van het verkennen van nieuwe markten bijvoorbeeld.

199
00:14:17,740 --> 00:14:20,700
Wat zou een interessante markt zijn om ook actief in te worden?

200
00:14:20,700 --> 00:14:21,900
Bijvoorbeeld Spanje, ik noem maar wat.

201
00:14:21,900 --> 00:14:26,340
Nou, over het algemeen hoe je daar een externe partij over in of een consultant.

202
00:14:26,340 --> 00:14:32,660
Ik denk niet door de introductie van dit soort modellen dat zo'n organisatie zelf

203
00:14:32,660 --> 00:14:35,780
opeens ook een marketing expert wordt.

204
00:14:35,780 --> 00:14:40,100
Sterker nog, ik denk dat die marketingpartij die ze bijvoorbeeld al helpt,

205
00:14:40,100 --> 00:14:46,020
nog beter wordt. Dus dat er nog meer emphasis komt om het juist te outsourcen en jezelf nog

206
00:14:46,020 --> 00:14:50,900
meer kan focussen op je core competenties noem ik het dan maar. Ja ik kan me daar heel goed in vinden

207
00:14:50,900 --> 00:14:56,300
want jij haalde net dat je neefje aan over de mid-journey. Ik ben er zelf ook wel eens mee

208
00:14:56,300 --> 00:15:01,700
bezig geweest en om niet alleen zeg maar gewoon een plaatje te krijgen wat er een beetje goed

209
00:15:01,700 --> 00:15:06,620
uitziet maar ook nog eens een keer wat in mijn hoofd zit. Nou trouwens wat in mijn hoofd zat,

210
00:15:06,620 --> 00:15:08,940
Dat kreeg ik überhaupt niet op beeld.

211
00:15:08,940 --> 00:15:12,180
Maar wat je gaat zien is dat je, ik denk dat je daar naartoe gaat...

212
00:15:12,180 --> 00:15:14,020
van dat je heel specialistisch wordt...

213
00:15:14,020 --> 00:15:17,860
in een heel goed gebruik maken van die generatieve AI.

214
00:15:17,860 --> 00:15:22,300
En omdat je dat vak beheerst, volgens mij is dat wat je zegt...

215
00:15:22,300 --> 00:15:25,380
kan je dat gebruiken om nog beter te worden in je vak...

216
00:15:25,380 --> 00:15:30,220
waardoor je je klant of wie je dan ook bedient...

217
00:15:30,220 --> 00:15:31,980
dat je die steeds beter kan bedienen.

218
00:15:31,980 --> 00:15:36,100
Je eigen expertise wordt dus eigenlijk uitvergroot.

219
00:15:36,100 --> 00:15:39,260
door de ondersteuning die je er extra bij krijgt.

220
00:15:39,260 --> 00:15:41,460
Is dat wat je zegt?

221
00:15:41,460 --> 00:15:42,980
Ja, eigenlijk wel.

222
00:15:42,980 --> 00:15:45,460
Ik zie een soort...

223
00:15:45,460 --> 00:15:47,460
Er is ook veel discussie nu over...

224
00:15:47,460 --> 00:15:49,940
gaat het mijn baan vervangen bijvoorbeeld.

225
00:15:49,940 --> 00:15:53,220
Sommige sectoren zou ik me wel druk maken.

226
00:15:53,220 --> 00:15:55,220
Stel je bent bijvoorbeeld een model...

227
00:15:55,220 --> 00:15:58,420
of misschien doe je alleen maar tekstverwerking...

228
00:15:58,420 --> 00:16:01,540
dan zou ik wel een beetje nerveus worden.

229
00:16:01,540 --> 00:16:03,540
Maar over het algemeen...

230
00:16:03,540 --> 00:16:10,500
Als jij taken uitvoert waar veel cognitieve vaardigheden voor nodig zijn,

231
00:16:10,500 --> 00:16:12,500
zie ik eerder een soort symbiose.

232
00:16:12,500 --> 00:16:15,740
Dat jij ondersteund wordt door een model.

233
00:16:15,740 --> 00:16:21,100
Dat kan een taalmodel zijn, dat kan een model zijn wat visueel of audio genereert.

234
00:16:21,100 --> 00:16:27,180
Dus ik zie steeds meer een soort hybride situatie, mens en machine.

235
00:16:27,180 --> 00:16:34,100
En dat wat je zegt, als je fotomodel bent, dan zou ik wel licht zenuwachtig worden.

236
00:16:34,100 --> 00:16:35,340
Gelukkig ben ik dat niet.

237
00:16:35,340 --> 00:16:36,340
Ik ook niet.

238
00:16:36,340 --> 00:16:43,020
Je ziet op de modellen, vroeger had je ook mensen die waren model voor handen.

239
00:16:43,020 --> 00:16:49,700
Die markt is volgens mij ook al heel lang vervangen door gegenereerde handen.

240
00:16:49,700 --> 00:16:52,220
Dat zie je op veel websites, bijvoorbeeld horloge websites.

241
00:16:52,220 --> 00:16:54,140
Die zijn vaak gerenderd.

242
00:16:54,140 --> 00:16:56,260
Dat zijn niet echt de handen meer.

243
00:16:56,260 --> 00:16:59,260
De broodjes vaak ook helemaal niet meer echt is, ook een rendering.

244
00:16:59,260 --> 00:17:01,260
Ja, auto's trouwens ook.

245
00:17:01,260 --> 00:17:04,660
Als je een auto koopt en je zit in de brochure te kijken,

246
00:17:04,660 --> 00:17:07,260
dat heeft niets te maken met foto's van een echte auto.

247
00:17:07,260 --> 00:17:13,660
Dat is misschien wel aardig, want wat ik in mijn omgeving hoor,

248
00:17:13,660 --> 00:17:20,260
is van hoe kunnen we nog zo direct het verschil zien tussen wat echt is en wat niet echt is.

249
00:17:20,260 --> 00:17:22,760
En dan moet ik best wel heel vaak aan dit soort dingen denken.

250
00:17:22,760 --> 00:17:27,760
Eigenlijk zelfs het fotomodel op de cover van een blad is alleen maar niet echt.

251
00:17:27,760 --> 00:17:31,760
De foto's van de horloges die je aanhaalt, de auto's, niet meer echt.

252
00:17:31,760 --> 00:17:36,760
Dus in hoeverre is het een nieuw probleem?

253
00:17:36,760 --> 00:17:44,760
Ja, ik denk dat we al heel erg lang voor de gek worden gehouden, zou je kunnen zeggen.

254
00:17:44,760 --> 00:17:48,760
Dus je zou een fundamentele discussie kunnen voeren, misschien ook al een filosofische discussie,

255
00:17:48,760 --> 00:17:54,760
of wat er uit chatgpt komt nou echt is of dat plaatjes echt zijn.

256
00:17:54,760 --> 00:17:59,160
Je zou het pragmatische argument kunnen maken dat als je het verschil niet meer kan zien,

257
00:17:59,160 --> 00:18:00,760
maakt het überhaupt wel uit.

258
00:18:00,760 --> 00:18:03,360
Dat is een beetje een pragmatische take.

259
00:18:03,360 --> 00:18:09,460
Wat wel grappig is met bijvoorbeeld chatgpt is dat we eigenlijk iets hebben gecreëerd

260
00:18:09,460 --> 00:18:11,660
wat niet meer te onderscheiden is van een mens.

261
00:18:11,660 --> 00:18:13,560
Het haalt de Turing test.

262
00:18:13,560 --> 00:18:16,860
Je kan een conversatie met een chatbot voeren waarvan je eigenlijk niet meer weet

263
00:18:16,860 --> 00:18:18,060
of het nou een mens is of niet.

264
00:18:18,560 --> 00:18:20,560
Maar mensen begrijpen we ook niet.

265
00:18:20,560 --> 00:18:24,140
Dus we hebben iets gecreëerd wat niet te onderscheiden is van een mens,

266
00:18:24,140 --> 00:18:26,880
maar wat we eigenlijk allebei niet begrijpen.

267
00:18:26,880 --> 00:18:30,120
Dat vind ik wel grappig om daarover na te denken.

268
00:18:30,120 --> 00:18:33,400
Ja, ik moet denken aan toen je dat zei,

269
00:18:33,400 --> 00:18:34,600
inderdaad, kunnen we dat nog begrijpen,

270
00:18:34,600 --> 00:18:37,760
naar een talk van Babbage vanuit de UK,

271
00:18:37,760 --> 00:18:43,200
waar inderdaad wel onderzoeken plaatsvinden van bepaalde intonaties van voices.

272
00:18:43,200 --> 00:18:45,960
Nu hebben we kans op scamming en dat soort zaken,

273
00:18:45,960 --> 00:18:49,280
maar dadelijk heb je gewoon een telefoontje van een goede vriend of familielid...

274
00:18:49,280 --> 00:18:52,960
die jou belt met de stem van die persoon die bepaalde hulp vraagt.

275
00:18:52,960 --> 00:18:57,040
Dat er dus nu onderzoek wordt gedaan hoe we dat kunnen detecteren.

276
00:18:57,040 --> 00:19:00,400
En dat er soms, op dit moment in ieder geval, in de modellen nog zo zit...

277
00:19:00,400 --> 00:19:06,600
dat bepaalde klanken die wij als mens niet eens kunnen maken, maar machines wel...

278
00:19:06,600 --> 00:19:09,680
dat ze daaraan kunnen herkennen aan een fractie van een stukje geluid...

279
00:19:09,680 --> 00:19:12,600
dat ze dat kunnen plotten van nee, dit is een computer.

280
00:19:12,620 --> 00:19:16,820
Want met ons fysiek bouw kunnen wij dat geluid niet maken.

281
00:19:16,820 --> 00:19:21,220
En ik denk dat dat onderzoek, dat zulke soort onderzoeken steeds meer van belang zijn.

282
00:19:21,220 --> 00:19:25,820
En in het systeem eigenlijk vertrouwen moeten kunnen bouwen.

283
00:19:25,820 --> 00:19:31,620
Dat als ik een telefoontje krijg, dat het voor mij gevalideerd wordt of ik met een echt persoon praat.

284
00:19:31,620 --> 00:19:35,620
En ik denk dat we daar, daar hebben we het net ook over gehad, regulering, ook op dat soort zaken,

285
00:19:35,620 --> 00:19:40,220
denk ik dat we zaken moeten gaan inbouwen waar we dat vertrouwen willen hebben in het systeem.

286
00:19:40,220 --> 00:19:41,820
Dat we daarop komen met oplossingen.

287
00:19:41,820 --> 00:19:49,500
Ja klopt, ik weet toevallig, spam filters die werken over het algemeen heel erg goed.

288
00:19:49,500 --> 00:19:54,380
Ik meen zelfs dat het merendeel van al het e-mail verkeer ter wereld is ook spam.

289
00:19:54,380 --> 00:19:58,340
En dat wordt er al uit gefilterd voordat het überhaupt in jouw mailbox komt.

290
00:19:58,340 --> 00:20:03,900
Dus als je het over verspilling van resources hebt, dat is er echt even.

291
00:20:03,900 --> 00:20:07,380
Al die spam die eigenlijk nooit ergens landt.

292
00:20:07,380 --> 00:20:10,580
Ik kreeg laatst ook weer een spam mail op mijn KPMG adres.

293
00:20:10,580 --> 00:20:16,060
wilde ja dat was natuurlijk een phishing attempt en dat was een heel slechte email en ik was

294
00:20:16,060 --> 00:20:21,460
eigenlijk wel teleurgesteld over want gegeven dat het schalen aan publiek beschikbare tooling

295
00:20:21,460 --> 00:20:26,740
wat je nu hebt als scam artist kan je eigenlijk niet meer wegkomen met een spam mail met spel

296
00:20:26,740 --> 00:20:33,540
fouten bijvoorbeeld ik had eigenlijk de de lat al hoog gelegd maar je raad je het is wel een goeie

297
00:20:33,540 --> 00:20:38,540
dat is een van de dilemma's misschien ook wel ethische issues die ik zie is dat het wordt

298
00:20:38,540 --> 00:20:41,860
makkelijker om jou voor de gek te houden. Je hebt nu al van die phishing attempts,

299
00:20:41,860 --> 00:20:47,660
dat ze jou nummers spoofen en een mailtje sturen van "Hey man, opa, kan je even 500 euro overmaken,

300
00:20:47,660 --> 00:20:53,900
want ik heb niet betaald." En als ze dan vragen om te bellen, worden die spammers boos. Maar dat

301
00:20:53,900 --> 00:21:01,020
dat zou je nu letterlijk kunnen omzeilen. Maar denk je dat het misschien wel een tijdelijk

302
00:21:01,020 --> 00:21:06,340
probleem zou kunnen zijn? Net zo goed als dat we toen bij de introductie van de e-mail hadden we

303
00:21:06,340 --> 00:21:12,460
dit. Daar is een spam filter voor bedacht. Bij de WhatsApp fraude, weet je, op een gegeven moment

304
00:21:12,460 --> 00:21:18,860
werd dat ook herkend dat we straks, ik weet niet wat, maar dat je als het ware een soort van spam

305
00:21:18,860 --> 00:21:25,300
filter hebt voor gegenereerde spraak waarbij je gewaarschuwd wordt van let op, weet je, dit is

306
00:21:25,300 --> 00:21:34,700
niet echt. Zijn het niet hobbels die we nu moeten daar overheen komen en dat zo direct, zeg maar,

307
00:21:34,700 --> 00:21:38,900
als het ware de echte lange termijn effecten, dat we die eigenlijk nog niet kunnen overzien.

308
00:21:38,900 --> 00:21:43,420
En wat we juist kunnen kunnen voorzien, volgens mij kunnen we daar iets voor maken,

309
00:21:43,420 --> 00:21:48,020
maar wat we nog niet kunnen voorzien, ik denk dat dat een heel stuk spannender is.

310
00:21:48,020 --> 00:21:56,900
Ja klopt, in essentie is het geen nieuw probleem, dat klopt. En wat je misschien ook zou kunnen

311
00:21:56,900 --> 00:22:02,540
doen is in plaats van proberen te detecteren of iets nep is, zou je misschien ook andersom

312
00:22:02,540 --> 00:22:06,380
kunnen denken. Je zou bijvoorbeeld ook een soort watermerk op de een of andere manier kunnen

313
00:22:06,380 --> 00:22:12,580
aanbrengen in wel authentieke berichten. Ik weet bijvoorbeeld dat ze dat bij plaatjes al doen. Ik

314
00:22:12,580 --> 00:22:16,460
weet niet of het Adobe was of een andere organisatie die daar veel onderzoek naar

315
00:22:16,460 --> 00:22:20,580
doet. Is het niet mogelijk om een soort watermerk aan te brengen in een afbeelding,

316
00:22:20,580 --> 00:22:27,100
waarmee als er mee getemperd wordt, als die aangepast zou worden of op video materiaal ook,

317
00:22:27,100 --> 00:22:31,700
dat je dat zou kunnen aantonen omdat het watermerk daarmee verstoord is.

318
00:22:31,700 --> 00:22:36,740
Nou precies en eigenlijk op het gebied van computers, computers praten natuurlijk ook

319
00:22:36,740 --> 00:22:43,340
met elkaar, was het ook heel makkelijk zeg maar om je voor te doen als een andere computer,

320
00:22:43,340 --> 00:22:49,300
daar hebben we ook wat voor bedacht. Dus waarom niet weet je dat je gewoon een echt een authenticatie

321
00:22:49,300 --> 00:22:53,860
krijgt van dit komt echt van de telefoon van mijn vrouw bijvoorbeeld of dit komt echt van

322
00:22:53,860 --> 00:22:55,860
van het telefoon van mijn kind.

323
00:22:55,860 --> 00:22:57,860
Ik denk dat daar best wel

324
00:22:57,860 --> 00:22:59,860
op korte termijn

325
00:22:59,860 --> 00:23:01,860
oplossingen voor komen. Dus nu is dat nog...

326
00:23:01,860 --> 00:23:03,860
Voelt dat als van, ja, maar dat doe je heel makkelijk.

327
00:23:03,860 --> 00:23:05,860
Gelukkig zijn

328
00:23:05,860 --> 00:23:07,860
een heel aantal dieven helemaal niet zo heel erg slim.

329
00:23:07,860 --> 00:23:09,860
Maar ik denk dat

330
00:23:09,860 --> 00:23:11,860
dat de problemen zijn die we best

331
00:23:11,860 --> 00:23:13,860
wel technisch snel oplossen.

332
00:23:13,860 --> 00:23:15,860
De vraag is meer, wat gaat er zo direct

333
00:23:15,860 --> 00:23:17,860
komen? Wat...

334
00:23:17,860 --> 00:23:19,860
Wat... Ja...

335
00:23:19,860 --> 00:23:21,860
Wat we nog niet zien. Dat is altijd een beetje lastig.

336
00:23:21,860 --> 00:23:23,860
- Dat is lastig natuurlijk.

337
00:23:23,860 --> 00:23:26,620
- Dit zijn gewoon zaken die we zo moeten tacklen.

338
00:23:26,620 --> 00:23:28,620
Willen we überhaupt verder komen?

339
00:23:28,620 --> 00:23:31,260
Dus vandaar dat we die zaken wel gaan tacklen.

340
00:23:31,260 --> 00:23:33,860
Hoe, dat weet ik ook nog niet helemaal, maar die gaan we wel tacklen.

341
00:23:33,860 --> 00:23:35,860
Anders komen we niet verder.

342
00:23:35,860 --> 00:23:37,860
De vraag is inderdaad, wat zit er nou verder?

343
00:23:37,860 --> 00:23:40,540
Goeie vraag.

344
00:23:40,540 --> 00:23:42,860
- Ik heb er zelf alle vertrouwen in.

345
00:23:42,860 --> 00:23:46,140
Misschien dat ik dit ook niet de meest spannende vragen vind.

346
00:23:46,140 --> 00:23:48,540
Ik heb er alle vertrouwen in dat mensen dit kunnen oplossen.

347
00:23:48,540 --> 00:23:50,540
Je ziet ook historisch gezien,

348
00:23:50,540 --> 00:23:54,660
zoals eerder op jullie podcast hebben gezegd, dat mensen over het algemeen veel beter zijn in

349
00:23:54,660 --> 00:24:01,420
adaptatie dan het voorkomen van allerlei zaken. Ook al weten ze dat het gaat komen, over het

350
00:24:01,420 --> 00:24:05,660
algemeen zijn mensen heel erg goed in zich aanpassen. Tuurlijk is dat een beetje jammerlijk

351
00:24:05,660 --> 00:24:09,380
dat er vaak altijd eerst iets moet gebeuren of fout moet gaan voordat er mensen in beweging

352
00:24:09,380 --> 00:24:14,180
komen. Maar als ze in beweging komen dan zie je dat het heel rap kan gaan. Dus ik heb er persoonlijk

353
00:24:14,180 --> 00:24:22,180
Ik heb er persoonlijk alle vertrouwen in dat we een soort authenticatie mechanisme verzinnen of een policy om daarmee om te gaan.

354
00:24:22,180 --> 00:24:27,180
Al dan niet een combinatie van regels met technologische oplossingen.

355
00:24:27,180 --> 00:24:31,180
Daar twijfel ik eigenlijk niet aan.

356
00:24:31,180 --> 00:24:37,180
Wat ik bijvoorbeeld ook wel spannend vind is bijvoorbeeld inderdaad de unknown unknowns.

357
00:24:37,180 --> 00:24:45,860
Dus stel jij zou al jouw kennis, stem, gedachtes, afbeeldingen in een soort knowledge base kunnen samenvatten.

358
00:24:45,860 --> 00:24:50,260
Bijvoorbeeld na jouw overlijden, dat je een soort digitale tweeling van jezelf hebt,

359
00:24:50,260 --> 00:24:52,980
waaraan je vragen nog kan stellen als familielid.

360
00:24:52,980 --> 00:24:55,820
Hoe willen we als samenleving met zoiets omgaan?

361
00:24:55,820 --> 00:24:58,460
Dat is natuurlijk een heel erg ethische vraag.

362
00:24:58,460 --> 00:25:02,780
Een soort wisdom keeper zou je dat kunnen noemen.

363
00:25:02,780 --> 00:25:07,940
Het leuke is, we hebben daar een keer een hele aflevering over gemaakt...

364
00:25:07,940 --> 00:25:11,740
naar aanleiding van dat iemand dit gedaan heeft.

365
00:25:11,740 --> 00:25:17,380
Even uit mijn hoofd is dat aflevering acht van het vorige seizoen.

366
00:25:17,380 --> 00:25:18,900
Dat weet je wel heel erg goed, Jo.

367
00:25:18,900 --> 00:25:21,020
Dat komt omdat we daar de nominatie voor hebben gehad...

368
00:25:21,020 --> 00:25:23,140
voor de Belgische podcastprijs.

369
00:25:23,140 --> 00:25:26,020
Dus die is misschien wel leuker om daar na te luisteren...

370
00:25:26,020 --> 00:25:28,900
maar ik denk dat het wel een mooie is wat jij zegt van...

371
00:25:29,260 --> 00:25:36,180
Als afsluiter van, de mens is in staat om dingen te adopteren, zich daar naar te voegen.

372
00:25:36,180 --> 00:25:39,180
Jammer inderdaad dat we door die eerste fouten heen moeten.

373
00:25:39,180 --> 00:25:42,580
Maar juist omdat we hier kijken van over de hype heen.

374
00:25:42,580 --> 00:25:48,060
Gedurende hype zullen we echt, we zullen ons hoofd stoten, de knieën stoten en misschien nog wel erger.

375
00:25:48,060 --> 00:25:51,580
Maar er komt ergens een moment van rust, denk ik toch?

376
00:25:51,580 --> 00:25:56,980
Ja, ik denk ook wat bijvoorbeeld in een daarbije toekomst goed zou zijn is,

377
00:25:56,980 --> 00:26:02,400
Die trends zie je al een beetje dat er gelokaliseerde versies van dit soort systemen komen.

378
00:26:02,400 --> 00:26:09,600
Dus dat organisaties, misschien ook wel individuen, laten we het zeggen, lokale on-site varianten

379
00:26:09,600 --> 00:26:16,560
van dit soort modellen gebruiken in een beveiligde omgeving, gefinetuned voor hun eigen organisatie,

380
00:26:16,560 --> 00:26:21,820
voor hun eigen doeleinden en die dan ook niet bijvoorbeeld niet verbonden zijn aan het internet

381
00:26:21,820 --> 00:26:26,820
of een open versie van het systeem, waarmee je dus mogelijk data zou kunnen lekken, etc.

382
00:26:26,820 --> 00:26:30,820
Ik zie een steeds grotere rol voor dit soort toepassingen,

383
00:26:30,820 --> 00:26:37,820
om ze te gebruiken voor echt gespecialiseerde, lokale learning purposes, noem ik het maar eventjes.

384
00:26:37,820 --> 00:26:40,820
Ik vind dat het een goede trend is.

385
00:26:40,820 --> 00:26:42,820
Lijkt me een hele mooie conclusie. Dank je wel, Marik.

386
00:26:42,820 --> 00:26:43,820
Dank je.

387
00:26:43,820 --> 00:26:50,820
Dank je wel dat je weer wilde luisteren naar een aflevering van de AI Today Live.

388
00:26:50,820 --> 00:26:58,420
Mis geen aflevering, abonneer je in je favoriete podcast app en dan krijg je vanzelf een seintje als er een nieuwe aflevering live staat.

389
00:26:58,420 --> 00:27:00,420
Dank voor het luisteren weer.


People on this episode