AIToday Live

S06E13 - Generative AI - Het Kaartspel

February 12, 2024 Aigency by Info Support Season 6 Episode 13
AIToday Live
S06E13 - Generative AI - Het Kaartspel
Show Notes Transcript

We hebben een wereldprimeur: het meest analoge spel over generatieve AI! Je kunt nu gratis het spel bestellen en met je collega's spelen. Luister snel naar hoe het spel werkt.


Links

Met onze podcast AIToday Live zijn we genomineerd voor de Belgian Podcast Awards ! 🏆🤩 Belgisch? Ja, een Belgische award, want er is een speciale categorie voor Nederlandse podcasts: Prijs van Oranje.

Wil je ons steunen? 🙏❤️ Stem op ons!

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Wil je toegang tot exclusieve toegang voor onze luisteraars? Schrijf je in voor de nieuwsbrief 'AI versterkt de Mens'

Contact AIToday Live


We zijn altijd op zoek naar nieuwe gasten die over AI willen spreken.

1
00:00:00,000 --> 00:00:07,360
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van de AIToday Live.

2
00:00:07,360 --> 00:00:11,920
Met vandaag echt een hele leuke aankondiging.

3
00:00:11,920 --> 00:00:15,680
Want wij hebben namelijk een spel voor je in de aanbieding.

4
00:00:15,680 --> 00:00:17,680
Maar daarover later meer.

5
00:00:17,680 --> 00:00:20,040
Mijn naam Joop Snijder, CTO bij Aigency.

6
00:00:20,040 --> 00:00:23,080
Mijn naam Niels Naglé, Chapter Lead, Data & AI bij Info Support.

7
00:00:23,080 --> 00:00:27,680
Ja, dus zoals gezegd Niels, we komen met een kaartspel.

8
00:00:27,680 --> 00:00:28,360
Zeker.

9
00:00:28,360 --> 00:00:31,440
Ja, en dan zou je denken, een kaartspel? Hoezo een kaartspel?

10
00:00:31,440 --> 00:00:36,000
Nou, wat we hebben gedaan is dat we een interactief kaartspel hebben ontworpen.

11
00:00:36,000 --> 00:00:40,240
En dat is eigenlijk op basis van een aantal workshops die we gegeven hebben.

12
00:00:40,240 --> 00:00:49,040
Met het idee dat je als organisatie en je medewerkers kan laten nadenken over diverse thema's rondom,

13
00:00:49,040 --> 00:00:50,760
in dit geval generatieve AI.

14
00:00:50,760 --> 00:00:52,760
Het is de generatieve AI editie.

15
00:00:52,760 --> 00:00:54,760
Ja, dat is de editie inderdaad.

16
00:00:54,760 --> 00:01:00,640
En het doel is om met discussies, stellingen, inzicht te krijgen in verschillende perspectieven.

17
00:01:00,640 --> 00:01:04,120
Maar misschien ook overeenkomsten en verschillen te ontdekken.

18
00:01:04,120 --> 00:01:06,120
Daarop te reflecteren.

19
00:01:06,120 --> 00:01:15,120
En het handigste is natuurlijk als je mogelijke acties uithaalt, zodat je daar ook wat mee doet.

20
00:01:15,120 --> 00:01:17,120
Dat is eigenlijk het hele idee van het spel.

21
00:01:17,120 --> 00:01:19,120
Ja, discussie is leuk.

22
00:01:19,120 --> 00:01:22,400
Maar het zou nog mooier zijn als de acties uit voortkomen om vooruit te komen.

23
00:01:22,400 --> 00:01:25,400
En het leukste is als je dit met verschillende rollen doet.

24
00:01:25,400 --> 00:01:27,400
Zeker weten inderdaad.

25
00:01:27,400 --> 00:01:34,400
Diverse rollen binnen de organisatie die met elkaar over in discussie gaan of het gesprek over aangaan.

26
00:01:34,400 --> 00:01:38,400
Ja, en in dat kader, want dan gaan we zo direct nog even verder.

27
00:01:38,400 --> 00:01:40,400
Want we gaan echt leuke dingen doen met die stellingen.

28
00:01:40,400 --> 00:01:42,400
We gaan elkaar lekker uitdagen zo direct.

29
00:01:42,400 --> 00:01:43,400
Zeker.

30
00:01:43,400 --> 00:01:50,400
Maar wij zijn bij een sessie geweest, wat zo mooi was, waar discussie en praten over,

31
00:01:50,400 --> 00:01:52,400
maar dit waren dan geen stellingen, maar eigenlijk een probleem.

32
00:01:52,400 --> 00:02:01,400
Waarbij je zag dat er uit zo ontzettend veel verschillende perspectieven nagedacht werd over een bepaald probleem.

33
00:02:01,400 --> 00:02:04,400
En daar zo ontzettend veel verschillende oplossingen kwamen.

34
00:02:04,400 --> 00:02:05,400
Ja, mooi toch?

35
00:02:05,400 --> 00:02:08,400
Ook waar je gewoon niet zelf aan denkt als je gaat zelf brainstormen.

36
00:02:08,400 --> 00:02:12,400
Maar die verschillende perspectieven, daarom zeggen we ook, dit spel moet je echt met verschillende rollen gaan spelen.

37
00:02:12,400 --> 00:02:16,400
Ja, gisteravond was fantastisch om te ervaren.

38
00:02:16,400 --> 00:02:21,400
Daar zaten mensen uit de hoek van filosofie, recht, legal.

39
00:02:21,400 --> 00:02:31,400
Ik had een privacy officer aan tafel, een ethics lead, developers, UXers, ondernemers, gebruikers van de applicatie waar het over ging.

40
00:02:31,400 --> 00:02:37,400
50 verschillende mensen met evenveel zoveel technieken.

41
00:02:37,400 --> 00:02:41,400
Nou, dit kaartspel wat wij gaan doen, is met z'n vieren.

42
00:02:41,400 --> 00:02:44,400
Met z'n vieren ga je dit normaal gesproken spelen.

43
00:02:44,400 --> 00:02:49,400
We gaan er gewoon eens even eentje spelen en daarna gaan we nog even wat meer uitleggen.

44
00:02:49,400 --> 00:02:56,400
Wat we gaan doen is, om de beurt kiezen we een getal tussen de 1 en de 40.

45
00:02:56,400 --> 00:03:00,400
Ik heb ze in een random volgorde gezet, de stellingen.

46
00:03:00,400 --> 00:03:05,400
Jij begint zo direct met een getal.

47
00:03:05,400 --> 00:03:08,400
Ik zal de stellingen opnoemen.

48
00:03:08,400 --> 00:03:12,400
Jij vertelt of je ermee eens of oneens bent en waarom.

49
00:03:12,400 --> 00:03:21,400
Ik ga de tegenovergestelde argumentatie geven en eens kijken of we daarmee verder komen.

50
00:03:21,400 --> 00:03:26,400
Dat is trouwens niet per se het onderdeel van het spel, dat je tegenovergesteld moet zijn.

51
00:03:26,400 --> 00:03:30,400
Maar dat doen we nu even, maakt het wel wat interessanter, denk ik.

52
00:03:30,400 --> 00:03:32,400
Nou Niels, roept u maar.

53
00:03:32,400 --> 00:03:34,400
16.

54
00:03:34,400 --> 00:03:40,400
16 is, even kijken, moet even erbij pakken.

55
00:03:40,400 --> 00:03:49,400
De stelling is, automatische code generatie door generatieve AI zal de traditionele softwareontwikkeling radicaal veranderen.

56
00:03:49,400 --> 00:03:52,400
In de categorie technologie en innovatie.

57
00:03:52,400 --> 00:03:54,400
Oh, een leuke.

58
00:03:54,400 --> 00:03:56,400
Het spel moet ik nog wel even toelichten.

59
00:03:56,400 --> 00:03:59,400
We hebben ook nog een aantal speciale kaarten natuurlijk.

60
00:03:59,400 --> 00:04:02,400
Eens met de stelling, oneens met de stelling.

61
00:04:02,400 --> 00:04:05,400
En natuurlijk de leukste kaart, de joker.

62
00:04:05,400 --> 00:04:07,400
Die je maar één keer mag inzetten en dan ben je hem kwijt.

63
00:04:07,400 --> 00:04:10,400
Dat gaan we vandaag ook doen.

64
00:04:10,400 --> 00:04:12,400
Misschien wel goed om even te vertellen wat de joker dan doet.

65
00:04:12,400 --> 00:04:15,400
De joker zegt, ik doe geen uitspraken over deze stelling.

66
00:04:15,400 --> 00:04:20,400
Ik hou me even hier buiten en ik luister met name mee met de rest.

67
00:04:20,400 --> 00:04:24,400
Maar goed, zal ik hem even herhalen?

68
00:04:24,400 --> 00:04:31,400
Automatische code generatie door generatieve AI zal de traditionele softwareontwikkeling radicaal veranderen.

69
00:04:31,400 --> 00:04:33,400
Eens.

70
00:04:33,400 --> 00:04:35,400
Waarom?

71
00:04:35,400 --> 00:04:46,400
Ik denk dat door de code generatie er anders in het begin kennis opgedaan wordt hoe je komt tot de oplossing.

72
00:04:46,400 --> 00:04:51,400
En niet meer de oude traditionele manier van opdoen van kennis.

73
00:04:51,400 --> 00:04:53,400
Ik denk dat daar al de eerste verschillen gaan zijn.

74
00:04:53,400 --> 00:04:57,400
Dat je op een andere manier de code en de implementatie leert kennen.

75
00:04:57,400 --> 00:05:02,400
Door direct generatieve AI toe te gaan passen bij het opstellen van de code oplossingen.

76
00:05:02,400 --> 00:05:07,400
Daar ben ik het natuurlijk ontzettend mee oneens.

77
00:05:07,400 --> 00:05:11,400
Want ik denk namelijk dat de problemen die je hebt in softwareontwikkeling,

78
00:05:11,400 --> 00:05:16,400
namelijk het maken van een oplossing voor een businessprobleem,

79
00:05:16,400 --> 00:05:18,400
dat zal niet veranderen.

80
00:05:18,400 --> 00:05:21,400
Dus daar gaat niks radicaal in veranderen.

81
00:05:21,400 --> 00:05:25,400
En dat betekent dat je nog steeds heel goed moet nadenken over structuur,

82
00:05:25,400 --> 00:05:29,400
over risico's die er zijn, wat test je wel, wat test je niet.

83
00:05:29,400 --> 00:05:32,400
Hoeveel load krijg je.

84
00:05:32,400 --> 00:05:39,400
Volgens mij zitten rondom softwareontwikkeling veel meer taken dan alleen maar code schrijven.

85
00:05:39,400 --> 00:05:42,400
Ja, dat code schrijven gaat makkelijker worden.

86
00:05:42,400 --> 00:05:45,400
Maar er zijn zoveel activiteiten eromheen.

87
00:05:45,400 --> 00:05:50,400
En daarvan denk ik dat de AI je daar voorlopig nog niet radicaal in gaat veranderen.

88
00:05:50,400 --> 00:05:52,400
Dat ben ik mee eens.

89
00:05:52,400 --> 00:05:56,400
Als je om de code heen gaat kijken, want je trekt er nu al wat breder.

90
00:05:56,400 --> 00:05:58,400
Ik moest het er mee oneens zijn.

91
00:05:58,400 --> 00:06:00,400
Daar sluit ik me bij aan met het beeld van,

92
00:06:00,400 --> 00:06:04,400
er zijn gewoon bepaalde patronen en acties die we nog steeds met elkaar gaan doen.

93
00:06:04,400 --> 00:06:10,400
Maar het daadwerkelijk code kloppen/genereren, dat gaat radicaal veranderen.

94
00:06:10,400 --> 00:06:14,400
Maar de stappen die je nodig hebt om goede code en goede oplossingen te bouwen,

95
00:06:14,400 --> 00:06:17,400
dat komt meer bij kijken dan GenAI.

96
00:06:17,400 --> 00:06:18,400
Ja toch? Zeker.

97
00:06:18,400 --> 00:06:20,400
Dit is een voorbeeld.

98
00:06:20,400 --> 00:06:24,400
Deze kwam uit de categorie technologie en innovatie.

99
00:06:24,400 --> 00:06:27,400
Zo hebben we zes categorieën zo direct.

100
00:06:27,400 --> 00:06:29,400
Ethiek en maatschappij is de eerste.

101
00:06:29,400 --> 00:06:32,400
Technologie en innovatie, die hebben we gehad.

102
00:06:32,400 --> 00:06:34,400
Gebruik en toepassingen.

103
00:06:34,400 --> 00:06:36,400
Vierde is risico's en uitdagingen.

104
00:06:36,400 --> 00:06:38,400
De vijfde is wetgeving en beleid.

105
00:06:38,400 --> 00:06:41,400
En de zesde is toekomstvisies en speculaties.

106
00:06:41,400 --> 00:06:44,400
Dus dan hebben we een heel breed pakket aan stellingen.

107
00:06:44,400 --> 00:06:49,400
En het leuke is, normaal gesproken bij een spel denk je van,

108
00:06:49,400 --> 00:06:50,400
Hoe kan ik winnen?

109
00:06:50,400 --> 00:06:52,400
Wie wint?

110
00:06:52,400 --> 00:06:53,400
Nou we winnen als het goed is.

111
00:06:53,400 --> 00:06:54,400
Allemaal.

112
00:06:55,400 --> 00:06:57,400
Er is geen traditionele winnaar in het spel.

113
00:06:57,400 --> 00:07:01,400
Succes wordt gemeten door de diepte en kwaliteit van de discussies.

114
00:07:01,400 --> 00:07:04,400
En de mate waarin spelers nieuwe inzichten verkrijgen

115
00:07:04,400 --> 00:07:08,400
over de kansen en risico's van deze technologie.

116
00:07:08,400 --> 00:07:11,400
Nou moet ik...

117
00:07:11,400 --> 00:07:13,400
Tussen de 0 en de 40.

118
00:07:13,400 --> 00:07:15,400
0 en de 40.

119
00:07:15,400 --> 00:07:19,400
Laten we eens 3 nemen of zo.

120
00:07:19,400 --> 00:07:21,400
Een klein stukje terug.

121
00:07:21,400 --> 00:07:22,400
3.

122
00:07:22,400 --> 00:07:26,400
Daarvan is de stelling organisaties moeten aansprakelijk zijn

123
00:07:26,400 --> 00:07:29,400
voor de maatschappelijke gevolgen van hun AI gebruik.

124
00:07:29,400 --> 00:07:34,400
In de categorie wetgeving en beleid.

125
00:07:34,400 --> 00:07:37,400
Organisaties moeten aansprakelijk zijn

126
00:07:37,400 --> 00:07:41,400
voor de maatschappelijke gevolgen van hun AI gebruik.

127
00:07:41,400 --> 00:07:43,400
Oeh.

128
00:07:43,400 --> 00:07:44,400
Ja.

129
00:07:44,400 --> 00:07:47,400
Dat impliceert ontzettend veel natuurlijk.

130
00:07:47,400 --> 00:07:50,400
Ik denk dat ik het ermee eens ben.

131
00:07:50,400 --> 00:07:55,400
Het gaat over maatschappelijke gevolgen.

132
00:07:55,400 --> 00:07:59,400
Dat betekent dat je een behoorlijke impact hebt.

133
00:07:59,400 --> 00:08:02,400
Anders hebben we het niet over maatschappelijke gevolgen.

134
00:08:02,400 --> 00:08:07,400
Moet je inderdaad aansprakelijk zijn in wat je doet.

135
00:08:07,400 --> 00:08:09,400
Welke producten je levert.

136
00:08:09,400 --> 00:08:13,400
Tuurlijk zit daar een bepaalde afweging in.

137
00:08:13,400 --> 00:08:16,400
Zul je misschien wat zaken kunnen uitsluiten.

138
00:08:16,400 --> 00:08:19,400
Maar de basishouding zou moeten zijn.

139
00:08:19,400 --> 00:08:23,400
Er is een vorm van aansprakelijkheid.

140
00:08:23,400 --> 00:08:26,400
Dus moet ik er heel goed over nadenken.

141
00:08:26,400 --> 00:08:28,400
Wat betekent de technologie?

142
00:08:28,400 --> 00:08:30,400
Welke impact hebben we?

143
00:08:30,400 --> 00:08:31,400
Ja.

144
00:08:31,400 --> 00:08:34,400
Dat is voor nu mijn antwoord.

145
00:08:34,400 --> 00:08:39,400
Het is wel interessant dat ik hier de tegenpartij mag zijn.

146
00:08:39,400 --> 00:08:42,400
Dus ik ben het daarmee oneens.

147
00:08:42,400 --> 00:08:46,400
Het is wel lastig om hier even op oneens te zijn.

148
00:08:46,400 --> 00:08:49,400
Maar ik ga toch proberen dat perspectief aan te nemen.

149
00:08:49,400 --> 00:08:53,400
Als organisatie kan ik een product of een dienst ontwikkelen.

150
00:08:53,400 --> 00:08:55,400
En het is aan de gebruiker.

151
00:08:55,400 --> 00:08:57,400
Wil ik gebruik maken van die dienst?

152
00:08:57,400 --> 00:09:01,400
En als de gebruiker ervoor kiest om van die dienst gebruik te maken.

153
00:09:01,400 --> 00:09:04,400
Wie ben ik dan om de burger dat te ontnemen?

154
00:09:04,400 --> 00:09:05,400
Oh ja.

155
00:09:05,400 --> 00:09:08,400
Het is eigenlijk Facebook.

156
00:09:08,400 --> 00:09:13,400
Ik weet niet of ik er een nette benaming voor heb.

157
00:09:13,400 --> 00:09:15,400
Dus ik zal me inhouden.

158
00:09:15,400 --> 00:09:17,400
Zo iets bedenk je dan.

159
00:09:17,400 --> 00:09:21,400
Want uiteindelijk met je data worden verschrikkelijke dingen gedaan.

160
00:09:21,400 --> 00:09:24,400
En dan is het aan mij om...

161
00:09:24,400 --> 00:09:26,400
Of je daar gebruik van hebt.

162
00:09:26,400 --> 00:09:29,400
En de maatschappelijke gevolgen van bijvoorbeeld...

163
00:09:29,400 --> 00:09:33,400
De brudels.

164
00:09:33,400 --> 00:09:36,400
Ja, dat soort dingen laten we voor wat het is.

165
00:09:36,400 --> 00:09:38,400
Oké, interessant.

166
00:09:38,400 --> 00:09:41,400
Ander perspectief inderdaad.

167
00:09:41,400 --> 00:09:43,400
Ik wil het niet zeggen.

168
00:09:43,400 --> 00:09:46,400
Nee, maar voor nu is het zo even het spel.

169
00:09:46,400 --> 00:09:50,400
Wat we eigenlijk gaan doen in het spel als je met z'n vieren bent.

170
00:09:50,400 --> 00:09:52,400
Is juist het idee.

171
00:09:52,400 --> 00:09:54,400
Daar hebben we kaarten.

172
00:09:54,400 --> 00:09:56,400
Die eens, oneens of de joker.

173
00:09:56,400 --> 00:09:58,400
En die leg je dicht.

174
00:09:58,400 --> 00:10:00,400
Leg je die voor je.

175
00:10:00,400 --> 00:10:02,400
En zodra iedereen stelling heeft genomen.

176
00:10:02,400 --> 00:10:04,400
Dan gaan de kaarten pas open.

177
00:10:04,400 --> 00:10:08,400
Dus dat je niet beïnvloed wordt door wat de ander vindt.

178
00:10:08,400 --> 00:10:12,400
En heb je juist denk ik een open gesprek over zo'n stelling.

179
00:10:12,400 --> 00:10:14,400
Laten we de volgende doen.

180
00:10:14,400 --> 00:10:16,400
Voor...

181
00:10:16,400 --> 00:10:17,400
Negen.

182
00:10:17,400 --> 00:10:19,400
De leeftijd van mijn zoon.

183
00:10:19,400 --> 00:10:21,400
Negen.

184
00:10:21,400 --> 00:10:28,400
De samenwerking tussen mensen en AI zal verbeteren met generatieve AI.

185
00:10:28,400 --> 00:10:31,400
Uit de categorie gebruik en toepassingen.

186
00:10:31,400 --> 00:10:37,400
De samenwerking tussen mensen en AI zal verbeteren met generatieve AI.

187
00:10:37,400 --> 00:10:39,400
Eens.

188
00:10:39,400 --> 00:10:41,400
Waarom?

189
00:10:41,400 --> 00:10:47,400
Ik denk dat het toegankelijkheidsniveau daardoor zoveel beter wordt.

190
00:10:47,400 --> 00:10:51,400
Voor gebruikers met behulp van GenAI.

191
00:10:51,400 --> 00:10:54,400
Door eigenlijk de conversatie die wij nu hebben.

192
00:10:54,400 --> 00:10:56,400
Dat dat veel makkelijker wordt gemaakt.

193
00:10:56,400 --> 00:10:57,400
Nou.

194
00:10:57,400 --> 00:10:59,400
Oké.

195
00:10:59,400 --> 00:11:02,400
Ik ben er natuurlijk hartgrondig oneens.

196
00:11:02,400 --> 00:11:07,400
Ik zie je kraken Joop.

197
00:11:07,400 --> 00:11:08,400
Vertel.

198
00:11:08,400 --> 00:11:10,400
Ik ben hier hartgrondig mee oneens.

199
00:11:10,400 --> 00:11:16,400
Omdat wat je ziet is dat die samenwerking tussen die twee gaat juist verslechteren.

200
00:11:16,400 --> 00:11:19,400
Want we gaan steeds verder van elkaar afstaan.

201
00:11:19,400 --> 00:11:23,400
Dus die mens en die machine gaat steeds verder van elkaar afstaan.

202
00:11:23,400 --> 00:11:31,400
Waardoor je uiteindelijk steeds specifieker moet zijn in wat je moet vertellen aan de machine.

203
00:11:31,400 --> 00:11:34,400
Voordat die echt doet wat je wil.

204
00:11:34,400 --> 00:11:36,400
Je ziet nu al bijvoorbeeld bij ChatGPT.

205
00:11:36,400 --> 00:11:39,400
Dat als je een algemene prompt geeft.

206
00:11:39,400 --> 00:11:43,400
Dan krijg je ook een algemeen antwoord.

207
00:11:43,400 --> 00:11:47,400
Dus wordt er eigenlijk meer communicatieve vaardigheden van je verwacht.

208
00:11:47,400 --> 00:11:50,400
Om daar hele goede antwoorden uit te krijgen.

209
00:11:50,400 --> 00:11:52,400
En het probleem is.

210
00:11:52,400 --> 00:11:54,400
Dus als je dat tussen mensen hebt.

211
00:11:54,400 --> 00:11:57,400
Als een van de twee communicatief niet vaardig is.

212
00:11:57,400 --> 00:11:59,400
En de ander wel.

213
00:11:59,400 --> 00:12:02,400
Dan kan je daarin geholpen worden.

214
00:12:02,400 --> 00:12:05,400
Met de huidige stand van de generatieve AI.

215
00:12:05,400 --> 00:12:09,400
Dan word je dus eigenlijk achtergesteld.

216
00:12:09,400 --> 00:12:12,400
Want degene die communicatief goed is.

217
00:12:12,400 --> 00:12:14,400
Die excelleert.

218
00:12:14,400 --> 00:12:16,400
En degene die slecht is.

219
00:12:16,400 --> 00:12:18,400
Dat blijft slecht of wordt nog slechter.

220
00:12:18,400 --> 00:12:20,400
Vanwege de slechte uitkomsten uit zo'n model.

221
00:12:20,400 --> 00:12:25,400
Ja maar dan moet je toch juist de samenwerking opzoeken om daar beter in te worden.

222
00:12:25,400 --> 00:12:27,400
Ik moet ze oneens zijn.

223
00:12:29,400 --> 00:12:31,400
Advocaat van de duivel.

224
00:12:31,400 --> 00:12:33,400
Het is misschien ook wel leuk de stelling alleen te behandelen.

225
00:12:33,400 --> 00:12:35,400
Maar ook te gaan kijken.

226
00:12:35,400 --> 00:12:37,400
Speelt dit binnen mijn organisatie?

227
00:12:37,400 --> 00:12:39,400
Speelt het bij mijn product?

228
00:12:39,400 --> 00:12:41,400
Bij de dienst die ik lever?

229
00:12:41,400 --> 00:12:43,400
En ook de vervolgstap met elkaar in te gaan zetten.

230
00:12:43,400 --> 00:12:45,400
Van hé, wat vinden we hiervan?

231
00:12:45,400 --> 00:12:47,400
En wat vinden we als organisatie van deze stelling?

232
00:12:47,400 --> 00:12:50,400
En willen we hier ook daadwerkelijk actie op gaan creëren?

233
00:12:50,400 --> 00:12:56,400
Om verandering of bepaalde aanpak binnen de organisatie of dienst te gaan voeren.

234
00:12:56,400 --> 00:12:58,400
Ja zeker.

235
00:12:58,400 --> 00:13:01,400
Waar ik wel in geloven is dat die samenwerking beter wordt.

236
00:13:01,400 --> 00:13:05,400
Omdat je routine taken veel makkelijker kan automatiseren.

237
00:13:05,400 --> 00:13:10,400
Dus eigenlijk allerlei, laten we zeggen randzaken.

238
00:13:10,400 --> 00:13:13,400
Dat die voor je worden geautomatiseerd.

239
00:13:13,400 --> 00:13:17,400
En dat je je meer kan richten op of creatieve taken.

240
00:13:17,400 --> 00:13:20,400
Of taken die je zelf leuker vindt, beter bent.

241
00:13:20,400 --> 00:13:25,400
En waar je je energie uit haalt.

242
00:13:25,400 --> 00:13:30,400
Er zijn zoveel taken die ik gedurende de dag heb waar ik geen energie uit haal.

243
00:13:30,400 --> 00:13:32,400
En die zou ik heel graag willen uitbesteden.

244
00:13:32,400 --> 00:13:36,400
Waarbij er een samenwerking is tussen mij en de AI.

245
00:13:36,400 --> 00:13:39,400
Ja en daar ook wel een stukje.

246
00:13:39,400 --> 00:13:44,400
Ik vind ook wel in Gen AI komt ook juist wat mij betreft de creativiteit ook weer terug.

247
00:13:44,400 --> 00:13:51,400
Je gebruikt Gen AI, tenminste ik gebruik het voor brainstormen over hoe kom ik met goede analogieën voor bepaalde vraagstukken.

248
00:13:51,400 --> 00:13:53,400
Dus er zit wel creativiteit.

249
00:13:53,400 --> 00:14:00,400
En daar werk ik dan echt samen met Gen AI om te komen tot wat is een passende analogie voor de vraagstukken wat ik nu probeer te takken.

250
00:14:00,400 --> 00:14:01,400
Precies.

251
00:14:01,400 --> 00:14:03,400
Weet nu al een leuk spel.

252
00:14:03,400 --> 00:14:07,400
In de show notes staat een link en dan kan je hem pre-orderen.

253
00:14:07,400 --> 00:14:14,400
Hij wordt gemaakt op dit moment en dan zorgen we dat hij zo gauw hij klaar is ook bij je bezorgd wordt.

254
00:14:14,400 --> 00:14:17,400
Ja de volgende voor jou Joop.

255
00:14:17,400 --> 00:14:18,400
Volgende voor mij.

256
00:14:18,400 --> 00:14:20,400
Laten we wat hoger nummers pakken.

257
00:14:20,400 --> 00:14:22,400
Dit was random gesorteerd.

258
00:14:22,400 --> 00:14:24,400
Maakt niet uit.

259
00:14:24,400 --> 00:14:27,400
Ik zit eigenlijk wel te kijken.

260
00:14:27,400 --> 00:14:29,400
Ik was aan het zeggen dat dit het false is.

261
00:14:29,400 --> 00:14:30,400
Ik zit te kijken.

262
00:14:30,400 --> 00:14:32,400
33.

263
00:14:32,400 --> 00:14:34,400
Dan moet ik gaan scrollen.

264
00:14:34,400 --> 00:14:35,400
Gelukkig.

265
00:14:35,400 --> 00:14:36,400
Hij moest wel scrollen.

266
00:14:36,400 --> 00:14:41,400
Generatieve AI is een dagelijks onderdeel van mijn werkprocessen.

267
00:14:41,400 --> 00:14:43,400
Ook weer gebruikend toepassingen.

268
00:14:43,400 --> 00:14:44,400
Ik weet er wel te kiezen.

269
00:14:44,400 --> 00:14:46,400
Daar ben ik het mee eens.

270
00:14:46,400 --> 00:14:50,400
Feitelijk is het zo.

271
00:14:50,400 --> 00:15:02,400
Het impliceert een soort van vertrouwdheid en afhankelijkheid van AI gestuurde processen.

272
00:15:02,400 --> 00:15:14,400
Ik denk dat dit wel een interessante stelling is om hierover te hebben van wie voelt zich ook op zijn gemak bij deze technologie.

273
00:15:14,400 --> 00:15:18,400
Het kan me voorstellen dat je een bepaald ongemak voelt.

274
00:15:18,400 --> 00:15:23,400
Het feit dat ik het dagelijks gebruik suggereert een bepaald gemak.

275
00:15:23,400 --> 00:15:25,400
Maar je krijgt er ook daadwerkelijk gemak uit.

276
00:15:25,400 --> 00:15:28,400
Waardoor het ook steeds meer wordt.

277
00:15:28,400 --> 00:15:36,400
Hoe meer je er gebruik van maakt, hoe ervarender je wordt, hoe beter je uiteindelijk ook weet wat je wel en niet vraagt.

278
00:15:36,400 --> 00:15:38,400
Wat doe je er nog wel in en wat doe je niet.

279
00:15:38,400 --> 00:15:44,400
Ik hoorde laatst iemand zeggen dat hij het ook gebruikt als hij bezoekacties heeft.

280
00:15:44,400 --> 00:15:46,400
Dat doe ik dan weer typisch niet.

281
00:15:46,400 --> 00:15:48,400
Dan denk ik, daar is hij niet zo goed in.

282
00:15:48,400 --> 00:15:50,400
Dus ja, dagelijks.

283
00:15:50,400 --> 00:15:52,400
ChatGPT.

284
00:15:52,400 --> 00:15:58,400
Ik vind MidJourney heel fijn voor mijn PowerPoint presentaties.

285
00:15:58,400 --> 00:16:02,400
Dus ja, dagelijks. Absoluut.

286
00:16:02,400 --> 00:16:03,400
Jij bent het er...

287
00:16:03,400 --> 00:16:05,400
Radicaal mee oneens.

288
00:16:05,400 --> 00:16:10,400
Ik ben het er ook gewoon mee eens.

289
00:16:10,400 --> 00:16:15,400
Dat mocht niet, dus ik speel mijn joker en ben hem wel kwijt.

290
00:16:15,400 --> 00:16:17,400
Maar ik sluip erbij aan.

291
00:16:17,400 --> 00:16:23,400
Wat mij betreft is het ook, hoe ik er naar kijk, het is een collega die je steeds beter leert kennen waar die goed in is en waar die niet goed in is.

292
00:16:23,400 --> 00:16:29,400
En bepaalde activiteiten dus efficiënter of op een bepaalde manier aan kan pakken en daarvoor in kan zetten.

293
00:16:29,400 --> 00:16:33,400
Maar ik heb ook bepaalde zaken die ik gewoon absoluut niet door AI laat doen.

294
00:16:33,400 --> 00:16:42,400
Omdat ik de persoonlijke nood daar belangrijk vind en mijn eigen schrijfstijl met mijn eigen kleine foutjes die ik in heb juist daarin wil voeren.

295
00:16:42,400 --> 00:16:45,400
En dat zeker niet gaat uitbesteden aan Jacky.

296
00:16:45,400 --> 00:16:47,400
Dus de perfectie in de imperfectie.

297
00:16:47,400 --> 00:16:49,400
Inderdaad, ja.

298
00:16:49,400 --> 00:16:50,400
Mooi.

299
00:16:50,400 --> 00:16:54,400
En jij dan? Heb jij de volgende?

300
00:16:54,400 --> 00:16:56,400
38.

301
00:17:00,400 --> 00:17:04,400
We zitten weer in de gebruik en toepassing. Misschien moet je even een andere kiezen.

302
00:17:04,400 --> 00:17:06,400
Ik kies er eentje voor je.

303
00:17:06,400 --> 00:17:07,400
24.

304
00:17:07,400 --> 00:17:08,400
Oh sorry.

305
00:17:08,400 --> 00:17:09,400
24.

306
00:17:09,400 --> 00:17:11,400
Laten we het spel wel goed spelen.

307
00:17:11,400 --> 00:17:14,400
Ik weet hoe generatieve AI werkt.

308
00:17:14,400 --> 00:17:17,400
Dat is de stelling.

309
00:17:17,400 --> 00:17:19,400
Ik weet hoe generatieve AI werkt.

310
00:17:19,400 --> 00:17:23,400
Oneens.

311
00:17:23,400 --> 00:17:25,400
Oh mooi, want?

312
00:17:25,400 --> 00:17:33,400
Ik denk dat ik niet in dept echt helemaal zou kunnen verklaren waardoor die komt tot waar die mee met de resultaten uitkomt.

313
00:17:33,400 --> 00:17:36,400
Dat sommige delen toch echt wel black box blijven.

314
00:17:36,400 --> 00:17:40,400
En daarmee zeg ik, ken ik het dan echt? Nee.

315
00:17:40,400 --> 00:17:42,400
Oh ja.

316
00:17:42,400 --> 00:17:44,400
Ja, ik ben het er mee eens.

317
00:17:44,400 --> 00:17:49,400
Gelukkig hoeft het geen geforceerde tegenstelling te zijn.

318
00:17:49,400 --> 00:17:59,400
De architectuur, hoe het is opgebouwd, hoe het neurale netwerk is opgebouwd.

319
00:17:59,400 --> 00:18:02,400
Daar zijn papers van, die heb ik allemaal gelezen.

320
00:18:02,400 --> 00:18:08,400
Het is heel duidelijk hoe uiteindelijk de fine tuning heeft plaatsgevonden met reinforcement learning.

321
00:18:08,400 --> 00:18:12,400
De techniek van straffen belonen om het model te trainen.

322
00:18:14,400 --> 00:18:22,400
Er zit zoveel aan vast dat ik wel denk dat ik me daar zo goed op heb ingelezen dat ik wel weet hoe het werkt.

323
00:18:22,400 --> 00:18:27,400
Je hebt wel gelijk van, kun je redeneren waarom er een bepaalde uitkomst uitkomt?

324
00:18:27,400 --> 00:18:31,400
Nee, want wij weten niet welke data er gebruikt is.

325
00:18:31,400 --> 00:18:35,400
Als we het bijvoorbeeld over GPT hebben.

326
00:18:35,400 --> 00:18:38,400
Sterker nog, open AI weet het niet eens meer.

327
00:18:38,400 --> 00:18:44,400
Dus niemand zou kunnen zeggen, als ik dit er in stop dan komt er altijd dat uit.

328
00:18:44,400 --> 00:18:51,400
Maar hoe de technologie in elkaar zit, ik denk dat ik daar wel een goed beeld over heb.

329
00:18:51,400 --> 00:18:55,400
Zullen we er nog eentje doen?

330
00:18:55,400 --> 00:18:58,400
Laatste om het af te maken.

331
00:18:58,400 --> 00:19:03,400
Ik neem nummertje 23.

332
00:19:06,400 --> 00:19:15,400
Dat is, onze organisatie heeft een strategisch leider voor generatieve AI aangesteld om onze AI initiatieven te sturen.

333
00:19:15,400 --> 00:19:20,400
Moet ik? O ja, ik moest dat eens.

334
00:19:20,400 --> 00:19:22,400
Ja, eens.

335
00:19:22,400 --> 00:19:31,400
Wat wij binnen Info Support hebben, is dat wij niet per se één leider daarvoor hebben.

336
00:19:31,400 --> 00:19:36,400
Maar wij hebben daar als het ware een instantie voor. We hebben een technology board.

337
00:19:36,400 --> 00:19:45,400
En in de technology board wordt heel nadrukkelijk gesproken over hoe uiteindelijk onze portfolio in elkaar zit.

338
00:19:45,400 --> 00:19:48,400
Wat we aan technologie wel of niet doen.

339
00:19:48,400 --> 00:19:53,400
Daaronder hebben we ook nog een center of expertise.

340
00:19:53,400 --> 00:19:56,400
En daar worden dit soort dingen ook allemaal in besproken.

341
00:19:56,400 --> 00:20:05,400
En hele nadrukkelijke besluiten moeten terug naar dat technology board waar dit soort dingen worden besproken.

342
00:20:05,400 --> 00:20:15,400
Daarnaast hebben we ook nog eens een keer een AI community waar we regelmatig ook ethische vraagstukken behandelen.

343
00:20:15,400 --> 00:20:18,400
Hoe gaan we met een aantal zaken om?

344
00:20:18,400 --> 00:20:28,400
Dus ik denk dat we misschien niet één specifiek persoon hebben, maar we hebben wel een heel duidelijk orgaan waarin dit soort dingen besproken worden en strategische keuzes worden gemaakt.

345
00:20:28,400 --> 00:20:33,400
En ook wordt vastgelegd. Dus het is ook terug te vinden, terug te lezen als die keuzes gemaakt zijn.

346
00:20:33,400 --> 00:20:36,400
Maar je bent er hartstikke mee oneens natuurlijk.

347
00:20:36,400 --> 00:20:42,400
Hartstikke me oneens. Ja, als we even naar de stelling kijken, Joop. Is er één persoon die we daar aansprakelijk voor kunnen maken? Nee.

348
00:20:42,400 --> 00:20:44,400
Dus wordt het dan echt gedragen?

349
00:20:44,400 --> 00:20:51,400
En wie pakt dan, als er dan toch de mokerslag gemaakt worden, wie pakt dan die hamer op? Die is er dan niet.

350
00:20:51,400 --> 00:20:56,400
Ja, ja, ja, dat is onderdeel van het spel.

351
00:20:56,400 --> 00:21:00,400
Ja, dus dit is wat je dan met z'n vieren doet.

352
00:21:00,400 --> 00:21:08,400
Het leuke is, zeker als jij trekker bent rondom AI in je organisatie, is om dat in verschillende settings te doen.

353
00:21:08,400 --> 00:21:15,400
Daar kom je ook met meer rollen in aanraking en het zou ook leuk zijn als je die rollen mixt, mengt.

354
00:21:15,400 --> 00:21:24,400
Daar kom je uiteindelijk, wat we zeiden, niet op een traditionele winnaar, maar het succes is uiteindelijk de diepte en de kwaliteit van je discussie.

355
00:21:24,400 --> 00:21:41,400
Eigenlijk heb ik vandaag alweer, door alleen al tegenovergestelde te moeten beweren, heb ik voor mezelf al een aantal mindnodes gemaakt van, daar moeten we misschien wat mee, daar ga ik mee aan de slag.

356
00:21:41,400 --> 00:21:49,400
Dus zelfs in een geforceerde setting als dit, heb ik eigenlijk alweer wat geleerd.

357
00:21:49,400 --> 00:21:54,400
Er zit natuurlijk nu een hele set aan stellingen die Gen AI zijn.

358
00:21:54,400 --> 00:22:03,400
Zit er een stelling bij die niet bij, die je wel zegt, oh die had er eigenlijk best wel in, dan houden we ons ook zeker aan bevolen, neem even contact met ons op, breng de stelling in.

359
00:22:03,400 --> 00:22:08,400
Het idee en het concept willen we gaan uitbreiden met niet alleen Gen AI, maar ook met andere stellingen.

360
00:22:08,400 --> 00:22:10,400
Dus deel ze graag met ons.

361
00:22:10,400 --> 00:22:17,400
We zijn op zoek om met elkaar de juiste conversaties te voeren om AI begrijpbaar te maken en voor de business toepasbaar te maken.

362
00:22:17,400 --> 00:22:19,400
Vanuit alle perspectieven daarnaar kijkend.

363
00:22:19,400 --> 00:22:23,400
En de game changer, het spel, is een hulpmiddel daarbij.

364
00:22:23,400 --> 00:22:25,400
Heel mooi.

365
00:22:25,400 --> 00:22:30,400
En dan krijg je ook de credits erbij en gaan we je naam op het kaartje erbij zetten.

366
00:22:30,400 --> 00:22:31,400
Op het kaartje, ja.

367
00:22:31,400 --> 00:22:33,400
Op het stellingenkaartje.

368
00:22:33,400 --> 00:22:34,400
Ik heb nog wel een speeltip.

369
00:22:34,400 --> 00:22:35,400
Ja?

370
00:22:35,400 --> 00:22:45,400
Openheid en het respect voor elkaar en om te luisteren naar elkaar is natuurlijk een essentieel onderdeel om daadwerkelijk deze discussies te voeren.

371
00:22:45,400 --> 00:22:50,400
Dus je luistert goed naar de ander, niets is goed of fout.

372
00:22:50,400 --> 00:22:53,400
Het gaat er juist om om andere inzichten te krijgen.

373
00:22:53,400 --> 00:23:00,400
Het is bedoeld om begrip en bewustzijn over AI te vergroten en niet per se om consensus te bereiken.

374
00:23:00,400 --> 00:23:04,400
Dus er hoeft niks uit te komen van, we moeten nu kiezen of zo.

375
00:23:04,400 --> 00:23:05,400
Nee.

376
00:23:05,400 --> 00:23:11,400
Nogmaals, hij is in de preorder, linkje zit in de show notes.

377
00:23:11,400 --> 00:23:18,400
Wij zorgen dan dat hij bij je komt en dat je hopelijk goede discussies met elkaar hebt.

378
00:23:18,400 --> 00:23:24,400
En heb je wat leuke inzichten of dat soort zaken, we houden ons natuurlijk warm aan bevolen.

379
00:23:24,400 --> 00:23:25,400
Zeker weten.

380
00:23:30,400 --> 00:23:34,400
Goh Niels, we hebben een spelletje gespeeld in onze podcast.

381
00:23:34,400 --> 00:23:36,400
Een spelletje die we ook zelf gemaakt hebben.

382
00:23:36,400 --> 00:23:39,400
Zelf gemaakt en zelf weer van hebben geleerd.

383
00:23:39,400 --> 00:23:41,400
Ik hoop dat je het leuk vond.

384
00:23:41,400 --> 00:23:49,400
Vind je onze podcast meer dan de moeite waard, geef ons dan eens 5 sterren bij Spotify, dat helpt enorm.

385
00:23:49,400 --> 00:23:51,400
En dankjewel weer voor het luisteren.

386
00:23:51,400 --> 00:23:52,400
Tot de volgende keer.

387
00:23:53,400 --> 00:23:56,400
[Muziek]