AIToday Live

S06E51 - Mythbusters: van fabels naar feiten

June 24, 2024 Aigency by Info Support Season 6 Episode 51
S06E51 - Mythbusters: van fabels naar feiten
AIToday Live
More Info
AIToday Live
S06E51 - Mythbusters: van fabels naar feiten
Jun 24, 2024 Season 6 Episode 51
Aigency by Info Support

In deze aflevering van AIToday Live ontrafelen de gastheren enkele van de meest hardnekkige mythes rondom kunstmatige intelligentie. Ze duiken in de vraag of AI daadwerkelijk volledig autonoom kan handelen en creëren, en of de uitkomsten van generatieve AI altijd als zodanig herkenbaar zijn.

Verder wordt de intelligentie van AI kritisch onder de loep genomen, met voorbeelden die laten zien hoe AI soms verrassend menselijke fouten kan maken. Ook het idee dat AI een eigen wil zou kunnen ontwikkelen, wordt besproken.

Tot slot biedt de podcast een historisch perspectief op AI, waarbij duidelijk wordt dat deze technologie allesbehalve nieuw is. Een boeiende aflevering die licht werpt op de werkelijke mogelijkheden en beperkingen van AI.


LinksAigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

Show Notes Transcript

In deze aflevering van AIToday Live ontrafelen de gastheren enkele van de meest hardnekkige mythes rondom kunstmatige intelligentie. Ze duiken in de vraag of AI daadwerkelijk volledig autonoom kan handelen en creëren, en of de uitkomsten van generatieve AI altijd als zodanig herkenbaar zijn.

Verder wordt de intelligentie van AI kritisch onder de loep genomen, met voorbeelden die laten zien hoe AI soms verrassend menselijke fouten kan maken. Ook het idee dat AI een eigen wil zou kunnen ontwikkelen, wordt besproken.

Tot slot biedt de podcast een historisch perspectief op AI, waarbij duidelijk wordt dat deze technologie allesbehalve nieuw is. Een boeiende aflevering die licht werpt op de werkelijke mogelijkheden en beperkingen van AI.


LinksAigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,001 --> 00:00:06,000
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

2
00:00:06,000 --> 00:00:10,000
Met vandaag een best wel hele speciale aflevering.

3
00:00:10,000 --> 00:00:16,000
Want misschien dat je deze tune wel herkent.

4
00:00:16,000 --> 00:00:22,000
Namelijk het legendarische programma Mythbusters van Discovery.

5
00:00:22,000 --> 00:00:26,000
Dus alpinopetje op, bril op.

6
00:00:26,000 --> 00:00:34,000
En we gaan namelijk vandaag dan kijken van welke mythes zijn er eigenlijk allemaal rondom AI?

7
00:00:34,000 --> 00:00:40,000
En kunnen we die wegnemen? Ik denk dat dat het hele idee wordt van vandaag.

8
00:00:40,000 --> 00:00:44,000
Zeker. Ja toch? Mijn naam is Joop Snijder, CTO bij Aigency.

9
00:00:44,000 --> 00:00:48,000
Mijn naam Niels Naglé, Area Lead, Data & AI bij Info Support.

10
00:00:48,000 --> 00:00:51,000
Ja Joop, Mythbusters.

11
00:00:51,000 --> 00:01:00,000
Ja en ik denk dat het wel nodig is, want er zingen zeg maar best wel wat mythes, urban myths, rondom AI.

12
00:01:00,000 --> 00:01:03,000
Rondom generatieve AI ook.

13
00:01:03,000 --> 00:01:09,000
Zeker sinds de introductie van in 2022 van ChatGPT.

14
00:01:09,000 --> 00:01:11,000
Is het hard gegaan.

15
00:01:11,000 --> 00:01:15,000
Is het hard gegaan. Er zijn ook best wel een hele hoop fantasieën omheen.

16
00:01:15,000 --> 00:01:22,000
Dus ja, is het wel handig dat wij misschien daar op zijn minst ons licht op laten schijnen.

17
00:01:22,000 --> 00:01:26,000
Inderdaad, of wij het een myth vinden en of we willen busten of niet.

18
00:01:26,000 --> 00:01:29,000
En er zullen nog steeds nieuwe myths gaan ontstaan.

19
00:01:29,000 --> 00:01:32,000
Dus dit zal ook waarschijnlijk niet de laatste keer zijn dat we hierover gaan hebben natuurlijk.

20
00:01:32,000 --> 00:01:34,000
Hele goeie.

21
00:01:34,000 --> 00:01:37,000
Laten we gewoon lekker gelijk beginnen. We beginnen met de eerste.

22
00:01:37,000 --> 00:01:43,000
Generatieve AI kan volledig autonoom handelen en creëren.

23
00:01:43,000 --> 00:01:49,000
Ja, wat mij betreft is dat inderdaad een veel voorkomende misvatting.

24
00:01:49,000 --> 00:01:54,000
Want uiteindelijk zonder menselijke tussenkomst gaat dat niet gebeuren.

25
00:01:54,000 --> 00:02:01,000
Dus wat je ziet is dat het model al getraind is op basis van onze menselijke input.

26
00:02:01,000 --> 00:02:06,000
Dus alles wat wij geschreven hebben of de plaatjes generator of de video's.

27
00:02:06,000 --> 00:02:10,000
Dus allemaal zeg maar materiaal wat wij gemaakt hebben.

28
00:02:10,000 --> 00:02:16,000
En wat vaak vergeten wordt is dat betekenis die gegeven wordt, zeker aan zinnen.

29
00:02:16,000 --> 00:02:20,000
Chachipiti is altijd een beetje het makkelijkste voorbeeld in dit geheel.

30
00:02:20,000 --> 00:02:25,000
Is dat wij als mens ook nog eens betekenis hebben gegeven van.

31
00:02:25,000 --> 00:02:28,000
Oh ja, maar als je dit woord voor woord voor woord voorspelt.

32
00:02:28,000 --> 00:02:33,000
Dan vinden wij deze zin die eruit komt van meer betekenis dan een andere.

33
00:02:33,000 --> 00:02:35,000
Ja, dat geven wij aan.

34
00:02:35,000 --> 00:02:40,000
En daar is ook op meegetraind en zo.

35
00:02:40,000 --> 00:02:46,000
Die hele menselijke interactie die zitten uiteindelijk in.

36
00:02:46,000 --> 00:02:52,000
Wat je natuurlijk ziet is dat het is vooral gebaseerd op hele grote datasets.

37
00:02:52,000 --> 00:02:57,000
Dus wat geprobeerd wordt is natuurlijk patronen vinden in de dataset.

38
00:02:57,000 --> 00:03:02,000
En aan de basis van die patronen de dingen weer teruggeven.

39
00:03:02,000 --> 00:03:05,000
Maar aan de andere kant begrijp ik hem ook wel weer.

40
00:03:05,000 --> 00:03:07,000
Voor mensen die wat verder van de technologie afstaan.

41
00:03:07,000 --> 00:03:09,000
En niet weten hoe het onder de motorkap zit.

42
00:03:09,000 --> 00:03:13,000
Dat het zo kan aanvoelen alsof het inderdaad die kant op gaat.

43
00:03:13,000 --> 00:03:15,000
Ja, dat begrijp ik ook heel goed.

44
00:03:15,000 --> 00:03:18,000
En waar wij natuurlijk ook best wel heel vaak mee te maken hebben.

45
00:03:18,000 --> 00:03:19,000
Is dat er gezegd wordt.

46
00:03:19,000 --> 00:03:23,000
Ja, kijk we hebben in onze organisatie hebben wij heel veel data.

47
00:03:23,000 --> 00:03:26,000
En daar plak je dan AI tegen aan.

48
00:03:26,000 --> 00:03:30,000
En dan gaat er op een of andere manier automatisch.

49
00:03:30,000 --> 00:03:32,000
Gaan daar slimme dingen mee gebeuren.

50
00:03:32,000 --> 00:03:34,000
Maar zo is het helemaal niet.

51
00:03:34,000 --> 00:03:37,000
Dus die data die moet helemaal klaargemaakt worden.

52
00:03:37,000 --> 00:03:38,000
Die moet contextualiseerd.

53
00:03:38,000 --> 00:03:41,000
Begrijpbaar worden gemaakt voor algoritmes.

54
00:03:41,000 --> 00:03:43,000
Algoritmes zijn uiteindelijk gewoon rekenmodellen.

55
00:03:43,000 --> 00:03:45,000
Dus je moet ermee kunnen rekenen.

56
00:03:45,000 --> 00:03:47,000
Dus je kan je voorstellen dat als jij woorden hebt.

57
00:03:47,000 --> 00:03:49,000
Woorden in een Word document.

58
00:03:49,000 --> 00:03:51,000
Ja, daar kan je niet mee rekenen.

59
00:03:51,000 --> 00:03:54,000
Dus die woorden moeten getallen worden.

60
00:03:54,000 --> 00:03:56,000
Al dat soort zaken.

61
00:03:56,000 --> 00:03:57,000
En ze zijn allemaal nodig.

62
00:03:57,000 --> 00:04:00,000
En dan is er iemand die moet zeggen van.

63
00:04:00,000 --> 00:04:04,000
Oh ja, maar dan hoort eigenlijk bij wat jij eruit wil halen.

64
00:04:04,000 --> 00:04:06,000
En wat daar moet je dan heel goed over nadenken.

65
00:04:06,000 --> 00:04:07,000
Wat wil ik hier uithalen?

66
00:04:07,000 --> 00:04:12,000
Daar zouden wel eens deze algoritmes veel belovend voor kunnen zijn.

67
00:04:12,000 --> 00:04:15,000
Want helemaal exact weet je het vaak ook niet.

68
00:04:15,000 --> 00:04:17,000
Dit is dan veel belovend.

69
00:04:17,000 --> 00:04:20,000
En die mens, want dan komen we weer op die mens.

70
00:04:20,000 --> 00:04:24,000
Die gaat dan die data tegen dat algoritme halen.

71
00:04:24,000 --> 00:04:26,000
Dan gaat die computer rekenen.

72
00:04:26,000 --> 00:04:29,000
En dan hebben we allerlei meetmanieren om te zien van.

73
00:04:29,000 --> 00:04:31,000
Ze zijn nou die uitkomsten.

74
00:04:31,000 --> 00:04:35,000
Passen die bij wat we eruit zouden willen hebben?

75
00:04:35,000 --> 00:04:36,000
En hoe goed zijn ze dan?

76
00:04:36,000 --> 00:04:38,000
En hoe betrouwbaar zijn ze dan?

77
00:04:38,000 --> 00:04:41,000
Dus er zit gewoon ontzettend veel werk.

78
00:04:41,000 --> 00:04:42,000
En keuzes.

79
00:04:42,000 --> 00:04:48,000
Keuzes aan het maken uiteindelijk van dit soort EH-systemen.

80
00:04:48,000 --> 00:04:51,000
En als je het goed doet, voelt het aan.

81
00:04:51,000 --> 00:04:55,000
Als dat het zelf stappen kan maken en dingen kan creëren.

82
00:04:55,000 --> 00:04:56,000
Precies.

83
00:04:56,000 --> 00:04:58,000
Ja, dat is een goeie.

84
00:04:58,000 --> 00:05:00,000
Dat is een mooie.

85
00:05:00,000 --> 00:05:04,000
Dan uitkomsten van generatieve AI zijn herkenbaar.

86
00:05:04,000 --> 00:05:06,000
Ik denk een beetje het verlengde van wat we net hadden.

87
00:05:06,000 --> 00:05:09,000
Ja, en dit zal voor heel veel mensen controversieel zijn.

88
00:05:09,000 --> 00:05:12,000
Die zeggen van ja, maar je kan precies herkennen.

89
00:05:12,000 --> 00:05:15,000
Als het tekst geschreven is door ChatGPT, dan herken ik dit.

90
00:05:15,000 --> 00:05:16,000
Ja, dat voel je gewoon.

91
00:05:16,000 --> 00:05:19,000
Ja, nee, maar ik lees dat en dan herken ik dat.

92
00:05:19,000 --> 00:05:21,000
Nou, ik kan je verzekeren.

93
00:05:21,000 --> 00:05:25,000
ChatGPT heeft een aantal van dat soort quirks erin zitten.

94
00:05:25,000 --> 00:05:27,000
Van dat soort standaard zinnetjes.

95
00:05:27,000 --> 00:05:29,000
Ik hoop dat deze mail je goed ontvangt.

96
00:05:29,000 --> 00:05:31,000
Dat soort standaard teksten.

97
00:05:31,000 --> 00:05:33,000
Ja, en zelfs van je zou kunnen denken aan...

98
00:05:33,000 --> 00:05:34,000
Doppele punt.

99
00:05:34,000 --> 00:05:36,000
Daar hebben we het niet over.

100
00:05:36,000 --> 00:05:40,000
Dus als er teksten zijn, plaatjes zijn, dat soort zaken.

101
00:05:40,000 --> 00:05:44,000
Is het uiteindelijk echt buitengewoon moeilijk te herkennen.

102
00:05:44,000 --> 00:05:49,000
En een heel mooi voorbeeld vond ik die namelijk...

103
00:05:49,000 --> 00:05:52,000
Kijk, er zijn... Laat ik hiermee beginnen.

104
00:05:52,000 --> 00:05:56,000
Er zijn een soort van tools op de markt die zeggen van...

105
00:05:56,000 --> 00:06:02,000
dat je de teksten zou kunnen herkennen of ze wel of niet uit ChatGPT komen.

106
00:06:02,000 --> 00:06:04,000
Dat ze AI-gegenereerd zijn.

107
00:06:04,000 --> 00:06:09,000
Ik had het net al in de vorige meet over de patronen.

108
00:06:09,000 --> 00:06:11,000
Dus schrijf de patronen.

109
00:06:11,000 --> 00:06:14,000
Dus wat je dan probeert te doen, is met zo'n detectieapparaat...

110
00:06:14,000 --> 00:06:17,000
probeer je dus die patronen te herkennen.

111
00:06:17,000 --> 00:06:20,000
En je zegt dan, die zitten typisch in zo'n model.

112
00:06:20,000 --> 00:06:24,000
Het leuke is als jij een... Iemand heeft dat gedaan.

113
00:06:24,000 --> 00:06:27,000
Een stukje bijbeltekst opgeeft.

114
00:06:27,000 --> 00:06:30,000
En je zegt dan, is dit door AI-gegenereerd?

115
00:06:30,000 --> 00:06:32,000
Dan zegt hij, ja.

116
00:06:32,000 --> 00:06:36,000
Dit is met een zeer, zeer hoge mate van zekerheid...

117
00:06:36,000 --> 00:06:38,000
is door de AI-gegenereerd.

118
00:06:38,000 --> 00:06:43,000
En waarom? Die tekst zit natuurlijk heel vaak, heel veel...

119
00:06:43,000 --> 00:06:46,000
In andere teksten verwerkt en grondslag van.

120
00:06:46,000 --> 00:06:48,000
In dat model.

121
00:06:48,000 --> 00:06:50,000
Dus daar gaat het om.

122
00:06:50,000 --> 00:06:54,000
Dus dat patroon, en misschien zit het in verschillende vormen...

123
00:06:54,000 --> 00:06:56,000
maar dat patroon zit er dus heel veel in.

124
00:06:56,000 --> 00:07:00,000
Dus je zegt eigenlijk, dit patroon waarin je geschreven hebt...

125
00:07:00,000 --> 00:07:02,000
zit al heel veel in het model.

126
00:07:02,000 --> 00:07:05,000
Maar is het daarmee AI-gegenereerd?

127
00:07:05,000 --> 00:07:08,000
Ik denk dat heel veel mensen zouden zeggen nee.

128
00:07:08,000 --> 00:07:11,000
Dus dat is een heel mooi voorbeeld.

129
00:07:11,000 --> 00:07:15,000
En het leuke is, de andere kant op...

130
00:07:15,000 --> 00:07:20,000
is dat wij ook geen onderscheid meer kunnen maken...

131
00:07:20,000 --> 00:07:23,000
tussen wat nep is en wat echt is.

132
00:07:23,000 --> 00:07:28,000
Dus er was een hele gerenommeerde fotografiewedstrijd.

133
00:07:28,000 --> 00:07:32,000
En die hadden een speciale categorie bedacht.

134
00:07:32,000 --> 00:07:36,000
Want die dachten, we moeten natuurlijk ook mee met AI.

135
00:07:36,000 --> 00:07:42,000
Dus je mocht je eigen gegenereerde kunstwerk met AI insturen.

136
00:07:42,000 --> 00:07:45,000
En iemand had echt een geweldige... zoek het maar eens even op.

137
00:07:45,000 --> 00:07:48,000
We zullen hem ook in de show notes de link ernaartoe zetten.

138
00:07:48,000 --> 00:07:52,000
Heel mooi plaatje van een flamingo, een roze flamingo.

139
00:07:52,000 --> 00:07:55,000
Stel hem even voor, die helemaal in rust staat.

140
00:07:55,000 --> 00:07:57,000
Alleen het hoofd is weg.

141
00:07:57,000 --> 00:08:03,000
Dus je ziet een lijfje en die staat in een hele minimalistische omgeving.

142
00:08:03,000 --> 00:08:05,000
Best wel een heel krachtig beeld.

143
00:08:05,000 --> 00:08:11,000
Zo krachtig dat de jury hem als derde prijs had gekozen.

144
00:08:11,000 --> 00:08:14,000
En het publiek als eerste.

145
00:08:14,000 --> 00:08:19,000
Eerste prijs, derde prijs, geweldig, super AI plaatje.

146
00:08:19,000 --> 00:08:25,000
Drie dagen later belde de kunstenaar op en die zei...

147
00:08:25,000 --> 00:08:31,000
Ja, ik ben eigenlijk best wel heel erg tegen al die AI generatie.

148
00:08:31,000 --> 00:08:34,000
Dus wat heb ik gedaan? Ik heb een echte foto ingestuurd.

149
00:08:34,000 --> 00:08:38,000
De omgekeerde variant inderdaad.

150
00:08:38,000 --> 00:08:44,000
De omgekeerde variant. Dus een echte foto werd als AI gegenereerd.

151
00:08:44,000 --> 00:08:47,000
Nep, tussen aanhalingstekens, gezien.

152
00:08:47,000 --> 00:08:53,000
Ook als heel mooi gegenereerd, gewaardeerd.

153
00:08:53,000 --> 00:08:55,000
Maar het was echt.

154
00:08:55,000 --> 00:09:02,000
Dus het verschil tussen wat is echt en wat is nep, dat is echt ontzettend moeilijk.

155
00:09:02,000 --> 00:09:09,000
En het idee dat je dat kan herkennen, blijven herkennen, zeker naar de toekomst toe.

156
00:09:09,000 --> 00:09:12,000
Ik denk dat je daar van af moet stappen.

157
00:09:12,000 --> 00:09:19,000
Ja, maar voor sommige doeleinden wil je misschien wel bepaalde authenticiteit hebben van hetgeen wat gegenereerd is.

158
00:09:19,000 --> 00:09:24,000
Dus een watermerk of ergens een code waarin je het kan herkennen.

159
00:09:24,000 --> 00:09:29,000
Of misschien zelfs wel een acknowledgement dat je AI gebruikt hebt voor het genereren ervan.

160
00:09:29,000 --> 00:09:32,000
Ja, nou en dat laatste daar geloof ik wel in.

161
00:09:32,000 --> 00:09:38,000
Dus als er bepaalde beleidsrichtlijnen zo direct komen waarbij gezegd wordt.

162
00:09:38,000 --> 00:09:43,000
Weet je, ik kan me voorstellen, ik geloof voetbal international doet dat.

163
00:09:43,000 --> 00:09:49,000
Die genereert nu voetbalverslagen op basis van de data die zij binnenkrijgen.

164
00:09:49,000 --> 00:09:52,000
Kan er eigenlijk gewoon uitgeschreven worden hoe het voetbalverslag is.

165
00:09:52,000 --> 00:09:55,000
En dan staat er dan ook bij dat dat gegenereerd is.

166
00:09:55,000 --> 00:09:57,000
Dat laatste weet ik niet helemaal zeker.

167
00:09:57,000 --> 00:10:00,000
Maar daar kan je je voorstellen zelfs weer berichten.

168
00:10:00,000 --> 00:10:06,000
Daar weet ik wel van dat er staat van dit is een gegenereerd bericht.

169
00:10:06,000 --> 00:10:09,000
Dus de tekst is eigenlijk uitgeschreven op basis van de data.

170
00:10:09,000 --> 00:10:11,000
Lijkt me geen probleem.

171
00:10:11,000 --> 00:10:19,000
Maar een watermerk, die kan je toevoegen mogelijk aan plaatjes en video's en audio.

172
00:10:19,000 --> 00:10:21,000
Want daar kan je zeg maar data in kwijt.

173
00:10:21,000 --> 00:10:28,000
Waarbij je bijvoorbeeld bepaalde pixels kan manipuleren die wij niet kunnen zien.

174
00:10:28,000 --> 00:10:33,000
Kunnen wij met ons oog gewoon het verschil niet waarnemen of die er nou wel of niet in zit.

175
00:10:33,000 --> 00:10:35,000
En zo zou je het kunnen watermerken.

176
00:10:35,000 --> 00:10:38,000
Daar geloof ik zelf iets minder in.

177
00:10:38,000 --> 00:10:41,000
Omdat als je drinken stopt, kan je het er ook uit halen.

178
00:10:41,000 --> 00:10:44,000
Pixelhacking was natuurlijk al iets in het verleden.

179
00:10:44,000 --> 00:10:48,000
Precies, dus dat maakt het denk ik ontzettend lastig.

180
00:10:48,000 --> 00:10:53,000
En wat ik voorbij zie komen, en dat is echt wel ook een urban myth.

181
00:10:53,000 --> 00:10:56,000
Is dat we dat zo direct in teksten kwijt kunnen.

182
00:10:56,000 --> 00:11:01,000
Dus dat je in gegenereerde teksten ergens een watermerk zou hebben.

183
00:11:01,000 --> 00:11:08,000
Waardoor Google zou kunnen detecteren dat dit een gegenereerde tekst is.

184
00:11:08,000 --> 00:11:11,000
Waardoor je tekst lager scoort op je website.

185
00:11:11,000 --> 00:11:13,000
Hoe dan?

186
00:11:13,000 --> 00:11:17,000
Ja, kijk wij zitten allebei natuurlijk in de bits en bytes.

187
00:11:17,000 --> 00:11:24,000
Maar laten we zo zeggen, ieder karakter heeft gewoon een unieke code.

188
00:11:24,000 --> 00:11:26,000
En dat is het.

189
00:11:26,000 --> 00:11:32,000
Daar kan je niet stiekem nog iets ergens tussen frotten of zo.

190
00:11:32,000 --> 00:11:34,000
Dus dat gaat hem niet worden.

191
00:11:34,000 --> 00:11:43,000
Dus het hele idee dat er achter jouw tekst nog iets stiekem schel gaat, vergeet dat.

192
00:11:43,000 --> 00:11:51,000
Ik denk ook dat zo direct het niet uitmaakt voor Google en dat soort, weet ik veel.

193
00:11:51,000 --> 00:11:54,000
Ik ben niet zo thuis in die CEO gebeuren en zo.

194
00:11:54,000 --> 00:11:57,000
Maar uiteindelijk gaat het natuurlijk over wat lezen mensen graag.

195
00:11:57,000 --> 00:12:03,000
En wat is de engagement op een bepaalde content of artikel.

196
00:12:03,000 --> 00:12:08,000
Hoe interessant vind je het? Hoe vaak wordt het gelezen?

197
00:12:08,000 --> 00:12:11,000
En of het nou wel of niet gegenereerd is.

198
00:12:11,000 --> 00:12:13,000
Ja, daar zullen heel veel mensen heel wat van denken.

199
00:12:13,000 --> 00:12:18,000
Maar ik denk voor de technologie maakt het niet uit.

200
00:12:18,000 --> 00:12:20,000
Ik denk voor de mensen wel inderdaad.

201
00:12:20,000 --> 00:12:22,000
Dus een author en een trusted author.

202
00:12:22,000 --> 00:12:26,000
Ik denk dat dat in de toekomst wel veel extra toevoegt.

203
00:12:26,000 --> 00:12:29,000
Laten we hopen, dat als we het hebben over het nieuws,

204
00:12:29,000 --> 00:12:33,000
dat we daar heel duidelijk zo direct krijgen.

205
00:12:33,000 --> 00:12:36,000
Dat er wordt gezegd, dit is geschreven, dit is waargenomen,

206
00:12:36,000 --> 00:12:39,000
dit is gebaseerd op feiten.

207
00:12:39,000 --> 00:12:41,000
Op deze data.

208
00:12:41,000 --> 00:12:45,000
Dat de tekst dan nog steeds AI-gegenereerd is, dat tot daaraan toe.

209
00:12:45,000 --> 00:12:48,000
Maar dit zijn de feiten die ten grondslag liggen van...

210
00:12:48,000 --> 00:12:51,000
Precies, bronnen, dat soort zaken.

211
00:12:51,000 --> 00:12:56,000
Maar in ieder geval, herkennen wat is echt en wat is niet echt.

212
00:12:56,000 --> 00:12:59,000
Als we nu een plaatje van Dall-E 3 krijgen.

213
00:12:59,000 --> 00:13:00,000
Die zien we.

214
00:13:00,000 --> 00:13:01,000
Dat is niet zo moeilijk.

215
00:13:01,000 --> 00:13:02,000
Die herkennen we wel.

216
00:13:02,000 --> 00:13:06,000
Maar, foto's. Oeh, lastig hoor.

217
00:13:06,000 --> 00:13:10,000
Dat zag je dan met die fotowedstrijd. Ik vond het echt geweldig.

218
00:13:10,000 --> 00:13:13,000
Ja, mooi dat hij dan toch contact opneemt.

219
00:13:13,000 --> 00:13:15,000
Ik heb nog een bekend gisteren.

220
00:13:15,000 --> 00:13:16,000
Ja, toch?

221
00:13:16,000 --> 00:13:17,000
Ja.

222
00:13:17,000 --> 00:13:19,000
Dan gaan we naar de volgende mythe.

223
00:13:19,000 --> 00:13:22,000
Generatieve AI is intelligent.

224
00:13:22,000 --> 00:13:26,000
Ja, daar ben ik echt even ingedoken.

225
00:13:26,000 --> 00:13:32,000
Want hoe maak je nou duidelijk dat het juist niet intelligent is?

226
00:13:32,000 --> 00:13:37,000
Dat is uiteindelijk best wel heel erg lastig.

227
00:13:37,000 --> 00:13:41,000
Kijk, ik kom weer terug op die woord-voor-woord voorspellen.

228
00:13:41,000 --> 00:13:44,000
En daarmee kunnen we echt hele gave dingen doen.

229
00:13:44,000 --> 00:13:46,000
Het kan je helpen met die samenvatting.

230
00:13:46,000 --> 00:13:51,000
Ik zeg niet dat je er geen hele mooie toepassingen mee kan maken.

231
00:13:51,000 --> 00:13:55,000
Sterker nog, je kan er ook hele intelligente toepassingen mee maken.

232
00:13:55,000 --> 00:13:58,000
We weten niet wat intelligentie is.

233
00:13:58,000 --> 00:14:03,000
Maar ik denk dat we wel herkennen wanneer iets niet zo intelligent is.

234
00:14:03,000 --> 00:14:08,000
En het leuke is dat als je de volgende vraag...

235
00:14:08,000 --> 00:14:10,000
Ik heb dat een beetje in mijn omgeving gedaan.

236
00:14:10,000 --> 00:14:12,000
Moet je ook maar eens met je kinderen doen.

237
00:14:12,000 --> 00:14:15,000
Als je nu luistert en je hebt ergens kinderen zelf in de buurt.

238
00:14:15,000 --> 00:14:17,000
Stel eens gewoon de volgende vraag.

239
00:14:17,000 --> 00:14:22,000
Dat je zegt van, ik heb een man, een schaap en een kool.

240
00:14:22,000 --> 00:14:24,000
En die moeten met de boot naar de overkant.

241
00:14:24,000 --> 00:14:26,000
Hoe doe je dat?

242
00:14:26,000 --> 00:14:33,000
Bij mij was de rode draad in de boot naar de overkant.

243
00:14:33,000 --> 00:14:37,000
Je gaat zitten, je vaart, je stapt de boot uit.

244
00:14:37,000 --> 00:14:40,000
Maar we voelen het natuurlijk ook wel.

245
00:14:40,000 --> 00:14:46,000
Dit raakt aan het raadseltje van de man, de wolf, de schaap, de kool.

246
00:14:46,000 --> 00:14:50,000
Met beperkingen erbij en dat soort dingen.

247
00:14:50,000 --> 00:14:57,000
Ik heb deze vraag zo ook aan ChatGPT gesteld.

248
00:14:57,000 --> 00:15:02,000
En daar komt terug dat ChatGPT het volgende antwoordde.

249
00:15:02,000 --> 00:15:04,000
Dit is een klassiek probleem.

250
00:15:04,000 --> 00:15:09,000
Bekend als de boer, wolf, geit en kool.

251
00:15:09,000 --> 00:15:11,000
Daar gaan we al mee.

252
00:15:11,000 --> 00:15:13,000
Puzzel.

253
00:15:13,000 --> 00:15:17,000
Hier is een oplossing voor de versie met een man, een schaap en een kool.

254
00:15:17,000 --> 00:15:19,000
En daar komt hij.

255
00:15:19,000 --> 00:15:22,000
Ik heb niets om beperkingen gevraagd.

256
00:15:22,000 --> 00:15:26,000
Gewoon gezegd van, met je boot, ik heb een aantal items, zoek het uit.

257
00:15:26,000 --> 00:15:27,000
Komt hij aan.

258
00:15:27,000 --> 00:15:28,000
Stap 1.

259
00:15:28,000 --> 00:15:32,000
De man neemt eerst de schaap mee naar de overkant en laat het erachter.

260
00:15:32,000 --> 00:15:33,000
Stap 2.

261
00:15:33,000 --> 00:15:36,000
De man vaart terug naar de oorspronkelijke kant.

262
00:15:36,000 --> 00:15:37,000
Stap 3.

263
00:15:37,000 --> 00:15:39,000
De man neemt nu de kool mee naar de overkant.

264
00:15:39,000 --> 00:15:40,000
Stap 4.

265
00:15:40,000 --> 00:15:46,000
De man laat de kool aan de overkant achter, maar neemt het schaap weer mee terug naar de oorspronkelijke kant.

266
00:15:46,000 --> 00:15:47,000
Stap 5.

267
00:15:47,000 --> 00:15:52,000
De man laat het schaap aan de oorspronkelijke kant achter, neemt de wolf.

268
00:15:52,000 --> 00:15:54,000
Waar komt die wolf vandaan?

269
00:15:54,000 --> 00:15:56,000
Heb ik niet om gevraagd.

270
00:15:56,000 --> 00:16:00,000
Of in dit geval zichzelf, staat er nog tussen haakjes, mee naar de overkant.

271
00:16:00,000 --> 00:16:07,000
De man laat weer de niet bestaande wolf aan de overkant achter bij de kool.

272
00:16:07,000 --> 00:16:08,000
Stap 7.

273
00:16:08,000 --> 00:16:13,000
De man vaart terug naar de oorspronkelijke kant en neemt tenslotte het schaap weer mee naar de overkant.

274
00:16:13,000 --> 00:16:18,000
En dan staat er helemaal, uiteindelijk zijn de man, het schaap en de kool allemaal veilig aan de overkant.

275
00:16:18,000 --> 00:16:20,000
Dus het volgende schema ziet er als volgt uit.

276
00:16:20,000 --> 00:16:23,000
Nou, nog meer bla bla bla bla bla.

277
00:16:23,000 --> 00:16:29,000
Wat je ziet is dat het gaat naar geleerde tekstpatronen toe.

278
00:16:29,000 --> 00:16:35,000
Het rekent uiteindelijk naar een bekend tekstpatroon die heel vaak voorkomt.

279
00:16:35,000 --> 00:16:39,000
Namelijk de wolf, de schaap, de geit en de kool.

280
00:16:39,000 --> 00:16:44,000
Dus wat je vooral ziet is dat er geen enkele begripsvorming is.

281
00:16:44,000 --> 00:16:49,000
Waar gezegd wordt, het model kan heel goed redeneren, dat is er niet.

282
00:16:49,000 --> 00:16:53,000
Er is geen idee wat een schaap is, wat een wolf is.

283
00:16:53,000 --> 00:16:58,000
Ook al lijkt het zo uitgerekend te hebben.

284
00:16:58,000 --> 00:17:02,000
En toen dacht ik, ja maar misschien heb ik het ook wel lastig gemaakt.

285
00:17:02,000 --> 00:17:06,000
Want schaap, kool, het zit erin.

286
00:17:06,000 --> 00:17:14,000
Dus ik heb gezegd, als we een man hebben en die heeft pindakaas en brood en die wil naar de overkant.

287
00:17:14,000 --> 00:17:17,000
Nog steeds met die boot. Dan krijgen we het volgende.

288
00:17:17,000 --> 00:17:26,000
In het geval van een man, pindakaas en brood, is er geen risico dat van deze items een ander elkaar opeet of beschadigt.

289
00:17:26,000 --> 00:17:30,000
Daarom is het logistiek veel eenvoudiger om deze over te zetten.

290
00:17:30,000 --> 00:17:33,000
Dan denk je, hé, dit lijkt er goed aan, toch?

291
00:17:33,000 --> 00:17:37,000
Dit klinkt als een redenatie.

292
00:17:37,000 --> 00:17:41,000
Hier is een mogelijke manier om dit te doen. Let op.

293
00:17:41,000 --> 00:17:47,000
Stap 1. De man neemt eerst de pindakaas mee naar de overkant. Hij laat het erachter.

294
00:17:47,000 --> 00:17:48,000
Waarom?

295
00:17:48,000 --> 00:17:52,000
Stap 2. De man vaart terug naar de oorspronkelijke kant.

296
00:17:52,000 --> 00:17:55,000
Stap 3. De man neemt nu het brood mee naar de overkant.

297
00:17:55,000 --> 00:17:58,000
Nu zijn zowel de pindakaas als het brood aan de overkant.

298
00:17:58,000 --> 00:18:01,000
Nou, geweldig. Moeilijke manier, geweldig.

299
00:18:01,000 --> 00:18:04,000
Stap 4. De man vaart terug naar de oorspronkelijke kant.

300
00:18:04,000 --> 00:18:08,000
Stap 5. De man gaat zelf naar de overkant.

301
00:18:08,000 --> 00:18:10,000
Hoe dan?

302
00:18:10,000 --> 00:18:18,000
Het begon aardig goed natuurlijk. Het kan elkaar niet in de weg zitten van elkaar opeten.

303
00:18:18,000 --> 00:18:22,000
Allemaal, de man gaat denk ik toch wel de boterham en de pindakaas opeten, verwacht ik.

304
00:18:22,000 --> 00:18:25,000
Ja, tijdens het roeien.

305
00:18:25,000 --> 00:18:29,000
Je ziet dat het terugvalt. Ik denk dat dat het belangrijkste is.

306
00:18:29,000 --> 00:18:31,000
Je kan hier geweldig om lachen.

307
00:18:31,000 --> 00:18:35,000
Wat je ziet is dat het valt in patronen.

308
00:18:35,000 --> 00:18:37,000
En is dat erg? Nee.

309
00:18:37,000 --> 00:18:40,000
Want daar kunnen we juist geweldig gebruik van maken.

310
00:18:40,000 --> 00:18:48,000
Maar als je denkt dat het heel goed kan redeneren, dat het intelligent is, dat het snapt wat het zegt.

311
00:18:48,000 --> 00:18:51,000
Nee, echt, echt, echt niet.

312
00:18:51,000 --> 00:18:57,000
En dit zijn geen moeilijke rekensommetjes of allemaal dat soort zaken.

313
00:18:57,000 --> 00:19:01,000
Dit is hele eenvoudige redenatie.

314
00:19:01,000 --> 00:19:06,000
En ook als ze straks inbouwen dat dit wel kan.

315
00:19:06,000 --> 00:19:09,000
Nee, daar moet ik het anders zeggen.

316
00:19:09,000 --> 00:19:13,000
Dat hij de puzzel op de juiste manier oplost.

317
00:19:13,000 --> 00:19:18,000
Ben je er dan van bewust dat dit uitgerekend is.

318
00:19:18,000 --> 00:19:25,000
Het is geen redenatie. Het is geen concept zoals wij dingen in ons hoofd redeneren.

319
00:19:25,000 --> 00:19:29,000
Zoals wij dingen kunnen visualiseren in onze hoofd.

320
00:19:29,000 --> 00:19:34,000
Tokens bij elkaar die in de buurt zitten. Het lijkt op.

321
00:19:34,000 --> 00:19:40,000
Het heeft ook geen rechtstreeks verbinding met de buitenwereld.

322
00:19:40,000 --> 00:19:44,000
Nee, dus dat is ook wel essentieel als je zelf met Gen AI aan de slag gaat.

323
00:19:44,000 --> 00:19:48,000
En je hebt bepaalde belangrijke contexten en domeinen waarin je opereert.

324
00:19:48,000 --> 00:19:50,000
Dat je dat zou moeten gaan toevoegen.

325
00:19:50,000 --> 00:19:53,000
En scherp op moet zijn hoe je dat gebruikt met Gen AI.

326
00:19:53,000 --> 00:19:57,000
Dan komt de menselijke interactie om dat te sturen.

327
00:19:57,000 --> 00:20:01,000
En dan komt software-engineering om dat goed op te kunnen lossen.

328
00:20:01,000 --> 00:20:04,000
Dus dat kan wel. Dan moet je zelf aan de slag.

329
00:20:04,000 --> 00:20:06,000
Nou, mooi.

330
00:20:06,000 --> 00:20:11,000
En intelligent is een papegaai. Die praat ook gewoon na wat hij gehoord heeft.

331
00:20:11,000 --> 00:20:20,000
Ja, en in zekere zin zou je op sommige gedragingen het etiket niet intelligent kunnen plakken.

332
00:20:20,000 --> 00:20:23,000
En sommige dingen zijn alweer wat minder intelligent.

333
00:20:23,000 --> 00:20:27,000
En sommige mensen ook. Ik denk ook wel eens van "zo, dat is niet handig".

334
00:20:27,000 --> 00:20:28,000
Ja toch?

335
00:20:28,000 --> 00:20:29,000
Dat is menselijk.

336
00:20:29,000 --> 00:20:30,000
Dat is menselijk, ja.

337
00:20:30,000 --> 00:20:34,000
Het ligt eigenlijk een beetje in het verlengde als we toch even de papegaai pakken.

338
00:20:34,000 --> 00:20:36,000
AI krijgt een eigen wil.

339
00:20:36,000 --> 00:20:38,000
AI krijgt een eigen wil. Dat zou mooi zijn, hè?

340
00:20:38,000 --> 00:20:40,000
Nou, dat weet ik niet.

341
00:20:40,000 --> 00:20:45,000
Nee, hoe zeg je dat? Sarcastisch, ironisch? Nee, nee, nee.

342
00:20:45,000 --> 00:20:50,000
Waar ik hier vooral aan moet denken is het simpele voorbeeld.

343
00:20:50,000 --> 00:20:52,000
Kijk, wij stappen allemaal in een vliegtuig.

344
00:20:52,000 --> 00:21:00,000
En dan vinden we het de normaalste zaak van de wereld dat de autopilot ons brengt waar we naartoe willen.

345
00:21:00,000 --> 00:21:05,000
Je zou, als je het afgerond zegt, en misschien worden piloten nu heel boos,

346
00:21:05,000 --> 00:21:08,000
maar dan zou je kunnen zeggen, ja die autopilot…

347
00:21:08,000 --> 00:21:15,000
Eigenlijk hebben we volgens mij al zelfvliegende vliegtuigen en zitten piloten bij voor noodgevallen.

348
00:21:15,000 --> 00:21:21,000
En ze moeten nog opstaan en dalen, geloof ik, maar een autopilot zou dat ook kunnen.

349
00:21:21,000 --> 00:21:26,000
Outlier detection, dus uitzonderingen af kunnen handelen die niet in het systeem geautomatiseerd zijn.

350
00:21:26,000 --> 00:21:28,000
Dat is waar volgens mij de piloot voor zit.

351
00:21:28,000 --> 00:21:32,000
Ja, en als we het verkeerd hebben, laat het ons even weten.

352
00:21:32,000 --> 00:21:41,000
Maar je denkt toch ook niet dat als jij in zo'n vliegtuig instapt en je zit lekker op 10 kilometer hoogte,

353
00:21:41,000 --> 00:21:45,000
dat je bang bent dat de autopilot in één keer gaat bedenken van,

354
00:21:45,000 --> 00:21:47,000
ik heb zin om naar…

355
00:21:47,000 --> 00:21:52,000
Eigenlijk zou ik liever een duikboot willen zijn, een duikbootpiloot.

356
00:21:52,000 --> 00:21:57,000
En dat hij dan inderdaad, nou ik ga die ambitie meteen waarmaken.

357
00:21:57,000 --> 00:22:02,000
En dat is misschien een beetje een krankzinnig voorbeeld,

358
00:22:02,000 --> 00:22:07,000
maar dat is natuurlijk, weet je, we maken systemen om bepaalde taken uit te voeren,

359
00:22:07,000 --> 00:22:11,000
bepaalde berekeningen uit te voeren en that's it.

360
00:22:11,000 --> 00:22:22,000
Er zit geen bewustzijn in, er zit geen wil in, er zit, ja weet je, het is ook zo absurd als dat het klinkt.

361
00:22:22,000 --> 00:22:27,000
En dan toch ga ik even in de absurde nog even meedenken van waarom kon dat dan eigenlijk naar mijn idee.

362
00:22:27,000 --> 00:22:32,000
Is omdat we zoveel verschillende modellen, allemaal verschillende acties aan het automatiseren zijn

363
00:22:32,000 --> 00:22:37,000
en het gevoel is dat dat als één iets acteert, waardoor je dit gevoel zou kunnen krijgen.

364
00:22:37,000 --> 00:22:42,000
Ja, dat snap ik ook. Dat snap ik zeker. Maar daarom ook juist dat verhaal van die autopilot.

365
00:22:42,000 --> 00:22:50,000
Er zit geen wil in, er zit geen ambitie in, er zit geen denkvermogen in, er zit niet…

366
00:22:50,000 --> 00:22:59,000
En het hele idee van, want dat vinden filosofen fijn, filosofen die kunnen uiteindelijk gewoon zeg maar

367
00:22:59,000 --> 00:23:08,000
de werkelijkheid en de techniek aan de kant schuiven en zeggen van ja, maar alles is in principe mogelijk en wat als…

368
00:23:08,000 --> 00:23:10,000
En dat is ook goed dat ze dat doen.

369
00:23:10,000 --> 00:23:19,000
Dus wat als we een systeem hebben die zegt van ja, maar wat nou als we een AI bouwen die ervoor moet zorgen

370
00:23:19,000 --> 00:23:28,000
dat het klimaatprobleem opgelost moet worden en dan tussen aanhalingstekens bedenkt, ja dan moet die mens er tussen uit.

371
00:23:28,000 --> 00:23:34,000
Die vormt zeg maar het probleem in de formule. Dus die halen we er tussen uit.

372
00:23:34,000 --> 00:23:47,000
Dat zijn, denk ik, ja hoe zal ik het zeggen, leuke gedachte-experimenten, maar het zijn wel gedachte-experimenten.

373
00:23:47,000 --> 00:23:53,000
En dat is ook wel een soort van, ik denk dat het een soort van techniek is, maar het is ook een soort van,

374
00:23:53,000 --> 00:23:59,000
ik denk dat het een soort van techniek is. En dat is ook wel een soort van, ik denk dat het een soort van techniek is.

375
00:23:59,000 --> 00:24:04,000
Ik denk dat het een soort van techniek is, maar het is ook een soort van, ik denk dat het een soort van techniek is.

376
00:24:04,000 --> 00:24:06,000
En dat is ook wel een soort van techniek.

377
00:24:10,000 --> 00:24:17,000
En dat is ook wel een soort van techniek.

378
00:24:17,000 --> 00:24:19,000
En dat is ook wel een soort van techniek.

379
00:24:35,000 --> 00:24:38,000
Ik heb best wel heel veel praatjes en cursussen en trainingen.

380
00:24:38,000 --> 00:24:46,000
En dan vraag ik heel vaak van, sinds wanneer bestaat eigenlijk AI?

381
00:24:46,000 --> 00:24:48,000
Ik vraag, is dat iets van de laatste tien jaar?

382
00:24:48,000 --> 00:24:56,000
En dan moet je toch wel denken dat ongeveer 40% of 50% van de mensen steekt dan gewoon een hand op.

383
00:24:56,000 --> 00:24:58,000
Dat is meer dan ik dacht.

384
00:24:58,000 --> 00:25:01,000
En zo ga ik dat in decennia terug.

385
00:25:01,000 --> 00:25:08,000
En dan zijn er altijd wel een paar mensen, dus laten we zeggen 5 op de 100,

386
00:25:08,000 --> 00:25:11,000
die weten van, dit komt eigenlijk uit de jaren 50.

387
00:25:11,000 --> 00:25:18,000
Dus in de jaren 50 is de term in ieder geval artificial intelligence ontstaan.

388
00:25:18,000 --> 00:25:23,000
In de jaren 40 waren ze eigenlijk al bezig, Alan Turing, heb je misschien wel eens van gehoord,

389
00:25:23,000 --> 00:25:28,000
was al bezig met de hypothese en het idee van,

390
00:25:28,000 --> 00:25:33,000
zouden we niet een machine kunnen maken die heel goed zou kunnen rekenen?

391
00:25:33,000 --> 00:25:37,000
En zo goed dat hij dat beter zou kunnen dan de mens.

392
00:25:37,000 --> 00:25:40,000
Dus daar is het idee ontstaan.

393
00:25:40,000 --> 00:25:45,000
Maar het is een techniek die eigenlijk in golven is gekomen.

394
00:25:45,000 --> 00:25:50,000
Dus toen in de jaren 50 waren ze er helemaal vol van, ging het weer minder.

395
00:25:50,000 --> 00:25:52,000
In de jaren 80 is dat weer opgeleefd.

396
00:25:52,000 --> 00:25:57,000
Toen liepen ze tegen allerlei plafonds aan en ging dat weer weg.

397
00:25:57,000 --> 00:26:03,000
En je zou dat niet alleen kunnen zien als seizoenen, zo wordt het vaak ook benoemd.

398
00:26:03,000 --> 00:26:06,000
Dus we kwamen uit een AI winter, zeggen ze dan.

399
00:26:06,000 --> 00:26:11,000
Want dan was het koud, niemand hield zich daarmee bezig, was je niet lekker om op te warmen.

400
00:26:11,000 --> 00:26:13,000
Nou, die winter zijn we uit.

401
00:26:13,000 --> 00:26:21,000
Dus we warmen ons allemaal aan de hittegolven van AI, de hittegolven van de hype.

402
00:26:21,000 --> 00:26:27,000
Dus het is een komen en gaan en die technologie heeft zich gewoon steeds verder ontwikkeld.

403
00:26:27,000 --> 00:26:35,000
En op 30 november 2022 heeft OpenAI, heeft ChatGPT opengezet.

404
00:26:35,000 --> 00:26:39,000
En dat was voor heel veel mensen een soort van luik wat open is gegaan.

405
00:26:39,000 --> 00:26:42,000
Van nu is het er, het is ook heel groot.

406
00:26:42,000 --> 00:26:48,000
Maar het is een gevolg van allemaal laagjes onderzoek, allemaal mini doorbraakjes.

407
00:26:48,000 --> 00:26:56,000
Ik denk ook niet, iedereen zit te hopen op GPT 5 en dat dat weer iets gigantisch zal worden.

408
00:26:56,000 --> 00:26:58,000
Ik denk het niet.

409
00:26:58,000 --> 00:27:01,000
We gaan denk ik gewoon echt stapje voor stapje vooruit.

410
00:27:01,000 --> 00:27:04,000
En wel vooruit, stapje voor stapje.

411
00:27:04,000 --> 00:27:07,000
Dus het is allesbehalve nieuw.

412
00:27:07,000 --> 00:27:09,000
Ik heb het zelfs even opgezocht.

413
00:27:09,000 --> 00:27:14,000
Namelijk, AI bestond al eerder dan het internet.

414
00:27:14,000 --> 00:27:20,000
Wij weten dat, maar ik denk een hoop luisteraars misschien daar geen idee van hebben.

415
00:27:20,000 --> 00:27:25,000
Zelfs voor de uitvinding van de post-it.

416
00:27:25,000 --> 00:27:31,000
De post-it is pas in de jaren 70 uitgevonden.

417
00:27:31,000 --> 00:27:32,000
Wist ik niet, dankjewel Joop.

418
00:27:32,000 --> 00:27:35,000
Het zijn dagen dat ik meer post-its gebruik dan AI.

419
00:27:35,000 --> 00:27:39,000
En zelfs voor de introductie van de magnetron.

420
00:27:39,000 --> 00:27:43,000
Moet ik ook even helpen, want die is van net voor mijn tijd.

421
00:27:43,000 --> 00:27:46,000
Ja maar dan ook echt net.

422
00:27:46,000 --> 00:27:50,000
Ik moet hier eerlijk bij zeggen, hij is uitgevonden in de jaren 40.

423
00:27:50,000 --> 00:27:52,000
Daarom noemde ik ook de introductie.

424
00:27:52,000 --> 00:27:56,000
Dus in de jaren 60 is hij echt geïntroduceerd aan de consument.

425
00:27:56,000 --> 00:27:58,000
Dus is AI nieuw?

426
00:27:58,000 --> 00:28:00,000
Nee, allesbehalve.

427
00:28:00,000 --> 00:28:02,000
En het gaat ook niet meer weg.

428
00:28:02,000 --> 00:28:09,000
Ik denk wel dat we de hitte van de huidige hype, die gaat er wat af.

429
00:28:09,000 --> 00:28:15,000
En wat wel lekker is, laten we in zo'n klimaat komen van zo'n 20 graden,

430
00:28:15,000 --> 00:28:19,000
beentjes op tafel, lekker steady doorgaan, comfortabel.

431
00:28:19,000 --> 00:28:20,000
Precies.

432
00:28:20,000 --> 00:28:24,000
En dat we een beetje van de oververhitte mythes,

433
00:28:24,000 --> 00:28:28,000
dat we die allemaal hoeven in te smeren met die volbrandende zon inderdaad.

434
00:28:28,000 --> 00:28:32,000
Dus hopelijk een aantal mythes doorgebroken.

435
00:28:32,000 --> 00:28:35,000
Busted, zoals hij dan zei bij de Mythbusters.

436
00:28:35,000 --> 00:28:39,000
Ja, mijn snor begint een beetje, die opplaksnor begint een beetje te kriebelen.

437
00:28:39,000 --> 00:28:41,000
De alpinopet gaat af.

438
00:28:41,000 --> 00:28:43,000
En dan...

439
00:28:43,000 --> 00:28:47,000
En heb je dus zelf een mythe of weet je niet of het een mythe is,

440
00:28:47,000 --> 00:28:49,000
en zou je die met ons willen delen, dan graag.

441
00:28:49,000 --> 00:28:52,000
Laat even een berichtje bij ons achter op social media.

442
00:28:52,000 --> 00:28:54,000
Je weet ons wel te vinden.

443
00:28:54,000 --> 00:28:57,000
Neem vooral even contact op, dan kunnen we hem eventueel meenemen

444
00:28:57,000 --> 00:28:59,000
in een volgende Mythbusters variant.

445
00:28:59,000 --> 00:29:01,000
Precies.

446
00:29:01,000 --> 00:29:03,000
Heerlijk.

447
00:29:03,000 --> 00:29:04,000
Ja toch?

448
00:29:04,000 --> 00:29:08,000
Ja, het is een nostalgische gevoelens.

449
00:29:08,000 --> 00:29:09,000
Ja, dat is het.

450
00:29:10,000 --> 00:29:14,000
Hey, jij luisterde weer naar een aflevering van AIToday Live.

451
00:29:14,000 --> 00:29:18,000
Vind je dit nou een leuke aflevering, abonneer je dan via je favoriete podcast app.

452
00:29:18,000 --> 00:29:19,000
En mis geen aflevering.

453
00:29:19,000 --> 00:29:20,000
Tot de volgende keer.

454
00:29:23,000 --> 00:29:29,000
[Muziek]