AIToday Live

S07E33 - Over kunst, technologie en nieuwe mogelijkheden met AI met Jeroen van der Most

Aigency by Info Support Season 7 Episode 33

Jeroen van der Most, kunstenaar en AI-pionier, deelt zijn ervaringen met het combineren van kunst en technologie in de nieuwste aflevering van AIToday Live. Hij vertelt over zijn eerste AI-kunstproject waarbij Twitter-berichten werden omgezet in portretten, wat leidde tot een opdracht in Nieuw-Zeeland.

Van der Most ziet AI als een democratiserende kracht in creatieve sectoren en moedigt mensen aan te experimenteren met AI-tools. Hij benadrukt echter het belang van menselijke creativiteit en visie bij het gebruik van deze technologieën.

In zijn werk verlegt Van der Most grenzen tussen mens, natuur en technologie, zoals blijkt uit het project 'Letters from Nature'. Hij ziet AI als een spiegel die ons meer leert over onze eigen menselijkheid en creativiteit.

Onderwerpen

  • De rol van AI in de kunstwereld
  • Creatieve processen en menselijke intuïtie
  • AI als democratiserende kracht in marketing
  • Verbinding tussen mens, natuur en technologie
  • Toekomstvisie op AI en kunstgeschiedenis
Links

Genoemde entiteiten: kunst - quantum computing - kunstwerk - Nieuw-Zeeland - aardbeving - marketing - contentcreatie - Letters from Nature - klimaatcrisis - machine-creativiteit - kunstgeschiedenis - kunststromingen

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:05,280
In deze aflevering hoor je Jeroen van der Most, kunstenaar met een focus op AI die zijn visie

2
00:00:05,280 --> 00:00:07,760
deelt over het combineren van kunst en technologie.

3
00:00:07,760 --> 00:00:14,160
Jeroen deelt zijn inzichten over hoe je creatief kunt worden met AI, ideeën kunt genereren

4
00:00:14,160 --> 00:00:17,320
en technologie kunt gebruiken om nieuwe mogelijkheden te ontdekken.

5
00:00:17,320 --> 00:00:18,600
Dus blijf luisteren!

6
00:00:18,601 --> 00:00:24,040
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

7
00:00:24,040 --> 00:00:26,340
Mijn naam Joop Snijder, CTO bij Aigency.

8
00:00:26,340 --> 00:00:29,080
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support.

9
00:00:29,080 --> 00:00:32,259
En vandaag gaan we het hebben over AI en kunst.

10
00:00:32,259 --> 00:00:35,840
We hebben een AI-kunstenaar in de studio, Jeroen van der Most.

11
00:00:35,840 --> 00:00:38,100
Dank je wel dat je wilde komen naar de studio.

12
00:00:38,100 --> 00:00:40,860
Ja, superleuk om hier te zijn en jullie vandaag te spreken, absoluut ja.

13
00:00:40,860 --> 00:00:43,120
Ja, zou je jezelf eerst willen voorstellen aan de luisteraars?

14
00:00:43,120 --> 00:00:46,080
Nou, ik ben Jeroen van der Most. Ik ben inderdaad kunstenaar met nieuwe technologieën.

15
00:00:46,080 --> 00:00:50,040
Dus het gaat heel veel om AI. Het gaat ook wel om wat nieuwere dingen, quantum computing en zo.

16
00:00:50,040 --> 00:00:56,200
En daar doe ik allerlei projecten mee. Vaak met kennis kijken we wel wat voor leuks we kunnen maken en waar het terecht komt.

17
00:00:56,200 --> 00:01:00,960
Maar ik bouw ook kunstinstallaties, dus met die technologieën voor allerlei organisaties.

18
00:01:00,960 --> 00:01:04,280
Het is wel gewerkt voor Microsoft, Nvidia, dat soort partijen.

19
00:01:04,280 --> 00:01:06,340
Ook een non-profit hoek voor de Aids Fonds of zo.

20
00:01:06,340 --> 00:01:11,680
En daarnaast doe ik heel veel praten over mijn eigen kunst, op allerlei podia hier in de wereld.

21
00:01:11,680 --> 00:01:12,200
Ja, en vandaag.

22
00:01:12,200 --> 00:01:12,980
En dat moet ik heel veel spreken.

23
00:01:12,980 --> 00:01:16,440
Ja, ook inspireren over kunsttechnologie, nieuwe ideeën.

24
00:01:16,800 --> 00:01:20,840
En waar moeten mensen aan denken als je het hebt over AI met kunst?

25
00:01:20,840 --> 00:01:24,700
Nou, een bekend voorbeeld is gewoon waar het bij mij begonnen is.

26
00:01:24,700 --> 00:01:27,960
En dat is al bijzonder lang geleden, 2010, zo'n beetje 2010, 15, 16.

27
00:01:27,960 --> 00:01:29,680
Toen werkte ik heel erg met oude meesters.

28
00:01:29,680 --> 00:01:31,720
Dan ging ik naar nieuwe manieren zoeken om kunst te maken.

29
00:01:31,720 --> 00:01:35,400
Maar dan rond oude meesters en wat dat betekende bijvoorbeeld dat we aan gewerkt hebben.

30
00:01:35,400 --> 00:01:37,380
Dat zijn projecten waarbij we AI gebruikten.

31
00:01:37,380 --> 00:01:39,700
Om dan bijvoorbeeld alle Van Gogh schilderijen te analyseren.

32
00:01:39,940 --> 00:01:42,320
Of alle schilderijen Rembrandt, die Rembrandt had gemaakt.

33
00:01:42,320 --> 00:01:44,740
En dan met AI een nieuwe te voorspellen.

34
00:01:44,740 --> 00:01:48,020
En die ook te realiseren, 3D te laten printen en zo.

35
00:01:48,020 --> 00:01:49,560
En dat is een beetje 2016.

36
00:01:49,560 --> 00:01:50,140
Ja.

37
00:01:50,140 --> 00:01:56,900
En na die tijd is het een beetje ook meer gaan schuiven naar van, ja, kunnen we ook op andere manieren ook weer grenzen doorbreken?

38
00:01:56,900 --> 00:02:02,320
Dus ook in de zin van, kunnen we hele nieuwere, positieve, interessantere experimenten doen met wat technologie is?

39
00:02:02,540 --> 00:02:08,419
En dan bedoel ik meer van, nou veel van mijn werken gaan ook over grens verleggen tussen mensen en natuur.

40
00:02:08,419 --> 00:02:13,660
Dus technologie gaan gebruiken, niet om de natuur te misbruiken, maar juist mensen en natuur dichter bij elkaar te gaan brengen.

41
00:02:13,660 --> 00:02:14,740
Oh, en hoe doe je dat?

42
00:02:14,740 --> 00:02:20,420
Nou, dat is bijvoorbeeld een project geweest waarin we met AI brieven gaan schrijven namens de natuur.

43
00:02:20,420 --> 00:02:22,220
Over de klimaatcrisis.

44
00:02:22,220 --> 00:02:24,580
En die we ook zijn gaan versturen aan allemaal wereldleiders.

45
00:02:24,580 --> 00:02:27,140
Dat is een project, best wel bekend project, Letters from Nature.

46
00:02:27,140 --> 00:02:30,740
Wat al vijf, zes jaar zeg maar in allerlei musea over de wereld staat.

47
00:02:31,080 --> 00:02:36,160
Maar er zijn hele series van dat soort werken die ik eigenlijk run of mee bezig ben.

48
00:02:36,160 --> 00:02:38,380
En wat nu bijvoorbeeld echt speelt is een project.

49
00:02:38,380 --> 00:02:42,320
Ja, ik zit tegenwoordig, zit ik helemaal in de aardappels.

50
00:02:42,320 --> 00:02:44,640
Oké, die zag ik niet aankomen.

51
00:02:44,640 --> 00:02:47,080
Aardappels, AI en kunst.

52
00:02:47,080 --> 00:02:47,880
Exact.

53
00:02:47,880 --> 00:02:50,620
Dus dat fascineert mij dan meteen, die combinatie.

54
00:02:50,620 --> 00:02:53,780
Want dat vond ik dus twee jaar geleden ook heel interessant dit.

55
00:02:53,780 --> 00:02:56,340
En toen ben ik daar eigenlijk in het traject terecht gekomen.

56
00:02:56,340 --> 00:02:59,320
En dat is bijvoorbeeld een kunstinstallatie, die staat nou in Estland, in Tallien.

57
00:02:59,580 --> 00:03:00,800
In een museum daar.

58
00:03:00,800 --> 00:03:03,440
En die draait om een aardappel.

59
00:03:03,440 --> 00:03:09,040
En wat er gebeurt namelijk, is dat in dat project, dit is trouwens ook met een stukje EU-vinding gebeurd.

60
00:03:09,040 --> 00:03:13,420
Het is een innovatie ook, die tussen kunst en wetenschap in zit in de voedingsindustrie.

61
00:03:13,420 --> 00:03:16,520
En wat je dan kan doen, is dat jij een voedingsproduct pakt.

62
00:03:16,520 --> 00:03:19,120
Bijvoorbeeld die aardappel, een vegetable dus, een groente.

63
00:03:19,460 --> 00:03:27,080
En wij wilden dan eigenlijk dus kleine producenten van gezond voedsel met AI, zeg maar, dezelfde marketingkracht geven.

64
00:03:27,080 --> 00:03:31,160
Als zeg maar hele powerful globale merken, zeg maar.

65
00:03:31,160 --> 00:03:31,480
Oh ja.

66
00:03:31,480 --> 00:03:33,780
En wat er dan is, kijk, dan ga je dat museum in.

67
00:03:33,780 --> 00:03:36,460
In een kamertje ligt die aardappel, ligt onder zo'n glazen stolp.

68
00:03:36,460 --> 00:03:37,600
En er staat de camera op.

69
00:03:37,600 --> 00:03:42,280
En dan met een stukje visual extraction trekt hij de aardappel, zeg maar, uit de achtergrond.

70
00:03:42,660 --> 00:03:45,440
En gaat hij daar dus, zeg maar, commercials omheen maken.

71
00:03:45,440 --> 00:03:47,320
In de stijl van allemaal merken.

72
00:03:47,320 --> 00:03:54,220
Dus dan kan je denken aan, ja, je krijgt een soort McDonald's-achtige reclame rondom, maar dan niet met hamburger en friet, maar met een aardappel.

73
00:03:54,220 --> 00:03:58,780
Maar een van de interessantse richtingen, dat was dus met, zeg maar, luxe merken.

74
00:03:58,780 --> 00:04:00,660
Denk aan Prada, Verzatje.

75
00:04:00,660 --> 00:04:07,300
En dan krijg je dus, allemaal van die Prada, dan krijg je een soort Prada, ja, aardappel, commercial.

76
00:04:07,300 --> 00:04:12,480
Met allemaal van die hele, ja, hot influencers en allemaal hele moeilijke, ja, mooie poses.

77
00:04:12,480 --> 00:04:15,920
Dus die, zeg maar, met die aardappel, zeg maar, daar aan de gang zijn.

78
00:04:15,920 --> 00:04:18,380
Ik kan het niet laten om te zeggen de Prada-appel.

79
00:04:18,380 --> 00:04:24,320
Nee, maar, ja, dat klinkt wel heel interessant.

80
00:04:24,320 --> 00:04:26,080
Hoe reageren mensen daarop dan?

81
00:04:26,080 --> 00:04:28,580
Nou ja, eigenlijk zo'n beetje zoals jullie inderdaad.

82
00:04:28,580 --> 00:04:32,220
Kijk, het is aan de ene kant een soort van heel grappig project.

83
00:04:32,220 --> 00:04:34,800
Maar het is wel degelijk met een hele serieus ondertoon.

84
00:04:34,800 --> 00:04:40,800
Want we komen echt in tijdperk terecht, waarin AI hele substantiële dingen gaat veranderen.

85
00:04:40,800 --> 00:04:41,560
Ook in marketing.

86
00:04:41,820 --> 00:04:43,400
gaat democratiseren.

87
00:04:43,400 --> 00:04:48,960
Wat marketing en, zeg maar, het maken van mooie beelden, van mooie content eigenlijk is.

88
00:04:48,960 --> 00:04:49,320
Ja.

89
00:04:49,320 --> 00:04:54,220
En dat is, kijk, dit soort dingen zijn er ook heel erg opgericht om ook, zeg maar, ja, opschudding te veroorzaken.

90
00:04:54,220 --> 00:04:57,080
En nieuwe ideeën om daarmee te experimenteren.

91
00:04:57,080 --> 00:04:58,660
Deels zit het in marketing.

92
00:04:58,660 --> 00:05:01,000
Maar deels is het natuurlijk ook een kunstwerk.

93
00:05:01,000 --> 00:05:03,540
Wat heel erg gaat over van, wat is er nieuwe vorm van kunst?

94
00:05:03,540 --> 00:05:06,020
Wat is de rol van de mensen eigenlijk nog in het maken van kunstwerk?

95
00:05:06,160 --> 00:05:08,820
Is de aardappel de kunstenaar geworden bijna in dit geval?

96
00:05:08,820 --> 00:05:10,700
Oh ja.

97
00:05:10,700 --> 00:05:12,220
Oh, oh.

98
00:05:12,220 --> 00:05:14,140
Ja, daar moet ik even over nadenken, ja.

99
00:05:14,640 --> 00:05:17,540
Ik heb ook natuurlijk even wat foto's opgezocht van je kunstwerk.

100
00:05:17,540 --> 00:05:19,820
Is dat ook waar die broccoli omheen gaat?

101
00:05:19,820 --> 00:05:20,360
Ja, zeker.

102
00:05:20,360 --> 00:05:24,660
Want het zag er echt prachtig uit, die beelden inderdaad.

103
00:05:24,660 --> 00:05:33,820
Ja, dus de beelden zijn echt, wat je dus tegenwoordig al, of ja, zelfs dit is al met enige vertraging hoe het nu in het museum staat, maar die beelden zijn echt fantastisch geworden.

104
00:05:33,820 --> 00:05:34,480
Zo gelikt.

105
00:05:34,480 --> 00:05:44,020
Dus dit is echt zo gelikt, zo mooi, dat je echt, zoiets als vroeger natuurlijk, ja, dan had je, weet je wel, major budgetten nodig om zo'n fotoshoot te gaan doen.

106
00:05:44,020 --> 00:05:51,080
En dat is nu gewoon met AI, ja, heel toegankelijk geworden, zeg maar, van wat er gebeurt.

107
00:05:51,080 --> 00:05:53,560
En het werkt inderdaad met allerlei soorten groentes.

108
00:05:53,560 --> 00:06:00,660
Het nadeel van broccoli is van, als je dat onder die glazen stolp gaat, ja, die gaat niet zo lang mee.

109
00:06:00,660 --> 00:06:05,280
Na drie, vier uur begin je dat in mijn ervaringen wel te ruiken.

110
00:06:05,280 --> 00:06:07,040
En dat is bij de aardappel.

111
00:06:07,040 --> 00:06:10,900
En die aardappel die daar lag nu, die gebruikt ze al zes weken.

112
00:06:10,900 --> 00:06:15,520
Maar dan begint hij wel, kijk, dan begint hij allemaal uitlopers te krijgen.

113
00:06:15,520 --> 00:06:23,220
En dan begint op een gegeven moment AI er wel moeite mee te krijgen om die nog te herkennen als zij, dat is een beetje de grens, waarvan je met één aardappel kan.

114
00:06:23,220 --> 00:06:25,180
Zou je ons mee kunnen nemen in dat proces?

115
00:06:25,180 --> 00:06:27,540
Want jij bent super creatief.

116
00:06:27,540 --> 00:06:36,220
En dat is soms best wel nodig, weet je, ik denk dat luisteraars, die moeten ook AI gaan toepassen in hun werk en zo.

117
00:06:36,400 --> 00:06:40,240
Hoe kom jij nou van idee naar uitvoering en wat doe je daartussen?

118
00:06:40,240 --> 00:06:43,820
Want uiteindelijk is het heel creatief, maar je bent ook met technologie bezig.

119
00:06:43,820 --> 00:06:44,680
Ja, zeker.

120
00:06:44,680 --> 00:06:50,260
In principe zijn mijn, kijk, deels komen mijn kunstwerken ook wel voor dat technische interesse.

121
00:06:50,260 --> 00:06:51,880
Gewoon kijken, wat kan er technisch?

122
00:06:51,880 --> 00:06:53,180
Hoe ver kun je daarmee gaan?

123
00:06:53,180 --> 00:06:56,380
Maar ik ben met name ook op zoek naar die conceptuele grenzen.

124
00:06:56,380 --> 00:06:57,920
Dus waar zit het hem?

125
00:06:57,920 --> 00:07:01,760
Op wat voor manier kun je echt fundamenteel zeg maar marketing vernieuwen?

126
00:07:01,760 --> 00:07:09,460
Dat marketing niet meer is iets van een groot bedrijf, maar wat er veel kleinere partijen of door individuen ineens gedaan kan worden.

127
00:07:09,460 --> 00:07:09,720
Ja.

128
00:07:09,720 --> 00:07:11,820
Of een grens tussen mensen en natuur.

129
00:07:11,820 --> 00:07:17,300
Kijk, daar ben ik, ik ben altijd op zoek naar van wat zijn die fundamentele grenzen nou van wat zo'n technologie kan.

130
00:07:17,760 --> 00:07:25,140
En als je die grenzen zeg maar op een rijtje hebt, kun je je inventariseren, dan kun je vervolgens ook gaan brainstormen van wat gebeurt er als ik dat zeg maar ga juzelen.

131
00:07:25,140 --> 00:07:25,640
Oh ja.

132
00:07:25,640 --> 00:07:30,820
En dat is een beetje, en daaromheen zeg maar dat als een soort van input gaan gebruiken voor nieuwe ideeën.

133
00:07:30,820 --> 00:07:35,440
En dat is een beetje, kijk, uiteindelijk, dat is een beetje het harde werk hierachter.

134
00:07:35,440 --> 00:07:40,440
Uiteindelijk moet je het dan ook weer, moet je wel weer toe naar een fase waarin je gaat zeggen, oké, ik laat het even liggen.

135
00:07:40,920 --> 00:07:48,540
Ga ik er over één, twee weken nogmaals naar kijken, ja en dan heb je dan vaak van ja dit is zo, dan moet het idee, moet echt leven zeg maar.

136
00:07:48,540 --> 00:07:58,060
Dan moet je wel, moet je meteen hebben van de Prada, of Prada potato, weet je, dan weet ik meteen van ja daar zit iets, want dat is cool zeg maar.

137
00:07:58,060 --> 00:08:03,160
Daar zit iets absurds in, maar tegelijkertijd zit er wel ook iets fundamenteels in wat gewoon vet is.

138
00:08:03,160 --> 00:08:10,560
Dus eigenlijk gaat het over heel vrij denken, en dat laten inzinken en dan na een tijdje denken, dit is echt een goed idee.

139
00:08:10,720 --> 00:08:15,660
Ja, en ik noem het al onbegrensd denken, zeg maar, ook in de verhalen die ik vaker breng.

140
00:08:15,660 --> 00:08:20,720
Dat is voor mij dat hele open intuïtieve, dus je denkt buiten de bestaande kaders en structuren.

141
00:08:20,720 --> 00:08:29,700
En daar zit voor mij, kijk, daar beginnen de kunstwerken vaak, en dan, en daar zit ook, maar dat geldt ook wel voor, ja, voor innovaties in business, denk ik.

142
00:08:29,700 --> 00:08:35,640
Dus ook daar, hoe fundamenteler, zeg maar, dat is, daar zitten echt interessante innovaties.

143
00:08:35,700 --> 00:08:45,600
Ja, en het vrij denken ook, denk ik, hè, want ik denk dat mensen heel snel geneigd zijn om zichzelf te beperken, omdat je denkt van, of dit kan niet, of dit is raar, of dat hoort niet.

144
00:08:45,600 --> 00:08:46,060
Exact.

145
00:08:47,140 --> 00:08:47,260
Ja.

146
00:08:47,260 --> 00:08:48,860
En dat moet je eigenlijk loslaten.

147
00:08:48,860 --> 00:08:52,080
Ja, dat moet je dus in, dus het gaat ook wel over durven, inderdaad.

148
00:08:52,200 --> 00:08:54,700
Vandaar moet je dus voorbij en gaan, zeker in die eerste fase.

149
00:08:54,700 --> 00:08:55,120
Ja.

150
00:08:55,120 --> 00:08:55,380
Zeker.

151
00:08:55,380 --> 00:09:04,520
Je spreekt er vaak over op conferenties en dat soort zaken, wat zijn dan zaken waarbij mensen dat wat meer gaan leren durven en open voor staan?

152
00:09:04,520 --> 00:09:08,660
Want, ja, misschien hebben mensen niet door, maar wat zijn stapjes die mensen daarin kunnen zetten?

153
00:09:08,660 --> 00:09:09,440
Heb je daar een beeld bij?

154
00:09:09,440 --> 00:09:16,580
Nou, kijk, voor mij blijft het wel vaak enigszins op het inspirerende niveau, zeg maar, maar je kunt heel concreet gaan worden.

155
00:09:16,580 --> 00:09:24,940
Dus zelfs een van mijn eerste kunstwerken, waarmee ik echt vanuit niks zomaar in een museum terecht kwam, aan de andere kant van de wereld, is eigenlijk bedacht met een heel simpel trucje.

156
00:09:24,940 --> 00:09:30,380
Dus vaak zeggen mensen ook van, ja, ik kan geen creatieve idee bedenken, zeg maar.

157
00:09:30,380 --> 00:09:36,760
Ik denk dat bijna iedereen dat wel kan, maar je moet wel even een beetje een aanzet hebben van hoe dat dan werkt.

158
00:09:36,760 --> 00:09:42,340
En wat ik namelijk deed, was in 2010, toen werkte ik dus in data science, marktonderzoek, met allemaal algoritmes.

159
00:09:42,340 --> 00:09:45,780
En ik was er een beetje klaar mee, was er op uitgekeken.

160
00:09:45,780 --> 00:09:47,480
En toen ben ik iets heel simpels gaan doen.

161
00:09:47,480 --> 00:09:51,780
Er was eigenlijk twee lijstjes maken, en er was gewoon één lijstje met dingen waar ik goed in was.

162
00:09:51,780 --> 00:09:53,820
Dus een aantal elementen waren er dan.

163
00:09:53,820 --> 00:09:59,840
Er was bijvoorbeeld van, nou ja, ik kon goed een presentatie geven, maar ik wist ook heel veel van social media op dat moment.

164
00:09:59,840 --> 00:10:01,260
Want Twitter was heel groot aan het worden.

165
00:10:01,260 --> 00:10:01,580
Ja.

166
00:10:01,580 --> 00:10:03,160
Ik kon ook wel dingen met berekeningen doen.

167
00:10:03,160 --> 00:10:05,340
Maar toen ging ik ook een lijstje maken, hè.

168
00:10:05,340 --> 00:10:06,700
Met wat vind ik nou echt leuk?

169
00:10:06,700 --> 00:10:08,000
Een aantal elementen.

170
00:10:08,000 --> 00:10:08,220
Ja.

171
00:10:08,220 --> 00:10:09,140
Wat vind ik leuk?

172
00:10:09,140 --> 00:10:12,800
Dat is in feite niet helemaal, is dat niet helemaal goed wat ik toen deed?

173
00:10:12,800 --> 00:10:13,000
Ja.

174
00:10:13,000 --> 00:10:14,160
Wat vind ik nou echt leuk?

175
00:10:14,660 --> 00:10:18,680
Nou, en één van die dingen, één van die elementen die ik leuk vond, dat was bijvoorbeeld kunst.

176
00:10:19,080 --> 00:10:22,220
En toen ben ik gewoon gaan husselen met die elementen.

177
00:10:22,220 --> 00:10:22,460
Ja.

178
00:10:22,460 --> 00:10:27,280
En eigenlijk per combinatie ben ik gewoon dan met mezelf gaan brainstormen van, ja, wat past daarbij?

179
00:10:27,280 --> 00:10:29,680
En daar zit in eerste instantie best wel absurd erbij.

180
00:10:29,680 --> 00:10:35,100
Dus er was iets bij van, nou ja, bijvoorbeeld de combinatie van kunst met rekenen.

181
00:10:35,360 --> 00:10:37,080
Zo'n soort van brekend kunstwerk.

182
00:10:37,080 --> 00:10:38,240
Zeg ook al wel iets in.

183
00:10:38,240 --> 00:10:42,420
Maar toen kwam ik ook bij kunst met social media, die combinatie.

184
00:10:42,420 --> 00:10:46,900
Ja, toen dacht ik eerst nog heel suf van, ja, dan ga ik een social media account over kunst doen.

185
00:10:46,900 --> 00:10:47,120
Ja.

186
00:10:47,120 --> 00:10:48,360
Ja.

187
00:10:48,360 --> 00:10:59,520
Maar goed, ik heb niet het meest innovatieve, maar toen dacht ik, van zou het niet vet zijn als je dus vanuit social media berichten een soort kunstwerk zou gaan maken?

188
00:10:59,760 --> 00:11:05,700
Bijvoorbeeld, als je op Twitter zit, jouw portret vanuit Twitter berichtjes, vanuit jouw eigen Twitter berichtjes.

189
00:11:05,700 --> 00:11:05,920
Oh, zo.

190
00:11:05,920 --> 00:11:12,280
Dus dat je net als, weet je wel, je kent waarschijnlijk een foto vanuit allemaal fotootjes, maar dat je dat dan hebt met jouw eigen tweets.

191
00:11:12,280 --> 00:11:12,760
Oh.

192
00:11:12,760 --> 00:11:15,560
Ja, dat, ik toen wacht ook bij.

193
00:11:15,560 --> 00:11:17,520
Ik ging het even proberen, al in foto's.

194
00:11:17,520 --> 00:11:20,520
Ik dacht, dit is best wel cool, weet je wel.

195
00:11:20,520 --> 00:11:26,240
Toen ben ik daar, heb ik eigenlijk in twee, drie dagen, heb ik daar een soort siteje omheen eigenlijk in elkaar gehackt.

196
00:11:26,240 --> 00:11:29,820
Waarbij je dan al een beetje kon je zeg maar inloggen met je Twitter account.

197
00:11:29,820 --> 00:11:38,920
En dan maakte die van jouw profielfoto, maakte die al zeg maar een soort demootje, een beetje, met een aantal, weet ik veel, een x-aantal van jouw tweets.

198
00:11:38,920 --> 00:11:39,920
Dat je dat zag.

199
00:11:39,920 --> 00:11:42,440
Dat jouw eigen gezicht is opgebouwd uit je Twitter bericht.

200
00:11:42,440 --> 00:11:43,020
Waanzinnig.

201
00:11:43,020 --> 00:11:45,900
Die kon je dan ook, ja die kon je natuurlijk ook bestellen.

202
00:11:45,900 --> 00:11:47,000
Ja, oh ja.

203
00:11:47,000 --> 00:11:47,480
Slim.

204
00:11:47,480 --> 00:11:48,420
Met even die model.

205
00:11:48,420 --> 00:11:49,000
Oh ja.

206
00:11:49,000 --> 00:11:51,780
Die kon je dan ook laten afdrukken en zo.

207
00:11:51,780 --> 00:11:57,600
Maar dat concept is toen zeg maar, ja dat email, dat werd toen opgepikt door volgens mij door Dagblad de Pers op zo'n moment.

208
00:11:57,600 --> 00:12:00,640
Maar toen hopte het ook over naar internationaal.

209
00:12:00,640 --> 00:12:01,220
Oh ja.

210
00:12:01,220 --> 00:12:04,520
En toen is dat concept, dat concept is toen viraal gegaan over de hele wereld.

211
00:12:04,520 --> 00:12:06,940
Zeg maar tweets, schilderij, Twitter kunstwerk.

212
00:12:06,940 --> 00:12:14,020
En toen was het dus, kijk als je dat hebt, dan gebeuren er in mijn ervaring, gaan er rare dingen gebeuren.

213
00:12:14,020 --> 00:12:15,520
Maar daar ben ik wel benieuwd naar.

214
00:12:15,520 --> 00:12:19,320
Ja, want toen kreeg ik dus in één keer een mailtje van iemand uit Nieuw-Zeeland.

215
00:12:19,320 --> 00:12:20,920
Ik denk een paar maanden daarna.

216
00:12:20,920 --> 00:12:22,660
En wat toen aan de hand was in Nieuw-Zeeland.

217
00:12:22,660 --> 00:12:24,540
Ze hadden net een aardbeving gehad.

218
00:12:24,540 --> 00:12:26,660
Dat was begin 2011, februari 2011.

219
00:12:26,660 --> 00:12:28,180
Is een van de grote steden daar ingestort.

220
00:12:28,180 --> 00:12:28,920
Christchurch.

221
00:12:28,920 --> 00:12:30,840
En zo heet die stad.

222
00:12:30,840 --> 00:12:34,340
En toen vroeg zij aan mij, omdat zij die Twitter kunstwerken van mij had zien.

223
00:12:34,340 --> 00:12:41,300
Ja, zou jij niet een soort van kunstwerk kunnen maken als inspiratie voor zeg maar de wederopbouw van de stad?

224
00:12:41,300 --> 00:12:48,320
Het centrum was ingestort, want ze gebruiken ook Twitter als een heel belangrijk communicatiemedium in Nieuw-Zeeland rondom die aardbevingen.

225
00:12:48,320 --> 00:12:50,580
En toen heb ik zeg maar een kunstwerk gemaakt.

226
00:12:50,580 --> 00:12:54,300
En dat was dan het centrum van die stad, Christchurch, en de kerk.

227
00:12:54,300 --> 00:12:56,220
Want dat was het enige wat nog overeind stond daar.

228
00:12:56,220 --> 00:12:59,580
En die was helemaal opgebouwd uit tweets over die aardbeving.

229
00:12:59,580 --> 00:13:00,360
Oh, zo.

230
00:13:00,360 --> 00:13:02,880
En dat is toen, ja, ik die getal dan toegestuurd.

231
00:13:02,880 --> 00:13:05,900
En toen hebben zij dat een half jaar in de kerk tentoongesteld.

232
00:13:05,900 --> 00:13:08,160
Maar wat er toen gebeurde was heel bizar.

233
00:13:08,160 --> 00:13:12,620
Want toen is het daarna opgenomen in de collectie van het Nationaal Historisch Museum van die Nieuw-Zeeland.

234
00:13:12,620 --> 00:13:13,420
Oh, wauw.

235
00:13:13,420 --> 00:13:13,900
Dat is gek.

236
00:13:13,900 --> 00:13:17,140
Dat is echt zoiets van, wow, wat is dit?

237
00:13:17,140 --> 00:13:19,180
Dus ik bedenk gewoon iets.

238
00:13:19,180 --> 00:13:23,660
Ja, eigenlijk wat ooit begon met het hele simpele trucje.

239
00:13:23,880 --> 00:13:26,480
En dan hang je, je zit zoiets in elkaar.

240
00:13:26,480 --> 00:13:30,020
Ja, en dan hang je een jaar later in het Nationaal Historisch Museum.

241
00:13:30,020 --> 00:13:33,180
Wat zeg maar het soort van Rijksmuseum van Nieuw-Zeeland is.

242
00:13:33,180 --> 00:13:34,660
Daar hangt dat dan.

243
00:13:34,660 --> 00:13:40,940
Ja, voor mij was dat natuurlijk start van, of dat was voor mij een super grote motivatie om daarmee door te gaan.

244
00:13:40,940 --> 00:13:41,840
Steeds meer tijd te moeten.

245
00:13:41,840 --> 00:13:42,680
Ja, waanzinnig.

246
00:13:42,680 --> 00:13:44,160
Ja, zo is dat begonnen.

247
00:13:44,160 --> 00:13:48,100
Maar wat ik wel heel mooi vind, is want je zegt het is een simpel trucje.

248
00:13:48,100 --> 00:13:51,700
Maar wat misschien de moeilijkste stap is, is dat je het ook bent gaan doen.

249
00:13:51,700 --> 00:13:53,440
Ja, dat klopt.

250
00:13:53,760 --> 00:13:57,780
En dat zien wij natuurlijk bij de organisaties waarin wij komen.

251
00:13:57,780 --> 00:14:00,840
Dat dat meestal de moeilijkste stap is.

252
00:14:00,840 --> 00:14:01,880
Dus we bedenken wel wat.

253
00:14:01,880 --> 00:14:05,840
Overal zitten, wat jij zegt, overal zitten creatieve mensen.

254
00:14:05,840 --> 00:14:10,460
Maar de stap naar het doen, die wordt nog wel heel vaak vergeten.

255
00:14:10,460 --> 00:14:14,360
En dan zie je inderdaad van als je iets doet, waar je dan terecht kan komen.

256
00:14:14,360 --> 00:14:15,660
Zeker, zeker.

257
00:14:15,660 --> 00:14:16,020
Waanzinnig.

258
00:14:16,020 --> 00:14:17,280
Dus die stap moet je absoluut durven zetten.

259
00:14:17,280 --> 00:14:18,800
En daar moet je ook wel de tijd voor kunnen maken.

260
00:14:18,800 --> 00:14:19,640
Kijk, dat geef ik wel toe.

261
00:14:19,640 --> 00:14:20,340
Ja, dat is ook een goeie.

262
00:14:20,820 --> 00:14:25,800
Dus dat is wel niet dat je daar fulltime of zo aan gaat, maar je moet daar wel een bepaald soort tijd voor kunnen maken.

263
00:14:25,800 --> 00:14:26,780
Dus dat is wel een drijf.

264
00:14:26,780 --> 00:14:27,980
Tijd en ruimte in je hoofd.

265
00:14:28,220 --> 00:14:28,920
Zeker, zeker.

266
00:14:28,920 --> 00:14:32,200
En vandaar ook, dan helpt het lijstje van wat vind ik nou echt leuk.

267
00:14:32,200 --> 00:14:35,880
Want als je het echt leuk vindt, dan voelt het niet ook als een tijd die je erin steekt.

268
00:14:35,880 --> 00:14:38,060
Maar dan is het een hobby, een passie die je doorgroeit.

269
00:14:38,060 --> 00:14:44,360
En als je daar dan ook nog eens, om het dan maar zo te zeggen, werk van kan maken, dan is dat natuurlijk een hele mooie combinatie.

270
00:14:44,360 --> 00:14:46,560
Ja, dat is het ook heel erg.

271
00:14:46,560 --> 00:14:47,820
Dus dat merk ik zelf ook.

272
00:14:47,820 --> 00:14:50,760
Kijk, kunst is natuurlijk altijd een vrij moeilijke handel.

273
00:14:50,960 --> 00:14:55,340
Dus ik moet een disclaimer hierbij zetten, maar ik besteed daar al mijn tijd aan.

274
00:14:55,340 --> 00:14:57,200
Eigenlijk altijd bijna.

275
00:14:57,200 --> 00:14:58,960
En dat kan ook, omdat je daar inderdaad...

276
00:14:58,960 --> 00:15:03,980
Het is niet dat dat per se alleen maar energie kost, want het levert ook heel veel energie op.

277
00:15:03,980 --> 00:15:05,940
Ja, en dan moet het recht in je passie liggen.

278
00:15:05,940 --> 00:15:08,100
Nou, dat straal je ook uit voor de luisteraar.

279
00:15:08,100 --> 00:15:11,140
In de daad energie, de passies druipt er echt vanaf en dat is mooi om te zien.

280
00:15:11,700 --> 00:15:15,240
Ik wil nog even terug naar de aardappel, want die integreert me heel erg.

281
00:15:15,240 --> 00:15:23,840
Wat zijn stappen geweest in het proces, als we kijken naar de techniek, die zijn tegengevallen misschien?

282
00:15:23,840 --> 00:15:27,560
Ja, nou ja, kijk, het is nog steeds wel zo van...

283
00:15:27,560 --> 00:15:29,000
Kijk, dit draait dus heel erg...

284
00:15:29,000 --> 00:15:32,120
Of het is gebaseerd op aan de ene kant zeg maar image technologie.

285
00:15:32,120 --> 00:15:35,180
Dus dit is zeg maar een pipeline achter van hoe die filmpjes gemaakt worden.

286
00:15:35,180 --> 00:15:39,580
Die gebaseerd is op images die in eerste instantie gegenereerd worden op basis van tekstprompting.

287
00:15:39,800 --> 00:15:45,000
Maar die dan vervolgens ook weer, ja, die gaan naar een videostukken AI die daar dan videootjes van maakt.

288
00:15:45,000 --> 00:15:45,420
Ja.

289
00:15:45,420 --> 00:15:47,080
Maar het is op dit moment nog wel zo.

290
00:15:47,080 --> 00:15:50,340
Kijk, eigenlijk de videotechnologie, die is nog niet zo ver.

291
00:15:50,340 --> 00:15:55,020
Dat jij volautomatisch alle videootjes die jij maakt, daar zomaar even in...

292
00:15:55,020 --> 00:15:56,160
Ja, kijk, je kan dat doen.

293
00:15:56,160 --> 00:15:59,380
Maar dat is nog steeds wel een beetje qua kwaliteit.

294
00:15:59,380 --> 00:16:03,120
Afgezien van ook de rekencapaciteit of de tijd die daarachter zit nog.

295
00:16:03,120 --> 00:16:04,740
Om dat echt allemaal instant te doen.

296
00:16:04,740 --> 00:16:07,000
En dat is op dit moment niet helemaal haalbaar.

297
00:16:07,000 --> 00:16:07,300
Nee.

298
00:16:07,300 --> 00:16:12,680
Dus dit draait wel op een hele grote bak met een soort van voorgegenereerde content.

299
00:16:12,680 --> 00:16:14,020
Die kun je ook wel aanzetten.

300
00:16:14,020 --> 00:16:17,800
Maar goed, dan loop je ook weer tegen een kostenstukje aan van, ja, dan ga je maar eens live draaien.

301
00:16:17,800 --> 00:16:18,080
Zo.

302
00:16:19,760 --> 00:16:29,440
Maar ja, dit is natuurlijk, het zijn ook experimenten met van, ja, kunst realiseert ook of laat je ook zien van wat er nabij in toekomst is.

303
00:16:29,440 --> 00:16:32,040
En dit is wel, denk ik, waar reclame ook heen gaat.

304
00:16:32,040 --> 00:16:32,320
Ja.

305
00:16:32,320 --> 00:16:40,880
Ik denk binnen een jaar zit je echt heel dichtbij, zeg maar, dat instant goede video's maken, zeg maar.

306
00:16:40,880 --> 00:16:44,420
Waarbij ieder filmpje ook vrijwel goed is, zeg maar.

307
00:16:44,420 --> 00:16:46,140
Of van hoog genoeg kwaliteit is.

308
00:16:46,140 --> 00:16:52,540
Oh ja, dus je denkt echt dat er live, als wij ergens zijn, dat er live gecreëerd wordt.

309
00:16:52,540 --> 00:16:53,300
Gecreëerd wordt.

310
00:16:53,300 --> 00:16:58,680
Op basis van de omgeving, wat je wil aanbieden, misschien hoe ik reageer.

311
00:16:58,680 --> 00:16:59,220
Ja.

312
00:16:59,220 --> 00:17:00,420
Oh, wauw.

313
00:17:00,420 --> 00:17:02,220
Dus het zal niet zwart-wit zijn.

314
00:17:02,220 --> 00:17:06,520
Dus het zal ook deels natuurlijk, AI zal heel erg gaan over van, ja, dat is gewoon een nieuwe tool.

315
00:17:06,520 --> 00:17:06,839
Ja.

316
00:17:06,839 --> 00:17:07,520
Om het zo even te noemen.

317
00:17:07,520 --> 00:17:11,380
Dus wat vroeger de video editor was, ja, dat zal steeds meer samengaan met AI-systeem.

318
00:17:11,380 --> 00:17:11,579
Ja.

319
00:17:11,579 --> 00:17:16,440
Maar het zal ook steeds meer gaan over, ja, content wordt gewoon veel meer live gemaakt.

320
00:17:16,440 --> 00:17:19,339
On the spot, instant, of op social media ook.

321
00:17:19,339 --> 00:17:21,740
De content is gewoon ter plekke voor jou gemaakt, zeg maar.

322
00:17:21,740 --> 00:17:21,960
Ja.

323
00:17:21,960 --> 00:17:23,200
Zo zal reclame ook zijn.

324
00:17:23,200 --> 00:17:30,460
Zonder veel menselijke, mens schept alleen nog maar de conceptuele kader, zeg maar, waarbinnen dat, zeg maar, gebeurt.

325
00:17:30,460 --> 00:17:32,520
Wat denk je dat dat met de mensen gaat doen?

326
00:17:32,520 --> 00:17:34,280
Als dat gaat gebeuren, ben ik wel nieuwsgierig.

327
00:17:34,280 --> 00:17:35,260
Nou, hoe kijk je daar tegenaan?

328
00:17:35,260 --> 00:17:40,780
Ja, of, ja, kijk, dit heeft interessante kanten.

329
00:17:40,780 --> 00:17:44,620
En dat geef ik ook, en ook dat, maar ook negatieve kanten.

330
00:17:44,620 --> 00:17:45,500
Heel erg absoluut.

331
00:17:45,500 --> 00:17:51,340
En dat is ook, denk ik, of omdat het er meteen ook bij zit, dat is ook heel erg waarom kunst, denk ik, ook weer belangrijk is.

332
00:17:51,340 --> 00:17:53,760
Omdat je daar wel nu mee wil experimenteren.

333
00:17:53,760 --> 00:17:54,580
Wat betekent dit?

334
00:17:54,580 --> 00:18:03,060
Maar ja, ik kijk wel, weet je wel, als ik nu al zie wat er met AI gebeurt op social media, dan is het natuurlijk verre van positief alleen maar.

335
00:18:03,540 --> 00:18:08,880
Even afgezien van de algoritmes achter social media, die allemaal eigenlijk verkeerd bedrag belonen.

336
00:18:08,880 --> 00:18:13,260
Tot en met echt de content die je nu al ziet, die met AI gegenereerd wordt.

337
00:18:13,260 --> 00:18:21,140
Ja, of dat, het af en toe gewoon heel weerzingwekkend, tot en met gewoon slop, tot en met gewoon ruis.

338
00:18:21,560 --> 00:18:28,320
En wat zou daar een positieve voorbeeld van zijn, waar je zegt, als dat wel over een jaar er zou zijn, dat zou ik echt heel gaaf vinden.

339
00:18:28,320 --> 00:18:42,560
Nou ja, kijk, waar wij wel aan gewerkt hebben bijvoorbeeld, is van, om eigenlijk, kijk, de nabije toekomst van, het doemscenario van AI is ook heel erg van, dat natuurlijk iedereen nog dieper in zijn eigen content bubbel gaat.

340
00:18:42,560 --> 00:18:54,100
Waar wij bijvoorbeeld wel mee geëxperimenteerd hebben, is juist AI gaan gebruiken, om juist eigenlijk gebruikers van zo'n technologie allerlei verschillende perspectieven aan te gaan bieden.

341
00:18:54,100 --> 00:18:59,840
Dus dat was, dit is een traject geweest met de HVA, en twee uur de helft, en dat heette de quantum kat.

342
00:18:59,840 --> 00:19:00,460
Ja.

343
00:19:00,460 --> 00:19:06,840
En de quantum kat was dus een systeem, ja deels AI, maar er zit ook quantum data achter.

344
00:19:06,840 --> 00:19:10,840
En wat die kat doet, of die geeft meningen over allemaal ethische dilemma's.

345
00:19:10,840 --> 00:19:12,320
Oh, het is echt een kat?

346
00:19:12,320 --> 00:19:13,640
Ja, ik ken het niet.

347
00:19:13,640 --> 00:19:21,600
Oh ja, het is een digitale kat, het is een digitale kat, die leeft in een beeldswerk, en zit in een installatie van houten kisten.

348
00:19:21,600 --> 00:19:22,200
Oké.

349
00:19:22,200 --> 00:19:33,620
En in die houten kisten zit dus de quantum kat, en ik zie die quantum kat, die speelt continu, ook getriggerd door social media, wat er besproken wordt op Nederlands Twitter, meningen uit over ethische dilemma's.

350
00:19:33,620 --> 00:19:41,320
Dus bijvoorbeeld de keuze tussen economie en milieu, of tussen veiligheid en vrijheid, of tussen, nou er was een hele rits van dat soort dilemma's.

351
00:19:41,320 --> 00:19:41,600
Ja.

352
00:19:41,600 --> 00:19:43,360
En daar geeft die meningen over.

353
00:19:43,360 --> 00:19:50,200
Maar het is nooit zo dat die kat, zeg maar, jou één mening voorschrijft, van dit is de juiste keuze.

354
00:19:50,200 --> 00:19:51,220
Ja, dit is de waarheid.

355
00:19:51,220 --> 00:19:51,860
Dit is de waarheid.

356
00:19:51,860 --> 00:19:58,240
Nee, hij geeft altijd een superpositie, eigenlijk een spectrum van allerlei verschillende perspectieven tegelijkertijd.

357
00:19:58,440 --> 00:19:58,700
Ja.

358
00:19:58,700 --> 00:20:13,920
In opzichten van zo'n ethisch, zodat het eigenlijk, ja, dus het is een experiment om de mens in de kracht te zetten, om eigenlijk, ja, dus weer een experiment in samenspraak met technologie tot betere, ja, ethische beslissingen te komen.

359
00:20:14,160 --> 00:20:14,600
Oké.

360
00:20:14,600 --> 00:20:22,660
En wordt daar ook dan daadwerkelijk gemeten van, of dat ook daadwerkelijk zo gebeurt, dat je betere ethische afwegingen maakt?

361
00:20:22,660 --> 00:20:24,200
Dat zou ik super interessant vinden.

362
00:20:24,200 --> 00:20:26,180
Ja, zo ver is dit niet gekomen.

363
00:20:26,180 --> 00:20:26,440
Oké.

364
00:20:26,440 --> 00:20:28,260
Ja, maar dit zou wel heel interessant zijn, ja.

365
00:20:28,260 --> 00:20:28,540
Ja.

366
00:20:28,540 --> 00:20:32,260
Maar ik geloof, kijk, in dat principe geloof ik wel heel erg.

367
00:20:32,260 --> 00:20:50,600
Kijk, ik denk dat het wel, of een social medium, waarbij juist dat meer, ongetwijfeld bestaat er wel ergens een soort start-up achter dit idee, denk ik, maar waar je juist, wat juist meer gebaseerd is op, zeg maar, jouw voeden met een soort van scala aan, aan eigenlijk, ja, veel meer verschillende meningen.

368
00:20:50,600 --> 00:20:50,940
Ja.

369
00:20:50,940 --> 00:20:52,860
Lijkt mij super interessant.

370
00:20:52,860 --> 00:20:53,220
Ja.

371
00:20:53,220 --> 00:20:56,620
Lijkt mij interessanter dan wat je niet op Twitter ziet er heel veel in zit gebeuren, eigenlijk.

372
00:20:56,620 --> 00:20:57,740
Ja, absoluut.

373
00:20:57,740 --> 00:20:58,100
Ja.

374
00:20:58,100 --> 00:21:01,060
Bubbel doorbrekend in plaats van bubbel creërend, inderdaad.

375
00:21:01,060 --> 00:21:01,920
Ja, precies.

376
00:21:01,920 --> 00:21:02,420
Precies.

377
00:21:02,420 --> 00:21:06,200
Dus daar zit ook weer dat ontgrenzende idee, zeg maar, een soort van achter.

378
00:21:06,200 --> 00:21:06,660
Ja.

379
00:21:06,660 --> 00:21:09,220
Wat ik erg interessant vind, ja.

380
00:21:09,220 --> 00:21:15,360
Waar, want je gebruikt AI heel erg in je eigen kunst.

381
00:21:16,900 --> 00:21:21,060
Zou je het nu nog voor willen inzetten waar het misschien nog niet voor lukt?

382
00:21:21,060 --> 00:21:37,800
Ja, kijk, we gaan nou, of dit is bijvoorbeeld ook wel een, ja, kijk, ik ga over de komende maand, of over twee maanden, 10 april, ga ik bijvoorbeeld een project doen met, dat is ook wel een cool project wat dat, dat gaat draaien om Papiamento.

383
00:21:37,800 --> 00:21:38,600
Ja.

384
00:21:38,600 --> 00:21:46,220
Ja, dat is op Curacao, dus met, en zij zijn bezig met het bouwen van eigenlijk een large, ja, dat is het taalmodel, op Papiamento.

385
00:21:46,220 --> 00:21:46,820
O, zo.

386
00:21:46,820 --> 00:21:53,080
Wat natuurlijk, ja, wat best wel lastig is, omdat er gewoon weinig content is om dat op te trainen, zeg maar.

387
00:21:53,080 --> 00:21:59,240
Dus waar gaan we nou, maar in principe werkt het al wel enigszins, maar wij gaan nou kijken, daar ook gaan we de kunstwerk rondom maken, zeg maar.

388
00:21:59,500 --> 00:22:13,300
Wat heel erg gebaseerd is op van, ja, hoe kan je dus, hoe kan je dus dat taalmodel, ja, geavanceerder maken, misschien ook door combinaties te zoeken, juist met wel functionerende, grotere, buiten Papiamento taalmodellen.

389
00:22:13,300 --> 00:22:13,640
Ja.

390
00:22:13,640 --> 00:22:17,780
En daar ook iets mee te gaan doen met visuals bijvoorbeeld, rondom Papiamento.

391
00:22:17,780 --> 00:22:22,060
En, en, en, hoe helpt dat dan voor het krijgen van zo'n model?

392
00:22:23,320 --> 00:22:29,980
Nou ja, eigenlijk uiteindelijk de functionaliteit, of zeg maar, de kwaliteit van de output, het zou daarmee verbeterd kunnen worden.

393
00:22:29,980 --> 00:22:38,000
Dus wat je nou zag met taalmodel, dus we zitten nu eigenlijk in een soort experimentfase, ja, er zit bijvoorbeeld heel veel nieuwscontent achter.

394
00:22:38,000 --> 00:22:38,460
Ja.

395
00:22:38,460 --> 00:22:41,680
Ja, dat betekent dat bijvoorbeeld de output blijft dan heel erg nieuwsachtig.

396
00:22:41,680 --> 00:22:41,840
Ja.

397
00:22:41,840 --> 00:22:47,820
Ja, dus dat maakt eigenlijk de creatieve waarde van hoe je dit zou kunnen inzetten, vrij beperkt op dit moment.

398
00:22:47,820 --> 00:22:47,900
Ja.

399
00:22:48,400 --> 00:22:59,700
Maar kunnen wij door combinaties te zoeken met bijvoorbeeld, ja, ik noem maar, weet ik veel, met GPT, nou ja, 5, die we dan misschien hebben of zo, kunnen we dat dan veel geavanceerder maken?

400
00:22:59,700 --> 00:23:00,020
Oh ja.

401
00:23:00,020 --> 00:23:01,840
Toch correct, zeg maar, Papiamento blijft.

402
00:23:01,840 --> 00:23:02,020
Ja.

403
00:23:02,020 --> 00:23:07,500
Dus die gaat ook, voor mij gaat het heel erg over een soort empowerment, ook weer van kleinere dingen.

404
00:23:07,500 --> 00:23:08,220
Ja.

405
00:23:08,220 --> 00:23:10,060
Door middel van technologie.

406
00:23:10,060 --> 00:23:11,040
Gaaf.

407
00:23:11,040 --> 00:23:11,460
Ja.

408
00:23:11,460 --> 00:23:14,780
En heb je al een beeld waar je heen wil met het kunstwerk?

409
00:23:14,780 --> 00:23:16,360
Qua visuals heb ik het over.

410
00:23:16,700 --> 00:23:28,940
Ja, kijk, visuals, het wordt natuurlijk, ik denk dat het gaat draaien over eigenlijk empowerment van allemaal van natuurdingen of kleinere typische Curaçao dingen of zo.

411
00:23:28,940 --> 00:23:29,500
Ah, leuk.

412
00:23:29,500 --> 00:23:36,400
En dat je dat dan met taal, en met, ja, als daar met visuals dingen gebeuren, dan denk ik meteen natuurlijk bij Curaçao heel erg natuurlijk aan felle kleuren van de gebouwen.

413
00:23:36,400 --> 00:23:39,980
Dus dat wordt wel, denk ik, een heel coole project ook daar.

414
00:23:39,980 --> 00:23:41,820
Leuk.

415
00:23:41,820 --> 00:23:42,520
Ja.

416
00:23:42,520 --> 00:23:43,460
Ja, klinkt interessant.

417
00:23:43,460 --> 00:23:43,920
Ja.

418
00:23:43,920 --> 00:23:44,340
Ja.

419
00:23:44,760 --> 00:23:48,520
Zitten wij in ons kantoortje modellen te maken.

420
00:23:48,520 --> 00:23:50,180
Ja, maar dit is ook al, ja.

421
00:23:50,180 --> 00:23:52,920
Hier zitten ook allemaal hele lange trajecten achter, hoor.

422
00:23:52,920 --> 00:23:54,140
Ja, nee, dat geloof ik ook.

423
00:23:54,140 --> 00:23:55,400
Dat geloof ik ook meteen.

424
00:23:55,400 --> 00:23:58,020
Maar het klinkt zo lekker exotisch, weet je.

425
00:23:58,020 --> 00:23:59,840
Ja, heerlijk.

426
00:23:59,840 --> 00:24:09,720
We hebben ook een kaartspel ontwikkeld om te spreken over allerlei afwegingen die je kan hebben rondom de technologie.

427
00:24:09,720 --> 00:24:11,600
En dan in dit geval generatieve AI.

428
00:24:11,600 --> 00:24:14,760
En we zouden eigenlijk ook graag eentje aan jou willen voorleggen.

429
00:24:14,760 --> 00:24:15,280
Oké.

430
00:24:15,280 --> 00:24:18,040
En Niels die gaat die kaarten schudden.

431
00:24:18,040 --> 00:24:21,240
En daar komt dan een willekeurig, komt daar uit.

432
00:24:21,240 --> 00:24:23,320
Ik ben benieuwd.

433
00:24:23,320 --> 00:24:38,700
Blijft een lekker deuntje, Joop.

434
00:24:39,440 --> 00:24:43,260
De thema voor deze keer is technologie en innovatie.

435
00:24:43,260 --> 00:24:47,760
En de stelling is, wij gaan generatieve AI inzetten voor code generatie.

436
00:24:47,760 --> 00:24:49,480
Nou ja.

437
00:24:49,480 --> 00:24:51,360
Ga je dat gebruiken voor de kunstwerken?

438
00:24:51,360 --> 00:24:53,140
Dat je de code genereert voor de kunstwerken?

439
00:24:53,140 --> 00:24:54,420
Ja, nee, zeker.

440
00:24:54,420 --> 00:25:01,780
Ja, of dit is natuurlijk, of dit is wel gewoon, of ja, de meest praktische, een hele nuttige toepassing van de generatie.

441
00:25:01,780 --> 00:25:05,600
De meest handige toepassing van generatieve AI op dit moment.

442
00:25:05,600 --> 00:25:08,100
Dus dit zie je gewoon heel hard gaan op dit moment.

443
00:25:08,100 --> 00:25:09,900
Eigenlijk de afgelopen één, twee jaar misschien al.

444
00:25:09,900 --> 00:25:11,980
Maar dan, ja, het is absoluut.

445
00:25:11,980 --> 00:25:15,500
Dus allemaal, of ik doe dus nog steeds best veel coding.

446
00:25:15,500 --> 00:25:17,180
En dat verloopt ook tegenwoordig.

447
00:25:17,180 --> 00:25:20,500
Ja, of in ieder geval is hele goede hulp erbij, zeg maar.

448
00:25:20,500 --> 00:25:22,200
Waardoor je echt veel sneller kunt werken.

449
00:25:22,200 --> 00:25:22,720
Zeker.

450
00:25:22,720 --> 00:25:23,900
Herkennen wij ook, hoor.

451
00:25:23,900 --> 00:25:24,400
Ja.

452
00:25:24,400 --> 00:25:25,220
Nee, absoluut.

453
00:25:25,220 --> 00:25:25,600
Ja.

454
00:25:25,600 --> 00:25:26,240
Nee.

455
00:25:26,240 --> 00:25:28,660
Dat wordt echt steeds beter, inderdaad.

456
00:25:28,700 --> 00:25:36,760
Dus het is echt wel een fascinerende tijd dat het echt steeds meer toegaat naar van iedereen kan gewoon een bepaald idee hebben voor een tooltje of een applicatietje.

457
00:25:36,760 --> 00:25:37,960
Ja, dat bestaat gewoon dan.

458
00:25:37,960 --> 00:25:39,380
Ja, precies.

459
00:25:39,380 --> 00:25:41,800
Toch wel aanzienlijk dat dat kan, zeg maar.

460
00:25:41,800 --> 00:25:42,300
Absoluut.

461
00:25:42,300 --> 00:25:42,720
Ja.

462
00:25:42,720 --> 00:25:47,280
En in de creatieve sferen te blijven, dat gaat als het goed is de creativiteit te goede komen.

463
00:25:47,280 --> 00:25:48,740
Want nu blijft het niet meer bij een idee.

464
00:25:48,740 --> 00:25:51,960
Nu kunnen we ook gaan doen en steeds meer mensen kunnen gaan doen.

465
00:25:51,960 --> 00:25:52,280
Exact.

466
00:25:52,280 --> 00:25:54,260
En dat is wel een hele mooie ontwikkeling.

467
00:25:54,260 --> 00:25:55,060
De democratisering.

468
00:25:55,060 --> 00:25:58,140
Het verandert dus wel echt iets in creativiteit.

469
00:25:58,140 --> 00:25:58,380
Weet je, denk ik.

470
00:25:58,380 --> 00:26:00,060
Van de weg van het puur maken.

471
00:26:00,060 --> 00:26:03,720
Van wat natuurlijk heel erg creativiteit binnen een bepaald cirkeltje is.

472
00:26:03,720 --> 00:26:07,140
Dus ook misschien wel ten nadelen misschien van mensen die dat konden.

473
00:26:07,140 --> 00:26:09,580
Maar het verbreedt wel gigantisch, zeg maar.

474
00:26:09,580 --> 00:26:10,200
Iedereen.

475
00:26:10,200 --> 00:26:12,520
En het gaat zeer veel meer draaien om het creatieve concept idee.

476
00:26:12,520 --> 00:26:13,440
Ja.

477
00:26:13,440 --> 00:26:15,400
Kan daar dingen mee gaan maken.

478
00:26:15,400 --> 00:26:18,860
En dat gaat natuurlijk heel veel kansen dingen mogelijk maken.

479
00:26:18,860 --> 00:26:19,320
Ja.

480
00:26:19,320 --> 00:26:20,460
Heerlijk.

481
00:26:20,460 --> 00:26:20,900
Heerlijk.

482
00:26:21,340 --> 00:26:25,540
En dan vooral ook, weet je, hoe je problemen oplost.

483
00:26:25,540 --> 00:26:30,860
Waar je, dat je een probleem wel hebt en weet.

484
00:26:30,860 --> 00:26:33,040
Maar dat je geen idee hebt hoe je dat moet oplossen.

485
00:26:33,040 --> 00:26:34,900
Een van de dingen wij automatiseren.

486
00:26:34,900 --> 00:26:37,400
Bijvoorbeeld de productie van deze podcast.

487
00:26:38,140 --> 00:26:40,100
We hebben hier een mengpaneel.

488
00:26:40,100 --> 00:26:43,100
En die neemt alles op in zoveel sporen.

489
00:26:43,100 --> 00:26:44,440
Maar ook een gemengd spoor.

490
00:26:44,440 --> 00:26:45,120
En weet ik wat allemaal.

491
00:26:45,120 --> 00:26:51,920
Dus ik moest op een gegeven moment audio files met elkaar combineren.

492
00:26:52,080 --> 00:26:55,140
Maar ook een van die sporen eruit halen.

493
00:26:55,140 --> 00:26:58,220
Sample rates gelijk trekken.

494
00:26:58,220 --> 00:27:00,040
En ik dacht echt, ja hoe dan?

495
00:27:00,040 --> 00:27:00,520
Weet je?

496
00:27:00,520 --> 00:27:01,400
Geen idee.

497
00:27:01,400 --> 00:27:02,860
Dus ik weet wat het probleem is.

498
00:27:02,860 --> 00:27:04,380
Maar ik heb geen idee hoe de oplossing is.

499
00:27:04,380 --> 00:27:06,520
Ja, dat is tegenwoordig gewoon even vragen.

500
00:27:06,520 --> 00:27:08,760
Scriptje laten genereren.

501
00:27:08,760 --> 00:27:09,540
En jij hebt een start.

502
00:27:09,540 --> 00:27:10,740
En eerst.

503
00:27:10,740 --> 00:27:12,080
Is dat compleet?

504
00:27:12,080 --> 00:27:12,280
Nee.

505
00:27:12,280 --> 00:27:14,700
Maar je bent wel gewoon door die drempel heen.

506
00:27:14,700 --> 00:27:15,160
Precies.

507
00:27:15,160 --> 00:27:16,440
Van waar moet ik beginnen?

508
00:27:16,440 --> 00:27:16,860
Ja.

509
00:27:16,860 --> 00:27:17,980
En dat is vaak wel.

510
00:27:17,980 --> 00:27:20,220
Die drempel die wordt steeds lager.

511
00:27:20,220 --> 00:27:20,840
En we zeiden net al.

512
00:27:20,840 --> 00:27:21,340
Het doen.

513
00:27:21,700 --> 00:27:22,700
Daar zit vaak de uitdaging.

514
00:27:22,700 --> 00:27:23,580
En hopelijk helpt het.

515
00:27:23,580 --> 00:27:27,820
Organisaties, processen, activiteiten die je eerst niet oppakte.

516
00:27:27,820 --> 00:27:29,100
Nu wel op te pakken.

517
00:27:29,100 --> 00:27:30,580
Omdat de drempel weg is.

518
00:27:30,580 --> 00:27:31,540
Of lager.

519
00:27:31,540 --> 00:27:33,400
Hier zitten nog zoveel.

520
00:27:33,400 --> 00:27:35,080
We gaan nog zoveel dingen zien.

521
00:27:35,080 --> 00:27:36,520
Ook hele praktische dingen denk ik.

522
00:27:36,520 --> 00:27:38,540
Want ik doe bijvoorbeeld ook heel veel editing van video.

523
00:27:38,540 --> 00:27:40,780
Wat ik ook nogal zelf doe.

524
00:27:40,780 --> 00:27:42,520
Maar ja, daar loop je het ook tegenaan.

525
00:27:42,520 --> 00:27:42,800
Ja toch?

526
00:27:42,800 --> 00:27:44,920
Dan heeft iemand een hele dag jou lopen filmen.

527
00:27:44,920 --> 00:27:47,700
En dan krijg je 300, 400 filmpjes.

528
00:27:47,700 --> 00:27:48,740
Ga dan maar kijken.

529
00:27:48,740 --> 00:27:49,220
En uit.

530
00:27:49,220 --> 00:27:50,340
Toe kunt je.

531
00:27:50,340 --> 00:27:50,740
Toe?

532
00:27:50,740 --> 00:27:52,020
Dan wil je toch eigenlijk gewoon.

533
00:27:52,020 --> 00:27:52,740
Ja, AI.

534
00:27:52,740 --> 00:27:57,260
Doe mij even gewoon de 20 interessantere fragmentjes ofzo.

535
00:27:57,260 --> 00:27:57,520
Ja.

536
00:27:57,520 --> 00:27:58,860
Ga je al wat voorediten ofzo.

537
00:27:58,860 --> 00:27:59,180
Ja.

538
00:27:59,180 --> 00:28:00,320
Dit is gewoon heel dicht.

539
00:28:00,320 --> 00:28:01,160
Heel dichtbij.

540
00:28:01,160 --> 00:28:01,520
Ja.

541
00:28:01,520 --> 00:28:02,500
Want dat dat kan.

542
00:28:02,960 --> 00:28:07,000
En dat neemt gewoon heel veel lastig werk weg.

543
00:28:07,000 --> 00:28:07,260
Ja.

544
00:28:07,260 --> 00:28:07,640
Precies.

545
00:28:07,640 --> 00:28:08,040
Ja.

546
00:28:08,040 --> 00:28:08,640
Ja.

547
00:28:08,640 --> 00:28:08,640
Ja.

548
00:28:08,640 --> 00:28:11,180
En minder toevoegend werk ook.

549
00:28:11,180 --> 00:28:13,620
Want het gaat om inderdaad die 20 clips die je eruit wil hebben.

550
00:28:13,620 --> 00:28:14,720
En daar wil je naar kijken.

551
00:28:14,720 --> 00:28:18,320
En je wil niet inderdaad al die uren weer door moeten gaan.

552
00:28:18,320 --> 00:28:18,840
Ja.

553
00:28:18,840 --> 00:28:19,480
Ja.

554
00:28:20,480 --> 00:28:21,800
Ik was nogal nieuwsgierig.

555
00:28:21,800 --> 00:28:25,980
Je noemde net grenzen van mensen, natuur en technologie.

556
00:28:25,980 --> 00:28:28,920
Wat zijn nou die grenzen?

557
00:28:28,920 --> 00:28:30,380
Als je er zelf naar kijkt.

558
00:28:30,380 --> 00:28:31,560
Waar heb je het dan over?

559
00:28:31,560 --> 00:28:32,200
Zo'n grens.

560
00:28:32,200 --> 00:28:32,820
Ja.

561
00:28:32,820 --> 00:28:33,060
Kijk.

562
00:28:33,100 --> 00:28:35,180
Die grenzen zitten nou ook vaak in ons eigen hoofd.

563
00:28:35,180 --> 00:28:38,040
Dus dat is ook heel erg zeg maar die grens van mensen, natuur.

564
00:28:38,040 --> 00:28:38,900
Dus bekijk mensen.

565
00:28:38,900 --> 00:28:44,500
Fundamenteel beschouwen mensen zich nog eigenlijk meestal als iets anders dan de natuur.

566
00:28:44,500 --> 00:28:46,760
Terwijl je natuurlijk gewoon onderdeel bent van de natuur.

567
00:28:46,760 --> 00:28:48,340
En dit is over zo heel.

568
00:28:48,340 --> 00:28:49,940
Dat is niet per se dat ik dat bedacht heb.

569
00:28:49,940 --> 00:28:51,840
Maar dit is vooral filosoof Latour.

570
00:28:51,840 --> 00:28:52,860
Die schreef je veel over.

571
00:28:52,860 --> 00:28:53,820
Maar dit is.

572
00:28:53,820 --> 00:28:54,600
Kijk.

573
00:28:54,600 --> 00:28:58,520
Dat is wel een hele fundamentele van hoe wij ook vaak technologie zijn gaan ontwerpen.

574
00:28:58,520 --> 00:29:01,500
Dus dat is heel erg vanuit het idee van wij doen iets met technologie.

575
00:29:01,500 --> 00:29:02,740
En dat controleren wij.

576
00:29:02,840 --> 00:29:04,600
Of manipuleren wij onze omgeving mee.

577
00:29:04,600 --> 00:29:07,880
Wat natuurlijk ook ons in allerlei problemen heeft gebracht.

578
00:29:07,880 --> 00:29:09,500
Maar daar kun je natuurlijk ook heel anders over gaan.

579
00:29:09,500 --> 00:29:12,160
Of anders over gaan ademen fundamenteel.

580
00:29:12,160 --> 00:29:14,580
Van kunnen we niet technologie ontwerpen.

581
00:29:14,580 --> 00:29:17,380
Die natuurlijk mensen en natuur dichter bij elkaar brengt.

582
00:29:17,380 --> 00:29:17,980
Of juist beide.

583
00:29:17,980 --> 00:29:19,860
Of zeg maar het ecosysteem te goede komt.

584
00:29:19,860 --> 00:29:22,940
En dat is wel een fundamenteel andere zienswijze op technologie.

585
00:29:22,940 --> 00:29:23,860
Dan puur van.

586
00:29:23,860 --> 00:29:25,940
Ik doe iets met de natuur.

587
00:29:25,940 --> 00:29:27,460
En ik ben anders dan de natuur.

588
00:29:27,460 --> 00:29:30,760
Heb je daar iets van een concreet voorbeeld van?

589
00:29:30,760 --> 00:29:31,640
Nou ja.

590
00:29:31,720 --> 00:29:34,980
Dat is bijvoorbeeld dus dat project Letters from Nature wel.

591
00:29:34,980 --> 00:29:37,060
Maar dat is ook bijvoorbeeld van.

592
00:29:37,060 --> 00:29:40,940
Misschien moet je die nog even iets verder uitdiepen.

593
00:29:40,940 --> 00:29:42,160
Wat je daar deed.

594
00:29:42,160 --> 00:29:44,840
Nou kijk Letters from Nature ging er heel erg over van.

595
00:29:44,840 --> 00:29:47,080
Wij wilden iets doen rondom de klimaatcrisis.

596
00:29:47,080 --> 00:29:47,720
Omdat we zagen.

597
00:29:47,720 --> 00:29:49,680
Ja de natuur heeft eigenlijk geen stem in dat debat.

598
00:29:49,680 --> 00:29:50,820
Wat we toen zijn gaan doen.

599
00:29:50,820 --> 00:29:52,980
Is dat wij dus AI zijn gaan gebruiken.

600
00:29:53,260 --> 00:29:54,260
Ja.

601
00:29:54,260 --> 00:29:54,260
Ja.

602
00:29:54,260 --> 00:29:54,620
Om teksten te genereren

603
00:29:54,620 --> 00:29:54,760
Ja.

604
00:29:54,760 --> 00:29:55,260
Dus tekstgeneratie AI.

605
00:29:55,260 --> 00:29:55,940
Ja.

606
00:29:55,940 --> 00:29:58,600
Er was nog de voorganger van ChatGPT destijds.

607
00:29:58,600 --> 00:30:00,340
En die vragen wij dan...

608
00:30:00,340 --> 00:30:03,280
kun je brieven schrijven namens natuurobjecten...

609
00:30:03,280 --> 00:30:04,760
bijvoorbeeld de Smeltende Ijskap...

610
00:30:04,760 --> 00:30:06,120
aan politieke leiders.

611
00:30:06,120 --> 00:30:09,140
Die brieven zijn we dan gaan versturen...

612
00:30:09,140 --> 00:30:10,780
aan die politieke leiders.

613
00:30:10,780 --> 00:30:13,920
En dit is dus een voorbeeld van technologie...

614
00:30:13,920 --> 00:30:16,020
die niet per se de mens...

615
00:30:16,020 --> 00:30:17,860
en dit is ook een kunstzinnig voorbeeld...

616
00:30:17,860 --> 00:30:19,280
maar niet de mens ten goede komt.

617
00:30:19,280 --> 00:30:20,280
Alleen.

618
00:30:20,280 --> 00:30:23,200
Maar het is ook technologie die tegelijkertijd...

619
00:30:23,200 --> 00:30:24,720
de natuur ten goede komt.

620
00:30:24,860 --> 00:30:26,720
Eigenlijk een soort van dienend wordt aan de natuur.

621
00:30:26,720 --> 00:30:30,720
En dit zijn natuurlijk kunstzinnige experimenten...

622
00:30:30,720 --> 00:30:34,980
maar ze gaan wel ook erg over een fundamentele zienswijze...

623
00:30:34,980 --> 00:30:39,480
en verandering van hoe je naar technologie kijkt.

624
00:30:39,480 --> 00:30:41,120
Werden er ook brieven teruggeschreven?

625
00:30:41,120 --> 00:30:44,720
We hebben duizenden, duizenden brieven verstuurd...

626
00:30:44,720 --> 00:30:47,260
van zich kaarten ook mensen laten sturen.

627
00:30:47,260 --> 00:30:48,420
Duizenden, echt.

628
00:30:48,420 --> 00:30:50,720
Dat heeft nog nooit...

629
00:30:50,720 --> 00:30:54,380
Iemand iets teruggeschreven.

630
00:30:54,780 --> 00:30:55,560
Dat is jammer.

631
00:30:55,560 --> 00:30:57,460
Maar dit is ook niet...

632
00:30:57,460 --> 00:30:59,920
Het was ook realistisch niet helemaal mijn verwachting...

633
00:30:59,920 --> 00:31:02,640
maar dit is ook een project wat voor ons heel erg gaat van...

634
00:31:02,640 --> 00:31:04,980
kunnen we hier een discussie mee op gaan brengen?

635
00:31:04,980 --> 00:31:08,220
Dit is wel een project wat nu al jaren langs musea rijdt...

636
00:31:08,220 --> 00:31:11,720
allerlei wereldwijd in de aandacht heeft gestaan in media...

637
00:31:11,720 --> 00:31:14,000
op tientallen congressen gepresenteerd is.

638
00:31:14,000 --> 00:31:17,000
Dus in die zin zijn we wel heel tevreden over dit...

639
00:31:17,000 --> 00:31:17,320
Snap je.

640
00:31:17,440 --> 00:31:19,280
Want het heeft natuurlijk wel impact gehad.

641
00:31:19,280 --> 00:31:19,860
Zeker.

642
00:31:19,860 --> 00:31:21,980
Maar we willen nog wel een keer...

643
00:31:21,980 --> 00:31:23,240
Dat er een...

644
00:31:23,240 --> 00:31:23,980
Dat iemand er een...

645
00:31:23,980 --> 00:31:24,120
Ja.

646
00:31:24,120 --> 00:31:24,560
Ja.

647
00:31:24,560 --> 00:31:26,560
Een co-project met Peter van der Putten trouwens.

648
00:31:26,560 --> 00:31:27,820
Dit project moet ik even bij zeggen.

649
00:31:27,820 --> 00:31:28,440
Oh, wat leuk.

650
00:31:28,440 --> 00:31:28,760
Ja.

651
00:31:28,760 --> 00:31:31,040
Peter is ook in de podcast geweest.

652
00:31:31,040 --> 00:31:31,360
Ja.

653
00:31:31,360 --> 00:31:35,320
Dan had ik net een vraag, maar die flipte ineens weg.

654
00:31:35,980 --> 00:31:37,660
Ik was even denken.

655
00:31:37,660 --> 00:31:41,400
Nou, ik ben wel benieuwd, want je had het over ijskap.

656
00:31:41,400 --> 00:31:46,400
Wat waren nog meer natuurlijke elementen die uiteindelijk die brief schreven?

657
00:31:46,400 --> 00:31:48,060
Ja, er zijn dus heel veel.

658
00:31:48,060 --> 00:31:52,740
Dus we hebben bijvoorbeeld nu ook een expositie in Duitsland.

659
00:31:52,740 --> 00:31:55,480
In het Gemaanse Nationaal Museum daar.

660
00:31:55,480 --> 00:31:59,300
Daar hebben we echt vanuit honderden natuurobjecten dingen geschreven.

661
00:31:59,300 --> 00:32:05,620
Dus vanuit rivieren, lokalen, vanuit zeeën, vanuit alles en nog wat.

662
00:32:05,760 --> 00:32:07,360
Eigenlijk, natuurobjecten.

663
00:32:07,360 --> 00:32:11,020
Wel, zeg maar, niet levende natuur.

664
00:32:11,020 --> 00:32:16,040
Dus een ijsschots of een ijskap of een berg of een rivier of zee.

665
00:32:16,040 --> 00:32:17,640
Die schrijven, zeg maar, die brieven.

666
00:32:17,640 --> 00:32:20,300
Die zijn gericht aan allemaal politieke leiders.

667
00:32:20,300 --> 00:32:24,020
Dus ook lokale politieke, maar ook de grote namen wereldwijd.

668
00:32:24,020 --> 00:32:27,300
Zou je zoiets ook kunnen bedenken van...

669
00:32:27,300 --> 00:32:32,980
Dat je dat misschien in je privéleven of in je werkleven, dat je dat ook zou kunnen gebruiken.

670
00:32:32,980 --> 00:32:35,380
Dat er iets ergens waar je tegenaan loopt of zo.

671
00:32:35,540 --> 00:32:40,680
Dat je dat nu door ChatGPT, dat je een brief aan jezelf laat schrijven of zo.

672
00:32:40,680 --> 00:32:42,880
Hier zit wel een soort kunstproject in.

673
00:32:42,880 --> 00:32:43,560
Ja, dat was.

674
00:32:43,560 --> 00:32:45,260
Ik ga aan mezelf doen.

675
00:32:46,260 --> 00:32:48,420
En mensen vinden het ook fijn om post te krijgen.

676
00:32:48,420 --> 00:32:48,880
Ja.

677
00:32:48,880 --> 00:32:49,760
Ja, toch?

678
00:32:49,760 --> 00:32:50,180
Ja.

679
00:32:50,180 --> 00:32:53,720
Dus jouw chatbot die wekelijk, zeg maar, een Valentijnskaart.

680
00:32:53,720 --> 00:32:54,120
Ja.

681
00:32:57,440 --> 00:32:59,840
Komt er iets in je op of niet?

682
00:32:59,840 --> 00:33:00,500
Zeker.

683
00:33:00,500 --> 00:33:00,620
Ja.

684
00:33:00,620 --> 00:33:01,660
Dit zou wel...

685
00:33:01,660 --> 00:33:01,820
Ja.

686
00:33:01,820 --> 00:33:04,920
Het staat natuurlijk ook wel weer een beetje heel erg voor deze tijd.

687
00:33:04,920 --> 00:33:06,200
Van zelfliefde.

688
00:33:06,200 --> 00:33:06,960
Oh ja.

689
00:33:06,960 --> 00:33:07,580
Ja.

690
00:33:07,580 --> 00:33:07,900
Ja.

691
00:33:07,900 --> 00:33:09,540
Maar het zou ook heel kritisch kunnen zijn, toch?

692
00:33:09,540 --> 00:33:09,840
Ja.

693
00:33:09,840 --> 00:33:11,420
Dus schrijf de kaart iets kritisch aan.

694
00:33:11,420 --> 00:33:11,780
Ja.

695
00:33:11,780 --> 00:33:13,960
Dit moeten we gaan doen met Valentijnsdag of zo.

696
00:33:13,960 --> 00:33:14,260
Ja.

697
00:33:14,700 --> 00:33:16,460
Laat AI een brief schrijven aan jezelf.

698
00:33:16,460 --> 00:33:16,940
Ja.

699
00:33:16,940 --> 00:33:17,240
Ja.

700
00:33:17,240 --> 00:33:19,340
Een liefdesbrief aan jezelf.

701
00:33:19,340 --> 00:33:21,500
Liefdesbrief of een kritische brief juist.

702
00:33:21,500 --> 00:33:25,580
De AI die op 2 januari gaat zeggen dat je goede voornemens niet gelukt zijn.

703
00:33:25,580 --> 00:33:31,800
Maar dit is wel natuurlijk in Heur, de film Heur, is altijd natuurlijk al een bepaalde manier bijna.

704
00:33:31,800 --> 00:33:32,280
Ja.

705
00:33:32,280 --> 00:33:33,520
Het zijn alleen geen papierenbrieven.

706
00:33:33,520 --> 00:33:34,760
Dat moet je nog even...

707
00:33:34,760 --> 00:33:34,980
Ja.

708
00:33:34,980 --> 00:33:36,240
Dat moet je nog even schrijven.

709
00:33:36,240 --> 00:33:42,820
Volgens mij is het ook een quote die ik wel vaker bij jou, als ik op zoek op je achtergrond,

710
00:33:42,900 --> 00:33:45,320
dat AI is de spiegel van onszelf.

711
00:33:45,320 --> 00:33:46,040
Ja.

712
00:33:46,040 --> 00:33:47,560
Zou je die wat meer kunnen toelichten?

713
00:33:47,560 --> 00:33:48,100
Ja.

714
00:33:48,100 --> 00:33:48,780
Wat sta je eronder?

715
00:33:48,780 --> 00:33:52,420
Kijk, dus wat het heel erg is met AI, zeg maar, was voor mij ook van...

716
00:33:52,420 --> 00:33:56,420
Dus eigenlijk als je daarmee aan de gang gaat, dan was het voor mij de eerste jaren ook zo.

717
00:33:56,420 --> 00:33:58,760
Oké, het is natuurlijk technisch heel interessant en cool.

718
00:33:58,760 --> 00:34:00,500
We gaan daar heel erg mee experimenteren.

719
00:34:00,500 --> 00:34:01,440
En dat is vet.

720
00:34:01,440 --> 00:34:06,940
Maar dat is in principe, dat was voor mij niet wat het zeg maar 10, 15 jaar interessant hield.

721
00:34:06,940 --> 00:34:10,699
Want eigenlijk wat interessanter is, is zeg maar die meer fundamentele onderlaag.

722
00:34:10,699 --> 00:34:14,040
Of die meer soort van filosofische vragen die daaronder zitten.

723
00:34:14,040 --> 00:34:16,659
Want de AI zegt natuurlijk heel veel over onszelf.

724
00:34:16,659 --> 00:34:20,239
Van wij dachten, die transitie zit je nou helemaal in.

725
00:34:20,239 --> 00:34:26,980
Van die werd een beetje, denk ik zo, 2016, zagen we dat bijvoorbeeld ook heel erg als reactie op de next Rembrandt toen.

726
00:34:26,980 --> 00:34:28,580
Nieuwe Rembrandt schilderij met AI.

727
00:34:28,580 --> 00:34:31,800
Toen begon echt ook in de pers die discussie te ontstaan.

728
00:34:32,880 --> 00:34:34,760
Activiteit was toch iets menselijks.

729
00:34:34,760 --> 00:34:38,699
Of dat maakte ons toch ooit uniek.

730
00:34:38,699 --> 00:34:39,900
Van dat wij dit konden.

731
00:34:39,900 --> 00:34:43,020
En is dit wel kunst natuurlijk, dat soort vragen.

732
00:34:43,020 --> 00:34:48,100
Maar kijk, AI dwingt ons ook steeds specifieker te worden.

733
00:34:48,100 --> 00:34:54,219
Of maakt ons, zet ons aan om specifiek er ook te na te denken over wat maakt ons nou echt mens.

734
00:34:54,760 --> 00:34:55,880
En niet AI.

735
00:34:55,880 --> 00:35:04,860
En dan kom je denk ik, ja, en dan kom je steeds meer, ja, daardoor geeft het steeds meer inzichten ook over wie wij nou eigenlijk zijn.

736
00:35:04,860 --> 00:35:07,960
Want als een machine iets kan, ja, wat zijn wij dan?

737
00:35:08,480 --> 00:35:16,240
Ja, en wat heb je daar zelf in geleerd waarvan je dacht van, nou, dat maakt ons misschien mens, maar is het eigenlijk misschien niet?

738
00:35:16,240 --> 00:35:16,980
Of juist andersom?

739
00:35:16,980 --> 00:35:24,780
Nou ja, ik denk dus, kijk, er zitten heel erg, kijk, voor mij is alles een zoektocht eigenlijk naar inderdaad van wat is creativiteit, zeg maar.

740
00:35:24,780 --> 00:35:31,640
En ik denk nog bijvoorbeeld steeds dat er wel een fundamenteel verschil ergens zit tussen machine creativiteit en menselijke creativiteit.

741
00:35:32,400 --> 00:35:38,200
En menselijke creativiteit is toch meer die echt out of the box, buiten het bestaande, zeg maar, creativiteit.

742
00:35:38,200 --> 00:35:44,040
Die echt intuïtieve, die ook voortkomt uit van wat jij, ja, zeg maar, merkt in jouw omgeving.

743
00:35:44,040 --> 00:35:46,800
Of van wat jij aanvoelt in jouw omgeving, zeg maar.

744
00:35:46,800 --> 00:35:49,720
Ook in contact met mensen, maar ook wat je merkt, weet je wel.

745
00:35:49,720 --> 00:35:57,440
Daar zit, en dat is voor mij die zoektocht, om daar steeds dichterbij te komen, ook van wat is dat?

746
00:35:57,440 --> 00:35:58,360
En waar zit dat?

747
00:35:58,360 --> 00:35:59,720
En dat is denk ik wel...

748
00:35:59,720 --> 00:36:02,760
Ja, de verbanden, waar eigenlijk geen verbanden zijn, maar waar je wel verbanden legt.

749
00:36:02,760 --> 00:36:04,060
Anders dan even zo, inderdaad.

750
00:36:04,060 --> 00:36:07,640
Dus dat geldt even binnen kunst.

751
00:36:07,640 --> 00:36:10,480
En zo zijn er natuurlijk ook wel andere vlakken die ons echt mens maken.

752
00:36:10,480 --> 00:36:13,320
Dus het belang van menselijk contact en empathie.

753
00:36:13,320 --> 00:36:13,780
Zeker.

754
00:36:13,780 --> 00:36:17,600
Dat soort dingen, ja, die kun je door een machine laten, weet je wel, echt begrijpen.

755
00:36:17,600 --> 00:36:20,340
Dingen vinden we, ja, een machine begrijpt niks.

756
00:36:20,340 --> 00:36:22,100
Die doet gewoon, geeft info, zeg maar.

757
00:36:22,100 --> 00:36:24,600
Dat is heel belangrijk, die machine begrijpt niks.

758
00:36:24,600 --> 00:36:25,700
Ja, dat is echt niks.

759
00:36:25,700 --> 00:36:28,380
Het zijn echt uitkomsten van rekensommen.

760
00:36:28,380 --> 00:36:32,860
Ja, dus het interesseert de machine ook niks van wat hij vindt, van wat hij niet vindt.

761
00:36:32,860 --> 00:36:37,320
Maar hier zit dus heel erg, kijk, en dat vind ik ook interessant met creativiteit.

762
00:36:37,320 --> 00:36:40,840
Dus hoe kun je echt van, en daar zitten ook de interessantste ideeën, denk ik.

763
00:36:40,840 --> 00:36:43,980
In dat meer dat unbound, onbegrensde, intuitieve denken.

764
00:36:43,980 --> 00:36:49,200
En dat geldt ook heel erg wel voor, ja, ook binnen een organisatie geldt dat ook wel.

765
00:36:49,200 --> 00:36:49,420
Ja.

766
00:36:49,420 --> 00:36:51,300
Dus echt de creatieve ideeën, hè.

767
00:36:51,300 --> 00:36:55,680
Ja, die kijk je niet, kijk, een AI-systeem kan je daar heel erg bij helpen wel, op weg.

768
00:36:55,680 --> 00:36:58,720
Maar echt een goede, hè, die laatste slag moet je echt zelf maken.

769
00:36:58,720 --> 00:37:02,960
Die beste ideeën komen ook voort uit wat je hier, weet je wel, als je ergens rondloopt.

770
00:37:02,960 --> 00:37:03,320
Precies.

771
00:37:03,320 --> 00:37:05,840
Met mensen praat aan de koffie, weet je, je voelt.

772
00:37:05,840 --> 00:37:08,720
Ja, ergens komt er een, ja, dat sprankje.

773
00:37:08,720 --> 00:37:13,340
Ja, daar zit wel, en daar zit ook op een bepaalde manier veel meer info die jij tot je neemt,

774
00:37:13,340 --> 00:37:14,740
dan zo'n AI-systeem in zich heeft.

775
00:37:15,060 --> 00:37:15,820
Ja, dat is echt wel wat.

776
00:37:15,820 --> 00:37:18,600
Bij het koffiezetapparaat ontstaan wel vaak goede ideeën inderdaad.

777
00:37:18,600 --> 00:37:19,460
Ja, dat klopt.

778
00:37:19,460 --> 00:37:21,040
Maar over onbegrensd denken.

779
00:37:21,040 --> 00:37:21,360
Ja.

780
00:37:21,360 --> 00:37:26,500
Wij vragen eigenlijk ook altijd van, stel je zou inderdaad helemaal onbegrensd denken,

781
00:37:26,500 --> 00:37:29,500
waar zou je dan AI voor inzetten?

782
00:37:29,500 --> 00:37:34,580
En dat hoeft niet per se in je werk te zijn, dat mag overal en nergens zijn, dus onbegrensd.

783
00:37:34,580 --> 00:37:37,380
Ja, wat zou jouw ideaal zijn?

784
00:37:37,380 --> 00:37:39,120
En daar geef je even wat bedenktijd voor.

785
00:37:39,120 --> 00:37:47,100
Dat dacht ik ook wel, ja.

786
00:37:47,100 --> 00:37:48,840
Wat onbegrensd kan denken.

787
00:37:48,840 --> 00:38:05,180
Nou ja, kijk, weet je wat, je zit denk ik, of steeds meer in, eigenlijk zit je nu in een soort fase met AI,

788
00:38:05,180 --> 00:38:11,360
is eigenlijk een beetje van die tool aan het veranderen in een soort van, ja, dat wordt ook wel door,

789
00:38:11,360 --> 00:38:21,920
hoe heet die, CEO Nvidia wordt het ook al gezegd, Jensen, wordt gezegd van, jij wordt een soort van CEO binnen jouw eigen bedrijf, weet je wel?

790
00:38:21,920 --> 00:38:24,340
Met allemaal agents, AI die dan voor jou gaan werken.

791
00:38:24,340 --> 00:38:28,740
Dat is ook wel een beetje zo, in de kunst gaat het ook zo zijn, in een soort van studio hebt,

792
00:38:28,740 --> 00:38:31,960
eigenlijk met allemaal creatieve AI-hulpen die jou gaan helpen.

793
00:38:32,380 --> 00:38:36,800
Nou, ook dat is natuurlijk weer een soort van, ja, tussenfasetje, zeg maar.

794
00:38:36,800 --> 00:38:40,240
Ik denk, alles wordt steeds meer een soort van meta.

795
00:38:40,240 --> 00:38:43,200
Dus eigenlijk steeds verder een stapje, een stapje.

796
00:38:43,200 --> 00:38:48,460
En ik, wat ik heel interessant vind, wat ik met AI zou willen doen ergens,

797
00:38:48,460 --> 00:38:54,180
is dat je eigenlijk de hele kunstgeschiedenis zelf, dat je die weer gaat simuleren.

798
00:38:54,180 --> 00:39:00,840
Met al het, weet je, eindeloze soort van agents, eigenlijk het hele ecosysteem, de cultuur zelf,

799
00:39:00,840 --> 00:39:05,860
dat je die als een AI-systeem, of eigenlijk simulatie, gaat runnen.

800
00:39:05,860 --> 00:39:06,240
Ja.

801
00:39:06,240 --> 00:39:08,480
En dat kan natuurlijk super interessant worden.

802
00:39:08,480 --> 00:39:15,360
Want dan kan ik dus, weet je wel, dan gaan we dus dingen, gaan we allerlei kunststromingen,

803
00:39:15,620 --> 00:39:20,400
zeg maar, zoals Rembrandt ooit, weet je wel, zoals het impressionisme ooit ontstond,

804
00:39:20,400 --> 00:39:23,640
daarna van, Van Gogh, postimpressionist.

805
00:39:23,640 --> 00:39:31,200
Dan is via simulaties het allemaal nieuwe soort van, ja, kunststromingen daadwerkelijk kunnen gaan komen.

806
00:39:31,200 --> 00:39:31,560
Oh ja.

807
00:39:31,660 --> 00:39:38,880
Ja, dat is waar, allemaal soort van, ja, nieuwe kunstuitingen en misschien wel, ja, manieren kunnen gaan scheppen,

808
00:39:38,880 --> 00:39:40,540
om in die wereld ook te gaan kijken.

809
00:39:40,540 --> 00:39:41,600
Oh, wat cool.

810
00:39:41,600 --> 00:39:42,440
In een museum.

811
00:39:42,440 --> 00:39:48,080
En zou je dan ook aan knopjes willen draaien die zeggen van, ja, maar nou is het, wordt het impressionisme niet uitgevonden.

812
00:39:48,080 --> 00:39:48,540
Exact.

813
00:39:48,540 --> 00:39:52,500
Kijk, dat gaat natuurlijk hele interessante testcases mogelijk maken.

814
00:39:52,500 --> 00:39:54,080
Maar wat gebeurt er nou als ik dit doe?

815
00:39:54,080 --> 00:39:58,500
Of ik doe heel gemeen tegen die kunstenaar, die heeft geen succes, wat gebeurt er dan?

816
00:39:58,500 --> 00:39:58,680
Ja.

817
00:39:58,680 --> 00:39:59,500
Oh ja.

818
00:39:59,500 --> 00:40:01,240
Oh, wat gaaf.

819
00:40:01,240 --> 00:40:04,740
Zoals wij zelf hier natuurlijk ook in een soort simulatie waarschijnlijk.

820
00:40:04,740 --> 00:40:06,880
Ja, denk je dat?

821
00:40:06,880 --> 00:40:08,660
Nee, nee.

822
00:40:08,660 --> 00:40:11,860
Mag ik niet hopen, laat ik het zo zeggen.

823
00:40:11,860 --> 00:40:16,120
Daar had ik ook wel een aantal knopjes aan die ze willen draaien.

824
00:40:16,120 --> 00:40:17,540
Sommige dingen hoef ik ook niet te weten.

825
00:40:17,540 --> 00:40:24,140
Ja, en het is educatie, maar ook creatie, maar ook wat is het effect hoor ik dan inderdaad.

826
00:40:24,140 --> 00:40:29,240
Dus hoe zou je eigenlijk het effect kunnen zien en zou je bijna een film kunnen beleven alsof het anders zou zijn?

827
00:40:29,240 --> 00:40:30,140
Ja, exact, ja.

828
00:40:30,820 --> 00:40:33,400
Dus een soort digital twin, maar dan van de hele kop.

829
00:40:33,400 --> 00:40:35,240
Van de kunstgeschiedenis.

830
00:40:35,240 --> 00:40:39,280
Ja, dat is wel een behoorlijk project.

831
00:40:39,280 --> 00:40:40,460
Dat lijkt me een projectje.

832
00:40:40,460 --> 00:40:40,580
Ja.

833
00:40:40,580 --> 00:40:40,880
Ja.

834
00:40:40,880 --> 00:40:47,380
Ja, ik was nog wel benieuwd.

835
00:40:47,380 --> 00:40:57,160
Want, want uiteindelijk zeg maar, volgens mij begin je dat je zegt van, ik heb een technische achtergrond en ik ben zo de kunst ingegaan.

836
00:40:57,160 --> 00:41:07,320
Wat zou je mensen willen adviseren als zij, zeg maar, ook met technologie en misschien kunst gezamenlijk aan de slag zouden willen?

837
00:41:07,720 --> 00:41:08,360
Waar begin je?

838
00:41:08,360 --> 00:41:14,440
Ja, nou in feite is natuurlijk de drempel nu best wel laag geworden, omdat je gewoon met de AI tools kunt gaan experimenteren, zeg maar.

839
00:41:14,440 --> 00:41:14,700
Ja.

840
00:41:14,780 --> 00:41:24,060
Ja, dus je kan nou heel makkelijk natuurlijk sowieso met teksten al gaan experimenteren met gedichten of weet ik veel wat je zou willen maken.

841
00:41:24,060 --> 00:41:27,420
Maar ook met natuurlijk de plaatjesmaaktools, de videomaaktools.

842
00:41:27,420 --> 00:41:30,860
Ja, die zijn op dit moment is natuurlijk heel toegankelijk, zeg maar.

843
00:41:31,040 --> 00:41:31,200
Ja.

844
00:41:31,200 --> 00:41:40,780
Dus ik zou daar zeker, maar de kanttekening die ik daar al meteen ook bij wil maken, ik zou heel erg gaan zoeken wel naar van, wat is nou jouw eigen menselijke creativiteit?

845
00:41:40,780 --> 00:41:45,980
En dat, weet je wel, dat gaan combineren met artificiële intelligentie.

846
00:41:45,980 --> 00:41:47,260
Ja, en dat push je denk ik.

847
00:41:47,260 --> 00:41:52,840
Ja, want wat je dus vaak hebt, kijk, wij doen ook wel van die, ook al met studenten, hebben we ook al sessies gedaan.

848
00:41:52,840 --> 00:42:00,760
Dus als je dan, weet je wel, wat je vaak een beetje krijgt, is dat mensen dan, dus dan vraag je bijvoorbeeld, ik heb ook communicatiewetenschap gestudeerd.

849
00:42:00,760 --> 00:42:05,680
Dan deden je bijvoorbeeld sessies met begin een communicatie, weet je, een soort commercial of zo te maken.

850
00:42:05,680 --> 00:42:06,380
Ja.

851
00:42:06,380 --> 00:42:07,020
Een advertentie.

852
00:42:07,020 --> 00:42:16,380
Ja, dan gaan mensen doen van, of ja, vragen aan zo'n prompting, weet je wel, zo'n plaatjesmaaktool van een advertentie.

853
00:42:16,380 --> 00:42:19,320
Weet je wel, een advertentie voor wasmiddelen.

854
00:42:19,320 --> 00:42:19,560
Ja.

855
00:42:19,560 --> 00:42:24,420
Ja, dat is niet zo heel erg, nee, dat gaat niet zo heel erg.

856
00:42:24,420 --> 00:42:26,880
Ja, dan is het gewoon, ja, dat is natuurlijk niet interessant.

857
00:42:26,880 --> 00:42:37,640
Kijk, waar het veel interessanter wordt, is natuurlijk als jij vanuit een bepaald soort idee wil gaan werken, en dat zeg maar, dan gaat experimenteren met artificiële intelligentie om dat te visualiseren, zeg maar.

858
00:42:37,640 --> 00:42:38,440
Ja.

859
00:42:38,440 --> 00:42:43,660
Ja, dus ik zou heel erg gaan zoeken naar inderdaad, van wat vind jij nou, of ja, welke grenzen zie jij nou?

860
00:42:43,900 --> 00:42:48,860
Of waar zou jij mee willen experimenteren in het maken van een kunstwerk?

861
00:42:48,860 --> 00:42:50,520
Wat is jouw visie daarop?

862
00:42:50,520 --> 00:42:57,280
Wil je gewoon iets moois maken, of wil je ook een soort van technische, of wil je iets op de kaart zetten, of wil je iets vanuit die gedachten?

863
00:42:57,280 --> 00:42:57,720
Ja.

864
00:42:57,720 --> 00:43:02,520
Ja, daar kun je nu heel mooi mee gaan experimenteren om, zeg maar, een soort van nieuwe kunstwerken te maken.

865
00:43:02,520 --> 00:43:04,280
Ja, dus echt weer beginnen bij het idee.

866
00:43:04,280 --> 00:43:05,180
Ja, zeker.

867
00:43:05,180 --> 00:43:07,520
Dus alles beginnen vanuit een menselijk verhaal of idee, ja.

868
00:43:07,520 --> 00:43:18,080
Wat, ik had een hotel, ik had ook nog, ik zit zo, anders gooi ik mijn vraag.

869
00:43:18,080 --> 00:43:21,280
Ja, dat is een creatieve proces die je gewoon in de leeftijd is inderdaad.

870
00:43:21,280 --> 00:43:29,680
Je noemde Microsoft, je noemde NVIDIA, ik was wel nieuwsgierig, ben je dan met kunstprojecten voor hun bezig, of gebruik je de technologieën, werk je samen met ze, of allebei?

871
00:43:29,680 --> 00:43:35,720
Ja, nou bijvoorbeeld, voor NVIDIA, dat ging dus over van, NVIDIA had dus zeg maar klantsessies,

872
00:43:35,720 --> 00:43:42,860
en dat heet volgens mij de AI Expert Panels, zeg maar, dus allemaal sessies over AI toepassingen, creatieve AI ook wel, met,

873
00:43:42,860 --> 00:43:45,760
was destijds ook online, dus volgens mij de corona periode.

874
00:43:45,760 --> 00:43:52,620
En wat ik toen gedaan heb, is zeg maar een kunstwerk gemaakt, wat ook een soort van loyalty gift was, zeg maar, aan, zeg maar, die klantengroep.

875
00:43:52,620 --> 00:43:56,340
En dan was toen, ja, we hadden van die kleine digitale beeldschermpjes geregeld,

876
00:43:56,340 --> 00:44:02,440
en dan had je dan een hele lange, ja, animatie over, een soort morf van het ene, van menselijk,

877
00:44:02,440 --> 00:44:07,340
we gingen ook weer over grens mens-natuur, vanuit hele menselijke dingen naar natuurlijke dingen.

878
00:44:07,340 --> 00:44:13,340
Dus had je bijvoorbeeld een groep mensen, die is in een stad of zo, die dan, ja, morfden naar een groep Mieren of zo.

879
00:44:13,340 --> 00:44:17,220
Dus allemaal van dat soort, er zat ook een stukje een large language model achter,

880
00:44:17,220 --> 00:44:24,260
die zocht dan de hele tijd op basis van, ja, concepten in afbeeldingen,

881
00:44:24,260 --> 00:44:26,740
en zo morfde, zo was het, zo morfde die die.

882
00:44:26,740 --> 00:44:31,380
Dus hij zocht naar concepten, overlappende concepten, die hij herkende dus in een foto van Mieren.

883
00:44:31,380 --> 00:44:34,700
Nou, hij herkende die dan het concept groep in of zo.

884
00:44:34,700 --> 00:44:40,440
En zo matchde die, dus het was niet met AI-gegenereerde afbeeldingen, het was met bestaande afbeeldingen, volgens mij.

885
00:44:40,440 --> 00:44:43,260
En die morfde AI dan weer aan elkaar, zeg maar.

886
00:44:43,440 --> 00:44:45,640
En hij zocht dus betekenis overlappen.

887
00:44:45,640 --> 00:44:48,100
En dat creëerde die animatie.

888
00:44:48,100 --> 00:44:54,760
En dat is dus helemaal gerund binnen, of ja, die DJX, de GPU-infrastructuur van NVIDIA destijds.

889
00:44:54,760 --> 00:44:55,660
Daar draai je niet jammer op.

890
00:44:55,660 --> 00:45:02,960
Nogmaals vraag je inderdaad, van welk bedrijf of welk instelling zou je graag nog een kunstwerk maken,

891
00:45:02,960 --> 00:45:04,360
waarvoor je nu niet gevraagd bent?

892
00:45:04,360 --> 00:45:06,760
Nu heb je een paar mooie namen, NVIDIA en Microsoft.

893
00:45:06,760 --> 00:45:08,500
Maar welke zat op dat lijstje?

894
00:45:08,500 --> 00:45:10,240
Waar zou je nog wat voor willen creëren?

895
00:45:10,240 --> 00:45:11,160
Wat voor een mooi idee heb je?

896
00:45:12,480 --> 00:45:13,920
Oeh, dat is wel een hele...

897
00:45:13,920 --> 00:45:17,100
Nou ja, kijk, weet je wat mij nou eigenlijk cool lijkt?

898
00:45:17,100 --> 00:45:20,980
Als je iets zou gaan doen met bijvoorbeeld Prada.

899
00:45:20,980 --> 00:45:22,580
Oh ja, ja.

900
00:45:22,580 --> 00:45:25,260
Ja, we zullen toch een beetje...

901
00:45:25,260 --> 00:45:26,340
Ja, precies.

902
00:45:26,340 --> 00:45:29,820
Of zo'n merk, kijk, het is zelfs zo met...

903
00:45:29,820 --> 00:45:34,480
Dus ik denk, of een merk als Balenciaga, daar ligt het misschien nog wat dichter bij eigenlijk.

904
00:45:34,480 --> 00:45:38,740
Balenciaga is nog bizarder dan Prada, wat daar gebeurt.

905
00:45:39,740 --> 00:45:42,940
Maar met het product, het ligt er eigenlijk al best wel dicht tegen de aardappelen aan.

906
00:45:42,940 --> 00:45:45,240
Maar Prada, het ligt zo...

907
00:45:45,240 --> 00:45:45,920
Ja.

908
00:45:45,920 --> 00:45:48,240
Nou ja, mochten we...

909
00:45:48,240 --> 00:45:49,080
En dan wel een aardappel.

910
00:45:49,080 --> 00:45:50,600
Ja, je weet het nooit hoor.

911
00:45:50,600 --> 00:45:51,220
Hallo Prada.

912
00:45:51,220 --> 00:45:51,800
Ja.

913
00:45:51,800 --> 00:45:53,660
Neem contact op.

914
00:45:53,660 --> 00:45:58,340
Als mensen de kunst van je willen zien, waar kunnen ze dat doen?

915
00:45:58,560 --> 00:46:00,740
Zowel offline als online.

916
00:46:00,740 --> 00:46:05,220
Ja, online is op dit moment jeroenvandermost.com.

917
00:46:05,220 --> 00:46:10,100
Ja, er zijn ook wel expo's, maar dat is dus op dit moment in Nuremberg, Germaans Nationaal Museum.

918
00:46:10,100 --> 00:46:10,500
Ja.

919
00:46:10,500 --> 00:46:13,940
En in PoCo Museum in Tallinn in Estland.

920
00:46:13,940 --> 00:46:14,620
Ja.

921
00:46:14,620 --> 00:46:15,920
Ja, hartstikke mooi.

922
00:46:15,920 --> 00:46:19,480
Ik denk dat wij een hele hoop van je gehoord hebben.

923
00:46:19,480 --> 00:46:19,680
Ja.

924
00:46:19,680 --> 00:46:27,320
Ik vond het zelf heel erg interessant wat je vertelt over idee, naar uitvoering en al die creativiteit die je laat zien.

925
00:46:27,320 --> 00:46:29,020
Dankjewel dat je dat met ons wilde delen.

926
00:46:29,020 --> 00:46:29,620
Graag gedaan.

927
00:46:29,620 --> 00:46:30,760
Superleuk om je geweest te zijn.

928
00:46:32,680 --> 00:46:36,080
Leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

929
00:46:36,080 --> 00:46:39,880
Vergeet je niet te abonneren op onze podcast.

930
00:46:39,880 --> 00:46:42,280
Dan krijg je automatisch een seintje.

931
00:46:42,280 --> 00:46:45,260
En denk eens aan het inschrijven voor de nieuwsbrief.

932
00:46:45,260 --> 00:46:46,700
De link staat in de show notes.

933
00:46:46,700 --> 00:46:50,140
Krijg je ook wat exclusieve content van achter de schermen.

934
00:46:50,140 --> 00:46:52,920
Dus altijd leuk om dat te zien, toch?

935
00:46:52,920 --> 00:46:53,900
Zeker.

936
00:46:53,900 --> 00:46:54,920
Tot de volgende keer.

937
00:46:54,920 --> 00:46:55,680
Tot de volgende keer.

938
00:46:55,680 --> 00:46:59,060
[Muziek]


People on this episode