AIToday Live

S07E65 - Datavisualisatie als sleutel tot duurzamer AI-gebruik met Thijs van Dijk

Aigency by Info Support Season 7 Episode 65

Thijs van Dijk, strateeg bij BTTR & Chocolate, bespreekt in deze aflevering van AIToday Live hoe datavisualisatie kan helpen bij het inzichtelijk maken van CO2-uitstoot door AI-gebruik. Hij legt uit hoe datadesign verder gaat dan storytelling en zich richt op het feitelijk weergeven van complexe datastromen.

Van Dijk benadrukt het belang van transparantie in AI-gebruik en de noodzaak om bewuste keuzes te maken bij de inzet van AI-technologie. Hij pleit voor het visualiseren van CO2-uitstoot in dagelijks IT-gebruik en bespreekt de uitdagingen die hierbij komen kijken.

De aflevering behandelt ook de mogelijkheid van een 'Nutri-score label' voor AI-modellen en de verwachting dat er binnen tien jaar een internationale standaard zal ontstaan voor het meten van duurzaamheid in AI.

Onderwerpen

  • De rol van datavisualisatie in bewustwording van CO2-uitstoot
  • Impact van AI-gebruik op CO2-uitstoot
  • Gebrek aan transparantie in data over AI
  • Responsible AI en bewuste keuzes
  • Aanbevelingen voor organisaties omtrent CO2-visualisatie

Links

Genoemde entiteiten: BTTR & Chocolate - BTTR - Electricity Maps - OpenAI - Microsoft

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:05,520
In deze aflevering hoor je Thijs van Dijk, strateeg bij Better & Chocolate, over hoe datavisualisatie

2
00:00:05,520 --> 00:00:09,800
kan helpen bij het inzichtelijk maken van de CO2-uitstoot van AR-gebruik.

3
00:00:09,800 --> 00:00:15,600
Hij deelt concrete voorbeelden van hoe organisaties via doordachte datadesign gebruikers kunnen

4
00:00:15,600 --> 00:00:18,879
stimuleren bewustere keuzes te maken in hun digitale gedrag.

5
00:00:18,879 --> 00:00:20,240
Dus blijf luisteren!

6
00:00:22,860 --> 00:00:25,800
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.

7
00:00:26,100 --> 00:00:27,760
Mijn naam is Joop Snijder, CTO bij Aigency.

8
00:00:28,060 --> 00:00:30,720
Mijn naam Niels Naglé, Area Lead Data & AI, bij Info Support.

9
00:00:31,340 --> 00:00:34,260
En in de studio, we hebben soms mensen die van heel ver komen.

10
00:00:34,940 --> 00:00:38,300
En nu iemand van om de hoek, op de fiets, Thijs van Dijk.

11
00:00:38,680 --> 00:00:39,040
Zeker.

12
00:00:39,700 --> 00:00:42,180
Leuk dat je bij ons in de studio aanwezig wil zijn.

13
00:00:42,380 --> 00:00:43,340
Dank voor de uitnodiging.

14
00:00:44,140 --> 00:00:46,600
Wil je jezelf eerst even voorstellen aan de luisteraars?

15
00:00:46,840 --> 00:00:49,600
Ja, zeker. Ik ben Thijs. Ik ben strateeg.

16
00:00:50,320 --> 00:00:53,760
en strateeg bij BTTR eigenlijk al best wel heel lang, al een jaar of tien,

17
00:00:54,380 --> 00:00:56,500
waar we vooral publieke platformen ontwikkelen.

18
00:00:56,620 --> 00:01:00,380
Dus echt platformen met high traffic om mensen verder te helpen.

19
00:01:00,380 --> 00:01:04,940
Je moet eigenlijk een beetje denken aan platformen voor de Nederlandse Vereniging van Journalistiek,

20
00:01:05,300 --> 00:01:07,080
waar journalisten al hun informatie kunnen vinden,

21
00:01:07,150 --> 00:01:09,400
maar ook horecaondernemers bijvoorbeeld voor ConcoHoreca Nederland.

22
00:01:10,260 --> 00:01:16,000
En eigenlijk sinds het begin dit jaar zien we eigenlijk dat de urgentie van data design wel toeneemt

23
00:01:16,100 --> 00:01:17,860
en eigenlijk de visualisatie van data design.

24
00:01:18,900 --> 00:01:21,420
Dus zijn we begin dit jaar gestart met Chocolate.

25
00:01:22,040 --> 00:01:24,380
En vervulde eigenlijk ook de rol van strateeg.

26
00:01:24,840 --> 00:01:25,700
En wat is Chocolate?

27
00:01:26,080 --> 00:01:27,380
Ja, behalve dan chocola.

28
00:01:28,120 --> 00:01:30,560
Chocolate richt zich, waar BTTR zich heel erg richt op,

29
00:01:30,800 --> 00:01:33,780
het ontwikkelen van digitale producten aan de frontend van het internet.

30
00:01:34,580 --> 00:01:37,220
Richt Chocolate zich eigenlijk op de visualisatie van data design.

31
00:01:37,800 --> 00:01:40,140
Om eigenlijk een onderwerp beter uit te leggen.

32
00:01:40,320 --> 00:01:41,840
En daar zitten we vandaag ook voor.

33
00:01:42,100 --> 00:01:43,260
Het onderwerp AI.

34
00:01:43,400 --> 00:01:45,500
En hoe leggen we dat nou eigenlijk uit aan de mens?

35
00:01:46,940 --> 00:01:49,380
Daar richten we ons eigenlijk onder andere op.

36
00:01:49,560 --> 00:01:52,640
En dat heeft te maken met dat de wereld wordt complexer.

37
00:01:53,940 --> 00:01:55,900
Datastromen worden steeds vollediger.

38
00:01:56,240 --> 00:02:02,980
Omdat we met AI met z'n allen weten, oh, maar om iets te gaan doen met AI heb ik wel eigen input nodig, eigen bronnen nodig.

39
00:02:03,540 --> 00:02:06,740
Dus we zijn dat wat meer aan het verzamelen, waardoor je eigenlijk ook meer zou kunnen.

40
00:02:07,940 --> 00:02:11,620
En daar dat dan vormgeven, dus eigenlijk dat we het ook begrijpen.

41
00:02:12,440 --> 00:02:13,740
Daar richt chocolate zich dan eigenlijk op.

42
00:02:14,780 --> 00:02:18,400
En hoe moet ik het dan voor me zien? Datadesign klinkt nog wat conceptueel.

43
00:02:18,500 --> 00:02:21,240
Is dat storytelling? Is dat verder dan storytelling?

44
00:02:24,219 --> 00:02:29,859
Zoals ik het zie, is storytelling nog eigenlijk altijd om iets moois te maken, om iets te vertellen of te laten landen.

45
00:02:30,200 --> 00:02:35,020
Waarbij eigenlijk datadesign zich richt op het feitelijk vertellen van wat gebeurt er nou eigenlijk.

46
00:02:35,880 --> 00:02:42,800
En dat zit hem in, ja, wat gebeurt er feitelijk gezien?

47
00:02:43,320 --> 00:02:45,240
En dan kan je aan allerlei voorbeelden denken.

48
00:02:45,430 --> 00:02:49,980
Dan kan je aan voorbeelden denken zoals hoe Spotify jaarlijks je rap laat zien.

49
00:02:51,620 --> 00:02:54,540
Om te laten zien, dit is allemaal wat je geluisterd hebt het afgelopen jaar.

50
00:02:54,640 --> 00:02:55,980
En dus je smaakt, je topartiest.

51
00:02:56,480 --> 00:02:57,580
Dat is inderdaad een vorm van storytelling.

52
00:02:57,790 --> 00:03:01,140
Maar tegelijkertijd wel feitelijk georiënteerd.

53
00:03:01,280 --> 00:03:04,040
Dus op basis van je eigen data, je eigen gebruik.

54
00:03:05,040 --> 00:03:06,600
Om je eigenlijk daarin verder te helpen.

55
00:03:07,100 --> 00:03:09,780
En Spotify geeft je in die zin niet zo heel veel suggesties.

56
00:03:10,280 --> 00:03:15,600
Over van, als je nu dit profiel hebt en deze smaak, misschien moet je dit eens oriënteren voor volgend jaar.

57
00:03:16,120 --> 00:03:17,300
Dat zit daar dan allemaal niet in.

58
00:03:19,000 --> 00:03:20,780
Maar dat is eigenlijk wel wat je met datadesign zou willen.

59
00:03:21,200 --> 00:03:27,240
Dus dat eigenlijk doorgaat naar een suggestie om je eigenlijk verder te helpen.

60
00:03:27,860 --> 00:03:30,380
En hoe moet ik dat dan zien in een zakelijke context?

61
00:03:30,960 --> 00:03:37,180
In een zakelijke context zijn er op dit moment heel veel start-ups die daar eigenlijk mee aan het werk zijn.

62
00:03:38,160 --> 00:03:44,120
Maar een voorbeeld daarvan is Electricity Maps.

63
00:03:44,540 --> 00:03:46,380
Dat is een start-up in Kopenhagen.

64
00:03:46,580 --> 00:03:50,580
Die eigenlijk het hele elektriciteitsgebruik wereldwijd visualiseert.

65
00:03:50,640 --> 00:03:52,160
Wellicht kennen jullie dit.

66
00:03:53,220 --> 00:03:54,540
En dat doen ze eigenlijk real-time.

67
00:03:54,820 --> 00:03:57,680
En dan geven ze eigenlijk ook real-time aan wat daar dan de impact van is.

68
00:03:57,680 --> 00:03:59,900
Dus hoeveel hernieuwbare energie wordt er gebruikt.

69
00:04:00,320 --> 00:04:04,940
Dus eigenlijk als je dat zou openen, zie je dat Nederland het eigenlijk heel goed doet op ons elektriciteitsnetwerk.

70
00:04:05,420 --> 00:04:07,500
Omdat we eigenlijk heel veel hernieuwbare energie gebruiken.

71
00:04:07,860 --> 00:04:09,480
en ook relatief klein land zijn en dergelijke.

72
00:04:10,160 --> 00:04:16,600
En landen in Afrika, uiteraard in Azië, dat gaat eigenlijk allemaal veel minder goed.

73
00:04:17,600 --> 00:04:19,620
Waarbij dat eigenlijk vanuit daaruit ook wordt uitgelegd.

74
00:04:19,700 --> 00:04:27,320
Dus als je door die digital experience heen gaat, krijg je eigenlijk feitelijk te zien hoe dat nou wordt gebruikt en hoe dat staat.

75
00:04:27,420 --> 00:04:30,040
En dat wordt dan eigenlijk, als je het terugvertaalt naar een zakelijke context,

76
00:04:30,980 --> 00:04:34,300
kan je daar eigenlijk een premium element nemen op het moment dat je inkoper bent.

77
00:04:35,000 --> 00:04:39,500
Dus eigenlijk alle landen zitten daar wel op om prijzen te monitoren, om beslissingen te maken.

78
00:04:39,780 --> 00:04:44,700
En eigenlijk, data design is juist de bron om beter beslissingen te maken.

79
00:04:45,450 --> 00:04:49,260
Want je vormt ideeën en je wil je beslissingen beter onderbouwd kunnen maken.

80
00:04:49,680 --> 00:04:55,200
Als in, ik zou heel graag willen dat we in een wereld leven waar beslissingen wat meer onderbouwd worden gemaakt.

81
00:04:58,500 --> 00:04:59,980
Oké, dan pak ik hem eventjes.

82
00:05:00,190 --> 00:05:00,960
Ik zal er even wat denken.

83
00:05:02,140 --> 00:05:04,780
We hebben natuurlijk van tevoren gesproken.

84
00:05:05,600 --> 00:05:11,800
En toen had je het over dat je ideeën had over het visualiseren, het gebruik.

85
00:05:13,040 --> 00:05:19,860
Gebruikers laten zien hoeveel CO2 het kost als we met taalmodellen aan de slag zijn.

86
00:05:20,060 --> 00:05:20,300
Zeker.

87
00:05:20,800 --> 00:05:21,940
Kan je daar iets over vertellen?

88
00:05:21,960 --> 00:05:24,580
Want dat klonk wel heel erg interessant namelijk.

89
00:05:24,940 --> 00:05:29,900
Ja, je hebt eigenlijk een van de belangrijkste uitdagingen die we nog steeds hebben.

90
00:05:30,880 --> 00:05:32,400
En dat lees je eigenlijk ook nog steeds in het nieuws.

91
00:05:32,460 --> 00:05:33,940
De uitstoot neemt nog steeds toe.

92
00:05:34,580 --> 00:05:37,980
Eigenlijk van CO2 en ook vanuit de Green Deal afspraken.

93
00:05:38,420 --> 00:05:40,200
Waar je als land wel of niet aan houdt.

94
00:05:41,320 --> 00:05:43,580
Is eigenlijk een van de grootste uitdagingen nog.

95
00:05:43,800 --> 00:05:45,340
Zoals ik dat zie zeker ook van deze tijd.

96
00:05:45,620 --> 00:05:48,780
Hoe krijgen we nou eigenlijk die CO2 reductie toch wel omlaag.

97
00:05:49,600 --> 00:05:51,480
Daar zijn allerlei initiatieven voor.

98
00:05:51,920 --> 00:05:54,040
Je kan ook juist weer met credits gaan werken.

99
00:05:54,070 --> 00:05:55,220
Er worden ook wel weer fondsen opgezet.

100
00:05:55,220 --> 00:05:57,360
Voor de een die het heel goed doet kan je weer afkopen van de al.

101
00:05:57,400 --> 00:06:05,040
Je hebt allerlei routes om zakelijk gezien je CO2-reductie in gang te zetten.

102
00:06:06,320 --> 00:06:10,300
Maar voor mij start dat eigenlijk ook wel bij de IT-kant.

103
00:06:10,960 --> 00:06:14,240
En ook wel bij hoe maken we nou eigenlijk gebruik van IT en software.

104
00:06:14,420 --> 00:06:19,280
Omdat we weten dat IT en software eigenlijk heel veel data vergen.

105
00:06:19,500 --> 00:06:21,320
Energie, datacenters, et cetera.

106
00:06:22,860 --> 00:06:25,640
En dat is eigenlijk aan de visualisatiekant tweeledig.

107
00:06:25,960 --> 00:06:30,500
Dus je hebt eigenlijk de algehele ML-ops als het ware.

108
00:06:31,680 --> 00:06:35,920
Waarbij er bijvoorbeeld een praktische invulling is van Code Carbon.

109
00:06:36,420 --> 00:06:38,760
Wellicht bij jullie bekend.

110
00:06:38,940 --> 00:06:40,000
Ik zal het toelichten.

111
00:06:40,380 --> 00:06:44,620
Die eigenlijk real-time visualisatie maakt op het moment als jij bezig bent met je modelontwikkeling.

112
00:06:45,840 --> 00:06:49,679
Dat je eigenlijk adviezen krijgt hoe die modelontwikkeling gereduceerd,

113
00:06:50,650 --> 00:06:54,540
hoe je CO2 kan reduceren in het model wat je ontwikkelt.

114
00:06:54,980 --> 00:06:56,600
En dat zit hem dan wat meer aan de output kant.

115
00:06:57,040 --> 00:06:58,940
Dus oké, wat is nou de output van dat model?

116
00:07:00,100 --> 00:07:03,340
Dat staat wel los van dat eigenlijk het creëren van modellen an sich.

117
00:07:03,820 --> 00:07:04,480
Heel, heel veel.

118
00:07:05,400 --> 00:07:08,800
Ja, iets van, daar zijn we wat onderzoeken ook door, wat Theo Delft over gedaan.

119
00:07:09,120 --> 00:07:10,639
Iets van 500 ton uitstoten.

120
00:07:11,510 --> 00:07:17,840
Wat wel een gemiddeld, nou ja, zekere model van OPI creëert.

121
00:07:18,320 --> 00:07:23,760
Dus je zit eigenlijk aan de visualisatie kant eigenlijk dat real-time binnen de algehele MLops.

122
00:07:23,860 --> 00:07:29,420
Dus eigenlijk alle development operations onderdelen die je hebt bij de ontwikkeling van software modellen.

123
00:07:31,879 --> 00:07:34,440
En eigenlijk dat in de breedste zin.

124
00:07:35,040 --> 00:07:36,600
En dat zit hem eigenlijk aan de professional kant.

125
00:07:36,790 --> 00:07:40,160
Dus de visualisatie aan de professional kant waar wel stappen worden genomen.

126
00:07:40,210 --> 00:07:43,340
En ook Microsoft doet daar ook wel het nodige voor.

127
00:07:44,240 --> 00:07:47,680
Had ik nog wel een beetje ter voorbereiding naar gekeken.

128
00:07:47,920 --> 00:07:51,260
Dat ze ook nog echt wel beloningen uitgeven voor developers.

129
00:07:51,640 --> 00:07:56,420
Die wel degelijk in het ontwikkelen van de modellen aan de co-pilot kant.

130
00:07:59,280 --> 00:08:01,440
Daar vooral wat incentives voor maken.

131
00:08:01,920 --> 00:08:03,740
Want als jij daar wel rekening mee houdt.

132
00:08:03,840 --> 00:08:06,860
Dan krijg jij van ons extra bonus ofzo.

133
00:08:07,500 --> 00:08:10,080
Het was een beetje op individueel niveau georiënteerd.

134
00:08:10,080 --> 00:08:11,320
Dus nu niet zozeer bedrijfsmatig.

135
00:08:11,320 --> 00:08:13,660
Maar meer van oké, als je dat als medewerker belangrijk vindt.

136
00:08:13,700 --> 00:08:14,420
Wat ik ook terecht vind.

137
00:08:14,420 --> 00:08:16,680
Want ik denk dat er heel veel jonge mensen, ook bij Microsoft werken.

138
00:08:17,160 --> 00:08:20,760
Die echt wel degelijk zich ook misschien ook wel zorgen maken.

139
00:08:21,800 --> 00:08:22,780
Net zoals dat ik dat...

140
00:08:23,020 --> 00:08:26,580
Maar dat zijn dan interne beloningen voor interne mensen die daar aan...

141
00:08:26,700 --> 00:08:30,620
Ja, ze geven interne beloningen eigenlijk op het moment dat jij kan aantonen in je werk.

142
00:08:31,140 --> 00:08:33,440
Dus eigenlijk, ik zie dat zelfs een beetje klassiek vormen.

143
00:08:33,740 --> 00:08:35,360
Dat je jaarlijks je beoordelingsgesprek hebt.

144
00:08:36,020 --> 00:08:38,919
Wat heb je eigenlijk dit jaar allemaal ontwikkeld binnen onze organisatie?

145
00:08:39,080 --> 00:08:42,200
Oh, nou wat goed dat je rekening hebt gehouden met dat CO2-uitstoot wat minder is.

146
00:08:42,620 --> 00:08:44,280
Oh, en ook heel mooi dat je dat hebt kunnen aantonen.

147
00:08:44,380 --> 00:08:45,860
Want zo helpen we de wereld met z'n allen verder.

148
00:08:46,980 --> 00:08:48,040
Dus die initiatieven zijn er wel.

149
00:08:48,180 --> 00:08:50,560
Die initiatieven zijn dan vooral aan de professional kant.

150
00:08:51,140 --> 00:08:53,100
En dan hebben we vervolgens de gebruikerskant.

151
00:08:53,719 --> 00:08:58,060
En aan de gebruikerskant zitten wat mij betreft wel de grotere uitdagingen.

152
00:08:59,619 --> 00:09:03,100
Eigenlijk gebruiken we met z'n allen dagelijks nog steeds heel veel internet.

153
00:09:04,739 --> 00:09:07,800
Eigenlijk van inderdaad AI tot aan ook wel e-commerce.

154
00:09:09,160 --> 00:09:10,320
Maar ook wel nieuwsvoorziening.

155
00:09:10,880 --> 00:09:12,860
En eigenlijk media.

156
00:09:13,320 --> 00:09:16,640
En we maken eigenlijk op allerlei manieren gebruik van het internet.

157
00:09:16,720 --> 00:09:18,200
Net in de apps en dergelijke.

158
00:09:18,800 --> 00:09:23,640
En daarin zie je dat het eigenlijk heel beperkt is, de CO2-visualisatie.

159
00:09:24,720 --> 00:09:27,500
Als voorbeeld zijn er wel wat e-commerce-platformen die echt hun best doen.

160
00:09:27,540 --> 00:09:34,320
Dus bijvoorbeeld Print.com is een e-commerce-platform voor het bestellen van je flyers en borden en dergelijke.

161
00:09:34,800 --> 00:09:37,220
En die tonen wel de CO2-impact per product aan.

162
00:09:37,520 --> 00:09:39,260
Dus die doen dat visueel in hun webshop.

163
00:09:40,020 --> 00:09:40,820
Tonen dat eigenlijk.

164
00:09:42,880 --> 00:09:50,580
En zo zijn nog wel wat andere aan de e-commerce kant, wat initiatieven die wel degelijk die CO2 impact als het ware laten zien.

165
00:09:52,080 --> 00:09:56,040
Maar tegelijkertijd kunnen ze het niet echt doorvertalen.

166
00:09:56,320 --> 00:09:57,600
Dus het zit hem echt op het product.

167
00:09:57,750 --> 00:09:59,560
Dus hoe is dat product nou eigenlijk tot stand gekomen?

168
00:10:00,000 --> 00:10:01,260
Maar kunnen ze dat niet doorvertalen?

169
00:10:01,740 --> 00:10:05,380
En eigenlijk wordt het verder dus eigenlijk helemaal niet laten zien.

170
00:10:05,520 --> 00:10:14,940
En het zit hem eigenlijk zelfs zo dat op het moment als je de HCP vraagt van wat is nou de impact van dit antwoord op de CO2-uitstof.

171
00:10:15,000 --> 00:10:17,180
Want je zou eigenlijk willen dat daar wat gevisualiseerd wordt.

172
00:10:17,580 --> 00:10:20,500
Eigenlijk per antwoord of per ding wat er gegenereerd wordt.

173
00:10:21,260 --> 00:10:24,600
Intussen wordt aan de generatieve AI heel veel ook gegenereerd.

174
00:10:25,000 --> 00:10:28,840
Waarbij voor het een ook echt wel meer CO2-uitstof nodig is dan voor het andere.

175
00:10:29,000 --> 00:10:31,220
Kijk, een antwoordje van twee zinnen, dat zal wel meevallen.

176
00:10:31,380 --> 00:10:34,640
Maar wat de verbazing dan eigenlijk is op het moment dat je dit vraagt,

177
00:10:35,720 --> 00:10:40,580
is dat er dan eigenlijk wordt gezegd, nou het is 0,01 kilogram uitstoot, iets in die richting.

178
00:10:41,620 --> 00:10:45,220
Maar, staat er gelijk bij, als je een Google zoekopdracht had gedaan,

179
00:10:46,220 --> 00:10:49,740
dan was het eigenlijk wel twee keer zo veel geweest, of drie keer zoveel, of vier keer zoveel.

180
00:10:50,840 --> 00:10:55,180
Dus eigenlijk de uitleg van, oké, hoe gaan we nou om en hoe visualiseren we,

181
00:10:55,600 --> 00:10:58,220
in dit geval dan in tekst nog georiënteerd,

182
00:10:59,020 --> 00:11:04,080
De CO2-uitstoot is dat eigenlijk een van de grotere AI-producten die nu worden gebruikt.

183
00:11:04,900 --> 00:11:06,860
Eigenlijk zegt van wij doen het in principe best wel goed.

184
00:11:06,880 --> 00:11:08,700
Want we kijken eigenlijk gelijk al wel naar de ander.

185
00:11:09,200 --> 00:11:10,680
En dat naar de ander kijken.

186
00:11:11,160 --> 00:11:13,560
Dat is eigenlijk ook wat er gebeurt bij dit opdeel.

187
00:11:13,620 --> 00:11:17,680
Want je kan eigenlijk alle grote e-commerce platformen van Bol en CoolBlue en dergelijke.

188
00:11:18,220 --> 00:11:19,940
Er is echt niemand die tegen jou zegt van.

189
00:11:20,100 --> 00:11:21,720
Maar misschien moet je even wachten met deze bestelling.

190
00:11:21,800 --> 00:11:23,600
Want we zien dat jij elke week bestelt.

191
00:11:23,660 --> 00:11:25,540
En als je één keer in de week maar bij ons bestelt.

192
00:11:26,000 --> 00:11:27,160
Dan sturen we het in één keer op.

193
00:11:27,240 --> 00:11:28,320
Dus reduceer je CO2.

194
00:11:28,560 --> 00:11:32,540
Maar dat soort visualisaties ben ik echt verbaasd...

195
00:11:32,540 --> 00:11:34,620
dat daar eigenlijk niemand het voortouw eigenlijk inneemt.

196
00:11:34,620 --> 00:11:39,800
Maar ook de merken die echt heel duurzaam willen zijn...

197
00:11:39,800 --> 00:11:41,560
of de AI-modellen die juist...

198
00:11:41,990 --> 00:11:44,640
want die zijn er natuurlijk ook, die zich wat meer richten op...

199
00:11:44,640 --> 00:11:46,500
ook het genereren van plantjes bijvoorbeeld en bloemetjes en zo.

200
00:11:49,780 --> 00:11:52,920
Die zeggen ook niet van oké, dit kan op dit moment wel of niet.

201
00:11:53,120 --> 00:11:57,999
En tegelijkertijd krijgen we wel nieuws over...

202
00:11:58,020 --> 00:12:01,580
Wanneer je je wasdroger aan moet zetten of niet.

203
00:12:01,580 --> 00:12:02,360
Of je wasmachine.

204
00:12:03,200 --> 00:12:06,560
Of hoe je daar toch om kan gaan met elektriciteit.

205
00:12:07,420 --> 00:12:11,980
En dat omgaan met elektriciteit binnen hoe we het hele internet gebruiken.

206
00:12:12,100 --> 00:12:18,040
Want ik zit dan vanuit mijn werk als strateeg vooral de hele dag bezig met het internet.

207
00:12:18,720 --> 00:12:20,280
Dat is vooral achter de schermen.

208
00:12:21,560 --> 00:12:24,820
We eigenlijk helemaal niet bezig zijn met het visualiseren daarvan.

209
00:12:25,020 --> 00:12:26,220
Of in ieder geval het communiceren daarvan.

210
00:12:26,760 --> 00:12:29,960
Ik wil nog even, want je vroeg eens aan ChatGPT zelf.

211
00:12:30,940 --> 00:12:32,560
Daar hallucineert hij waarschijnlijk alles bij elkaar.

212
00:12:34,340 --> 00:12:38,720
Want die gegevens zijn er niet of nauwelijks van het gebruik eigenlijk.

213
00:12:39,500 --> 00:12:43,640
Maar nou is er net een blog uitgekomen van Sam Altman.

214
00:12:44,920 --> 00:12:51,560
Waarin hij zegt hoeveel ChatGPT gebruikt.

215
00:12:51,760 --> 00:12:52,880
En dan had ik dat klaarstaan.

216
00:12:53,160 --> 00:12:53,940
Even opzoeken.

217
00:12:54,580 --> 00:12:56,480
En is dat weer...

218
00:12:56,660 --> 00:12:58,640
Dat zou vast goed nieuws geweest zijn, Joop.

219
00:12:59,160 --> 00:12:59,760
Ja, zeker.

220
00:13:00,840 --> 00:13:04,200
Dus hij zegt, zeg maar een gemiddelde ChatGPT-vraag.

221
00:13:04,360 --> 00:13:07,020
Die kost 0,34 wattuur.

222
00:13:08,700 --> 00:13:13,820
Waarbij hij zegt, dat is ongeveer net zoveel als dat je één seconde een oven aan laat staan.

223
00:13:15,560 --> 00:13:22,960
En het gebruikt 0,000322 liter water per query.

224
00:13:23,780 --> 00:13:28,040
En dat is ongeveer de vijftiende van een theelepel.

225
00:13:28,900 --> 00:13:32,860
Dus het wordt gedaan alsof het gebruik eigenlijk heel laag is.

226
00:13:33,740 --> 00:13:37,500
Waarbij ik er even van uitga dat het hele gunstige geschatte kosten zijn.

227
00:13:38,660 --> 00:13:41,460
Met waarschijnlijk het meest kleine en efficiënte model.

228
00:13:42,260 --> 00:13:49,240
Maar echte data over het gebruik van dit soort grote modellen zijn er eigenlijk niet.

229
00:13:49,980 --> 00:13:54,600
Dus hoe moeten wij dat dan zo direct daar ook goed mee omgaan?

230
00:13:55,620 --> 00:13:58,760
Ja, nee, de echte data is er inderdaad niet.

231
00:13:58,920 --> 00:13:59,980
Is echt heel, heel beperkt.

232
00:14:00,040 --> 00:14:02,840
Zijn er niet zozeer transparant over.

233
00:14:05,240 --> 00:14:09,420
Tegelijkertijd weten we inderdaad wel dat uitstoot in zich heel toeneemt.

234
00:14:09,430 --> 00:14:11,100
En er ook steeds meer datacenters worden gebouwd.

235
00:14:11,160 --> 00:14:11,400
Ja, zeker.

236
00:14:11,640 --> 00:14:17,860
En het nieuwe bouwen van een nieuwe datacenters heeft niet te maken dat wij minder gebruik maken van internet of software of iets.

237
00:14:18,260 --> 00:14:24,240
Het heeft vooral te maken dat we er meer gebruik van maken.

238
00:14:24,920 --> 00:14:27,020
En hoe moeten we daar nou mee omgaan?

239
00:14:27,200 --> 00:14:30,600
Kijk, uiteindelijk een aantal weken geleden was Pieck Nijf hier te gast.

240
00:14:31,840 --> 00:14:34,340
En zij gaf eigenlijk aan de term Responsible AI.

241
00:14:35,580 --> 00:14:37,920
En er wordt heel veel gesproken dan over Responsible AI.

242
00:14:38,220 --> 00:14:42,180
En dat gaat over hoe leggen we nou verantwoord gebruik uit.

243
00:14:42,540 --> 00:14:43,880
En hoe gaan we daar nou mee om?

244
00:14:44,960 --> 00:14:47,360
Maar tegelijkertijd is Responsible AI, en dat zei zij dus ook,

245
00:14:48,820 --> 00:14:49,980
zoals ik dat denk ik ook vind.

246
00:14:50,520 --> 00:14:52,280
Er zit eigenlijk nog wel een vraag daarvoor.

247
00:14:52,500 --> 00:14:54,100
Heb ik het eigenlijk op dit moment nodig

248
00:14:54,300 --> 00:14:56,180
voor de vragen die ik heb?

249
00:14:56,660 --> 00:14:57,580
En ik zag zelf dan

250
00:14:58,310 --> 00:14:59,860
nog een campagne van Economist

251
00:14:59,960 --> 00:15:01,020
voorbij komen van van de week.

252
00:15:04,019 --> 00:15:05,800
Waarbij eigenlijk de billboard was van

253
00:15:06,120 --> 00:15:07,940
is dit jouw geprompte mening?

254
00:15:08,640 --> 00:15:09,580
Letterlijk in een vraag.

255
00:15:09,900 --> 00:15:11,920
Is dit nou jouw geprompte mening?

256
00:15:13,420 --> 00:15:15,440
En dat is ook een beetje op de vlak van

257
00:15:15,460 --> 00:15:17,020
hoe moeten we daar nou mee omgaan?

258
00:15:17,540 --> 00:15:19,020
Zit hem allereerst ook met.

259
00:15:21,060 --> 00:15:22,240
Hebben we het nodig?

260
00:15:22,820 --> 00:15:24,060
En moeten we het hiervoor gebruiken?

261
00:15:24,440 --> 00:15:25,960
Waarbij het wel steeds lastiger wordt.

262
00:15:26,200 --> 00:15:28,440
Want als je Google gebruikt.

263
00:15:29,940 --> 00:15:33,220
Dan krijg je eigenlijk gewoon ook een gegenereerd antwoord.

264
00:15:34,480 --> 00:15:37,340
Dus ik zag dat soort vragen van mensen ook voorbij komen.

265
00:15:38,620 --> 00:15:39,960
Waarbij ook steeds minder.

266
00:15:42,280 --> 00:15:44,280
Het wordt aan je opgedrongen bijna.

267
00:15:45,420 --> 00:15:46,760
Je kan er bijna niet meer aan onderuit.

268
00:15:46,780 --> 00:15:49,980
Want uiteindelijk inderdaad, Google maakt nu van die AI samenvattingen.

269
00:15:50,060 --> 00:15:53,900
Uiteindelijk binnen de hele SEO-wereld is iedereen best wel geschrokken.

270
00:15:53,940 --> 00:15:55,800
Want eigenlijk al het verkeer is naar beneden gegaan.

271
00:15:55,940 --> 00:15:58,460
Omdat antwoorden worden nog slimmer en sneller gegeven.

272
00:16:00,120 --> 00:16:02,980
Dus ja, ons gebruik van het internet verandert.

273
00:16:03,920 --> 00:16:04,820
En ontkom je eraan.

274
00:16:05,110 --> 00:16:08,760
Ik denk dat er op dit moment al in heel veel sectoren...

275
00:16:11,000 --> 00:16:12,500
Dat je er eigenlijk al niet meer aan ontkomt.

276
00:16:12,880 --> 00:16:16,940
En dat je er eigenlijk ook als wel als consument al wat dagelijks gebruik van moet maken.

277
00:16:17,800 --> 00:16:24,000
En tegelijkertijd als ik echt naar AI kijk, ben ik vooral groot voorstander om het in te zetten waar dat relevant is.

278
00:16:24,050 --> 00:16:31,640
En voor mij is het relevant bij logistieke uitdagingen, bij energieverbruik reductie of bij klimaatmodellen.

279
00:16:32,880 --> 00:16:36,260
Dus eigenlijk bij datgene waarvoor het effectief in te zetten is.

280
00:16:36,520 --> 00:16:43,520
Maar tegelijkertijd ervaar ik ook gewoon wel heel erg dat we in een tijd leven waarin we het eigenlijk allemaal nog niet helemaal weten.

281
00:16:44,880 --> 00:16:49,660
We denken dat we bepaalde dingen met AI juist kunnen en doen en daarmee omgaan.

282
00:16:50,170 --> 00:16:54,280
Maar tegelijkertijd kan het zijn dat het over tien jaar dat we naar deze tijd natuurlijk kijken en denken.

283
00:16:55,840 --> 00:16:58,840
Oh joh, wat waren we als een speeltuin ermee aan de slag.

284
00:16:58,840 --> 00:17:02,620
Maar we hadden echt veel effectiever, slimmere dingen al veel eerder kunnen doen.

285
00:17:02,880 --> 00:17:06,339
Dat is vooral mijn gevoel nu ook.

286
00:17:06,460 --> 00:17:08,980
Waarom doen we niet sommige dingen nu al veel slimmer juist?

287
00:17:09,839 --> 00:17:14,560
In plaats van dat we bezig zijn met, zoals de wereld dan ook wel in elkaar zit,

288
00:17:14,900 --> 00:17:16,520
heel veel commerciële diensten ontwikkelen.

289
00:17:17,359 --> 00:17:18,339
Waar het geld te verdienen is.

290
00:17:18,339 --> 00:17:20,060
En het geld is te verdienen met verkoop.

291
00:17:20,089 --> 00:17:22,260
Dus laten we maar zoveel mogelijk verkooptooling maken.

292
00:17:23,599 --> 00:17:27,199
Voor het nog beter kunnen verkopen van je product of dienst.

293
00:17:28,020 --> 00:17:32,280
En je geeft aan, dan is het dus belangrijk om te gaan kijken naar wat kost het nu eigenlijk.

294
00:17:32,460 --> 00:17:34,740
Qua uitstoot en die visualisatie.

295
00:17:34,860 --> 00:17:36,040
Maar je ziet het ook nog niet gebeuren.

296
00:17:36,100 --> 00:17:41,340
Wat zijn naar jouw beeld nu de redenen dat het niet goed genoeg wordt opgepakt door de organisaties?

297
00:17:41,439 --> 00:17:42,220
En wat kunnen ze eraan doen?

298
00:17:44,079 --> 00:17:52,000
Wat mij betreft de redenen zijn dat dit soort dingen ook nog wel gepaard met wetgeving.

299
00:17:52,340 --> 00:17:57,000
Dus er wordt op dit moment vooral heel veel geïnvesteerd in wetgeving.

300
00:17:57,180 --> 00:17:59,300
Als het gaat over toegankelijkheid bijvoorbeeld van het internet.

301
00:18:00,520 --> 00:18:02,320
En er zijn ook nog wel wat andere onderdelen.

302
00:18:02,390 --> 00:18:03,960
Dus het heeft nog geen prioriteit.

303
00:18:06,140 --> 00:18:09,320
En de voorbeelden zijn er ook gewoon nog beperkt.

304
00:18:10,880 --> 00:18:15,220
Dus aan de ene kant hebben we allemaal consumentenonderzoeken waarin staat...

305
00:18:15,220 --> 00:18:17,940
dat we het eigenlijk allemaal veel belangrijker vinden om duurzamere keuzes te maken.

306
00:18:18,740 --> 00:18:21,980
We maken ook, als je naar trendleiding kijkt in de supermarkt, duurzamere keuzes...

307
00:18:21,980 --> 00:18:23,620
ten opzichte van 20 jaar geleden.

308
00:18:24,600 --> 00:18:26,740
En eigenlijk op heel veel domeinen willen we dat wel.

309
00:18:27,640 --> 00:18:31,440
Maar het algoritme creëren om die duurzame keuzeteam in te leren,

310
00:18:32,330 --> 00:18:33,980
daar wordt denk ik beperkt op ingezet.

311
00:18:34,060 --> 00:18:37,960
Waarbij juist daarvoor bedoeld zou moeten zijn.

312
00:18:38,500 --> 00:18:42,060
Dus van oké, hoe kan je nou binnen je, of het nou een e-commerce platform is,

313
00:18:44,310 --> 00:18:46,900
of het afsluiten wij spreken van Tinder Premium ofzo.

314
00:18:47,150 --> 00:18:51,180
Ja, je hebt gewoon alles wat je op het internet afneemt of gebruikt,

315
00:18:51,180 --> 00:18:52,360
of software wat je gebruikt.

316
00:18:53,490 --> 00:18:55,140
Ja, hoe kan je daar nou mee omgaan?

317
00:18:55,200 --> 00:18:57,580
En ik denk dat het nog best wel veel pionieren is.

318
00:18:57,580 --> 00:18:58,640
De voorbeeldcase ontbreken.

319
00:18:58,730 --> 00:19:00,580
En de voorbeeldcase waar wij bijvoorbeeld aan werken.

320
00:19:01,560 --> 00:19:05,160
Is van, kan je inderdaad gewoon software uitschakelen?

321
00:19:05,660 --> 00:19:06,840
Of eigenlijk een website uitschakelen.

322
00:19:06,840 --> 00:19:08,080
Op het moment dat je ook gewoon niet wordt gebruikt.

323
00:19:08,840 --> 00:19:09,780
Dus bij nul verkeer.

324
00:19:09,810 --> 00:19:11,980
En op het moment dat er eigenlijk weer één verkeer is.

325
00:19:12,720 --> 00:19:14,140
Dat je dan weer eigenlijk alles upzet.

326
00:19:14,320 --> 00:19:17,580
Dus dat je eigenlijk als het ware je hele datacenter down gooit.

327
00:19:17,940 --> 00:19:19,380
Op het moment als er ook niemand is.

328
00:19:19,580 --> 00:19:27,240
En dat soort dingen kunnen wel in een vorm aan de serverkant, maar echt aan de gebruikerskant.

329
00:19:27,340 --> 00:19:28,840
Dus dat je het echt op basis van de gebruiker doet.

330
00:19:30,860 --> 00:19:35,320
Waarbij je aan de serversite eigenlijk allerlei dingen ook weer kan cachen en dergelijke.

331
00:19:38,040 --> 00:19:40,180
Er is gewoon nog weinig voor beschikbaar.

332
00:19:40,710 --> 00:19:45,940
En er zijn wel wat APIs, dus er zijn wel wat software.

333
00:19:45,990 --> 00:19:49,260
Dus Klimatec is bijvoorbeeld een software oplossing.

334
00:19:50,720 --> 00:19:52,640
waarbij je wel degelijk kan zeggen

335
00:19:52,860 --> 00:19:56,260
oké, wat verbruikt mijn software nou?

336
00:19:56,660 --> 00:19:58,060
En kan ik dat goed communiceren?

337
00:19:58,180 --> 00:20:00,400
En kan ik daar eventueel een bepaalde afweging in maken

338
00:20:00,920 --> 00:20:02,520
voor eventueel ook de gebruiker?

339
00:20:02,680 --> 00:20:06,660
En dat visualiseert zich dan toch in taartdiagrammen.

340
00:20:09,460 --> 00:20:11,320
Maar hebben we het hier niet...

341
00:20:12,140 --> 00:20:13,520
Even een kritische blikken.

342
00:20:13,700 --> 00:20:15,840
Hebben we het hier niet over techno-solutionism?

343
00:20:16,280 --> 00:20:19,720
We zeggen van, we hebben een probleem in die technologie.

344
00:20:19,980 --> 00:20:22,160
En die proberen we met technologie ook weer op te lossen.

345
00:20:23,860 --> 00:20:27,600
Ja, dat is eigenlijk iets wat de topman van de video ook dagelijks zegt.

346
00:20:28,520 --> 00:20:28,740
Toch?

347
00:20:30,040 --> 00:20:31,720
We moeten vooral technologie weer inzetten.

348
00:20:31,800 --> 00:20:33,420
Inderdaad weer om technologie op te lossen.

349
00:20:33,460 --> 00:20:34,680
Want dan hebben we eigenlijk nog meer technologie nodig.

350
00:20:34,760 --> 00:20:35,980
Dat is weer goed voor het businessmodel.

351
00:20:38,580 --> 00:20:39,740
Zo zou je het kunnen zien.

352
00:20:39,760 --> 00:20:44,020
Maar het gaat voor mij ook over de keuzes die we zelf ook maken.

353
00:20:44,140 --> 00:20:45,080
Gewoon in ons dagelijks leven.

354
00:20:45,660 --> 00:20:54,000
Dus waar bijvoorbeeld ook wel mee aan de slag zijn, of ik in ieder geval strateeg, is bijvoorbeeld liftgebruik.

355
00:20:54,820 --> 00:21:00,320
Dus op het moment als ik een lift gebruik, is ook CO2-uitstoot.

356
00:21:01,060 --> 00:21:06,180
En dan kan je uiteindelijk met wel visualisatie van die CO2-uitstoot bij een lift, waar we nu aan werken.

357
00:21:06,260 --> 00:21:09,260
Dus dat je straks bij een lift staat in een hotel en denkt ik moet naar het negende verdieping.

358
00:21:09,380 --> 00:21:13,840
Maar dat er een mooie visualisatie is van, maar dit verbruikt wel degelijk, is het CO2-uitstoot.

359
00:21:13,940 --> 00:21:16,640
Dus je kan het helemaal gooien op, nee het is gezonder, want een trap neemt is gezonder.

360
00:21:16,750 --> 00:21:20,260
Nee, je stoot ook CO2 uit op het moment dat je die lift pakt.

361
00:21:21,800 --> 00:21:25,840
Dus daarmee werkt en ook bijvoorbeeld voor een groot verfmerk.

362
00:21:26,000 --> 00:21:32,900
Op het moment dat je je huis verft of je pand verft of eigenlijk verf gebruikt, stoot je natuurlijk ook CO2 uit.

363
00:21:33,420 --> 00:21:42,740
En dat ook inzichtelijk maken en de keuzes en de suggesties geven over hoe je nou uiteindelijk dan iets minder verf gebruikt.

364
00:21:42,880 --> 00:21:43,820
Of juist een ander type verf.

365
00:21:45,920 --> 00:21:51,980
Of wat daar de beste samenstelling is om in ieder geval te voldoen aan de doelstellingen die je ook als organisatie hebt.

366
00:21:52,520 --> 00:21:54,280
Ja, daar zoek ik hem dan vooral in.

367
00:21:54,360 --> 00:21:55,760
Dus niet zoals in de technologie kant.

368
00:21:56,220 --> 00:22:02,740
Maar meer ook, oké, hoe kan je die technologie nou ook inzetten om iemand een calculatie te laten maken van, oké, wat voor verf is nodig voor pand?

369
00:22:03,240 --> 00:22:05,580
Of een calculatie te maken bijvoorbeeld voor een woningcorporatie.

370
00:22:05,680 --> 00:22:07,580
Een woningcorporatie heeft bijvoorbeeld 300 liften in beheer.

371
00:22:07,960 --> 00:22:11,940
Hoe krijgen we nou ook die CO2-reductie van die 300 liften naar beneden?

372
00:22:11,980 --> 00:22:14,980
Want het is eigenlijk een van de weinige elektrische installaties überhaupt in zo'n complex.

373
00:22:15,460 --> 00:22:16,480
Maar hoe zou je dat dan zien?

374
00:22:16,840 --> 00:22:19,760
Want rondom Co-Pilot.

375
00:22:20,100 --> 00:22:24,820
Heel veel organisaties zitten nu midden in de Co-Pilot adoptie.

376
00:22:25,320 --> 00:22:30,360
Dus daar wordt gestimuleerd om zoveel mogelijk gebruik te maken van Co-Pilot.

377
00:22:30,720 --> 00:22:32,640
Ja, dat lees ik ook.

378
00:22:32,960 --> 00:22:33,220
Ja toch?

379
00:22:34,280 --> 00:22:37,840
Dus dat staat haaks op wat jij eigenlijk met de liften zegt.

380
00:22:38,860 --> 00:22:46,280
Dus zij zeggen de hele tijd, gebruik zoveel mogelijk de lift, want dat is blijkbaar goed.

381
00:22:48,340 --> 00:22:50,600
Dus daar zit je met je CO2-verhaal.

382
00:22:50,720 --> 00:22:59,120
Je zou verwachten dat ook eigenlijk in de visualisatie van Copilot onderdelen zitten waarbij ze aangeven wat de impact ervan is.

383
00:22:59,700 --> 00:23:01,720
En ook hoe jij je gebruik kan aanpassen.

384
00:23:02,220 --> 00:23:05,800
En wat uiteindelijk ook, nog terug naar het voorbeeld van e-commerce bij print.com.

385
00:23:06,000 --> 00:23:09,800
Dus kijk, je kan heel goed laten zien wat nou uiteindelijk die, of die column eigenlijk,

386
00:23:10,150 --> 00:23:12,420
of die blog waar je net aan refereerde.

387
00:23:12,810 --> 00:23:15,240
Je kan heel goed uitleggen van oké, maar dit is de CO2-uitstuk.

388
00:23:15,250 --> 00:23:18,860
Maar het gaat me niet zozeer mij om het laten zien van die CO2-uitstuk.

389
00:23:18,960 --> 00:23:21,240
Want dat is eigenlijk een databron tonen en een berekening tonen.

390
00:23:21,910 --> 00:23:25,160
Maar meer welke suggestie ga je geven om gedrag dan te gaan veranderen.

391
00:23:25,320 --> 00:23:29,500
Of iemand te stimuleren om er andere keuzes in te maken.

392
00:23:29,640 --> 00:23:34,260
Of dan koop al het alleen maar 's nachts tussen één en drie gebruik van te gaan maken.

393
00:23:35,000 --> 00:23:40,060
Dus die suggestie zit eigenlijk los dat het er gewoon nog niet in zit.

394
00:23:40,540 --> 00:23:41,460
En dat is best wel lastig.

395
00:23:41,640 --> 00:23:47,240
Want op de pakje sigaretten staan natuurlijk ook allerlei redenen waarom je het niet zou moeten gebruiken.

396
00:23:48,080 --> 00:23:49,820
Heeft schijnbaar heel weinig effect.

397
00:23:51,300 --> 00:23:57,820
De waarschuwing van het is heel slecht is ook niet altijd dat het gedragsveranderend werkt.

398
00:23:58,500 --> 00:24:00,360
Nee, en dan even de kritiek was.

399
00:24:00,380 --> 00:24:03,980
Dat is van één keer met de trap of één keer niet met de lift.

400
00:24:04,160 --> 00:24:08,000
Op wat er in de datacenters allemaal wordt opgestart en uitgezet wordt.

401
00:24:08,660 --> 00:24:09,640
Om maar te blijven groeien.

402
00:24:10,299 --> 00:24:12,500
Hoe ga je mensen daarin meenemen?

403
00:24:12,980 --> 00:24:14,680
Wat de impact op het grotere plaatje is.

404
00:24:16,320 --> 00:24:17,060
En ik vind het heel belangrijk.

405
00:24:17,320 --> 00:24:20,560
Want we hebben hier intern het ook over gehad.

406
00:24:20,640 --> 00:24:22,800
We hebben natuurlijk ook zo'n interne chatbot.

407
00:24:22,940 --> 00:24:26,560
Waarin je van alles kan vragen over interne kennis die er is.

408
00:24:27,020 --> 00:24:31,260
Hebben wij ook wel eens gekeken van hoe zou je dat nou kunnen visualiseren.

409
00:24:33,120 --> 00:24:36,520
Wat het gebruik is om daar toch in ieder geval bewuster in te zijn.

410
00:24:37,680 --> 00:24:42,320
En we hebben wel eens gedacht van zou je het niet moeten vertalen naar dus niet de CO2.

411
00:24:42,660 --> 00:24:43,380
Van hoeveel CO2.

412
00:24:43,400 --> 00:24:45,960
Want eerlijk gezegd zoals die getallen net.

413
00:24:46,640 --> 00:24:48,140
Dat zegt mij niet zoveel.

414
00:24:49,260 --> 00:24:53,140
Terwijl we hebben wel eens bedacht van zouden we dat kunnen uitdrukken in.

415
00:24:53,580 --> 00:24:57,580
Dat kost net zoveel als het maken van zoveel plastic tasjes of zo.

416
00:24:58,490 --> 00:25:02,140
Of zoveel kilometer reizen met de auto of zo.

417
00:25:03,820 --> 00:25:09,080
Maar omdat die echte gegevens ontbreken, hebben we het nog niet gedaan.

418
00:25:10,460 --> 00:25:11,900
Maar dat zijn wel de dingen die ik me afvraag.

419
00:25:12,940 --> 00:25:14,100
Heb je daar ideeën over?

420
00:25:15,820 --> 00:25:18,520
Wat stimuleert mensen nou in echt gedragsverandering?

421
00:25:19,780 --> 00:25:22,980
Laat ik zelf vooropstellen dat ik juist wel een heel goed idee vind.

422
00:25:23,140 --> 00:25:25,020
dat we met z'n allen iets meer gaan begrijpen van CO2.

423
00:25:25,360 --> 00:25:29,540
En wat daar dan de betekenissen van die getallen zijn.

424
00:25:30,420 --> 00:25:32,940
Dus die zou ik er ook altijd ergens in meenemen.

425
00:25:33,080 --> 00:25:35,980
Want ik denk dat het hele onderwerp CO2-as...

426
00:25:35,980 --> 00:25:37,480
het gewoon ook nog niet zo goed begrepen wordt.

427
00:25:38,380 --> 00:25:40,780
Dus dat er eigenlijk nog wel daar werk aan de winkel is.

428
00:25:41,740 --> 00:25:44,460
En eigenlijk in gedragsverandering.

429
00:25:45,400 --> 00:25:46,780
En hoe maak je dat nou duidelijk?

430
00:25:47,300 --> 00:25:49,880
Dat zit hem uiteindelijk op hoe kan je het doorvertalen...

431
00:25:51,840 --> 00:25:55,020
naar iets wat mens specifiek is.

432
00:25:55,879 --> 00:25:58,820
En ook daar kan AIJ een hele grote rol in spelen.

433
00:25:59,380 --> 00:26:01,720
Want personalisatie en dergelijke maakt dat mogelijk.

434
00:26:01,780 --> 00:26:03,440
Dus ik weet eigenlijk heel veel over jou.

435
00:26:03,880 --> 00:26:06,360
Dus je zou eigenlijk in de visualisatie kunnen zeggen...

436
00:26:06,400 --> 00:26:07,940
nou, hetgene wat je nu aan het doen bent...

437
00:26:08,380 --> 00:26:11,120
heeft deze impact gerelateerd aan wat jij belangrijk vindt...

438
00:26:11,120 --> 00:26:11,900
of jouw interesses zijn.

439
00:26:12,420 --> 00:26:14,000
En daar kan je visualisatie in het op doen.

440
00:26:14,020 --> 00:26:20,279
Dus je kan doorvertaling doen naar wat je eigenlijk zou willen...

441
00:26:20,300 --> 00:26:21,480
Of zou passen bij jouw interesses.

442
00:26:22,300 --> 00:26:26,000
Of bij wat jij eigenlijk belangrijk vindt.

443
00:26:26,440 --> 00:26:29,800
Maar tegelijkertijd is juist het grote plaatje...

444
00:26:30,340 --> 00:26:30,920
Even terug.

445
00:26:31,140 --> 00:26:32,360
Dus als je bijvoorbeeld een vogelaar bent.

446
00:26:32,500 --> 00:26:36,980
Dat je het horen krijgt van deze dialoog met ChetGBT.

447
00:26:36,980 --> 00:26:38,460
Die heeft twee koolmeesjes gedood.

448
00:26:39,220 --> 00:26:40,940
Ja, dat zou bijvoorbeeld kunnen.

449
00:26:41,320 --> 00:26:42,440
Ik wil het vooral ook nog wel zeggen.

450
00:26:42,560 --> 00:26:44,500
Het grotere plaatje vindt de mens ook nog wel belangrijk.

451
00:26:44,740 --> 00:26:47,060
We vullen heel vaak toch nog wel heel veel in.

452
00:26:47,240 --> 00:26:49,640
Voor hoe we denken dat de mens zijn gedrag verandert.

453
00:26:49,880 --> 00:26:52,260
Maar de mens kan ook heel veel eigen keuzes wel degelijk maken.

454
00:26:52,310 --> 00:26:53,880
En maakt ook heel veel eigen keuzes.

455
00:26:54,400 --> 00:26:58,460
En vindt het ook wel belangrijk om het grote plaatje ook wel te blijven zien.

456
00:27:00,020 --> 00:27:03,580
En ook uiteraard alles binnen eigen referentiekaders en dergelijke.

457
00:27:04,440 --> 00:27:06,260
Maar kan er ook wel eigen afweging in maken.

458
00:27:06,500 --> 00:27:10,280
En ik zou vooral willen zeggen dat gedragsverandering gaat over...

459
00:27:11,270 --> 00:27:13,460
Het geeft dus van een suggestie en een keuze.

460
00:27:13,530 --> 00:27:15,680
Dus geeft mensen nou eens een keuze.

461
00:27:16,160 --> 00:27:18,100
En nu wil ik ook niet zeggen dat de mens keuzes geeft.

462
00:27:18,320 --> 00:27:22,040
Maar als het gaat over gebruik van software bijvoorbeeld.

463
00:27:26,220 --> 00:27:27,920
Of hoe ze daar dan mee omgaan.

464
00:27:27,920 --> 00:27:28,940
Of het gebruik van het internet.

465
00:27:29,140 --> 00:27:33,320
Kan je daar mensen ook echt wel een keuze of koopgedrag mensen een keuze in geven?

466
00:27:33,980 --> 00:27:37,240
Als je mensen meer keuzes geven of keuzes geven.

467
00:27:37,260 --> 00:27:40,820
Dan is het volgens mij juist meer een uitdaging om de juiste keuze te maken.

468
00:27:40,960 --> 00:27:45,160
Dus volgens mij is daarbij juist de context om die keuze goed te kunnen maken.

469
00:27:45,940 --> 00:27:46,820
Van essentieel belang.

470
00:27:47,260 --> 00:27:50,080
En daar missen we dus blijkbaar nog datapunten zoals je aangeeft.

471
00:27:50,330 --> 00:27:52,720
Om daar echt met elkaar de juiste keuzes in te kunnen maken.

472
00:27:53,140 --> 00:27:54,980
We gaan even kijken of jij ook keuzes kan maken.

473
00:27:55,500 --> 00:27:57,280
Want we hebben namelijk een stellingenspel.

474
00:27:58,670 --> 00:28:00,440
Dus we willen jou een stelling voorleggen.

475
00:28:00,860 --> 00:28:02,240
En dan zijn we benieuwd naar jouw keuze.

476
00:28:02,600 --> 00:28:03,520
Oké, ben benieuwd.

477
00:28:17,320 --> 00:28:18,200
En deze past er heel mooi mee.

478
00:28:18,530 --> 00:28:18,960
Oh, kijk.

479
00:28:19,300 --> 00:28:20,140
Dat is dan goed nieuws.

480
00:28:20,380 --> 00:28:20,920
Ja, zeker.

481
00:28:21,480 --> 00:28:22,680
We hebben wel benieuwd naar je keuze.

482
00:28:23,560 --> 00:28:24,920
Het thema is als volgt.

483
00:28:25,060 --> 00:28:25,940
Gebruik en toepassingen.

484
00:28:26,380 --> 00:28:27,220
En de stelling luidt.

485
00:28:27,840 --> 00:28:31,440
Generatieve AI is een dagelijks onderdeel van mijn werkproces.

486
00:28:34,400 --> 00:28:34,740
Nee.

487
00:28:36,520 --> 00:28:37,340
Is dat...

488
00:28:37,650 --> 00:28:38,340
Ja, dat is de stelling.

489
00:28:38,360 --> 00:28:39,000
Ja, dat is de stelling.

490
00:28:40,100 --> 00:28:40,540
Nee.

491
00:28:40,930 --> 00:28:43,940
Ja, generatieve AI is dagelijks onderdeel van je werkproces.

492
00:28:44,520 --> 00:28:49,520
Kijk, uiteindelijk denk ik dat ik in een vorm zou het vast dagelijks gebruiken.

493
00:28:50,840 --> 00:28:59,960
Maar tegelijkertijd vind ik het vooral ook nog wel heel belangrijk om zelf na te denken bij hetgene wat je doet en wat je ontwikkelt.

494
00:29:01,540 --> 00:29:03,160
En welke strategie je uitzet.

495
00:29:03,240 --> 00:29:09,780
Kijk, uiteindelijk het werk van een strateeg is toch bij uitstek een vak waarbij je eigenlijk vooral denkt,

496
00:29:09,940 --> 00:29:10,940
maar AI gaat dit niet doen.

497
00:29:11,660 --> 00:29:13,060
Of generatief AI gaat dit niet doen.

498
00:29:13,260 --> 00:29:23,900
Ik ben juist zelf degene die strategie bedenkt, concepten bedenkt, kopie maakt, peels bedenkt, namen bedenkt, producten bedenkt.

499
00:29:24,170 --> 00:29:31,060
Dus eigenlijk het vak van strategen is juist iets waarbij je generatieve AI echt wel als hulpmiddel kan versnellen.

500
00:29:32,420 --> 00:29:33,860
Maar op het moment dat dat relevant is.

501
00:29:34,300 --> 00:29:38,080
En dat hoeft niet per se dagelijks voor mij te zijn.

502
00:29:40,160 --> 00:29:46,320
Tegelijkertijd, ja, je gebruikt uiteindelijk misschien toch wel wat aardappelen.

503
00:29:49,940 --> 00:29:51,280
Misschien nog een stapje verder.

504
00:29:52,440 --> 00:29:56,280
Als je kijkt, waar heb je de afgelopen week een keuze gemaakt?

505
00:29:57,500 --> 00:30:03,940
Dat je zegt, die was gezien het verhaal rondom de CO2-reductie, had ik die eigenlijk misschien niet moeten nemen.

506
00:30:05,880 --> 00:30:08,880
Oh, nou, dan ga ik nu natuurlijk het hele heilige boontje spelen.

507
00:30:09,920 --> 00:30:11,700
Ik denk dat ik daar helemaal geen antwoord op heb.

508
00:30:12,100 --> 00:30:14,060
De keuzes die ik heb gemaakt.

509
00:30:14,540 --> 00:30:18,500
Nee, want ik maak juist heel beperkt gebruik zelf van het internet.

510
00:30:18,520 --> 00:30:19,620
Dat is eigenlijk altijd gekkig.

511
00:30:19,680 --> 00:30:23,700
Als je de hele dag werkt met internet, software en van alles.

512
00:30:23,940 --> 00:30:26,400
Dan ben je eigenlijk in de praktijk ook privé.

513
00:30:26,640 --> 00:30:32,560
En verder eigenlijk heel weinig bezig met apps of software of internet.

514
00:30:32,600 --> 00:30:35,160
En vind ik het juist ook weer leuk om iets in de winkel te kopen, bij wijze van spreken.

515
00:30:37,880 --> 00:30:40,100
Ja, dus nee, ik heb er denk ik helemaal niet echt een antwoord op.

516
00:30:40,100 --> 00:30:40,620
Nee, dat hoeft ook niet.

517
00:30:40,720 --> 00:30:46,080
Ook omdat als ik dat antwoord al zou hebben, zou ik echt tegen mezelf zeggen, wat ben je aan het doen?

518
00:30:46,220 --> 00:30:50,640
Al moet ik heel eerlijk zeggen dat eigenlijk een, maar dat is meer dan iets aan de hobby kant,

519
00:30:51,640 --> 00:30:57,880
dat ik in de wereld van de AI-agents denk, oh, maar als ik nu toch een AI-agent ga inzetten voor vliegtickets,

520
00:30:58,700 --> 00:31:07,760
en dan het scrapen van wanneer een vliegticket en die agent dan ingezet om echt dat vliegticket dan daadwerkelijk daar dan ook gelijk te kopen op het moment als het aan mijn validaties voldoet.

521
00:31:08,720 --> 00:31:10,100
daar is de verleiding wel groot

522
00:31:11,640 --> 00:31:12,640
dat is heel eerlijk

523
00:31:13,400 --> 00:31:14,280
ik moet heel erg zeggen

524
00:31:15,120 --> 00:31:16,960
ook omdat er zijn heel veel producten

525
00:31:16,960 --> 00:31:18,700
waar heel veel variabele prijzen voor geld

526
00:31:18,760 --> 00:31:20,680
bijvoorbeeld vliegtekens of hotelkamers

527
00:31:21,820 --> 00:31:23,260
of er zijn wel meer producten

528
00:31:23,260 --> 00:31:23,960
waar variabel in

529
00:31:24,360 --> 00:31:25,880
ik zie daar nog wel een rol van

530
00:31:26,420 --> 00:31:28,280
als je dat een beetje slim, nog slimmer

531
00:31:28,760 --> 00:31:30,660
dus waar ik het voorheen mezelf 24 uur opsloot

532
00:31:30,740 --> 00:31:32,180
om alles zelf te kijken

533
00:31:32,390 --> 00:31:34,199
om een vliegticket bij spreken te vinden

534
00:31:37,140 --> 00:31:39,260
dan zou ik het daar wel voor inzetten

535
00:31:39,320 --> 00:31:40,780
maar dan ben ik de afgelopen week dan weer niet aan toegekomen

536
00:31:42,560 --> 00:31:44,140
en soms is het zo simpel

537
00:31:44,400 --> 00:31:46,240
want ik heb zelf wat lampen aan

538
00:31:46,280 --> 00:31:48,360
die ik via het telefoon even kan aanzetten

539
00:31:48,520 --> 00:31:49,920
maar eigenlijk als je daar gaat kijken

540
00:31:50,380 --> 00:31:52,160
als je thuis bent en het lichtknopje

541
00:31:52,300 --> 00:31:53,560
via je app even aanzet

542
00:31:53,560 --> 00:31:54,780
in plaats van dat je naartoe loopt

543
00:31:55,440 --> 00:31:57,020
is ook niet veel informatie over bekend

544
00:31:57,020 --> 00:31:58,260
maar dat is een enorme impact

545
00:31:58,580 --> 00:32:01,100
waardoor het gemak is zo aanwezig

546
00:32:01,540 --> 00:32:03,159
dat het bijna gestimuleerd wordt

547
00:32:03,180 --> 00:32:05,060
om het te gebruiken. Terwijl het hoeft niet altijd

548
00:32:05,340 --> 00:32:05,760
beter te zijn.

549
00:32:07,240 --> 00:32:07,700
Lastig.

550
00:32:09,960 --> 00:32:11,080
Je haalt ook nog...

551
00:32:11,240 --> 00:32:13,140
Je zat door een boek heen

552
00:32:13,300 --> 00:32:13,800
te lezen.

553
00:32:14,700 --> 00:32:15,640
Ik weet niet of je hem kent.

554
00:32:16,880 --> 00:32:19,020
Sustainable AI van Erik Mannens.

555
00:32:19,460 --> 00:32:20,520
Die ook schrijft

556
00:32:20,980 --> 00:32:22,320
over een

557
00:32:22,700 --> 00:32:24,720
Nutri-score label voor

558
00:32:25,000 --> 00:32:26,700
AI-modellen. Ik was wel benieuwd hoe je daar

559
00:32:26,840 --> 00:32:27,500
tegenaan kijkt.

560
00:32:27,780 --> 00:32:30,180
Ja, dat is

561
00:32:31,080 --> 00:32:31,420
inderdaad interessant.

562
00:32:31,660 --> 00:32:33,500
Het thema we nog niet in de podcast hebben besproken.

563
00:32:33,620 --> 00:32:40,040
De algehele certificeringen of kwalificaties die we kunnen koppelen aan hetgene wat we gebruiken.

564
00:32:42,500 --> 00:32:45,740
Wat uiteindelijk vind ik heel interessant.

565
00:32:45,980 --> 00:32:47,780
Echt heel goed om te gaan doen.

566
00:32:48,240 --> 00:32:53,720
Wat we nu al best wel veel doen in de website trajecten of de platformen die we ontwikkelen.

567
00:32:54,460 --> 00:32:59,140
Het tonen al van bijvoorbeeld CO2-verbruik van die keer dat jij hem laat of wat dan ook.

568
00:32:59,220 --> 00:33:01,300
Dus je kan eigenlijk al wel wat dingen tonen.

569
00:33:01,440 --> 00:33:03,700
Er zijn ook wel wat instanties ook al wel in Europa.

570
00:33:04,320 --> 00:33:05,620
Die bijvoorbeeld Website Carbon ook.

571
00:33:05,900 --> 00:33:09,220
Die eigenlijk ook realtime laat zien wat dat is.

572
00:33:10,520 --> 00:33:11,480
Of wat jouw impact bijvoorbeeld.

573
00:33:11,730 --> 00:33:13,040
Er zit een start-up ook in Barcelona.

574
00:33:13,300 --> 00:33:17,600
Die de impact van jouw websitebezoek laat zien op de luchtvervuiling eigenlijk.

575
00:33:18,120 --> 00:33:19,740
Ook omdat je het hebt over visualisatie.

576
00:33:19,880 --> 00:33:21,780
En het doorvertalen wat mensen relevant vinden.

577
00:33:22,220 --> 00:33:23,780
Kan dus een websitebezoek.

578
00:33:23,840 --> 00:33:26,380
Heeft dus invloed op de kwaliteit van de lucht.

579
00:33:28,360 --> 00:33:32,120
Dus er zijn wel degelijk partijen die daarmee aan de slag zijn.

580
00:33:32,310 --> 00:33:35,940
En die ik denk ook zeker de ambitie hebben om dat te zien als een standaard.

581
00:33:37,840 --> 00:33:45,040
Maar waarbij je, als je dat echt doorvertaalt naar de modellen en eigenlijk het AI gedeelte.

582
00:33:45,220 --> 00:33:46,760
Dan komen we op het punt van auditing.

583
00:33:47,440 --> 00:33:52,180
En auditing is best heel moeilijk, dat zullen jullie vast ook wel weten.

584
00:33:53,020 --> 00:33:57,860
Alleen al het auditing van security bijvoorbeeld op een platform is eigenlijk al heel erg gewikkeld.

585
00:33:58,420 --> 00:34:05,400
Dus laat staan eigenlijk hoe duurzaam is nou eigenlijk die software gemaakt.

586
00:34:06,030 --> 00:34:09,940
Dus we zouden eigenlijk, en ik zie daar zelf dus ook echt wel een rol bijvoorbeeld voor B-Corp voor.

587
00:34:10,920 --> 00:34:17,300
Dus dat B-Corp, dat is eigenlijk een keuringsinstantie voor is een organisatie duurzaam ja, nee.

588
00:34:17,530 --> 00:34:20,159
En heeft daar best wel hele uitgebreide auditing voor.

589
00:34:20,230 --> 00:34:23,500
Als in dat het uiteindelijk in de statuten van je organisatie moet staan.

590
00:34:24,380 --> 00:34:32,020
En ook nog wel veel meer als het doorvertalen van de algehele, zoals dat zijn, de L-MKI-berekeningen van je organisatie.

591
00:34:32,020 --> 00:34:33,580
Dus de milieukostenindicatoren.

592
00:34:34,719 --> 00:34:38,500
Om eigenlijk als organisatie te kunnen zeggen, oké, wij zijn B-Corp.

593
00:34:39,040 --> 00:34:47,080
En eigenlijk zou er inderdaad een instantie zoals B-Corp of een ander, inderdaad de auditing instrumenten moeten ontwikkelen.

594
00:34:47,280 --> 00:34:52,139
Om überhaupt als externe een beoordeling te kunnen maken van die modellen.

595
00:34:52,159 --> 00:34:55,480
Alleen je ziet dat transparantie nog steeds heel ver weg vindt.

596
00:34:55,918 --> 00:34:58,200
En hiervoor is wel echt heel veel transparantie nodig.

597
00:34:58,440 --> 00:35:03,419
En dat hangt dus ook samen met bijvoorbeeld CSD-wetgeving in Europa.

598
00:35:04,020 --> 00:35:07,940
Waarbij we eigenlijk willen dat de hele keten inzichtelijk wordt.

599
00:35:08,840 --> 00:35:10,940
Dat is eigenlijk de hele keten van wat er nodig is geweest.

600
00:35:11,480 --> 00:35:14,200
Dus hoeveel mensen hebben nou gewerkt aan dat model.

601
00:35:14,330 --> 00:35:15,820
En hoeveel energieverbruik is er nodig.

602
00:35:15,830 --> 00:35:17,020
En hoe lang is er aangewerkt.

603
00:35:17,440 --> 00:35:21,620
Maar ook hoeveel kopjes koffie zijn er gedronken tijdens het maken ervan.

604
00:35:21,960 --> 00:35:25,340
Eigenlijk willen ze de hele doorvertaling van welke hardware is gebruikt.

605
00:35:27,200 --> 00:35:34,060
Eigenlijk alles om maar het totaalbeeld te kunnen krijgen van hetgene wat daar inderdaad voor nodig is.

606
00:35:35,700 --> 00:35:39,360
Mijn verwachting zou ook wel echt zijn dat binnen nu een tien jaar gaan er wel degelijk,

607
00:35:39,640 --> 00:35:44,920
of vanuit een bepaalde organisatie, of dat een van de grote consulties wereldwijd gaat zeggen,

608
00:35:45,040 --> 00:35:48,540
wij hebben onze eigen auditting, hebben ze ook al wel links en rechts.

609
00:35:48,720 --> 00:35:50,720
Alleen wordt het nog niet als een internationale standaard gezien.

610
00:35:52,120 --> 00:35:54,020
maar de ambitie zou wat mij betreft echt wel mogen zijn

611
00:35:54,200 --> 00:35:56,280
dat wij moeten kunnen gaan beoordelen

612
00:35:56,800 --> 00:35:57,780
of wij inderdaad

613
00:35:58,220 --> 00:35:59,380
Chattie Wee gebruiken of Gemini

614
00:36:01,200 --> 00:36:02,020
omdat de ene

615
00:36:02,020 --> 00:36:03,540
wel degelijk een duurzame afweging

616
00:36:04,120 --> 00:36:04,760
keuze is

617
00:36:05,820 --> 00:36:07,960
dan de ander, want dat maken we in de supermarkt

618
00:36:07,960 --> 00:36:08,940
op dit moment ook

619
00:36:09,540 --> 00:36:11,880
dus je zou eigenlijk willen dat het met software ook zo is

620
00:36:12,060 --> 00:36:13,300
maar tegelijkertijd weet ik ook dat

621
00:36:13,680 --> 00:36:15,660
we kunnen het heel erg hebben over de AI gedeeld van software

622
00:36:15,900 --> 00:36:18,040
maar je kan er ook acht boekhoudpakketten

623
00:36:18,120 --> 00:36:19,380
nu in Nederland erbij pakken

624
00:36:19,560 --> 00:36:25,660
En er is er geen één van die acht die op dit moment ook iets communiceert over wat hun impact is.

625
00:36:25,780 --> 00:36:31,560
Dus eigenlijk ook gewoon de software, laat maar zeggen.

626
00:36:31,720 --> 00:36:34,080
Ook daar is weinig over beschermd.

627
00:36:34,120 --> 00:36:36,760
Dus ik zou dat ook wel een bredere zin willen zien.

628
00:36:37,420 --> 00:36:39,680
En ik denk dat de consument wel degelijk op dat...

629
00:36:39,880 --> 00:36:43,020
Nou ja, nu ga ik nog iets cynisch zeggen.

630
00:36:44,820 --> 00:36:48,240
De consument wordt inderdaad verslaafd er wel al een beetje aan.

631
00:36:48,500 --> 00:36:51,120
Dus ergens is nu wel de tijd.

632
00:36:51,360 --> 00:36:52,900
In ieder geval zoals ik er ook naar kijk.

633
00:36:53,040 --> 00:36:55,200
Waar we willen inzetten ook al op datadesign.

634
00:36:56,840 --> 00:36:58,960
Om mensen daar inderdaad bewust van te maken waar dat kan.

635
00:36:59,520 --> 00:37:01,900
En dus altijd te doen op softwareproducten.

636
00:37:01,980 --> 00:37:04,760
Oké, voeg hier deze onderdelen aan toe.

637
00:37:04,920 --> 00:37:08,240
Om in ieder geval daar tot leader in te zijn.

638
00:37:08,700 --> 00:37:09,860
Daar voorop in te lopen.

639
00:37:10,940 --> 00:37:12,440
En daar je aanpassingen te maken.

640
00:37:13,140 --> 00:37:17,240
En het lijkt me heel goed juist dat we juist dingen gaan visualiseren.

641
00:37:17,360 --> 00:37:18,280
Als je het echt gaat gebruiken.

642
00:37:19,200 --> 00:37:20,620
Maar tegelijkertijd ook wel beschikbaar is.

643
00:37:20,690 --> 00:37:22,020
Als het gaat over zo'n nutri-score.

644
00:37:23,060 --> 00:37:24,080
Voordat je het gaat gebruiken.

645
00:37:24,190 --> 00:37:27,280
Dus voordat je überhaupt met de eerste keer in aanraking komt.

646
00:37:27,900 --> 00:37:28,100
Maar goed.

647
00:37:28,100 --> 00:37:29,480
De verleiding bij elke nieuwe tool.

648
00:37:29,960 --> 00:37:31,640
Of nieuwe oplossing is op dit moment zo groot.

649
00:37:31,670 --> 00:37:34,300
Dat ook ik gelijk in de free trial zit.

650
00:37:34,880 --> 00:37:36,440
En kijk wat doet dit nu.

651
00:37:37,559 --> 00:37:39,720
En wat kunnen we er eventueel mee.

652
00:37:40,160 --> 00:37:43,320
En ben ik zelf nog echt wel heel nieuwsgierig.

653
00:37:44,219 --> 00:37:46,760
Naar waar dingen toch ook nog wel samen komen.

654
00:37:47,200 --> 00:37:51,420
Dus zijn van die dromen, zoals mij, lijkt ook altijd wel leuk om echt een Nederlandse speelfilm te maken.

655
00:37:52,440 --> 00:37:54,300
Nou ja, die dromen misschien helemaal niet zo heel ver weg.

656
00:37:55,479 --> 00:38:00,960
Om toch eens met een eigen script en dan vanuit daaruit wel wat in eigen beeld te doen.

657
00:38:01,100 --> 00:38:03,760
Maar ja, omdat we daar wel komen.

658
00:38:03,900 --> 00:38:06,960
Dus tegelijkertijd gaat het om dat we dat heel leuk gaan vinden.

659
00:38:07,040 --> 00:38:08,700
Want dan ga ik waarschijnlijk naar één speel van maar twee, drie.

660
00:38:08,860 --> 00:38:10,600
En dan denk ik van, oh wauw.

661
00:38:10,660 --> 00:38:11,420
Het gemak is groot.

662
00:38:11,740 --> 00:38:12,700
Het gemak is onwijs groot.

663
00:38:13,120 --> 00:38:17,800
En is het ook niet nodig in een bepaalde fase dat je gaat onderzoeken wat het kan, wat het niet kan.

664
00:38:18,040 --> 00:38:18,920
En dat we het moeten leren.

665
00:38:19,220 --> 00:38:22,800
Alleen dat we niet te lang in die fase moeten blijven hangen om het maar te gebruiken zoals we het gebruikt hebben.

666
00:38:23,160 --> 00:38:26,660
Maar dat we het gaan leren inzetten voor waar het voor toegepast moet worden.

667
00:38:27,320 --> 00:38:29,340
Ja, zeker. Daar is nu ook wel de tijd voor.

668
00:38:29,540 --> 00:38:35,000
Dus volle bak met trainingen aan de slag en ook wel visualisatie aan de slag.

669
00:38:35,040 --> 00:38:41,400
Omdat ik nog steeds wel overtuigd ben dat design wel een sleutelrol is om iets duidelijk te maken aan de mens.

670
00:38:42,520 --> 00:38:44,840
Want we denken nog steeds met z'n allen in plaatjes.

671
00:38:45,560 --> 00:38:47,320
En we kijken nog steeds allemaal naar plaatjes.

672
00:38:47,930 --> 00:38:50,820
Dus design heeft daar voor mij echt een verbindende rol in.

673
00:38:51,680 --> 00:38:52,700
Wat misschien wel leuk is.

674
00:38:54,700 --> 00:39:00,040
Vanavond hebben we hier intern een presentatie over een best wel langdurig onderzoek.

675
00:39:00,040 --> 00:39:02,780
Wat gelopen heeft door de meerdere masterstudenten.

676
00:39:03,760 --> 00:39:07,720
Waarin wij kijken nog naar de traditionele machine learning.

677
00:39:07,900 --> 00:39:09,940
Dat doen wij ook nog heel veel gelukkig in.

678
00:39:10,080 --> 00:39:11,560
Dus het is niet alleen maar generatieve AI.

679
00:39:11,740 --> 00:39:20,860
Oké. En een onderdeel daarvan is dat er modellen getraind worden waarbij de uitlegbaarheid heel erg belangrijk is.

680
00:39:21,020 --> 00:39:23,240
Maar dat is voor dit geval even niet zo belangrijk.

681
00:39:24,480 --> 00:39:30,220
Maar daar hebben we ook een meting in zitten van hoe duur het trainen is van het model.

682
00:39:30,780 --> 00:39:33,700
En hoe duur de, wat dan heet de inferentie.

683
00:39:33,980 --> 00:39:36,800
Dus als je het model aanspreekt, hoe duur dat is.

684
00:39:37,340 --> 00:39:41,320
En afhankelijk van de volume, van wat je daar doorheen doet, kan je dus dan uitrekenen.

685
00:39:42,000 --> 00:39:43,640
wat dat doet. En dan kan je dus,

686
00:39:43,820 --> 00:39:45,100
als je het hebt over keuzes,

687
00:39:45,820 --> 00:39:47,400
kan je dus de keuze maken. Dus we hebben

688
00:39:47,620 --> 00:39:49,580
een top van een aantal modellen die zeggen van

689
00:39:49,860 --> 00:39:52,060
als je een heel klein beetje nauwkeurigheid

690
00:39:52,140 --> 00:39:53,940
inlevert, kan je wel

691
00:39:54,080 --> 00:39:55,020
dat die heel veel

692
00:39:56,500 --> 00:39:58,120
goedkoper is in je

693
00:39:58,380 --> 00:39:59,020
verbruik bijvoorbeeld.

694
00:39:59,840 --> 00:40:01,420
En dat zijn dan de keuzes die we voorleggen.

695
00:40:02,020 --> 00:40:03,560
Ja, precies. En dan leggen we hem

696
00:40:03,640 --> 00:40:05,380
eigenlijk niet bij de gebruiker,

697
00:40:05,960 --> 00:40:07,280
maar leggen we het bij de

698
00:40:10,500 --> 00:40:11,300
opdrachtgever en

699
00:40:11,300 --> 00:40:16,960
is, leggen we de keuze niet uit. Dus dat je een balans krijgt tussen hoe nauwkeurig, hoe goed uitlegbaar,

700
00:40:17,340 --> 00:40:27,800
maar ook hoe duur in uitstoot is die. Misschien zit je ook een beetje aan die kant van: hoe maak je nou

701
00:40:28,020 --> 00:40:33,160
keuzes? - Ja, zeker. Dat is eigenlijk ook waar we het vandaag ook eerder over hadden. Inderdaad,

702
00:40:33,460 --> 00:40:38,960
hoe maken we die keuze en hoe geven we die keuze? Want die keuze zijn wel degelijk te maken en hebben

703
00:40:38,980 --> 00:40:40,720
hebben dus ook echt wel invloed op CO2-uitstoot.

704
00:40:42,220 --> 00:40:44,180
Wat je kan inderdaad, minder nauwkeurig.

705
00:40:45,020 --> 00:40:48,400
Dus er is dan gewoon minder rekenkracht nodig om iets te doen.

706
00:40:49,540 --> 00:40:52,380
En dan ook minder water en dat soort dingen.

707
00:40:54,080 --> 00:40:57,520
En daar zou echt wel mijn pleidooitje wel voor zijn.

708
00:40:57,640 --> 00:40:59,400
Laten we daar nou iets meer op inzetten.

709
00:41:00,420 --> 00:41:02,000
Op het maken van die keuzes.

710
00:41:02,220 --> 00:41:04,620
En het geven ook wel van die keuzes.

711
00:41:04,740 --> 00:41:07,080
Want je zou uiteindelijk ook echt wel aan de gebruiker...

712
00:41:07,660 --> 00:41:09,100
zelf ook optioneel kunnen zeggen.

713
00:41:09,320 --> 00:41:10,980
Bijvoorbeeld zou je nu eigenlijk ook binnen elk

714
00:41:12,180 --> 00:41:13,340
model kunnen van, wil je hier nou

715
00:41:13,500 --> 00:41:14,720
inderdaad een heel nauwkeurig antwoord op?

716
00:41:15,860 --> 00:41:17,700
Dat is dan dit de impact, visueel gezien.

717
00:41:17,800 --> 00:41:19,400
Of wil je hier een minder nauwkeurig antwoord op?

718
00:41:19,400 --> 00:41:20,680
Want daar kan ik ook wel mee uit de voeten.

719
00:41:21,280 --> 00:41:23,160
En dan is je eigenlijk jouw

720
00:41:25,220 --> 00:41:26,020
duurzame keuze,

721
00:41:26,400 --> 00:41:26,980
als het ware.

722
00:41:27,720 --> 00:41:29,700
En dan matcht het ook beter bij het doel.

723
00:41:29,980 --> 00:41:32,020
Want je moet een doel hebben, je moet die doel helder

724
00:41:32,120 --> 00:41:33,740
hebben. En eigenlijk ga je daar

725
00:41:34,040 --> 00:41:35,800
extra vragen aan stellen om efficiënt

726
00:41:35,820 --> 00:41:37,480
en goedkoop naar het doel

727
00:41:37,510 --> 00:41:38,660
te gaan, in plaats van

728
00:41:39,540 --> 00:41:40,520
met tien kogels schieten.

729
00:41:41,020 --> 00:41:43,820
Maar uiteindelijk is het model nog helemaal niet gerelateerd

730
00:41:43,830 --> 00:41:44,680
aan gebruiker en doel.

731
00:41:45,220 --> 00:41:45,320
Nee.

732
00:41:46,839 --> 00:41:49,300
Het is over het algemeen, zeker aan de generatieve kant,

733
00:41:49,860 --> 00:41:51,000
het is allemaal heel erg beperkt.

734
00:41:51,030 --> 00:41:52,920
Het heeft nog helemaal niks te maken met een gebruiker die een bepaald doel heeft.

735
00:41:53,420 --> 00:41:55,320
Er is een soort allerlei mogelijkheden

736
00:41:55,440 --> 00:41:57,200
en een gebruiker, dat komt ergens samen

737
00:41:57,250 --> 00:41:58,440
waarbij ze de zinnen hebben ergens.

738
00:41:59,420 --> 00:42:00,960
Maar niet per se dat het doel is.

739
00:42:00,990 --> 00:42:02,580
Dus vandaar ik ook aangaf van

740
00:42:03,220 --> 00:42:05,780
laten we vooral iets meer inzetten op logistieke uitdagingen

741
00:42:05,860 --> 00:42:09,720
of in dat energieverbruik of klimaatmodellen op dat vlak.

742
00:42:09,960 --> 00:42:17,240
Maar in plaats van de speeltuin waardoor we toch ook in Nederland ook nieuwe datacenters aan bouwen zijn.

743
00:42:17,460 --> 00:42:22,420
Wat zijn nou de twee dingen die onze luisteraars zo op het einde mee wil geven?

744
00:42:23,620 --> 00:42:33,220
Als ik echt iets zou willen meegeven is, je start wel met dit onderwerp binnen je organisatie.

745
00:42:33,680 --> 00:42:35,520
en wat mij betreft start altijd

746
00:42:35,680 --> 00:42:36,140
ook nog wel

747
00:42:37,440 --> 00:42:38,200
helemaal naar buiten toe

748
00:42:38,660 --> 00:42:41,200
dus echt niet zo, kijk je kan heel erg in je interne

749
00:42:41,320 --> 00:42:43,360
organisatie zitten waar we het ook over hebben gehad

750
00:42:43,460 --> 00:42:44,740
echt binnen je development pipelines

751
00:42:44,960 --> 00:42:45,920
of je machine learning pipelines

752
00:42:47,420 --> 00:42:48,580
maar ook wel naar buiten toe

753
00:42:50,100 --> 00:42:51,080
vertel nou wat je doet

754
00:42:51,360 --> 00:42:53,600
aan je klanten, aan je gebruikers

755
00:42:53,760 --> 00:42:55,280
aan de consument

756
00:42:55,900 --> 00:42:57,080
want er valt altijd wel degelijk

757
00:42:57,200 --> 00:42:59,120
iets te vertellen en op het moment als je namelijk

758
00:42:59,620 --> 00:43:01,020
extern iets communiceert

759
00:43:01,640 --> 00:43:02,680
en dat is real time

760
00:43:03,080 --> 00:43:04,120
en dat gaat niet goed,

761
00:43:04,920 --> 00:43:06,320
dan worden de maatregelen genomen.

762
00:43:07,039 --> 00:43:08,560
Dus ik zou vooral zeggen,

763
00:43:09,500 --> 00:43:10,840
start vooral helemaal aan de voorkant.

764
00:43:10,890 --> 00:43:12,520
Ga vooral nu communiceren wat je nu doet.

765
00:43:13,799 --> 00:43:14,820
En als je dan erachter komt,

766
00:43:14,940 --> 00:43:16,960
oeh, maar dat is eigenlijk iets wat we helemaal niet willen communiceren.

767
00:43:17,980 --> 00:43:20,240
Want dan kom je dus op het onderwerp van greenwashing

768
00:43:20,640 --> 00:43:21,920
en dat soort dingen uit.

769
00:43:22,060 --> 00:43:24,380
Je kan wel degelijk, feitelijk gewoon communiceren.

770
00:43:24,500 --> 00:43:26,460
Wat doe je nou als software product?

771
00:43:26,620 --> 00:43:27,680
Wat doe je nou als AI product?

772
00:43:28,620 --> 00:43:29,740
Of als organisatie?

773
00:43:29,980 --> 00:43:32,480
Dus ik zal zeker zeggen,

774
00:43:32,620 --> 00:43:33,260
start.

775
00:43:34,630 --> 00:43:36,220
Net zoals dat Print.com ook heeft gedaan,

776
00:43:36,250 --> 00:43:38,460
het start gewoon het tonen van

777
00:43:38,620 --> 00:43:40,620
wat je CO2-uitstoot

778
00:43:40,740 --> 00:43:40,820
is.

779
00:43:42,260 --> 00:43:44,260
En vanuit daaruit zou ik altijd zeggen dat

780
00:43:44,680 --> 00:43:44,980
inderdaad,

781
00:43:46,359 --> 00:43:48,300
onderschat niet dat design best wel een

782
00:43:48,400 --> 00:43:49,000
sleutelrol is

783
00:43:50,930 --> 00:43:51,820
op dit soort thema's.

784
00:43:52,210 --> 00:43:54,120
En ook op de manier waarbij we het internet gebruiken.

785
00:43:55,339 --> 00:43:56,260
Dus ik zie

786
00:43:56,430 --> 00:43:58,080
eigenlijk dat design,

787
00:43:59,019 --> 00:44:00,300
digital design en

788
00:44:00,480 --> 00:44:00,880
data design,

789
00:44:02,340 --> 00:44:05,360
nog best wel vaak heel veel afslagen genomen worden.

790
00:44:05,840 --> 00:44:09,680
En nu moet ik hier ook zeggen, nu, een beetje wij van WC1 toch, op dit vlak.

791
00:44:12,540 --> 00:44:14,480
Maar besteed nou wel de aandacht eraan.

792
00:44:14,680 --> 00:44:20,460
Want uiteindelijk gaan we wel fysieke locaties waar honderdduizend mensen komen,

793
00:44:20,540 --> 00:44:24,040
maken we allemaal heel mooi en moeten er ballonnen en slingeren, et cetera.

794
00:44:24,680 --> 00:44:27,720
Maar zodra we nog steeds een website of een softwareproduct aan het ontwikkelen zijn,

795
00:44:27,780 --> 00:44:31,100
waar honderdduizend mensen komen, ja, we vinden het eigenlijk niet zo heel relevant.

796
00:44:33,179 --> 00:44:34,420
Hoe het eruit ziet.

797
00:44:35,359 --> 00:44:37,040
En draaien we allemaal op aannames.

798
00:44:37,130 --> 00:44:38,600
Hoe we nu eigenlijk al dertig jaar denken.

799
00:44:38,720 --> 00:44:40,900
Dat het internet eruit zou moeten zien.

800
00:44:41,040 --> 00:44:42,100
Maar dat hebben we ook met z'n allen maar.

801
00:44:42,420 --> 00:44:43,520
In een vorm bedacht.

802
00:44:44,540 --> 00:44:46,020
Maar er is eigenlijk dus nog heel veel te doen.

803
00:44:46,130 --> 00:44:46,640
Op dat vlak.

804
00:44:46,980 --> 00:44:47,720
Mooi. Dankjewel.

805
00:44:48,160 --> 00:44:48,780
Goeie inzichten.

806
00:44:49,400 --> 00:44:50,980
Dankjewel dat jullie die met ons wilden delen.

807
00:44:51,280 --> 00:44:55,440
Ik denk dat het ook steeds meer aandacht gaat krijgen dit.

808
00:44:56,080 --> 00:44:56,940
Dus dank daarvoor.

809
00:44:57,220 --> 00:44:57,740
Ja, graag gedaan.

810
00:45:00,560 --> 00:45:03,240
Leuk dat je weer luisterde naar een aflevering van AIToday Live.

811
00:45:03,980 --> 00:45:05,460
Abonneer je eens op onze podcast.

812
00:45:05,670 --> 00:45:08,660
Er staat allemaal interessante, exclusieve content in.

813
00:45:09,460 --> 00:45:13,260
Je gaat daar ook nog de vraag die we stellen aan Thijs en lezen.

814
00:45:14,690 --> 00:45:15,620
Ik bedoel de nieuwsbrief.

815
00:45:16,100 --> 00:45:16,620
Wat zei ik dan?

816
00:45:16,710 --> 00:45:17,060
De podcast.

817
00:45:17,580 --> 00:45:18,940
Daar zijn ze al op geabonneerd.

818
00:45:19,160 --> 00:45:20,520
De nieuwsbrief, uiteraard.

819
00:45:21,960 --> 00:45:22,720
Ja, dat dus.

820
00:45:22,720 --> 00:45:23,840
Dus abonneer je op de nieuwsbrief.

821
00:45:23,980 --> 00:45:24,180
Yes.

822
00:45:24,420 --> 00:45:25,220
En tot de volgende keer.

823
00:45:25,400 --> 00:45:26,000
Tot de volgende keer.

824
00:45:55,120 --> 00:45:55,140
[Muziek]


People on this episode