AIToday Live

S07E05 - Mist Nederland de boot in mensgerichte AI? Met Edo Haveman en Erik Fledderus

Aigency by Info Support Season 7 Episode 5

Erik Fledderus, lector Business & Society aan Hogeschool Windesheim, en Edo Haveman, Head of Public Policy Benelux bij Meta, bespreken mensgerichte AI in de podcast AIToday Live. Ze gaan in op de definitie, herkenning en praktische toepassingen van deze technologie.

De experts delen hun visie op Europese regelgeving en de impact daarvan op AI-ontwikkeling. Ook komt het belang van interdisciplinair onderwijs aan bod voor toekomstige AI-professionals.

Praktijkvoorbeelden, zoals Meta's open source beleid voor taalmodellen, illustreren hoe bedrijven bijdragen aan transparantie in AI. De aflevering sluit af met een blik op de uitdagingen en kansen voor AI-adoptie in Nederland en Europa.

Onderwerpen

  • Mensgerichte AI
  • Transparantie en datagebruik
  • Europese regelgeving en innovatie
  • Onderwijs en vaardigheden in AI
  • Praktijkvoorbeelden van AI-toepassingen
Links

Genoemde entiteiten: Hogeschool Windesheim - Meta

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,000 --> 00:00:04,880
Vandaag hebben we voor je een speciale aflevering van ARTD Live.

2
00:00:04,880 --> 00:00:10,480
We komen rechtstreeks vanaf Hogeschool Windesheim, waar de vonken er vanaf vliegen bij een gesprek

3
00:00:10,480 --> 00:00:12,320
over mensgerichte AI.

4
00:00:12,320 --> 00:00:17,440
Een onderwijsexpert en een techgigant gaan met elkaar in gesprek over de vraag of we

5
00:00:17,440 --> 00:00:22,879
in Nederland de boot missen, of juist voorop lopen in de ontwikkeling van AI.

6
00:00:22,879 --> 00:00:24,400
Dus veel luisterplezier!

7
00:00:24,401 --> 00:00:30,340
Hoi, leuk dat jullie weer luisteren naar een nieuwe aflevering van AIToday Live.

8
00:00:30,340 --> 00:00:32,560
Met vandaag in een speciale setting.

9
00:00:32,560 --> 00:00:35,940
We staan live op het podium Hogeschool Windesheim.

10
00:00:35,940 --> 00:00:40,880
En we gaan het vandaag hebben over mensgerichte AI.

11
00:00:40,880 --> 00:00:42,800
Een onderwerp dat steeds belangrijker wordt.

12
00:00:42,800 --> 00:00:45,620
En nu AI een grotere rol speelt in ons dagelijks leven.

13
00:00:45,620 --> 00:00:48,400
En we hebben twee bijzondere gasten op het podium.

14
00:00:48,400 --> 00:00:52,320
Die denk ik best wel een verschillende invalshoek hebben.

15
00:00:52,640 --> 00:00:58,340
Ja, als eerste Erik Fledderus is lector Business & Society aan Hogeschool Windesheim.

16
00:00:58,340 --> 00:01:02,120
En hij onderzoekt hoe we AI op een mensgerichte manier kunnen inzetten in het bedrijfsleven.

17
00:01:02,120 --> 00:01:06,640
En bereidt studenten voor op een toekomst waarin AI en mens hand in hand gaan.

18
00:01:06,640 --> 00:01:07,660
Oh, klinkt goed.

19
00:01:07,660 --> 00:01:10,320
En we hebben Edo Haveman op het podium.

20
00:01:10,320 --> 00:01:12,180
Hij is werkzaam bij Meta.

21
00:01:12,180 --> 00:01:20,540
Waar hij zich als Head of Public Policy Benelux bezighoudt met de maatschappelijke impact van technologie in Nederland, België en Luxemburg.

22
00:01:20,780 --> 00:01:25,320
Bij Meta werkt hij dagelijks aan de balans tussen innovatie en maatschappelijke verantwoordelijkheid.

23
00:01:25,320 --> 00:01:26,100
Een hele mond vol.

24
00:01:26,100 --> 00:01:27,440
Ja Joop, correct.

25
00:01:27,440 --> 00:01:31,220
Twee experts die ons meegenomen in de wereld van mensgerichte AI.

26
00:01:31,220 --> 00:01:33,260
Van onderzoek tot aan praktijk.

27
00:01:33,260 --> 00:01:34,580
En bij vijftien minuten.

28
00:01:34,580 --> 00:01:35,820
Dus ja, dat is korter normaal.

29
00:01:35,820 --> 00:01:37,140
Dus laten we snel van start gaan.

30
00:01:37,140 --> 00:01:39,240
Ja, en dan ben ik eigenlijk wel benieuwd, heren.

31
00:01:39,700 --> 00:01:43,100
Ja, wat verstaan we eigenlijk onder mensgerichte AI?

32
00:01:43,100 --> 00:01:49,760
En ja, misschien Erik, kan jij beginnen vanuit je rol in het onderwijs en Edo's direct vanuit je ervaring vanuit Meta?

33
00:01:49,760 --> 00:02:04,900
Ja, voor mij is mensgerichte AI ontstaat op het moment dat je technologie, in dit geval AI-technologie, dat je daar nadrukkelijk de waarden waar mensen belang aan hechten, dat je die meeneemt in je ontwerp.

34
00:02:05,300 --> 00:02:09,240
Niet alleen van de technologie zelf, maar ook in de context waarin die technologie wordt gebruikt.

35
00:02:09,240 --> 00:02:10,620
Duidelijk.

36
00:02:10,620 --> 00:02:17,320
Edo, heb jij vanuit jouw gezichtspunt eenzelfde definitie hiervan?

37
00:02:17,320 --> 00:02:18,900
Of kijk je er toch iets anders naar?

38
00:02:18,900 --> 00:02:24,380
Nou ja, ik denk dat ik het bijna zeggen haast uiteraard eens ben met Erik.

39
00:02:24,380 --> 00:02:26,020
Hij is immers de lector.

40
00:02:26,020 --> 00:02:30,960
Maar aanvullend is volgens mij wat wij als Meta-project doen ook mensgerichte AI.

41
00:02:30,960 --> 00:02:33,160
Wij maken diensten voor miljarden mensen.

42
00:02:33,380 --> 00:02:35,600
En als dat niet mensgericht is, dan heb je er niks aan, denk ik.

43
00:02:35,600 --> 00:02:38,260
Ja, zo zou je het kunnen bekijken.

44
00:02:38,260 --> 00:02:39,040
Heel mooi, heel mooi.

45
00:02:39,040 --> 00:02:43,300
Ik ben wel benieuwd, Erik, voor jou.

46
00:02:43,300 --> 00:02:49,920
Je wordt hier bijna om een dubbel podium gezet door Edo als lector.

47
00:02:49,920 --> 00:02:52,860
Maar veel bedrijven zeggen dat ze mensgericht zijn.

48
00:02:52,860 --> 00:02:53,180
Ja.

49
00:02:53,180 --> 00:02:54,920
Zoals Eda.

50
00:02:54,920 --> 00:02:56,560
Zoals Meta.

51
00:02:56,560 --> 00:02:59,800
Hoe herkennen wij eigenlijk dat die bedrijven dat ook daadwerkelijk zijn?

52
00:02:59,800 --> 00:03:07,520
Nou ja, op zich is de definitie van die Edo geeft zeer interessant.

53
00:03:07,520 --> 00:03:10,580
En je hebt het gevoel dat je daar zo in mee wil gaan.

54
00:03:10,580 --> 00:03:19,120
Alleen herkennen we ook dat het belang dat bedrijven hechten aan een goed businessmodel soms de boventoon kan voeren.

55
00:03:19,120 --> 00:03:27,920
En ik denk dat consumenten niet altijd die beweging, die afweging bewust meemaken.

56
00:03:27,920 --> 00:03:29,580
Dat ze zeggen, hé, het is gratis.

57
00:03:29,580 --> 00:03:32,100
Of, goh, dat is eigenlijk heel goedkoop.

58
00:03:32,100 --> 00:03:38,820
En dat ze daarmee eigenlijk technologie gebruiken die veel van de data die zij daarin inzetten.

59
00:03:39,060 --> 00:03:43,260
Dat dat een rol speelt voor die bedrijven om hun businessmodel nog beter te maken.

60
00:03:43,260 --> 00:03:47,020
Dus dat is een manier waarbij je zegt, ja, ben je dan mensgericht bezig?

61
00:03:47,020 --> 00:03:51,700
Nou, ik denk dat je in ieder geval iets doet waar mensen veel gebruik van maken.

62
00:03:51,700 --> 00:03:53,740
Maar dat is iets anders dan wat ik zeg mensgericht.

63
00:03:53,740 --> 00:03:55,200
Dus hoe zouden we het dan herkennen?

64
00:03:55,200 --> 00:03:57,500
Dat je zegt, hé, maar dit is echt wel mensgericht.

65
00:03:57,500 --> 00:04:05,100
Nou, de mate waarin je transparant bent over de wijze waarop je bepaalde belangen,

66
00:04:05,260 --> 00:04:13,300
of het veilig is of dat je zegt, we hebben moeite gedaan om de data die jij daarin zet,

67
00:04:13,300 --> 00:04:18,920
om die niet naar andere plekken door te transporteren of dat andere partijen daar gebruik van kunnen maken.

68
00:04:18,920 --> 00:04:21,180
Dat zijn voor mij signalen.

69
00:04:21,180 --> 00:04:25,640
Het is voor mij nooit doorslaggeven, maar het zijn belangrijke signalen die voor mij aangeven.

70
00:04:25,640 --> 00:04:29,900
Oké, een bedrijf heeft in ieder geval nagedacht over het onderwerp.

71
00:04:29,900 --> 00:04:34,920
Ze hebben daar een aantal handvaten aan weten te ontlenen en gezet,

72
00:04:34,920 --> 00:04:39,300
op die manier gaan we de technologie anders vormgeven dan dat als we dat niet hadden gedaan.

73
00:04:39,300 --> 00:04:43,260
En Edo, heeft de meta daar op deze manier naar gekeken?

74
00:04:43,260 --> 00:04:45,800
Nou ja, ik zat eigenlijk te denken terwijl Erik sprak van,

75
00:04:45,800 --> 00:04:51,600
dat is volgens mij inderdaad gewoon fatsoenlijk handelen en voor een grote ook gewoon wat de wet voorschrijft.

76
00:04:51,600 --> 00:04:58,660
Dus volgens mij, ja, ik mag het hopen dat een bedrijf dat doet en van mijn eigen bedrijf weet ik dat zeker.

77
00:04:58,660 --> 00:05:05,380
Ik denk dat er nog wel wat dingen achter zitten van beperkingen die we zien nu in Europa gelden,

78
00:05:05,380 --> 00:05:10,640
waardoor wij bijvoorbeeld heel veel van onze AI-diensten niet in Europa aanbieden, maar wel buiten Europa.

79
00:05:10,860 --> 00:05:16,240
En het feit dat heel veel AI-organisaties of heel veel partijen die met AI werken,

80
00:05:16,240 --> 00:05:19,900
eigenlijk nu allemaal met Amerikaanse modellen werken op basis van Amerikaanse data.

81
00:05:19,900 --> 00:05:22,840
Wat is best ironisch als iedereen mensgericht AI wil hebben.

82
00:05:22,840 --> 00:05:25,000
Wat, zeg je nou?

83
00:05:25,000 --> 00:05:28,860
Ja, ik ben wel benieuwd inderdaad, hoe kunnen mensen het nou zien dat het mensgericht AI is?

84
00:05:28,860 --> 00:05:30,780
Want ze zien alleen een dienst, ze zien een product.

85
00:05:32,140 --> 00:05:38,680
Nou ja, ik denk als je mensgericht AI vertaalt naar diensten waar je wat aan hebt,

86
00:05:38,680 --> 00:05:42,760
en die bijvoorbeeld fatsoenlijk gelokaliseerd zijn, dus die jouw taal goed begrijpen,

87
00:05:42,760 --> 00:05:47,440
die jou voor jou kunnen doen wat je vraagt en waar je behoefte aan hebt,

88
00:05:47,440 --> 00:05:51,400
dan is dat zeker daar onderdeel van.

89
00:05:51,400 --> 00:05:57,520
En ik denk dat nu in Europa, zoals nu de kaders staan,

90
00:05:57,520 --> 00:06:03,020
en hoe er nu beperkingen op worden gelegd aan veel van de partijen die willen innoveren,

91
00:06:03,020 --> 00:06:05,080
en hoe moeilijk het is om te innoveren in Europa,

92
00:06:05,080 --> 00:06:11,620
dat de grootste horde nu voor mensgerichte AI in Europa, Europa zelf is.

93
00:06:11,620 --> 00:06:16,340
Maar als ik als burger, ben ik heel erg blij, namelijk met de huidige AI-act,

94
00:06:16,340 --> 00:06:17,760
want die beschermt mij.

95
00:06:17,760 --> 00:06:21,640
Dus als een bedrijf dan zegt van, ja wij kunnen daar niet aan voldoen,

96
00:06:21,640 --> 00:06:24,760
dan denk ik, nou dat vind ik een signaal eigenlijk.

97
00:06:24,760 --> 00:06:26,760
En een negatief signaal.

98
00:06:27,140 --> 00:06:30,640
Voor mij zegt ook niemand dat, dus goed dat je doorvraagt.

99
00:06:30,640 --> 00:06:34,920
Nee, nee, voor mij kan iedereen prima voldoen aan de AI-act,

100
00:06:34,920 --> 00:06:38,460
en mind you, dit duurt nog een paar jaar voor die inwerking gaat,

101
00:06:38,460 --> 00:06:39,960
dus daar ga je voorlopig nog niks van merken.

102
00:06:39,960 --> 00:06:44,080
Maar het is wel heel veel papier wat we met z'n allen creëren,

103
00:06:44,080 --> 00:06:46,020
maar dan kun je dan prima daaraan voldoen.

104
00:06:46,020 --> 00:06:49,780
Hoeveel veiligheid daadwerkelijk uit voortkomt, dat kun je afvragen.

105
00:06:49,780 --> 00:06:52,200
Maar er zijn veel meer stukken wetgeving in Europa,

106
00:06:52,200 --> 00:06:57,600
en afgelopen zomer heeft Mario Draghi, oud-centraal bankier van Europa,

107
00:06:57,600 --> 00:07:01,040
en oud-premier van Italië, daar ook een groot rapport over gepubliceerd,

108
00:07:01,040 --> 00:07:06,120
waarin hij aangeeft waar Europa de boot dreigt te missen als het gaat om concurrentiekracht.

109
00:07:06,120 --> 00:07:10,360
En hij zegt ook wat dingen over de versnippering van toezichthouders en regelgeving,

110
00:07:10,880 --> 00:07:14,400
en dat die een geworden Europese markt, waar we allemaal zo trots op zijn,

111
00:07:14,400 --> 00:07:15,580
dat die eigenlijk niet bestaat.

112
00:07:15,580 --> 00:07:19,540
Maar Erik, vanuit de onderzoeksblik,

113
00:07:19,540 --> 00:07:24,300
hebben we volgens mij altijd als onderzoekers te maken met beperkingen.

114
00:07:24,300 --> 00:07:25,920
Zorgt het niet juist voor innovatie?

115
00:07:25,920 --> 00:07:26,840
Ja, zeker.

116
00:07:26,840 --> 00:07:33,580
Ik denk dat er heel veel voorbeelden zijn waarin je ziet dat door beperkingen op te leggen,

117
00:07:33,580 --> 00:07:35,700
je echt je creativiteit moet aanboren.

118
00:07:35,700 --> 00:07:37,140
Dus dat is zeker één.

119
00:07:37,140 --> 00:07:42,240
Ik denk dat Draghi op verschillende manieren kan worden verstaan.

120
00:07:42,240 --> 00:07:47,560
Namelijk door te zeggen dat je veel beter Europa ook als één markt ziet,

121
00:07:47,560 --> 00:07:50,100
en kun je als bedrijf, ook als je in Europa start,

122
00:07:50,100 --> 00:07:53,260
veel meer massa ontwikkelen,

123
00:07:53,260 --> 00:07:55,600
en daarmee net als in China en Amerika,

124
00:07:55,600 --> 00:07:58,400
een goede springplank hebben.

125
00:07:58,400 --> 00:08:00,300
Dat is nu onvoldoende mogelijk.

126
00:08:00,300 --> 00:08:02,880
Ik geloof niet dat Draghi zegt,

127
00:08:03,880 --> 00:08:09,900
gooi alle wetgeving rondom mensgerichte AI maar overboord,

128
00:08:09,900 --> 00:08:13,040
want dat geeft hindernissen.

129
00:08:13,040 --> 00:08:14,740
Ik zou haast willen zeggen,

130
00:08:14,740 --> 00:08:15,860
als je dat doet,

131
00:08:15,860 --> 00:08:21,180
is dat de reden waarom je als ondernemer in Europa kunt gaan functioneren,

132
00:08:21,180 --> 00:08:22,200
of dat nou een standaard is,

133
00:08:22,200 --> 00:08:24,540
of deze regelgeving.

134
00:08:24,540 --> 00:08:28,200
Neem de GDPR even als wat meer klassiek voorbeeld.

135
00:08:28,200 --> 00:08:32,419
Ik ken behoorlijk wat Amerikaanse en ook Chinese bedrijven zeggen,

136
00:08:32,520 --> 00:08:36,080
dit is voor ons een reden om nog eens goed te kijken naar onze technologie.

137
00:08:36,080 --> 00:08:40,840
Omdat wij Europa willen gebruiken om daar business te ontwikkelen.

138
00:08:40,840 --> 00:08:43,760
Als we die een beetje doorpakken naar de praktijk,

139
00:08:43,760 --> 00:08:45,860
je werkt veel met studenten in de praktijk,

140
00:08:45,860 --> 00:08:47,740
als we naar de toekomst kijken,

141
00:08:47,740 --> 00:08:52,100
wat zijn dan skills en vaardigheden die de studenten mee moeten krijgen,

142
00:08:52,100 --> 00:08:53,560
om dit in de toekomst goed te doen?

143
00:08:54,560 --> 00:08:57,860
Nou, mijn collega Inge Strijker,

144
00:08:57,860 --> 00:09:03,280
die liet bijvoorbeeld voor HBO-ICT het model zien,

145
00:09:03,280 --> 00:09:04,700
het ontwikkelmodel CRISPM,

146
00:09:04,700 --> 00:09:06,840
waarvan zij zegt,

147
00:09:06,840 --> 00:09:09,620
dat kun je op een heel eenvoudige manier uitbreiden,

148
00:09:09,620 --> 00:09:12,680
door nadrukkelijk niet alleen naar business values te kijken,

149
00:09:12,680 --> 00:09:14,120
maar ook naar society values.

150
00:09:14,120 --> 00:09:16,380
Society values kun je ook weer heel breed,

151
00:09:16,800 --> 00:09:19,240
De burgemeester noemde er net een aantal,

152
00:09:19,240 --> 00:09:23,040
bijvoorbeeld dat een gemeente per definitie inclusief wil zijn.

153
00:09:23,040 --> 00:09:26,600
Je bent niet burgemeester voor een aantal inwoners,

154
00:09:26,600 --> 00:09:29,560
die heel graag met AI of met digitale technologie willen werken,

155
00:09:29,560 --> 00:09:30,520
je bent het voor allemaal.

156
00:09:30,520 --> 00:09:31,880
Dus wat betekent dat nou,

157
00:09:31,880 --> 00:09:35,320
in de wijze waarop je een oplossing ontwerpt?

158
00:09:37,260 --> 00:09:38,900
Hoe zorg je ervoor dat,

159
00:09:38,900 --> 00:09:42,760
als je het hebt over uitlegbaarheid van bepaalde beslissingen,

160
00:09:42,760 --> 00:09:44,680
dat je daar niet alleen in de technologie,

161
00:09:44,680 --> 00:09:48,980
maar ook in de wijze waarop je de technologie implementeert in je team,

162
00:09:48,980 --> 00:09:50,360
hoe je daar rekening mee houdt?

163
00:09:50,360 --> 00:09:55,140
Nou, dat zijn zaken die je expliciet mee kunt nemen in de opleiding van studenten,

164
00:09:55,140 --> 00:09:57,980
dat dat niet een vraagstuk is,

165
00:09:57,980 --> 00:10:00,300
waar dan maar een ander team zich drukker moet maken,

166
00:10:00,300 --> 00:10:04,020
maar dat je daar bijvoorbeeld als engineer,

167
00:10:04,340 --> 00:10:06,020
als technical engineer,

168
00:10:06,020 --> 00:10:07,720
dat dat part of the job is.

169
00:10:07,720 --> 00:10:09,380
Ja, dus het kritisch nadenken,

170
00:10:09,380 --> 00:10:10,920
het holistische kijken naar het vraagstuk,

171
00:10:10,920 --> 00:10:13,580
puur, we zijn nu gewend om de techniek in te duiken,

172
00:10:13,580 --> 00:10:15,260
ook naar het geheel te kijken,

173
00:10:15,260 --> 00:10:16,360
naar de impact die het heeft,

174
00:10:16,360 --> 00:10:18,300
en dat al in de studie dus mee te gaan nemen.

175
00:10:18,300 --> 00:10:21,080
Je hoeft misschien nog geen eens de expert te worden op dat onderwerp,

176
00:10:21,080 --> 00:10:26,700
maar je moet heel goed snappen dat het belangrijk is om daar ofwel zelf affiniteit voor te ontwikkelen,

177
00:10:26,700 --> 00:10:28,780
of daar in ieder geval mensen in je team te hebben,

178
00:10:28,780 --> 00:10:30,800
diversiteit in je team,

179
00:10:30,800 --> 00:10:32,780
ook op dit onderwerp is van groot belang.

180
00:10:33,140 --> 00:10:35,960
Zie je dat ook in de opleidingen ontstaan,

181
00:10:35,960 --> 00:10:38,600
dat er meer opleidingen samen gaan werken naast de techniek,

182
00:10:38,600 --> 00:10:40,060
om dat met elkaar te stimuleren?

183
00:10:40,060 --> 00:10:44,720
Ja, ik zie gelukkig een goede ontwikkeling op dat onderwerp.

184
00:10:44,720 --> 00:10:50,380
De aandacht die er binnen de ICT-opleidingen in Nederland voor deze aspecten is,

185
00:10:50,380 --> 00:10:52,640
is denk ik heel groeiend.

186
00:10:52,640 --> 00:10:54,220
Naast duurzaamheid,

187
00:10:54,220 --> 00:10:57,220
een onderwerp wat we niet heel erg hebben aangeraakt vandaag,

188
00:10:57,220 --> 00:10:58,680
maar wat natuurlijk ook een onderwerp is,

189
00:10:58,680 --> 00:11:02,000
wat af en toe op gespannen voet staat met digitalisering.

190
00:11:02,740 --> 00:11:04,740
En ik vind dat een hele goede zaak.

191
00:11:04,740 --> 00:11:08,400
Ik hoop dat het ook bij andere opleidingen zo gaat.

192
00:11:09,200 --> 00:11:10,740
Ik heb een interessant woord die je noemt,

193
00:11:10,740 --> 00:11:14,060
een stukje gespannen en kritisch met elkaar zijn.

194
00:11:14,060 --> 00:11:16,440
En Meta staat ook wel eens in het nieuws,

195
00:11:16,440 --> 00:11:20,740
er zijn ook wel eens kritische uitingen over hoe zij zelf ook heel kritisch in de media terechtkomen.

196
00:11:20,740 --> 00:11:23,680
Technologie en maatschappij hebben grote impact als grote organisatie.

197
00:11:24,060 --> 00:11:28,020
Hoe zorgen jullie ervoor dat je AI-ontwikkeling de echte mens centraal staat?

198
00:11:28,020 --> 00:11:31,980
En heb je daar ook concrete voorbeelden hoe je dat in de praktijk toegepast ziet worden?

199
00:11:31,980 --> 00:11:34,960
Ik gebruikte net het woord uitlegbaarheid.

200
00:11:34,960 --> 00:11:37,280
Ik denk dat dat wel een aardig voorbeeld is,

201
00:11:37,280 --> 00:11:40,140
of een aardig concept om het even beter te pakken.

202
00:11:41,020 --> 00:11:48,120
Eerst hebben wij onze grote taalmodellen, onze LAMA-taalmodellen, open source beschikbaar gemaakt.

203
00:11:48,120 --> 00:11:51,460
En dat betekent dus dat iedereen die modellen kan downloaden.

204
00:11:51,460 --> 00:11:53,120
Je moet even certificeren dat je de wet niet gaat overtreden,

205
00:11:53,120 --> 00:11:55,900
maar dan mag je ze downloaden en gebruiken, aanpassen.

206
00:11:55,900 --> 00:11:58,000
Je kunt ze op alle mogelijke manieren doormeten.

207
00:11:58,540 --> 00:12:02,880
Je kunt vervolgens ook alles aanpassen, testen op bias.

208
00:12:02,880 --> 00:12:08,000
En daarmee denk ik dat je een enorm voordeel hebt van andere modellen die niet zo open zijn,

209
00:12:08,000 --> 00:12:15,240
om de mensgerichte elementen te checken, te doorlopen en ook te verbeteren.

210
00:12:15,240 --> 00:12:18,500
Want daar wordt weer door academici over gepubliceerd.

211
00:12:18,500 --> 00:12:19,940
Dat lezen wij uiteraard ook weer.

212
00:12:19,940 --> 00:12:23,020
Dat nemen wij weer mee in volgende iteraties van modellen.

213
00:12:23,020 --> 00:12:25,260
Mensen maken variaties op die modellen.

214
00:12:25,260 --> 00:12:28,900
Die plaatsen dan weer op een hugging face, een platform waar dat soort modellen beschikbaar zijn.

215
00:12:28,900 --> 00:12:31,160
Dat zien we ook weer, daar kunnen we ook weer van leren.

216
00:12:31,160 --> 00:12:33,980
Dus zo itereren die modellen ook.

217
00:12:33,980 --> 00:12:37,480
En dat wordt ook weer meegenomen in een exercise die wij bijvoorbeeld zelf doen.

218
00:12:37,480 --> 00:12:38,880
Als het gaat om red teaming.

219
00:12:38,880 --> 00:12:44,220
Dus je model uitdagen en checken op problemen of mogelijk problemen.

220
00:12:44,220 --> 00:12:49,780
Daar vervolgens dat vaststellen, daar mitigaties voor verzinnen.

221
00:12:49,780 --> 00:12:50,740
Dat is oplossen.

222
00:12:50,740 --> 00:12:51,960
En dan checken of dat gelukt is.

223
00:12:51,960 --> 00:12:57,000
En dan opnieuw die iteraties en dus die integrale benadering.

224
00:12:57,000 --> 00:13:00,340
Waar we verschillende bloedgroepen bij elkaar brengen om te checken of je model echt doet.

225
00:13:00,340 --> 00:13:04,380
Dat is bij ons uiteraard ook onderdeel van wat wij doen.

226
00:13:04,380 --> 00:13:07,400
Ik wil de uitlegbaarheid ook aan de andere kant meepakken.

227
00:13:07,400 --> 00:13:08,220
Als je me toestaat.

228
00:13:08,220 --> 00:13:12,160
Want ik merk ook wel dat in Nederland af te zeggen van ja, we doen ook voorzichtig met de AI.

229
00:13:12,160 --> 00:13:13,300
We doen het rustig aan.

230
00:13:13,700 --> 00:13:20,580
Maar ik denk juist ook, want uitlegbaarheid, tegelijkertijd is natuurlijk, we zitten hier in Zwolle.

231
00:13:20,580 --> 00:13:22,800
We horen net de burgemeester spreken.

232
00:13:22,800 --> 00:13:25,320
En gemeentepolitiek is ingewikkeld.

233
00:13:25,320 --> 00:13:26,480
Haagse politiek is ingewikkeld.

234
00:13:26,480 --> 00:13:29,180
En als burger om daar grip op te krijgen is best wel ingewikkeld.

235
00:13:29,180 --> 00:13:36,740
En ik denk bijvoorbeeld dat generatieve AI-modellen enorm kunnen helpen de burger om grip te krijgen op wat er gebeurt.

236
00:13:36,740 --> 00:13:39,980
Welke beslissingen worden genomen die invloed hebben op hem of haar.

237
00:13:39,980 --> 00:13:41,200
En hoe dan?

238
00:13:41,200 --> 00:13:42,160
Kan je dat concreet maken?

239
00:13:42,160 --> 00:13:48,780
Er was een tijdje terug zo'n app die overheidsbrieven heel veel kon vereenvoudigen.

240
00:13:48,780 --> 00:13:53,080
En op die manier maak je dus al behapbaarder wat er gebeurt.

241
00:13:53,080 --> 00:13:55,480
Maar ook bijvoorbeeld besluitvorming kun je veel inzichtelijker maken.

242
00:13:55,480 --> 00:13:57,540
Als je metaalmodellen misschien doorheen laat lopen.

243
00:13:57,540 --> 00:14:01,120
En op die manier maak je dingen toegankelijk en uitlegbaarder.

244
00:14:01,120 --> 00:14:02,620
Met behulp van generatieve AI-i.

245
00:14:02,620 --> 00:14:05,280
In plaats van dat je eerst zegt, we moeten eerst drie jaar lang studeren.

246
00:14:05,280 --> 00:14:06,660
Of we alles echt wel willen.

247
00:14:06,660 --> 00:14:08,020
Van wat we hiermee gaan doen.

248
00:14:08,020 --> 00:14:12,160
Kun je ook zeggen van, hey, dit heeft zoveel voordelen voor één iedere Nederland.

249
00:14:12,160 --> 00:14:13,640
Hier moeten we aan de slagje maken.

250
00:14:13,640 --> 00:14:15,220
We maken het bestuur zoveel beter mee.

251
00:14:15,220 --> 00:14:16,380
Hier gaan we wat mee doen.

252
00:14:16,380 --> 00:14:17,640
Dat is een mooi voorbeeld.

253
00:14:17,640 --> 00:14:20,420
Hoeven zeker geen drie jaar op te studeren.

254
00:14:20,420 --> 00:14:22,020
Volgens mij zijn de pilots er nu al.

255
00:14:22,020 --> 00:14:24,300
Alleen is er altijd een human in de loop.

256
00:14:24,300 --> 00:14:26,100
In dit geval is dat een ambtenaar in de loop.

257
00:14:26,100 --> 00:14:29,540
Die vereenvoudig de brief nog even checkt op onjuistheden.

258
00:14:29,540 --> 00:14:31,260
Er zijn veel voorbeelden.

259
00:14:31,260 --> 00:14:31,860
Ook bekend.

260
00:14:31,860 --> 00:14:37,760
Bijvoorbeeld over het maken van verslagen van een rechtspraak.

261
00:14:37,760 --> 00:14:40,320
En een aantal uitspraken daarin.

262
00:14:40,320 --> 00:14:42,900
Waarin het grandioos mis is gegaan.

263
00:14:42,900 --> 00:14:48,340
Dus ik vind het van belang dat die studie of die voorzichtigheid gericht is op.

264
00:14:49,180 --> 00:14:54,700
Is er nog iemand die uiteindelijk een persoon die zegt, dit is oké.

265
00:14:54,700 --> 00:14:56,260
Heeft een goede voorzet gekregen.

266
00:14:56,260 --> 00:14:58,140
Omdat het een stuk eenvoudiger is.

267
00:14:58,140 --> 00:14:59,080
Een stuk begrijpelijker.

268
00:14:59,080 --> 00:15:00,060
Hartstikke mee eens.

269
00:15:00,060 --> 00:15:03,300
Maar ik vind wel dat het de verantwoordelijkheid moet blijven van een mens.

270
00:15:03,300 --> 00:15:06,560
Op het moment dat het over serieuze besluiten gaat.

271
00:15:06,560 --> 00:15:07,680
Of het een toekenning is.

272
00:15:07,680 --> 00:15:09,360
Of dat het een afwijzing is.

273
00:15:09,360 --> 00:15:10,660
Dat zegt de AVG ook.

274
00:15:10,660 --> 00:15:15,240
Voor mij is ook niemand, of als ik niet die pleit en uit dat je besluitvorming gaat vervangen door AI.

275
00:15:15,240 --> 00:15:20,640
Maar ik denk dat je dus wel AI kunt gaan gebruiken om dingen inzichtelijker, slimmer en duidelijker te maken.

276
00:15:20,640 --> 00:15:22,840
En dat we daar in Nederland echt nog enorm achterlopen.

277
00:15:22,840 --> 00:15:25,240
De app waar je het over had heet: Lees Simpel.

278
00:15:25,240 --> 00:15:29,600
Daar zullen we ook in de show notes even een linkje naar toe doen.

279
00:15:29,600 --> 00:15:31,200
Want dat is echt inderdaad iemand.

280
00:15:31,200 --> 00:15:34,580
Het wordt veel toegankelijker om uiteindelijk brieven die je krijgt.

281
00:15:34,580 --> 00:15:37,320
Niet alleen van de overheid, maar misschien van andere instanties ook.

282
00:15:37,320 --> 00:15:39,460
Om die veel toegankelijker te maken.

283
00:15:39,460 --> 00:15:43,620
Edo, jij haalt Llama aan.

284
00:15:44,820 --> 00:15:52,000
Het is misschien voor mensen best wel apart om te zien dat jullie dat gratis voor iedereen beschikbaar stellen.

285
00:15:52,000 --> 00:15:53,840
Jullie zijn een commercieel bedrijf.

286
00:15:53,840 --> 00:15:56,280
Rondom Big Tech en samenleving.

287
00:15:56,280 --> 00:15:57,740
Daar zijn toch wel vraagstukken over.

288
00:15:57,740 --> 00:15:59,280
Waarom doet Meta dit?

289
00:15:59,280 --> 00:16:02,900
Daar is eigenlijk een hele waaier van reden.

290
00:16:02,900 --> 00:16:04,240
Laten we er een paar uitlichten.

291
00:16:04,240 --> 00:16:08,480
We hebben sowieso al een vrij lange traditie als Meta met open source.

292
00:16:08,480 --> 00:16:13,840
We hebben bijvoorbeeld anderhalf decennium geleden het Open Compute Program opgestart.

293
00:16:13,840 --> 00:16:19,380
waarin we ook onze bouwtekeningen voor datacenters en servers online zetten.

294
00:16:19,380 --> 00:16:21,560
Omdat daar weer andere mensen van konden leren.

295
00:16:21,560 --> 00:16:22,540
En wij weer van hen konden leren.

296
00:16:22,540 --> 00:16:27,420
Om zo dadelijk op die manier servers energiezuiniger en efficiënter te maken.

297
00:16:27,420 --> 00:16:30,840
En eigenlijk doen we nu met onze AI-modellen iets vergelijkbaars.

298
00:16:31,460 --> 00:16:35,000
En we hebben natuurlijk ook niet een business model met cloud waarbij je tikken afrekent of zo.

299
00:16:35,000 --> 00:16:36,360
Zoals veel andere partijen.

300
00:16:36,360 --> 00:16:40,860
Wij bouwen het eindelijk zelf ook op onze Llama-modellen diensten.

301
00:16:40,860 --> 00:16:46,280
Maar hebben er alleen maar voordeel van als heel veel andere partijen denk ik ook aan de slag gaan.

302
00:16:46,280 --> 00:16:50,100
En eigenlijk hebben wij in plaats van de paar duizend ontwikkelaars die we hebben,

303
00:16:50,100 --> 00:16:52,700
hebben we nu miljoenen ontwikkelaars die ook bouwen op Llama.

304
00:16:52,700 --> 00:16:56,680
En een deel daarvan publiceert weer academische journals.

305
00:16:56,680 --> 00:16:59,960
Of plaatst iteraties van die modellen weer online.

306
00:16:59,960 --> 00:17:01,200
Ik noemde net een hugging face.

307
00:17:01,200 --> 00:17:04,900
En op die manier kunnen wij veel sneller innoveren dan we anders zouden doen.

308
00:17:04,900 --> 00:17:08,180
Eigenlijk helemaal in lijn met hoe de open source community denkt.

309
00:17:08,180 --> 00:17:13,640
En het is een stuk veiliger en beter te beveiligen.

310
00:17:13,640 --> 00:17:19,599
Omdat zoveel meer mensen meekijken en dus veel sneller fouten en bias en andere issues opgespoord worden.

311
00:17:19,599 --> 00:17:21,140
Dus de denkkracht van velen.

312
00:17:21,700 --> 00:17:23,160
En de kracht van velen om het in te zetten.

313
00:17:23,160 --> 00:17:24,180
Om het ook weer beter te maken.

314
00:17:24,180 --> 00:17:25,260
Waar jullie zelf profijt van hebben.

315
00:17:25,260 --> 00:17:27,619
Maar de organisaties die het gebruiken ook weer profijt hebben.

316
00:17:27,619 --> 00:17:28,099
Ja, precies dat.

317
00:17:28,099 --> 00:17:29,140
Je zegt het heel mooi.

318
00:17:29,140 --> 00:17:30,220
Ik zie Joop.

319
00:17:30,220 --> 00:17:31,140
Ik weet de vraag.

320
00:17:31,140 --> 00:17:32,200
Dus Joop, gooi hem erin.

321
00:17:32,200 --> 00:17:32,920
Ik ben echt benieuwd.

322
00:17:32,920 --> 00:17:37,540
Ja, we zien steeds meer AI toepassingen die menselijk gedrag nabootsen.

323
00:17:37,540 --> 00:17:42,200
Dan heb je ook misschien het gevoel van we gaan richting mensgerichte AI.

324
00:17:42,200 --> 00:17:49,060
Toch voelen mensen zich ongemakkelijk als technologie te menselijker wordt of net niet.

325
00:17:49,060 --> 00:17:50,820
De zogenaamde Uncanny Valley.

326
00:17:51,120 --> 00:17:55,540
Misschien zou jij kunnen uitleggen wat de Uncanny Valley is.

327
00:17:55,540 --> 00:17:57,640
Hoe kijk je ernaar?

328
00:17:57,640 --> 00:18:00,700
Moeten we AI wel zo menselijk maken?

329
00:18:00,700 --> 00:18:02,040
Ja.

330
00:18:02,580 --> 00:18:06,020
Mensgericht wil niet zeggen dat we het bijna menselijk maken.

331
00:18:06,020 --> 00:18:07,840
Dus dat is voor mij echt wat anders.

332
00:18:07,840 --> 00:18:12,360
Dus ik heb het over technologie die nog te onderscheiden is als technologie.

333
00:18:12,360 --> 00:18:18,780
Waarbij duidelijk wordt dat er bij het ontwerp rekening is gehouden met waren die we belangrijk vinden.

334
00:18:18,880 --> 00:18:31,260
Een van die waarden zou best kunnen zijn dat een AI als die spreekt of als die voor mij zichtbaar is duidelijk maakt dat je te maken hebt met een stuk technologie.

335
00:18:31,260 --> 00:18:40,320
Uncanny Valley zegt iets over dat het bijna perfect is.

336
00:18:40,460 --> 00:18:42,480
Maar daarmee wordt het eigenlijk creepy.

337
00:18:42,480 --> 00:18:46,060
En dat kan op heel veel manieren.

338
00:18:46,060 --> 00:18:53,060
Een robot met een gezicht kan op een gegeven moment zo echt zijn dat je denkt wat heb ik hier mee van doen.

339
00:18:53,060 --> 00:18:55,240
Wat die je te lang aanstaat.

340
00:18:55,240 --> 00:18:55,920
Nou bijvoorbeeld.

341
00:18:56,880 --> 00:18:58,300
Mag ik daar verregen?

342
00:18:58,300 --> 00:18:58,860
Tuurlijk.

343
00:18:58,860 --> 00:19:04,660
Ik vind het wel zo'n typisch Nederlandse stropop die ons uiteindelijk zorgt dat we helemaal niks doen in Nederland.

344
00:19:04,660 --> 00:19:10,720
Want ik denk namelijk dat we nog lang niet zijn bij die Uncanny Valley.

345
00:19:10,720 --> 00:19:12,480
Sorry, ik ging er bijna van stotteren.

346
00:19:12,480 --> 00:19:13,960
Kopt dat Japan overigens hoor.

347
00:19:13,960 --> 00:19:19,040
Ik las laatst ook een quote van wetenschapper Lokke Moerel.

348
00:19:19,040 --> 00:19:23,180
Die zei van call center medewerkers worden niet vervangen door AI.

349
00:19:23,180 --> 00:19:26,580
Call center medewerkers worden vervangen door call center medewerkers.

350
00:19:26,660 --> 00:19:27,160
Met AI.

351
00:19:27,160 --> 00:19:30,240
En die stap moeten we eerst nog allemaal gaan maken.

352
00:19:30,240 --> 00:19:33,100
AI is voornamelijk goed denk ik als assistent.

353
00:19:33,100 --> 00:19:34,580
Maakt mensen productiever.

354
00:19:34,580 --> 00:19:36,240
Maakt call center assistenten beter.

355
00:19:36,240 --> 00:19:38,020
Maakt wellicht gemeenteambtenaren beter.

356
00:19:38,020 --> 00:19:42,460
Maakt mensen beter in hun spreadsheets of in hun teksten.

357
00:19:42,460 --> 00:19:44,180
En we zijn nog lang niet daar.

358
00:19:44,180 --> 00:19:48,060
Maar we schetsen heel veel met z'n allen een soort van doembeeld van oh dit moeten we bekomen.

359
00:19:48,060 --> 00:19:49,740
En dan gaan we op onze handen zitten.

360
00:19:49,740 --> 00:19:51,280
Dat ben ik met je eens.

361
00:19:51,280 --> 00:19:55,140
En tegelijkertijd wie tovert ons al deze beelden voor?

362
00:19:55,140 --> 00:19:56,160
Dat is toch de big tech.

363
00:19:56,440 --> 00:19:57,460
Die komt met beelden.

364
00:19:57,460 --> 00:19:59,820
Je had zelfs net ook een heel mooi beeld.

365
00:19:59,820 --> 00:20:01,420
Namelijk over wat is echt en wat is niet.

366
00:20:01,420 --> 00:20:07,100
Dus worden in die zin ook wel een beetje er heen gesleept.

367
00:20:07,100 --> 00:20:10,280
Met alle mooie fantastische mogelijkheden die er zijn.

368
00:20:11,080 --> 00:20:12,360
door de big tech zelf.

369
00:20:12,360 --> 00:20:14,920
Ik voelde weer een beetje als een stropop.

370
00:20:15,320 --> 00:20:16,780
Ik herkende me hier niet.

371
00:20:16,780 --> 00:20:18,380
Ik wil er toch wat aan toevoegen.

372
00:20:18,380 --> 00:20:20,240
Want wij weten dit.

373
00:20:20,240 --> 00:20:23,280
Ik denk degenen die in het vakgebied van AI zitten.

374
00:20:23,280 --> 00:20:25,720
Maar een aantal jaar geleden Google.

375
00:20:25,720 --> 00:20:30,920
Tijdens een presentatie dat je afspraken gewoon kon maken.

376
00:20:31,060 --> 00:20:32,060
Google maakt.

377
00:20:32,060 --> 00:20:33,000
Ik heb een afspraak bij de kapper.

378
00:20:33,000 --> 00:20:35,840
En ook de restaurantreservering.

379
00:20:35,840 --> 00:20:36,740
Dat was nep.

380
00:20:36,740 --> 00:20:39,660
Dat werd gedaan door mensen.

381
00:20:39,660 --> 00:20:46,660
De humanoid robot Elon Musk twee jaar geleden zette een danser op het podium.

382
00:20:46,660 --> 00:20:47,480
Wij zien dat.

383
00:20:48,140 --> 00:20:48,640
Mijn moeder.

384
00:20:48,640 --> 00:20:51,160
Mijn omgeving ziet het niet.

385
00:20:51,160 --> 00:20:53,260
Die zien die mens.

386
00:20:53,260 --> 00:20:55,520
Of die robot als mens nu.

387
00:20:55,520 --> 00:20:59,820
En dat is wel iets wat de media oppikt.

388
00:20:59,820 --> 00:21:01,340
Wat big tech uitstraalt.

389
00:21:01,340 --> 00:21:05,400
Ik vind dat Edo heeft een terechtpunt.

390
00:21:05,400 --> 00:21:10,680
Dat wij zo'n Uncanny Valley niet moeten gebruiken als argument.

391
00:21:10,680 --> 00:21:12,340
Om daar maar op onze handen te gaan zitten.

392
00:21:12,340 --> 00:21:17,400
Dus jouw voorbeeld over de call center medewerker.

393
00:21:17,400 --> 00:21:21,640
de medewerker die niet kan samenwerken of niet kan werken met AI.

394
00:21:21,640 --> 00:21:25,800
Die komt al vrij vlot op een achterstand.

395
00:21:25,800 --> 00:21:29,600
En hetzelfde geldt voor de radioloog.

396
00:21:29,600 --> 00:21:31,000
Die gaan we ook niet vervangen door AI.

397
00:21:31,000 --> 00:21:33,360
We laten de radioloog samenwerken met AI.

398
00:21:33,360 --> 00:21:34,460
Dan wordt hij twee keer zo goed.

399
00:21:34,460 --> 00:21:36,980
Maar dat zijn voorbeelden waar het echt om gaat.

400
00:21:36,980 --> 00:21:39,900
En wellicht een later presentatie was van Elon Musk.

401
00:21:39,900 --> 00:21:41,060
Waar het anders werd geportreteerd.

402
00:21:41,060 --> 00:21:44,740
Maar daar kan ik me natuurlijk moeilijk voor verantwoorden.

403
00:21:44,740 --> 00:21:47,380
Waar het mij om gaat is dat ik enorm hoop.

404
00:21:47,380 --> 00:21:50,800
dat we in Nederland AI de kansen daarvan pakken.

405
00:21:50,800 --> 00:21:54,320
Want op het moment is de adoptie in Nederland superlaag.

406
00:21:54,320 --> 00:21:56,800
Lijkt iedereen vooral bevreesd.

407
00:21:56,800 --> 00:21:57,660
En denk ik ja.

408
00:21:57,660 --> 00:22:05,380
Het is niet alsof vanzelf zonder groei de zorg betaalbaar blijft.

409
00:22:05,380 --> 00:22:06,840
Onze welvaartsstaat betaalbaar blijft.

410
00:22:06,840 --> 00:22:08,660
We zullen wel iets met z'n allen moeten gaan doen.

411
00:22:08,660 --> 00:22:09,280
Helemaal mee eens.

412
00:22:09,280 --> 00:22:10,080
Ik maak me daar zorgen over.

413
00:22:10,080 --> 00:22:11,760
Ik wil er nog wel een ding op zeggen.

414
00:22:11,760 --> 00:22:12,780
We mogen dromen.

415
00:22:12,780 --> 00:22:15,580
En we mogen ook bij het realisme en de droom bij elkaar kijken.

416
00:22:15,580 --> 00:22:16,300
Hoe ver zit er vanaf?

417
00:22:16,300 --> 00:22:17,440
En wat willen we daar wel mee?

418
00:22:17,440 --> 00:22:18,420
En wat willen we daar niet mee?

419
00:22:18,420 --> 00:22:22,800
En ik denk dat we inderdaad zo'n Uncanny Valley niet moeten gebruiken om de droom als een nachtmerrie te schetsen.

420
00:22:22,800 --> 00:22:23,780
Maar wel realistisch zijn.

421
00:22:23,780 --> 00:22:24,440
Waar gaan we heen?

422
00:22:24,440 --> 00:22:25,660
En hoe willen we daar komen?

423
00:22:26,660 --> 00:22:31,340
Edo, jij bent kritisch op Nederland en onze blik blijkbaar op AI.

424
00:22:31,340 --> 00:22:35,200
Welke verschillen zie je daarin met Verenigde Staten en Azië?

425
00:22:35,200 --> 00:22:43,780
Ik zie inval dat er in Verenigde Staten en Azië veel meer geïnvesteerd wordt in nieuwe technologie zoals AI.

426
00:22:43,780 --> 00:22:47,640
En ik noemde het net van mijn podium ook al.

427
00:22:47,640 --> 00:22:53,500
Meta investeert dit jaar voor mij zo'n 40 miljard in AI infrastructuur.

428
00:22:53,500 --> 00:22:56,460
Microstof nog een stuk meer.

429
00:22:56,460 --> 00:22:59,400
Ik zie geen equivalenten in Europa.

430
00:22:59,400 --> 00:23:03,060
En dan denk ik ja, dan neemt dat gat waarschijnlijk toe.

431
00:23:03,060 --> 00:23:10,540
Het is interessant dat je dus inderdaad met de vergelijking met Amerika en China het hebt over investeringen.

432
00:23:10,540 --> 00:23:13,380
Dat is wat anders dan de mate waarin wij er gebruik van maken.

433
00:23:13,380 --> 00:23:21,840
Want ik geloof dat het gebruik van dan veelal Amerikaanse AI in Nederland best de goede kant op gaat.

434
00:23:21,840 --> 00:23:25,060
Als je kijkt naar ziekenhuizen, de radiologen die uit jouw voorbeeld.

435
00:23:25,160 --> 00:23:26,880
Ik denk dat er heel veel gebeurt.

436
00:23:26,880 --> 00:23:36,360
Als we dat vergelijk goed willen maken, zou ik wel benieuwd zijn in hoeverre de Amerikaanse burger en bedrijven hier echt gebruik van maken.

437
00:23:36,480 --> 00:23:40,260
Als we daar wat cijfers over hebben, dan vind ik dat we een verre...

438
00:23:40,260 --> 00:23:48,400
Ik zag er dit weekend in het FD waarin stond dat de adoptie in Nederland echt laag is, ook binnen Europa.

439
00:23:48,400 --> 00:23:50,040
Ik heb nu niet cijfers paraat voor Amerika.

440
00:23:50,040 --> 00:23:55,860
Maar ik observeer ook wel dat we allemaal werken met Amerikaanse modellen op basis van Amerikaanse data.

441
00:23:55,860 --> 00:23:57,320
Ik noemde het net geloof ik ook al.

442
00:23:57,880 --> 00:23:59,600
Maar dat is natuurlijk ook een situatie die ik niet per se wil.

443
00:23:59,600 --> 00:24:02,440
Waar blijven de grote Europese spelers?

444
00:24:02,440 --> 00:24:05,260
Kunnen we met z'n allen dat innovatieklimaat creëren?

445
00:24:05,260 --> 00:24:06,280
Dat die wel ontstaan.

446
00:24:06,280 --> 00:24:08,660
Ik zie het nu niet in Nederland of Europa.

447
00:24:08,660 --> 00:24:11,340
Misschien, je noemt me kritisch, maar ik ben ook kritisch op mezelf.

448
00:24:11,340 --> 00:24:12,900
En ik ben ook kritisch op meta.

449
00:24:12,900 --> 00:24:15,640
Maar hier zie ik het gewoon niet.

450
00:24:16,220 --> 00:24:22,560
En laten we eerlijk wezen, met het huidige politieke klimaat gaat het ook voorlopig niet gebeuren.

451
00:24:22,560 --> 00:24:24,140
Weet ik niet.

452
00:24:24,140 --> 00:24:24,620
Ja?

453
00:24:24,620 --> 00:24:25,400
Nee, weet ik niet.

454
00:24:25,400 --> 00:24:33,080
Ik geloof niet dat het klimaat iets zegt over dat we niet naar een Nederlands taalmodel moeten gaan.

455
00:24:33,080 --> 00:24:37,240
Ik denk dat men heel erg chauvinistisch raakt en dat men zegt, nee, vooral een Nederlands taalmodel.

456
00:24:37,240 --> 00:24:39,720
Maar dat zien we nog niet terug in de investeringen.

457
00:24:39,720 --> 00:24:41,520
Nou, er zijn investeringen.

458
00:24:41,520 --> 00:24:43,260
Er is een samenwerking tussen TNO en Surf.

459
00:24:43,260 --> 00:24:45,280
Daar kun je heel veel van vinden, maar daar wordt wel aan gewerkt.

460
00:24:45,520 --> 00:24:46,560
Daar heb je gelijk in.

461
00:24:46,560 --> 00:24:51,320
Dan gaan we richting de afsluiter alweer.

462
00:24:51,320 --> 00:24:52,200
Want de tijd vliegt.

463
00:24:52,200 --> 00:24:53,740
En normaal gesproken hebben we dubbel aan de tijd.

464
00:24:53,740 --> 00:24:54,920
Dus we gaan er wat snel uit de tijd.

465
00:24:54,920 --> 00:24:59,740
Dus nog een vraag voor een uitdaging nu en richting de toekomst.

466
00:24:59,740 --> 00:25:01,460
Als we vijf jaar vooruit mogen kijken.

467
00:25:01,460 --> 00:25:02,380
Ja, vijf jaar.

468
00:25:02,380 --> 00:25:04,260
We zitten op een feestje.

469
00:25:04,260 --> 00:25:05,500
Twee jaar ChatGPT.

470
00:25:05,500 --> 00:25:07,940
Dus vijf jaar is echt een mijlenver weg.

471
00:25:07,940 --> 00:25:10,500
Maar als je kijkt naar mensgerichte AI.

472
00:25:10,500 --> 00:25:11,620
Hoe ziet het er dan uit?

473
00:25:11,620 --> 00:25:14,740
En welke rol spelen bedrijven, onderwijs?

474
00:25:14,820 --> 00:25:16,480
En de overheid hier dan samen.

475
00:25:16,480 --> 00:25:25,160
Nou, het verhaal dat mijn collega Inge noemde ging nog wat verder.

476
00:25:25,280 --> 00:25:29,700
Het was frappant toen zij begon met het zei van het verhaal.

477
00:25:29,700 --> 00:25:33,780
Ze heeft het over een geïmplementeerde chip.

478
00:25:33,780 --> 00:25:37,700
Was hij eigenlijk op dat moment bijna op de markt.

479
00:25:37,700 --> 00:25:38,620
Of op de markt.

480
00:25:38,620 --> 00:25:40,020
Hij was mogelijk.

481
00:25:42,300 --> 00:25:45,100
Dus dat is over, wat is het, zestien jaar?

482
00:25:45,100 --> 00:25:46,580
Dus over vijf jaar.

483
00:25:46,580 --> 00:25:48,580
Ja, ik denk dat het...

484
00:25:48,580 --> 00:26:00,900
Mag ik hopen dat we dan duidelijk hebben over hoe AI ons dagelijks leven een stuk beter kan veraangenamen.

485
00:26:02,240 --> 00:26:04,940
Dat we zicht hebben op de benefits.

486
00:26:04,940 --> 00:26:06,760
Zoals Janiek het ook benoemde.

487
00:26:06,760 --> 00:26:10,540
En niet het verhaal wat we rondom de stofzuiger hadden.

488
00:26:10,540 --> 00:26:12,780
Dat wordt ons leven zoveel makkelijker van.

489
00:26:12,780 --> 00:26:14,800
Uiteindelijk is dat niet gebeurd.

490
00:26:15,380 --> 00:26:18,780
Dus ik hoop toch echt dat het met AI een stuk beter de goede kant op gaat.

491
00:26:18,780 --> 00:26:20,600
Ik ben best enthousiast op mijn robotstofzuiger.

492
00:26:20,600 --> 00:26:21,400
Ja, ik ook wel.

493
00:26:21,400 --> 00:26:24,660
Als ik ook mag inhaken.

494
00:26:24,660 --> 00:26:30,520
Je hebt zo'n uitdrukking in tech van mensen overschatten wat er in een jaar allemaal bereikt kan worden.

495
00:26:30,520 --> 00:26:32,420
Maar onderschatten wat er in vijf jaar bereikt kan worden.

496
00:26:32,420 --> 00:26:36,640
Ik denk dat we echt nog wel wat hoger kunnen mikken en wat verder kunnen mikken.

497
00:26:36,640 --> 00:26:39,540
Ik denk alleen wel dat we het over vijf jaar dat Europa het niet gered heeft.

498
00:26:39,540 --> 00:26:43,120
Om deel van een van de grote foundation models te zijn.

499
00:26:43,120 --> 00:26:45,660
Die onderliggend zijn aan al die AI ontwikkelingen.

500
00:26:45,660 --> 00:26:49,360
Maar ik ben wel optimistisch dat we dan de knop voldoende omgezet hebben.

501
00:26:49,360 --> 00:26:53,180
Dat we op de toepassingen echt wel een significante rol spelen.

502
00:26:53,180 --> 00:26:56,100
En ik hoop ook wel dat we in de slimme brillen.

503
00:26:56,100 --> 00:26:59,000
Waar wat ons betreft die AI ook zeker in zit en deel van is.

504
00:26:59,000 --> 00:27:01,600
Dat we daar als Europa ook echt een rol in spelen.

505
00:27:01,600 --> 00:27:03,140
En misschien wel dat...

506
00:27:03,140 --> 00:27:05,400
We maken die brillen bijvoorbeeld zelf met Ray-Ban.

507
00:27:05,400 --> 00:27:06,280
Dus S-Logic Zaltica.

508
00:27:06,280 --> 00:27:10,740
Dat S-Logic Zaltica echt het Samsung van Europa is geworden.

509
00:27:10,740 --> 00:27:11,880
En van de slimme brillen.

510
00:27:12,180 --> 00:27:13,980
Dat we echt een behoorlijk toontje meeblazen.

511
00:27:13,980 --> 00:27:18,820
Dat klinkt als een hele optimistische kijk op de toekomst.

512
00:27:18,820 --> 00:27:19,600
Dank jullie wel.

513
00:27:19,600 --> 00:27:22,300
Dank jullie wel dat jullie dit met ons wilden doen.

514
00:27:22,300 --> 00:27:24,800
Leuke verschillende inzichten.

515
00:27:24,800 --> 00:27:26,800
Dus ik heb in ieder geval van alles geleerd.

516
00:27:26,800 --> 00:27:27,220
Ik ook.

517
00:27:27,220 --> 00:27:30,880
En dankjewel jullie voor het luisteren.

518
00:27:30,880 --> 00:27:34,120
Vergeet je niet te abonneren via je favoriete podcast app.

519
00:27:34,120 --> 00:27:35,500
Dan mis je geen aflevering.

520
00:27:35,500 --> 00:27:36,340
Tot de volgende keer.

521
00:27:36,340 --> 00:27:39,820
[Muziek]


People on this episode