
AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S07E67 - Toezicht op AI in de Financiële Sector met Frans van Bruggen
In deze aflevering van AIToday Live staat kunstmatige intelligentie centraal. De podcast verkent de nieuwste ontwikkelingen en toepassingen van AI-technologie.
Er wordt ingegaan op de impact van AI op bedrijven en de samenleving. De discussie behandelt zowel technische aspecten als ethische vraagstukken rondom kunstmatige intelligentie.
De aflevering biedt waardevolle inzichten voor zowel beginners als gevorderden in het AI-veld.
Onderwerpen
- Ontwikkelingen in kunstmatige intelligentie
- Toepassingen van AI in verschillende sectoren
- Ethische vraagstukken rondom AI
- Impact van AI op bedrijven en de samenleving
- Technische aspecten van AI-technologie
- Podcast: AIToday Live podcast
- Organisatie: De Nederlandsche Bank
- Boek: Human Compatible door Stuart Russell
- Artikel: Superintelligence door Nick Bostrom
- Onderzoek: Cambridge Analytica schandaal
- Kaartspel: AI Game Changer - Generative AI editie
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:07,000
In deze aflevering hoor je Frans van Brugge, toezichthouder op kunstmatige intelligentie in de financiële sector bij De Nederlandsche Bank,
2
00:00:07,000 --> 00:00:14,000
die uitlegt hoe het spanningsveld tussen strikte regelgeving en innovatie in de praktijk werkt bij financiële instellingen.
3
00:00:14,000 --> 00:00:16,000
Dus blijf luisteren!
4
00:00:18,760 --> 00:00:21,460
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.
5
00:00:22,619 --> 00:00:25,060
Met, nou laten we met onszelf eerst beginnen.
6
00:00:25,380 --> 00:00:26,720
Joop Snijder, CTO bij Aigency.
7
00:00:27,220 --> 00:00:29,180
En Niels Naglé, Area Lead, Data & AI bij Info Support.
8
00:00:29,720 --> 00:00:32,580
En in de studio Frans van Bruggen van De Nederlandsche Bank.
9
00:00:32,910 --> 00:00:38,980
We zijn best wel vereerd, want we hebben voor het eerst iemand van een toezichthouder in de podcast.
10
00:00:40,480 --> 00:00:45,680
Maar voordat we erin duiken in het hele verhaal rondom AI en toezicht, zou je je eerst even willen voorstellen.
11
00:00:45,740 --> 00:00:49,000
Ja, nou allereerst hartelijk dank voor de uitnodiging.
12
00:00:49,040 --> 00:00:52,720
Ik ben een vaste luisteraar en ik vind het altijd heel waardevol om te luisteren.
13
00:00:52,780 --> 00:00:55,760
Het helpt mij heel erg ook in mijn werk, dus ik ben heel blij om hier te zijn.
14
00:00:57,080 --> 00:00:59,540
Mijn naam is Frans van Brugge, ik werk bij de Nederlandse Bank.
15
00:01:00,860 --> 00:01:05,940
Daar hou ik me bezig met het toezicht op kunstmatige intelligentie in de financiële sector.
16
00:01:06,620 --> 00:01:09,660
Misschien goed om even te zeggen, de Nederlandse Bank is eigenlijk twee organisaties.
17
00:01:09,760 --> 00:01:12,240
Dus we hebben de Centrale Bank, die doet het monetaire beleid.
18
00:01:12,400 --> 00:01:15,800
En we hebben de toezichthouder die toezicht houdt op banken, verzekeraars, pensioenfondsen.
19
00:01:16,300 --> 00:01:18,560
En ik werk echt voor de centrale bank.
20
00:01:19,160 --> 00:01:22,300
En ik hou me ook bezig met het toezicht op de financiële sector.
21
00:01:22,340 --> 00:01:25,740
Dus ik hou me niet bezig met AI in de organisatie zelf.
22
00:01:26,040 --> 00:01:28,000
Dus ik kijk echt naar wat gebeurt er in de financiële sector.
23
00:01:29,140 --> 00:01:30,360
Hoe wordt AI daar ingezet?
24
00:01:30,980 --> 00:01:34,080
En wat zijn de risico's, maar ook de kansen van AI daar?
25
00:01:34,280 --> 00:01:36,680
Ja, en hoe ziet toezicht eruit concreet?
26
00:01:38,080 --> 00:01:41,540
Nou, toezicht kan op meerdere manieren gaan.
27
00:01:42,280 --> 00:01:44,740
We hebben natuurlijk sowieso dat het met documenten gaat.
28
00:01:44,930 --> 00:01:47,860
Dus dat er toezichtprocessen zijn waar documenten opgestuurd kunnen worden.
29
00:01:47,940 --> 00:01:49,380
En dat je die documenten kan analyseren.
30
00:01:49,410 --> 00:01:51,680
Maar het gaat ook bijvoorbeeld met gesprekken.
31
00:01:52,740 --> 00:01:55,820
Dat je toezichtsgesprekken hebt en dat je naar de instelling toe gaat.
32
00:01:55,990 --> 00:01:57,700
En over verschillende onderwerpen kan gaan praten.
33
00:01:58,960 --> 00:02:01,420
En dan vorm je daar als toezichthouder je oordeel over.
34
00:02:01,640 --> 00:02:03,900
En dan kun je eventueel een interventie doen.
35
00:02:04,600 --> 00:02:07,700
Dat varieert van, dat doen we dan informele interventies.
36
00:02:07,880 --> 00:02:11,640
Dus dan ga je gewoon het gesprek aan van joh, we vinden dat dit niet helemaal goed loopt.
37
00:02:12,899 --> 00:02:15,480
Maar uiteraard heb je ook een formeel instrumentarium.
38
00:02:15,510 --> 00:02:20,800
En dan kun je boetes opleggen of een aanwijzing opleggen of een last onder dwangsom.
39
00:02:21,020 --> 00:02:25,300
En dat zijn minder leuke dingen, maar het zit wel in ons instrumentarium.
40
00:02:26,099 --> 00:02:28,240
En wie vallen daar onder jullie toezicht?
41
00:02:29,020 --> 00:02:32,400
In principe bij DNB zijn het met name banken, verzekeraars en pensioenfondsen.
42
00:02:33,420 --> 00:02:36,260
De financiële sector is natuurlijk wel breder dan dat.
43
00:02:37,600 --> 00:02:41,380
Maar wij doen het toezicht op de financiële sector samen met de autoriteiten financiële markten.
44
00:02:42,420 --> 00:02:44,340
Wij zijn dan de prudentiële toezichthouders.
45
00:02:44,360 --> 00:02:48,700
Wij kijken met name naar de stabiliteit van het financiële systeem.
46
00:02:48,900 --> 00:02:51,600
En zorgen dat de financiële instellingen niet omvallen.
47
00:02:52,540 --> 00:02:56,320
Daarnaast doen we ook het toezicht op witwassen en terrorismefinanciering.
48
00:02:57,360 --> 00:03:00,280
En de AFM doet ook het toezicht op witwassen en terrorismefinanciering.
49
00:03:00,280 --> 00:03:01,740
Maar bij andere instellingen.
50
00:03:02,160 --> 00:03:04,100
En kijkt meer naar de consumentenbelangen.
51
00:03:05,860 --> 00:03:08,240
en naar de eerlijkheid en integriteit van de financiële markten.
52
00:03:08,470 --> 00:03:08,720
Oh ja.
53
00:03:09,800 --> 00:03:11,100
Hoe zit dan die samenwerking?
54
00:03:11,180 --> 00:03:13,880
Want je hebt nu alle onderdelen die je benoemd.
55
00:03:13,980 --> 00:03:16,040
Maar hoe gaan jullie de samenwerking?
56
00:03:16,270 --> 00:03:16,740
Hoe werkt dat?
57
00:03:17,460 --> 00:03:19,440
Nou, die samenwerking is eigenlijk heel erg goed.
58
00:03:20,500 --> 00:03:21,600
Maar ook schuurt het wel eens.
59
00:03:21,820 --> 00:03:26,400
Want je hebt natuurlijk apart verschillende publieke belangen die je borgt.
60
00:03:27,580 --> 00:03:35,280
Dus het kan wel zijn dat als een financiële instelling een bepaalde maatregel wil invoeren
61
00:03:35,300 --> 00:03:39,080
voor de stabiliteitszorg, dat dat nadelig kan zijn voor consumenten.
62
00:03:40,240 --> 00:03:42,640
Maar over het algemeen is de samenwerking echt supergoed.
63
00:03:42,920 --> 00:03:44,840
En ik denk dat het heel goed is dat twee toezichthouders
64
00:03:44,940 --> 00:03:47,400
vanuit een ander perspectief naar de financiële sector krijgen.
65
00:03:47,620 --> 00:03:49,360
En dan vervolgens samen elkaar gesprekken gaan.
66
00:03:49,380 --> 00:03:51,700
En eigenlijk komen we overal altijd uit.
67
00:03:51,780 --> 00:03:54,840
En er gaat alles heel erg in goed vertrouwen.
68
00:03:55,120 --> 00:03:56,500
En we doen ook heel veel onderzoeken samen.
69
00:03:56,800 --> 00:03:59,520
Dus onderzoek naar AI doen we ook heel erg samen.
70
00:03:59,660 --> 00:04:00,820
We hebben heel erg samen opgebouwd.
71
00:04:00,980 --> 00:04:03,560
En de kennis daaromtrend hebben we heel erg samen opgebouwd.
72
00:04:03,979 --> 00:04:06,020
Dus ik vind het hele prettige collega's.
73
00:04:06,920 --> 00:04:07,580
En kundigen ook.
74
00:04:07,720 --> 00:04:09,360
Dus ik vind dat het heel goed gaat.
75
00:04:09,720 --> 00:04:11,860
Mooi om te horen dat het ook verschillende perspectieven zijn.
76
00:04:11,960 --> 00:04:12,740
En dat het ook mag schuren.
77
00:04:12,760 --> 00:04:14,060
Want dat is denk ik waar de waarde zit.
78
00:04:14,140 --> 00:04:15,820
En de discussie goed gesteld wordt.
79
00:04:16,940 --> 00:04:18,560
Je had het in de introductie niet verteld.
80
00:04:18,579 --> 00:04:19,839
Maar volgens mij ben je ook nog met een studie.
81
00:04:20,060 --> 00:04:20,620
Ja, klopt.
82
00:04:20,740 --> 00:04:22,140
Je hebt wel heel veel raakvlakken hiermee.
83
00:04:22,340 --> 00:04:22,800
Ja, klopt.
84
00:04:23,859 --> 00:04:27,180
Ik promoveer, DNB financieert mijn promotieonderzoek.
85
00:04:27,260 --> 00:04:30,200
Dus ik promoveer twee dagen in de week bij de Universiteit Utrecht.
86
00:04:31,080 --> 00:04:37,620
En daar doe ik eigenlijk onderzoek naar hoe toezichthouders een steeds bredere rol invullen.
87
00:04:38,460 --> 00:04:40,640
En ook hoe ze dat doen met het toezicht op AI.
88
00:04:41,880 --> 00:04:44,300
Dus ja, ik promoveer echt in de toezichtswetenschap.
89
00:04:44,600 --> 00:04:48,620
En ik probeer daar ook te kijken van wat is nou goed toezicht?
90
00:04:48,820 --> 00:04:50,020
En wanneer gaat een toezichthouder te ver?
91
00:04:50,800 --> 00:04:54,360
Wanneer is een toezichthouder te nauw ergens opgericht?
92
00:04:54,740 --> 00:04:57,400
En heeft ze niet meer ogen voor de bredere taak die ze hebben?
93
00:04:57,700 --> 00:04:59,480
Heb je daar een voorbeeld van? Hoe moeten we dat zien?
94
00:05:00,480 --> 00:05:08,060
Nou, ik denk dat in het vorige decennium zijn er wel voorbeelden geweest van toezichthouders die op de vingers zijn getikt.
95
00:05:08,700 --> 00:05:12,420
Omdat ze eigenlijk teveel naar de letter van de wet hebben gehandeld.
96
00:05:13,080 --> 00:05:16,240
Een voorbeeld daarvan is in het Vira de Bakel geweest.
97
00:05:17,140 --> 00:05:20,740
We weten allemaal hoe dat gegaan is, maar daar zijn miljarden uitgegeven.
98
00:05:20,800 --> 00:05:23,700
En die treinen voldeden niet goed genoeg aan de standaarden.
99
00:05:24,440 --> 00:05:26,120
En daar was een toezichthouder die de treinen toetste.
100
00:05:26,160 --> 00:05:28,840
En die zeiden volgens de wet hebben we alle procedures zo doorlopen.
101
00:05:29,420 --> 00:05:33,500
Terwijl als je iets breder had gekeken, dan had je wel kunnen weten van het zit niet helemaal goed.
102
00:05:33,800 --> 00:05:35,360
En toen is er een parlementaire enquête geweest.
103
00:05:35,840 --> 00:05:40,660
En toen is de toezichthouder heel erg, in dit geval de inspectie, leefomgeving en transport,
104
00:05:40,800 --> 00:05:46,180
heel erg op de vingers getikt van je moet je taak wel wat breder interpreteren dan dit.
105
00:05:47,500 --> 00:05:51,840
Een ander voorbeeld is in de financiële crisis geweest met ISAF.
106
00:05:53,420 --> 00:05:55,540
ISAF is natuurlijk failliet gegaan, de IJslandse Bank.
107
00:05:56,560 --> 00:05:58,720
En vlak voordat ze failliet gingen, volgens mij een paar maanden daarvoor,
108
00:05:58,790 --> 00:06:03,940
heeft DNB nog een vergunning afgegeven dat ze in Nederland actief mochten zijn.
109
00:06:04,720 --> 00:06:06,940
En toen hebben ze nog heel veel geld uit de Nederlandse markt getrokken.
110
00:06:07,120 --> 00:06:07,920
Klopt, inderdaad.
111
00:06:10,220 --> 00:06:13,700
En het verweer was toen, daar is ook een parlementaire enquête na geweest,
112
00:06:13,800 --> 00:06:17,620
en het verweer was toen van volgens de letter van de wet voldeden ze.
113
00:06:17,880 --> 00:06:19,000
En toen zeiden we die vergunning moeten geven.
114
00:06:19,560 --> 00:06:21,980
Maar toen was ook de gedachte van breder maatschappelijk,
115
00:06:22,690 --> 00:06:25,820
had je al kunnen voelen aankomen dat het niet helemaal lekker ging.
116
00:06:26,020 --> 00:06:29,820
Ook als je keek naar het bankieren systeem van IJsland ten opzichte van de economie.
117
00:06:30,070 --> 00:06:32,360
Dat was ook een waterhoofd een beetje.
118
00:06:34,120 --> 00:06:37,040
En daar had je dan als toezichthouder je rol breder moeten pakken.
119
00:06:37,560 --> 00:06:40,460
Hoe zou je nu de rol breder moeten pakken op het gebied van AI dan?
120
00:06:41,420 --> 00:06:45,600
Ja, nou ik kijk heel erg naar value alignment.
121
00:06:47,540 --> 00:06:54,840
Dus een deel van mijn promotieonderzoek gaat over dat toezichthouders bepaalde publieke waarden proberen te borgen.
122
00:06:55,200 --> 00:06:58,980
Wat ik net al zei is van D&B, stabiliteit van het financiële systeem.
123
00:07:00,400 --> 00:07:05,500
En AFM, consumentenbescherming van financiële markten.
124
00:07:06,740 --> 00:07:07,920
AP, privacy.
125
00:07:08,570 --> 00:07:12,640
Dus er zijn gewoon bepaalde publieke waarden die je probeert te borgen.
126
00:07:13,340 --> 00:07:16,080
En wat denk ik erg belangrijk is, is dat bij AI,
127
00:07:16,790 --> 00:07:23,200
dus value alignment is een onderdeel van de ethische studie van artificial intelligence,
128
00:07:23,320 --> 00:07:32,160
Dat je eigenlijk wil dat de uitkomsten van artificial intelligence overeenkomstig zijn met het waardesysteem wat wij als mensen hebben.
129
00:07:33,639 --> 00:07:39,040
En ik denk daarom dat je ook als toezichthouder heel erg vanuit een waardeperspectief naar die AI moet kijken.
130
00:07:39,190 --> 00:07:42,120
En moet kijken van oké, hoe zijn de uitkomsten van die AI nou?
131
00:07:42,690 --> 00:07:45,960
Hoe verhoudt dat zich nou tot het publieke doel wat wij hebben?
132
00:07:46,450 --> 00:07:48,460
En de waarde die wij proberen te realiseren.
133
00:07:48,460 --> 00:07:51,000
Dat is best wel lastig, want van wie zijn die waarden?
134
00:07:51,700 --> 00:07:52,500
Ja, dat is heel lastig.
135
00:07:52,600 --> 00:07:56,620
Dus als je bijvoorbeeld kijkt naar de foundation models die er nu zijn.
136
00:07:57,260 --> 00:07:58,960
Die zijn voor een heel groot deel niet Europees.
137
00:07:59,720 --> 00:08:02,500
Dus we hebben Mistral die doet het goed.
138
00:08:03,080 --> 00:08:04,040
Maar dat is eigenlijk de enige.
139
00:08:04,100 --> 00:08:05,960
Voor de rest hebben we veel Amerikaanse clubs.
140
00:08:06,180 --> 00:08:11,040
Antropic, OpenAI, Google en de Chinezen natuurlijk, DeepSeek.
141
00:08:12,340 --> 00:08:16,580
En de vraag die je zelf kan stellen, is het waardesysteem die in dat model zit?
142
00:08:16,800 --> 00:08:21,820
Komt dat overeen met de waarden die wij in Europa, Nederland hebben?
143
00:08:23,280 --> 00:08:24,840
ik vind dat een hele legitieme vraag
144
00:08:26,300 --> 00:08:27,480
zowel over de Verenigde Staten
145
00:08:27,620 --> 00:08:28,620
als over China overigens
146
00:08:30,139 --> 00:08:30,460
en
147
00:08:31,840 --> 00:08:33,080
daar moeten we dus ook scherp op zijn
148
00:08:33,240 --> 00:08:35,340
dus ik denk dat je gewoon heel kritisch moet kijken
149
00:08:35,460 --> 00:08:36,700
naar hoe zijn die modellen opgebouwd
150
00:08:36,760 --> 00:08:37,760
wat zijn die uitkomsten van die modellen
151
00:08:37,840 --> 00:08:39,039
en daar wordt ook heel veel onderzoek naar gedaan
152
00:08:39,900 --> 00:08:42,000
en ik denk dat we daar scherp op moeten zijn
153
00:08:42,159 --> 00:08:43,980
en als we het gevoel hebben van
154
00:08:44,780 --> 00:08:47,240
dat gaat een kant op die we niet zo fijn vinden
155
00:08:47,780 --> 00:08:49,000
dat je ook moet kijken naar
156
00:08:49,159 --> 00:08:50,739
wat zijn de Europese alternatieven
157
00:08:51,060 --> 00:08:53,560
waar wel die Europese waarden in meegenomen zijn.
158
00:08:53,900 --> 00:08:56,840
Ik kan me voorstellen dat het qua toezicht best wel heel erg lastig is.
159
00:08:57,409 --> 00:09:05,120
Want welke waarden erin zitten, geef je al aan, dat is eigenlijk al best wel lastig om te toetsen.
160
00:09:06,540 --> 00:09:09,540
Wat zou een financiële instelling daarin moeten doen dan?
161
00:09:10,420 --> 00:09:15,540
Ja, kijk, de studie naar waarden, dat heet axiologie in de filosofie.
162
00:09:16,339 --> 00:09:18,680
Die discussie wordt al duizenden jaar gevoelig.
163
00:09:18,700 --> 00:09:22,700
Dus ik heb niet de illusie dat wij als toezichthouder dat gaan beslechten.
164
00:09:23,680 --> 00:09:28,380
Dus dat zal eigenlijk een soort van continue dialoog vragen over wat je keuzes zijn.
165
00:09:28,580 --> 00:09:31,080
En kijk, ik denk dat je gewoon heel erg moet nadenken.
166
00:09:31,260 --> 00:09:36,160
Iets waar ik heel erg over nadenken is van oké, moeten de beslissingen hierover,
167
00:09:36,280 --> 00:09:39,540
de normatieve beslissingen, de morele beslissingen, moeten die van de toezichthouder komen?
168
00:09:40,240 --> 00:09:42,300
Of van de instelling die onder toezicht staat?
169
00:09:44,040 --> 00:09:44,800
Of in dialoog.
170
00:09:46,540 --> 00:09:49,420
En de vraag is dus van wie maakt die normatieve beslissingen.
171
00:09:49,500 --> 00:09:54,100
En ik vind dat die verantwoordelijkheid ook zeker bij instellingen ligt die onder toezicht staan.
172
00:09:54,200 --> 00:10:04,340
Dus als jij een hoogrisicomodel draait, dan denk ik dat het heel goed is dat je in je technische documentatie iets zegt over algorithmic fairness natuurlijk.
173
00:10:04,430 --> 00:10:08,320
Dus de verschillende metrics die je kan gebruiken, maar ook misschien breder.
174
00:10:08,440 --> 00:10:13,640
Dit zijn de waarden op basis waarvan wij handelen en dit model deployen.
175
00:10:14,900 --> 00:10:17,840
Dus dat zou ik heel mooi vinden als dat gebeurt.
176
00:10:18,080 --> 00:10:21,280
En ik denk dat als ik het heb over de financiële sector,
177
00:10:21,580 --> 00:10:23,840
die partijen ook het best geëquipeerd zijn om dat te doen.
178
00:10:24,020 --> 00:10:25,620
Daar zit gewoon echt talent die dit kan.
179
00:10:27,000 --> 00:10:30,340
En dat je dan vervolgens daarover, dat staat in de technische documentatie,
180
00:10:30,440 --> 00:10:32,600
en dan gaan wij daar als toezichthouder dan het gesprek over aan.
181
00:10:33,080 --> 00:10:34,740
En dat lijkt mij prachtig om dat te doen.
182
00:10:34,860 --> 00:10:35,000
Zeker.
183
00:10:35,420 --> 00:10:35,500
Ja.
184
00:10:36,540 --> 00:10:40,580
En welke rol speelt, want je haalde hem al even aan, de AI Act hierin?
185
00:10:41,180 --> 00:10:43,660
Ja, de AI Act speelt natuurlijk een grote rol.
186
00:10:43,960 --> 00:10:50,400
Dus toezichthouders krijgen een hele grote rol in het zorgen dat die act wordt nageleefd.
187
00:10:53,200 --> 00:10:57,260
Dus het toezichtsregime op de AI-act wordt nationaal ingericht.
188
00:10:57,260 --> 00:11:00,620
Dus in Nederland wordt dat nationaal opgezet.
189
00:11:01,220 --> 00:11:05,340
En er zijn eigenlijk twee toezichthouders die de boel coördineren.
190
00:11:05,340 --> 00:11:11,000
Dat zijn de autoriteit persoonsgegevens en de Rijksinspectie Digitale Infrastructuur, de RDI.
191
00:11:11,940 --> 00:11:15,740
Goed is om over de AP te zeggen, je hebt natuurlijk de GDPR kant.
192
00:11:16,240 --> 00:11:17,960
En zij hebben een aparte directie opgericht.
193
00:11:18,480 --> 00:11:22,420
De directiecoördinatie algoritmes onder leiding van directeur Sven Stevenson.
194
00:11:23,780 --> 00:11:25,940
Die zich eigenlijk focussen op het algoritmetoezicht.
195
00:11:26,200 --> 00:11:27,820
Dat is een aparte tak binnen de AP.
196
00:11:29,580 --> 00:11:32,660
En die gaan de coördinerende rol krijgen op de AI Act.
197
00:11:32,780 --> 00:11:35,240
En AFM en DNB gaan het dan voor de financiële sector doen.
198
00:11:35,920 --> 00:11:38,380
Dat is hoe het toezichtsmeem is ingericht.
199
00:11:39,320 --> 00:11:45,640
En de AI Act, ik vind het mooi, omdat die risicogebaseerde benadering erin zit.
200
00:11:47,860 --> 00:11:51,980
Dat zorgt ervoor dat een heel groot deel van de AI-toppassingen gewoon niet gereguleerd zijn.
201
00:11:52,120 --> 00:11:57,680
En dat zorgt ervoor dat als je kijkt naar Agentic, als dat niet hoog risico is, dan kan dat gewoon.
202
00:11:58,240 --> 00:12:00,140
Dus we kunnen daar heel erg angstig over doen.
203
00:12:00,220 --> 00:12:04,400
Ik denk dat het onvermijdelijk is dat het gebeurt al.
204
00:12:05,840 --> 00:12:07,280
Dat heb ik heel erg van Niels geleerd.
205
00:12:07,690 --> 00:12:11,060
De nieuwe wave of automization gaat dat worden.
206
00:12:12,720 --> 00:12:14,820
Dus dat geeft ook heel veel mogelijkheden weer.
207
00:12:15,180 --> 00:12:16,260
Niet alles is hoog risico.
208
00:12:16,920 --> 00:12:18,960
Dus er wordt nog wat angst over gedaan.
209
00:12:19,220 --> 00:12:21,800
Maar kijkend naar de AI Act.
210
00:12:23,280 --> 00:12:25,920
Wat zijn ontwikkelingen die de komende tijd staan te spelen?
211
00:12:26,030 --> 00:12:27,860
Want het is nog niet allemaal van kracht.
212
00:12:27,980 --> 00:12:31,300
Hebben jullie nu alle zaken om de toezicht goed te kunnen doen?
213
00:12:31,430 --> 00:12:34,360
Of zijn er nog zaken waar we nog mogelijkheden in groei zien?
214
00:12:35,880 --> 00:12:41,780
Nou, dat is inderdaad lastig, omdat de definitieve aanwijzing van de toezichthouders nog niet rond is.
215
00:12:41,860 --> 00:12:43,600
Dus dat verwachten we eind deze zomer.
216
00:12:44,750 --> 00:12:46,580
Een deel van de AI Act is al in werking getreden.
217
00:12:46,660 --> 00:12:49,800
Dus de verboden toepassingen zijn al verboden, maar er is nog geen toezichthouder.
218
00:12:50,800 --> 00:12:54,800
De AI Geletterdheid-normen zijn al van toepassing.
219
00:12:54,950 --> 00:12:59,480
En over een jaar, in augustus 2026, gaan de high-risk toepassingen,
220
00:12:59,800 --> 00:13:02,560
of de requirements voor mitigerende maatregelen, in.
221
00:13:02,720 --> 00:13:03,940
En dan start ook het toezicht daarop.
222
00:13:06,500 --> 00:13:07,820
Dus we zijn nog bezig
223
00:13:07,960 --> 00:13:11,180
En wat vooral op dit moment nog in ontwikkeling is
224
00:13:11,190 --> 00:13:13,120
Is het regulatory framework
225
00:13:13,700 --> 00:13:14,660
En dat is gewoon van
226
00:13:15,120 --> 00:13:16,340
Oké, je hebt dan die hoog risico
227
00:13:16,460 --> 00:13:18,240
Dus bij verboden toepassing is het gewoon mag niet
228
00:13:18,420 --> 00:13:18,940
Dat is al simpel
229
00:13:19,900 --> 00:13:21,580
Maar als je kijkt naar de hoog risico toepassing
230
00:13:21,650 --> 00:13:24,400
Dan zijn er gewoon bepaalde dingen waar die hoog risicomodellen aan moeten voldoen
231
00:13:24,480 --> 00:13:26,920
Dus conformity assessment, technische documentatie
232
00:13:27,580 --> 00:13:27,940
Risicomanagement
233
00:13:29,520 --> 00:13:29,880
Datamanagement
234
00:13:32,020 --> 00:13:32,740
Fairness, uitlegbaarheid
235
00:13:32,940 --> 00:13:33,960
Human in the loop
236
00:13:33,980 --> 00:13:35,040
Allemaal dingen waar je aan moet voldoen.
237
00:13:36,500 --> 00:13:39,660
Ik verwacht dat het in eerste instantie een sterk papieren exercitie zou zijn.
238
00:13:39,800 --> 00:13:43,140
Dus allemaal rapportjes die je naar de toezichthouder stuurt.
239
00:13:45,600 --> 00:13:47,920
Ik denk dat het toezichthouder, maar dat is allemaal nog in ontwikkeling.
240
00:13:48,020 --> 00:13:50,820
Mijn verwachting is dat daarna als toezichthouder of meldingen krijgt.
241
00:13:50,840 --> 00:13:53,780
Of in de technische documentatie of in de documenten iets ziet wat ze niet vertrouwen.
242
00:13:53,780 --> 00:13:57,400
Dat je dan een auditachtige activiteit kan gaan doen.
243
00:13:59,180 --> 00:14:03,320
Maar op dit moment is Sen Sennelec, dat is de Europese standaardiseringsorganisatie.
244
00:14:03,500 --> 00:14:07,300
Dus de Europese NEN en ISO is de wereldwijde organisatie die dat doet.
245
00:14:07,940 --> 00:14:13,600
Die heeft een opdracht van de Europese Commissie gekregen om die mitigerende maatregelen te standaardiseren.
246
00:14:14,300 --> 00:14:16,820
En dat is een project wat aardig tijdrovend is.
247
00:14:18,260 --> 00:14:21,220
En dat zou voor een heel groot deel zo dat het regulatory framework gaan zijn.
248
00:14:21,420 --> 00:14:22,680
En dat is gewoon nog niet af.
249
00:14:23,000 --> 00:14:26,560
En er wordt gezegd dat dat in augustus dit jaar af is.
250
00:14:26,700 --> 00:14:30,220
Maar ik hoor ook weer in de wandelgangen dat dat ook weer te vroeg is.
251
00:14:31,760 --> 00:14:36,280
Dus het is heel waarschijnlijk dat we in een situatie gaan komen dat de toezicht gaat starten.
252
00:14:37,120 --> 00:14:43,380
Dat je als organisatie formeel compliant moet zijn, maar er nog geen uitgekristalliseerd regulatory framework is.
253
00:14:43,480 --> 00:14:46,500
En dan moeten we het gewoon een beetje samen gaan uitzoeken hoe we dat dan moeten gaan doen.
254
00:14:46,940 --> 00:14:51,740
En misschien zoom ik nu even heel erg op een specifiek detail in hoor.
255
00:14:52,420 --> 00:14:55,900
Maar de uitlegbaarheid, dat wordt altijd best wel heel snel genoemd.
256
00:14:58,360 --> 00:15:02,880
De generatieve AI is nu waar heel veel organisaties naar kijken.
257
00:15:03,080 --> 00:15:04,680
Ik neem aan ook in de financiële sector.
258
00:15:05,480 --> 00:15:10,160
Hoe moet ik die uitlegbaarheid zien ten opzichte van die grote taalmodellen bijvoorbeeld?
259
00:15:10,880 --> 00:15:13,240
Hoe kijk je daar vanuit het toezicht naar?
260
00:15:14,540 --> 00:15:17,320
Nou, hier zijn we nog over aan het nadenken.
261
00:15:17,440 --> 00:15:20,940
Maar wat ik denk is, kijk, die grote taalmodellen zijn gewoon niet uitlegbaar.
262
00:15:21,180 --> 00:15:25,120
Dus volgens mij, dat is misschien alweer een oudere versie van ChatGPT.
263
00:15:25,140 --> 00:15:27,180
Die had 1,8 miljoen parameters.
264
00:15:27,580 --> 00:15:30,920
Dus die zijn inherent onuitlegbaar.
265
00:15:31,720 --> 00:15:36,900
Zelfs als je zou weten hoe die van woord naar woord komt, is de vraag of dat een uitleg is.
266
00:15:37,100 --> 00:15:42,200
Ja, dus dat is wellicht een probleem.
267
00:15:42,960 --> 00:15:48,020
Kijk, als je zo'n model inzet in een hoog risicotoepassing, dan is er een eis dat het uitlegbaar is.
268
00:15:48,820 --> 00:15:50,860
En dat kan dan mogelijk tot problemen leiden.
269
00:15:53,200 --> 00:16:00,680
Ik ben zelf van mening dat het inzetten van die taalmodellen, dat je niet kan zeggen dat dat kan niet.
270
00:16:01,459 --> 00:16:09,080
Want de komende 20, 25 jaar wordt dat gewoon de volgende, wat het internet de afgelopen 25 jaar is geweest, wordt AI de komende 25 jaar.
271
00:16:09,160 --> 00:16:10,940
Daar spelen die taalmodellen een grote rol in.
272
00:16:11,020 --> 00:16:14,580
Als we gaan zeggen van ja, we gaan het niet gebruiken, dan gaan we economisch zo ver achterlopen.
273
00:16:14,600 --> 00:16:15,400
Dat is dus niet mogelijk.
274
00:16:16,180 --> 00:16:18,600
Dus ik denk dan van oké, hoe ga je daar dan mee om?
275
00:16:19,940 --> 00:16:23,880
Eerste punt misschien om te maken is dat als je kijkt naar de mens.
276
00:16:25,200 --> 00:16:28,260
De input versus output en wat daartussen zit is ook niet heel erg transparant.
277
00:16:28,660 --> 00:16:33,620
Dus hoe wij dat dan aanpakken is door de output van de mens te controleren.
278
00:16:33,740 --> 00:16:34,560
Dus daar maken we wetten voor.
279
00:16:34,760 --> 00:16:38,240
En als je de output van de mens iets crimineels is, dan ga je de gevangenis in.
280
00:16:38,380 --> 00:16:40,240
En zo zou je dat bijvoorbeeld dan ook met AI kunnen doen.
281
00:16:40,300 --> 00:16:46,920
Dus ik denk dat er best veel maatregelen zijn die je kan nemen buiten een intransparant model.
282
00:16:47,120 --> 00:16:49,140
Om die ervoor kunnen zorgen dat de schade beperkt is.
283
00:16:49,320 --> 00:16:51,280
Dus eigenlijk niet technische oplossingen.
284
00:16:51,780 --> 00:16:54,660
Ja, en technische oplossingen zouden natuurlijk nog beter zijn.
285
00:16:55,600 --> 00:16:57,260
Dus daar wordt ook heel veel onderzoek naar gedaan.
286
00:16:57,380 --> 00:16:59,140
En ik ben ook groot voorstander van dat gebeurt.
287
00:16:59,260 --> 00:17:01,020
Want liever dat het wel zo is.
288
00:17:01,600 --> 00:17:04,619
En ik denk gewoon, je moet gewoon wel heel goed nadenken.
289
00:17:06,060 --> 00:17:07,520
Als je het echt op kritieke momenten inzet.
290
00:17:07,619 --> 00:17:11,200
Dus bijvoorbeeld als je bepaalt of iemand wel of niet recht heeft op een uitkering.
291
00:17:12,380 --> 00:17:15,660
Dan heeft een burger gewoon een recht, een mensenrecht.
292
00:17:15,920 --> 00:17:17,880
Om uitleg te hebben waarom die keuze gemaakt is.
293
00:17:18,579 --> 00:17:22,119
En dan moet je gewoon zorgen, in dit geval dan als publieke instelling, dat je dat kan doen.
294
00:17:22,490 --> 00:17:27,180
En dan is het de verantwoordelijkheid van de organisatie om te zorgen dat dat adequaat gebeurt.
295
00:17:27,240 --> 00:17:31,060
En taalmodellen zijn niet het enige wat we in onze toolbox hebben zitten.
296
00:17:31,240 --> 00:17:32,040
Zeker niet.
297
00:17:32,480 --> 00:17:37,640
Dus er zijn hele uitlegbare machine learning modellen die daar dan eigenlijk voor gebruikt zouden kunnen worden.
298
00:17:38,079 --> 00:17:44,360
Ja, ik vond het heel mooi in volgens mij de vorige aflevering die jullie hadden gefocust op machine learning.
299
00:17:45,480 --> 00:17:48,640
Vroeger in de machine learning tijd werd over good old-fashioned AI gesproken.
300
00:17:48,700 --> 00:17:49,680
Over de expertsystemen.
301
00:17:49,690 --> 00:17:51,280
Dat ging nu een beetje over machine learning.
302
00:17:51,630 --> 00:17:53,100
Good old-fashioned AI te worden.
303
00:17:53,320 --> 00:17:55,280
De traditionele machine learning wordt het al genoemd.
304
00:17:55,430 --> 00:17:55,860
Ja, precies.
305
00:17:55,980 --> 00:17:58,280
Ik noem het altijd predictive AI.
306
00:17:58,920 --> 00:18:00,780
En als ik kijk naar de financiële sector.
307
00:18:00,920 --> 00:18:03,620
Maar ik neem aan dat jullie het ook breder dan de financiële sector zien.
308
00:18:04,730 --> 00:18:07,500
Is het groeipotentieel van machine learning nog gigantisch.
309
00:18:08,100 --> 00:18:09,940
Daar is nog zo ongelooflijk veel winst te behalen.
310
00:18:10,080 --> 00:18:13,180
En er zijn ook gewoon problemen die veel beter.
311
00:18:13,460 --> 00:18:14,680
Wat jullie ook in die podcast zeiden.
312
00:18:14,840 --> 00:18:16,380
Gewoon eigenlijk een machine learning probleem.
313
00:18:16,760 --> 00:18:19,300
Waar nu een GNI oplossing tegen aangedrukt wordt.
314
00:18:19,400 --> 00:18:20,620
Terwijl dat niet de beste oplossing is.
315
00:18:21,520 --> 00:18:23,460
Dus ik zeg heel vaak tegen.
316
00:18:23,570 --> 00:18:25,040
Dus als je kijkt naar financiële instellingen.
317
00:18:25,300 --> 00:18:26,820
Waar nog veel ruimte zit voor machine learning.
318
00:18:26,850 --> 00:18:28,380
Als je bijvoorbeeld kijkt naar transactie monitoring.
319
00:18:29,120 --> 00:18:29,800
Daar worden op dit moment.
320
00:18:30,010 --> 00:18:31,560
Dus dat is een plicht die banken hebben.
321
00:18:31,660 --> 00:18:34,960
Om verdachte transacties voor witwassen of terrorisme financiering te detecteren.
322
00:18:35,460 --> 00:18:37,920
Dat gaat voor een heel groot deel nu nog met rule based systemen.
323
00:18:38,940 --> 00:18:40,760
Nou model performance is niet geweldig dan.
324
00:18:41,040 --> 00:18:42,660
Zoals jullie dat zeker wel kunnen inschatten.
325
00:18:43,140 --> 00:18:45,120
En dat hebben wij als DNB ook gezegd.
326
00:18:45,260 --> 00:18:46,700
Ga alsjeblieft die machine learning gebruiken.
327
00:18:46,800 --> 00:18:47,960
Want dan gaat je model performance omhoog.
328
00:18:48,020 --> 00:18:52,560
En dan kunnen we gewoon beter detecteren wat dirty money is.
329
00:18:53,580 --> 00:18:55,080
En dat wil niet zeggen dat je gelijk over hoeft te stappen.
330
00:18:55,080 --> 00:18:56,240
Maar ga hem daarnaast opbouwen.
331
00:18:56,380 --> 00:18:57,860
Ga opbouwen die kennis.
332
00:18:58,120 --> 00:18:59,600
En zorg dat het ernaast gaat draaien.
333
00:18:59,740 --> 00:19:00,600
Doe je validaties.
334
00:19:00,700 --> 00:19:03,560
En laat je daardoor inspireren tot inzichten die je daarvoor niet had.
335
00:19:03,800 --> 00:19:04,820
Ja, en dan is de vraag.
336
00:19:05,100 --> 00:19:05,720
Want dat gebeurt.
337
00:19:06,620 --> 00:19:07,780
Het wordt er wel naast ontwikkeld.
338
00:19:07,840 --> 00:19:08,320
Maar dan is de vraag.
339
00:19:08,620 --> 00:19:09,920
Durf je de zijwieltjes eraf te halen?
340
00:19:10,540 --> 00:19:12,220
En durf je echt over te stappen op het nieuwe model?
341
00:19:12,880 --> 00:19:16,440
En dan komt de toezichthouder ook weer in beeld.
342
00:19:16,480 --> 00:19:18,660
Want dan is weer de vraag van, oké, wat vindt de toezichthouder ervan?
343
00:19:19,760 --> 00:19:23,960
En dan vind ik dat wij als toezichthouder ook de plicht hebben om serieus te kijken.
344
00:19:24,080 --> 00:19:25,460
Van, hé, is dit goed?
345
00:19:25,800 --> 00:19:28,420
Dient dit de publieke belangen die wij borgen?
346
00:19:29,160 --> 00:19:30,480
Is het ook goed voor de financiële instelling?
347
00:19:30,580 --> 00:19:31,920
Is het goed voor de burger, voor de klant?
348
00:19:33,180 --> 00:19:34,860
En ik denk in dit geval dat dat zo is.
349
00:19:35,860 --> 00:19:40,560
Dus dan gaan we er ook in dialoog voor zorgen dat die deployment op een verantwoorde manier gaat.
350
00:19:41,440 --> 00:19:42,880
Ik vind dat de banken dat fantastisch doen.
351
00:19:42,990 --> 00:19:44,380
Dus ik ben er echt heel positief over.
352
00:19:44,860 --> 00:19:45,300
Mooi.
353
00:19:45,480 --> 00:19:49,920
En ik denk wat je zegt, de deployment en het monitoring en het proces eromheen,
354
00:19:50,010 --> 00:19:54,500
die moet natuurlijk goed gewaarborgd zijn om model drift en dergelijke te kunnen spotten.
355
00:19:55,060 --> 00:19:56,500
En goed in controle te blijven.
356
00:19:57,080 --> 00:20:00,440
Wel een interessant spanningsveld tussen innovatie en toezicht.
357
00:20:02,020 --> 00:20:03,380
Hoe zie je die balans op dit moment?
358
00:20:05,220 --> 00:20:07,420
Ja, daar zijn heel veel verschillende denkbeelden over.
359
00:20:08,580 --> 00:20:10,660
Ik ben zelf heel erg pro innovatie.
360
00:20:10,840 --> 00:20:12,080
Ik ben ook echt een techno-optimist.
361
00:20:13,500 --> 00:20:17,220
Dus hoe ik het zie is dat innovatie...
362
00:20:17,220 --> 00:20:19,980
Kijk, als je een gezonde, stabiele financiële sector wil...
363
00:20:19,980 --> 00:20:22,640
is innovatie daar een heel belangrijk onderdeel van.
364
00:20:22,720 --> 00:20:26,380
Want anders kun je als financiële sector niet bijblijven met wat er gebeurt.
365
00:20:26,840 --> 00:20:29,700
En dan verouder je en dan kun je niet meer de diensten verlenen...
366
00:20:29,700 --> 00:20:32,160
aan de Nederlandse maatschappij die zouden kunnen.
367
00:20:33,180 --> 00:20:36,040
Dus ik vind het een inherent onderdeel van ons toezicht.
368
00:20:37,220 --> 00:20:39,680
Er zijn ook toezichthouders die dat wat minder vinden.
369
00:20:39,880 --> 00:20:43,820
Die zeggen van toezicht, wij zijn niet consultants.
370
00:20:44,280 --> 00:20:45,780
Dus wij gaan niet vertellen wat wel en niet mag.
371
00:20:45,880 --> 00:20:47,540
En het moet echt vanuit de sector zelf komen.
372
00:20:48,220 --> 00:20:49,800
Ook daarvoor heb ik wel heel veel begrip.
373
00:20:51,020 --> 00:20:52,540
Dus een element wat ook in de AI-ject zit.
374
00:20:52,860 --> 00:20:54,500
Bijvoorbeeld zijn de regulatory sandboxes.
375
00:20:56,140 --> 00:20:57,280
Kun je uitleggen wat dat is?
376
00:20:57,560 --> 00:21:00,000
Een regulatory sandbox is eigenlijk een omgeving.
377
00:21:00,220 --> 00:21:04,840
Waar toezichthouders een soort van loket hebben.
378
00:21:05,120 --> 00:21:07,380
Waar vragen gesteld kunnen worden over wetgeving.
379
00:21:07,500 --> 00:21:09,740
En waarin dan geëxperimenteerd kan worden.
380
00:21:10,700 --> 00:21:12,260
en de vraag is dan van
381
00:21:13,240 --> 00:21:15,100
wat is de interpretatie van experimenteren
382
00:21:15,520 --> 00:21:17,040
en een collega van mij
383
00:21:17,100 --> 00:21:18,500
aan de universiteit Utrecht
384
00:21:18,550 --> 00:21:20,360
die is gepromoveerd op regulatory sandboxes
385
00:21:20,390 --> 00:21:21,980
en haar conclusie is eigenlijk dat de
386
00:21:23,520 --> 00:21:24,340
verwachtingen verschillend zijn
387
00:21:24,470 --> 00:21:25,620
van de toezichthouder en
388
00:21:26,250 --> 00:21:28,160
dat zijn het vaak start-ups of techbedrijven
389
00:21:28,170 --> 00:21:28,880
die daar dan in komen
390
00:21:30,030 --> 00:21:31,700
en de toezichthouder zegt eigenlijk
391
00:21:32,480 --> 00:21:33,480
vaak van we gaan
392
00:21:34,200 --> 00:21:35,380
de wetten zijn gewoon van toepassing
393
00:21:35,610 --> 00:21:37,260
dus we kunnen niet zeggen van je komt in een soort van
394
00:21:38,000 --> 00:21:39,760
wetteloze zonde terecht en je kan maar gaan experimenteren
395
00:21:39,760 --> 00:21:44,320
commenteren. Terwijl de startups vaak het gevoel hebben dat die mogelijkheden er wel zijn. Dus heel
396
00:21:44,560 --> 00:21:50,840
vaak zijn die omgevingen moeilijk. En de omgeving waar het wel lukt, dat is met name in Engeland,
397
00:21:51,080 --> 00:21:57,040
bij de Financial Conduct Authority. Dus dat is een soort van AFM en ACM gecombineerd in Engeland.
398
00:21:58,180 --> 00:22:04,200
Daar werkt het. En ze hebben nu een sandbox geopend met NVIDIA. En het werkt daarom dat ze in hun
399
00:22:04,360 --> 00:22:08,820
juridische mandaat, dus eigenlijk de opdracht die ze van de wetgever krijgen, staat van het is ook
400
00:22:08,840 --> 00:22:10,240
jouw taak om innovatie te bevorderen.
401
00:22:11,360 --> 00:22:12,740
En hetzelfde zie je in
402
00:22:13,200 --> 00:22:14,220
Singapore. Dus de
403
00:22:15,300 --> 00:22:16,440
Monetary Authority of Singapore
404
00:22:16,920 --> 00:22:18,620
heeft hetzelfde. Daar is ook een heel goed
405
00:22:18,860 --> 00:22:19,500
functionerende sandbox.
406
00:22:20,920 --> 00:22:22,720
Maar ja, als je aan toezichthouders
407
00:22:22,720 --> 00:22:24,620
gaat vragen van, joh, zet de
408
00:22:24,730 --> 00:22:26,300
regels even uit je hoofd, dat is natuurlijk...
409
00:22:26,620 --> 00:22:27,640
Dat zou heel raar zijn, toch?
410
00:22:27,750 --> 00:22:29,340
Ja, dus...
411
00:22:29,870 --> 00:22:32,480
En voor de wat technischere luisteraar, de sandbox is niet
412
00:22:32,550 --> 00:22:34,040
een, het is geen technische
413
00:22:35,280 --> 00:22:36,400
infrastructuuromgeving, want dat
414
00:22:36,500 --> 00:22:37,900
wordt, het is
415
00:22:37,920 --> 00:22:40,600
een procedureel
416
00:22:40,940 --> 00:22:41,780
papieren exercitie
417
00:22:41,790 --> 00:22:42,500
mag ik het zo noemen?
418
00:22:42,500 --> 00:22:43,480
Ja, zo mag je het zeker noemen.
419
00:22:44,460 --> 00:22:45,800
In government houden wij daarvan.
420
00:22:47,080 --> 00:22:48,240
Dus het is absoluut
421
00:22:48,370 --> 00:22:49,520
een procedure
422
00:22:50,290 --> 00:22:51,020
die ervoor zorgt dat
423
00:22:52,160 --> 00:22:53,800
de wetgeving voor jou duidelijk wordt
424
00:22:53,900 --> 00:22:55,180
zodat je kan innoveren
425
00:22:55,620 --> 00:22:57,560
en niet bang bent dat je de wetgeving verkeerd in doet.
426
00:22:57,610 --> 00:22:59,520
Ja, precies. Dat als je straks op de markt komt
427
00:22:59,770 --> 00:23:00,800
dat je aan de wet voldoet.
428
00:23:00,960 --> 00:23:01,100
Precies.
429
00:23:02,360 --> 00:23:04,660
En ook dus eigenlijk een dienst
430
00:23:04,660 --> 00:23:05,920
van de toezichthouder om
431
00:23:06,740 --> 00:23:12,940
Om daardoor innovatie niet te zorgen dat de wetgeving of een onjuiste interpretatie van de wetgeving niet innovatie hindert.
432
00:23:14,340 --> 00:23:19,500
Ik denk dat het best wel een heel mooi onderdeel is van die AI Act dat daar in ieder geval over nagedacht is.
433
00:23:20,140 --> 00:23:21,160
Ja, dat denk ik ook.
434
00:23:23,360 --> 00:23:24,460
Dus dat is ook heel goed.
435
00:23:24,780 --> 00:23:31,160
En je ziet wat eigenlijk nu bedacht is, is dat verschillende landen verschillend type sandbox gaan inrichten.
436
00:23:31,260 --> 00:23:33,300
En dat je dan kan kijken van waar werkt het het beste.
437
00:23:34,380 --> 00:23:38,420
In Nederland is het ministerie van Economische Zaken verantwoordelijk.
438
00:23:38,560 --> 00:23:41,680
En de autoriteit persoonsgegevens en RDI coördineren het.
439
00:23:41,820 --> 00:23:43,520
En alle andere toezichthouders zijn aangesloten.
440
00:23:43,640 --> 00:23:45,360
Dus het is absoluut een mooi initiatief.
441
00:23:45,360 --> 00:23:46,960
Het is beter dat het er is dan dat het er niet is.
442
00:23:47,120 --> 00:23:47,660
Laten we eerlijk zijn.
443
00:23:50,560 --> 00:23:52,260
Maar goed, waar ik bang voor ben.
444
00:23:53,200 --> 00:23:54,600
Dan mag ik een kritische noten op de AI.
445
00:23:54,780 --> 00:23:55,880
Zeker, altijd.
446
00:23:57,800 --> 00:23:59,920
Kijk, je hebt de letter van de wet en de geest van de wet.
447
00:24:00,240 --> 00:24:01,940
En ik ben heel erg voorstander van de geest van de wet.
448
00:24:02,120 --> 00:24:03,440
En als je bijvoorbeeld kijkt naar GDPR.
449
00:24:05,080 --> 00:24:08,580
dan denk ik dat dat soms een beetje doorgeschoten is, die interpretatie.
450
00:24:09,440 --> 00:24:12,020
En waar ik bang voor ben, is dat dat met de AI Act ook gaat gebeuren.
451
00:24:12,640 --> 00:24:18,120
En dat begint al met een inschatting maken van of een toepassing hoog risico is of niet.
452
00:24:18,260 --> 00:24:21,200
Of de wetgeving überhaupt van toepassing is.
453
00:24:21,880 --> 00:24:26,060
En ik merk dat er nog best wel veel, in dit geval financiële instellingen zijn,
454
00:24:26,280 --> 00:24:28,660
die bepaalde AI toepassingen onder hoog risico's gearen,
455
00:24:28,740 --> 00:24:31,120
terwijl dat niet als dusdanig geclassificeerd wordt in de AI Act.
456
00:24:31,960 --> 00:24:35,180
En dan zie ik wel een risico.
457
00:24:35,350 --> 00:24:36,820
En wat levert dat voor problemen op dan?
458
00:24:38,780 --> 00:24:43,920
Nou, wat het voor problemen op kan leveren is dat er heel veel administratieve rompslomp wordt ervaren.
459
00:24:44,580 --> 00:24:46,560
Rondom AI te pushen, waar dat dan niet nodig is.
460
00:24:46,560 --> 00:24:47,640
Dat dat wel wordt opgezet.
461
00:24:49,140 --> 00:24:52,460
En dat dat ervoor zorgt dat er dan niet wordt geïnnoveerd.
462
00:24:52,580 --> 00:24:55,820
Dus ik heb al wel verhalen gehoord van de-innovatie.
463
00:24:56,120 --> 00:24:59,860
Dat mensen zeggen van we hebben een geavanceerdere vorm van AI ingezet.
464
00:25:00,250 --> 00:25:01,620
Hier, maar het is een hoge risico toepassing.
465
00:25:01,780 --> 00:25:04,020
We gaan weer even terug naar een simpelere.
466
00:25:04,500 --> 00:25:06,380
Dus dat zie ik wel als risico.
467
00:25:08,700 --> 00:25:13,160
Dus ik denk gewoon van het kan zijn dat we geen stappen vooruit meer maken met de technologie.
468
00:25:13,380 --> 00:25:16,420
En jullie zien het elke dag hoe hard het gaat met de technologie.
469
00:25:17,020 --> 00:25:19,940
Je moet wel een beetje bij proberen te benen.
470
00:25:20,900 --> 00:25:24,860
En we zien ook iedere dag de angst voor de AVG, de GDPR.
471
00:25:25,800 --> 00:25:27,580
Om vooral dingen dan niet te doen.
472
00:25:27,920 --> 00:25:32,560
Ja, en die angst vind ik niet terecht.
473
00:25:33,140 --> 00:25:35,180
Kijk, wij toezichthouders zijn mensen.
474
00:25:35,290 --> 00:25:36,580
Je kan met ons het gesprek aangaan.
475
00:25:36,660 --> 00:25:39,120
En ik denk dat de mogelijkheid om dat te doen vaak niet benut wordt.
476
00:25:40,800 --> 00:25:45,020
En daarbij ook nog, wij als toezichthouder hebben natuurlijk een interpretatie van de wet.
477
00:25:46,220 --> 00:25:49,980
Maar het staat jou als om de toezichtstaande instelling geheel vrij om een eigen interpretatie te hebben.
478
00:25:50,010 --> 00:25:51,800
En daarover met de toezichthouder in gesprek te gaan.
479
00:25:52,100 --> 00:25:53,820
En misschien dat dat te weinig wordt gedaan.
480
00:25:55,380 --> 00:25:57,620
Dus wij als DNB staan er ook absoluut voor open.
481
00:25:57,760 --> 00:25:58,640
Om die dialoog te voeren.
482
00:25:58,680 --> 00:26:00,600
Ik bedoel voor ons is het ook nieuw terrein.
483
00:26:02,060 --> 00:26:06,140
Dus waar ik altijd heel erg van geniet.
484
00:26:06,520 --> 00:26:08,600
Is om met de sector in gesprek te gaan.
485
00:26:08,820 --> 00:26:10,220
Over waar lopen jullie nou tegenaan.
486
00:26:10,320 --> 00:26:10,940
En om dan te kijken.
487
00:26:12,380 --> 00:26:13,820
Hoe verhouden wij ons daar nou toe.
488
00:26:13,920 --> 00:26:15,700
Tot die problemen met die innovatie.
489
00:26:15,820 --> 00:26:17,880
Want ik geloof daar heel erg in.
490
00:26:17,960 --> 00:26:19,940
Dat dat wel moet voor een gezonde financiële sector.
491
00:26:20,020 --> 00:26:21,000
En ook voor een gezonde economie.
492
00:26:21,060 --> 00:26:21,980
En gezonde samenleving.
493
00:26:22,880 --> 00:26:23,600
Dat we dat moeten gaan doen.
494
00:26:24,540 --> 00:26:25,460
Elkaar scherp houden.
495
00:26:26,360 --> 00:26:27,580
En de conversatie hebben.
496
00:26:27,620 --> 00:26:32,300
En het voorbeeld, volgens mij al dat vorige keer, was Bunk ook die dat had gedaan.
497
00:26:33,040 --> 00:26:36,960
Ja, Bunk, ik kan daar niet al te veel over zeggen.
498
00:26:38,760 --> 00:26:41,560
Dus in principe kan ik niet te veel zeggen over individuele instellingen.
499
00:26:41,820 --> 00:26:45,500
Maar er is inderdaad een rechtszaak geweest tussen Bunk en DNB,
500
00:26:45,680 --> 00:26:54,380
waarin Bunk een andere interpretatie had van hoe bepaalde wetgeving kon worden geïnterpreteerd.
501
00:26:55,940 --> 00:26:58,040
En daar hebben we natuurlijk als DNB wat mee gedaan.
502
00:26:58,260 --> 00:26:59,740
Want er was al een rechtelijke uitspraak.
503
00:26:59,820 --> 00:27:02,340
En na een deel van de uitspraken werd het punt in het gelijk gesteld.
504
00:27:03,560 --> 00:27:04,860
En dan doen we er als dat DNB wat mee.
505
00:27:04,880 --> 00:27:06,580
En dat is gewoon hoe onze rechtsstaat functioneert.
506
00:27:07,920 --> 00:27:08,860
Zo werkt het ook gewoon.
507
00:27:09,380 --> 00:27:10,140
Dat is dus inderdaad.
508
00:27:10,240 --> 00:27:12,760
Hoe gaan we innovatie verantwoord in willen zetten met elkaar?
509
00:27:13,060 --> 00:27:14,360
Het goede gesprek voor...
510
00:27:14,760 --> 00:27:15,400
Ja, zeker.
511
00:27:15,860 --> 00:27:17,860
En over het goede gesprek gesproken.
512
00:27:18,180 --> 00:27:18,680
Mooi brugje.
513
00:27:20,640 --> 00:27:21,960
Ik gooi hem er even in.
514
00:27:22,580 --> 00:27:30,080
We hebben een kaartspel om juist het gesprek op gang te brengen over allerlei vraagstukken rondom generatieve AI.
515
00:27:30,290 --> 00:27:31,940
En we willen ook een stelling aan jou voorleggen.
516
00:27:32,160 --> 00:27:33,100
Ja, leuk. Kom maar door.
517
00:27:48,380 --> 00:27:49,720
heel diep zuchten.
518
00:27:50,400 --> 00:27:51,260
Je zou het niet geloven.
519
00:27:51,800 --> 00:27:53,620
Ik heb hier vijf voor hem. Ik heb net geschud.
520
00:27:54,080 --> 00:27:55,840
Mag jij raden welk thema naar boven komt?
521
00:27:57,000 --> 00:27:57,780
Ja, wetgeving natuurlijk.
522
00:27:59,640 --> 00:28:00,440
Dat kan je missen.
523
00:28:00,600 --> 00:28:01,700
Breng het wetgevingskarma
524
00:28:01,920 --> 00:28:03,400
bij Medezaal in hier.
525
00:28:04,840 --> 00:28:05,900
Maar ik ga hem toch gewoon stellen,
526
00:28:05,920 --> 00:28:07,400
want hij kwam netjes geschud naar boven.
527
00:28:07,540 --> 00:28:09,960
Dus het thema is wetgeving en beleid.
528
00:28:10,760 --> 00:28:11,800
En de stelling luidt dus volgt.
529
00:28:12,640 --> 00:28:14,200
Organisaties moeten aansprakelijk zijn
530
00:28:14,340 --> 00:28:15,900
voor de maatschappelijke gevolgen
531
00:28:16,260 --> 00:28:17,700
van hun AI-gebruik.
532
00:28:20,560 --> 00:28:22,980
Ja, in essentie ben ik het daarmee eens.
533
00:28:23,960 --> 00:28:26,400
Als je kijkt naar de AI Act, dat is productregelgeving.
534
00:28:26,440 --> 00:28:30,480
En het is nu al zo dat als je een product op de markt brengt en dat recht schade aan, dat je daar aansprakelijk voor bent.
535
00:28:31,840 --> 00:28:33,180
Dus in de kern ben ik het daarmee eens.
536
00:28:34,120 --> 00:28:36,620
De grote vraag bij AI is natuurlijk, waar houd je aansprakelijkheid op?
537
00:28:37,200 --> 00:28:39,060
Dus als je bijvoorbeeld kijkt naar de foundation models.
538
00:28:40,040 --> 00:28:42,800
Hoeveel invloed, stel je wilt het gaan gebruiken, je bouwt daar een applicatie op.
539
00:28:43,020 --> 00:28:45,040
En dat is een hoog risico te passen in de AI Act.
540
00:28:45,400 --> 00:28:50,100
In welke mate kun je je als toezichthouder dan verantwoordelijk houden voor wat er in dat foundation model gebeurt?
541
00:28:50,260 --> 00:28:52,400
Dat is iets wat nog niet helemaal duidelijk is.
542
00:28:53,030 --> 00:28:54,460
En dat zal duidelijk moeten worden.
543
00:28:55,740 --> 00:28:58,720
En ik verwacht hier de komende jaren ook superveel jurisprudentie over.
544
00:28:58,750 --> 00:29:03,180
Dus hier moeten rechters zich ook gewoon over moeten uitspreken wat redelijk is.
545
00:29:04,340 --> 00:29:06,900
Maar in essentie denk ik dat dat absoluut noodzakelijk is.
546
00:29:07,120 --> 00:29:10,160
Omdat bedrijven voordat je een model deployt.
547
00:29:10,160 --> 00:29:11,200
En zeker een hoog risicomodel.
548
00:29:11,330 --> 00:29:12,720
Dat je daar goed van doordrongen bent.
549
00:29:13,770 --> 00:29:15,200
Van de aansprakelijkheid daarvan.
550
00:29:16,460 --> 00:29:16,720
Helder.
551
00:29:17,680 --> 00:29:21,380
Wat is nou een valkuil bij AI-toezicht?
552
00:29:23,450 --> 00:29:24,780
En hoe zou je die kunnen vermijden?
553
00:29:26,400 --> 00:29:30,900
Ja, ik denk dat de grootste valkuil op dit moment AI-geletterdheid is misschien wel.
554
00:29:31,120 --> 00:29:31,940
Oh ja, oh leuk.
555
00:29:33,100 --> 00:29:33,980
Bij de toezichthouder zelf.
556
00:29:35,320 --> 00:29:39,680
Dus in principe gaat de toezichthouder eigenlijk kennis opbouwen op het moment dat je het mandaat hebt.
557
00:29:39,790 --> 00:29:41,680
En dat mandaat is nog niet officieel binnen.
558
00:29:43,040 --> 00:29:46,980
Dus voor DNB en AFM zijn er nog over in gesprek.
559
00:29:47,100 --> 00:29:48,260
Van hoe gaat dat lopen.
560
00:29:49,920 --> 00:29:53,520
Ik merk dat als je toezicht wil houden op AI.
561
00:29:53,620 --> 00:29:55,220
Moet je begrip hebben van statistiek.
562
00:29:55,520 --> 00:29:57,400
Dat is eigenlijk gewoon statistics on steroids.
563
00:29:57,700 --> 00:29:58,060
Zeg ik altijd.
564
00:30:00,200 --> 00:30:01,520
En statistisch denken.
565
00:30:02,160 --> 00:30:03,640
Is iets wat we als mensen helemaal niet goed kunnen.
566
00:30:04,720 --> 00:30:07,100
Dus dat vraagt gewoon dat je dat gaat leren.
567
00:30:08,000 --> 00:30:11,720
En ook dat je het gesprek kan aangaan over data science.
568
00:30:12,260 --> 00:30:15,140
Dus wat zijn nou de keuzes die je gemaakt hebt in het maken van het model?
569
00:30:16,900 --> 00:30:18,560
En daarover zul je het gesprek moeten aangehouden.
570
00:30:18,780 --> 00:30:20,860
En ook de risicotolerantie die je in het model hebt gehad.
571
00:30:20,960 --> 00:30:23,780
Ik denk dat dat goed is voor de toezichthouder om je daarvan bewust te zijn.
572
00:30:24,300 --> 00:30:26,460
Ik denk dat het ook goed is bij ondertoezicht aan de instellingen.
573
00:30:26,500 --> 00:30:29,220
Dat die gesprekken niet alleen bij de data scientists gevoerd worden.
574
00:30:29,320 --> 00:30:30,560
Maar misschien zelfs op boardniveau.
575
00:30:30,740 --> 00:30:33,500
Dat daar echt wordt gezegd van wat zijn nou de keuzes die we hierin maken.
576
00:30:33,600 --> 00:30:36,280
En dat je daar dan met de toezichthouder het gesprek over kunt aangeven.
577
00:30:37,320 --> 00:30:39,500
Maar dat moeten we als toezichthouder gaan ophouden.
578
00:30:39,660 --> 00:30:42,820
Als we zo meteen al die documenten krijgen die ik net noemde,
579
00:30:42,930 --> 00:30:45,220
dus technische documentatie, dan moeten we dat ook op waarde kunnen schatten.
580
00:30:45,980 --> 00:30:49,560
Als wij meldingen krijgen van burgers, dan moeten we dat ook op waarde kunnen schatten.
581
00:30:51,020 --> 00:30:55,040
En ik denk dat je ook naar auditachtige skills moet gaan kijken.
582
00:30:56,680 --> 00:31:00,320
Stel, je vertrouwt de zaak niet. Hoe ga je dan zo'n model uitpluizen?
583
00:31:01,640 --> 00:31:04,420
En daar zijn we over gaan nadenken.
584
00:31:05,180 --> 00:31:07,540
En dat is op dit moment denk ik nog wel een hindernis.
585
00:31:07,570 --> 00:31:09,360
Maar dat is gelukkig de hindernis die al de toezicht houden.
586
00:31:11,039 --> 00:31:12,440
En ik denk dus gewoon
587
00:31:13,040 --> 00:31:14,920
dat we ook gewoon die technische
588
00:31:15,040 --> 00:31:16,280
kennis in huis moeten gaan halen.
589
00:31:16,380 --> 00:31:17,640
Dan kun je opleiden of aannemen.
590
00:31:18,260 --> 00:31:19,840
Ik denk dat je misschien allebei zou moeten doen.
591
00:31:20,260 --> 00:31:22,240
Hoewel, we hebben natuurlijk een hele sterke
592
00:31:22,620 --> 00:31:23,780
eigen data science team en
593
00:31:24,280 --> 00:31:26,560
innovatie team bij IT bij DNB zitten.
594
00:31:26,600 --> 00:31:28,480
Dus daar zit ook echt wel veel technische
595
00:31:28,640 --> 00:31:30,460
kennis. Maar het toezicht op is
596
00:31:31,180 --> 00:31:31,780
toch ook anders.
597
00:31:33,360 --> 00:31:34,780
Omdat er ook heel veel sectorale
598
00:31:35,020 --> 00:31:35,920
context is. Zeker.
599
00:31:36,720 --> 00:31:38,540
En wetgeving speelt mee. Dus je moet eigenlijk een soort van
600
00:31:38,560 --> 00:31:40,740
dat data scientists en juridisch
601
00:31:40,830 --> 00:31:42,700
en personen en economen in één hebben
602
00:31:42,820 --> 00:31:44,280
die dan tot een oordeel komt.
603
00:31:44,450 --> 00:31:46,100
Of een groep. Ja, of een groep.
604
00:31:46,340 --> 00:31:46,760
Ja, ja, ja.
605
00:31:48,240 --> 00:31:50,740
En dat gaat tijd kosten
606
00:31:50,800 --> 00:31:51,400
om dat te ontwikkelen.
607
00:31:52,740 --> 00:31:54,280
Maar ik denk dat dat wel kan.
608
00:31:55,140 --> 00:31:56,840
Maar dat is op dit moment denk ik de grootste
609
00:31:57,380 --> 00:31:59,180
hurdle die te nemen is.
610
00:31:59,300 --> 00:32:00,520
En voorzie je ook dat jullie
611
00:32:00,910 --> 00:32:02,760
AI gaan inzetten voor het toezicht?
612
00:32:02,780 --> 00:32:03,640
Dat lacht precies op.
613
00:32:03,800 --> 00:32:04,700
Dat is ook wel heel mooi.
614
00:32:04,970 --> 00:32:05,620
Ik hoop het mooier.
615
00:32:07,540 --> 00:32:08,940
Ja, we zijn daarmee bezig.
616
00:32:09,620 --> 00:32:11,700
Dat is niet mijn domein.
617
00:32:12,740 --> 00:32:15,840
Maar bij onze IT-afdeling hebben wij een AI-programma.
618
00:32:16,760 --> 00:32:22,860
En die zijn bezig met het nadenken over hoe wij AI als organisatie zelf kunnen inzetten.
619
00:32:23,020 --> 00:32:24,820
Die zijn daar op dit moment druk mee bezig.
620
00:32:25,320 --> 00:32:27,180
Die zijn natuurlijk ook met generative AI bezig.
621
00:32:29,940 --> 00:32:32,880
Maar machine learning zou ook op bepaalde manieren ingezet kunnen worden.
622
00:32:32,940 --> 00:32:34,340
We hebben een data science team.
623
00:32:35,760 --> 00:32:39,640
Dus die kijkt ook heel erg naar data science oplossingen binnen de organisatie.
624
00:32:40,220 --> 00:32:42,720
En is ook actief bijvoorbeeld bij Europese instellingen.
625
00:32:42,750 --> 00:32:45,460
Dus bij de Europese Centrale Bank of bij de Bank of International Settlements.
626
00:32:46,240 --> 00:32:47,320
Wordt die kennis ook gedeeld.
627
00:32:47,320 --> 00:32:49,440
Dus daar wordt absoluut naar gekeken.
628
00:32:50,400 --> 00:32:54,600
En we hebben nog een afdeling die specifiek kijkt naar digitalisering van het toezicht.
629
00:32:54,660 --> 00:32:55,620
Dus dat is wel breder dan AI.
630
00:32:55,880 --> 00:32:58,340
Dus er is bij DNB absoluut hartstikke veel aandacht voor.
631
00:33:00,540 --> 00:33:03,820
En de basiskennis over AI, die delen we natuurlijk.
632
00:33:05,160 --> 00:33:08,500
Maar ik ga absoluut niet zeggen dat ik hier een kenner van ben.
633
00:33:08,800 --> 00:33:16,060
Ook vooral omdat er natuurlijk ook heel veel change-achtige, softe kanten aan zitten.
634
00:33:17,120 --> 00:33:19,020
Waar ik absoluut helemaal niks vanaf weet.
635
00:33:21,019 --> 00:33:23,040
Dus daar ga ik dan ook geen uitspraak over.
636
00:33:23,660 --> 00:33:25,820
Nee, want je kan wel verwachten dat er meer vragen komen.
637
00:33:26,060 --> 00:33:27,820
Meer documenten, er zal meer aangeleverd worden.
638
00:33:27,960 --> 00:33:31,480
En daar inderdaad met AI ook een bepaalde efficiëntieslag zou kunnen maken.
639
00:33:31,940 --> 00:33:33,140
Dus een beetje paradoxaal.
640
00:33:33,300 --> 00:33:34,840
Hoe ga je daar dan toezicht op houdt?
641
00:33:34,860 --> 00:33:41,000
Daar kan ik wel wat over zeggen, want het AI-programma heeft een pilot gedraaid bij de divisie waar ik werk.
642
00:33:41,160 --> 00:33:43,620
Dat heet Toezichtbeleid, bij twee teams daar.
643
00:33:45,220 --> 00:33:50,140
En daar hebben ze een generative AI test gedaan of een pilot gedaan.
644
00:33:50,420 --> 00:33:53,820
En de uitkomsten daarvan zijn eigenlijk heel positief, omdat wij natuurlijk heel veel met documenten werken.
645
00:33:54,180 --> 00:33:56,080
Veel briefings schrijven voor onze directie.
646
00:33:58,220 --> 00:34:01,040
En wij zijn natuurlijk met superveel informatie bezig.
647
00:34:01,060 --> 00:34:07,460
Dus generative AI is dan een super goede tool voor ons om te gebruiken.
648
00:34:08,219 --> 00:34:13,360
En daar merk je ook dat je natuurlijk mensen hebt die er meer of minder gebruik van maken.
649
00:34:13,360 --> 00:34:15,060
Het is wel grappig, ik merk ook dat generatie.
650
00:34:16,659 --> 00:34:22,340
Ik ben een millennial, ik vraag wel eens hulp in van onze Gen Z, van mijn Gen Z collega's.
651
00:34:23,320 --> 00:34:28,679
Waarvan ik merk dat zij nog veel natuurlijker met AI omgaan dan ik het doe.
652
00:34:28,719 --> 00:34:29,780
Ik gebruik AI heel veel.
653
00:34:31,260 --> 00:34:32,639
en dat vind ik echt heel erg mooi om te zien.
654
00:34:32,739 --> 00:34:34,120
Dus ik zie, mijn dochter is drie jaar oud,
655
00:34:34,199 --> 00:34:36,480
ik denk dat die zo meteen als een soort van cyborg
656
00:34:37,239 --> 00:34:38,320
de arbeidsmarkt opkomt
657
00:34:38,600 --> 00:34:40,300
en dat vind ik ook heel erg goed.
658
00:34:40,460 --> 00:34:42,899
Want als ik kijk naar mijn werk,
659
00:34:44,498 --> 00:34:47,139
hoe AI dat beter gemaakt heeft,
660
00:34:47,440 --> 00:34:48,840
hoe productiever ik ben geworden,
661
00:34:50,540 --> 00:34:51,480
dan kan ik nog steeds,
662
00:34:52,440 --> 00:34:53,600
het klinkt een beetje nerderig,
663
00:34:53,600 --> 00:34:55,080
maar bijna geemotioneerd daarvan raken
664
00:34:55,100 --> 00:34:56,340
op een bepaalde moment dat ik gewoon denk van
665
00:34:56,500 --> 00:34:57,980
hoe is het mogelijk dat dit gewoon gebeurt.
666
00:34:59,279 --> 00:35:01,899
Ik kan gewoon bijvoorbeeld een PowerPoint-presentatie maken.
667
00:35:01,899 --> 00:35:03,560
Dan heb ik gewoon een wetenschappelijk artikel geschreven.
668
00:35:03,700 --> 00:35:04,740
Of een semi-wetenschappelijk artikel.
669
00:35:04,840 --> 00:35:06,460
Dan zeg ik gewoon van, maak je slides van.
670
00:35:06,649 --> 00:35:08,899
En dan heb ik gewoon een presentatie in een kwartier.
671
00:35:09,129 --> 00:35:11,500
Waar ik voorheen echt wel langer daarover aan het zoeken was.
672
00:35:12,139 --> 00:35:12,919
Daar word ik wel blij van.
673
00:35:13,440 --> 00:35:15,000
Het enige waar ik me zorgen over maak.
674
00:35:15,620 --> 00:35:17,200
Is van, ik werk nu tien jaar.
675
00:35:18,240 --> 00:35:20,180
En ik heb een reis gemaakt in tien jaar.
676
00:35:20,440 --> 00:35:22,920
Van kennis, van werken met taal, met dingen zelf schrijven.
677
00:35:23,600 --> 00:35:27,580
En ik vraag me af hoe junioren op de arbeidsmarkt.
678
00:35:28,060 --> 00:35:37,520
leren, een vak gaan leren als AI dat al kan. En dat zal zich wel ontwikkelen. Maar ik merk dat het
679
00:35:37,640 --> 00:35:40,720
omgaan met die taalmodellen, dat mij heel erg helpt dat ik zelf heel veel geschreven heb,
680
00:35:40,740 --> 00:35:46,120
zelf heel veel gelezen heb. Ik heb ooit filosofie gestudeerd, dus daar heb ik heel erg veel teksten
681
00:35:46,260 --> 00:35:51,920
opgebouwd, argumentatielijnen uitgezet. En dan kun je ook met zo'n taalmodel kun je gewoon lekker
682
00:35:52,010 --> 00:35:57,200
een beetje sparren, als je die skills hebt. Dus ik vraag me af van hoe gaan we die skills opbouwen
683
00:35:57,600 --> 00:36:04,100
bij jongere generaties om ervoor te zorgen dat die nog wel iets meer heersen.
684
00:36:04,660 --> 00:36:08,960
Die capabilities hebben, de skills hebben om het zelf te kunnen beredeneren,
685
00:36:09,010 --> 00:36:12,180
te kunnen bekritiseren, het onderzoekend vermogen.
686
00:36:13,080 --> 00:36:14,160
Dat moet wel blijven inderdaad.
687
00:36:14,160 --> 00:36:15,640
Het zijn ook onderzoeken van MIT.
688
00:36:15,830 --> 00:36:19,060
Ik zal in de show notes even toevoegen, want ik kan even niet de naam ervan vinden.
689
00:36:20,060 --> 00:36:21,020
Zo is het top of mind.
690
00:36:21,190 --> 00:36:26,500
Maar er is een artikel dat inderdaad mensen die met Gen.AI en zonder Gen.AI
691
00:36:26,760 --> 00:36:28,100
bepaalde capabilities gewoon
692
00:36:30,060 --> 00:36:30,460
teruglopen.
693
00:36:31,840 --> 00:36:32,620
Ja, waarbij
694
00:36:33,260 --> 00:36:35,000
misschien moeten we daar nog eens een aflevering
695
00:36:35,000 --> 00:36:37,140
aan wijden, want hier en daar
696
00:36:37,340 --> 00:36:38,860
rammelt het onderzoek, want uiteindelijk
697
00:36:39,100 --> 00:36:40,780
komt het uit op negen mensen
698
00:36:41,540 --> 00:36:42,940
die het einde hebben gehaald
699
00:36:43,060 --> 00:36:45,260
van het onderzoek, geloof ik, als ik dat goed begrepen had.
700
00:36:46,140 --> 00:36:46,980
De N is wel laag dan.
701
00:36:47,160 --> 00:36:48,940
Ja, maar misschien is het allemaal...
702
00:36:49,300 --> 00:36:50,940
Het is altijd goed om even te kijken
703
00:36:50,980 --> 00:36:53,180
van inderdaad, wat is de N en wat is de methodologie?
704
00:36:54,140 --> 00:36:55,080
En ik denk, uiteindelijk
705
00:36:55,220 --> 00:36:55,920
lossen we het ook wel op.
706
00:36:56,900 --> 00:36:57,900
we lossen het wel op
707
00:36:58,000 --> 00:36:59,840
want met het schrift werd ook ooit gedacht
708
00:36:59,880 --> 00:37:01,940
dat we alles niks meer zouden opslaan
709
00:37:02,040 --> 00:37:03,820
dus met nieuwe technologie zijn er altijd
710
00:37:04,940 --> 00:37:05,740
zorgen, technofobie
711
00:37:05,880 --> 00:37:07,760
is er altijd en daar komen we altijd wel uit
712
00:37:07,880 --> 00:37:09,820
maar ik denk dat het wel goed is om het te benoemen
713
00:37:10,040 --> 00:37:11,680
dus wat je nu bijvoorbeeld ziet in
714
00:37:12,120 --> 00:37:13,340
academisch onderwijs is
715
00:37:14,280 --> 00:37:15,320
dat alleen een schriftelijke
716
00:37:16,200 --> 00:37:17,780
essay vaak niet meer voldoende is, maar dat je ook
717
00:37:17,800 --> 00:37:18,980
een mondeling er wel achteraan moet doen
718
00:37:19,960 --> 00:37:21,540
om te kijken van snap de student
719
00:37:22,260 --> 00:37:24,020
daadwerkelijk wat er is opgeschreven
720
00:37:24,020 --> 00:37:25,200
en misschien wel beter dan toch?
721
00:37:25,520 --> 00:37:27,880
Ja, zeker. Dat vind ik wel.
722
00:37:28,120 --> 00:37:30,660
Want dan kom je er vrij snel achter of iemand het zelf geschreven heeft.
723
00:37:30,680 --> 00:37:30,840
Ja, toch?
724
00:37:31,260 --> 00:37:33,000
Nee, het maakt niet eens uit of je het zelf geschreven hebt.
725
00:37:33,100 --> 00:37:34,340
Het gaat erom dat je het begrijpt.
726
00:37:34,460 --> 00:37:34,780
Ja, precies.
727
00:37:35,940 --> 00:37:38,340
En hoeveel ChatGPT gedaan heeft, dat maakt eigenlijk niet uit.
728
00:37:38,560 --> 00:37:42,800
En ik denk dat dat niet gaan gebruiken.
729
00:37:42,850 --> 00:37:44,880
Dus je moet jongeren gaan leren om het te gebruiken.
730
00:37:46,560 --> 00:37:52,100
Maar om dan wel na te denken van wat je zegt, Niels, je moet wel begrijpen wat de uitkomst is.
731
00:37:53,900 --> 00:37:55,820
Ik ben niet echt een onderwijskundige.
732
00:37:55,960 --> 00:37:57,360
Maar ik denk dat dat super interessant is.
733
00:37:57,500 --> 00:37:58,780
De komende vijftien jaar.
734
00:37:59,300 --> 00:38:01,360
Uiteindelijk alle bedrijven krijgen hiermee te maken.
735
00:38:01,680 --> 00:38:03,860
Hoe on-board je zo direct nieuwe mensen.
736
00:38:04,420 --> 00:38:06,140
En zorg je dat ze het vak leren.
737
00:38:06,310 --> 00:38:07,700
Waar jij voor staat als organisatie.
738
00:38:08,320 --> 00:38:09,640
Ik denk dat dat de kernvraag is.
739
00:38:10,240 --> 00:38:10,820
Dus in dit geval.
740
00:38:10,940 --> 00:38:12,840
Hoe word je een goede toezichthouder.
741
00:38:13,380 --> 00:38:16,620
En hoe kun je goed informatie verwerken.
742
00:38:16,680 --> 00:38:17,860
Tot goede oordeelsvorming komen.
743
00:38:19,000 --> 00:38:20,540
Om je taak goed uit te kunnen voelen.
744
00:38:21,440 --> 00:38:23,800
En dan gaan we eigenlijk weer rond naar waar ik het begin over had.
745
00:38:23,800 --> 00:38:26,700
Dat is de waardes van je als organisatie, maar ook de publieke waardes.
746
00:38:26,780 --> 00:38:29,280
Hoe kan je die meegeven in het werk dat je doet?
747
00:38:30,439 --> 00:38:36,800
Ja, ik denk dat dat heel belangrijk is.
748
00:38:36,830 --> 00:38:40,940
Dat je als toezichthouder snapt van wat is de publieke taak die wij hebben.
749
00:38:42,599 --> 00:38:44,060
En dat je dat meeneemt in je werk.
750
00:38:44,110 --> 00:38:46,880
En dat je AI ziet als een instrument wat jou helpt.
751
00:38:47,060 --> 00:38:52,640
Want ik denk, een ding wat AI niet heeft is inherent moreel besef, emoties.
752
00:38:52,770 --> 00:38:55,260
Dat zijn allemaal menselijke dingen die gewoon echt heel belangrijk zijn.
753
00:38:55,330 --> 00:38:56,040
Ook in het toezicht.
754
00:38:56,200 --> 00:38:56,480
Zeker.
755
00:38:57,520 --> 00:38:59,940
En dat is iets wat de mens altijd zal blijven brengen.
756
00:39:00,460 --> 00:39:01,440
Vormen van creativiteit.
757
00:39:02,320 --> 00:39:02,440
Idem.
758
00:39:04,100 --> 00:39:08,900
Dus ik ben heel erg voorstander van samenwerking met de AI.
759
00:39:10,400 --> 00:39:13,900
En zo die vakkennis en de professionaliteit uitbreiden.
760
00:39:14,780 --> 00:39:16,060
Nou, over samenwerking met de AI.
761
00:39:16,320 --> 00:39:22,440
Jij had als voorbereiding, had je met, hoe noem je je ChatGPT waar je mee spreekt in de auto?
762
00:39:22,680 --> 00:39:24,100
Ik was niet heel creatief, ik noem me gewoon Charlie.
763
00:39:24,160 --> 00:39:24,660
Charlie, ja.
764
00:39:25,320 --> 00:39:29,700
Je had met Charlie wat voorbereid en je zei van, er is een vraag en die wil ik dat heel graag stellen.
765
00:39:30,000 --> 00:39:32,580
Ja, ik zeg, ik laat me toch eens een keertje op de humor as weer.
766
00:39:32,880 --> 00:39:34,920
Ik heb een leuk boek gekocht over humor en business.
767
00:39:35,380 --> 00:39:36,320
Hoe dat goed had samengaan.
768
00:39:36,400 --> 00:39:39,500
Dus ik dacht, laat we eens een humoristische vraag proberen te laten stellen.
769
00:39:40,060 --> 00:39:42,980
En de vraag waarmee Charlie van mij vanochtend terugkwam was,
770
00:39:43,480 --> 00:39:50,780
Als AI een persoonlijkheid zou hebben, denk je dat dan een strenge toezichthouder zou zijn of meer een creatieve innovator?
771
00:39:51,130 --> 00:39:51,540
En waarom?
772
00:39:52,400 --> 00:39:53,520
Oeh, dat vind ik een hele leuke vraag.
773
00:39:57,000 --> 00:39:58,000
Om meerdere redenen.
774
00:39:58,860 --> 00:40:03,860
Ik zou zeggen in eerste instantie, het hangt er vanaf wie de gebruiker is.
775
00:40:05,180 --> 00:40:08,320
Als je kijkt naar Entropic, ik ben heel erg fan van het onderzoeksteam van Entropic.
776
00:40:08,860 --> 00:40:10,740
En die hebben een onderzoek gedaan naar welke...
777
00:40:10,960 --> 00:40:16,440
Die hebben gewoon uit volgens mij van zes maanden alle output van Claude genomen.
778
00:40:16,530 --> 00:40:18,840
En die geanalyseerd van welke waarde heeft de AI nou.
779
00:40:19,760 --> 00:40:25,140
En wat je daar eigenlijk ziet is dat die waarden heel erg zijn over professioneel zijn, dienstbaar, robuust.
780
00:40:25,660 --> 00:40:28,560
Dus eigenlijk een hele dienstbare rol hebben naar de mens.
781
00:40:30,040 --> 00:40:35,200
En dat betekent, denk ik, dat als ik dit model gebruik, dat het model dienstbaar is naar mij.
782
00:40:35,360 --> 00:40:36,720
Dus als het een toezichthouder zal zijn.
783
00:40:38,120 --> 00:40:41,620
En naar een innovator weer heel creatief en open is.
784
00:40:41,760 --> 00:40:44,020
Dus ik denk dat het allebei is.
785
00:40:45,020 --> 00:40:47,660
Als ik kijk naar de basis, van waar wordt het ontwikkeld?
786
00:40:47,800 --> 00:40:49,820
Dat wordt natuurlijk voor een groot deel Silicon Valley, Big Tech.
787
00:40:50,860 --> 00:40:56,000
Dan zou ik verwachten dat het eerder richting de innovatieve kant neigt dan niet.
788
00:40:56,720 --> 00:41:00,960
Maar goed, er was een tijdje terug waarop X een bericht geplaatst door een onderzoeker van Anthropic.
789
00:41:01,070 --> 00:41:04,120
Dat er misschien een automatische melding naar de politie gemaakt moet worden.
790
00:41:04,170 --> 00:41:06,620
Als je dingen in je bron schrijft die niet helemaal door de bogen kunnen.
791
00:41:07,160 --> 00:41:10,740
En daar kwam een dusdanige backlash op dat ze die tweet zelfs verwijderd hebben.
792
00:41:13,039 --> 00:41:16,120
Dus weet je, er zijn ook wel dingen van oké, het moet ook wel veilig zijn.
793
00:41:16,200 --> 00:41:17,340
En dat is meer de toezichthouder kant.
794
00:41:19,460 --> 00:41:20,840
Dus je kan er eigenlijk alle kanten mee op.
795
00:41:21,220 --> 00:41:23,540
En waarom ik het vooral een hele mooie vraag vind is,
796
00:41:24,240 --> 00:41:26,860
omdat als je naar het alignment probleem krijgt en naar het toezicht,
797
00:41:26,860 --> 00:41:31,400
dan wordt eigenlijk ook wel in de wetenschappelijke literatuur een idee geopperd wat ik heel mooi vind.
798
00:41:31,420 --> 00:41:34,680
En dat is om een soort van AI-opper toezichthouder te hebben.
799
00:41:35,780 --> 00:41:38,160
Dus je ziet nu hele agentic systemen ontstaan.
800
00:41:38,260 --> 00:41:39,920
Dus agents die elkaar aansturen enzo.
801
00:41:40,060 --> 00:41:41,060
Dat hoef ik jullie niet te vertellen.
802
00:41:41,480 --> 00:41:42,560
Ook in wetenschappelijk onderzoek.
803
00:41:42,700 --> 00:41:46,420
En ik denk dat je misschien best wel een soort van AI toezichthouder kan hebben.
804
00:41:46,880 --> 00:41:49,800
Die AI's onder toezicht heeft.
805
00:41:50,080 --> 00:41:52,520
En dat vind ik wel een hele interessante gedachte.
806
00:41:52,840 --> 00:41:54,040
Het is wel heel erg early stage.
807
00:41:54,180 --> 00:41:57,480
Maar ik denk op een gegeven moment misschien dat dat best wel een goede oplossing is.
808
00:41:57,640 --> 00:42:01,340
Voor ons gebrek aan het vermogen om te begrijpen wat er gebeurt.
809
00:42:03,060 --> 00:42:05,260
En dat vind ik gewoon een hele elegante gedachte.
810
00:42:05,640 --> 00:42:07,660
Een AI in de boardroom van DNB, wie weet.
811
00:42:10,080 --> 00:42:15,740
Een van de vragen die ik eigenlijk wilde stellen was of je ergens hoopvolle ontwikkelingen zou zien.
812
00:42:15,860 --> 00:42:17,320
Maar daar is dit misschien een van.
813
00:42:17,780 --> 00:42:21,140
Maar zou je ook een zorgwekkende ontwikkeling zien?
814
00:42:22,180 --> 00:42:29,720
Nou ja, de zorgwekkende ontwikkeling zit voor mij toch ook wel op dat de mensen niet meer in controle is.
815
00:42:30,660 --> 00:42:34,920
Dus er wordt nu ook wel onderzoek gedaan waarin modellen mensen toch wel beginnen te manipuleren.
816
00:42:35,120 --> 00:42:35,620
taalmodellen.
817
00:42:37,960 --> 00:42:39,220
En dat er ook
818
00:42:39,880 --> 00:42:40,680
wordt gelogen.
819
00:42:41,360 --> 00:42:42,560
En dat je dus eigenlijk een soort van,
820
00:42:42,880 --> 00:42:44,720
dus bij alignment heb je zeg maar outer alignment,
821
00:42:45,660 --> 00:42:47,120
is het doel van het,
822
00:42:47,480 --> 00:42:48,980
of de output van het model komt dat over
823
00:42:49,120 --> 00:42:50,740
één met de waarde van de mens.
824
00:42:51,120 --> 00:42:52,740
Maar je hebt ook inner alignment, zijn er niet
825
00:42:53,160 --> 00:42:54,920
zeg maar ten opzichte van het doel wat de mens in het model
826
00:42:55,600 --> 00:42:55,860
plaatst.
827
00:42:57,100 --> 00:42:58,520
Gaat het model niet zijdoelen hebben?
828
00:42:58,860 --> 00:43:00,880
Dus zoals Nick Boosdrom zegt met de paperclip
829
00:43:01,000 --> 00:43:02,880
maximalisator en dat soort dingen, dat je
830
00:43:04,280 --> 00:43:05,080
als model
831
00:43:05,100 --> 00:43:07,040
zijdoelen hebt die niet die schadelijke...
832
00:43:07,040 --> 00:43:08,920
Zou je dit van de paperclip even kunnen uitleggen?
833
00:43:08,940 --> 00:43:10,340
Want ik denk niet dat iedereen die...
834
00:43:10,460 --> 00:43:11,920
Ja, ik moet even graven.
835
00:43:11,960 --> 00:43:14,880
Maar Nick Booschum, die heeft een boek Superintelligence geschreven.
836
00:43:14,900 --> 00:43:18,020
Dat is een, ik denk een AI klassieker toch wel.
837
00:43:18,420 --> 00:43:22,100
En daarin heeft hij eigenlijk beschreven dat als je...
838
00:43:22,100 --> 00:43:26,960
Waar AI's heel erg goed in zijn, is een doel volledig optimaliseren.
839
00:43:27,180 --> 00:43:31,180
En dat ze dat op een manier kunnen doen die side goals heeft.
840
00:43:31,580 --> 00:43:33,640
Die wij niet helemaal voorzien hadden.
841
00:43:34,480 --> 00:43:35,420
Maar die wel gebeuren.
842
00:43:35,600 --> 00:43:39,520
Dus in zijn geval zou het kunnen zijn dat je zegt van oké.
843
00:43:39,940 --> 00:43:42,600
Je programmeert een AI om te zeggen van jij moet paperclips maken.
844
00:43:44,820 --> 00:43:46,900
En volgens mij is zijn argument dan dat hij zegt van.
845
00:43:48,380 --> 00:43:50,340
Omdat hij dat doel wil blijven maximaliseren.
846
00:43:50,680 --> 00:43:52,220
Gaat het model de mens uitmoorden.
847
00:43:52,380 --> 00:43:54,260
Omdat het mens de machine uit zou kunnen zetten.
848
00:43:54,340 --> 00:43:55,360
En dan kunnen ze geen paperclips meer maken.
849
00:43:56,580 --> 00:43:57,420
Heel extreem voorbeeld.
850
00:43:57,600 --> 00:43:59,680
Super hypothetisch natuurlijk.
851
00:44:00,080 --> 00:44:02,740
Maar je ziet ook van dit soort voorbeelden in de praktijk.
852
00:44:03,000 --> 00:44:06,520
Wat ik altijd noem is het Cambridge Analytica schandaal.
853
00:44:07,020 --> 00:44:09,700
Dus als je kijkt naar de social media algoritmes.
854
00:44:10,280 --> 00:44:13,060
Die hebben als doel mensen vasthouden op het platform.
855
00:44:13,340 --> 00:44:14,420
Omdat ze dan meer ads kunnen laten zien.
856
00:44:14,420 --> 00:44:15,980
Dus het is gewoon een puur kapitalistisch doel.
857
00:44:17,460 --> 00:44:20,160
Maar het zij-effect daarvan is dat mensen in een filterbubbel komen.
858
00:44:20,280 --> 00:44:21,040
En radicaliseren.
859
00:44:22,800 --> 00:44:24,880
Brexit is een voorbeeld van waar dit gebeurd is.
860
00:44:26,080 --> 00:44:26,880
Verkiezingen in 2016.
861
00:44:28,520 --> 00:44:29,980
En dat Trump gewonnen heeft.
862
00:44:29,980 --> 00:44:31,620
Daar is duidelijk dit ook gebeurd.
863
00:44:32,180 --> 00:44:36,560
Je ziet ook mensen in rechts en links radicale ideeën wegzakken hierdoor.
864
00:44:37,100 --> 00:44:39,920
En dat is denk ik nooit de intentie geweest van deze bedrijven.
865
00:44:40,020 --> 00:44:40,600
Maar dat gebeurt wel.
866
00:44:43,560 --> 00:44:44,140
Ja, zo.
867
00:44:45,500 --> 00:44:46,260
Valt even stil.
868
00:44:47,380 --> 00:44:54,500
Ik was benieuwd, heeft iets of iemand jou beïnvloed op het gebied van toezichthouden?
869
00:44:55,010 --> 00:44:56,660
Of op het gebied van AI?
870
00:44:57,820 --> 00:45:03,300
Ja, mijn grootste AI-idool is denk ik Stuart Russell.
871
00:45:04,200 --> 00:45:06,520
Dus dat is een hoogleraar computerwetenschappen.
872
00:45:06,720 --> 00:45:09,280
En die heeft een boek geschreven in 2017 al, Human Compatible.
873
00:45:10,260 --> 00:45:11,460
Die kan ik ook iedereen aanraden.
874
00:45:11,480 --> 00:45:14,080
Dus dat gaat echt heel erg over value alignment en hoe los je dat technisch op.
875
00:45:14,220 --> 00:45:19,300
Dus wat ik heel elegant vind is bijvoorbeeld reinforcement learning by human feedback.
876
00:45:19,600 --> 00:45:23,440
Ik denk dat die taalmodellen zo ongelooflijk veel beter gemaakt heeft.
877
00:45:24,820 --> 00:45:30,160
En wat hij eigenlijk zegt is van, als jij een model wil hebben wat handelt naar de waarde van de mensen,
878
00:45:30,220 --> 00:45:34,340
dan moet je niet altijd kijken naar wat mensen zeggen of schrijven, maar je moet vooral kijken naar wat mensen doen.
879
00:45:34,620 --> 00:45:36,040
Dat is ook een beetje een leefregel van mij.
880
00:45:36,160 --> 00:45:38,140
Kijk vooral wat mensen doen, niet naar wat ze zeggen.
881
00:45:41,359 --> 00:45:44,960
En vanuit dat perspectief, dus hij kijkt ook naar menselijke psychologie,
882
00:45:45,080 --> 00:45:47,640
dat we door mate van menselijke interactie en moraliteit opbouwen.
883
00:45:47,700 --> 00:45:50,080
En hij zegt eigenlijk van, machines moeten eigenlijk met mensen gaan interacteren
884
00:45:50,420 --> 00:45:54,100
en zo de menselijke moraliteit leren door met mensen te interacteren.
885
00:45:54,260 --> 00:45:56,920
Dat vind ik heel elegant en mooi.
886
00:45:58,120 --> 00:45:59,540
Dus van hem ben ik heel erg groot fan.
887
00:46:00,880 --> 00:46:06,320
En ik vind ook, wat ik prachtig vind, is dat Jeffrey Hinton en de CEO van DeepMind,
888
00:46:07,320 --> 00:46:10,620
Dennis DeSabes heet hij volgens mij zoiets, die hebben de Nobelprijs gewonnen.
889
00:46:11,500 --> 00:46:12,980
Eén voor scheikunde en één voor natuurkunde.
890
00:46:14,120 --> 00:46:15,960
Voor hun ontwikkeling in AI.
891
00:46:17,060 --> 00:46:18,860
Voor DeepMind was dat AlphaVolt.
892
00:46:20,060 --> 00:46:22,720
En dat vind ik gewoon zo ontzettend prachtig.
893
00:46:24,480 --> 00:46:25,420
Dat dat kan.
894
00:46:25,640 --> 00:46:28,120
Dus ik verwacht met AI ook nog heel veel wetenschappelijke doormaken.
895
00:46:28,500 --> 00:46:29,580
De komende decennia.
896
00:46:30,580 --> 00:46:32,780
Als we het gesprek mogen samenvatten.
897
00:46:34,240 --> 00:46:34,600
Dan is het.
898
00:46:36,000 --> 00:46:37,360
Er zijn verschillende toezichthouders.
899
00:46:37,480 --> 00:46:38,620
Dat je verteld hebt.
900
00:46:39,160 --> 00:46:40,400
Het is nog in ontwikkeling.
901
00:46:42,740 --> 00:46:45,540
Mensen kunnen jullie vragen stellen.
902
00:46:45,940 --> 00:46:47,780
Als er discussie ontstaat.
903
00:46:47,820 --> 00:46:49,020
Dus mag iets wel, mag iets niet.
904
00:46:50,160 --> 00:46:52,280
Dus geest van de wet en de letter van de wet.
905
00:46:53,740 --> 00:46:56,200
En wat mis ik dan?
906
00:46:56,320 --> 00:46:59,400
Wat je volgens mij nog mist, maar vul me gerust aan, is het stukje.
907
00:46:59,720 --> 00:47:01,720
Het is ook een risico als je niet gaat innoveren.
908
00:47:02,240 --> 00:47:03,080
Dat vond ik wel een heel mooie.
909
00:47:04,380 --> 00:47:05,880
Dat vind ik absoluut.
910
00:47:06,600 --> 00:47:07,820
Daar zet ik mijn handtekening onder.
911
00:47:09,840 --> 00:47:15,140
En goed om te zeggen voor de financiële sector, maar ook voor Nederland en voor Europa.
912
00:47:15,420 --> 00:47:19,460
Want we hebben de slag met het internet toch aardig gemist.
913
00:47:19,560 --> 00:47:23,700
We zijn wel gedigitaliseerd, maar de grootste deel van de gecreëerde waarde zit niet op ons continent.
914
00:47:24,050 --> 00:47:25,560
Dat is echt aan de andere kant van de oceaan.
915
00:47:26,060 --> 00:47:29,800
En ik zou het heel jammer vinden als we dat met AI die boot ook gaan mislopen.
916
00:47:31,200 --> 00:47:31,760
Nou, duidelijk.
917
00:47:33,120 --> 00:47:35,360
Hartstikke bedankt dat je dit met ons wilde delen.
918
00:47:37,540 --> 00:47:40,100
En voor de rest...
919
00:47:41,160 --> 00:47:43,120
Moet ik even het juiste knopje vinden.
920
00:47:44,100 --> 00:47:46,760
Vergeet je niet te abonneren via je favoriete podcast app.
921
00:47:46,980 --> 00:47:51,600
Dan krijg je gewoon automatisch een melding bij een nieuwe aflevering.
922
00:47:51,660 --> 00:47:53,440
En dat is meestal op de maandag en op de donderdag.
923
00:47:53,640 --> 00:47:53,940
Zeker.
924
00:47:54,300 --> 00:47:54,900
Tot de volgende keer.
925
00:47:55,040 --> 00:47:55,580
Tot de volgende keer.