AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is uitgeroepen tot AI Podcast of the Year 2025 en is drie keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S08E37 - Van regel naar algoritme: de menselijke kant van AI bij ABN AMRO
Use Left/Right to seek, Home/End to jump to start or end. Hold shift to jump forward or backward.
Daniël Meel van ABN AMRO ontdekte dat AI-systemen voor witwasdetectie systematisch patronen misten - niet door slechte technologie, maar door menselijke vooroordelen in de trainingsdata. Criminelen bleven onder de radar omdat algoritmes leerden van eerdere menselijke beoordelingen vol bias. Hij ontwikkelde een aanpak die 2500 medewerkers trainde om hun eigen vooroordelen te herkennen en bespreekbaar te maken.
Bij ABN AMRO ging de detectie van complexe witwaspatronen omhoog door bias-testjes, diverse ontwikkelteams en maandelijkse gesprekken over blinde vlekken. Morgen kun je een bias-gesprek starten in je team met geanonimiseerde cases uit je eigen praktijk.
Onderwerpen
- Training van 2500 medewerkers bij ABN AMRO om AI-bias in witwasdetectie te herkennen en bespreken
- Netwerkanalyse en machine learning voor detectie van complexe financiële criminaliteit zoals BTW-carrousels
- Diverse teamsamenstelling als methode om blinde vlekken in algoritmeontwikkeling te voorkomen
- Validatie-uitdagingen bij generative AI en het verschil tussen human-in-the-loop en human-in-control
- Foutmarge-problematiek in AI-ketens waarbij 99% accuracy onvoldoende kan zijn bij kritieke processen
- Kaartspel: AI Game Changer - Generative AI editie
Genoemde entiteiten: ABN AMRO
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:05,719
Daniël Meel werkt al 15 jaar bij ABN AMRO, de laatste jaren binnen de bestrijding van
2
00:00:05,719 --> 00:00:07,360
financiële criminaliteit.
3
00:00:07,360 --> 00:00:14,720
In deze aflevering vertelt hij, hoe zijn team AI-inzet om analisten te ondersteunen bij het
4
00:00:14,720 --> 00:00:16,719
beoordelen van verdacht gedrag.
5
00:00:16,719 --> 00:00:23,160
Want, als poortwachter, heb je te maken met enorme hoeveelheden data en de spelt in de
6
00:00:23,160 --> 00:00:27,359
hooiberg vinden, doe je niet meer met alleen regels.
7
00:00:27,359 --> 00:00:30,519
Laat we luisteren naar het unieke verhaal van Daniël.
8
00:00:32,999 --> 00:00:36,199
Joop: Leuk dat je weer luistert naar een nieuwe aflevering van AIToday.
9
00:00:36,198 --> 00:00:39,319
Joop: Mijn naam Joop Snijder, van Aigency Info Support.
10
00:00:39,319 --> 00:00:42,519
Niels: En mijn naam Niels Naglé, Area Lead Data & AI bij Info Support.
11
00:00:42,519 --> 00:00:44,438
Joop: En in de studio Daniël Meel.
12
00:00:44,438 --> 00:00:48,519
Joop: Daniël, fantastisch dat je wilde komen, zou je jezelf even kort willen voorstellen.
13
00:00:48,519 --> 00:00:51,158
Daniël: Dank voor jullie uitnodiging, Niels en Joop.
14
00:00:52,119 --> 00:00:53,318
Daniël: Ik ben Daniël Meel.
15
00:00:53,318 --> 00:00:56,679
Daniël: Ik ben werkzaam bij ABN AMRO, al 15 jaar inmiddels.
16
00:00:56,679 --> 00:01:02,679
Daniël: En de laatste jaren binnen het financiële criminaliteit, de bestrijding van financiële criminaliteit.
17
00:01:02,679 --> 00:01:14,599
Daniël: En voornamelijk hou ik me bezig met hoe we het beter kunnen doen vanuit onze processen, ons beleid, maar ook vanuit de technologie, de manier hoe we hoe we omgaan met de bestrijding ervan.
18
00:01:15,878 --> 00:01:19,479
Daniël: De risico's, de efficiëntie, dat soort zaken.
19
00:01:19,799 --> 00:01:34,758
Daniël: En de link met AI is vooral dat een van mijn teams echt druk bezig is met ontwikkeling van artificial intelligence in dit domein, maar we doen dit al jaren en je merkt natuurlijk dat het veel groter wordt.
20
00:01:37,318 --> 00:01:40,999
Joop: Wat is eigenlijk je achtergrond?
21
00:01:40,999 --> 00:01:44,359
Joop: Hoe ben je zelf terecht gekomen in het gebied van AI?
22
00:01:46,198 --> 00:01:49,079
Daniël: Misschien moet ik gestudeerd in Twente.
23
00:01:49,079 --> 00:01:51,478
Daniël: Dus je hebt sowieso een technische achtergrond.
24
00:01:51,958 --> 00:02:00,598
Daniël: Vervolgens binnen de bank heb ik eigenlijk altijd wel banen gehad waar de statistiek, de analyse kant belangrijk was.
25
00:02:00,598 --> 00:02:03,318
Daniël: Ik ben modelleur geweest in het begin.
26
00:02:03,318 --> 00:02:06,839
Daniël: Later ook altijd in mijn team een analytische component gehad.
27
00:02:06,838 --> 00:02:12,118
Daniël: Of het heeft door de jaren heen natuurlijk continu anders geheten, wat er precies was.
28
00:02:12,759 --> 00:02:18,758
Daniël: En het AI-stuk, dat is natuurlijk door de jaren heen steeds wat meer wat minder geworden.
29
00:02:18,758 --> 00:02:21,158
Daniël: Maar het is natuurlijk de afgelopen jaren heel erg booming.
30
00:02:21,238 --> 00:02:22,198
Daniël: Hoe ben ik hier gekomen?
31
00:02:22,198 --> 00:02:26,518
Daniël: Vervolgens ben ik bij de financiële criminaliteit beland bij binnen de bank.
32
00:02:26,519 --> 00:02:31,398
Daniël: En binnen die rol dan zie je dat er gaat om grote aantallen.
33
00:02:31,558 --> 00:02:36,199
Daniël: Het gaat over transacties van die klanten doen, het gaat over de aantallen klanten.
34
00:02:36,198 --> 00:02:39,158
Daniël: Dus je hebt ontzettend veel data.
35
00:02:39,799 --> 00:02:45,958
Daniël: En hoe ga je nou, dat is een beetje die spelt in de hooiberg: hoe ga je nou nuttig werk doen.
36
00:02:45,958 --> 00:02:47,959
Daniël: Hoe ga je nou die financiële criminaliteit vinden?
37
00:02:47,958 --> 00:02:50,279
Daniël: Hoe ga je nou het witwaspatronen herkennen?
38
00:02:50,279 --> 00:02:53,079
Daniël: Hoe ga je naar netwerk herkennen, hoe ga je enzovoort.
39
00:02:53,079 --> 00:02:57,398
Daniël: En dat werd vanuit natuurlijk vooral gedaan door een aantal regels in te stellen.
40
00:02:57,398 --> 00:03:02,438
Daniël: Maar eigenlijk al in het begin zeiden we van ja, we moeten hier toch wat intelligenters op loslaten.
41
00:03:02,439 --> 00:03:04,838
Daniël: En dan begin je met je machine learning modellen.
42
00:03:04,838 --> 00:03:08,918
Daniël: Dan ga je wat meer de complexiteit in het geavanceerder.
43
00:03:08,919 --> 00:03:10,519
Daniël: En zo bouwt dat op.
44
00:03:10,519 --> 00:03:16,199
Daniël: We hebben een jaar of zes geleden we begonnen met het grootste deel van de detectiemodellen neerzetten.
45
00:03:16,199 --> 00:03:20,838
Daniël: Daar kan ik van alles over vertellen, daar hebben we heel veel slagen in gemaakt.
46
00:03:20,838 --> 00:03:30,519
Daniël: Maar de laatste jaren zie je natuurlijk vooral dat niet alleen de detectie en meer een AI machine learning component krijgt, maar juist ook als je handmatig werk aan het doen bent.
47
00:03:30,838 --> 00:03:33,318
Daniël: Wat is dan de ondersteuning die je kunt krijgen.
48
00:03:33,319 --> 00:03:35,878
Daniël: En dan komt meer die GAI-kant naar voren.
49
00:03:36,118 --> 00:03:50,599
Daniël: Wat bedoel je met handmatig de mensen binnen de mensen binnen onze afdelingen die kijken naar het gedrag van klanten, is dit verdacht gedrag en die daar een oordeel over vellen.
50
00:03:52,598 --> 00:03:53,879
Daniël: Dat beoordelen.
51
00:03:53,878 --> 00:03:57,159
Daniël: En in dat werk, daar komt natuurlijk heel veel onderzoekswerk in terug.
52
00:03:57,159 --> 00:04:01,079
Daniël: Dus je gaat naar de grote data kijken, je gaat datapunten verbinden.
53
00:04:01,079 --> 00:04:05,239
Daniël: Je gaat kijken wat zouden de dat noemen we vaak de modus operandi kunnen zijn.
54
00:04:05,879 --> 00:04:10,279
Daniël: En dat is best wel heel moeilijk als je dat zelf gaan doen.
55
00:04:10,278 --> 00:04:15,478
Daniël: En die ondersteuning van die technologie, dus die netwerkanalyses tools die dat inzichtelijk maken.
56
00:04:15,478 --> 00:04:17,238
Daniël: die helpen daar enorm bij.
57
00:04:17,478 --> 00:04:24,759
Daniël: En je ziet ook dat generatieve AI ook in staat is om al een heleboel daarvan vooraf goed neer te zetten.
58
00:04:25,319 --> 00:04:27,079
Joop: Kan je mij iets vertellen over die netwerken?
59
00:04:27,079 --> 00:04:27,719
Joop: O wat voor.
60
00:04:27,879 --> 00:04:32,359
Joop: Kijk, ik zit in IT en dan is een netwerk is voor mij verbonden computers.
61
00:04:33,558 --> 00:04:39,318
Daniël: Als ik het over netwerken heb in mijn veld, heb ik het dan heb ik het over met name.
62
00:04:39,799 --> 00:04:45,558
Daniël: Je kunt allerlei vormen van netwerken hebben, maar je kunt het vooral hebben over hoe kun je ervoor zorgen dat je jezelf verrijkt.
63
00:04:45,559 --> 00:04:48,678
Daniël: Dat is wat er gebeurt in financiële criminaliteit.
64
00:04:48,678 --> 00:04:51,318
Daniël: En dan kun je bijvoorbeeld hebben over BTW carrousels.
65
00:04:51,478 --> 00:05:02,919
Daniël: Dus het oprichten van bedrijven en het rondpompen van geld en daarvan profiteren, omdat je uiteindelijk niks toevoegt aan de waardeketen, maar wel uiteindelijk het geld rondpompt.
66
00:05:02,918 --> 00:05:06,918
Daniël: Maar dat kun je niet heel goed zien met de blote oog.
67
00:05:06,918 --> 00:05:09,718
Daniël: Dat kun je ook niet echt in een regel vatten.
68
00:05:09,719 --> 00:05:17,799
Daniël: Daarvoor heb je eigenlijk algoritmes nodig en netwerkanalyses die laten zien hoe het met elkaar samenhangt.
69
00:05:18,598 --> 00:05:21,558
Daniël: Dat is het type complexiteit waar wij dagelijks mee te maken hebben.
70
00:05:21,558 --> 00:05:28,838
Niels: Dus dat is het netwerk van transacties die aan elkaar geketend zijn en zo eigenlijk gezamenlijk een beeld vormen waarvoor het wordt gebruikt.
71
00:05:28,838 --> 00:05:31,439
Daniël: Ja, dat zijn het kunnen transacties zijn.
72
00:05:31,679 --> 00:05:38,478
Daniël: Het kan ook zijn dat je met structuren, bedrijfsstructuren werkt, dus eigendomstructuren.
73
00:05:38,798 --> 00:05:42,399
Daniël: Op verschillende manieren kun je die netwerken dus in kaart brengen.
74
00:05:42,398 --> 00:05:48,958
Daniël: En juist daarvoor zie je dat meer geavanceerdere tools echt wel meerwaarde hebben.
75
00:05:48,958 --> 00:05:55,758
Niels: En waar zit dan het balans van wanneer laat je het AI doen en wanneer gaat de onderzoeker of de medewerker mee aan de slag voor de beoordeling.
75
00:05:55,759 --> 00:05:58,479
Niels: Want dat lijkt me best wel een belangrijke fase die erin zit.
76
00:05:58,639 --> 00:05:59,918
Daniël: Dat is zeker een belangrijke fase.
77
00:05:59,999 --> 00:06:06,079
Daniël: Ik denk dat voorop gesteld, je moet een signaal hebben waar je op acteert.
78
00:06:06,319 --> 00:06:08,799
Daniël: Dat kun je detecteren.
79
00:06:08,798 --> 00:06:14,398
Daniël: En daarvoor heb je dan machine learning AI-algoritmes die meer de klassieke AI hebben.
80
00:06:16,398 --> 00:06:22,158
Daniël: Op die manier kies je eigenlijk welke casuïstiek je wil gaan bekijken.
81
00:06:22,158 --> 00:06:23,759
Daniël: Daar komt het een beetje op neer.
82
00:06:23,759 --> 00:06:28,158
Daniël: Vervolgens train je die algoritmes om de juiste dingen te zien.
83
00:06:28,158 --> 00:06:32,878
Daniël: Dus om zo hoog mogelijk percentage te hebben, nuttige signalen.
84
00:06:33,519 --> 00:06:43,278
Daniël: En als zo'n signaal dan vervolgens daadwerkelijk materieel is of onderzoekswaardig is, dan komt daar een menselijke beoordeling bij kijken.
85
00:06:43,278 --> 00:06:49,838
Daniël: Maar vervolgens moet je als analist die dat gaat beoordelen, moet je wel een heleboel informatie bij elkaar halen.
86
00:06:49,838 --> 00:06:52,159
Daniël: Je hebt soms ook gewoon klantcontact nodig.
87
00:06:52,158 --> 00:06:56,319
Daniël: En in heel veel gevallen is het gewoon verklaarbaar gedrag natuurlijk.
88
00:06:56,319 --> 00:07:05,278
Daniël: Maar dat onderscheid maken, dat vergt kennis, maar het vergt ook heel veel opzoekwerk informatie wat je moet combineren.
89
00:07:05,598 --> 00:07:10,079
Daniël: En dat werk, dat kent ook veel handmatig slagen.
90
00:07:10,398 --> 00:07:20,719
Daniël: En dat zijn we dus stuk voor stuk aan het kijken, waar kun je er nou voor zorgen dat je met generatieve AI dat al voor de makkelijkste vorm is een stukje prefilling vanuit andere bronnen.
91
00:07:20,718 --> 00:07:24,158
Daniël: Maar je kunt daar natuurlijk ook verdere stappen in maken.
92
00:07:24,158 --> 00:07:25,759
Daniël: Daar staan we redelijk aan het begin.
93
00:07:25,759 --> 00:07:29,679
Daniël: De eerste dingen zijn er, maar je ziet dat dat optelt.
94
00:07:29,999 --> 00:07:37,679
Daniël: En uiteindelijk verwacht ik dat heel veel van dit soort processen uiteindelijk een aaneenschakeling van agents worden, zeg maar.
95
00:07:37,838 --> 00:07:44,958
Daniël: Dus stappen die je in principe door door agents, AI agents laat laat uitvoeren.
96
00:07:46,798 --> 00:07:48,958
Joop: Waar ligt dan nu de balans?
97
00:07:49,278 --> 00:07:53,838
Joop: Want het is nog, het is een menselijke beoordeling, zeg je toch.
98
00:07:54,879 --> 00:08:01,199
Daniël: Wat in het fraudegebied, we voeren net als andere financiële instellingen, de rol van poortwachter, zo heet dat in de wetgeving uit.
99
00:08:01,359 --> 00:08:09,758
Daniël: En de rol van poortwachter, dat is inderdaad een menselijke beoordeling of hier mogelijk verdacht gedrag plaatsvindt.
100
00:08:09,838 --> 00:08:11,919
Daniël: En wij zijn geen opsporingsdiensten.
101
00:08:11,918 --> 00:08:21,838
Daniël: Dus het is vanuit vanuit onze taak is het melden van dingen die mogelijk verdacht zijn.
102
00:08:24,719 --> 00:08:26,478
Joop: Niels is een beetje verkouden.
103
00:08:26,479 --> 00:08:28,319
Joop: Dus je zit er af en toe een beetje doorheen toe.
104
00:08:28,478 --> 00:08:30,798
Joop: Sorry daarvoor, sorry voor de luisteren.
105
00:08:30,798 --> 00:08:33,278
Joop: Maar hij is er, dat is het allerbelangrijkste, toch?
106
00:08:33,278 --> 00:08:34,398
Joop: Ja, zeker.
107
00:08:35,837 --> 00:08:42,318
Joop: Omdat het een menselijke beoordeling is, moeten we natuurlijk ook altijd oppassen voor de vooroordelen die we zelf bezitten.
108
00:08:42,799 --> 00:08:46,879
Joop: En daar ben jij natuurlijk ook, of tenminste, een team van jou is daar heel nadrukkelijk mee bezig.
109
00:08:46,879 --> 00:08:48,398
Daniël: Absoluut.
110
00:08:48,718 --> 00:08:53,999
Daniël: Ik denk dat als je het een beetje een beetje uitzoomt, je traint dus die modellen.
111
00:08:54,239 --> 00:08:59,518
Daniël: Die train je natuurlijk op het herkennen van patronen, maar dat doe je voor een deel ook met historische data.
112
00:08:59,599 --> 00:09:03,678
Daniël: Maar die data wordt natuurlijk ook gevoerd door wat wij eerder hebben beoordeeld.
113
00:09:04,158 --> 00:09:06,558
Daniël: En in ieder mens zitten biases.
114
00:09:06,879 --> 00:09:07,838
Daniël: Zo zeggen we dat.
115
00:09:07,838 --> 00:09:10,078
Daniël: Dus ieder mens heeft dat.
116
00:09:10,398 --> 00:09:13,839
Daniël: Dus dat betekent dat we daar ook ontzettend alert op moeten zijn.
117
00:09:13,838 --> 00:09:18,879
Daniël: Alert op zijn of we daar genoeg bewust van zijn.
118
00:09:18,879 --> 00:09:23,759
Daniël: Want het is niet zo, je kunt niet naar een niet biased situatie gaan.
119
00:09:23,759 --> 00:09:25,519
Daniël: Maar je moet je er bewust van zijn.
120
00:09:25,519 --> 00:09:31,838
Daniël: En alles in het werk stellen dat het geen onderdeel is van je beoordeling uiteindelijk.
121
00:09:31,838 --> 00:09:33,119
Daniël: Dat is moeilijk.
122
00:09:33,119 --> 00:09:35,918
Daniël: Maar dat is wel het doel wat hier achter zit.
123
00:09:35,918 --> 00:09:44,478
Daniël: En daarvoor hebben we verschillende mogelijkheden van in die teams die die algoritmes trainen, dat moeten hele diverse teams zijn.
124
00:09:44,479 --> 00:09:47,599
Daniël: Dat is wel gewoon een vereiste, vinden wij.
125
00:09:47,598 --> 00:09:49,678
Daniël: Omdat je elkaar dan scherp houdt.
126
00:09:49,679 --> 00:10:01,038
Daniël: Omdat je dan als je dat overlegt, ook een beeld krijgt bij ook misschien heb ik dan toch een aanname gemaakt in de data die ik hiervoor gebruik, heb ik misschien toch een keuze gemaakt.
127
00:10:01,038 --> 00:10:04,559
Daniël: Dus dat doen we met het modelontwikkelingstraject.
128
00:10:04,639 --> 00:10:06,239
Joop: Maar mag ik over dat team hebben?
129
00:10:06,398 --> 00:10:08,038
Joop: Want we hebben het hier ook heel vaak over.
130
00:10:14,359 --> 00:10:15,558
Joop: Multidisciplinair.
131
00:10:10,078 --> 00:10:18,759
Joop: En dat je vanuit van verschillende hoeken.
132
00:10:18,918 --> 00:10:23,079
Joop: Maar hoe weet je nou dat dat multidisciplinair genoeg is.
133
00:10:23,798 --> 00:10:25,879
Daniël: Dat is echt wel een hele moeilijke vraag.
134
00:10:26,198 --> 00:10:27,799
Daniël: Het antwoord is nog moeilijker.
135
00:10:28,839 --> 00:10:34,199
Daniël: Ik denk dat het een optelsom van factoren, denk ik hier.
136
00:10:35,158 --> 00:10:45,559
Daniël: Als ik er naar kijk, je kijkt naar een team waarbij je een poging doet om dat team zo divers mogelijk laten zijn qua achtergrond, qua ander werk.
137
00:10:46,119 --> 00:10:53,319
Daniël: Alle doorsneden die je kunt bedenken op het gebied van hoe divers kun je zijn.
138
00:10:53,798 --> 00:10:56,279
Daniël: Internationale kant moeten inzitten.
139
00:10:56,278 --> 00:11:00,119
Daniël: Goede verdelingen van waar een team vandaan komt dat expertise is.
140
00:11:01,879 --> 00:11:05,318
Daniël: Dat is wel echt een belangrijk belangrijk geheel, denk ik.
141
00:11:05,639 --> 00:11:10,839
Daniël: Maar daarnaast is het ook het überhaupt agenderen van het topic.
142
00:11:10,838 --> 00:11:12,519
Daniël: Het bias topic.
143
00:11:13,078 --> 00:11:22,998
Daniël: En een van de dingen die wij bijvoorbeeld doen, is dat wij ook onze hele afdeling, dus ook de mensen die de beoordeling doen, die het klantcontact doen, dat wij die ook trainen op dit gebied.
144
00:11:22,999 --> 00:11:28,438
Daniël: En de training, dat gaat er in eerste instantie om, ben je bewust van je eigen biases.
145
00:11:28,438 --> 00:11:30,199
Daniël: Dat is best wel confronterend.
146
00:11:30,359 --> 00:11:31,959
Joop: Best wel moeilijk lijkt me over.
147
00:11:33,719 --> 00:11:36,919
Joop: Hoe weet je, zeg maar, waar je vooroordelen zitten.
148
00:11:37,879 --> 00:11:39,799
Daniël: Vaak weet je het zelf niet.
149
00:11:40,439 --> 00:11:41,879
Daniël: Er zijn wat testjes voor.
150
00:11:41,879 --> 00:11:43,478
Daniël: Dus we beginnen ook vaak dat je.
151
00:11:43,479 --> 00:11:45,559
Daniël: En daar kun je van alles van vinden van die testjes.
152
00:11:45,719 --> 00:11:46,918
Daniël: Dus zeker geen waarheid.
153
00:11:46,918 --> 00:11:48,599
Daniël: Er zit nergens waarheid in.
155
00:11:48,759 --> 00:11:52,838
Daniël: Maar we beginnen vaak proberen voor jezelf een van die testjes te doen.
154
00:11:52,838 --> 00:11:54,199
Daniël: En er dan op te reflecteren.
155
00:11:54,199 --> 00:11:57,398
Daniël: En misschien wat casuïstiek, geanonimiseerd uit de praktijk.
156
00:11:57,398 --> 00:12:01,078
Daniël: Of we hebben natuurlijk ook wel eens als bank natuurlijk wel eens wat klachten gekregen.
157
00:12:01,078 --> 00:12:04,119
Daniël: Dan ga je die kun je die ook oppakken.
158
00:12:04,119 --> 00:12:10,679
Daniël: En kun je natuurlijk naar kijken van hoe kijk ik daarnaar waar komt het op mij over, en dan begint dat gesprek.
159
00:12:10,999 --> 00:12:19,559
Daniël: En dit is iets wat we dus over alle mensen die hier aan werken, nu zijn er geloof ik ongeveer 2500 op dit moment.
160
00:12:20,038 --> 00:12:22,839
Daniël: En ik geloof dat nu zijn vorig jaar hebben we dat ingezet.
161
00:12:22,999 --> 00:12:27,718
Daniël: Ik denk dat nu 97% hier doorheen gegaan is, dat is even mijn aanname op dit moment.
162
00:12:28,038 --> 00:12:38,439
Daniël: Dus dit geeft aan hoe serieus we het nemen dat je je bewust bent van je van je wijs, maar ook dat je het gesprek over durft te hebben.
163
00:12:38,438 --> 00:12:39,479
Daniël: En dat je durft.
164
00:12:39,719 --> 00:12:46,119
Niels Naglé: De challenger misschien wel, je collega van, heb je dat perspectief ook meegenomen, dat durft te stellen in het proces.
165
00:12:46,278 --> 00:12:52,918
Niels Naglé: Ik was even nieuwsgierig, je zei testjes, hebben we dan over profieltesten, denk ik, wat voor persoonlijkheid jezelf bent, of niet of persoonlijkheidstest.
166
00:12:53,078 --> 00:13:04,759
Daniël: Ja, je kunt allerlei testen doen, maar je kunt testen doen over welke woorden je associeert met wat met man, vrouw of met je kunt allerlei dingen doen op dat gebied.
167
00:13:04,999 --> 00:13:13,158
Daniël: Om waar je nu onbewust van bent, om dan te kijken, nu moet ik zeggen, er zijn allerlei reden ervoor wel of niet dit soort testjes doen.
168
00:13:13,158 --> 00:13:18,359
Daniël: Maar het helpt op het aanzetten van de discussie en het durven daarover te praten.
169
00:13:18,358 --> 00:13:19,479
Daniël: En dat is wel een belangrijk.
170
00:13:19,798 --> 00:13:32,839
Daniël: Wat je ook zegt, het tegenlezen door anderen, van heb ik hier misschien toch te snel een aanname gemaakt, was het feit dat ik misschien in een gesprek een bepaalde kant op bent gegaan, ben ik een tunnel ingegaan in mijn gedachten.
171
00:13:34,119 --> 00:13:35,319
Daniël: En dat is dat is wel belangrijk.
172
00:13:35,318 --> 00:13:43,479
Daniël: Want de andere kant, want dat is natuurlijk wel om te benadrukken, wij zijn een bank, wij hebben gewoon deze rol uit te voeren en we doen dat zo goed mogelijk.
173
00:13:43,479 --> 00:13:45,959
Daniël: En daar willen we echt goed in zijn.
174
00:13:45,959 --> 00:13:51,639
Daniël: Maar we weten ook dat de klanten, waar dan gaat het over het algemeen om die wij hiervoor hiermee contacten.
175
00:13:53,879 --> 00:13:57,639
Daniël: Dat die daar ook een mening, een beeld, een gevoel bij hebben.
176
00:13:58,678 --> 00:14:01,958
Daniël: Het is zo belangrijk om te luisteren naar je klant.
177
00:14:01,959 --> 00:14:11,959
Daniël: En de goede dingen te doen op dit gebied en de goede analyses doen en een goede invulling aan te geven en niet heel snel richting een oordeel te gaan aan te verhaal.
178
00:14:12,838 --> 00:14:13,558
Daniël: Ja, precies.
179
00:14:14,438 --> 00:14:16,599
Daniël: Dat is best wel best wel ingewikkeld.
180
00:14:16,838 --> 00:14:23,479
Niels Naglé: En daarnaast is het natuurlijk nog, het gaat om witwassen en dat soort zaken te spotten, waar dus ook die patronen iedere keer natuurlijk wijzigen.
181
00:14:23,558 --> 00:14:28,438
Niels Naglé: Want als je eenmaal iets gevonden hebt van signalen, je denkt van nou nu we het signaal, dan weet de rest ook dat het signaal er is.
182
00:14:28,439 --> 00:14:30,838
Niels Naglé: En dan gaat er weer opnieuws het spel spelen.
183
00:14:30,838 --> 00:14:35,079
Daniël: Ja, ja, en sommige patronen zijn historisch redelijk stabiel moet ik zeggen hoor.
184
00:14:35,158 --> 00:14:37,478
Daniël: Maar er zijn ook wel trends.
185
00:14:37,479 --> 00:14:39,479
Daniël: En je ziet ook wel veranderende zaken.
186
00:14:39,719 --> 00:14:44,999
Daniël: Bij ons gaat het uiteindelijk natuurlijk om het betalingsverkeer, weet je waar het geld heen komt, waar het geld uitgaat.
187
00:14:44,999 --> 00:14:48,359
Daniël: En er zit nog de eigendomstructuur, weet je wie erachter zit.
188
00:14:48,479 --> 00:14:49,879
Daniël: Dat is dat is grof weg.
189
00:14:49,839 --> 00:14:54,279
Daniël: Ik doe het een beetje tekort, misschien te werk met grofweg, maar het is grof weg wat het wat het inhoudt.
190
00:14:54,278 --> 00:15:02,398
Daniël: Maar op het moment dat je meer spelers in de markt krijgt die iets mogen doen op het betalings in de betalingsverkeer, dan wordt het al wat troebeler.
191
00:15:02,639 --> 00:15:09,438
Daniël: Op het moment dat je met cryptovaluta kunt werken, je hebt er verschillende.
192
00:15:09,438 --> 00:15:17,038
Daniël: en ik heb het nu ook over bijvoorbeeld de PSP's en de cryptographed, allemaal mogelijkheden die er zijn, die heel veel kansen bieden aan de samenleving.
193
00:15:17,359 --> 00:15:21,999
Daniël: Maar die ook wel een versplinter veld creëren.
194
00:15:21,999 --> 00:15:23,199
Joop Snijder: En zeker zo de netwerken.
195
00:15:23,198 --> 00:15:24,239
Joop Snijder: Dat is een PSP.
196
00:15:24,239 --> 00:15:27,119
Daniël: Een PSP dat is een payment service provider.
197
00:15:27,119 --> 00:15:48,959
Daniël: En dat zijn onder de regio geef die een aantal jaar geleden is ingevoerd, mogen ook partijen, dat je wel licentie voor hebben en zo, mogen ook voor jouw betalingen initiëren en mogen rekening informatie van derde verzamelen als jij content geeft als klant om services op dat gebied aan te bieden.
198
00:15:48,959 --> 00:15:58,479
Daniël: En de bekendste zijn natuurlijk de grote, even de Bukken Rude Molly, de Ajen, dat noem ik gewoon een aantal grote PSP's.
199
00:16:00,639 --> 00:16:05,278
Joop Snijder: Want 2500 man trainen in zo'n korte tijd.
200
00:16:06,239 --> 00:16:08,318
Joop Snijder: Dat is echt wel een enorme opgave.
201
00:16:08,558 --> 00:16:11,119
Joop Snijder: Hoe hebben jullie dat voor elkaar gekregen?
202
00:16:11,759 --> 00:16:15,918
Daniël: Dat hebben wij voor elkaar gekregen door dat gewoon te doen uiteindelijk.
203
00:16:17,519 --> 00:16:18,718
Joop Snijder: Dat begint het vaak toch?
204
00:16:18,719 --> 00:16:19,359
Niels Naglé: Ja, precies.
205
00:16:19,359 --> 00:16:27,598
Daniël: Dus natuurlijk zit een heel plan achter met een planning en de ondersteuning en de goede communicatie op dat gebied ambassadeurs verzamelen.
206
00:16:27,599 --> 00:16:32,158
Daniël: Dus gisteren hadden we nog even een soort van terugkomtdag van alle facilitators.
207
00:16:32,158 --> 00:16:39,038
Daniël: Dus iedereen die deze die ook de gesprekken heeft gefaciliteerd, was ook een mooie mooie bijeenkomst op dit gebied.
208
00:16:39,038 --> 00:16:42,639
Daniël: En dan is de vraag na zo'n programma, hoe hou je het vast?
209
00:16:44,398 --> 00:16:47,679
Daniël: Daar kwamen allerlei allerlei ideeën ideeën boven.
210
00:16:47,678 --> 00:16:53,359
Daniël: Want het is natuurlijk ontzettend belangrijk om de discussie, want je lost het niet op, het is niet meetbaar.
211
00:16:53,598 --> 00:16:54,479
Daniël: Laten we voorop stellen.
212
00:16:54,879 --> 00:17:01,279
Daniël: Er zijn signalen meetbaar, maar het is niet een meetbaar of tastbaar onderwerp uiteindelijk.
215
00:17:01,599 --> 00:17:10,157
Daniël: En hoe je daar dan mee omgaat, dat is puur het levend houden van het onderwerp, maar je kunt moeilijk op de agenda punt geven.
213
00:17:10,157 --> 00:17:12,558
Daniël: We gaan het vandaag nog even hebben over bias.
214
00:17:12,959 --> 00:17:19,118
Daniël: Dus we hadden het er over, misschien moet je een soort stelling elke maand hebben of een geanonimiseerde of fictieve casuïstiek.
215
00:17:19,118 --> 00:17:22,638
Daniël: Dat je toch iedere keer weer even die bewustwording erin hebt.
216
00:17:22,878 --> 00:17:25,598
Daniël: En dit gaat door alle teams heen.
217
00:17:25,678 --> 00:17:38,719
Daniël: Dus niet alleen teams met klantcontact, ook teams die trainingen ontwerpen, ook teams die algoritmes waar we waar we het over hebt, die AI algoritmes trainen, het gaat door al die teams heen, dit verhaal.
218
00:17:39,038 --> 00:17:41,519
Joop Snijder: Hebben ze het net wel eens gedaan dan, zo op zo'n agenda gezet?
219
00:17:41,519 --> 00:17:43,678
Joop Snijder: Ik vind het niet eens heel gek idee, toch?
220
00:17:43,679 --> 00:17:51,118
Joop Snijder: Dat je dan inderdaad een casus pakt en zeggen van hoe zouden we daar nu naar kijken, met de kennis die we nu hebben.
221
00:17:51,278 --> 00:17:53,118
Daniël: Het gebeurt niet structureel.
222
00:17:53,999 --> 00:18:01,119
Daniël: Maar ik denk wel dat dat en dat is een beetje waar op zo'n dag als gisteren, dan ben je daarna op zoek naar hoe kunnen we dit doen.
223
00:18:01,118 --> 00:18:06,158
Daniël: En het is mooi om te zien dat daar heel veel animo voor is om dit ook te doen.
224
00:18:06,158 --> 00:18:15,679
Daniël: Omdat iedereen voelt dat wel, want dat is natuurlijk ook een beetje, we hebben het over AI, dan heb je het, als je het een aantal jaar geleden over AI en over data science had, dan ging het altijd de techniek in.
225
00:18:15,678 --> 00:18:17,358
Daniël: Dan ging het altijd over die algoritmes.
226
00:18:17,358 --> 00:18:23,439
Daniël: Dan ging het altijd over hoe kun je met neurale netwerken werken met Ferratio, outra en codes, iforce, isolation forrest.
227
00:18:23,679 --> 00:18:25,278
Daniël: Dat soort dat soort verhalen.
228
00:18:25,278 --> 00:18:32,719
Daniël: En wanneer gebruik je welke welke architectuur en welke en dat is een beetje weg.
229
00:18:32,719 --> 00:18:35,439
Daniël: Want het gaat nu vooral over de non-tech kant.
230
00:18:35,519 --> 00:18:46,638
Daniël: Dus de is dit ethisch, is dit privacy-wise, kunnen we dit kunnen we dit maken, is dit welke biases zitten er mogelijk in.
231
00:18:46,638 --> 00:18:48,238
Daniël: En wat zijn de gevolgen?
232
00:18:48,479 --> 00:18:54,639
Daniël: Dus we werken steeds meer toe naar non-technische assessments.
233
00:18:54,638 --> 00:19:02,798
Daniël: En dat gaat gaat een beetje de kant op, dat wordt ook vaker genoemd naar de fundamental rights impact assessment.
234
00:19:03,038 --> 00:19:06,638
Daniël: Dus het gaat niet eens meer over één of twee aspecten.
235
00:19:06,638 --> 00:19:15,838
Daniël: Het gaat echt, en nou daar ben ik een heel groot voorstander van echt over nadenken over de niet-technische gevolgen van het gebruik van algoritmes.
236
00:19:16,239 --> 00:19:20,798
Joop Snijder: En gebruik jullie die ook, die FRIA.
237
00:19:21,999 --> 00:19:23,438
Joop Snijder: Gebruiken jullie die ook.
238
00:19:24,158 --> 00:19:27,598
Daniël: Wij gebruiken inderdaad alle alles wat eindigt op IA.
239
00:19:30,318 --> 00:19:34,879
Daniël: Ik denk dat we moeten zeggen dat het dat dingen nog best wel ver in ontwikkeling zijn, vaak.
240
00:19:34,879 --> 00:19:39,999
Daniël: Maar opgeteld, denk ik wel, we doen altijd fairness en bias tests.
241
00:19:39,999 --> 00:19:43,038
Daniël: We doen altijd de vraagstukken.
242
00:19:43,038 --> 00:19:49,318
Daniël: Of is dit in het belang van de van de klant, belangen afweging een stuk, op privacygebied ook en zo.
243
00:19:49,878 --> 00:19:51,878
Daniël: En dat doe je op verschillende factoren.
244
00:19:51,878 --> 00:19:54,199
Daniël: Dus je kijkt naar welke data gebruik je überhaupt.
245
00:19:54,199 --> 00:19:58,999
Daniël: En is dat rechtstreek te linken aan het doel wat je ermee hebt.
246
00:19:58,999 --> 00:20:01,318
Daniël: Dus in mijn domein financial crime.
247
00:20:01,318 --> 00:20:06,198
Daniël: Als je een bepaald type criminaliteit wil detecteren.
248
00:20:06,199 --> 00:20:18,759
Daniël: Dan zijn die datapunten ook daadwerkelijk te linken, of vanuit de literatuur of vanuit vorm van bewijslast uit het verleden te linken aan hetgene je je aantal aan het opsporen bent, kun je kun je dat doen.
249
00:20:18,759 --> 00:20:20,679
Daniël: Dus dat is de input inputkant.
250
00:20:20,679 --> 00:20:24,118
Daniël: Dan de algoritmes selectie, waar je natuurlijk een keuze in maakt.
251
00:20:24,118 --> 00:20:26,278
Daniël: En dan natuurlijk ook aan die outputkant.
252
00:20:26,598 --> 00:20:27,719
Daniël: Komt er dan ook uit?
253
00:20:27,719 --> 00:20:30,678
Daniël: Wat je verwacht en kun je het daarmee ook verantwoorden.
254
00:20:30,759 --> 00:20:33,558
Joop Snijder: En je hebt nog de datakant toch, welke data selecteer je?
255
00:20:33,638 --> 00:20:35,718
Daniël: Ja, wat mij betreft was dat die invoerkant.
256
00:20:35,719 --> 00:20:38,038
Daniël: Dus welke datapunten, welke features.
257
00:20:38,759 --> 00:20:47,558
Daniël: Wat kies je aan variabelen, die überhaupt rechtstreeks te relateren is aan de modus operandi die je wil detecteren hier.
258
00:20:47,798 --> 00:20:51,558
Daniël: Dat doen we al nu al jaren, zeg maar op die manier.
259
00:20:52,038 --> 00:20:56,678
Daniël: En ik moet zeggen, dat gaat gaat best goed.
260
00:20:56,679 --> 00:20:58,598
Daniël: En daar bedoel ik mee.
261
00:20:58,598 --> 00:21:03,158
Daniël: De manier waarop er over gesproken wordt, de volwassenheid die ik daar bespeur.
262
00:21:03,479 --> 00:21:05,718
Daniël: Maar daar heb ik het wel over de classical AI.
263
00:21:05,878 --> 00:21:06,999
Niels Naglé: En de machine learning kan.
264
00:21:06,999 --> 00:21:08,838
Daniël: En dan heb ik het niet over Gen AI.
265
00:21:08,999 --> 00:21:13,158
Daniël: Want dan hebben we echt weer een heel ander echt een totaal andere situatie weer.
266
00:21:13,479 --> 00:21:15,318
Joop Snijder: Kun je zo'n situatie schetsen?
267
00:21:15,318 --> 00:21:16,519
Joop Snijder: Wat maakt het anders?
268
00:21:16,598 --> 00:21:20,999
Daniël: Wat het vooral anders maakt, Gen AI is in eerste instantie natuurlijk de toepassing.
269
00:21:20,999 --> 00:21:24,519
Daniël: Dus de toepassing van Gen AI zit niet heel sterk in de detectiekant.
270
00:21:24,519 --> 00:21:38,598
Daniël: Het zit hem echt veel meer dus in het transcript, informatie eruit halen, informatie verzamelen, informatie op een plek brengen en echt waar die large language models in eerste instantie voor bedoeld zijn.
271
00:21:38,598 --> 00:21:41,239
Daniël: Ik denk dat het maar het allereerste begin is.
272
00:21:41,558 --> 00:21:54,838
Daniël: Maar waar daarin zit is natuurlijk het grenst heel snel aan wanneer is het een model wat jouw richting op duwt, of wanneer helpt het model jou.
273
00:21:54,838 --> 00:21:57,638
Daniël: En ben jij nog steeds degene aan het sturen.
274
00:21:57,638 --> 00:21:59,878
Daniël: Dus de human in the loop in deze.
275
00:22:00,199 --> 00:22:13,879
Daniël: En omdat je dat natuurlijk niet echt die Gen AI-algoritmes zijn natuurlijk anders qua opzet en ze zeggen vaak transparantie, ik weet niet of dat zeggen, ik heb dat moeite met dat woord.
276
00:22:13,878 --> 00:22:25,318
Daniël: Maar in elk geval met de in de situatie van wat komt er dan precies uit, kan ik dat helemaal reconstrueren, dat is nog wel eens wat diffuus.
277
00:22:25,399 --> 00:22:26,198
Daniël: En je ziet ook natuurlijk.
278
00:22:26,358 --> 00:22:27,239
Joop Snijder: Dat is heel moeilijk toch?
279
00:22:27,239 --> 00:22:28,519
Daniël: Dat is heel moeilijk.
280
00:22:28,519 --> 00:22:32,038
Daniël: En dat is ook waarom natuurlijk altijd die human in the loop erin zit.
284
00:22:32,038 --> 00:22:40,358
Daniël: Maar we weten ook natuurlijk, als we de tijd een beetje vooruit draaien, dat nu corrigeert iemand de uitkomst.
281
00:22:41,798 --> 00:22:59,639
Daniël: Tot op zekerhoogte zou je ook kunnen zeggen dat overtypen van informatie ook nog iets doet met de manier waarop je erover nadenkt, en dat je dat je als je dat bewerkt dat jouw jouw beeld daarvan beter wordt, of in elk geval dat je er zelf actiever over nadenkt.
282
00:22:59,638 --> 00:23:10,919
Daniël: Maar hoe meer je in een reviewrol komt, hoe verder je er van afstaat, hoe eerder je misschien ook geneigd bent aan te nemen, en niet alles in checkt, dat dit correct is.
283
00:23:10,919 --> 00:23:18,358
Joop Snijder: Ja, want human in the loop, dat suggereert zeg maar dat we ook human in control zijn.
284
00:23:19,159 --> 00:23:26,438
Joop Snijder: En volgens mij is dat zeg maar, wat soms een beetje verwatert, zeker als dingen goed blijven gaan.
285
00:23:27,239 --> 00:23:30,359
Daniël: Dat is zeker een risico in het geheel.
286
00:23:30,359 --> 00:23:38,119
Daniël: En als je dan ziet, iemand was of iemand is, moet ik zeggen, en dat is bij elk bedrijf wel zo verantwoordelijk voor een proces.
287
00:23:38,118 --> 00:23:42,358
Daniël: Een uitvoering van een proces, van een bepaald begin tot een bepaald eindpunt.
288
00:23:42,358 --> 00:23:51,959
Daniël: En dan als we daar dan modellen gebruikten in het proces, dan was ook iemand vaak iemand anders die goed was in modellen, was dan verantwoordelijk voor modellen, dan had je daar validatiestappen in zitten.
289
00:23:51,959 --> 00:23:57,638
Daniël: En dat is ook een groot verschil trouwens tussen detectiemodellen en GI-modellen, de validatiestap.
290
00:23:58,118 --> 00:24:05,158
Daniël: Maar het verschil tussen degene die eigenaar was, zeg maar, of degene die verantwoordelijk was voor zo'n proces.
291
00:24:05,158 --> 00:24:12,278
Daniël: En die modellen die daarin gebouwd werden, dat was logisch, want dat was op competentie, op vaardigheid.
292
00:24:12,598 --> 00:24:18,399
Daniël: Maar hoe meer stappen, en we zijn nu nog aan het begin, maar ik ben ervan overtuigd dat de komende jaren enorm hard gaat.
293
00:24:18,399 --> 00:24:29,078
Daniël: Hoe meer stappen eigenlijk vervangen worden door AI agents, stapje voor stapje voor stapje, hoe meer jouw proces eigenlijk een aaneenschakeling van agents is.
294
00:24:29,078 --> 00:24:30,878
Daniël: En dan is die human in de loop.
295
00:24:30,439 --> 00:24:33,198
Daniël: Human in control vraag, dat is hele mooie.
296
00:24:33,679 --> 00:24:38,078
Daniël: Want vervolgens ga je natuurlijk de vraag stellen, maar wanneer gaat er dan geen mens meer?
297
00:24:38,318 --> 00:24:40,078
Daniël: Is dat in een paar procent?
298
00:24:40,078 --> 00:24:41,119
Daniël: Is dat in minder.
299
00:24:41,278 --> 00:24:44,479
Daniël: En zo gaat dat natuurlijk de komende jaren door.
300
00:24:44,479 --> 00:24:46,479
Daniël: Op dit moment is overal human in de loop.
301
00:24:46,479 --> 00:24:47,999
Daniël: Maar het is wel de vraag.
302
00:24:48,239 --> 00:24:49,838
Joop Snijder: Dan gaat het over een aantal jaar.
303
00:24:49,838 --> 00:24:57,278
Joop Snijder: En zeker als we zeggen dat agents heel veel werk over kunnen gaan nemen, heb je straks dus een hele vloot aan agents.
304
00:24:57,598 --> 00:25:00,399
Joop Snijder: Wil je dan nog wel de human in de loop zijn.
305
00:25:00,878 --> 00:25:02,878
Joop Snijder: Wie krijgt dat een appje op zijn schouder?
306
00:25:04,078 --> 00:25:06,399
Daniël: Dat is een mooie vraag over carrièreperspectief.
307
00:25:07,519 --> 00:25:11,519
Daniël: Los daarvan heb je natuurlijk de vraag, dan is degene die modellen.
308
00:25:11,838 --> 00:25:13,119
Daniël: Alles wist van die modellen.
309
00:25:13,118 --> 00:25:18,719
Daniël: En degene die alles wist over hoe je dat proces uitvoeren, dat wordt steeds meer één.
310
00:25:19,038 --> 00:25:20,959
Daniël: Dat kan niet anders eigenlijk.
311
00:25:20,959 --> 00:25:25,118
Daniël: Maar dat is een significante verandering van denken in dit soort patronen.
312
00:25:25,199 --> 00:25:27,678
Daniël: Een hele andere functieopbouw.
313
00:25:28,638 --> 00:25:32,959
Daniël: Ik vertel dit nu niet per se omdat we er als bank heel erg druk bij deze vraagstuk bezig zijn.
314
00:25:32,959 --> 00:25:37,759
Daniël: Maar wel als je een paar jaar vooruit denkt hoe die beweging nu is, is dat natuurlijk wel een interessante.
315
00:25:38,399 --> 00:25:43,438
Joop Snijder: En als ik dan ook nog terugpakt, omdat je zei transparantie, daar vind ik eigenlijk een rot woord.
316
00:25:43,439 --> 00:25:46,798
Joop Snijder: Dat is wel lastig als het zo diffuus wordt.
317
00:25:47,278 --> 00:25:51,679
Joop Snijder: En we eisen het vanuit de wetgeving, de AI Act.
318
00:25:52,959 --> 00:25:56,159
Joop Snijder: Dat is echt wel een vraagstuk voor de aankomende tijd.
319
00:25:56,318 --> 00:25:57,278
Daniël: Zeker een vraagstuk.
320
00:25:57,278 --> 00:25:59,119
Daniël: En transparantie voor de zekerheid.
321
00:25:59,118 --> 00:26:00,958
Daniël: Ik ben heel erg voor elke vorm van transparantie.
322
00:26:03,038 --> 00:26:08,559
Daniël: Omdat mensen het relateren aan de complexiteit van modellen, wat niet per se één op één aan elkaar.
323
00:26:08,878 --> 00:26:10,158
Joop Snijder: Het is goed dat je dat nog zegt hoor.
324
00:26:11,838 --> 00:26:12,798
Niels Naglé: Twee dingen.
325
00:26:12,798 --> 00:26:16,239
Niels Naglé: Die voor mij even naar voren komen, is het stukje inderdaad, ben je nog actief betrokken.
326
00:26:16,239 --> 00:26:17,918
Niels Naglé: Weet je genoeg van de context die speelt.
327
00:26:17,919 --> 00:26:22,078
Niels Naglé: Ik denk dat dat een belangrijke blijft, zeker als het diffuser wordt en heel veel agent aan het werk gaan.
328
00:26:22,078 --> 00:26:28,719
Niels Naglé: Dus hoe actief ben je nog betrokken, of ben je alleen maar ja, je mag door of je mag niet door de slagboom, zeg maar, dadelijk mee bezig.
329
00:26:28,719 --> 00:26:35,838
Niels Naglé: En een andere waar je hem optriggerde, dus waar ik eigenlijk nog wel een vraag was staan is, je zegt heel erg expliciet: validatie is echt wel anders bij witwassen.
330
00:26:35,919 --> 00:26:37,519
Niels Naglé: Wat bedoel je daarmee?
331
00:26:37,999 --> 00:26:40,159
Daniël: Nou, bij wit wassen niet per se.
332
00:26:40,159 --> 00:26:46,078
Daniël: Misschien wel vergeleken met veel andere terreinen, nog één vergelijken dan de antwoord op jouw vraag.
333
00:26:47,598 --> 00:26:53,199
Daniël: Het verschil met witwassen is, wie is degene die er last van heeft, de maatschappij.
334
00:26:53,199 --> 00:26:58,159
Daniël: Maar de maatschappij steekt vaak niet zijn vinger op van ik heb hier nu echt last van.
335
00:26:58,318 --> 00:27:03,118
Daniël: Bij heel veel andere toepassingen zit je eigenlijk in eentjes en nulletjes.
336
00:27:03,118 --> 00:27:05,679
Daniël: Je hebt een uitkomst goed en de uitkomst niet goed.
337
00:27:06,318 --> 00:27:07,918
Daniël: Binnenbank is natuurlijk vooral bekend.
338
00:27:08,078 --> 00:27:10,079
Daniël: We zijn natuurlijk veel in het financieren.
339
00:27:10,158 --> 00:27:12,398
Daniël: Dus je betaalt je lening wel of niet terug.
340
00:27:12,479 --> 00:27:14,399
Daniël: Dat voorspelmodel ongeveer.
341
00:27:14,719 --> 00:27:20,238
Daniël: Maar bij al deze klanten, alle transacties, daar is vrijwel alles is goed.
342
00:27:20,399 --> 00:27:25,358
Daniël: Laten we even voorop stellen, het is echt de speelt in de hooiberg hier, dat is een heel klein percentage.
343
00:27:25,838 --> 00:27:33,119
Daniël: Maar alles wat je niet verdiept in of het wel goed of niet goed is, heb je geen antwoord op.
344
00:27:33,118 --> 00:27:35,838
Daniël: Model technisch is dat een interessante situatie.
345
00:27:36,158 --> 00:27:40,239
Daniël: Dat is voor witwassen een groot verschil met andere toepassingen.
346
00:27:40,239 --> 00:27:48,959
Daniël: Niet alle, maar wel veel toepassingen, waarbij je als je dacht dat iemand niet zou terugbetalen, of wel, dat je uiteindelijk geconfronteerd wordt met de uitkomst.
351
00:27:49,199 --> 00:27:51,759
Daniël: En met witwas is het niet dat iemand zijn vingers steekt.
347
00:27:51,759 --> 00:27:53,199
Joop: Je had mij niet gedetecteerd.
348
00:27:53,199 --> 00:27:54,719
Joop: Maar ik heb het wel gedaan.
349
00:27:55,439 --> 00:27:57,999
Daniël: Dat is modelmatig even een verschil.
350
00:27:58,318 --> 00:28:01,118
Daniël: Omdat je maar een kleine set uiteindelijk bekijkt.
351
00:28:01,439 --> 00:28:07,038
Daniël: Daarom gebruiken wij ook niet alleen supervised learning, dus zeg maar het leren van historie.
352
00:28:07,038 --> 00:28:15,598
Daniël: Maar trainen wij ook algoritmes op unsupervised anomaly detectie, omdat je anders in die tunnel terechtkomt en je de trends ook later ziet.
353
00:28:15,678 --> 00:28:17,679
Daniël: Tweede deel is die validatieverschil.
354
00:28:17,679 --> 00:28:21,599
Daniël: Validatie is wat ik net zeg over detectie.
355
00:28:21,598 --> 00:28:25,199
Daniël: Daar kun je een echte originele validatie op doen.
356
00:28:25,598 --> 00:28:28,479
Daniël: Welke selectie heb je gemaakt, welke keuzes, enzovoort.
357
00:28:28,479 --> 00:28:38,798
Daniël: Maar validatie wordt steeds ingewikkelder als je zeker met Gen AI gaat werken, maar ook omdat ook de wereld om je heen ook AI gebruikt.
358
00:28:38,798 --> 00:28:46,078
Daniël: Dus jouw informatievoorziening, is ook deels gebaseerd op AI-uitkomsten.
359
00:28:46,078 --> 00:28:48,639
Daniël: Ook wat van buitenaf wordt aangeleverd.
360
00:28:48,638 --> 00:28:51,679
Daniël: Dus de optelsom in die keten wordt steeds groter.
361
00:28:51,678 --> 00:28:53,999
Daniël: En dan is de vraag inderdaad, hoe kun je dat goed doen?
362
00:28:53,999 --> 00:29:01,359
Daniël: En dan kom je steeds meer uit, en dat zie je ook wel terugkomen op meer die verantwoording over de data die je gebruikt in de input.
363
00:29:01,358 --> 00:29:03,598
Daniël: En de output controles eigenlijk.
364
00:29:03,598 --> 00:29:06,239
Daniël: Van komt eruit wat we verwachten wat eruit komt.
365
00:29:06,558 --> 00:29:23,479
Daniël: En die verandering is significant anders dan wat we eerder hadden met gewone machine learning modellen, waar je gewoon een ontwikkelaar hebt, iemand die onafhankelijk checkt, dit is wat je erin hebt gestopt, dit heb je gekozen, dit is de uitgekomen, ik kom op hetzelfde of ik heb wat aanbevelingen.
366
00:29:23,479 --> 00:29:25,479
Daniël: Dat is significant anders.
367
00:29:25,798 --> 00:29:29,158
Joop: Ja, en daardoor is ook significant moeilijker.
368
00:29:29,399 --> 00:29:30,118
Daniël: Moeilijker.
369
00:29:31,399 --> 00:29:33,399
Daniël: Dit moment in tijd veel moeilijker.
370
00:29:33,399 --> 00:29:37,878
Daniël: Maar ik denk dat het ook een verandering gaat plaatsvinden.
371
00:29:38,199 --> 00:29:40,838
Daniël: Maar wat zijn dan validatiecriteria?
372
00:29:40,838 --> 00:29:43,959
Daniël: Want dit zijn technische discussies.
373
00:29:43,959 --> 00:29:47,399
Daniël: Maar ik denk dat het dus veel meer naar de niet-technische kant gaat.
374
00:29:47,399 --> 00:29:55,159
Daniël: Als je het over de Gen AI en de doorontwikkeling hebt, heb je contracten met leveranciers, hoe zit dat in elkaar?
375
00:29:55,159 --> 00:29:58,519
Daniël: Hoe zit het in elkaar inderdaad met de privacy van gegevens?
376
00:29:58,519 --> 00:30:03,399
Daniël: Hoe weet je dat die uitkomstchecks, uitkomstcontroles, dat je die goed doet.
377
00:30:03,638 --> 00:30:08,839
Daniël: Dat soort dingen, ik denk dat je het er veel meer over die controles gaat hebben in validatie.
378
00:30:09,078 --> 00:30:13,879
Daniël: Wat we van origine vooral deed het reproduceren van modelontwikkeling hier.
379
00:30:13,878 --> 00:30:14,838
Niels: Ja, mooi.
380
00:30:15,159 --> 00:30:18,438
Niels: Dus dat betekent eigenlijk, voor mezelf probeer je dan een plaat te maken in mijn hoofd.
381
00:30:18,439 --> 00:30:24,118
Niels: Dus dat je dus eigenlijk het vraagstuk centrale zet en daar andere vragen aan gaat stellen voor de validatie.
382
00:30:24,118 --> 00:30:24,999
Daniël: Dat denk ik wel.
383
00:30:24,999 --> 00:30:26,358
Daniël: En ook omdat je natuurlijk.
384
00:30:27,078 --> 00:30:34,038
Daniël: Er zijn zoveel technologische trends die laagdrempelig zijn en daardoor snel gebruikt worden nu, maar nog niet zo volwassen.
385
00:30:34,038 --> 00:30:37,479
Daniël: En als je een aantal daarvan optelt, dan wordt dit een hele interessante.
386
00:30:37,558 --> 00:30:40,919
Daniël: Dus ik heb die AI agents, daar hebben we het steeds over.
387
00:30:40,919 --> 00:30:45,879
Daniël: Maar een AI agent kan natuurlijk ook gebruik maken van informatie van buiten.
388
00:30:45,878 --> 00:30:51,879
Daniël: Stel nou dat het hoeft niet een bank te zijn, het kan ook bedrijf zijn, mensen hebben wallets.
389
00:30:52,118 --> 00:30:55,239
Daniël: En in die wallets zit ook informatie en steeds meer.
390
00:30:55,239 --> 00:31:02,999
Daniël: En sterker nog, je gaat natuurlijk zien, volgens mij heeft het CBR ook aangekondigd dat de rijbewijzen vanaf 2030 in die wallet komen.
391
00:31:03,878 --> 00:31:10,119
Daniël: Ik dacht dat dan ook, je krijgt natuurlijk digitale identiteiten, dezelfde waarde als een paspoort worden toegedicht.
392
00:31:10,519 --> 00:31:14,759
Daniël: Als je die optelsom maakt, ik noem nu een paar dingen even los daarvan, maar je kunt dat.
393
00:31:14,838 --> 00:31:17,318
Daniël: Die wallets, die worden groot.
394
00:31:18,598 --> 00:31:29,158
Daniël: Als je als klant accepteert dat het bedrijf waarmee je, of je bank, of wat dan ook, informatie uit je wallet mag gebruiken hiervoor.
395
00:31:30,038 --> 00:31:32,759
Daniël: Kun je elke keer opnieuw consent geven, dat soort dingen.
396
00:31:32,759 --> 00:31:36,598
Daniël: Dan kan dus een AI agent op een gegeven moment informatie ophalen.
397
00:31:37,239 --> 00:31:38,439
Daniël: In dit verhaal.
398
00:31:38,439 --> 00:31:46,119
Daniël: Daarnaast heb je ook nog steeds meer mogelijkheden om data te delen op een privacy enhanced manieren.
399
00:31:46,598 --> 00:31:53,878
Daniël: Bekende dingen zijn secure multiparty computation, dus dat je eigenlijk data deelt zonder te delen ten totdat de security codes zijn vrijgeven.
400
00:31:53,878 --> 00:31:57,959
Daniël: Als je dit soort dit soort trends, alle drie bij elkaar optelt even.
401
00:31:57,959 --> 00:32:01,878
Daniël: Dan heb je dus AI agents die een proces besturen.
402
00:32:01,878 --> 00:32:09,318
Daniël: Die koppel je aan informatie die de klant heeft in wallet, wat gestandaardiseerd gaat bestaan.
403
00:32:09,318 --> 00:32:17,959
Daniël: En je koppelt het aan het feit dat je informatie kan delen waar dat mag, en toegestaan en gecontroleerd is met privacy en hand tooling.
404
00:32:17,959 --> 00:32:22,679
Daniël: Op die manier, en dan gaan we het over validaties hebben, wordt dat heel interessant.
405
00:32:22,679 --> 00:32:27,398
Daniël: En ik vertel dit gewoon puur als een combinatie van ontwikkelingen nu.
406
00:32:27,719 --> 00:32:31,639
Daniël: Maar ik zit dan wel zelf vooruit te denken de komende jaren.
407
00:32:32,598 --> 00:32:35,078
Daniël: Dit zijn de echte vraagstukken waar het straks om gaat.
408
00:32:35,078 --> 00:32:36,119
Daniël: Waar is mijn data?
409
00:32:36,118 --> 00:32:39,078
Daniël: Hoe kan ik, en ik hoop dat we dat overal in kunnen houden.
410
00:32:39,078 --> 00:32:44,118
Daniël: Dat er client consent is vanuit die wallets en vanuit die ontwikkelingen.
411
00:32:44,118 --> 00:32:46,838
Daniël: Maar dat zijn wel essentiële vraagstukken aan het worden.
412
00:32:46,838 --> 00:32:54,438
Daniël: Hoe valideer je dan dat je de juiste informatie hebt, dat het veilig is, dat je de juiste conclusies kunt trekken.
413
00:32:54,439 --> 00:32:57,479
Daniël: En dan heb ik het niet alleen over mijn vakgebied, maar in de begrepen.
414
00:32:57,879 --> 00:33:00,118
Joop: Want webshops krijg je ermee te maken.
415
00:33:00,759 --> 00:33:06,598
Joop: Iedereen die interactie heeft zo direct met agents of klanten.
416
00:33:07,078 --> 00:33:10,039
Niels: Of met bedrijven waarvan je niet weet dat er agents weer achter zitten.
417
00:33:10,519 --> 00:33:12,599
Niels: Dus nog niet altijd transparant inderdaad.
418
00:33:12,598 --> 00:33:14,999
Niels: En welk deel van mijn gegevens worden dan gebruikt?
419
00:33:14,999 --> 00:33:21,959
Niels: Want steeds meer verzamelen we in één applicatie, één wallet of wachtwoorden, kluis, of noem het dan maar op.
420
00:33:21,959 --> 00:33:25,958
Niels: En je geeft die ene sleutel geef je weg, maar waarvoor wordt het gebruikt?
426
00:33:27,158 --> 00:33:29,878
Daniël: En ik denk dat die optelsom van ontwikkelingen.
421
00:33:30,278 --> 00:33:33,239
Daniël: Die wordt, denk ik, een spannende en interessante.
422
00:33:33,239 --> 00:33:46,598
Daniël: Dus met AI, ik ben ik ben de optimist die er heel veel mogelijkheden in ziet, maar ik ben ook gelijk degene die denkt, ja, we zijn ook wel, het is wel een heel risicoveld globaal experiment, wat we met alle begonnen zijn.
423
00:33:48,199 --> 00:33:51,718
Niels: Hoe hou je jezelf dan inderdaad, tussen die twee werelden in?
424
00:33:51,719 --> 00:33:54,919
Niels: Want ik hoor je dan zeggen, ik ben de optimist en ik ben de pessimist.
425
00:33:54,919 --> 00:33:56,679
Daniël: Ik ben ze denk ik wel allebei inderdaad.
426
00:33:56,678 --> 00:34:03,438
Daniël: Nou, ik denk bij alles je afvragen in eerste instantie, ik denk niet dat het te stoppen is, de ontwikkeling, en dat moeten we ook niet willen.
427
00:34:03,759 --> 00:34:21,598
Daniël: Het is een ontwikkeling met volgens mij voelt iedereen dat daar heel veel waarde voor de maatschappij in zit, in zich heel in allerlei vlakken, maar ook wel iedere keer toch even die sceptische pet op zet, even een beetje wat gebeurt hier nu.
428
00:34:24,078 --> 00:34:28,318
Daniël: Kan ik uitleggen wat er uiteindelijk gebeurt.
429
00:34:28,399 --> 00:34:36,478
Daniël: En daar heb ik het gevoel van dat dit voldoende is voor nu wat we aan het doen zijn, en dit terughoudendheid ook wel echt betrachten daarin.
430
00:34:36,719 --> 00:34:45,438
Niels: Ja, ik denk dat dat een hele waardevolle is die je noemt, inderdaad, dat je zelf ook even in de pessimist kan zetten en even kritisch kan zijn met wat speelt.
431
00:34:45,998 --> 00:34:53,038
Niels: Heb je een paar voorbeeldvragen die mensen, vooral de rasoptimisten zichzelf wat vaker zouden moeten stellen.
432
00:34:53,678 --> 00:34:55,197
Daniël: Vind ik een hele mooie vraag.
433
00:34:55,197 --> 00:35:01,759
Daniël: Ik denk vooral niet zozeer een vraagje zelf stellen, maar elke keer afvragen.
434
00:35:03,359 --> 00:35:12,238
Daniël: Het meeste rasoptimisten gaan ervan uit, en dat is denk ik ook wat recht dat in een heel hoog percentage.
435
00:35:12,558 --> 00:35:20,479
Daniël: Als je gewoon alle waarborgen in de acht neemt, dat de uitkomst is wat je verwacht dat eruit komt.
436
00:35:20,479 --> 00:35:26,958
Daniël: Maar vraag je nou eens af en dat even andersom, als 99% goed is, is 1% fout.
437
00:35:26,959 --> 00:35:29,598
Daniël: Over hoeveel situaties hebben het.
438
00:35:29,598 --> 00:35:31,198
Daniël: En dat is één stap in de keten.
439
00:35:31,198 --> 00:35:34,318
Daniël: Als je de tweede stap pakt, die 1% nog een keer.
440
00:35:34,319 --> 00:35:36,478
Daniël: En dan gaan we door en gaan we door.
441
00:35:36,479 --> 00:35:44,238
Daniël: Hoeveel stappen heb je nodig om inderdaad te komen tot een situatie, waarin je zegt, dit vind ik best wel een grote foutmarge.
442
00:35:44,479 --> 00:35:52,719
Daniël: En ik denk als je dat iedere keer jezelf afvraagt, dus hoeveel schakels zit er in de keten met een foutmarge en kan ik daar nog achter staan.
443
00:35:53,439 --> 00:35:59,198
Daniël: En durf ik dan ook te bewijzen dat dat zo is, ik denk dat dat altijd wel een goede bewustwording is.
444
00:35:59,198 --> 00:36:01,198
Daniël: Dus het gaat voor mij altijd om bewustwording.
445
00:36:01,198 --> 00:36:03,439
Niels: Ja, helemaal heel mooi inderdaad zeg.
446
00:36:03,519 --> 00:36:08,799
Niels: Want ik denk dat dat echt wel ook heel moeilijk is om in ketens te denken, vaak zitten in onze eigen kaders.
447
00:36:08,799 --> 00:36:15,038
Niels: En zit er eigenlijk inderdaad nog een heel veel keten voor ons en achter ons processen, bedrijven, netwerken.
448
00:36:15,279 --> 00:36:19,999
Niels: En onderschatten we dat wat het effect daar vooruit en achteruit kan betekenen.
449
00:36:20,638 --> 00:36:24,959
Daniël: Wat we ook onderschatten is, denk ik, want dat is een mooie woord hier als bruggetje, denk ik.
450
00:36:25,919 --> 00:36:28,718
Daniël: Wat doen we nou met die GNAI?
451
00:36:28,718 --> 00:36:29,598
Daniël: Nou, we zijn in de kern.
452
00:36:29,678 --> 00:36:35,678
Daniël: Je ziet de eerste statistieken nu al een beetje ontstaan, zijn we startersbanen, junior banen aan het vervangen.
453
00:36:35,678 --> 00:36:41,678
Daniël: In de IT-kant, in de logistiek kant, in de operationele administratieve kant, overal.
454
00:36:41,678 --> 00:36:45,919
Daniël: We zijn uiteindelijk juniorbanen, startersbanen aan het vervangen.
455
00:36:46,238 --> 00:36:57,998
Daniël: De vraag is wel, als je in de reviewrol zit als senior en je reviewt de uitkomst van het systeem, dat zal de komende jaren best wel goed gaan, want het lijkt heel erg op wat we daarvoor hebben getraind door diezelfde mensen.
456
00:36:57,999 --> 00:37:01,118
Daniël: Dus uiteindelijk zal dat aan het begin wel redelijk goed gaan.
457
00:37:01,118 --> 00:37:04,879
Daniël: Maar vervolgens is natuurlijk de vraag, maar hoe is die doorstroom dan?
458
00:37:04,879 --> 00:37:06,238
Daniël: Wie is de nieuwe senior?
459
00:37:07,359 --> 00:37:10,638
Daniël: Dus eigenlijk is het een maatschappelijk vraagstuk ook.
460
00:37:10,959 --> 00:37:13,279
Daniël: Hoe leren we?
461
00:37:13,279 --> 00:37:15,438
Daniël: Dus hoe leiden we op.
462
00:37:15,439 --> 00:37:17,519
Daniël: En dat geldt ook in de volle breed.
463
00:37:17,839 --> 00:37:22,479
Daniël: Hoe leiden we mensen op tot de human in de loop of humanine control.
464
00:37:25,439 --> 00:37:26,398
Daniël: Hoe komen we daar?
465
00:37:26,399 --> 00:37:29,838
Daniël: En dat gaat zo huwelijk snel, nu die ontwikkeling.
466
00:37:29,839 --> 00:37:49,999
Daniël: Dat ik dat ik wel echt daar wel denk van als je het hebt over wat zijn nou de risico's hierop en wat onderschatten we, ik denk dat we dit stuk een beetje aan het onderschatten zijn met z'n allen, wat zouden we aan kunnen doen, misschien voor een deel ook wel.
467
00:37:49,999 --> 00:37:56,479
Daniël: En dat is altijd een beetje een moeilijke, maar je noemde net de AI-act.
468
00:37:57,198 --> 00:38:03,999
Daniël: En ik denk dat regelgeving, het traject waarop we regelgeving tot stand brengen.
469
00:38:04,399 --> 00:38:08,638
Daniël: Dat dat wel haaks staat, op de snelheid waarin AI zich ontwikkelt.
470
00:38:08,638 --> 00:38:14,399
Daniël: Dus de kans dat we dat dat de komende jaren een beetje in balans komt, lijkt mij best wel ingewikkeld.
471
00:38:15,839 --> 00:38:18,238
Daniël: Je zou denk ik naar een soort design principles moeten.
472
00:38:18,238 --> 00:38:21,038
Daniël: Dus naar een aantal uitgangspunten, een aantal principes.
473
00:38:21,038 --> 00:38:33,279
Daniël: En één daarvan zou moeten zijn dat je dat je ook een plan hebt hoe je opvolging doet van mensen die het systeem begrijpen.
474
00:38:33,279 --> 00:38:43,198
Daniël: En ik denk dat hoe je dat kunt doen, voor een deel zal dat natuurlijk sowieso vanuit veel opleidingen uiteindelijk wel die kant opwerken.
475
00:38:43,198 --> 00:38:47,639
Daniël: Dus dat denk ik wel, maar ook bedrijfsopleidingen zullen hier wel echt aandacht aan moeten besteden.
476
00:38:47,959 --> 00:38:54,838
Daniël: Wat doen nou al die schakels in een proces, kan ik nog uitleggen waar dat vandaan komt oorspronkelijk.
477
00:38:55,078 --> 00:39:04,519
Niels: Dus nog wat meer trainingen om inderdaad de kennis genoeg en context genoeg binnen je organisatie op te leiden, dan zijn we toch weer aan het opleiden.
484
00:39:04,519 --> 00:39:11,399
Daniël: Ja, uiteindelijk wel, het is een kennisintensief, bijna alles wat we vervangen, is toch uiteindelijk kennisintensief werk wat vervangen wordt nu.
478
00:39:11,399 --> 00:39:18,279
Daniël: En dat was natuurlijk in veel technologische ontwikkeling was dat net iets anders, maar nu wordt ook kennisintensief werk vervangen.
479
00:39:18,279 --> 00:39:24,838
Daniël: En dat betekent niet dat de kennis daarmee weg zou mogen zijn, die kennis moet juist geborgd zijn.
480
00:39:24,839 --> 00:39:29,239
Daniël: Dus de kennisborgingsvraag wordt een van de essentiële elementen, denk ik.
481
00:39:30,198 --> 00:39:32,919
Joop Snijder: Om we het nu toch over trainingen hebben.
482
00:39:33,078 --> 00:39:36,679
Joop Snijder: Je hebt in zo'n korte tijd zoveel mensen getraind.
483
00:39:36,678 --> 00:39:42,999
Joop Snijder: Er zijn natuurlijk nu heel veel bedrijven die bezig zijn met AI adoptie, eigenlijk ooit hoort daar dat ook bij.
484
00:39:43,238 --> 00:39:53,399
Joop Snijder: Wat zijn nou tips die je mee zou kunnen geven wat je geleerd hebt voor bedrijven die adoptieprogramma's eigenlijk aan het opzetten zijn of daarmee bezig zijn.
485
00:39:54,919 --> 00:40:00,199
Daniël: We hebben best wel de reis doorlopen, zeg maar.
486
00:40:01,638 --> 00:40:11,239
Daniël: We zijn wel begonnen met het idee, als je iets vervangt, dus eerst in de detectiekant waar ik het over had, dan moet je het wel zo doen.
487
00:40:11,718 --> 00:40:16,678
Daniël: Dat het gevoelsmatig niet een hele grote stap is.
488
00:40:16,678 --> 00:40:18,198
Daniël: Dat klinkt een beetje gek misschien.
489
00:40:18,439 --> 00:40:28,359
Daniël: Maar dat de uitkomst van een model eigenlijk weer teruggeleid wordt naar wat was ook weer de reden om er naar te kijken, dan maak je het redelijk lineair eigenlijk.
490
00:40:30,919 --> 00:40:35,959
Daniël: Dat was voor ons een van de van de van de best wel succesvolle tussenstappen.
491
00:40:36,758 --> 00:40:44,199
Daniël: En daarnaast inderdaad, het is toch wel uiteindelijk veel kleine stapjes communicatie.
492
00:40:44,198 --> 00:40:53,638
Daniël: En ik denk dat we nog steeds vooral zitten op het verbeteren en het vervangen van schakels in een proces, waardoor het proces herkenbaar blijft.
493
00:40:53,638 --> 00:40:55,958
Daniël: Je komt zo meteen natuurlijk wel op een kantelpunt.
494
00:40:55,959 --> 00:40:59,799
Daniël: Waarbij je gaat zeggen, eigenlijk is het niet logisch meer wat we doen.
495
00:40:59,799 --> 00:41:02,358
Daniël: En dan wordt het denk ik ingewikkelder.
496
00:41:02,359 --> 00:41:10,919
Daniël: Maar vooral de herkenbaarheid houden en de expertise, we hebben heel erg ingezet ook op benadrukken hoe belangrijk expertise is.
497
00:41:10,919 --> 00:41:16,279
Daniël: Want dat is voorlopig is dat voorlopig altijd nodig.
498
00:41:17,078 --> 00:41:23,718
Daniël: Deels kun je dat misschien daar kan AI rol voor spelen, maar je zult toch in je organisatie kennis moeten behouden.
499
00:41:23,718 --> 00:41:29,158
Daniël: Dus blijven inzetten op de kennis die je nodig hebt en stapje voor stap is dat herkenbare processen blijven.
500
00:41:30,118 --> 00:41:35,958
Daniël: Maar goed, we hebben ook niet de wijsheid altijd in pacht en dit soort dingen, maar dat is wel wat ik er van de afgelopen zes jaar dan.
501
00:41:37,158 --> 00:41:41,078
Joop Snijder: Je bent er heel intensief mee bezig geweest, ik denk dat het een hele mooie tip is.
502
00:41:43,558 --> 00:41:47,798
Niels Naglé: Ik had nog een vraag, maar dan moeten we even opzoeken, inderdaad, die had ik vanochtend met AI samengesteld.
503
00:41:49,638 --> 00:41:51,478
Daniël: Dus ik krijg nu een vraag van AI.
504
00:41:51,638 --> 00:41:53,879
Niels Naglé: Samengesteld door AI en mij.
505
00:41:54,598 --> 00:42:01,878
Joop Snijder: Wat is misschien wel leuk, het is wel eens vaker verteld, maar Niels die bereidt, wij bereiden sowieso natuurlijk deze gesprekken voor.
506
00:42:02,198 --> 00:42:03,959
Joop Snijder: Hij bereidt het ook voor in de auto.
507
00:42:03,959 --> 00:42:06,519
Joop Snijder: Hij zit regelmatig lang in de auto.
508
00:42:06,839 --> 00:42:13,319
Joop Snijder: waarin die spart om voor de voorbereiding om op goede vragen te komen.
509
00:42:13,959 --> 00:42:18,038
Niels Naglé: En dat doe je dan met dit geval ChatGPT en dan de Voice.
510
00:42:18,038 --> 00:42:22,038
Niels Naglé: Dus dan zet ik hem aan als ik in de auto stap en dan laat ik eerst de onderzoek weer in jou doen.
511
00:42:22,038 --> 00:42:24,439
Niels Naglé: En dat heb ik allemaal zelf gedaan, maar dan laat ik dat nog een keer doen.
512
00:42:24,519 --> 00:42:33,959
Niels Naglé: Komt dus nog soms met de verkeerde personen, maar goed, dat weet ik dan allemaal, en dan artikelen weer op laten halen en dat soort zaken, dan ga ik gewoon sparren met van wat zijn interessante vraagstukken die spelen in dit domein.
513
00:42:34,198 --> 00:42:37,798
Niels Naglé: Wat zijn zaken die je niet verwacht, maar wel van belang zijn.
514
00:42:37,799 --> 00:42:40,118
Niels Naglé: En zo komen er allemaal verschillende vragen naar voren.
515
00:42:40,118 --> 00:42:42,759
Niels Naglé: Ik heb het heel veel, dus ik heb er eentje uitgekozen.
516
00:42:43,078 --> 00:42:46,598
Niels Naglé: En volgens AI komt hij onder de provocerende vragen.
517
00:42:46,758 --> 00:42:49,158
Niels Naglé: Dus allemaal vast een beetje voor te brengen.
518
00:42:49,399 --> 00:42:58,679
Niels Naglé: Wat zou jij zeggen tegen critici, die vinden dat AI een black box is en te ondoorzichtig is voor zoiets belangrijk zoals financiële criminaliteit.
519
00:43:00,279 --> 00:43:01,479
Daniël: Dat is wel een.
520
00:43:02,118 --> 00:43:04,038
Daniël: Ik weet niet welke categorie.
521
00:43:04,198 --> 00:43:07,959
Daniël: Ik denk uiteindelijk ben ik niet.
522
00:43:08,598 --> 00:43:11,398
Daniël: Ik denk dat het verschillende kanten op hiermee.
523
00:43:11,479 --> 00:43:16,599
Daniël: Want uiteindelijk wil je heel graag verklaren wat het algoritme doet.
524
00:43:16,839 --> 00:43:24,118
Daniël: Maar op het moment dat je kunt verklaren waarom de output van het algoritme past bij de bedoeling die je erachter had.
525
00:43:24,118 --> 00:43:48,158
Daniël: Dus dat is meer een beetje cryptisch, maar ik kom een beetje terug op wat we net zeiden: je gaat van simpele logica, iemand komt met een sport als cash bij de banen, dat heb je bijna niet meer bij banken, maar dat was natuurlijk het klassieke klassieke voorbeeld, daar hoef je geen AI voor te gebruiken om te denken, ik ga een extra vraag stellen, even waar het vandaan komt.
526
00:43:48,158 --> 00:44:17,919
Daniël: Maar op het moment dat je moeilijkere patronen hebt, dan is het vooral de vraag: wat is je modus operandi, wat zijn dan de onderzoekswaardige situaties, en relateert dat aan elkaar en waar je vroeger dan probeerde alle logica daarachter helemaal uit te schrijven te begrijpen, zal dat steeds iets minder zijn, zolang je maar die feedbackloop hebt zitten en kunt uitsluiten dat daar echt ongewenste discriminatie plaatsvindt.
527
00:44:19,359 --> 00:44:20,558
Joop Snijder: Heel duidelijk.
528
00:44:20,879 --> 00:44:25,038
Joop Snijder: Wat zou je mee willen geven aan de luisteraar die nu luistert.
529
00:44:25,678 --> 00:44:37,999
Joop Snijder: Die zitten met vraagstukken in hun hoofd rondom: van ja, hoe kan ik nou zelf achter mijn vooroordelen komen of trainingen rondom adoptie, wat zou je de luisteraar mee willen geven.
530
00:44:38,558 --> 00:44:47,358
Daniël: Ik denk als mijn ervaring zou, het is toch het meest nuttige, is het gewoon uit te spreken in gesprek gaan.
531
00:44:47,359 --> 00:44:49,838
Daniël: En dat klinkt heel simpel en heel soft enzovoort.
532
00:44:49,919 --> 00:44:51,599
Daniël: Dat realiseer ik me heel goed.
540
00:44:51,919 --> 00:44:56,639
Daniël: Maar in elk gesprek wat ik tot nu toe daarover gehad heb, komen weer dingen naar voren.
533
00:44:56,879 --> 00:44:59,199
Daniël: Want iedereen heeft wel iets meegemaakt.
534
00:44:59,919 --> 00:45:02,238
Daniël: En dat kan op alle vlakken zijn.
535
00:45:02,238 --> 00:45:06,399
Daniël: En het hoeft ook niet werkgerelateerd te zijn om het gesprek te openen.
536
00:45:06,718 --> 00:45:09,999
Daniël: Het kan zijn dat je dat je elkaar.
537
00:45:10,158 --> 00:45:14,078
Daniël: Het gaat uiteindelijk heel vaak ook over communicatie, dat je elkaar niet goed begrijpt.
538
00:45:14,078 --> 00:45:21,998
Daniël: Of dat je inderdaad met een aanname zit over de ander en die verweeft in al je kan op allerlei vlakken zijn.
539
00:45:21,999 --> 00:45:27,118
Daniël: Maar stel je kwetsbaar op en ga het gesprek aan, dat is toch echt de belangrijkste.
540
00:45:27,118 --> 00:45:35,038
Daniël: En probeer ook om je heen te kijken, inderdaad, zijn er mensen waarvan ik denk, oh, die begrijp ik misschien niet zo heel goed.
541
00:45:35,598 --> 00:45:37,278
Daniël: En vraag dat ook een keer.
542
00:45:37,598 --> 00:45:39,918
Daniël: Want dat is ook superbelangrijk.
543
00:45:39,919 --> 00:45:52,158
Daniël: Maar heel heel bewust mee bezig zijn, ik stel mijn teams ook heel bewust divers samen, omdat ik gewoon weet dat uiteindelijk ga je dan mooie dialoog aan en ga je hele mooie gesprekken krijgen.
544
00:45:52,158 --> 00:45:53,439
Daniël: En krijg je veel perspectieven.
545
00:45:53,439 --> 00:46:00,798
Daniël: En hoe meer van die perspectieven, het is niet per se hoe meer hoe beter moet ik zeggen, maar het is wel zo dat het helpt heel erg in dingen verklaren.
546
00:46:04,238 --> 00:46:11,278
Daniël: Goede overwegingen te maken in wat je wel en niet of met modellen oplost of op allerlei terreinen.
547
00:46:11,519 --> 00:46:15,278
Daniël: Het is een hele simpele tip, maar agendeer het een keer over.
548
00:46:15,359 --> 00:46:18,078
Joop Snijder: Maar ik heb nog één één dingetje dieper.
549
00:46:18,078 --> 00:46:24,238
Joop Snijder: Want stel, ik wil dit gesprek met Niels, zo direct stoppen wij en ik wil dit gesprek met Niels openen.
550
00:46:26,078 --> 00:46:28,319
Joop Snijder: Wat is de conversation starten?
551
00:46:30,638 --> 00:46:35,278
Daniël: Wij hebben gedaan, is inderdaad dat we met een aantal stellingen ook begonnen.
552
00:46:35,519 --> 00:46:39,439
Daniël: En wat je dus inderdaad kunt doen, is dat je het dat je er wel even een moment voor pakt.
553
00:46:39,439 --> 00:46:44,399
Daniël: Want het is best wel lastig aan het koffiezetapparaat om een vrij willekeurige zin erin te gooien.
554
00:46:44,718 --> 00:46:53,999
Daniël: En zeker als het over discriminatie gaat, wat het onderwerp is, waar je toch uiteindelijke serieuze serieus aanvliegen om er iets goeds uit te halen.
555
00:46:54,238 --> 00:46:58,798
Daniël: Dus agendeer het wel een beetje, zou ik zeggen, maar begin met een paar stellingen.
556
00:46:58,799 --> 00:47:02,239
Daniël: Jij gebruikt dus overal ChatGPT voor.
557
00:47:02,799 --> 00:47:05,598
Daniël: Die heeft vast een paar hele leuke gespreksstarters.
558
00:47:06,158 --> 00:47:12,479
Daniël: Waarbij ik denk, begin met een stelling en een situatie, een casuïstiek iets.
559
00:47:12,479 --> 00:47:14,479
Daniël: En daar kun je echt heel makkelijk aan komen.
560
00:47:14,638 --> 00:47:25,759
Niels Naglé: En wat bij mij altijd helpt, en ik heb niet een voorbeeld nu direct voor deze voor dit onderwerp is iets opzoeken, wat eigenlijk zo voor de hand ligt, waar iedereen wel een beeld bij heeft, een beetje tot het extreme trekken.
561
00:47:26,078 --> 00:47:32,798
Niels Naglé: Dus voetballers van jongens in plaats van vermijden of iets van die standaardbeelden, om die eens op tafel te leggen.
562
00:47:32,799 --> 00:47:36,078
Niels Naglé: En dan eigenlijk te zeggen van zo dachten we er vroeger over.
563
00:47:36,078 --> 00:47:39,999
Niels Naglé: Dus hoe denken we over andere onderwerpen waar we het eigenlijk ook eens met elkaar over moeten hebben.
564
00:47:40,638 --> 00:47:41,999
Joop Snijder: Dat gaan we zo doen.
565
00:47:41,999 --> 00:47:44,399
Joop Snijder: En ik dacht te luisteren uit.
566
00:47:44,879 --> 00:47:47,439
Joop Snijder: Ik dacht te luisteren ook uit ons.
567
00:47:48,959 --> 00:47:49,838
Joop Snijder: Ga het gesprek aan.
568
00:47:50,879 --> 00:47:52,958
Joop Snijder: Dankjewel voor deze inzicht, Daniël.
569
00:47:52,959 --> 00:47:53,678
Daniël: Graag gedaan.
570
00:47:54,638 --> 00:47:56,239
Daniël: Wat leuk om niet te zijn.
571
00:47:57,038 --> 00:48:01,438
Joop Snijder: Leuk dat je weer luisterde naar deze aflevering van AIToday Live.
572
00:48:01,439 --> 00:48:04,238
Joop Snijder: En we hebben al over stellingen gesproken.
573
00:48:04,239 --> 00:48:07,838
Joop Snijder: We hebben twee kaartspellen die je kan bestellen, waarbij je rondom stellingen.
574
00:48:07,839 --> 00:48:09,758
Joop Snijder: En dat zijn niet alleen maar over biases.
575
00:48:09,839 --> 00:48:12,238
Joop Snijder: Dus dat gaat over van alles en nog wat rond de AI.
576
00:48:12,239 --> 00:48:14,479
Joop Snijder: Die zijn gratis te verkrijgen.
577
00:48:14,799 --> 00:48:17,078
Joop Snijder: Dus de link staat in de show notes.
578
00:48:17,078 --> 00:48:18,998
Joop Snijder: Daniël, nogmaals bedankt.
579
00:48:19,319 --> 00:48:22,118
Joop Snijder: Vergeet je niet te abonneren via je favoriete podcast-app.
580
00:48:22,118 --> 00:48:23,399
Joop Snijder: Dan mis je geen aflevering.
581
00:48:23,399 --> 00:48:26,519
Joop Snijder: Tot de volgende keer.