
AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S07E23 - AI-geletterdheid: van hoofdpijn naar helder plan
AI-jurist Charlotte Meindersma was te gast in de podcast AIToday Live. Ze besprak de nieuwe AI-wetgeving en de impact daarvan op bedrijven. Meindersma legde uit dat er sinds 2017 juridisch weinig is veranderd op het gebied van AI en auteursrecht.
Ze benadrukte het belang van AI-geletterdheid als onderdeel van de nieuwe wetgeving. Dit omvat begrip van AI, de werking ervan en mogelijke risico's. Meindersma adviseerde bedrijven om pragmatisch te werk te gaan bij de implementatie van AI-geletterdheid.
Onderwerpen
- AI-wetgeving en auteursrecht
- De rol van menselijke creativiteit in AI-creaties
- Verplichtingen rondom AI-geletterdheid
- Toezicht door de Autoriteit Persoonsgegevens
- Pragmatische aanpak voor bedrijven
- Podcast: AIToday Live podcast
- Organisatie: Charlotte's Law & Fine Prints
- Documentaire: Coded Bias
- Commercial: Adidas Drops its First- Ever 100% AI Made Campaign
Genoemde entiteiten: Charlotte's Law & Fine Prints - Autoriteit Persoonsgegevens
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:07,080
Charlotte Meindersma, AI-jurist bij Charlotte's Law & Fine Prints, deelt vandaag hoe de nieuwe
2
00:00:07,080 --> 00:00:11,320
AI-wetgeving bedrijven dwingt hun medewerkers op te leiden in AI.
3
00:00:11,320 --> 00:00:16,840
Ze legt uit waarom deze kennis cruciaal is en hoe je dit praktisch aanpakt zonder juridische
4
00:00:16,840 --> 00:00:17,440
hoofdpijn.
5
00:00:17,441 --> 00:00:23,640
Hoi, leuk dat je weer luistert naar een nieuwe aflevering van AIToday Live.
6
00:00:23,640 --> 00:00:26,160
Mijn naam is Joop Snijder, CTO bij Aigency.
7
00:00:26,160 --> 00:00:28,860
Mijn naam Niels Naglé, Area Lead Data & AI bij Info Support.
8
00:00:28,860 --> 00:00:34,460
En we hebben vandaag de gast Charlotte Meindersma.
9
00:00:34,460 --> 00:00:35,320
Zeg ik het goed zo?
10
00:00:35,320 --> 00:00:36,560
Dat zeg je helemaal goed.
11
00:00:36,560 --> 00:00:40,800
Kijk, zou je jezelf eerst willen voorstellen aan onze luisteraars?
12
00:00:40,800 --> 00:00:45,140
Natuurlijk. Ik ben jurist bij Charlotte Law's & Fine Prints.
13
00:00:45,140 --> 00:00:50,920
Mijn eigen bedrijf en ik ben voornamelijk actief op het gebied van AI uiteraard.
14
00:00:50,920 --> 00:00:54,120
Privacy, reclame, intellectueel eigendom.
15
00:00:54,120 --> 00:00:59,600
Eigenlijk komen die andere dingen sowieso ook binnen de AI alweer samen.
16
00:00:59,600 --> 00:01:02,780
En hoe ben je hier zo ingerold?
17
00:01:02,780 --> 00:01:06,160
Wat was het moment dat je dacht van dat AI?
18
00:01:06,160 --> 00:01:10,200
Eigenlijk ging dat dus ook wel als vanzelf.
19
00:01:11,820 --> 00:01:19,700
Ik kwam er laatst een keer achter, of een tijdje geleden, dat ik in 2017 of 2018 of zo alles over kunstmatige intelligentie had geschreven.
20
00:01:19,700 --> 00:01:21,500
In combinatie met auteursrecht.
21
00:01:21,500 --> 00:01:24,380
Zo van, oh hé, je kunt gewoon een computer in kunstwerk laten genereren.
22
00:01:24,380 --> 00:01:28,480
Nou ja, dat zag er toen allemaal nog niet zo gelikt uit als wat je er nu uit kunt trekken.
23
00:01:28,480 --> 00:01:31,840
Maar toen hadden we het eigenlijk ook al onder juristen wel over.
24
00:01:32,600 --> 00:01:33,740
Hoe werkt dit dan?
25
00:01:33,740 --> 00:01:36,640
Hoe moeten we dit dan zien binnen het auteursrecht, et cetera?
26
00:01:36,640 --> 00:01:41,040
En zo loopt dat dan ook wel een beetje vanzelf.
27
00:01:41,040 --> 00:01:44,820
Omdat ik zo in die intellectueel eigendom en privacy hoek zit.
28
00:01:44,820 --> 00:01:53,200
Ja, heel veel dingen met AI, wat je daar heel veel technisch mee kunt, zit al heel snel in de privacy hoek.
29
00:01:53,740 --> 00:01:58,900
En als we over generatieve AI hebben, dan zit dat eigenlijk alweer in de intellectuele eigendomshoek.
30
00:01:58,900 --> 00:02:02,800
Dus zo ging dat dan ook een beetje vanzelf.
31
00:02:02,800 --> 00:02:07,560
Dus ik heb me daar niet heel bewust ben ik in die richting gegaan.
32
00:02:07,560 --> 00:02:09,320
Meer omdat ik het zelf vind dan AI ook wel interessant.
33
00:02:09,320 --> 00:02:11,440
Ja, dan, ja, dat loopt dan zo.
34
00:02:11,440 --> 00:02:12,400
Dan kom je hierop uit.
35
00:02:12,400 --> 00:02:12,900
Ja.
36
00:02:13,300 --> 00:02:19,080
En je zegt over dat auteursrecht is dan vanaf die 2000, wat zei je?
37
00:02:19,080 --> 00:02:19,580
2008?
38
00:02:19,580 --> 00:02:20,000
2017.
39
00:02:20,000 --> 00:02:20,600
2017.
40
00:02:20,600 --> 00:02:22,020
Ik heb er zelf wat over geschreven.
41
00:02:22,020 --> 00:02:24,620
Dus in 2017, we zitten nu 2025.
42
00:02:24,620 --> 00:02:27,340
Is daar iets wezenlijks veranderd?
43
00:02:27,340 --> 00:02:30,340
Nee, juridisch niet.
44
00:02:30,340 --> 00:02:32,140
Behalve dat we het er gewoon meer over zijn gaan hebben.
45
00:02:32,140 --> 00:02:32,600
Oh ja.
46
00:02:32,600 --> 00:02:34,180
Maar eigenlijk niet.
47
00:02:34,180 --> 00:02:38,880
Dus de vragen zijn hetzelfde, de antwoorden zijn in die zin eigenlijk ook nog steeds hetzelfde.
48
00:02:38,880 --> 00:02:40,520
Wat zijn de drie belangrijkste vragen?
49
00:02:41,480 --> 00:02:47,060
Nou, voornamelijk over wie er het auteursrecht heeft als je iets maakt met generatieve AI.
50
00:02:47,060 --> 00:02:47,480
Ja.
51
00:02:47,480 --> 00:02:51,560
Omdat de regels al in elkaar zitten dat daar menselijke creativiteit aan het pas moet komen.
52
00:02:51,560 --> 00:02:55,120
En dan is de vraag, ja, wanneer is dat dan genoeg?
53
00:02:55,120 --> 00:02:57,760
Kan dat al genoeg zijn als dat alleen maar in je prompt zelf zit?
54
00:02:57,760 --> 00:03:01,300
Of moet dat per se ergens anders in het stadium nog een keertje toe worden gevoegd?
55
00:03:01,300 --> 00:03:04,100
Of zit dat bijvoorbeeld alleen maar in de keuzes die je maakt?
56
00:03:04,100 --> 00:03:05,420
Of nou ja, zoiets dergelijks.
57
00:03:05,420 --> 00:03:09,100
We zijn denk ik best wel op een andere manier gaan prompten.
58
00:03:09,100 --> 00:03:10,420
Dat het voorheen wel heel erg was.
59
00:03:10,500 --> 00:03:13,400
Je voert één keer iets in, dan komt er iets uit en dat is het.
60
00:03:13,400 --> 00:03:17,540
Terwijl je tegenwoordig natuurlijk die hele gesprekken kunt voeren en kunt zeggen, ja, maar pas nog maar dit aan.
61
00:03:17,540 --> 00:03:18,560
Pas nog maar dat aan.
62
00:03:18,560 --> 00:03:23,680
Waardoor je tijdens het hele proces ook al meer kunt toevoegen, denk ik.
63
00:03:23,680 --> 00:03:26,920
En in die zin meer kunt sturen, zou je kunnen zeggen.
64
00:03:28,520 --> 00:03:30,220
Dus dat maakt het wel een beetje anders.
65
00:03:30,220 --> 00:03:42,800
Het betekent dat als je meer stuurt, meer iteratief bezig bent met de tekst, dat het dan meer van jou wordt en daarmee de creativiteit toevoegt?
66
00:03:42,800 --> 00:03:48,580
Hoe meer creativiteit jezelf inbrengt, hoe groter de kans is dat je zelf dus ook het auteursrecht erop hebt.
67
00:03:48,580 --> 00:03:52,700
En daar is gewoon nog wel wat discussie over onder juristen wanneer dat dan zo is.
68
00:03:52,700 --> 00:03:55,560
Dus er zijn er ook die zeggen, nou dat kan gewoon niet.
69
00:03:56,340 --> 00:04:04,520
Maar dat zijn ook wel de juristen die een driedelig pak rondlopen en gewoon zeggen, ja, maar kijk, als ik hier deze twee zinnen invoer, dan komt er dit uit.
70
00:04:04,520 --> 00:04:13,040
Nee, ja, gast, als jij twee zinnen invoert en je vraag is allemaal een soort van stockfoto uit te krijgen zonder het woord stockfoto te noemen.
71
00:04:13,040 --> 00:04:14,180
En dan komt een stockfoto uit.
72
00:04:14,180 --> 00:04:14,740
Ja, nee.
73
00:04:14,740 --> 00:04:18,800
Ja, dan blijft een goudvis in een kom een goudvis in een kom.
74
00:04:18,800 --> 00:04:19,420
Ja, precies.
75
00:04:19,820 --> 00:04:27,920
Dat is altijd al zo geweest dat dan al de vraag was, goh, is het creatief genoeg om er auteursrecht op te hebben?
76
00:04:27,920 --> 00:04:34,080
Ja, of je daar dan AI als tool voor gebruikt of niet, dat doet wat mij betreft dan eigenlijk niet zo ter zaken.
77
00:04:34,080 --> 00:04:34,680
Ja, precies.
78
00:04:34,680 --> 00:04:42,340
Dus het hangt er echt wel vanaf wat je daar vooraf in stopt, wat er tijdens het proces eventueel gebeurt, wat je eventueel daarna dus nog doet.
79
00:04:42,340 --> 00:04:44,240
Alles speelt eigenlijk mee.
80
00:04:44,240 --> 00:04:53,620
Dus mijn formule, zoals ik hem zelf maar even bedacht heb, waarvan ik denk dat die juist is, is dat het gaat om wat je daarin stopt aan creativiteit.
81
00:04:53,620 --> 00:04:57,240
Wat je dus verder nog aan menselijke dingen daaraan toevoegt.
82
00:04:57,240 --> 00:05:03,500
Dus keuzes maakt of dus inderdaad, nou ja, of je dat dan binnen de AI doet of zelf nog wat aan doet.
83
00:05:05,020 --> 00:05:13,480
En eigenlijk die combinatie, de uitkomst moet zijn dat je überhaupt een creatief werk hebt, waarin dus voldoende menselijke arbeid nog aan toegevoegd is.
84
00:05:13,480 --> 00:05:15,600
Dan heb je daar auteursrecht op.
85
00:05:15,600 --> 00:05:20,740
En zou dat betekenen dat het belangrijk zou kunnen zijn om je dialogen dan te bewaren?
86
00:05:20,740 --> 00:05:21,380
Absoluut.
87
00:05:21,380 --> 00:05:23,800
Ja, dat is wat steeds belangrijker wordt.
88
00:05:23,800 --> 00:05:27,340
Voorheen was het eigenlijk altijd zo dat we alleen maar naar de uitkomst keken.
89
00:05:27,340 --> 00:05:30,640
Dat is een resultaat en dat resultaat moet ook creatief genoeg zijn.
90
00:05:30,640 --> 00:05:33,280
Als dat het niet is, dan houdt daar alles bij op.
91
00:05:34,660 --> 00:05:36,880
En natuurlijk is ook steeds dat resultaat wel belangrijk.
92
00:05:36,880 --> 00:05:40,260
Want als dat er al niet creatief genoeg uitziet, dan houdt het nog steeds op.
93
00:05:40,260 --> 00:05:43,260
Alleen is dan de vraag, door wie is het gemaakt?
94
00:05:43,260 --> 00:05:46,640
En zit daar dus voldoende menselijke scheppende arbeid in?
95
00:05:46,640 --> 00:05:49,300
Zoals we dat als juristen dan graag noemen.
96
00:05:49,300 --> 00:05:51,840
En dan moet je dat wel bewijzen.
97
00:05:51,840 --> 00:05:54,640
Dus ja, opeens is dat belangrijk geworden.
98
00:05:54,640 --> 00:05:57,740
Het kan niet echt ergens anders doorgemaakt zijn.
99
00:05:57,740 --> 00:06:02,640
Dus ja, dat nam je dan aan dat die menselijke scheppende arbeid er wel in zat.
100
00:06:02,640 --> 00:06:04,540
En dan voor mij nog even terug naar het begin.
101
00:06:04,540 --> 00:06:05,920
Misschien een hele don graag.
102
00:06:05,920 --> 00:06:08,900
Maar waarom zou je het auteursrecht willen hebben als persoon?
103
00:06:08,900 --> 00:06:10,860
Want je hebt een bepaalde actie die...
104
00:06:10,860 --> 00:06:12,400
Omdat er anders helemaal geen recht op rust.
105
00:06:12,400 --> 00:06:15,180
Omdat anders iedereen het gewoon mag gebruiken.
106
00:06:15,180 --> 00:06:17,000
Dan kun je iets gemaakt hebben.
107
00:06:17,000 --> 00:06:20,760
En dan ben jij lekker vijf uur lang aan het prompten geweest om...
108
00:06:21,420 --> 00:06:23,540
Jullie kennen misschien de Adidas Floral Commercial.
109
00:06:23,540 --> 00:06:27,740
Waar ze vijf verschillende tools of zo uit mijn hoofd voor gebruikt hebben.
110
00:06:27,740 --> 00:06:30,020
Daar zijn ze echt wel even een tijdje mee bezig geweest.
111
00:06:30,020 --> 00:06:33,920
Dat is allemaal met dus vijf verschillende AI tools gemaakt.
112
00:06:33,920 --> 00:06:38,000
Daar zitten dus echt wel wat uren werk in nog steeds.
113
00:06:38,420 --> 00:06:40,200
Als je dan dus zou zeggen...
114
00:06:40,200 --> 00:06:41,520
Ja, nee, maar het is met AI gemaakt.
115
00:06:41,520 --> 00:06:42,840
Dus er is geen recht op.
116
00:06:42,840 --> 00:06:45,820
Dan kan iedereen daar alles uittrekken wat hij maar wil.
117
00:06:45,820 --> 00:06:47,280
En daarmee doen waar hij zin in heeft.
118
00:06:47,280 --> 00:06:50,180
Auteursrechtelijk gezien dan in elk geval.
119
00:06:50,180 --> 00:06:52,240
En dat wil je dan toch niet hebben.
120
00:06:52,240 --> 00:06:53,160
Nee, oké.
121
00:06:53,160 --> 00:06:55,360
Dus het is om te beschermen wat je hebt gecreëerd.
122
00:06:55,360 --> 00:06:57,240
Daarvoor wil je die auteursrecht hebben.
123
00:06:57,240 --> 00:06:59,840
Dus als dat minder van belang is, dan hoef je daar ook...
124
00:06:59,840 --> 00:07:02,340
Ja, het is net als met je software eigenlijk.
125
00:07:02,340 --> 00:07:04,160
Daar heb je in principe ook een auteursrecht op.
126
00:07:04,160 --> 00:07:05,700
Ja, daar wil je ook niet van.
127
00:07:05,700 --> 00:07:08,540
Dat iemand zegt, nou top, ik trek die broncode er wel uit.
128
00:07:08,540 --> 00:07:10,200
Kopietje maken, klaar.
129
00:07:10,200 --> 00:07:13,460
Ja, dat jullie daar dan acht maanden mee bezig zijn geweest.
130
00:07:13,460 --> 00:07:13,980
Ja.
131
00:07:13,980 --> 00:07:16,600
Nee, dat willen we zeker niet.
132
00:07:16,600 --> 00:07:17,180
Nee, dat willen we niet.
133
00:07:17,180 --> 00:07:18,580
Daarom vraag ik het nog even.
134
00:07:18,580 --> 00:07:21,300
Ja, maar dat is het dus, zeg maar.
135
00:07:21,300 --> 00:07:22,460
Dus dat is soms...
136
00:07:22,460 --> 00:07:24,760
Ik merk dan heel erg dat mensen bij een afbeelding...
137
00:07:24,760 --> 00:07:27,880
hebben ze veel minder dat gevoel van...
138
00:07:27,880 --> 00:07:29,980
Oh, daar heeft iemand misschien wel werk in gestopt.
139
00:07:29,980 --> 00:07:30,220
Of zo.
140
00:07:30,220 --> 00:07:31,340
Ja, maar dat is er toch nou eenmaal.
141
00:07:31,340 --> 00:07:32,580
Dan moet ik dat toch kunnen gebruiken.
142
00:07:32,580 --> 00:07:35,460
Terwijl als je dat soms op iets anders toepast...
143
00:07:35,460 --> 00:07:36,540
dan is het wel een soort van...
144
00:07:36,540 --> 00:07:38,740
Oh ja, nee, dat snap ik misschien eigenlijk wel...
145
00:07:38,740 --> 00:07:40,420
dat ik dat niet zomaar zou mogen kopiëren.
146
00:07:40,420 --> 00:07:41,880
Maar zo geldt dat dus wel voor alles.
147
00:07:41,880 --> 00:07:43,080
Er is altijd...
148
00:07:43,080 --> 00:07:45,880
Heeft er van iemand een keer tijd in gezeten...
149
00:07:45,880 --> 00:07:47,000
of geld in gezeten.
150
00:07:47,000 --> 00:07:49,660
Ja, dat probeer je op een manier terug te verdienen.
151
00:07:49,660 --> 00:07:51,740
En dat kan ook zijn door het exclusief te houden.
152
00:07:51,740 --> 00:07:52,060
Ja.
153
00:07:52,060 --> 00:07:54,740
Maar het is natuurlijk heel makkelijk om van internet...
154
00:07:54,740 --> 00:07:58,460
bestaande foto te pikken.
155
00:07:58,460 --> 00:07:58,920
Ja.
156
00:07:58,920 --> 00:08:01,420
En die gewoon in je presentatie te plakken.
157
00:08:01,420 --> 00:08:01,800
Ja.
158
00:08:01,800 --> 00:08:04,060
En dan hangt het ervan af hoe je het in je presentatie plakt.
159
00:08:04,060 --> 00:08:04,400
Ja.
160
00:08:04,400 --> 00:08:05,920
Dat dat misschien niet zou kunnen...
161
00:08:05,920 --> 00:08:08,460
omdat het dan als een citaat is als je het echt bespreekt.
162
00:08:08,460 --> 00:08:08,960
Oké.
163
00:08:08,960 --> 00:08:09,320
Oké.
164
00:08:09,320 --> 00:08:11,620
En hoe zou het een citaat kunnen zijn dan?
165
00:08:11,620 --> 00:08:14,280
Omdat je dan de afbeelding bespreekt.
166
00:08:14,280 --> 00:08:15,200
Of omdat je...
167
00:08:15,200 --> 00:08:17,020
Nou ja, zoals die Adidas Floral-campagne...
168
00:08:17,020 --> 00:08:19,900
Ja, die gebruik ik ook in mijn AI-workshops.
169
00:08:19,900 --> 00:08:20,260
Ja.
170
00:08:20,260 --> 00:08:21,100
Om te laten zien.
171
00:08:21,100 --> 00:08:23,580
Zo van ja, je moet even zien waar het over hebben.
172
00:08:23,580 --> 00:08:25,080
Anders kun je het niet begrijpen.
173
00:08:25,080 --> 00:08:26,780
Ik kan het wel praten en het uitleggen.
174
00:08:26,780 --> 00:08:28,100
Ik kan er wel tekst omheen bouwen.
175
00:08:28,100 --> 00:08:29,620
Maar je moet het toch even gezien hebben.
176
00:08:29,620 --> 00:08:29,920
Ja.
177
00:08:29,920 --> 00:08:30,320
Ja.
178
00:08:30,320 --> 00:08:30,720
En dan...
179
00:08:30,720 --> 00:08:32,299
Goed, Adidas staat er natuurlijk al zelf in.
180
00:08:32,299 --> 00:08:34,620
Dus daarmee heb ik aan alles al gedaan.
181
00:08:34,620 --> 00:08:35,919
Maar normaal gesproken...
182
00:08:35,919 --> 00:08:37,760
Je mag niet meer gebruiken dan je nodig hebt.
183
00:08:37,760 --> 00:08:39,320
Het moet wel voor een serieus doel zijn.
184
00:08:39,320 --> 00:08:40,919
Zoals dus zo'n bespreking.
185
00:08:40,919 --> 00:08:43,720
Je moet wel aan naam- en bronvermelding doen.
186
00:08:43,720 --> 00:08:46,080
Nou ja, met zo'n commercial zit dat er vanzelf al in.
187
00:08:46,080 --> 00:08:48,020
Maar anders moet je dat er nog even bij zetten.
188
00:08:48,020 --> 00:08:50,520
En je mag er niet zomaar van alles aan bewerken.
189
00:08:50,520 --> 00:08:52,660
Zodat je het verminkt, verandert, whatever.
190
00:08:52,660 --> 00:08:55,660
Tenzij dat dus nodig is om het als citaat te kunnen gebruiken.
191
00:08:55,660 --> 00:08:57,800
Omdat je ook er niet te veel mag gebruiken.
192
00:08:57,800 --> 00:08:59,860
Zo'n commercial is van zichzelf al kort.
193
00:08:59,860 --> 00:09:01,080
Dus die kun je in het geheel laten zien.
194
00:09:01,080 --> 00:09:03,960
Maar stel dat er een grote film is of zo.
195
00:09:03,960 --> 00:09:05,460
Dan zou je daar een scène uit kunnen.
196
00:09:05,460 --> 00:09:06,400
Ja, precies.
197
00:09:06,400 --> 00:09:07,720
Is het een heel artikel.
198
00:09:07,720 --> 00:09:09,320
Als je een eigen artikel schrijft.
199
00:09:09,320 --> 00:09:11,960
Of we zouden nu iets uit een artikel willen citeren in deze podcast.
200
00:09:11,960 --> 00:09:14,500
Ja, dan zou je een Alinea voorlezen of zo.
201
00:09:14,500 --> 00:09:17,460
Dan moet je wel even vertellen uit welk artikel dat komt.
202
00:09:17,460 --> 00:09:18,380
En wie dat geschreven heeft.
203
00:09:18,380 --> 00:09:19,340
Of waar het gepubliceerd is.
204
00:09:19,340 --> 00:09:19,600
Precies.
205
00:09:19,600 --> 00:09:21,500
En dan gaat het erom dat je dat bespreekt.
206
00:09:21,500 --> 00:09:22,760
Dus dat dat relevant was.
207
00:09:22,760 --> 00:09:25,400
En het niet alleen maar leuk en gezellig erbij is.
208
00:09:25,900 --> 00:09:28,740
Daar heb je nog niet een echt mondelinge toestemming voor nodig.
209
00:09:28,740 --> 00:09:30,340
Als je deze voorwaarden voelt.
210
00:09:30,340 --> 00:09:32,340
Nee, dus dit kan gewoon.
211
00:09:32,340 --> 00:09:34,220
Er is geen toestemming nodig.
212
00:09:34,220 --> 00:09:35,900
Je hoeft er niks voor te betalen.
213
00:09:35,900 --> 00:09:36,740
Hartstikke gratis.
214
00:09:36,740 --> 00:09:38,620
Je moet wel aan alle voorwaarden voelen.
215
00:09:38,620 --> 00:09:39,080
Ja, oké.
216
00:09:39,080 --> 00:09:40,300
En daar gaat het wel vaak mis.
217
00:09:40,300 --> 00:09:40,520
Ja.
218
00:09:40,520 --> 00:09:41,720
En dit is.
219
00:09:41,720 --> 00:09:45,280
Want dan zeg je er is niks veranderd tussen 2017 en nu.
220
00:09:45,280 --> 00:09:47,280
Want dit is dan neem ik aan auteursrecht.
221
00:09:47,280 --> 00:09:48,180
Ja.
222
00:09:48,180 --> 00:09:49,980
En weet je, er zit in de AI.
223
00:09:49,980 --> 00:09:51,040
Er zit ook wel een stukje over.
224
00:09:51,040 --> 00:09:52,440
Je moet auteursrecht respecteren.
225
00:09:52,440 --> 00:09:52,920
Ja.
226
00:09:52,920 --> 00:09:53,700
Ja, nou ja.
227
00:09:53,700 --> 00:09:55,240
Eigenlijk is dat het enige wat daarin staat.
228
00:09:55,240 --> 00:09:57,040
Over auteursrecht.
229
00:09:57,040 --> 00:09:57,700
Over auteursrecht.
230
00:09:57,700 --> 00:09:59,020
Ja.
231
00:09:59,020 --> 00:10:00,660
Ja, wel specifiek over auteursrecht.
232
00:10:00,660 --> 00:10:01,120
Ja.
233
00:10:01,120 --> 00:10:03,820
Ja, want als we naar die wet kijken.
234
00:10:03,820 --> 00:10:06,740
Die is vorig jaar ingegaan.
235
00:10:06,740 --> 00:10:11,440
Met 2 februari ook nog als een specifieke datum.
236
00:10:11,440 --> 00:10:12,900
Vanaf die datum zijn er.
237
00:10:12,900 --> 00:10:14,820
Eigenlijk gaat hij in onderdelen in.
238
00:10:14,820 --> 00:10:15,760
Dus wat altijd gebeurt is.
239
00:10:15,760 --> 00:10:17,120
Er wordt een wet aangenomen.
240
00:10:17,120 --> 00:10:22,720
En de standaard is eigenlijk dat je altijd een implementatietermijn hebt van twee jaar.
241
00:10:22,720 --> 00:10:26,360
En in dit geval zitten daar wat fases in.
242
00:10:26,360 --> 00:10:28,040
Er zijn inderdaad per 2 februari.
243
00:10:28,040 --> 00:10:31,980
De verboden AI mag je echt niet meer inzetten.
244
00:10:31,980 --> 00:10:34,260
En je moet AI geletterd zijn.
245
00:10:34,260 --> 00:10:39,860
Maar het grootste deel gaat dus eigenlijk pas in augustus 2026 in.
246
00:10:39,860 --> 00:10:40,040
Ja.
247
00:10:40,040 --> 00:10:42,040
Wat in het algemeen.
248
00:10:42,040 --> 00:10:43,460
Wat vind je van deze wet?
249
00:10:43,460 --> 00:10:46,860
Vanuit de juridische oogpunt bekeken.
250
00:10:46,860 --> 00:10:50,600
Het lastige is dat je heel erg aan die wet merkt.
251
00:10:50,600 --> 00:10:55,000
Dat AI nog wel in ontwikkeling was toen ze daarmee bezig waren.
252
00:10:55,000 --> 00:10:58,900
Dus dat alle general purpose AI.
253
00:10:58,900 --> 00:11:03,180
Daar zijn ze op een gegeven moment nog maar even wat regels bij gaan maken.
254
00:11:03,180 --> 00:11:03,940
Dus van wacht even.
255
00:11:03,940 --> 00:11:06,440
Maar dit past eigenlijk niet binnen het systeem zoals we al bedacht hadden.
256
00:11:06,440 --> 00:11:08,740
Want general purpose is gewoon veel te breed.
257
00:11:08,740 --> 00:11:09,880
Dat kan veel te veel.
258
00:11:09,880 --> 00:11:12,100
Dat is dus niet per definitie.
259
00:11:12,400 --> 00:11:15,180
Dat van zichzelf verboden of van zichzelf hoog risico.
260
00:11:15,180 --> 00:11:16,900
Dat gaat erom hoe je het gebruikt.
261
00:11:16,900 --> 00:11:22,780
Dus bij wijze van spreken de helft van die AI act bestaat uit regels over general purpose AI.
262
00:11:22,780 --> 00:11:24,180
Even overdreven gezegd.
263
00:11:24,180 --> 00:11:26,940
Dus dat merken we er goed aan.
264
00:11:26,940 --> 00:11:29,840
We hebben in de onderhandelingen toch wel heel erg gemerkt.
265
00:11:29,840 --> 00:11:32,300
Dat er ook wel veel discussie is geweest.
266
00:11:32,300 --> 00:11:35,720
En het toch echt wel aan elkaar hangt van compromissen.
267
00:11:35,720 --> 00:11:40,000
Wat op zich natuurlijk bij heel veel wetten wel zo is.
268
00:11:40,180 --> 00:11:43,720
Want we hebben natuurlijk een hoop landen die daar samen afspraken over moeten maken.
269
00:11:43,720 --> 00:11:48,160
Maar dat zijn wel dingen die je daaraan merkt.
270
00:11:48,160 --> 00:11:51,100
En dat er dus ook nog steeds wel wat onduidelijkheid kan zijn.
271
00:11:51,100 --> 00:11:54,320
Oké, we hebben verboden AI die je absoluut niet mag gebruiken.
272
00:11:54,320 --> 00:11:58,560
Maar dat er soms toch nog wel een beetje vraag is van valt dit er nou wel of niet onder.
273
00:11:58,560 --> 00:12:00,980
Is dit nou echt verboden of is het toch hoog risico?
274
00:12:00,980 --> 00:12:05,140
Ja, want we hebben verschillende risicoklasses in die wet.
275
00:12:05,140 --> 00:12:07,600
In feite is het verboden AI.
276
00:12:07,600 --> 00:12:11,360
Dat zijn daar voor commerciële partijen zijn dat er zeven.
277
00:12:11,360 --> 00:12:13,960
En dan hebben we hoog risico.
278
00:12:13,960 --> 00:12:15,480
Dat is een soort van je mag het wel gebruiken.
279
00:12:15,480 --> 00:12:19,000
Maar je moet wel aan een hele hoop eisen voldoen.
280
00:12:19,000 --> 00:12:22,080
Zowel aanbieder als gebruiksantwoordelijke.
281
00:12:22,080 --> 00:12:25,360
En dan moet je ook wat dingen echt wat meer over vastleggen.
282
00:12:25,360 --> 00:12:27,560
En wat meer dingen rondomheen organiseren.
283
00:12:28,220 --> 00:12:33,140
En dan hebben we eigenlijk de AI waar je vooral transparant moet zijn over het gebruik daarvan.
284
00:12:33,140 --> 00:12:34,860
Dus dat mag je gewoon gebruiken.
285
00:12:34,860 --> 00:12:36,060
Maar je moet het wel even vertellen.
286
00:12:36,060 --> 00:12:41,160
En dan is er nog een hoop AI van zeggen dat is no risk, low risk.
287
00:12:41,160 --> 00:12:45,160
Daar gaat eigenlijk de hele AI act al niet meer over.
288
00:12:45,160 --> 00:12:47,940
En dat kan gewoon gebruikt worden.
289
00:12:47,940 --> 00:12:49,700
Daar hebben we het dan verder niet over.
290
00:12:49,700 --> 00:12:52,520
Ik hoorde een term die van mij niet helemaal bekend is.
291
00:12:52,520 --> 00:12:53,280
Dus die wil ik even vragen.
292
00:12:53,280 --> 00:12:54,380
Gebruiksverantwoordelijke.
293
00:12:54,380 --> 00:12:55,860
Wanneer ben je een gebruiksverantwoordelijke?
294
00:12:56,060 --> 00:12:59,160
De organisatie die AI gebruikt is gebruiksverantwoordelijke.
295
00:12:59,160 --> 00:13:02,220
En dan de mensen die het daadwerkelijk inzetten zijn dan de gebruikers.
296
00:13:02,220 --> 00:13:07,360
Dus vandaar dat ik wel het woord gebruiksverantwoordelijke maar even noem.
297
00:13:07,360 --> 00:13:10,220
Ik vind het zelf eigenlijk prettiger als je gewoon zo zegt gebruikers.
298
00:13:10,220 --> 00:13:14,460
Alleen heel strikt juridisch is er wel een verschil tussen de organisatie.
299
00:13:14,460 --> 00:13:18,000
Die daar verantwoordelijk voor is voor de inzet daarvan.
300
00:13:18,000 --> 00:13:21,760
En de echte poppetjes als het ware die de AI bedienen.
301
00:13:21,760 --> 00:13:22,280
Ja.
302
00:13:22,280 --> 00:13:27,460
En zeker bij die hoog risico is het heel belangrijk dat die gebruiksverantwoordelijke, die krijgen
303
00:13:27,460 --> 00:13:29,540
ook heel veel extra verplichtingen.
304
00:13:29,540 --> 00:13:32,040
Ja, de aanbieders natuurlijk nog het meeste.
305
00:13:32,040 --> 00:13:33,520
Want die brengen het op de markt.
306
00:13:33,520 --> 00:13:33,720
Ja.
307
00:13:34,540 --> 00:13:37,540
En dan heb je dus ook nog wel de distributeurs en zo.
308
00:13:37,540 --> 00:13:39,320
En die hebben ook wel weer wat eigen verplichtingen.
309
00:13:39,320 --> 00:13:40,660
Maar vooral de aanbieders.
310
00:13:40,660 --> 00:13:45,020
Maar inderdaad als gebruiksverantwoordelijke moet je bijvoorbeeld zorgen dat je echt wel
311
00:13:45,020 --> 00:13:47,420
iemand hebt die wel beter in de gaten houdt hoe het gebruikt wordt.
312
00:13:47,420 --> 00:13:48,820
En dat het op een goede manier gebeurt.
313
00:13:48,820 --> 00:13:51,440
Dat daar wat monitoring omheen zit.
314
00:13:51,440 --> 00:13:53,360
Dat je zorgt voor logging.
315
00:13:53,360 --> 00:13:58,580
Dat als je merkt dat er dingen niet goed zijn, dat je dat dus weer meldt bij de aanbieders.
316
00:13:58,580 --> 00:14:00,200
Er klopt toch iets niet.
317
00:14:00,200 --> 00:14:01,320
Er zit toch een bias in.
318
00:14:01,320 --> 00:14:02,040
Weet dit.
319
00:14:02,040 --> 00:14:05,020
Nou ja, allemaal dat soort zaken.
320
00:14:05,020 --> 00:14:09,700
En wat zijn de belangrijkste verboden in die wet?
321
00:14:09,700 --> 00:14:12,420
Wat mogen we eigenlijk vanaf dit moment niet meer?
322
00:14:12,420 --> 00:14:18,580
Nou, wat onder meer niet mag is emotieherkenning op het werk en in het onderwijs.
323
00:14:18,580 --> 00:14:18,800
Ja.
324
00:14:18,800 --> 00:14:24,420
Waarbij we eigenlijk tot, nou wat was het, eergisteren dachten, oh op het werk betekent eigenlijk
325
00:14:24,420 --> 00:14:26,900
alleen maar medewerkers en dus niet sollicitanten.
326
00:14:27,440 --> 00:14:30,120
Maar er is nu vanuit Europa een guideline gekomen.
327
00:14:30,120 --> 00:14:32,180
Ja, nee, het gaat ook over sollicitanten.
328
00:14:32,180 --> 00:14:36,400
Logisch eigenlijk, want dat gebeurt ook op de werkvloer.
329
00:14:36,400 --> 00:14:36,860
Ja, precies.
330
00:14:36,860 --> 00:14:39,560
Alleen, ja, je zit niet in dat dienstverband.
331
00:14:39,560 --> 00:14:42,240
Dus dan ga je heel juridisch kijken naar wat staat daar juridisch.
332
00:14:42,240 --> 00:14:43,540
Ja, dan is dat op het werk.
333
00:14:43,540 --> 00:14:47,300
En die persoon is nog niet op het werk, aan het werk.
334
00:14:47,300 --> 00:14:49,180
Dat is alleen nog maar een sollicitant.
335
00:14:49,180 --> 00:14:53,040
Terwijl als je kijkt naar het doel van de regel is het wel weer logisch dat het een sollicitant zou zijn.
336
00:14:53,040 --> 00:14:58,120
Want het gaat om dat je mensen niet zomaar kunt beoordelen op basis van hun emotie.
337
00:14:58,120 --> 00:15:01,240
Dat ze niet daardoor, nou ja, bijvoorbeeld wel of geen promotie krijgen.
338
00:15:01,240 --> 00:15:03,320
Of nou ja, whatever.
339
00:15:03,320 --> 00:15:06,940
En dat is dus voor het onderwijs is dat ook zo.
340
00:15:06,940 --> 00:15:13,660
Dat geldt zowel voor lager middelbaar onderwijs, maar ook beroepsonderwijs of nascholingsachtige dingen.
341
00:15:13,660 --> 00:15:16,820
Dus ook voor de commerciële onderwijspartijen, zeg maar.
342
00:15:17,420 --> 00:15:20,800
Ik geef bijvoorbeeld ook cursus bij Beekestein, daar geldt dat dan bijvoorbeeld ook voor.
343
00:15:20,800 --> 00:15:24,160
Wat hebben we nog meer?
344
00:15:24,160 --> 00:15:35,440
Nou ja, je mag niet aan gezichtsherkenning, je mag geen databases bouwen met gezichtsherkenning als je dat scraped van internet of CCTV.
345
00:15:35,440 --> 00:15:36,600
Dus bewakingsbeelden.
346
00:15:36,600 --> 00:15:38,840
Dus Clearview, PimEyes en zo.
347
00:15:38,840 --> 00:15:43,500
Nou ja, dat mocht eigenlijk van de AVG ook al niet, maar goed, nu door de AIX ook niet.
348
00:15:45,000 --> 00:15:47,620
Die hadden dat gedaan, die hadden echt van de hele wereld.
349
00:15:47,620 --> 00:15:49,820
Ja, van alles waard, maar voor data halen.
350
00:15:49,820 --> 00:15:53,840
Wij drieën staan in die database, daar kan je vanuit gaan.
351
00:15:53,840 --> 00:15:55,600
100 procent.
352
00:15:55,600 --> 00:16:01,160
En dan, ik had de documentaire gezien, Netflix documentaire even uit mijn hoofd.
353
00:16:01,160 --> 00:16:02,100
Hoe heet die ook weer?
354
00:16:02,100 --> 00:16:06,660
Ik ga hem in de link zetten, Unmasked of zo.
355
00:16:06,660 --> 00:16:07,960
Ja, oké.
356
00:16:07,960 --> 00:16:09,340
Ja, van, ja.
357
00:16:09,340 --> 00:16:10,520
Ja, maar die.
358
00:16:10,520 --> 00:16:12,280
Die moet ik nog kijken, denk ik.
359
00:16:12,280 --> 00:16:14,060
Ja, die is echt heel interessant.
360
00:16:14,060 --> 00:16:15,300
Ik kom er zo direct vast wel op.
361
00:16:15,300 --> 00:16:20,960
Dat ze dan in Engeland gebruikten die Clearview technologie.
362
00:16:20,960 --> 00:16:23,840
Dus iedereen op een bepaald plein.
363
00:16:23,840 --> 00:16:26,560
Hadden ze een busje staan, camera's overal op.
364
00:16:26,560 --> 00:16:30,900
En iedereen die voorbij kwam, er werd gezichtsherkenning gedaan.
365
00:16:30,900 --> 00:16:34,640
En werd gekeken of er, nou weet ik veel, nog boetes uitstonden.
366
00:16:35,320 --> 00:16:37,120
Ja, dus we hebben wel twee verschillende dingen.
367
00:16:37,120 --> 00:16:39,200
Dus je mag de database er niet mee bouwen.
368
00:16:39,200 --> 00:16:40,680
Dat is een verbod.
369
00:16:40,680 --> 00:16:46,920
En er is dan voor de overheid ook een verbod op real-time gezichtsherkenning op afstand.
370
00:16:46,920 --> 00:16:49,260
Onder bepaalde voorwaarden.
371
00:16:49,260 --> 00:16:51,040
Dus die zitten wel iets ingewikkelder in elkaar, zeg maar.
372
00:16:51,040 --> 00:16:53,440
Maar dus, en onder voorwaarden mag het dan weer wel.
373
00:16:53,440 --> 00:16:57,640
Maar als dat dus is met het doel om mensen op te sporen die strafbare feiten hebben gepleegd.
374
00:16:57,640 --> 00:16:59,100
Nou ja, dan mag het dus soms wel en soms niet.
375
00:16:59,100 --> 00:17:02,880
Dus als het heel specifiek is voor bepaalde veiligheidsdoeleinden mag het weer wel.
376
00:17:02,880 --> 00:17:05,619
Maar het mag niet te algemeen worden ingezet.
377
00:17:05,619 --> 00:17:07,599
Maar dat is wel heel erg een overheid.
378
00:17:07,599 --> 00:17:08,560
Precies.
379
00:17:08,560 --> 00:17:11,660
Nou ja, verbod en taken.
380
00:17:11,660 --> 00:17:15,800
Wat hier vooral zeg maar heel, nou ja, eng aan werd.
381
00:17:15,800 --> 00:17:22,940
Is dat, er zit natuurlijk sowieso, zit er een foutmarge in die modellen.
382
00:17:22,940 --> 00:17:25,200
En daar waren ze heel vaag over.
383
00:17:25,660 --> 00:17:29,180
Dus je kan, omdat je op iemand lijkt, kan je gewoon ergens uitgepikt worden.
384
00:17:29,180 --> 00:17:33,400
En dat, nou ja, dat is best wel intimiderend.
385
00:17:33,400 --> 00:17:39,720
En aan de andere kant, als mensen niet, zeg maar, die gezichtsherkenning wilden.
386
00:17:39,720 --> 00:17:41,080
Dus bijvoorbeeld een capuchon opdeden.
387
00:17:41,080 --> 00:17:43,040
Er was al reden om ze eruit te pikken.
388
00:17:43,040 --> 00:17:44,580
Want dan had je iets te verbergen.
389
00:17:44,580 --> 00:17:48,100
Dus ik kreeg een soort van omgekeerde wereld.
390
00:17:48,100 --> 00:17:50,080
Nou ja, dat kan natuurlijk sowieso al niet.
391
00:17:50,080 --> 00:17:58,600
Daar hebben we in het strafrecht eigenlijk al juridische waarborgen voor dat je niet op die manier mensen mag profilen eigenlijk.
392
00:17:58,600 --> 00:18:03,020
En kijk, op zich, daar kan altijd ergens een foutmarge in zitten.
393
00:18:03,020 --> 00:18:04,160
En dat is niet zo erg.
394
00:18:04,160 --> 00:18:08,260
Het is dus ook niet zo dat het verboden is om aan gezichtsherkenning te doen.
395
00:18:08,260 --> 00:18:11,960
Maar dan moet dat wel een onderdeel zijn van een groter geheel.
396
00:18:12,200 --> 00:18:15,240
Waardoor je nog allemaal wat maatregelen kunt treffen.
397
00:18:15,240 --> 00:18:17,200
Dus van oké, dit is dan een eerste stap.
398
00:18:17,200 --> 00:18:19,440
Dan gaan we ook op een andere manier checken of dit echt klopt.
399
00:18:19,440 --> 00:18:22,420
En dat je dus niet automatisch al zegt, maar AI heeft iemand herkend.
400
00:18:22,420 --> 00:18:23,840
Dan zal het wel zo zijn.
401
00:18:23,840 --> 00:18:28,620
Dus dan moet het een onderdeel zijn van een groter geheel proces qua validatie.
402
00:18:28,620 --> 00:18:32,120
Voor de Netflix serie, want daar kan ik niet tegen.
403
00:18:32,120 --> 00:18:33,140
Ik heb het net geprobeerd op te zoeken.
404
00:18:33,140 --> 00:18:33,760
Coded bias?
405
00:18:33,760 --> 00:18:35,560
Coded bias, heel goed.
406
00:18:35,560 --> 00:18:37,720
Ja, aanraden.
407
00:18:37,720 --> 00:18:38,300
Ja, echt.
408
00:18:38,300 --> 00:18:38,660
Zeker.
409
00:18:38,660 --> 00:18:39,300
Ik ga kijken.
410
00:18:39,300 --> 00:18:41,520
Ik heb het denk ik net wel al aangeraden gekregen.
411
00:18:41,720 --> 00:18:43,360
Ja, door een algoritme.
412
00:18:43,360 --> 00:18:47,620
Maar ze hebben me nog niet zodanig opgedrongen dat ik dacht, oké, dan ga ik er maar kijken.
413
00:18:47,620 --> 00:18:48,520
Ja.
414
00:18:48,520 --> 00:18:55,580
Want de wet is natuurlijk heel erg risicogedreven ingestoken.
415
00:18:55,580 --> 00:18:55,940
Ja.
416
00:18:55,940 --> 00:18:59,200
Je had het over hoogrisicosystemen.
417
00:18:59,200 --> 00:19:01,200
Waar moet ik daar aan denken?
418
00:19:01,200 --> 00:19:04,780
Ja, dat heeft heel veel te maken met privacy bijvoorbeeld.
419
00:19:05,560 --> 00:19:11,900
Dus op het moment dat je persoonsgegevens in een AI tool stopt.
420
00:19:11,900 --> 00:19:14,280
Nou ja, dat zou soms misschien best mogen.
421
00:19:14,280 --> 00:19:16,480
Maar dan moet je wel even kijken, goh, waar komt dat dan terecht?
422
00:19:16,480 --> 00:19:17,360
Wat gebeurt daarmee?
423
00:19:17,360 --> 00:19:18,300
Wat wil je daarmee doen?
424
00:19:18,300 --> 00:19:26,260
Op het moment dat je, nou ja, het soort van direct marketing, gepersonaliseerde advertenties,
425
00:19:26,260 --> 00:19:27,780
achttige dingen daarmee wil maken.
426
00:19:28,360 --> 00:19:28,520
Ja.
427
00:19:28,520 --> 00:19:31,440
Dan moet je wel echt wat extra waarborgen treffen.
428
00:19:31,440 --> 00:19:31,880
Ja.
429
00:19:31,880 --> 00:19:35,760
En het mag niet discrimineren en zo bijvoorbeeld.
430
00:19:35,760 --> 00:19:38,700
Je moet echt uitkijken voor al die biases die daarin kunnen zitten.
431
00:19:38,700 --> 00:19:39,220
Ja.
432
00:19:39,220 --> 00:19:41,800
Dat zijn belangrijke onderdelen.
433
00:19:41,800 --> 00:19:45,180
En dan is het idee dat je heel vaak vooraf even moet toetsen.
434
00:19:45,180 --> 00:19:47,160
Oké, wat doet mijn systeem nou eigenlijk?
435
00:19:47,160 --> 00:19:48,540
Wat is nou het risico daarvan?
436
00:19:48,540 --> 00:19:50,620
Hoe kunnen we dat risico zo goed mogelijk verkleinen?
437
00:19:51,760 --> 00:19:53,780
Zijn er dingen die we daar verder op kunnen inrichten?
438
00:19:53,780 --> 00:19:56,100
Of moeten we dan zorgen dat we wat vaker monitoren?
439
00:19:56,100 --> 00:19:59,060
Maar dat hangt er echt vanaf.
440
00:19:59,060 --> 00:19:59,600
Ja.
441
00:19:59,600 --> 00:20:02,180
Het gaat echt om je toepassing en niet zozeer om je tool.
442
00:20:02,180 --> 00:20:04,780
Dus het kan best zijn als een tool ook een specifieke toepassing heeft.
443
00:20:04,780 --> 00:20:07,660
Dat je echt kunt zeggen, hé, deze tool is goedgekeurd.
444
00:20:07,660 --> 00:20:08,720
Die voldoet aan van alles.
445
00:20:08,720 --> 00:20:10,280
Dan kan die ook een soort keurmerkje krijgen.
446
00:20:10,280 --> 00:20:12,240
En dan weet je gewoon, oké, deze tool kan ik gebruiken.
447
00:20:12,240 --> 00:20:16,240
Maar op het moment dat de tool dus een bredere toepassingsmogelijkheid heeft,
448
00:20:16,240 --> 00:20:19,820
of je hebt zelf wat meer de keuze in wat voor soort data je daarin stopt.
449
00:20:20,200 --> 00:20:24,020
Ja, dan moet je zelf wel nog steeds zorgen dat de data die je daarin gooit ook gewoon kwalitatief is.
450
00:20:24,020 --> 00:20:24,260
Ja.
451
00:20:24,260 --> 00:20:29,020
Ik heb uiteraard die wettekst ook door zitten lezen.
452
00:20:29,020 --> 00:20:31,040
Als je niet jurist, dan valt het niet mee.
453
00:20:31,040 --> 00:20:37,480
Wat ik wel heel erg lastig vond, is van hoe kom je er nou achter als organisatie zo direct?
454
00:20:37,480 --> 00:20:40,080
Je hebt al systemen in productie.
455
00:20:40,080 --> 00:20:42,360
Wanneer het hoog risico is.
456
00:20:42,360 --> 00:20:46,520
Want daar komen zoveel eisen bij kijken.
457
00:20:46,680 --> 00:20:50,840
Dat het heel belangrijk is om te weten of je systeem in de categorie hoog risico valt.
458
00:20:50,840 --> 00:20:53,940
En waarom zou je niet gewoon een paar definitie als hoog risico behandelen?
459
00:20:53,940 --> 00:20:57,440
Ja, dat zou kunnen.
460
00:20:57,440 --> 00:21:00,460
Maar dan gaat het vanuit een wil.
461
00:21:00,460 --> 00:21:03,700
Laat ik het zo zeggen.
462
00:21:05,160 --> 00:21:10,720
Alle effort die je ervoor moet doen om te bepalen of het hoog risico is of dat je alleen maar aan een transparantieverplichting moet voldoen.
463
00:21:10,720 --> 00:21:15,640
Dat kost je eigenlijk al zoveel moeite dat je net zo goed alles kunt registreren zodat je gewoon een hoog risico vereist.
464
00:21:15,640 --> 00:21:17,680
Dat vind ik wel een heel aardige uitgangspunt.
465
00:21:17,940 --> 00:21:24,380
Dus je bent daar dan al zo druk mee om een beetje te gaan lopen verantwoorden waarom het geen hoog risico zou zijn.
466
00:21:24,380 --> 00:21:25,900
Dan kost je net zoveel moeite.
467
00:21:25,900 --> 00:21:29,120
Dat vind ik wel aardig.
468
00:21:29,120 --> 00:21:33,580
En als je hem eenmaal hebt uitgespeeld en je weet het is hoog risico en dit moet ervoor gebeuren.
469
00:21:33,580 --> 00:21:36,600
Dan is het gewoon een beetje wat administratie.
470
00:21:36,600 --> 00:21:38,200
En dat is het.
471
00:21:38,200 --> 00:21:42,740
En vervolgens zijn het de gebruiksverantwoordelijken die het zelf dan ook wel weer gewoon goed moeten gebruiken.
472
00:21:43,040 --> 00:21:45,320
En die ook moeten kijken naar hoe gebruiken we het.
473
00:21:45,320 --> 00:21:48,860
En zou het niet kunnen zijn dat door de manier hoe we het gebruiken het alsnog hoog risico wordt.
474
00:21:48,860 --> 00:21:51,620
Dat vind ik wel een...
475
00:21:51,620 --> 00:21:51,820
Mooi.
476
00:21:51,820 --> 00:21:55,700
Ik ben graag van de pragmatische oplossingen.
477
00:21:55,700 --> 00:21:58,160
Dat klinkt goed.
478
00:21:58,160 --> 00:22:01,040
We raakten hem net al.
479
00:22:01,040 --> 00:22:02,200
Een stukje AI geletterdheid.
480
00:22:02,200 --> 00:22:04,020
Wat volgens mij ook van kracht is.
481
00:22:04,020 --> 00:22:05,480
Met name bij de hoog risico.
482
00:22:05,480 --> 00:22:07,660
Ja, dat is dus zo'n misverstand.
483
00:22:07,660 --> 00:22:08,460
Oké.
484
00:22:08,460 --> 00:22:08,820
Nou mooi.
485
00:22:08,820 --> 00:22:10,200
Kunnen we die uit de wereld helpen?
486
00:22:10,200 --> 00:22:12,200
Zo breed opgeschreven.
487
00:22:12,200 --> 00:22:13,340
AI geletterdheid.
488
00:22:13,340 --> 00:22:18,800
Dat in principe iedereen die gewoon gebruik maakt van AI gewoon geletterd moet zijn.
489
00:22:18,800 --> 00:22:19,620
Punt.
490
00:22:19,620 --> 00:22:24,860
Waarbij eigenlijk de enige discussie die er onder juristen nog bestaat.
491
00:22:24,860 --> 00:22:29,040
Goh maar dat low no risk waar de AI act überhaupt niet over gaat.
492
00:22:29,040 --> 00:22:30,760
Valt dat er dan wel of niet onder?
493
00:22:30,760 --> 00:22:32,780
Nou als je kijkt naar hoe het is omschreven.
494
00:22:32,780 --> 00:22:35,240
Dan gaat het eigenlijk over alle AI.
495
00:22:35,240 --> 00:22:37,000
Dus zou het ook daarvoor moeten gelden.
496
00:22:37,700 --> 00:22:38,960
Maar je zou dus ook kunnen zeggen.
497
00:22:38,960 --> 00:22:41,140
Ja maar de AI gaat daar überhaupt niet over.
498
00:22:41,140 --> 00:22:43,840
Dus kan het ook niet over de AI geletterdheid gaan.
499
00:22:43,840 --> 00:22:45,720
Nou ja goed.
500
00:22:45,720 --> 00:22:47,620
Daar kun je een beetje over van mening verschillen.
501
00:22:47,620 --> 00:22:51,040
Maar die zal dus is natuurlijk bij de no low risk AI.
502
00:22:51,040 --> 00:22:52,300
Wat moet je er dan voor weten?
503
00:22:52,300 --> 00:22:53,860
Ja praktisch niks.
504
00:22:53,860 --> 00:22:55,580
Dus ja wat staat dan je AI geletterdheid voor?
505
00:22:55,580 --> 00:22:56,260
Eigenlijk ook niks.
506
00:22:56,260 --> 00:22:58,420
Dus dat is een beetje een non-discussie.
507
00:22:58,420 --> 00:23:01,620
Het enige waar je met hoog risico mee te maken hebt.
508
00:23:01,620 --> 00:23:03,800
Is dat je dan in je bedrijf iemand moet hebben.
509
00:23:04,000 --> 00:23:07,400
Die daar echt significant meer van weet dan de rest.
510
00:23:07,400 --> 00:23:09,540
Zodat die daar beter toezicht op kan houden.
511
00:23:09,540 --> 00:23:12,060
Maar alle andere mensen die daarmee werken.
512
00:23:12,060 --> 00:23:14,060
Ook als het dus alleen maar.
513
00:23:14,060 --> 00:23:16,980
Die alleen maar transparantie verplichting hebt.
514
00:23:16,980 --> 00:23:19,040
Dan moet je gewoon AI geletterd zijn.
515
00:23:19,040 --> 00:23:23,100
Ja en toch wil ik daar nog even over doorgaan.
516
00:23:23,100 --> 00:23:26,680
Want wat je best wel leest zeg maar op social media.
517
00:23:26,680 --> 00:23:27,560
En dan met dat soort dingen.
518
00:23:28,160 --> 00:23:30,260
Ik vind het redelijk hysterisch.
519
00:23:30,260 --> 00:23:31,720
Laat ik daar maar mee beginnen.
520
00:23:31,720 --> 00:23:32,620
Want er wordt gezegd.
521
00:23:32,620 --> 00:23:34,600
Ja dat je ook wel mensen certificaatjes zullen verkopen.
522
00:23:34,600 --> 00:23:35,340
Ja precies.
523
00:23:35,340 --> 00:23:36,640
Het wordt een verdienmodel.
524
00:23:36,640 --> 00:23:37,960
Maar goed.
525
00:23:37,960 --> 00:23:40,680
Onder dat mom van dat verdienmodel.
526
00:23:40,680 --> 00:23:42,300
Wordt natuurlijk wel een hele hoop geroepen.
527
00:23:42,300 --> 00:23:43,600
Dus ik denk dat het goed is zeg maar.
528
00:23:43,600 --> 00:23:47,280
Als wij hier in ieder geval daar helder over zijn.
529
00:23:47,280 --> 00:23:48,780
Want er zijn de mensen die zeggen.
530
00:23:48,780 --> 00:23:51,400
Hé maar jij werkt met een.
531
00:23:51,400 --> 00:23:52,780
Bijvoorbeeld een.
532
00:23:53,380 --> 00:23:53,880
Je e-mail.
533
00:23:53,880 --> 00:23:56,160
Daar zit een spam filter op.
534
00:23:56,160 --> 00:23:59,020
Is een machine learning iets.
535
00:23:59,020 --> 00:24:00,960
Dus moet je AI geletterd zijn.
536
00:24:00,960 --> 00:24:01,660
Ja klopt.
537
00:24:01,660 --> 00:24:03,980
En wat moet je er dan over weten.
538
00:24:03,980 --> 00:24:06,380
Ik gebruik mijn e-mail programma.
539
00:24:06,380 --> 00:24:06,620
Ja.
540
00:24:06,620 --> 00:24:09,120
En mijn AI doet dit automatisch.
541
00:24:09,120 --> 00:24:10,840
Nou ja de vraag is eigenlijk zelfs.
542
00:24:10,840 --> 00:24:12,200
Wat zijn daar nou de gevolgen van.
543
00:24:12,200 --> 00:24:13,240
Wat kan er mee misgaan.
544
00:24:13,240 --> 00:24:13,820
Dus dit kan.
545
00:24:13,820 --> 00:24:16,760
Een presentatie zijn van vijf minuten misschien.
546
00:24:16,760 --> 00:24:17,840
Die even moet kijken.
547
00:24:17,840 --> 00:24:20,980
En dan ben je dus misschien wel voldoende AI geletterd.
548
00:24:21,240 --> 00:24:24,060
Of valt dit in die low risico.
549
00:24:24,060 --> 00:24:28,200
Want wat is het risico voor een spam filter.
550
00:24:28,200 --> 00:24:31,140
Voor een spam filter specifiek.
551
00:24:31,140 --> 00:24:33,020
Zou dat inderdaad onder die low risk.
552
00:24:33,020 --> 00:24:33,660
En dan is het.
553
00:24:33,660 --> 00:24:35,000
Hé er zit een spam filter.
554
00:24:35,000 --> 00:24:36,320
En dat werkt op basis van AI.
555
00:24:36,320 --> 00:24:37,540
Dus nou ja.
556
00:24:37,540 --> 00:24:38,580
Daar kan ook wel eens wat mis mee gaan.
557
00:24:38,580 --> 00:24:39,620
Nou dan weet je genoeg.
558
00:24:39,620 --> 00:24:41,440
En volgens mij.
559
00:24:41,440 --> 00:24:44,400
Even wat ik gelezen heb.
560
00:24:44,400 --> 00:24:46,560
Maar daar kan ik dan lekker aan jou aan toetsen.
561
00:24:46,560 --> 00:24:48,400
Is dat die wet ook zegt.
562
00:24:49,400 --> 00:24:51,220
De grootste kans eigenlijk.
563
00:24:51,220 --> 00:24:51,700
Het is het.
564
00:24:51,700 --> 00:24:56,040
De meeste systemen zullen onder die low risk vallen.
565
00:24:56,040 --> 00:24:59,380
Ja dat is denk ik maar net hoe je het wil bekijken.
566
00:24:59,380 --> 00:25:00,880
Maar zo staat het er wel in.
567
00:25:00,880 --> 00:25:04,800
Kijk als je natuurlijk naar de hele wereld van AI kijkt.
568
00:25:04,800 --> 00:25:06,920
Dan kan AI zo ontiegelijk veel.
569
00:25:06,920 --> 00:25:07,480
Precies.
570
00:25:07,480 --> 00:25:09,860
Dat als je dat zo bekijkt.
571
00:25:09,860 --> 00:25:12,720
Ja dan zal percentueel het meeste inderdaad er niet onder vallen.
572
00:25:12,860 --> 00:25:16,080
Kijken we naar welke AI tools en toepassingen we gebruiken.
573
00:25:16,080 --> 00:25:17,620
En waar we het over hebben op LinkedIn.
574
00:25:17,620 --> 00:25:18,480
Om het zo maar te zeggen.
575
00:25:18,480 --> 00:25:21,680
Dan valt 90% daar juist wel onder.
576
00:25:21,680 --> 00:25:23,380
Want?
577
00:25:23,380 --> 00:25:27,080
Nou omdat we het dan überhaupt al hebben over general purpose AI.
578
00:25:27,080 --> 00:25:28,340
En over JetGPT.
579
00:25:28,340 --> 00:25:31,220
En over allerlei marketing toepassingen.
580
00:25:31,220 --> 00:25:32,260
En over whatever.
581
00:25:32,260 --> 00:25:34,240
Dat is allemaal niet low no risk.
582
00:25:34,240 --> 00:25:36,940
Low no risk is je spam filter.
583
00:25:36,940 --> 00:25:39,480
Is een beetje AI in een computerspelletje.
584
00:25:39,860 --> 00:25:41,340
Is nou ja whatever.
585
00:25:41,340 --> 00:25:45,680
Wat eigenlijk jou als persoon ook helemaal niet raakt.
586
00:25:45,680 --> 00:25:46,020
Ja.
587
00:25:46,020 --> 00:25:48,080
Ja dat is low no risk.
588
00:25:48,080 --> 00:25:50,080
Dan weet je misschien.
589
00:25:50,080 --> 00:25:51,940
Dan is het nu toevallig wel AI geworden.
590
00:25:51,940 --> 00:25:54,520
Maar zat er voorheen ook wel iets dergelijks in.
591
00:25:54,520 --> 00:25:55,420
Alleen dan niet.
592
00:25:55,420 --> 00:25:57,580
Op basis van AI.
593
00:25:57,580 --> 00:26:01,360
En een simpelere slechter werkende versie.
594
00:26:01,360 --> 00:26:01,680
Ja.
595
00:26:01,680 --> 00:26:04,840
Maar als we voor mezelf even een praktie proberen maken.
596
00:26:04,840 --> 00:26:06,100
We hadden net even e-mail.
597
00:26:06,100 --> 00:26:06,920
Spam filter niet.
598
00:26:06,920 --> 00:26:09,960
Maar ik ga mijn e-mailtjes met behulp van ChatGPT.
599
00:26:09,960 --> 00:26:10,600
Copilot.
600
00:26:10,600 --> 00:26:11,520
En noem een andere tool.
601
00:26:11,520 --> 00:26:13,340
Ga ik mijn mailtjes laten samenstellen.
602
00:26:13,340 --> 00:26:14,600
En de tekst daaruit.
603
00:26:14,600 --> 00:26:16,880
Die ga ik gebruiken als input voor mijn mail reactie.
604
00:26:16,880 --> 00:26:17,200
Ja.
605
00:26:17,200 --> 00:26:19,580
Dan moet ik dus meer weten.
606
00:26:19,580 --> 00:26:21,140
Meer AI geletterd zijn dan.
607
00:26:21,140 --> 00:26:21,640
Ja.
608
00:26:21,640 --> 00:26:25,740
Omdat je simpelweg dus al moet weten.
609
00:26:25,740 --> 00:26:27,860
Goh AI is niet perfect.
610
00:26:27,860 --> 00:26:28,760
Die kan dus.
611
00:26:28,760 --> 00:26:31,300
Jij kunt wel iets ingevoerd hebben.
612
00:26:31,300 --> 00:26:31,840
Waarvan jij denkt.
613
00:26:31,840 --> 00:26:32,360
Nou dan is het.
614
00:26:32,360 --> 00:26:34,100
Ik weet wat dan de uitkomst moet zijn.
615
00:26:34,100 --> 00:26:34,820
En dat snap ik.
616
00:26:35,280 --> 00:26:36,160
En dan komt er iets uit.
617
00:26:36,160 --> 00:26:37,240
En dat jij er dan op vertrouwt.
618
00:26:37,240 --> 00:26:38,100
Nou dat zal dan wel kloppen.
619
00:26:38,100 --> 00:26:38,420
Want ja.
620
00:26:38,420 --> 00:26:39,620
Ik heb toch mijn prompt ingevoerd.
621
00:26:39,620 --> 00:26:41,180
Maar dan moet je wel weten.
622
00:26:41,180 --> 00:26:42,000
Het kan best wel zijn.
623
00:26:42,000 --> 00:26:43,760
Dat het verkeerd wordt geïnterpreteerd.
624
00:26:43,760 --> 00:26:45,720
Dat er eigenlijk een verkeerde berekening gemaakt wordt.
625
00:26:45,720 --> 00:26:45,980
Ja.
626
00:26:45,980 --> 00:26:48,260
Dat jij onhandige woorden hebt gebruikt.
627
00:26:48,260 --> 00:26:48,680
Of zo.
628
00:26:48,680 --> 00:26:49,880
Waardoor jij denkt.
629
00:26:49,880 --> 00:26:50,920
Maar dat vind ik heel logisch.
630
00:26:50,920 --> 00:26:51,840
Maar.
631
00:26:51,840 --> 00:26:54,660
Dat de rest van de wereld er misschien wel een ander woord voor gebruikt.
632
00:26:54,660 --> 00:26:55,460
Waardoor er dus ook.
633
00:26:55,460 --> 00:26:57,080
Een andere uitkomst.
634
00:26:57,080 --> 00:26:59,480
In je uiteindelijke e-mail komt staan.
635
00:26:59,480 --> 00:26:59,820
Ja.
636
00:26:59,820 --> 00:27:00,400
Nou ja.
637
00:27:00,400 --> 00:27:02,460
Dat zijn wel dingen die je dan moet weten.
638
00:27:02,760 --> 00:27:07,300
Dus dat kan heel zijn dat je eigen geletterdheid heel minimaal hoeft te zijn.
639
00:27:07,300 --> 00:27:12,260
En dat je dus echt in tien minuten bij wijze van spreken AI geletterd kunt worden.
640
00:27:12,260 --> 00:27:12,940
Ja.
641
00:27:13,160 --> 00:27:14,380
Maar je moet het wel zijn.
642
00:27:14,380 --> 00:27:15,440
Voor die toepassing.
643
00:27:15,440 --> 00:27:16,220
Ja.
644
00:27:16,220 --> 00:27:17,540
Het gaat om toepassingen.
645
00:27:17,540 --> 00:27:18,340
Ja.
646
00:27:18,340 --> 00:27:20,320
AI geletterdheid is eigenlijk super breed.
647
00:27:20,320 --> 00:27:20,700
Dus.
648
00:27:20,700 --> 00:27:23,240
Je moet in de basis al wel een beetje weten.
649
00:27:23,240 --> 00:27:25,200
Wat is AI nou eigenlijk.
650
00:27:25,200 --> 00:27:27,540
Dus mensen die er geen flauw idee van hebben.
651
00:27:27,540 --> 00:27:28,260
Ja.
652
00:27:28,260 --> 00:27:30,220
Die moeten dat echt wel een beetje leren.
653
00:27:30,220 --> 00:27:30,980
Anders dan krijg je.
654
00:27:30,980 --> 00:27:31,260
Oh.
655
00:27:31,260 --> 00:27:32,920
Toeslagerschandaal is AI.
656
00:27:32,920 --> 00:27:33,400
Nou ja.
657
00:27:33,400 --> 00:27:33,540
Nee.
658
00:27:33,540 --> 00:27:34,700
Op zich waren dat mensen.
659
00:27:34,840 --> 00:27:36,640
Die in een Excel sheetje een vinkje hebben gezet.
660
00:27:36,640 --> 00:27:36,960
Ja.
661
00:27:36,960 --> 00:27:38,080
Ja.
662
00:27:38,080 --> 00:27:40,760
Dat kan daar heel moeilijk AI van maken.
663
00:27:40,760 --> 00:27:43,640
Dat is niet eens een algoritme.
664
00:27:43,640 --> 00:27:49,900
Dus heel veel mensen behandelen een gewoon algoritme al als AI wat niet hetzelfde is.
665
00:27:49,900 --> 00:27:52,580
Of verlagen een AI naar iets wat.
666
00:27:52,580 --> 00:27:53,180
Nou ja goed.
667
00:27:53,700 --> 00:27:59,740
Dus je moet dan wel een beetje uitleggen hoe dat wiskundige sommetje een beetje werkt.
668
00:27:59,740 --> 00:28:04,600
Dat moeten mensen wel begrijpen hoe onvoorspelbaar het is.
669
00:28:04,600 --> 00:28:06,840
Ondanks dat je misschien toch wel wat dingen kunt sturen.
670
00:28:06,840 --> 00:28:10,520
Maar dat je nooit volledige zekerheid hebt op de uitkomst.
671
00:28:10,520 --> 00:28:13,540
Terwijl als het een algoritme is zou je altijd zeker moeten weten wat de uitkomst is.
672
00:28:13,540 --> 00:28:14,460
Is het alleen.
673
00:28:14,460 --> 00:28:15,900
Ja dat ga ik niet zelf uitrekenen.
674
00:28:15,900 --> 00:28:16,780
Maar dat laat ik iets doen.
675
00:28:16,780 --> 00:28:17,780
Want dan gaat het veel sneller.
676
00:28:17,780 --> 00:28:21,560
Dus dat is iets wat mensen wel al een beetje moeten weten.
677
00:28:22,060 --> 00:28:23,600
En verder gaat het er vooral om.
678
00:28:23,600 --> 00:28:25,260
Ja wat is je functie.
679
00:28:25,260 --> 00:28:28,800
Welke tools en toepassingen gebruik je nou eigenlijk.
680
00:28:28,800 --> 00:28:31,480
Hoeveel kennis heb je al.
681
00:28:31,480 --> 00:28:33,920
Hoe intelligent ben je.
682
00:28:33,920 --> 00:28:36,020
Wat is je scholing eigenlijk al geweest.
683
00:28:36,020 --> 00:28:36,420
Etcetera.
684
00:28:36,420 --> 00:28:36,760
Etcetera.
685
00:28:36,760 --> 00:28:38,560
En dat bepaalt hoeveel je zou moeten weten.
686
00:28:38,560 --> 00:28:43,100
Dus ik geef altijd een beetje een flauw voorbeeld van dat bij wijze van spreken.
687
00:28:43,100 --> 00:28:46,420
De schoonmaker die in schoonmakerhok binnenkomt.
688
00:28:46,420 --> 00:28:47,900
En op een schermpje ziet.
689
00:28:47,900 --> 00:28:50,560
Welke ruimte er schoongemaakt moet worden.
690
00:28:50,640 --> 00:28:51,360
Op welke manier.
691
00:28:51,360 --> 00:28:54,680
Omdat alle sensoren in een ruimte hebben bepaald.
692
00:28:54,680 --> 00:28:56,240
Wat voor soort mensen er binnen zijn geweest.
693
00:28:56,240 --> 00:28:57,960
En hoeveel het waarschijnlijk wel is.
694
00:28:57,960 --> 00:28:58,380
Of niet.
695
00:28:58,380 --> 00:28:59,000
Of whatever.
696
00:28:59,000 --> 00:29:01,700
Dat hij op basis daarvan spullen meeneemt.
697
00:29:01,700 --> 00:29:03,620
En dat het dan uiteindelijk veel te weinig blijkt te zijn.
698
00:29:03,620 --> 00:29:05,840
Want het is toch een hele grote rotzooi geworden.
699
00:29:05,840 --> 00:29:07,180
Dat hij dan niet kan zijn.
700
00:29:07,180 --> 00:29:07,640
Ja nee maar.
701
00:29:07,640 --> 00:29:09,020
Dat hoef ik dus niet te doen.
702
00:29:09,020 --> 00:29:10,280
Want de computer zei.
703
00:29:10,280 --> 00:29:12,140
Dat het maar heel weinig werk zou zijn.
704
00:29:12,140 --> 00:29:12,500
Ja.
705
00:29:12,500 --> 00:29:14,380
Dan moet die schoonmaker dus wel begrijpen.
706
00:29:14,380 --> 00:29:15,020
Dat is AI.
707
00:29:15,020 --> 00:29:16,320
En dat kan wel fout gaan.
708
00:29:16,440 --> 00:29:20,100
Je moet uiteindelijk wel gewoon schoonmaken wat er schoongemaakt moet worden.
709
00:29:20,100 --> 00:29:25,860
De computer helpt je alleen maar om een inschatting te maken van wat er gedaan moet worden.
710
00:29:25,860 --> 00:29:27,640
Maar dat is nooit een definitieve uitslag.
711
00:29:28,440 --> 00:29:32,800
Iemand die heel veel doet wat van invloed is op personen.
712
00:29:32,800 --> 00:29:34,180
Dus dat kan marketing zijn.
713
00:29:34,180 --> 00:29:37,460
Dat kan op een andere manier beslissingen nemen over waar personen zijn.
714
00:29:37,460 --> 00:29:39,200
Ja die zou heel erg veel moeten weten.
715
00:29:39,200 --> 00:29:41,900
Omdat daar hele kleine dingetjes fout kunnen gaan.
716
00:29:41,900 --> 00:29:43,380
Die dan eigenlijk een grote impact hebben.
717
00:29:43,380 --> 00:29:45,020
En dat moet je wel leren herkennen.
718
00:29:45,020 --> 00:29:47,740
Dus die moet veel meer weten.
719
00:29:47,740 --> 00:29:49,400
Niet alleen maar over wat AI is.
720
00:29:49,400 --> 00:29:51,060
Maar hoe zo'n specifieke tool werkt.
721
00:29:51,060 --> 00:29:53,060
Wat daar dan specifiek de risico's van zijn.
722
00:29:53,060 --> 00:29:55,760
Hoe je dat kunt herkennen.
723
00:29:55,760 --> 00:29:57,260
En wat je dan allemaal zou moeten doen.
724
00:29:57,260 --> 00:30:04,140
Dus je hebt misschien wel even een dagje met een training of een cursus.
725
00:30:04,140 --> 00:30:11,440
Maar eigenlijk voor het grootste deel zou je training eigenlijk intern binnen een bedrijf plaats moeten vinden.
726
00:30:11,440 --> 00:30:15,160
Dus het kan best zijn dat je van buiten iemand haalt.
727
00:30:15,160 --> 00:30:17,960
Die een beetje een soort basistraining geeft.
728
00:30:17,960 --> 00:30:20,020
Over wat is AI geletterdheid nou eigenlijk.
729
00:30:20,020 --> 00:30:21,040
Of dat soort dingen.
730
00:30:21,040 --> 00:30:24,360
Maar de specifieke tools en toepassingen.
731
00:30:24,360 --> 00:30:27,320
Als je zegt je moet ook de vaardigheden hebben om met een tool om te kunnen gaan.
732
00:30:27,320 --> 00:30:29,360
Nou daar kun je ook een trainer voor van buiten halen.
733
00:30:29,360 --> 00:30:30,420
Die daar het meest van weet.
734
00:30:30,420 --> 00:30:31,540
Dat is ook prima.
735
00:30:31,540 --> 00:30:38,340
Maar ja uiteindelijk heeft elk bedrijf zijn eigen samenspel van tools.
736
00:30:38,340 --> 00:30:40,960
Gaat er of heeft er eigen doelen mee.
737
00:30:40,960 --> 00:30:42,040
Eigen toepassingen.
738
00:30:42,040 --> 00:30:44,940
Ja daar moet het uiteindelijk wel op aansluiten.
739
00:30:45,140 --> 00:30:47,500
En dat is dus ook een ongoing proces.
740
00:30:47,500 --> 00:30:50,140
Je kan niet zomaar ergens een training volgen.
741
00:30:50,140 --> 00:30:51,380
En een vinkje halen van.
742
00:30:51,380 --> 00:30:52,680
En nu ben ik AI geletterd.
743
00:30:52,680 --> 00:30:52,860
Nee.
744
00:30:52,860 --> 00:30:54,400
Kijk ik geef ook een workshop.
745
00:30:54,400 --> 00:30:56,240
En dan zeg ik ook je krijgt een certificaat van deelname.
746
00:30:56,240 --> 00:30:57,240
Ja dat willen mensen graag.
747
00:30:57,240 --> 00:30:58,740
Maar het is wel een certificaat van deelname.
748
00:30:58,740 --> 00:31:03,180
Dat kan een opbouw zijn naar jouw AI geletterdheid.
749
00:31:03,180 --> 00:31:03,760
Precies.
750
00:31:03,760 --> 00:31:05,020
Het is er een onderdeel van.
751
00:31:05,020 --> 00:31:05,760
Maar je moet daarna.
752
00:31:05,760 --> 00:31:06,180
Dus echt.
753
00:31:06,180 --> 00:31:08,020
Het is nog meer dat je mijn workshop leert.
754
00:31:08,020 --> 00:31:11,280
Hé wat zou ik nou eigenlijk verder nog moeten weten.
755
00:31:11,280 --> 00:31:12,480
Waar moet ik nou naar op zoek.
756
00:31:12,720 --> 00:31:13,960
Wat moet ik dan verder gaan doen.
757
00:31:13,960 --> 00:31:16,100
Maar er zijn ook aanbieders.
758
00:31:16,100 --> 00:31:16,760
Die zeggen.
759
00:31:16,760 --> 00:31:19,600
Ik krijg bij ons een AI geletterdheid certificaat.
760
00:31:19,600 --> 00:31:20,200
Ja.
761
00:31:20,200 --> 00:31:21,360
Dus als je dit hebt.
762
00:31:21,360 --> 00:31:22,640
Dan ben jij AI geletterd.
763
00:31:22,640 --> 00:31:23,520
En dan denk ik.
764
00:31:23,520 --> 00:31:24,000
Hoe dan?
765
00:31:24,000 --> 00:31:25,960
Al die mensen leren vooral hoe een bepaalde tool werkt.
766
00:31:25,960 --> 00:31:28,660
Voor mij geeft een certificaatje uit.
767
00:31:28,660 --> 00:31:29,500
Over hoe die tool werkt.
768
00:31:29,500 --> 00:31:29,920
Dan top.
769
00:31:29,920 --> 00:31:31,560
Dan is dat onderdeel van je geletterdheid.
770
00:31:31,560 --> 00:31:31,880
Ja.
771
00:31:31,880 --> 00:31:32,360
Maar dan.
772
00:31:32,360 --> 00:31:34,400
Het kan eigenlijk niet zo zijn.
773
00:31:34,400 --> 00:31:36,140
Dat als iemand extern iets gevolgd heeft.
774
00:31:36,140 --> 00:31:39,240
Dat hij dan volledig AI geletterd is.
775
00:31:39,240 --> 00:31:39,940
Ja.
776
00:31:39,940 --> 00:31:41,140
Want dat je ook inderdaad.
777
00:31:41,140 --> 00:31:42,500
Hoe je ermee omgaat binnen je organisatie.
778
00:31:42,500 --> 00:31:44,660
Organisatie heeft effect op hoeveel je ervan moet weten.
779
00:31:44,660 --> 00:31:46,200
En wat ik ook hoor.
780
00:31:46,200 --> 00:31:46,860
Maar dat is even.
781
00:31:46,860 --> 00:31:47,960
In vergelijking van de toetsing.
782
00:31:47,960 --> 00:31:49,460
Voor gebruikers.
783
00:31:49,460 --> 00:31:50,340
Zoals die schoonmaker.
784
00:31:50,340 --> 00:31:50,840
Dat voorbeeld.
785
00:31:50,840 --> 00:31:51,900
Zou een handleiding.
786
00:31:51,900 --> 00:31:53,080
Of een begrijpende tekst.
787
00:31:53,080 --> 00:31:54,560
Of een onboarding proces.
788
00:31:54,560 --> 00:31:55,500
Zou voldoende zijn.
789
00:31:55,500 --> 00:31:57,340
Om eigenlijk dat even te waarborgen.
790
00:31:57,340 --> 00:31:58,740
Dus dat zouden we in processen.
791
00:31:58,740 --> 00:31:59,520
In applicatie.
792
00:31:59,520 --> 00:32:00,280
In handleidingen.
793
00:32:00,280 --> 00:32:01,220
Al mee kunnen nemen.
794
00:32:01,220 --> 00:32:01,440
Ja.
795
00:32:01,440 --> 00:32:02,300
De vraag is.
796
00:32:02,300 --> 00:32:04,120
Of je schoonmakers een handleiding leest.
797
00:32:04,120 --> 00:32:05,120
Dus dan moet er misschien heel even.
798
00:32:05,120 --> 00:32:05,480
Iemand.
799
00:32:05,480 --> 00:32:08,000
Die uitlegt hoe het systeempje werkt.
800
00:32:08,000 --> 00:32:09,100
Dat meteen even vertellen.
801
00:32:09,260 --> 00:32:11,600
Maar dat zou dus in vijf minuten klaar kunnen zijn.
802
00:32:11,600 --> 00:32:12,740
Maar dat is wel eens.
803
00:32:12,740 --> 00:32:13,900
Waar je besef van moet hebben.
804
00:32:13,900 --> 00:32:14,560
Inderdaad.
805
00:32:14,560 --> 00:32:15,680
Waar zit AI in?
806
00:32:15,680 --> 00:32:17,720
Hoe hebben we dat geborgen binnen de organisatie?
807
00:32:17,720 --> 00:32:19,420
En hoe wordt dat inderdaad.
808
00:32:19,420 --> 00:32:21,060
En je kan het ook integreren.
809
00:32:21,060 --> 00:32:24,620
Dus als je zelf bijvoorbeeld dit soort systemen maakt.
810
00:32:24,620 --> 00:32:27,360
Integeren gewoon in de user experience.
811
00:32:27,360 --> 00:32:30,500
Dus we hebben bijvoorbeeld een vrij eenvoudig systeem.
812
00:32:31,160 --> 00:32:32,760
En dat is een AI interviewer.
813
00:32:32,760 --> 00:32:36,100
Dus die interviewt zeg maar interne medewerkers.
814
00:32:36,100 --> 00:32:37,480
Over een bepaald onderwerp.
815
00:32:37,480 --> 00:32:41,580
Zodat er uiteindelijk marketing artikelen over bijvoorbeeld geschreven kunnen worden.
816
00:32:41,580 --> 00:32:43,760
Of dat daar guidance uit gehaald wordt.
817
00:32:43,760 --> 00:32:48,980
Die interviewer die begint met heel groot.
818
00:32:48,980 --> 00:32:50,480
Ik ben een AI.
819
00:32:50,480 --> 00:32:51,440
Ga je interviewen.
820
00:32:51,440 --> 00:32:52,680
Ik kan fouten maken.
821
00:32:54,140 --> 00:32:59,060
Volgens mij voor zo'n systeem weet je dan genoeg als gebruiker.
822
00:32:59,060 --> 00:33:00,860
Ja.
823
00:33:00,860 --> 00:33:04,160
Ik ga ervan uit dat er daarna nog mensen naar kijken naar de uitkomst.
824
00:33:04,160 --> 00:33:04,900
En daar wat mee doen.
825
00:33:04,900 --> 00:33:05,720
Zeker.
826
00:33:05,720 --> 00:33:08,360
Er wordt niks geautomatiseerd.
827
00:33:08,360 --> 00:33:11,560
Maar dan voldoen je in feite ook aan je transparantieverplichting.
828
00:33:11,560 --> 00:33:13,420
Want waarschijnlijk is dat dan ook zo'n AI.
829
00:33:13,420 --> 00:33:15,380
En dan is jij je AI geletterdheid.
830
00:33:15,380 --> 00:33:15,740
Ja, nee.
831
00:33:15,740 --> 00:33:17,560
Ja, toch?
832
00:33:17,560 --> 00:33:18,140
Ja.
833
00:33:18,140 --> 00:33:21,700
Wij hebben een kaartspel.
834
00:33:21,700 --> 00:33:24,120
Met allerlei stellingen over generatieve AI.
835
00:33:24,120 --> 00:33:25,880
Daar hebben we natuurlijk ook heel veel over.
836
00:33:25,880 --> 00:33:28,360
Dus AI is bijna generatieve AI geworden.
837
00:33:28,360 --> 00:33:30,920
Nou ja, zoals we daarover praten vaak wel.
838
00:33:30,920 --> 00:33:33,760
Ik hoop zo af en toe dus toch nog wel mee te geven.
839
00:33:33,760 --> 00:33:37,480
Dat heel veel AI veel meer is.
840
00:33:37,480 --> 00:33:41,260
Of het juist niet generatieve AI is.
841
00:33:41,260 --> 00:33:42,980
En dat beseffen heel weinig mensen.
842
00:33:42,980 --> 00:33:45,180
En dat is waarom ze dus AI geletterd moeten zijn.
843
00:33:45,180 --> 00:33:45,560
Precies.
844
00:33:45,560 --> 00:33:48,720
Maar dit is wel waarop misgaat.
845
00:33:48,720 --> 00:33:51,220
Dat generatieve, dat snappen mensen dan misschien nog wel.
846
00:33:51,220 --> 00:33:53,440
Maar dat het ook in van allerlei andere dingen zit.
847
00:33:53,440 --> 00:33:54,740
Dat hebben ze gewoon dan niet door.
848
00:33:54,740 --> 00:33:55,940
En dat is juist het hele probleem.
849
00:33:55,940 --> 00:33:59,000
En dat is waarom die AI geletterdheid in de AI act is gekomen.
850
00:33:59,000 --> 00:33:59,300
Zeker.
851
00:33:59,300 --> 00:33:59,700
Zeker.
852
00:33:59,700 --> 00:34:01,720
En ik ben er ook heel blij mee hoor.
853
00:34:01,720 --> 00:34:04,560
Ik bedoel, ik ga je zo denk ik nog wat meer daarover bevragen.
854
00:34:04,560 --> 00:34:06,760
Maar ik ben heel blij met de AI geletterdheid.
855
00:34:06,760 --> 00:34:09,580
Ik zou zelfs zeggen van doe het nooit uit verplichting.
856
00:34:09,580 --> 00:34:10,320
Maar omdat je het wil.
857
00:34:10,320 --> 00:34:11,120
Precies.
858
00:34:11,380 --> 00:34:13,860
Ik vraag ook altijd waarom zou je het per se niet willen.
859
00:34:13,860 --> 00:34:17,500
En ik heb daar nog nooit een antwoord op gekregen.
860
00:34:17,500 --> 00:34:18,840
Goed teken.
861
00:34:18,840 --> 00:34:19,560
Ja.
862
00:34:19,560 --> 00:34:22,060
Maar we willen je graag...
863
00:34:22,060 --> 00:34:22,900
Ja, het kaartspel.
864
00:34:22,900 --> 00:34:23,639
Ja, het kaartspel.
865
00:34:23,639 --> 00:34:28,600
En dat gaat erom dat je eigenlijk vooral met elkaar bepraat over een bepaalde stelling.
866
00:34:28,600 --> 00:34:33,679
Dat je in die zin zeg maar ook kennis uitwisselt.
867
00:34:33,760 --> 00:34:35,440
Maar ook standpunten uitwisselt.
868
00:34:35,440 --> 00:34:35,940
Top.
869
00:34:35,940 --> 00:34:58,080
Ik heb er eentje uitgetrokken.
870
00:34:58,080 --> 00:35:00,880
Deze keer heel flauw ook eentje weggestopt.
871
00:35:00,880 --> 00:35:02,800
Dat ging over wat is generatieve AI.
872
00:35:02,800 --> 00:35:06,840
Maar het gaat over gebruik en toepassing is het thema.
873
00:35:06,840 --> 00:35:07,800
En de stelling luidt.
874
00:35:07,800 --> 00:35:13,300
Generatieve AI zal leiden tot een aanzienlijke verlaging van onze operationele kosten.
875
00:35:13,300 --> 00:35:15,780
Als jurist.
876
00:35:15,780 --> 00:35:16,200
Ja.
877
00:35:16,200 --> 00:35:19,040
Ja, ooit wel.
878
00:35:19,040 --> 00:35:20,040
Nu nog niet.
879
00:35:20,040 --> 00:35:23,160
Maar dat is vooral omdat het gewoon nog niet betrouwbaar genoeg is.
880
00:35:23,160 --> 00:35:32,300
En omdat we met name in Nederland ook echt wel het probleem hebben dat er te weinig data openbaar is.
881
00:35:32,300 --> 00:35:34,660
Dus we publiceren bijvoorbeeld niet alle uitspraken.
882
00:35:34,660 --> 00:35:40,120
En onze uitspraken zijn ook altijd heel erg kort en kort door de bocht.
883
00:35:40,120 --> 00:35:43,460
Waardoor je ook absoluut niet weet wat er eigenlijk in al die rechtszaken is ingebracht.
884
00:35:43,460 --> 00:35:44,020
Oh ja.
885
00:35:44,340 --> 00:35:53,300
Waardoor eigenlijk kiest een rechter een beetje welke argumenten vond ik relevant en neem ik nu op in mijn vonnis of in een arrest in hoger beroep.
886
00:35:55,920 --> 00:35:58,280
Dus je ziet daar gewoon niet alles in terug.
887
00:35:58,280 --> 00:36:00,580
Dus dat kan soms ook heel frustrerend zijn.
888
00:36:00,580 --> 00:36:02,020
Dat je wel eens als jurist ook denkt.
889
00:36:02,020 --> 00:36:02,640
Ja, maar wacht even.
890
00:36:02,640 --> 00:36:04,100
We hebben ook dit en dat gezegd.
891
00:36:04,100 --> 00:36:07,600
En hoezo is dit nu niet meegewogen in de overweging?
892
00:36:07,600 --> 00:36:08,620
Want ik vond het wel relevant.
893
00:36:09,480 --> 00:36:13,840
Dus daardoor weet je niet altijd goed hoe dat voorlopen is geweest.
894
00:36:13,840 --> 00:36:22,580
Dus van de vonnis en de arresten die er zijn, is eigenlijk al de vraag wat de kwaliteit daar dan van is voor zoiets als dit.
895
00:36:23,640 --> 00:36:25,300
En niet alles wordt gepubliceerd.
896
00:36:25,300 --> 00:36:31,280
Dus daardoor als je nu aan, stel dat wat we nu hebben, als je daar AI op los zou laten.
897
00:36:31,280 --> 00:36:32,060
Ja.
898
00:36:32,060 --> 00:36:35,500
Ja, dan krijg je dus eigenlijk al maar een beperkt beeld van wat er daadwerkelijk gebeurt.
899
00:36:35,500 --> 00:36:39,000
Waardoor ik denk dat je het nog niet goed in kunt zetten.
900
00:36:39,000 --> 00:36:43,040
En het is nu gewoon zo dat heel veel AI nog te veel dingen verzint.
901
00:36:43,040 --> 00:36:46,000
Dus dat er nog zoveel werk in zit.
902
00:36:46,000 --> 00:36:53,120
Nu om te controleren of het allemaal wel goed is wat er gemaakt is.
903
00:36:53,120 --> 00:36:55,700
dat dat nu nog niet zoveel zou opleveren.
904
00:36:55,700 --> 00:37:05,080
Maar ik denk echt dat als er gerichtere tools komen die wat meer specifiek voor de juridische markt zijn gemaakt.
905
00:37:05,080 --> 00:37:11,500
Als we afspraken hebben met uitgevers, zodat alle boeken en tijdschriften en weet ik veel wat er allemaal in kunnen zitten.
906
00:37:11,500 --> 00:37:16,000
Dat het dan heel veel dingen wel kan vergemakkelijken.
907
00:37:16,000 --> 00:37:20,940
En ik kan me ook echt wel goed voorstellen dat er nu al kantoren zijn die zoveel eigen data hebben.
908
00:37:21,620 --> 00:37:26,720
Dat ze daar bijvoorbeeld wat soort contractgeneratoren al mee zouden kunnen bouwen.
909
00:37:26,720 --> 00:37:30,120
Die echt al wel 90% van het werk doen.
910
00:37:30,120 --> 00:37:36,300
En we moeten nu ook nog opletten met privacy en bedrijfsgeheimen en dat soort dingen.
911
00:37:36,300 --> 00:37:38,440
Dus welke data gaat erin? Waar komt dat terecht?
912
00:37:38,440 --> 00:37:40,380
Kun je het dus wel veilig gebruiken?
913
00:37:40,380 --> 00:37:43,200
Op het moment dat er dus meer AI beschikbaar komt.
914
00:37:43,200 --> 00:37:46,400
Die je gewoon op je eigen servers kunt draaien.
915
00:37:46,520 --> 00:37:48,160
Dat dat niet meer in de cloud hoeft, zeg maar.
916
00:37:48,160 --> 00:37:49,500
Even heel grof gezegd.
917
00:37:49,500 --> 00:37:52,940
Dan zouden er ook veel meer mogelijkheden zijn.
918
00:37:52,940 --> 00:37:56,300
Dus dat gaat heus wel gebeuren de komende paar jaren.
919
00:37:56,300 --> 00:37:57,740
Dan kan dat heel veel opleveren.
920
00:37:57,740 --> 00:38:02,120
En dan denk ik ook dat dat de kwaliteit van ons werk als jurist eigenlijk heel erg kan verbeteren.
921
00:38:02,120 --> 00:38:06,380
Omdat dan al het werk dat er gewoon vooral veel tijd kost.
922
00:38:06,380 --> 00:38:09,680
Dat je dat dan kunt uitbesteden als het ware aan AI.
923
00:38:10,860 --> 00:38:14,340
En alles wat juist in die nuance moet zitten.
924
00:38:14,340 --> 00:38:15,560
Wat veel lastiger is.
925
00:38:15,560 --> 00:38:20,960
Waar je nou eenmaal dus niet gebruik van kunt maken van alles wat er al is.
926
00:38:20,960 --> 00:38:24,900
Maar echt je eigen creativiteit en interpretatie nog voor nodig is.
927
00:38:24,900 --> 00:38:26,320
Daar kan het wel bij helpen.
928
00:38:26,320 --> 00:38:29,700
Het lastige is natuurlijk ook dat alle wetten en zo.
929
00:38:29,700 --> 00:38:31,280
Alles is door mensen gemaakt.
930
00:38:31,280 --> 00:38:33,820
Dus dat zijn geen wiskundesommetjes.
931
00:38:33,820 --> 00:38:38,000
Alles is voor meer dingen uitleggen.
932
00:38:38,000 --> 00:38:38,840
Het algemeen wel.
933
00:38:38,840 --> 00:38:43,700
Dat maakt het wel ook lastiger dat het echt geïnterpreteerd moet worden.
934
00:38:43,700 --> 00:38:48,340
Dat is altijd al mensenwerk geweest.
935
00:38:48,340 --> 00:38:51,700
Dus daar zit niet altijd een hele goede strakke lijn in.
936
00:38:51,700 --> 00:38:56,480
En voor AI heb je dat als je dat echt goed wil laten werken.
937
00:38:56,480 --> 00:38:58,740
Zou het eigenlijk wel mooi zijn als die lijn er wel in zou zitten.
938
00:38:58,740 --> 00:39:01,200
Dus het zijn van die dingen van ik denk dat het gaat wel komen.
939
00:39:01,200 --> 00:39:04,220
En het gaat absoluut veel opleveren.
940
00:39:04,220 --> 00:39:05,580
Maar nu nog niet.
941
00:39:05,920 --> 00:39:09,360
En wanneer dat dan wel is of dat over zes maanden al goed begint te lopen.
942
00:39:09,360 --> 00:39:11,940
Of dat we daar nog drie jaar of vijf jaar op moeten wachten.
943
00:39:11,940 --> 00:39:12,780
Ja, I don't know.
944
00:39:12,780 --> 00:39:15,140
Duidelijk, mooie antwoord.
945
00:39:15,140 --> 00:39:18,640
Ik was benieuwd.
946
00:39:18,640 --> 00:39:22,140
Recent is het AP.
947
00:39:22,140 --> 00:39:24,160
De autoriteitspersoonsgegevens.
948
00:39:24,160 --> 00:39:28,340
Die onder andere de toezichthouder is zo direct voor die AI geletterdheid.
949
00:39:28,340 --> 00:39:29,720
Ik kom er toch nog eventjes op terug.
950
00:39:30,200 --> 00:39:32,820
Ja, de Autoriteit Persoonsgegevens wordt een soort resttoezichthouder.
951
00:39:32,820 --> 00:39:36,220
En daarom wordt waarschijnlijk de Autoriteit Persoonsgegevens voor de geletterdheid de toezichthouder.
952
00:39:36,220 --> 00:39:38,320
Oh ja, en wat is een resttoezichthouder?
953
00:39:38,320 --> 00:39:41,760
Nou, in de AI acten heel veel onderdelen.
954
00:39:41,760 --> 00:39:46,920
Dus alles over privacy komt natuurlijk sowieso wel bij de Autoriteit Persoonsgegevens als toezichthouder terecht.
955
00:39:46,920 --> 00:39:51,120
Maar als het meer gaat over misleiding, dan zal dat bij de autoriteit consument en markt terechtkomen.
956
00:39:51,280 --> 00:39:56,460
Maar er zijn natuurlijk dingen die niet op die manier zo specifiek onder een bepaald gebiedje kunnen vallen.
957
00:39:56,460 --> 00:40:03,580
En daarvan is dan eigenlijk nu al wel bedacht dat de Autoriteit Persoonsgegevens daar eigenlijk sowieso de leiding een beetje gaat hebben.
958
00:40:03,580 --> 00:40:07,700
Of de coördinerend toezichthouder gaat zijn voor alle toezichthouders binnen Nederland bij elkaar.
959
00:40:07,700 --> 00:40:13,060
En dus ook alles wat niet echt ergens specifiek in een bepaald hokje past.
960
00:40:13,060 --> 00:40:16,520
Dat dat waarschijnlijk ook bij de Autoriteit Persoonsgegevens terecht gaat komen.
961
00:40:16,520 --> 00:40:17,060
Ja, precies.
962
00:40:17,060 --> 00:40:18,680
Maar dat is allemaal nog niet 100% vastgesteld.
963
00:40:18,680 --> 00:40:26,400
Maar zij zijn wel met een stuk gekomen met een meerjarenplan rondom de AI-geletterdheid.
964
00:40:26,400 --> 00:40:29,040
En dat verbaasde me.
965
00:40:29,040 --> 00:40:35,840
Dus aan de ene kant zeg jij ook van ja maar vanaf 2 februari jongstleden hebben wij deze verplichting.
966
00:40:35,840 --> 00:40:39,700
Aan de andere kant zegt het AP, hier heb je een meerjarenplan.
967
00:40:39,700 --> 00:40:42,100
Nou laten we van meerjaren op z'n minst dan twee maken.
968
00:40:42,100 --> 00:40:44,960
Waarin zij vier fases definiëren.
969
00:40:44,960 --> 00:40:53,280
En eigenlijk pas bij de vierde fase zou je kunnen zeggen van daar heb je aantoonbare vastgelegde AI-geletterdheid in je bedrijf.
970
00:40:53,280 --> 00:40:58,440
Ja, zij zeggen in dat document AI-geletterdheid is een meerjarenplan.
971
00:40:58,440 --> 00:41:01,440
Ze zeggen eigenlijk niet ons document is een meerjarenplan.
972
00:41:01,440 --> 00:41:04,760
Nee, maar ze hebben een meerjarenplan voorgesteld.
973
00:41:04,760 --> 00:41:07,420
Je moet daar dan zo en zo lang over doen.
974
00:41:07,420 --> 00:41:08,680
Dus je moet het wel al nu zijn.
975
00:41:08,680 --> 00:41:11,920
Ja, maar daar zit een hele rare discrepantie in toch?
976
00:41:11,920 --> 00:41:15,660
Ja, ik weet niet of je het documentje gelezen hebt.
977
00:41:15,660 --> 00:41:16,260
Zeker.
978
00:41:16,260 --> 00:41:18,760
En er zijn heel veel juristen zijn daar helemaal lyrisch over.
979
00:41:18,760 --> 00:41:20,360
Want goh, wat hebben we nu een duidelijkheid.
980
00:41:20,360 --> 00:41:22,100
En er staat nog steeds helemaal niks in.
981
00:41:22,100 --> 00:41:23,880
Nee, daarom vraag ik het ook.
982
00:41:24,040 --> 00:41:25,800
Het is zo typisch weer dit.
983
00:41:25,800 --> 00:41:30,300
En wat is ook mooi, je staat over wie moet er AI-geletterd zijn.
984
00:41:30,300 --> 00:41:35,000
Dan zegt de Autoriteit Persoonsgegevens, ja, ook als je het zelf niet gebruikt.
985
00:41:35,000 --> 00:41:38,900
Maar als je wel proberen samenwerken met mensen die AI gebruiken.
986
00:41:38,900 --> 00:41:42,380
Ja, dan moet je dus wel weten welke systemen er gebruikt worden en hoe ze werken.
987
00:41:42,380 --> 00:41:45,660
Dus ofwel, wij zitten een beetje met z'n allen discussie te hebben.
988
00:41:45,660 --> 00:41:47,420
Ja, valt dan misschien eigenlijk alleen maar hoog risico.
989
00:41:47,420 --> 00:41:48,580
Valt er misschien ook wel buiten.
990
00:41:48,580 --> 00:41:53,200
En de Autoriteit Persoonsgegevens zegt gewoon, ja, eigenlijk iedereen die een knop op een computer aanraakt,
991
00:41:53,200 --> 00:41:54,360
die moet AI-geletterd zijn.
992
00:41:54,360 --> 00:41:57,960
Maar waarvan ze ook zeggen, maar dat mag best wel meerjarig duren.
993
00:41:57,960 --> 00:42:00,980
Nou, kijk, nee, ja, nee.
994
00:42:00,980 --> 00:42:04,100
Eigenlijk zeggen ze helemaal niet, het mag meerjarig duren.
995
00:42:04,100 --> 00:42:09,660
Wat zij bedoeld hebben te zeggen is, het is iets wat een doorlopend proces is.
996
00:42:09,820 --> 00:42:13,640
En je moet eerst maar eens even goed evalueren wat je nou eigenlijk allemaal gebruikt.
997
00:42:13,640 --> 00:42:15,100
Wie daar wat gebruikt.
998
00:42:15,100 --> 00:42:18,140
Voor welke toepassingen dat allemaal is.
999
00:42:18,140 --> 00:42:20,880
Kijk vervolgens wat je daar dan allemaal voor moet doen.
1000
00:42:20,880 --> 00:42:24,280
Wie moet er dus op welk niveau geletterd zijn.
1001
00:42:24,280 --> 00:42:26,700
Wat voor overige waarborgen moet je treffen.
1002
00:42:26,700 --> 00:42:29,180
Hoe kun je risico's verkleinen.
1003
00:42:29,180 --> 00:42:30,400
Nou ja, dat soort zaken.
1004
00:42:30,400 --> 00:42:34,480
En ga vervolgens dus zorgen dat je mensen bijvoorbeeld traint.
1005
00:42:34,480 --> 00:42:37,360
Of een cultuurdocument opstelt.
1006
00:42:37,640 --> 00:42:40,940
En dat je dan zorgt dat dat bij iedereen wel hoog op de agenda staat.
1007
00:42:40,940 --> 00:42:44,640
En ga dat dan weer allemaal evalueren of dat goed gaat.
1008
00:42:44,640 --> 00:42:46,540
Nou, en hoe ga je dat dan evalueren?
1009
00:42:46,540 --> 00:42:48,240
Door er een rapportje over te schrijven.
1010
00:42:48,240 --> 00:42:49,740
Nou, dan heb je het rapportje geschreven.
1011
00:42:49,740 --> 00:42:51,940
En daar staat dan in hoe goed het gaat.
1012
00:42:51,940 --> 00:42:53,260
En dan mag je weer opnieuw beginnen.
1013
00:42:53,260 --> 00:42:54,000
Ja.
1014
00:42:54,000 --> 00:42:56,740
Maar zeg maar, ik ben een leek.
1015
00:42:56,740 --> 00:43:02,520
En ik lees, er staat gewoon meerjarenplan boven.
1016
00:43:02,520 --> 00:43:08,000
En er staan vier fases die achter elkaar uitgevoerd worden.
1017
00:43:08,000 --> 00:43:09,420
Eén, twee, drie en vier.
1018
00:43:09,420 --> 00:43:13,060
En bij vier, zeg maar, dan is de cirkel rond.
1019
00:43:13,060 --> 00:43:15,480
Dan heb je de, en dan denk ik, nou, meerjarenplan.
1020
00:43:15,480 --> 00:43:17,740
Vier fases.
1021
00:43:17,740 --> 00:43:18,400
Vier fases.
1022
00:43:18,400 --> 00:43:20,160
Dus ik mag daar twee jaar over doen.
1023
00:43:20,160 --> 00:43:22,560
Voordat ik überhaupt eer geletterd ben.
1024
00:43:22,560 --> 00:43:23,380
Volgens het AP.
1025
00:43:23,380 --> 00:43:23,840
Nee.
1026
00:43:24,740 --> 00:43:25,440
Nee, dat gelooft ook niet.
1027
00:43:25,440 --> 00:43:26,020
Maar dat staat er ook niet in.
1028
00:43:26,020 --> 00:43:28,840
Nee, maar er staat...
1029
00:43:28,840 --> 00:43:29,520
Maar, maar...
1030
00:43:29,520 --> 00:43:32,280
Er staat wel ergens inderdaad dat woord meerjarenplan.
1031
00:43:32,280 --> 00:43:32,560
Ja.
1032
00:43:32,560 --> 00:43:34,560
Ja, maar er staan wel meer onhandige woorden in.
1033
00:43:34,560 --> 00:43:36,200
Maar dat is wel de toezichthouder.
1034
00:43:36,200 --> 00:43:37,060
Ja, het is wel vaker dingen fout.
1035
00:43:37,060 --> 00:43:37,480
Ja.
1036
00:43:37,480 --> 00:43:39,060
Een toezichthouder is geen rechter.
1037
00:43:39,060 --> 00:43:40,100
Dat is waar.
1038
00:43:40,100 --> 00:43:46,100
Maar wat vind je ervan, zeg maar, dat er op deze manier...
1039
00:43:46,100 --> 00:43:50,520
Zij zouden eigenlijk moeten helpen bij hoe je E-athletters moet worden.
1040
00:43:50,520 --> 00:43:52,060
Ja, als je dus naar dat document kijkt, dan snappen ze er zelf.
1041
00:43:52,060 --> 00:43:52,800
Dat is ook geen idee.
1042
00:43:52,800 --> 00:43:53,260
Nee.
1043
00:43:53,800 --> 00:43:56,120
Ja, laten we maar wel zo'n documentje even snel maken of zo.
1044
00:43:56,120 --> 00:43:56,480
Ja.
1045
00:43:56,480 --> 00:43:57,560
Ja, hoe kunnen we dat dan doen?
1046
00:43:57,560 --> 00:43:59,020
Ja, laten we maar in vier fases doen.
1047
00:43:59,020 --> 00:44:02,040
Er zijn ook dingen een beetje dubbel in en zo.
1048
00:44:02,040 --> 00:44:02,440
Ja.
1049
00:44:02,440 --> 00:44:05,360
Je moet gewoon even weten, welke AI gebruiken we nou?
1050
00:44:05,360 --> 00:44:06,640
Wat doen we daar nou mee?
1051
00:44:06,640 --> 00:44:07,460
Wat is het doel daarvan?
1052
00:44:07,460 --> 00:44:09,140
Welke gegevens gaan daarin?
1053
00:44:09,140 --> 00:44:10,020
Wie gebruikt dat?
1054
00:44:10,020 --> 00:44:11,180
Wie is ervoor verantwoordelijk?
1055
00:44:11,180 --> 00:44:13,540
Dat moeten we gewoon met z'n allen even een beetje netjes regelen.
1056
00:44:13,540 --> 00:44:13,940
Ja.
1057
00:44:13,940 --> 00:44:15,700
Zorgen dat mensen er voldoende van weten.
1058
00:44:15,700 --> 00:44:17,040
En dat is het.
1059
00:44:17,040 --> 00:44:17,700
En dat is het.
1060
00:44:17,700 --> 00:44:18,180
Precies.
1061
00:44:18,180 --> 00:44:20,300
Dus bewust omgaan met wat je dus...
1062
00:44:20,300 --> 00:44:20,300
Ja.
1063
00:44:20,300 --> 00:44:21,460
Als er heel erg plat staat.
1064
00:44:21,460 --> 00:44:21,780
Ja.
1065
00:44:21,780 --> 00:44:22,320
Maar ja.
1066
00:44:22,320 --> 00:44:27,040
En als je daar dus als een ambtenaar naar kijkt, dan moet je dat in fases opdelen.
1067
00:44:27,040 --> 00:44:28,300
Dat allemaal heel moeilijk maken.
1068
00:44:28,300 --> 00:44:28,800
Ja.
1069
00:44:28,800 --> 00:44:30,620
Ja.
1070
00:44:30,620 --> 00:44:31,740
Maar je hebt toch...
1071
00:44:31,740 --> 00:44:34,740
Je moet toch over het bedrijf is toch sowieso handig om even een beetje een overzichtje
1072
00:44:34,740 --> 00:44:35,060
te hebben?
1073
00:44:35,060 --> 00:44:35,780
Zeker.
1074
00:44:35,780 --> 00:44:36,100
Nee.
1075
00:44:36,100 --> 00:44:37,640
Maar daar gebruiken we eigenlijk.
1076
00:44:37,640 --> 00:44:38,400
Daar gaat het ons ook niet om.
1077
00:44:38,400 --> 00:44:38,800
Nee.
1078
00:44:38,800 --> 00:44:42,240
Maar ik ben het helemaal met je eens.
1079
00:44:42,240 --> 00:44:45,420
We zeiden al van, weet je, je moet ook Eaglet het willen zijn.
1080
00:44:45,420 --> 00:44:51,500
Maar er zullen heel veel bedrijven, weet je, zullen hiernaar kijken en moeten bedenken van
1081
00:44:51,500 --> 00:44:52,400
wat willen we ermee.
1082
00:44:52,400 --> 00:44:52,640
Ja.
1083
00:44:52,640 --> 00:44:56,820
En ik denk dat jij een heel praktische invulling hier aan geeft en dat je het zo ook zou moeten
1084
00:44:56,820 --> 00:44:57,380
aanpakken.
1085
00:44:57,800 --> 00:45:03,260
Maar het helpt natuurlijk niet dat we een wettekst hebben die natuurlijk ook overlaten.
1086
00:45:03,260 --> 00:45:06,640
Want die zegt, je moet voldoende Eaglet het zijn.
1087
00:45:06,640 --> 00:45:09,880
En wie moet dat zo direct bewijzen?
1088
00:45:09,880 --> 00:45:12,240
Dat vind ik misschien wel aardig.
1089
00:45:12,240 --> 00:45:13,500
Ja, dat gaat ook een soort best efforts.
1090
00:45:13,500 --> 00:45:18,120
Als jij kunt aantonen, dit is waarom wij gedacht hebben dat dit voldoende was, dan is
1091
00:45:18,120 --> 00:45:19,700
de kans ook heel groot dat dat genoeg is.
1092
00:45:19,700 --> 00:45:19,880
Ja.
1093
00:45:19,880 --> 00:45:25,880
En om heel eerlijk te zijn, denk ik dat de handhaving, de Autoriteit Persoonsgegevens kan zijn taken nu al
1094
00:45:25,880 --> 00:45:29,340
niet aan als het gaat over persoonsgegevens, over privacy.
1095
00:45:29,340 --> 00:45:37,000
Dat als het zo meteen over de AI-act gaat en het deel wat ze daarbij krijgen, natuurlijk
1096
00:45:37,000 --> 00:45:39,520
krijg je dan een klein beetje meer geld en een klein beetje meer mensen.
1097
00:45:39,520 --> 00:45:43,680
Maar dan gaat de grootste handhaving natuurlijk niet zitten op de geletterdheid.
1098
00:45:43,680 --> 00:45:46,800
Dat is dan meer een soort bijproduct van, hé, je doet andere dingen fout.
1099
00:45:46,800 --> 00:45:47,140
Ja.
1100
00:45:47,140 --> 00:45:49,320
Oh, waar komt het dan door dat je dit fout doet?
1101
00:45:49,320 --> 00:45:54,200
Oh, dat komt misschien eigenlijk wel omdat je je mensen helemaal niet voldoende hebt opgeleid.
1102
00:45:54,200 --> 00:45:55,360
Ja, een stukje erbij.
1103
00:45:55,620 --> 00:46:00,720
En eerst moet er waarschijnlijk echt iets fout gaan, bijvoorbeeld bij zo'n hoog risicosysteem.
1104
00:46:00,720 --> 00:46:03,160
Ja, die moet je per se melden.
1105
00:46:03,160 --> 00:46:03,700
Precies.
1106
00:46:03,700 --> 00:46:06,380
Dan gaan we eigenlijk pas het hele verhaal in.
1107
00:46:06,380 --> 00:46:11,580
Ja, dus als je datasets niet voldoende kwalitatief waren, ja, hoe komt dat nou?
1108
00:46:11,580 --> 00:46:17,880
Ja, omdat je mensen misschien niet hebt uitgelegd wanneer dat dat moet, waar je dan op moet letten,
1109
00:46:17,880 --> 00:46:20,380
wanneer dat dan zo is, wie daarvoor verantwoordelijk is.
1110
00:46:21,020 --> 00:46:26,720
Dus er gaat op een ander punt iets fout en dan wordt er eigenlijk meer gekeken naar, maar waar is dat dan fout gegaan?
1111
00:46:26,720 --> 00:46:28,300
En hoe had je dat kunnen voorkomen?
1112
00:46:28,300 --> 00:46:32,400
Nou ja, als je dat had kunnen voorkomen door mensen dus wel gewoon AI geletterd te hebben,
1113
00:46:32,400 --> 00:46:36,760
ja, dan pas wordt er gezegd, oh, maar dan heb je eigenlijk ook niet aan dat vereisten voldaan.
1114
00:46:36,760 --> 00:46:37,000
Precies.
1115
00:46:37,400 --> 00:46:42,000
En in die zin denk ik eigenlijk dat je risico misschien onderling ook nog groter is, hè?
1116
00:46:42,000 --> 00:46:48,340
Dus als je AI gebruikt voor je klanten en het wordt dan gebruikt door mensen die er geen verstand van hadden,
1117
00:46:48,340 --> 00:46:53,340
en er gaat wat mis, waardoor je klant er last van heeft en schade, hè?
1118
00:46:53,340 --> 00:46:57,720
Dus nog niet eens zozeer door de Autoriteit Persoonsgegevens, maar gewoon op een andere manier schade.
1119
00:46:57,720 --> 00:47:02,740
Ja, dan kan ik wel zeggen, maar wacht even, jullie gingen toch voor ons dingen doen en prima dat je daar AI bij gebruikt,
1120
00:47:02,800 --> 00:47:05,840
maar als mensen niet wisten hoe ze het moesten gebruiken en het daardoor is misgegaan,
1121
00:47:05,840 --> 00:47:08,000
ja, dan heb je het wel op twee punten fout gedaan.
1122
00:47:08,000 --> 00:47:10,300
Dus dan weten we wel heel zeker dat jullie ervoor aansprakelijk zijn.
1123
00:47:10,300 --> 00:47:12,680
Want je hebt dus gewoon je best niet eens gedaan.
1124
00:47:12,680 --> 00:47:21,800
Dus het is denk ik altijd meer een dingetje dat erbij komt dan dat het op zichzelf per se als belangrijk iets wordt gezien.
1125
00:47:21,800 --> 00:47:25,640
Maar dat is een beetje, ja, als je gewoon een professioneel bedrijf bent,
1126
00:47:25,640 --> 00:47:27,940
dan zorg je dan een overzicht hebt van, hé, wat gebruiken we?
1127
00:47:27,940 --> 00:47:30,340
Dan zorg je dat je mensen weten hoe ze er om moeten gaan.
1128
00:47:30,620 --> 00:47:33,420
Dus dan zou het ook eigenlijk als vanzelf al goed moeten gaan.
1129
00:47:33,420 --> 00:47:38,160
Dus ik denk dat de enige partijen waar het niet bij goed gaat zijn die daar te makkelijk over denken,
1130
00:47:38,160 --> 00:47:41,300
te veel free whealen, maar gewoon een beetje zo in het gang gaan.
1131
00:47:41,300 --> 00:47:44,840
Want je kunt ook best zeggen, hé, maar wij willen met z'n allen dingen uitproberen.
1132
00:47:44,840 --> 00:47:50,900
Dan zeg je, oké, welke mensen binnen ons bedrijf mogen dan met AI een beetje gaan spelen, uitproberen, testen?
1133
00:47:50,900 --> 00:47:53,080
En met welke gegevens kan dat dan?
1134
00:47:53,080 --> 00:47:53,960
Of in welke, weet je?
1135
00:47:53,960 --> 00:47:56,600
Maak daar dan wel hokjes voor.
1136
00:47:57,080 --> 00:48:01,560
Ja, oké, dan gaan we eerst eens kijken, kunnen we daar wat mee en gaan we het daarna eens implementeren in de rest van het bedrijf?
1137
00:48:01,560 --> 00:48:01,720
Ja.
1138
00:48:01,720 --> 00:48:04,540
Zodat je daarmee je risico dan alweer verkleint.
1139
00:48:04,540 --> 00:48:05,300
En dan, nou ja, goed.
1140
00:48:05,300 --> 00:48:08,980
Ja, volgens mij sloeg u hem daar niet op de kop.
1141
00:48:08,980 --> 00:48:09,960
Professioneel.
1142
00:48:09,960 --> 00:48:12,060
Dat was ook het woord wat mij telkens bovenkwam.
1143
00:48:12,060 --> 00:48:16,220
Ja, maar eigenlijk is dit gewoon professioneel gebruik van software, van oplossingen, van tools.
1144
00:48:16,220 --> 00:48:18,520
En zorg dat je dat professioneel aanpakt.
1145
00:48:19,620 --> 00:48:21,800
Weet je, in principe heb je hetzelfde risico met een Excel sheet.
1146
00:48:21,800 --> 00:48:30,340
Als je daar allerlei persoonsgegevens in stopt en je zegt tegen mensen, oh laat dat maar lekker op de desktop van je computer staan.
1147
00:48:30,340 --> 00:48:36,060
En je gebruikt dat in een koffietentje zonder een privacy scherm.
1148
00:48:36,060 --> 00:48:38,760
Je hebt al niet eens een wachtwoord op je laptop zitten.
1149
00:48:38,760 --> 00:48:40,080
Weet ik veel.
1150
00:48:40,080 --> 00:48:42,340
Dus eigenlijk kan elke Jan Doedel daar zomaar bij.
1151
00:48:43,120 --> 00:48:47,720
Al ja, je gebruikt ook gewoon de wifi van het koffietentje zonder een VPN en zo.
1152
00:48:47,720 --> 00:48:49,920
En dan gaat het ook daar mis.
1153
00:48:49,920 --> 00:48:52,200
Dat heeft dus niks met geavanceerde dingen te maken.
1154
00:48:52,200 --> 00:48:56,340
Dat is gewoon, je moet even begrijpen wat de risico's zijn.
1155
00:48:56,340 --> 00:48:58,760
En dan snap je ook waarom je wel even die VPN moet gebruiken.
1156
00:48:58,760 --> 00:49:02,000
En waarom je niet dat Excel sheet gewoon lekker op je desktop moet staan.
1157
00:49:02,000 --> 00:49:04,920
Maar even iets beter beveiligd weg moet zetten.
1158
00:49:04,920 --> 00:49:05,760
Absoluut.
1159
00:49:05,760 --> 00:49:07,440
En ik ben er blij mee.
1160
00:49:07,440 --> 00:49:11,200
Want het legt namelijk ook veel meer eisen aan degene die bouwen.
1161
00:49:11,200 --> 00:49:12,760
We hebben het best wel heel veel gehad nu over.
1162
00:49:12,760 --> 00:49:14,920
Gebruik en organisatie.
1163
00:49:14,920 --> 00:49:17,520
Maar het ligt natuurlijk ook bij de bouwers.
1164
00:49:17,520 --> 00:49:18,300
Wij zijn bouwers.
1165
00:49:18,300 --> 00:49:22,900
Weet je, we hebben zoveel voorbeelden gezien.
1166
00:49:22,900 --> 00:49:25,640
Waarin er echt krankzinnige keuzes zijn gemaakt.
1167
00:49:25,640 --> 00:49:28,400
Wat wel in een model wordt gestopt.
1168
00:49:28,400 --> 00:49:32,820
Weet je, persoonskenmerken die in een fraudeopsporingsmodel worden gestopt.
1169
00:49:32,820 --> 00:49:36,500
Waarbij je echt denkt van, wie bedenkt dat?
1170
00:49:36,500 --> 00:49:38,600
Dat dat een goed idee is.
1171
00:49:38,960 --> 00:49:43,180
En het feit zeg maar dat je daar nu toch een bepaalde mate van verplichting hebt.
1172
00:49:43,180 --> 00:49:45,680
Dat je je beter over na moet denken.
1173
00:49:45,680 --> 00:49:46,880
Daar ben ik eenmaal voor.
1174
00:49:46,880 --> 00:49:48,340
Ja, precies.
1175
00:49:48,340 --> 00:49:52,300
Ik denk trouwens wel dat er heel veel mensen zijn die onderschatten wanneer ze een aanbieder kunnen worden.
1176
00:49:52,300 --> 00:49:55,000
Want we hebben natuurlijk juist met al die general purpose AI.
1177
00:49:55,420 --> 00:49:57,920
Waar je natuurlijk heel veel eigen dingetjes op los kunt laten.
1178
00:49:57,920 --> 00:50:01,020
En kunt zeggen, hé, maar kijk, ik heb hem nu een beetje veranderd of zo ingericht of whatever.
1179
00:50:01,020 --> 00:50:03,780
En nu kun je hem onder mijn naam gaan gebruiken.
1180
00:50:03,780 --> 00:50:06,980
Maar dat het eigenlijk op basis is van een andere aanbieder.
1181
00:50:06,980 --> 00:50:08,680
Dan ben je zelf ook een aanbieder geworden.
1182
00:50:08,680 --> 00:50:08,880
Precies.
1183
00:50:08,880 --> 00:50:12,940
Heb je misschien niet zoveel technische kennis voor nodig gehad.
1184
00:50:12,940 --> 00:50:14,880
Niet iets voor hoeven coderen.
1185
00:50:14,880 --> 00:50:19,320
Waardoor het allemaal heel simpel en super toegankelijk en weet ik veel wat lijkt.
1186
00:50:19,320 --> 00:50:20,920
Maar dan ben je wel opeens een aanbieder geworden.
1187
00:50:20,920 --> 00:50:24,120
Inclusief dus alle verantwoordelijkheden die daarbij horen.
1188
00:50:24,120 --> 00:50:25,520
En dat zijn er behoorlijk wat.
1189
00:50:25,520 --> 00:50:26,940
Dat kan zo zijn, ja.
1190
00:50:26,940 --> 00:50:30,140
Als dat dus een hoog risico is of een general purpose als het nog blijft.
1191
00:50:30,140 --> 00:50:30,840
Ja.
1192
00:50:30,840 --> 00:50:35,200
Nou, ik denk dat dat een mooie afsluiting is met alle tips.
1193
00:50:35,200 --> 00:50:39,560
En vooral, zeg maar, fijn dat je die pragmatische aanpak pakt.
1194
00:50:39,560 --> 00:50:47,180
En jij hebt me heel erg getriggerd met de vraag van, waarom zou je het niet alles behandelen als zijnde hoog risico?
1195
00:50:47,180 --> 00:50:53,980
Ja, natuurlijk zul je, het enige waar je op moet letten is natuurlijk als het iets is wat helemaal niet.
1196
00:50:53,980 --> 00:50:57,040
Het mag, ja dan moet je even goed kijken naar, mag het echt helemaal niet?
1197
00:50:57,040 --> 00:50:57,280
Ja.
1198
00:50:57,280 --> 00:50:58,440
Of is het hoog risico?
1199
00:50:58,440 --> 00:51:00,080
Dan moet je een beetje beter opletten.
1200
00:51:00,080 --> 00:51:05,220
Maar als de vraag is, goh, is dit AI waarbij ik alleen maar transparantieverplichting heb of hoog risico?
1201
00:51:05,220 --> 00:51:07,420
Ja, dan zit daar gewoon al zoveel onderzoek in.
1202
00:51:07,420 --> 00:51:10,000
Dan kun je het net zo goed als hoog risico behandelen.
1203
00:51:10,160 --> 00:51:11,320
Want dan kost het je net zoveel.
1204
00:51:11,320 --> 00:51:13,600
Lijkt me er mooi om mee af te sluiten.
1205
00:51:13,600 --> 00:51:17,680
Hartstikke bedankt dat je naar onze studio wilde komen om dit te bespreken.
1206
00:51:17,680 --> 00:51:18,440
Graag gedaan.
1207
00:51:18,440 --> 00:51:23,680
En nou ja, vergeet je niet te abonneren op onze nieuwsbrief.
1208
00:51:23,680 --> 00:51:30,520
En mocht je deze podcast graag luisteren, help ons ook even op Spotify door de review achter te laten of een like.
1209
00:51:30,520 --> 00:51:32,340
Hartstikke mooi, dankjewel.
1210
00:51:32,340 --> 00:51:33,120
Tot de volgende keer.
1211
00:51:33,120 --> 00:51:35,400
[Muziek]