1
00:00:00,001 --> 00:00:04,880
Hey, welkom bij AIToday Live!
2
00:00:04,880 --> 00:00:10,680
Vandaag duiken we in een gloednieuw rapport, namelijk de eerste Global Index on Responsible
3
00:00:10,680 --> 00:00:11,680
AI.
4
00:00:11,680 --> 00:00:17,000
Je hoort het goed, dit rapport is net uitgebracht en Nederland scoort met een indrukwekkende
5
00:00:17,000 --> 00:00:19,560
8,6 de eerste plaats.
6
00:00:19,560 --> 00:00:25,160
Maar goed, voordat we beginnen met het vieren moeten we wel even kritisch kijken, want er
7
00:00:25,160 --> 00:00:26,480
is ruimte voor verbetering.
8
00:00:26,480 --> 00:00:33,640
Trouwens, de top 3 bestaat uit Europese landen, want op nummer 2 staat Duitsland en Ierland
9
00:00:33,640 --> 00:00:34,920
sluit die top 3.
10
00:00:34,920 --> 00:00:42,000
De Europese landen doen het sowieso goed, want de top 10 is Europees aangevuld met Amerika,
11
00:00:42,000 --> 00:00:43,360
Canada en Australië.
12
00:00:43,360 --> 00:00:46,200
Maar laten we kijken naar het rapport en wat het zegt.
13
00:00:46,200 --> 00:00:53,280
Deze Global Index on Responsible AI is uitgevoerd door een internationaal team van onderzoekers.
14
00:00:53,280 --> 00:00:54,280
Hun doel?
15
00:00:54,280 --> 00:00:59,800
Een kader ontwikkelen voor het meten van de verantwoordelijke toepassing en governance
16
00:00:59,800 --> 00:01:02,560
van AI wereldwijd.
17
00:01:02,560 --> 00:01:07,720
Dit gebeurt aan de hand van drie hoofddimensies.
18
00:01:07,720 --> 00:01:14,120
Mensenrechten en AI, verantwoordelijke AI governance en capaciteiten voor verantwoordelijke
19
00:01:14,120 --> 00:01:15,120
AI.
20
00:01:15,120 --> 00:01:19,280
Laten we beginnen met de mensenrechten en AI.
21
00:01:19,280 --> 00:01:25,360
Deze dimensie kijkt naar hoe AI technologieën de mensenrechten beïnvloeden en beschermen.
22
00:01:25,360 --> 00:01:32,160
Denk daarbij aan gegevensbescherming, transparantie en het voorkomen van discriminatie.
23
00:01:32,160 --> 00:01:38,320
Nederland scoort hier goed, maar het rapport wijst erop dat er nog werk aan de winkel is.
24
00:01:38,320 --> 00:01:43,280
Vooral op het gebied van inclusiviteit en gendergelijkheid.
25
00:01:43,280 --> 00:01:48,000
We kunnen dus nog stappen zetten om ervoor te zorgen dat iedereen gelijke kansen heeft
26
00:01:48,000 --> 00:01:50,000
ongeacht geslacht of achtergrond.
27
00:01:50,000 --> 00:01:55,040
De tweede dimensie gaat over verantwoordelijke AI governance.
28
00:01:55,040 --> 00:02:02,360
Dit betekent dat landen beleid en kaders ontwikkelen om AI op een verantwoorde manier te reguleren.
29
00:02:02,360 --> 00:02:08,000
Nederland heeft hier hele sterke structuren voor wat juist dan bijdraagt aan die hoge
30
00:02:08,000 --> 00:02:09,000
scoren.
31
00:02:09,000 --> 00:02:15,080
Toch zegt het rapport kan er nog meer aandacht komen voor specifieke maatregelen die juist
32
00:02:15,080 --> 00:02:18,040
de mensenrechten binnen AI beleid waarborgen.
33
00:02:18,040 --> 00:02:26,200
De derde dimensie is de capaciteit binnen landen om te voldoen aan de principes van
34
00:02:26,200 --> 00:02:27,760
verantwoordelijke AI.
35
00:02:27,760 --> 00:02:32,440
Dit omvat de technologische infrastructuur en deskundigheid.
36
00:02:32,440 --> 00:02:35,520
Nederland doet het hier echt uitstekend.
37
00:02:35,520 --> 00:02:40,440
Mede dankzij de actieve betrokkenheid van wat ze in het rapport tussen - ik heb er maar
38
00:02:40,440 --> 00:02:46,040
even aanhalingstekens gezet - niet-staatsactoren zou noemen.
39
00:02:46,040 --> 00:02:51,560
Dit zijn bijvoorbeeld universiteiten en maatschappelijke organisaties.
40
00:02:51,560 --> 00:02:53,960
Die zijn bij ons er allemaal heel goed bij betrokken.
41
00:02:53,960 --> 00:03:02,600
Een belangrijk punt dat het rapport wel benadrukt is internationale samenwerking.
42
00:03:02,600 --> 00:03:08,640
Het Global Index on Responsible AI biedt juist een platform voor dialoog en samenwerking
43
00:03:08,640 --> 00:03:09,640
tussen landen.
44
00:03:09,640 --> 00:03:16,200
Nederland kan hier een leidende rol spelen door inclusieve en genderbewuste AI programma's
45
00:03:16,200 --> 00:03:21,600
te ontwikkelen en de veiligheid en betrouwbaarheid van AI systemen verder te waarborgen.
46
00:03:21,600 --> 00:03:30,040
Een opmerkelijke bevinding is dat veel landen wel AI-strategieën hebben, maar dat deze vaak
47
00:03:30,040 --> 00:03:32,360
niet specifiek gericht zijn op mensenrechten.
48
00:03:32,360 --> 00:03:42,320
Dat leidt wel tot een kloof tussen AI-governance en de verantwoordelijke AI.
49
00:03:42,320 --> 00:03:49,520
Het mooie is - Nederland heeft hier een heel aantal dingen juist best wel goed in gedaan.
50
00:03:49,520 --> 00:03:54,240
Concreet, wat hebben wij gedaan op het gebied van Responsible AI?
51
00:03:54,240 --> 00:03:57,960
Een goed voorbeeld is het algoritmeregister.
52
00:03:57,960 --> 00:04:00,920
Een initiatief van het ministerie van Binnenlandse Zaken.
53
00:04:00,920 --> 00:04:08,000
Dit register bevordert transparantie over het gebruik van algoritmes door overheidsinstanties
54
00:04:08,000 --> 00:04:11,240
en helpt het vertrouwen van burgers in de overheid te versterken.
55
00:04:11,240 --> 00:04:16,240
Als je hier meer over wil weten, we hebben zelfs een hele aflevering met Roos Labberton
56
00:04:16,240 --> 00:04:17,920
Groeneveld over dit onderwerp.
57
00:04:17,920 --> 00:04:19,920
De link vind je in de show notes.
58
00:04:19,920 --> 00:04:26,120
Het andere is juist, wat ze zeggen, die link tussen AI-governance en mensenrechten.
59
00:04:26,120 --> 00:04:33,160
In Nederland, door de Universiteit van Utrecht, is de IAMA ontwikkeld.
60
00:04:33,160 --> 00:04:36,560
Impact Assessment Mensenrechten en Algoritmes.
61
00:04:36,560 --> 00:04:42,840
Dit is een hulpmiddel dat overheidsinstanties helpt bij het verantwoord ontwikkelen en gebruiken
62
00:04:42,840 --> 00:04:43,840
van algoritmes.
63
00:04:43,840 --> 00:04:50,440
Die IAMA bevat veel vragen die besproken moeten worden wanneer een algoritme wordt ontwikkeld,
64
00:04:50,440 --> 00:04:52,960
gekocht, aangepast of gebruikt door de overheid.
65
00:04:52,960 --> 00:05:01,760
Het is zelfs dat het in de Tweede Kamer is er een motie aangenomen waarin het verplicht
66
00:05:01,760 --> 00:05:06,920
is gesteld dat de overheid die IAMA ook moet gaan uitvoeren.
67
00:05:06,920 --> 00:05:14,440
Het helpt bij het maken van afwegingen, maar het biedt natuurlijk geen garantie op een
68
00:05:14,440 --> 00:05:16,560
perfect responsible AI-systeem.
69
00:05:16,560 --> 00:05:23,120
Dus je moet allemaal keuzes maken, balans vinden en dat moet je zelf doen met de mensen
70
00:05:23,120 --> 00:05:24,120
om je heen.
71
00:05:24,120 --> 00:05:28,840
Ook universiteiten en hogescholen dragen bij aan responsible AI.
72
00:05:28,840 --> 00:05:33,600
Zo weet ik zelf dat de Hogeschool van Utrecht uitgebreid onderzoek heeft uitgevoerd naar
73
00:05:33,600 --> 00:05:35,880
uitlegbare AI in de financiële sector.
74
00:05:35,880 --> 00:05:42,360
En die uitlegbare AI, explainable AI, is bijvoorbeeld ook al jarenlang een onderzoekslijn in ons
75
00:05:42,360 --> 00:05:44,320
eigen research center AI.
76
00:05:44,320 --> 00:05:50,040
Maar ook bedrijven zoals EY hebben zelf een responsible AI framework ontwikkeld om aan
77
00:05:50,040 --> 00:05:53,600
de AI-act te voldoen die eraan gaat komen.
78
00:05:53,600 --> 00:06:01,760
Maar we hebben ook de ELSA labs, waarbij ELSA staat voor Ethical, Legal, Societal labs en
79
00:06:01,760 --> 00:06:07,600
de ICAI labs waar bedrijfsleven, overheid, wetenschap, maatschappelijke organisaties
80
00:06:07,600 --> 00:06:13,360
allemaal samenwerken aan juist oplossingen rondom responsible AI.
81
00:06:13,360 --> 00:06:18,600
Dus dit soort initiatieven laten juist zien dat Nederland heel serieus werk maakt van
82
00:06:18,600 --> 00:06:21,200
responsible AI.
83
00:06:21,200 --> 00:06:24,400
Lang verhaal kort.
84
00:06:24,400 --> 00:06:29,280
Nederland mag echt wel trots zijn op de resultaten, maar we moeten natuurlijk wel kritisch blijven
85
00:06:29,280 --> 00:06:31,200
kijken, leren en verbeteren.
86
00:06:31,200 --> 00:06:36,120
Een van de dingen die het rapport bijvoorbeeld stelt is dat zij niet hebben gekeken naar
87
00:06:36,120 --> 00:06:37,120
handhaving.
88
00:06:37,120 --> 00:06:41,960
Dus het gaat vooral eigenlijk om de structuren die neer zijn gelegd, de samenwerksverbanden
89
00:06:41,960 --> 00:06:43,680
die er zijn, daar is naar gekeken.
90
00:06:43,680 --> 00:06:47,120
Over handhaving hebben ze het nog niet eens gehad.
91
00:06:47,120 --> 00:06:53,360
En dat zal zo direct natuurlijk ook een heel belangrijk onderdeel worden van het succes
92
00:06:53,360 --> 00:06:54,360
van dit hele verhaal.
93
00:06:54,360 --> 00:06:59,240
Dit rapport is denk ik wel een hele mooie nulmeting.
94
00:06:59,240 --> 00:07:03,400
Die laat zien waar we staan, niet alleen als land, maar ook op mondiaal niveau.
95
00:07:03,400 --> 00:07:10,800
Dus aan degene die kritiek hebben, welke bijdrage lever jij dan aan responsible AI?
96
00:07:10,800 --> 00:07:15,920
Samen kunnen we er namelijk voor zorgen dat AI een positieve impact heeft op onze samenleving.
97
00:07:15,920 --> 00:07:19,480
En ieder zal een stukje van de puzzel moeten gaan leggen.
98
00:07:19,480 --> 00:07:24,760
Dank je wel weer voor het luisteren naar deze korte aflevering van AIToday Live.
99
00:07:24,760 --> 00:07:27,840
Vergeet je niet te abonneren via je favoriete podcast app.
100
00:07:27,840 --> 00:07:29,240
Dan mis je geen aflevering.
101
00:07:29,240 --> 00:07:30,480
Tot de volgende keer!
102
00:07:31,000 --> 00:07:32,000
Tot de volgende keer!
103
00:07:34,880 --> 00:07:36,880
[Muziek]