AIToday Live

S06E52 - Waarom Nederland's focus op verantwoorde AI loont

Aigency by Info Support Season 6 Episode 52

In deze aflevering van AIToday Live staat de eerste Global Index on Responsible AI centraal, waarin Nederland een indrukwekkende score van 8,6 behaalt en daarmee op de eerste plaats staat. Het rapport, uitgevoerd door een internationaal team van onderzoekers, biedt een kader voor het beoordelen van de verantwoordelijke toepassing en governance van AI wereldwijd, verdeeld over drie dimensies: mensenrechten en AI, verantwoordelijke AI governance en capaciteiten voor verantwoordelijke AI.

Ondanks de hoge score, benadrukt het rapport de noodzaak voor verbetering, vooral op het gebied van inclusiviteit en gendergelijkheid. Verder wordt de bijdrage van Nederland aan responsible AI belicht, met voorbeelden zoals het algoritmeregister en de Impact Assessment Mensenrechten en Algoritmes (IAMA).

Deze aflevering nodigt uit tot reflectie op de rol die iedereen kan spelen in het bevorderen van een verantwoordelijke inzet van AI.


Links

Stuur ons een bericht

Aigency
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.

Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).

Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.

Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!

1
00:00:00,001 --> 00:00:04,880
Hey, welkom bij AIToday Live!

2
00:00:04,880 --> 00:00:10,680
Vandaag duiken we in een gloednieuw rapport, namelijk de eerste Global Index on Responsible

3
00:00:10,680 --> 00:00:11,680
AI.

4
00:00:11,680 --> 00:00:17,000
Je hoort het goed, dit rapport is net uitgebracht en Nederland scoort met een indrukwekkende

5
00:00:17,000 --> 00:00:19,560
8,6 de eerste plaats.

6
00:00:19,560 --> 00:00:25,160
Maar goed, voordat we beginnen met het vieren moeten we wel even kritisch kijken, want er

7
00:00:25,160 --> 00:00:26,480
is ruimte voor verbetering.

8
00:00:26,480 --> 00:00:33,640
Trouwens, de top 3 bestaat uit Europese landen, want op nummer 2 staat Duitsland en Ierland

9
00:00:33,640 --> 00:00:34,920
sluit die top 3.

10
00:00:34,920 --> 00:00:42,000
De Europese landen doen het sowieso goed, want de top 10 is Europees aangevuld met Amerika,

11
00:00:42,000 --> 00:00:43,360
Canada en Australië.

12
00:00:43,360 --> 00:00:46,200
Maar laten we kijken naar het rapport en wat het zegt.

13
00:00:46,200 --> 00:00:53,280
Deze Global Index on Responsible AI is uitgevoerd door een internationaal team van onderzoekers.

14
00:00:53,280 --> 00:00:54,280
Hun doel?

15
00:00:54,280 --> 00:00:59,800
Een kader ontwikkelen voor het meten van de verantwoordelijke toepassing en governance

16
00:00:59,800 --> 00:01:02,560
van AI wereldwijd.

17
00:01:02,560 --> 00:01:07,720
Dit gebeurt aan de hand van drie hoofddimensies.

18
00:01:07,720 --> 00:01:14,120
Mensenrechten en AI, verantwoordelijke AI governance en capaciteiten voor verantwoordelijke

19
00:01:14,120 --> 00:01:15,120
AI.

20
00:01:15,120 --> 00:01:19,280
Laten we beginnen met de mensenrechten en AI.

21
00:01:19,280 --> 00:01:25,360
Deze dimensie kijkt naar hoe AI technologieën de mensenrechten beïnvloeden en beschermen.

22
00:01:25,360 --> 00:01:32,160
Denk daarbij aan gegevensbescherming, transparantie en het voorkomen van discriminatie.

23
00:01:32,160 --> 00:01:38,320
Nederland scoort hier goed, maar het rapport wijst erop dat er nog werk aan de winkel is.

24
00:01:38,320 --> 00:01:43,280
Vooral op het gebied van inclusiviteit en gendergelijkheid.

25
00:01:43,280 --> 00:01:48,000
We kunnen dus nog stappen zetten om ervoor te zorgen dat iedereen gelijke kansen heeft

26
00:01:48,000 --> 00:01:50,000
ongeacht geslacht of achtergrond.

27
00:01:50,000 --> 00:01:55,040
De tweede dimensie gaat over verantwoordelijke AI governance.

28
00:01:55,040 --> 00:02:02,360
Dit betekent dat landen beleid en kaders ontwikkelen om AI op een verantwoorde manier te reguleren.

29
00:02:02,360 --> 00:02:08,000
Nederland heeft hier hele sterke structuren voor wat juist dan bijdraagt aan die hoge

30
00:02:08,000 --> 00:02:09,000
scoren.

31
00:02:09,000 --> 00:02:15,080
Toch zegt het rapport kan er nog meer aandacht komen voor specifieke maatregelen die juist

32
00:02:15,080 --> 00:02:18,040
de mensenrechten binnen AI beleid waarborgen.

33
00:02:18,040 --> 00:02:26,200
De derde dimensie is de capaciteit binnen landen om te voldoen aan de principes van

34
00:02:26,200 --> 00:02:27,760
verantwoordelijke AI.

35
00:02:27,760 --> 00:02:32,440
Dit omvat de technologische infrastructuur en deskundigheid.

36
00:02:32,440 --> 00:02:35,520
Nederland doet het hier echt uitstekend.

37
00:02:35,520 --> 00:02:40,440
Mede dankzij de actieve betrokkenheid van wat ze in het rapport tussen - ik heb er maar

38
00:02:40,440 --> 00:02:46,040
even aanhalingstekens gezet - niet-staatsactoren zou noemen.

39
00:02:46,040 --> 00:02:51,560
Dit zijn bijvoorbeeld universiteiten en maatschappelijke organisaties.

40
00:02:51,560 --> 00:02:53,960
Die zijn bij ons er allemaal heel goed bij betrokken.

41
00:02:53,960 --> 00:03:02,600
Een belangrijk punt dat het rapport wel benadrukt is internationale samenwerking.

42
00:03:02,600 --> 00:03:08,640
Het Global Index on Responsible AI biedt juist een platform voor dialoog en samenwerking

43
00:03:08,640 --> 00:03:09,640
tussen landen.

44
00:03:09,640 --> 00:03:16,200
Nederland kan hier een leidende rol spelen door inclusieve en genderbewuste AI programma's

45
00:03:16,200 --> 00:03:21,600
te ontwikkelen en de veiligheid en betrouwbaarheid van AI systemen verder te waarborgen.

46
00:03:21,600 --> 00:03:30,040
Een opmerkelijke bevinding is dat veel landen wel AI-strategieën hebben, maar dat deze vaak

47
00:03:30,040 --> 00:03:32,360
niet specifiek gericht zijn op mensenrechten.

48
00:03:32,360 --> 00:03:42,320
Dat leidt wel tot een kloof tussen AI-governance en de verantwoordelijke AI.

49
00:03:42,320 --> 00:03:49,520
Het mooie is - Nederland heeft hier een heel aantal dingen juist best wel goed in gedaan.

50
00:03:49,520 --> 00:03:54,240
Concreet, wat hebben wij gedaan op het gebied van Responsible AI?

51
00:03:54,240 --> 00:03:57,960
Een goed voorbeeld is het algoritmeregister.

52
00:03:57,960 --> 00:04:00,920
Een initiatief van het ministerie van Binnenlandse Zaken.

53
00:04:00,920 --> 00:04:08,000
Dit register bevordert transparantie over het gebruik van algoritmes door overheidsinstanties

54
00:04:08,000 --> 00:04:11,240
en helpt het vertrouwen van burgers in de overheid te versterken.

55
00:04:11,240 --> 00:04:16,240
Als je hier meer over wil weten, we hebben zelfs een hele aflevering met Roos Labberton

56
00:04:16,240 --> 00:04:17,920
Groeneveld over dit onderwerp.

57
00:04:17,920 --> 00:04:19,920
De link vind je in de show notes.

58
00:04:19,920 --> 00:04:26,120
Het andere is juist, wat ze zeggen, die link tussen AI-governance en mensenrechten.

59
00:04:26,120 --> 00:04:33,160
In Nederland, door de Universiteit van Utrecht, is de IAMA ontwikkeld.

60
00:04:33,160 --> 00:04:36,560
Impact Assessment Mensenrechten en Algoritmes.

61
00:04:36,560 --> 00:04:42,840
Dit is een hulpmiddel dat overheidsinstanties helpt bij het verantwoord ontwikkelen en gebruiken

62
00:04:42,840 --> 00:04:43,840
van algoritmes.

63
00:04:43,840 --> 00:04:50,440
Die IAMA bevat veel vragen die besproken moeten worden wanneer een algoritme wordt ontwikkeld,

64
00:04:50,440 --> 00:04:52,960
gekocht, aangepast of gebruikt door de overheid.

65
00:04:52,960 --> 00:05:01,760
Het is zelfs dat het in de Tweede Kamer is er een motie aangenomen waarin het verplicht

66
00:05:01,760 --> 00:05:06,920
is gesteld dat de overheid die IAMA ook moet gaan uitvoeren.

67
00:05:06,920 --> 00:05:14,440
Het helpt bij het maken van afwegingen, maar het biedt natuurlijk geen garantie op een

68
00:05:14,440 --> 00:05:16,560
perfect responsible AI-systeem.

69
00:05:16,560 --> 00:05:23,120
Dus je moet allemaal keuzes maken, balans vinden en dat moet je zelf doen met de mensen

70
00:05:23,120 --> 00:05:24,120
om je heen.

71
00:05:24,120 --> 00:05:28,840
Ook universiteiten en hogescholen dragen bij aan responsible AI.

72
00:05:28,840 --> 00:05:33,600
Zo weet ik zelf dat de Hogeschool van Utrecht uitgebreid onderzoek heeft uitgevoerd naar

73
00:05:33,600 --> 00:05:35,880
uitlegbare AI in de financiële sector.

74
00:05:35,880 --> 00:05:42,360
En die uitlegbare AI, explainable AI, is bijvoorbeeld ook al jarenlang een onderzoekslijn in ons

75
00:05:42,360 --> 00:05:44,320
eigen research center AI.

76
00:05:44,320 --> 00:05:50,040
Maar ook bedrijven zoals EY hebben zelf een responsible AI framework ontwikkeld om aan

77
00:05:50,040 --> 00:05:53,600
de AI-act te voldoen die eraan gaat komen.

78
00:05:53,600 --> 00:06:01,760
Maar we hebben ook de ELSA labs, waarbij ELSA staat voor Ethical, Legal, Societal labs en

79
00:06:01,760 --> 00:06:07,600
de ICAI labs waar bedrijfsleven, overheid, wetenschap, maatschappelijke organisaties

80
00:06:07,600 --> 00:06:13,360
allemaal samenwerken aan juist oplossingen rondom responsible AI.

81
00:06:13,360 --> 00:06:18,600
Dus dit soort initiatieven laten juist zien dat Nederland heel serieus werk maakt van

82
00:06:18,600 --> 00:06:21,200
responsible AI.

83
00:06:21,200 --> 00:06:24,400
Lang verhaal kort.

84
00:06:24,400 --> 00:06:29,280
Nederland mag echt wel trots zijn op de resultaten, maar we moeten natuurlijk wel kritisch blijven

85
00:06:29,280 --> 00:06:31,200
kijken, leren en verbeteren.

86
00:06:31,200 --> 00:06:36,120
Een van de dingen die het rapport bijvoorbeeld stelt is dat zij niet hebben gekeken naar

87
00:06:36,120 --> 00:06:37,120
handhaving.

88
00:06:37,120 --> 00:06:41,960
Dus het gaat vooral eigenlijk om de structuren die neer zijn gelegd, de samenwerksverbanden

89
00:06:41,960 --> 00:06:43,680
die er zijn, daar is naar gekeken.

90
00:06:43,680 --> 00:06:47,120
Over handhaving hebben ze het nog niet eens gehad.

91
00:06:47,120 --> 00:06:53,360
En dat zal zo direct natuurlijk ook een heel belangrijk onderdeel worden van het succes

92
00:06:53,360 --> 00:06:54,360
van dit hele verhaal.

93
00:06:54,360 --> 00:06:59,240
Dit rapport is denk ik wel een hele mooie nulmeting.

94
00:06:59,240 --> 00:07:03,400
Die laat zien waar we staan, niet alleen als land, maar ook op mondiaal niveau.

95
00:07:03,400 --> 00:07:10,800
Dus aan degene die kritiek hebben, welke bijdrage lever jij dan aan responsible AI?

96
00:07:10,800 --> 00:07:15,920
Samen kunnen we er namelijk voor zorgen dat AI een positieve impact heeft op onze samenleving.

97
00:07:15,920 --> 00:07:19,480
En ieder zal een stukje van de puzzel moeten gaan leggen.

98
00:07:19,480 --> 00:07:24,760
Dank je wel weer voor het luisteren naar deze korte aflevering van AIToday Live.

99
00:07:24,760 --> 00:07:27,840
Vergeet je niet te abonneren via je favoriete podcast app.

100
00:07:27,840 --> 00:07:29,240
Dan mis je geen aflevering.

101
00:07:29,240 --> 00:07:30,480
Tot de volgende keer!

102
00:07:31,000 --> 00:07:32,000
Tot de volgende keer!

103
00:07:34,880 --> 00:07:36,880
[Muziek]


People on this episode