AIToday Live
AIToday Live is een boeiende Nederlandstalige podcast voor iedereen die geïnteresseerd is in de wereld van kunstmatige intelligentie, ongeacht hun technische achtergrond. Hier zijn een paar redenen waarom je misschien wilt luisteren naar AIToday Live:
- Expert Inzichten: De podcast biedt gesprekken met Nederlandse en Belgische experts op het gebied van AI, waardoor luisteraars waardevolle inzichten en meningen rechtstreeks van leiders en vernieuwers in de industrie krijgen.
- Toegankelijk voor een Breed Publiek: Of je nu diep in de technische details zit of gewoon nieuwsgierig bent naar AI, de podcast presenteert informatie op een manier die zowel begrijpelijk als boeiend is voor zowel zakelijke als IT-professionals.
- Laatste Nieuws en Trends: Blijf op de hoogte van de nieuwste ontwikkelingen en innovaties in AI. De podcast dekt AI for Good en andere belangrijke trends die invloed kunnen hebben op verschillende industrieën en de samenleving als geheel.
Gepresenteerd door Joop Snijder, CTO van Aigency, en Niels Naglé, Area Lead Data & AI van Info Support, biedt de podcast een uniek perspectief op de praktische toepassing van AI binnen organisaties. Het duo bespreekt de (on)mogelijkheden van AI, de impact ervan op bedrijfsprocessen en hoe organisaties deze technologie kunnen inzetten om hun doelstellingen te bereiken.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Met deskundige gasten uit de industrie en academische wereld, biedt de AIToday Live podcast een platform voor het delen van best practices, innovaties en belangrijke inzichten in de wereld van AI. Van de nieuwste algoritmen en modellen tot de impact van AI op de toekomst van werk, de podcast biedt waardevolle informatie voor iedereen die geïnteresseerd is in AI en de rol die het speelt in organisaties.
Voor exclusieve content over de podcast achter de schermen, aankondiging van gasten en exclusieve artikelen, schrijf je dan in voor de nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S06E52 - Waarom Nederland's focus op verantwoorde AI loont
In deze aflevering van AIToday Live staat de eerste Global Index on Responsible AI centraal, waarin Nederland een indrukwekkende score van 8,6 behaalt en daarmee op de eerste plaats staat. Het rapport, uitgevoerd door een internationaal team van onderzoekers, biedt een kader voor het beoordelen van de verantwoordelijke toepassing en governance van AI wereldwijd, verdeeld over drie dimensies: mensenrechten en AI, verantwoordelijke AI governance en capaciteiten voor verantwoordelijke AI.
Ondanks de hoge score, benadrukt het rapport de noodzaak voor verbetering, vooral op het gebied van inclusiviteit en gendergelijkheid. Verder wordt de bijdrage van Nederland aan responsible AI belicht, met voorbeelden zoals het algoritmeregister en de Impact Assessment Mensenrechten en Algoritmes (IAMA).
Deze aflevering nodigt uit tot reflectie op de rol die iedereen kan spelen in het bevorderen van een verantwoordelijke inzet van AI.
Links
- Rapport: Global Index on Responsible AI (https://global-index.ai/)
- Initiatief: ministerie van Binnenlandse Zaken - Algoritmeregister (https://www.digitaleoverheid.nl/overzicht-van-alle-onderwerpen/algoritmes/algoritmeregister/)
- Podcast aflevering: Aflevering met Roos Labberton-Groeneveld over het Algoritmeregister (https://aitoday-live.buzzsprout.com/899785/12749507-s05e14-kijkje-achter-de-schermen-van-het-algoritmeregister)
- Hulpmiddel: Universiteit van Utrecht - Impact Assessment Mensenrechten en Algoritmes (IAMA) (https://professionals.uu.nl/nl/cursus/impact-assessment-mensenrechten-en-algoritmes-iama)
- Onderzoek: Hogeschool van Utrecht - Onderzoek naar uitlegbare AI in de financiële sector (https://www.hu.nl/onderzoek/projecten/uitlegbare-ai-in-de-financiele-sector)
- Framework: EY - Responsible AI framework (https://www.ey.com/en_us/services/ai/responsible-ai)
- Initiatief: ELSA labs - Ethical, Legal, Societal labs (https://elsalabdefence.nl/publication/elsa-labs-for-human-centric-innovation-in-ai/)
- Initiatief: ICAI labs - Samenwerking bedrijfsleven, overheid, wetenschap, en maatschappelijke organisaties rondom responsible AI (https://www.icai.ai/labs)
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,001 --> 00:00:04,880
Hey, welkom bij AIToday Live!
2
00:00:04,880 --> 00:00:10,680
Vandaag duiken we in een gloednieuw rapport, namelijk de eerste Global Index on Responsible
3
00:00:10,680 --> 00:00:11,680
AI.
4
00:00:11,680 --> 00:00:17,000
Je hoort het goed, dit rapport is net uitgebracht en Nederland scoort met een indrukwekkende
5
00:00:17,000 --> 00:00:19,560
8,6 de eerste plaats.
6
00:00:19,560 --> 00:00:25,160
Maar goed, voordat we beginnen met het vieren moeten we wel even kritisch kijken, want er
7
00:00:25,160 --> 00:00:26,480
is ruimte voor verbetering.
8
00:00:26,480 --> 00:00:33,640
Trouwens, de top 3 bestaat uit Europese landen, want op nummer 2 staat Duitsland en Ierland
9
00:00:33,640 --> 00:00:34,920
sluit die top 3.
10
00:00:34,920 --> 00:00:42,000
De Europese landen doen het sowieso goed, want de top 10 is Europees aangevuld met Amerika,
11
00:00:42,000 --> 00:00:43,360
Canada en Australië.
12
00:00:43,360 --> 00:00:46,200
Maar laten we kijken naar het rapport en wat het zegt.
13
00:00:46,200 --> 00:00:53,280
Deze Global Index on Responsible AI is uitgevoerd door een internationaal team van onderzoekers.
14
00:00:53,280 --> 00:00:54,280
Hun doel?
15
00:00:54,280 --> 00:00:59,800
Een kader ontwikkelen voor het meten van de verantwoordelijke toepassing en governance
16
00:00:59,800 --> 00:01:02,560
van AI wereldwijd.
17
00:01:02,560 --> 00:01:07,720
Dit gebeurt aan de hand van drie hoofddimensies.
18
00:01:07,720 --> 00:01:14,120
Mensenrechten en AI, verantwoordelijke AI governance en capaciteiten voor verantwoordelijke
19
00:01:14,120 --> 00:01:15,120
AI.
20
00:01:15,120 --> 00:01:19,280
Laten we beginnen met de mensenrechten en AI.
21
00:01:19,280 --> 00:01:25,360
Deze dimensie kijkt naar hoe AI technologieën de mensenrechten beïnvloeden en beschermen.
22
00:01:25,360 --> 00:01:32,160
Denk daarbij aan gegevensbescherming, transparantie en het voorkomen van discriminatie.
23
00:01:32,160 --> 00:01:38,320
Nederland scoort hier goed, maar het rapport wijst erop dat er nog werk aan de winkel is.
24
00:01:38,320 --> 00:01:43,280
Vooral op het gebied van inclusiviteit en gendergelijkheid.
25
00:01:43,280 --> 00:01:48,000
We kunnen dus nog stappen zetten om ervoor te zorgen dat iedereen gelijke kansen heeft
26
00:01:48,000 --> 00:01:50,000
ongeacht geslacht of achtergrond.
27
00:01:50,000 --> 00:01:55,040
De tweede dimensie gaat over verantwoordelijke AI governance.
28
00:01:55,040 --> 00:02:02,360
Dit betekent dat landen beleid en kaders ontwikkelen om AI op een verantwoorde manier te reguleren.
29
00:02:02,360 --> 00:02:08,000
Nederland heeft hier hele sterke structuren voor wat juist dan bijdraagt aan die hoge
30
00:02:08,000 --> 00:02:09,000
scoren.
31
00:02:09,000 --> 00:02:15,080
Toch zegt het rapport kan er nog meer aandacht komen voor specifieke maatregelen die juist
32
00:02:15,080 --> 00:02:18,040
de mensenrechten binnen AI beleid waarborgen.
33
00:02:18,040 --> 00:02:26,200
De derde dimensie is de capaciteit binnen landen om te voldoen aan de principes van
34
00:02:26,200 --> 00:02:27,760
verantwoordelijke AI.
35
00:02:27,760 --> 00:02:32,440
Dit omvat de technologische infrastructuur en deskundigheid.
36
00:02:32,440 --> 00:02:35,520
Nederland doet het hier echt uitstekend.
37
00:02:35,520 --> 00:02:40,440
Mede dankzij de actieve betrokkenheid van wat ze in het rapport tussen - ik heb er maar
38
00:02:40,440 --> 00:02:46,040
even aanhalingstekens gezet - niet-staatsactoren zou noemen.
39
00:02:46,040 --> 00:02:51,560
Dit zijn bijvoorbeeld universiteiten en maatschappelijke organisaties.
40
00:02:51,560 --> 00:02:53,960
Die zijn bij ons er allemaal heel goed bij betrokken.
41
00:02:53,960 --> 00:03:02,600
Een belangrijk punt dat het rapport wel benadrukt is internationale samenwerking.
42
00:03:02,600 --> 00:03:08,640
Het Global Index on Responsible AI biedt juist een platform voor dialoog en samenwerking
43
00:03:08,640 --> 00:03:09,640
tussen landen.
44
00:03:09,640 --> 00:03:16,200
Nederland kan hier een leidende rol spelen door inclusieve en genderbewuste AI programma's
45
00:03:16,200 --> 00:03:21,600
te ontwikkelen en de veiligheid en betrouwbaarheid van AI systemen verder te waarborgen.
46
00:03:21,600 --> 00:03:30,040
Een opmerkelijke bevinding is dat veel landen wel AI-strategieën hebben, maar dat deze vaak
47
00:03:30,040 --> 00:03:32,360
niet specifiek gericht zijn op mensenrechten.
48
00:03:32,360 --> 00:03:42,320
Dat leidt wel tot een kloof tussen AI-governance en de verantwoordelijke AI.
49
00:03:42,320 --> 00:03:49,520
Het mooie is - Nederland heeft hier een heel aantal dingen juist best wel goed in gedaan.
50
00:03:49,520 --> 00:03:54,240
Concreet, wat hebben wij gedaan op het gebied van Responsible AI?
51
00:03:54,240 --> 00:03:57,960
Een goed voorbeeld is het algoritmeregister.
52
00:03:57,960 --> 00:04:00,920
Een initiatief van het ministerie van Binnenlandse Zaken.
53
00:04:00,920 --> 00:04:08,000
Dit register bevordert transparantie over het gebruik van algoritmes door overheidsinstanties
54
00:04:08,000 --> 00:04:11,240
en helpt het vertrouwen van burgers in de overheid te versterken.
55
00:04:11,240 --> 00:04:16,240
Als je hier meer over wil weten, we hebben zelfs een hele aflevering met Roos Labberton
56
00:04:16,240 --> 00:04:17,920
Groeneveld over dit onderwerp.
57
00:04:17,920 --> 00:04:19,920
De link vind je in de show notes.
58
00:04:19,920 --> 00:04:26,120
Het andere is juist, wat ze zeggen, die link tussen AI-governance en mensenrechten.
59
00:04:26,120 --> 00:04:33,160
In Nederland, door de Universiteit van Utrecht, is de IAMA ontwikkeld.
60
00:04:33,160 --> 00:04:36,560
Impact Assessment Mensenrechten en Algoritmes.
61
00:04:36,560 --> 00:04:42,840
Dit is een hulpmiddel dat overheidsinstanties helpt bij het verantwoord ontwikkelen en gebruiken
62
00:04:42,840 --> 00:04:43,840
van algoritmes.
63
00:04:43,840 --> 00:04:50,440
Die IAMA bevat veel vragen die besproken moeten worden wanneer een algoritme wordt ontwikkeld,
64
00:04:50,440 --> 00:04:52,960
gekocht, aangepast of gebruikt door de overheid.
65
00:04:52,960 --> 00:05:01,760
Het is zelfs dat het in de Tweede Kamer is er een motie aangenomen waarin het verplicht
66
00:05:01,760 --> 00:05:06,920
is gesteld dat de overheid die IAMA ook moet gaan uitvoeren.
67
00:05:06,920 --> 00:05:14,440
Het helpt bij het maken van afwegingen, maar het biedt natuurlijk geen garantie op een
68
00:05:14,440 --> 00:05:16,560
perfect responsible AI-systeem.
69
00:05:16,560 --> 00:05:23,120
Dus je moet allemaal keuzes maken, balans vinden en dat moet je zelf doen met de mensen
70
00:05:23,120 --> 00:05:24,120
om je heen.
71
00:05:24,120 --> 00:05:28,840
Ook universiteiten en hogescholen dragen bij aan responsible AI.
72
00:05:28,840 --> 00:05:33,600
Zo weet ik zelf dat de Hogeschool van Utrecht uitgebreid onderzoek heeft uitgevoerd naar
73
00:05:33,600 --> 00:05:35,880
uitlegbare AI in de financiële sector.
74
00:05:35,880 --> 00:05:42,360
En die uitlegbare AI, explainable AI, is bijvoorbeeld ook al jarenlang een onderzoekslijn in ons
75
00:05:42,360 --> 00:05:44,320
eigen research center AI.
76
00:05:44,320 --> 00:05:50,040
Maar ook bedrijven zoals EY hebben zelf een responsible AI framework ontwikkeld om aan
77
00:05:50,040 --> 00:05:53,600
de AI-act te voldoen die eraan gaat komen.
78
00:05:53,600 --> 00:06:01,760
Maar we hebben ook de ELSA labs, waarbij ELSA staat voor Ethical, Legal, Societal labs en
79
00:06:01,760 --> 00:06:07,600
de ICAI labs waar bedrijfsleven, overheid, wetenschap, maatschappelijke organisaties
80
00:06:07,600 --> 00:06:13,360
allemaal samenwerken aan juist oplossingen rondom responsible AI.
81
00:06:13,360 --> 00:06:18,600
Dus dit soort initiatieven laten juist zien dat Nederland heel serieus werk maakt van
82
00:06:18,600 --> 00:06:21,200
responsible AI.
83
00:06:21,200 --> 00:06:24,400
Lang verhaal kort.
84
00:06:24,400 --> 00:06:29,280
Nederland mag echt wel trots zijn op de resultaten, maar we moeten natuurlijk wel kritisch blijven
85
00:06:29,280 --> 00:06:31,200
kijken, leren en verbeteren.
86
00:06:31,200 --> 00:06:36,120
Een van de dingen die het rapport bijvoorbeeld stelt is dat zij niet hebben gekeken naar
87
00:06:36,120 --> 00:06:37,120
handhaving.
88
00:06:37,120 --> 00:06:41,960
Dus het gaat vooral eigenlijk om de structuren die neer zijn gelegd, de samenwerksverbanden
89
00:06:41,960 --> 00:06:43,680
die er zijn, daar is naar gekeken.
90
00:06:43,680 --> 00:06:47,120
Over handhaving hebben ze het nog niet eens gehad.
91
00:06:47,120 --> 00:06:53,360
En dat zal zo direct natuurlijk ook een heel belangrijk onderdeel worden van het succes
92
00:06:53,360 --> 00:06:54,360
van dit hele verhaal.
93
00:06:54,360 --> 00:06:59,240
Dit rapport is denk ik wel een hele mooie nulmeting.
94
00:06:59,240 --> 00:07:03,400
Die laat zien waar we staan, niet alleen als land, maar ook op mondiaal niveau.
95
00:07:03,400 --> 00:07:10,800
Dus aan degene die kritiek hebben, welke bijdrage lever jij dan aan responsible AI?
96
00:07:10,800 --> 00:07:15,920
Samen kunnen we er namelijk voor zorgen dat AI een positieve impact heeft op onze samenleving.
97
00:07:15,920 --> 00:07:19,480
En ieder zal een stukje van de puzzel moeten gaan leggen.
98
00:07:19,480 --> 00:07:24,760
Dank je wel weer voor het luisteren naar deze korte aflevering van AIToday Live.
99
00:07:24,760 --> 00:07:27,840
Vergeet je niet te abonneren via je favoriete podcast app.
100
00:07:27,840 --> 00:07:29,240
Dan mis je geen aflevering.
101
00:07:29,240 --> 00:07:30,480
Tot de volgende keer!
102
00:07:31,000 --> 00:07:32,000
Tot de volgende keer!
103
00:07:34,880 --> 00:07:36,880
[Muziek]