
AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S07E48 - De mondiale strijd om AI-regulering: VS, China en Europa vergeleken
In de nieuwste aflevering van AIToday Live staat de internationale regulering van AI centraal. De podcast biedt een kritische vergelijking van de benaderingen in de Verenigde Staten, China en Europa.
De Amerikaanse koerswijziging onder Trump, waarbij de focus verschuift van veiligheid naar economische concurrentie, wordt besproken. Ook komt de Chinese aanpak aan bod, met de snelle adoptie van het DeepSeek R1-model en de zorgen over staatsinvloed.
De Europese benadering, gericht op een balans tussen innovatie en verantwoordelijkheid, wordt geanalyseerd. Het praktijkvoorbeeld van PAC-Med Critical illustreert hoe Europese regelgeving innovatie kan stimuleren.
Onderwerpen
- Amerikaanse AI-regulering onder Trump
- Chinese staatscontrole op AI-technologie
- Europese benadering van ethische AI
- Vergelijking van wereldwijde AI-strategieën
- Praktijkvoorbeeld van PAC-Med Critical
- Artikel: Wired - Onder Trump moeten AI wetenschappers ideologische vooroordelen uit krachtige modellen verwijderen
- Richtlijn: AI Ethics Guidelines - High-Level Expert Group on AI
- Zorginnovatie: PacMed Critical
- Zorginnovatie: Bij Amsterdam UMC adviseert artificial intelligence over ontslag IC-patiënt
Genoemde entiteiten: DeepSeek - National Institute of Standards and Technology - Artificial Intelligence Safety Institute - PAC-Med Critical - Erasmus MC - St. Antonius Ziekenhuis - OLVG
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:03,060 --> 00:00:05,800
Hoi en welkom bij de korte aflevering van AIToday Live.
2
00:00:06,060 --> 00:00:07,660
Mijn naam Joop Snijder, CTO van Aigency.
3
00:00:08,480 --> 00:00:14,220
En vandaag wil ik je meenemen in een artikel wat ik heb gelezen in Wired.
4
00:00:14,410 --> 00:00:16,160
Met best wel een verontrustende titel.
5
00:00:16,760 --> 00:00:19,900
En in het Nederlands vertaald is die titel.
6
00:00:20,040 --> 00:00:26,160
Onder Trump moeten AI wetenschappers ideologische vooroordelen uit krachtige modellen verwijderen.
7
00:00:26,600 --> 00:00:29,000
De link van het artikel staat trouwens in de show notes.
8
00:00:29,700 --> 00:00:34,240
En dit artikel belicht een zorgwekkende verschuiving in het Amerikaanse AI-beleid.
9
00:00:34,760 --> 00:00:40,960
Die me aan het denken zetten over de verschillende wegen die landen bewandelen op het gebied van verantwoorde AI.
10
00:00:42,320 --> 00:00:45,600
En in deze aflevering wil ik niet alleen de Amerikaanse situatie bespreken.
11
00:00:45,670 --> 00:00:49,240
Maar ook hoe dit contrasteert met de Chinese aanpak.
12
00:00:49,780 --> 00:00:54,720
En waarom ik steeds meer waardering krijg juist voor de Europese benadering van AI-regulering.
13
00:00:55,520 --> 00:01:03,120
Ik zou je meenemen in deze mondiale strijd om AI ontwikkeling en hoe verschillende ideologieën en belangen hier een rol in spelen.
14
00:01:03,740 --> 00:01:10,700
Laten we beginnen in de Verenigde Staten, waar de term Responsible AI momenteel echt onder vuur ligt.
15
00:01:11,360 --> 00:01:17,440
Volgens het genoemde Wyatt artikel heeft het National Institute of Standards and Technology, kortweg NIST,
16
00:01:18,060 --> 00:01:30,060
Wetenschappers van het Amerikaanse Artificial Intelligence Safety Institute geïnstrueerd om termen als AI-veiligheid, verantwoordelijke AI en AI-rechtvaardigheid uit hun doelstellingen te schrappen.
17
00:01:30,980 --> 00:01:37,580
In plaats daarvan ligt de nadruk nu op het verminderen van wat zij noemen ideologische vooringenomenheid.
18
00:01:38,040 --> 00:01:43,020
En het prioriteren van de Amerikaanse economische concurrentiepositie.
19
00:01:43,760 --> 00:01:48,860
Is nogal wat toch? Want dit is een radicale verandering ten opzichte van de vorige koers.
20
00:01:48,910 --> 00:01:54,920
Die juist was gericht op het ontwikkelen van tools om discriminerend gedrag te identificeren en tegen te gaan.
21
00:01:55,800 --> 00:01:57,920
Evenals het aanpakken van desinformatie.
22
00:01:58,540 --> 00:02:07,860
Wat mij hieraan zo verontrust is dat deze verschuiving potentieel kan leiden tot meer discriminerende, onveilige en onverantwoorde AI implementaties.
23
00:02:08,360 --> 00:02:17,980
Het is alsof je besluit om in je auto te gaan rijden zonder veiligheidsgordels en zonder remmen alleen maar omdat die je snelheid beperken.
24
00:02:18,800 --> 00:02:22,780
En natuurlijk kun je dan harder gaan, maar de risico's nemen fors toe toch?
25
00:02:25,040 --> 00:02:31,760
Laten we nu eens kijken naar China, waar het AI bedrijf DeepSeek onlangs zijn R1 model heeft geïntroduceerd.
26
00:02:32,380 --> 00:02:38,980
Dit model biedt geavanceerde capaciteiten tegen lagere kosten en wordt snel geïntegreerd in diverse sectoren binnen China.
27
00:02:39,840 --> 00:02:44,420
Dan moet je denken van de auto-industrie tot de medische sector en zelfs overheidsinstanties.
28
00:02:45,080 --> 00:02:49,260
De snelle adoptie van dit model wordt in China gezien als een teken van nationale trots.
29
00:02:49,760 --> 00:02:56,700
Een symbool van China's vooruitgang op het gebied van AI, ondanks de internationale geopolitieke beperkingen.
30
00:02:57,360 --> 00:03:01,340
Het lijkt de Chinese versie van het Amerikaanse Silicon Valley succesverhaal.
31
00:03:02,200 --> 00:03:04,340
Maar er schuilt een addertje onder het gras.
32
00:03:04,950 --> 00:03:09,000
Er zijn namelijk serieuze zorgen over de invloed van de Chinese overheid op diep ziek.
33
00:03:09,200 --> 00:03:14,340
Het model past censuur toe op onderwerpen die politiek gevoelig zijn voor de Chinese regering.
34
00:03:14,820 --> 00:03:23,440
Zoals we toen bij de introductie allemaal hebben gezien rondom het Tiananmen Square protesten van 1989 en de mensenrechten situatie in China.
35
00:03:24,140 --> 00:03:26,800
Daar geeft dit model niet graag antwoord op.
36
00:03:27,560 --> 00:03:34,940
Dit roept vragen op over de onafhankelijkheid van het model en de mogelijke verspreiding van staatspropaganda via AI-technologie.
37
00:03:36,000 --> 00:03:41,300
Hier is het weer alsof je een zelfrijdende auto hebt die weigert naar bepaalde bestemmingen te rijden.
38
00:03:41,780 --> 00:03:45,020
En niet omdat die onveilig zijn, maar omdat ze gewoon politiek gevoelig liggen.
39
00:03:47,260 --> 00:03:53,240
En dan is er Europa, waar ik eigenlijk best wel met groeiende bewondering naar kijk.
40
00:03:53,620 --> 00:04:07,900
De Europese Unie heeft een proactieve benadering aangenomen om kunstmatige intelligentie op een verantwoorde en ethische manier te ontwikkelen met speciale aandacht voor het voorkomen van discriminatie en juist het beschermen van fundamentele rechten.
41
00:04:09,060 --> 00:04:15,400
Al in 2019 onderschreven wij als organisatie de ethische richtlijnen voor betrouwbare AI van de Europese Commissie.
42
00:04:16,040 --> 00:04:19,480
Want deze richtlijnen zijn opgesteld door een diverse groep experts uit de EU.
43
00:04:20,160 --> 00:04:25,040
En definiëren zeven vereisten waaraan betrouwbare AI moet voldoen.
44
00:04:25,340 --> 00:04:34,900
Denk aan menselijk toezicht, technische veiligheid, privacy, transparantie, nondiscriminatie, maatschappelijk werkwelzijn en verantwoording.
45
00:04:35,280 --> 00:04:36,580
Wie wil dat nou niet, toch?
46
00:04:37,580 --> 00:04:48,460
Het is alsof Europa heeft gezegd, ja, we willen ook snelle krachtige auto's, maar ze moeten wel veiligheidsgordels hebben, ABS, airbags en ze moeten door alle bestuurders gebruikt kunnen worden.
47
00:04:48,950 --> 00:04:50,580
Niet alleen door een bevoorrechte elite.
48
00:04:51,490 --> 00:04:57,760
En wat mij betreft is de kroon op het werk is dan dus ook die Europese AI verordening, oftewel de AI Act.
49
00:04:58,440 --> 00:05:06,860
Deze wet volgt een risicogebaseerde aanpak en categoriseert AI systemen in verschillende niveaus, elk met eigen regels en beperkingen.
50
00:05:09,600 --> 00:05:20,580
En wat mij zo aanspreekt in deze aanpak is dat het niet gaat om het afremmen van innovatie, maar om het waarborgen dat deze innovatie ten goede komt aan iedereen en niemand schaadt.
51
00:05:20,700 --> 00:05:25,720
Het is geen remblok, maar eerder een kompas dat richting geeft aan verantwoorde ontwikkeling.
52
00:05:26,980 --> 00:05:32,380
En dat dit kompas daadwerkelijk werkt in de praktijk zien we aan concrete voorbeelden in Nederland.
53
00:05:33,060 --> 00:05:39,900
Wat op papier misschien restrictief lijkt, blijkt in de werkelijkheid juist innovatie te stimuleren.
54
00:05:40,330 --> 00:05:42,880
Laat me dit illustreren met een veelzeggend voorbeeld.
55
00:05:44,040 --> 00:05:53,440
Pac-Med Critical is ontwikkeld in het Amsterdam UMC en laat zien hoe de Europese regelgeving tot hoogwaardige AI innovatie leidt.
56
00:05:53,920 --> 00:05:59,180
Dit systeem helpt intensivisten op de IC bij een cruciale beslissing.
57
00:05:59,840 --> 00:06:03,740
En wanneer kan een IC-patiënt veilig naar een verpleegafdeling?
58
00:06:04,240 --> 00:06:04,800
Belangrijke vraag.
59
00:06:05,560 --> 00:06:09,580
Het is geen experimenteel project, maar een volwaardig medisch hulpmiddel.
60
00:06:10,480 --> 00:06:13,140
Officieel gecertificeerd door de Europese autoriteiten.
61
00:06:13,800 --> 00:06:19,580
En deze certificering, in plaats van een hindernis, wordt dan een kwaliteitstempel.
62
00:06:19,840 --> 00:06:21,420
Dat deuren opent.
63
00:06:21,920 --> 00:06:25,340
Inmiddels gebruiken namelijk vooraanstaande ziekenhuizen zoals het Erasmus MC,
64
00:06:26,220 --> 00:06:28,860
Sint-Antoniën ziekenhuis en het OVG, het systeem.
65
00:06:29,840 --> 00:06:35,760
En juist de hoge eisen voor veiligheid en transparantie creëerden het vertrouwen dat nodig was voor brede adoptie.
66
00:06:36,280 --> 00:06:44,300
Het systeem werkt als een intelligente assistent die patronen herkent in duizenden patiëntgegevens om het risico op heropname te voorspellen.
67
00:06:44,980 --> 00:06:48,060
En daarmee vervangt het artsen niet, maar versterkt het een besluitvorming.
68
00:06:48,640 --> 00:06:52,280
Precies de mensgerichte benadering die Europa voorstaat.
69
00:06:53,120 --> 00:07:04,820
Het resultaat, minder onnodige heropnames, efficiënter gebruik van de schaarste IC-bedden en meer tijd voor artsen om zich te richten op patiëntenzorg.
70
00:07:06,140 --> 00:07:09,560
Dit voorbeeld toont wat mij betreft de kracht van de Europese formule.
71
00:07:10,320 --> 00:07:16,120
Creëer een kader dat zorgt voor betrouwbare AI en je stimuleert precies het soort innovatie dat we willen.
72
00:07:16,660 --> 00:07:21,920
Namelijk technologie die menselijke waarden centraal stelt en concrete problemen oplost.
73
00:07:22,220 --> 00:07:28,660
Het is geen toeval dat dit succesvolle systeem ontstond door intensieve samenwerking tussen AI experts en zorgprofessionals.
74
00:07:29,500 --> 00:07:35,040
Dat is juist kenmerk denk ik voor de Nederlandse implementatie van de Europese visie.
75
00:07:37,560 --> 00:07:40,480
Maar goed, wat betekent dit dan richting de toekomst?
76
00:07:40,490 --> 00:07:46,600
Want als we de verschillende benaderingen vergelijken, zie ik wel een duidelijke opdeling ontstaan in de wereld van AI.
77
00:07:47,020 --> 00:07:57,000
Aan de ene kant heb je de Amerikaanse aanpak die nu steeds meer neigt naar deregulering en het prioriteren van economische belangen boven ethische overwegingen.
78
00:08:00,060 --> 00:08:03,140
China staat eigenlijk helemaal aan de andere kant.
79
00:08:03,160 --> 00:08:08,760
Die volgt een weg waarbij technologische vooruitgaan, hand in hand gaat met staatsinvloed en controle.
80
00:08:10,040 --> 00:08:13,140
En daartussenin heb je denk ik de Europese benadering.
81
00:08:13,220 --> 00:08:16,440
En die streeft naar een balans tussen innovatie en verantwoordelijkheid.
82
00:08:17,840 --> 00:08:18,900
en de vraag is niet
83
00:08:19,260 --> 00:08:20,680
welk model zal winnen
84
00:08:21,100 --> 00:08:23,540
ze zullen echt waarschijnlijk wel naast elkaar blijven bestaan
85
00:08:23,720 --> 00:08:26,120
daar twijfel ik niet aan
86
00:08:26,580 --> 00:08:27,740
de echte vraag is
87
00:08:27,940 --> 00:08:29,440
welk model het beste zal zijn
88
00:08:29,830 --> 00:08:30,920
voor ons als geheel
89
00:08:31,160 --> 00:08:32,440
niet alleen op de korte termijn
90
00:08:32,669 --> 00:08:33,719
maar ook op de lange termijn
91
00:08:34,419 --> 00:08:36,780
ik geloof oprecht dat de Europese aanpak
92
00:08:36,789 --> 00:08:38,659
met een nadruk op ethiek, mensenrechten
93
00:08:38,960 --> 00:08:40,880
en inclusiviteit de beste kaart heeft
94
00:08:41,599 --> 00:08:43,280
niet omdat het het snelste
95
00:08:44,080 --> 00:08:46,440
of meest winstgevende aanpak is
96
00:08:46,600 --> 00:08:51,040
Maar omdat het de meest duurzame en meest menselijke aanpak is.
97
00:08:51,560 --> 00:08:56,220
Als we AI ontwikkelen die discrimineert, die onveilig is of die fundamentele rechten schendt.
98
00:08:56,660 --> 00:09:01,120
Creëren we een technologie die uiteindelijk tegen ons zal werken en niet voor ons.
99
00:09:02,060 --> 00:09:05,380
En als we AI ontwikkelen die transparant, inclusief en rechtvaardig is.
100
00:09:05,880 --> 00:09:09,280
Bouwen we aan een toekomst waarin technologie daadwerkelijk bijdraagt aan het welzijn van iedereen.
101
00:09:10,840 --> 00:09:21,620
Dus als we dit samenvatten, heb ik vandaag gesproken over de verschillende benaderingen van AI regulering wereldwijd en waarom ik geloof in de Europese aanpak van verantwoordelijke AI.
102
00:09:22,960 --> 00:09:25,920
En wat kun je nu als luisteraar hiermee doen?
103
00:09:26,280 --> 00:09:31,400
Ik zou willen voorstellen dat je je verdiept in wat verantwoordelijke AI inhoudt voor jouw specifieke context.
104
00:09:32,120 --> 00:09:36,760
Of je nu een ontwikkelaar bent, een beslisser of gewoon iemand die AI tools gebruikt.
105
00:09:37,180 --> 00:09:42,120
vraag je eens af, bevordert deze technologie inclusiviteit, transparantie en rechtvaardigheid
106
00:09:42,860 --> 00:09:45,640
of versterkt het bestaande ongelijkheden en risico's?
107
00:09:47,540 --> 00:09:50,300
Dit was het weer voor vandaag. Dank je wel voor het luisteren.
108
00:09:51,380 --> 00:09:54,720
Vergeet niet eventjes de linkjes te bekijken in de show notes.
109
00:09:55,190 --> 00:09:59,760
Daar staat van alles over de cases die ik genoemd heb en het artikel van Wired.
110
00:10:00,540 --> 00:10:05,680
Maar bedenk sowieso, AI is niet de oplossing voor elk probleem, maar onmisbaar waar het past.
111
00:10:06,680 --> 00:10:08,080
Dankjewel, tot de volgende keer.