
AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S05E76 - De impact van de nieuwe EU AI Act
In deze aflevering van AIToday Live staat de EU AI Act centraal, waarbij de implicaties van deze nieuwe wetgeving op het gebied van kunstmatige intelligentie worden besproken. Joop Snijder, CTO bij Aigency, doorgrondt de betekenis van deze baanbrekende Europese wet voor consumenten en bedrijven.
AigencyAigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:03,000
[muziek]
2
00:00:03,000 --> 00:00:06,500
Hoi, je luistert naar AIToday Live, de korte aflevering.
3
00:00:06,500 --> 00:00:09,000
Mijn naam is Joop Snijder, CTO bij Aigency.
4
00:00:09,000 --> 00:00:12,000
Voor deze keer moest ik een keuze maken.
5
00:00:12,000 --> 00:00:17,500
Ga ik jullie bijpraten over het nieuwe model van Google Gemini?
6
00:00:17,500 --> 00:00:22,000
Of zal ik kiezen voor het akkoord van de nieuwe EU AI Act?
7
00:00:22,000 --> 00:00:25,500
Nou, hoewel Google Gemini misschien meer sexy is,
8
00:00:25,500 --> 00:00:28,500
heb ik toch bewust gekozen voor de EU AI Act,
9
00:00:28,500 --> 00:00:31,500
omdat die namelijk veel belangrijker is en veel meer impact heeft.
10
00:00:31,500 --> 00:00:37,500
Gemini is een nieuw model van Google die ongeveer hetzelfde kan als GPT 3.5,
11
00:00:37,500 --> 00:00:42,000
waarvan de ultraversie, die net zo goed of ietsje beter zou moeten zijn,
12
00:00:42,000 --> 00:00:44,000
dan GPT 4.0 nog moet uitkomen.
13
00:00:44,000 --> 00:00:47,000
Dus ik heb niet gekozen voor de marketing van Google,
14
00:00:47,000 --> 00:00:50,000
maar een onderwerp dat ons allemaal raakt.
15
00:00:50,000 --> 00:00:54,000
Daarom bespreek ik de nieuwe EU AI Act wetgeving
16
00:00:54,000 --> 00:00:58,000
en wat dit betekent voor het gebruik van kunstmatige intelligentie in Europa.
17
00:00:58,000 --> 00:01:02,000
Na jaren van onderhandelingen is er nu een voorlopig akkoord bereikt
18
00:01:02,000 --> 00:01:05,000
over deze toch wel baanbrekende wetgeving,
19
00:01:05,000 --> 00:01:12,000
die als doel heeft om AI voor ons veilig, ethisch en gereguleerd te implementeren.
20
00:01:12,000 --> 00:01:16,000
Allereerst, wat houdt die AI Act nou in?
21
00:01:16,000 --> 00:01:22,000
De wet stelt nieuwe regels en vereisten voor zogenaamde hoogrisico AI-systemen.
22
00:01:22,000 --> 00:01:26,000
Dit zijn AI-toepassingen die een significant risico kunnen vormen
23
00:01:26,000 --> 00:01:30,000
voor de veiligheid of fundamentele rechten van ons als burger.
24
00:01:30,000 --> 00:01:37,000
Geschat wordt dat ongeveer zo'n 15% van alle AI-systemen onder deze risicoclasse valt.
25
00:01:37,000 --> 00:01:43,000
Voor de echt grote AI-modellen komen aparte eisen en Europese toezicht.
26
00:01:43,000 --> 00:01:47,000
Denk bijvoorbeeld aan AI-systemen in zelfrijdende auto's,
27
00:01:47,000 --> 00:01:52,000
medische diagnoses, werving en selectie voor banen of kredietbeslissingen.
28
00:01:52,000 --> 00:01:56,000
Deze systemen zullen aan strengere eisen moeten voldoen
29
00:01:56,000 --> 00:01:59,000
voordat ze op de Europese markt gebracht mogen worden.
30
00:01:59,000 --> 00:02:03,000
De wet bevat ook een aantal expliciete verboden
31
00:02:03,000 --> 00:02:08,000
op bepaalde controversiële en voor ons onwenselijke vormen van AI,
32
00:02:08,000 --> 00:02:12,000
zoals real-time gezichtsherkenning in openbare ruimtes
33
00:02:12,000 --> 00:02:16,000
en social scoring waarbij je mensen een score geeft
34
00:02:16,000 --> 00:02:19,000
op basis van hun gedrag en persoonskenmerken.
35
00:02:19,000 --> 00:02:23,000
Een bekend voorbeeld van social scoring in bijvoorbeeld China
36
00:02:23,000 --> 00:02:27,000
is een sociaal kredietsysteem waarbij de overheid burgers een score geeft
37
00:02:27,000 --> 00:02:29,000
op basis van hun gedrag.
38
00:02:29,000 --> 00:02:32,000
Bijvoorbeeld hoe goed ze de verkeersregels naleven,
39
00:02:32,000 --> 00:02:35,000
of ze op tijd rekening betalen enzovoort.
40
00:02:35,000 --> 00:02:38,000
En deze, zeg maar, burgerscore, social score,
41
00:02:38,000 --> 00:02:42,000
bepaalt vervolgens de toegang die iemand heeft op bepaalde diensten en voorzieningen.
42
00:02:42,000 --> 00:02:48,000
Dit zijn belangrijke ethische barrières die in de wetgeving nu bij ons zijn verankerd
43
00:02:48,000 --> 00:02:50,000
en dus in Europa verboden worden.
44
00:02:50,000 --> 00:02:53,000
Lijkt me een prima uitgangspositie.
45
00:02:53,000 --> 00:02:56,000
Nou, aanbieders van chatbots in webwinkels,
46
00:02:56,000 --> 00:02:59,000
maar ook als je deepfake technieken gebruikt
47
00:02:59,000 --> 00:03:02,000
of generatieve AI-systemen zoals ChatGPT,
48
00:03:02,000 --> 00:03:07,000
die moeten ervoor zorgen dat het voor mensen duidelijk is dat ze met een AI praten
49
00:03:07,000 --> 00:03:09,000
of dat content door AI is gemaakt.
50
00:03:09,000 --> 00:03:13,000
AI-systemen met geen tot weinig risico voor mensen
51
00:03:13,000 --> 00:03:15,000
hoeven niet aan extra uitzetten te voldoen.
52
00:03:15,000 --> 00:03:18,000
Dit zijn bijvoorbeeld AI-systemen voor klantenservices,
53
00:03:18,000 --> 00:03:22,000
voorraadbeheer of laag risicodata.
54
00:03:22,000 --> 00:03:28,000
Dus als je Netflix'e aanbeveling misschien net even die verkeerde serie heeft aanbevolen,
55
00:03:28,000 --> 00:03:32,000
heeft dat niet zo'n hoog risico gehaald.
56
00:03:32,000 --> 00:03:36,000
Nou, wat ook interessant is, zijn de nieuwe regels
57
00:03:36,000 --> 00:03:41,000
voor zogenaamde, wat zij dan noemen, general-purpose AI-modellen.
58
00:03:41,000 --> 00:03:43,000
Zoals de chatbots en de taalmodellen
59
00:03:43,000 --> 00:03:47,000
en de grootste en meest geavanceerde varianten hiervan,
60
00:03:47,000 --> 00:03:50,000
ChatGPT, Googlebot, dat soort zaken.
61
00:03:50,000 --> 00:03:54,000
Hiervan zullen aanvullende eisen,
62
00:03:54,000 --> 00:03:56,000
zij zullen aan aanvullende eisen moeten voldoen
63
00:03:56,000 --> 00:04:00,000
op het gebied van veiligheid, nakeurigheid en transparantie.
64
00:04:00,000 --> 00:04:02,000
En dit kan uiteraard gevolgen hebben
65
00:04:02,000 --> 00:04:06,000
voor de ontwikkeling van dit soort AI-systemen door tech-giganten.
66
00:04:06,000 --> 00:04:10,000
Dus we moeten maar eens even kijken hoe zij daar uiteindelijk mee omgaan.
67
00:04:10,000 --> 00:04:12,000
Maar ik denk dat dat wel een hele goeie is,
68
00:04:12,000 --> 00:04:16,000
vooral veiligheid, transparantie. Ik ben voor.
69
00:04:16,000 --> 00:04:22,000
In de AI-Act is ook rekening gehouden met het behoud van innovatieruimte
70
00:04:22,000 --> 00:04:27,000
voor met name Europese start-ups en scale-ups die werken aan AI-systemen.
71
00:04:27,000 --> 00:04:30,000
Zo krijgen Europese bedrijven over het algemeen
72
00:04:30,000 --> 00:04:33,000
een iets lichtere set verplichtingen opgelegd dan niet-Europese partijen.
73
00:04:33,000 --> 00:04:36,000
En ook hoeven kleine start-up bedrijven, start-ups,
74
00:04:36,000 --> 00:04:39,000
zich voorlopig niet te houden aan de strengste regelgeving,
75
00:04:39,000 --> 00:04:44,000
die wel geldt voor de grootste en meest riscante AI-systemen.
76
00:04:44,000 --> 00:04:49,000
Pas wanneer hun systemen een significante impact gaan hebben op de maatschappij,
77
00:04:49,000 --> 00:04:52,000
zullen zij ook steeds aan meer vereisten moeten voldoen.
78
00:04:52,000 --> 00:04:55,000
Lijkt me op zich ook best wel heel erg logisch.
79
00:04:55,000 --> 00:05:00,000
Dus de Europese wetgevers hebben geprobeerd om een balans te vinden
80
00:05:00,000 --> 00:05:05,000
tussen consumentenbescherming en het faciliteren van verantwoorde AI-innovatie.
81
00:05:05,000 --> 00:05:09,000
Tegelijkertijd biedt de nieuwe regulering ook meer rechtszekerheid
82
00:05:09,000 --> 00:05:12,000
voor start-ups die met AI aan de slag willen binnen Europa,
83
00:05:12,000 --> 00:05:15,000
omdat nu die spelregels veel duidelijker zijn.
84
00:05:15,000 --> 00:05:19,000
Ik vind het belangrijk om te benadrukken dat deze AI-act
85
00:05:19,000 --> 00:05:24,000
slechts een eerste stap is in het reguleren van deze complexe technologie.
86
00:05:24,000 --> 00:05:28,000
Na de formele goedkeuring volgend jaar, ongeveer,
87
00:05:28,000 --> 00:05:33,000
zal de implementatie en handhaving van de wet de komende jaren centraal komen te staan.
88
00:05:33,000 --> 00:05:37,000
We kunnen dus nog veel jurisprudentie en aanpassingen verwachten,
89
00:05:37,000 --> 00:05:42,000
maar met dit, nou ja, toch wel unieke akkoord,
90
00:05:42,000 --> 00:05:48,000
toont Europa in ieder geval leiderschap in het vormgeven van verantwoorde en menselijke AI-systemen.
91
00:05:48,000 --> 00:05:52,000
Dus als we alles bij elkaar nemen, biedt de AI-act,
92
00:05:52,000 --> 00:05:56,000
dus enerzijds meer zekerheid voor burgers, consumenten,
93
00:05:56,000 --> 00:06:00,000
maar anderzijds ook voldoende innovatieruimte voor het bedrijfsleven.
94
00:06:00,000 --> 00:06:03,000
Ik denk een complex evenwicht, maar na jaren onderhandelen
95
00:06:03,000 --> 00:06:06,000
lijken we nu in ieder geval een werkbare balans gevonden te hebben.
96
00:06:06,000 --> 00:06:11,000
En ongetwijfeld zal de praktische uitwerking en implementatie van de wet
97
00:06:11,000 --> 00:06:14,000
de komende jaren nog de nodige voeten in aarde hebben.
98
00:06:14,000 --> 00:06:21,000
Maar Europa bewandelt met deze AI-act grotendeels onbekend terrein van technologieregulering.
99
00:06:21,000 --> 00:06:23,000
Dus daar moeten we wel rekening mee houden.
100
00:06:23,000 --> 00:06:27,000
En niet onbelangrijk, het akkoord moet nog wel worden goedgekeurd
101
00:06:27,000 --> 00:06:30,000
door alle EU-lidstaten en het hele Europees parlement.
102
00:06:30,000 --> 00:06:37,000
Dus de wet treedt naar zo'n twee jaar inwerking na dat akkoord.
103
00:06:37,000 --> 00:06:43,000
Klinkt misschien nog best wel lang, maar als je nu begint met het ontwikkelen van AI-systemen,
104
00:06:43,000 --> 00:06:47,000
kun je alvast rekening houden met deze wetgeving, want ik ga ervan uit
105
00:06:47,000 --> 00:06:51,000
dat je systeem wel de aankomende jaren wilt blijven gebruiken.
106
00:06:51,000 --> 00:06:53,000
En dan gaat die onder deze wetgeving vallen.
107
00:06:56,000 --> 00:07:02,000
Vind je deze content nou leuk? Deel hem dan met vrienden, collega's, familie.
108
00:07:02,000 --> 00:07:08,000
En tegenwoordig hebben we een exclusieve nieuwsbrief voor onze luisteraars.
109
00:07:08,000 --> 00:07:11,000
Link kun je vinden in de show notes.
110
00:07:11,000 --> 00:07:16,000
[Muziek]
111
00:07:16,000 --> 00:07:36,400