AIToday Live
AIToday Live deelt praktijkverhalen over AI die je direct vooruit helpen in je werk. In een wereld waar AI-ontwikkelingen elkaar razendsnel opvolgen, kiezen wij bewust voor verdieping en praktijkervaring. We bieden een kalm kompas in turbulente tijden.
In deze podcast hoor je professionals uit Nederland en België die openhartig vertellen over hun ervaringen met AI-implementaties. Voorbij de hype en krantenkoppen laten zij zien hoe organisaties écht met AI werken.
Onze gasten delen hun successen én uitdagingen op een toegankelijke manier.
Daarmee helpen we jou om:
- Praktische inzichten te krijgen in wat AI wel en niet kan
- Te leren van de ervaringen van andere professionals
- Concrete ideeën op te doen voor je eigen organisatie
- De grotere lijnen te zien in AI-ontwikkelingen
Iedere maandag een diepgaand gesprek met een gast, gepresenteerd door Joop Snijder (CTO Aigency) en Niels Naglé (Info Support). Elke donderdag deelt Joop in een korte aflevering zijn eigen praktijkervaringen en inzichten.
"AIToday Live is twee keer genomineerd voor 'De Prijs van Oranje' door de Belgian Podcast Awards en staat op nummer 1 in de lijst van Zomerse luister-inspiratie: podcasts over AI, productiviteit, SEO & meer (Frankwatching, juni 2024)."
Ontdek hoe andere professionals AI succesvol inzetten. Ontvang ook exclusieve content, kijk achter de schermen en blijf op de hoogte van nieuwe gasten via onze nieuwsbrief: https://aitodaylive.substack.com
AIToday Live
S05E51 - Oproep aan politieke partijen over visie AI door Bennie Mols
In deze aflevering van AIToday Live hebben we Bennie Mols te gast. Bennie is auteur van het boek "Slim, Slimmer, Slimst" en een gerenommeerd wetenschapsjournalist. Hij schrijft onder andere voor NRC Handelsblad en geeft lezingen over kunstmatige intelligentie (AI). Onlangs heeft Bennie een brief geschreven naar alle politieke partijen in Nederland, waarin hij hen oproept om na te denken over een visie op AI en concrete actiepunten te formuleren. Deze brief heeft hij geschreven met Jim Stolze, Jarno Duursma en Kees Verhoeven.
Bennie benadrukt het belang van een goed begrip van AI onder burgers en waar het wel en niet voor kan worden gebruikt. Hij pleit voor meer mensgericht AI-onderzoek en de samenwerking tussen wetenschappers, bedrijven en maatschappelijke organisaties. Ook is hij positief over de ontwikkeling van de AI Act op Europees niveau, omdat dit zal zorgen voor regelgeving rondom AI-producten en -diensten.
Links
- -Boek: "Slim, Slimmer, Slimst" door Bennie Mols: [https://www.bol.com/nl/nl/f/pocket-science-20-slim-slimmer-slimst/9300000144908044/]
- Bas Haring's boek 'Kunstmatige Intelligentie is niet eng: [https://www.bol.com/nl/nl/p/kunstmatige-intelligentie-is-niet-eng/9300000111911545/?bltgh=j7EvSYSs2TkqvEeDI4VCnA.l4BkRc5gpWgu9kOhE-lPPw_0_10.22.ProductTitle]
- Nationale AI cursus: [https://www.ai-cursus.nl/]
Aigency ontwerpt en ontwikkelt waardevolle, robuuste en betrouwbare Machine Learning-modellen.
Info Support
Info Support is de specialist in maatwerk software en leidend in kunstmatige intelligentie (AI).
Disclaimer: This post contains affiliate links. If you make a purchase, I may receive a commission at no extra cost to you.
Schrijf je in voor onze nieuwsbrief en ontvang exclusieve toegang tot nieuws, blik achter de schermen en meer!
1
00:00:00,000 --> 00:00:05,320
Leuk dat je weer luistert naar een nieuwe aflevering van de AI Today Live.
2
00:00:05,320 --> 00:00:07,920
We hebben vandaag Bennie Mols weer in de studio.
3
00:00:07,920 --> 00:00:12,720
Bennie is de auteur van het boek Slim, Slimmer, Slimst.
4
00:00:12,720 --> 00:00:14,800
Heb je het boek nog niet gelezen, ga dat doen.
5
00:00:14,800 --> 00:00:18,560
Heb je de podcast aflevering nog niet geluisterd, deel 1 hiervan.
6
00:00:18,560 --> 00:00:20,120
Doe dat eerst.
7
00:00:20,120 --> 00:00:25,160
Mijn naam is Joop Snijder, CTO bij Aigency.
8
00:00:25,160 --> 00:00:28,040
Mijn naam Niels Naglé, chapter lead Data & AI bij Info Support.
9
00:00:28,040 --> 00:00:32,640
Bennie, dankjewel dat je te gast wil zijn in de podcast.
10
00:00:32,640 --> 00:00:37,880
Voor de mensen die deel 1 nog niet gehoord hebben, zou je jezelf nog even willen voorstellen?
11
00:00:37,880 --> 00:00:43,040
Ja, ik ben Bennie Mols, wetenschapsjournalist, freelance wetenschapsjournalist moet ik zeggen.
12
00:00:43,040 --> 00:00:47,440
En sinds 2010 hou ik me heel veel bezig met AI en robotica.
13
00:00:47,440 --> 00:00:49,440
Ik schrijf onder andere voor NRC Handelsblad.
14
00:00:49,440 --> 00:00:53,440
Ik heb een aantal jaren veel gewerkt voor de publieke omroep.
15
00:00:53,440 --> 00:00:56,440
Ik schrijf artikelen, ik geef lezingen over AI.
16
00:00:56,440 --> 00:01:03,040
En ik heb twee maanden geleden, eind mei, een boekje Slim Slimmer Slimst geschreven.
17
00:01:03,040 --> 00:01:11,440
Voor een heel breed publiek een introductie in wat AI kan, wat het niet kan en hoe we tot een optimale samenwerking tussen mens en AI kunnen komen.
18
00:01:11,440 --> 00:01:19,240
Ja en rondom die optimale samenwerking, daar zijn natuurlijk best wel heel veel vraagstukken op.
19
00:01:19,240 --> 00:01:25,040
Van waar gaat het naartoe, hoe ontwikkelt de technologie zich.
20
00:01:25,040 --> 00:01:31,400
Waarbij de vraag is van, moeten we dingen misschien reguleren, verbieden, inperken, dat soort zaken.
21
00:01:31,400 --> 00:01:36,840
Daarvoor heb jij een brief naar alle politieke partijen geschreven, toch?
22
00:01:36,840 --> 00:01:43,240
Ja, ik moet zeggen dat ik dat samen heb gedaan met Kees Roeve, oud-Kamerlid voor D66.
23
00:01:43,240 --> 00:01:47,640
En ook degene die binnen de Tweede Kamer de Commissie Digitale Zaken heeft opgezet.
24
00:01:47,640 --> 00:01:51,760
Jarno Duursma, technologie-expert, spreker en Jim Stolze.
25
00:01:51,760 --> 00:01:54,880
Waarschijnlijk zijn jullie luisteraars ook heel goed bekend.
26
00:01:54,880 --> 00:01:56,080
Zeker, zeker.
27
00:01:56,080 --> 00:02:01,480
Jim is de oprichter van Aigency, waar wij nu schatplichtig aan zijn.
28
00:02:01,480 --> 00:02:04,080
Toen ik mijn boekje had geschreven, zei de uitgever al,
29
00:02:04,080 --> 00:02:07,920
wat zou het mooi zijn als elk Kamerlid een boekje zou kunnen krijgen.
30
00:02:07,920 --> 00:02:14,480
Na wat overleg met Jarno en Kees kwamen we erop uit dat het een goed idee zou zijn
31
00:02:14,480 --> 00:02:19,480
om naar de verkiezingscommissies van elke politieke partij die nu in de Kamer zit
32
00:02:19,480 --> 00:02:25,480
een brief te sturen om ze op te roepen tot actie en een boekje, want die
33
00:02:25,480 --> 00:02:29,480
verkiezingscommissies die zijn nu bezig om een nieuw partijprogramma op te zetten.
34
00:02:29,480 --> 00:02:35,480
Dus wij hebben twee weken geleden inderdaad een brief gezamenlijk opgesteld, opgestuurd, met mijn boekje erbij.
35
00:02:35,480 --> 00:02:42,480
Eigenlijk met de oproep van "hé AI is van het lab in de samenleving gerold,
36
00:02:42,480 --> 00:02:49,880
Denk als politieke partij na over een visie op wat Nederland met AI zou moeten doen.
37
00:02:49,880 --> 00:02:53,480
Dus dat is de oproep en we hebben een aantal actiepunten daarbij geformuleerd.
38
00:02:53,480 --> 00:02:56,680
Voordat we naar die actiepunten gaan, want die vind ik wel heel erg interessant.
39
00:02:56,680 --> 00:03:01,880
Hoe verhoudt zich dit tot de ontwikkeling die op Europees niveau nu plaatsvindt?
40
00:03:01,880 --> 00:03:03,880
Er komt een nieuwe AI Act, komt er aan.
41
00:03:03,880 --> 00:03:09,280
Hoe verhoudt deze oproep zich tot dat Europese initiatief?
42
00:03:09,280 --> 00:03:15,520
Ik zou zeggen dat de oproep is breder in die zin dat de AI-act gaat over regelgeving.
43
00:03:15,520 --> 00:03:19,840
Dus waar moet een AI-product straks aan voldoen?
44
00:03:19,840 --> 00:03:26,160
Nederland, wanneer dat wordt aangenomen, die AI-act, zou volgens mij begin volgend jaar gebeuren.
45
00:03:26,160 --> 00:03:30,000
Dan hebben bedrijven nog twee jaar de tijd om zich daar aan te passen.
46
00:03:30,000 --> 00:03:31,680
Maar goed, dan geldt het ook in Nederland.
47
00:03:31,680 --> 00:03:34,720
Maar dat is dan alleen regelgeving.
48
00:03:34,720 --> 00:03:42,000
Onze brief is meer, namelijk ook oproepen tot, probeer burgers nou te stimuleren op
49
00:03:42,000 --> 00:03:45,600
een of andere manier, via een AI-cursus, via mijn boek, via andere manieren.
50
00:03:45,600 --> 00:03:52,600
Dat in ieder geval elke burger een globaal idee heeft van wat AI wel en niet goed kan
51
00:03:52,600 --> 00:03:55,800
en waar je het voor zou kunnen gebruiken.
52
00:03:55,800 --> 00:04:01,560
Ook om op te roepen tot AI-onderzoek dat echt mensgericht is.
53
00:04:01,560 --> 00:04:06,820
Het uitgangspunt zou niet moeten zijn van hoe kan AI mensen vervangen?
54
00:04:06,820 --> 00:04:11,100
Nee, het uitgangspunt moet zijn van, we hebben een mensensamenleving,
55
00:04:11,100 --> 00:04:13,700
hoe kan AI ons als mensen aanvullen?
56
00:04:13,700 --> 00:04:17,500
Heb je daar voorbeelden van, van hoe AI een mens zou kunnen aanvullen?
57
00:04:17,500 --> 00:04:22,140
Welk voorbeeld? Ja, er zijn een heleboel voorbeelden.
58
00:04:22,140 --> 00:04:26,060
Maar laat ik het voorbeeld geven van mijn eigen moeder.
59
00:04:26,060 --> 00:04:28,700
Je had dat in een eerdere podcast over jouw moeder.
60
00:04:28,700 --> 00:04:33,700
Mijn moeder is 79 en die is dementerende.
61
00:04:33,700 --> 00:04:38,700
En ik dacht van, goh, hoe kan ik haar nou op een of andere manier met AI ondersteunen?
62
00:04:38,700 --> 00:04:41,700
Een van de dingen die ik bijvoorbeeld elke ochtend om half 9 bel ik haar,
63
00:04:41,700 --> 00:04:44,700
om haar te helpen herinneren aan het innemen van een pilletje.
64
00:04:44,700 --> 00:04:50,700
En ik dacht, ja, er zijn simpele robotjes die zij in huis kan nemen.
65
00:04:50,700 --> 00:04:53,700
En ik kan dat robotje programmeren om om half 9 te zeggen van,
66
00:04:53,700 --> 00:04:56,700
maar, tring tring, tijd voor je pilletje.
67
00:04:56,700 --> 00:04:59,700
Dus ik dacht, ik ga dat gewoon aan mijn moeder vragen.
68
00:04:59,700 --> 00:05:02,700
Van gewoon weet je, maar er is zo'n oplossing.
69
00:05:02,700 --> 00:05:04,700
Ik kan je ook bellen.
70
00:05:04,700 --> 00:05:07,700
Wat denk je? Nee, nee, nee, ik wil dat je belt.
71
00:05:07,700 --> 00:05:08,700
Ik wil dat je belt.
72
00:05:08,700 --> 00:05:10,700
En toen dacht je, ja, natuurlijk.
73
00:05:10,700 --> 00:05:12,700
Ik bedoel, zij wil...
74
00:05:12,700 --> 00:05:14,700
Ik ben haar zoon.
75
00:05:14,700 --> 00:05:17,700
Die biologische band die heeft geen enkel AI systeem.
76
00:05:17,700 --> 00:05:22,700
Aan haar stem kan ik elke ochtend al horen hoe de vlag erbij hangt.
77
00:05:22,700 --> 00:05:25,700
Dus nee, in dit geval heb ik geen AI nodig.
78
00:05:25,700 --> 00:05:31,500
geen robot nodig. Aan de andere kant, zij heeft heel veel moeite met bedenken welke
79
00:05:31,500 --> 00:05:36,060
dag van de week het is, welk dagdeel. Dus ik heb haar wel een digitale klok gekocht.
80
00:05:36,060 --> 00:05:40,820
Dat is dan weliswaar geen AI, maar wel een digitaal product. En op die klok staat heel
81
00:05:40,820 --> 00:05:46,100
duidelijk, het is vandaag woensdag, het is middag, dit is de datum, dit is de tijd.
82
00:05:46,100 --> 00:05:49,740
Dat is een hele simpele oplossing die zij kan gebruiken.
83
00:05:49,740 --> 00:05:50,380
Mooi.
84
00:05:50,380 --> 00:05:53,820
Zij heeft een papieren agenda, maar ze wist op een gegeven moment gewoon helemaal niet meer
85
00:05:53,820 --> 00:05:58,940
welke dag van de week het was. Dus dit is een digitale oplossing die dat probleem in ieder
86
00:05:58,940 --> 00:06:04,620
geval voor haar oplost, maar een ander probleem dat kan ik beter oplossen, omdat ik die band met
87
00:06:04,620 --> 00:06:10,740
haar heb, omdat ik weet ze wil die van mijn stem horen dan een robot stem. Ja precies, dat je verschil
88
00:06:10,740 --> 00:06:17,820
maakt tussen waar is menselijk contact eigenlijk de meerwaarde en waar kan technologie, waar menselijk
89
00:06:17,820 --> 00:06:23,540
contact eigenlijk van geen allerlei belang is, kan je dat door de technologie laten oplossen.
90
00:06:23,540 --> 00:06:29,780
En zelfs wanneer je een AI systeem zou hebben dat inderdaad heel goed om half negen kan zeggen
91
00:06:29,780 --> 00:06:34,660
ma neemt een pilletje en de stem is allemaal perfect, kan mijn stem desnoods zijn.
92
00:06:34,660 --> 00:06:40,660
Dan zal zij toch de voorkeur geven aan dat ik live ben en dat zij weet dat ik het ben.
93
00:06:40,660 --> 00:06:46,180
En dat is wat ik bedoel te zeggen, sommige dingen willen wij als mensen blijven doen,
94
00:06:46,180 --> 00:06:53,900
ook wanneer AI ze zou kunnen doen. Maar voor andere zaken kun je beter een AI-systeem hebben
95
00:06:53,900 --> 00:07:00,780
die het probleem oplost, omdat het voor mensen te veel werk is, te smerig werken, je moet je te
96
00:07:00,780 --> 00:07:08,340
veel concentreren, weet ik wat. Ja, duidelijk. En de vier actiepunten die jullie hebben,
97
00:07:08,340 --> 00:07:13,580
zou je die eens kunnen toelichten? Zeker, ja. Ik zal de brief voor zelf ook even pakken.
98
00:07:13,580 --> 00:07:14,580
Ja, natuurlijk.
99
00:07:14,580 --> 00:07:20,260
We hebben er inderdaad vijf. Eentje is stimuleer AI-educatie op alle niveaus.
100
00:07:20,260 --> 00:07:22,020
Daar hadden we het al kort over.
101
00:07:22,020 --> 00:07:26,220
Ik merk gewoon heel vaak wanneer ik op een feestje ben,
102
00:07:26,220 --> 00:07:31,100
dat mensen horen van oké, je schrijft over AI, je praat over AI.
103
00:07:31,100 --> 00:07:32,460
Moet ik me zorgen maken?
104
00:07:32,460 --> 00:07:34,460
Ja, dat horen wij ook constant.
105
00:07:34,460 --> 00:07:36,380
Ik werk in het onderwijs, ik doe dit.
106
00:07:36,380 --> 00:07:40,700
Ik gaf een lezing een tijdje geleden bij een data consultant.
107
00:07:41,380 --> 00:07:46,500
En na afloop van die lezing kwam er een meisje naar mij toe die daar in de horeca werkte.
108
00:07:46,500 --> 00:07:48,700
Die had mijn lezing gehoord.
109
00:07:48,700 --> 00:07:49,700
Dat is gewoon interessant.
110
00:07:49,700 --> 00:07:54,420
Ze zei van, weet je, ik ben eerstejaars geschiedenisstudent en ik maak mij serieus zorgen.
111
00:07:54,420 --> 00:07:57,740
Ik hoor allemaal studenten om zich heen die zich serieus zorgen maken.
112
00:07:57,740 --> 00:08:01,620
Zijn wij straks nog relevant met die Chad Jeep die ze allemaal ontwikkelen.
113
00:08:01,620 --> 00:08:04,180
Voor dat soort mensen is ook mijn boekje.
114
00:08:04,180 --> 00:08:07,260
En voor dat soort mensen is ook die oproep.
115
00:08:07,260 --> 00:08:13,620
Ik denk dat het gewoon belangrijk is dat burgers een globaal idee hebben over wat AI is.
116
00:08:13,620 --> 00:08:14,860
Daar staat dat eerste actiepunt.
117
00:08:14,860 --> 00:08:16,220
En je hoeft geen expert te worden.
118
00:08:16,220 --> 00:08:19,820
We hebben het in een korte aflevering gehad over...
119
00:08:19,820 --> 00:08:24,500
Er is een bepaalde mist waar je niet doorheen kan kijken.
120
00:08:24,500 --> 00:08:25,780
Dat was analogie gebruikt.
121
00:08:25,780 --> 00:08:30,780
En er zijn best wel middelen die je, zonder dat je daar heel diep in hoeft te duiken...
122
00:08:30,780 --> 00:08:35,660
Dus je kan jouw boekje lezen, je kan naar de nationale AI cursus, die is gratis.
123
00:08:35,660 --> 00:08:45,260
Kan je helpen om die mist te laten optrekken, waarbij je denk ik veel beter kan zien wat de impact is voor jou en wat het voor jou gaat betekenen.
124
00:08:45,260 --> 00:08:50,580
Ja, en ik denk dat het belangrijk is dat die informatie wordt ontwikkeld door onafhankelijke experts.
125
00:08:50,580 --> 00:08:55,020
Dat je niet alleen maar afhankelijk bent van wat Google vertelt en wat Microsoft vertelt.
126
00:08:55,020 --> 00:08:56,220
Want die brengen de oplossingen.
127
00:08:56,220 --> 00:08:59,620
Precies, ja, en die hebben belang om hun product te verkopen.
128
00:08:59,620 --> 00:09:03,860
Sterker nog, die overdrijven soms, omdat dat marketing technisch heel interessant is.
129
00:09:03,860 --> 00:09:07,860
waarbij OpenAI zegt van ja wij weten eigenlijk ook niet meer hoe je GPT leert.
130
00:09:07,860 --> 00:09:12,860
Dat zorgt ervoor dat dat in de media komt, dat daar van alles over wordt gezegd.
131
00:09:12,860 --> 00:09:15,860
Terwijl zij weten het precies, want zij hebben dat gebouwd.
132
00:09:15,860 --> 00:09:17,860
Het enige wat ze niet weten is welke data ze hebben gebruikt.
133
00:09:17,860 --> 00:09:19,860
Dat is een heel ander verhaal.
134
00:09:19,860 --> 00:09:24,860
Dus actiepunt 1 is stimuleren AI educatie op alle niveaus.
135
00:09:24,860 --> 00:09:25,860
En dat denk ik ook.
136
00:09:25,860 --> 00:09:30,860
Ik bedoel je kunt echt beginnen op basisschoolniveau.
137
00:09:30,860 --> 00:09:35,940
Ik weet dat er een boekje van Bas Haring, dat is specifiek bedoeld voor kinderen, om
138
00:09:35,940 --> 00:09:37,860
ze wegwijs te maken in AI.
139
00:09:37,860 --> 00:09:38,860
Echt waar?
140
00:09:38,860 --> 00:09:39,860
Oh leuk.
141
00:09:39,860 --> 00:09:40,860
Die gaan we opzoeken en in de show noodzetten.
142
00:09:40,860 --> 00:09:43,060
Ja, die gaan we voor thuis bestellen.
143
00:09:43,060 --> 00:09:44,060
Ja, precies.
144
00:09:44,060 --> 00:09:45,660
Dus daar kun je al beginnen.
145
00:09:45,660 --> 00:09:46,660
Ja, duidelijk.
146
00:09:46,660 --> 00:09:47,660
Tweede actiepunt?
147
00:09:47,660 --> 00:09:48,660
Ja, graag.
148
00:09:48,660 --> 00:09:49,660
Oké.
149
00:09:49,660 --> 00:09:54,260
Stimuleer onderzoek en ontwikkeling in mensgerichte AI.
150
00:09:54,260 --> 00:10:00,540
En dat mensgericht, dat vind ik echt cruciaal, omdat veel angst gaat over, ga ik mijn baan
151
00:10:00,540 --> 00:10:10,220
verliezen, gaat AI discrimineren. Om dat allemaal goede banen te leiden heb je AI-ontwikkeling nodig
152
00:10:10,220 --> 00:10:19,620
die vanaf het begin af aan de eindgebruiker, de burger, de consument voor ogen heeft en daar
153
00:10:19,620 --> 00:10:28,380
menselijke waarde in stopt. En niet alleen maar van ontwikkel AI die een probleem oplost zonder
154
00:10:28,380 --> 00:10:31,140
zonder dat we nadenken over hoe dat landt in de samenleving.
155
00:10:31,140 --> 00:10:37,900
De cowboy-achtige manier waarop OpenAI, Chatterjee, Pty & Co. in de samenleving heeft gegroeid,
156
00:10:37,900 --> 00:10:43,420
dat had echt beter gekund als je wat meer de mens erbij betrekt.
157
00:10:43,420 --> 00:10:44,980
Hoe landt dit in de samenleving?
158
00:10:44,980 --> 00:10:47,020
Ja, en dit moeten we denk ik ook breed zien.
159
00:10:47,020 --> 00:10:49,100
Zoals ik hem gelezen heb in ieder geval.
160
00:10:49,100 --> 00:10:50,460
Ik weet niet of je het ook zo bedoelt.
161
00:10:50,460 --> 00:10:55,100
Breed in de zin van hoe test je het, hoe leg je het uit, hoe maak je het transparant,
162
00:10:55,100 --> 00:10:56,100
hoe neem je mensen mee.
163
00:10:56,100 --> 00:10:57,100
Precies.
164
00:10:57,100 --> 00:10:59,100
Dat valt allemaal onder mens gericht.
165
00:10:59,100 --> 00:11:08,100
Het derde actiepunt is stimuleren, brede maatschappelijke, publiek-private samenwerking.
166
00:11:08,100 --> 00:11:15,100
Dat is nodig om te zorgen dat AI iedereen ten goede komt en niet alleen bedrijven.
167
00:11:15,100 --> 00:11:21,100
Dus samenwerking tussen de wetenschappers die wetenschappelijke fundamenten ontwikkelen,
168
00:11:21,100 --> 00:11:27,060
software developers die van die wetenschappelijke momenten, van die wetenschappelijke inzichten
169
00:11:27,060 --> 00:11:32,220
concrete software maken. Bedrijfsleven, maar ook maatschappelijke organisaties.
170
00:11:32,220 --> 00:11:39,660
Juist toch? Ja, juist toch. Precies. Je ziet vaak dat er is zo'n stelregel, misschien dat jullie die
171
00:11:39,660 --> 00:11:46,020
ook wel kennen, dat als het gaat om technologische innovatie dat 25% komt door de technologie en
172
00:11:46,020 --> 00:11:52,920
75% toch eigenlijk allerlei sociale aspecten die je ook moet meenemen. AI verandert organisaties
173
00:11:52,920 --> 00:11:59,520
en als je niet zorgt dat de werknemers, de managers, als je die dan niet in meeneemt,
174
00:11:59,520 --> 00:12:02,520
dan kan zo'n technische ontwikkeling ook niet goed landen.
175
00:12:02,520 --> 00:12:07,520
Ja, technologie is niet de oplossing. Het is hoe we ermee omgaan. Hetzelfde geldt voor AI.
176
00:12:07,520 --> 00:12:08,520
Precies.
177
00:12:08,520 --> 00:12:11,520
Het is niet de oplossing, maar het is hoe we ermee omgaan. En daar zit een heel stuk in projecten.
178
00:12:11,520 --> 00:12:16,420
ook verandermanagement, werkverandering, procesverandering, verantwoordelijkheidverandering
179
00:12:16,420 --> 00:12:17,720
die er allemaal bij komt inderdaad.
180
00:12:17,720 --> 00:12:23,820
Nou je had het net over OpenAI, dat had zeg maar beter over nagedacht kunnen worden.
181
00:12:23,820 --> 00:12:31,220
Ik denk juist omdat zij, ze hadden eerst daar een hele andere gebruiksinterface op die heel
182
00:12:31,220 --> 00:12:32,220
technisch was.
183
00:12:32,220 --> 00:12:37,700
De chatfunctie hebben ze voor zichzelf gemaakt en die hebben ze opengesteld.
184
00:12:37,700 --> 00:12:39,540
Ik denk dat ze helemaal geen idee hadden.
185
00:12:39,540 --> 00:12:44,020
Dat dit zo groot op dat moment zou worden.
186
00:12:44,020 --> 00:12:48,540
Precies wat jij zegt, de technologie was er, alles was er.
187
00:12:48,540 --> 00:12:52,540
Maar in een keer door een andere ervaring eraan te koppelen...
188
00:12:52,540 --> 00:12:58,540
Deze innovatie had ook dood kunnen vallen.
189
00:12:58,540 --> 00:13:03,540
Zonder dat ze de chat erbij hadden gehaald.
190
00:13:03,540 --> 00:13:06,540
Het gemak van de chat.
191
00:13:06,540 --> 00:13:09,540
Ik denk dat dat echt wel het grote verschil heeft gemaakt.
192
00:13:09,540 --> 00:13:15,540
Ik heb wel het idee dat het ook wel een beetje typisch Amerikaanse cultuur is.
193
00:13:15,540 --> 00:13:18,540
Move fast and break things.
194
00:13:18,540 --> 00:13:22,540
Gooi het er maar in en dan zien we wel wat er gebeurt.
195
00:13:22,540 --> 00:13:23,540
Ja, zeker.
196
00:13:23,540 --> 00:13:30,540
En in Europa zijn we denk ik iets meer gericht op wat is het belang voor de burger.
197
00:13:30,540 --> 00:13:33,540
en kunnen we dat allemaal een beetje goed kanaliseren.
198
00:13:33,540 --> 00:13:37,540
Gelukkig maar. Ik bedoel tenminste, ik ben blij dat ik een Europese burger ben.
199
00:13:37,540 --> 00:13:44,540
Ik heb uit betrouwbare bron begrepen van iemand die bij Google werkt,
200
00:13:44,540 --> 00:13:48,540
op een vrij hoog niveau, dat ze daar, toen ze dat zagen van ChatGPT,
201
00:13:48,540 --> 00:13:53,540
dat ze echt zeien, dit kan niet, dat kun je niet zo snel lanceren.
202
00:13:53,540 --> 00:13:58,540
Dit zijn echt cowboys daar bij OpenAI, dat zouden wij nooit zo doen.
203
00:13:58,540 --> 00:14:02,740
Nou, en zij hadden ook nog eens een keer het probleem dat een jaar eerder...
204
00:14:02,740 --> 00:14:04,800
Nee, volgens mij was het nog in hetzelfde jaar.
205
00:14:04,800 --> 00:14:09,700
Google zelf, een medewerker, was een medewerker van Google...
206
00:14:09,700 --> 00:14:13,180
die zei van, hé, maar ik heb nou een systeem binnen Google gezien...
207
00:14:13,180 --> 00:14:14,580
die zelf bewustzijn heeft.
208
00:14:14,580 --> 00:14:17,100
En toen heeft Google overal de rem opgezet.
209
00:14:17,100 --> 00:14:22,460
Dus ik kan me zo voorstellen dat Google ook niet heel blij was met OpenAI...
210
00:14:22,460 --> 00:14:25,540
want uiteindelijk zijn zij de bedenker van de large language models.
211
00:14:25,560 --> 00:14:30,560
En er gaat een ander met de winst om door.
212
00:14:30,560 --> 00:14:33,560
Die wetenschappelijke fundamenten waar je het over hebt, dat is van 2017 al.
213
00:14:33,560 --> 00:14:35,560
Dat is Google werk.
214
00:14:35,560 --> 00:14:39,560
Ja, attention is all you need, heette Peper.
215
00:14:39,560 --> 00:14:47,560
Ik was nog wel nieuwsgierig, heb je een mooi voorbeeld van die maatschappelijke, publiek-private samenwerking die je nu al ziet?
216
00:14:50,560 --> 00:14:56,360
Ik denk niet dat ik zo snel een concreet voorbeeld voor je per raad heb.
217
00:14:56,360 --> 00:14:58,400
Daar zou ik wat langer over moeten nadenken.
218
00:14:58,400 --> 00:14:59,400
Sorry Niels.
219
00:14:59,400 --> 00:15:00,400
Komt er een andere keer.
220
00:15:00,400 --> 00:15:10,840
Het vierde actiepunt wat in de brief hebben staan is zorgen dat je als overheid de veranderingen
221
00:15:10,840 --> 00:15:13,800
in werk door AI in goede banen leidt.
222
00:15:13,800 --> 00:15:16,720
Want dat zie je natuurlijk in diverse bedrijfstakken.
223
00:15:16,720 --> 00:15:22,080
onderwijzen denk ik het meest concrete voorbeeld wat echt in de afgelopen half jaar toch enorm
224
00:15:22,080 --> 00:15:27,960
veel extra werk voor zijn kiezen heeft gekregen door zo'n systeem als Chadgpt.
225
00:15:27,960 --> 00:15:36,280
Ik weet van softwareontwikkelaars dat Chadgpt door heel veel programmeurs al gebruikt wordt
226
00:15:36,280 --> 00:15:38,840
om nu razendsnel code te genereren.
227
00:15:38,840 --> 00:15:41,560
Dus ook daar gaat het heel erg snel.
228
00:15:41,560 --> 00:15:48,980
Ik zie het wel als een taak van de overheid om te zorgen dat de veranderingen die dan
229
00:15:48,980 --> 00:15:54,700
binnen banen vaak gaan ontstaan, om dat te proberen een beetje in goede banen te leiden.
230
00:15:54,700 --> 00:15:56,240
Want dat gaat gewoon heel veel veranderen.
231
00:15:56,240 --> 00:16:00,980
Niet voor een individu, maar voor hele grote groepen.
232
00:16:00,980 --> 00:16:04,060
Ja, en binnen organisaties ook.
233
00:16:04,060 --> 00:16:08,100
Toevallig las ik, voordat ik hier naartoe kwam, een persbericht van onderzoek bij de
234
00:16:08,100 --> 00:16:09,100
Vrije Universiteit.
235
00:16:09,100 --> 00:16:15,220
zit een hele groep en die onderzoekt als een soort antropologe van hoe AI het werk binnen
236
00:16:15,220 --> 00:16:16,540
organisaties verandert.
237
00:16:16,540 --> 00:16:21,300
En de afgelopen maanden hebben die al onderzoek gedaan naar hoe chatgpt wordt gebruikt in bepaalde
238
00:16:21,300 --> 00:16:27,060
organisaties en die concludeerden dat dat er bijvoorbeeld toe leidt dat mensen die net bij
239
00:16:27,060 --> 00:16:33,740
zo'n bedrijf binnenkomen chatgpt dan gaan gebruiken, bijvoorbeeld voor tekstschrijven,
240
00:16:34,260 --> 00:16:40,860
Terwijl ze normaaliter zouden naar een senior medewerker zijn gegaan, daar een praatje mee hebben gemaakt.
241
00:16:40,860 --> 00:16:42,380
En dat verdwijnt nu.
242
00:16:42,380 --> 00:16:45,260
En dat soort dingen, daar moet je wel over nadenken.
243
00:16:45,260 --> 00:16:47,420
En misschien gaan we er uiteindelijk allemaal oplossingen voor verzinnen.
244
00:16:47,420 --> 00:16:52,980
Dat kan best, maar het laat wel zien dat ook binnen een organisatie je verandering krijgt...
245
00:16:52,980 --> 00:16:56,660
waar je ook helemaal niet aan hoeft te hebben gedacht van tevoren.
246
00:16:56,660 --> 00:16:58,220
Dat dat het gevolg is.
247
00:16:58,220 --> 00:17:00,060
Vooral dat. Dat je er niet over na had gedacht.
248
00:17:00,060 --> 00:17:03,300
Je zegt het nu en ik denk, ja, maar daar zit eigenlijk heel veel waarde in.
249
00:17:03,300 --> 00:17:06,460
dat ze juist naar die senior collega's gaan om aan het netwerk te bouwen,
250
00:17:06,460 --> 00:17:08,460
maar ook veel meer andere bijvangst hebben.
251
00:17:08,460 --> 00:17:11,260
Terwijl de taak was hetzelfde, maar wat er omheen gebeurde...
252
00:17:11,260 --> 00:17:13,260
- Ja, we hebben nu een...
253
00:17:13,260 --> 00:17:18,140
Ja, het klinkt heel zwaar, maar een 'denk tank' hebben we binnen de organisatie...
254
00:17:18,140 --> 00:17:23,660
over juist dit soort challenges, laten we het zo zeggen, uitdagingen.
255
00:17:23,660 --> 00:17:29,300
Van hoe ga je inderdaad zo direct met mensen die junior zijn, om...
256
00:17:30,540 --> 00:17:45,940
van kijk het is heel makkelijk als je zo direct als je een senior developer bent en je kan met co-pilot aan de slag en die geeft code die kan je zelf heel goed nakijken en je snapt waar alle mogelijke problemen in zitten maar je bent senior geworden door ervaring op te doen door fouten te maken
257
00:17:45,940 --> 00:17:58,020
ja hoe gaat dat dan zo direct met juniors dus daar zijn we heel erg aan het nadenken inderdaad van ja maar hoe zorg je nog dat de mensen misschien niet is het dezelfde route maar ze moeten wel ervaring op gaan doen
258
00:17:58,020 --> 00:18:05,380
Wat ik een heel mooi voorbeeld vind uit dezelfde onderzoeksgroep, is van een paar jaar geleden,
259
00:18:05,380 --> 00:18:06,860
en iets anders dan de Chatty P.T.
260
00:18:06,860 --> 00:18:08,860
Dat ik wel een ander voorbeeld noem.
261
00:18:08,860 --> 00:18:15,080
Ze zijn op een gegeven moment gaan kijken hoe operatierobots worden gebruikt en hoe veranderen
262
00:18:15,080 --> 00:18:16,780
die het werk dat gebeurt.
263
00:18:16,780 --> 00:18:23,700
Bij een operatierobot heb je dan een menselijke chirurg die zit achter een grote console op
264
00:18:23,700 --> 00:18:26,220
een paar meter afstand van de operatietafel.
265
00:18:26,220 --> 00:18:28,700
Aan die operatiestafel staan assistenten.
266
00:18:28,700 --> 00:18:32,700
Klassiek gezien stond die chirurg ernaast.
267
00:18:32,700 --> 00:18:37,100
En dan blijkt dat doordat die operatierobot op afstand staat,
268
00:18:37,100 --> 00:18:38,300
en die chirurg nu ook,
269
00:18:38,300 --> 00:18:45,500
dat die hele communicatie tussen de assistenten en de chirurg ineens heel anders is.
270
00:18:45,500 --> 00:18:47,220
Want die chirurg staat op afstand.
271
00:18:47,220 --> 00:18:52,300
Dat zijn allemaal van die kleine veranderingen in werk door AI, door robotica,
272
00:18:52,300 --> 00:18:56,660
Waar de ontwikkelaars misschien aan het begin geen rekening mee hebben gehouden.
273
00:18:56,660 --> 00:18:59,140
Maar die je wel voor ogen moet zorgen.
274
00:18:59,140 --> 00:19:02,540
Ja, want ik kan me zo voorstellen dat de assistenten die er omheen staan,
275
00:19:02,540 --> 00:19:06,300
bijvoorbeeld op een gegeven moment aan de diepe denkrempels van de chirurg zien van,
276
00:19:06,300 --> 00:19:10,340
misschien moet ik een vraag aanstellen of gaat het goed.
277
00:19:10,340 --> 00:19:12,340
En dat ben je helemaal kwijt.
278
00:19:12,340 --> 00:19:18,860
En het bleek bijvoorbeeld dat de taken die die assistenten dan moeten doen in de nieuwe situatie met die robot,
279
00:19:18,860 --> 00:19:23,460
Daar komen wat nieuwe taken bij die de chirurg eerder deed.
280
00:19:23,460 --> 00:19:26,460
Dat zorgt ervoor dat je ze iets anders moet opleiden.
281
00:19:26,460 --> 00:19:27,460
Verschuiving van werk.
282
00:19:27,460 --> 00:19:33,420
Ja, hetzelfde wat je trouwens zag met piloten die anders werden opgeleid toen de automatische
283
00:19:33,420 --> 00:19:34,980
piloot zijn intrede deed.
284
00:19:34,980 --> 00:19:38,860
Want de automatische piloot nam bepaalde dingen over, maar je wil wel dat als het een nood
285
00:19:38,860 --> 00:19:41,700
aan de man is, dat die menselijke piloot kan ingrijpen.
286
00:19:41,700 --> 00:19:42,700
Absoluut.
287
00:19:42,700 --> 00:19:45,940
Dus je hebt vaak anders wat de training nodig binnen banen.
288
00:19:45,940 --> 00:19:49,940
Ik denk dat iedere organisatie hierover na moet denken.
289
00:19:49,940 --> 00:19:54,440
Het vijfde actiepunt wat we in de brief naar al die politieke partijen hebben gezet is
290
00:19:54,440 --> 00:19:58,440
werk aan effectieve en ook uitvoerbare wet- en regelgeving.
291
00:19:58,440 --> 00:20:00,940
Dat sluit aan bij het puntje waar jij mee begon.
292
00:20:00,940 --> 00:20:02,940
Daar komt die AI-act aan.
293
00:20:02,940 --> 00:20:05,940
Die gaat ook in Nederland zijn intrede doen.
294
00:20:05,940 --> 00:20:10,940
Nederland moet zich daar aan houden, maar het zou best kunnen dat je hier en daar als
295
00:20:10,940 --> 00:20:16,780
Nederland iets moet tweaken, dat je misschien hier een eigen regelgeving moet ontwikkelen.
296
00:20:16,780 --> 00:20:23,420
En vooral ook, je kunt wel die wet hebben, maar hebben we voldoende mensen om die wet
297
00:20:23,420 --> 00:20:25,020
ook te controleren straks?
298
00:20:25,020 --> 00:20:29,940
Ik denk dat we in Nederland terechtkomen bij de autoriteit persoonsgegevens, is dat geloof
299
00:20:29,940 --> 00:20:30,940
ik?
300
00:20:30,940 --> 00:20:31,940
Ja, ik denk het ook.
301
00:20:31,940 --> 00:20:36,620
Volgens mij gaat die straks daarmee belast worden en hebben we daar allemaal voldoende
302
00:20:36,620 --> 00:20:37,620
mensen voor.
303
00:20:37,620 --> 00:20:38,620
Die hebben nu al de handen vol aan de AVG.
304
00:20:38,620 --> 00:20:39,620
Precies, die hebben nu al de handen vol.
305
00:20:39,620 --> 00:20:46,020
Straks komt daar die AI-act bij. Dat is wel een taak van de politieker om erover na te denken.
306
00:20:46,020 --> 00:20:47,620
Hoe gaan we dat doen?
307
00:20:47,620 --> 00:20:50,420
Dat vind ik eigenlijk wel een mooie.
308
00:20:50,420 --> 00:20:55,220
Hier is het wel heel erg duidelijk dat er politieke keuzes nodig zijn bij nummer 5.
309
00:20:55,220 --> 00:21:00,020
Maar bij nummer 1 tot en met 4 kan ik me haast niet voorstellen dat mensen het daarmee oneens zijn.
310
00:21:00,020 --> 00:21:07,020
Welke politieke keuzes zie jij die gemaakt worden waarbij er misschien...
311
00:21:07,020 --> 00:21:12,020
Ik wil juist niet zeggen links en rechtsaf.
312
00:21:12,020 --> 00:21:22,020
Ik kan me wel voorstellen dat de maat dat je in je bedrijfsleven vrijheid geeft om risico te nemen,
313
00:21:22,020 --> 00:21:26,020
dat is wel afhankelijk van de politieke kleur.
314
00:21:26,020 --> 00:21:32,020
Ik vermoed dat de VVD wat meer risico wil nemen dan de SP bijvoorbeeld.
315
00:21:32,020 --> 00:21:39,020
Dus daarom is de oproep ook van denk als politieke partij zelf naar wat jullie visie is.
316
00:21:39,020 --> 00:21:43,020
Wat vind je dat AI zou moeten bijdragen?
317
00:21:43,020 --> 00:21:48,020
En ik denk dat dat afhangt van je visie hoe dat precies gaat uitpakken.
318
00:21:48,020 --> 00:21:53,020
Ja, snap ik. En op de andere punten, weet je, zijn daar...
319
00:21:53,020 --> 00:21:57,020
Hoe zie je daar politieke afweging in?
320
00:21:57,020 --> 00:22:00,020
Als het gaat om maatschappelijk, publiek, private samenwerking,
321
00:22:00,020 --> 00:22:06,020
Ik denk dat ook daar dat je zult zien dat er wat meer liberale partijen gewoon wat meer vrijheid aan de markt willen geven.
322
00:22:06,020 --> 00:22:12,020
En wat meer linkse partijen wat dichter bij de burger gaan staan.
323
00:22:12,020 --> 00:22:16,020
En denk ik minder risico's willen gaan nemen.
324
00:22:16,020 --> 00:22:19,020
Dus daar moet je over nadenken.
325
00:22:19,020 --> 00:22:20,020
Duidelijk.
326
00:22:20,020 --> 00:22:22,020
Vind ik wel een goeie.
327
00:22:22,020 --> 00:22:25,020
Ben benieuwd of we het terug gaan zien in de verkiezingsprogramma's daar.
328
00:22:25,020 --> 00:22:31,520
We hebben dus die brief en dat boekje gestuurd aan alle partijen die nu in de Kamer zitten,
329
00:22:31,520 --> 00:22:33,520
vooral aan de verkiezingscommissies.
330
00:22:33,520 --> 00:22:37,520
Ik had zelf al gedacht dat ze dat waarschijnlijk een beetje als eenrichtingsverkeer zouden beschouwen,
331
00:22:37,520 --> 00:22:38,520
dus ontvangen dat.
332
00:22:38,520 --> 00:22:42,520
Het is niet zo dat we allemaal antwoord hebben gekregen van we gaan er iets mee doen.
333
00:22:42,520 --> 00:22:43,520
Ik hoop het wel.
334
00:22:43,520 --> 00:22:50,520
Je zou haast zeggen, je kan je als politieke partij in ieder geval niet serieus nemen
335
00:22:50,520 --> 00:22:53,520
als je niet iets opneemt over dit onderwerp, toch?
336
00:22:53,520 --> 00:22:57,520
Het is maatschappij veranderend.
337
00:22:57,520 --> 00:23:00,520
De vraag is heel breed, de angst is heel breed.
338
00:23:00,520 --> 00:23:04,520
Dus het zou een beetje raar zijn als je het niet opneemt.
339
00:23:04,520 --> 00:23:07,520
Maar goed, politiek verbaast me wel eens vaker.
340
00:23:07,520 --> 00:23:10,520
Er is een commissie in de Tweede Kamer die gaat over digitale zaken.
341
00:23:10,520 --> 00:23:14,520
Dus die heeft de ogen en oren hier ook wel voor open.
342
00:23:14,520 --> 00:23:18,520
Maar ik vind toch dat er de afgelopen jaren vrij weinig visie over is ontwikkeld.
343
00:23:18,520 --> 00:23:19,520
Ja toch?
344
00:23:19,520 --> 00:23:20,520
Ja.
345
00:23:20,520 --> 00:23:24,680
Wat vind je van de AI-act die eraan komt?
346
00:23:24,680 --> 00:23:26,240
Hoe kijk jij daar tegenaan?
347
00:23:26,240 --> 00:23:33,760
Ik moet zeggen dat ik de hele precieze details niet ken, maar ik vind het wel heel goed dat
348
00:23:33,760 --> 00:23:35,720
Europa het voertuig heeft genomen.
349
00:23:35,720 --> 00:23:40,720
Eigenlijk ook al vrij vroeg, want men is er al vanaf 2019 over beginnen na te denken.
350
00:23:40,720 --> 00:23:48,880
Wat ik heel goed aan die AI-act vind, is dat er drie risicokategorieën zijn gedefinieerd
351
00:23:48,880 --> 00:23:52,460
van laag risico, laat ik zeggen, machineel vertalen, als daar een foutje wordt gemaakt
352
00:23:52,460 --> 00:23:57,580
heeft dat niet enorm een grote impact, tot heel hoog risico. Allemaal camera's ophangen
353
00:23:57,580 --> 00:24:05,620
in de openbare ruimte en met gezichtsherkenning gaan werken van je fietst aan de verkeerde
354
00:24:05,620 --> 00:24:09,980
kant van de weg, dat mag niet boeten. Dat willen we absoluut dien. Dus dat vind ik heel
355
00:24:09,980 --> 00:24:14,460
goed, een onderscheid in risicokategorieën. En daar bovenop nog onervaardbaar eigenlijk.
356
00:24:14,460 --> 00:24:21,460
Wat ik niet goed weet is hoe ze omgaan met die grote taalmodellen zoals GPT.
357
00:24:21,460 --> 00:24:26,960
Ik weet niet of dat al uitgekristalliseerd is, wat ze daar precies mee willen.
358
00:24:26,960 --> 00:24:30,960
Ik zou het goed vinden wanneer ze gaan kijken naar specifieke toepassingen.
359
00:24:30,960 --> 00:24:38,460
Ik zou het niet goed vinden wanneer ze regulering gaan toepassen op modellen an sich.
360
00:24:38,460 --> 00:24:39,960
Dat lijkt me geen goed idee.
361
00:24:39,960 --> 00:24:42,760
Dat is wel een goede. Dat weet ik niet zeker.
362
00:24:42,760 --> 00:24:50,760
Maar het mooie van de wetgeving, tenminste zover ik de harte details van ken...
363
00:24:50,760 --> 00:24:54,260
is dat ze in ieder geval appendices gaan krijgen...
364
00:24:54,260 --> 00:24:56,360
waarin ze dingen bij kunnen voegen.
365
00:24:56,360 --> 00:24:59,380
Dus dat ze de technologie ook een beetje bij kunnen houden.
366
00:24:59,380 --> 00:25:04,220
Natuurlijk nooit real-time, maar wel veel sneller dan dat dat nu kan.
367
00:25:06,660 --> 00:25:10,060
Er gaat iets gezegd worden over large language models.
368
00:25:10,060 --> 00:25:11,840
Ja, maar ik weet niet precies wat.
369
00:25:11,840 --> 00:25:14,700
Ik hoop dat het niet gaat zijn op het niveau van...
370
00:25:14,700 --> 00:25:18,800
we willen large language models verbieden...
371
00:25:18,800 --> 00:25:21,640
of we willen dat ze van tevoren aan die eisen gaan voldoen.
372
00:25:21,640 --> 00:25:25,240
Ik hoop dat het meer op het niveau van dienst en producten gaat.
373
00:25:25,240 --> 00:25:26,740
Zou ook veel logischer zijn. - Ja.
374
00:25:26,740 --> 00:25:28,560
Toepassing ervan.
375
00:25:28,560 --> 00:25:31,760
Ook al omdat we gewoon niet precies kunnen weten...
376
00:25:31,760 --> 00:25:34,500
hoe die modellen over vijf jaar gebruikt gaan worden...
377
00:25:34,520 --> 00:25:36,760
en wat de goede en slechte dingen zijn.
378
00:25:36,760 --> 00:25:38,760
En waar het zich naartoe beweegt.
379
00:25:38,760 --> 00:25:45,960
Dus ik ben zelf een heel groot voorstander om de wetenschappelijke ontwikkeling zo open mogelijk te houden.
380
00:25:45,960 --> 00:25:53,160
En de regelgeving echt op het niveau van de producten en diensten te zetten.
381
00:25:53,160 --> 00:25:54,680
Die moeten aan bepaalde eisen voldoen.
382
00:25:54,680 --> 00:25:58,520
Die mogen niet discrimineren, die mogen niet...
383
00:25:58,520 --> 00:25:59,520
Precies.
384
00:25:59,520 --> 00:26:05,520
Ja, echt de fundamentele waarden die we in Europa hebben, dat dat uiteindelijk ergens in doorklinkt.
385
00:26:05,520 --> 00:26:12,520
Heel mooi. Nou, als laatste wil ik het woord geven aan onze virtuele co-host.
386
00:26:12,520 --> 00:26:17,520
Je had er al in de vorige aflevering kennis mee gemaakt. Aisha.
387
00:26:17,520 --> 00:26:22,520
Oh, Aisha die start niet in.
388
00:26:22,520 --> 00:26:25,520
Zie je een mooie samenwerking tussen mensen.
389
00:26:25,520 --> 00:26:28,520
Ja, maar ik zie het wel.
390
00:26:28,520 --> 00:26:33,520
Precies, ze is er even niet, dus we slaan haar even over.
391
00:26:33,520 --> 00:26:37,520
Ik vind sowieso de brief echt een heel erg goed initiatief.
392
00:26:37,520 --> 00:26:40,520
Wij zullen hem ook opnemen in de show notes.
393
00:26:40,520 --> 00:26:44,520
Hopelijk gaan inderdaad de politieke partijen daar iets mee doen.
394
00:26:44,520 --> 00:26:46,520
Dan zien we het terug.
395
00:26:46,520 --> 00:26:54,720
En laten we kijken dat we visie gaan krijgen vanuit de Nederlandse overheid op dit belangrijk onderwerp.
396
00:26:54,720 --> 00:27:03,320
Ja, en het zal heel veel helpen wanneer Kamerleden gewoon een basaal idee hebben van wat kunstmatige intelligentie wel en niet goed kan.
397
00:27:03,320 --> 00:27:12,920
Ik heb een paar maanden geleden, woonde ik online, een briefing bij waarbij twee hoogleraar, iemand uit het bedrijfsleven,
398
00:27:12,920 --> 00:27:17,600
De digitale commissie uit de Tweede Kamer voorlichte over AI.
399
00:27:17,600 --> 00:27:22,140
En ik had uit de vragen die gesteld werden wel de indruk dat er nog wel wat moet gebeuren
400
00:27:22,140 --> 00:27:26,040
aan basiskennis over AI.
401
00:27:26,040 --> 00:27:27,040
Ja, precies.
402
00:27:27,040 --> 00:27:28,040
Dat geloof ik zeker.
403
00:27:28,040 --> 00:27:29,040
En dat is breed.
404
00:27:29,040 --> 00:27:35,560
AI is er toch nog gekomen, Bennie.
405
00:27:35,560 --> 00:27:40,280
Dus komt ze aan.
406
00:27:40,280 --> 00:27:46,280
Toch? Toch, toch, toch, toch, toch, toch.
407
00:27:46,280 --> 00:27:50,280
Toch niet. Nee.
408
00:27:50,280 --> 00:27:52,280
Het gaat niet lukken vandaag.
409
00:27:52,280 --> 00:27:54,280
Bennie, hartstikke bedankt. Bedankt voor je input.
410
00:27:54,280 --> 00:27:58,280
We vinden beide belangrijke onderwerpen,
411
00:27:58,280 --> 00:28:02,280
dus het optrekken van de mist, waar we het over hebben gehad,
412
00:28:02,280 --> 00:28:06,280
het kennis opdoen, dat is onze eigen verantwoordelijkheid.
413
00:28:06,280 --> 00:28:08,280
Daar hoeven we niet voor naar de overheid te kijken.
414
00:28:08,280 --> 00:28:10,720
We moeten ook niet voor alles naar de overheid kijken, wat mij betreft.
415
00:28:10,720 --> 00:28:11,840
Dat kan je zelf doen.
416
00:28:11,840 --> 00:28:13,560
Lees het boekje Slim, Slimmer, Slimst.
417
00:28:13,560 --> 00:28:16,600
Doe de nationale AI-cursus net, wat je interessant vindt.
418
00:28:16,600 --> 00:28:20,760
Die heb ik ook gedaan, trouwens. Met heel veel plezier.
419
00:28:20,760 --> 00:28:22,160
Al helemaal in het begin.
420
00:28:22,160 --> 00:28:24,680
Zodra ik je introduceerde, dacht ik, ik ga hem ook doen.
421
00:28:24,680 --> 00:28:26,320
Ja, en het mooie is dat je nu zelf...
422
00:28:26,320 --> 00:28:27,440
Ja, dat vind ik echt mooi.
423
00:28:27,440 --> 00:28:30,360
Dat op de specifieke sector dat je meegenomen wordt,
424
00:28:30,360 --> 00:28:31,800
dat het ook heel erg tastbaar wordt.
425
00:28:31,800 --> 00:28:36,480
Want het is al overal, alleen mensen beseffen dus niet dat het daaronder AI zit.
426
00:28:36,500 --> 00:28:41,500
Dus dat maakt het nog praktisch toepasbaarder en ook dichtbij om makkelijker te leren kennen.
427
00:28:41,500 --> 00:28:44,500
Nou, dat is een mooie afsluiting, denk ik.
428
00:28:44,500 --> 00:28:45,500
Zeker.
429
00:28:45,500 --> 00:28:50,500
Dank je wel dat je weer wilde luisteren naar een aflevering van AI Today Live.
430
00:28:50,500 --> 00:28:52,500
Penny, dank je wel dat je onze gast wilde zijn.
431
00:28:52,500 --> 00:28:53,500
Super, graag gedaan.
432
00:28:53,500 --> 00:28:58,500
En vergeet je niet te abonneren via je favoriete podcast-app, dan mis je geen enkele aflevering.
433
00:28:58,500 --> 00:29:00,500
434
00:29:00,500 --> 00:29:01,500
***